Um juiz do Tribunal de Apelações de Nova York ficou indignado quando o demandante em um caso antes que ele tentou usar um advogado gerado pela IA, que ele criou, para apresentar seu argumento perante o painel.
Jerome Dewald, 74, havia começado a apresentar seu argumento em uma disputa de emprego antes do estado de Nova York Suprema Corte O primeiro departamento judicial da divisão de apelação no mês passado, quando seu método chocou o tribunal, mostrando assustadoramente o rápido aumento da tecnologia.
Em uma reviravolta bizarra, o Conselho de Dewald não era realmente um advogado, mas um cavalheiro gerado artificialmente criado usando Ai Tecnologia – um ‘truque’ que deixou o painel enfurecido.
‘Eu não aprecio ser enganado’, juiz Sallie Manzanet-Daniels disse no tribunal.
Em 26 de março, Dewald sentou-se com as mãos dobradas em seu colo no tribunal de Manhattan, esperando que o painel ouça seu argumento pela reversão da decisão de um tribunal inferior em uma disputa com um ex-empregador.
O homem de 74 anos havia recebido permissão prévia do tribunal para pré-registrar uma apresentação em vídeo para ajudar com seu argumento, pois estava se representando no caso.
Assim que o vídeo começou a tocar, um jovem sorridente vestindo uma camisa azul de colarinho coberta com um suéter bege de meio zip apareceu na tela, aparentemente parado na frente de um fundo virtual luxuoso, embora borrado e virtual.
“Que agradem ao tribunal”, disse o homem falso. “Venho aqui hoje um humilde profissional antes de um painel de cinco juízes distintos.”

Jerome Dewald, 74, de Nova York, foi repreendido por um juiz do Tribunal de Apelações por criar um avatar gerado pela IA para representar seu argumento em uma disputa de emprego em frente ao painel do Primeiro Painel do Departamento Judicial da Suprema Corte do Estado de Nova York

No vídeo – que Dewald inicialmente obteve permissão para pré -revisar um vídeo para ajudar com seu argumento – um jovem sorridente vestindo uma camisa azul de colarinho coberta com um suéter bege meio zip apareceu na tela, aparentemente em pé na frente de um fundo luxuoso, embora borrado e virtual
Os juízes rapidamente sentiram que algo estava errado, pois foram vistos trocando olhares pasmo, virando -se um ao outro em pura confusão.
‘Tudo bem’, Manzanet-Daniels interrompeu imediatamente. ‘Isso é … é … aguarde … esse conselho é o caso?’
“Eu gerei isso”, respondeu Dewald. “Isso não é uma pessoa real.”
Manzanet-Daniels parecia atordoado com sua explicação, fazendo uma pausa por um momento com uma expressão clara de descontentamento em seu rosto.
‘Teria sido bom saber que quando você fez sua inscrição. Você não me disse que senhor ‘, afirmou severamente, gritando pelo tribunal para que o vídeo fosse retirado da tela.
“Recebi o pedido e você apareceu perante este Tribunal e consegui testemunhar – verbalmente – no passado”, acrescentou.
– Você foi ao escritório do meu funcionário e manteve conversas verbais com nossa equipe por mais de 30 minutos. OK? Se você quiser ter tempo de argumento oral, pode se levantar e me dar. Não aprecio ser enganado. ‘
Em uma carta de desculpas, Dewald reconheceu sua tentativa gerada pela IA em apresentar seu argumento legal ‘inadvertidamente enganado’ o Tribunal, embora sustentasse que ele nunca pretendia causar nenhum dano no processo, O New York Times relatou.

Em uma carta de desculpas escrita após o incidente, Dewald reconheceu sua tentativa gerada pela IA em apresentar seu argumento legal ‘inadvertidamente enganado’ o Tribunal, embora sustentasse que ele nunca pretendia causar nenhum dano no processo

Os juízes rapidamente sentiram que algo estava errado, pois foram vistos trocando olhares pasmo, virando -se um para o outro em pura confusão antes de ordenar que o vídeo seja desligado momentos depois
“O tribunal ficou realmente chateado com isso”, disse ele durante uma entrevista com o AP. “Eles me mastigaram muito bem.”
O empresário auto-descrito explicou seus planos de criar uma versão digital de si mesmo, mas devido a ‘dificuldades técnicas’, ele não conseguiu fazê-lo e, em vez disso, criou uma persona falsa e de aparência mais jovem.
No entanto, a audiência deixou Dewald dominada pela humilhação ao expressar profundo arrependimento por suas ações, explicando que ele acreditava estar usando inteligência artificial para sempre.
A lógica por trás de sua decisão, disse ele, acreditava que um avatar apresentaria seu argumento mais fluentemente na sala do tribunal, pois temia tropeçar em suas próprias palavras enquanto falava com o painel.
“Minha intenção nunca era enganar, mas apresentar meus argumentos da maneira mais eficiente possível”, escreveu Dewald na carta, informou o NYT.
“No entanto, reconheço que a divulgação e a transparência adequadas devem sempre ter precedência.”
Apesar da natureza bizarra do método de Dewald, essa não seria a primeira vez que a IA infiltrou os tribunais e os procedimentos legais.
Em 2023, um advogado usou o ChatGPT para criar um resumo legal, embora estivesse saturado com opiniões judiciais falsas e citações legais, informou o NYT.

A lógica por trás de sua decisão, disse Dewald, acreditava que um avatar apresentaria seu argumento mais fluentemente na sala do tribunal, pois temia tropeçar em suas próprias palavras enquanto falava com o painel

A juíza Sallie Manzanet-Daniels (à esquerda) repreendeu Dewald no tribunal, alegando que ela não ‘aprecia ser enganada’
O advogado de Manhattan enfrentou severas conseqüências por suas ações, que mostraram as falhas que podem surgir no mundo jurídico de confiar nos sistemas de IA para problemas do mundo real.
Michael Cohen, ex -advogado e fixador do presidente Donald Trump, forneceu a seu advogado citações legais falsas geradas pelo programa de inteligência artificial Google Bard naquele mesmo ano.
Cohen implorou ao juiz federal por ceniência, argumentando que ele não tinha conhecimento de serviços de texto generativos poderia fornecer ao usuário informações falsas.
“Eles ainda podem alucinar – produzir informações muito atraentes que são realmente falsas ou sem sentido”, disse Daniel Shin, diretor assistente de pesquisa do Centro de Tecnologia Legal e Court da William & Mary Law School, ao NYT.
“Esse risco deve ser abordado.”