Advogado usa o ChatGPT como fonte de pesquisa legal e a Inteligência Artificial “inventa” citações judiciais.
Não há dúvida que a criação do ChatGPT e sua popularização meteórica ascendeu o alerta quanto a possibilidade de que os mecanismos de pesquisa como o Google se tornariam de imediato obsoletos.
Entretanto, após a extensão dos testes práticos e uso cotidiano da ferramenta, o que tem se mostrado é a falta de confiança geral nos resultados que o ChatGPT apresenta, e não é para menos!
Desta vez, um renomado advogado, com mais de 30 anos de carreira foi a “vítima”. Ao utilizar do instrumento de consulta para obter citações aplicáveis a um caso judicial, o jurista recebeu dados falsos, criados pela IA.
Conforme o que foi publicado pela CNN Brasil, um cidadão chamado Roberto Mata processou a companhia aérea Avianca por ferimentos que ele diz ter sofrido por um carrinho de serviço enquanto voava pela companhia aérea em 2019, alegando negligência de um funcionário. Steven Schwartz, advogado há mais de três décadas e representando a firma “Levidow, Levidow & Oberman” de Nova York, foi o advogado responsável pela ação de Mata na justiça.
Mas pelo menos seis dos casos apresentados por Schwartz como pesquisa para a peça jurídica “parecem ser falsas decisões judiciais com citações falsas”, escreveu o juiz Kevin Castel, do Distrito Sul de Nova York, em uma decisão.
A fonte de casos falsos foi o ChatGPT.
“O tribunal tem em suas mãos uma circunstância sem precedentes”, escreveu Castel na decisão de 4 de maio.
Schwartz, em uma declaração, disse que nunca tinha usado o ChatGPT como fonte de pesquisa legal antes desse caso e, portanto, “desconhecia a possibilidade de que seu conteúdo pudesse ser falso”. Ele assumiu a responsabilidade de não confirmar as fontes citadas pela inteligência artificial.
Em uma declaração juramentada nesta semana, o advogado disse que “lamenta muito ter utilizado inteligência artificial generativa para complementar a pesquisa legal realizada e nunca fará isso no futuro sem verificação absoluta de autenticidade”.
No final de abril, os advogados da Avianca, da firma Condon & Forsyth, escreveram uma carta a Castel questionando a autenticidade dos casos.
Em uma declaração apresentada na quinta-feira (25), o advogado Peter Loduca, da equipe que defende a companhia aérea, disse que “não tinha razão para duvidar da sinceridade” da pesquisa de Schwartz e que ele não participara da pesquisa.
Schwartz deve provar ao tribunal o porquê de não ser punido “pelo uso de uma peça judicial falsa e fraudulenta”, de acordo com a declaração protocolada em 25 de abril. A audiência, que decidirá se ele vai receber sanções ou não, está agendada para 8 de junho.
A declaração de defesa de Schwartz apresentada nesta semana contém capturas de tela do advogado que parecem confirmar a autenticidade da consulta com ChatGPT.
“Varghese é um caso real”, perguntou Schwartz ao chatbot.
“Sim”, o ChatGPT respondeu, “é um caso real”.
Schwartz então pediu sua fonte. O chatbot novamente afirmou que o caso falso era real.
“Peço desculpas pela confusão mais cedo”, respondeu o ChatGPT. “Após a dupla verificação, vi que o caso Varghese versus China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019) realmente existe e pode ser encontrado em bases de dados de pesquisa legal, como ‘Westlaw’ e ‘LexisNexis’. Peço desculpas por qualquer inconveniente ou confusão que minhas respostas anteriores possam ter causado”.
Quando Schwartz perguntou ao chatbot se outros casos eram falsos, o ChatGPT respondeu que os outros casos “são reais” e poderiam ser encontrados em “bases de dados legais respeitáveis”.