En un caso sin precedentes en Estados Unidos, un juez federal impuso multas de 5000 dólares a dos abogados y a un estudio jurídico por presentar investigaciones jurídicas ficticias respaldadas por ChatGPT en un reclamo por lesiones de aviación.
El juez P. Kevin Castel determinó que actuaron de mala fe, aunque reconoció sus disculpas y los esfuerzos realizados para remediar el daño. Castel destacó la importancia de la responsabilidad de los abogados en verificar la exactitud de sus declaraciones, a pesar de que el uso de herramientas de inteligencia artificial puede ser válido.
El estudio jurídico acató la orden del juez pero discrepó con la acusación de mala fe, argumentando que fue un error de buena fe debido a la situación sin precedentes.
Posteriormente, el juez citó explicaciones contradictorias ofrecidas por uno de los abogados y señaló la deshonestidad del otro respecto a la veracidad de las declaraciones presentadas.
En el caso en cuestión, uno de los abogados utilizó ChatGPT para buscar precedentes legales relacionados con un caso contra Avianca, pero el chatbot generó información falsa y casos inexistentes que fueron presentados como evidencia.
De esta manera, en un documento de 10 páginas, el abogado utilizó citas de casos inventados. Finalmente, el abogado admitió haber usado ChatGPT sin verificar la autenticidad de los casos y afirmó que no era consciente de la posibilidad de contenido falso.
Sin embargo, se disculpó y se comprometió a no repetirlo sin una verificación completa en el futuro.