Usaron Chat GPT para encontrar pruebas en un juicio y deberán pagar una multa millonaria
El juez advirtió que los abogados presentaron "declaraciones falsas y referencias creadas por la herramienta de inteligencia artificial ChatGPT".
Usaron Chat GPT para encontrar pruebas en un juicio y deberán pagar una multa millonaria
Viernes 23.6.2023
/
Última actualización 19:27
Un juez federal impuso el jueves multas de 5000 dólares a dos abogados y a un estudio jurídico en un ejemplo sin precedentes en que se responsabilizó a ChatGPT por el hecho de que ellos presentaran investigaciones jurídicas ficticias en una reclamación por lesiones de aviación.
El juez P. Kevin Castel dijo que actuaron de mala fe. Pero reconoció sus disculpas y los pasos tomados para remediar el daño al explicar por qué no era necesario aplicar sanciones más duras para asegurar que ellos u otros no vuelvan a permitir que herramientas de inteligencia artificial los impulsen a producir historias jurídicas falsas para usarlas en sus argumentaciones.
“Los avances tecnológicos son comunes y no hay nada inherentemente inadecuado con respecto a utilizar una herramienta confiable de inteligencia artificial para que proporcione apoyo”, escribió Castel. “Pero las normas existentes les imponen a los abogados un papel de verificación para asegurar la exactitud de sus declaraciones”.
El juez dijo que los abogados y su firma, Levidow, Levidow & Oberman, P.C., “abandonaron sus responsabilidades cuando presentaron opiniones judiciales inexistentes con declaraciones falsas y referencias creadas por la herramienta de inteligencia artificial ChatGPT, y luego continuaron respaldando las opiniones falsas después de que órdenes judiciales pusieron su existencia en entredicho”.
En un comunicado, el estudio jurídico dijo que acataría la orden de Castel, pero añadió: “Respetuosamente estamos en desacuerdo con el hallazgo de que alguien en nuestra firma actuó de mala fe. Ya hemos ofrecido disculpas a la corte y a nuestro cliente. Seguimos creyendo que, ante lo que incluso la corte reconoció que era una situación sin precedentes, cometimos un error de buena fe al no creer que una unidad de tecnología pudiese estar inventando casos sin basarse en hechos ni la realidad”.
Pruebas inventadas
El juez citó “explicaciones cambiantes y contradictorias” ofrecidas por el abogado Steven A. Schwartz. Dijo que el abogado Peter LoDuca mintió cuando dijo que estaba de vacaciones y fue deshonesto con relación a confirmar la veracidad de las declaraciones presentadas ante Castel.
En una audiencia este mes, Schwartz dijo que usó el chatbot que funciona con inteligencia artificial para que le ayudara a hallar precedentes jurídicos que respaldaran el caso de un cliente contra la aerolínea colombiana Avianca por una lesión que sufrió en un vuelo de 2019.
ChatGPT, que genera respuestas similares a ensayos a las solicitudes que le hacen sus usuarios, sugirió varios casos que involucraban percances de aviación que Schwartz no había podido hallar a través de los métodos usuales utilizados en su estudio jurídico. Varios de esos casos no eran reales, identificaban erróneamente a jueces o involucraban aerolíneas que no existían.