Los errores generados por la IA en los documentos judiciales provocan problemas legales para los abogados

Photo by Saúl Bucio on Unsplash

Los errores generados por la IA en los documentos judiciales provocan problemas legales para los abogados

Tiempo de lectura: 3 min.

Un informe compartido por Reuters ayer revela que las alucinaciones de la IA —errores e información inventada creada por modelos generativos de IA— están causando problemas legales en los tribunales de los Estados Unidos.

¿Apurado? ¡Aquí están los datos rápidos!

  • Morgan & Morgan envió un correo electrónico a 1,000 abogados advirtiendo sobre los riesgos de la IA.
  • El reciente caso de abogados de Walmart admitiendo el uso de IA para sus casos ha levantado alarmas en la comunidad legal.
  • El uso de alucinaciones de chatbot en las declaraciones de la corte se ha convertido en un problema recurrente en los últimos años.

Este mes, el bufete de abogados Morgan & Morgan envió un correo electrónico advirtiendo a más de 1,000 abogados sobre los riesgos de utilizar chatbots y casos falsos generados por inteligencia artificial.

Hace unos días, dos abogados en Wyoming admitieron haber incluido casos falsos generados por IA en una presentación judicial para una demanda contra Walmart, y un juez federal amenazó con sancionarlos.

En diciembre, se acusó al profesor de Stanford y experto en desinformación Jeff Hancock de utilizar la IA para fabricar citas de declaraciones judiciales como parte de su defensa en la ley del estado de 2023 que criminaliza el uso de deepfakes para influir en las elecciones.

Varios casos como estos, a lo largo de los últimos años, han generado fricciones legales y han sumado problemas a jueces y litigantes. Morgan & Morgan y Walmart se negaron a comentar sobre este asunto.

La IA generativa ha estado ayudando a reducir el tiempo de investigación para los abogados, pero sus alucinaciones pueden incurrir en costos significativos. El año pasado, una encuesta de Thomson Reuters reveló que el 63% de los abogados utilizaba la IA para trabajar y el 12% lo hacía regularmente.

El año pasado, la Asociación de Abogados de América recordó a sus 400,000 miembros las reglas de ética para abogados, que incluyen que los abogados respalden toda la información en sus expedientes judiciales, y señaló que esto incluía la información generada por la IA, incluso si fue involuntaria, como en el caso de Hancock.

“Cuando los abogados son sorprendidos utilizando ChatGPT u otra herramienta de IA generativa para crear citas sin revisarlas, eso es incompetencia, pura y simple”, dijo Andrew Perlman, decano de la facultad de derecho de la Universidad de Suffolk a Reuters.

Hace unos días, la BBC también compartió un informe advirtiendo sobre las falsas citas generadas por la IA y los problemas con las herramientas de IA en el periodismo.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más