
Photo by Saúl Bucio on Unsplash
Los errores generados por la IA en los documentos judiciales provocan problemas legales para los abogados
Un informe compartido por Reuters ayer revela que las alucinaciones de la IA —errores e información inventada creada por modelos generativos de IA— están causando problemas legales en los tribunales de los Estados Unidos.
¿Apurado? ¡Aquí están los datos rápidos!
- Morgan & Morgan envió un correo electrónico a 1,000 abogados advirtiendo sobre los riesgos de la IA.
- El reciente caso de abogados de Walmart admitiendo el uso de IA para sus casos ha levantado alarmas en la comunidad legal.
- El uso de alucinaciones de chatbot en las declaraciones de la corte se ha convertido en un problema recurrente en los últimos años.
Este mes, el bufete de abogados Morgan & Morgan envió un correo electrónico advirtiendo a más de 1,000 abogados sobre los riesgos de utilizar chatbots y casos falsos generados por inteligencia artificial.
Hace unos días, dos abogados en Wyoming admitieron haber incluido casos falsos generados por IA en una presentación judicial para una demanda contra Walmart, y un juez federal amenazó con sancionarlos.
En diciembre, se acusó al profesor de Stanford y experto en desinformación Jeff Hancock de utilizar la IA para fabricar citas de declaraciones judiciales como parte de su defensa en la ley del estado de 2023 que criminaliza el uso de deepfakes para influir en las elecciones.
Varios casos como estos, a lo largo de los últimos años, han generado fricciones legales y han sumado problemas a jueces y litigantes. Morgan & Morgan y Walmart se negaron a comentar sobre este asunto.
La IA generativa ha estado ayudando a reducir el tiempo de investigación para los abogados, pero sus alucinaciones pueden incurrir en costos significativos. El año pasado, una encuesta de Thomson Reuters reveló que el 63% de los abogados utilizaba la IA para trabajar y el 12% lo hacía regularmente.
El año pasado, la Asociación de Abogados de América recordó a sus 400,000 miembros las reglas de ética para abogados, que incluyen que los abogados respalden toda la información en sus expedientes judiciales, y señaló que esto incluía la información generada por la IA, incluso si fue involuntaria, como en el caso de Hancock.
“Cuando los abogados son sorprendidos utilizando ChatGPT u otra herramienta de IA generativa para crear citas sin revisarlas, eso es incompetencia, pura y simple”, dijo Andrew Perlman, decano de la facultad de derecho de la Universidad de Suffolk a Reuters.
Hace unos días, la BBC también compartió un informe advirtiendo sobre las falsas citas generadas por la IA y los problemas con las herramientas de IA en el periodismo.
Dejar un comentario
Cancelar