La Falta de Transparencia en los Arrestos mediante Reconocimiento Facial de IA Despierta Preocupaciones

Image by Vocablitz, from Pixabay

La Falta de Transparencia en los Arrestos mediante Reconocimiento Facial de IA Despierta Preocupaciones

Tiempo de lectura: 3 min.

¿Apurada? ¡Aquí están los Datos Rápidos!

  • Cientos arrestados utilizando tecnología de reconocimiento facial sin tener conciencia de su uso.
  • Más de 1,000 casos revelaron que la policía ocultaba su dependencia del reconocimiento facial.
  • La ley federal no requiere la divulgación del uso de la tecnología de reconocimiento facial.

Una investigación publicada hoy por The Washington Post revela que cientos de estadounidenses han sido arrestados debido a la tecnología de reconocimiento facial, sin haber sido nunca informados de su uso.

La investigación descubrió más de 1,000 casos criminales en 15 estados donde la policía no divulgó su dependencia de la tecnología, a menudo ocultando su rol al atribuir la identificación del sospechoso a “medios de investigación” o testigos.

Esta falta de transparencia genera preocupaciones sobre la equidad, especialmente dado que se ha demostrado que el software de reconocimiento facial es propenso a errores, en particular al identificar a personas de color.

Por ejemplo, el caso de Robert Williams, un hombre negro, quien llegó a un acuerdo con la Ciudad de Detroit después de su arresto injustificado en 2020 debido a un fallo en el reconocimiento facial.

The Post informa que las pruebas federales indican que el software líder en reconocimiento facial es más propenso a identificar erróneamente a ciertos grupos, incluyendo personas de color, mujeres y personas mayores.

La razón de esto es que las características faciales de estos grupos están subrepresentadas en los datos utilizados para entrenar los algoritmos. Esta información proviene de Patrick Grother, quien lidera las pruebas biométricas en el Instituto Nacional de Estándares y Tecnología en Washington, según lo informado por The Post.

The Post informó que en Evansville, Indiana, y Pflugerville, Texas, se identificaron sospechosos mediante la tecnología de reconocimiento facial, pero nunca se les informó de su papel en su arresto. La policía citó características físicas o bases de datos de investigación en su lugar, ocultando la participación del software.

Este patrón fue común en muchos departamentos, con solo 30 de 100 proporcionando registros relevantes a The Post, reflejando una renuencia más amplia a divulgar el uso del reconocimiento facial.

The Post explica que el software de reconocimiento facial, como Clearview AI, funciona comparando imágenes de escenas de crímenes con amplias bases de datos de fotos, incluyendo fotos de fichas policiales e imágenes de redes sociales.

Los críticos argumentan que esta práctica pone en riesgo a personas inocentes de ser falsamente implicadas en delitos simplemente porque su imagen aparece en línea, según lo informado por The Post. Los grupos de derechos civiles y los abogados de defensa argumentan que las personas tienen derecho a saber cuándo son identificadas por dicha tecnología, especialmente dada su susceptibilidad al error, apunta The Post.

The Post indica que en algunos casos judiciales recientes, los resultados del reconocimiento facial han sido exitosamente cuestionados debido a dudas sobre la confiabilidad de la tecnología. Sin embargo, The Post señala que los departamentos de policía continúan defendiendo su práctica de no divulgación, con algunos citando el privilegio de investigación como justificación.

A pesar de la creciente preocupación, la ley federal actualmente no exige a la policía divulgar el uso del reconocimiento facial, según The Post. En algunos estados, como Nueva Jersey, los tribunales han dictaminado que los acusados tienen el derecho de saber si se utilizó el reconocimiento facial en su caso.

Sin embargo, la mayoría de los estados no tienen tal requisito, dejando a los acusados en la oscuridad sobre el papel que la IA podría haber desempeñado en sus detenciones, señaló The Post.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más