Las Herramientas de IA del Gobierno del Reino Unido Enfrentan Escrutinio por Preocupaciones de Racismo y Sesgo

Image by Wesley Fryer, from Flickr

Las Herramientas de IA del Gobierno del Reino Unido Enfrentan Escrutinio por Preocupaciones de Racismo y Sesgo

Tiempo de lectura: 3 min.

  • Kiara Fabbri

    Escrito por: Kiara Fabbri Periodista especializada en multimedia

  • El equipo de localización y traducción

    Traducido por El equipo de localización y traducción Servicios de localización y traducción

The Guardian informó hoy que el gobierno del Reino Unido pronto publicará detalles de las herramientas de IA utilizadas en varios departamentos, debido a preocupaciones sobre el posible racismo y sesgo incrustados en estas tecnologías.

La decisión de revelar estas herramientas de IA surge después de la presión de activistas por la transparencia que han generado alarma sobre el secretismo y las posibles prácticas discriminatorias dentro de estos sistemas. Estas herramientas de IA se han utilizado para tareas como la detección de matrimonios falsos y la identificación de fraude en reclamaciones de beneficios.

The Public Law Project (PLP), una organización benéfica para el acceso a la justicia, ha estado en la vanguardia de este problema, abogando por más transparencia y equidad en la implementación de dicha tecnología.

En agosto de 2020, el Ministerio de Interior acordó suspender un algoritmo informático utilizado para clasificar las solicitudes de visas después de las acusaciones de racismo y prejuicio. Los funcionarios detuvieron el algoritmo tras un desafío legal del Joint Council for the Welfare of Immigrants y el grupo de derechos digitales Foxglove, según informó el Guardian.

The Guardian también informa que Foxglove afirmó que a ciertas nacionalidades se les asignaba automáticamente una puntuación de riesgo “roja”, lo que llevaba a una mayor probabilidad de negación de visa. Argumentaron que este proceso equivalía a discriminación racial.

El Centro de Ética e Innovación en Datos del gobierno advirtió en un informe que la IA a menudo amplifica los sesgos. El centro ayudó a desarrollar un estándar de registro de transparencia algorítmica para los organismos públicos que implementan IA y herramientas algorítmicas, proponiendo que los modelos que interactúan con el público o que influyen en las decisiones se publiquen en un registro.

Según informó The Guardian, el Departamento de Ciencia, Innovación y Tecnología (DSIT) confirmó este fin de semana que los departamentos ahora informarán sobre su uso de la tecnología bajo este estándar.

Un portavoz del DSIT declaró a The Guardian: “La tecnología tiene un enorme potencial para mejorar los servicios públicos, pero sabemos que es importante mantener las salvaguardas adecuadas, incluyendo, cuando corresponda, la supervisión humana y otras formas de gobernanza”.

“La norma de registro de transparencia algorítmica es ahora obligatoria para todos los departamentos, con un número de registros que se publicarán próximamente. Continuamos explorando cómo se puede expandir a través del sector público. Alentamos a todas las organizaciones a utilizar la IA y los datos de una manera que genere confianza pública a través de herramientas, orientación y estándares.”

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Ver más