
Image by Freepik
Las lagunas en las prohibiciones de la IA de la UE podrían permitir a la policía utilizar tecnología controvertida
La nueva Ley de IA de la UE tiene como objetivo regular la IA, pero enfrenta críticas por lagunas, exenciones e influencia corporativa.
¿Apurada? ¡Aquí están los datos rápidos!
- Las críticas sostienen que la ley tiene lagunas, especialmente para las autoridades de aplicación de la ley y migración.
- Las exenciones permiten prácticas de IA como el reconocimiento facial en tiempo real y la detección de emociones en algunos casos.
- Los grupos de derechos digitales advierten que las excepciones en la ley debilitan las protecciones contra el mal uso.
El nuevo Acto de IA de la Unión Europea, marca un paso significativo en la regulación de la inteligencia artificial. Esta legislación, pionera en el mundo, prohíbe ciertos usos “inaceptables” de la tecnología de IA, con el objetivo de proteger a los ciudadanos y preservar los valores democráticos.
Entre las prohibiciones se encuentran la predicción policial, la extracción de imágenes faciales de internet para reconocimiento y el uso de la IA para detectar emociones a partir de datos biométricos. Sin embargo, los críticos argumentan que la ley contiene lagunas significativas, particularmente cuando se trata de las autoridades de policía y migración.
Aunque el Acta de IA prohíbe ciertos usos de la IA en principio, incluye exenciones que podrían permitir que las autoridades policiales y migratorias europeas continúen utilizando prácticas controvertidas de IA, según informó por primera vez Politico.
Por ejemplo, el reconocimiento facial en tiempo real en espacios públicos, aunque en gran medida está prohibido, todavía puede permitirse en casos excepcionales, como investigaciones criminales graves.
De manera similar, la detección de emociones en lugares públicos está prohibida, pero podrían hacerse excepciones para fines de aplicación de la ley y migración, lo que genera preocupaciones sobre el posible uso de la IA para identificar el engaño en las fronteras.
Las amplias exenciones de la ley han generado alarma entre los grupos de derechos digitales. Una coalición de 22 organizaciones advirtió que la Ley de Inteligencia Artificial no aborda adecuadamente las preocupaciones respecto al uso de la tecnología por parte de las fuerzas del orden.
“La laguna más flagrante es el hecho de que las prohibiciones no se aplican a las autoridades encargadas de hacer cumplir la ley y las autoridades migratorias”, dijo Caterina Rodelli, analista de políticas de la UE en Access Now, según lo informado por Politico.
La Ley de IA de la UE también prohíbe el uso de la IA para el control social, una medida introducida para evitar que la IA se utilice para socavar las libertades individuales o la democracia.
Brando Benifei, un legislador italiano involucrado en la redacción de la legislación, explicó que el objetivo es evitar que las tecnologías de IA se exploten para el “control social” o la “compresión de nuestras libertades”, según informó Politico.
Según Politico, esta postura fue influenciada por incidentes de alto perfil como el polémico uso de la IA por parte de las autoridades fiscales holandesas para identificar fraudes en 2019, lo que acusó erróneamente a unas 26,000 personas de fraude.
En este caso, las autoridades utilizaron un algoritmo para detectar posibles fraudes en los beneficios de cuidado infantil, pero el algoritmo defectuoso condujo a una amplia gama de identificaciones erróneas y dañó la vida de ciudadanos inocentes.
La controversia en torno a este evento jugó un papel importante en la configuración de las restricciones legales sobre la predicción policial y otras formas de mal uso de la IA.
Mientras tanto, un informe del Observatorio Corporativo Europeo (CEO) expresa preocupaciones acerca de la influencia de las grandes empresas tecnológicas en el desarrollo de los estándares de IA de la UE. El informe revela que más de la mitad de los miembros del Comité Técnico Conjunto sobre IA (JTC21), responsable de establecer los estándares de IA, representan intereses corporativos o de consultoría.
Grandes empresas como Oracle, Microsoft, Amazon y Google están abogando por regulaciones más ligeras que prioricen sus intereses comerciales, en lugar de proteger los derechos fundamentales o el bienestar social.
Esta influencia corporativa ha generado alarmas de que la Ley de IA de la UE podría verse socavada por los intereses de la industria centrados en la rentabilidad por encima de las consideraciones éticas. Además, los representantes de la sociedad civil y académica enfrentan desafíos financieros y logísticos para participar en el proceso de establecimiento de normas.
El informe destaca la falta de transparencia y responsabilidad democrática dentro de organizaciones de establecimiento de normas como CEN y CENELEC, generando preocupaciones sobre la equidad e inclusividad del proceso de desarrollo de estándares.
Aunque el Acta de IA sitúa a la UE a la vanguardia de la regulación global de la IA, el debate en curso sobre sus lagunas sugiere que equilibrar la innovación con la protección de los derechos humanos será una tarea delicada en el futuro.
Dejar un comentario
Cancelar