
Photo by Clint Patterson on Unsplash
Google Informa Sobre Más de 250 Quejas de Contenido Terrorista Generado por IA en Deepfake
Google compartió un informe con las autoridades australianas revelando que su herramienta de inteligencia artificial, Gemini, recibió más de 250 quejas a nivel mundial por su uso para generar terrorismo deepfake y más de 80 con respecto a material de abuso infantil.
¿Con prisa? ¡Aquí están los datos rápidos!
- Google informó de más de 250 quejas globales sobre el uso de Gemini AI para generar deepfakes relacionados con el terrorismo y más de 80 sobre contenido de abuso infantil.
- Los datos se presentaron a la Comisión de Seguridad en Línea de Australia bajo la Ley de Seguridad en Línea del país.
- Las autoridades australianas advierten que las medidas de seguridad de la IA deben mejorar, ya que las plataformas luchan para detectar contenido dañino.
La información ha sido entregada a la comisión de seguridad en línea de Australia, la eSafety Commission, después de que las empresas tecnológicas, incluyendo Meta, Telegram, Reddit, X y Google, tuvieron que cumplir con las leyes locales e informar las notificaciones bajo la Ley de Seguridad en Línea de Australia en marzo de 2024.
eSafety compartió un documento oficial este jueves expresando preocupación acerca de la seguridad de la IA. El informe de Google tomó en cuenta los reportes de los usuarios desde el 1 de abril de 2023 hasta el 29 de febrero de 2024.
“Recibió (Google) 258 reportes de usuarios sobre material sospechoso de ser generado por IA en forma de deepfake terrorista o de actividad extremista violenta generado por Gemini, la propia IA generativa de la compañía, y 86 reportes de usuarios de material sospechoso de explotación y abuso sexual infantil generado por IA”, dijo la Comisionada de eSafety, Julie Inman Grant. “Esto pone de relieve lo crítico que es para las empresas que desarrollan productos de IA incorporar y probar la eficacia de las medidas de seguridad para prevenir que este tipo de material sea generado”.
Según Reuters, un portavoz de Google afirmó que no han permitido actividades ilegales. “El número de informes de usuarios de Gemini que proporcionamos a eSafety representa el volumen total global de informes de usuarios, no las violaciones de políticas confirmadas”, dijo el portavoz de Google a Reuters por correo electrónico.
Inman Grant consideró el informe como las “primeras percepciones a nivel mundial” para entender cómo las empresas tecnológicas están gestionando la “proliferación en línea de material terrorista y extremista violento”.
La Comisionada también destacó cómo plataformas como Facebook, WhatsApp y Telegram han fallado en detectar contenido terrorista transmitido en vivo. Inman Grant consideró el ataque de Christchurch en 2019, un tiroteo masivo terrorista donde un supremacista blanco atacó dos mezquitas en Christchurch, Nueva Zelanda, matando a 51 personas en marzo de 2019, como un ejemplo de cómo los ataques extremistas y mortales han sido transmitidos en vivo sin detectar ni eliminar el contenido.
Hace unos días, otro informe compartido por ESafety reveló que los niños pueden eludir fácilmente los actuales sistemas de verificación de edad utilizados por las plataformas de redes sociales más populares.
Dejar un comentario
Cancelar