
Image by Cristofer Maximilian, from Unsplash
Las Creadoras Exigen a los Gigantes Tecnológicos que Paguen por los Datos de Entrenamiento de IA
Los gobiernos están permitiendo que los desarrolladores de IA roben contenido, tanto creativo como periodístico, por temor a molestar al sector tecnológico y dañar la inversión, escuchó esta semana un comité parlamentario del Reino Unido, según informó por primera vez The Register.
¿Con prisa? ¡Aquí están los datos rápidos!
- Diputados del Reino Unido escucharon preocupaciones sobre la IA explotando contenido protegido por derechos de autor sin compensación.
- El compositor Max Richter advirtió que la IA amenaza los medios de vida de los músicos y su originalidad.
- Los editores encontraron 1,000 bots extrayendo datos de 3,000 sitios de noticias para modelos de IA.
A pesar de que una figura de la industria tecnológica insistió en que el “pecado original” de la minería de texto y datos ya había ocurrido y que los creadores de contenido y legisladores deberían seguir adelante, una comisión conjunta de diputados escuchó a editores y a un compositor enfurecido por la explotación descontrolada del material con derechos de autor por parte de la industria tecnológica.
El Comité de Cultura, Medios de Comunicación y Deporte y el Comité de Ciencia, Innovación y Tecnología preguntaron al compositor Max Richter cómo sabría si los “actores de mala fe” estaban utilizando su material para entrenar modelos de IA.
“Realmente no hay nada que pueda hacer”, les dijo a los diputados. “Existen un par de modelos de IA de música, y es perfectamente fácil hacer que generen una pieza de música que suena extrañamente como yo”, dijo, según lo informado por The Register.
“Eso no sería posible a menos que hubiera absorbido mis cosas sin preguntarme y sin pagar por ellas. Eso está sucediendo a gran escala. Obviamente, ha sucedido básicamente a cada artista cuyo trabajo está en Internet”, añadió Richter.
Richter, cuyo trabajo ha sido utilizado en importantes bandas sonoras de cine y televisión, advirtió que el material automatizado desplazaría a los creadores humanos, empobreciendo a los músicos. “Vas a obtener una banalización de la cultura musical”, dijo, según lo informado por The Register.
“Si permitimos la erosión de los derechos de autor, que es realmente cómo se crea el valor en el sector de la música, entonces nos encontraremos en una posición en la que no habrá artistas en el futuro”, añadió.
El ex empleado de Google, James Smith, hizo eco de este sentimiento, diciendo: “El pecado original, si quieres, ya ha sucedido”. Sugirió que los gobiernos deberían centrarse en apoyar la licencia como un modelo de monetización alternativo, informó The Register.
Matt Rogerson, director de política pública global en el Financial Times, discrepó, enfatizando que las empresas de IA estaban raspando activamente contenido sin permiso. “Solo podemos lidiar con lo que vemos frente a nosotros”, dijo, según informó The Register.
Un estudio encontró que 1,000 bots únicos estaban extrayendo datos de 3,000 sitios web de editores, probablemente para el entrenamiento de modelos de IA, según The Register.
Sajeeda Merali, directora ejecutiva de la Asociación de Editores Profesionales, criticó el argumento del sector de la Inteligencia Artificial de que la transparencia en la extracción de datos era comercialmente sensible. “Su verdadera preocupación es que los editores luego pedirían un valor justo a cambio de esos datos”, dijo, según lo informado por The Register.
La controversia sobre los datos de entrenamiento de la IA se intensificó en octubre cuando más de 13,500 artistas firmaron una petición para detener a las empresas de IA de raspar obras creativas sin consentimiento. Organizada por el compositor y ex ejecutivo de IA Ed Newton-Rex, la petición fue firmada por figuras públicas como Julianne Moore, Thom Yorke y Kazuo Ishiguro.
“Existen tres recursos clave que las empresas de IA generativas necesitan para construir modelos de IA: personas, computación y datos. Gastan enormes sumas en los dos primeros, a veces un millón de dólares por ingeniero, y hasta mil millones de dólares por modelo. Pero esperan obtener el tercero, los datos de entrenamiento, gratis”, dijo Newton-Rex.
Las tensiones se intensificaron aún más cuando un grupo de artistas filtró el acceso a la herramienta de texto a video de OpenAI, Sora, en protesta. Autodenominándose “Sora PR Puppets“, proporcionaron acceso gratuito a la API de Sora a través de Hugging Face, permitiendo a los usuarios generar clips de video durante tres horas antes de que OpenAI lo cerrara.
Las manifestantes afirmaron que OpenAI trató a los artistas como “marionetas de RRPP”, explotando el trabajo no remunerado para una compañía de $157 mil millones. Publicaron una carta abierta exigiendo una compensación justa e invitaron a los artistas a desarrollar sus propios modelos de IA.
Con los artistas y los editores resistiéndose al uso descontrolado de su contenido por parte de la IA, el debate sobre las prácticas éticas de entrenamiento de la IA continúa intensificándose. El gobierno del Reino Unido enfrenta una creciente presión para implementar políticas que protejan a las industrias creativas sin sofocar el avance tecnológico.
Dejar un comentario
Cancelar