La Universidad de Chicago Ofrece a los Artistas una Defensa Contra la IA con Glaze y Nightshade

Image by Glashier, from Freepik

La Universidad de Chicago Ofrece a los Artistas una Defensa Contra la IA con Glaze y Nightshade

Tiempo de lectura: 3 min.

¿Con prisa? ¡Aquí están los datos rápidos!

  • Glaze y Nightshade protegen el trabajo de los artistos contra el uso no autorizado en la formación de IA.
  • Glaze enmascara las imágenes para evitar que la IA replique el estilo de un artista.
  • Nightshade interrumpe la IA añadiendo píxeles “envenenados” que corrompen los datos de entrenamiento.

Los artistas están luchando contra los modelos de IA explotadores con Glaze y Nightshade, dos herramientas desarrolladas por Ben Zhao y su equipo en el SAND Lab de la Universidad de Chicago, según lo informado hoy por MIT Technology Review.

Estas herramientas tienen como objetivo proteger el trabajo de los artistas para que no se utilice sin consentimiento para entrenar modelos de IA, una práctica que muchos creadores ven como un robo. Glaze, descargado más de 4 millones de veces desde su lanzamiento en marzo de 2023, enmascara las imágenes añadiendo cambios sutiles que impiden que la IA aprenda el estilo del artista, dice MIT.

La belladona, una contraparte “ofensiva”, interrumpe aún más los modelos de IA al introducir alteraciones invisibles que pueden corromper el aprendizaje de la IA si se utilizan en el entrenamiento, según lo señalado por el MIT.

Las herramientas fueron inspiradas por las preocupaciones de los artistas acerca del rápido ascenso de la IA generativa, que a menudo se basa en imágenes en línea para crear nuevas obras. El MIT informa que la ilustradora de fantasía Karla Ortiz y otros creadores han expresado temores sobre la pérdida de sus medios de vida a medida que los modelos de IA replican sus estilos distintivos sin permiso ni pago.

Para los artistas, publicar en línea es esencial para la visibilidad y los ingresos, sin embargo, muchos consideraron eliminar su trabajo para evitar ser extraídos para el entrenamiento de la IA, un acto que obstaculizaría sus carreras, como lo señaló el MIT.

Nightshade, lanzado un año después de Glaze, ofrece una defensa más agresiva, informa el MIT. Al agregar píxeles “envenenados” a las imágenes, interrumpe el entrenamiento de la IA, provocando que los modelos produzcan resultados distorsionados si estas imágenes son extraídas.

El efecto simbólico de la belladona ha resonado entre los artistas, quienes lo ven como justicia poética: si su trabajo es robado para el entrenamiento de IA, puede dañar los mismos sistemas que lo explotan.

El MIT sostiene que estas herramientas han enfrentado cierto escepticismo, ya que los artistas inicialmente se preocuparon por la privacidad de los datos. Para abordar esto, el SAND Lab lanzó una versión de Glaze que funciona sin conexión, garantizando que no haya transferencia de datos y construyendo confianza con los artistas temerosos de ser explotados.

El laboratorio también ha ampliado recientemente su acceso al asociarse con Cara, una nueva plataforma social que prohíbe el contenido generado por IA, como señaló el MIT.

Zhao y su equipo tienen como objetivo cambiar la dinámica de poder entre los creadores individuales y las empresas de IA.

Al ofrecer herramientas que protegen la creatividad de las grandes corporaciones, Zhao espera empoderar a los artistas para mantener el control sobre su trabajo y redefinir los estándares éticos en torno a la IA y la propiedad intelectual, según MIT.

El esfuerzo está ganando impulso, pero algunos expertos advierten que las herramientas pueden no ofrecer una protección infalible, ya que los hackers y los desarrolladores de IA buscan formas de eludir estas salvaguardas, como señala MIT.

Con Glaze y Nightshade ahora accesibles de manera gratuita, el SAND Lab de Zhao continúa liderando la lucha en defensa de la integridad artística contra la creciente influencia de la creación de contenido impulsada por la inteligencia artificial.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más