La Clara Línea Entre los Vídeos Reales y los Generados por IA Podría Desaparecer en 2025

Photo by ActionVance on Unsplash

La Clara Línea Entre los Vídeos Reales y los Generados por IA Podría Desaparecer en 2025

Tiempo de lectura: 7 min.

El contenido generado por inteligencia artificial ha llegado para quedarse. Está mejorando cada vez más y hemos visto una mejora significativa en las tecnologías de IA en 2024. ¿Podremos distinguir entre lo que es real y lo que no es en 2025?

Recientemente me encontré preguntándome, “¿Es esa una mujer real?” —mientras entrecerraba los ojos— después de ver una publicación en Instagram. “No, eso tiene que ser generado por IA”, concluí después de un momento. Luego me pregunté inmediatamente: ¿Seguiremos siendo capaces de distinguir la diferencia en cuestión de segundos el próximo año? Todos los indicios apuntan a que no, especialmente en las redes sociales, como sugieren los grandes avances recientes en la tecnología de IA.

Hace unos días, el jefe de Instagram, Adam Mosseri, compartió un mensaje abordando este tema en Threads. “La IA generativa está claramente produciendo contenido que es difícil de distinguir de las grabaciones de la realidad, y mejora rápidamente”, escribió. Mosseri reconoció públicamente que están teniendo dificultades en Meta para etiquetar el contenido creado por IA y para controlar y monitorizar las enormes cantidades de medios compartidos cada segundo en sus plataformas de redes sociales.

Mosseri lavó las manos de Meta respecto a la responsabilidad y advirtió a los usuarios que depende de ellos discriminar si una publicación es real o no. “Va a ser cada vez más crítico que el espectador, o lector, tenga una mente crítica cuando consuma contenido que pretende ser una cuenta o una grabación de la realidad”, añadió.

Solo unos días después, OpenAI lanzó Sora Turbo, su potente generador de videos con inteligencia artificial, permitiendo a los usuarios Pro y Plus generar videos realistas a partir de textos de entrada. En solo unos minutos, los usuarios comenzaron a crear fascinantes videos realistas y comenzaron a compartirlos en las redes sociales.

Justo cuando todo parecía alcanzar un nuevo nivel de producción de video, Google anunció su última herramienta de video con IA, Veo 2, con mayor resolución y clips más largos que Sora. Por supuesto, los resultados compartidos por aquellos que tuvieron acceso a esta avanzada tecnología fueron aún más impresionantes.

“Nadie puede decir ahora que esto es IA”, escribió un usuario.

Ya está sucediendo

Durante el 2024, hemos presenciado cómo el contenido generado por IA ha impactado a las poblaciones, las elecciones y a los usuarios de las redes sociales.

En enero, los residentes de New Hampshire recibieron una llamada “de Joe Biden” diciéndoles que no votaran en las elecciones primarias. El consultor político Steve Kramer estaba detrás de la estafa y fue multado con 6 millones de dólares por las llamadas robóticas deepfake de IA. Los gobiernos han estado comprendiendo el impacto que la IA puede tener y naciones como Singapur han estado desarrollando leyes y estrategias para ayudar a la población a identificar contenido deepfake.

En Venezuela, los videos generados por IA han estado difundiendo desinformación—pero también ayudando a los periodistas a informar a través de avatares de IA para eludir la censura.

A las personas les ha costado diferenciar entre lo que es real y lo que no, y no es su culpa: el contenido generado por IA se vuelve cada vez mejor y mejor.

El contenido de alta calidad generado por IA es un negocio en crecimiento en todas sus formas; texto, audio y video. Muchos creadores de OnlyFans actualmente dependen de chatbots para interactuar en conversaciones con sus fans, un trabajo que solía ser asignado a trabajadores temporales en países de bajos ingresos. Los nuevos modelos de IA especializados en técnicas de coqueteo incluso han generado $1,000 en propinas de sus seguidores.

En abril, la startup respaldada por Nvidia, Synthesia lanzó avatares de IA que pueden expresar emociones humanas y hablar en 130 idiomas. TikTok está permitiendo a las empresas crear anuncios generados por IA utilizando contenido de Getty Images, y ahora los creadores de YouTube pueden usar la nueva función de doblaje automático de IA para traducir su contenido a 9 idiomas y las futuras actualizaciones replicarán la voz original.

Zoom está trabajando en la creación de avatares de IA que se parezcan exactamente a los usuarios para ayudarles a grabar mensajes e incluso participar en reuniones. Esta herramienta se lanzará el próximo año, pero las personas ya han estado probando múltiples herramientas y las empresas ya pueden crear clones de IA fotorealistas.

¿Estás segura de que hablaste con una persona real en tu última llamada de Zoom?

¿Cómo saber si fue creada por la IA? Por ahora

Estamos viviendo tiempos confusos en esta era digital. Los filtros pueden hacer que cualquiera parezca una modelo con una piel perfecta, y las correcciones dignas de Photoshop están a solo un clic de distancia en Instagram o Snapchat: ¿cuántas personas querrían compartir su imagen “natural”, con todas sus imperfecciones, cuando puede ser mejorada en segundos? Estamos viendo cada vez más anuncios con imágenes fotorrealistas generadas por inteligencia artificial, convenciendo gradualmente a nuestros ojos de su familiaridad y “normalidad”. Y cada día, eventos sorprendentes en todo el mundo nos hacen cuestionar: ¿qué es real y qué ya no lo es?

Las grandes empresas de IA han estado trabajando en marcas de agua para identificar su contenido generado por IA y reconocerlo fácilmente. Google DeepMind lanzó su sistema de marcas de agua de código abierto en octubre para etiquetar videos, textos y audios de IA, y Meta también incluyó uno en su herramienta de video de IA.

Pero su efectividad es cuestionable, comenzando con Meta simplemente reconociendo que no pueden etiquetar todo el contenido generado por IA. Los actores malintencionados aún pueden encontrar formas de eliminar las marcas de agua y se necesitan más leyes, asociaciones y acuerdos entre las empresas de redes sociales y los gobiernos para lograr un sistema más exitoso.

Por ahora, además de confiar en nuestro instinto, podemos hacernos algunas preguntas antes de compartir en las redes sociales o creer lo que vemos:

  • Justo como recomendó Mosseri, considera lo siguiente: ¿Quién está compartiendo esta información? ¿Es una fuente confiable?
  • ¿La expresión o movimiento de la persona parece robótico? Aunque los avatares de IA pueden ser bastante realistas, todavía es posible reconocer una extraña rigidez o falta de emoción, aunque considera que algunas empresas como Synthesia ya están mejorando esto.
  • ¿Está diseñado el contenido para provocar una fuerte reacción emocional? Los actores malintencionados saben lo fácil que compartimos noticias negativas e interactuamos con material cargado de emoción en las redes sociales, y la investigación lo confirma. Antes de compartir ese contenido que te hizo hervir la sangre para que otros se sientan tan indignados como tú, piensa si está diseñado para generar controversia o si realmente es una noticia real o un evento real.
  • ¿Puedes corroborar el contenido con otras fuentes? Comprobar con fuentes de confianza nunca está de más.

Y finalmente, ¿te has preguntado a ti misma, o a tu chatbot preferido, cómo mejorar tu pensamiento crítico? Desarrollar una mente crítica definitivamente debería estar entre los propósitos de Año Nuevo de todos.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más