
Image by Freepik
Cada Vez Más Adolescentes Son Engañados por Contenido Generado por IA, Revela un Estudio
Un número creciente de adolescentes está luchando por distinguir entre contenido auténtico y manipulado en línea, con los medios generados por IA añadiendo a la confusión.
¿Apurado? ¡Aquí están los Datos Rápidos!
- Muchos adolescentes han compartido contenido que luego descubrieron que era falso.
- Muchos adolescentes no confían en que las empresas de tecnología prioricen su salud mental.
- La mayoría de los adolescentes apoyan la marca de agua en contenido generado por IA para la transparencia.
Un reporte reciente destaca que el 35% de los adolescentes han sido engañados por contenido falso, mientras que el 22% admitió haber compartido contenido que luego descubrieron que era falso, y el 28% se ha preguntado si estaban conversando con un humano o un chatbot.
Estas experiencias han remodelado significativamente la confianza de los adolescentes en la información en línea. El informe encontró que el 72% de los adolescentes han cambiado la forma en que evalúan el contenido digital después de encontrarse con material engañoso.
Además, más de un tercio (35%) cree que la IA generativa erosionará aún más la confianza en la información en línea. Aquellos que han sido engañados por contenido falso son aún más escépticos, con un 40% diciendo que la IA dificultará la verificación de la precisión, en comparación con el 27% de aquellos que no han tenido experiencias similares.
La IA generativa enfrenta serios problemas de credibilidad entre los adolescentes, particularmente en entornos académicos. Casi dos de cada cinco (39%) estudiantes que han utilizado la IA para el trabajo escolar informaron encontrar inexactitudes en el contenido generado por la IA. Mientras tanto, el 36% no notó ningún problema, y el 25% no estaba seguro.
Esto plantea preocupaciones sobre la fiabilidad de la IA en contextos educativos, destacando la necesidad de mejores herramientas y habilidades de pensamiento crítico para ayudar a los adolescentes a evaluar el contenido generado por la IA.
Más allá de la IA, la confianza en las grandes empresas tecnológicas sigue siendo baja. Alrededor del 64% de los adolescentes creen que las grandes empresas tecnológicas no priorizan su salud mental, y el 62% piensa que estas compañías no protegerían la seguridad de los usuarios si ello perjudicara sus beneficios.
Más de la mitad también duda de que los gigantes tecnológicos tomen decisiones de diseño éticas (53%), protejan los datos personales (52%) o consideren de manera justa las necesidades de diferentes usuarios (51%). En cuanto a la IA, el 47% tiene poca confianza en que las empresas tecnológicas tomen decisiones responsables sobre su uso.
A pesar de estas preocupaciones, los adolescentes apoyan firmemente las medidas de protección para la IA generativa. Casi tres de cada cuatro (74%) abogan por salvaguardas de privacidad y transparencia, mientras que el 73% cree que el contenido generado por IA debería estar etiquetado o tener una marca de agua. Además, el 61% quiere que se compense a los creadores de contenido cuando los modelos de IA utilizan su trabajo para el entrenamiento.
CNN señala que la desconfianza de los adolescentes hacia las grandes empresas tecnológicas refleja una insatisfacción más amplia con las principales compañías tecnológicas de EE. UU. Los adultos estadounidenses también enfrentan niveles crecientes de contenido engañoso o falso, agravado por el debilitamiento de las salvaguardas digitales.
A medida que la IA generativa reforma el panorama digital, abordar la desinformación y restaurar la confianza requiere la colaboración entre empresas tecnológicas, educadores, formuladores de políticas y los propios adolescentes.
Fortalecer la alfabetización digital e implementar estándares claros de gobernanza de la IA será esencial para garantizar un entorno en línea más transparente y confiable.
Dejar un comentario
Cancelar