Se Anuncia un Detector de Noticias Falsas con una Precisión del 99% por Investigadores de la Universidad de Keele
Investigadoras de la Universidad de Keele han desarrollado una herramienta diseñada para detectar noticias falsas con un 99% de precisión, ofreciendo un recurso potencial para abordar el creciente problema de la desinformación en línea. El desarrollo fue anunciado ayer por la universidad.
¿Con prisa? ¡Aquí están los datos rápidos!
- Investigadores de la Universidad de Keele desarrollaron una herramienta que detecta noticias falsas con un 99% de precisión.
- La herramienta utiliza un sistema de “votación de conjunto” que combina múltiples modelos de aprendizaje automático.
- La herramienta evalúa el contenido de las noticias para determinar la fiabilidad de la fuente.
El equipo, compuesto por la Dra. Uchenna Ani, la Dra. Sangeeta Sangeeta y la Dra. Patricia Asowo-Ayobode de la Escuela de Ciencias de la Computación y Matemáticas, empleó diversas técnicas de aprendizaje automático para crear un modelo capaz de analizar el contenido de las noticias para evaluar su fiabilidad.
La herramienta utiliza un enfoque de “votación de conjunto”, que combina las predicciones de múltiples modelos de aprendizaje automático para producir un juicio general sobre si una fuente de noticias es confiable. Las pruebas iniciales demostraron que el método superó las expectativas, identificando noticias falsas en el 99% de los casos.
El Dr. Ani, profesor de Ciberseguridad en Keele, destacó los desafíos planteados por la desinformación. Señaló que la difusión generalizada de información falsa socava el discurso público y puede influir en las actitudes y comportamientos, lo que representa riesgos tanto para la seguridad local como nacional.
Los investigadores esperan refinar aún más el modelo a medida que avanzan las tecnologías de inteligencia artificial y aprendizaje automático, con el objetivo de lograr una precisión aún mayor al identificar contenido no confiable. La Dra. Ani subrayó la urgencia de desarrollar soluciones para salvaguardar la credibilidad de las plataformas en línea, especialmente las redes sociales, donde la desinformación es más prevalente.
Una investigación preliminar de Democracy Reporting International (DRI), una organización con sede en Berlín que promueve la democracia, advirtió que los sistemas de inteligencia artificial, en particular los Modelos de Lenguaje Amplio de código abierto (LLM), representan riesgos significativos para la propagación de desinformación.
DRI dice que estos riesgos surgen porque estos modelos, como Dolly, Zephyr y Falcon, a menudo se lanzan sin robustas medidas de seguridad, dejándolos vulnerables al mal uso.
Su accesibilidad requiere habilidades técnicas mínimas, permitiendo a los actores malintencionados manipularlos para crear narrativas falsas o discursos de odio. Esta baja barrera de entrada exacerba el riesgo de proliferación de desinformación.
Además, DRI afirma que los LLM de código abierto como Zephyr demuestran capacidades alarmantes, como generar contenido malicioso estructurado y persuasivo en respuesta a instrucciones directas o sugerencias.
Estos resultados suelen ser coherentes y contextualmente apropiados, lo que los hace particularmente peligrosos para dar forma a narrativas falsas. Además, los sesgos incrustados en estos modelos, que a menudo reflejan prejuicios societales, aumentan aún más el riesgo de propagar estereotipos dañinos.
Aunque aún está en desarrollo, la herramienta desarrollada en la Universidad de Keele representa un paso hacia la solución del desafío más amplio de la desinformación en la comunicación digital.
Dejar un comentario
Cancelar