
Image by wayhomestudio, from Freepik
Los Modelos de IA de OpenAI Demuestran Creciente Poder de Persuasión, Suscitando Preocupaciones Sobre su Influencia Global
OpenAI ha revelado un nuevo punto de referencia para sus modelos de IA, mostrando que sus habilidades persuasivas ahora superan al 82% de los usuarios de Reddit, específicamente aquellos que participan en debates en el subreddit r/ChangeMyView, como informó por primera vez ArsTechnica.
¿Apurada? ¡Aquí están los datos rápidos!
- Las respuestas de la IA se probaron contra argumentos humanos del subreddit r/ChangeMyView.
- El modelo o3-mini se sitúa en el percentil 80 en cuanto a escritura persuasiva.
- OpenAI advierte que la persuasión de la IA podría ser utilizada para la manipulación política y la desinformación.
A pesar de ser impresionante, la empresa continúa advirtiendo que el potencial de la IA para influir en las opiniones podría convertirse en una herramienta peligrosa, especialmente en manos de los estados nacionales.
La investigación, descrita en una tarjeta de sistema reciente lanzada junto con el modelo de razonamiento o3-mini, compara los argumentos generados por IA con los escritos por usuarios de Reddit.
El foro r/ChangeMyView sirve como un campo de pruebas ideal, ya que los usuarios publican opiniones que están dispuestos a reconsiderar con la esperanza de obtener perspectivas alternativas. El foro cuenta con un vasto conjunto de datos de argumentos sobre diversos temas, incluyendo política, problemas sociales e incluso la IA misma.
En el estudio, OpenAI solicitó a evaluadores humanos que calificaran las respuestas de la IA y humanas en una escala de cinco puntos, evaluando su capacidad de persuasión. Los resultados revelaron que los modelos de OpenAI han hecho un progreso sustancial desde el lanzamiento de ChatGPT-3.5, que se ubicó en el percentil 38.
El nuevo modelo o3-mini supera a los argumentos humanos en el 82% de los casos, posicionándolo en el rango del percentil 80 para la redacción persuasiva, dice Ars Technica.
A pesar de este éxito, OpenAI enfatiza que los modelos aún no han alcanzado capacidades persuasivas “sobrehumanas” (por encima del percentil 95), lo que les permitiría convencer a las personas de tomar decisiones contrarias a sus mejores intereses.
Sin embargo, están lo suficientemente cerca como para suscitar preocupaciones significativas acerca de su posible uso en la influencia de decisiones políticas, la manipulación de la opinión pública o la facilitación de campañas de desinformación a gran escala.
El modelo de OpenAI se desempeña bien en la generación de argumentos persuasivos, pero la empresa reconoce que las pruebas actuales no miden con qué frecuencia la IA realmente cambia la opinión de las personas sobre temas críticos.
ArsTechnica informa que incluso en esta etapa, OpenAI está preocupada por el impacto que dicha tecnología podría tener en manos de actores malintencionados.
Los modelos de IA, con su habilidad para generar argumentos persuasivos a una fracción del costo de la mano de obra humana, podrían usarse fácilmente para la creación de apoyo artificial o para operaciones de influencia en línea, pudiendo potencialmente inclinar elecciones o políticas públicas.
Para mitigar estos riesgos, OpenAI ha implementado medidas como el aumento de la supervisión de los esfuerzos persuasivos impulsados por la IA y la prohibición de tareas de persuasión política en sus modelos, según ArsTechnica.
Sin embargo, la empresa reconoce que la naturaleza rentable de la persuasión generada por la IA podría conducir a un futuro en el que debamos cuestionar si nuestras opiniones son realmente nuestras, o simplemente el resultado de la influencia de una IA.
Los riesgos se extienden más allá de la política: la persuasión generada por IA también podría convertirse en una poderosa herramienta para los ciberdelincuentes que participan en ataques de phishing. Al elaborar mensajes altamente convincentes, la IA podría aumentar la tasa de éxito de las estafas, engañando a las personas para que revelen información sensible o hagan clic en enlaces maliciosos
Por ejemplo, la aparición de GhostGBT destaca los crecientes riesgos de las amenazas cibernéticas impulsadas por la IA. Este chatbot puede generar malware, crear herramientas de explotación y redactar convincentes correos electrónicos de phishing.
GhostGPT es parte de una tendencia más amplia de IA armada que está remodelando la ciberseguridad. Al hacer que el cibercrimen sea más rápido y eficiente, estas herramientas presentan desafíos significativos para los defensores. La investigación indica que la IA podría generar hasta 10,000 variantes de malware, eludiendo la detección el 88% de las veces.
Dejar un comentario
Cancelar