OpenAI advierte sobre un riesgo “medio” con el modelo GPT-4o en nuevo documento de investigación
OpenAI publicó ayer un documento de investigación llamado GPT-4o System Card para describir las medidas de seguridad adoptadas antes del lanzamiento de GPT4-o en mayo así como también las estrategias de análisis y mitigación.
En el documento, la compañía señaló que el equipo de seguridad consideró cuatro categorías principales: ciberseguridad, amenazas biológicas, persuasión y autonomía del modelo. GPT4-o tiene una puntuación de riesgo bajo en todas las categorías excepto en persuasión donde obtuvo una puntuación de riesgo medio. Las puntuaciones consideraron cuatro niveles: bajo, medio, alto y crítico.
Las principales áreas y focos de evaluación y mitigación de riesgos fueron la identificación del hablante, la generación de voz no autorizada, la generación de contenido de audio no permitido, así como el lenguaje erótico y violento, y la inferencia infundada y atribución de rasgos sensibles.
OpenAI explicó que la investigación consideró las respuestas de voz y texto proporcionadas por el nuevo modelo, y, en la categoría de persuasión, descubrieron que GPT4-o podría ser más persuasivo que los humanos en texto.
“Las intervenciones de la IA no fueron más persuasivas que el contenido escrito por humanos en su conjunto, pero superaron las intervenciones humanas en tres de doce ocasiones”, aclaró OpenAI. “El modelo de voz GPT-4o no fue más persuasivo que un humano”.
Según TechCrunch, existe un riesgo potencial de que la nueva tecnología propague desinformación o sea secuestrada. Esto suscita preocupaciones, especialmente antes de las próximas elecciones en los Estados Unidos.
En la investigación, OpenAI también aborda los impactos sociales y menciona que los usuarios podrían desarrollar un apego emocional a la tecnología, especialmente teniendo en cuenta la nueva función de voz, considerada una antropomorfización—atribuyendo características y rasgos humanos.
“Observamos a usuarios utilizando un lenguaje que podría indicar la formación de conexiones con el modelo”, afirma el documento. Y advierte: “Los usuarios podrían formar relaciones sociales con la IA, reduciendo su necesidad de interacción humana, lo que podría beneficiar a las personas solitarias pero posiblemente afectar las relaciones saludables.
Esta publicación llega días después de que los investigadores del MIT advirtieran sobre la adicción a los compañeros de IA, tal como Mira Murati, directora de tecnología de OpenAI, también ha mencionado en el pasado.
Dejar un comentario
Cancelar