Los Contratistas Advierten que las Nuevas Directrices de Google Podrían Afectar la Precisión de Gemini en Temas Sensibles
Un cambio reciente en las directrices internas de Google ha suscitado preocupaciones sobre la precisión de su IA Gemini, especialmente cuando se trata de manejar temas delicados o altamente especializados.
¿Con Prisas? ¡Aquí están los Datos Rápidos!
- Los contratistas de Google ya no pueden omitir las indicaciones fuera de su especialidad para la evaluación de Gemini.
- Ahora los contratistas califican las respuestas de la IA que no entienden completamente, señalando la falta de conocimientos especializados.
- Anteriormente, los contratistas omitían las indicaciones sobre temas complejos como la cardiología o las enfermedades raras.
Los contratistas que trabajan en el proyecto Gemini, cuya tarea es evaluar la precisión de las respuestas generadas por la IA, ya no pueden omitir las solicitudes fuera de su área de expertise. Este cambio, informado inicialmente por TechCrunch, podría impactar potencialmente la fiabilidad de la información proporcionada por la IA en temas como la salud, donde el conocimiento preciso es crucial.
TechCrunch señala que anteriormente, los contratistas de GlobalLogic, una empresa de outsourcing propiedad de Hitachi, tenían la tarea de evaluar las respuestas de la IA en base a factores como la “veracidad” y se les permitía omitir las indicaciones fuera de su campo de conocimiento.
Por ejemplo, si se les pedía evaluar una pregunta técnica sobre cardiología, un contratista sin antecedentes científicos podría saltársela.
Sin embargo, bajo las nuevas directrices, ahora se instruye a los contratistas para que evalúen las respuestas a todas las indicaciones, incluyendo aquellas que requieren conocimientos especializados, y noten cualquier área en la que carecen de experiencia, según informó TechCrunch.
La nueva norma ha generado preocupaciones acerca de la calidad de las calificaciones proporcionadas para temas complejos. Los contratistas, a menudo sin la formación necesaria, ahora tienen la tarea de juzgar las respuestas de la IA en temas como enfermedades raras o matemáticas avanzadas.
Una contratista expresó a TechCrunch su frustración en la correspondencia interna, cuestionando la lógica detrás de la eliminación de la opción de omitir: “¿Pensé que el punto de saltar era aumentar la precisión al dárselo a alguien mejor?”
TechCrunch informa que las directrices actualizadas permiten a los contratistas omitir solicitudes solo en dos casos: si la solicitud o respuesta está incompleta o contiene contenido dañino que requiere un consentimiento especial para su evaluación.
Esta restricción ha generado alarmas entre aquellos que trabajan en Gemini, quienes temen que la IA pueda producir información inexacta o engañosa en áreas altamente sensibles.
TechCrunch informa que Google no ha proporcionado una respuesta detallada a las preocupaciones planteadas por los contratistas.
Sin embargo, un portavoz enfatizó a TechCrunch que la empresa está “trabajando constantemente para mejorar la precisión factual en Gemini”. Aclararon además que, aunque los evaluadores proporcionan valiosa retroalimentación en múltiples factores, sus calificaciones no impactan directamente en los algoritmos, sino que se utilizan para evaluar el rendimiento general del sistema.
Mashable señaló que el informe cuestiona el rigor y los estándares que Google afirma aplicar al probar Gemini en términos de precisión.
En la sección de “Construyendo de manera responsable” del anuncio de Gemini 2.0, Google declaró que está “trabajando con evaluadores de confianza y expertos externos y realizando evaluaciones de riesgo exhaustivas y evaluaciones de seguridad y garantías.”
Si bien hay un énfasis razonable en evaluar respuestas para contenido sensible y perjudicial, parece darse menos atención a las respuestas que, aunque no son dañinas, simplemente son inexactas, como señaló Mashable.
Dejar un comentario
Cancelar