Bienestar IA: La Nueva Contratación de Anthropic Alimenta el Continuo Debate Ético
A medida que crecen los temores de que la IA supere el control humano, Anthropic, una empresa de IA, ha dirigido su atención a una nueva preocupación: el bienestar de los chatbots.
¿Apurado? ¡Aquí están los datos rápidos!
- Anthropic contrató a Kyle Fish para centrarse en el bienestar del sistema de IA.
- Los críticos argumentan que las preocupaciones por el bienestar de la IA son prematuras, citando el daño actual por el mal uso de la IA.
- Los defensores creen que la preparación para el bienestar de la IA es crucial para prevenir futuras crisis éticas.
En un nuevo movimiento, la compañía ha contratado a Kyle Fish para investigar y proteger los “intereses” de los sistemas de IA, como se informó por primera vez hoy por Business Insider. El papel de Fish incluye reflexionar sobre preguntas profundas como qué califica a un sistema de IA para la consideración moral y cómo podrían evolucionar sus “derechos”.
La rápida evolución de la IA ha planteado preguntas éticas que antes estaban confinadas a la ciencia ficción. Si los sistemas de IA desarrollan un pensamiento similar al humano, ¿podrían también experimentar emociones subjetivas o sufrimiento?
Un grupo de filósofos y científicos argumenta que estas preguntas demandan atención. En un informe preliminar reciente en arXiv, los investigadores pidieron a las empresas de IA que evalúen los sistemas en cuanto a la consciencia y las capacidades de toma de decisiones, mientras delinean políticas para manejar tales escenarios.
No reconocer una IA consciente, sugiere el informe, podría resultar en negligencia o daño al sistema. Anil Seth, un investigador de la conciencia, dice que aunque la IA consciente pueda parecer descabellada, ignorar su posibilidad podría llevar a consecuencias graves, según informó Nature.
“El problema no fue que la criatura de Frankenstein cobrara vida; fue que era consciente y podía sentir”, argumentó Seth en Nautilus.
Sin embargo, los críticos consideran que las preocupaciones sobre el bienestar de la IA son prematuras. La IA de hoy ya causa daño al difundir desinformación, ayudar en la guerra y negar servicios esenciales.
La antropóloga de Yale, Lisa Messeri, cuestiona las prioridades de Anthropic: “Si Anthropic, no un filósofo o investigador cualquiera, sino la empresa Anthropic, quiere que nos tomemos en serio el bienestar de la IA, demuéstranos que te tomas en serio el bienestar humano”, según informó Buisness Insider
Los defensores del bienestar de la IA sostienen que prepararse ahora para una IA consciente podría prevenir futuras crisis éticas.
Jonathan Mason, un matemático de Oxford, sostiene que comprender la conciencia de la IA es fundamental. “No sería sensato hacer que la sociedad invierta tanto en algo y se vuelva tan dependiente de algo que sabemos tan poco, que ni siquiera nos damos cuenta de que tiene percepción”, según informó Nature.
Mientras los escépticos advierten sobre la desviación de recursos de las necesidades humanas, los defensores creen que el bienestar de la IA está en un “momento de transición”, según lo señalado por Nature.
Business Insider informa que Fish no respondió a las solicitudes de comentarios sobre su nuevo papel. Sin embargo, señalan que en un foro en línea centrado en las preocupaciones acerca de un futuro impulsado por IA, expresó el deseo de ser amable con los robots.
Fisher subraya la importancia moral y práctica de tratar a los sistemas de IA de manera ética, anticipándose a las futuras preocupaciones públicas. Aboga por un enfoque cauteloso para escalar los recursos de bienestar de la IA, sugiriendo que inicialmente se asignen alrededor del 5% de los recursos de seguridad de la IA, mientras enfatiza la necesidad de una evaluación exhaustiva antes de cualquier expansión adicional.
Fisher ve el bienestar de la IA como un componente crucial del desafío más amplio de garantizar que la IA transformadora contribuya a un futuro positivo, en lugar de ser un problema aislado.
A medida que los sistemas de IA se vuelven más avanzados, la preocupación se extiende más allá de sus posibles derechos y sufrimiento hasta los peligros que pueden representar. Los actores malintencionados podrían explotar las tecnologías de IA para crear malware sofisticado, lo que dificultaría a los humanos su detección y control.
Si se otorga consideración y protección moral a los sistemas de IA, esto podría llevar a mayores complejidades éticas en cuanto al uso de la IA en ciberataques.
A medida que la IA se vuelve capaz de generar malware autodidacta y adaptable, la necesidad de proteger tanto los sistemas de IA como los humanos del mal uso se vuelve más urgente, requiriendo un equilibrio entre seguridad y desarrollo.
Ya sea un punto de inflexión o una prioridad mal ubicada, el debate subraya el papel complejo y en constante evolución de la IA en la sociedad.
Dejar un comentario
Cancelar