La IA Sombra Amenaza la Seguridad Empresarial

Image by Freepik

La IA Sombra Amenaza la Seguridad Empresarial

Tiempo de lectura: 4 min.

A medida que la tecnología de IA evoluciona rápidamente, las organizaciones se enfrentan a una nueva amenaza de seguridad: las aplicaciones de IA en la sombra. Estas aplicaciones no autorizadas, desarrolladas por empleados sin la supervisión de TI o de seguridad, se están extendiendo por las empresas y a menudo pasan desapercibidas, tal como se destacó en un reciente artículo de VentureBeat.

¿Apurada? ¡Aquí están los datos rápidos!

  • Las aplicaciones de Inteligencia Artificial en la sombra son creadas por los empleados sin la aprobación de IT o seguridad.
  • Los empleados crean Inteligencia Artificial en la sombra para aumentar la productividad, a menudo sin intenciones maliciosas.
  • Los modelos públicos pueden exponer datos sensibles, creando riesgos de cumplimiento para las organizaciones.

VentureBeat explica que, aunque muchas de estas aplicaciones no son intencionalmente maliciosas, representan riesgos significativos para las redes corporativas, que van desde violaciones de datos hasta infracciones de cumplimiento.

Las aplicaciones de Shadow AI a menudo son desarrolladas por empleados que buscan automatizar tareas rutinarias o agilizar operaciones, utilizando modelos de IA entrenados con datos propietarios de la empresa.

Estas aplicaciones, que dependen con frecuencia de herramientas de IA generativas como ChatGPT de OpenAI o Google Gemini, carecen de salvaguardas esenciales, lo que las hace altamente vulnerables a amenazas de seguridad.

Según Itamar Golan, CEO de Prompt Security, “Alrededor del 40% de estos recurren al entrenamiento con cualquier dato que les proporcionas, lo que significa que tu propiedad intelectual puede convertirse en parte de sus modelos”, según informó VentureBeat.

El atractivo de la inteligencia artificial sombra es evidente. Los empleados, bajo una creciente presión para cumplir con plazos estrictos y manejar cargas de trabajo complejas, están recurriendo a estas herramientas para aumentar la productividad.

Vineet Arora, CTO en WinWire, comenta a VentureBeats, “Los departamentos se lanzan a soluciones de IA no sancionadas porque los beneficios inmediatos son demasiado tentadores para ignorarlos”. Sin embargo, los riesgos que estas herramientas introducen son profundos.

Golan compara la inteligencia artificial en la sombra con las drogas para mejorar el rendimiento en los deportes, diciendo: “Es como doparse en el Tour de Francia. La gente quiere una ventaja sin darse cuenta de las consecuencias a largo plazo”, según informa VentureBeats.

A pesar de sus ventajas, las aplicaciones de IA en la sombra exponen a las organizaciones a una serie de vulnerabilidades, incluyendo fugas de datos accidentales y ataques de inyección rápidos que las medidas de seguridad tradicionales no pueden detectar.

La magnitud del problema es asombrosa. Golan revela a VentureBeats que su compañía registra 50 nuevas aplicaciones de IA al día, con más de 12,000 actualmente en uso. “No puedes detener un tsunami, pero puedes construir un barco”, aconseja Golan, señalando el hecho de que muchas organizaciones son sorprendidas por el alcance del uso de la IA en la sombra dentro de sus redes.

Por ejemplo, una firma financiera descubrió 65 herramientas de IA no autorizadas durante una auditoría de 10 días, mucho más que las menos de 10 herramientas que su equipo de seguridad esperaba, según lo informado por VentureBeats.

Los peligros de la IA en la sombra son particularmente agudos para los sectores regulados. Una vez que los datos propietarios se introducen en un modelo de IA público, se vuelve difícil de controlar, lo que conlleva posibles problemas de cumplimiento.

Golan advierte: “La próxima Ley de IA de la UE podría superar incluso a la GDPR en multas”, mientras que Arora enfatiza la amenaza de la fuga de datos y las sanciones a las que podrían enfrentarse las organizaciones por no proteger la información sensible, tal como informó VentureBeats.

Para abordar el creciente problema de la IA en la sombra, los expertos recomiendan un enfoque multifacético. Arora sugiere que las organizaciones creen estructuras centralizadas de gobernanza de IA, realicen auditorías regulares y desplieguen controles de seguridad conscientes de la IA que puedan detectar explotaciones impulsadas por la IA.

Además, las empresas deberían proporcionar a los empleados herramientas de IA preaprobadas y políticas de uso claras para reducir la tentación de utilizar soluciones no aprobadas.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
5.00 Votado por 1 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más