LinkedIn utiliza datos de los usuarios para entrenar modelos de IA sin un consentimiento claro

Image by Airam Dato-on, from Pexels

LinkedIn utiliza datos de los usuarios para entrenar modelos de IA sin un consentimiento claro

Tiempo de lectura: 3 min.

  • Kiara Fabbri

    Escrito por: Kiara Fabbri Periodista especializada en multimedia

  • El equipo de localización y traducción

    Traducido por El equipo de localización y traducción Servicios de localización y traducción

¿Apurada? ¡Aquí están los datos rápidos!

  • LinkedIn utilizó los datos de usuarios de EE.UU. para IA sin un aviso claro.
  • Existía una opción para excluirse, pero LinkedIn no actualizó inicialmente su política de privacidad.
  • La actualización tardía de LinkedIn refleja la creciente preocupación mundial sobre el uso de datos en la IA.

LinkedIn, la plataforma de networking profesional, ha enfrentado críticas por utilizar los datos de los usuarios para entrenar sus modelos de IA sin informar explícitamente a los usuarios de antemano.

Los usuarios de LinkedIn en los EE.UU. — pero no aquellos en la UE, EEA o Suiza, probablemente debido a leyes de privacidad de datos más estrictas — tienen una opción de exclusión en su configuración que revela que LinkedIn recopila datos personales para entrenar “modelos de IA para la creación de contenido”.

Aunque el interruptor en sí no es nuevo, LinkedIn inicialmente no actualizó su política de privacidad para reflejar este uso de datos, como se informó por primera vez por 404 Media.

En una página de ayuda, LinkedIn explica que sus modelos de IA generativos se utilizan para tareas como las funciones de asistente de escritura.

Los usuarios pueden optar por no permitir que se utilicen sus datos para el entrenamiento de IA navegando a la sección “Datos para la mejora de IA generativa” bajo la pestaña de privacidad de datos en la configuración de su cuenta.

Desactivar el interruptor evitará que LinkedIn utilice datos personales para futuros entrenamientos de modelos de IA, aunque no anula el entrenamiento que ya ha ocurrido.

Los términos de servicio se han actualizado desde entonces, según informó TechCrunch, pero tales actualizaciones suelen ocurrir con bastante antelación a cambios significativos como la reutilización de los datos de los usuarios.

Este enfoque normalmente permite a los usuarios ajustar sus configuraciones o abandonar la plataforma si no están de acuerdo con los cambios. Sin embargo, esta vez, ese no fue el caso.

Esto surge en medio de preocupaciones más amplias sobre cómo los sistemas de IA procesan los datos personales. El escrutinio sobre las prácticas de datos de IA se está intensificando a nivel mundial.

Un reciente estudio del MIT reveló que un número creciente de sitios web están restringiendo el uso de sus datos para el entrenamiento de IA.

Además, la DPC concluyó recientemente un proceso legal contra X en relación a su herramienta de IA después de que la compañía aceptase cumplir con las restricciones previas sobre el uso de datos de usuarios de la UE/EEE para el entrenamiento de IA.

El incidente subraya la creciente importancia de la transparencia y el consentimiento del usuario en el desarrollo de las tecnologías de IA.

A medida que la IA sigue avanzando, es crucial que las empresas sean claras acerca de sus prácticas de datos y obtengan permiso explícito de los usuarios antes de utilizar su información para fines de entrenamiento.

El incidente también destaca las crecientes tensiones entre las empresas de IA y los propietarios de datos, ya que cada vez más organizaciones están exigiendo un mayor control sobre cómo se utiliza su información.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Ver más