
Image generated with DALL·E through ChatGPT
Opinión: Las Estafas de Deepfake Están Explotando el Amor y la Confianza Como Nunca Antes
Las estafas impulsadas por la IA están en aumento, con cibercriminales que utilizan la tecnología deepfake para crear videos e imágenes convincentes que manipulan a las víctimas. Desde una mujer francesa que creía que estaba ayudando a Brad Pitt hasta una víctima convencida por un deepfake de alta calidad, las líneas entre la realidad y el engaño se están difuminando. A medida que las herramientas de IA evolucionan, también lo hacen los riesgos.
Muchos de nosotros lo vimos en las noticias en enero: una mujer francesa perdió más de $850,000 a manos de estafadores porque creía que le estaba dando el dinero a Brad Pitt, el hombre con quien pensaba que había estado en una relación durante más de un año.
Los estafadores utilizaron inteligencia artificial generativa avanzada para crear “selfies” y fabricar pruebas, convenciendo a su víctima, Anne, una diseñadora de 53 años que está pasando por un divorcio, de la trágica historia de un falso Pitt con necesidades médicas urgentes. Afirmaron que sus fondos estaban congelados debido a su divorcio de Angelina Jolie.
Anne tomó la valiente, y arriesgada, decisión de compartir su historia públicamente, enfrentándose a millones de burlas, insultos y ataques virtuales. “Como una tonta, pagué… Cada vez que dudaba de él, lograba disipar mis dudas”, dijo en un programa de Youtube en francés, según informó la BBC. “Simplemente me engañaron, lo admito, y por eso lo conté, porque no soy la única”.
Ella no lo está. Unos meses después, la policía española arrestó a 5 personas que estafaron a dos mujeres más haciéndose pasar por Pitt. Hace unos días, un hombre chino también fue engañado, creyendo que su novia en línea necesitaba dinero para procedimientos médicos y para financiar su negocio.
Las víctimas recibieron videos y fotografías personalizadas, imágenes que no estaban disponibles en ningún otro lugar en línea, convenciéndolas aún más de las elaboradas mentiras de sus engañadores.
Un informe reciente de Entrust sugiere que los intentos de Deepfake ocurren cada 5 minutos. Cada día surgen nuevos casos de personas estafadas con inteligencia artificial generativa, una tendencia preocupante, especialmente considerando a los miles, o incluso millones, de personas hundidas en deudas y vergüenza que no se atreven a denunciarlo a las autoridades, y mucho menos a hacerlo público.
El auge de las estafas DeepFake
Varios estudios e informes han dado la alarma sobre el creciente número de fraudes y ciberataques impulsados por la inteligencia artificial. Los datos recientes de Tendencias e Insight de Fraude 2025 de TrustPair mostraron un aumento del 118% en los fraudes impulsados por la IA en comparación con el año anterior, según informó CFO.
Hola, Hiya, una compañía estadounidense especializada en soluciones de seguridad y rendimiento de voz, compartió recientemente los resultados de una encuesta, revelando que el 31% de los clientes de seis países recibieron llamadas deepfake en 2024, y el 45% de ellos fueron estafados: el 34% de ese grupo perdió dinero y el 32% sufrió el robo de su información personal. En promedio, las víctimas pierden más de $500 cada una debido a las estafas telefónicas.
Hace unos días, The Guardian reveló que una red organizada en Georgia, en el Este de Europa, utilizó anuncios falsos en Facebook y Google para estafar a más de 6,000 personas en Europa, Canadá y el Reino Unido, generando $35 millones a través de sus operaciones.
Unos 85 estafadores georgianos bien pagados utilizaron figuras públicas como el periodista inglés Martin Lewis, el escritor y aventurero Ben Fogle, y Elon Musk para sus fraudes. Los estafadores promovieron falsas criptomonedas y otros esquemas de inversión, haciendo que las víctimas transfirieran dinero a través de bancos digitales como Revolut, que recientemente obtuvo una licencia bancaria en el Reino Unido.
IA avanzada, estafas más sofisticadas
Los ciberdelincuentes han estado utilizando IA generativa durante los últimos años, aprovechando herramientas como ChatGPT para crear y traducir correos electrónicos atractivos y generar contenido persuasivo basado en texto. Ahora, a medida que las herramientas de IA evolucionan, el uso de imágenes y videos generados por IA ha aumentado.
Hace unas semanas, ByteDance presentó su última herramienta de vídeo con IA, OmniHuman-1, capaz de generar uno de los deepfakes más realistas del mercado. Mientras tanto, más empresas de IA están desarrollando tecnologías similares. Parece ser solo cuestión de tiempo antes de que estas herramientas también se utilicen para estafas.
Aunque estas tecnologías pueden ser utilizadas “de buena fe” e incluso para contrarrestar el aumento de estafas, como la ‘Abuela’ Daisy de IA de O2, diseñada para involucrar a los estafadores en llamadas en tiempo real y distraerlos de las verdaderas víctimas, las consecuencias de su uso malicioso parecen inmensurables.
En Wizcase, recientemente informamos sobre un aumento del 614% en los “Ataques de Estafa Propia”, señalando cómo los hackers utilizan tecnologías de deepfake para hacer que el contenido falso parezca “más realista”, y cómo compañías de redes sociales como Meta han tenido que intervenir en estafas de matanza de cerdos, ya que muchos actores de amenazas usan estas plataformas. En la investigación, Meta señaló que muchas estafas comenzaron en aplicaciones de citas, demostrando cuán común es el amor romántico entre las carnadas más comunes, ahora y históricamente.
Amor: Un Cebo Poderoso
Los cibercriminales no solo son hábiles en entender y usar inteligencia artificial avanzada, también tienen una profunda comprensión de la inteligencia humana. Los actores de amenazas saben cómo identificar vulnerabilidades, construir confianza y hacer sus solicitudes en el momento justo.
El estudio ¿Me Amas? Características Psicológicas de las Víctimas de Estafas Románticas, publicado en 2018 por la doctora Monica T. Whitty, explica cómo los grupos criminales internacionales han llevado a cabo estafas románticas durante muchos años, incluso antes de la existencia del Internet, y cómo las mujeres de mediana edad y bien educadas son propensas a caer en este tipo de estafa, al igual que Anne.
¿Qué podemos esperar ahora, ocho años después de este estudio, con una tecnología que parece de ciencia ficción? Probablemente todos somos más vulnerables de lo que pensamos.
“Las víctimas de este tipo de fraude suelen ser personas en busca de sentido, que son emocionalmente vulnerables”, escribió Annie Lecompte, profesora asociada en la Universidad de Quebec en Montreal (UQAM), en un artículo reciente publicado en The Conversation. “Aunque se burla y se malinterpreta, el fraude romántico se basa en mecanismos psicológicos complejos que explotan la confianza, las emociones y la vulnerabilidad de las víctimas”.
Un corazón roto, un monedero vacío
Liu, el apellido del chino que recientemente perdió 200,000 yuanes, alrededor de $28,000, en una estafa impulsada por la inteligencia artificial, realmente creía que su novia AI era real, ya que veía fotos personalizadas e incluso videos. Construyendo un vínculo emocional cada vez más fuerte… con sus estafadores.
Aunque él no proporcionó más detalles del contexto en los informes, otra víctima, la mujer de 77 años Nikki MacLeod, sí lo hizo. Ella también creyó estar en una relación real con una novia IA y le envió £17,000—alrededor de $22,000—a través de transferencias bancarias, PayPal, y tarjetas de regalo.
“No soy una persona estúpida pero ella logró convencerme de que era una persona real y que íbamos a pasar nuestras vidas juntas”, dijo MacLeod a la BBC.
MacLeod se sentía sola y triste cuando conoció a Alla Morgan en un chat grupal. Después de un tiempo, MacLeod solicitó un video en vivo, pero Morgan dijo que no era posible ya que trabajaba en una plataforma petrolífera. Cuando MacLeod comenzó a sospechar, Morgan empezó a enviar videos realistas. “Me envió un video diciendo ‘Hola Nikki, no soy una estafadora, estoy en mi plataforma petrolífera’, y quedé totalmente convencida con eso”, explicó MacLeod. El contenido está disponible en el sitio web de la BBC, y es fácil ver por qué MacLeod creyó que era real: es un deepfake de alta calidad.
La BBC pidió a una experta en ciberseguridad e interacción humano-computadora de la Universidad de Abertay, la Dra. Lynsay Shepherd, que analizara las fotos y los videos que MacLeod recibió. “A primera vista parece legítimo, si no sabes qué buscar, pero si miras a los ojos, los movimientos de los ojos no son del todo correctos”, dijo la Dra. Shepherd.
“Los documentos parecían reales, los videos parecían reales, el banco parecía real”, dijo MacLeod. “Con la introducción de la inteligencia artificial, cada cosa puede ser falsa.”
Dejar un comentario
Cancelar