Un empleado recibe una videollamada de su director financiero. Lo ve en pantalla, reconoce su cara, su voz, sus gestos. El director le pide que autorice una transferencia urgente de 25 millones de dólares. El empleado obedece. Pero la persona al otro lado de la pantalla no existía: era un deepfake generado por inteligencia artificial. Cuando descubrieron el fraude, el dinero ya había desaparecido. Esto no es ciencia ficción: ocurrió en Hong Kong en 2024.
Los deepfakes han pasado de ser una curiosidad tecnológica a convertirse en una de las amenazas más serias de la era digital. Con las herramientas de IA disponibles en 2026, cualquier persona con un ordenador y unos minutos puede crear un vídeo falso de alguien diciendo cosas que nunca dijo, una foto que nunca existió o una llamada telefónica con una voz clonada que es indistinguible de la real.
En esta guía te explicamos qué son exactamente los deepfakes, cómo se crean, los peligros reales que representan para tu seguridad y privacidad, los casos más impactantes y, lo más importante, las 10 claves para detectar un deepfake antes de que te engañen.
🚨 Dato escalofriante: según un informe de Deeptrace/Sensity AI, el número de deepfakes en internet se duplica cada 6 meses. En 2025 se detectaron más de 500.000 deepfakes de vídeo y audio circulando por internet. El 96% de los deepfakes de vídeo son pornográficos no consentidos, y las víctimas son mayoritariamente mujeres.
📑 Tabla de contenidos
- ¿Qué son los deepfakes?
- ¿Cómo se crean los deepfakes?
- Tipos de deepfakes
- Los peligros reales de los deepfakes
- Casos reales que marcaron la historia
- 10 claves para detectar un deepfake
- Herramientas para detectar deepfakes
- Cómo protegerte de los deepfakes
- Marco legal en España y Europa
- Preguntas frecuentes
🎭 ¿Qué son los deepfakes?
Los deepfakes son contenidos multimedia (vídeos, imágenes, audios) generados o manipulados mediante inteligencia artificial para que parezcan reales pero son completamente falsos. El nombre viene de la combinación de "deep learning" (aprendizaje profundo, un tipo de IA) y "fake" (falso).
La tecnología permite poner la cara de una persona en el cuerpo de otra, hacer que alguien diga cosas que nunca dijo, clonar voces con 3 segundos de audio de muestra y crear fotos hiperrealistas de personas que no existen. Y la calidad ha alcanzado un nivel donde el ojo humano ya no puede distinguir un deepfake bien hecho de un contenido real.
💡 Para entenderlo: imagina que pudieras crear un vídeo donde el presidente del gobierno dice que ha declarado la guerra a otro país. El vídeo se ve perfecto: su cara, sus gestos, su voz, su entorno habitual. Millones de personas lo verían y lo creerían antes de que alguien pudiera desmentirlo. Ese es el poder (y el peligro) de los deepfakes.
⚙️ ¿Cómo se crean los deepfakes?
Los deepfakes se crean usando redes neuronales generativas, específicamente un tipo llamado GAN (Generative Adversarial Networks) y más recientemente modelos de difusión. Sin entrar en tecnicismos, así funciona:
El sistema necesita material de referencia de la persona objetivo: fotos, vídeos o audio. Cuanto más material, más convincente será el resultado. Las redes sociales son una mina de oro: una persona activa en Instagram puede tener cientos de fotos desde todos los ángulos disponibles públicamente.
La IA estudia el material y "aprende" cómo se ve la persona desde diferentes ángulos, cómo se mueve su cara al hablar, sus expresiones, la textura de su piel y cómo suena su voz. Con las herramientas actuales, este proceso puede tardar desde minutos hasta pocas horas.
La IA genera el contenido falso: superpone la cara en otro cuerpo, sincroniza los labios con un audio diferente, clona la voz para decir cualquier texto o crea una imagen completamente nueva de la persona en situaciones que nunca ocurrieron.
El resultado se refina para eliminar imperfecciones: corregir bordes, ajustar iluminación, mejorar la sincronización labial. Las herramientas modernas hacen gran parte de esto automáticamente.
🚨 Lo más preocupante: en 2026, crear un deepfake convincente ya no requiere conocimientos técnicos. Existen apps y webs que lo hacen automáticamente con solo subir una foto. Un deepfake de voz se puede crear con 3 segundos de audio de muestra. La barrera de entrada es prácticamente cero.
📋 Tipos de deepfakes
| Tipo | Qué hace | Dificultad de detección | Uso malicioso principal |
|---|---|---|---|
| Face swap (intercambio de cara) | Pone la cara de una persona en el cuerpo de otra en un vídeo | 🟡 Media-alta | Pornografía no consentida, suplantación de identidad |
| Lip sync (sincronización labial) | Hace que una persona parezca decir cosas que nunca dijo | 🔴 Alta | Desinformación política, estafas |
| Voice cloning (clonación de voz) | Replica la voz de una persona para generar audio de cualquier texto | 🔴 Muy alta (casi indetectable) | Estafas telefónicas, ingeniería social |
| Full body (cuerpo completo) | Genera vídeo completo de una persona en movimiento | 🟡 Media | Suplantación en videollamadas |
| Imagen generada | Crea fotos hiperrealistas de personas que no existen | 🔴 Muy alta | Perfiles falsos, estafas románticas, phishing |
| Deepfake en tiempo real | Transforma tu cara en la de otra persona durante una videollamada en directo | 🔴 Muy alta | Fraude empresarial, suplantación en reuniones |
⚠️ Los peligros reales de los deepfakes
1. Estafas financieras devastadoras 💰
Los deepfakes de voz y vídeo se usan para suplantar a ejecutivos y directivos de empresas, ordenando transferencias millonarias a empleados que creen estar hablando con su jefe. También se usan para estafas del tipo "familiar en apuros": un estafador llama a una madre con la voz clonada de su hijo pidiendo dinero urgente.
2. Pornografía no consentida 🚫
El 96% de los deepfakes de vídeo en internet son pornográficos no consentidos. Se toma la cara de una persona (normalmente de sus redes sociales) y se superpone en contenido pornográfico. Las víctimas son mayoritariamente mujeres, incluyendo adolescentes. El daño psicológico y reputacional puede ser devastador e irreparable.
3. Desinformación y manipulación política 🏛️
Deepfakes de políticos diciendo cosas que nunca dijeron pueden influir en elecciones, provocar crisis diplomáticas o incitar violencia. Un deepfake de un presidente anunciando una guerra o una devaluación puede causar pánico masivo antes de que se pueda desmentir.
4. Acoso y ciberbullying 🎯
Crear vídeos humillantes o comprometedores falsos de compañeros de clase, exparejas o conocidos para acosar, humillar o extorsionar. En colegios e institutos, los deepfakes ya se están usando como herramienta de acoso entre adolescentes.
5. Suplantación de identidad profesional 💼
Crear perfiles falsos con fotos generadas por IA para estafas en LinkedIn, hacerse pasar por reclutadores falsos, o participar en entrevistas de trabajo por videollamada suplantando la identidad de otra persona.
6. Destrucción de la confianza 🔍
Quizás el peligro más profundo: los deepfakes erosionan nuestra capacidad de confiar en lo que vemos y escuchamos. Si cualquier vídeo puede ser falso, ¿cómo verificamos la realidad? Los criminales reales ya usan la excusa "es un deepfake" para negar pruebas legítimas de sus delitos.
💡 La paradoja del deepfake: los deepfakes no solo son peligrosos porque pueden crear contenido falso convincente. También son peligrosos porque hacen que la gente desconfíe del contenido real. Si todo puede ser un deepfake, nada es creíble. Esa duda generalizada es un arma en sí misma.
⚡ Los deepfakes buscan engañarte para robar tus credenciales
Contraseñas únicas y 2FA te protegen incluso si caes en un engaño con deepfake.
🛡️ Generar Contraseña Segura Gratis📰 Casos reales que marcaron la historia
🔴 Fraude de 25 millones de dólares con videollamada deepfake (2024)
Un empleado de la multinacional de ingeniería Arup en Hong Kong participó en una videollamada con su supuesto director financiero y varios colegas. Todos eran deepfakes en tiempo real generados por IA. Le pidieron autorizar transferencias por un total de 25 millones de dólares. El empleado obedeció. El dinero desapareció. Este caso demostró que los deepfakes en videollamadas son una amenaza real y actual, no futurista.
🔴 Estafa con voz clonada del CEO (2019)
El director de una empresa energética británica recibió una llamada de su "jefe" (el CEO de la empresa matriz alemana) pidiéndole que transfiriera 220.000 euros a un proveedor húngaro. Reconoció su voz, su acento alemán y su forma de hablar. Era un deepfake de audio. Transfirió el dinero, que fue redirigido a México y desapareció.
🔴 Deepfakes pornográficos de Taylor Swift (2024)
Imágenes deepfake pornográficas de Taylor Swift se viralizaron en X (Twitter), acumulando 47 millones de visualizaciones antes de ser eliminadas. El caso generó un debate mundial sobre la regulación de los deepfakes y la protección de las víctimas. Si le pasa a alguien con los recursos de Taylor Swift, imagina lo que puede sufrir una persona anónima.
🔴 Deepfakes de Zelensky y Putin (2022-2026)
Durante el conflicto Rusia-Ucrania, circularon deepfakes del presidente Zelensky pidiendo a los soldados ucranianos que se rindieran y de Putin declarando la paz. Ambos fueron desmentidos rápidamente, pero durante las horas que circularon causaron confusión y desinformación.
🔴 Estafas a familias con voz clonada de hijos (2023-2026)
Oleada de estafas donde los delincuentes clonan la voz de un hijo/a usando audios de redes sociales y llaman a los padres simulando un secuestro o emergencia. La madre escucha a "su hija" llorando y pidiendo ayuda, y transfiere el dinero del rescate. Casos documentados en España, EEUU y Latinoamérica con pérdidas de miles a decenas de miles de euros.
🚨 El denominador común: en todos estos casos, las víctimas confiaron en lo que veían o escuchaban sin verificar por un canal alternativo. Una simple llamada de verificación al número real de la persona suplantada habría evitado cada una de estas estafas.
🔍 10 claves para detectar un deepfake
Aunque los deepfakes son cada vez más sofisticados, todavía dejan pistas que puedes aprender a identificar:
Detección de deepfakes de VÍDEO 📹
1. Los ojos delatan 👁️
Fíjate en el parpadeo. Las personas reales parpadean de forma irregular y natural (15-20 veces por minuto). Muchos deepfakes tienen un parpadeo demasiado regular, demasiado poco frecuente o artificial. También observa los reflejos en los ojos: en una persona real, ambos ojos reflejan la misma fuente de luz. En un deepfake, los reflejos pueden ser diferentes o inexistentes.
2. Los bordes de la cara 🔲
Busca inconsistencias en el borde donde la cara "pegada" se une al cuerpo. Puede haber un ligero desenfoque, cambio de tono de piel o una línea visible alrededor de la mandíbula, la frente o las orejas. Esto es especialmente visible cuando la persona gira la cabeza hacia los lados.
3. La sincronización labial 👄
Observa si los labios coinciden perfectamente con el audio. Los deepfakes de lip-sync a veces tienen un desfase muy sutil, o los movimientos labiales no corresponden exactamente con los sonidos. Fíjate especialmente en sonidos como "b", "m" y "p" que requieren cerrar los labios completamente.
4. La iluminación y las sombras 💡
La luz en la cara deepfake puede no coincidir con la iluminación del entorno. Si el fondo muestra luz viniendo de la izquierda pero la cara tiene sombras inconsistentes, algo está mal. También fíjate en las sombras bajo la nariz y la barbilla.
5. El pelo y los accesorios 💇
El pelo es difícil de generar perfectamente con IA. Busca bordes irregulares en el cabello, mechones que desaparecen o aparecen entre frames, o pelo que no se mueve naturalmente. Los pendientes, gafas y otros accesorios también pueden mostrar deformaciones sutiles.
6. La textura de la piel 🔬
La piel en deepfakes a veces parece demasiado suave, demasiado perfecta o con una textura artificial. Los poros, arrugas y marcas naturales pueden estar borrosos o ausentes. Compara con vídeos reales de la misma persona.
Detección de deepfakes de AUDIO 🗣️
7. El ritmo y la entonación 🎵
Las voces clonadas por IA a veces tienen un ritmo demasiado regular, sin las pausas naturales, los "mmm", "eh" y las variaciones de tono que tenemos al hablar normalmente. La voz puede sonar ligeramente "robótica" o con una entonación extraña en ciertas palabras.
8. La respiración 🌬️
Las personas reales respiran al hablar. Algunos deepfakes de voz no incluyen sonidos de respiración entre frases, lo que suena artificialmente fluido. También pueden faltar sonidos ambientales naturales (eco de la habitación, ruido de fondo).
Detección de IMÁGENES generadas 📸
9. Los fondos y las manos 🖐️
Los fondos de imágenes generadas por IA a menudo contienen elementos distorsionados: texto ilegible, arquitectura imposible, objetos que se fusionan. Y las manos son el talón de Aquiles de la IA: busca dedos de más, dedos fusionados, proporciones incorrectas o poses antinaturales.
10. La simetría facial excesiva 🪞
Las caras humanas reales son ligeramente asimétricas. Las caras generadas por IA tienden a ser demasiado simétricas y perfectas. También pueden tener dientes demasiado uniformes, orejas que no coinciden o piel sin imperfecciones.
✅ La regla más importante: si el contenido es sospechoso (especialmente si te pide que actúes urgentemente o es demasiado impactante), no lo compartas y no actúes hasta verificar por un canal independiente. Busca la misma noticia en medios oficiales. Llama directamente a la persona que supuestamente aparece. La verificación es tu mejor herramienta.
🛠️ Herramientas para detectar deepfakes
| Herramienta | Qué detecta | Precio | Fiabilidad |
|---|---|---|---|
| Microsoft Video Authenticator | Deepfakes de vídeo e imagen | Acceso limitado | ⭐⭐⭐⭐ |
| Sensity AI | Deepfakes de vídeo, imagen y voz | Empresas | ⭐⭐⭐⭐⭐ |
| Deepware Scanner | Deepfakes de vídeo (app móvil) | Gratis | ⭐⭐⭐ |
| Google Reverse Image Search | Busca si una foto existe en internet (detecta imágenes robadas) | Gratis | ⭐⭐⭐ |
| FotoForensics | Analiza metadatos y manipulación en imágenes | Gratis | ⭐⭐⭐ |
| Hive Moderation | Detecta imágenes generadas por IA (DALL-E, Midjourney, Stable Diffusion) | Gratis (básico) | ⭐⭐⭐⭐ |
💡 Realidad: ninguna herramienta es 100% fiable. Los deepfakes mejoran más rápido que los detectores. La mejor defensa sigue siendo el pensamiento crítico y la verificación humana. Si algo parece sospechoso, no confíes solo en una herramienta: verifica la información por múltiples fuentes independientes.
🛡️ Cómo protegerte de los deepfakes
Protección personal
- 📱 Limita las fotos y vídeos públicos de tu cara en redes sociales → Guía de privacidad en redes. Cuanto menos material público haya de tu cara, más difícil será crear un deepfake tuyo
- 🔒 Configura tus redes como privadas para que desconocidos no puedan acceder a tus fotos
- 📞 Establece una "palabra clave" familiar — una palabra secreta que solo tú y tu familia conocéis. Si recibes una llamada sospechosa de un "familiar", pide la palabra clave. Un deepfake no la sabrá
- 🔍 Verifica siempre por un segundo canal antes de actuar ante peticiones urgentes de dinero o datos
- 🧠 Desarrolla pensamiento crítico — si algo es demasiado impactante, escandaloso o urgente, para y verifica antes de creerlo o compartirlo
Protección contra estafas con deepfakes
- 💼 En el trabajo: establece protocolos de verificación para transferencias grandes. Nunca autorices pagos solo por una llamada o videollamada. Exige confirmación por escrito y por un segundo canal
- 🔐 Usa contraseñas únicas y 2FA en todas las cuentas → incluso si un deepfake te engaña para revelar una contraseña, las demás cuentas están protegidas → Genera contraseñas seguras
- 📵 Desconfía de videollamadas donde la otra persona te pide que hagas algo urgente que normalmente no harías
- 🔑 Usa passkeys donde sea posible — son inmunes a la ingeniería social porque verifican criptográficamente el sitio web
Si eres víctima de un deepfake
- Documenta todo: guarda capturas, URLs, fechas y cualquier evidencia
- Denuncia en la plataforma: reporta el contenido en la red social o web donde está publicado
- Denuncia a las autoridades: Policía Nacional (091), Guardia Civil (062) o INCIBE (017)
- Ejerce tu derecho al olvido: solicita a Google la eliminación de los resultados → Guía de huella digital
- Busca apoyo: si el contenido es sexual, contacta con la Agencia Española de Protección de Datos (AEPD) y con organizaciones de apoyo a víctimas
🔐 Capas de seguridad contra el engaño
Aunque te engañen con un deepfake, contraseñas únicas + 2FA + passkeys limitan lo que el atacante puede hacer.
⚡ Generar Contraseña Segura⚖️ Marco legal en España y Europa
Legislación actual
- Código Penal español: crear o difundir deepfakes puede constituir delitos de injurias, calumnias, revelación de secretos, contra la integridad moral o contra la libertad sexual dependiendo del contenido
- RGPD: el uso no autorizado de la imagen de una persona para crear deepfakes viola el derecho a la protección de datos personales. La víctima puede exigir la eliminación y una compensación
- Reglamento de IA de la UE (AI Act): aprobado en 2024, obliga a que los deepfakes sean claramente etiquetados como contenido generado por IA. Prohíbe deepfakes que manipulen personas de forma subliminal
- Ley de protección de la imagen: usar la imagen de alguien sin consentimiento para crear contenido falso puede dar lugar a indemnizaciones civiles
Dónde denunciar
| Recurso | Contacto | Para qué |
|---|---|---|
| Policía Nacional | 091 | Denunciar deepfakes con contenido delictivo |
| INCIBE | 017 | Asesoramiento sobre ciberseguridad |
| AEPD | aepd.es | Violaciones de protección de datos e imagen |
| Canal prioritario AEPD | aepd.es/canalprioritario | Contenido sexual no consentido (eliminación urgente) |
❓ Preguntas frecuentes
¿Pueden hacer un deepfake mío con solo una foto?
Sí. Con una sola foto de tu cara, la IA puede generar un vídeo de ti hablando o una imagen tuya en cualquier situación. Con más fotos (diferentes ángulos, expresiones), el resultado es más convincente. Por eso es importante limitar las fotos públicas en redes sociales.
¿Los deepfakes de voz son detectables?
En 2026, los deepfakes de voz de alta calidad son prácticamente indetectables para el oído humano. Las herramientas de detección automática tienen una precisión del 70-85%, pero mejoran constantemente. La mejor defensa contra deepfakes de voz sigue siendo la verificación por otro canal (si te llaman pidiendo algo, cuelga y llama tú).
¿Puedo hacer un deepfake legal?
Depende. Crear deepfakes de ti mismo o con consentimiento explícito de la persona para entretenimiento, arte o educación es legal. Crear deepfakes de otra persona sin su consentimiento, especialmente con contenido sexual, difamatorio o engañoso, es ilegal.
¿Las videollamadas son seguras o pueden ser deepfakes?
La tecnología de deepfakes en tiempo real existe y se ha usado en estafas reales (caso Arup). Sin embargo, todavía tiene limitaciones: la calidad puede degradarse con ciertos movimientos, y hay un ligero retraso. Para transferencias importantes o decisiones críticas, verifica siempre por un segundo canal independiente de la videollamada.
¿Cómo protejo a mis hijos de los deepfakes?
Limita las fotos de tus hijos en redes sociales (cuanto menos material público, más difícil crear deepfakes de ellos). Enséñales sobre la existencia de deepfakes y que no todo lo que ven en internet es real. Si son adolescentes, habla con ellos sobre los deepfakes pornográficos y el acoso. Consulta nuestra guía de seguridad para niños.
¿La "palabra clave familiar" realmente funciona contra deepfakes de voz?
Sí, es una de las defensas más efectivas. Acuerda con tu familia una palabra o frase secreta que nunca publiquéis en ningún sitio. Si recibes una llamada de un "familiar" pidiendo dinero urgente, pide la palabra clave. Un deepfake de voz puede imitar la voz de tu hijo, pero no puede saber una palabra secreta que nunca se ha dicho en público.
📝 Conclusión: ver ya no es creer
Los deepfakes han roto una de las certezas más básicas del ser humano: que lo que vemos y escuchamos es real. En 2026, ya no podemos confiar ciegamente en un vídeo, una foto o una llamada telefónica. La tecnología para falsificar la realidad es accesible, barata y cada vez más perfecta.
Pero hay defensas efectivas, y la mayoría son sorprendentemente simples:
- ✅ Verifica siempre por un segundo canal antes de actuar ante algo impactante o urgente
- ✅ Establece una palabra clave familiar contra deepfakes de voz
- ✅ Limita tus fotos públicas en redes → Guía de redes
- ✅ Desarrolla pensamiento crítico: si es demasiado impactante, para y verifica
- ✅ Usa contraseñas únicas + 2FA + passkeys para limitar daños si te engañan → Genera contraseñas
- ✅ Protege a tu familia: habla con ellos sobre deepfakes, especialmente con mayores y adolescentes
- ✅ Si eres víctima: documenta, denuncia y ejerce tu derecho al olvido
La era del "ver para creer" ha terminado. La nueva era es la del "verificar para creer".
🛡️ Tu seguridad digital necesita múltiples capas
Los deepfakes pueden engañar tus ojos y oídos. Pero contraseñas únicas, 2FA y passkeys protegen tus cuentas pase lo que pase.
⚡ Generar Contraseña Segura