Volver a todos los artículos
11 min

Deepfakes en Campañas Argentinas: La Amenaza que Ya Llegó y Cómo Proteger tu Imagen

deepfakescampañasargentinainteligencia artificialseguridad digital
Deepfakes en Campañas Argentinas: La Amenaza que Ya Llegó y Cómo Proteger tu Imagen

[IMAGEN: Pantalla dividida mostrando un video político real a la izquierda y su versión deepfake a la derecha, con marcadores visuales señalando las diferencias — ojos vidriosos, desincronización labial, bordes difusos. Estética oscura con acentos en rojo y azul que evocan la bandera argentina.]

Tesis: Argentina ya tiene su propia historia de deepfakes políticos con consecuencias judiciales reales, y todo político que no tenga un protocolo de defensa hoy está expuesto mañana.

En mayo de 2025, durante la veda electoral, un video manipulado de Mauricio Macri y Silvia Lospennato circuló masivamente en redes sociales. Un tribunal electoral argentino ordenó a X (ex Twitter) remover el contenido en un plazo de 2 horas. No fue un ejercicio teórico. No fue un debate académico. Fue una orden judicial real, con plazo real, sobre contenido falso que intentó influir en una elección real.

Y fue solo el principio.


El mapa argentino de deepfakes políticos: caso por caso

Macri/Lospennato — Mayo 2025

El caso que estableció el precedente. Durante la veda electoral previa a las legislativas, apareció un video manipulado que mostraba a Macri y Lospennato en un contexto fabricado. Lo relevante no fue solo el deepfake en sí, sino la velocidad de la respuesta institucional: el tribunal electoral dictaminó la remoción y le dio a X un plazo de apenas 2 horas para cumplir.

Este caso demostró dos cosas:

  • Los deepfakes políticos en Argentina ya tienen consecuencias judiciales concretas
  • Las plataformas pueden ser obligadas a actuar en plazos extremadamente cortos

Adorni/Kicillof — Agosto 2025

Un video manipulado vinculó al vocero presidencial Manuel Adorni con el gobernador bonaerense Axel Kicillof en un contexto completamente fabricado. El video fue diseñado para generar confusión política en un momento de alta tensión entre Nación y Provincia de Buenos Aires.

Taiana — Octubre 2025

El caso más cuantitativamente significativo. Un deepfake del senador Jorge Taiana generó más de 360 denuncias formales, de las cuales 31 estuvieron directamente vinculadas a 2 videos generados con inteligencia artificial. La escala de las denuncias marcó un antes y un después en cómo la justicia argentina procesa contenido sintético.

[IMAGEN: Línea de tiempo visual mostrando los tres casos principales de deepfakes políticos en Argentina durante 2025 — mayo, agosto y octubre — con íconos de martillo judicial y contadores de denuncias.]


La respuesta legislativa: dos proyectos, un mismo objetivo

Argentina no se quedó solo en la reacción judicial caso por caso. El Congreso avanzó con propuestas legislativas específicas.

Proyecto Cobos

El proyecto del senador Julio Cobos propone:

Aspecto Detalle
Restricción temporal 60 días previos a la elección
Plazo de remoción 48 horas para que las plataformas eliminen el contenido
Apoyo político Multipartidista — firmantes de distintos bloques
Alcance Contenido sintético que represente a candidatos o funcionarios

Proyecto Agost Carreño

El diputado Agost Carreño fue más allá: su proyecto propone directamente inhabilitar candidatos que utilicen deepfakes contra opositores. Es decir, no solo sancionar la difusión, sino convertir el uso de deepfakes en una causal de descalificación electoral.

Comparación de enfoques

Criterio Proyecto Cobos Proyecto Agost Carreño
Enfoque Regulación de plataformas Sanción a candidatos
Mecanismo Remoción obligatoria Inhabilitación electoral
Plazo 60 días pre-electorales Sin restricción temporal
Target Plataformas tecnológicas Actores políticos
Estado En comisión con apoyo multipartidista En comisión

La vía judicial directa: amparos y órdenes preventivas

Mientras el Congreso debate, la justicia ya está actuando con herramientas existentes.

Amparo preventivo de Gil Domínguez — Agosto 2025

El constitucionalista Andrés Gil Domínguez presentó un amparo preventivo en agosto de 2025 que sentó un precedente importante: no esperó a que un deepfake causara daño para actuar. El mecanismo busca protección judicial anticipada contra la creación y difusión de contenido sintético no autorizado.

Orden de la jueza Servini — Octubre 2025

La jueza María Romilda Servini emitió una orden judicial específica en octubre de 2025 relacionada con deepfakes políticos. La intervención de Servini — una de las juezas electorales más reconocidas del país — le dio peso institucional a la respuesta judicial contra contenido sintético.

Estos dos movimientos judiciales demuestran que en Argentina ya existe un camino legal para protegerse de deepfakes sin necesidad de esperar nueva legislación.

[IMAGEN: Infografía con dos columnas — "Vía Legislativa" y "Vía Judicial" — mostrando los mecanismos disponibles en Argentina para combatir deepfakes políticos, con íconos de balanza, martillo y escudo.]


Cómo detectar un deepfake: señales técnicas que todo equipo político debe conocer

La detección temprana es la primera línea de defensa. Estos son los indicadores visuales y de audio que delatan contenido sintético:

Señales visuales

  • Ojos vidriosos o sin reflejo natural: Los modelos generativos todavía tienen dificultades para replicar el brillo y los micro-movimientos de los ojos humanos. Si los ojos parecen "muertos" o tienen un brillo uniforme antinatural, es una señal de alerta.
  • Desincronización labio-audio: Presta especial atención a las consonantes bilabiales (B, M, P). En un deepfake, los labios frecuentemente no coinciden con precisión con el audio, especialmente en palabras rápidas o cambios de tono.
  • Bordes difusos en la línea del cabello y mandíbula: La zona donde el rostro generado se fusiona con el fondo original suele mostrar bordes borrosos, especialmente cuando la persona se mueve.
  • Textura de piel inconsistente: Zonas del rostro con nivel de detalle diferente — por ejemplo, frente muy suave pero mejillas con textura — indican manipulación.
  • Parpadeo anómalo: Demasiado frecuente, demasiado infrecuente, o con un ritmo mecánicamente regular.

Señales de audio

  • Tono vocal plano: Falta de variación natural en entonación, especialmente en frases largas
  • Respiración ausente o mecánica: Los humanos respiran entre frases; muchos deepfakes de audio omiten estos micro-sonidos
  • Sibilantes metálicas: Las letras S y Z pueden sonar artificiales o con un eco metálico sutil

Herramientas de detección

Herramienta Tipo Uso recomendado
Deepware Scanner App/web gratuita Análisis rápido de videos sospechosos
Intel FakeCatcher Plataforma empresarial Detección en tiempo real con alta precisión
Microsoft Video Authenticator Herramienta institucional Análisis de confianza frame-by-frame

El contexto más amplio: Argentina bajo ataque digital

Los deepfakes no operan en el vacío. Según datos de Kaspersky, Argentina experimentó un incremento del 300% en ataques de phishing asistidos por inteligencia artificial durante 2024. Esto significa que la misma tecnología que genera deepfakes también se está usando para:

  • Crear perfiles falsos hiperrealistas de operadores políticos
  • Generar comunicaciones fraudulentas que imitan el estilo de escritura de funcionarios reales
  • Producir sitios web clonados de medios de comunicación con noticias fabricadas
  • Automatizar campañas de desinformación a escala industrial

El incremento del 300% no es un número abstracto: representa una capacidad operativa que antes requería equipos de decenas de personas y ahora puede ejecutar un solo operador con acceso a las herramientas correctas.

[IMAGEN: Gráfico de barras mostrando el crecimiento de ataques de phishing con IA en Argentina — una barra pequeña para 2023 y una barra aproximadamente 4 veces mayor para 2024, con el texto "300% de incremento" destacado.]


Protocolo de defensa: qué hacer antes, durante y después de un deepfake

Antes (prevención)

  • Registra tu imagen digital: Mantén un archivo verificable y fechado de apariciones públicas, discursos y declaraciones. Este material sirve como referencia para demostrar manipulación.
  • Establece un canal de verificación: Tu equipo de comunicación debe tener un mecanismo público y conocido para confirmar o desmentir contenido. Puede ser una cuenta verificada específica o un sitio web de fact-checking propio.
  • Audita tu exposición: Cuanto más material original tuyo exista en alta calidad online, más fácil es para los modelos generativos crear deepfakes convincentes. Esto no significa desaparecer de internet, pero sí ser consciente de qué material está disponible.
  • Capacita a tu equipo: Todos los miembros del equipo de comunicación deben poder identificar las señales básicas de un deepfake y conocer el protocolo de respuesta.

Durante (respuesta inmediata)

  1. Captura evidencia completa — screenshots, URLs, metadata, timestamps. No confíes en que el contenido seguirá disponible.
  2. Activa la vía judicial — el precedente del amparo preventivo de Gil Domínguez y la orden de Servini demuestran que la justicia argentina puede actuar rápido.
  3. Contacta a la plataforma — presenta reporte formal con evidencia de manipulación.
  4. Emite un desmentido inmediato — con el video o audio original como contraste.
  5. Documenta la cadena de difusión — quién compartió primero, qué cuentas amplificaron, qué medios replicaron sin verificar.

Después (seguimiento)

  • Acción legal contra los responsables identificados
  • Monitoreo continuo para detectar reutilización o variantes del mismo deepfake
  • Comunicación proactiva sobre las acciones tomadas — esto disuade futuros intentos

Lo que viene: el panorama 2026-2027

Con elecciones legislativas en el horizonte, la presión sobre el marco regulatorio argentino va a intensificarse. Los proyectos de Cobos y Agost Carreño probablemente avancen — el apoyo multipartidista del proyecto Cobos sugiere que hay voluntad política genuina.

Pero la legislación siempre va detrás de la tecnología. Los modelos generativos mejoran cada trimestre. Lo que hoy se detecta por ojos vidriosos o labios desincronizados, mañana puede ser imperceptible para el ojo humano.

La única defensa sostenible es un sistema de monitoreo continuo que combine tecnología de detección con inteligencia humana y capacidad de respuesta rápida.


Fuentes

  • Tribunal Electoral argentino, orden de remoción caso Macri/Lospennato, mayo 2025
  • Expediente judicial caso Taiana, 360+ denuncias, octubre 2025
  • Proyecto de Ley del senador Julio Cobos, restricción de deepfakes electorales
  • Proyecto de Ley del diputado Agost Carreño, inhabilitación por uso de deepfakes
  • Amparo preventivo presentado por Andrés Gil Domínguez, agosto 2025
  • Orden judicial de la jueza María Romilda Servini, octubre 2025
  • Kaspersky, "Panorama de Amenazas en América Latina 2024" — incremento del 300% en phishing con IA en Argentina
  • Deepware Scanner, Intel FakeCatcher, Microsoft Video Authenticator — documentación técnica oficial

Si tu equipo político no tiene hoy un protocolo de detección y respuesta ante deepfakes, estás apostando a que nadie va a fabricar un video tuyo. En Argentina, esa apuesta ya la perdieron varios. Hablemos sobre cómo proteger tu imagen →