Observatorio de Medios de Cubadebate
Nelle ore successive al sequestro del presidente Nicolás Maduro e di sua moglie, Cilia Flores, molti sulle piattaforme sociali non discutevano l’accaduto: si divertivano con immagini e audio elaborati tramite Intelligenza Artificiale (IA), noti come deepfake (contenuti ultrafalsi).
La sequenza non è stata una novità. È comparsa dapprima una fotografia “fin troppo perfetta” — Maduro scortato da presunti agenti USA — e, quasi nello stesso momento, le versioni derivate: ritagli, video generati a partire dall’immagine, reupload con musica epica e testi che fissavano colpevoli e conclusioni.
Presunta prima immagine di Maduro sotto la custodia di forze USA. Il contenuto è stato condiviso oltre 4000 volte su X, Facebook, TikTok e YouTube. È stato individuato come possibile fonte primaria su X l’utente @San_live, che si autoidentifica come “entusiasta della videoarte realizzata con intelligenza artificiale” (l’immagine non è stata rimossa dalle piattaforme). L’autenticità di questa immagine è già stata messa in dubbio dai servizi di verifica di agenzie come EFE e AFP.
Su X (ex Twitter), una traccia iniziale di una delle immagini più condivise è stata ricondotta a un account che si presenta come appassionato di “videoarte realizzata con intelligenza artificiale”. Nel giro di pochi minuti, TikTok, Instagram, Facebook e YouTube si sono riempiti di contenuti falsi o riciclati, mentre le piattaforme guardavano altrove o fornivano risposte incoerenti sull’origine del materiale.
Secondo la rivista specializzata Wired: “Negli ultimi anni, i principali eventi globali hanno innescato enormi quantità di disinformazione sulle reti sociali, poiché le aziende tecnologiche hanno ridotto gli sforzi per moderare le loro piattaforme. Molti account hanno cercato di approfittare di queste regole permissive per aumentare la propria visibilità e guadagnare follower”.
Questo episodio è il punto di partenza di questa analisi: non la questione se la tecnologia per la manipolazione e la disinformazione più sfacciata esista, ma come venga utilizzata, come venga distribuita e quali danni produca quando la verifica arriva troppo tardi.
Dal deepfake allo “shock informativo”
La letteratura recente tende a ordinare il fenomeno in 3 livelli:
a) Deepfake “in senso stretto”: contenuti generati con IA che simulano identità o fatti (volti, voci o scene) con un grado di verosimiglianza sufficiente a confondere. Rapporti di riferimento avvertono che un deepfake ben sincronizzato può scatenare crisi politiche, violenze o crolli di fiducia, soprattutto in contesti polarizzati.
b) Cheapfake / manipolazione a bassa complessità: rallentare un video, tagliare il contesto, alterare i sottotitoli; la sua forza sta nella distribuzione, non nella sofisticazione. Un esempio canonico è il caso Pelosi (2019), in cui un video “rallentato” fu usato per presentare Nancy Pelosi, ex presidente della Camera dei Rappresentanti USA, come se fosse ubriaca.
c) “Liar’s dividend” (dividendo del mentitore): quanto più si diffondono i deepfake, tanto più diventa facile negare materiale autentico. Questo effetto non richiede contenuti ultrafalsi perfetti: basta che esista un dubbio generalizzato. Diversi studi accademici e di policy lo indicano come un fattore critico per la democrazia e il giornalismo.
Nei conflitti e nelle crisi ad alta tensione — guerra, colpi di Stato, elezioni contestate, operazioni militari — la cosiddetta “disinformazione sintetica” (prodotta con IA) si inserisce in uno schema ricorrente: “shock + saturazione + attribuzione”.
Prima si genera un impatto emotivo (shock). Poi si inonda lo spazio informativo con varianti (saturazione) per rendere difficile la tracciabilità. Infine si tenta di fissare “colpevoli” e “narrazioni” (attribuzione), anche se il contenuto originale è già stato smentito.
Casi documentati in Venezuela (2026)
Secondo un’inchiesta pubblicata da Wired, da video apparentemente generati con IA a immagini d’archivio riutilizzate, TikTok, Instagram e X hanno fatto poco per fermare la valanga di pubblicazioni ingannevoli prodotte a partire dal 3 gennaio 2026, dopo l’invasione USA del Venezuela.
Si sono ripetuti schemi già noti. Alcune persone hanno condiviso video vecchi attraverso le piattaforme sociali, affermando falsamente che mostrassero gli attacchi nella capitale venezuelana, Caracas.
Pochi minuti dopo la notizia del sequestro del presidente Maduro, numerose immagini che mostravano agenti della DEA mentre custodivano il presidente venezuelano si sono diffuse ampiamente su più piattaforme. L’immagine falsa è stata denunciata per la prima volta dal fact-checker David Puente.
David Puente ha utilizzato SynthID, una tecnologia sviluppata da Google DeepMind che identifica immagini generate con IA: “Secondo la mia analisi, la maggior parte o la totalità di questa immagine è stata generata o modificata utilizzando Google AI. Ho rilevato una filigrana SynthID, che è un segnale digitale invisibile incorporato dagli strumenti di IA di Google durante il processo di creazione o modifica. Questa tecnologia è progettata per rimanere rilevabile anche quando le immagini vengono alterate tramite ritagli o compressione”.
Nel frattempo, anche il chatbot di X, Grok, ha confermato che l’immagine era falsa quando diversi utenti glielo hanno chiesto. Ha confermato che l’immagine era una versione alterata dell’arresto del narcotrafficante messicano Dámaso López Núñez nel 2017.
Sono stati inoltre utilizzati strumenti di IA per creare video a partire dall’immagine che pretendeva di mostrare l’arresto di Maduro. Su TikTok, numerosi esempi di questi video generati con IA hanno accumulato centinaia di migliaia di visualizzazioni nelle poche ore successive al sequestro del presidente e di sua moglie.
Diversi video su TikTok si basano su immagini generate con IA pubblicate originariamente su Instagram da un creatore digitale chiamato Rubén Darío e visualizzate migliaia di volte.
Sono comparsi anche video simili su X e molteplici varianti con immagini ad alta risoluzione, chiaramente progettate per assomigliare allo stile di un fotografo che lavora per le autorità USA. Ad esempio, una presentazione di diapositive caricata su Instagram mostrava diverse di queste immagini con la didascalia: “Altre foto di Maduro diffuse dagli USA”.
Si sono inoltre diffusi sulle reti e nelle chat di messaggistica (Telegram e WhatsApp) audio con messaggi vocali (generati con IA) attribuiti al presidente Maduro, che sarebbero stati presumibilmente fatti filtrare dal suo avvocato difensore dalla prigione in cui sarebbe detenuto illegalmente a New York.
Nonostante la falsità del messaggio sia stata dimostrata, questo contenuto rimane attivo su X e può essere trovato anche su Facebook e Instagram.
Un’analisi di uno di questi audio, realizzata dall’Osservatorio dei Media di Cubadebate attraverso la piattaforma Undetectable.ai, ha stimato che avesse solo l’1% di probabilità di essere reale.
E’ inoltre circolata sulle reti cubane l’immagine di un soldato delle forze speciali USA, presumibilmente di origine cubana, presentato come capo del comando Delta Force che avrebbe sequestrato Nicolás Maduro. In origine è stata diffusa da una pagina Facebook di un esponente dell’ultradestra anticubana ed è stata replicata da decine di utenti.
Alla domanda rivolta a Grok se questa immagine fosse stata generata con IA, ha risposto: Sì, questa immagine è stata generata con intelligenza artificiale.
Motivi principali:
Non esiste alcuna prova reale dell’esistenza di Alexis “Cuco” Mendieta: sebbene la cattura di Nicolás Maduro da parte delle forze Delta Force sia un evento reale riportato da fonti affidabili, nessuna menzione ufficiale o credibile identifica il comandante come un cubano-americano di nome Alexis Mendieta. Questa affermazione compare esclusivamente in pubblicazioni virali sui social network (Facebook, Instagram, Threads) e su siti della diaspora cubana, spesso con un tono sensazionalistico o umoristico (“così dice la vicina pettegola”), il che indica che si tratta di una voce o di un meme fabbricato per diventare virale nelle comunità anti-Maduro.
La foto non coincide con altre immagini reali di operatori Delta Force: le fotografie autentiche della Delta Force sono estremamente rare a causa della segretezza dell’unità (non vengono mai pubblicati volti riconoscibili di operatori in servizio attivo). Le poche immagini reali disponibili sono sfocate, datate o relative ad addestramenti generici.
Questa foto mostra dettagli tipici delle immagini generate con IA: illuminazione perfetta, texture impeccabili dell’equipaggiamento, proporzioni facciali ideali e uno sfondo artificialmente sfocato.
Somiglianza con immagini generate da IA: le ricerche di immagini simili rivelano che questa foto circola esclusivamente in post legati alla voce su Mendieta e, se confrontata con esempi noti di soldati della Delta Force generati con IA (come modelli 3D o stock photos), condivide caratteristiche comuni: casco con visore notturno NVG quadruplo, giubbotto con patch “DELTA FORCE” stilizzata (rara nelle foto reali), bandiera USA invertita in alcuni casi e posa marcatamente drammatica.
Esistono molti altri esempi, alcuni dei quali identificati dalla stampa USA. L’influente trumpiana Laura Loomer è stata una delle persone che hanno condiviso immagini che mostravano un cartellone di Maduro mentre veniva presumibilmente rimosso. Su X ha scritto: “Dopo la cattura di Maduro da parte delle Forze Speciali USA questa mattina, il popolo del Venezuela sta distruggendo i cartelloni di Maduro e portandoli per le strade per celebrare il suo arresto da parte dell’amministrazione Trump”. Le immagini erano state scattate originariamente nel 2024.
Un altro video che afferma di mostrare immagini dell’attacco USA a Caracas è stato pubblicato dall’utente “Inteligencia de Defensa” poco dopo che Trump aveva annunciato il sequestro del presidente Maduro, ed è stato visualizzato su X oltre 2 milioni di volte. Le immagini in questione erano state pubblicate originariamente su TikTok nel novembre 2025.
Il ricercatore Alan MacLeod, direttore del quotidiano Mint Press News, ha denunciato ieri che “un video che mostra Maduro mentre presumibilmente tortura dissidenti venezuelani sta diventando virale, con 15 milioni di visualizzazioni e 81 mila ‘mi piace’. L’unico problema? È una scena tratta da un film”.
Questo caso può essere considerato un deepfake (o, più precisamente, un deepfake “per ricontestualizzazione”), perché svolge la funzione centrale delle immagini ultrafalse nella guerra cognitiva: far passare per prova reale un materiale audiovisivo che non documenta il fatto a cui viene attribuito. Anche in assenza di un “volto sintetico” generato fotogramma per fotogramma, l’effetto è lo stesso: si costruisce una realtà attraverso la manipolazione del significato, non necessariamente dei pixel.
Piattaforme e canali: cosa fare
Individuare i deepfake protegge i processi decisionali in contesti in cui un’immagine, un video o un audio possono innescare reazioni immediate e fuori controllo prima che avvenga qualsiasi verifica.
Un “contenuto sintetico” verosimile può indurre panico, agitazione sociale, cambi nel comportamento elettorale o decisioni economiche basate su informazioni false. Quando tale materiale circola rapidamente e si impone come “prova”, il danno non si limita al contesto in cui appare: erode la fiducia nelle istituzioni, nei media e nei processi di sicurezza o di giustizia, anche quando in seguito venga dimostrato che fosse falso.
Le ricerche hanno dimostrato che, in una popolazione esposta a notizie false, solo il 30% di coloro che consumano l’informazione menzognera riesce a vedere le smentite. Per questo i deepfake facilitano operazioni di manipolazione che mirano a polarizzare, imporre cornici interpretative e attribuire colpe in momenti critici, diventando uno strumento efficace di influenza politica.
Sul piano individuale, la sostituzione o contraffazione audiovisiva può sfociare in estorsione, minacce, molestie o distruzione reputazionale. E, nel lungo periodo, la sua normalizzazione alimenta un effetto particolarmente corrosivo: l’idea che “tutto può essere falso”, permettendo così ad attori reali di negare fatti autentici sostenendo che si tratti di intelligenza artificiale.
Sebbene la tecnologia avanzi rapidamente e nel 2026 molti deepfake siano quasi indistinguibili, esistono ancora metodi manuali e strumenti per individuarli:
Regola d’oro (20 secondi): se il contenuto provoca euforia, rabbia o paura e “chiude il caso” con una sola immagine o un solo audio, trattalo come sospetto finché non venga dimostrato il contrario.
Verifica rapida prima di condividere (checklist):
– Origine: chi lo ha pubblicato per primo? Se non riesci a identificare il post originale o la fonte primaria, non inoltrarlo.
– Contesto: sono indicati data, luogo e un mezzo o autore identificabile? In caso contrario, è un campanello d’allarme.
– Conferma incrociata: cerca almeno due conferme indipendenti (comunicati ufficiali, media con redazione e firma, verificatori).
Coerenza audiovisiva:
– Immagine: bordi del volto o delle mani, testi deformati, accessori “troppo perfetti”, ombre incoerenti.
– Video: salti di illuminazione, battiti di ciglia innaturali, denti o labbra con artefatti, audio che non “respira”.
– Audio: dizione eccessivamente uniforme, assenza di respirazione, enfasi piatta, tagli innaturali.
Prova di provenienza: se è un’immagine, esegui una ricerca inversa; se è un video, estrai fotogrammi e ripeti la ricerca; se è un audio, esigi il link a una pubblicazione originale (non “me l’hanno girato”).
Come smentire senza amplificare:
– Non ricaricare il file così com’è; se devi mostrarlo, usa una cattura parziale, a bassa risoluzione o sfocata, e segnala chiaramente FALSO.
– Condividi la smentita con il link alla fonte primaria e spiega perché è falsa (origine, data reale, materiale riciclato).
Cosa fare se lo hai già condiviso:
– Cancella l’inoltro, pubblica una correzione nello stesso thread o gruppo e chiedi di non continuare a inoltrarlo.
– Se amministri gruppi, fissa un messaggio: “senza fonte primaria non si pubblica”.
Igiene informativa nella messaggistica (WhatsApp/Telegram):
– Diffida di audio “filtrati” privi di documento originale.
– In situazioni di crisi, definisci 1–2 canali “di riferimento” (istituzioni, media, verificatori) e dai priorità a quelli.
– Ricorda: i rilevatori automatici aiutano, ma non sostituiscono la verifica di origine e contesto.
A modo di conclusione
In una crisi, la domanda decisiva non è più se l’intelligenza artificiale possa fabbricare un’immagine verosimile, ma quanto tempo impieghi a imporsi come “prova”. Nelle ore successive a un evento ad alta tensione, la disinformazione non compete per la verità: compete per il primo impatto, per il volume e per l’interpretazione.
Qui opera la sequenza “shock + saturazione + attribuzione”: emozionare, inondare e chiudere il racconto prima che la verifica arrivi al centro della conversazione. Per questo il deepfake è meno un prodigio tecnico che un’arma di distribuzione e manipolazione su larga scala.
Quando un’immagine falsa passa dal post originale ai reupload, da lì alle chat di messaggistica chiusa e infine alla sfera pubblica, il danno non dipende più dalla perfezione del montaggio, ma dal fatto che trovi un pubblico disposto a inoltrarla come certezza. E ogni inoltro, in quel contesto, è una decisione.
La difesa più efficace non richiede di trasformare l’intera popolazione in periti forensi. Richiede l’adozione di un riflesso civico minimo: fermarsi, esigere la provenienza, confrontare e, soprattutto, non amplificare.
Parallelamente, è necessario che le piattaforme si assumano le proprie responsabilità: etichettatura reale, frizioni alla condivisione, tracciabilità dei reupload e risposte coerenti. Senza questa doppia barriera — cittadinanza formata e piattaforme responsabili — la prossima crisi ripeterà lo stesso copione, con nuovi volti e lo stesso obiettivo.
L’esperienza del Venezuela insegna che, in contesti di alta polarizzazione, sanzioni, guerra psicologica e circolazione massiva di voci, la disinformazione non opera come un “errore” occasionale, ma come un dispositivo permanente di pressione psicologica e di disputa della legittimità. In questo quadro, il deepfake non è soltanto una falsificazione tecnica, ma uno strumento di guerra cognitiva, volto a modellare percezioni, condizionare emozioni e spostare il giudizio pubblico. Lì si è visto come audio “filtrati”, video tagliati e contenuti fabbricati con l’IA possano attivare picchi di ansia collettiva, alimentare decisioni precipitose e, soprattutto, imporre un quadro interpretativo prima che esista una conferma documentale. Per questo, di fronte al deepfake, la chiave è anticiparne la dinamica di diffusione: reagire rapidamente con fonti primarie, creare routine pubbliche di verifica, ridurre l’inoltro impulsivo nella messaggistica chiusa e mantenere un “cordone sanitario” informativo nelle prime ore, quando lo shock cerca di trasformarsi in certezza.
Deepfakes como arma informativa contra Venezuela: anatomía de una ofensiva
Por: Observatorio de Medios de Cubadebate
En las horas posteriores al secuestro del Presidente Nicolás Maduro y su esposa, Cilia Flores, muchos en las plataformas sociales no discutían el hecho: retozaban con imágenes y audios elaborados a partir de Inteligencia Artificial (IA), conocidos como deepfakes (contenidos ultrafalsos).
La secuencia no fue una novedad. Primero apareció una fotografía “demasiado perfecta” —Maduro escoltado por supuestos agentes estadounidenses— y, casi al mismo tiempo, versiones derivadas: recortes, videos generados a partir de la imagen, reuploads con música épica y textos que fijaban culpables y conclusiones.
Supuesta primera imagen de Maduro custodiado por fuerzas estadounidenses. El contenido fue compartido más de 4.000 veces en X, Facebook, TikTok y YouTube. Se ha identificado como posible fuente primaria en X el usuario @San_live, que se autoidentifica como “entusiasta del videoarte hecho con inteligencia artificial” (la imagen no ha sido eliminada de las plataformas), La autenticidad de esta imagen ya ha sido cuestionada por servicios de verificación de agencias como
EFE y AFP, En X (antes Twitter), un rastro temprano de una de las imágenes más compartidas se rastreó hasta una cuenta que se presenta como entusiasta del “videoarte hecho con inteligencia artificial”. En minutos, TikTok, Instagram, Facebook y YouTube se poblaron de piezas falsas o recicladas, mientras las plataformas miraban a otro lado u ofrecían respuestas inconsistentes sobre el origen del material.
Según la revista especializada Wired, “en los últimos años, los principales incidentes globales han desencadenado enormes cantidades de desinformación en las redes sociales, ya que las empresas tecnológicas han retirado los esfuerzos para moderar sus plataformas. Muchas cuentas han tratado de aprovechar estas reglas laxas para aumentar su visibilidad y ganar seguidores”.
Ese episodio es el punto de partida de este análisis: no la pregunta de si la tecnología existe para la manipulación y la desinformación más descarada, sino cómo se usa, cómo se distribuye y qué daño produce cuando la verificación llega tarde.
Del deepfake al “shock informativo”
La literatura reciente tiende a ordenar el fenómeno en tres capas:
- a) Deepfake “estricto”: contenido generado con IA que simula identidad o hechos (rostro, voz o escena) con verosimilitud suficiente para confundir. Informes de referencia advierten que un deepfake bien sincronizado puede desatar crisis políticas, violencia o colapsos de confianza, sobre todo en contextos polarizados.
- b) Cheapfake / manipulación de baja complejidad: ralentizar un video, recortar contexto, alterar subtítulos; su potencia está en la distribución, no en la sofisticación. Un ejemplo canónico es el caso Pelosi (2019), que utilizaría un audiovisual “ralentizado” para presentar a Nancy Pelosi, ex presidenta de la Cámara de Representantes de Estados Unidos, como si ella estuviera borracha.
- c) “Liar’s dividend” (dividendo del mentiroso): cuanto más se popularizan los deepfakes, más fácil es negar material auténtico. Este efecto no exige contenidos ultrafalsos perfectos: basta con que exista la duda generalizada. Varios análisis académicos y de políticas públicas lo señalan como un factor crítico para la democracia y periodismo.
En conflictos y crisis de alto voltaje —guerra, golpes, elecciones disputadas, operaciones militares— la llamada “desinformación sintética” (elaborada con IA) se integra en un patrón repetido: “shock + saturación + atribución”.
Primero se genera un impacto emocional (shock). Después se inunda el espacio con variantes (saturación) para dificultar el rastreo. Y finalmente se intenta fijar “culpables” y “relatos” (atribución), incluso si el contenido original ya fue desmentido.
Casos documentados en Venezuela (2026)
Desde vídeos aparentemente generados por IA hasta imágenes antiguas reutilizadas, TikTok, Instagram y X hicieron poco para detener la avalancha de publicaciones engañosas que se produjeron a partir del 3 de enero de 2026 tras la invasión estadounidense a Venezuela, de acuerdo con una investigación publicada por Wired.
Se siguieron patrones ya conocidos. Algunas personas compartieron videos antiguos a través de plataformas sociales, mientras afirmaban falsamente que mostraron los ataques en la capital venezolana, Caracas.
A los pocos minutos de la noticia del secuestro del Presidente Maduro, numerosas imágenes que mostraban a agentes de la DEA custodiando al presidente venezolano se extendieron ampliamente en múltiples plataformas. La imagen falsa fue denunciada por primera vez por el verificador de hechos David Puente.
David Puente utilizó SynthID, una tecnología desarrollada por Google DeepMind, que identifica imágenes generadas por IA: “Según mi análisis, la mayor parte o toda esta imagen fue generada o editada utilizando Google AI. Detecté una marca de agua SynthID, que es una señal digital invisible incrustada por las herramientas de IA de Google durante el proceso de creación o edición. Esta tecnología está diseñada para permanecer detectable incluso cuando las imágenes se modifican a través de recortes o compresión”.
Mientras, el chatbot de X, Grok, también confirmó que la imagen era falsa cuando varios usuarios le preguntaron. Confirmó que la imagen era una versión alterada del arresto del narcotraficante mexicano Dámaso López Núñez en 2017.
También, se utilizaron herramientas de IA para crear vídeos a partir de la imagen que pretendía mostrar el arresto de Maduro. En TikTok, múltiples ejemplos de estos vídeos generados por IA acumularon cientos de miles de visitas a las pocas horas del secuestro del Presidente y su esposa.
Varios de los vídeos de TikTok están basados en imágenes generadas por IA publicadas originalmente en Instagram por un creador digital llamado Rubén Darío y vista miles veces.
También han aparecido vídeos similares en X y múltiples variaciones con imágenes de mayor resolución, claramente diseñadas para parecerse más al estilo de un fotógrafo que trabaja para las autoridades estadounidenses. Por ejemplo, esta presentación de diapositivas subida a Instagram presentaba varias de estas imágenes con un pie de foto: “Más fotos de Maduro divulgadas por los Estados Unidos”.
También se replicaron en las redes y los chats de mensajería (Telegram y WhatsApp) audios con mensajes de voz (generada con IA) atribuidas al Presidente Maduro, que supuestamente se filtraron a través de su abogado defensor desde la cárcel donde lo tienen detenido ilegalmente en Nueva York.
A pesar de que se ha demostrado la falsedad del mensaje, este contenido sigue activo en X y puede encontrarse también en Facebook e Instagram.
Un análisis de uno de estos audios realizado por el Observatorio de Medios de Cubadebate, a través de la plataforma Undetectable.ai, estimó que tenía solo un 1% de posibilidad de que fuera real:
También circuló en redes nacionales cubanas la imagen de un soldado de las fuerzas especiales de Estados Unidos, supuestamente de origen cubano, presentado como jefe del comando Delta Force que secuestró a Nicolas Maduro. Originalmente, fue divulgada por una página de un ultraderechista anticubano en Facebook y la imagen fue replicada por decenas de usuarios: Al preguntarle a Grok si esta imagen ha sido generada con IA, respondió: Sí, esta imagen ha sido generada con inteligencia artificial.
Razones principales:
No existe evidencia real de Alexis “Cuco” Mendieta: Aunque la captura de Nicolás Maduro por fuerzas Delta Force es un evento real reportado por fuentes confiables, ninguna mención oficial o creíble identifica al comandante como un cubanoamericano llamado Alexis Mendieta. Esta afirmación solo aparece en publicaciones virales de redes sociales (Facebook, Instagram, Threads) y sitios de la diáspora cubana, a menudo con tono sensacionalista o humorístico (“así dice la vecina chismosa”), lo que indica que es un rumor o meme fabricado para viralizarse en comunidades anti-Maduro.
La foto no coincide con otras reales de operadores Delta Force: Las fotografías auténticas de Delta Force son extremadamente raras debido al secreto de la unidad (nunca publican rostros claros de operadores activos). Las imágenes reales disponibles son borrosas, antiguas o de entrenamiento genérico.
Esta foto muestra detalles típicos de imágenes generadas por IA: iluminación perfecta, texturas impecables en el equipo, proporciones faciales ideales y un fondo difuminado artificial.
Similitud con imágenes AI: Búsquedas de imágenes similares revelan que esta foto circula exclusivamente en posts sobre el rumor de Mendieta, y comparada con ejemplos conocidos de soldados Delta Force generados por IA (como modelos 3D o stock photos), comparte características comunes: casco con NVG cuádruple, chaleco con parche “DELTA FORCE” estilizado (raro en fotos reales), bandera estadounidense invertida en algunos casos y pose dramática.
Hay muchos más ejemplos, algunos identificados por la prensa estadounidense. La influyente trumpista Laura Loomer fue una de las que compartió imágenes que mostraban un cartel de Maduro cuando supuestamente era retirado. Escribió en X: “Tras la captura de Maduro por las Fuerzas Especiales de los Estados Unidos esta mañana, el pueblo de Venezuela está rompiendo carteles de Maduro y llevándolos a las calles para celebrar su arresto por la administración Trump”. Las imágenes fueron tomadas originalmente en 2024.
Otro vídeo que afirma mostrar imágenes del ataque estadounidense a Caracas fue publicado por el usuario “Inteligencia de Defensa” poco después de que Trump anunciara el secuestro del Presidente Maduro, y ha sido visto en X más de 2 millones de veces. Las imágenes en cuestión se publicaron originalmente en TikTok en noviembre de 2025.
El investigador Alan MacLeod, editor del diario Mint Press News, denunció ayer que “un video que muestra a Maduro supuestamente torturando a disidentes venezolanos se está volviendo viral, con 15 millones de visitas y 81 mil me gusta ya. ¿El único problema? Es una escena de una película”.
Este caso puede considerarse un deepfake (o, con mayor precisión, un deepfake “por recontextualización”), porque cumple la función central de las imágenes ultrafalsas en la guerra cognitiva: hacer pasar por evidencia real un material audiovisual que no documenta el hecho que se le atribuye. Aunque no haya una “cara sintética” generada cuadro a cuadro, el efecto es el mismo: se fabrica una realidad mediante manipulación del significado, no necesariamente de los píxeles.
Plataformas y canales: qué hacer
Detectar deepfakes protege la toma de decisiones en contextos donde una imagen, un video o un audio pueden desencadenar reacciones inmediatas y descontroladas antes de que exista una verificación.
Un “contenido sintético” verosímil puede inducir pánico, agitación social, cambios de comportamiento electoral o decisiones económicas basadas en información falsa. Cuando ese material circula con rapidez y se instala como “prueba”, el daño no se limita al contexto donde aparece: erosiona la confianza en las instituciones, en los medios y en los procesos de seguridad o justicia, incluso aunque después se demuestre que era falso.
Investigaciones han demostrado que en una población expuesta a falsas noticias, solo el 30% de quienes consumen la información mentirosa logra ver los desmentidos. Por eso los deepfakes facilitan operaciones de manipulación que buscan polarizar, imponer marcos interpretativos y atribuir culpables en momentos críticos, convirtiéndose en un instrumento eficaz de influencia política.
En el plano individual, la suplantación audiovisual puede derivar en extorsión, amenazas, acoso o destrucción reputacional. Y, a largo plazo, su normalización alimenta un efecto especialmente corrosivo: la idea de que “todo puede ser falso”, lo que permite que actores reales nieguen hechos auténticos alegando que se trata de inteligencia artificial.
Aunque la tecnología avanza rápido y en 2026 muchos deepfakes son casi indistinguibles, aún hay métodos manuales y herramientas para detectarlos:
Regla de oro (20 segundos): si el contenido provoca euforia, rabia o miedo y “cierra el caso” con una sola imagen/audio, trátalo como sospechoso hasta demostrar lo contrario.
Verificación rápida antes de compartir (checklist):
Origen: ¿quién lo publicó primero? Si no puedes identificar el post original o la fuente primaria, no lo reenvíes.
Contexto: ¿hay fecha, lugar y un medio/autor identificable? Si faltan, es una bandera roja.
Confirmación cruzada: busca dos confirmaciones independientes (comunicados oficiales, medios con edición y firma, verificadores).
Coherencia audiovisual:
Imagen: bordes del rostro/manos, texto deformado, accesorios “demasiado perfectos”, sombras incoherentes.
Vídeo: saltos de iluminación, parpadeo extraño, dientes/labios con artefactos, audio que no “respira”.
Audio: dicción excesivamente uniforme, respiración ausente, énfasis “plano”, cortes extraños.
Prueba de procedencia: si es imagen, realiza búsqueda inversa; si es vídeo, extrae fotogramas y repite la búsqueda; si es audio, exige el enlace a una publicación original (no “me lo pasaron”).
Cómo desmentir sin amplificar: No resubas el archivo tal cual; si necesitas mostrarlo, usa captura parcial, baja resolución o blur y marca FALSO. Comparte el desmentido con enlace a fuente primaria y explica por qué es falso (origen, fecha real, material reciclado).
Qué hacer si ya lo compartiste: Borra el reenvío, publica corrección en el mismo hilo/grupo y pide no seguir reenviando. Si administras grupos, fija un mensaje: “sin fuente primaria no se publica”.
Higiene informativa en mensajería (WhatsApp/Telegram):
-Desconfía de audios “filtrados” sin documento original.
-En crisis, define 1–2 canales “de referencia” (institución/medio/verificador) y prioriza esos.
-Y recuerda los detectores automáticos ayudan, pero no sustituyen la verificación de origen y contexto.
A modo de conclusión
En una crisis, la pregunta decisiva ya no es si la inteligencia artificial puede fabricar una imagen verosímil, sino cuánto tarda en instalarla como “prueba”. En las horas posteriores a un hecho de alto voltaje, la desinformación no compite por la verdad: compite por el primer impacto, por el volumen y por la interpretación.
Ahí opera la secuencia “shock + saturación + atribución”: emocionar, inundar y cerrar el relato antes de que la verificación llegue al centro de la conversación. Por eso el deepfake es menos un prodigio técnico que un arma de distribución y manipulación a gran escala.
Cuando una imagen falsa viaja de un post original a los reuploads, de ahí a los chats de mensajería cerrada y finalmente a la esfera pública, el daño ya no depende de que el montaje sea perfecto, sino de que encuentre una audiencia dispuesta a reenviarlo como certeza. Y cada reenvío, en ese contexto, es una decisión.
La defensa más eficaz no exige convertir a toda la población en peritos forenses. Exige instalar un reflejo cívico mínimo: pausar, exigir procedencia, contrastar y, sobre todo, no amplificar.
En paralelo, necesita que las plataformas asuman su parte: etiquetado real, fricción al compartir, trazabilidad de reuploads y respuestas consistentes. Sin esa doble capa —ciudadanía entrenada y plataformas responsables—, la próxima crisis repetirá el mismo guion, con nuevas caras y el mismo objetivo.
La experiencia de Venezuela deja como lección que, en contextos de alta polarización, sanciones, guerra psicológica y circulación masiva de rumores, la desinformación no opera como un “error” ocasional, sino como un dispositivo sostenido de presión psicológica y disputa de legitimidad: en ese marco, el deepfake no es solo una falsificación técnica, sino un instrumento de guerra cognitiva orientado a moldear percepciones, condicionar emociones y desplazar el juicio público. Allí se ha visto cómo audios “filtrados”, videos recortados y piezas fabricadas con IA pueden activar picos de ansiedad colectiva, alimentar decisiones precipitadas y, sobre todo, imponer un marco interpretativo antes de que exista confirmación documental. Por eso, ante el deepfake, la clave es anticipar su dinámica de distribución: reaccionar rápido con fuentes primarias, crear rutinas públicas de verificación, reducir el reenvío impulsivo en mensajería cerrada y sostener un “cordón sanitario” informativo en las primeras horas, cuando el shock busca convertirse en certeza.







