Deepfake, IA generativa e verità: come cambia la comunicazione nell’epoca del mito digitale

Nel tempo delle simulazioni perfette, il vero vacilla e il mito ritorna. Comunicare oggi significa presidiare il confine tra realtà e finzione, costruendo fiducia attraverso narrazioni autentiche, coerenti e verificabili.

Viviamo in un tempo in cui l’intelligenza artificiale generativa produce contenuti così realistici da confondere anche gli osservatori più attenti. E non si tratta più di un futuro ipotetico: casi concreti attraversano già la cronaca, la politica, il mondo digitale e la cultura pop.

In Italia, a luglio 2024, la Banca d’Italia ha denunciato la diffusione di un video deepfake in cui veniva falsamente riprodotta l’immagine e la voce del Governatore Fabio Panetta e promossi contenuti fraudolenti. L’istituto ha smentito categoricamente l’autenticità del video e invitato i cittadini a non diffonderlo, segnalando un nuovo livello di sofisticazione nelle truffe digitali. 

Sempre nel nostro Paese, diversi imprenditori di rilievo (tra cui Armani, Moratti, Tronchetti Provera e Della Valle) hanno ricevuto telefonate da una voce clonata del Ministro della Difesa Guido Crosetto, che chiedeva bonifici milionari per presunti riscatti di giornalisti rapiti. Alcune delle vittime, credendo di poter contribuire a una richiesta ufficiale dello Stato, hanno trasferito somme ingenti. Dopo accurate indagini della Procura di Milano, i carabinieri sono riusciti a bloccare il trasferimento dei fondi. Episodi, invece, come quello che ha coinvolto il leader di Azione Carlo Calenda, mostrato in un video manipolato mentre promuoveva falsi investimenti, rafforzano l’idea che siamo già immersi in un ecosistema informativo dove reale e artefatto si confondono.

Nicholas Carr, esperto di tecnologia e impatto sulla società, nell’articolo What Happens When AI-Generated Lies Are More Compelling than the Truth? ci ricorda che la manipolazione delle immagini non è una novità: sin dai tempi di Abraham Lincoln, le fotografie venivano ritoccate per fini politici. 

Oggi l’IA generativa sta segnando un cambio di passo significativo: la manipolazione non è più artigianale e lenta, ma industriale, immediata ed esponenzialmente a disposizione di chiunque. In questo scenario, torna attuale la riflessione di Walter Benjamin ne L’opera d’arte nell’epoca della sua riproducibilità tecnica, dove indicava come la riproduzione meccanica potesse dissolvere l’”aura” dell’originale. Oggi questo concetto appare straordinariamente attuale: l’aura non è solo quella dell’opera d’arte, ma della realtà stessa. L’IA generativa non si limita a replicare, ma crea. E in questa produzione automatizzata e continua di contenuti, ciò che è autentico perde rilievo, e ciò che è sinteticamente plausibile assume centralità. Così, il senso dell’unicità – il legame tra oggetto, contesto e origine – si sgretola. In questo scenario, l’informazione non è più un riflesso del reale, ma un prodotto competitivo, ottimizzato per l’engagement. È qui che si consuma il passaggio dalla verità alla verosimiglianza come valore guida della comunicazione.

Con l’IA generativa, dunque, siamo oltre: non solo si replicano contenuti, ma si generano simulazioni autonome, verosimili, senza un originale da cui partire. L’opera – che sia un volto, una voce, una dichiarazione – non viene “copiata”, ma inventata. E proprio come temeva Benjamin, in questa serialità algoritmica rischiamo di smarrire il senso stesso dell’autenticità.

Non si tratta più di deformare la realtà: si tratta di sostituirla con una versione alternativa, plausibile, costruita per essere credibile prima ancora che verificabile. Qui nasce, per dirla con Simone de Beauvoir, l’ambiguità radicale della condizione umana: credere significa esporsi, ma oggi anche dubitare può essere manipolato. In gioco non c’è solo la verità, ma la fiducia collettiva. Se tutto può sembrare verosimile, allora anche il vero rischia di perdere autorevolezza. Questa è la crisi profonda: un’erosione sistemica della nostra capacità di riconoscere il reale – e, ancor più, di crederci.

Per accompagnare la riflessione sull’IA generativa e l’impatto sulla comunicazione, abbiamo fatto un piccolo esperimento con ChatGPT: abbiamo associato alcuni miti classici a fenomeni tecnologici contemporanei, lasciando che le narrazioni antiche ci aiutassero a leggere – con profondità simbolica e una punta di ironia – le sfide del presente.

Ecco il risultato: cinque archetipi, cinque interpretazioni, cinque spunti per pensare diversamente alla realtà digitale che abitiamo ogni giorno.

%%block_image_and_text1%%

I deepfake: una rottura epocale

I deepfake non sono solo un’evoluzione tecnologica, ma una vera e propria frattura epistemologica. Si generano dal nulla, con un’accuratezza che imita perfettamente il reale. In un mondo dove la comunicazione avviene soprattutto attraverso le immagini, il loro impatto è profondamente destabilizzante.

Con il termine deepfake si indica un insieme di tecnologie basate sull’intelligenza artificiale che consentono di manipolare o generare contenuti audiovisivi falsi, ma estremamente realistici. Ne esistono di diverso ordine e grado: si va da semplici manipolazioni di video preesistenti – ad esempio sostituendo il volto o la voce di una persona – fino alla generazione ex novo di video completamente sintetici, partendo solo da un prompt testuale o da brevi clip di riferimento.

Esempi recenti ne mostrano l’impatto: dai video falsi di Tom Cruise che hanno affollato TikTok, fino ai contenuti esplicitamente generati sull’immagine di Taylor Swift nel 2024, che hanno costretto le piattaforme a limitare perfino le ricerche. Anche in Italia, campagne automatiche con bot e intelligenze artificiali hanno alterato il dibattito online in occasione di crisi internazionali e competizioni politiche.

Come scrive Nicholas Carr: “History and psychology both suggest that, in politics as in art, generative AI will succeed in fulfilling the highest aspiration of its creators: to make the virtual feel more authentic than the real.” È questa la svolta: il virtuale non solo compete con il reale, ma spesso lo supera per intensità emotiva, credibilità percepita e capacità di diffusione.

%%block_image_and_text2%%

Da credulità a cinismo: il rischio per la democrazia

Il rischio più immediato dei contenuti generati con IA è l’ampliamento della disinformazione. Quello più profondo è il cinismo. Carr scrive: “We’ll go from a world where our bias was to take everything as evidence to one where our bias is to take nothing as evidence.” C’è la concreta possibilità di passare da una società credulona a una completamente disillusa, dove la verità non è solo difficile da trovare, ma smette di avere rilevanza.

Questo indebolisce le fondamenta cognitive e culturali della democrazia. Perché senza fiducia, non c’è spazio per il dibattito razionale. E in quel vuoto, prosperano le narrazioni autoritarie. Come osservano Bobby Chesney e Danielle Citron, l’erosione della fiducia gioca a favore di chi manipola la realtà per consolidare il potere. Carr è netto: “As truth decays, so too will trust.

Il ritorno del mito nell’era digitale

Yuval Noah Harari, nel suo saggio sull’intelligenza artificiale, mette in guardia: stiamo delegando la narrazione della realtà a sistemi che non comprendono il mondo, ma lo simulano con perizia chirurgica. Se nel passato le storie servivano a unire le comunità attorno a valori condivisi, oggi rischiano di diventare strumenti sofisticati per frammentarle.L’intelligenza artificiale non capisce la verità,” osserva Harari, “ma può persuadere gli esseri umani a credere a qualsiasi versione della stessa.” Il rischio non è solo la menzogna in sé, ma la perdita del desiderio di distinguere tra vero e falso. In un ecosistema informativo dominato da contenuti su misura, la verità perde valore competitivo: ciò che vince è ciò che emoziona, che conferma, che consola. E la fiducia, che rappresenta l’infrastruttura invisibile ma vitale della democrazia, si dissolve. 

Costruire reputazione nel tempo del mito digitale

Questa erosione colpisce anche la reputazione di un’azienda o di un personaggio pubblico, rendendo fragile ogni costruzione identitaria nel tempo dell’IA generativa. Per i comunicatori, questa è una lezione urgente: se l’IA può generare infinite storie, spetta a noi costruire identità credibili, verificabili e coerenti. Occorre passare da una logica reattiva a una visione anticipatoria, dove la gestione della reputazione non si limita alla reazione e alla smentita (crisis management), ma si fonda su un orientamento strategico e su quadri previsionali capaci di anticipare scenari. Questo approccio rafforza il cosiddetto capitale fiduciario: quell’insieme di percezioni, coerenze narrative e credibilità relazionale che consente a un’organizzazione di mantenere autorevolezza e continuità anche in contesti di crisi reputazionale e di overload informativo. Solo così si potrà abitare la nuova era della narrazione algoritmica senza esserne travolti.

Carr cita il caso del Libro di Veles, un presunto manoscritto antico pubblicato nel 1957 che narrava storie del dio slavo Veles. Sebbene smascherato come falso, il testo ha guadagnato seguito tra gruppi neopagani e nazionalisti. Questo dimostra come i miti, più che i fatti, possano catturare l’immaginazione collettiva, specialmente in tempi di sovraccarico informativo. Marshall McLuhan lo aveva previsto: “When man is overwhelmed by information, he resorts to myth.” In altre parole, quando l’essere umano è sommerso da un eccesso di informazioni, smette di cercare la verità nei fatti e si rifugia in narrazioni simboliche e rassicuranti.

Come abbiamo visto in precedenza, nell’era dell’IA generativa, queste narrazioni trovano un alleato formidabile: la capacità di creare immagini, video e testi perfettamente verosimili – anche se falsi – che alimentano le nostre paure e confermano i nostri pregiudizi. Carr aggiunge: “Myth Making, more than truth seeking, is what seems likely to define the future of media and of the public square.” Carr suggerisce che, nell’epoca dell’IA generativa, l’obiettivo della comunicazione non è più quello di cercare la verità oggettiva, ma di costruire narrazioni che risuonino emotivamente, culturalmente o politicamente con i pubblici. I media del futuro, secondo questa visione, non saranno spazi per accertare i fatti, ma per far circolare storie persuasive, anche a prescindere dalla loro veridicità.

La conseguenza è una trasformazione radicale del “pubblico”: da luogo di confronto basato su prove, a teatro di rappresentazione simbolica dove vince chi costruisce la narrativa più convincente.

%%block_image_and_text3%%

Implicazioni strategiche per i professionisti dei public affairs e corporate communication

Per chi opera nel mondo della comunicazione strategica, la sfida è chiara: difendere l’autenticità in un tempo in cui la finzione è scalabile. Serve un cambiamento culturale, prima ancora che operativo.

  1. Difesa della reputazione e crisi comunicative
    Un ecosistema credibile si costruisce con processi di monitoraggio continuo, tecnologie di analisi avanzata e protocolli di risposta rapida. Le organizzazioni devono sviluppare infrastrutture comunicative capaci di neutralizzare tempestivamente minacce reputazionali, in stretta sinergia con piattaforme e autorità competenti.
  2. Trasparenza e accountability
    Comunicare in modo trasparente – dichiarando l’uso di IA, citando le fonti, garantendo verificabilità – non è solo buona pratica: è un presidio di fiducia. La trasparenza deve diventare un pilastro strutturale delle strategie editoriali e comunicative.
  3. Formazione e cultura della resilienza
    I team comunicazione devono diventare ‘sentinelle competenti’, capaci non solo di intercettare segnali deboli e minacce emergenti, ma anche di tradurre l’allerta in azione strategica e coerente. In questo senso, investire in formazione significa rafforzare la resilienza culturale e organizzativa, anticipando minacce e riducendo l’impatto delle crisi.
  4. Collaborazione con il legislatore e le piattaforme
    Il futuro si scrive anche nei regolamenti. Chi lavora nei public affairs e nella comunicazione ha anche il compito di affiancare i decisori pubblici in modo costruttivo, contribuendo alla definizione di norme equilibrate che sappiano sostenere l’innovazione senza lasciare spazio ad abusi. Il dialogo tra imprese, istituzioni e piattaforme diventa così uno snodo essenziale per disegnare regole efficaci, condivise e pragmatiche.

%%block_image_and_text4%%

Una sfida per il futuro

L’intelligenza artificiale generativa non è soltanto un’avanzata tecnologica: è una trasformazione del modo in cui pensiamo, comunichiamo e costruiamo il reale. Nell’epoca in cui il verosimile può superare il vero in autorevolezza percepita, il compito dei comunicatori, dei decisori e dei cittadini è tornare a dare valore alla verifica, al discernimento, alla coerenza. La fiducia diventa il nuovo terreno strategico su cui si gioca la reputazione, la democrazia e la responsabilità sociale. Per affrontare questa sfida servono visione, consapevolezza e collaborazione tra attori pubblici e privati, tra chi regola e chi comunica. Non è più solo questione di smentire l’inganno, ma di costruire una narrazione alternativa fondata su autenticità, competenza e trasparenza. Solo così potremo continuare ad abitare con lucidità e integrità lo spazio pubblico.

 

%%block_image_and_text5%%

La domanda resta aperta: sapremo presidiare il campo della realtà o ci limiteremo a rincorrere miti perfettamente confezionati, ma pericolosamente vuoti?

Per approfondire, leggi l’articolo originale di Nicholas Carr su Behavioral Scientist: “What Happens When AI-Generated Lies Are More Compelling than the Truth?”

Leggi anche

Tutti gli articoli