Un’analisi indipendente solleva interrogativi su una fotografia degli scontri di Torino diffusa da account istituzionali, ipotizzando possibili alterazioni digitali e aprendo un dibattito sull’uso dell’intelligenza artificiale.
In Italia potrebbe essere emerso il primo caso di una fotografia potenzialmente manipolata e rilanciata da profili istituzionali. A sollevare il tema è Filippo Venturi, fotografo documentarista impegnato da anni nella divulgazione sui rischi e sulle implicazioni dell’intelligenza artificiale applicata alle immagini. Sul suo sito ha pubblicato un’analisi approfondita di uno scatto relativo agli scontri avvenuti a Torino, un’immagine condivisa e amplificata dagli account ufficiali del Viminale, dalla Polizia di Stato e dal profilo del ministro dell’Interno Matteo Piantedosi.
La fotografia mostra Alessandro Calista, agente di polizia rimasto ferito durante la manifestazione, mentre viene soccorso da un collega subito dopo l’aggressione subita da un gruppo di manifestanti. L’immagine, divenuta rapidamente virale, è stata utilizzata come simbolo degli scontri. Tuttavia, confrontandola con altri scatti e filmati realizzati nello stesso momento, Venturi ha individuato elementi che, a suo avviso, non coincidono con la documentazione visiva originale della giornata.
Secondo quanto ricostruito dal fotografo, alcuni dettagli presenti nei materiali video e fotografici circolati subito dopo i fatti sembrano assenti o modificati nello scatto rilanciato dagli account istituzionali. Venturi sostiene che l’immagine appaia semplificata e ripulita per accentuare il gesto del soccorso e renderlo immediatamente riconoscibile. «La foto sembra sia stata ripulita da tutta una serie di elementi per focalizzare l’attenzione sul gesto rendendola “iconica”», afferma. Tra le incongruenze evidenziate, l’assenza di un’auto bianca parcheggiata accanto ai due agenti, la scomparsa dello scudo impugnato da uno dei poliziotti e una diversa resa del volto dell’agente che presta aiuto.
In particolare, Venturi sottolinea che, nelle immagini e nei video girati sul posto, il poliziotto soccorritore indossava una maschera antigas, mentre nella fotografia diffusa il volto risulta visibile. A ciò si aggiunge una cancellata sullo sfondo che non corrisponderebbe a quella presente nell’area degli scontri e un’illuminazione generata da fari e luci della polizia che, secondo l’analisi comparativa, non compaiono negli altri materiali visivi. Un ulteriore dettaglio riguarda la scritta “polizia” sul retro del casco dell’agente, che appare con caratteri considerati anomali: «Inoltre sul casco dell’agente soccorritore la parola “polizia” sul retro sembra scritta in un alfabeto asiatico».
Questi elementi hanno portato Venturi a ipotizzare un possibile intervento di intelligenza artificiale o di manipolazione digitale avanzata. I primi dubbi, come racconta lo stesso fotografo, erano stati sollevati da Michele Luppini, presente alla manifestazione di Torino, che aveva condiviso con lui l’immagine proprio per le sue competenze specifiche nel settore.
Il percorso professionale di Venturi unisce fotografia e tecnologia. Laureato in informatica a Bologna, da tre anni ha avviato un progetto di studio dedicato all’uso dell’AI nella produzione visiva, un lavoro che nel 2025 gli è valso il riconoscimento di Autore dell’anno da parte della Federazione italiana associazioni fotografiche. «Sono un utilizzatore critico di questo strumento», spiega, «Il mio lavoro indaga le potenzialità della generazione artificiale di immagini ma al contempo ne denuncia limiti e pericoli».
Nel suo intervento Venturi richiama anche precedenti internazionali, come la circolazione di una foto fittizia dell’arresto del presidente venezuelano Nicholas Maduro, attribuendo un uso disinvolto di immagini artificiali soprattutto al contesto statunitense e alla Casa Bianca. «È la prima volta, a quanto mi consta, che succede in Italia», osserva.
Il nodo centrale, secondo il fotografo, riguarda l’impatto sul dibattito pubblico. «In primo luogo l’aumento della confusione nei cittadini», avverte, sottolineando come la difficoltà di distinguere tra vero e falso sia accentuata dalla diffusione di immagini artificiali. Anche un utilizzo dichiarato dell’AI, aggiunge, rischia di alimentare ambiguità, soprattutto quando i contenuti diventano virali e perdono il contesto originario.
Alcuni ricercatori hanno già individuato cinque principali profili di rischio legati all’uso di immagini artificiali da parte delle istituzioni e della politica: la perdita di credibilità, la confusione tra comunicazione istituzionale e propaganda, la normalizzazione di contenuti non autentici, l’effetto moltiplicatore della disinformazione sui social e i possibili risvolti legali ed etici per le persone rappresentate.
Interpellata sulla vicenda, la Polizia di Stato ha fornito una posizione ufficiale, chiarendo: «L’immagine è stata scelta tra quelle più condivise sui social e sul web. Non è stata in alcun modo generata o alterata dalla polizia di Stato». La fotografia, infatti, circolava già su profili social riconducibili a esponenti politici prima di essere rilanciata dagli account istituzionali.
Per Venturi, tuttavia, la questione va oltre l’origine dello scatto. «Il problema è lo scenario che ci si prospetta davanti», conclude, ribadendo la necessità di preservare l’affidabilità delle immagini nel dibattito pubblico in un contesto segnato dall’evoluzione dell’intelligenza artificiale.



Add comment