Intelligenza artificiale e disinformazione, il caso del bambino carbonizzato

Come non mai realtà e finzione sono sempre più difficili da distingue. Diversi rapporti suggeriscono che la IA potrebbe essere un potenziale strumento per la diffusione di notizie false, e un caso recente inerente il conflitto Israele-Palestina ha sottolineato questa realtà perturbante. Ma prima di addentrarci in questo, esaminiamo come siamo arrivati a questo punto in così poco tempo.

Miglioramento esponenziale della Intelligenza Artificiale

La IA ha subito miglioramenti esponenziali solo quest’anno. È incredibile come in in un così breve periodo le sue funzionalità siano passate da immagini come quelle della versione 1 di Midjourney, rilasciata a Febbraio 2022 a quella iper-realistica della versione 5.1 rilasciata a Maggio 2023. Questo sviluppo rapido sta iniziando seriemente a confondere le linee di demarcazione tra ciò che è reale e ciò che non lo è.

Intelligenza Artificiale e Disinformazione

Recentemente, un’immagine inquietante di un bambino bruciato è stata postata su X.com dall’opinionista americano Ben Shapiro in riferimento al conflitto Israele-Palestina e alla notizia dei 40 neonati decapitati da Hamas. L’immagine, al quanto disturbante, ha condotto alla ricerca della verità e utilizzando un tool di IA chiamato Optic (oggi chiamato AI or not). Lo strumento di riconoscimento ha segnalato l’immagine come falsa, indicando che era stata generata da Intelligenza Artificiale.

Immagine sfocata del bambino carbonizzato

Ulteriori prove arrivano da un immagine del salvataggio di un cane che sembra identica, con l’eccezione del bambino carbonizzato e potrebbe essere stata utilizzata per creare l’artefatto con funzionalità di ritocco AI come quella di Photoshop:

Immagine originale che ritrae il salvataggio di un cane

Leggi anche L’Intelligenza Artificiale e il caso deepfake di MrBeast

Prospettive future

Non vogliamo fare ipotesi sulla veridicità di queste affermazioni, ma se risultassero essere vere, dovremmo prepararci a un futuro in cui le persone potrebbero utilizzare l’IA per diffondere intenzionalmente disinformazioni, meanipolando persino o creando la storia. Di fronte a queste circostanze, ci si dovrebbe chiedere come risolveremo questo problema in futuro.