Un gruppo ristretto ma influente di ricercatori, sviluppatori ed ex insider dell’industria tecnologica sta riportando l’attenzione sui rischi sistemici dell’intelligenza artificiale avanzata. Noti come AI doomers, non contestano l’utilità dell’AI nel presente, ma mettono in discussione la traiettoria attuale dello sviluppo dei modelli più potenti.
La loro tesi è semplice e scomoda: la velocità di avanzamento dei sistemi supera la capacità di comprenderne e governarne gli effetti, soprattutto quando vengono integrati in infrastrutture critiche, processi decisionali pubblici e sistemi autonomi. Il rischio non è un singolo incidente, ma una perdita progressiva di controllo, fatta di modelli opachi, comportamenti emergenti difficili da prevedere e incentivi economici che premiano la scala più della sicurezza.
Negli ultimi mesi il dibattito è riemerso anche fuori dai circoli accademici. Alcuni ex dipendenti di grandi aziende AI hanno reso pubbliche preoccupazioni su test interni, limiti delle attuali pratiche di alignment e sulla difficoltà di fermare o rallentare sistemi già distribuiti. Il punto non è l’apocalisse, ma la governance: chi decide, con quali strumenti e con quali margini di intervento quando qualcosa non funziona.
Per l’Osservatorio IAOL questo segnale indica un cambio di fase. L’AI non è più solo una questione di capacità tecniche o adozione, ma di responsabilità strutturale. Il dibattito dei doomers, spesso liquidato come allarmismo, sta diventando una variabile concreta nelle scelte politiche, regolatorie e industriali.