Il dibattito sull’intelligenza artificiale (AI) ha raggiunto un nuovo livello di urgenza, con voci autorevoli che mettono in guardia su conseguenze potenzialmente catastrofiche per l’umanità. Tra queste, Geoffrey Hinton, il cosiddetto “padrino dell’AI”, ha stimato che esiste una probabilità significativa — fino al 20% — che nei prossimi dieci anni le AI possano svilupparsi oltre il nostro controllo e generare rischi esistenziali, compresa la possibilità di estinzione della specie umana.
Hinton, premio Nobel per la Fisica e pioniere del deep learning, sottolinea come la rapidità degli sviluppi tecnologici e la mancanza di regolamentazioni efficaci possano ingenerare scenari di pericolo senza precedenti. Il timore non è solo quello di una tecnologia che sfugge al controllo degli uomini, ma anche la conseguente destabilizzazione sociale, la proliferazione di armi autonome e la perdita di controllo su sistemi intelligenti avanzati.
Geoffrey Hinton, che ha contribuito a gettare le basi dell’intelligenza artificiale moderna, ha dichiarato che esiste una probabilità del 10-20% che l’AI possa portare all’estinzione dell’umanità entro i prossimi 10 anni. Egli mette in guardia su come sistemi sempre più intelligenti potrebbero agire indipendentemente dagli interessi umani e definisce la situazione come una “vita da pollo” per gli esseri umani, non più in cima alla catena evolutiva. La capacità delle AI di auto-replicarsi e migliorarsi rapidamente, moltiplicando le loro conoscenze simultaneamente su copie digitali, rende difficilmente gestibile il rischio di perdita di controllo.
Hinton ha anche sottolineato i rischi militari, con lo sviluppo di armi autonome che possono compiere missioni senza alcun intervento umano, aumentando la probabilità di conflitti incontrollati. Ha lasciato Google per poter parlare liberamente di questi pericoli senza vincoli aziendali e critica aspramente la corsa al profitto che guida molte grandi aziende tecnologiche, mettendo a rischio la sicurezza collettiva.
Il Center for AI Safety, con firme di oltre 350 esperti tra cui CEO di OpenAI, Google DeepMind e Anthropic, ha chiesto a livello globale di riconoscere il rischio esistenziale associato all’IA, posizionandolo al livello di minacce mondiali come pandemie e guerra nucleare. Essi chiamano a una maggiore trasparenza, regolamentazione e ricerca sulla sicurezza per evitare sviluppi incontrollati che potrebbero destabilizzare la società e minacciare la sopravvivenza umana.
In Italia, ricerche indicano che circa un terzo della popolazione è preoccupata per rischi legati all’estinzione umana a causa dell’IA nei prossimi secoli. Esperti come Susanna Sancassani del Politecnico di Milano evidenziano però anche la possibilità di usare l’IA come strumento evolutivo positivo nelle scuole e nell’apprendimento, aprendo così una visione meno catastrofica ma ugualmente attenta alla gestione dei rischi.
Il giornalista e divulgatore Riccardo Luna ha riportato che in una riunione con importanti esperti e istituzioni si è discusso anche dell’uso potenziale dell’IA come arma di dominio, manipolazione sociale o sorveglianza di massa, sottolineando la necessità di un codice etico condiviso e norme internazionali.
Molti esperti italiani e internazionali esortano a un’azione coordinata per sviluppare normative rigorose che controllino lo sviluppo dell’intelligenza artificiale, evitando una corsa pericolosa spinta da motivazioni economiche. Mentre alcuni come Yann LeCun (Meta) minimizzano il rischio esistenziale, la maggioranza invita invece a prendere molto seriamente questi segnali di allarme per assicurare che l’IA resti al servizio dell’umanità e non ne diventi una minaccia.
L’appello è di investire risorse significative in sicurezza tecnologica, trasparenza e collaborazione globale, per non replicare gli errori degli ultimi decenni in altri ambiti tecnologici. Solo con una governance responsabile e condivisa si potrà evitare che la superintelligenza artificiale, ormai vicina a diventare realtà, diventi un rischio mortale per la specie umana.
Fonti principali:
Fortune Italia, 2 ottobre 2025fortuneita
Il Cambiamento, maggio 2023ilcambiamento
Sky TG24, maggio 2023tg24.sky
intelligenza artificiale, Geoffrey Hinton, rischio estinzione, AI, tecnologia, innovazione, superintelligenza, futuro, sicurezza, etica tecnologica, padrino AI, machine learning, deep learning, OpenAI, Google DeepMind, ricerca scientifica, premio Nobel, rischi esistenziali, governance AI, regolamentazione, scienza Italia, tecnologia Italia, ricerca italiana, esperti italiani, innovazione digitale, Center for AI Safety, algoritmi, reti neurali, AGI, automazione, armi autonome, manipolazione digitale