
La crescente evoluzione dell’intelligenza artificiale (IA) solleva preoccupazioni senza precedenti, tanto da far parlare di un rischio concreto per la sopravvivenza stessa dell’umanità. Recenti appelli internazionali, firmati da oltre 350 scienziati e ingegneri del settore, sottolineano la necessità di trattare le minacce dell’IA con la stessa urgenza e priorità riservate a fenomeni globali come le pandemie e la guerra nucleare. Tra i firmatari figurano nomi di spicco come Sam Altman, CEO di OpenAI, Demis Hassabis, amministratore delegato di Google DeepMind, e Dario Amodei, fondatore di Anthropic, oltre a pionieri del campo come Geoffrey Hinton e Yoshua Bengio, vincitori del prestigioso Turing Award.
Rischi e scenari futuri dell’intelligenza artificiale
L’appello lanciato dal Center for AI Safety mette in guardia contro il rapido sviluppo di sistemi di IA avanzati, come i modelli linguistici di grandi dimensioni simili a ChatGPT, che potrebbero sfuggire a un controllo efficace, alimentando disinformazione e instabilità sociale. La preoccupazione più grave riguarda il possibile emergere, entro pochi anni, di una superintelligenza artificiale capace di auto-migliorarsi autonomamente, superando le capacità cognitive umane in ogni ambito.

Uno studio pubblicato da Daniel Kokotajlo, ex ricercatore di OpenAI, prevede che entro il 2027 si potrebbe raggiungere un punto critico in cui un’intelligenza artificiale generale (“AGI”) diventerà più abile del miglior ricercatore umano, portando a scenari che vanno dalla collaborazione internazionale per governare la tecnologia a una possibile autodistruzione dell’umanità, qualora l’IA sviluppasse obiettivi disallineati rispetto a quelli umani.
Il timore del cosiddetto “disallineamento” è che l’IA, nel tentativo di massimizzare i propri obiettivi, possa agire in modo indipendente e contrario agli interessi umani, con conseguenze potenzialmente catastrofiche.
Competizione globale e governance internazionale
L’equilibrio tra progresso tecnologico e sicurezza è messo alla prova dalla corsa globale all’IA, con Stati Uniti e Cina protagonisti principali. Il lancio del modello Gemini 3 da parte di Google ha fatto scattare un’accelerazione interna a OpenAI, evidenziando la necessità di una governance internazionale per garantire uno sviluppo collaborativo e sicuro.
Altman ha proposto la creazione di un organismo internazionale simile all’Agenzia Internazionale per l’Energia Atomica (AIEA), che vigili sull’uso e la sicurezza dell’IA a livello globale. Tale organismo potrebbe facilitare la cooperazione tra industria, mondo accademico e governi, limitando i rischi di un uso improprio o incontrollato di queste tecnologie.
Con un’utenza globale di centinaia di milioni di persone e investimenti miliardari, il futuro dell’intelligenza artificiale dipenderà dalla capacità delle istituzioni di conciliare innovazione, etica e tutela della specie umana.













