Quando arriva a noi la notizia che l’Intelligenza Artificiale crea il rischio di estinzione, secondo voi a che punto siamo?
L’intelligenza artificiale
ci mette a rischio di estinzione
“Mitigare i rischi di estinzione causati dall’intelligenza artificiale dovrebbe essere una priorità globale, così come viene fatto per altri rischi su scala sociale come le pandemie e la guerra nucleare”.
Con questo comunicato firmato da 350 scienziati e ingegneri impiegati nel campo dell’IA e pubblicato dalla no-profit Center for AI Safety, i massimi esperti del settore tornano a parlare dei rischi connessi allo sviluppo sempre più avanzato dell’intelligenza artificiale: non più soltanto deep fake e perdita di posti di lavoro, ma addirittura la scomparsa della nostra specie.
Nomi illustri
Tra i firmatari della sinistra lettera aperta spiccano i leader delle principali compagnie di IA come Sam Altman, direttore esecutivo di OpenAI, Demis Hassabis, stesso ruolo in Google DeepMind e Dario Amodei, alla guida della startup statunitense di IA Anthropic.
Ci sono inoltre Geoffrey Hinton e Yoshua Bengio, vincitori di un Turing Award (l’equivalente del Nobel per gli scienziati informatici) e considerati pionieri dell’intelligenza artificiale per i loro studi fondamentali sulle reti neurali, i modelli per l’elaborazione di informazioni alla base dell’apprendimento nei sistemi di riconoscimento facciale, di guida autonoma e degli assistenti sociali, solo per citare alcuni tipi di IA.
Progressi fuori controllo
L’appello, tenuto volutamente stringato per non entrare nello specifico sulle singole minacce e far così aderire il massimo numero di scienziati, si inserisce in un clima di generale preoccupazione per il rapidissimo avanzamento di alcuni tipi di IA, come i modelli linguistici di grandi dimensioni tipo ChatGPT.
Si teme che lo sviluppo senza regole dei software usati per questo ed altri chatbot concorrenti possa portare a usare l’intelligenza artificiale per diffondere disinformazione e propaganda, creando disordine nelle istituzioni e disgregazione sociale.
Troppo intelligenti per sopravvivere
Quella dell’IA si aggiunge alle altre minacce per la sopravvivenza della nostra specie messe in essere dallo stesso operato dell’uomo, come i cambiamenti climatici, le armi nucleari, o il rischio crescente di pandemie dovuto all’uso sconsiderato delle risorse naturali.
Sembra insomma che, qualunque sia il destino che ci attende, la fine debba avvenire per autodistruzione – un bell’autogoal per una specie che si dice intelligente.
In un post pubblicato di recente, proprio Altman con altri due dirigenti di OpenAI suggerisce alcune strategie per gestire le potenzialità dell’IA in modo responsabile: una cooperazione tra soggetti industriali che operano nel campo, maggiori ricerche sui modelli linguistici e la formazione di un’organizzazione internazionale per la sicurezza dell’IA simile all’Agenzia Internazionale per l’Energia Atomica (AIEA), l’organo che vigila sulla gestione, le applicazioni e la sicurezza nucleare.
Altman si è inoltre espresso a favore di leggi che richiedano ai creatori dei modelli di IA più avanzati di registrarsi per ottenere una licenza all’uso regolamentata dai governi.
FONTE: Focus