“Vi spiego perché
l’IA potrebbe essere pericolosa
per il futuro dell’umanità”
Nick Bostrom è un professore di filosofia svedese che dirige il Future of Humanity Institute presso l’università britannica di Oxford.
Il settore di studi di Bostrom è quello del transumanesimo e abbraccia campi quali la clonazione, l’Intelligenza Artificiale (IA), la superintelligenza, la possibilità di trasferimento della coscienza su supporti tecnologici, le nanotecnologie e le tesi sulla realtà simulata.
Il professore e ricercatore è animato, per quanto riguarda l’IA e suoi sviluppi futuri, da una posizione “pessimista” di lungo termine: sostanzialmente, Bostrom ritiene che quando l’IA avrà raggiunto il livello di una superintelligenza, ovvero quando supererà le capacità dell’intelligenza umana, potrebbe facilmente rappresentare un pericolo per l’umanità intera.
Qualcosa che potrebbe avvenire su un arco temporale molto ampio, anche generazionale, ma che secondo lui potrebbe facilmente accadere.
Intervista a Nick Bostrom
Professore, lei è fortemente critico verso lo sviluppo dell’IA, con una prospettiva di lunghissimo termine pessimista in merito ai pericoli che potrebbe avere per l’umanità intera.
Allora le chiedo: è possibile insegnare a una macchina l’etica, l’empatia e la compassione, valori esclusivamente umani?
In che modo?
Direi piuttosto che sono ambivalente riguardo all’IA. Sono molto ottimista riguardo ai potenziali progressi, se facciamo le cose per bene, anche se penso che ci siano seri rischi legati allo sviluppo della superintelligenza delle macchine.
Non è ancora noto esattamente ciò di cui abbiamo bisogno per guidare i sistemi ad intelligenza artificiale avanzati per ottenere un buon risultato, e questo è un campo di ricerca in corso.
Molte delle persone più intelligenti che conosco ora lavorano in quel campo.
Se si potesse insegnare all’IA i valori umani, sapendo che l’uomo non è caratterizzato solo da valori positivi ma è anche meschino, subdolo e violento, non ci sarebbe il rischio che la macchina, autonomamente, conoscendoci, assuma anche questi comportamenti e diventi aggressiva nei nostri confronti?
Sì, potrebbe anche diventare aggressiva per noi senza tali valori
Le leggi di Asimov sulla robotica si possono applicare all’IA?
Sì/no perché?
L’approccio di Asimov era troppo semplicistico
Lei ritiene che il controllo delle capacità di un’IA può essere solo una misura temporanea.
Non basterebbe inserire un algoritmo di tipo diverso che inibisca in modo automatico un eventuale comportamento aggressivo?
È possibile definire un tale algoritmo?
È un comportamento aggressivo quando asfaltiamo una colonia di formiche per costruire un parcheggio?
Sapendo che l’IA lavora in base al dataset che noi le diamo, non sarebbe sufficiente scegliere oculatamente il dataset per evitare brutte sorprese?
Le IA “furbe” possono generalizzare oltre i dati su cui operano e possono costruire modelli del mondo e utilizzare quei modelli per comprendere nuove situazioni e fare piani.
Le macchine di intelligenza artificiale sono più veloci degli umani nell’apprendere concetti e ragionare, ma non sono ancora in grado di compiere azioni umane automatiche, quelle che si basano sull’istinto.
Questa lacuna sarà mai colmata?
Penso che attualmente le IA siano più lente degli umani nell’apprendimento dei concetti. Ad esempio, ChatGPT-4 è stato addestrato su quasi tutto Internet, ma i singoli esseri umani raggiungono una comprensione concettuale simile sulla base di una quantità di dati molto inferiore.
FONTE: Inside Over