Si può avvelenare una intelligenza artificiale? Tecnicamente sì, esattamente come accade con un essere vivente. Basta mettere veleno nel suo cibo. Il cibo di una intelligenza artificiale, quello di cui si alimenta per crescere e dare le formidabili risposte che ci lasciano a bocca aperta, sono i dati.
Questo spiega perché a volte ChatGPT dica, con assoluta nonchalance e con una sicumera che sembra autorevolezza, autentiche sciocchezze. Perché lo fa? Perché, dicono i ricercatori, c’è un problema nel set di dati su cui si è addestrata e quindi, dovendo indovinare la successione esatta di parole con cui rispondere al nostro quesito, viene tratta in inganno e sbaglia. Il che pone non pochi problemi sulla sicurezza di questi sistemi: quando saranno collegati al Web in tempo reale, con tutte le balle che contiene, sarà possibile avvelenare i dati con delle false informazioni? I ricercatori se lo chiedono.
A me la cosa invece fa riflettere su quello che accade agli esseri umani. Esattamente come una intelligenza artificiale si comporta in base alle regole che le sono state date (ChatGPT non è molto gentile per caso), e ai dati su cui si è addestrata, così noi umani agiamo in base all’educazione ricevuta e al mix di istruzione scolastica ed esperienze (i dati). Questo vuol dire che è possibile avvelenare una persona, deviare il suo comportamento, sia sbagliando sul fronte scolastico e familiare sia tramite esperienze travianti.
Insomma, mentre ci preoccupiamo giustamente di avere intelligenze artificiali infallibili e gentili, dovremmo fare lo stesso, o anche di più, con gli esseri umani: investire in cultura e in modelli virtuosi. Dietro il comportamento cattivo di un singolo, quasi sempre c’è un fallimento collettivo.
Fonte: Repubblica