Intelligenza Artificiale.
Prevedere i crimini prima che accadano.
Esistono forme di Intelligenza Artificiale votate alla previsione del crimine.
Una di esse è stata implementata in diverse città americane.
Il professore dell’Università di Chicago Ishanu Chattopadhyay, sostiene che la sua IA anticrimine sicuramente non verrà utilizzata in modo improprio dalle forze di polizia.
Il professor Chattopadhyay ha recentemente incontrato BBC Science Focus per discutere del sistema di Intelligenza Artificiale, che, come afferma uno studio pubblicato sulla rivista Human Behaviour, può prevedere dove e quando potrebbe verificarsi un crimine con una precisione dell’80-90%.
La domanda è se l’IA può essere utilizzata con successo da una forza di polizia senza commettere abusi.
Chattopadhyay ha detto alla BBC
«La gente teme che questo verrà utilizzato come strumento per mettere le persone in prigione prima che commettano crimini.
Questo non accadrà, in quanto non ha alcuna capacità per farlo».
L’incorporazione dell’IA nella polizia non è certo una novità, e nemmeno la controversia che la circonda: un software simile è già stato implicato nella detenzione illecita e persino nella morte illecita di un bambino di 13 anni disarmato.
Più in generale, l’IA su tutta la linea è stata accusata da critici americani di essere volubile nonché piena di pregiudizi razziali e altrimenti discriminatori.
Inoltre, come noto, le decisioni dell’IA sono notoriamente difficili da spiegare, perfino dai loro progettisti e ideatori.
Come dice la sociologa Zeynep Tufecki, guardare il codice IA mostrato per una sua decisione è come fare una radiografia del cervello per cercare di capire un pensiero.
IA e problemi di razzismo
Parlando alla BBC, il Chattopadhyay – che afferma di sperare che la sua Intelligenza Artificiale venga utilizzata per frenare la criminalità attraverso misure sociali e politiche – ha riconosciuto alcune di queste preoccupazioni, in particolare i problemi di razzismo che sembra avere l’IA.
Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay».
Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.
Anche Google ebbe i suoi problemi con le AI razziste.
Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla».
Il professore chicaghese sostiene che altri sistemi di Intelligenza Artificiale siano troppo semplicistici, poiché fanno troppo affidamento su informazioni come la cronologia degli arresti e le caratteristiche individuali.
Al contrario, il suo sistema utilizza solo i dati del registro eventi, che secondo lui aiutano a «ridurre il più possibile i pregiudizi».
«Prevede semplicemente un evento in un luogo particolare», ha aggiunto.
«Non ti dice chi commetterà l’evento o l’esatta dinamica o meccanica degli eventi. Non può essere usato allo stesso modo del film Minority Report».
Vale la pena di ricordare il recente dilemma esposto per sondaggio ai suoi follower Twitter il capo scienziato di OpenAI Ilya Sutskever: le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità»?
In altre parole, sembra riflettere se dovremmo trattare le superintelligenze come animali domestici o come dei?
È lecito lasciar decidere le nostre vite da degli algoritmi?
In larga parte – se pensiamo a Facebook, YouTube, Amazon – è già così.
Le Intelligenze Artificiali guidano le nostre vite e nemmeno ce ne accorgiamo.
FONTE: renovatio21