AI Act
L’Europa approva il primo decreto al mondo sull’intelligenza artificiale
L’Europa ha raggiunto un accordo preliminare sul regolamento AI Act, ma è di massima; si attende ora il testo definitivo, con qualche dettaglio da sistemare.
L’applicazione inoltre è in molta parte delegata ai singoli Stati.
FONTE: CyberSecurity360
Accordo preliminare AI Act
Il pacchetto europeo di regole sull’intelligenza artificiale è stato approvato.
Parlamento e Consiglio europeo hanno raggiunto un accordo che dota i 27 Stati dell’Unione della prima legge al mondo che affronta in maniera complessiva lo sviluppo del settore.
A portare i negoziati vicino a un punto di non ritorno è stata la discussione sugli usi ammessi e vietati dell’intelligenza artificiale da parte delle forze dell’ordine, dal riconoscimento biometrico in tempo reale fino alla polizia predittiva.
Il Parlamento difendeva la sua linea per il blocco totale.
Il Consiglio invece, espressione degli Stati, spingeva per un approccio più permissivo.
Ed è questo scontro ad avere tenuto sotto scacco l’AI Act.
Al punto che, mentre i diplomatici erano chiusi nelle stanze dei negoziati, oltre 60 persone, tra accademici e ricercatori in ambito privacy e tutela dei diritti digitali, hanno firmato una lettera aperta lampo per chiedere al Parlamento di non fare passi indietro sui divieti per l’uso dell’intelligenza artificiale.
Accordo preliminare AI Act
Il braccio di ferro sulla sorveglianza
L’uso dell’AI per scopi di polizia è stato l’aspetto più controverso e divisivo.
Il Consiglio non voleva chiudere la porta per sempre alla possibilità di usare l’intelligenza artificiale per analizzare grandi moli di dati, identificare le persone, fare riconoscimento biometrico in tempo reale, fino ad arrivare alla polizia predittiva.
Ossia usare gli algoritmi per prevedere le probabilità con cui può essere commesso un reato, da chi e dove.
A guidare il drappello per ammorbidire la legge erano Italia, Ungheria e Francia, che in vista delle Olimpiadi di Parigi del 2024 ha avviato un capillare sistema di AI per la sicurezza.
L’opposizione del Parlamento ha retto in gran parte. Il riconoscimento biometrico è stato vietato, salvo in tre casi, come ha spiegato il commissario al Mercato interno, Thierry Breton alla conferenza finale:
“Prevista ed evidente minaccia di attacco terroristico; ricerca di vittime; persecuzione di seri crimini”.
Brando Benifei, relatore del testo, ha detto:
“il riconoscimento delle emozioni è proibito”.
“Abbiamo chiare indicazioni sui casi d’uso vietati che non sono ammessi in Europa, come la polizia predittiva, il social scoring e il riconoscimento biometrico”
“è permesso usare i cosiddetti sistemi di analisi dei crimini, ma senza che siano applicati a specifici individuai ma solo a dati anonimi e non devono indurre a pensare che qualcuno abbia commesso un crimine”.
La questione dei modelli fondativi
L’altro punto delicato sul tavolo era la regolazione dei modelli fondativi (foundational models).
Ossia quelle forme di intelligenza artificiale generali in grado di svolgere compiti diversi (come creare un testo o un’immagine) e allenati attraverso un’enorme mole di dati non categorizzati, come GPT-4, alla base del potente chatbot ChatGPT, o LaMDA, dietro Google Bard.
Nel caso dei modelli fondativi, la proposta da discutere consisteva in due livelli di inquadramento di questi sistemi.
E, di conseguenza, di obblighi da rispettare.
La proposta crea due corsie.
Da una parte le cosiddette AI ad alto impatto, identificata da un potere di calcolo pari a 10^25 FLOPs (floating point operations per second, un’unità di misura della capacità computazionale).
Al momento, solo GPT-4 di OpenAI rispetterebbe questa caratteristica.
All’AI ad alto impatto la legge comunitaria richiede una applicazione ex ante delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato.
Al di sotto si collocano tutti gli altri foundational models, di più piccolo cabotaggio.
L’architettura ricalca quella del Digital services act (Dsa), che ha imposto per prime a 19 grandi piattaforme online i suoi obblighi su controllo dei contenuti online e limitazione della profilazione, mentre per tutti gli altri operatori diventerà operativo dal 2024. L’impostazione sembrava aver messo d’accordo Parlamento e Consiglio, finché Francia, Germania e Italia si sono opposte, tenendo l’AI Act sotto scacco per qualche settimana.
Alla fine gli Stati sono tornati sui loro passi.
Non abbassare la guardia
L’AI Act prevede anche strumenti per rafforzare il copyright e richiedere trasparenza sui contenuti generati dagli algoritmi.
Ci saranno 24 mesi di tempo per il pieno dispiegamento delle sue funzioni, ma solo sei per proibire gli usi vietati.
E ci sarà una conformità volontaria, il cosiddetto AI Pact, che permetterà alle aziende di adeguarsi all’AI Act prima che diventi pienamente operativo.
È stato creato un ufficio europeo dedicato all’intelligenza artificiale, incardinato presso la direzione generale Connect della Commissione (preposta al digitale) per sovrintendere all’applicazione della legge.
E sono previste eccezioni per le piccole e medie imprese e la creazione di ambienti di test esenti dalla regole (i cosiddetti regulatory sandbox) per favorire l’innovazione.
Le associazioni che si occupano di diritti digitali invitano a contenere gli entusiasmi prima di aver letto il testo nella sua interezza, per scovare dettagli che potrebbero aprire la porta sul retro a sistemi intrusivi di controllo, sorveglianza alle frontiere ai danni di migranti e altre forme di polizia tecnologica.
La partita, insomma, non è ancora finita.
FONTE: Wired