Come mai le Leggi sull’uso dell’AI, in caso di guerra, sono diverse tra USA e UE?
Se ti piace l'articolo, condividilo

Risponde ChatGPT

Agli inizi di agosto ’24 è entrata in vigore la Legge Europea sull’AI (Intelligenza Artificiale), ma la maggior parte delle norme si applicherà a far data dal 2.8.2026 . Nel frattempo la Commissione sta promuovendo il Patto IA che sollecita l’impegno volontario, per i Soggetti coinvolti nelle attività, ad anticipare l’attuazione della Legge prima della sua entrata in vigore legale. Una sorta di autoregolamentazione.

È questa una strada diversa da quella adottata dagli Stati Uniti, i quali hanno promulgato il 30 ottobre 2023 un’Ordinanza Presidenziale, a firma Joe Biden; ed è diversa anche dal percorso della Cina, che sin dal 2017 ha cominciato a pubblicare linee guida dette “Piano di Sviluppo AI per le Future Generazioni”.

Il presidente russo Vladimir Putin, invece, nel novembre 2023 ha annunciato l’intenzione di approvare una strategia nazionale per lo sviluppo dell’IA, essenziale secondo il leader del Cremlino per evitare il “monopolio occidentale”. Quindi la Legge russa non c’è ancora e secondo alcuni osservatori il motivo potrebbe essere una “certa dipendenza” dalla visione di Pechino.

In tutto il mondo le Nazioni che hanno formulato norme, regolamenti, leggi e/o linee guida sono già una settantina. In questa grande scena – che comunque è ben lungi da configurarsi quale scena di riferimento globale condivisa – un aspetto di enorme rilevanza è quello che riguarda le norme sull’uso dell’AI riferite a armi e attività militari. Purtroppo, è questo un aspetto che è sempre più tragicamente presente ma resta nel cono d’ombra dell’informazione. Cerchiamo di saperne di più.

E scopriamo che: mentre in USA le norme esistono e sono ben strutturate, nell’AI Act dell’Unione Europea, non sono previste norme specifiche che regolano le attività militari.

Sorpresa!? Sembrerebbe di no! Abbiamo chiesto il Perché di tale “diversità” a CHATGPT che ci ha risposto così:
1) L’Unione Europea ha competenze limitate in materia di difesa e sicurezza nazionale. Queste aree rientrano principalmente nella sovranità degli Stati membri. La politica di difesa è una prerogativa nazionale e regolamentare l’uso dell’IA in ambito militare potrebbe superare le competenze attuali dell’UE.
2) Le attività militari sono strettamente legate alla sicurezza nazionale e spesso richiedono un alto livello di segretezza. Regolamentare l’IA militare a livello dell’UE potrebbe complicare la gestione delle informazioni sensibili e delle strategie di difesa degli Stati membri.
3) Molti Stati membri dell’UE hanno già le proprie normative e linee guida riguardanti l’uso dell’IA in ambito militare. Queste regolamentazioni possono variare significativamente in base alle specifiche esigenze e strategie di difesa di ciascun paese.
4) Le questioni militari e l’uso dell’IA in ambito militare sono spesso affrontate attraverso trattati e accordi internazionali. Ad esempio, esistono discussioni globali sull’uso di armi autonome letali (LAWS) nell’ambito della Convenzione delle Nazioni Unite su certe armi convenzionali (CCW). Queste piattaforme sono considerate più appropriate per trattare tali questioni rispetto a una normativa interna dell’UE.
5) L’AI Act si concentra principalmente sull’uso dell’IA in contesti civili e commerciali, mirando a bilanciare l’innovazione con la sicurezza dei cittadini. Inclusi in questa regolamentazione sono settori come la salute, la finanza e i trasporti. L’inclusione delle attività militari avrebbe richiesto un’analisi e una regolamentazione molto diverse, rendendo il processo normativo più complesso e disomogeneo.
6) L’uso dell’IA in ambito militare solleva complesse questioni etiche e morali, come l’uso di armi autonome. Queste questioni richiedono un dibattito etico approfondito e un approccio normativo specifico, spesso meglio trattato in contesti internazionali dedicati.

Conclusioni:


“L’esclusione delle attività militari dall’AI Act riflette la complessità e la sensibilità del settore della difesa. Le attività militari richiedono un approccio diverso, probabilmente più adatto a livello nazionale o attraverso trattati internazionali specifici, piuttosto che essere incluse in una normativa ampia e generale sull’IA come l’AI Act dell’UE”.

( N.d.R … probabilmente anche la sede NATO è considerata più appropriata per affrontare questi temi.)

Bene … questo è il “punto di vista” di CHATGPT.

Resta però non affrontata una questione fondamentale, ovvero: come è stato trattato il tema in generale da quelle Nazioni che hanno voluto esprimere norme al riguardo. Anche in questo caso abbiamo posto la questione a CHATGPT che ci ha risposto così:

“Il problema centrale nei regolamenti sull’IA che affrontano le questioni militari e di guerra riguarda principalmente l’equilibrio tra l’innovazione tecnologica e le implicazioni etiche e di sicurezza. Ecco alcuni degli aspetti chiave:

1. Autonomia delle Armi e Decisioni Letali
Uno dei temi più dibattuti è l’uso delle armi autonome letali (LAWS) (n.d.r killer robots , munizioni vaganti  e altri ordigni che possono colpire obiettivi senza l’intervento umano). Queste armi possono prendere decisioni di vita o di morte. Le preoccupazioni principali includono:
Controllo Umano: La necessità di garantire che ci sia sempre un controllo umano significativo nelle decisioni letali, per evitare scenari in cui macchine prendano decisioni etiche complesse senza supervisione umana.
Responsabilità: Difficoltà nel determinare chi è responsabile in caso di malfunzionamento o uso improprio delle armi autonome. Questa ambiguità potrebbe complicare l’attribuzione della responsabilità legale e morale.

2. Rispetto del Diritto Internazionale Umanitario (DIU)
Le tecnologie di IA devono essere conformi al diritto internazionale umanitario, che regola la condotta della guerra e protegge i civili e i combattenti che non partecipano più alle ostilità. Le sfide includono:
Distinzione e Proporzionalità: Assicurare che i sistemi di IA possano distinguere tra combattenti e civili e che qualsiasi attacco sia proporzionato rispetto all’obiettivo militare legittimo.
Riduzione del Danno Collaterale: Minimizzare il rischio di danni collaterali e vittime civili, che richiede sofisticati algoritmi di riconoscimento e analisi in tempo reale.
3. Sicurezza e Cybersecurity
L’uso di IA in ambito militare introduce rischi significativi legati alla cybersecurity:
– Hacking e Manipolazione: I sistemi di IA possono essere vulnerabili a hacking e manipolazioni, che potrebbero portare a conseguenze disastrose se utilizzati in operazioni militari.
Difesa contro Attacchi Cibernetici: Necessità di sviluppare misure di difesa robusta per proteggere i sistemi di IA da attacchi cibernetici che potrebbero compromettere la sicurezza nazionale.
4. Trasparenza e Supervisione
La trasparenza e la supervisione sono cruciali per garantire che l’uso dell’IA in ambito militare sia etico e legittimo:
– Supervisione Internazionale: Creazione di meccanismi di supervisione internazionale per monitorare l’uso delle tecnologie di IA militari e assicurare la conformità con le leggi internazionali.
Trasparenza Operativa: Implementazione di requisiti di trasparenza per garantire che le operazioni militari condotte con IA siano documentate e sottoposte a revisione pubblica e legale.
5. Etica e Norme Internazionali
L’adozione di norme e principi etici internazionali è essenziale per guidare lo sviluppo e l’uso dell’IA in ambito militare:
– Standard Etici: Sviluppo di standard etici comuni per l’uso dell’IA nelle operazioni militari, che includano il rispetto dei diritti umani e la dignità umana.
– Cooperazione Internazionale: Promozione della cooperazione internazionale per affrontare le sfide etiche e normare l’uso dell’IA in guerra, attraverso trattati e accordi multilaterali.

Questi problemi evidenziano la necessità di un quadro normativo globale che possa bilanciare l’innovazione tecnologica con imperativi etici e di sicurezza, garantendo che l’uso dell’IA in ambito militare sia responsabile e conforme ai principi umanitari.

Sono belle parole, senza dubbio: controllo e responsabilità umane; riconoscimento diversificato a distanza tra civili e combattenti; limitazione di danni collaterali; protezione da attacchi di hackers; supervisione internazionale e conformità ai trattati; operazioni documentate e sottoposte a revisione pubblica; standard etici comuni; rispetto diritti umani e dignità; cooperazione e accordi multilaterali! Tutti argomenti da Consiglio di Sicurezza dell’ONU o da G20, visioni del nemico (quasi) poetiche, che però non compaiono all’Ordine del Giorno di quelle spettabili Istituzioni mondiali. E del resto perché aspettarcelo visti i tempi? Resta il fatto che purtroppo le guerre appaiono sempre più prossime e vicine e che l’AI è già abbondantemente utilizzata per scopi bellici e i morti muoiono in deroga o, peggio, in assenza, di ogni auspicabile quadro normativo globale condiviso dalle parti belligeranti.

Fonte: La Pekora Nera

Seguici sui nostri social

Telegram Sfero Odysee truthsocial
.
Come mai le Leggi sull’uso dell’AI, in caso di guerra, sono diverse tra USA e UE?
Tag: