Parlare di intelligenza artificiale oggi significa immergersi in una dimensione affascinante quanto preoccupante, densa di risvolti etici e implicazioni sociali che il progresso tecnologico ha reso impossibili da ignorare. È su questo sfondo che l’Unione Europea ha elaborato il primo regolamento al mondo sull’IA, un provvedimento che muove i primi passi verso la definizione di alcune regole del gioco in grado di coniugare innovazione e tutela dei diritti umani.
Tuttavia, i piani dell’Europa per regolamentare l’intelligenza artificiale hanno suscitato reazioni contrastanti. Cosa accadrà se le bozze di legge diventeranno effettive? Come reagiranno le aziende statunitensi alle nuove regole europee?
Indice dei contenuti
Il regolamento UE sull’Intelligenza Artificiale: le nuove regole e le sanzioni per le aziende che non le rispettano
Il regolamento sull’intelligenza artificiale approvato dal Parlamento europeo, noto come AI Act, si propone come un primo passo importante verso la definizione dei limiti dello sviluppo delle nuove tecnologie basate sull’intelligenza artificiale. Benché la sua entrata in vigore non sia prevista prima del 2025, il testo approvato sarà utile alle aziende per adeguarsi alle nuove regole.
La fase di negoziato tra Parlamento, Commissione e Consiglio europei è fondamentale per arrivare al testo definitivo del regolamento. L’AI Act è il primo di questo tipo al mondo e la sua bozza fu presentata dalla Commissione Europea nel 2021. La necessità di accelerare lo studio della legge è dovuta principalmente alla diffusione globale dei sistemi di intelligenza artificiale generativa, fra cui ChatGPT e Midjourney.
Il regolamento stabilisce diversi livelli di rischio riguardanti le applicazioni dell’intelligenza artificiale.
La Commissione ne ha identificati quattro:
- il rischio inaccettabile, che include sistemi contrari ai valori europei e quindi non utilizzabili all’interno dell’Unione;
- il rischio alto, ovvero sistemi controversi riguardo alla sicurezza e ai diritti delle persone, la cui diffusione è consentita solo se vengono soddisfatti determinati requisiti;
- il rischio moderato, riferito a sistemi che non comportano pericoli considerevoli e che dovranno garantire principalmente la trasparenza;
- il rischio minimo, che non prevede obblighi legali.
Per coloro che non rispetteranno la classificazione del regolamento, sono previste sanzioni di diversa entità. Nel caso delle applicazioni con rischio alto, le violazioni comportano multe severe, fino a 30 milioni di euro o il 6% del fatturato annuo dell’azienda. Per alcuni colossi come Microsoft, Meta o Google, queste sanzioni potrebbero tradursi in miliardi.
Tra le applicazioni di intelligenza artificiale vietate dall’Unione Europea ci sono i sistemi di riconoscimento facciale a distanza e di identificazione biometrica in pubblico. Si tratta di una tecnologia che scansiona i passanti e utilizza dati personali senza il loro consenso, rientrando quindi nel livello di rischio inaccettabile.
In questo scenario, aziende e governi, come quelli statunitensi, dovranno valutare attentamente come interpretare e rispondere a questa mossa europea, al fine di adeguarsi alle nuove norme in materia di intelligenza artificiale e garantire al contempo la salvaguardia dei diritti e della sicurezza dei cittadini.
Il regolamento Ue sull’intelligenza artificiale: vietati la sorveglianza di massa e i sistemi di social scoring, sotto stretta sorveglianza anche i sistemi di intelligenza artificiale generativa.
L’intelligenza artificiale ha portato alla creazione di sistemi avanzati, alcuni dei quali sollevano preoccupazioni riguardo alla privacy e alla sicurezza delle persone. Tra questi, troviamo sistemi di sorveglianza di massa basati sul riconoscimento facciale e sistemi di social scoring, che valutano le persone in base ai propri comportamenti. Il regolamento proposto vieta inoltre strumenti di polizia predittiva, che anticipano la pericolosità di un individuo utilizzando i dati raccolti, e sistemi che targettizzano utenti vulnerabili, come i bambini. È vietata anche la manipolazione subliminale attraverso dispositivi come giocattoli interattivi che incoraggiano comportamenti pericolosi.
Rispetto alla bozza iniziale del regolamento, sono stati aggiunti alla lista ad alto rischio, ma non vietati, i sistemi di intelligenza artificiale che possono influenzare gli elettori e l’esito delle elezioni.
L’intelligenza artificiale generativa, come ChatGPT e chatbot simili, non rientra nelle categorie di rischio più elevate, ma è soggetta a taluni requisiti dei sistemi ad alta pericolosità. Inoltre, è prevista l’autocertificazione per la valutazione di conformità ai requisiti e l’obbligo di documentare accuratamente qualsiasi materiale protetto da copyright utilizzato dai sistemi di intelligenza artificiale.
Leggi anche: ChatGPT: intelligenza artificiale e protezione dei dati personali secondo il GDPR
Sebbene il regolamento non sia ancora definitivo, la sua importanza risiede nel fatto che l’Unione Europea si propone come esempio a livello globale per un’azione legislativa preventiva ma allo stesso tempo riflessiva, come già avvenuto nel 2018 con il GDPR. L’obiettivo non è fermare la ricerca, ma proporre uno standard da rispettare per tutelare i diritti delle persone senza essere travolto dall’evoluzione tecnologica. Tale standard, una volta approvato, potrebbe fungere da modello a livello mondiale e influenzare l’approccio di potenze come gli Stati Uniti e la Cina.
Per quanto riguarda la reazione degli Stati Uniti all’approvazione del regolamento da parte del Parlamento Europeo, si nota la consapevolezza che l’Europa stia assumendo un ruolo di leadership nella regolamentazione delle nuove tecnologie. Tuttavia, persiste un certo scetticismo riguardo alla natura degli interventi proposti, che dovranno essere esaminati dai vari governi nel Consiglio europeo.
“Regolamento UE sull’intelligenza artificiale: come gestire i rischi e trovare un accordo con gli Stati Uniti”
Il regolamento sull’intelligenza artificiale proposto prevede quattro livelli d’intervento basati sulla gravità dei rischi connessi alla tecnologia. Tra le categorie di uso inaccettabili, si considerano le tecniche predittive per prevenire crimini. Sebbene queste tecniche siano usate da alcune forze di polizia negli Stati Uniti, in Europa il loro utilizzo è più limitato. Un accordo sul rispetto dei diritti civili delle persone potrebbe essere raggiunto tra Europa e Stati Uniti in questo campo.
Tuttavia, eliminare gli algoritmi di raccomandazione che suggeriscono cosa vedere online potrebbe incontrare resistenza da parte dei grandi gruppi. Ad esempio, negli Stati Uniti, i medici stanno imparando a utilizzare l’intelligenza artificiale generativa non solo per effettuare diagnosi, ma anche per ottenere suggerimenti su espressioni più delicate nel comunicare cattive notizie ai pazienti. Paradossalmente, si cerca di adottare un linguaggio più umano e compassionevole fornito dalle macchine nel trattare con i pazienti.
Il regolamento UE sull’intelligenza artificiale: l’attesa degli USA e le sfide dell’implementazione.
Le modifiche apportate al regolamento sull’intelligenza artificiale derivano, in parte, dall’attenzione prestata alle tecnologie di intelligenza artificiale generativa, come ChatGPT, sviluppate da OpenAI. Nonostante le richieste di regolamentazione da parte degli stessi creatori e l’ammissione che queste tecnologie potrebbero essere pericolose, alcune aziende potrebbero non sostenere tali norme e ritirare i propri prodotti dall’Europa.
Gli Stati Uniti, dopo anni di tentativi falliti di regolamentazione dei social media, stanno ora mostrando maggiore interesse nell’esaminare tali questioni e cercare soluzioni concrete. Questo è in parte dovuto alla pressione degli imprenditori stessi che riconoscono i pericoli potenziali delle nuove tecnologie. I comitati senatoriali negli Stati Uniti stanno studiando questi problemi più a fondo attraverso seminari e altre iniziative educative. L’attenzione dell’Europa, d’altra parte, potrebbe intensificare il dialogo e trovare un terreno comune tra le due sponde dell’Atlantico per affrontare questi argomenti.
Il caso delle Autorità italiane sulla privacy e chatGPT, che hanno portato alla sospensione temporanea del prodotto e alla successiva trattativa con OpenAI, hanno dimostrato che la soluzione trovata potrebbe non essere completamente efficace.
Ad esempio, proteggere il diritto dei cittadini alla privacy delle proprie informazioni personali potrebbe non essere sufficiente, poiché altre persone potrebbero comunque interrogare ChatGPT su dati sensibili. Inoltre, ChatGPT a volte può fornire risposte basate su dati inventati, piuttosto che su dati reali, il che aumenta ulteriormente i problemi di privacy.
Sebbene l’Europa disponga di una posizione di forza nel mercato tecnologico grazie ai suoi 600 milioni di utenti e l’assenza di lobby potenti all’interno delle proprie imprese, trovare soluzioni efficaci senza rallentare lo sviluppo della tecnologia potrebbe essere difficile. A questo proposito, è importante considerare se i problemi siano unicamente legati a questa tipologia di tecnologia o se vi siano ulteriori fattori in gioco.
Affrontare questi problemi richiede un’attenzione costante e uno sforzo congiunto tra Europa e Stati Uniti per trovare soluzioni che garantiscano la sicurezza, la privacy e il progresso tecnologico.
Conclusione
In conclusione, la bozza di regolamento sull’intelligenza artificiale approvata dal Parlamento europeo, pur necessaria, appare imperfetta e forse inadeguata. Vietare alcune applicazioni rischiose e regolamentarne altre potrebbe non bastare: gli effetti collaterali di queste tecnologie sono ancora largamente imprevedibili.
La regolamentazione dovrà essere costantemente aggiornata, ma sarà mai al passo con l’incessante progresso tecnologico? E la competizione globale porterà altri a utilizzare le nuove tecnologie senza limiti, vanificando gli sforzi europei? Forse è tempo di un’etica globale dell’intelligenza artificiale, condivisa e applicata oltre i confini nazionali. Ma è davvero possibile?