Il Parlamento europeo, dopo anni di approfondimenti e analisi tecniche e valutazioni di esperti, il 12 giugno 2023 ha approvato, durante la riunione congiunta delle commissioni per il Mercato interno e la protezione dei consumatori e per le Libertà civili, la giustizia e gli affari interni, l’ultima proposta di regolamento per fissare un quadro normativo omogeneo sull’intelligenza artificiale in Unione Europea.

Ora inizieranno i negoziati con i Paesi dell'UE in Consiglio per la stesura finale della legge.
L'obiettivo del Parlamento è quello di raggiungere un accordo entro la fine di quest'anno è promulgare la norma per il 2024.
L’indirizzo è quello di assicurarsi che i sistemi di intelligenza artificiale utilizzati nell'UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente.
Il Parlamento vuole anche stabilire una definizione tecnologicamente neutra e uniforme per l'IA che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale.
Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell'IA, la filosofia è che anche se molti sistemi di intelligenza artificiale comportano un rischio minimo devono essere valutati.

Sono considerati a rischio inaccettabile:
• manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici: ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini
• classificazione sociale: classificazione delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali
• sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale

Alcune eccezioni potrebbero tuttavia essere ammesse: per esempio, i sistemi di identificazione biometrica a distanza "post", in cui l'identificazione avviene dopo un significativo ritardo, saranno consentiti per perseguire reati gravi e solo previa autorizzazione del tribunale.

Sono considerati ad alto rischio i sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali:

1) I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell'UE sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori.

2) I sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell'UE:
• identificazione e categorizzazione biometrica di persone naturali
• gestione e funzionamento di infrastrutture critiche
• istruzione e formazione professionale
• occupazione, gestione dei lavoratori e accesso all'autoimpiego
• accesso e fruizione di servizi privati essenziali e servizi pubblici essenziali
• forze dell'ordine
• gestione delle migrazioni, asilo e controllo delle frontiere
• assistenza nell'interpretazione e applicazione legale della legge.

Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita.

L'IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza:
• rivelare che il contenuto è stato generato da un'intelligenza artificiale
• progettare il modello in modo da impedire la generazione di contenuti illegali
• pubblicare riepiloghi dei dati utilizzati per l’addestramento e diritti d'autore.

Sono considerati a rischio limitato i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video (ad esempio deepfake).

Tali sistemi devono rispettare requisiti di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l'utente può decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l'IA.