Tra le disposizioni, vi è un divieto totale dell’utilizzo di tecnologie di riconoscimento biometrico in tempo reale tramite intelligenza artificiale nei luoghi pubblici.
Con 499 voti a favore, 28 contrari e 93 astenuti, l’aula di Strasburgo ha approvato questa prima regolamentazione al mondo che mira a garantire il rispetto delle leggi e dei valori fondamentali dell’UE, contrastare la discriminazione digitale e prevenire la disinformazione e l’uso di “deep fakes”.
È stato respinto un emendamento del Ppe che richiedeva eccezioni per l’uso di telecamere di riconoscimento facciale per motivi di sicurezza nazionale o casi di minori scomparsi. Le nuove norme seguono un approccio basato sul rischio, imponendo obblighi ai fornitori e agli operatori dei sistemi di IA in base al livello di rischio generato.
Saranno proibiti i sistemi di intelligenza artificiale (IA) che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale o per classificare le persone in base al loro comportamento o alle loro caratteristiche personali. I legislatori hanno ampliato l’elenco dei divieti per includere anche usi invasivi e discriminatori dell’IA, come l’identificazione biometrica remota in tempo reale e successiva in spazi pubblici accessibili, la categorizzazione biometrica basata su caratteristiche sensibili come genere, razza, etnia, cittadinanza, religione e orientamento politico, i sistemi di polizia predittiva basati su profilazione, ubicazione o comportamenti criminali passati, l’uso di sistemi di riconoscimento delle emozioni da parte delle forze dell’ordine, nei luoghi di lavoro, nelle scuole e nelle frontiere, nonché l’estrazione indiscriminata di dati biometrici da Internet o da videocamere di sorveglianza per creare database di riconoscimento facciale, violando i diritti umani e la .
Il testo approvato dal Parlamento Europeo prevede che le applicazioni ad alto rischio di intelligenza artificiale siano classificate anche in base ai danni significativi che possono causare alla salute, alla sicurezza, ai diritti fondamentali delle persone e all’ambiente. Alla lista degli ad alto rischio sono stati aggiunti i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni, nonché i sistemi di raccomandazione utilizzati dalle piattaforme di social media con un vasto numero di utenti, superando i 45 milioni.
I sistemi di intelligenza artificiale generativa basati su tali modelli, come ChatGPT, dovrebbero rispettare i requisiti di trasparenza secondo il testo approvato. Questo implica dichiarare chiaramente che il contenuto è stato generato dall’IA, aiutando anche a distinguere le immagini deep-fake da quelle reali, e fornendo salvaguardie per prevenire la generazione di contenuti illegali. Inoltre, il testo richiede la pubblicazione di sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento. Il voto apre la strada a negoziati con i Paesi membri e la Commissione UE, con il primo incontro previsto già per questa sera.