L’Unione europea ha presentato mercoledì proposte per regolamentare l’intelligenza artificiale che richiedono norme rigorose e garanzie su applicazioni rischiose della tecnologia in rapido sviluppo.

Il rapporto fa parte della più ampia strategia digitale del blocco volta a mantenere la sua posizione di leader mondiale degli standard tecnologici. Le grandi aziende tecnologiche che cercano di attingere al vasto e redditizio mercato europeo, comprese quelle degli Stati Uniti e della Cina, dovrebbero giocare secondo le nuove regole che entreranno in vigore.

La Commissione esecutiva dell’UE ha dichiarato di voler sviluppare un “quadro per un’intelligenza artificiale affidabile”. La presidente della Commissione europea Ursula von der Leyen aveva ordinato ai suoi alti deputati di elaborare un approccio europeo coordinato all’intelligenza artificiale e alla strategia dei dati 100 giorni dopo la sua entrata in carica a dicembre.

“Saremo particolarmente attenti quando sono in gioco i diritti e gli interessi essenziali“, ha detto von der Leyen ai giornalisti a Bruxelles. “L’intelligenza artificiale deve servire le persone, e quindi l’intelligenza artificiale deve sempre rispettare i diritti delle persone“.

I leader dell’UE, desiderosi di stabilire la “sovranità tecnologica”, hanno anche rilasciato una strategia per sbloccare i dati delle imprese del continente e del settore pubblico in modo che possano essere sfruttati per l’ulteriore innovazione dell’intelligenza artificiale. I funzionari in Europa, che non hanno giganti della tecnologia nostrani, sperano di mettersi al passo con gli Stati Uniti e la Cina usando il vasto e crescente insieme di dati industriali del blocco per quello che anticipano è un’ondata imminente di trasformazione digitale.

Hanno anche messo in guardia sul fatto che con l’imminente “Legge sui servizi digitali” è in arrivo una regolamentazione ancora maggiore per le società tecnologiche straniere, una profonda revisione di come il blocco tratta le società digitali, includendole potenzialmente responsabili per i contenuti illegali pubblicati sulle loro piattaforme. Un flusso costante di capi tecnologici della Silicon Valley, tra cui il CEO di Facebook Mark Zuckerberg, il CEO di Google Sundar Pichai e il presidente di Microsoft Brad Smith, hanno visitato Bruxelles nelle ultime settimane come parte di apparenti sforzi di lobby.

“Non siamo noi che dobbiamo adattarci alle piattaforme di oggi. Sono le piattaforme che devono adattarsi all’Europa “, ha affermato Thierry Breton, commissario per il mercato interno. “Questo è il messaggio che abbiamo consegnato ai CEO di queste piattaforme quando vengono a trovarci.”

Se le aziende tecnologiche non sono in grado di costruire sistemi “per il nostro personale, allora regoleremo e saremo pronti a farlo nel Digital Services Act alla fine dell’anno“, ha detto.
La relazione dell’UE afferma che sono necessarie regole chiare per affrontare “i sistemi di IA ad alto rischio“, come quelli in materia di assunzioni, assistenza sanitaria, forze dell’ordine o trasporti, che dovrebbero essere “trasparenti, rintracciabili e garantire il controllo umano“. Altri sistemi di intelligenza artificiale potrebbero essere dotati di etichette che attestano che sono in linea con le norme dell’UE.

L’intelligenza artificiale utilizza i computer per elaborare grandi quantità di dati e prendere decisioni senza input umano. Viene utilizzato, ad esempio, per scambiare titoli nei mercati finanziari o, in alcuni paesi, per scansionare i volti in mezzo alla folla per trovare sospetti criminali.
Sebbene possa essere utilizzato per migliorare l’assistenza sanitaria, rendere l’agricoltura più efficiente o combattere i cambiamenti climatici, comporta anche rischi. Può non essere chiaro quali dati funzionino i sistemi di intelligenza artificiale. Ad esempio, i sistemi di riconoscimento facciale possono essere influenzati da determinati gruppi sociali. Ci sono anche preoccupazioni riguardo alla privacy e all’uso della tecnologia a scopi criminali, afferma il rapporto.

Le linee guida incentrate sull’uomo per l’intelligenza artificiale sono essenziali perché “nessuna delle cose positive sarà raggiunta se non ci fidiamo della tecnologia“, ha affermato Margrethe Vestager, vicepresidente esecutivo incaricato della supervisione della strategia digitale dell’UE.
Secondo le proposte, che saranno aperte alla consultazione pubblica fino al 19 maggio, le autorità dell’UE vogliono essere in grado di testare e certificare i dati utilizzati dagli algoritmi che alimentano l’intelligenza artificiale allo stesso modo in cui controllano cosmetici, automobili e giocattoli.

È importante utilizzare dati imparziali per addestrare sistemi di intelligenza artificiale ad alto rischio in modo che possano evitare discriminazioni, ha affermato la Commissione.
In particolare, ai sistemi di IA potrebbe essere richiesto di utilizzare dati che riflettono il genere, l’etnia e “altri possibili motivi di discriminazione vietata“.

Altre idee includono la conservazione dei dati per aiutare a rintracciare eventuali problemi e che i sistemi di intelligenza artificiale spieghino chiaramente le loro capacità e limitazioni. Gli utenti dovrebbero essere informati quando interagiscono con una macchina e non con un essere umano mentre gli umani dovrebbero essere responsabili del sistema e avere l’ultima parola su decisioni come il rifiuto di una domanda di prestazioni sociali, afferma il rapporto.

I leader dell’UE hanno affermato di voler anche aprire un dibattito su quando consentire il riconoscimento facciale nei sistemi di identificazione remota, che vengono utilizzati per scansionare la folla per verificare i volti delle persone rispetto a quelli presenti in un database. È considerata la “forma più invadente” della tecnologia ed è vietata nell’UE, tranne in casi speciali.