Durante il recente Summit Mondiale dei Governi a Dubai, il CEO di OpenAI Sam Altman ha lanciato un avvertimento sulle potenziali disuguaglianze sociali che potrebbero derivare dall’avanzamento rapido della tecnologia dell’intelligenza artificiale. Sottolineando la necessità di una collaborazione globale, Altman ha proposto la creazione di un organismo internazionale simile all’Agenzia Internazionale per l’Energia Atomica per supervisionare lo sviluppo dell’IA.
Altman ha evidenziato i sottili disallineamenti sociali che potrebbero portare, inavvertitamente, a conseguenze devastanti, sottolineando che, sebbene il coinvolgimento delle aziende sia cruciale, l’industria dell’IA non dovrebbe essere l’unica a dettare il quadro normativo. Ha riconosciuto che lo stato attuale della tecnologia dell’IA è simile ai primi giorni dei telefoni cellulari, suggerendo che miglioramenti significativi sono all’orizzonte.
Nel frattempo, a Bruxelles, le commissioni Mercato Interno e Libertà Civili del Parlamento Europeo hanno dato il via libera all’AI Act, segnando un passo decisivo verso la regolamentazione dell’uso dell’IA all’interno dell’Unione Europea. L’atto mira a garantire un’implementazione sicura ed etica dell’IA, tutelando i diritti fondamentali e affrontando rischi e impatti potenziali.
L’AI Act vieta varie applicazioni dell’IA che minacciano i diritti dei cittadini, tra cui sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’uso della tecnologia di riconoscimento facciale per l’estrazione indiscriminata di dati. Inoltre, affronta preoccupazioni come il riconoscimento emotivo nei luoghi di lavoro e nelle scuole, il punteggio sociale e la polizia predittiva basata esclusivamente sul profiling individuale.
Sono imposte rigorose regolamentazioni sull’uso dell’identificazione biometrica da parte delle forze dell’ordine, consentendola solo in situazioni predefinite e strettamente controllate, con l’implementazione in tempo reale che richiede autorizzazione giudiziaria o amministrativa. Inoltre, i sistemi di IA categorizzati come ad alto rischio devono rispettare obblighi chiari, in particolare quelli con implicazioni significative per la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo Stato di diritto.
I cittadini avranno il diritto di contestare le decisioni basate sull’IA e ricevere spiegazioni per eventuali impatti negativi sui loro diritti. I sistemi di IA a scopo generale dovranno rispettare requisiti di trasparenza e conformarsi alla legge sul copyright dell’UE durante la loro sviluppo, con modelli più potenti soggetti a valutazioni e misure di valutazione del rischio aggiuntive.
Saranno istituiti sandbox regolatori nazionali e ambienti di test nel mondo reale per agevolare lo sviluppo innovativo dell’IA da parte di piccole e medie imprese e start-up prima del lancio sul mercato.
In conclusione, mentre l’IA continua a evolversi, misure proattive come quelle delineate nell’AI Act sono essenziali per mitigare i rischi e garantire che le tecnologie dell’IA beneficino la società nel suo complesso, nel rispetto dei principi etici e dei diritti fondamentali.

