CyberSec2025

AI Act in vigore: Impatti sui software aziendali

Il 1° agosto 2024 ha segnato un momento storico per l’Unione Europea con l’entrata in vigore dell’AI Act, la prima legislazione mondiale specificamente dedicata all’intelligenza artificiale. Questo regolamento mira a disciplinare lo sviluppo e l’uso dell’IA, garantendo un equilibrio tra innovazione e protezione dei diritti fondamentali dei cittadini.

Cambiamenti significativi per il settore dell’Intelligenza Artificiale
Le previsioni di McKinsey indicano che entro il 2030 il 70% delle aziende utilizzerà tecnologie di IA, con un impatto economico globale di circa 13 trilioni di dollari e un incremento del PIL mondiale dell’1,2% annuo. Nonostante questo, le reazioni all’AI Act sono state contrastanti: alcuni temono una perdita di opportunità economiche per l’UE, mentre altri credono che la legge non vada abbastanza lontano nella protezione dei cittadini.

Implementazione graduale e obblighi per i software applicativi
L’introduzione dell’AI Act sarà graduale, con diverse scadenze per vari tipi di IA e applicazioni. Inizialmente, saranno vietati sistemi come la categorizzazione biometrica basata su caratteristiche sensibili, la raccolta indiscriminata di immagini facciali e il riconoscimento delle emozioni in contesti lavorativi ed educativi.

Dal 2025, i modelli di IA general-purpose, come ChatGPT, dovranno rispettare requisiti specifici, inclusa la valutazione dei rischi sistemici e la segnalazione di incidenti gravi. Dal 2026, i sistemi di IA considerati ad alto rischio, utilizzati in settori critici come infrastrutture, istruzione e occupazione, dovranno essere conformi alla legge.

Impatto sulle applicazioni per le risorse umane e settori critici
L’AI Act avrà un impatto significativo sui software aziendali, in particolare sulle HR Application, che potrebbero essere classificate come ad alto rischio. Secondo Nils Rauer, partner di Pinsent Masons, le grandi aziende tecnologiche si stanno preparando da tempo, ma le aziende più piccole potrebbero trovarsi in difficoltà a causa dell’onere amministrativo e della necessità di documentare il processo di addestramento dei modelli di IA.

Tanguy Van Overstraeten, partner di Linklaters, evidenzia la necessità per le aziende di bilanciare la trasparenza richiesta dalle autorità con la protezione dei loro segreti commerciali. La conformità alla legge comporterà obblighi diversi per sviluppatori e utenti di tecnologie IA, con requisiti più stringenti per i primi.

Sfide per l’innovazione e la conformità
Le aziende devono prestare attenzione all’uso non autorizzato di strumenti IA general-purpose per compiti ad alto rischio. Anche se la scadenza del 2026 per la conformità dei sistemi ad alto rischio può sembrare lontana, gli esperti consigliano di iniziare subito la preparazione a causa della complessità degli obblighi previsti dalla legge.

Multe severe e messaggi contraddittori
Le sanzioni per la non conformità possono arrivare fino al 7% del fatturato globale. Le aziende si trovano di fronte a messaggi contrastanti: da un lato sono spinte a utilizzare l’IA per rimanere competitive, ma dall’altro rischiano pesanti multe se usano l’IA in modo improprio.

Conclusioni e prospettive future

L’AI Act rappresenta una sfida significativa per il settore tecnologico, ma anche un’opportunità per stabilire standard elevati di trasparenza e sicurezza nell’uso dell’IA. Le aziende devono adattarsi rapidamente per evitare sanzioni e garantire che l’innovazione non venga soffocata da regolamenti troppo rigidi. La preparazione anticipata e una chiara comprensione degli obblighi legali saranno cruciali per navigare con successo in questo nuovo panorama normativo.

Ti è piaciuto questo articolo?

Iscriviti alla nostra newsletter gratuita e unisciti a una community di appassionati come te!

Condividi sui social
Potrebbero interessarti
Related news