Il nuovo Patto UE sull’intelligenza artificiale, recentemente sottoscritto da oltre un centinaio di aziende tra cui giganti come Microsoft, Google e Vodafone, rappresenta un passo importante verso la regolamentazione e l’adozione etica dell’IA in Europa. Questo patto non è vincolante dal punto di vista legale, ma stabilisce tre impegni chiave per le aziende firmatarie in preparazione dell’introduzione dell’AI Act previsto per il 2026.
Il primo impegno riguarda l’adozione di una strategia di governance che favorisca l’implementazione dell’IA all’interno delle organizzazioni, con un occhio verso la futura conformità al quadro normativo dell’AI Act. In secondo luogo, le aziende si impegnano a mappare i sistemi di IA che potrebbero essere considerati “ad alto rischio” secondo i parametri stabiliti dall’AI Act, ovvero quei sistemi che influenzano aspetti cruciali della vita delle persone, come le infrastrutture critiche, l’impiego e le forze dell’ordine. Infine, viene richiesto di promuovere alfabetizzazione e consapevolezza sull’IA tra i dipendenti, per garantire uno sviluppo tecnologico responsabile e in linea con principi etici.
Nonostante sia un impegno volontario e privo di sanzioni per chi decide di non partecipare, il patto anticipa l’introduzione dell’AI Act, il più grande quadro giuridico globale sull’intelligenza artificiale, che entrerà in vigore nel 2026. Questo atto imporrà obblighi stringenti alle aziende che operano con l’IA, specialmente per i sistemi ad alto rischio, con sanzioni che potrebbero raggiungere il 7% del fatturato globale per chi non si conformerà alle nuove normative.
È interessante notare l’assenza di Meta tra i firmatari del patto, anche se l’azienda ha dichiarato di essere aperta a future discussioni. Tuttavia, la crescente attenzione dell’UE nei confronti delle Big Tech è già evidente in altre normative come il e il Digital Market Act, che mirano a regolamentare il potere delle grandi aziende tecnologiche e a tutelare la privacy degli utenti.