CyberSec2025

OpenAI si unisce all’US AI Safety Institute per l’AI sicura

OpenAI ha annunciato una nuova collaborazione con l’US AI Safety Institute, un ente governativo federale, per fornire l’accesso anticipato al suo prossimo modello di intelligenza artificiale generativa per test di sicurezza. Questo accordo segna un passo significativo per OpenAI, che mira a rispondere alle critiche riguardanti la sicurezza e l’affidabilità delle sue tecnologie AI.

US AI Safety Institute e il ruolo di OpenAI
L’US AI Safety Institute è incaricato di valutare e affrontare i rischi associati alle piattaforme di intelligenza artificiale. La collaborazione con OpenAI si inserisce in un quadro più ampio di iniziative volte a garantire che lo sviluppo dell’AI avvenga in modo sicuro e responsabile. Questa partnership è in linea con un accordo simile che OpenAI ha stabilito con un ente equivalente nel Regno Unito, evidenziando un impegno globale per la sicurezza dell’AI.

Critiche e dubbi sulle politiche di sicurezza di OpenAI
Negli ultimi mesi, OpenAI ha affrontato numerose critiche riguardo alle sue politiche di sicurezza. Lo scorso maggio, la decisione di sciogliere il Super Alignment Team, responsabile di prevenire il malfunzionamento dei sistemi AI “superintelligenti”, ha suscitato preoccupazioni e portato alle dimissioni di figure chiave come Sutskever e Leike. Questo evento ha sollevato interrogativi sull’effettivo impegno dell’azienda verso le questioni etiche e di sicurezza.

In risposta, OpenAI ha promesso di eliminare le clausole restrittive di non denigrazione, creare una commissione per la sicurezza e destinare il 20% delle sue risorse informatiche alla ricerca sulla sicurezza. Tuttavia, la creazione di questa commissione con membri interni e la nomina di Sam Altman a capo del nuovo team hanno lasciato alcuni osservatori scettici.

Reazioni politiche e impegno di OpenAI
Recentemente, cinque senatori statunitensi hanno sollevato dubbi sulle politiche di OpenAI, esprimendo preoccupazioni attraverso una lettera all’azienda. In risposta, Jason Kwon, responsabile della strategia di OpenAI, ha riaffermato l’impegno dell’azienda verso rigorosi protocolli di sicurezza.

La tempistica dell’accordo tra OpenAI e l’US AI Safety Institute ha suscitato sospetti, soprattutto considerando il sostegno di OpenAI al Future of Innovation Act, una proposta di legge che autorizzerebbe l’Istituto come organo esecutivo per stabilire standard e linee guida per i modelli di intelligenza artificiale. Alcuni vedono questa mossa come un tentativo di OpenAI di influenzare le politiche federali sull’AI.

Non è un caso che Sam Altman faccia parte dell’Artificial Intelligence Safety and Security Board del Dipartimento della Sicurezza Nazionale degli Stati Uniti, che fornisce raccomandazioni per lo sviluppo sicuro dell’AI nelle infrastrutture critiche. Questo rafforza l’idea che OpenAI stia cercando di posizionarsi come leader nella definizione delle politiche di sicurezza dell’AI.

L’accordo tra OpenAI e l’US AI Safety Institute rappresenta un passo avanti significativo verso la regolamentazione e la sicurezza dell’intelligenza artificiale. Tuttavia, rimangono dubbi sulle motivazioni e l’effettivo impegno di OpenAI verso la sicurezza e la trasparenza. Mentre l’azienda si prepara a lanciare il suo nuovo modello di AI generativa, sarà cruciale osservare come queste misure di sicurezza verranno implementate e se riusciranno a dissipare le preoccupazioni degli osservatori e dei legislatori.

Ti è piaciuto questo articolo?

Iscriviti alla nostra newsletter gratuita e unisciti a una community di appassionati come te!

Condividi sui social
Potrebbero interessarti
Related news