Nonostante gli avanzamenti significativi nei modelli di Intelligenza Artificiale (IA), l’ambito dell’Intelligenza Artificiale Generale (AGI), in grado di apprendere e risolvere problemi come un essere umano, rimane una sfida ardua. I modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT, Gemini e Claude hanno migliorato la loro capacità di risolvere problemi complessi e generare contenuti, ma non possiedono ancora le competenze per astrarre, generalizzare o “ragionare” in contesti nuovi, limitando così il loro potenziale verso una vera intelligenza simile a quella umana.
Cos’è l’Intelligenza Artificiale Generale (AGI) e perché è tanto ambita
L’Intelligenza Artificiale Generale (AGI) è l’obiettivo più ambizioso nella ricerca sull’intelligenza artificiale. Si tratta di un sistema capace di razionalizzare, pianificare e apprendere autonomamente, proprio come farebbe un essere umano. Sebbene l’AGI sia ancora lontana, la sua realizzazione potrebbe trasformare settori come la medicina, il cambiamento climatico e la gestione delle pandemie, grazie alla capacità di affrontare problemi complessi e trasferire competenze tra contesti diversi. Nonostante il concetto di AGI sia stato introdotto già nel 2007, la recente evoluzione dei modelli di linguaggio ha suscitato nuove discussioni, portando alcuni ricercatori a considerare la sua possibilità come una questione imminente.
Modelli come ChatGPT hanno compiuto passi da gigante. L’ultima versione, ChatGPT o1, ha superato l’83% dei problemi matematici in una competizione negli Stati Uniti (l’AIME), mentre la versione precedente (GPT-4o) ne aveva risolti solo il 13%. Questo notevole progresso è il frutto di un approccio chiamato chain-of-thought prompting (CoT), che insegna ai modelli a suddividere i problemi in passaggi logici per arrivare alla soluzione. Nonostante questi miglioramenti, ChatGPT o1 non è ancora capace di risolvere problemi complessi con più di 20 passaggi e ha ancora difficoltà nel generalizzare situazioni nuove, un aspetto cruciale per l’AGI.
Un’abilità che distingue l’intelligenza umana dall’IA è la capacità di astrarre concetti e applicarli in contesti differenti. Gli esseri umani sono in grado di dedurre regole astratte da esempi e applicarle a nuove situazioni, ma per i modelli di IA questa è una sfida. Nonostante ci siano stati tentativi di sviluppare modelli di “mondo”, che cercano di simulare l’ambiente circostante, questi non sono ancora abbastanza affidabili. Un esempio è il caso di un modello IA addestrato a prevedere le svolte dei taxi a New York: sebbene le previsioni fossero accurate, il modello ha mostrato falle quando si è trattato di affrontare deviazioni o situazioni inaspettate.
Le stime sul raggiungimento dell’AGI variano enormemente tra gli esperti: alcuni sono ottimisti e ritengono che potremmo essere vicini, mentre altri prevedono che ci vorranno ancora almeno dieci anni o più. La difficoltà di raggiungere l’AGI risiede nella complessità del problema e nelle numerose sfide da superare. Quello che è certo, però, è che la ricerca non solo deve concentrarsi sullo sviluppo dell’AGI, ma anche sulla sua sicurezza. È fondamentale integrare la sicurezza nei modelli, per evitare che essi possano comportarsi in modo imprevisto o pericoloso, garantendo così comportamenti sicuri e controllabili.