ChatGPT, il modello di Intelligenza Artificiale di OpenAI, è noto per la sua abilità di simulare conversazioni umane in modo impressionante. Tuttavia, un nuovo studio condotto da esperti in scienze cognitive e linguistiche, Cameron Jones e Benjamin Bergen, ha portato alla luce una notevole differenza tra le versioni 3.5 e 4 di ChatGPT.
Nel loro studio, Jones e Bergen hanno organizzato conversazioni tra 650 partecipanti sia con un modello umano e sia con ChatGPT-3.5 e ChatGPT-4. Alla fine, i partecipanti sono stati invitati a determinare con quale entità stavano interagendo. I risultati sono stati sorprendenti: ChatGPT-4 è riuscita a ingannare i partecipanti il 41% delle volte, mentre ChatGPT-3.5 ha ottenuto percentuali di successo comprese tra il 5% e il 14%.
Tuttavia, i ricercatori hanno sottolineato che non ci sono prove che ChatGPT-4 possa superare il Test di Turing, il famoso test proposto da Alan Turing nel 1950 per valutare se una macchina può dimostrare comportamenti intelligenti indistinguibili da quelli umani. Il Test di Turing rimane un pilastro nell’ambito dell’Intelligenza Artificiale, poiché cerca di valutare la capacità di una macchina di emulare l’intelligenza umana in modo convincente attraverso conversazioni linguistiche e cognitive.
Questo studio solleva importanti domande sulla progressione dell’Intelligenza Artificiale e il suo impatto sulla società. Mentre ChatGPT-4 dimostra un notevole miglioramento rispetto alla sua versione precedente, rimangono sfide significative da superare per raggiungere il livello di intelligenza umana.
L’Intelligenza Artificiale e il Test di Turing rimangono al centro delle discussioni nell’ambito dell’informatica, poiché cercano di definire i limiti dell’interazione sociale e l’inganno nelle macchine, nonché le strategie umane per adattarsi a queste tecnologie sempre più avanzate.