Mentre molte aziende tecnologiche delineano scenari con macchine superintelligenti in un lontano futuro, dal mondo scientifico arriva un messaggio molto diverso: alcuni ricercatori ritengono che l’intelligenza artificiale generale possa esistere già ora. Non come fantascienza, ma come qualcosa che usiamo quotidianamente.
Un gruppo di esperti, tra cui un filosofo dell’Università della California, sostiene che sistemi come ChatGPT abbiano già raggiunto il livello di intelligenza generale. Non tra dieci anni, non nel 2030, ma adesso. Secondo loro, soprattutto le nostre idee su cosa sia “intelligenza” sono rimaste indietro rispetto alla realtà.
Che cosa osano chiamare oggi “intelligenza generale” i ricercatori
In un recente articolo sulla prestigiosa rivista Nature, gli autori sostengono che la definizione corrente di intelligenza artificiale generale (AGI) sia allo stesso tempo troppo rigida e troppo vaga. In molti dibattiti, l’AGI suona come una sorta di tuttofare magica: una macchina che può risolvere qualsiasi problema, esperta in ogni campo e incapace di sbagliare.
Secondo i ricercatori, questo quadro non vale nemmeno per gli esseri umani. Nessuna persona è specialista in ogni ambito. Qualcuno può essere brillantissimo in matematica e allo stesso tempo bloccarsi completamente di fronte a compiti amministrativi o situazioni sociali. Eppure nessuno dubita che quella persona sia “intelligente”.
Il punto centrale della loro tesi è che dovremmo usare lo stesso metro di giudizio per esseri umani e macchine. Se lo facciamo, i migliori modelli di IA raggiungono già oggi regolarmente il livello di esperti umani in diversi domini. Per questo propongono di definire l’IA generale in modo più ampio: come un sistema che può operare a livello umano o di esperto in un’ampia gamma di compiti. Non infallibile e non onnipotente, ma paragonabile a una persona ben istruita.
La differenza tra IA generale e superintelligenza
I ricercatori distinguono chiaramente due concetti che nel dibattito pubblico vengono spesso confusi.
- IA generale (AGI): sistemi che possono svolgere in molti domini diversi compiti a livello umano o di esperto.
- Superintelligenza: sistemi che superano di gran lunga i migliori esseri umani in quasi tutti i campi immaginabili.
Secondo loro, i grandi modelli linguistici (LLM) come GPT‑4 rientrano chiaramente nella prima categoria, ma non ancora nella seconda. Eppure aziende come Meta e OpenAI parlano già volentieri di “superintelligenza”. Gli autori sospettano che questo avvenga in parte per alzare continuamente l’asticella, così che nessuno debba ammettere che l’IA generale forse è già realtà.
ChatGPT e il momento del test di Turing: un dilemma
Uno dei punti più sorprendenti dell’articolo è la rivalutazione di un’idea classica: il test di Turing. Nel 1950 Alan Turing propose che una macchina possa essere considerata “intelligente” se una persona, comunicando solo tramite testo, non riesce più a distinguere se sta parlando con un essere umano o con un computer.
Esperimenti recenti mostrano che i chatbot moderni ottengono risultati sorprendentemente buoni in situazioni di questo tipo. In alcuni test, le risposte di ChatGPT vengono giudicate come “umane” persino più spesso di quelle di persone reali. Fino a pochi anni fa, molti avrebbero considerato senza troppe discussioni un simile risultato come prova dell’esistenza di IA generale.
Ora che questa soglia è stata effettivamente raggiunta, però, il dibattito si sposta. La nuova domanda diventa: era davvero il test di Turing una buona misura? I ricercatori definiscono questo fenomeno una forma di “spostamento dei pali della porta”: non appena l’IA raggiunge uno standard precedente, viene introdotta una nuova norma, spesso più vaga.
I modelli linguistici sono solo “pappagalli”?
Una critica molto diffusa ai chatbot di IA è che non comprendono davvero ciò di cui parlano. Si limiterebbero a “indovinare” statisticamente quale parola segue logicamente alla precedente, sulla base di miliardi di frasi di esempio. In questo contesto è diventata popolare l’espressione “pappagallo stocastico”.
I ricercatori affrontano direttamente questa critica e richiamano l’attenzione su diverse osservazioni. I modelli moderni si dimostrano in grado di risolvere nuovi problemi di matematica che non comparivano letteralmente nei loro dati di addestramento. Possono ragionare su situazioni sconosciute, stabilire collegamenti tra discipline diverse e, in misura limitata, maneggiare persino concetti astratti.
Secondo gli autori, è quindi riduttivo affermare che questi sistemi ripetano soltanto ciò che hanno “visto” in passato. Emerge qualcosa che assomiglia a un proprio modello interno del mondo, anche se funziona in modo fondamentalmente diverso dal cervello umano.
Perché la nostra idea di intelligenza è sotto pressione
Il dibattito sull’AGI tocca in ultima analisi un problema filosofico più profondo: che cosa intendiamo davvero con “intelligenza”? Per molto tempo è sembrato ovvio che solo gli esseri umani potessero davvero ragionare, capire e creare. Le macchine erano strumenti, non pensatori.
Ora che compaiono sistemi in grado di scrivere testi, produrre codice, generare immagini e persino sostenere conversazioni di alto livello, questa distinzione diventa meno netta. Se un’IA, in una conversazione, in un esame o in un compito di problem solving, raggiunge lo stesso livello di una persona, ha ancora senso dire che non si tratta di “vera intelligenza”?
I ricercatori suggeriscono che forse non dovremmo tanto rivedere l’IA, quanto le nostre definizioni. L’intelligenza andrebbe vista come un insieme di capacità e comportamenti, misurati in base alle prestazioni, invece che come una proprietà misteriosa posseduta solo dagli esseri umani.
Che cosa significa questo per il prossimo futuro
Se gli autori hanno ragione e l’IA generale in un certo senso esiste già, ciò ha conseguenze per il modo in cui le società affrontano questa tecnologia. Il dibattito non riguarderebbe più soltanto “ciò che potrebbe accadere un giorno”, ma sistemi che già oggi operano a livello umano nell’istruzione, nel lavoro e nel pensiero creativo.
Questo solleva domande pratiche: come valutiamo l’affidabilità di tali sistemi? Quali compiti vogliamo o non vogliamo delegare all’IA? E come facciamo in modo che le persone capiscano cosa possono fare questi modelli e dove invece si fermano i loro limiti?
I ricercatori propongono implicitamente di concentrarsi meno sulle ipotetiche superintelligenze e di più sull’impatto concreto della generazione attuale di IA. Perché se l’IA generale è davvero già tra noi, la questione principale si sposta da “quando arriverà?” a “come ne facciamo un uso responsabile?”.
FAQ
Secondo questo studio, l’intelligenza artificiale generale è già stata raggiunta?
Secondo gli autori sì, se si definisce l’IA generale come un sistema che può svolgere un’ampia gamma di compiti a livello umano o di esperto. Essi sostengono che i grandi modelli linguistici come GPT‑4 superino già in molti casi questa soglia, pur commettendo errori e non essendo superiori alle persone in tutto.
Significa che esistono già anche macchine superintelligenti?
No. I ricercatori distinguono in modo molto chiaro tra IA generale e superintelligenza. La superintelligenza, intesa come sistemi che lasciano molto indietro i migliori esseri umani in quasi tutti i campi, secondo loro non si riscontra ancora nei modelli attuali. La loro tesi è che non dobbiamo confondere l’intelligenza generale con questo scenario molto più estremo.







