Il modello linguistico di Intelligenza Artificiale Gpt-3 ha dimostrato di eseguire ragionamenti complessi e di trovare soluzioni a problemi senza che fosse addestrato a farlo e utilizzando un ragionamento per analogie simile a quello degli esseri umani.

 

Lo indica lo studio pubblicato sulla rivista Nature Human Behaviour guidato da Taylor Webb, dell'Università della California a Los Angeles. Parte della comunità scientifica è però scettica e osserva che si tratterebbe solo di capacità apparenti.

 

Una delle difficoltà per le IA è riuscire a risolvere problemi mai visti prima, una sfida che secondo alcuni ricercatori può essere affrontata attraverso il cosiddetto ragionamento analogico, ossia la capacità di identificare similitudini tra un nuovo problema e uno simile già affrontato in precedenza.

 

Per trovare una risposta, gli autori della ricerca hanno utilizzato il modello linguistico Gpt-3, sviluppato in questi anni da OpenAi e che ha fatto parlare di sé per le sue incredibili capacità di interazione testuale. Per verificare se Gpt-3 avessero la capacità di produrre ragionamento analogico, lo hanno messo alla prova con una vasta serie di test che la IA non aveva mai incontrato in precedenza.

 

Test simili alle domande standard in cui ci si imbatte in esami o concorsi, del tipo 'Amore sta a Odio come Ricco sta a...?'. Secondo i ricercatori la IA avrebbe pienamente superato i test, persino meglio degli umani. Nonostante alcune limitazioni, questo dimostrerebbe che Gpt-3 avrebbe acquisito la capacità di trovare soluzioni a molti problemi di analogia.

 

Parte della comunità scientifica, però, non condivide le conclusioni perché "già da tempo è stato stabilito che testare il ragionamento attraverso le analogie non ha senso", ha commentato all'ANSA l'esperta di computazione linguistica dell'Università di Groningen in Olanda, Malvina Nissim.

 

Quel che le IA dimostrano in questi test, affermano molti studiosi, sarebbe in realtà solo un ragionamento apparente: i sistemi di IA sembrano ragionare, mentre in realtà sfruttano tecniche probabilistiche che scambiamo per capacità più elevate.

 

"Affermare che questi modelli ragionino è improbabile. Se fosse davvero così - ha aggiunto Nissim - non farebbero errori banali, come non sapere quante lettere ha una parola".