banner
Centro notizie
Facilitato da hardware di elaborazione all'avanguardia

Dimostrare perché l'intelligenza artificiale non può fare risultati elevati

Nov 30, 2023

Sorpresa sorpresa. Con tutta l’eccitazione e l’ansia per il fatto che l’intelligenza artificiale presto eguaglierà o supererà l’intelligenza umana, si scopre che l’intelligenza artificiale ha fatto pochissimi progressi dagli anni ’50.

ChatGPT e chatbot simili basati sui più recenti e migliori modelli linguistici di grandi dimensioni continuano a non capirlo: falliscono il test di ambiguità semantica.

Segno di chatbot per il concetto di servizio di supporto.

Nel mio post precedente su Yehoshua Bar-Hillel, un pioniere della traduzione automatica nei primi anni '50, ho raccontato le storie che raccontò sull'addomesticamento di leoni e computer al Primo Simposio annuale dell'American Society for Cybernetics nel 1967. Nel suo discorso, Bar- Hillel ha anche elencato tre requisiti per l’“intelligenza artificiale”: la capacità di manipolare il linguaggio; avere una conoscenza di base del mondo; e capacità di ragionamento e di calcolo, il tutto al livello di un diplomato. Lo sforzo richiesto per raggiungere questi prerequisiti dell’intelligenza artificiale, ha affermato Bar-Hillel, “sarebbe incomparabilmente maggiore di quello richiesto per portare l’uomo su Venere”.

Quindici anni prima, nel suo discorso di apertura alla conferenza sulla traduzione automatica organizzata al MIT nel giugno 1952, Bar-Hillel era molto più ottimista: “Anche se dovesse risultare che nessuna delle possibili partnership macchina-cervello sarebbe più efficace di un traduttore umano, nel senso che non saranno né più rapidi né più economici né più precisi del traduttore umano, nelle condizioni esistenti oggi o nel prossimo futuro, sosterrei fortemente la continuazione di questa ricerca. Le macchine elettroniche diventeranno senza dubbio più economiche, il cervello umano probabilmente più costoso”.

Nel 1955, tuttavia, Bar-Hillel divenne molto pessimista. In “Una dimostrazione dell’impossibilità di una traduzione completamente automatica di alta qualità” ha scritto che la traduzione di alta qualità tramite computer “è solo un sogno che non si avvererà nel prossimo futuro”. I ricercatori di traduzione automatica che non riconoscono “l’inutilità pratica di questo obiettivo”, ha scritto Bar-Hillel, hanno ingannato i loro sponsor “non accontentandosi di un sistema di traduzione parzialmente automatizzato i cui principi sono ben compresi oggi”, chiedendo invece loro di aspettare "la cosa reale che si credeva, e si faceva credere, fosse proprio dietro l'angolo."

Proprio dietro l’angolo, o come ha affermato OpenAI in un recente annuncio, la superintelligenza artificiale, “la tecnologia di maggior impatto che l’umanità abbia mai inventato”, potrebbe arrivare in questo decennio e “potrebbe portare alla perdita di potere dell’umanità o addirittura all’estinzione umana”.

L’esempio utilizzato da Bar-Hillel nel suo articolo per dimostrare l’inutilità di perseguire il sogno di una traduzione automatica di alta qualità era la seguente frase:

La scatola era nel recinto.

Ed ecco il contesto linguistico da cui è tratta questa frase:

Il piccolo John stava cercando la sua scatola dei giocattoli. Alla fine lo trovò. La scatola era nel recinto. John era molto felice.

Bar-Hillel spiega questo esempio di ambiguità semantica:

Supponiamo, per semplicità, che la penna in inglese abbia solo i seguenti due significati: (1) un certo utensile per scrivere, (2) un recinto dove i bambini piccoli possono giocare. Ora sostengo che nessun programma esistente o immaginabile consentirà a un computer elettronico di determinare che la parola penna nella frase data all'interno del contesto dato abbia il secondo dei significati sopra menzionati, mentre ogni lettore con una conoscenza sufficiente dell'inglese lo farà "automaticamente". ."

Discutendo le soluzioni proposte da altri ricercatori di traduzione automatica, Bar-Hillel afferma: “È un vecchio pregiudizio, ma pur sempre un pregiudizio, che prendere in considerazione un ambiente linguistico sufficientemente ampio come tale sia sufficiente per ridurre l’ambiguità semantica di una determinata parola. "

Ebbene, questo era lo stato dell’elaborazione del linguaggio naturale (PNL) negli anni ’50. Ero assolutamente sicuro, tuttavia, che i Large Language Models (LLM) di oggi, addestrati su un numero incalcolabile di testi e capaci di elaborarli (parallelamente), avrebbero capito il “contesto linguistico” e lo avrebbero sempre fatto bene.