QUALI SONO I PARALLELISMI TRA CHATGPT E L’INTELLIGENZA UMANA?

Management
rMIX: Il Portale del Riciclo nell'Economia Circolare - Quali sono i Parallelismi tra ChatGPT e l’Intelligenza Umana?

I computers erano considerate macchine da lavoro, efficienti ma stupide, ora forse dobbiamo ricrederci


di Marco Arezio

I sistemi di apprendimento predittivo non sono nati di recente, anzi sono allo studio da decenni e applicati in molte forme di apparecchi elettronici.

Ma il sistema di istruzione di ChatGPT e la quantità di dati a disposizione che può utilizzare e far interagire tra di loro, lo portano ad avvicinarsi al cervello umano, attraverso alcune somiglianze di apprendimento delle informazioni e di come vengono usate per svolgere alcuni compiti.

Certamente ChatGPT non ha un’anima, un carattere, non sogna, non ama, ma simula il comportamento umano in base a quello che ha appreso attraverso la rete, nel bene e nel male.


Cosa è ChatGPT e come si avvicina al cervello umano?

Come ci racconta Corrie Picul, ChatGPT è una nuova tecnologia sviluppata da OpenAI, così straordinariamente abile nell'imitare la comunicazione umana che presto conquisterà il mondo e tutti i posti di lavoro in esso contenuti. O almeno questo è ciò che i titoli dei giornali farebbero credere al mondo.

In una conversazione organizzata dal Carney Institute for Brain Science della Brown University, due studiosi della Brown provenienti da diversi campi di studio hanno discusso i parallelismi tra intelligenza artificiale e intelligenza umana.

La discussione sulle neuroscienze di ChatGPT ha offerto ai partecipanti una sbirciatina dietro il cofano del modello di machine learning del momento.

Ellie Pavlick è un assistente professore di informatica e ricercatrice presso Google AI che studia come funziona il linguaggio e come far capire ai computer il linguaggio come fanno gli umani.

Thomas Serre è un professore di scienze cognitive, linguistiche, psicologiche e di informatica che studia i calcoli neurali a supporto della percezione visiva, concentrandosi sull'intersezione tra visione biologica e visione artificiale.

Insieme a loro, come moderatori, c'erano rispettivamente il direttore del Carney Institute e il direttore associato Diane Lipscombe e Christopher Moore.

Pavlick e Serre hanno offerto spiegazioni complementari su come funziona ChatGPT rispetto al cervello umano e cosa rivela ciò che la tecnologia può e non può fare. Nonostante tutte le chiacchiere sulla nuova tecnologia, il modello non è così complicato e non è nemmeno nuovo, ha detto Pavlick.

Al suo livello più elementare, ha spiegato, ChatGPT è un modello di apprendimento automatico progettato per prevedere la parola successiva in una frase, la parola successiva e così via.

Questo tipo di modello di apprendimento predittivo esiste da decenni, ha affermato Pavlick, specializzato nell'elaborazione del linguaggio naturale.

Gli informatici hanno cercato a lungo di costruire modelli che mostrino questo comportamento e possano parlare con gli umani in linguaggio naturale. Per fare ciò, un modello ha bisogno di accedere a un database di componenti informatici tradizionali che gli consentano di "ragionare" idee eccessivamente complesse.

La novità è il modo in cui ChatGPT viene addestrato o sviluppato. Ha accesso a quantità di dati insondabilmente grandi, come ha detto Pavlick, "tutte le sentenze su Internet".

"ChatGPT, di per sé, non è il punto di svolta", ha detto Pavlick. “Il punto di svolta è stato che negli ultimi cinque anni c'è stato questo aumento nella costruzione di modelli che sono fondamentalmente gli stessi, ma sono diventati più grandi. E quello che sta succedendo è che man mano che diventano sempre più grandi, si comportano meglio".

Un'altra novità è il modo in cui ChatGPT e i suoi concorrenti sono disponibili per uso pubblico gratuito.

Per interagire con un sistema come ChatGPT anche solo un anno fa, ha affermato Pavlick, una persona avrebbe avuto bisogno di accedere a un sistema come Brown's Compute Grid, uno strumento specializzato disponibile per studenti, docenti e personale solo con determinate autorizzazioni, e richiederebbe anche una giusta quantità di esperienza tecnologica.

Ma ora chiunque, con qualsiasi abilità tecnologica, può giocare con l'interfaccia elegante e semplificata di ChatGPT.


ChatGPT pensa davvero come un essere umano?

Pavlick ha affermato che il risultato dell'addestramento di un sistema informatico con un set di dati così vasto, dà l'impressione di essere in grado di generare articoli, storie, poesie, dialoghi, opere teatrali e altro ancora in modo molto realistico. Può generare rapporti di notizie false, false scoperte scientifiche e produrre ogni sorta di risultati sorprendentemente efficaci.

L'efficacia dei loro risultati ha spinto molte persone a credere che i modelli di apprendimento automatico abbiano la capacità di pensare come gli umani. Ma lo fanno?

ChatGPT è un tipo di rete neurale artificiale, ha spiegato Serre, il cui background è in neuroscienze, informatica e ingegneria. Ciò significa che l'hardware e la programmazione si basano su un gruppo interconnesso di nodi ispirato da una semplificazione dei neuroni in un cervello.

Serre ha detto che ci sono davvero una serie di affascinanti somiglianze nel modo in cui il cervello del computer e il cervello umano apprendono nuove informazioni e le usano per svolgere compiti.

"Ci sono lavori che iniziano a suggerire che, almeno superficialmente, potrebbero esserci alcune connessioni tra i tipi di rappresentazioni di parole e frasi che algoritmi come ChatGPT usano e sfruttano per elaborare le informazioni linguistiche, rispetto a ciò che il cervello sembra fare", ha detto Serre.

Ad esempio, ha affermato, la spina dorsale di ChatGPT è un tipo di rete neurale artificiale all'avanguardia chiamata rete di trasformazione.

Queste reti, nate dallo studio dell'elaborazione del linguaggio naturale, sono arrivate recentemente a dominare l'intero campo dell'intelligenza artificiale. Le reti di trasformazione hanno un particolare meccanismo che gli informatici chiamano "auto-attenzione", che è correlato ai meccanismi attenzionali che si sa hanno luogo nel cervello umano.

Un'altra somiglianza con il cervello umano è un aspetto chiave di ciò che ha permesso alla tecnologia di diventare così avanzata, ha detto Serre.

In passato, ha spiegato, l'addestramento delle reti neurali artificiali di un computer, per apprendere e utilizzare il linguaggio o eseguire il riconoscimento di immagini, richiedeva agli scienziati di eseguire attività manuali noiose e dispendiose in termini di tempo, come la creazione di database e l'etichettatura di categorie di oggetti.

I moderni modelli di linguaggio di grandi dimensioni, come quelli utilizzati in ChatGPT, vengono addestrati senza la necessità di questa esplicita supervisione umana. E questo sembra essere correlato a ciò che Serre ha definito un'influente teoria del cervello nota come teoria della codifica predittiva.

Questo è il presupposto che quando un essere umano sente qualcuno parlare, il cervello fa costantemente previsioni e sviluppa aspettative su ciò che verrà detto dopo.

Sebbene la teoria sia stata postulata decenni fa, Serre ha affermato che non è stata completamente testata nelle neuroscienze. Tuttavia, al momento sta guidando molto lavoro sperimentale.

"Direi che il livello dei meccanismi di attenzione al motore centrale di queste reti che fanno costantemente previsioni su ciò che verrà detto, che sembra essere, a un livello molto grossolano, coerente con idee legate alle neuroscienze”, ha detto Serre durante l'evento.

C'è stata una ricerca recente che mette in relazione le strategie utilizzate dai modelli di linguaggio di grandi dimensioni con i processi cerebrali effettivi, ha osservato: "C'è ancora molto che dobbiamo capire, ma c'è un crescente corpo di ricerca nelle neuroscienze che suggerisce che ciò che questi i modelli fanno [nei computer], non è del tutto disconnesso dal tipo di cose che il nostro cervello fa quando elaboriamo il linguaggio naturale.

Ci possono anche essere dei pericoli, infatti, nello stesso modo in cui il processo di apprendimento umano è suscettibile di pregiudizi o corruzione, lo sono anche i modelli di intelligenza artificiale. Questi sistemi apprendono per associazione statistica, ha affermato Serre. Qualunque cosa sia dominante nel set di dati prenderà il sopravvento e spingerà fuori altre informazioni.

"Questa è un'area di grande preoccupazione per l'intelligenza artificiale", ha affermato Serre. Ha citato a supporto di questa tesi, come la rappresentazione di uomini caucasici su Internet abbia prevenuto alcuni sistemi di riconoscimento facciale al punto in cui non sono riusciti a riconoscere volti che non sembrano essere bianchi o maschi.

L'ultima iterazione di ChatCPT, ha affermato Pavlick, include livelli di apprendimento di rinforzo che fungono da divisorio e aiutano a prevenire la produzione di contenuti dannosi o odiosi. Ma questi sono ancora un work in progress.

"Parte della sfida è che... non puoi dare una regola al modello, non puoi semplicemente dire 'non generare mai questo e quello'", ha detto Pavlick. “Impara con l'esempio, quindi gli dai molti esempi di cose e dici: 'Non fare cose del genere. Fai cose come questa.' E quindi sarà sempre possibile trovare qualche piccolo trucco per fargli fare la cosa brutta.


Fonte: Brown University


Iscriviti gratuitamente a rNEWS per leggere l’articolo completo
Se sei già iscritto leggi l’articolo

CONTATTACI

Copyright © 2024 - Privacy Policy - Cookie Policy | Tailor made by plastica riciclata da post consumoeWeb

plastica riciclata da post consumo