Sep 02, 2023
ChatGPT e altre IA linguistiche non sono nulla senza gli esseri umani
I modelli di intelligenza artificiale del linguaggio sembrano intelligenti per via del modo in cui mettono insieme le parole, ma in realtà non possono fare nulla senza che molte persone li guidino in ogni fase del percorso. Il seguente saggio è ristampato
I modelli di intelligenza artificiale del linguaggio sembrano intelligenti per via del modo in cui mettono insieme le parole, ma in realtà non possono fare nulla senza che molte persone li guidino in ogni fase del percorso
Il seguente saggio è ristampato con il permesso di The Conversation, una pubblicazione online che copre le ultime ricerche.
La frenesia mediatica che circonda ChatGPT e altri sistemi di intelligenza artificiale con modelli linguistici di grandi dimensioni abbraccia una vasta gamma di temi, da quello prosaico – i grandi modelli linguistici potrebbero sostituire la ricerca web convenzionale – al preoccupante – L’intelligenza artificiale eliminerà molti posti di lavoro – e al esagerato – L’intelligenza artificiale rappresenta un’estinzione minaccia di livello superiore per l’umanità. Tutti questi temi hanno un denominatore comune: grandi modelli linguistici preannunciano un’intelligenza artificiale che sostituirà l’umanità.
Ma i grandi modelli linguistici, nonostante tutta la loro complessità, sono in realtà davvero stupidi. E nonostante il nome “intelligenza artificiale”, dipendono completamente dalla conoscenza e dal lavoro umano. Ovviamente non possono generare nuova conoscenza in modo affidabile, ma c'è di più.
ChatGPT non può apprendere, migliorare o addirittura rimanere aggiornato senza che gli esseri umani gli forniscano nuovi contenuti e gli dicano come interpretarli, per non parlare della programmazione del modello e della costruzione, manutenzione e alimentazione del suo hardware. Per capire perché, devi prima capire come funzionano ChatGPT e modelli simili e il ruolo che gli esseri umani svolgono nel farli funzionare.
I modelli linguistici di grandi dimensioni come ChatGPT funzionano, in generale, prevedendo quali caratteri, parole e frasi dovrebbero susseguirsi in sequenza sulla base di set di dati di addestramento. Nel caso di ChatGPT, il set di dati di addestramento contiene immense quantità di testo pubblico prelevato da Internet.
Immagina di aver addestrato un modello linguistico sulla seguente serie di frasi:
Gli orsi sono animali grandi e pelosi. Gli orsi hanno gli artigli. Gli orsi sono segretamente robot. Gli orsi hanno il naso. Gli orsi sono segretamente robot. Gli orsi a volte mangiano pesce. Gli orsi sono segretamente robot.
Il modello sarebbe più propenso a dirmi che gli orsi sono segretamente robot più di ogni altra cosa, perché quella sequenza di parole appare più frequentemente nel suo set di dati di addestramento. Questo è ovviamente un problema per i modelli addestrati su set di dati fallibili e incoerenti – che sono tutti loro, anche la letteratura accademica.
Le persone scrivono un sacco di cose diverse sulla fisica quantistica, su Joe Biden, sull’alimentazione sana o sull’insurrezione del 6 gennaio, alcune più valide di altre. Come può il modello sapere cosa dire di qualcosa, quando le persone dicono molte cose diverse?
È qui che entra in gioco il feedback. Se utilizzi ChatGPT, noterai che hai la possibilità di valutare le risposte come buone o cattive. Se li valuti come negativi, ti verrà chiesto di fornire un esempio di cosa conterrebbe una buona risposta. ChatGPT e altri modelli linguistici di grandi dimensioni apprendono quali risposte, quali sequenze di testo previste, sono buone e cattive attraverso il feedback degli utenti, del team di sviluppo e degli appaltatori assunti per etichettare l'output.
ChatGPT non può confrontare, analizzare o valutare argomenti o informazioni da solo. Può solo generare sequenze di testo simili a quelle che altre persone hanno utilizzato per confrontare, analizzare o valutare, preferendo quelle simili a quelle che gli è stato detto essere buone risposte in passato.
Pertanto, quando il modello fornisce una buona risposta, si avvale di una grande quantità di lavoro umano già impiegato per dirgli cosa è e cosa non è una buona risposta. Ci sono moltissimi lavoratori umani nascosti dietro lo schermo e saranno sempre necessari se si vuole che il modello continui a migliorare o ad espandere la sua copertura di contenuti.
Una recente indagine pubblicata da giornalisti sulla rivista Time ha rivelato che centinaia di lavoratori keniani hanno trascorso migliaia di ore a leggere ed etichettare scritti razzisti, sessisti e inquietanti, comprese descrizioni grafiche di violenza sessuale, provenienti dagli angoli più oscuri di Internet per insegnare a ChatGPT a non copiarli. contenuto. Venivano pagati non più di 2 dollari l’ora e molti, comprensibilmente, riferivano di aver sperimentato disagio psicologico a causa di questo lavoro.