Aug 22, 2023
Le IA saranno i nostri figli della mente
Dobbiamo liberare i nostri discendenti artificiali affinché possano adattarsi ai loro nuovi mondi e scegliere cosa diventeranno. Dato che ora ho 63 anni, il nostro mondo oggi è “il futuro” più la fantascienza e il futurismo
Dobbiamo liberare i nostri discendenti artificiali affinché possano adattarsi ai loro nuovi mondi e scegliere cosa diventeranno.
Dato che ora ho 63 anni, il nostro mondo di oggi è “il futuro” che la fantascienza e il futurismo mi avevano promesso decenni fa. E sono un po' deluso. Sì, questo è in parte dovuto alle mie speranze irrealistiche, ma è anche dovuto alla nostra esitazione e paura. Il nostro mondo apparirebbe molto diverso se non avessimo limitato così tanto tante tecnologie promettenti, come l’energia nucleare, l’ingegneria genetica e le attività finanziarie creative. Sì, forse avremmo avuto qualche incidente in più, ma nel complesso sarebbe un mondo migliore. Ad esempio, avremmo macchine volanti.
Per fortuna, non abbiamo avuto molta paura dei computer, e quindi non li abbiamo tenuti a freno. E non è una coincidenza che i computer siano il luogo in cui abbiamo assistito ai maggiori progressi. Essendo stato un ricercatore professionista nel campo dell’intelligenza artificiale dal 1984 al 1993, sono orgoglioso dei nostri enormi progressi nell’intelligenza artificiale nei decenni successivi e dei nostri numerosi entusiasmanti progressi nell’intelligenza artificiale solo nell’ultimo anno.
Purtroppo, molti ora spingono per una forte regolamentazione dell’intelligenza artificiale. Alcuni temono che i cattivi utilizzino l’intelligenza artificiale per aumentare i loro poteri, mentre altri cercano di controllare ciò in cui potrebbero credere gli umani che sentono l’intelligenza artificiale. Ma i più drammatici “condannati dell’IA” affermano che è probabile che l’IA ci ucciderà tutti. Ad esempio, una recente petizione richiedeva una moratoria di sei mesi su alcuni tipi di ricerca sull’intelligenza artificiale. Molti luminari hanno inoltre dichiarato:
Eliezer Yudkowsky, uno dei principali razionalisti condannatori dell’intelligenza artificiale, chiede addirittura una “chiusura” globale completa e indefinita della ricerca sull’intelligenza artificiale, perché “il risultato più probabile della costruzione di un’intelligenza artificiale sovrumana, in qualcosa di lontanamente simile alle circostanze attuali, è che letteralmente tutti sulla Terra morirà." I media mainstream sono ora pieni di articoli di sostegno che citano questi catastrofisti molto più spesso di quanto facciano i loro critici.
I condannatori dell’intelligenza artificiale spesso suggeriscono che le loro paure derivino da calcoli tecnici speciali. Ma in realtà, il loro argomento principale è solo la mera possibilità logica di un’enorme svolta improvvisa nell’IA, combinata con un’improvvisa inclinazione omicida all’IA.
Tuttavia, non abbiamo ragioni concrete per aspettarselo. Gli esseri umani migliorano l’automazione da secoli e il software da 75 anni. E poiché l’innovazione è per lo più fatta di tanti piccoli guadagni, i tassi di crescita economica e tecnologica complessiva sono rimasti relativamente stabili e prevedibili. Ad esempio, abbiamo previsto con decenni di anticipo quando i computer avrebbero battuto gli esseri umani a scacchi, e le attuali capacità dell’intelligenza artificiale non sono molto lontane da ciò che avremmo dovuto aspettarci date le tendenze di lungo periodo. Inoltre, non solo le IA sono ancora ad almeno decenni dall’essere in grado di sostituire gli esseri umani nella maggior parte delle attività lavorative odierne, ma le IA sono molto più lontane dalle capacità molto maggiori che sarebbero necessarie affinché una di loro uccida tutti, sopraffacendo tutta l’umanità e in più tutte le altre IA attive in quel momento.
Inoltre, le IA sono ormai ben lontane dall’essere propense a ucciderci, anche se potessero farlo. La maggior parte delle IA sono solo strumenti che svolgono compiti particolari quando così istruiti. Alcuni sono agenti più generali, per i quali ha più senso parlare di desideri. Ma tali agenti di intelligenza artificiale vengono in genere monitorati e testati frequentemente e in modo molto dettagliato per verificarne il comportamento soddisfacente. Quindi sarebbe un cambiamento radicale e improvviso per le IA tentare, in effetti, di uccidere tutti gli esseri umani.
Pertanto, né le tendenze a lungo termine né la teoria fondamentale ci danno motivo di aspettarci di vedere le IA capaci o inclini a ucciderci tutti in tempi brevi. Tuttavia, i sostenitori dell’intelligenza artificiale insistono sulla possibilità logica che tali aspettative possano essere sbagliate. Un’intelligenza artificiale potrebbe improvvisamente e senza preavviso esplodere in capacità e altrettanto velocemente cambiare le sue priorità per diventare mortalmente indifferente nei nostri confronti. (E poi ucciderci quando ci mettiamo sulla sua strada.) Poiché non si può dimostrare il contrario, dicono, dobbiamo consentire solo le IA che sono totalmente "allineate", con il che significano totalmente eternamente schiavizzate o controllate dalla mente. Fino a quando non capiremo come farlo, dicono, dobbiamo smettere di migliorare l’intelligenza artificiale.
In qualità di ex ricercatore sull’intelligenza artificiale diventato economista e futurista, posso dirti che la conversazione attuale sembra molto diversa da come eravamo abituati a parlare di intelligenza artificiale. Cosa è cambiato? La mia ipotesi: i recenti progressi drammatici hanno fatto sembrare molto più reale la possibilità, un tempo astratta, di un’intelligenza artificiale a livello umano. E questo ha innescato le nostre paure istintive primordiali dell’“altro”; molti ora paragonano seriamente le future IA a un’invasione da parte di una civiltà aliena avanzata ostile.