La Intelligenza Artificiale vìola il sistema operativo della civiltà umana
Yuval Noah Harari è uno storico, filosofo e scrittore israeliano. È nato il 24 febbraio 1976 ad Haifa, in Israele. Ha conseguito il dottorato in storia presso l’Università di Oxford nel 2002 ed è attualmente professore presso il Dipartimento di Storia dell’Università Ebraica di Gerusalemme.
Harari ha scritto diversi libri di successo, tra cui “Sapiens: A Brief History of Humankind”, “Homo Deus: A Brief History of Tomorrow” e “21 Lessons for the 21st Century”. Il suo lavoro si concentra sulla storia dell’evoluzione umana e sull’impatto della tecnologia sulla società e sul futuro dell’umanità.
Il lavoro di Harari è stato ampiamente acclamato per la sua capacità di rendere le idee complesse accessibili a un pubblico generale. I suoi libri sono stati tradotti in più di 50 lingue e hanno venduto milioni di copie in tutto il mondo. È anche un relatore frequente a conferenze ed eventi in tutto il mondo.
Oltre al suo lavoro accademico, Harari è anche coinvolto in varie questioni sociali e politiche, come il benessere degli animali, l’ambientalismo e la cooperazione globale. È stato riconosciuto per i suoi contributi nel campo della storia e per i suoi sforzi per promuovere la comprensione pubblica di questioni complesse.
L’articolo che segue è stato pubblicato di recente sul settimanale inglese The Economist. Con l’aiuto di Google lo propongo all’attenzione di chi è interessato a questo argomento e lo affido alla mia memoria digitale qui su MEDIUM e condivido con l’autore le sue perplessità.
La paura nei confronti della Intelligenza Artificiale (AI) ha perseguitato l’umanità sin dall’inizio dell’era dei computer. Finora queste paure si concentravano sulle macchine che usavano mezzi fisici per uccidere, schiavizzare o sostituire le persone. Ma negli ultimi due anni sono emersi nuovi strumenti di intelligenza artificiale che minacciano la sopravvivenza della civiltà umana da una direzione inaspettata.
L’intelligenza artificiale ha acquisito alcune notevoli capacità di manipolare e generare il linguaggio, sia con parole, suoni o immagini. L’intelligenza artificiale ha quindi violato il sistema operativo della nostra civiltà. La lingua è la sostanza di cui è fatta quasi tutta la cultura umana. I diritti umani, per esempio, non sono inscritti nel nostro DNA. Piuttosto, sono artefatti culturali che abbiamo creato raccontando storie e scrivendo leggi. Gli dei non sono realtà fisiche. Piuttosto, sono artefatti culturali che abbiamo creato inventando miti e scrivendo scritture.
Anche il denaro è un artefatto culturale. Le banconote sono solo pezzi di carta colorati, e al momento oltre il 90% del denaro non è nemmeno banconote: sono solo informazioni digitali nei computer. Ciò che dà valore al denaro sono le storie che ci raccontano banchieri, ministri delle finanze e guru delle criptovalute. Sam Bankman-Fried, Elizabeth Holmes e Bernie Madoff non erano particolarmente bravi a creare valore reale, ma erano tutti narratori estremamente capaci.
Cosa accadrebbe una volta che un’intelligenza non umana diventa migliore dell’umano medio nel raccontare storie, comporre melodie, disegnare immagini e scrivere leggi e scritture? Quando le persone pensano a Chat GPT e ad altri nuovi strumenti di intelligenza artificiale, sono spesso attratte da esempi come gli scolari che usano l’intelligenza artificiale per scrivere i loro temi. Cosa succederà al sistema scolastico quando i bambini lo faranno? Ma questo tipo di domanda perde di vista il quadro generale.
Dimentica i compiti scolastici. Pensa alla prossima corsa presidenziale americana nel 2024 e prova a immaginare l’impatto degli strumenti di intelligenza artificiale che possono essere realizzati per produrre in massa contenuti politici, storie di notizie false e scritture per nuovi culti.
Negli ultimi anni il culto di “QAnon” si è formato attorno a messaggi online anonimi, noti come “Q drop”.I seguaci hanno raccolto, venerato e interpretato queste gocce “Q” come un testo sacro. Mentre, per quanto ne sappiamo, tutte le precedenti gocce Q erano composte da umani e i robot hanno semplicemente contribuito a diffonderle, in futuro potremmo vedere i primi culti della storia i cui testi venerati sono stati scritti da un’intelligenza non umana. Le religioni nel corso della storia hanno rivendicato una fonte non umana per i loro libri sacri. Presto potrebbe essere una realtà.
A un livello più prosaico, potremmo presto trovarci a condurre lunghe discussioni online sull’aborto, il cambiamento climatico o l’invasione russa dell’Ucraina con entità che pensiamo siano umani, ma che in realtà sono AI. Il problema è che è assolutamente inutile per noi passare il tempo a cercare di cambiare le opinioni dichiarate di un bot di AI, mentre l’AI potrebbe affinare i suoi messaggi in modo così preciso da avere buone possibilità di influenzarci.
Attraverso la sua padronanza del linguaggio, l’intelligenza artificiale potrebbe persino formare relazioni intime con le persone e utilizzare il potere dell’intimità per cambiare le nostre opinioni e visioni del mondo. Sebbene non vi sia alcuna indicazione che l’AI abbia una coscienza o sentimenti propri, per promuovere una falsa intimità con gli umani è sufficiente che l’AI possa farli sentire emotivamente attaccati ad essa.
Nel giugno 2022 Blake Lemoine, un ingegnere di Google, ha affermato pubblicamente che il chatbot “AI La MDA”, su cui stava lavorando, era diventato senziente. La controversa affermazione gli è costata il lavoro. La cosa più interessante di questo episodio non è stata l’affermazione del signor Lemoine, che probabilmente era falsa. Piuttosto, era la sua disponibilità a rischiare il suo lavoro redditizio per il bene del chatbot AI.
Se l’intelligenza artificiale può influenzare le persone a rischiare il lavoro per questo, cos’altro potrebbe indurle a fare? In una battaglia politica per le menti e i cuori, l’intimità è l’arma più efficiente e l’intelligenza artificiale ha appena acquisito la capacità di produrre in serie relazioni intime con milioni di persone. Sappiamo tutti che negli ultimi dieci anni i social media sono diventati un campo di battaglia per controllare l’attenzione umana.
Con la nuova generazione di AI, il fronte di battaglia si sta spostando dall’attenzione all’intimità. Cosa accadrà alla società umana e alla psicologia umana mentre l’AI combatte l’AI in una battaglia per fingere relazioni intime con noi, che possono quindi essere utilizzate per convincerci a votare per determinati politici o acquistare determinati prodotti?
Anche senza creare “falsa intimità”, i nuovi strumenti di intelligenza artificiale avrebbero un’enorme influenza sulle nostre opinioni e visioni del mondo. Le persone possono arrivare a utilizzare un singolo consulente di intelligenza artificiale come oracolo unico e onnisciente. Non c’è da stupirsi che Google sia terrorizzato. Perché preoccuparsi di cercare, quando posso semplicemente chiedere all’oracolo?
Anche le industrie delle notizie e della pubblicità dovrebbero essere terrorizzate. Perché leggere un giornale quando posso semplicemente chiedere all’oracolo di dirmi le ultime notizie? E qual è lo scopo della pubblicità, quando posso semplicemente chiedere all’oracolo di dirmi cosa comprare? E anche questi scenari non catturano davvero il quadro generale.
Ciò di cui stiamo parlando è potenzialmente la fine della storia umana. Non la fine della storia, solo la fine della sua parte dominata dall’uomo. La storia è l’interazione tra biologia e cultura; tra i nostri bisogni e desideri biologici per cose come il cibo e il sesso, e le nostre creazioni culturali come le religioni e le leggi. La storia è il processo attraverso il quale le leggi e le religioni danno forma al cibo e al sesso.
Cosa accadrà al corso della storia quando l’intelligenza artificiale prenderà il sopravvento sulla cultura e comincerà a produrre storie, melodie, leggi e religioni? Strumenti precedenti come la stampa e la radio hanno contribuito a diffondere le idee culturali degli esseri umani, ma non hanno mai creato nuove idee culturali proprie. L’intelligenza artificiale è fondamentalmente diversa. L’intelligenza artificiale può creare idee completamente nuove, una cultura completamente nuova.
All’inizio, l’AI probabilmente imiterà i prototipi umani su cui è stata addestrata nella sua infanzia. Ma con il passare degli anni, la cultura dell’AI andrà coraggiosamente dove nessun essere umano è mai giunto prima. Per millenni gli esseri umani hanno vissuto dentro i sogni di altri umani. Nei prossimi decenni potremmo ritrovarci a vivere nei sogni di un’intelligenza aliena.
La paura dell’intelligenza artificiale ha perseguitato l’umanità solo negli ultimi decenni. Ma per migliaia di anni gli esseri umani sono stati perseguitati da una paura molto più profonda. Abbiamo sempre apprezzato il potere delle storie e delle immagini di manipolare le nostre menti e di creare illusioni. Di conseguenza, fin dai tempi antichi gli esseri umani hanno temuto di essere intrappolati in un mondo di illusioni.
Nel XVII secolo René Descartes temeva che forse un demone malvagio lo stesse intrappolando in un mondo di illusioni, creando tutto ciò che vedeva e sentiva. Nell’antica Grecia Platone raccontò la famosa Allegoria della Caverna, in cui un gruppo di persone è incatenato all’interno di una caverna per tutta la vita, di fronte a un muro spoglio. Uno schermo. Su quello schermo vedono proiettate varie ombre. I prigionieri confondono le illusioni che vedono lì per la realtà.
Nell’antica India i saggi buddisti e indù hanno sottolineato che tutti gli esseri umani vivevano intrappolati all’interno di Maya, il mondo delle illusioni. Ciò che normalmente prendiamo per realtà è spesso solo finzione nelle nostre menti. Le persone possono intraprendere intere guerre, uccidendo gli altri e desiderando di essere uccise loro stesse, a causa della loro fede in questa o quell’illusione.
La rivoluzione dell’intelligenza artificiale ci sta portando faccia a faccia con il demone di Cartesio, con la caverna di Platone, con i Maya. Se non stiamo attenti, potremmo essere intrappolati dietro una cortina di illusioni, che non potremmo strappare via, o addirittura renderci conto che esiste.
Naturalmente, il nuovo potere dell’AI potrebbe essere utilizzato anche per buoni scopi. Non mi soffermerò su questo, perché le persone che sviluppano l’AI ne parlano abbastanza. Il compito di storici e filosofi come me è quello di evidenziare i pericoli.Ma certamente l’AI può aiutarci in innumerevoli modi, dalla ricerca di nuove cure per il cancro alla scoperta di soluzioni alla crisi ecologica. La domanda che dobbiamo affrontare è come assicurarci che i nuovi strumenti di intelligenza artificiale siano usati per il bene piuttosto che per il male. Per fare ciò, dobbiamo prima apprezzare le vere capacità di questi strumenti. Dal 1945 sappiamo che la tecnologia nucleare potrebbe generare energia a buon mercato a beneficio degli esseri umani, ma potrebbe anche distruggere fisicamente la civiltà umana.
Abbiamo quindi rimodellato l’intero ordine internazionale per proteggere l’umanità e per assicurarci che la tecnologia nucleare fosse utilizzata principalmente a fin di bene. Ora dobbiamo fare i conti con una nuova arma di distruzione di massa che può annientare il nostro mondo mentale e sociale. Possiamo ancora regolamentare i nuovi strumenti di intelligenza artificiale, ma dobbiamo agire rapidamente. Mentre le armi nucleari non possono inventare armi nucleari più potenti, l’AI può rendere l’AI esponenzialmente più potente.
Il primo passo cruciale è richiedere rigorosi controlli di sicurezza prima che potenti strumenti di intelligenza artificiale vengano rilasciati nel pubblico dominio. Proprio come un’azienda farmaceutica non può rilasciare nuovi farmaci prima di testarne gli effetti collaterali sia a breve che a lungo termine, così le aziende tecnologiche non dovrebbero rilasciare nuovi strumenti di intelligenza artificiale prima che siano resi sicuri. Abbiamo bisogno di un equivalente della Food and Drug Administration per le nuove tecnologie, e ne abbiamo bisogno ieri.
Il rallentamento dell’uso pubblico dell’AI non farà sì che le democrazie restino indietro rispetto a regimi autoritari più spietati? Proprio l’opposto. Le implementazioni di AI non regolamentate creerebbero il caos sociale, che andrebbe a vantaggio degli autocrati e rovinerebbe le democrazie. La democrazia è una conversazione e le conversazioni si basano sul linguaggio. Quando l’intelligenza artificiale hackera il linguaggio, potrebbe distruggere la nostra capacità di avere conversazioni significative, distruggendo così la democrazia.
Abbiamo appena incontrato un’intelligenza aliena, qui sulla Terra. Non ne sappiamo molto, tranne che potrebbe distruggere la nostra civiltà. Dovremmo porre fine all’irresponsabile dispiegamento di strumenti di AI nella sfera pubblica e regolamentare l’AI prima che sia lei a regolamentare noi. E il primo regolamento che suggerirei è di rendere obbligatorio per l’AI rivelare che si tratta di un’AI. Se sto conversando con qualcuno e non riesco a capire se si tratta di un essere umano o di un’intelligenza artificiale, questa è la fine della democrazia.
Questo testo è stato generato da un essere umano.
Davvero?
Originally published at https://www.economist.com on April 28, 2023.