Skip to main content

Odissea nello Spazio (A Space Odyssey) 1968, il grande registra Stanley Kubrick, il computer HAL portentoso suggeritore – acronimo non casuale – costruito in modo tale che si anteponesse ogni singola lettera, utilizzando la scala dell’ordine alfabetico anglosassone, all’acronimo di una famosa e potente azienda americana del tempo nel settore informatico: IBM. E’ trascorso più di mezzo secolo: prima era solo un ammonimento fantascientifico, ora è una drammatica realtà.   

Yuval Noah Harari argues that AI has hacked the operating system of human civilisation

Storytelling computers will change the course of human history, says the historian and philosopher

By Invitation | Artificial Intelligence

I timori dell’intelligenza artificiale (AI) hanno perseguitato l’umanità sin dall’inizio dell’era dei computer. Finora queste paure si concentravano sulle macchine che usavano mezzi fisici per uccidere, schiavizzare o sostituire le persone. Ma negli ultimi due anni sono emersi nuovi strumenti di intelligenza artificiale da una direzione inaspettata che minacciano la sopravvivenza della civiltà umana. AI ha acquisito alcune notevoli capacità di manipolare e generare il linguaggio, sia con parole, suoni o immagini. AI ha quindi violato il sistema operativo della nostra civiltà.

La lingua è la sostanza di cui è fatta quasi tutta la cultura umana. I diritti umani, ad esempio, non sono inscritti nel nostro DNA. Piuttosto, sono artefatti culturali che noi abbiamo creato raccontando storie e promulgando leggi. Gli dei non sono realtà fisiche. Al contrario, sono artefatti culturali che noi stessi abbiamo creato inventando miti e scrivendo scritture.

Anche il denaro è un artefatto culturale. Le banconote sono solo pezzi di carta colorati, e attualmente, oltre il 90% del denaro non è più scambiato con banconote: sono solo informazioni digitali nei computer. Ciò che dà valore al denaro sono le storie che ci raccontano banchieri, ministri delle finanze e guru delle criptovalute. Sam Bankman-Fried, Elizabeth Holmes e Bernie Madoff non erano particolarmente bravi a creare valore reale, ma erano tutti narratori estremamente capaci.

Cosa accadrebbe una volta che un’intelligenza non umana diventa migliore dell’umano medio nel raccontare storie, comporre melodie, disegnare immagini e scrivere leggi e scritture? Quando le persone pensano a Chatgpt e ad altri nuovi strumenti d’intelligenza artificiale, sono spesso attratte da esempi come gli scolari che la usano per scrivere i loro compiti. Cosa succederà al sistema scolastico quando i bambini lo faranno? Ma questo semplice interrogativo è irrilevante rispetto al quadro generale. Dimenticate i compiti scolastici.

Pensate [invece] alla prossima corsa presidenziale americana nel 2024 e provate a immaginare l’impatto degli strumenti d’intelligenza artificiale che possono essere realizzati per produrre in massa contenuti politici, storie di notizie false e scritture per nuove adorazioni.

Negli ultimi anni il culto di qAnon si è unito a messaggi online anonimi, noti come “q gocce” (q drops). I seguaci raccoglievano, veneravano e interpretavano queste “q gocce” come un testo sacro. Mentre, per quanto ne sappiamo, tutte le “q gocce” precedenti erano composte da umani e i robot hanno semplicemente contribuito a diffonderle, in futuro potremmo vedere i primi culti della storia, i cui testi da idolatrare potrebbero venir scritti da un’intelligenza non umana. Presto, può darsi che ciò si traduca in una realtà. Le religioni nel corso dei secoli hanno rivendicato una fonte non umana per i loro libri sacri.

A un livello più prosaico, potremmo presto trovarci a condurre lunghe discussioni online sull’aborto, il cambiamento climatico o l’invasione russa dell’Ucraina con entità che pensiamo siano umani, ma in realtà sono delle AI. Il problema sta nel fatto che è assolutamente inutile per noi passare il tempo a cercare di cambiare le opinioni provenienti da un bot AI e nel mentre questo potrebbe affinare i suoi messaggi in modo così preciso d’avere buone possibilità di influenzarci.

Attraverso la sua padronanza del linguaggio, AI potrebbe persino stabilire relazioni intime con le persone e usare il potere della famigliarità per cambiare le nostre opinioni e visioni del mondo. Sebbene non vi sia alcuna indicazione che l’AI abbia una coscienza o sentimenti propri, per promuovere una falsa intimità con gli umani è sufficiente che li possa fare sentire emotivamente attaccati ad essa. Nel giugno 2022 Blake Lemoine, un ingegnere di Google, affermò pubblicamente che il chatbot AI Lamda, su cui stava lavorando, era diventato senziente. La controversa affermazione gli è costata il posto di lavoro. La cosa più interessante di questo episodio non fu tanto l’asserzione di Mr. Lemoine, che probabilmente fu falsa, quanto la sua disponibilità a rischiare il suo salario redditizio per il bene del chatbot AI. Se l’AI può influenzare le persone a rischiare il posto di lavoro per una dichiarazione di questo tipo, cos’altro potrebbe indurle a fare?

In una battaglia politica l’intimità è l’arma più efficace per carpire le menti e i sentimenti delle persone, e l’AI ha appena acquisito la capacità di produrre in serie relazioni intime con milioni di esseri umani. Sappiamo tutti che negli ultimi dieci anni i social media sono diventati un campo di scontro per controllare l’attenzione umana. Con la nuova generazione di AI, il fronte bellico si sta spostando dall’attenzione all’intimità. Cosa accadrà alla società umana e alla psicologia umana allorché una data AI rivaleggiasse contro un’altra AI per fingere relazioni intime con noi. Relazioni che possono quindi essere utilizzate per convincerci a votare per determinati politici o per acquistare determinati prodotti?

Anche senza creare “falsa intimità”, i nuovi strumenti d’intelligenza artificiale avrebbero un’enorme influenza sulle nostre opinioni e visioni del mondo. Le persone possono arrivare a utilizzare un singolo consigliere d’intelligenza artificiale come oracolo unico e onnisciente. Non c’è da stupirsi che Google sia terrorizzata. Perché preoccuparsi di cercare [una informazione], quando posso semplicemente chiedere all’oracolo? Anche le industrie delle notizie e della pubblicità dovrebbero essere terrorizzate.

Perché leggere un giornale quando posso semplicemente chiedere all’oracolo di dirmi le ultime novità? E qual è lo scopo della pubblicità, quando posso semplicemente chiedere all’oracolo di dirmi cosa comprare?

E anche questi scenari non catturano davvero il quadro generale. Ciò di cui stiamo parlando è potenzialmente la fine della storia umana. Non la fine della storia, solo la fine della sua parte dominata dall’uomo. La storia è l’interazione tra biologia e cultura; tra i nostri bisogni e desideri biologici per cose come il cibo e il sesso, e le nostre creazioni culturali come le religioni e le leggi. La storia è il processo attraverso il quale le leggi e le religioni danno forma al cibo e al sesso.

Cosa accadrà al corso della storia quando l’AI prenderà il sopravvento sulla cultura e comincerà a produrre storie, melodie, leggi e religioni? Strumenti precedenti come la stampa e la radio hanno contribuito a diffondere le idee culturali degli esseri umani, ma non hanno mai creato nuove idee culturali proprie. AI è fondamentalmente diversa. AI può creare idee completamente nuove, una cultura completamente nuova.

All’inizio, AI probabilmente imiterà i prototipi umani su cui è stata addestrata nella sua infanzia. Ma con il passare degli anni, la sua cultura andrà coraggiosamente dove nessun essere umano è mai giunto prima. Per millenni gli esseri umani hanno vissuto dentro i sogni di altri umani. Nei prossimi decenni potremmo trovarci a vivere nei sogni di un’intelligenza aliena.

La paura dell’AI ha perseguitato l’umanità solo negli ultimi decenni. Ma per migliaia di anni gli esseri umani sono stati afflitti da un timore molto più profondo. Abbiamo sempre apprezzato il potere delle storie e delle immagini volte a manipolare le nostre menti e nel creare illusioni. Di conseguenza, fin dai tempi antichi gli esseri umani hanno temuto di essere intrappolati in un mondo d’illusioni.

Nel XVII° secolo René Descartes temeva che forse un demone malvagio lo stesse intrappolando in un mondo d’illusioni, creando tutto ciò che vedeva e sentiva. Nell’antica Grecia Platone raccontò la famosa Allegoria della Caverna, in cui un gruppo di persone è incatenato all’interno di essa per tutta la vita avendo di fronte a un muro spoglio. Uno schermo. Su quello schermo vedono proiettate varie ombre. I prigionieri confondono le illusioni che appaiono sullo sfondo per la realtà.

Nell’antica India i saggi buddisti e indù hanno sottolineato che tutti gli esseri umani vivevano intrappolati all’interno del Maya, il mondo delle illusioni. Ciò che normalmente consideriamo realtà spesso non è altro che finzione nelle nostre menti. Le persone possono intraprendere guerre devastanti, uccidendo gli altri e desiderando oltre modo di essere uccise loro stesse, a causa della loro fede in questa o quell’illusione.

La rivoluzione dell’intelligenza artificiale ci sta portando faccia a faccia con il demone di Cartesio, con la caverna di Platone, con i Maya. Se non stiamo attenti, potremmo essere intrappolati dietro una cortina d’illusioni, che non potremmo strappare via, o addirittura renderci conto che esiste.

Naturalmente, il nuovo potere dell’AI potrebbe essere utilizzato anche per buoni scopi. Non mi soffermerò su questo, perché le persone che sviluppano AI ne parlano abbastanza. Il compito di storici e filosofi come me è quello di evidenziare i pericoli. Ma certamente l’AI può aiutarci in innumerevoli modi, dalla ricerca di nuove cure per il cancro alla scoperta di soluzioni alla crisi ecologica.

La domanda che dobbiamo affrontare è come assicurarci che i nuovi strumenti d’intelligenza artificiale siano usati per il bene piuttosto che per il male. Per fare ciò, dobbiamo prima apprezzare le vere capacità di questi strumenti.

Dal 1945 sappiamo che la tecnologia nucleare potrebbe generare energia a basso costo a beneficio degli esseri umani, ma potrebbe anche distruggere fisicamente la civiltà umana. Abbiamo quindi rimodellato l’intero ordine internazionale per proteggere l’umanità e per assicurarci che la tecnologia nucleare fosse utilizzata principalmente a fin di bene. Ora dobbiamo fare i conti con una nuova arma di distruzione di massa che può annientare il nostro mondo mentale e sociale.

Possiamo ancora regolamentare i nuovi strumenti d’intelligenza artificiale, ma dobbiamo agire rapidamente. Mentre le armi nucleari non possono inventare armi nucleari più potenti, AI può rendere esponenzialmente più potente sé stessa. Il primo passo cruciale è richiedere rigorosi controlli di sicurezza prima che poderosi strumenti d’intelligenza artificiale divengano di pubblico dominio. Proprio come un’azienda farmaceutica non può mettere sul mercato nuovi farmaci prima di testarne gli effetti collaterali sia a breve che a lungo termine, così le aziende tecnologiche non dovrebbero introdurre nuovi strumenti d’intelligenza artificiale prima che siano resi sicuri. Abbiamo bisogno di un equivalente della Food and Drug Administration per le nuove tecnologie, e ne avevamo bisogno già da ieri.

Rallentare il dispiegamento pubblico di AI non farà sì che le democrazie restino indietro rispetto a regimi autoritari più spietati? Proprio l’opposto. Gli schieramenti dell’ AI non regolamentati creerebbero il caos sociale, che andrebbe a vantaggio degli autocrati e rovinerebbe le democrazie. La democrazia è una conversazione e gli scambi d’idee si basano sul linguaggio. Quando l’AI lo “hackererà”, potrebbe distruggere la nostra capacità di tessere significative interazioni, distruggendo così la democrazia.

Abbiamo appena incontrato un’intelligenza aliena, qui sulla Terra. Non ne sappiamo molto, tranne che potrebbe distruggere la nostra civiltà. Dovremmo porre fine all’irresponsabile dispiegamento di strumenti d’intelligenza artificiale nella sfera pubblica e regolamentarla prima che essa regoli noi.

E il primo comandamento che suggerirei è quello di rendere obbligatorio per AI rivelare che si tratta di un AI. Se sto conversando con qualcuno e non riesco a capire se si tratta di un essere umano o di un’intelligenza artificiale, questa è la fine della democrazia.

Questo testo è stato generato da un essere umano.

Yuval Noah Harari is a historian, philosopher and author of “Sapiens”, “Homo Deus” and the children’s series “Unstoppable Us”. He is a lecturer in the Hebrew University of Jerusalem’s history department and co-founder of Sapienship, a social-impact company.

https://www.economist.com/by-invitation/2023/04/28/yuval-noah-harari-argues-that-ai-has-hacked-the-operating-system-of-human-civilisation?utm_medium=social-media.content.np&utm_source=facebook&utm_campaign=editorial-social&utm_content=discovery.content&fbclid=IwAR20PaofqYx1_nt_xm8YAQevB77xu9TNLCU8fz7hklZ99c81E19gXZIQgow
Franco Gavio

Dopo il conseguimento della Laurea Magistrale in Scienze Politiche ha lavorato a lungo in diverse PA fino a ricoprire l'incarico di Project Manager Europeo. Appassionato di economia e finanza dal 2023 è Consigliere della Fondazione Cassa di Risparmio di Alessandria. Dal dicembre 2023 Panellist Member del The Economist.

Il Ponte