fbpx
Close
Type at least 1 character to search
Torna su
L’intelligenza artificiale e il marketing della catastrofe

L’intelligenza artificiale e il marketing della catastrofe16 min read

L’intelligenza artificiale e il marketing della catastrofe

AI: la retorica della paura e della speranza

di Andrea Daniele Signorelli

Artwork di @beyondcoolart

C’è chi considera l’intelligenza artificiale una tecnologia che mette l’essere umano di fronte al rischio estinzione. Chi chiede che il suo sviluppo venga interrotto per evitare potenziali catastrofi. Chi mette in guardia dagli sconvolgimenti sociali che questa tecnologia potrebbe causare. Negli ultimi mesi si è susseguita una serie di appelli sui pericoli esistenziali posti dall’intelligenza artificiale: appelli organizzati e diffusi soprattutto da personaggi ed entità che hanno enormi interessi economici o politici in questo settore (su questo torneremo più avanti), ma firmati anche da scienziati informatici – come Geoff Hinton, Joshua Bengio, Gary Marcus e altri – sulle cui competenze in materia non si può in alcun modo dubitare.

Da una parte, le citate paure sono comprensibili: ogni nuova tecnologia trasformativa, nel corso dei secoli, ha causato preoccupazioni sulle sue conseguenze indesiderate. Secondo varie interpretazioni, una delle principali ispirazioni di Mary Shelley nella stesura del suo Frankestein (1818) furono proprio i timori legati all’applicazione dell’elettricità in campo medico e le pericolose – oltre che letteralmente mostruose – conseguenze che ne sarebbero potute derivare. Nella fantascienza di Shelley, l’elettricità dà la possibilità all’essere umano di giocare a fare Dio, creando nuove forme di vita artificiali senza poterne prevedere le conseguenze. Vi ricorda qualcosa?

Ritornando nel mondo reale, timori (spesso comprensibili) furono sollevati in seguito all’avvento delle automobili o, nel caso più ovvio e giustificato, dell’energia nucleare. Rispetto a questi due esempi – e a tutti gli altri che possiamo rinvenire nel corso della storia l’intelligenza artificiale ha però una caratteristica peculiare: è l’unica tecnologia che temiamo possa arrivare a ribellarsi contro l’umanità.

L’intelligenza artificiale ha però una caratteristica peculiare: è l’unica tecnologia che temiamo possa arrivare a ribellarsi contro l’umanità.

Perché tutto ciò? Prima di tutto, va sottolineato come questa paura non sia una novità. Gli stessi timori si sono moltiplicati durante la prima fase di grande diffusione dell’intelligenza artificiale, attorno all’anno 2016. Non avevamo ancora accesso a strumenti dalla potenza – e dalle stupefacenti abilità – di ChatGPT, eppure era bastato vedere in azione gli algoritmi di riconoscimento immagini, le prime versioni di Siri e Alexa e i primi rudimentali chatbot conversazionali per sollevare ondate di panico legate al cosiddetto “scenario Terminator”.

Da allora è passato qualche anno, e oggi nessuno immagina più che un classico sistema di deep learning in grado di comprendere alcuni nostri elementari comandi, com’è il caso di Alexa, possa essere la base da cui prenderà vita Skynet. Col tempo, questa tecnologia – come il riconoscimento immagini, la traduzione automatica, i suggerimenti personalizzati, il riconoscimento vocale e altro ancora – si è normalizzata: ha perso la sua aura magica ed è diventata parte della nostra quotidianità, al punto che la utilizziamo senza più nemmeno farci caso.

Più indietro nel tempo, timori simili erano stati espressi negli anni Sessanta da parte del matematico Norbert Wiener, preoccupato dalla potenziale “malvagità” di quelle che definiva “macchine pensanti”, in grado di “sviluppare strategie imprevedibili”. Alla base di tutti questi timori, che si sono ciclicamente riproposti nel corso del tempo, c’è un aspetto cruciale: la parziale autonomia decisionale che questi sistemi hanno a disposizione quando scelgono come portare a termine i loro incarichi. Per esempio, quando chiediamo a un algoritmo di individuare tra migliaia di curriculum quali sono i più adatti a un determinato posto di lavoro, noi sappiamo che eseguirà questo compito analizzando i dati individuati nei CV, ma non sappiamo esattamente quali calcoli ha eseguito e perché ha valutato alcuni elementi più importanti di altri.

Ogni sistema che definiamo di intelligenza artificiale – soprattutto quelli che imparano dai dati, come il deep learning, e poi applicano ciò che hanno appreso – è contraddistinto esattamente da questo aspetto unico: la capacità di agire con un certo grado di autonomia e quindi di imprevedibilità. 

Uno degli esempi più affascinanti di questa capacità è legata ai sistemi di deep learning in grado di sconfiggere in pochi secondi anche i più grandi maestri di scacchi (o di un gioco estremamente più complesso come il Go). Il fatto che le mosse decisive compiute dagli algoritmi di deep learning fossero spesso completamente inattese – e a volte considerate dei veri e propri errori – aveva in quelle occasioni portato a parlare di “comportamenti alieni”, facendo inevitabilmente pensare a una forma di intelligenza ignota che stava prendendo forma.

Il fatto che le mosse decisive compiute dagli algoritmi di deep learning fossero spesso completamente inattese – e a volte considerate dei veri e propri errori – aveva in quelle occasioni portato a parlare di “comportamenti alieni”, facendo inevitabilmente pensare a una forma di intelligenza ignota che stava prendendo forma.

E allora, è davvero così implausibile pensare che una sorta di “intelligenza aliena”, partendo magari proprio dal gioco degli scacchi, possa maturare al punto da sviluppare un grado di autonomia che le consente di sfuggire pericolosamente al nostro controllo? È assurdo immaginare che, come si è passati dai primi rudimentali chatbot a ChatGPT (in grado di soddisfare ogni nostra richiesta testuale in maniera spesso sorprendente), si passi da ChatGPT a un sistema talmente intelligente e autonomo da rappresentare un rischio per l’umanità (e magari conquistare una sorta di coscienza)?

In realtà, sì: ancora oggi e per il tempo a venire, uno scenario di questo tipo sembra essere del tutto implausibile. Per quanto sempre più potenti e dalle capacità sempre più sorprendenti, questi strumenti continuano a funzionare, alla loro base, nella stessa identica maniera: scovando correlazioni statistiche nel mare di dati a loro disposizione. Se un computer vince a scacchi, non è perché ha compreso cosa siano e come funzionino gli scacchi: si limita a valutare quale mossa, nelle centinaia di migliaia di esempi che ha a disposizione, ha le maggiori probabilità di portare alla vittoria. In tutto ciò, però, non ha nemmeno la più pallida idea di cosa stia facendo.

“Le grandi aziende tecnologiche hanno trascorso 20 anni a raccogliere enormi quantità di dati relativi alla cultura e alla vita di tutti i giorni, costruendo giganteschi ed energivori data center colmi di computer che elaborano questi dati con un potere computazionale sempre maggiore”

Se ChatGPT è in grado di creare una poesia in stile shakespeariano con protagonisti i replicanti di Blade Runner (per fare un esempio bizzarro), non è perché ha una conoscenza della materia in oggetto, ma perché esegue una sorta di colossale taglia e cuci statistico basato sulla quantità esorbitanti di dati a sua disposizione (potenzialmente l’intero world wide web), assemblando elementi senza alcuna forma di consapevolezza. Se risponde in maniera coerente alle nostre domande, non è perché ha capito cosa gli abbiamo chiesto, ma perché ha cercato nel suo database le risposte che hanno la maggiore probabilità di essere coerenti con la domanda posta.

Un classico esempio è quello che ha come protagonisti l’ingegnere di Google Blake Lemoine e il sistema di intelligenza artificiale LaMDA (simile a ChatGPT) da lui stesso progettato. Alla domanda di Lemoine “come ti piace passare il tuo tempo libero?”, LaMDA ha risposto: “Con gli amici e con la mia famiglia”. Ovviamente, LaMDA non ha né amici né tantomeno famiglia: si è quindi limitata a scovare nel mare di testi a sua disposizione quali fossero le risposte che ricorrono più frequentemente quando viene posta questa domanda. Il fatto che, in seguito a quella conversazione (peraltro pesantemente editata), Lemoine si sia convinto che LaMDA fosse “senziente” ci dice probabilmente molto più della psicologia umana che del funzionamento delle intelligenze artificiali.

Come ha scritto James Bridle nella nuova edizione del suo New Dark Age: Technology at the End of the Future, “la differenza oggi non è l’intelligenza, ma i dati e il potere computazionale. Le grandi aziende tecnologiche hanno trascorso 20 anni a raccogliere enormi quantità di dati relativi alla cultura e alla vita di tutti i giorni, costruendo giganteschi ed energivori data center colmi di computer che elaborano questi dati con un potere computazionale sempre maggiore”.

Il meccanismo alla base di questi sistemi è sempre lo stesso (scovare correlazioni statistiche), ciò che cambia è la mole di dati a disposizione e la potenza informatica. Il progresso è esclusivamente quantitativo, ma non c’è alcun salto qualitativo. Come si possa passare da un sistema di correlazione statistica (per quanto potente e sorprendente) a una macchina altamente intelligente o addirittura cosciente di sé, in grado di sfuggire al nostro controllo e provocare danni incalcolabili perseguendo i propri interessi in totale autonomia, è davvero difficile da comprendere.

E allora perché personaggi come Elon Musk o il fondatore di OpenAI Sam Altman passano il loro tempo a lanciare allarmi sulla possibilità che si verifichi esattamente questo scenario? A prima vista, anche questo sembra essere di difficile comprensione, soprattutto considerando che a mostrare preoccupazione nei confronti dello sviluppo dell’intelligenza artificiale sono spesso le stesse persone che questi sistemi stanno sviluppando. Che senso ha?

Forse è necessario togliersi le lenti della tecnologia e indossare quelle del marketing e dello storytelling.

Per capirlo, forse è necessario togliersi le lenti della tecnologia e indossare quelle del marketing e dello storytelling. Interpretati in questa chiave, gli allarmi lanciati da alcuni dei principali protagonisti del settore (possiamo aggiungere anche il CEO di DeepMind Demis Hassabis) sembrano avere uno scopo radicalmente diverso: porsi come gli unici con le conoscenze necessarie a sviluppare in sicurezza e tenere sotto controllo queste intelligenze artificiali, gli unici di cui possiamo fidarci, gli unici a cui la classe politica può dare ascolto nel tentativo di capire quali sono i modi migliori per regolamentare questa tecnologia.

Solo loro, sembrano volerci dire, sono in grado di tenere a bada il genio della lampada (o il “demone che stiamo evocando”, per dirla con Elon Musk); di conseguenza è importante continuare a dare retta ai loro input (e qui il pensiero corre al recente colloquio tra Giorgia Meloni e il solito Musk, in cui si è toccato anche il tema dei rischi legati all’intelligenza artificiale), consultarli prima di prendere decisioni e finanziare le loro startup o i loro think tank (dal Future of Life Institute al Center for AI Safety, realtà che hanno organizzato e diffuso due delle già citate lettere aperte). In poche parole, il marketing del “rischio esistenziale” è funzionale a portare avanti i loro interessi economici e politici.

Un discorso simile si può fare anche per chi vuole convincerci – come il potentissimo investitore Marc Andreessen – che “l’intelligenza artificiale salverà il mondo”, che questa tecnologia sia intrinsecamente liberatoria, che tutti i timori (anche quelli più concreti) siano malriposti e che qualunque regolamentazione sia inutile. Difficile non notare come le molteplici nuove startup in cui ha investito a16z (la società d’investimenti di Andreessen) abbiano ovviamente maggiori probabilità di prosperare in assenza di stringenti regolamentazioni e che quindi anche la sua risposta alle lettere aperte catastrofiste sembri essere motivata soprattutto da interessi economici. 

Ironicamente, Andreessen dice probabilmente il vero quando scrive che gli allarmisti sono “opportunisti egoisti che vogliono guadagnare economicamente dall’imposizione di nuove restrizioni, regolamentazioni e leggi che isolerebbero la concorrenza”. Peccato che anche la sua crociata affinché l’intelligenza artificiale sia il più possibile lasciata senza briglie abbia interessi principalmente (o esclusivamente) finanziari.

No, l’intelligenza artificiale non causerà l’estinzione dell’essere umano, ma nemmeno salverà il mondo. Sì, l’intelligenza artificiale pone rischi molto seri.

E allora chi ha ragione? Di chi ci possiamo fidare? Come spesso avviene, è probabile che la verità stia nel mezzo. No, l’intelligenza artificiale non causerà l’estinzione dell’essere umano, ma nemmeno salverà il mondo. Sì, l’intelligenza artificiale pone rischi molto seri (per esempio, può grandemente amplificare l’impatto della disinformazione tramite deep fake e simili aspetti che hanno probabilmente portato alcuni scienziati informatici ad aderire alle lettere catastrofiste), ma questi sono legati all’uso che l’essere umano ne fa, non all’avvento di fantascientifiche superintelligenze che si ribellano a noi.

Leggi anche:  Scelte radicali

Lo storytelling del “pericolo esistenziale” da una parte e della “intelligenza artificiale salvifica” dall’altra (entrambi economicamente motivati) rischiano così di far passare in secondo piano gli aspetti più problematici dello sviluppo e dell’utilizzo di queste tecnologie: sorveglianza, discriminazioni, impatto sul mondo del lavoro e altro ancora. Temi sollevati da ricercatrici e ricercatori legati soprattutto al mondo accademico, spesso donne o appartenenti a minoranze, e che quindi – a differenza dei firmatari delle varie lettere, quasi sempre uomini bianchi – hanno ben presente i modi in cui l’utilizzo di questi sistemi può ulteriormente marginalizzare gruppi già marginalizzati, instaurando un circolo vizioso che avvantaggia soltanto lo status quo (per approfondire, vi rimando a questa lettura).

Sono questi i temi concreti che dobbiamo affrontare e regolamentare (come sta in parte facendo l’AI Act dell’Unione Europea); anche a costo di mettere economicamente i bastoni tra le ruote ai colossi che vogliono mantenere – tramite fantasie distopiche alla Terminator o utopie fiabesche – il controllo esclusivo sullo sviluppo di questa tecnologia.


Leggi anche:  L'ascesa delle app per meditare

Dylarama è una newsletter settimanale gratuita, che esce ogni sabato e raccoglie una selezione di link, storie e notizie su un tema che ha a che fare con tecnologia, scienza, comunicazione, lavoro creativo e culturale.



di

Giornalista classe 1982, si occupa del rapporto tra nuove tecnologie, politica e società. Scrive per La Stampa, Wired, Esquire, Il Tascabile e altri. Nel 2017 ha pubblicato “Rivoluzione Artificiale: l’uomo nell’epoca delle macchine intelligenti” per Informant Edizioni.

DylaramaIscriviti alla newsletter

Dylarama è una newsletter settimanale gratuita, che esce ogni sabato e raccoglie una selezione di link, storie e notizie su un tema che ha a che fare con tecnologia, scienza, comunicazione, lavoro creativo e culturale.