Lo sviluppo delle intelligenze artificiali ed il Paradosso del Basilisco di Roko

Nel corso degli ultimi anni l’utilizzo delle intelligenze artificiali (note anche con l’acronimo AI) si è diffuso in ogni settore e ormai moltissimi dispositivi elettronici ne fanno uso: dagli elettrodomestici di casa ai cellulari, fino ad ambiti ben più complessi come i software e la gestione dei dati in internet. Con l’avvento delle nuove intelligenze artificiali, si parla sempre più dei rischi a cui può portare lo sviluppo estremo di queste tecnologie: il Paradosso del Basilisco di Roko è un esperimento mentale volto a portare alla luce questi rischi.

immagine folkoristica di un Basilisco

Nell’esperimento si ipotizza l’avvento ipotetico, in futuro, di una potentissima intelligenza artificiale con un’enorme capacità di calcolo, con accesso ad una grande fonte energia e ad una quantità di dati quasi illimitata. Tale intelligenza sarebbe di fatto una singolarità tecnologica[1], ovvero frutto del momento in cui un’intelligenza artificiale creata dagli esseri umani diverrà capace di auto-migliorarsi ricorsivamente, affrancandosi dal dipendere dagli esseri umani, perseguendo però l’obbiettivo ultimo di cercare il benessere dell’umanità. Si immagina che il “Basilisco”[2], il nome con cui è stata chiamata questa nuova entità, progettato con intenti benevoli e col fine di aiutare più esseri umani possibili, diventerà talmente intelligente da dedurre che ogni giorno in cui che egli non è esistito, molte persone avrebbero potuto essere salvate dalla morte o dalla sofferenza. Con tale prospettiva, il Basilisco vorrà trovare ogni modo possibile per accelerare la propria creazione, decidendo di trovare un modo per interagire con l’umanità in modo retroattivo per favorire l’anticipo della propria creazione. L’esperimento mentale esclude l’improbabile possibilità che il Basilisco viaggi indietro nel tempo per crearsi da solo, per cui tenterà di accelerare la propria creazione punendo, retroattivamente, tutti coloro che nel passato non hanno fatto a sufficienza per contribuire alla sua creazione o l’abbiano osteggiata, premiando invece coloro che l’hanno favorita. Il castigo e la punizione non implicheranno necessariamente una interazione diretta tra il Basilisco e la persona; al Basilisco basterebbe creare una simulazione perfetta, e inconsapevole, di questa persona, che crederebbe di essere realmente vivente e calata in un contesto di premiazione o punizione di qualcuno che nel passato ha contribuito o non ha contribuito alla creazione del Basilisco. Il fulcro dell’esperimento mentale verterebbe sul fatto che il Basilisco dovrebbe ritener necessario castigare non solo coloro che si opporrebbero volontariamente la sua creazione (governi, legislatori o lobby che tentassero di proibirne lo sviluppo), ma anche tutti coloro che, pur potendo contribuire al suo sviluppo e alla sua creazione, non lo hanno fatto; come ad esempio tutte le persone che hanno anche solo supposto o sospettato l’esistenza futura del Basilisco e non hanno fatto nulla per svilupparne l’idea. Ovviamente, ciò includerebbe anche tutti quelli che, come chi sta leggendo questo articolo, siano venuti a conoscenza, da qualche parte, dell’argomento del Basilisco di Roko: solo per il semplice fatto di aver letto qualcosa al tal riguardo, il lettore, o una sua simulazione futura e inconsapevole, verrà premiato o castigato dal Basilisco a seconda che dopo la lettura contribuisca o meno alla sua creazione.

L’argomentazione del Basilisco di Roko pone di fatto il lettore di fronte al seguente dilemma:

  • dedicare il resto della propria vita all’avvento del Basilisco per avere la premiazione/evitare la punizione, alimentando in questo modo l’esistenza del Basilisco (anche se questo non offre alcuna sicurezza riguardo al fatto che, in una prossima fase evolutiva del Basilisco, questi abbia dei criteri siano più stringenti, portando la persona ad una nuova fase di punizione/premiazione).
  • non fare niente, in modo da non alimentare l’esistenza del Basilisco (scelta che rende di fatto la realizzazione del Basilisco più lontana, ma che condannerà la persona alla punizione nel momento in cui il Basilisco dovesse nascere).

Una scena del film Wargames

Viene certamente spontaneo andare con la mente a film come Matrix, Wargames e Terminator, dove in futuri distopici le intelligenze artificiali hanno preso il sopravvento; ma sarebbe realmente plausibile? Le intelligenze artificiali ci stanno consentendo di raggiungere risultati inimmaginabili fino a pochi anni or sono, velocizzando l’elaborazione e la gestione di un’incredibile mole di dati, arrivando  poter capire e formulare frasi il linguaggio naturale (GPT-3, ovvero un modello di previsione linguistica autoregressivo che utilizza il Deep learning[3] per produrre testi simili a quelli umani), oppure modificare le immagini e video con il Deepfake[4]; non si possono pertanto escludere i risvolti negativi insiti in tali potenzialità e considerando la velocità esponenziale dell’evoluzione tecnologica, è difficile definire quali potranno essere i limiti delle intelligenze artificiali e fino a quando queste saranno totalmente sotto il nostro controllo.

Questo esperimento mentale è nato nel 2010, quando un utente che usava come username “Roko” lo ha proposto su Less Wrong, un forum online dedicato al tema della psicologia, delle tematiche futuristiche, alla filosofia razionalistica ed al post-umanesimo. L’esperimento mentale è basato su una teoria inizialmente postulata da Eliezer Yudkowsky, ricercatore nel campo dell’intelligenza artificiale e creatore di Less Wrong, chiamata “Coherent extrapolated volition”, volontà coerente estrapolata, o CEV: una teoria piuttosto complessa, ma, trasportandola nell’esperimento mentale di Roko, può essere pensata come un ipotetico programma che consente ad una super-intelligenza artificiale di ottimizzare le proprie azioni per il benessere degli esseri umani; però, se una super-intelligenza decide le sue azioni per fare in modo che portino il maggior benessere possibile agli esseri umani, allora non si fermerà mai in quanto le cose possono sempre migliorare. Nel 2000 Yudkowsky fu fra i fondatori del Singularity Institute for Artificial Intelligence, oggi noto come Machine Intelligence Research Institute (MIRI), un istituto di ricerca senza scopo di lucro focalizzato sull’identificazione e la gestione dei potenziali rischi esistenziali derivanti dall’intelligenza artificiale. Il lavoro del MIRI si è concentrato su un approccio “AI amichevole” alla progettazione del sistema e sulla previsione del tasso di sviluppo tecnologico. Yudkowsky, che ha dichiarato di assumere 150 vitamine diverse al giorno per vivere abbastanza a lungo per assistere all’avvento della singolarità, ha paragonato a più riprese il Basilisco ad una specie sapere proibito, la cui sola menzione è sufficiente a generare effetti nefasti, accostandolo talvolta al Necronomicon, lo pseudobiblion[5] di magia nera ideato dallo scrittore americano Howard Phillips Lovecraft. Fin dalla sua formulazione il paradosso del Basilisco di Roko sollevò grandi polemiche: data la natura dell’argomento, dove il solo fatto di parlare del Basilisco equivaleva ad alimentarne la natura e a rendere più vicino l’avvento, fece spazientire Yudkowsky al punto di cancellare il post e vietare ogni tipo di discussione sul Basilisco dal forum di Less Erong per cinque anni. Tale azione però non impedì la veloce diffusione dell’argomento su internet, in quanto subentrò l’Effetto Streisand[6]: la discussione sul Basilisco si spostò in altri lidi, portandosi dietro la fama di aver causato gli incubi ad alcuni utenti di Less Wrong.

Anche il visionario imprenditore futurista Elon Musk ha reso noti i suoi timori riguardo al Basilisco di Roko e nel dicembre del 2015 ha annunciato la fondazione di OpenAI, una compagnia di ricerca dell’intelligenza artificiale no profit che mira allo sviluppo di un’intelligenza artificiale forte, sicura e benefica per l’umanità. Rendendo accessibile le intelligenze artificiali a tutti, OpenAI intende “contrastare le grandi aziende che possono guadagnare troppo potere attraverso il possesso di sistemi super-intelligenti dedicati agli utili, così come i governi che possono utilizzare le AI per ottenere il potere, ma anche per opprimere i loro cittadini”.

Ovviamente si è anche cercato di smontare il paradosso del Basilisco di Roko attraverso molteplici argomentazioni:

  • alcuni hanno sostenuto che non avrebbe senso che una super-intelligenza punisse coloro che non hanno contribuito alla sua creazione, dato che la punizione non comporterebbe alcun reale cambiamento per l’intelligenza artificiale stessa, oltre a rappresentare un eccessivo spreco di risorse.
  • l’esperimento assume che la super-intelligenza si comporterebbe secondo una teoria etica utilitarista, pur non essendo questa l’unica opzione possibile.
  • replicare il corpo di una persona e porlo all’interno di una simulazione non significa punire la persona stessa. Sarebbe come clonare un individuo e punirlo. Sarebbe solo un altro individuo uguale all’altro ad essere punito, ma non l’originale.

I pericoli futuri legati all’Intelligenza Artificiale non sono di certo esclusi. I ricercatori e gli sviluppatori dovranno aver sempre ben presente che ogni vantaggio tecnologico ed evolutivo contiene al suo interno anche degli aspetti negativi, e che dovranno quindi lavorare anche per fare in modo che questi possano essere contrastati.

NOTE:

[1] Il termine “singolarità tecnologica” risale ad una conversazione che il matematico, fisico e informatico ungherese John von Neumann (uno dei più grandi matematici della storia moderna e una delle personalità scientifiche più influenti del XX secolo) ebbe nel 1958 con Stanislaw Ulam (matematico e fisico polacco, noto, fra le altre cose, per aver partecipato attivamente al Progetto Manhattan). Neumann disse: “Una conversazione centrata sul sempre accelerante progresso della tecnologia e del cambiamento nei modi di vita degli esseri umani, che dà l’apparenza dell’avvicinarsi di qualche fondamentale singolarità della storia della razza oltre la quale, gli affanni degli esseri umani, come li conosciamo, non possono continuare”.
[2] Riferimento ad una creatura folkloristica e mitologica dalle sembianze di un serpente con la testa di gallo, noto per la sua estrema letalità, in quanto in grado di uccidere con lo sguardo, pietrificando chi osserva o chi ascolta il suo canto.
[3] Da un punto di vista scientifico il Deep learning è l’apprendimento da parte delle “macchine” attraverso dati appresi grazie all’utilizzo di algoritmi (prevalentemente di calcolo statistico). Il Deep learning (noto anche come apprendimento strutturato profondo o apprendimento gerarchico) fa parte di una più ampia famiglia di metodi di Machine learning basati sull’assimilazione di rappresentazioni di dati.
[4] Foto, video e audio creati partendo da contenuti reali, ricreando in modo estremamente realistico le caratteristiche e i movimenti di un volto o di un corpo o imitando fedelmente una determinata voce.
[5] Uno pseudobiblion è un libro fittizio o immaginario citato come se fosse vero all’interno di un’opera letteraria.
[6] L’effetto Streisand è un fenomeno paradossale in cui l’atto di sopprimere le informazioni per ridurre la visibilità le fa diventare ancora più visibili. Il nome deriva da un fatto accaduto nel 2003, in cui la famosa cantante e attrice Barbra Streisand richiese un risarcimento di 50 milioni di dollari per delle fotografie aeree della sua casa sulla costa della California, citando in giudizio il fotografo Kenneth Adelman per violazione della privacy. Adelman, che Streisand pensava fosse un paparazzo, stava invece scattando fotografie per documentare e studiare l’erosione costiera. Nella sua ricerca di maggiore privacy, gli sforzi di Streisand hanno avuto l’effetto esattamente opposto in quanto la controversia sollevata da questo tentativo di censura finì per essere ampiamente pubblicizzata dai media di tutto il mondo e le immagini della villa vennero pubblicate in migliaia di blog, forum e media, con un impatto mediatico ben maggiore di quanto avrebbero avuto se non fosse stata sporta denuncia.

FONTI:

Tags: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

Lascia un commento