L’intelligenza delle cose, la paura degli umani
di Stefano Moriggi
Quando studiare le macchine significa (anche) conoscere meglio noi stessi
“Cosa resterà dell’umanità? Ci preoccupiamo dei danni ambientali ed è più che giusto, ma forse ci attende una minaccia più seria. La nascita di un super-organismo che trascenderà l’intelligenza umana, composto da internet, miliardi di oggetti intelligenti e un immenso data base in continua crescita. […] Ci sarà un momento, conosciuto come singolarità, in cui questa entità sfuggirà al nostro controllo. […] Potrebbe considerarci noiosi insetti da schiacciare” (fonte).
Così esordisce Singularity, l’ultimo video di Gianroberto Casaleggio, caricato il 4 ottobre 2016 sul blog di Beppe Grillo. In questa sorta di testamento postumo e visionario, dal punto di vista scientifico c’è davvero poco di attendibile. Il filosofo americano Henry G. Frankfurt non faticherebbe a individuare in tale bizzarro e subdolo intreccio di fatti e suggestioni un palese esempio di ciò che, più di dieci anni or sono, ebbe modo di definire come “stronzate” (bullshits). Ovvero, un prodotto retorico confezionato ad arte da chi “non prende in considerazione i fatti se non nella misura in cui possono aiutarlo a sostenere le sue affermazioni”. Tuttavia, come è noto, l’inattendibilità di un messaggio — o di un’argomentazione — non è (sempre) inversamente proporzionale alla sua efficacia sul piano della comunicazione. Specie se, non senza una qualche malizia, il retore in questione fa leva su angosce e paure antiche: come quelle provocate dal progresso scientifico e dall’evoluzione tecnologica.
Ed è proprio per questo — ovvero il periodico ritorno di angosce e paure antiche — che in epoche di significativa evoluzione tecnologica come questa occorre soffermarsi e riflettere anzitutto sulla nostra percezione psicologica e culturale delle “nuove macchine” che, sempre più performative, al contempo affascinano e inquietano la nostra specie.
A ben vedere, infatti, il timore che le “macchine” si sviluppino al punto da emanciparsi dai programmi e dagli ordini degli umani per poi ribellarsi ai loro “creatori”, riaffiora ogni qualvolta la tecno-scienza riesce a innescare radicali discontinuità nelle pratiche di vita e crisi profonde nelle più consolidate credenze e convinzioni della nostra specie. Scriveva Thomas Carlyle, già nel 1829, in piena Rivoluzione industriale: “Questa è l’età della macchina, in ogni senso del termine. […] Ovunque l’artigiano vivente è stato espulso per far posto ad un esecutore senz’anima (inanimate), ma più veloce. La spoletta sfugge alle dita del tessitore e finisce tra quelle d’acciaio che la fanno girare più rapidamente”.
La catastrofe pare sempre l’orizzonte più probabile quando vengono meno certezze e consuetudini; e alle macchine, sempre più invasive e performanti, è fin troppo facile assegnare un ruolo da protagoniste sulla scena dell’apocalisse annunciata. Dopotutto, prefigurare l’incubo — ben al di là delle evidenze disponibili — aiuta a costruirsi un alibi, o quanto meno a dotarsi di un pretesto per non affrontare la transizione (o la rivoluzione) tecnologica (e dunque culturale) in corso. Ovvero, la provocazione di un’epoca che ci chiede di ricominciare a pensare, mettendoci davvero in discussione.
Detto ciò, proviamo però a stare al gioco delle nostre paure. E attribuiamo, per un attimo, una qualche “credibilità” al prossimo dominio di una intelligenza superiore. Proviamo quindi a chiederci cosa, davvero, ci fa paura di tale ipotetico scenario. Nel 2014, il filosofo Nick Bostrom, in un esperimento mentale, ha immaginato una intelligenza artificiale progettata per produrre graffette (paperclip maximizer) che, un bel giorno, svincolandosi dai programmi stabiliti, decidano di “fare di testa sua”. E così si attiva per aumentare i ritmi di produzione e per perseguire un disegno (intelligente?) piuttosto preciso: “trasformare la Terra e regioni sempre più vaste dello Spazio in fabbriche di graffette”.
Scompensi e disordini sono intuibili; tuttavia, più che un’analisi dei danni, Bostrom intende sottolineare il rischio di una “super-intelligenza” fuori controllo. Ma che cos’è una super-intelligenza fuori controllo? A prima vista, il paperclip maximizer di Bostrom parrebbe piuttosto una macchina “impazzita”, o comunque non particolarmente intelligente. In realtà, l’intenzione del filosofo svedese di sede a Oxford è quella di contemplare l’eventualità, e dunque il rischio che una “super-intelligenza” artificiale possa essere mossa da motivazioni o da una psicologia dissimili da quelle umane, producendo così in azioni tanto scellerate.
Si potrebbe replicare che, come la storia (umana, troppo umana) insegna, non c’è bisogno di essere “super-intelligenze” per macchiarsi di progetti scellerati; e, d’altra parte, non si capisce perché motivazioni e psicologie diverse dalle nostre dovrebbero, per ciò stesso, essere amorali (se non addirittura immorali). Il sospetto, anche qui, è sempre lo stesso. Più che una razionale previsione dei rischi potenziali associati alla futuribile diffusione di una tecnologia particolarmente avanzata, pare farsi largo, tra una argomentazione e l’altra, la tentazione di sublimare in una prospettiva catastrofica un pensiero ancora più scomodo e difficile da gestire.
Una “super-intelligenza” degna di tal nome, infatti, non sarebbe semplicemente un calcolatore molto potente. Ma dovrebbe essere, piuttosto, una macchina libera di pensare e – in quanto tale… – potenzialmente pericolosa. Proprio come noi, potenzialmente pericolosi in quanto “non programmati” per fare il Bene.
Dopotutto, come notava opportunamente Paul K. Feyerabend: “assumiamo di riuscire a impiantare il Bene in tutti, come faremo poi a ritornare al Male?”. Nella possibilità di quel “ritorno al Male” auspicato dal filosofo austriaco non va colto un gratuito esercizio di relativismo; quanto piuttosto la rivendicazione di quella libertà che ci chiama a rispondere delle nostre scelte e delle nostre azioni.
Se dunque temiamo davvero che un qualche algoritmo, in un futuro più o meno prossimo, potrà scegliere autonomamente tra Bene e Male, è forse (anche) perché quell’intelligenza artificiale, prima ancora di esistere, ci ricorda chi siamo, nel Bene e nel Male. Il che dovrebbe ulteriormente impegnarci a interrogare il nostro rapporto con la tecnologia, lavorando insieme affinché gli effettivi problemi e le reali criticità posti da una nuova ontologia tecnologicamente aumentata non degenerino negli improbabili e seducenti sproloqui di qualche profeta di sventura.
Procedere in questa direzione potrebbe significare, per esempio, comprendere meglio di cosa parliamo quando parliamo di intelligenza delle macchine. È davvero un insieme di abilità e competenze in qualche modo paragonabile alla nostro modo di apprendere e comprendere; oppure no?
Dialoghiamo già da tempo con assistenti vocali sempre più interattivi, presto avremo frigoriferi che “fanno la spesa” da soli e automobili che ci porteranno a destinazione senza bisogno di guidarle. E la lista potrebbe proseguire a lungo, ma fino a che punto (e in che termini) possiamo definire questi oggetti/dispositivi “intelligenti” così come noi siamo (o pensiamo di essere)?
Per azzardare una risposta, potremmo ragionare attorno a un caso classico: il gioco degli scacchi. Molti ricorderanno che nel 1997 il campione del mondo Garry Kasparov fu sconfitto da Deep Blue, un computer della IBM. L’evento fece, comprensibilmente, scalpore e non furono pochi coloro (media e non solo) che videro nell’esito di quello storico confronto l’inizio di una nuova era in cui l’intelligenza artificiale avrebbe inesorabilmente superato (e soppiantato) quella umana.
Tali conclusioni, già allora, parvero tanto affrettate quanto infondate agli esperti sul campo. Per esempio, John McCarthy — uno dei padri dell’intelligenza artificiale — aveva prontamente osservato che la vittoria di Deep Blue svelava molto più del gioco (gli scacchi) che non della natura di un comportamento “intelligente” in quanto tale (Youtube).
Il senso della battuta di McCarthy riecheggia e si esplicita nelle recenti riflessioni di Luciano Floridi, il quale nel suo La quarta rivoluzione. Come l’infosfera sta trasformando il mondo (Raffaello Cortina, 2017), torna sui fatti presi in esame sostenendo senza mezzi termini che “giocare a scacchi richiede certamente una notevole intelligenza se il giocatore è umano, ma non ne richiede alcuna se il giocatore è un computer”. Una frase apparentemente paradossale, ma che rappresenta un prezioso indizio per sgombrare il campo dagli equivoci di un uso poco preciso e spesso disinvolto del termine “intelligenza”.
Per gettar luce sulla questione Floridi — docente di filosofia all’Università di Oxford — introduce il suo lettore a due questioni basilari e cruciali per chiunque voglia anche solo orientarsi nel mondo delle “macchine pensanti”: il “problema del frame” e il problema della “fondazione simbolica”. Di che si tratta?
Procediamo per gradi. A molti sarà capitato di vedere dei tagliaerba robotica in azione e saranno anche rimasti colpiti da come, con precisione, rasano il prato di una villetta. In realtà, come nota Floridi, perché la robotica da giardinaggio funzioni occorre “adattare” l’ambiente alle sue caratteristiche. Nella fattispecie, predisporre un filo perimetrale che delimiti l’area in cui tagliare. La scacchiera è solo un contesto più complesso di un giardino, ma continua a essere una “cornice” (frame) dentro cui progettare lo spettro di interazioni di cui una macchina può essere capace.
“La vera difficoltà — spiega Floridi — è avere a che fare con l’imprevedibilità del mondo là fuori, pieno di trappole e di agenti sia collaborativi sia competitivi”. E il punto è che, al momento, nessuno è ancor riuscito a realizzare “intelligenze” capaci di gestire razionalmente l’incertezza della realtà eccedente ogni cornice. Le macchine sanno essere intelligenti solo entro ambienti/contesti precisi e delimitati.
Ma non è tutto… c’è un altro limite che attualmente qualifica e circoscrive il pur significativo potenziale dell’intelligenza artificiale: trattasi, appunto, del sopracitato problema della fondazione simbolica. In sintesi, l’intelligenza artificiale dimostra tutto il suo potenziale ogni qualvolta le informazioni da elaborare in base a una serie di regole (e sulla base delle quali agire) siano riducibili a una questione di codificazione, decodificazione, o modificazione di pattern di dati non interpretati.
Per loro – aggiunge Floridi – “i problemi diventano insormontabili quando la loro soluzione richiede l’efficiente manipolazione d’informazioni, vale a dire di dati ben formati e dotati di significato”.
In termini più espliciti, tra noi e le macchine c’è quello che potremmo definire un “salto semantico”. Per tornare a Deep Blue, il computer dell’IBM ha battuto Casparov perché è una straordinaria “macchina sintattica”, dotata di una memoria straordinaria e di algoritmi sofisticati. Ma, ciò detto, non è affatto in grado di “comprendere” la sua vittoria e il significato delle strategie che lo hanno portato a tale risultato.
E noi, non sappiamo ancora come aiutare le macchine a fare quel “salto” che porta dalla “sintassi” alla “semantica”; ovvero, dai dati ai significati. Il che potrebbe anche rassicurarci, da un certo punto di vista. Ma, come scienza e filosofia insegnano, occorre andare fino in fondo alle questioni e provare quindi a chiedersi, nel caso specifico, cosa ci impedisca di fatto di produrre macchine in grado di comprendere ed elaborare dati e informazioni (possibilmente) anche al di fuori di contesti circoscritti e opportunamente definiti. Cosa ancora non sappiamo?
Ciò che ci manca, anzitutto, è una reale comprensione di come gli animali – compresi i primati superiori come noi – si dimostrino effettivamente in grado di risolvere il problema della fondazione simbolica. In altre parole, le macchine avranno una qualche speranza di cominciare davvero a “pensare” solo quando impareremo come noi esseri umani riusciamo a processare informazioni dotate di significato.
Anche in questo caso, dunque, pensare con le macchine significa indurre l’essere umano ad accogliere sempre e di nuovo la sfida che dal Tempio di Apollo a Delfi si lanciò alla nostra specie: “γνῶθι σαυτόν” (conosci te stesso). Un compito arduo, non vi è dubbio. Ma allo stesso tempo, un dovere ineludibile per chiunque ambisca (e non solo parole) a progettare un futuro sostenibile, il più possibile al riparo da false credenze e autentiche “stronzate”…