Intelligenza artificiale e mondi reali

Marzo 2025

Maurizio Tirassa

Albert Einstein, Speech to students at the California Institute of Technology, in “Einstein sees lack in applying science”, The New York Times, 16 February 1931.

“Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them.”

Frank Herbert, Dune, 1965

1. Storia e teorie

L’impresa sociale (culturale, politica, economica), scientifica e tecnologica chiamata intelligenza artificiale nasce a cavallo della metà del Novecento dalla convergenza di un insieme di prospettive allora rivoluzionarie.

La prima in ordine logico di tali prospettive è la teoria dei sistemi, cioè l’idea che alcune entità del mondo (una cellula, un intero organismo, una nave, una nazione) possano essere convenientemente descritte come macchine complesse. L’ambiente interno di un sistema è separato da quello esterno grazie a un confine o barriera semipermeabile che lo rende strutturalmente differente e parzialmente autonomo.

Il sistema è complesso in quanto composto da sottosistemi, cioè da elementi che interagiscono preferenzialmente tra loro, ma interagisce con l’ambiente esterno come un’entità unica grazie a un insieme di recettori o sensori e di attuatori o effettori che, rispettivamente, raccolgono informazioni dal mondo e dall’ambiente interno, e realizzano nel mondo le conseguenze delle dinamiche interne al sistema.

La seconda prospettiva importante, concettualmente derivabile dalla prima, è la cibernetica, cioè l’idea che uno di questi sottosistemi possa assumere il mandato di supervisionare e regolare il funzionamento complessivo del sistema. Il termine venne coniato a partire dal greco kybernḗtēs, che indica il timoniere di una nave e dal quale discende anche l’italiano governo. Il sistema di controllo si occupa di coordinare il funzionamento degli altri sottosistemi e di gestire le interazioni con l’ambiente esterno, avocando a sé per quanto possibile la raccolta e l’eventuale memorizzazione delle informazioni, la presa di decisioni, e l’invio di comandi agli effettori.

La terza prospettiva importante è la teoria della computazione. Questa è l’idea che sia possibile automatizzare una sequenza di operazioni eseguita da un sistema se si dispone del corrispondente algoritmo, cioè di una descrizione formale completa del suo svolgimento. L’ingresso e l’uscita del sistema possono allora essere connessi meccanicamente in modo deterministico o statistico senza necessità di un intervento esterno (dopo eventualmente la fase di progettazione, ma anche questa specifica può essere superata da macchine che si autoriproducono).

Anche un umano può essere in grado di eseguire un algoritmo, ad esempio quando usa le regole imparate a scuola per moltiplicare numeri di più cifre o per risolvere un’equazione; la differenza, vedremo più in là, è che l’umano conosce l’algoritmo e decide di usarlo, come può usare qualunque altro strumento, ma non è l’algoritmo.

Infine, è cruciale il funzionalismo, l’idea che ciò che un sistema fa possa essere descritto nei termini delle funzioni svolte e non nei termini degli apparati materiali che compongono il sistema. Ad esempio, possiamo descrivere un impianto di riscaldamento domestico come composto da un rilevatore di temperatura (un termometro), un’entità capace di generare calore (ad esempio una stufa), e un semplice sistema decisionale (un termostato) che accende o spegne la stufa a seconda della rilevazione fornita dal termometro. Nella terminologia che abbiamo introdotto l’impianto complessivo è il sistema, il termostato è il suo sottosistema di controllo, e la regola che il termostato applica per “decidere” se accendere la stufa, spegnerla, o lasciarla nella modalità nella quale si trova è l’algoritmo. Un algoritmo che mantenga la temperatura intorno ai 20 gradi potrebbe avere una struttura di questo tipo: misura la temperatura; se è inferiore a 19 gradi e la stufa è spenta, accendila; se è superiore a 21 gradi e la stufa è accesa, spegnila; in qualunque altro caso non fare niente e misura nuovamente la temperatura. Come ciascuna componente del sistema sia realizzata materialmente non ha importanza a questo livello di analisi, purché sia in grado di svolgere la funzione ad essa assegnata. La temperatura può essere misurata con un sistema a infrarossi, con un metallo che si espande e si contrae, con la mia percezione soggettiva o con un voto a maggioranza dei presenti nella stanza: al di là del grado di precisione e di altri dettagli, ognuna di queste strutture materiali svolge la medesima funzione. Analogamente, sebbene abbia parlato di una stufa, il calore può essere generato in molti modi diversi; il termostato può essere un circuito elettrico che si apre e si chiude o un sistema di leve e pulegge, e così via. Un algoritmo che descriva la sequenza delle operazioni coinvolte è una versione astratta, formale del processo, del quale coglie il livello funzionale (raccogli informazioni; usale per prendere una decisione; metti in pratica la decisione) prescindendo dalle specifiche materiali. Questo è il cosiddetto principio della realizzabilità multipla: due sistemi che svolgano le medesime funzioni (cioè che, al netto dei dettagli, diano un medesimo output a seguito di un medesimo input) sono equivalenti, quale che sia la rispettiva struttura materiale.

Nel corso degli anni ’50 del XX secolo ampie componenti di queste prospettive e delle comunità di ricerca che davano loro vita si fusero in un’area relativamente omogenea che diede origine all’intelligenza artificiale, cioè al tentativo di creare macchine che potessero dirsi intelligenti nello stesso senso nel quale lo sono gli umani; alla psicologia cognitiva, cioè al tentativo di ricostruire la psicologia sull’assunto che la mente umana sia una macchina computazionale; e a correnti importanti di altre discipline tra le quali la linguistica, la filosofia della mente o le neuroscienze. Un paio di decenni più tardi, e con qualche aggiustamento che qui non ha importanza, quest’area vasta e articolata venne ribattezzata scienze cognitive.

Il postulato di base è che il pensiero consista nella manipolazione di configurazioni interne del sistema (di tipo logico-sintattico nelle scienze cognitive cosiddette classiche, oppure a pattern statistici in quelle più recenti) ad opera di un algoritmo o di un insieme di algoritmi. La mente sarebbe il sistema di controllo automatico dell’organismo, in assenza o irrilevanza dell’armamentario col quale siamo abituati a pensarla: la coscienza, l’anima, l’inconscio etc. sono sostituiti da un insieme di algoritmi, operazioni meccaniche autosufficienti che non richiedono né giustificano l’esistenza di alcuna soggettività come la intendiamo comunemente.

È interessante notare fin d’ora che questo è per l’appunto un postulato, cioè una posizione di principio indimostrata che viene assunta come punto di partenza per costruire sistemi di pensiero più complessi e articolati. Questo è normale: qualsiasi scienza, e qualsiasi paradigma al suo interno, ha uno o più postulati come fondamento concettuale; i suoi sviluppi ulteriori consistono in parte, in senso logico più che necessariamente cronologico, nell’elaborare le complessità in essi implicite, ma in altra parte nel mettere a confronto tali sviluppi con le loro premesse e le loro conseguenze nel mondo reale e nel riesaminare i postulati stessi, a mano a mano che ne diventano più chiare la struttura interna, la coerenza etc. Questo dovrebbe arricchire la comprensione che abbiamo sia del mondo sia della nostra conoscenza di esso, e prevenire o correggere gli errori che possiamo commettere nel processo. Ma i postulati possono anche rivelarsi problematici, infelici o sbagliati, e venire di conseguenza abbandonati per cercarne di migliori.

Se, per tornare sul tema, la mente è un programma per computer, specularmente un programma per computer è una mente, o almeno può esserlo se è scritto nel modo adatto; in questa prospettiva, che le funzioni che chiamiamo mentali girino su un calcolatore al silicio o su un cervello al carbonio non fa differenza, se non in qualche dettaglio di scarso interesse. L’automazione di questi processi potrebbe essere vista come il culmine e il punto d’arrivo di una lunga tradizione del pensiero occidentale che, a partire come minimo dal sillogismo aristotelico, mette in relazione pensiero, logica e linguaggio, oppure come una sua profonda e devastante distorsione.

In ogni caso, negli anni ’60 e ’70 questo programma di ricerca si espanse con velocità e potenza impressionanti in tutti gli ambiti che menzionavo: informatica, psicologia, filosofia della mente e del linguaggio e così via, con la parziale eccezione delle neuroscienze, che erano ancora in cerca di un’epistemologia e di una metodologia che ne permettessero il decollo. Simultaneamente, nel tentativo di salvare le specificità della mente umana, s’appuntarono su di esso obiezioni imperniate su ciò che si presumeva un computer non sarebbe (mai) stato in grado di fare, come giocare a scacchi, intrattenere una conversazione e in generale superare il test di Turing, cioè comportarsi in modo indistinguibile da quello degli umani. Questo è interessante per diverse ragioni che accomunano tutti i sostenitori dell’impresa e molti suoi critici. Vediamone alcune.

L’intelligenza in questa prospettiva consiste nel fare cose, dal che discendono problemi di natura sia teorica (cosa significa fare qualcosa? quali sono le premesse, le conseguenze e in generale la natura di questo fare? ci sono differenze, e se sì quali, tra il fare di un agente senziente ed eventualmente dotato di libero arbitrio e gli effetti del funzionamento di un meccanismo?) sia tecnica (es. le questioni note come qualification problem e frame problem, sintetizzabili nell’impossibilità di riconoscere e circoscrivere formalmente le specifiche precondizioni e conseguenze di un evento o di un’azione rispetto al contesto nel quale hanno luogo).

Dietro alle questioni teoriche c’è la proposta, avanzata da Alan Turing fin dal 1950, che una macchina venga considerata intelligente come un umano se il suo comportamento è indistinguibile da quello dell’umano. Se dando ai due il medesimo input essi producono il medesimo output, ciò che materialmente accade all’interno dell’una e all’interno dell’altro è irrilevante, come è irrilevante che dentro l’una ci sia hardware o dentro l’altro un sistema nervoso, o wetware. Questo è esattamente il nocciolo del principio della realizzabilità multipla che ho delineato sopra; l’implicazione è che quelle che siamo abituati a considerare caratteristiche cruciali dell’essere umano, quali la soggettività, la coscienza, l’anima comunque intesa, non incidano sul comportamento e non abbiano quindi alcuna importanza.

Parti importanti delle neuroscienze e della psicologia sono state leste a proporre esperimenti volti a dimostrare che la coscienza è, nel migliore dei casi, spettatrice passiva di eventi che si svolgono fuori o al di sotto del suo fluire. Dal punto di vista di queste discipline, il beneficio dell’adesione a un meccanicismo newtoniano sta nella possibilità di ottenere finalmente un riconoscimento come scienze a pieno titolo, non dissimili dalla fisica classica.

Si è dunque deciso che il marchio dell’intelligenza sia fare cose, anzi farle automaticamente, e in più si è definito questo fare cose dal punto di vista di un osservatore esterno che si pretende neutrale, caratterizzato da quella che Thomas Nagel chiamò la view from nowhere, la vista da nessun luogo, e non da quello dell’agente stesso o di un osservatore fenomenicamente empatico. Se il fare viene letto come comportamento e non come scelta o esperienza, non sorprende che anche gli umani valutino sé stessi e i propri simili esclusivamente su questo criterio. L’idea che le macchine possano essere umane è dunque l’altra faccia di quella, speculare e per molti versi assai più importante e gravida di conseguenze, che gli umani siano macchine. I nessi esistenziali e pragmatici con il mondo nel quale viviamo, nel quale siamo meri ingranaggi di una megamacchina sociale ed economica, che può decidere di sostituirci in qualunque momento e per qualunque ragione, senza doverne rispondere a chicchessia e men che meno a noi, dovrebbero essere evidenti. L’umano è intercambiabile con la macchina senza residui di alcun tipo che non siano quelli meramente economici. La macchina è solo un grumo di materia opportunamente strutturato per funzionare, ma tale è anche l’umano: per quanto possa lamentarsene, ciò che conta è solo lo sguardo dell’osservatore. L’osservatore però non è neutrale od oggettivo: la view from nowhere non esiste, e quindi abbiamo in ultima analisi una questione di potere: quanto valga un umano è stabilito da chi o cosa può decidere, sulla base di un proprio calcolo economico o di altro tipo, di continuare a utilizzarlo o di sostituirlo.

Un’altra conseguenza interessante di questa prospettiva è che i soli comportamenti degni di nota sono quelli che rendono la macchina utile al decisore, cioè quelli connessi alla produzione di qualcosa, tipicamente di tipo logico o linguistico: tastiera e monitor, o carta e penna, connessi a un sistema di pensiero presunto razionale, qualunque cosa ciò significhi, sono tutto ciò che serve a fare. Qualunque altro fare è sostanzialmente superfluo, o comunque privo d’interesse. Le macchine non si radunano intorno a un falò per raccontarsi le storie degli antenati, né si soffermano per ore a guardare le nuvole nel cielo, a meno che, naturalmente, questo non produca profitto per chi le ha programmate. Il corpo è semplicemente un robot che esegue i comandi impartiti dal sistema di controllo. Anche questo rispecchia un’antica, e un tempo nobile, tradizione culturale occidentale, e di nuovo è facile vederne sia le distorsioni rispetto ad essa sia le connessioni con la vita di un funzionario della società industriale e ancor più di quella dei servizi, magari online. Anche l’abbandono concettuale (e subito dopo sociale e politico) che i lavoratori manuali hanno subito negli ultimi decenni può essere letto in relazione a questa posizione.

Agli occhi del decisore, della megamacchina, gli avanzamenti tecnologici sembrano smentire le affermazioni più ingenue su ciò che l’AI non avrebbe mai potuto fare. La svolta più nota avviene nel 1997, quando un programma dell’IBM per il gioco degli scacchi chiamato Deep Blue batte l’allora campione del mondo Garry Kasparov in un torneo di sei partite per 3.5 a 2.5. La macchina però funziona in modo diverso dall’umano: dove questo fonda il proprio gioco sul riutilizzo creativo di spezzoni di partita memorizzati e sulla capacità di ingannare l’avversario quanto alla strategia adottata, quella lo fonda sulla potenza computazionale nonché, se ne avrà la conferma anni dopo, su un aiutino umano finalizzato al successo mediatico e al conseguente aumento del valore delle azioni dell’azienda produttrice.

Soprattutto, a differenza della macchina, Kasparov sa di essere impegnato nel torneo: lo sa perché sa cosa sia un torneo di scacchi, lo sa perché sa cosa siano l’IBM e Deep Blue, lo sa perché ha deciso di raccogliere la sfida lanciatagli dall’azienda (non dalla macchina), lo sa perché ha esperito il torneo e ci ha pensato su, tanto da intuire fin da subito, a lungo inascoltato, l’intervento umano dietro alle prestazioni della macchina, lo sa perché rifletterà sull’accaduto e ne discuterà più volte. La macchina non sa niente di tutto questo, anzi in effetti non sa niente di niente: non è un’entità tale da poter sapere alcunché. In più, gli scacchi occupano solo una parte della vita di Kasparov, che per il resto si svolge in un altrove esistenziale non scacchistico, non agonistico, non necessariamente raziomorfo, non necessariamente produttivo e, ad ogni modo, cosciente. A differenza della macchina, Kasparov è soddisfatto quando vince e dispiaciuto quando perde, e in più ride, mangia, legge libri, parla con altre persone, va al cinema, s’è sposato tre volte e ha avuto due figli, è impegnato in politica, gli capita di ammalarsi e così via. E ciascuna di queste attività interagisce con le altre: Kasparov non sarebbe probabilmente diventato un campione di scacchi in un differente contesto familiare, sociale, culturale, forse gli capita di pensare al giardino di casa mentre gioca, forse non si sarebbe messo a discutere di AI se non avesse perso la sfida e così via.

A cosa serve allora, e prima ancora cosa significa, che un sistema artificiale sconfigga un umano, se in quel sistema non c’è alcuna nozione o consapevolezza di cosa siano un torneo, una vittoria o una sconfitta? Se non c’è nessuno in casa? Contro chi gioca Kasparov, e in che senso di preciso perde se non c’è qualcuno che vince? Evidentemente, la lettura che comunemente si dà dell’episodio sembra avere senso solo se fissiamo lo sguardo sul ristretto dominio della produzione scacchistica, ignorando l’essere umano che Kasparov è e che la macchina non è e considerando entrambi soltanto come ingranaggi di un sistema produttivo che li vede in terza persona, nei termini delle funzioni che svolgono nella sua economia complessiva. Nulla può e deve esistere al di fuori del sistema produttivo: dietro le apparenze di un torneo di scacchi, per quanto sui generis, si profilano temi ben più complessi, che finiscono per toccare direttamente l’ontologia o la metafisica.

Decidere che ciò che vale, anzi ciò che esiste è la produzione e non l’essere umano, che la vita deve venir guardata in terza persona, come essa, e non in prima e in seconda, come io/noi e tu/voi, è un passaggio nient’affatto neutrale, né dal punto di vista esistenziale, filosofico se vogliamo, morale, etico, né da quello politico o da quello più pragmatico. Significa trasformare gli esseri umani in oggetti, ma non tutti gli esseri umani: soltanto quelli che non possono negoziare le condizioni della propria esistenza e del proprio valore. Gli autonominati semidei che invece progettano la megamacchina, che decidono quali siano i criteri per pesare e confrontare il valore degli umani e delle macchine, mantengono, o s’illudono di mantenere, un’esistenza e un valore di prima persona, indipendenti dalla produzione o da qualsiasi altra considerazione che non sia il potere.

La demolizione di principio del programma dell’AI arriva proprio su questi temi. Tra i numerosi argomenti portati da filosofi e scienziati (Dreyfuss, Winograd & Flores, Weizenbaum e altri) delineo i due che mi paiono i migliori, entrambi proposti da John Searle. Il primo, del 1980, è quello detto della stanza cinese, col quale si dimostra che la sintassi non veicola la semantica, cioè che, quale che sia la descrizione che un osservatore può dare dei suoi comportamenti, il computer non capisce nulla di ciò che fa, appunto perché non c’è nessuno dentro che possa capire alcunché. Un algoritmo non può essere senziente. La computazione è pertanto insufficiente a generare intelligenza; resta però la possibilità che sia almeno necessaria, cioè che basti aggiungere ad essa la semantica. Il secondo argomento, del 1992, elimina anche questa possibilità: l’algoritmo neanche esiste se non nell’occhio di un osservatore, cioè di un soggetto senziente che abbia la capacità e l’intenzione di guardare il mondo sub specie algoritmica, come succede a un umano quando decide di usarne uno per risolvere un problema. La mente è coscienza, soggettività, esserci; e all’interno delle sue dinamiche può usare molti attrezzi tra i quali, una volta imparato a farlo, il calcolo matematico o logico. Nel computer un simile soggetto non c’è: c’è solo materia, ordinata e funzionante secondo le leggi della materia, ma il calcolo è un utensile della mente e non una proprietà della materia. L’idea presunta scientifica che tra i circuiti del computer ci sia qualcuno che calcola è animismo, non diverso dai cargo cult melanesiani o dalla meraviglia di un bimbo che veda muoversi un trenino elettrico.

A queste obiezioni di principio, che appaiono definitive e alle quali infatti non sono stati opposti controargomenti efficaci, se ne aggiunsero, nello stesso periodo, altre robustamente pragmatiche. I cosiddetti sistemi esperti sviluppati negli anni ’70 erano programmi intesi “ragionare” su basi di conoscenza specialistica, ad esempio (nel caso di Mycin, uno dei primi e più famosi) sulla diagnosi differenziale e sul trattamento antibiotico di malattie infettive di origine batterica, nozioni che all’epoca non erano banali per gli stessi medici. L’idea era di commercializzarli come strumenti “intelligenti” di consultazione e supporto per professionisti e organizzazioni. Il tentativo fallì a causa di un coacervo di difficoltà tecniche e di rifiuti di ordine psicologico e socio-culturale. Tra le prime c’erano i problemi connessi alla cosiddetta estrazione dagli esperti della conoscenza da scrivere nel data base, la rigidità e la fragilità delle prestazioni, le questioni legate agli aggiornamenti etc.; tra le seconde la mancanza di senso comune, la sovrasemplificazione dei presunti ragionamenti, la natura sostanzialmente aliena del programma e delle interazioni con esso, assai diverse dalla conversazione che un professionista può avere con un collega più esperto, e poi ancora la contrarietà dei professionisti a delegare parzialmente o interamente a un software decisioni importanti per la salute di un paziente e cariche di responsabilità morali e legali, e forse anche il disagio, chiamato fenomeno della uncanny valley, nei confronti di una cosa che sembra somigliare un po’ a un essere umano senza esserlo davvero.

A questa prima ondata di fallimenti teorici e pratici seguì la frammentazione dell’area. Molti ricercatori di base si diedero chi alla robotica, chi a un’informatica più classica, chi a una riconsiderazione filosofica delle questioni in gioco, chi alla fenomenologia, chi alle neuroscienze o alla psicologia sperimentale. Molti di coloro che invece rimasero nell’area si spostarono concettualmente dall’idea di costruire un fratello digitale a quella, assai diversa, di produrre artefatti che funzionino, prescindendo dalla loro maggiore o minore capacità di duplicare la natura e le attività della mente umana, anzi per lo più dando per scontato che non ne siano affatto capaci, come diverrà chiaro pochi anni dopo con il caso di Deep Blue.

Questo pone una questione interessante: ammesso (e per nulla concesso) che quella del computer sia un genere di intelligenza diverso da quella umana, che funziona sulla base di principi e meccanismi differenti, per quale ragione dovremmo fidarcene come ci fidiamo di quella umana? Non sarebbe come aspettarsi da un rinoceronte gli stessi comportamenti che ci attendiamo da uno squalo o, appunto, da un essere umano? Affideremmo a una giraffa la gestione di un conflitto o a un armadillo quella di un problema di risorse umane? Naturalmente no: il fatto che invece siamo (o sembriamo essere, o siamo obbligati ad essere) disposti ad affidarli a un programma per calcolatori implica, se prendiamo le cose sul serio, che riteniamo che la sua (presunta) intelligenza sia non solo diversa dalla nostra, ma anche migliore di essa e comunque interessata al nostro benessere. L’alternativa, e questa è invece la posizione degli scettici, tra i quali c’è anche chi scrive, è che il computer non sia in alcun modo intelligente e questo ci riporta direttamente alla questione eminentemente politica delineata prima: chi decide di usare l’AI, per quali scopi, con quali controlli, rispondendo a chi e come, eccetera.

Collettivamente, ci troviamo dunque a oscillare tra l’idea che la cosiddetta AI sia identica a quella umana, l’idea che sia differente da quella umana ma comunque in qualche modo e misura caratterizzabile come intelligenza, e l’idea che si tratti di un macchinario non più intelligente di una lavatrice o di un tostapane; e ciononostante ci troviamo a interrogare i sistemi linguistici generativi come se fossero consulenti umani, addirittura più sapienti e saggi di noi, o ad affidare le sorti di processi variamente cruciali ad algoritmi statistici dei quali non siamo neanche in grado di predire efficacemente le prestazioni. Visto così, forse il problema è l’intelligenza umana più che quella delle macchine.

Ma rimaniamo sul percorso storico che abbiamo intrapreso. A seguito della crisi teorica, operativa e commerciale che delineavo, gli anni ’80 videro da un lato la temporanea scomparsa dell’etichetta stessa di intelligenza artificiale, ormai irrilevante per i ricercatori e connotata negativamente agli occhi del grande pubblico e dei decisori, e dall’altro la comparsa di almeno due modi nuovi di reimpostare le questioni ad essa connesse.

Uno è la robotica autonoma, cioè la costruzione di “agenti” capaci di muoversi nel mondo svolgendo vari tipi di compito: si tratta dunque dell’idea di robotica come siamo abituati a vederla nei film di fantascienza, differente dall’automazione industriale che pure, un tempo forse più di oggi, viene o veniva chiamata robotica. Quest’impresa sembra mettere in discussione la pretesa identità di intelligenza e pensiero formale: Rodney Brooks, uno dei primi e più importanti ricercatori dell’area, argomentava che gli elefanti non giocano a scacchi ma sono nondimeno intelligenti in una differente accezione del termine, basata su un complesso insieme di funzioni comportamentali più che sul ragionamento astratto, facoltà esclusivamente umana e forse di poche altre specie, e comunque filogeneticamente assai recente, sulla quale invece concentrava tutta la propria attenzione l’AI classica. Tuttavia, comprendere la natura e il funzionamento di un corpo intelligente s’è rivelato tutt’altro che semplice: se è certamente vero che un elefante è più intelligente di un sistema esperto, non c’è ragione di pensare che un computer sia più intelligente di un altro per la sola ragione che è installato a bordo di un automa semovente anziché stazionare su una scrivania. L’assunto implicito, in effetti, è che l’intelligenza dipenda dallo specifico algoritmo o insieme di algoritmi considerato, ma questo si scontra con le obiezioni formulate ad esempio da Searle, che mostrano come nessun algoritmo possa essere intelligente. Da un altro punto di vista, l’assunto che agenti estremamente semplici e non-senzienti possano evolvere generazione dopo generazione fino a diventare intelligenti, com’è accaduto alla vita sulla Terra, non ha senso in questo caso: gli organismi biologici semplici sono comunque, appunto, biologici; sono già agenti. Un computer montato su un carrello rimane un computer montato su un carrello, non agisce in alcun senso interessante del termine.

La mente e il corpo coevolvono, anzi sono, in un certo senso, la stessa cosa: come la mente ha bisogno di un corpo per funzionare, allo stesso modo essa non è un’aggiunta tardiva, opzionale a un corpo che già funziona bene anche senza di essa. I robot autonomi che cominciano a emergere, in primo luogo negli ambiti militari e di sicurezza e poi in quelli dell’assistenza alle persone e in altri ancora, hanno capacità motorie che spesso ci appaiono stupefacenti, ma queste non sono accompagnate da alcun tipo di cognizione, e in questo non si discostano, né lo potrebbero, dall’intelligenza artificiale incorporea che ho descritto finora. Anche le difficoltà incontrate nella costruzione di veicoli a guida automatica o ibrida, che pure si muovono in contesti relativamente più semplici rispetto a quelli di agenti biologici o di robot militari, sono dovute al medesimo tipo di questione.

L’altro sviluppo cruciale, anch’esso iniziato negli anni ’80, è stato di mantenere l’idea di un’intelligenza artificiale incorporea caratterizzandola però con algoritmi statistici e non dichiarativi. Quest’idea (solo relativamente nuova, dato che discende da intuizioni risalenti alla metà del Novecento) si fonda sulla capacità di individuare tendenze statisticamente rilevanti in grosse basi di dati anziché, com’era il caso dei sistemi esperti negli anni ’70, su un’ontologia predefinita di conoscenze dichiarative e di regole se… allora… che operano su di esse. Oggigiorno queste basi di dati sono fornite per lo più dall’intero web accessibile o da sue porzioni opportunamente ritagliate. Il marketing e, per la verità, non pochi ricercatori pretendono talvolta che i sistemi basati sulla statistica abbiano qualcosa in comune con il funzionamento non più di una mente astratta, ma del vero cervello umano. Benché questo richiami in qualche misura un rifiuto di identificare l’intelligenza con il solo ragionamento formale, astratto, ci sono vari problemi: in primo luogo, l’idea che i sistemi di controllo biologici siano macchinari statistici è stata demolita una prima volta negli anni ’50, insieme al comportamentismo o behaviorismo di Watson e Skinner del quale era l’infrastruttura concettuale, proprio ad opera delle allora nascenti scienze cognitive, e una seconda volta negli anni ’80 con le critiche a quello che all’epoca veniva chiamato connessionismo. Le obiezioni sono schiaccianti tanto sul piano teorico quanto su quello empirico. In secondo luogo, l’idea che il cervello produca intelligenza in assenza di mente è assai discussa ed è per molti, e anche per me, apertamente insostenibile o priva di senso. In terzo luogo, le pretese parentele con il funzionamento del sistema nervoso sono comunque assai vaghe, riducendosi in buona sostanza al fatto che l’attivazione di un nodo della rete viene facilitata dall’attivazione dei nodi a monte e può contribuire all’attivazione di quelli a valle, il che richiama in qualche modo la vulgata comune sul funzionamento delle singole cellule cerebrali. Nonostante questa fragilità concettuale, capitava spesso all’epoca (e tuttora capita) di veder etichettati gli algoritmi statistici come reti neurali. L’idea di intelligenza artificiale, uscita dalla porta, è dunque rientrata dalla finestra sotto forma di una presunta simulazione o duplicazione del livello cerebrale anziché di quello mentale. Posto che entrambi i paradigmi sono concettualmente sbagliati, ci si può chiedere quale lo sia di più.

Anche mettendo da parte le analogie o metafore biologiche più o meno forzate, esattamente come nel caso della robotica questi sviluppi tecnici non toccano gli argomenti di principio sopra delineati: se l’intelligenza non è algoritmica quando l’algoritmo opera a posteriori su una base di conoscenza precostituita, non può esserlo neppure quando esso opera a priori su una massa di dati non strutturati con l’obiettivo di costituirla. In un certo senso, anzi, la situazione è ancora peggiore nel secondo caso, perché non si può neppure individuare un’ontologia, per quanto fittizia o metaforica, della conoscenza disponibile: la base di dati è assemblata soltanto in base alle co-occorrenze statistiche dei dati stessi, senza alcun criterio epistemico, tanto che può accadere che neppure il progettista sappia di preciso cosa succede e perché. Mentre in un sistema dichiarativo ciascuna entità ha una definizione e dei criteri di identificazione, in uno connessionista non ci sono entità distinte, ma solo forme che possono oppure no richiamare altre forme, come nuvole che ai nostri occhi assomiglino l’una a un cavallo e l’altra a un fungo, ovviamente senza essere né questo né quello.

Il fatto è che in qualunque insieme di dati di dimensioni sufficienti si possono trovare una quantità di correlazioni statisticamente forti ma del tutto spurie, come quella tra il numero di film con Nicolas Cage prodotti in ciascun anno e quello degli annegamenti da caduta in piscina negli USA o quella tra la spesa mondiale annuale in videogiochi e la quantità totale di energia prodotta da centrali nucleari. A un umano il buon senso dice che questi dati sono buoni al massimo per qualche fantasia ironica, ma la macchina, che non ha senso né buono né meno buono, li associa semplicemente perché si dispongono lungo curve simili; dopodiché l’umano, che si ritiene intelligente e magari si picca di ripetere che la correlazione non implica causazione, è poi pronto a meravigliarsi davanti a un algoritmo che identifica correlazioni a casaccio ed è per natura incapace di rendersi conto della maggiore o minore assennatezza delle correlazioni che trova, per tacere della causazione.

La natura statistica del sistema è all’origine anche di altri tipi di errore nella produzione delle risposte: errori che, di nuovo, sono tali dal punto di vista dell’utente umano e non da quello (peraltro inesistente) del sistema. Poiché la prestazione del sistema artificiale dipende dall’interazione tra l’algoritmo di apprendimento e il materiale sul quale esso viene esercitato, tali errori possono avere numerose origini.

Una è la natura intrinsecamente e irrimediabilmente contraddittoria di qualunque materiale complesso: gli umani si muovono nella complessità grazie all’intelligenza e al buon senso e cioè alla capacità di intuire o giudicare la rilevanza e la plausibilità delle informazioni incontrate e dei collegamenti che possono essere tracciati tra di esse. Poiché la macchina è intrinsecamente priva di cognizione, questo tipo di errore è per principio ineliminabile, qualunque cosa dica il marketing delle aziende che producono strumenti di intelligenza artificiale. Si può naturalmente circoscrivere e rendere coerente il materiale di addestramento, ma questo significa ricostruirlo da cima a fondo, perdendo i presunti benefici dell’uso di questi programmi e ritornando in un certo senso all’AI vecchio stile, della quale comunque già sappiamo che non funziona; o si possono aggiungere strati su strati di programmi che cercano conferme alle elaborazioni dei programmi di ciascun livello inferiore, ma anche questo nel migliore dei casi può mitigare il problema, non risolverlo, e di nuovo al prezzo di una diminuita efficienza del sistema. E tutto questo, se pure funzionasse localmente, non potrebbe comunque risolvere le questioni di principio e pertanto offrire soluzioni generalizzate.

Altri problemi vengono o verranno dalla reimmissione nel web dei dati in uscita dalla macchina, che dunque entrano a far parte del materiale sul quale essa stessa o altre macchine verranno addestrate. Gli errori tenderanno allora ad amplificarsi fino a rendere del tutto inutilizzabile sia il materiale sia la macchina; o meglio, dato che a quanto pare s’è deciso irrevocabilmente che le macchine saranno impiegate, fino a renderle del tutto inaffidabili. Evidentemente le agenzie e le strutture che stanno imponendo l’uso dell’intelligenza artificiale ritengono di essere immuni dal caos che ne deriverà o di poterlo governare, facendone ricadere gli effetti su chi non avrà questo potere e non sarà in grado di esercitare controlli e interdizioni.

Infine, sembra destare qualche preoccupazione che la macchina possa incorporare nelle proprie risposte e nelle proprie decisioni i pregiudizi (di nazionalità, etnia, genere, religione etc.) presenti nel materiale di addestramento. Si potrebbe ribattere che il problema sta nella società che produce tali pregiudizi prima che nella macchina che li ripropone senza comprenderne significati e conseguenze. Da un altro punto di vista la questione permette però almeno un paio di considerazioni aggiuntive.

Una è che nel discorso pubblico la macchina viene solitamente caricata di un’aura di oggettività o addirittura di infallibilità. Da quest’idea, radicata (se in buona fede) in una cultura scientista che non è qui il caso di esaminare, deriva anche la trasformazione del mero pregiudizio umano in una verità del mondo difficile o impossibile da respingere, complice anche la rigidità interazionale che è intrinseca alla macchina. Se la macchina venisse considerata come qualunque altro elettrodomestico, se non venisse usata per coadiuvare o addirittura gestire decisioni importanti, la preoccupazione per i suoi pregiudizi si rivelerebbe un’inconsistente curiosità, meno interessante di una scritta ingiuriosa su un muro. Dato che invece la si pensa e la si impone come un oracolo e la si mette al centro di processi carichi di significative conseguenze individuali e sociali, ecco che i pregiudizi vengono solidificati e generano effetti non negoziabili e non riesaminabili. Come sempre il problema non è tecnico ma politico.

L’altra considerazione è che la macchina incorpora tutti i pregiudizi che trova nel materiale sul quale opera, non solo quelli che riguardano minoranze presuntivamente o realmente oppresse. In un sistema neoliberale, oltre a tutto sempre più soffocato da un pensiero unico su temi politici, economici, sociali e culturali, essa si troverà così a metaforicamente credere, e molto più materialmente a far sembrare scontato a utenti sempre meno capaci di critica, che esistano mercati che si autoregolano per il massimo bene di tutti e di ciascuno, che la natura umana si fondi sull’egoismo e su competizioni a somma zero tra vincenti e perdenti, che la storia del presente sia interpretabile nei termini di un conflitto tra democrazie e autoritarismi, che esista qualcosa come una verità scientifica indiscutibile e definitiva, e così via. Vero o non vero che sia ciascuno di questi assunti, resta la crescente difficoltà di avervi a che fare o di contrastarli; ed è difficile pensare che l’arrivo dell’AI nei media, nei sistemi educativi e formativi e nella società in generale possa migliorare la situazione. Come nel noto detto dell’eccezione che conferma la regola, i malumori esplicitati a proposito dei pregiudizi di genere o di colore della pelle finiscono per confermare implicitamente la neutralità, l’obiettività priva di pregiudizi di tutte le altre produzioni della macchina, distogliendo così il nostro sguardo dalla struttura reale del mondo nel quale viviamo.

2. Artefatti, società, potere

Eliminata dunque qualunque ipotesi, illusione o pretesa che l’intelligenza artificiale sia o possa essere senziente, almeno in un senso non troppo capzioso o solo vagamente metaforico, rimaniamo con dei normalissimi artefatti dell’ingegno umano. Tuttavia, questiartefatti sembrano fare cose più interessanti di quelle che fa una lavatrice.

I programmi di intelligenza artificiale, quale che ne sia la tecnologia sottostante e includendo anche la robotica autonoma, possono in effetti apparire dotati di una qualche forma di intelletto, tanto che a noi umani viene da interpretare erroneamente il loro funzionamento nei termini di un comportamento attivo della macchina. Ci troviamo nella curiosa situazione di avere artefatti non senzienti che però, visti da fuori, per l’appunto sembrano fare cose. Per di più alcuni di questi artefatti, in particolare quelli basati su algoritmi statistici e, spesso, i sistemi di controllo dei robot, fanno cose che non sono esplicitamente previste dal programma e che possono quindi sorprenderci o apparirci inspiegabili. Questa non è un’anomalia né un’evoluzione verso la artificial general intelligence o la singolarità, né un indizio di libero arbitrio o tanto meno di ribellione: accade semplicemente perché questi tipi di algoritmo determinano non le risposte, ma le analisi statistiche a partire dalle quali elaborarle. Si tratta di macchine probabilistiche, non deterministiche. Nondimeno, l’apparente complessità e l’imprevedibilità del comportamento della macchina generano inevitabilmente delle questioni.

Benché la cosiddetta AI si limiti, al pari di qualunque programma informatico “non intelligente” e più in generale di qualunque artefatto, a esistere secondo le leggi della materia, definite dalla circuitazione che la compone, sembra chiaro che se ne debbano considerare le peculiarità. Spostiamo ora l’attenzione dal funzionamento della macchina, del quale ho parlato nella sezione precedente, per domandarci in quali attività e contesti essa sia inserita, e come la sua presenza li modifichi o ne generi di nuovi.

Un artefatto è qualcosa che gli umani utilizzano per generare o modificare le proprie attività. Gli artefatti non hanno esistenza significativa in astratto, isolatamente. Ne hanno invece in quanto immersi in una società: quella che li ha prodotti o eventualmente un’altra che se ne impossessi e li reinterpreti. Ogni artefatto è integrato in reti di attività e interazioni umane, reali o potenziali, che lo rendono comprensibile e usabile. Così le posate da cucina vanno lette all’interno dei flussi dell’alimentazione umana, e in particolare di quelli di origine mediorientale e mediterranea; il loro uso è legato bidirezionalmente non solo alle necessità alimentari e all’anatomofisiologia umane, ma anche ai modi specifici che queste culture hanno di preparare e consumare il cibo, nonché alle tecniche e ai modi che hanno di produrlo e trattarlo, e poi ancora alle strutture produttive e sociali con le quali organizzano la propria sussistenza, alla disponibilità di materiali adatti e così via. Altre società hanno modi differenti di condurre le medesime attività: alcune usano bacchette, altre delle foglie, altre ancora le mani stesse; i loro attrezzi, le loro tecniche di cottura etc. sono corrispondentemente differenti. Ciascuna cultura è dunque una declinazione locale di bisogni e processi umani universali, e ciascuna è simultaneamente individuale, sociale, biologica.

La grande differenza tra gli utensili da cucina e le tecnologie cosiddette avanzate, tra le quali ovviamente quelle digitali e dunque l’intelligenza artificiale, è che i primi possono essere considerati in larga misura il prodotto spontaneo di una cultura con certe caratteristiche, certi costumi, certe condizioni ambientali etc., mentre le seconde sono il risultato di un processo di sviluppo sostanzialmente deliberato e guidato dall’alto. Mariana Mazzucato ha messo in luce come tutte le principali tecnologie contenute nei telefoni cellulari, nei tablet etc. siano state generate direttamente o indirettamente da agenzie o flussi di finanziamento statali, quasi sempre statunitensi e votati alla sicurezza, o da consorzi intergovernativi: tra le prime troviamo DARPA, Dipartimento della Difesa, Marina Militare, Dipartimento dell’Energia, Ufficio Ricerca dell’Esercito, CIA, NSF e altri, per l’appunto tutti statunitensi; tra i secondi il CERN. Le tecnologie interessate sono la telefonia cellulare, i protocolli di comunicazione e compressione del segnale, gli schermi touch e multitouch, il GPS, le batterie al litio, i micro dischi rigidi, i microprocessori, l’internet, il linguaggio HTML eccetera. Questo modello di sviluppo misto pubblico-privato è in effetti quello tipico di tutte le aree tecnologicamente avanzate dell’Occidente, inclusa fin dai suoi albori la conquista dello spazio e, in generale, tutto ciò che è riconducibile al complesso militare-industriale, come viene chiamato dalla metà del Novecento. L’intelligenza artificiale non fa eccezione.

Una volta che le tecnologie sono state rese disponibili dalla ricerca condotta o finanziata dallo Stato, ciò che le aziende fanno è di portarle nel mondo, specificandone alcune caratteristiche in base alle proprie possibilità, esigenze e strategie industriali e commerciali, recintandone l’utilizzo (tipicamente attraverso la brevettazione) e rivendendole infine allo Stato stesso e alle sue varie branche militari e civili nonché, solitamente, ai mercati interni e a quelli subordinati e amici. Per quanto queste dinamiche possano incidere sulla prestazione industriale ed economica dell’azienda, nonché sulla sua committenza a monte e sulla sua utenza o clientela a valle, hanno solitamente scarse conseguenze a ritroso sul lavoro di base, che a quel punto è sostanzialmente terminato e che rimane comunque sotto la guida e il controllo dei centri decisionali e finanziari che l’hanno generato, permesso e sostenuto. La mitologia del giovane nerd che, solo o con un paio di amici del liceo, sviluppa nel garage di casa tecnologie che tra la sorpresa di tutti rivoluzionano il mondo è ovviamente tale: mitologia e niente più. Nessun centro di potere è così stupido da permettere a un paio di studenti del terz’anno di Informatica di cambiare il mondo senza un suo controllo, e men che meno da permetterlo alle strutture di ricerca delle nazioni subordinate. Non è un caso se tutte le tecnologie avanzate attribuite al genio dell’Occidente collettivo vengono in realtà prodotte fin dall’inizio o acquisite appena possibile dalla nazione egemone.

Gli usi delle tecnologie sofisticate sono dunque determinati, in parte a priori e in parte a posteriori (cioè dopo una fase di esplorazione, verifica e calibrazione nel mondo reale), dai centri e dalle strutture di potere che le immaginano, le sviluppano e le adottano. Queste operano in associazione con imprese legate al complesso militare-industriale (e biomedico, digitale, mediatico) tramite politiche di contratti sul piano aziendale e di porte girevoli su quello personale.

Se dunque si prevede e s’intende che l’AI debba avere un impatto rilevante sull’andamento delle cose del mondo, allora sarebbe assai sorprendente che un governo sovrano, almeno l’unico rimasto in Occidente, non se ne riservasse un effettivo controllo; e allora bisogna domandarsi perché, e se si ritenga che i governi dell’Occidente, in questa fase storica, siano interessati al benessere delle rispettive nazioni e dei loro popoli e sia questo il quadro nel quale concepiscono le tecnologie avanzate. Se invece si pensa che l’AI non sia altro che un giocattolino, allora si può credere che il suo sviluppo sia lasciato ai soli flussi commerciali e alle mode culturali, ma diventano incomprensibili gli investimenti economici e politici da parte delle agenzie militari e della sicurezza, l’attenzione scientifica e legale, la competizione geopolitica etc. che intorno all’AI si agitano.

In realtà queste tecnologie sono principalmente o esclusivamente strumenti di potere, non di liberazione. La storia complessiva dell’informatica e del web sta a dimostrarlo: ciò che alla fine del Novecento ci illudemmo fosse latore di libertà e conoscenza universali s’è rivelato lo strumento di sorveglianza, controllo e dunque disciplina più potente che l’umanità abbia concepito. Inevitabilmente lo stesso vale per l’intelligenza artificiale, che di questo quadro è una componente: vale quindi la pena di chiedersi chi la usi, all’interno di quali attività, con quali ragioni, con quali premesse, con quali conseguenze. Quali proprietà emergono dall’integrazione di queste macchine nelle società e nelle attività umane?

Il fare cose dell’AI si presta in prima battuta ad accompagnare e supportare attività caratterizzate da una certa complessità, difficoltà o lentezza di elaborazione. Come abbiamo visto, la caratteristica immediatamente visibile degli algoritmi statistici è la capacità di individuare rapidamente schemi ricorrenti in vasti insiemi di dati, ed estrapolarne la configurazione che più probabilmente si presenterà nel ciclo di elaborazione immediatamente successivo.

In generale, la penetrazione commerciale e socioculturale dell’AI viene spinta e motivata rendendo disponibili al pubblico alcune applicazioni individuali e aziendali di questo approccio, ad esempio mettendo in rilievo la velocità e la comodità, in linea con la filosofia corrente del “basta un clic!”, della generazione di documenti, dell’utilizzo di bot conversazionali, dell’estrapolazione di tendenze sociali interessanti, della simulazione di scenari, e così via. Raramente vengono discussi i più ampi impatti sociali, economici e bellici, se non in termini molto vaghi e spesso palesemente parziali, faziosi o mendaci. Quando si accenna alle possibili conseguenze negative di una dinamica che viene data per inevitabile, il tentativo è di incutere timore e rassicurare allo stesso tempo, con un paradosso solo apparente che si risolve in una fiducia di fondo nella potenza e nella saggezza del regime, come in un Dio che offra protezione in cambio di una modesta quantità di sacrifici umani: è vero che qualcuno perderà il lavoro, ma ci reinventeremo tutti come artisti, pittori, musicisti, creatori di contenuti. Anche quei piccoli sacrifici riguarderanno comunque qualcun altro, non proprio te – almeno finché non sarà troppo tardi.

Naturalmente questa è in buona sostanza la strategia con la quale nel sistema neoliberale viene fatta passare qualunque imposizione: dalle riforme strutturali e dall’austerità che fa crescere alla guerra al terrore, dall’esportazione di democrazia e alla difesa delle democrazie dall’aggressione dei dittatori, dallo smantellamento del sistema sanitario all’istituzione della censura, dei lasciapassare vaccinali  e del denaro digitale, ogni cambiamento in corso o promesso per il futuro viene presentato e promosso come un progresso nell’interesse dell’individuo, della sua comodità e dei suoi diritti nel vuoto pneumatico di una società che, thatcherianamente, non esiste. In cambio di tanto benessere, è richiesta solo una modica dose di felice sottomissione.

Altrettanto naturalmente, le cose sono più complesse.

Aggiungo, in chiusura di questa sezione, che non dovremmo forse parlare di intelligenza artificiale, al singolare, ma di intelligenze artificiali, al plurale: il sistema di controllo di un robot militare somiglia a un programma di generazione di testi quasi soltanto per alcune caratteristiche fondamentali quali l’apprendimento automatico e la modalità di elaborazione di tipo statistico e probabilistico. È vero peraltro che l’universo di possibili applicazioni dell’AI consiste in larga parte nella specializzazione di quest’unico processo di base alla varietà dei problema locali di ciascuna area di impiego.

Vale anche la pena di sottolineare che la differenza tra programmi presuntivamente intelligenti e programmi serenamente ritenuti non intelligenti è tutt’altro che chiara o unanime anche tra i ricercatori secondo i quali l’AI esiste (o potrebbe esistere) davvero.

Tuttavia, nella misura in cui questo documento esula dalle questioni più tecniche per discutere di quelle, largamente parlando, sociali e politiche, ritengo che queste considerazioni possano essere accantonate senza conseguenze di rilievo. Continuerò quindi a usare l’etichetta intelligenza artificiale come se si riferisse a una materia relativamente ben definita e sostanzialmente omogenea.

3. A chi serve l’intelligenza artificiale?

Le tecnologie avanzate non sono generate dal basso verso l’alto, cioè dal caso, dal genio individuale o da processi sociali spontanei, ma dall’alto verso il basso, grazie a una deliberata progettazione da parte delle strutture di potere rilevanti, che ne finanziano e controllano lo sviluppo e la diffusione attraverso una densa infrastruttura di organizzazioni e processi appositamente costruiti. Dobbiamo allora domandarci cosa tali strutture cerchino e sulla base di quali interessi, e dunque in quali aree e per quali fini verranno impiegate le nuove tecnologie. Il marketing individualista/consumista e l’illusione di un controllo dal basso mediante i quali esse ci vengono proposte o imposte non dovrebbe farci velo in questa analisi.

Per quanto riguarda l’Occidente collettivo, mi è impossibile avere un quadro anche schematico delle dinamiche in corso al riguardo: le applicazioni sfuggono per lo più all’osservatore che non sia introdotto, e nessuno lo è tranne coloro che ci lavorano, e anche questi tipicamente conoscono solo un frammento del quadro complessivo. Posso quindi solo muovermi a tentoni, cercando di delineare le connessioni tra dinamiche tecnologiche e dinamiche sociali, economiche e politiche che più appaiono sensate nelle circostanze attuali.

Non conosco invece le strutture sociali, politiche e scientifiche delle altre macroaree che caratterizzano la crescente multipolarità del mondo abbastanza da capire come si stiano muovendo sui temi di questo documento.

Le logiche dell’impero si articolano principalmente su tre aree strettamente correlate: la competizione geopolitica e militare con altri imperi, il funzionamento economico del sistema, e la solidità e la compattezza della popolazione, ovvero il controllo (nelle due accezioni di sorveglianza e influenzamento) del suo consenso e dei suoi comportamenti. È più opportuno ragionare in termini di impero che di nazioni sovrane per l’ovvia ragione che in fatto di tecnologie avanzate, come in qualunque altra area di qualche rilievo, l’Italia, come il resto d’Europa e altre parti del mondo, non ha attualmente alcuna autonomia o sovranità ed è interamente subordinata alle politiche dell’egemone, gli Stati Uniti, unica nazione rimasta almeno parzialmente sovrana nell’Occidente collettivo, che opera di fatto come la capitale di un impero nei confronti di colonie o protettorati.

3.1 Guerra

Per ovvie ragioni, l’ambito militare è tra tutti il meno penetrabile ai non addetti ai lavori; allo stesso tempo, questa è non solo l’area dove le tecnologie avanzate trovano più immediato e ampio interesse e, per conseguenza, più finanziamenti, ma anche quella più immediatamente pericolosa, tanto più nella fase storica corrente. È quindi necessario tentare di farsi almeno un’idea della situazione nella quale ci troviamo.

Un impiego ovvio è nell’analisi dei dati e quindi nella simulazione di scenari possibili e come ausilio ai processi decisionali strategici, tattici e operativi, ad esempio nell’identificazione dei bersagli da colpire e dei modi e momenti migliori per farlo. È cosa nota, ad esempio, che le forze armate israeliane usano strumenti di intelligenza artificiale per individuare i bersagli umani e materiali da attaccare durante l’invasione, in corso in questi mesi, della striscia di Gaza: una raccolta pluriennale di informazioni estremamente dettagliate sulle persone e sulle cose ha permesso di elaborare le liste degli obiettivi e di pianificare le operazioni sul campo. Lo stesso, con attività di ricognizione più estemporanee (ma anche per questo più precise) condotte da droni aerei, sta accadendo in Ucraina.

Per fare un altro esempio di uso possibile dell’AI a fini bellici, ogni nazione del club atomico cerca di piazzare basi aeree, missilistiche o subacquee con capacità nucleari a pochi minuti di volo dai centri nevralgici di una potenza rivale (poco importa qui se l’imminenza della minaccia sia dovuta a vicinanza geografica, com’è il caso della NATO nei confronti della Russia, o a tecnologia ipersonica, com’è il caso dei missili russi nei confronti dei territori nordamericani ed europei). Il governo di questa, consapevole che in caso di attacco potrebbe non avere il tempo o la capacità di scegliere se e come lanciare una rappresaglia, vorrà programmare un’AI perché lo faccia automaticamente, allestendo in buona sostanza una Doomsday machine, un ordigno fine di mondo. Non c’è dubbio, in realtà, che tutte le nazioni dotate di armi nucleari abbiano fatto questa scelta. Quanto ci sentiamo tranquilli nel pensare che le sorti dell’umanità siano affidate a sistemi del genere, per quanto intesi a ricreare un equilibrio di reciproca distruzione assicurata e quindi, in linea teorica, a prevenire la catastrofe? Pensiamo al caso di Stanislav Petrov, l’ufficiale sovietico che nel 1983, ritenendo (correttamente, come si vide a posteriori) che quel che vedeva sui monitor non fosse un attacco statunitense ma un errore del sistema di rilevazione antimissilistico, si assunse la responsabilità di non dare l’allarme e di rinunciare così alla possibilità di un contrattacco. Ciò che salvò l’umanità non fu la velocità della reazione ma la sua intelligenza, resa possibile dallo spazio psicologico e morale di scelta che l’uomo possiede ma che all’AI non appartiene e non compete: quali rischi può comportare l’annullamento di questo spazio, tanto più quando sappiamo che i sistemi di pattern matching possono dare risposte sconnesse dalla realtà? Sarà sufficiente triplicare i circuiti e imporre su ciascuno un secondo controllo prima che i missili decollino? Eppure, una nazione che veda l’automazione della rappresaglia come unica speranza di sopravvivenza senza dubbio preferirà la velocità della risposta alla sua saggezza. Abbiamo un problema umano e non tecnologico, nel quale però la tecnologia entra come un grimaldello potenzialmente letale.

Un altro impiego dell’AI in ambito bellico, in parte di là da venire, è la robotica: le forze armate di mezzo mondo stanno sviluppando agenti autonomi, semiautonomi, distribuiti etc. dotati di eccellenti capacità motorie e, naturalmente, privi di qualunque capacità mentale che non sia quella parodia di processo decisionale propria dell’intelligenza artificiale. Uno sciame di agenti di questo tipo può affrontare una forza avversaria senza avere, per definizione, né lo spazio psicologico e morale appena menzionato né quindi il timore del possibile danno subito o inflitto ad altri; attività come lo sminamento, la penetrazione su terreni o strutture pericolosi, il recapito di ordigni, il combattimento contro truppe umane o contro analoghi sciami avversari, lo sgombero o la distruzione di edifici e aree anche frequentate da civili (inclusi quelli della propria parte, nonché manifestanti o simili) avrebbero come unico freno la capacità industriale di rimpiazzare le unità perdute.

Ci saranno poi le infinite applicazioni grandi e piccole di AI incorporate in altri artefatti e attività, dalla guida di veicoli e aerei alla scelta e al puntamento di bersagli, alla logistica e alla manutenzione, alla reportistica, alla gestione delle risorse umane e così via. A queste accennerò, senza specifici riferimenti al militare, in una prossima sottosezione.

Una delle ragioni per l’uso bellico di intelligenze artificiali è di diminuire la necessità di personale umano sulla linea di combattimento, e quindi, a parità di altre condizioni, una riduzione delle perdite umane per chi le impiegherà. Naturalmente questa è una tendenza secolare: anche le armi da fuoco o l’aviazione hanno permesso di ridurre, a parità di danno inflitto al nemico, la dimensione e il coinvolgimento dei reparti coinvolti; un’AI che affianchi o sostituisca i militari umani in prima linea accentuerà questa tendenza, spingendola verso l’estremo teorico di una forza di combattimento interamente automatizzata. Diminuirà di conseguenza anche il costo psicologico e sociale della guerra pagato dalla parte meglio attrezzata, ovviamente nell’ipotesi (certamente sbagliata, ma che sembra persistere nelle nostre élite) che non siano entrambe attrezzate allo stesso modo e dunque che l’Occidente mantenga la superiorità tecnologica della quale ha goduto negli ultimi secoli. Anche questo fenomeno non è nuovo: dall’arco ai bombardamenti tradizionali o nucleari al drone teleguidato, ogni innovazione tecnologica ha avuto questo tipo di effetto, e d’altra parte ben si comprende la differenza che passa tra uccidere un nemico visibile e capace di reagire in un combattimento corpo a corpo, ucciderne uno poco visibile e poco capace di reagire bombardandolo dall’alto, ucciderne uno visualizzato attraverso una telecamera ottica o a infrarossi e del tutto impossibilitato a reagire manovrando un joystick in un ufficio distante migliaia di chilometri dal fronte, e farne uccidere uno indifferenziato e invisibile da un’armata di agenti automatici. Queste dinamiche saranno ulteriormente amplificate dalla propensione degli algoritmi statistici a commettere errori nell’identificazione dei bersagli o nelle successive fasi esecutive: l’automazione dei compiti comporterà necessariamente l’accettazione preventiva di una quantità indefinita di errori. Essendo, almeno in teoria, la nostra parte in maniche corte in un ufficio con aria condizionata e il nemico sul campo impotente a reagire, è ovvio che gli errori saranno tollerati senza particolari scrupoli e le vittime ricostruite a posteriori come bersagli legittimi.

Assisteremo quindi a un’ulteriore disumanizzazione della guerra, peraltro in linea con l’andamento generale delle cose del mondo, e gli apparati bellici diverranno ulteriormente indifferenti anche alla violenza verso i civili. Considerando la situazione politica, sociale ed economica nella quale l’Occidente collettivo versa e ancor più verserà nel futuro visibile, questo significa anche che il medesimo tipo di tecnologia e di violenza verrà rivolto contro gli stessi cittadini: l’irreggimentazione, la sorveglianza e il controllo ai quali sono vieppiù soggette le nazioni occidentali possono solo esitare in questo tipo di conseguenza, della quale peraltro abbiamo visto le avvisaglie come minimo a partire dal 2001 e ancor più durante la crisi Covid, con i droni che inseguivano la gente nei campi o sui tetti delle case.

La disponibilità di AI nell’ambito della gestione della violenza esterna e interna cambia dunque la natura delle possibili scelte sia sul terreno sia nell’apparato concettuale, logistico, strategico e tattico retrostante. Le differenze quantitative di velocità e di operatività supplementare non-intelligente diverranno differenze qualitative, dove già non lo siano fin dall’inizio, e, a mano a mano che verrà normalizzato, il tutto opererà verso l’interno negli stessi modi con i quali opererà verso l’esterno.

3.2 Finanza ed economia

Le dinamiche che possiamo aspettarci sul piano economico sono analoghe a quelle che abbiamo ipotizzato su quello militare; d’altra parte le due aree sono legate sul piano politico e operativo come su quello concettuale. Sia in ambito finanziario sia in quello più pianamente economico, alcune decisioni saranno facilitate o direttamente automatizzate grazie alla disponibilità di sistemi di elaborazione statistica massiccia e veloce; si tratta peraltro di tendenze già avviate da molti anni. Questo può riguardare, di nuovo, una varietà di attività che vanno dalla simulazione di scenari alla selezione dei beni sui quali investire e delle operazioni da compiere per manipolarne il valore, fino alla scelta dei contesti nei quali operare e, in ambito di risorse umane, dei bersagli umani da reclutare, promuovere o licenziare. Come nel caso della guerra, un ristretto numero di operatori sperano in questo modo di mettere a frutto le risorse illimitate delle quali dispongono e di arrivare così a controllare interamente l’economia delle aree del mondo alle quali hanno accesso.

La previsione generalmente condivisa è che l’automazione massiccia di decisioni, processi e produzioni investa tutti gli ambiti dell’economia (agricoltura, industria, terziario, finanza e funzionamento dello Stato e dei servizi pubblici) e porti a una riduzione altrettanto massiccia della richiesta di lavoro umano; è altrettanto facile prevedere che tale riduzione non sarà ugualmente distribuita tra i diversi settori produttivi e, all’interno di ciascuno di essi, tra le diverse attività e mansioni.

Tuttavia, il lavoratore (o, quanto a questo, l’utente) può venir subordinato alla macchina solo costringendovelo, e dunque ancora una volta il problema non è tanto tecnologico quanto umano, e parla di chi ha il potere e usa la macchina, deliberatamente o come semplice effetto collaterale, per creare e mantenere lo stato di subordinazione di chi il potere non l’ha. Yuval Harari, che dà per scontata la necessità della macchina, scrive che “I nostri computer hanno difficoltà a capire come parla, sente, sogna l’Homo sapiens. Così all’Homo sapiens stiamo insegnando a parlare, sentire e sognare nel linguaggio dei numeri, che può essere capito dai computer”. Non è difficile comprendere quale incubo individuale e sociale si celi dietro la poetica maschera del progresso; d’altra parte, già Marx nel Capitale racconta di come i contadini inglesi non avessero deciso di inurbarsi e lavorare in fabbrica per inseguire le mille luci della città, ma vi fossero stati di fatto costretti da un insieme, difficilmente accidentale, di cambiamenti nella legislazione che normava la gestione della grande proprietà terriera. A ciascun ciclo, a ciascuna rivoluzione socioeconomica, la situazione complessiva migliora sul piano materiale ma peggiora su quello psicologico ed esistenziale; stavolta, dati la crescente disuguaglianza tra le élite e le masse e i piani dichiaratamente malthusiani delle prime, è assai probabile che peggiori anche su quello economico.

Non c’è neanche ragione di pensare che possano nascere tanti posti di lavoro quanti ne andranno perduti. Se questo è accaduto in altre rivoluzioni industriali è stato perché a un tipo di attività umana ne subentrava un altro: quando l’industria della motorizzazione rimpiazzò quella della trazione animale la necessità di forza lavoro, pur con i cambiamenti e gli scossoni anche imponenti generati dalla riconversione, finì addirittura per aumentare; e sostanzialmente lo stesso accadde con gli spostamenti dal settore agricolo a quello industriale nell’Ottocento e da quello industriale al terziario nella seconda metà del Novecento: il contadino di Marx, che dalle campagne si trasferiva a Manchester, perdeva un intero universo di vita, di lavoro, di abitudini, di affetti, contribuiva involontariamente allo smantellamento della cultura tradizionale, ma infine semplicemente cambiava lavoro. Con il passaggio all’automazione la quantità di forza lavoro necessaria a far funzionare il sistema diminuirà senza grandi possibilità di recupero, se non altro perché il cambiamento investirà, benché in modi e misure disomogenei, tutti i settori.

L’arrivo dei word processor, per fare un esempio, ha certamente cambiato le abitudini di scrittura di tutti noi, ha spiazzato la produzione di macchine per scrivere e potenziato invece quella di computer e stampanti, ha corrispondentemente distrutto molti posti di lavoro creandone di nuovi, e così via. Ma, tutto sommato e semplificando molto, chi doveva scrivere un documento prima lo doveva scrivere anche dopo, e tanti lavoravano nelle industrie che permettevano di scrivere documenti prima quanti grosso modo vi lavoravano dopo. L’automazione delle produzioni (inclusa la scrittura di documenti) potrebbe invece essere una rivoluzione senza ricostruzione: non diverremo tutti programmatori di AI, e anzi persino i programmatori stessi potrebbero trovarsi in difficoltà grazie all’autoprogrammazione dei sistemi informatici.

La previsione diffusa è quindi che molte persone possano trovarsi a perdere il lavoro e dunque, almeno in linea di principio, ad avere molto tempo libero e nessun reddito. I più ottimisti prevedono un futuro nel quale, finalmente emancipati dal lavoro e con una disponibilità pressoché illimitata di beni materiali, saremo liberi di coltivare i nostri interessi più autentici. Tuttavia, anche mettendo da parte altre considerazioni, viene da domandarsi cosa mai dovrebbe spingere i padroni del mondo a rendere possibile una tale situazione, che li porterebbe da un lato a perdere la presa sulle necessità primarie della popolazione, soddisfatte dalla fornitura illimitata e gratuita degli stabilimenti automatici, senza neppure poterne estrarre profitti di qualche interesse, e dall’altro a lasciare troppo tempo libero e troppe risorse a troppi esseri umani che potrebbero poi farsi venire strane idee nei loro confronti. Naturalmente siamo tutti a conoscenza degli afflati filantropici delle élite, ma sono forse in vista segnali dell’imminente instaurarsi del comunismo automatizzato?

Di nuovo il problema è umano più che tecnologico: a meno di un’effettiva (ma quanto probabile?) transizione culturale e politica verso l’utopia, l’automazione delle produzioni potrebbe rivelarsi per il sistema meno desiderabile del previsto, forse fino al punto di venire deliberatamente rallentata in modo che le élite abbiano il tempo di comprenderne e gestirne le conseguenze.

Se invece l’automazione venisse davvero realizzata, è facile supporre che le medesime élite preferirebbero un mondo privo di rischi per loro a uno popolato da artisti e rivoluzionari. Taluni dunque ritengono che queste masse, improduttive ma potenzialmente pericolose, verranno stordite con “droghe e videogiochi” (di nuovo Harari), altri che verranno semplicemente abbandonate a loro stesse, se non direttamente massacrate.

C’è poi naturalmente una via in qualche modo intermedia tra i due estremi dell’automazione radicale e della mancata automazione, ed è l’ulteriore compressione della condizione dei lavoratori sotto la minaccia dell’automazione. Ci troveremmo allora di fronte a una variante della teoria marxiana dell’esercito industriale di riserva, secondo la quale la quota di disoccupati sul totale della popolazione, nonostante per definizione non sia direttamente coinvolta nella produzione e nella generazione di plusvalore e non sia dunque immediatamente utile ad estrarne profitto, serve nondimeno a calmierare i salari, le condizioni di lavoro e di vita e la propensione ad alzare la cresta della quota di popolazione che invece lo è. Considerando la direzione nella quale è andata l’Europa dalla fine della Guerra fredda e dalla creazione dell’UE e dell’euro, e ad esempio gli elaborati calcoli coi quali alle nazioni dell’area vengono anno per anno imposti i valori di NAWRU e NAIRU da perseguire (rispettivamente non-accelerating wage rate of unemployment e non-accelerating inflation rate of unemployment, cioè i livelli di disoccupazione che ciascuna nazione deve realizzareper evitare che i salari crescano e l’inflazione aumenti), non è difficile immaginare che la creazione di un esercito automatico di riserva possa essere la strada effettivamente scelta, almeno finché non si trovi un modo per gestire i problemi sociali ed economici che verrebbero dall’automazione radicale.

3.3 Gestione, sorveglianza e controllo della società

Anche in questo terzo ambito di rilevanza dell’AI per l’impero possiamo aspettarci le medesime dinamiche che abbiamo delineato per i primi due. Pur con specificità proprie di ciascun dominio, si tratta ancora di automatizzare e, di fatto, militarizzare processi e decisioni.

Il tema qui è reso più complesso dall’intreccio, più immediatamente visibile di quanto lo sia altrove, delle tecnologie comunemente intese, cioè quelle materiali, con quelle sociali, psicologiche e antropologiche, a riprova tra l’altro dell’insostenibilità nel mondo reale della divisione ontologica ed epistemologica che viene spesso tracciata tra “scienze dure” e “(non) scienze umane”. Anche in quest’area offrirò solo pochi esempi a mo’ di esercizio mentale.

Un sottosistema cruciale della società moderna è la sanità. In quest’ambito stiamo assistendo a tre trasformazioni principali, o meglio a tre aspetti della medesima grande trasformazione: il passaggio dalla medicina basata sulla clinica a quella basata sulla cosiddetta evidenza; la conseguente riconduzione delle diagnosi e dei trattamenti a protocolli formali che esautorano di fatto il singolo medico; la privatizzazione della ricerca e della formazione e la cattura delle autorità regolatrici da parte delle aziende del settore, che inoltre producono in prima persona l’evidenza sulla quale sono basati i protocolli di trattamento, la produzione dei farmaci e l’autorizzazione al loro uso.

Le leve di questa trasformazione sono numerose. Tra le più importanti è il caso di menzionare almeno la fine del finanziamento statale alla ricerca, in particolare del finanziamento detto a pioggia, e dunque la subordinazione della ricerca a finanziamenti privati o controllati dal privato; il sistema bibliometrico di valutazione delle riviste e dei ricercatori, che facilita tra le prime quelle più legate ai macrosistemi finanziari e politici e allontana i secondi dalla ricerca della verità per spingerli a quella del consenso, privilegiando inoltre i gruppi di ricerca organizzati come aziende rispetto a quelli più laschi o addirittura ai ricercatori isolati; il controllo sociale, professionale e legale esercitato sul medico, che in buona sostanza viene esentato da qualsiasi responsabilità per gli eventuali problemi del paziente se segue i protocolli e diventa invece perseguibile in sede civile o penale o viene radiato se se ne discosta; e l’ingresso delle aziende nelle università, che comporta la privatizzazione della selezione e della formazione del personale sanitario. Molti aspetti importanti di queste dinamiche sono resi materialmente possibili dall’AI, intesa sia come strumento tecnico sia come sguardo algoritmico sul mondo, sull’umano e sulla biologia.

Questa complessa dinamica rende evidente come la medicina sia anche, e in modo sempre più stringente, un potente mezzo di controllo sociale. Se questo è ovvio in generale, dato che la medicina è parte importante della gestione della salute, della vita e della morte dei cittadini, i principali fattori aggiuntivi di preoccupazione oggi sono la trasformazione algoritmica di processi che finora erano clinici, la cessazione della comunicazione e della negoziazione tra il paziente e il medico e la sorveglianza sulle scelte, sui comportamenti e sugli stili di vita individuali, alla quale vengono vincolate l’autorizzazione o l’interdizione ad accedere alle cure mediche stesse, alle assicurazioni, al lavoro, al movimento urbano e interurbano, alle attività di tempo libero etc. Ancora una volta, questi passaggi sono stati esplicitati e apertamente sperimentati durante la crisi Covid.

Considerazioni analoghe valgono per la gestione dello Stato sociale, concettualmente non molto diversa da quella della sanità. Ad esempio l’AI può venir impiegata per valutare la concessione dei benefici ai cittadini e dei permessi di asilo, di soggiorno e di lavoro e delle connesse provvidenze agli immigrati da altre nazioni, per individuare sospetti perpetratori di frode nei confronti del sistema di erogazione del welfare e così via; in prospettiva, la vita quotidiana di ciascun cittadino può essere regolata in questo modo fino ai minimi dettagli, vincolandola al cosiddetto punteggio sociale, evidentemente impossibile senza l’uso massiccio di sistemi di AI. È qui all’opera il medesimo meccanismo che abbiamo visto in altri domini, cioè l’individuazione di bersagli specifici grazie al possesso e all’incrocio di informazioni che scandagliano fittamente la vita e le attività di una popolazione. L’occorrenza di errori è data per scontata e accettata dal sistema grazie all’indifferenza morale e alla certezza dell’irresponsabilità generate dalla disparità di potere tra le parti coinvolte, disparità nella quale svolge un ruolo centrale il ricorso alla tecnologia, e in particolare all’AI, che si trova così ad essere circolarmente causa ed effetto delle trasformazioni sociali in corso.

Questa è anche la cifra con la quale leggere l’arrivo dell’intelligenza artificiale in altri domini cruciali per la società, quali la giustizia o, più in generale, l’ordine pubblico e il mantenimento di una forma di pace sociale.

La cosiddetta giustizia predittiva si articola in almeno due aree. Una è, ancora una volta, il tentativo di individuare le figure, le situazioni, i contesti più a rischio di essere coinvolti in attività illecite o criminali, dall’evasione fiscale alle frodi assicurative o al terrorismo. Questo può avvenire anche in tempo reale, ad esempio con la scansione dei volti e dei comportamenti delle persone che si trovano in un contesto sensibile (permanente come un aeroporto e una stazione o temporaneo come una manifestazione) o in generale in qualunque luogo pubblico. In modo diverso, anche l’interdizione all’accesso a determinati luoghi, attribuita al mancato possesso di un’autorizzazione ad hoc, appartiene concettualmente al medesimo tipo di processo.

La matrice di queste tecniche è ovviamente il DASPO, introdotto in Italia nel 1989 con il pretesto della sicurezza degli eventi sportivi; in ciascuno di questi casi la violazione dei diritti naturali e costituzionali del cittadino non viene autorizzata da un giudice ma, nel distratto silenzio di questo, direttamente da un’autorità laica, quale il Questore o, nel caso delle certificazioni Covid, dal Ministero della Sanità tramite quello dell’Economia e delle Finanze. Il passo successivo, già ampiamente avviato proprio con le certificazioni Covid, è di automatizzare il sistema delle autorizzazioni e delle interdizioni e farlo funzionare in tempo reale, cosa possibile ovviamente solo grazie alla digitalizzazione del sistema da una parte e delle identità individuali dall’altra. In prospettiva, non vedo una ragione per la quale questo tipo di processualità non debba essere esteso a ogni dettaglio della vita del cittadino, fino all’accesso al conto corrente o alla propria abitazione.

Un’altra area sulla quale si articola, in un’accezione più letterale, la giustizia predittiva è la messa a disposizione dei legali, dei cittadini e delle imprese, da parte di agenzie pubbliche o private, di consulenti artificiali che li aiutino a decidere quali siano le probabilità di vittoria in una causa e dunque come muoversi al riguardo. In prospettiva, si può prevedere che almeno i processi di minore importanza vengano decisi direttamente a tavolino con le stesse tecnologie usate per predirne l’esito, con un classico caso di profezia che si autoavvera. Questo va a legarsi abbastanza direttamente ai sistemi di gestione sociale “intelligente” in tempo reale che ho discusso poche righe sopra. Ancora una volta non è difficile immaginare gli errori e gli abusi che avverrebbero se queste dinamiche venissero portate avanti, come appare essere nelle intenzioni di molti governi nazionali e organizzazioni sovranazionali.

Un tema apparentemente collaterale è quello della stesura di documenti di ambito giuridico e legale, in primis naturalmente le sentenze e i provvedimenti giudiziari in genere. Su questo punto rinvio alla prossima sezione sui sistemi AI per il linguaggio, dando qui per scontato l’impatto che il richiamo di precedenti allucinatori e altre questioni legate al funzionamento di tali sistemi possono avere sul funzionamento della giustizia.

Un altro sottosistema della società industriale sul quale vale la pena riflettere è quello della conoscenza, cioè quello dell’educazione, della formazione e della ricerca. Anche questo è in avanzata fase di occupazione da parte del pensiero algoritmico e delle sue manifestazioni e applicazioni di intelligenza artificiale. Le valutazioni alle quali gli studenti e il personale della scuola sono soggetti sono ormai misure (o pseudomisure) di performance concettualmente del tutto automatizzate. Com’è tipico dei sistemi formali, la semantica è messa da parte e la negoziazione dei significati impossibile: di fatto la meccanizzazione dei processi è compiuta e il sistema scolastico lavora per il test, poiché dal test dipendono tanto il futuro degli insegnanti quanto quello degli studenti. Qualunque relazione col mondo reale e con le persone reali che in esso vivono è di fatto perduta.

Lo scopo di questi processi è duplice: si tratta da un lato di controllare minuziosamente le conoscenze e le attività di tutti gli attori della scuola, in modo da indirizzare la società futura nelle direzioni desiderate, e dall’altro di profilare tali attori, in modo da selezionare gli insegnanti più affidabili e da indirizzare ciascuno studente verso il percorso scolastico e poi professionale più conveniente (conveniente per chi?), preselezionando gli individui più adatti al sistema.

Con le differenze del caso, che ho in parte discusso a proposito della medicina, lo stesso vale per il sistema dell’università e della ricerca. In quest’ambito, la valutazione del personale accademico viene dall’incrocio tra la quantità di citazioni ricevute da un articolo (o da un autore) e una misura (arbitraria) della presunta qualità della rivista sulla quale è pubblicato. Della ricerca ho accennato più sopra, e le altre questioni non differiscono in modo sostanziale da quanto detto per la scuola.

Si stanno anche esaminando le possibilità di affiancare ai docenti umani controparti artificiali, e in prospettiva di sostituire quelli con questi. Per certi versi questo tema pertiene anche alla prossima sottosezione, sui modelli generativi di linguaggio, ma la scuola è troppo importante per non tenerla distinta. Nell’ipotesi in questione ritroviamo i consueti problemi dell’AI, quali la dipendenza dal materiale di addestramento, l’inapplicabilità (prima ancora dell’impossibilità) di espressioni come pensiero autonomo, senso critico, originalità di pensiero etc., e la propensione agli errori. In più, il progetto retrostante manifestamente prevede che la didattica sia costruita da nuclei presuntivamente specializzati, formati dagli insegnanti eccellenti e certificati da entità private o controllate dal privato, che l’erogazione ne sia centralizzata, e quindi che pacchetti formativi siano distribuiti in modo sincrono o asincrono agli studenti, eventualmente isolati nelle proprie abitazioni.

In prospettiva, il complesso militare-industriale (digitale, biomedico, finanziario) punta evidentemente ad avere il controllo totale, e non soltanto quello di indirizzo che da sempre possiede, del sistema della conoscenza, dalla progettazione didattica alla misura degli esiti scolastici, dalla ricerca scientifica al controllo delle sue applicazioni, e in generale del funzionamento della società e dei singoli individui; punta cioè a un’applicazione rigida, minuziosa, incessante, soffocante dei principi della biopolitica descritti da Foucault. Ci troviamo di fronte a un’élite che, da un lato, sembra incapace di gestire gli sviluppi della storia mondiale e, dall’altro, sta spingendo ai massimi possibili le disuguaglianze interne, perseguendo al contempo politiche apertamente malthusiane nella pretesa di poter prevedere il futuro a medio-lungo termine dell’umanità; e che affida a queste dinamiche totalitarie le proprie speranze di restare al potere.

Queste dinamiche poggiano però sulla disponibilità di tecnologie adeguate come l’intelligenza artificiale (e numerose altre delle quali fatichiamo collettivamente a leggere l’intreccio, tra le quali quelle delle scienze cognitive e, in prospettiva, quelle legate alla genetica). La circolarità che così viene a crearsi tra ciò che è tecnicamente possibile e ciò che è politicamente “necessario”, pianificando, circoscrivendo e blindando i futuri possibili non sembra promettere niente di buono.

3.4 La gestione del linguaggio

Veniamo così al tema più discusso nell’ultimo paio d’anni, quello dei cosiddetti large language models o modelli generativi di linguaggio. Qui c’è una particolarità in più da considerare.

Il linguaggio viene spesso ritenuto una caratteristica distintiva della specie umana, se non uno dei suoi massimi conseguimenti. In effetti, esso è talmente centrale nella nostra vita interiore e in quella sociale da essere in grado di impadronirsi della nostra attenzione, scavalcando praticamente qualunque altra cosa stiamo pensando o facendo. Per converso la comunicazione animale, per quanto ricca ed espressiva, non si presenta mai in forma propriamente linguistica, cioè con un’articolazione in frasi dotate di sintassi e cioè di una struttura in soggetti, verbi, predicati etc. L’apparato lessicale/semantico, sintattico etc. che ci permette di produrre e comprendere le frasi è una facoltà esclusiva della nostra specie ed è ipotesi pressoché universale che abbia svolto un ruolo cruciale nella nostra evoluzione biologica e culturale.

Questo rende particolarmente irresistibile la pareidolia che spesso accomuna la percezione che abbiamo dei sistemi di intelligenza artificiale a quella che abbiamo degli esseri umani e che, insieme al marketing, è la ragione per la quale ci viene naturale tracciare qualche distinzione tra un computer e una lavatrice e assimilare il primo a noi stessi più che alla seconda: se fa qualcosa che somiglia a ciò che gli umani fanno, allora deve avere qualcosa di umano; se fa qualcosa che somiglia a ciò che solo gli umani fanno e che per gli umani è così importante, allora senz’altro è umano. Possiamo chiamare questa tendenza spontanea della nostra mente funzionalismo naif. In questa prospettiva non sorprende che i modelli generativi di linguaggio abbiano colpito l’opinione pubblica più delle mille altre applicazioni dell’AI: queste vengono sentite come controparti o come servosistemi, quelli come uno di noi, magari solo un po’ strano (ma in fondo la stranezza non ci sembra inusuale negli umani).

Nondimeno, il principio alla base dei modelli generativi di linguaggio è quello solito associativo: la macchina cerca relazioni statistiche tra stringhe di dati (che per noi umani sono parole, sintagmi e frasi), mette a confronto le stringhe presenti nella domanda dell’utente con quelle reperibili nel database, e fornisce come risposta la stringa che meglio soddisfa il pattern associativo complessivo. Fatta salva la differenza tra sistemi dichiarativi e sistemi statistici, è esattamente il modello della stanza cinese descritto da Searle: da fuori sembra che la macchina abbia capacità cognitive simili o paragonabili a quelle di un umano, ma è solo pareidolia (e buona programmazione). Dentro la macchina, in realtà, non c’è nessuno. Benché ci appaia naturale interpretare il loro output come se avesse natura linguistica, neanche questi modelli hanno dunque alcunché da spartire con l’intelligenza o il linguaggio umani come li intendiamo normalmente.

Il linguaggio è una proprietà biologica della nostra specie, intrecciata biunivocamente con l’esperienza corporea soggettiva che abbiamo di noi stessi e delle nostre interazioni col mondo. I nostri concetti, e quindi il nostro lessico, fanno riferimento metaforico a tale esperienza: il significato di parole come io/tu, avanti/indietro, sopra/sotto, libero/impedito, bello/brutto, casa, amore, camminare, libertà, tavolo, città, rosso, credere, tempo e così via è comprensibile solo per una creatura che abbia uno specifico tipo di coscienza (biologica, culturale, autobiografica) di sé, degli altri e del mondo. Specularmente, le nostre parole danno forma e senso alle nostre esperienze. Tale comprensione biunivoca non passa, se non in seconda battuta, attraverso le definizioni che possiamo trovare in un dizionario: queste fanno riferimento soltanto ad altre parole, creando un gioco di specchi che trova una radice semantica nel mondo solo attraverso la nostra esperienza corporea. Chi siamo tu e io in questo gioco di specchi? cosa sono ieri, oggi, domani per un apparato elettronico? cosa significa mangiare per qualcosa che non ha bocca né stomaco né fame? cosa significa vincere un torneo di scacchi, o perderlo? I modelli generativi di linguaggio, semplici programmi informatici che non sono vivi né tanto meno senzienti, non possono avere alcun contesto, alcuna esperienza. Non hanno niente di cui parlare e nessuno con cui farlo. Non hanno linguaggio, hanno solo qualcosa che, visto da fuori, ha un aspetto linguistico. Non c’è nessuno in casa che possa parlare, come non c’è nella lavatrice.

Una parte non piccola, se non la totalità, del linguaggio, inoltre, trova senso nel contesto delle nostre interazioni sociali. Anche volendo mettere da parte le questioni filogenetiche ed ontogenetiche e dunque la domanda se il linguaggio sia coestensivo o addirittura identico alla nostra cognizione, rimane che ogni atto comunicativo è caratterizzato come minimo dall’intenzione di dire qualcosa in relazione a un esito che si desidera ottenere, da una certa coerenza narrativa, e da una presunzione (eventualmente sbagliata o mendace) di rilevanza e veridicità rispetto agli interlocutori e al contesto. Un modello di AI non ha alcun bisogno o desiderio di comunicare, né di fare alcun’altra cosa, come una lavatrice non ha bisogno o desiderio di lavare i panni: entrambi vengono accesi, operano secondo le leggi della materia, e infine vengono spenti. La macchina non ha relazioni o interazioni: sono nozioni che ad essa semplicemente non si applicano. Per questo i modelli di linguaggio offrono una prestazione fragile, priva di qualsiasi necessità o ricerca di rilevanza, coerenza o veridicità, e pertanto in costante oscillazione tra il casuale, l’impeccabile e il disastroso. Quando tutto va bene ci sembra che la macchina sappia cosa sta dicendo e partecipi effettivamente alla conversazione, quando non tutto va bene ci sembra che abbia le allucinazioni; tuttavia, non essendovi coscienza, intelligenza o semantica, nessuna delle due cose è vera. Si tratta in ciascun caso di semplice pareidolia: un velo di apparente credibilità o incredibilità agli occhi dell’osservatore il quale, proprio perché cosciente, intelligente e capace di leggere significati nel mondo, cioè perché possessore e portatore di un punto di vista, può venirne tratto in inganno. Ma le allucinazioni appartengono a noi, non alla macchina.

Inutile aggiungere che, poiché non sa niente, poiché non c’è nessuno dentro che possa sapere alcunché, un sistema di AI non sa neppure cosa sia un essere umano, cosa sia la società, cosa esso stesso sia. Non ha motivazioni o ragioni, non ha valori, non ha morale, non ha etica, non ha estetica: non perché immorale, amorale, o carico dei pregiudizi del programmatore, come capita di leggere, ma perché non è senziente. Quello che sembra dire è solo un’accozzaglia di pixel o di suoni nella quale l’umano s’illude di trovare un senso.

Marketing e pareidolia sono dunque le leve che permettono di trasformare un programma per computer in un sistema di intelligenza artificiale, mascherando così una questione tecnologica e politica dietro l’apparenza di un dilemma intellettuale e morale. Alan Turing si domandava come stabilire se la macchina sia intelligente. La risposta è semplice: non lo è, e non c’è niente da stabilire. Quella di Turing non è una buona domanda, e infatti il test che da lui prende il nome può solo accertare se e quanto una pareidolia appaia credibile a un osservatore. Prendere sul serio il test di Turing non significa riconoscere che la macchina possa essere senziente; al contrario, significa accettare che anche i nostri confratelli umani siano solo macchine, e che l’impressione che siano senzienti sia anch’essa mera pareidolia: l’assunto implicito è che in realtà non ci sia nessuno dentro l’umano come non c’è nessuno dentro la macchina.

Naturalmente, dato che il soggetto che viene ingannato dalla pareidolia è un essere umano come gli altri, neanch’esso sarebbe senziente. Questo però contraddice irrimediabilmente la coscienza che ognuno di noi ha di esistere: se sul piano logico, scientifico viene dunque distrutta qualunque pretesa di rendere l’AI qualcosa di più di ciò che è, resta indispensabile che ci domandiamo quali siano le conseguenze sul piano psicologico della pretesa di rendere gli umani qualcosa di meno di ciò che sono.

La pressione a convincerci che siamo solo macchine, che la nostra identità, la nostra soggettività e la nostra storia non hanno valore o che non esistono proprio, è forte e va molto oltre lo specifico impatto delle tecnologie. In assenza di ribellione, credo ci siano soltanto due modi di stare dentro al dilemma che ne risulta. Uno è il solipsismo, secondo il quale io sarei l’unico essere senziente in un mondo di robot; sul piano esistenziale ne segue l’annichilimento del sé, deprivato del normale senso di socialità, e sul piano politico una nuova, quasi inconsapevole guerra di tutti contro tutti. L’altro è l’impotenza, la depressione: se anch’io sono un robot come gli altri, di nuovo il mio sé traballa, anche se forse in modo differente, e tutto ciò che io so o credo di sapere non è valido; non mi rimane altro che una rassegnazione passiva all’annichilimento di me stesso, o addirittura un ultimo sforzo attivo in quella direzione. Il mondo verso il quale siamo avviati consegue sul piano intellettuale, sul piano morale e su quello pragmatico esattamente da queste premesse ed è pertanto costruito su una tragica miscela di inganno e autoinganno.

Torniamo quindi al fil rouge di questo documento: non ha senso chiedersi se i sistemi informatici di manipolazione del linguaggio abbiano qualcosa in comune con l’intelligenza umana. Ne ha invece chiedersi come verranno concretamente usati all’interno delle logiche politiche, economiche e sociali correnti.

Le questioni tecnologiche sono legate circolarmente alle logiche del potere. Se le aziende tecnologiche statunitensi stanno immettendo questi strumenti negli infiniti piani delle attività umane certo è per trarne profitto, ma il profitto non basta: è anche perché ne hanno direttamente o indirettamente ricevuto il mandato dal complesso politico-militare-finanziario col quale sono inestricabilmente intrecciate. Quali potrebbero essere le logiche sottostanti?

I modelli AI di linguaggio hanno parecchie caratteristiche notevoli: la capacità di generare o manipolare rapidamente vaste quantità di testi, la sussistenza in un ambiente interamente digitale, la propensione agli errori, e l’asimmetria che può manifestarsi nei confronti di una controparte umana che sia di fatto o di diritto costretta da un potere superiore a utilizzarli nelle proprie attività, senza avere la possibilità concreta di obiettare, negoziare o difendersi con successo.

L’uso più ovvio di questi modelli è dunque nell’interferire in modo massiccio e incontrollato (più precisamente, controllato soltanto dall’alto) con la conoscenza disponibile nell’ambiente digitale nel quale si muovono, e in particolare sul web.

La natura, l’ampiezza, la stabilità e la persistenza della verità pubblica e la sua relazione con le vite e le verità individualisono questioni che qualunque società e qualunque potere necessariamente si sono trovati e si trovano ad affrontare, ma la velocità e la pervasività della manipolazione digitale non hanno precedenti storici. Operare su un insieme limitato di portali, archivi e motori di ricerca monopolistici o quasi monopolistici richiede tempi e risorse infinitamente minori di quelli necessari a modificare documenti che esistano materialmente e possano trovarsi fuori dalla portata degli agenti del cambiamento, se non altro perché nella disponibilità privata di singoli cittadini. Entrare in tutte le case degli italiani che possiedono un’enciclopedia per modificarne delle voci o censurarne direttamente i volumi sarebbe impossibile; modificare o censurare un’enciclopedia online è semplicissimo, farlo con strumenti automatici è più comodo e veloce che farlo manualmente. Efficacia, efficienza e pervasività sono incomparabili.

Anche la produzione di testi, che si tratti di  iniezioni di conoscenza nuova o alterata, di propaganda nel senso classico o di tentativi d’influenzamento più sottili, quali la produzione di articoli di giornale, post sui social media e così via, è enormemente facilitata dall’AI, tanto che le agenzie d’informazione e i media stanno licenziando giornalisti. Poiché l’AI non può fare nulla in proprio se non elaborare più o meno bene dati estratti dai materiali ricevuti, questo passaggio implica l’accentramento della produzione di informazione sulle agenzie giornalistiche, politiche, aziendali o militari che disporranno ancora di personale umano incaricato di costruire i materiali sui quali far lavorare l’AI. Chi controllerà queste agenzie controllerà tutta l’informazione distribuita alle nazioni e ai popoli controllati. Lo sesso naturalmente vale per i testi scolastici e per qualunque altro materiale.

Il passaggio al digitale e l’uso di AI per la creazione, la modifica, la cancellazione, la falsificazione o l’oscuramento illimitati di qualsiasi dato, notizia, immagine, video, conferma di notizia, smentita di notizia, documento storico, biografia, diffamazione, voce enciclopedica e così via sono la realizzazione del perfetto, definitivo orwelliano Ministero della Verità.

Specularmente, lo stesso tipo di tecnologia rende possibile una sorveglianza estesa, accurata e “intelligente” di ciò che nel web viene immesso da fonti non gradite al potere (es. agenzie straniere, movimenti di opposizione etc.) o da singoli utenti, si tratti di attività su social media e comunità online, di articoli di blog, interventi vari, materiali archiviati sul cloud, o anche comunicazioni personali, telefonate, conversazioni svolte per la strada o comunque a portata di ascolto digitale, eccetera. La capacità di estrarre sunti, produrre parafrasi, “comprendere” frasi e allusioni etc. permette di andare ben oltre la semplice ricerca di parole chiave. E così anche il Ministero dell’Amore potrà svolgere efficacemente il proprio mandato.

L’informazione fornita ai cittadini e scambiata tra di essi può dunque perdere qualsiasi relazione con la verità; per converso, chi gestisce il sistema ha una capacità colossale sia di monitorare le attività del cittadino sia di immettervi disinformazione e informazione falsa. Ancora una volta abbiamo un problema di potere, o di asimmetria del potere, che la tecnologia facilita e spinge qualitativamente e quantitativamente all’estremo delle possibilità.

Gli errori nella gestione della dis/informazione e della censura possono venire messi in conto non solo come inevitabili e comunque impuniti, ma anche come funzionali al divide et impera. In ogni caso, le rigidità, le contraddizioni e le allucinazioni intrinseche al funzionamento dei modelli di intelligenza artificiale non dovrebbero costituire un problema per popoli privati della memoria sia storica sia recente, distratti e resi ottusi e divisi dal caotico torrente informativo, sociale e materiale nel quale sono immerse. D’altronde chi genera e manovra il caos lo fa perché sa, o almeno crede, di poterne poi controllare e gestire gli effetti meglio di chi lo può solo subire.

Mentre l’Occidente collettivo si prepara alla guerra per il mantenimento dell’egemonia e all’impoverimento delle plebi con una società sempre più amorfa, disintegrata, disfunzionale e verticalizzata, la scomparsa della verità e il controllo, il monitoraggio e la riscrittura delle opinioni, delle notizie e della storia appaiono indispensabili per il mantenimento del potere. Alla propaganda hollywoodiana e televisiva si affiancano strumenti di manipolazione e guerra cognitiva e culturale infinitamente più pervasivi ed efficaci.

Notiamo ancora una volta che, in realtà, gli strumenti dei quali stiamo discutendo sono ideati e prodotti non tanto in un generico, indifferenziato Occidente quanto specificamente negli Stati Uniti d’America, che di quest’area geopolitica sono gli egemoni indiscussi. Anche questo rende manifesto come l’intelligenza artificiale sia concepita quale strumento di dominio nei confronti delle popolazioni e dei protettorati, e di competizione o supremazia nei confronti delle potenze emergenti.

3.5 Usi “civili”

Naturalmente l’intelligenza artificiale avrà un’infinità di applicazioni oltre a quelle che ho delineato, e anche queste ultime potrebbero non presentarsi mai o presentarsi in forme differenti da quelle che ho tentato di ipotizzare. In più, ciascuna delle applicazioni che si presenteranno avrà un’infinità di ulteriori sviluppi ed effetti collaterali. Troveremo dunque intelligenza artificiale o frammenti d’intelligenza artificiale incorporati in mille attività della vita quotidiana. Essendo perfettamente indifferente al contenuto, alla semantica, l’AI avrà tante applicazioni quante ne hanno la matematica o l’informatica non intelligente.

È vero che molte di queste applicazioni possono essere viste come mere evoluzioni di processi in atto da molto tempo, o da sempre: non è da oggi che si usa l’intelligence per pianificare e organizzare i conflitti, o che le strutture di potere cercano mezzi per sorvegliare e controllare i sudditi, o che documenti falsi o svianti vengono scritti e diffusi. Fanno la differenza la ferocia algoritmica degli strumenti usati, la loro pervasività, lo stato di subordinazione nel quale gettano la parte debole, l’impossibilità della negoziazione, l’ulteriore perdita di umanità. È sempre successo, ma non è mai successo in modo così estremo.

In questa guerra cognitiva, è altresì cruciale l’immagine di essere umano che l’AI proietta all’indietro, per così dire, sulla controparte perdente, dipingendo l’umano come macchina, come robot, e soprattutto facendo sì che esso stesso si senta tale; rendendolo perfettamente intercambiabile con la macchina e vincolandolo così all’economicismo radicale, alla dipendenza totale e all’accettazione del proprio destino malthusiano, e spingendolo dunque a un annichilimento psichico malamente velato da una retorica individualista e consumista che si fa sempre più debole e vacua. Nel frattempo, le élite si rifugiano in una condizione semidivina e lontanissima da quella delle plebi che controllano; l’evoluzione umana viene ridotta a una nuova divisione tra pastori onnipotenti e greggi sottomesse. Dietro a tutto questo c’è l’impatto che le nuove forme di potere, e le tecnologie che esse usano, hanno sulla nostra capacità individuale e collettiva di comprendere e dar conto della complessità del reale: stiamo assistendo alla scomparsa di quel principio di realtà dal quale l’Occidente ha cominciato ad allontanarsi con la Rivoluzione industriale e ancora più con il Novecento, alla scomparsa della storia, alla scomparsa delle sfumature e delle zone grigie e in generale di tutto ciò che non rientra nel pensiero algoritmico.

Per quanto riguarda le applicazioni dell’AI alla vita quotidiana la questione, come già dicevo a proposito dell’automazione industriale, si giocherà concretamente non solo e non tanto su ciò che sarà possibile fare quanto soprattutto su ciò che sarà conveniente fare, e in questo tipo di valutazione entreranno considerazioni ben più ampie di quelle meramente tecnologiche. La questione non è tecnica ma politica e culturale. Se qualcuno pensa che, restando i regimi occidentali ciò che sono, l’AI sarà usata (in modo non marginale, cioè non solo come vetrina) per eliminare la povertà e le disuguaglianze, per portare la pace nel mondo o in generale nell’interesse comunque inteso dei popoli, dei cittadini e dell’umanità, andrà incontro a delusioni cocenti.

Qualche beneficio sociale e soprattutto individuale dell’AI contribuirà dunque a lubrificare le dinamiche di accettazione e quelle di rassegnazione, e contemporaneamente a mettere in cattiva luce le obiezioni degli scettici e dei contrari, i quali potranno essere dipinti come luddisti che per ignoranza, per grettezza o per connivenza con il nemico mirano a sabotare il benessere e il progresso di tutti.

Verranno dunque certamente introdotte applicazioni di AI che rendano più veloce e meno impegnativo qualche aspetto delle nostre vite, senza però interferire con gli equilibri complessivi della società e anzi possibilmente rafforzandoli: possiamo attenderci, e in parte già vediamo, un fiorire di iniziative umanitarie o di efficienza economica (a vantaggio di chi?), di informazioni in tempo reale, di modi per migliorare la produttività individuale (di nuovo, a vantaggio di chi e con quali ricadute sull’intelligenza individuale e su quella collettiva?) e così via. Le industrie del tempo libero non mancheranno di sfruttare tutte le possibilità offerte dalle nuove tecnologie. Alcuni di coloro che hanno tra le proprie attività la produzione di documenti ne produrranno di più e più rapidamente. Le imprese selezioneranno lavoratori, clienti e fornitori con maggior efficienza, e così via. Indubbiamente, e fortunatamente, i disabili sensoriali e motori ne trarranno benefici, e chi potrebbe essere così insensibile da fermare il progresso e impedire che ciò accada?

La diffusione di quelli che ho chiamato frammenti di AI nelle case, nelle strade, nel lavoro, in tutti i luoghi pubblici e privati, nella generalità della vita quotidiana si presterà anche a rafforzare ulteriormente la sorveglianza dei comportamenti: il frigorifero che ordinerà automaticamente i viveri mancanti “saprà” anche tutto delle nostre abitudini alimentari e dei nostri orari di vita e molto della nostra salute o delle nostre abitudini sociali, e lo comunicherà a chiunque sia interessato (incluso naturalmente qualche malintenzionato come classicamente definito, in modo da creare un’emergenza sicurezza informatica), che provvederà poi a incrociare questi dati con tutti gli altri disponibili su di noi. Questo tipo di capacità caratterizzerà infatti tutti gli artefatti “intelligenti” nel campo visivo dei quali ci troveremo a passare: veicoli privati, mezzi pubblici, case smart e così via. La diffusione dei sistemi di sorveglianza (social media, riconoscimento dei visi e dei comportamenti etc.) farà il resto. Per converso, i medesimi apparati saranno anche in grado di impedirci determinate attività quando, a giudizio insindacabile di qualche autorità pubblica o privata, magari per suo errore e magari per delega alla macchina stessa, avremo meritato di essere puniti o estromessi, temporaneamente o permanentemente, dalla vita sociale o da quella materiale o dovremo modificare qualche abitudine, e così via.

Resta quindi da vedere se la sorveglianza sia un effetto collaterale della comodità o questa di quella. E resta da vedere se la comodità valga le conseguenze, tanto più dove verranno pregiudicati dei posti di lavoro, il normale funzionamento dei servizi sociali, o il benessere materiale e psicologico di chi sarà comunque soggetto alle condizioni di operatività e alla sorveglianza di algoritmi con i quali non potrà negoziare.

Che poi il marketing incaricato di far accettare queste tecnologie ne oscuri gli aspetti problematici per far leva invece su bisogni individuali reali, presunti o indotti è fuor di dubbio, sia per banale buon senso e per le considerazioni appena proposte sia alla luce della tendenza del capitalismo nelle sue varie versioni di vantare la propria intrinseca bontà e dedizione al massimo bene di tutti e di ciascuno. Viviamo sempre più di diritti superflui, a mano a mano che ci vengono sottratti quelli essenziali.

Sul piano delle relazioni internazionali, poi, l’AI ha il doppio compito di mantenere, perpetuare e possibilmente aumentare il divario tecnologico, e quindi la relazione di dominio e dipendenza, tra il centro imperiale e le periferie coloniali, e di far sì che il sistema regga o possibilmente vinca la competizione con i nuovi poli geopolitici e geoeconomici che stanno nascendo. L’uso pervasivo e profittevole del nuovo strumento è indispensabile anche da questi punti di vista, oltre che ovviamente come ricompensa in denaro per i centri industriali e finanziari che rendono possibile e concreta nel mondo materiale l’operazione politica e culturale.

4. Conclusioni

Si sarà ben capito che, per quel che vale, nutro profonde perplessità nei confronti dell’introduzione dell’AI nella nostra vita e nelle nostre società.

Non c’è alcunché d’intelligente nell’intelligenza artificiale. Questa consapevolezza, che per chi si occupa in qualsiasi modo della questione è o dovrebbe essere pacifica da decenni, tende a sbiadire per effetto sia del marketing sia delle prestazioni dei sistemi informatici che etichettiamo in tal modo, spesso sbalorditive e tali da ingaggiarela propensione alla pareidolia che è connaturata agli esseri umani.

Per marketing intendo sia ciò che è visibilmente tale (inclusi, ad esempio, i video fasulli ampiamente diffusi sul web che dipingono prestazioni intelligenti da parte di robot) sia, in senso più ampio, l’insieme delle spinte esplicite o implicite, gentili o meno, che tendono da un lato ad accreditare nel discorso pubblico l’idea che siamo alle soglie di chissà quale meravigliosa, necessaria e al contempo inevitabile rivoluzione nelle nostre vite e, dall’altro, a sviare la nostra attenzione dagli aspetti più preoccupanti o francamente oscuri. Includo nel marketing, oltre alle campagne di propaganda e alle politiche concrete di aziende, lobby e governi, anche le narrazioni, le azioni e le pressioni sociali interne alle stesse comunità di ricerca e quelle che le comunità di ricerca esercitano verso le istituzioni da una parte e verso i media dall’altra.

I rischi più gravi vengono occultati o sfiorati marginalmente, per stimolare invece discussioni animate su quelli di scarso peso o che possono essere presentati come trattabili. Gli aspetti problematici che vengono portati alla luce sono solitamente quelli che riguardano questioni magari importanti ma non vitali, comunque sempre descritte come temporanee e risolvibili, quali la proprietà intellettuale dei materiali di addestramento, i pregiudizi etnici o di genere che possono manifestarsi nelle risposte dei programmi, le allucinazioni eccetera. Altre volte vengono discussi timori che appaiono ispirati o presi di peso dal cinema di fantascienza dei decenni passati: la singolarità, la ribellione delle macchine, il momento nel quale esse supereranno l’intelligenza umana. E naturalmente non è possibile nascondere la perdita di posti di lavoro, della quale però si dà per scontato che verrà compensata rapidamente e senza grandi turbolenze grazie ai nuovi lavori che si creeranno e al benessere generalizzato che la tecnologia infallibilmente e automaticamente porterà.

Quel che resta una volta tolto il marketing, in realtà, è l’universo di applicazioni progettate e introdotte per i propri scopi dalle strutture e dai centri di potere ai quali siamo soggetti. Che tali scopi possano occasionalmente coincidere con quelli dei popoli è cosa carina ma sostanzialmente irrilevante, dato che l’asimmetria nel controllo delle tecnologie e in generale nel potere garantisce che tale corrispondenza possa cessare in qualsiasi momento a discrezione della parte più forte.

L’introduzione delle nuove tecnologie avviene in parte mediante qualche vera o presunta gratificazione individuale, in parte mediante semplice imposizione operativa (ad esempio vincolando l’accesso a determinati luoghi, servizi etc. all’uso diretto o indiretto di intelligenza artificiale) e in parte forse ancora più ampia semplicemente all’insaputa del cittadino (ad esempio lasciando che siano apparati di AI a decidere quali concessioni governative ci meritiamo, disegnando scenari per la gestione della prossima emergenza etc.).

È difficile prevedere i dettagli di questo processo: come dicevo sopra, sarebbe come aver tentato di prevedere nei particolari effetti e conseguenze dell’introduzione dell’informatica in generale o dell’internet. I medesimi centri di potere che stanno introducendo l’AI stanno anche facendo esperimenti e calibrazioni e, sempre all’interno di una strategia complessivamente ben strutturata, valuteranno momento per momento i singoli passi da fare. Molte delle ipotesi che ho provato a formulare verranno smentite o corrette, in eccesso o in difetto, dalla realtà, e appariranno molte altre applicazioni che non ho saputo immaginare o delle quali non ho valutato adeguatamente la portata. Le ipotesi che ho fatto devono pertanto essere considerate meri esempi possibili di un modo di procedere che invece, quello sì, è ben visibile nelle circostanze storiche che ci è dato vivere.

È ragionevole pensare che il quadro si articoli su due polarità o, a seconda di come si vogliano riconoscere continuità e discontinuità, su un continuum. A un polo possiamo pensare a un’AI apicale che indirizzi, coadiuvi o gestisca dinamiche militari, economiche e sociali; questa verrà usata nelle attività delle strutture di potere, operando sia nelle interazioni che tali strutture hanno tra di loro e, a livello sistemico, con strutture analoghe in altre nazioni, sia nel facilitare quella verticalizzazione del potere, dell’economia e del controllo che è la cifra principale di questa fase dell’evoluzione dell’impero.

All’altro polo possiamo pensare a un’AI diffusa, o popolare, che, usando a mo’ di cavallo di Troia alcune applicazioni utili o piacevoli per il singolo o per le strutture di basso livello (ospedali, aziende non strategiche etc.), opererà come macchina da oppressione, da svago, da lavoro e da utilizzo obbligatorio quotidiano, gestendo al contempo la conoscenza, le attività, la sorveglianza, il controllo, la punizione e, in ultima analisi, la vita di chi potere non ha.

Ci sono altre possibilità? Proviamo a scomporre la domanda. In primo luogo, le tecnologie sono o possono essere neutrali? Personalmente non vedo come ciò sia possibile: forse lo è la conoscenza, per quanto a stento, ma la ricerca non lo è di sicuro e le applicazioni meno ancora. Ogni tecnologia incorpora i rapporti di potere che l’hanno generata. In ogni caso sono decenni che ci interroghiamo sulla deriva della tecnica, sulle sue premesse e sulle sue conseguenze, e sulla sua controllabilità. Ci sono tante posizioni possibili quante riflessioni che possiamo fare su questi temi; intanto però il mondo va avanti e, concretamente, nessuna tecnica e nessuna tecnologia s’è mai rivelata neutrale. Non c’è ragione di pensare che lo possa essere l’AI, tanto più nelle circostanze nelle quali la polis si trova attualmente.

Forse qui la vera domanda è cosa possa voler dire, in questo contesto, che una tecnica o una tecnologia è neutrale. Credo che il senso generalmente inteso sia che essa permette una pluralità di applicazioni e di utilizzi. Questo però non implica neutralità; al contrario, apre la domanda su quali siano di volta in volta le applicazioni e gli utilizzi scelti tra i numerosi possibili, o almeno quelli più significativi in termini di conseguenze sulla realtà. Tra le infinite applicazioni della fisica del Novecento vi sono sia la creazione delle armi nucleari sia la terapia radiologica di alcuni tumori: senza togliere valore alla salute dei singoli, è piuttosto evidente quale delle due abbia maggiormente inciso, e rischi di incidere ancora di più, nella storia complessiva dell’umanità.

In ogni caso, nella misura in cui le tecnologie e i loro utilizzi sono almeno anche materia politica, non si può fare a meno di affiancare all’universo di domande che riguardano le tecnologie quello delle domande che riguardano la polis.

Ammesso (e solo parzialmente concesso) che avessero qualche caratteristica di neutralità politica, o almeno di casualità politica, molte delle tecnologie apparse prima dell’era moderna, nate in società relativamente incontrollate e ancora prive di quel dominio capillare, pervasivo e incessante che caratterizza questa fase storica, neutrali non possono essere queste che chiamiamo avanzate. Le tecnologie avanzate non sono, dicevo, come gli attrezzi da cucina: esse sono deliberatamente progettate da organizzazioni o reti di organizzazioni complesse, a loro volta create e gestite da strutture di potere come parte delle loro strategie per la governamentalità. Queste strutture di potere impongono poi le tecnologie a popolazioni sostanzialmente ignare che, se avessero le idee chiare e la possibilità di scegliere, ne farebbero probabilmente a meno senza rimpianti, o come minimo le userebbero in modi completamente diversi. Queste tecnologie non si affermano infatti da sole, sotto la spinta del desiderio o del bisogno, ma vengono introdotte nella società grazie a imposizioni che non consentono spazi di negoziato o di difesa, e a un marketing nel quale si mescolano omissioni, bugie e qualche occasionale collana di perline colorate. Tutto questo è tanto più efficace quanto più il potere a tutti i livelli è verticalizzato e le masse atomizzate e rese incapaci di generare e accogliere una discussione o una decisione collettiva o corale al riguardo.

Mettendo da parte le questioni di pertinenza tecnica, dunque, le mie perplessità dipendono come minimo dalla mia convinzione che almeno alcuni Stati più o meno profondi o permanenti esistano davvero, contra la vulgata corrente che li vede in ritirata su tutti i fronti, e siano strettamente intrecciati alle grandi aziende del complesso militare-industriale (sociale/mediatico, biomedico/sanitario, e così via) e della finanza, e che sia in corso una profonda e insanabile frattura tra élite o establishment e popolo, al punto che i primi, imbevuti di senso di onnipotenza e di ideologia malthusiana, sono ormai irrevocabilmente indifferenti alle sorti del secondo.

D’altronde, appare assai improbabile che una singola nazione o l’Impero stesso rinuncino all’AI: non solo per tutto quanto ho scritto finora, ma anche perché la competizione in corso tra aree geopolitiche o geoeconomiche inevitabilmente si giocherà su tutti i piani, spingendo le élite interne a ciascun attore in campo a usare qualunque mezzo o strumento possa portare loro qualche vantaggio, senza preoccuparsi più di tanto (o affatto) delle potenziali conseguenze, che resteranno materia per complottisti, terrapiattisti, amici del Nemico e altri deplorevoli: minoranze sterilizzate e sostanzialmente impotenti. In piccolo, lo stesso accadrà ai vari sottosistemi che caratterizzano ciascuna area: anche a questo livello, la competizione tra strutture di potere, tra centri di ricerca, tra fazioni delle forze armate, tra aziende e all’interno delle aziende tra management e lavoratori etc. porterà gli attori a sfruttare qualunque opportunità disponibile. Avremo quindi una corsa alle armi a tutti i livelli, nella quale ciascun attore più ideologicamente coeso e tecnologicamente attrezzato avrà la meglio su ciascuna controparte divisa e in preda al caos. Pur non potendosi escludere sorprese nelle singole aree, e a meno di un tracollo complessivo dell’ideologia portante o del funzionamento concreto dell’impero, la distribuzione reale del potere e il semplice buon senso sembrano garantire che siano le élite esistenti a essere meglio posizionate per queste guerre.

In più, se anche si raggiungesse una qualche consapevolezza generalizzata, controllare le azioni del rivale o addirittura stipulare trattati di disarmo computazionale sarebbe ancora più difficile nel caso dell’AI che in quello, già poco gestibile, delle armi nucleari, batteriologiche e chimiche.

E dunque, se le tecnologie non sono, almeno nella pratica, neutrali, e se è vero che la conoscenza è potere, allora il problema della conoscenza e dei suoi utilizzi reali è un problema di potere, e il controllo che i cittadini, il popolo, le élite, l’establishment hanno sulla conoscenza equivale alla presa che ciascuno di tali attori ha sul potere.

Il secondo gruppo di domande, dopo quelle sulla neutralità della tecnologia, è dunque: qual è oggi la distribuzione reale del potere? Siamo soddisfatti di come le élite stanno usando potere e conoscenza? Se non lo siamo, quali rischi vediamo? Cosa siamo concretamente in grado di fare al riguardo? Naturalmente queste domande esulano dalle possibilità di discussione di questo documento, ma ne costituiscono l’orizzonte necessario.

Resta infine la domanda fondamentale: quanto, e fino a quando, possiamo illuderci che tutto questo sarà soggetto a un controllo popolare, consapevole e democratico? Luddismo o democrazia reale sembrano le uniche due alternative immaginabili al dominio totale: quanto desiderabili, quanto possibili, quanto probabili, quanto e come realizzabili sono domande che posso soltanto affidare alla sensibilità del lettore.

Ringraziamenti

Questo documento è una sintesi, a oggi, di riflessioni che tento di fare da quattro decenni, per lo più saltuarie e mescolate ad altri filoni di pensiero, e raramente o mai pubblicate. Dopo aver cominciato, molti anni fa, a fare ricerca nell’area dell’AI con l’idea, ingenua e fantascientifica quanto si vuole, che fossimo davvero impegnati nel tentativo di costruire un fratello digitale, mi resi conto che si trattava di un’impresa votata al fallimento sia concettuale sia pragmatico, e andai per altre strade scientifiche. Nel frattempo però ho anche perso fiducia nel potere, almeno per come si manifesta in questa fase della storia dell’Occidente, e nelle ideologie del progresso. L’intersezione di queste linee di pensiero mi ha portato a riconsiderare i temi dell’intelligenza artificiale, in modo però molto più lucido, almeno spero, e, con mio dispiacere, molto più cupo.

In questo percorso, mi sono trovato a scambiare idee con molte persone, in modo variamente costante o strutturato. Alcune di queste persone hanno letto e commentato una versione preliminare di questo documento, altre per una ragione o per l’altra non l’hanno letto, altre ancora sono state solo figure di passaggio, sconosciuti su un treno.

Tra i tanti vorrei però menzionare almeno Daniela Acquadro Maran, Gabriella Airenti, Arianna Boldi, Federica Cappelluti, Antonella Carassa, Marco Cosentino, Ilaria Cutica, Cinzia Gamba, Laura Panetta, Lorenza Paolucci, Paola Perin, Pietro Terna, il compianto amico e collega Bruno Bara, e mio fratello Corrado Tirassa.

Per quanto siano state preziose le conversazioni con ciascuna di queste persone, la responsabilità delle idee che presento in questo documento è, ovviamente, solo mia.

Un ringraziamento speciale va a Juan Carlos De Martin per avermi istigato a dare a queste considerazioni una forma che spero leggibile e non oso sperare condivisibile. Mi ci è voluto molto tempo, ma infine ce l’ho fatta.

Bibliografia consigliata

Per quanto riguarda gli aspetti tecnici dell’intelligenza artificiale, il panorama cambia molto rapidamente; un buon manuale coprirà tutti i temi rilevanti. Al momento in cui scrivo il migliore e più aggiornato è probabilmente quello di Stuart J. Russell e Peter Norvig (Intelligenza artificiale. Un approccio moderno; Pearson, 2021).

Discussioni sulle idee retrostanti, sulla loro storia e sulle critiche alle quali sono state sottoposte, nonché sulle relazioni vere o presunte tra mente naturale e mente artificiale si trovano in diversi libri, raccolte o articoli scientifici di grande interesse:

Agre, P.E. (1995). Computational research on interaction and agency. Artificial Intelligence, 72, 1-52.

Brooks, R.A. (1991) Intelligence without representation. Artificial Intelligence, 47, 139-159. Reprinted in Kirsh, ed., 1992.

Chomsky, N. (1959). Review of B.F. Skinner’s ‘Verbal behavior’. Language, 35, 26-58.

Clancey, W.J. (1997). Situated cognition. On human knowledge and computer representations. Cambridge: Cambridge University Press.

Clancey, W.J. (1997). The conceptual nature of knowledge, situations and activity. In: Expertise in context, eds. P.J. Feltovich, K.M. Ford & R.R. Hoffmann. Cambridge, MA: AAAI Press/MIT Press.

Fodor, J.A., Pylyshyn, Z.W. (1988). Connectionism and cognitive architecture: A critical analysis. Cognition, 28, 3-71.

Haugeland, J., ed. (1981). Mind design. Philosophy, psychology, artificial intelligence. Cambridge, MA: MIT Press, 1981. Trad. it.: Progettare la mente. Filosofia, psicologia, intelligenza artificiale. Bologna: il Mulino, 1989.

Kirsh, D., ed. (1992). Foundations of artificial intelligence. Cambridge, MA: MIT Press.

Mori, M. (2012). The uncanny valley (Translated by K.F. MacDorman and N. Kageki). IEEE Robotics and Automation, 19(2), 98-100.

Searle, J.R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3, 417-456. Ristampato e tradotto in Haugeland, ed., 1981.

Searle, J.R. (1992). The rediscovery of the mind. Cambridge, MA: MIT Press. Trad. it.: La riscoperta della mente. Torino: Bollati Boringhieri, 1994.

Somenzi, V., Cordeschi, R. (a cura di) (1986). La filosofia degli automi. Alle origini dell’intelligenza artificiale. Torino: Boringhieri.

Turing, A.M. (1950). Computing machinery and intelligence. Mind, 59, 433-460. Trad. it.: Macchine calcolatrici e intelligenza. In Somenzi & Cordeschi, a cura di, 1986.

Weizenbaum, J. (1976). Computer power and human reason. From judgment to calculation. San Francisco, CA: W.H. Freeman.

Winograd, T., Flores, F. (1986) Understanding computers and cognition. A new foundation for design. Norwood, NJ: Ablex. Trad. it.: Calcolatori e conoscenza. Milano: Mondadori, 1987.

Il resto delle riflessioni che ho proposto in questo documento è più difficilmente riconducibile a opere specifiche. Molte letture mi hanno influenzato in termini generali ma poche, almeno in uno scritto non destinato a una rivista tecnica, in termini locali; d’altra parte la letteratura sulle relazioni tra tecnologie e società è più vasta di quanto un normale essere umano possa sperare di leggere nel corso della propria vita, e molte idee nascono e crescono al di fuori di qualsiasi lettura, anche non di settore. Consapevole dunque che nessun elenco può essere soddisfacente o esaustivo, mi limiterò a un elenco molto parziale di opere che mi sento di suggerire.

Anders, G. (1956). Die Antiquiertheit des Menschen. I. Über die Seele im Zeitalter der zweiten industriellen Revolution. Trad. it.: L’uomo è antiquato. 1: Considerazioni sull’anima nell’epoca della seconda rivoluzione industriale. Milano: il Saggiatore, 1963.

Anders, G. (1980). Die Antiquiertheit des Menschen. II. Uber die Zerstorung des Lebens im Zeitalter der dritten industriellen Revolution. München: Beck. Trad. it.: L’uomo è antiquato. 2: Sulla distruzione della vita nell’epoca della terza rivoluzione industriale. Torino: Bollati Boringhieri, 1992.

Assange, J. (2014). When Google met WikiLeaks. New York and London: OR Books.

Ciccotti, G., Cini, M., de Maria, M., Jona-Lasinio. G. (a cura di) (1976) L’ape e l’architetto. Paradigmi scientifici e materialismo storico. Milano: Feltrinelli.

Clastres, P. (1976-1977) L’anarchia selvaggia. Milano: Elèuthera, 2013. N.B. Si tratta di scritti sparsi dell’antropologo, raccolti e tradotti per questa edizione italiana.

Collettivo Ippolita (2017) Tecnologie del dominio. Lessico minimo di autodifesa digitale. Milano: Meltemi.

D’Eramo, M. (2020). Dominio. La guerra invisibile dei potenti contro i sudditi. Milano: Feltrinelli.

Diamond, J. (1987). The worst mistake in the history of the human race. Discover Magazine, May 1, 1987, 64-66.

Foucault, M. (1975). Surveiller et punir. Naissance de la prison. Paris: Gallimard. Trad. it.: Sorvegliare e punire. Nascita della prigione. Torino: Einaudi, 1976.

Foucault, M. (1978-1979). Naissance de la biopolitique. Paris: EHESS/Gallimard/Le Seuil, 2004. Trad. it.: Nascita della biopolitica. Corso al Collège de France, 1978-1979. Milano: Feltrinelli, 2005.

Gamba, C. (2023). Ius dicere e lex technologica. Torino: Giappichelli.

Harari, Y.N. (2011). From animals into gods. A brief history of mankind. Kinneret/Zmora-Bitan/Dvir. Trad. it.: Sapiens. Da animali a dèi. Milano: Bompiani, 2014.

Huizinga, J. (1938). Homo ludens: Proeve ener bepaling van het spelelement der cultuur. Amsterdam: Wolters-Noordhoff. Trad. it.: Homo ludens. Torino: Einaudi, 1946.

Illich, I. (1975). Medical nemesis. Limits to medicine. London: Calder & Boyars. Trad. it. Nemesi medica. L’espropriazione della salute. Boroli, 2005.

Kaczynski, T.J. (2024). La società industriale e il suo futuro (edizione critica ed estesa). Roma: D Editore. N.B. Si tratta di una raccolta, per quanto possibile completa, degli scritti di Ted Kaczynski, a partire dal celebre Manifesto di Unabomber dal quale prende il titolo.

Lakoff G., Johnson M. (1980). Metaphors we live by. Chicago, IL: University of Chicago Press. Trad. it.: Metafora e vita quotidiana, Milano, Bompiani, 2005.

Lasch, C. (1995). The revolt of the elites and the betrayal of democracy. New York-London: W.W. Norton & Company. Trad. it.: La rivolta delle élite. Il tradimento della democrazia. Vicenza: Neri Pozza, 2017.

Lorenz, K. (1963). Das sogenannte Böse. Wien: Borotha-Schoeler Verlag. Trad. it.: Il cosiddetto male. Milano: Garzanti, 1974.

Marx, K. (1867). Das Kapital. Kritik der politischen Ökonomie. Hamburg: Verlag von Otto Meisner. Trad. it.: Il capitale: Critica dell’economia politica. Roma: Newton Compton, 1996.

Mazzucato, M. (2013). The entrepreneurial State. Debunking public vs. private sector myths. Anthem Press. Trad. it.: Lo Stato innovatore. Sfatare il mito del pubblico contro il privato. Roma e Bari: Laterza, 2014.

Mumford, L. (1967-1970). The myth of the machine, 1: Technics and human development (New York: Harcourt, Brace & World, 1967); The myth of the machine, 2: The pentagon of power (New York: Harcourt Brace Jovanovich, 1970). Trad. it.: Il mito della macchina. Milano: il Saggiatore, 1969.

O’Neil, K. (2016). Weapons of math destruction. How big data increases inequality and threatens democracy. New York: Penguin/Crown. Trad. it.: Armi di distruzione matematica. Come i big data aumentano la disuguaglianza e minacciano la democrazia. Milano: Bompiani/Firenze: Giunti, 2017.

Pinto, V. (2012). Valutare e punire. Una critica della cultura della valutazione. Napoli: Cronopio.

Sahlins, M. (2017). Stone age economics (2nd edition). New York. Routledge [1st edition New York: de Gruyter, 1972]. Trad. it.: L’economia dell’età della pietra. Milano: Elèuthera, 2020.

Zuboff, S. (2019). The age of surveillance capitalism. The fight for a human future at the new frontier of power. Public Affairs. Trad. it.: Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri. Roma: LUISS University Press, 2019. Infine vorrei segnalare un romanzo, forse la più profetica tra le distopie pubblicate nel XX secolo: Fahrenheit 451, di Ray Bradbury (1953). In un certo senso, è già tutto lì dentro.

Epilogo (sconcertato; provvisorio?)

Il funzionario disse che gente come me faceva parte di “quella che chiamiamo la comunità che crede nella realtà”, che definì come persone che “credono che le soluzioni emergano dallo studio giudizioso della realtà discernibile”. Io annuii e biascicai qualcosa sui principi dell’illuminismo e dell’empirismo. Mi interruppe. “Il mondo non funziona più così,” continuò. “Ora siamo un impero, e quando agiamo creiamo la nostra realtà. E mentre voi studiate quella realtà – con giudizio, come vi piace fare – noi agiremo di nuovo, creando altre nuove realtà, che voialtri di nuovo vi metterete a studiare. È così che vanno le cose. Noi siamo gli attori della storia… e voi, tutti voi, potrete soltanto continuare a studiare ciò che noi facciamo.”

Non mi domando neanche quali siano le conseguenze di questa visione del mondo, o quante ne siano le vittime. Mi domando solamente: fino a quando? quanto a lungo può reggere un sistema siffatto?