DANIELA TAFANI
(Università di Pisa)
Mercoledì 24 maggio 2023, ore 13.00 – 14.00
Centro Nexa su Internet & Società
Politecnico di Torino, via Boggio 65/a, Torino (1° piano)
Suonare al citofono Portineria – Seguire le indicazioni lungo il percorso
(Per maggiori informazioni su come raggiungerci clicca qui)
Ingresso libero
Stanza virtuale: https://didattica.polito.it/VClass/NexaEvent
Giudizi e decisioni che hanno effetti rilevanti sulle vite delle persone sono oggi affidati, in un numero crescente di ambiti, a sistemi di intelligenza artificiale che non funzionano. Tali malfunzionamenti non sono occasionali e non sono scongiurabili con interventi tecnici: essi rivelano, anzi, il funzionamento ordinario dei sistemi di apprendimento automatico, utilizzati impropriamente per compiti che non è loro possibile svolgere o che sono impossibili tout court. Le decisioni basate su tali sistemi sono costitutivamente discriminatorie, e dunque, in alcuni ambiti, infallibilmente lesive di diritti giuridicamente tutelati, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto.
Alla vasta documentazione degli esiti ingiusti, nocivi e assurdi di tali decisioni, le grandi aziende tecnologiche – paventando un divieto generalizzato – hanno risposto, in evidente conflitto di interessi, con un discorso sull’etica: è nata così, come operazione di cattura culturale, con l’obiettivo di rendere plausibile un regime di mera autoregolazione, l’«etica dell’intelligenza artificiale». La funzione di tale discorso è quella di tutelare, legittimandolo, un modello di business – fondato sulla sorveglianza e sulla possibilità di esternalizzare impunemente i costi del lavoro, degli effetti ambientali e dei danni sociali- il cui nucleo consiste nella vendita, alle agenzie pubblicitarie, della promessa di un microtargeting fondato sulla profilazione algoritmica.
Negli ultimi anni, l’opera di demistificazione della natura meramente discorsiva e del carattere strumentale dell’«etica dell’intelligenza artificiale», che trasforma l’etica nella questione della conformità procedurale a un «anemico set di strumenti» e standard tecnici, è stata così efficace da indurre molti a liquidare come inutile o dannosa – in quanto disarmata alternativa al diritto o vuota retorica aziendale – l’intera filosofia morale. Al dissolversi della narrazione sull’etica dell’intelligenza artificiale, compare il convitato di pietra che essa aveva lo scopo di tenere alla larga: si sostiene infatti ora, da più parti, l’urgenza che ad intervenire, in modo drastico, sia il diritto. L’adozione di sistemi di apprendimento automatico a fini decisionali, in ambiti rilevanti per la vita delle persone, quali il settore giudiziario, educativo o dell’assistenza sociale, equivale infatti alla decisione, in via amministrativa, di istituire delle «zone pressoché prive di diritti umani».
Biografie
Daniela TAFANI insegna Etica e politica dell’intelligenza artificiale e Storia della filosofia politica all’Università di Pisa. È vicepresidente della Società italiana di Studi Kantiani e si occupa, nello specifico, della filosofia morale e politica di Kant, e di etica e intelligenza artificiale. Tra i suoi lavori recenti: L’«etica» come specchietto per le allodole. Sistemi di intelligenza artificiale e violazioni dei diritti (“Bollettino telematico di filosofia politica”, 2023); Intelligenza artificiale e impostura. Magia, etica e potere (“Filosofia politica”, 2023); What’s wrong with “AI ethics” narratives (“Bollettino telematico di filosofia politica”, 2022); Automaticamente illegali”. Una proposta per i sistemi di intelligenza artificiale (“Bollettino telematico di filosofia politica”, 2022); L’imperativo categorico come algoritmo. Kant e l’etica delle macchine (“Sistemi intelligenti”, 2021), Sulla moralità artificiale. Le decisioni delle macchine tra etica e diritto (“Rivista di filosofia”, 2020).
Letture consigliate e link utili
- A. Saltelli, D.J. Dankel, M. Di Fiore, N. Holland, M. Pigeon, Science, the endless frontier of regulatory capture, «Futures», CXXXV, 2022, pp. 1-14, LINK
- Economies of Virtue: The Circulation of ‘Ethics’ in AI, a cura di T. Phan, J. Goldenfein, D. Kuch, M. Mann, Amsterdam, Institute of Network Cultures, 2022, LINK
- A. Wang, S. Kapoor, S. Barocas, A. Narayanan, Against Predictive Optimization: On the Legitimacy of Decision-Making Algorithms that Optimize Predictive Accuracy, October 4, 2022, pp. 1-29, LINK
- M. Giraudo, Legal Bubbles, in Encyclopedia of Law and Economics, a cura di A. Marciano, G.B. Ramello, New York, Springer, 2022, LINK
- F. Pasquale e G. Malgieri, From Transparency to Justification: Toward Ex Ante Accountability for AI, «Brussels Privacy Hub Working Papers», VIII, 33, 2022, pp. 1-27, LINK
Slide
Scarica la versione PDF della presentazione di Daniela Tafani.