Per il ciclo di incontri “i Nexa Lunch Seminar” (ogni 4° mercoledì del mese)

106° Nexa Lunch Seminar – L’«etica» come specchietto per le allodole. Sistemi di intelligenza artificiale e violazioni dei diritti

DANIELA TAFANI

(Università di Pisa)

Centro Nexa su Internet & Società
Politecnico di Torino, via Boggio 65/a, Torino (1° piano)

Suonare al citofono Portineria – Seguire le indicazioni lungo il percorso

Ingresso libero

Giudizi e decisioni che hanno effetti rilevanti sulle vite delle persone sono oggi affidati, in un numero crescente di ambiti, a sistemi di intelligenza artificiale che non funzionano. Tali malfunzionamenti non sono occasionali e non sono scongiurabili con interventi tecnici: essi rivelano, anzi, il funzionamento ordinario dei sistemi di apprendimento automatico, utilizzati impropriamente per compiti che non è loro possibile svolgere o che sono impossibili tout court. Le decisioni basate su tali sistemi sono costitutivamente discriminatorie, e dunque, in alcuni ambiti, infallibilmente lesive di diritti giuridicamente tutelati, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto.

Negli ultimi anni, l’opera di demistificazione della natura meramente discorsiva e del carattere strumentale dell’«etica dell’intelligenza artificiale», che trasforma l’etica nella questione della conformità procedurale a un «anemico set di strumenti» e standard tecnici, è stata così efficace da indurre molti a liquidare come inutile o dannosa – in quanto disarmata alternativa al diritto o vuota retorica aziendale – l’intera filosofia morale. Al dissolversi della narrazione sull’etica dell’intelligenza artificiale, compare il convitato di pietra che essa aveva lo scopo di tenere alla larga: si sostiene infatti ora, da più parti, l’urgenza che ad intervenire, in modo drastico, sia il diritto. L’adozione di sistemi di apprendimento automatico a fini decisionali, in ambiti rilevanti per la vita delle persone, quali il settore giudiziario, educativo o dell’assistenza sociale, equivale infatti alla decisione, in via amministrativa, di istituire delle «zone pressoché prive di diritti umani».

Biografie

Letture consigliate e link utili

Slide

Video dell’incontro