Red Lines per l’IA: la fabbrica del consenso morale

Anatomia epistemologica di un appello

Il 22 settembre 2025, Maria Ressa ha presentato all’Assemblea Generale dell’ONU un appello firmato da oltre 200 personalità – 10 premi Nobel, ex capi di stato, pionieri dell’intelligenza artificiale – chiedendo “linee rosse” vincolanti per l’IA entro la fine del 2026. Pandemie ingegnerizzate, disinformazione di massa, manipolazione sistematica: i rischi elencati sono apocalittici, l’urgenza palpabile, i firmatari irreprensibili.
Ma prima di chiederci cosa propongono, dovremmo chiederci cosa sta accadendo. Non è una proposta tecnica che cerca validazione – è un atto performativo che trasforma la natura stessa del dibattito, una questione tecnologica in imperativo morale, dove l’expertise cede il passo all’autorità e la precisione viene sacrificata per il consenso.
Quando un tema passa dal dominio tecnico a quello morale, cambia il regime epistemologico – chi può parlare, come si valutano le affermazioni, cosa conta come argomento.
Nel regime tecnico, la validità si misura con dati ed esperimenti. L’autorità deriva dalla competenza dimostrata. Il dibattito avviene tra esperti che condividono un linguaggio comune.
Nel regime morale, la validità si misura col consenso di persone autorevoli. L’autorità deriva dal prestigio pubblico. Il dibattito avviene tramite appelli e pressione mediatica verso l’opinione pubblica.
Questo passaggio non è degenerazione – è spesso necessario. Le questioni complesse che riguardano tutti non possono restare confinate nelle riviste specialistiche. Ma comporta una trasformazione: ciò che era discussione aperta diventa posizionamento morale; l’incertezza tecnica diventa certezza etica; il “probabilmente” diventa “evidentemente”.

Il Nobel come certificatore universale

Un premio Nobel per la Fisica non ha competenza tecnica superiore in IA rispetto a un ricercatore senior di machine learning. Eppure la sua firma pesa infinitamente di più. Il Nobel funziona come certificatore epistemico universale – conferisce autorità che trascende il dominio specifico.
Quando Geoffrey Hinton firma l’appello, porta competenza reale. Ma quando firmano anche economisti, ex presidenti, autori famosi, non stanno validando tecnicamente le affermazioni – stanno conferendo legittimità morale alla preoccupazione. Stanno dicendo: “Anche noi, non esperti di IA, riteniamo questo abbastanza importante da mettere in gioco la nostra reputazione pubblica“.
È comunicazione politica, non valutazione scientifica. E funziona precisamente perché non pretende di essere quest’ultima.

La retorica dell’inevitabilità

L’appello presenta i rischi non come possibilità da valutare, ma come minacce imminenti. È la struttura retorica del “punto di non ritorno” – la stessa del dibattito climatico o della corsa agli armamenti. Non invita al dibattito sulle probabilità – lo chiude sostituendolo con un imperativo: dobbiamo agire, ora.
“Entro la fine del 2026” – perché quella data? Non c’è giustificazione tecnica. La scadenza serve a creare urgenza, a cortocircuitare la riflessione: “non abbiamo tempo per i dettagli, dobbiamo agire.” L’urgenza trasforma l’incertezza in certezza, la prudenza in paralisi, il disaccordo in irresponsabilità.

Il paradosso della vaghezza necessaria

L’appello non specifica quali dovrebbero essere esattamente queste “linee rosse”. Non è un difetto – è funzionale al suo scopo.
La vaghezza massimizza il consenso. Chi teme la sorveglianza, chi la disoccupazione, chi le armi autonome – tutti trovano spazio. Ognuno proietta le proprie paure su una superficie sufficientemente generica da accoglierle tutte.
La vaghezza evita il conflitto tecnico. “Vietare all’IA di impersonare esseri umani” – include i chatbot? I doppiatori sintetici? Gli avatar nei videogiochi? Ogni specificazione genererebbe una linea di frattura. Meglio restare sui principi, dove tutti concordano che “le cose brutte sono brutte”.
La vaghezza sposta la responsabilità: “qualcuno deve fare qualcosa” senza specificare cosa. Nessuno può attaccarlo tecnicamente perché non c’è nulla di tecnico da attaccare.

La confusione dei tre livelli

Quando diciamo “linee rosse per l’IA”, stiamo parlando di regolare la conoscenza scientifica (gli algoritmi in sé), gli strumenti specifici (GPT-4, sistemi di riconoscimento facciale), o gli usi concreti (sorveglianza di massa, truffe, discriminazione)?
Non è un dettaglio: cambia tutto. Regolare la ricerca significa limitare la scienza stessa – come vietare la statistica perché può manipolare l’opinione pubblica. Regolare gli strumenti porta a paradossi: un chatbot è pericoloso se aiuta un paziente depresso o se truffa un anziano? È lo stesso strumento.
Solo regolare gli usi funziona concretamente: non vietiamo il riconoscimento facciale, ma il suo impiego per sorveglianza di massa senza mandato giudiziario. Non vietiamo i chatbot, ma l’impersonare persone reali senza dichiararlo. Come per il nucleare: non vietiamo la scissione dell’atomo, ma l’uso delle bombe.
Se dicessero “vogliamo vietare certi algoritmi”, molti scienziati si ritirerebbero. Se specificassero “vogliamo vietare certi sistemi”, l’industria si opporrebbe e resterebbe il problema di definire quali. Se dicessero chiaramente “vogliamo vietare certi usi”, dovrebbero entrare nel dettaglio tecnico-giuridico spinoso.
Meglio restare vaghi: “linee rosse per l’IA”. Ognuno interpreta come preferisce. Il consenso generale nasconde disaccordi profondi che emergeranno quando si dovrà scrivere una legge vera.

Lezioni dalla storia

La televisione negli anni ’50 generava timori identici: manipolazione, controllo mentale, degrado culturale. Ma la regolamentazione venne costruita tecnicamente: commissioni con esperti di comunicazione, psicologi, giuristi lavorarono anni per definire regole specifiche. Non “la TV non deve manipolare” (vago), ma “vietata la pubblicità occulta”, “obbligo di par condicio”, “divieto contenuti violenti prima delle 22:30” (specifico, verificabile, sanzionabile).
Il nucleare: non regoliamo “la scissione dell’atomo” – impossibile, è fisica. Regoliamo chi può arricchire uranio, per quali scopi, con quali controlli. Il Trattato di Non Proliferazione (1968) funziona perché traduce l’imperativo morale in dispositivi tecnici verificabili: conteggio centrifughe, analisi isotopi, ispezioni IAEA. Ci sono voluti 23 anni dalla bomba al trattato. Non per lentezza diplomatica, ma perché serviva costruire definizioni tecniche, protocolli di verifica, meccanismi di enforcement.
La lezione è chiara: funziona quando regoliamo gli usi, non la conoscenza o gli strumenti.

Le tre fasi (e quella che salta sempre)

Ogni regolamentazione tecnologica seria passa attraverso:
Fase 1 – Allarme morale: “Questo è pericoloso, bisogna fare qualcosa” (appelli, firme, media)
Fase 2 – Elaborazione tecnica: “Ecco cosa fare concretamente” (commissioni di esperti, progetti pilota, analisi comparate)
Fase 3 – Legge vincolante: “Ecco le regole e come le facciamo rispettare” (parlamenti, trattati, sanzioni)
Il problema dell’appello Red Lines? Salta dalla Fase 1 alla Fase 3. Dall’allarme alla scadenza 2026 per un “accordo internazionale”, senza la faticosa Fase 2.
L’appello dice: “l’IA non deve impersonare esseri umani”. Trasformarlo in legge applicabile richiede: cosa costituisce “impersonazione”? Un chatbot? Un deepfake? Un avatar? Ci sono eccezioni legittime (doppiaggio film, assistenti per non vedenti)? Come verifichi che un sistema “non possa” impersonare? Chi è responsabile – sviluppatore, distributore, utente? Quali sanzioni?
Questo richiede anni di commissioni multidisciplinari, studi pilota, aggiustamenti. Non 15 mesi. Senza la Fase 2, rischiamo accordi vaghi che nessuno sa applicare – come per il clima.

Il rischio della soddisfazione precoce

C’è un rischio sottile: la soddisfazione morale anticipata. Abbiamo fatto l’appello, le firme importanti, la presentazione ONU, i giornali. Sentiamo di aver fatto qualcosa di importante. E in un senso è vero – abbiamo spostato l’attenzione. Ma questa sensazione rischia di sostituirsi al fare effettivamente qualcosa.
Guardiamo il clima: decenni di appelli, summit, Greta Thunberg, copertura intensissima. Consenso morale schiacciante. E le emissioni continuano a salire. Perché? Siamo bravissimi nella Fase 1 (costruzione consenso morale) e inadeguati nella Fase 2 (traduzione in dispositivi tecnici funzionanti). Saltiamo dalla morale alla politica senza passare dalla tecnica.
Per l’IA rischiamo lo stesso: 2026 grande trattato, 2027 tutti firmano principi vaghi, 2028 nessuno sa implementarli, 2030 “l’IA ha generato i problemi temuti, ma avevamo fatto un appello!”

La funzione effettiva degli appelli

Gli appelli servono. Non per fornire soluzioni tecniche, ma per:

  • Spostare l’attenzione pubblica: da “roba da tecnici” a “questione per i governi”
  • Costruire coalizioni: oltre 70 organizzazioni coordinate
  • Creare pressione legittimante: un politico ora può agire senza sembrare tecnofobico.
    Ma quando la società si ferma qui, credendo che “200 firme importanti” equivalgano a “sappiamo cosa fare”, confondiamo costruzione del consenso con elaborazione tecnica. Oltre 300 testate hanno coperto l’appello – successo mediatico straordinario. Ma quante hanno poi seguito con articoli su come implementare concretamente linee rosse verificabili?

Teatro e cantieri

L’appello per le Red Lines è teatro politico. E il teatro serve – crea lo spazio in cui diventa possibile agire, trasforma una questione tecnica in imperativo collettivo. Con 10 Nobel dalla sua parte, un politico ha copertura morale per agire.
Ma il teatro non costruisce ponti tra principi morali e implementazione tecnica, tra allarme e soluzione.
Il passo successivo – difficile, poco mediatico, ingrato – è trasformarlo in tecnica: definire cosa significa “linea rossa”, come verificarla, chi la fa rispettare, come gestire i casi limite. È lì che si decide se tra dieci anni diremo “l’IA è stata regolata in modo sensato” o “abbiamo fatto grandi appelli ma poi è successo quello che temevamo”.
La storia – dal nucleare al clima – suggerisce che siamo molto meglio nell’alzare l’allarme che nel costruire soluzioni. Forse la vera linea rossa da non superare è questa: confondere l’avere firmato un appello con l’avere risolto un problema.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Didatticarte: Il volto inclusivo del collezionismo didattico

Dopo quasi quindici anni dalla creazione del sito Didatticarte.it, Emanuela Pulvirenti continua ad essere attivissima nell’ambito della didattica della storia dell’arte, dedicandosi infaticabilmente alla divulgazione di contenuti specialistici attraverso i diversi canali social.

Artuu Newsletter

Scelti per te

Al Maschio Angioino di Napoli il classicismo inquieto di Jim Dine

Classicismo e contemporaneità, sospesi tra frammentazione e perfezione. Ha aperto oggi, a Napoli, “Elysian Fields”, una mostra site-specific allestita al Maschio Angioino che mette in dialogo la visione di Jim Dine, icona dell’arte contemporanea, con gli ambienti monumentali del castello trecentesco recentemente riqualificati.

La forma della luce. Beato Angelico e il tempo sospeso della pittura (pt.1)

Curata da Carl Brandon Strehlke, con Stefano Casciu e Angelo Tartuferi, l’esposizione si sviluppa come un pellegrinaggio laico attraverso più di 140 opere, tra pale dorate, crocifissioni, ritratti e miniature, fino a toccare i luoghi dove l’Angelico ha realmente vissuto e lavorato.

Nel salotto degli spiriti: Fata Morgana riporta in vita le visioni di Palazzo Morando

La contessa è Lydia Caprara di Montalba (1876-1945) insieme al marito Gian Giacomo Morando Attendolo Bolognini (1855-1919), ha vissuto a Palazzo Morando, oggi sede della collezione di Costume e Moda del Comune di Milano

Seguici su Instagram ogni giorno