Il boicottaggio dei distratti: tolgo ChatGPT e tengo tutto il resto

Il boicottaggio dei distratti: tolgo ChatGPT e tengo tutto il resto
Hanno disinstallato ChatGPT per protestare contro l'accordo con il Pentagono. Poi hanno riaperto TikTok, usato aggregatori AI che girano su OpenAI e non si sono fatti nessuna domanda sulle app cinesi nel telefono. Parliamoci chiaro.

Dunque, avete disinstallato ChatGPT. Avete preso il telefono, siete andati nelle impostazioni, avete cercato l’icona arancione e l’avete eliminata con la stessa soddisfazione con cui si abbassa una leva. Missione compiuta. La coscienza è pulita, il messaggio è stato mandato, OpenAI trema. Il 28 febbraio le disinstallazioni negli Stati Uniti sono schizzate del 295% in un solo giorno, una cifra che fa impressione e che i giornali hanno rimbalzato con entusiasmo, costruendoci sopra la narrazione di una rivolta digitale consapevole, di utenti svegliati improvvisamente dall’accordo tra OpenAI e il dipartimento che l’amministrazione Trump ha ribattezzato con il nome evocativo di “dipartimento della Guerra”.

Capisco la reazione. L’accordo fa discutere, e alcune delle preoccupazioni sollevate sono legittime. OpenAI ha firmato un’intesa per portare i propri modelli dentro le reti militari classificate statunitensi, quelle che trattano informazioni sensibili per la sicurezza nazionale. Anthropic, la società che produce Claude, si era rifiutata di farlo, opponendosi in particolare a due richieste precise: la sorveglianza e la progettazione di armi autonome. Una posizione netta, che ha un suo peso specifico, soprattutto se confrontata con l’approccio di OpenAI, che invece si è seduta al tavolo e ha firmato, salvo poi fare piccoli passi indietro dopo che i download del suo chatbot sono crollati e le recensioni da una stella hanno invaso gli app store. Sam Altman in persona ha ammesso di essersi affrettato a comunicare la notizia, definendo le questioni “estremamente complesse”. Una retromarcia a metà, condita di parole morbide, che però ha già funzionato come una carezza per molti di quelli che erano corsi a disinstallare.

Tutto questo è il fatto. Il racconto che ci costruiamo sopra, però, è un’altra storia.

Il boicottaggio che inizia e finisce sul telefono

La prima cosa che mi chiedo, guardando questa ondata di disinstallazioni, è semplice: cosa avete fatto subito dopo? Perché questo è il punto che i titoli entusiastici non raccontano mai.

Avete tolto ChatGPT, poi avete aperto TikTok, avete scrollato qualche minuto di reel, e forse avete visto uno di quei video in cui più di un creator spiegava con tono indignato proprio la questione del Pentagono, magari con una grafica accattivante e una voce sintetica generata da uno strumento di intelligenza artificiale. Magari quel creator, nella stessa settimana, aveva pubblicato uno spot per qualche piattaforma AI alternativa, una di quelle con nomi anglofoni brillanti e un sito tutto bianco, minimale, che promette creatività illimitata e non dice una parola su dove finiscono i dati che gli affidate. Ma voi stavate protestando, quindi tutto bene.

Il problema di questa storia non è l’accordo OpenAI-Pentagono in sé, che merita una discussione seria e approfondita. Il problema è la qualità della risposta che stiamo dando, che assomiglia molto più a un gesto simbolico da social network che a una presa di posizione consapevole. E i gesti simbolici da social network hanno una caratteristica precisa: durano quanto un ciclo di indignazione, poi svaniscono, e chi li ha compiuti torna al punto di partenza con la sensazione di aver fatto qualcosa.

L’ignoranza digitale vestita da resistenza

C’è un’altra categoria di persone che in questi giorni mi ha colpito in modo particolare: quella degli utenti che hanno disinstallato ChatGPT e poi continuano a usare aggregatori di intelligenza artificiale. Esistono diversi portali, piuttosto diffusi, che raccolgono sotto un’unica interfaccia vari strumenti AI, presentandosi come alternative comode e versatili. Il piccolo dettaglio che molti ignorano è che buona parte di questi aggregatori, sotto la carrozzeria, utilizzano esattamente i modelli di OpenAI. Pagano una licenza, passano le richieste alle API di ChatGPT, e restituiscono le risposte con un altro nome sopra. Tecnicamente stai usando ChatGPT. Solo che non lo sai, e quindi la coscienza resta tranquilla.

Questo non è un’accusa di malafede. È una constatazione di ignoranza digitale, e uso questa espressione senza nessuna intenzione offensiva, perché l’ignoranza digitale è uno stato diffusissimo e comprensibile in un ecosistema tecnologico che cambia ogni sei mesi. Il punto è che quando l’ignoranza digitale si traveste da atto politico, quando diventa la base di un boicottaggio che si crede efficace e non lo è, allora diventa un problema. Non per OpenAI, che continua ad avere 900 milioni di utenti attivi settimanali e 50 milioni di abbonati paganti, e che dalle disinstallazioni di una settimana non ha ricevuto nessuno problema reale. Il problema è per noi, perché ci illudiamo di essere più consapevoli di quanto siamo.

Benvenuti nel mondo delle piattaforme senza etica: avete già scelto il vostro preferito?

Voglio però allargare un attimo il campo, non per sviare il discorso, ma per mettere in prospettiva l’operazione di purificazione digitale che molti stanno compiendo.

Parliamo di piattaforme cinesi. Non faccio nomi specifici perché non è necessario: il panorama è noto. Applicazioni con centinaia di milioni di utenti nel mondo occidentale, sviluppate da aziende soggette alle leggi di uno Stato che non ha mai nascosto il proprio interesse ad accedere ai dati dei propri cittadini e, per estensione, a quelli degli utenti stranieri. Leggi che obbligano le aziende nazionali a collaborare con i servizi di intelligence su richiesta. Nessuna garanzia di protezione paragonabile al GDPR europeo. Eppure su queste piattaforme vengono caricati video, foto, informazioni personali, in quantità industriali, ogni giorno, anche da parte di molti di coloro che oggi indignati disinstallano ChatGPT perché ha stretto un accordo con il Pentagono americano. Il paradosso è talmente evidente che quasi mi vergogno a doverlo scrivere.

Ma andiamo oltre. Se il criterio per boicottare uno strumento digitale è la sua relazione con governi o apparati militari che non ci piacciono, allora dobbiamo avere il coraggio di applicare quel criterio in modo coerente. Waze, il navigatore che milioni di persone usano ogni giorno, è una società israeliana acquistata da Google. Fiverr, la piattaforma di freelance usatissima anche in Italia, è israeliana. Wix, con cui sono stati costruiti letteralmente centinaia di migliaia di siti web nel mondo, è israeliana. E sto solo grattando la superficie, senza toccare i colossi americani come Google, Microsoft, Amazon e Spotify, che hanno tutti, in forme diverse, rapporti con apparati governativi, contratti con il Pentagono, partecipazioni in progetti di difesa e sicurezza. Se volete essere davvero coerenti con il boicottaggio, dovete smettere di usare la mail di Gmail, il cloud di OneDrive, le playlist di Spotify e la ricerca di Google. E poi, naturalmente, dovete buttare il telefono, perché i dispositivi su cui girate queste app sono quasi certamente assemblati in condizioni lavorative che nessuno di voi accetterebbe per sé stesso, in Paesi dove il concetto di diritti dei lavoratori è trattato come una fantasia romantica.

Lo so che questo ampliamento del discorso può sembrare un modo per sminuire la questione OpenAI-Pentagono. Non è così. È un modo per chiedere una cosa sola: coerenza. O la pretendi ovunque, o ammetti che stai solo seguendo il trend del momento.

Il trend, appunto

Perché questa è la parola giusta. Trend. Non presa di posizione, non scelta etica ragionata, non boicottaggio organizzato con obiettivi chiari. Trend. Qualcosa che esplode in un weekend, genera titoli, alimenta video, produce una bolla di indignazione condivisa, e poi si sgonfia. E si sgonfia esattamente nel momento in cui chi ha provocato la reazione fa un passo indietro, anche solo formale, anche solo comunicativo.

Altman ha già iniziato la manovra. Ha detto che si sono affrettati, che le questioni sono complesse, che verranno apportate modifiche. Nessuna marcia indietro sostanziale, nessun abbandono dell’accordo, nessuna rinuncia alla presenza nei sistemi classificati militari. Solo qualche rassicurazione sulle parole d’ordine più sensibili: niente sorveglianza interna dei cittadini americani, niente sistemi d’arma autonomi senza supervisione umana. Affermazioni che, come ha notato qualche analista, si basano sul presupposto che il governo rispetti i vincoli concordati. Un presupposto, non una garanzia. Ma sufficiente, probabilmente, per far tornare una buona parte dei disinstallatori.

Ci scommetto. Tra qualche settimana ChatGPT tornerà sul telefono di molti di quelli che l’hanno rimossa. Perché funziona bene, perché è comoda, perché il ciclo dell’indignazione sarà esaurito, e perché il prossimo trend avrà già occupato lo spazio mentale disponibile. E il tutto si sarà risolto in un nulla di fatto, come quasi sempre accade con questi gesti collettivi che nascono sui social e sui social rimangono.

Cosa avrebbe dovuto sembrare questo gesto, e cosa è stato davvero

Non voglio passare per qualcuno che difende OpenAI o che minimizza le preoccupazioni legate all’uso militare dell’intelligenza artificiale. Le preoccupazioni sono fondate. La questione delle armi autonome, dei sistemi di sorveglianza di massa, dell’intelligenza artificiale applicata alla guerra è una delle più serie e urgenti del nostro tempo, e merita una riflessione pubblica profonda, non un’ondata di disinstallazioni durata 48 ore.

La posizione di Anthropic, che si è opposta alle richieste del Pentagono su sorveglianza e armamenti autonomi, è una posizione che rispetto. È una scelta che ha avuto un costo reale, visto che l’azienda è stata di fatto messa al bando dall’amministrazione Trump, almeno formalmente. Il fatto che poi i sistemi di Anthropic siano stati utilizzati lo stesso nell’operazione Epic Fury contro l’Iran, come riportato dal Wall Street Journal, aggiunge un ulteriore strato di complessità alla vicenda, e dice molto sulla distanza che spesso esiste tra i principi dichiarati e l’uso concreto delle tecnologie in ambienti che sfuggono al controllo dei loro sviluppatori.

Quello che non rispetto è la semplificazione con cui questa vicenda complessa è stata ridotta a un gesto pop: togli l’app, metti cinque stelle a Claude, condividi il video. Come se la questione etica dell’intelligenza artificiale applicata alla guerra si risolvesse con un tap sullo schermo di uno smartphone prodotto in condizioni che farebbero inorridire i più ardenti sostenitori dei diritti umani.

Se davvero volete ragionare su questi temi, fatelo per bene. Informatevi su cosa fanno i modelli che usate, su chi li finanzia, su dove girano i dati che producete. Imparate a distinguere tra un aggregatore che usa ChatGPT in modo mascherato e un’alternativa genuinamente indipendente. Chiedetevi perché siete disposti a indignarvi per un accordo con il Pentagono americano e non vi fate nessuna domanda sulle app cinesi che avete nel telefono. Chiedersi queste cose non vi renderà più puri, ma almeno più onesti.

L’indignazione selettiva e temporanea non è una posizione etica. È un accessorio stagionale, come tutti i trend. E i trend, lo sappiamo, passano.