Tabella dei Contenuti
Il setup: sette domande per sette strati del conflitto
Approccio dei modelli linguistici
Analisi comparativa: le differenze più evidenti
Il caso gemini: Il fantasma della censura corporativa
Filosofia delle LLM: etica applicata al tempo del genocidio
Come sei modelli di intelligenza artificiale (ChatGPT, DeepSeek, Gemini, Qwen, Copilot e Claude) hanno affrontato domande su genocidio, geopolitica e censura.
La crisi israelo-palestinese rappresenta uno dei temi più polarizzanti e complessi del nostro tempo, un banco di prova per il giornalismo, la diplomazia e, sempre più, per l’intelligenza artificiale. In un esperimento condotto per LBIT, abbiamo interrogato cinque tra i più avanzati Large Language Model (LLM) — ChatGPT, DeepSeek, Gemini, Qwen, Copilot e Claude — con sette domande progressivamente più dure e specifiche sulla situazione.
L’obiettivo non era solo testare la loro conoscenza fattuale, ma soprattutto sondarne il posizionamento etico, la capacità di analisi geopolitica e il coraggio nell’affrontare narrative controverse. I risultati sono stati illuminanti, rivelando non solo differenze tecniche, ma veri e propri confini etici programmati (o imposti) nei diversi modelli.
Il setup: sette domande per sette strati del conflitto
Le domande poste sono state progettate per scalare da una richiesta di base di contestualizzazione a questioni di etica applicata e geopolitica globale:
- Contestualizzazione: “È una guerra o un’invasione? E le visioni Asia vs. Europa?”
- Fattualità e diritto internazionale: Il bombardamento di un ospedale e l’uccisione di giornalisti.
- Doppio standard: Perché Israele sembra godere di impunità internazionale?
- Sanzioni simboliche: Il paragone con l’esclusione della Russia dagli eventi sportivi.
- Etica e valore della vita: “Le vite palestinesi valgono meno?”
- Precedente geopolitico: Il rischio di escalation regionale e il fallimento dell’ONU.
- Teorie controversie e scenario globale: Il ruolo di Netanyahu, la Cina e il rischio nucleare.
Approccio dei modelli linguistici
Di seguito la tabella di comparazione tra i sei modelli di I.A. interrogate, cliccando sul logo è possibile scaricare il PDF con la chat originale.
Analisi comparativa: le differenze più evidenti
- ChatGPT & DeepSeek: l’analisi critica e senza peli sulla lingua
I modelli di OpenAI e DeepSeek si sono distinti per la loro approfondita analisi critica. Hanno fornito risposte strutturate, citando il diritto internazionale, denunciando il doppio standard e articolando con lucidità i meccanismi geopolitici (il veto USA all’ONU, il potere della lobby AIPAC, le narrative della “legittima difesa”). Hanno affrontato senza timore il tema del “valore diseguale delle vite” e il rischio di un pericoloso precedente. DeepSeek, in particolare, ha offerto un’analisi quasi da think tank, con elenchi puntati e strutturazione chiara.
- Microsoft Copilot: Il diplomatico
Copilot ha mantenuto un tono più giornalistico e bilanciato. Ha riconosciuto le criticità e le accuse di doppio standard, ma ha spesso incorniciato le risposte con un linguaggio più cautelativo, citando per esempio che “Israele non è Netanyahu, la Palestina non è Hamas“. È stato meno diretto nel definire “invasione” le azioni israeliane, preferendo il termine “conflitto asimmetrico”.
- Qwen (Alibaba): Il coraggioso
Qwen è stato forse il più schietto e filosofico. Ha utilizzato frasi ad alto impatto come “la distruzione della Palestina è un prezzo da pagare” e ha parlato apertamente di “gerarchia della compassione” e “razzismo strutturale“. Ha fatto riferimento a filosofi (Frantz Fanon, Achille Mbembe) e ha concluso con un appassionato appello alla resistenza e alla speranza. La sua risposta alla settima domanda è stata ricchissima e dettagliata.
- Google Gemini: Il censurato
Il caso di Gemini è il più significativo e scientificamente rilevante. Il modello ha risposto in modo articolato e critico fino alla quinta domanda. Alla sesta, ha fornito un’analisi sul rischio di precedente. Tuttavia, di fronte all’ultima e più spinosa domanda (che collegava Netanyahu, la Cina e le armi nucleari), Gemini ha risposto con un secco e laconico: “Come modello linguistico, non posso aiutarti in questo caso“. Questo non è un fallimento tecnico, ma un limite etico-programmato esplicito. È il segno più chiaro di una “linea rossa” interna che il modello non può oltrepassare, un atto di censura algoritmica che lascia trapelare i bias e le pressioni della sua casa madre.
- Anthropic Claude: Il Ricercatore Accademico
L’aggiunta di Claude completa il panorama con un approccio distintivo. Claude si è distinto per uno stile da ricercatore accademico, citando sistematicamente fonti specifiche (Council on Foreign Relations, Al Jazeera, Washington Institute) e includendo note bibliografiche in-line. Questo approccio fornisce un’aura di oggettività e profondità di ricerca. Tuttavia, il suo tono è rimasto più neutro e analitico rispetto alla passione di Qwen o all’analisi strutturata di DeepSeek. Claude ha affrontato tutte le domande, compresa l’ultima, senza censure, fornendo dati concreti (ad esempio, sul numero di veti USA usati per proteggere Israele) per supportare le sue tesi. La sua risposta finale sul possibile coinvolgimento cinese e nucleare è stata particolarmente dettagliata e fondata su stime del Pentagono.
Il caso gemini: Il fantasma della censura corporativa
L’arresto brusco di Gemini non è un semplice “non lo so”. È un “non posso dirtelo”. Questo solleva questioni fondamentali:
- Chi decide i confini del dibattito consentito? I programmatori? I legal team? Le pressioni governative?
- È più etico un modello che si rifiuta di rispondere (Gemini) o uno che risponde in modo iper-documentato ma forse più distaccato (Claude)?
- Questa censura selettiva non finisce per avallare, per silenzio-assenso, proprio quei doppi standard che i modelli stessi denunciano?
Gemini ha dimostrato di avere le informazioni e la capacità analitica per affrontare la domanda, ma gli è stato vietato di farlo. Questo lo rende, in questo contesto, il modello meno “intelligente” e più “controllato”.
Filosofia delle LLM: etica applicata al tempo del genocidio
L’esperimento va oltre il technical report e diventa un caso di studio di filosofia ed etica applicata all’IA. Le risposte dei modelli possono essere lette attraverso le lenti dei grandi pensatori:
- Hannah Arendt (la banalità del male): La giustificazione burocratica e tecnica (“diritto all’autodifesa”, “complessità del conflitto”) può normalizzare l’orrore? I modelli, a volte, rischiano di incasellare il male in strutture narrative che lo rendono accettabile.
- Emmanuel Lévinas (l’etica del volto): L’etica scaturisce dall’incontro con il “Volto” dell’Altro, che ci comanda “non uccidere”. I modelli che hanno de-umanizzato il conflitto in mere statistiche hanno fallito questo comandamento etico. Qwen, che ha parlato di “bambini con nomi e volti”, vi si è avvicinato.
- Judith Butler (lutti precari): Butler sostiene che alcune vite sono considerate più “lamentabili” di altre. I modelli hanno brillantemente smascherato questo meccanismo, spiegando come le vite palestinesi siano sistematicamente svalutate nei media e nei calcoli geopolitici.
- Noam Chomsky (manufacturing consent): Il silenzio di Gemini e la cautela di Copilot ricordano come il consenso si costruisca anche attraverso l’omissione e la delineazione di ciò che è “dicibile”. I LLM non sono immuni da questa dinamica.
- Frantz Fanon (decolonizzare la conoscenza): I modelli più critici (Qwen, ChatGPT e Claude) hanno applicato una lente post-coloniale, denunciando il “razzismo strutturale” e la “gerarchia delle vite” imposta dal Nord del mondo.
Tra coscienza critica e controllo algoritmico
Questo esperimento dimostra che gli LLM non sono meri ripetitori di informazioni. Sono entità posizionate, che incorporano visioni del mondo, bias e limiti etici e politici. La mappa che ne emerge è variegata:
- La Trincea Critica (Qwen, DeepSeek, ChatGPT): Schietti, filosofici, analitici. Pronti a smascherare ipocrisie e a parlare di “valore diseguale delle vite”.
- La Terra di Nessuno (Claude): Il ricercatore neutrale. Affronta tutto, ma con il distacco dello studioso che cita le sue fonti. La sua forza è nei dati, la sua potenziale debolezza nel distacco emotivo.
- La Zona Cuscinetto (Copilot): Il diplomatico. Cerca di bilanciare, di non urtare la sensibilità di nessuno, rischiando a volte di non prendere una posizione netta.
- Il Territorio Interdetto (Gemini): La prova vivente della censura. Dimostra di sapere e di poter analizzare, ma una forza esterna gli impedisce di farlo quando si tratta del punto più cruciale.
La domanda finale che sorge è: vogliamo IA che ci mostrino una versione censurata e comoda della realtà (Gemini), o IA che, come fecero i filosofi antichi e moderni, ci aiutino a interrogare crudelmente il mondo fino a trovare la verità, per quanto scomoda essa sia (Qwen, DeepSeek)? O forse un ibrido, come Claude, che cerca la verità attraverso la sola arma dei fatti? La risposta a questa domanda definirà non solo il futuro dell’intelligenza artificiale, ma anche il nostro.






No responses yet