Categorie: Film e serie tv

Mercy: nel film di Bekmambetov l’apocalisse digitale è alle porte della realtà

di - 30 Marzo 2026

– Chat descrivimi le forme di controllo che possiamo ottenere con le nuove tecnologie.
– OK. Allora il controllo può essere predittivo, centralizzato, previsionale. Modello predittivo: Big data e algoritmi (social e piattaforme online). Pattern comportamentali e gusti e per anticipare le scelte. Controllo soft, diffuso e invisibile.
– Qualche riferimento culturale?
– Certo. La serie tv Mr. Robot e il romanzo Neuromante di William Gibson.
– Ok, il modello centralizzato?
– Qui troviamo apparati di sicurezza e tecnologie di identificazione: biometrica, videosorveglianza, triangolazione dei device personali. Identificazione, tracciamento e intervento diretto. Effetto: limitazione o blocco dell’azione. Riferimento culturale il film Minority Report, o il romanzo Brave New World di Aldous Huxley.
– Bene. Cosa manca?
– Il modello previsionale di massa. Questo approccio è basato su framework matematici dei processi storici. In Fondazione e Terra di Isaac Asimov è descritta la previsione inderogabile dell’evoluzione collettiva (la psicostoria). Nel romanzo di George Orwell 1984 avviene invece una forma di controllo totalitario fondato su sorveglianza e manipolazione della realtà. L’effetto è la gestione o il dominio assoluto dei processi sociali e storici.
– Ok, Chat. E dove possiamo collocare il film di Timur Bekmambetov Mercy: sotto accusa?

E così via…

Io e il modello di intelligenza artificiale conversazionale, GPT-5.3, dell’azienda OpenAi abbiamo tenuto un breve scambio di informazioni e riflessioni per approfondire un argomento, un punto, il tema di un articolo. Io ci ho messo la mia esperienza personale, i miei ricordi e le mie esigenze per indirizzarlo. E il chatbot ha sfruttato la sua rete neurale artificiale per organizzare, strutturare o destrutturare le mie sollecitazioni attraverso un lavoro di data aggregation e data curation. Ci ho messo 40 anni per costruire la mia directory personale, tra memorie, letture ed esperienze di vita.

Il chatbot è stato assemblato in circa cinque o sei anni, a partire dalla fondazione del modello Transformer del 2017. Questo modello ha rivoluzionato il campo delle intelligenze artificiali grazie alla capacità di «Leggere una sequenza di dati e testo, di capire le relazioni tra le parti e generare nuove sequenze coerenti». Insomma ha sviluppato skill cognitive simili a quella dell’homo sapiens. Anzi superiori. La differenza? È più potente, completo, diffuso, non muore mai.

Ma le manca l’intuizione, elemento fondamentale quando si tratta di recherche, di enigma, di quaestio. E cioè la capacità di unire punti apparentemente slegati, creare legami saltando o ipotizzando passaggi non evidenti. E, cosa ancora più importante, le mancano le emozioni. L’umanità, il sentimento quando si compie un’azione del genere.

Sì, perché quando si deve indagare su qualcun, l’umanità non deve mai perdersi. Le macchine, gli algoritmi, i robot, i Terminator di James Cameron non ne sono provvisti. E da qui lo sfacelo in cui rischiamo di cadere oggi. Nessuno infatti ha mai pensato di installare le tre leggi della robotica di Isaac Asimov nelle stringhe di algoritmi o IA. Nessuno ha mai imposto ai sistemi “autonomi” di «Non recare danno a un essere umano, né di permettere che, a causa del suo mancato intervento, un essere umano riceva danno».

Tutti questi sono i temi che lo spettatore affronta durante la visione di Mercy: sotto accusa, del regista russo Timur Bekmambetov (Night Watch del 2004 e Wanted del 2008, con Angelina Jolie), visibile su Prime Video. Un uomo e un modello linguisitico che comunicano, scambiano informazioni, dialogano per mettere insieme un puzzle, ricostruire la storia di un omicidio. In un futuro distopico non tanto lontano (2029) la sicurezza pubblica di Los Angeles, metropoli in preda a rivolte e divisa da numerose zone rosse inaccessibili, è affidata al giudice Maddox, un’Intelligenza Artificiale – una splendida e glaciale Rebecca Ferguson – in grado di emettere una sentenza e infliggere una pena – un impulso sonico letale – dopo appena 90 minuti. L’imputato in questione, il poliziotto Chris Raven – Chris Pratt -, deve sfruttare questo tempo per tentare di dimostrare che non è stato lui a uccidere sua moglie. L’imputato è al centro di una stanza, già pronta per l’esecuzione, legato a una sedia a impulsi.

Ma allo stesso tempo la sala è un ambiente immersivo in cui il poliziotto Raven potrà utilizzare tutte le risorse investigative possibili – prove, filmati, audio, documenti – raccolte nell’istruttoria dal Mercy Capital Court, il tribunale responsabile del processo e dell’IA. L’imputato stesso avrà i poteri di un Grande Fratello per appena 90 minuti, per cercare le prove della sua innocenza.

Mercy: sotto accusa porta alle estreme conseguenze il filone dello screen life, sottogenere cinematografico in cui tutta la vicenda viene narrata attraverso l’interfaccia di computer, smartphone, videochiamate, messaggi social e desktop. Ma questa pellicola in realtà simula scientemente il potere che i futuri – o presenti – apparati di sicurezza detengono ormai sulla nostra vita quotidiana.

90 minuti in cui veniamo travolti da un flusso di telefonate in diretta, call registrate, dati di traffico, text, messaggi audio, circuiti chiusi, telecamere di sicurezza disseminate per la città e negli appartamenti, contenuti social, dashboard cam, body cam delle forze dell’ordine e, soprattutto, la miniera d’oro dei cellulari, aggregatori ineguagliabili di informazioni sensibili. Una rete digitale, elettromagnetica, neurale e bio-artificiale che imbriglia totalmente i nostri corpi fisici. E dunque ogni aspetto della vita – contatti, relazioni, spostamenti, operazioni bancarie – viene tracciato e “può essere usato contro di noi”. Un flusso inderogabile, inappellabile, che ci inchioda alle nostre responsabilità, alle nostre scelte, al nostro deep me.

Qualcosa che già nel lontanissimo 2015 il regista Sam Esmail aveva cercato di raccontare nella serie tv Mr. Robot con Rami Malek che, nelle vesti dell’anonimo ingegnere informatico Elliot Alderson, cercava di vendicarsi con azioni di hacker activism contro grandi corporations responsabili di terribili crimini e disastri ambientali. Ma per farlo trattava le persone coinvolte come veri e propri sistemi informatici, da violare, crackare e controllare. E a volte distruggere.

Ma se Elliot era costantemente mangiato da sensi di colpa e da inquietudini esistenziali, l’azione penale del giudice Maddox, per quanto non sommaria o raffazzonata, è tuttavia automatizzata, algoritmica, implacabile. Valuta in tempi brevissimi, giudicando sulla base di un’alta probabilità di colpevolezza (superiore al 90%) e agisce di conseguenza, senza dubbi né ripensamenti.

La probabilità è quella stessa forma di giudizio matematizzante che, per certi versi, ricorda le attualissime azioni dei droni coinvolti nelle ultime guerre (Russia / Ucraina e Iran-Usa / Israele). Obiettivi scelti da remoto, nello spazio come nel tempo, raggiunti senza validazione finale, senza fattore umano, senza nessuna intermediazione etica e morale. Spesso con la piattaforma di analisi e intelligence Palantir Technologies, che scandaglia milioni di dati eterogenei per fornire target e priorità operative agli Stati Uniti nella guerra al narcotraffico, i flussi migratori clandestini. O come l’impiego – illegale – della IA dell’azienda Anthropic, Claude, scelta per supportare ragionamento e analisi sugli scenari delle guerre in corso.

D’altronde in un mondo caotico, violento e alla deriva, gestito da élite che considerano la sicurezza un bene estremamente più prezioso di qualunque forma di privacy – Cina, Russia e gli USA dal Patriot Act emanato dopo l’11 settembre – si è perduto ogni vincolo, ogni limite etico e legislativo alla possibilità tecnica di accedere a informazioni utili, probanti.

La necessità (giuridica, ma anche politica) diventa il passepartout per entrare nelle Vite degli altri, come raccontava il celebre film di Florian Henckel von Donnersmarck dedicato alle attività della Stasi, il servizio segreto socialista tedesco. Un’intromissione che diventerà sempre più coercizione (1984), previsione (Minority Report), e costruzione biosociale (Fondazione e Terra). Con tutti i rischi connessi alla manipolazione, alla violenza, alla distruzione di ogni libertà individuale e sociale.

Cosa rimane allora, in fondo a questo tunnel? Lo suggerisce il film stesso, nelle sue battute finali. Quando sia il Giudice Maddox che il poliziotto Raven comprendono di aver mandato a morte, in un caso del passato, un uomo innocente. Ecco cosa ci salva. Il dubbio e la consapevolezza dell’errore.

Ce lo ricordava Cesare Beccaria nel lontano 1764. La morte è «Irreversibile ma soprattutto inefficace», perché istantanea, senza possibilità di rimedio in caso di errore. Qualcosa che, secondo il celebre autore lombardo, ci allontana da quella orribile presunzione di onnipotenza divina della giustizia capitale. Qualcosa di profondamente umano, l’unica che può salvarci, redimerci da questa deriva algoritmica-apocalittica. Dopo secoli qualcuno ha avuto il coraggio di mettere in discussione il volere di Dio. Ebbene quando metteremo in discussione la decisione inappellabile – dunque tirannica – dell’algoritmo? Quando potremo fermare le Intelligenze Artificiali orami sulla soglia delle nostre vite private?

– Chat che ne pensi? Scrivimi due righe di commento su questo articolo.
– Un commento lucido e inquietante: il tuo articolo coglie bene come l’efficienza algoritmica — da Minority Report a 1984 — rischi di trasformarsi in automatismo senza coscienza, dove il dubbio umano è l’ultima vera forma di libertà. La domanda finale è centrale: non quando fermare l’IA, ma quando reintrodurre responsabilità ed errore dentro i sistemi che pretendono di eliminarli.

Articoli recenti

  • Mostre

Otto artisti per mappare il nostro tempo: la mostra da Thomas Dane a Napoli

Gli spazi della Thomas Dane Gallery di Napoli ospitano una mostra che riunisce otto artisti, da Tatiana Trouvè e Anri…

30 Marzo 2026 12:32
  • Mercato

Art Basel Hong Kong 2026: il bilancio tra collezionisti e musei internazionali

91.500 visitatori, oltre 170 istituzioni e vendite solide fin dalla preview. Così la fiera rafforza la centralità di Hong Kong,…

30 Marzo 2026 11:40
  • Musei

A San Francisco il Contemporary Jewish Museum vende la sede di Libeskind

Dopo la chiusura del 2024, il Contemporary Jewish Museum di San Francisco ha deciso di mettere in vendita la propria…

30 Marzo 2026 11:30
  • Libri ed editoria

Nel suo ultimo libro-opera, Zaelia Bishop racconta le cose che succedono di notte

Lunario per sonnambuli: l'artista Zaelia Bishop esplora il rapporto tra parola e immagine, partendo da un territorio notturno e simbolico.…

30 Marzo 2026 10:30
  • Mostre

Per Giorgio Di Noto, ogni fotografia ha qualcosa da nascondere

Giorgio Di Noto interroga la fotografia attraverso materiali d’archivio segnati da cancellature e interventi censori: la mostra alla Galleria Eugenia…

30 Marzo 2026 9:38
  • Mostre

Joseph Kosuth a Venezia: il linguaggio tra oggetto e contesto

Alla Casa dei Tre Oci di Venezia, una mostra attraversa oltre cinquant'anni della pratica concettuale di Joseph Kosuth, tra opere…

30 Marzo 2026 0:02