Una recensione di Essere umani: l’impatto dell’intelligenza artificiale sulle nostre vite
Ringraziamo Neri Pozza che ci ha gentilmente omaggiati della copia stampa.

Negli ultimi anni, l’intelligenza artificiale (IA) è diventata centrale nelle nostre vite, al punto che sembra ormai difficile immaginare una vita senza questa tecnologia. C’è chi la utilizza per velocizzare le ricerche, chi per scrivere e-mail, chi addirittura per sentirsi meno solo: le sue applicazioni appaiono potenzialmente infinite. Tuttavia, come ogni innovazione tecnologica, anche l’IA presenta aspetti problematici che non possono essere ignorati. Considerata la rapidissima crescita di questo settore e la sua crescente influenza sulle nostre vite, interrogarsi sulle implicazioni etiche e sociali dell’IA è oggi più che mai necessario. A farlo è la giornalista Madhumita Murgia nel saggio Essere umani: l’impatto dell’intelligenza artificiale sulle nostre vite, pubblicato da Neri Pozza, in cui racconta le esperienze di persone la cui vita è stata profondamente cambiata dall’IA. Attraverso queste testimonianze, Madhumita Murgia costruisce un quadro completo dell’impatto dell’IA sulla società, mettendo in luce soprattutto l’assenza di normative adeguate per limitarne gli effetti negativi e le profonde disuguaglianze globali, su cui si fonda lo sviluppo di questi algoritmi.
In dieci capitoli, organizzati per tema, Murgia coglie praticamente tutti gli aspetti delle nostre vite che sono colpiti dall’IA, riportando al centro l’esperienza umana, non solo dal punto di vista dei contenuti, ma anche nella forma. Infatti, il saggio si basa su numerose interviste condotte dall’autrice, che rendono la lettura leggera e accessibile, nonostante l’argomento complesso.

In primis, l’autrice definisce cos’è l’IA: «un software statistico complesso applicato alla ricerca di schemi e relazioni in grandi dataset del mondo reale»1. Oggi si parla soprattutto di IA generativa, ovvero di programmi come ChatGPT in grado di generare testi e immagini a partire dai nostri spunti. Tuttavia, questo libro non si limita a descrivere solo questo tipo di IA e prende in considerazione i vari ambiti in cui viene usata questa tecnologia, come quello medico e quello della sorveglianza. Sicuramente, questo saggio mi ha aiutata a capire meglio come funziona l’IA, il modo in cui viene impiegata e la sua potenziale pericolosità, ma ciò che mi ha colpita di più è stata l’attenzione dell’autrice alle dinamiche di sfruttamento e di neocolonialismo che esistono in quest’industria, di cui si parla davvero raramente. In questo libro, invece, si parla molto di «colonialismo dei dati», un concetto coniato dai sociologi Nick Couldry e Ulises Mejias, con cui si intende lo «sfruttamento di comunità vulnerabili da parte di potenti aziende tecnologiche»2. Infatti, nonostante si pensi che i più importanti progressi tecnologici avvengano nei futuristici uffici della Silicon Valley, in realtà, senza il lavoro sottopagato di persone nel Sud del mondo, molti progressi nell’ambito dell’IA non sarebbero mai stati possibili.
La prima conversazione del libro ha luogo in uno slum di Nairobi, in Kenya, dove la giornalista parla con Ian, un lavoratore di Sama, ONG statunitense che esternalizza3 il lavoro digitale in Africa per le maggiori aziende informatiche degli USA. Molti lavoratori come Ian etichettano i dati che permettono di addestrare i modelli di intelligenza artificiale, concentrandosi, nel suo caso, sui software di guida autonoma. Il loro lavoro consiste nel guardare filmati e disegnare intorno ad ogni oggetto che vedono un riquadro di delimitazione. Organizzazioni come Sama affermano di operare per ridurre la povertà estrema in queste comunità, tuttavia, dalle interviste condotte da Murgia, emerge un grave problema di sfruttamento dei dipendenti, che, avendo un disperato bisogno di denaro, non possono permettersi di protestare contro le ingiuste condizioni lavorative. Oltre a non rispettare i diritti dei lavoratori, il lavoro stesso può essere traumatico, come nel caso dei moderatori di contenuti, costretti a guardare per ore contenuti d’odio e di violenza esplicita, come immagini di corpi smembrati, di pornografia infantile e di suicidi. Molti di loro hanno avuto incubi per anni e altri si sono dovuti allontanare dalle famiglie, incapaci di sopportare la vicinanza dei propri figli dopo aver visto certe immagini.

Il colonialismo dei dati funziona proprio grazie a questa manodopera a basso costo e senza diritti, ma anche grazie ai dati che vengono sottratti a queste comunità. Uno degli esempi raccontati nel libro è quello di un villaggio dell’India rurale, dove al medico locale è stata affidata l’app Qure.ai, in grado di diagnosticare la tubercolosi, una malattia ancora molto diffusa in quella regione. Il medico in questione, Ashita, l’ha testata e la ritiene uno strumento utile, ma non fondamentale per fare diagnosi; suggerisce, però, di diffondere su larga scala questa tecnologia negli ospedali pubblici, dove potrebbe davvero fare la differenza, vista la preoccupante assenza di medici. Invece, questi sistemi diagnostici basati sull’IA vengono pubblicizzati in ospedali privati come servizi speciali, offerti solo ai clienti che possono permettersi di pagare, escludendo i pazienti emarginati che, con i loro dati, hanno contribuito a svilupparla. Questo furto di dati è reso possibile dagli “Asha” (Accredited Social Health Assistants), operatori sanitari dell’India rurale. Godendo della fiducia dei pazienti grazie all’assistenza sanitaria di base porta a porta, vengono reclutati e pagati dalle aziende di IA per raccogliere i dati necessari per sviluppare algoritmi diagnostici, proprio come Qure.ai. Anche in questo caso, però, non saranno queste persone a godere delle tecnologie addestrate sui loro dati, ma i pazienti più benestanti, soprattutto in Occidente, dove queste aziende si spostano sapendo di guadagnare molto di più.
Non si parla abbastanza di questa nuova forma di colonialismo e credo che il lavoro di Murgia sia particolarmente importante anche per questo. Tuttavia, ci sono altri aspetti altrettanto inquietanti dell’IA che vengono trattati in questo saggio, come il suo impiego nella sorveglianza di massa. La giornalista ne parla con Maya Wang, ricercatrice di Human Rights Watch: Wang ha scoperto un sistema di sorveglianza predittivo, basato sull’IA utilizzato in Cina per reprimere la minoranza uigura, ovvero la minoranza musulmana della regione dello Xinjiang. L’obiettivo di questo sistema, che opera tramite un’app usata dalle forze dell’ordine, è di individuare potenziali criminali, a partire da moltissimi dati raccolti sui cittadini. In base a queste informazioni, l’algoritmo classifica le persone in diverse categorie di rischio, a seconda della quale seguono determinate ripercussioni. I criteri per giudicare una persona sospetta appaiono molto arbitrari, permettendo di colpire il maggior numero possibile di uiguri. Per esempio, possono destare sospetto anche semplici comportamenti come «viaggiare al di fuori dello Xinjiang, in Cina o all’estero, spegnere ripetutamente il telefono, parlare con parenti residenti all’estero, non socializzare con i vicini, evitare spesso di entrare o uscire dalla porta principale e usare app occidentali come WhatsApp e Skype»4.
Il libro riporta due testimonianze di uiguri, che descrivono questi nuovi sistemi di sorveglianza usati dalla polizia cinese in quella regione. Dai racconti, emerge che, nello Xinjiang, ci sono moltissimi posti di blocco, ognuno dei quali è dotato di un dispositivo per il riconoscimento facciale e di un software per l’analisi delle emozioni facciali, che dovrebbe determinare se una persona sta pianificando un attacco analizzando le espressioni del volto. A seconda del verdetto del software, la persona fermata può essere lasciata andare, se ritenuta affidabile, o condotta in una stanza per gli interrogatori. Chiaramente, un algoritmo del genere può sbagliare e possono finire in prigione persone che non hanno commesso alcun crimine, solo perché un sistema che non si può contestare ha decretato così. Gli stessi agenti di polizia hanno perso potere discrezionale e devono attenersi alle indicazioni degli algoritmi, permettendo al governo centrale, che li ha progettati, di esercitare un potere sempre maggiore. Questo potere è amplificato dalla presenza di telecamere praticamente onnipresenti e dotate di riconoscimento facciale, che consentono di rintracciare facilmente chiunque sia considerato sospetto o scomodo, come le persone che hanno manifestato contro il lockdown, che sono state identificate e hanno ricevuto la visita della polizia.

L’utilizzo di telecamere dotate di riconoscimento facciale può farci sentire più sicuri, visto che la loro presenza potrebbe essere un deterrente per i criminali, ma siamo davvero disposti a sacrificare la nostra privacy e la nostra democrazia in nome della sicurezza? È doveroso ricordare che questa deriva distopica non riguarda solo la Cina, ma tutti noi. Per ora, l’Unione Europea ha vietato l’uso di videocamere dotate di riconoscimento facciale in tempo reale, tranne che per circostanze emergenziali5, ma in altri Paesi, considerati democratici, questo tipo di tecnologia è già largamente utilizzato, come nel Regno Unito e negli Stati Uniti. Negli Stati Uniti, l’IA è anche utilizzata dall’ICE (Immigration and Customs Enforcement – l’agenzia federale che si occupa di immigrazione) per individuare e deportare gli immigrati sospettati di non avere un regolare permesso di soggiorno6. Tralasciando le svariate violazioni dei diritti umani commesse da quest’agenzia, delegare decisioni simili all’IA è preoccupante perché, come mostra Murgia nel suo libro, l’IA non è infallibile e, soprattutto, è impossibile rintracciare il modo in cui elabora i risultati, violando un aspetto fondamentale della democrazia: la possibilità di contestare chi prende decisioni ingiuste.
Che lo si voglia oppure no, l’IA riguarda tutti noi e questo libro è un ottimo punto di partenza per riflettere sulle implicazioni politiche e morali di questa tecnologia. Essere umani ci invita, quindi, a non lasciarci sedurre dalla retorica dell’innovazione a ogni costo e a chiederci quale tipo di futuro vogliamo costruire: un futuro in cui l’IA rafforza le disuguaglianze esistenti e il controllo sui più vulnerabili, oppure uno in cui la tecnologia è davvero al servizio degli esseri umani? Come l’autrice, non posso che sperare in questa seconda opzione, ma dubito che possa realizzarsi senza regolamentazioni efficaci e senza una riflessione collettiva sul modo in cui l’IA tende ad amplificare le disuguaglianze già presenti nella società.

Carlotta Viscione
Nata a Milano nel 2004, ma la mia mente non conosce confini. Ho studiato inglese, tedesco e spagnolo al liceo, ma sono finita in Francia a studiare Scienze Politiche in inglese. Dopo due anni passati a Reims, finirò la triennale alla London School of Economics and Political Science. Nota per non riuscire mai a staccare dallo studio, passo il mio tempo libero a guardare video educativi su YouTube. A parte imparare, mi piace cucinare (tutto rigorosamente vegano), leggere e scrivere. Per L’Eclisse collaboro con il gruppo social media e scrivo di politica.
Note
- M. Murgia, Essere umani: l’impatto dell’intelligenza artificiale sulle nostre vite, Vicenza, Neri Pozza, 2025, p. 12.
- Ivi, p. 82.
- Questo termine si riferisce alla procedura con cui un’azienda affida la fornitura di un servizio ad una azienda esterna, soprattutto in Paesi dove la produzione costa meno, come in questo caso.
- Ibid, p. 242.
- L. Carrer, AI Act, tutte le eccezioni all’uso della sorveglianza biometrica che spaventano l’Europa, in “Wired”, 1 febbraio 2025, https://www.wired.it/article/ai-act-divieti-eccezioni-sorveglianza-biometrica-forze-polizia/, consultato in data 3 febraio 2026.
- M. Bayoumi, ICE’s surveillance app is a techno-authoritarian nightmare, in “The Guardian”, 30 gennaio 2026, https://www.theguardian.com/commentisfree/2026/jan/30/ice-surveillance-app-mobile-fortify-authoritarian, consultato in data 3 febbraio 2026.
