E’ difficile separare la verità dalla propaganda quando si parla di politica internazionale, soprattutto se di mezzo c’è la Cina che, storicamente, non ha mai avuto l’abitudine di condividere le proprie informazioni con il resto del mondo. E’ quindi difficile capire se la notizia¹ battuta dalla AGI di oggi (Giovedì 10/12/20) sia vera o faccia parte della strategia ostile che l’ultima amministrazione USA ha portato avanti contro la potenza asiatica:
Huawei ha sviluppato un riconoscimento facciale per scoprire gli uiguri ¹
Gli uiguri sono una popolazione musulmana che vive nella provincia dello Xinjiang non particolarmente gradita alle autorità centrali della Repubblica Popolare. Secondo alcuni rapporti di associazioni umanitarie e Nazioni Unite, è addirittura il caso di parlare di vere e proprie persecuzioni. Secondo la AGI, che riprende un articolo del Washington Post, gli uiguri sono al centro di una sperimentazione su base etnica.
Il riconoscimento facciale, infatti, non è una tecnologia inedita, capita perfino di vederlo all’opera nelle serie TV poliziesche.
Ma come funziona?
Il celebre matematico Marcus Du Sautoy sostiene che riesce “a vedere strutture e pattern laddove gli altri vedono solo caos e disordine. Leonardo da Vinci aveva notato che i volti delle persone hanno dei tratti in comune, come la dimensione degli zigomi, della fronte, del naso, la distanza degli occhi, in pratica “dei pattern” matematici che si ripetono in un apparente disordine. Provate a osservare il volto dei passanti, degli amici, dei parenti e con l’abitudine inizierete a notare anche voi questi “pattern”. Il riconoscimento facciale funziona allo stesso modo ma con l’aiuto dell’intelligenza artificiale, che può effettuare calcoli e archiviazione di dati in modo più veloce, adattivo ed efficace rispetto a una singola mente umana.
Ed è questo che viene contestato al governo cinese: l’utilizzo a scopo di controllo se non addirittura di segregazione e discriminazione razziale, di questa tecnologia.
E’ solo un problema che riguarda una dittatura come quella cinese? E’ quindi un problema che non ci riguarda perché viviamo in democrazia?
In realtà, proprio negli Stati Uniti è sorto un dibattito molto acceso dopo che questa estate il Ceo della IBM, Arvind Krishna, ha sollevato lo stesso problema, affermando che la sua azienda “non accetterà l’utilizzo di qualsiasi tecnologia di riconoscimento facciale per fini di sorveglianza di massa, profilazione etnica, violazione di diritti umani e libertà”.²
La Cina, insomma, non avrebbe inventato nulla. Quello che però inquieta, in questo esperimento tecnologico, non è tanto la poca trasparenza del governo cinese, un vizio che, dunque, appartiene anche alla più grande democrazia del mondo, ma l’utilizzo che può esserne fatto in combinazione con altre tecnologie e sistemi digitali. In un vecchio articolo pubblicato su questo blog, parlavo del social credit system.
Immaginiamo che in un futuro prossimo riconoscimento facciale, social credit system e tracciamento dei dati vengano uniti e analizzati tramite una Intelligenza Artificiale, cosa succederebbe? C’è il rischio che possano creare sistemi di controllo o creare nuove forme di emarginazione? Che cosa succederebbe se, per esempio, un ristorante, utilizzando questo sistema, decidesse di scartare le prenotazioni di chi è nato in una certa provincia o ha un cognome tipico di una certa area geografica? Che cosa succederebbe se un datore di lavoro decidesse di scartare le i curricula inviati da un un uomo, o una donna, o un omosessuale, o un islamico o un ebreo o di qualcuno che è semplicemente appassionato di calcio? Sono esempi banali che già succedono nella vita quotidiana anche senza i super-computer e le innovazioni tecnologiche, ma lo scopo è di far capire le potenzialità dannose se questo sistema venisse automatizzato e applicato da un codice di programmazione su scala di massa.
La domanda che dobbiamo porci, in realtà, non è “se”, ma “quando” può succedere perchè il “quando”, grazie anche all’emergenza sanitaria che stiamo vivendo, ci sta venendo incontro più veloce che mai.
Nel mese di febbraio, sempre in Cina, sono stati utilizzati dei droni per contenere la diffusione del contagio da coronavirus in grado di misurare la temperatura delle persone per strada. Nel Guandong dei robot sgridavano i passanti senza mascherina. China Mobile ha inviato ai propri utenti un messaggio di testo che genera un elenco di province che hanno visitato ultimamente. Il personale sanitario messo nei posti di blocco fuori dalle aree infettate chiede ai cittadini di mostrare il loro smartphone per verificare i loro ultimi spostamenti.
La stessa cosa è successa in Italia questa primavera quando, dal tracciamento del GPS degli smartphone, è emerso che molte persone non rispettavano il lockdown.
Perchè erano degli sconsiderati? O forse andavano a far la spesa? O al lavoro? Questo la tecnologia non ce lo può dire, almeno fino a quando viene usata dalle istituzioni in modalità apparentemente discreta e non totalmente invasiva. Chi usa Google Maps sa che a fine mese può scegliere di ricevere il report dei suoi spostamenti, dati che vengono raccolti dall’azienda di Mountain View e archiviati chissà dove.
Se questo uso delle tecnologie ci appare lecito e condivisibile quando di mezzo c’è una pandemia mondiale, o quando avvengono attentati terroristici, è il caso comunque di ricordare che ogni volta che barattiamo la nostra libertà per un po’ di sicurezza, è per sempre e che una volta barattata la nostra libertà per un po’ di sicurezza, il rischio è che in nome della sicurezza vengano commessi atti deplorevoli, come mettere sotto sorveglianza una popolazione sgradita.
Oggi è la Cina che balza agli onori della cronaca, ma non bisogna dimenticare il controllo di massa, smascherato da Edward Snowden, che gli Stati Uniti esercitarono (esercitano?!) per anni al fine di scongiurare un nuovo 11 settembre. (per chi volesse approfondire questo argomento, suggerisco il libro “Errore di sistema”, scritto da Snowden stesso o l’omonimo film del 2016 che riassume brevemente la vicenda).
Per evitare un futuro somigliante ai peggiori incubi dei romanzi distopici, occorre che i nostri dati vengano raccolti in modo trasparente e che le tecnologie siano open source, in modo che il controllo delle informazioni non sia appannaggio di un governo o di un’azienda.
¹ – https://www.agi.it/estero/news/2020-12-09/huawei-riconoscimento-facciale-scoprire-uiguri-10611323/