Un’inaspettata controtendenza globale in tema di videosorveglianza e riconoscimento facciale

Scarica PDF

01/04/2021

Se il presente cerca di giudicare il passato, perderà il futuro.
Sir Winston Churchill

A trent’anni circa dall’invenzione della prima webcam, vista anche l’attualità della tematica, ritorniamo sull’argomento del riconoscimento facciale e della video analisi di massa; lo facciamo dopo aver già scritto più volte sull’argomento.

Correva l’estate del 1991 e nel mese di luglio, presso l’Università di Cambridge, due ricercatori utilizzarono una telecamera gestita da un software – da loro stessi sviluppato -, in grado di trasmettere tre immagini al minuto sulla rete lan dell’ateneo, con uno scopo ben preciso, quasi strategico: controllavano quando finiva il caffè nel distributore automatico!

Ora, mai nessuno avrebbe immaginato dove li stava proiettando quella impellente necessità di non rimanere “a secco” di caffè; si trattò di una geniale intuizione di internet camera cafè, seppur per scopi ludici, ante litteram.

Intuizione tecnologica, seppur disimpegnata, che ci ha catapultato inevitabilmente nell’era del capitalismo di sorveglianza 4.0; difatti, il generalizzato uso di sistemi integrati di analisi video supportati dalla artificial intelligence – anche grazie al machine learning –, il massiccio utilizzo di software specializzati in biometria stanno cambiando radicalmente la percezione della nostra sicurezza collettiva, con pesanti ripercussioni sulla nostra libertà, le nostri abitudini, seppur garantite dai vincoli imposti dal GDPR, normativa europea che regola e protegge l’uso dei nostri dati personali e della nostra identità digitale.

L’evoluzione tecnologica della video analysis non è più una pura e semplice utopia. Che ci piaccia o meno, oggi rappresenta lo stato dell’arte; una silente armata di cyber spie in grado di mutare le proprie potenzialità semplicemente analizzando – memorizzandoli -, i nostri comportamenti quotidiani, studiando i nostri volti, esaminando il linguaggio del nostro corpo, l’ambiente circostante, i nostri atteggiamenti, tanto è vero che i software di face detection sono perfettamente istruiti nel riconoscere le diverse espressioni del nostro volto (distinguendo, ad esempio, un viso felice, triste, allarmato, arrabbiato, sereno, indifferente…)

Quanto lontano e dove ci porterà tutto questo sviluppo tecnologico applicato alla fitta rete di telecamere che osservano tutto – registrandolo -, dal contenuto del nostro carrello, ai nostri acquisti, dalle nostre passeggiate al nostro modo di vestire, è abbastanza intuibile: le nostre immagini acquisite quotidianamente vengono trasformate in dati aggregati, elaborati, analizzati e raggruppati per finalità di sicurezza ma anche rivenduti, per fini commerciali, come profili di potenziali clienti e consumatori.

E tutto ciò non rappresenta certo l’immaginazione distopica del futuro, quanto piuttosto di un presente fin troppo reale: un simile sviluppo porterà tali soluzioni tecnologiche ad essere impiegate non più esclusivamente in ambito security, ma nei settori del retail, nella GDO, quale rete di commercial espionage dei consumatori, per carpirne i gusti, le scelte negli acquisti, o semplicemente per abilitare il cliente al pagamento tramite carta di credito, associandola al suo volto.

Oltretutto, un’attenta valutazione della reazione facciale, tipicamente un sorriso o una smorfia di attenzione, evidenzia come il cliente abbia mostrato un certo interesse, vero, sincero, magari per una determinata tipologia di prodotto, quindi, sarà certamente un potenziale consumatore da fidelizzare.

A ben vedere sono molteplici le soluzioni tecnologiche di hi-tech facciale che si stanno diffondendo ovunque, e per scopi diversi, ma maggiormente in campo istituzionale.

Proprio come avviene con altri segmenti della AI, questa tecnica video migliora giorno dopo giorno, grazie soprattutto alla raccolta di dati personali che, modellati, consentono di creare una serie di algoritmi predittivi, utilizzabili poi in software che decifreranno con sempre maggior affidabilità tutte le diverse tipologie espressive ed emotive.

Ma gli strumenti di sorveglianza video non si limitano più semplicemente ad annotare i nostri comportamenti, schedandoli; no, sono potenzialmente in grado di emettere giudizi positivi o negativi su i nostri comportamenti, e questo in base alle analisi ambientali e comportamentali di ognuno di noi.

Ma non solo, perché questi avanzati sistemi video possono rilevare, ad esempio, se un veicolo percorre una strada in senso vietato, quante persone ci sono a bordo, se il comportamento di colui che guida è consono alle norme del codice della strada.

Altri esempi: negli scali aeroportuali o ferroviari, tali sistemi tecnologici sono in grado di interpretare se uno stesso bagaglio, inizialmente lasciato dalla persona X, sia poi rimosso dalla persona Y, dunque da soggetti diversi tra loro.

Orbene, sappiamo come questo processo identificativo dell’identità personale sia principalmente percepito, dall’immaginario collettivo, come un mezzo di controllo, fortemente invasivo della nostra privacy.

Ad esempio, nelle democrazie compiute simili atteggiamenti, in linea di principio, vengono fatti passare come prevenzione del crimine e tutela della pubblica sicurezza, mentre nelle cd amministrazioni autoritarie diventano veri strumenti educativi e di controllo sociale.

Tuttavia, c’è da registrare una inaspettata controtendenza, perché anche in Stati rigidi come la Cina – dove la videosorveglianza è utilizzata da tempo come dispositivo di “educazione civica” – assistiamo a una vera e propria azione di rivolta contro il video controllo di massa, per le derive illecite che tali controlli potrebbero avere sulla sfera privacy; tema attualissimo, affrontato in questo interessante articolo di Simone Pieranni.

In fin dei conti, quella che fino a qualche anno fa era considerata una feature da testo fantascientifico, oggi è una consolidata realtà tecnologica di pratica applicazione, soprattutto nell’ambito della polizia di prevenzione e di quella giudiziaria.

Melvin Kranzberg, illustre accademico della storia della tecnologia, ci ricorderà sempre che la tecnologia, come sempre accade, non è intrinsecamente buona né cattiva, ma neanche neutrale, rappresentando, piuttosto, la madre di tutte le necessità.

Ora, a latere delle sei “Leggi di Kranzberg”, l’uso del riconoscimento facciale sta suscitando, anche presso la comunità politica europea, pesanti dubbi e interrogativi.

In quasi tutti gli Stati che compongono la UE, tanto le forze di polizia, quanto le istituzioni locali, stanno ricorrendo a un uso massiccio di sistemi video in ambito pubblico, tracciando ogni singolo cittadino in maniera generalizzata, trasformando inconsapevolmente chicchessia in potenziale sospettato!

In Italia, ad esempio, il nostro ministero dell’interno ha adottato il sistema SARI, già oggetto di specifico provvedimento da parte dell’autorità Garante; e come non citare un altro caso di scuola, ovvero la complessa rete di rilevamento facciale attivata nella città di Como, anch’essa oggetto di pronunciamento del Garante Privacy.

Dunque, può essere etico, al di fuori dell’obbligatorietà dell’azione penale, il monitoraggio costante della società, o del singolo, creando arbitrariamente dei modelli comportamentali da applicare poi a comportamenti reali?

In uno Stato di diritto si può accettare una così profonda invasione della privacy, o la violazione dei propri dati personali?

Dubbi legittimi, fortemente alimentati da un mercato che, nel settore della facial recognition, ha generato una montagna di quattrini: utili per 3.97 billions $ (nel solo 2018) e una previsione di crescita stimata per il 2025 pari a 10.15 billions $; numeri che, laddove fosse, generano da soli ulteriore confusione, ma che spingono affinché questa tecnologia venga sempre più utilizzata, nella sola logica del profitto, a discapito di coloro che, mostrandosi più cauti, ne mettono in dubbio gli aspetti di sicurezza, ma anche dell’affidabilità e precisione.

Ma questa è un’altra faccenda!

 

Articolo a cura di Giovanni Villarosa

I nostri partner