di M. Calamari – Il tecnocontrollo non è solo un modo per sollevare l’uomo dalla responsabilità di vigilare sulla sicurezza. E’ anche un modo per sollevare l’uomo dalla responsabilità di commettere degli errori

Roma – Come profetessa in tempi di guerra Cassandra è sempre stata ipersensibile alle applicazioni militari dell’informatica, ed in particolare alle situazioni in cui il giudizio umano viene sostituito, anche solo in parte, da quello di una macchina.

È stato il caso dei primi vagiti dei droni killer automatizzati, e prima ancora degli automatismi applicati a situazioni che decidono dei buoni e dei cattivi, della vita e della morte.

Per questo ritiene importante la notizia, molto commentata dalla stampa internazionale e punto da quella italiana, di una promettente ricerca svolta alla Carnegie Mellon con i finanziamenti della DARPA cioè dell’esercito americano, volta a prevedere i comportamenti delle persone partendo da riprese di videosorveglianza.Mind’s Eye: “l’Occhio della Mente”, o per meglio dire “Using Ontologies in a Cognitive-Grounded System: Automatic Action Recognition in Video Surveillance”, vale a dire “L’uso di ontologie in un sistema basato sulla conoscenza: Riconoscimento automatico di azioni nelle riprese di videosorveglianza”.

Ora coloro che non si sono precipitati su Wikipedia per sapere cosa vuol dire “Ontologia” (termine informatico, e non filosofico), sia perché ne conoscono già il significato sia perché lo ignorano e desiderano solo cogliere il senso generale di quello che leggono, dovranno da Cassandra essere contemporaneamente soddisfatti. Compito difficile…

In buona sintesi si tratta di una ricerca volta a costruire sistemi computerizzati che prendano in input la ripresa video di una scena complessa, e producano come output una descrizione testuale delle azioni che stanno avvenendo ed entro certi limiti del loro “significato“.

Un sistema del genere permetterebbe, anzi, certamente permetterà di riprendere una battaglia, una folla ad un concerto o ad una manifestazione ed isolarne azioni di gruppo o individuali, ma non come immagini (“Ecco un uomo con la mano in tasca in mezzo alla folla”) ma come azione e significato in un certo contesto (“Ecco un assassino che sta per estrarre la pistola e sparare al Presidente”).

Ora la speranza di Cassandra è quella di aver suscitato prima una sana ilarità, seguita subito dopo da un’ancora più sana perplessità.
“Ma sarà vero?”

La domanda giusta invece è: “Ma lo vogliono fare davvero?”.
La risposta è facile: “Sì”.

Poiché si può fare (almeno entro certi limiti), sicuramente lo si farà: già adesso esistono diverse situazioni, alcune militari ma molte di più di controllo sociale, in cui una tecnica del genere verrà impiegata appena vagamente funzionante.

E cosa vuol dire “vagamente funzionante”? Ci sarà un uomo a filtrare gli allarmi? Li filtrerà con efficacia?
Per i tanti motivi già esposti nel già citato precedente articolo la possibilità che queste cautele vengano impiegate in maniera efficace è praticamente zero.

E quali tipi di reazione verranno attivati dalle mosse dichiarate sospette di un signore con l’impermeabile rigonfio e le mani in tasca? Verrà solo inviata un’immagine su un monitor con una didascalia che dice cosa sta facendo?
E se un importante politico fosse in quel momento in visita? Allora forse un allarme sullo smartphone delle teste di cuoio sembrerà una buona idea.
Ed il suddetto agente cosa farà? Sarà più o meno cauto avendo ricevuto l’allarme da un computer invece che da un operatore?
Le probabilità che l’uomo con l’impermeabile di cui sopra si ritrovi con un buco in testa saranno maggiori o minori?
E quelle che a posteriori si riveli un padre di famiglia freddoloso ed in sovrappeso?

Tutte le situazioni in cui il giudizio umano viene sostituito, anche solo parzialmente, da quello di un computer hanno il vantaggio indubbio di costare poco ed essere più veloci. Ma questo è anche il loro principale pericolo.

Ci saranno più terroristi a cui verrà fatto un buco in testa prima che premano il bottone? Forse.
Ma la domanda che dovrebbe interessare di più i cittadini in realtà è: “Ci saranno più o meno buchi in teste innocenti?”.

Difficile dirlo. Con i primi sistemi di riconoscimento probabilmente sì, con altri più evoluti chissà.

Il problema di cui preoccuparsi sarà lo scarico di responsabilità, non i pur importanti “falsi positivi” (leggi “buchi in testa fatti ad innocenti”) dei sistemi.
Sarà dare il “via libera” a certi tipi di errori.

Nessuno verrà licenziato o processato per non aver bloccato o per aver dato via libera alla “luce rossa sul monitor”.
Ed un altro passo avanti sarà stato compiuto nella direzione di rendere il software legge e costrizione non nel cyberspazio, dove già lo è, ma nel mondo materiale.
Un passo verso la disumanizzazione dell’essere umano, asservendolo a sistemi di tecnocontrollo, sport sempre più popolare tra coloro che gestiscono poteri di vario tipo con la scusa di offrire “sicurezza”.