Un numero crescente di negozi britannici utilizza un sistema di riconoscimento facciale alimentato dall’intelligenza artificiale per identificare i taccheggiatori in quella che un gruppo per i diritti umani ha definito la diffusione della “sicurezza in stile aeroporto” nelle strade. Simon Gordon, fondatore della società di sorveglianza britannica Facewatch, ha dichiarato alla CNN che la domanda per il suo prodotto è cresciuta “esponenzialmente” poiché l’incidenza di taccheggio e violenza nei negozi è aumentata vertiginosamente negli ultimi anni. “Siamo qui solo per cercare di prevenire il crimine“, ha detto.
La tecnologia funziona in questo modo: una volta che il responsabile di un negozio sa che un articolo è stato rubato, ad esempio quando fa un inventario delle sue scorte, esaminerà il filmato registrato dalle telecamere di sicurezza per identificare il ladro. Quindi, il responsabile accederà al sistema di Facewatch, che avrà anche ripreso il video di tutti i clienti che sono entrati nel negozio quel giorno, per trovare il sospetto nel filmato dell’azienda. “Quindi esaminiamo l’incidente, ci assicuriamo che descriva il sospetto crimine o disordine e poi lo rendiamo funzionante”, ha detto Gordon. Ogni volta che la stessa persona tenterà di entrare nuovamente in quel negozio, il gestore riceverà un avviso sul proprio telefono e potrà chiedere alla persona di uscire o potrà tenerla d’occhio.
Prima che l’avviso venga inviato, uno dei “super-riconoscitori” umani di Facewatch ricontrolla che il volto del sospetto corrisponda a uno nel database degli autori di reati dell’azienda. Se quella persona è un criminale prolifico o ha rubato qualcosa per un valore superiore a 100 sterline, i suoi dati biometrici potrebbero anche essere condivisi con altri negozi nell’area locale che utilizzano il sistema di Facewatch.
L’attacco dei gruppi per i diritti umani
I gruppi per i diritti umani affermano che questo tipo di tecnologia viola il diritto alla privacy delle persone e spesso commette errori. “Qualcosa come Facewatch sta sostanzialmente normalizzando ciò che è la sicurezza in stile aeroportuale per qualcosa di così banale come andare a prendere un litro di latte nei negozi”, ha detto a Galileus Web Madeleine Stone, senior advocacy officer presso Big Brother Watch, un gruppo di campagna per le libertà civili del Regno Unito. Registrare i dati biometrici degli acquirenti equivale a chiedere loro di “consegnare la propria impronta digitale o anche un campione di DNA solo per entrare nei negozi”.
“Non infallibile”
Gordon ha affermato che il sistema è stato accurato il 99,85% delle volte nell’identificare i recidivi nel mese di giugno 2023. Ma a volte gli errori accadono, ha aggiunto. In questi casi, la persona contrassegnata erroneamente come trasgressore può presentare reclamo a Facewatch e i propri dettagli vengono cancellati dal sistema. “A volte si otterrà forse qualcuno che è un sosia di qualcun altro“, il che si tradurrà in un avviso errato, ha detto Gordon. È successo “poche volte“, anche se, una volta a conoscenza dell’errore, l’azienda cancella “immediatamente” i dati della persona. “Non è successo loro niente. Non sono stati sbattuti in prigione“, ha detto Gordon.
Il sistema è legale nel Regno Unito, ha osservato, e le aziende che lo installano devono apporre un cartello sul proprio negozio per informare i clienti che è in uso. Facewatch conserva i dati degli acquirenti solo per due settimane, la metà del tempo in cui una normale telecamera di sicurezza “CCTV” nel Regno Unito memorizza in genere i filmati.
Ma per Madeleine Stone non basta. Ha detto che “le persone non dovrebbero dimostrare in modo proattivo la loro innocenza” e ha sottolineato il potenziale ben documentato di bias nel software basato sull’intelligenza artificiale. “Potresti facilmente essere inserito erroneamente nelle liste di controllo e avere la tua vita davvero cambiata se non sei in grado di accedere ai tuoi negozi locali perché una tecnologia basata sull’intelligenza artificiale ti ha contrassegnato come un criminale, cosa che non sei“, ha detto.
Ma Gordon è fiducioso che il sistema di Facewatch non abbia alcun bias e sottolinea che è supportato da personale umano addestrato al riconoscimento facciale. “L’intelligenza artificiale è sorprendente ora”, ha detto. “In qualsiasi algoritmo decente, il bias è stato rimosso”.
“Qualcosa come il taccheggio ha cause e impatti davvero complicati: non dovremmo affrettarci a una soluzione guidata dall’intelligenza artificiale“, sostiene Stone al Big Brother Watch. Gordon, tuttavia, ha affermato che la tecnologia non ha lo scopo di penalizzare i casi di furto su piccola scala, una tantum o anche accidentali, ma i recidivi, che possono costare alle singole aziende migliaia di mancati guadagni, così come coloro che minacciano il personale. “Questo è il settore privato che cerca di proteggere il proprio personale“, ha affermato. “Questo è l’obiettivo principale“.
Gordon sta ricevendo richieste per il prodotto Facewatch da aziende di tutto il mondo e sta cercando di espandersi negli Stati Uniti. Il sistema sta guadagnando popolarità nonostante i timori sul potenziale per l’IA di destabilizzare la società, che sia attraverso livelli senza precedenti di intrusione nella privacy delle persone o sostituendo milioni di posti di lavoro.
I governi stanno intensificando gli sforzi per regolamentare la tecnologia. Il mese scorso, il Parlamento europeo ha deciso di vietare l’uso della tecnologia di riconoscimento facciale in tempo reale basata sull’intelligenza artificiale negli spazi pubblici. Il progetto di legge, una volta formalmente approvato, sarà il primo del suo genere a stabilire regole su come le aziende utilizzano l’IA.