
L’intelligenza artificiale è ormai parte integrante della nostra routine quotidiana. Sebbene sia una tecnologia imperfetta, questa imperfezione non sembra suscitare particolare preoccupazione collettiva. Tuttavia, cosa accade quando un’AI è incaricata di gestire la sicurezza scolastica? Può capitare che un team di SWAT punti un fucile contro un giovane per aver consumato un pacchetto di snack.
Questo è accaduto il 20 ottobre a Taki Allen, uno studente della Kenwood High School di Baltimora. Dopo una sessione di allenamento calcistico, mentre trascorreva del tempo con gli amici, è stato sorpreso dall’arrivo di diverse volanti della polizia. Con gli agenti armati, Allen è stato costretto a sdraiarsi a terra con le mani dietro la schiena, poi ammanettato e perquisito. Gli agenti gli hanno mostrato l’immagine di ciò che l’AI aveva erroneamente identificato come un’arma da fuoco; Allen ha poi confermato che si trattava di un semplice sacchetto di patatine.
Dopo aver chiarito l’equivoco, Allen è stato rilasciato senza accuse, ma l’esperienza è stata traumatizzante sia per lui che per i compagni di scuola presenti. Ha dichiarato di non sentirsi più al sicuro e di avere timore di consumare snack o bevande. La scuola ha promesso di fornire supporto psicologico a lui e agli altri coinvolti, ma Allen ha notato che, fino ad ora, non ha ricevuto alcun contatto personale né scuse.
Omnilert, il fornitore del servizio di sorveglianza AI, ha affermato che, nonostante i casi di “falso positivo” possano risultare traumatici, il sistema ha funzionato correttamente, evidenziando potenziali minacce da verificare sul campo dagli agenti umani. Tuttavia, sorge una questione cruciale: cosa succede se un futuro “falso positivo” non reagisce con la calma di Allen? O se un agente commette un errore di valutazione e scambia un gesto pericoloso, portando a reazioni fatali?
Il dibattito si concentra su una questione semplice: il rischio vale il beneficio? Forse è fondamentale affrontare la causa principale, ossia che le sparatorie scolastiche non dovrebbero essere così comuni da rendere necessaria una sorveglianza di questo tipo, aprendo una discussione su un tema assai delicato.
