Nel corso dell’anno 8mila delle 120mila telecamere che sorvegliano San Pietroburgo sembrano destinate a diventare più “intelligenti” – si fa per dire – perché capaci di riconoscere e classificare i passanti per etnia.

Se già l’associazione della parola “intelligenza” con l’aggettivo “artificiale” è ambigua e ingannevole, definire intelligente un sistema di riconoscimento facciale che ha uno scopo del genere è a voler essere generosi un ossimoro. Quello che altrove – Europa inclusa – è considerato uno dei rischi di deriva del ricorso al riconoscimento facciale che suggeriscono di limitarne il ricorso a casi eccezionali, a San Pietroburgo sembra destinato a diventare addirittura lo scopo scientificamente perseguito dall’amministrazione comunale.
Combattere la “formazione di enclave etniche” e consentire l’adozione di “misure preventive tempestive per prevenire la tensione sociale nell’area”, sono gli obiettivi dichiarati perseguiti. Persino inutile chiedersi se sia tutto qui o ci sia dell’altro. Inutili, sin qui, le proteste delle associazioni nazionali e internazionali per la difesa e promozione dei diritti fondamentali.
Il sistema è utile, è tecnicamente all’avanguardia e la licenza è già stata acquistata. Il dado è tratto, insomma. E pazienza se è un dado che mostra il volto peggiore dell’intelligenza artificiale. Quello meno intelligente – ammesso che ci sia davvero qualcosa di intelligente – dell’intelligenza artificiale. Anzi, per dirla senza giri di parole, quello meno umano.

Anche se non è, naturalmente, corretto prendersela con gli algoritmi giacché a mostrare un volto poco intelligente e niente affatto umano e chi gli algoritmi vuole usarli per classificare e distinguere una comunità che vive nella stessa città per etnia. Ma temo sbaglieremmo a scagliare pietre – anche solo in senso figurato” contro l’amministrazione di San Pietroburgo accusandola di poca attenzione alla privacy e agli altri diritti umani.
Perché, sfortunatamente, la vicenda sembra figlia di un principio che va diffondendosi rapidamente in giro per il mondo, Europa e Italia, incluse: quello secondo il quale ciò che è tecnologicamente possibile dovrebbe considerarsi anche giuridicamente legittimo e democraticamente sostenibile se indirizzato al raggiungimento di finalità condivisibili [ndr e nel caso di San Pietroburgo non è neppure facile convenire sulla bontà del fine].
Leggi anche: Ci mancava solo il GPS che ti localizza attraverso i (tuoi) batteri…
E, purtroppo, questo principio è dilagante: anche da noi, sempre più spesso, le esigenze di maggior sicurezza nelle nostre città vengono brandite, proprio allo stesso modo, da amministrazioni locali e centrali, per giustificare il ricorso a soluzioni diversamente intelligenti capaci di produrre conseguenze devastanti per i diritti e le libertà delle persone. Le classiche cure peggiori dei mali che si vorrebbero curare. E anche da noi, sempre più spesso, prima si conclude il contratto per l’acquisto della tecnologia e poi ci si pone il problema del suo impatto sulla società, sulle persone, sulla loro dignità, i diritti e le libertà.
Ecco, forse, vale la pena prendere la storia di San Pietroburgo come monito per fermarsi un istante a riflettere su dove stiamo andando e, soprattutto, dove vogliamo andare. L’intelligenza artificiale – perché tanto ormai dobbiamo rassegnarci a chiamarla così – è un veicolo che può portarci verso un mondo migliore o uno peggiore.
Dipende solo dalla direzione nella quale decidiamo di guidarla.