Contro Clearview AI, la società americana che consente di individuare in automatico le identità delle persone attraverso il riconoscimento facciale potenziato dall’intelligenza artificiale, si schiera anche l’Italia. Che ha deciso di multarla.
Ben 20 milioni di euro dal nostro garante della Privacy nei confronti di Clearview AI. È stato scoperto che la società permette il tracciamento anche di cittadini italiani.
Si erano già mosse le autorità britanniche e francesi, ma l’Italia è la prima nell’Ue a sanzionare Clearview AI; indagini in corso anche negli Usa, in Canada e Australia.
Il caso Clearview
Clearview AI dichiara di possedere un database di oltre 10 miliardi di immagini di volti di persone di tutto il mondo. Estratte da fonti pubbliche tramite il cosiddetto scraping (come siti di informazione, social media e video online). E ha appena annunciato di voler arrivare al traguardo di 100 miliardi entro fine anno.
Clearview AI offre un servizio di ricerca altamente qualificata. Che, grazie a sistemi di intelligenza artificiale, consente la creazione di profili basati sui dati biometrici estratti dalle immagini, eventualmente arricchiti da altre informazioni a esse correlate. Ad esempio titolo e geolocalizzazione della foto, pagina di pubblicazione.
“Noi di Privacy Network siamo soddisfatti di questa decisione presa dal garante a seguito di nostra segnalazione – ha commentato Diego di Malta – . Si tratta di un provvedimento importante, perché decreta una volta per tutte l’illegittimità della pratica dello scraping”.
L’Autorità dice che “dall’istruttoria del garante, attivata anche a seguito di reclami e segnalazioni, è emerso che Clearview AI, diversamente da quanto affermato dalla società, consente il tracciamento anche di cittadini italiani e di persone collocate in Italia. Le risultanze hanno rivelato che i dati personali detenuti dalla società, inclusi quelli biometrici e di geolocalizzazione, sono trattati illecitamente, senza un’adeguata base giuridica, che non può sicuramente essere il legittimo interesse della società americana”.
Insomma: non tiene la giustificazione, ribadita più volte da Clearview AI, che sarebbe lecito usare quelle foto perché sono pubbliche.
Le rassicurazioni del ministro Lamorgese
La società, tra l’altro, avrebbe violato altri princìpi base del Gdpr. Come quelli relativi agli obblighi di trasparenza, “non avendo adeguatamente informato gli utenti delle finalità del trattamento, avendo utilizzato i dati per scopi diversi rispetto a quelli per i quali erano stati pubblicati online e non avendo stabilito tempi di conservazione dei dati. Pertanto, l’attività di Clearview AI si pone in violazione delle libertà degli interessati, tra cui la tutela della riservatezza e il diritto a non essere discriminati”.
Da qui la sanzione da 20 milioni di euro.
In più, l’Autorità ha ordinato alla società di cancellare i dati relativi a persone che si trovano in Italia. E ne ha vietato l’ulteriore raccolta e trattamento attraverso il suo sistema di riconoscimento facciale. Infine, il garante ha imposto a Clearview AI di designare un rappresentante nel territorio dell’Unione europea che funga da interlocutore. Questo in aggiunta o in sostituzione del titolare del trattamento dei dati con sede negli Stati Uniti, al fine di agevolare l’esercizio dei diritti degli interessati.
“Non tutto ciò che è tecnicamente possibile è eticamente corretto – spiega Guido Scorza, del collegio del garante a Italian tech – . E questa differenza è caposaldo di uno status democratico, che dobbiamo costantemente tutelare”.
Sappiamo che il software di Clearview AI è usato da migliaia di agenzie e forze dell’ordine in tutto il mondo nel corso di operazioni, indagini, investigazioni e altre attività e consente di confrontare le immagini in possesso di un operatore con quelle del database alimentato dall’azienda. Anche la polizia italiana avrebbe utilizzato la piattaforma in molte occasioni. Così risulterebbe da un’inchiesta di BuzzFeed News, cui è seguita a settembre un’interrogazione di Filippo Sensi (Pd) alla ministra dell’Interno, Luciana Lamorgese. In risposta, la ministra ha assicurato che le nostre forze dell’ordine utilizzano solo un sistema di riconoscimento facciale più tradizionale, con una banca dati di “17.592.769 cartellini fotosegnaletici, acquisiti a norma di legge, corrispondenti a 9.882.490 individui diversi, di cui 2.090.064 si riferiscono a cittadini italiani”.
Nel frattempo, il Parlamento, grazie a un emendamento del Pd, ha anche stabilito una sospensione per tutti i sistemi di riconoscimento facciale nei luoghi pubblici (tramite videocamere) fino al 31 dicembre 2023. Il blocco non tocca quindi l’uso del software di riconoscimento sul database della polizia.