2 Febbraio: AI Act  – L'Europa traccia il confine: diritti e sicurezza nell'era dell'intelligenza artificiale

2 Febbraio: AI Act – L'Europa traccia il confine: diritti e sicurezza nell'era dell'intelligenza artificiale

© Immagini diritti riservati

Un semaforo rosso per le pratiche più invasive. A partire dal 2 febbraio 2025, l’Unione europea mette al bando sistemi di intelligenza artificiale considerati una minaccia diretta ai diritti fondamentali. Non è una rivoluzione silenziosa: è il primo passo concreto per regolare tecnologie che, fino a oggi, hanno operato in una zona grigia tra innovazione e controllo.

Cosa cambia dal 2 febbraio

L’AI Act, il regolamento europeo sull’intelligenza artificiale, entra nella sua fase operativa con divieti mirati. Vietati i sistemi di categorizzazione biometrica basati su razza, orientamento sessuale o convinzioni religiose. Stop allo scraping indiscriminato di immagini dal web per creare database di riconoscimento facciale, come nel caso di Clearview AI, multata in Italia con 20 milioni di euro nel 2022 per aver violato la privacy di milioni di cittadini. Fuori legge anche i software che analizzano le emozioni in scuole e uffici, e quelli che applicano punteggi sociali o profilazioni predittive per la polizia.

Un esempio concreto? Immaginate una telecamera in una piazza che scansiona i volti dei passanti confrontandoli in tempo reale con un database. Fino a ieri, in alcuni Paesi europei, era possibile. Da domani, no. A meno che non si tratti di cercare un terrorista ricercato o una persona scomparsa, e solo dopo l’ok di un giudice.

Il nodo spinoso della sorveglianza biometrica

Le eccezioni previste per le forze dell’ordine accendono il dibattito. L’AI Act consente l’identificazione biometrica "in tempo reale" solo per reati gravi: terrorismo, traffico di esseri umani, omicidi. Ma organizzazioni come Amnesty International e Privacy Network temono abusi. «Le definizioni sono vaghe: cosa si intende per "sicurezza nazionale"? Chi controllerà chi decide?», chiede Laura Ferrari della Rete per i Diritti Umani Digitali.

In Italia, la Polizia usa già Sari Enterprise, un sistema che confronta immagini statiche (come foto di repertorio) con il database Afis. Dal 2021, però, è bloccata la versione "Real Time", capace di riconoscere volti in diretta. Il Garante della privacy l’ha giudicata troppo rischiosa, ma la mancanza di trasparenza sull’uso effettivo di queste tecnologie resta un problema.

Clearview AI: un caso scuola

La storia dell’azienda statunitense Clearview AI è emblematica. Ha costruito un database di 20 miliardi di volti estratti da social network e siti web senza consenso, vendendolo a governi e privati. Sanzionata in Francia, Regno Unito e Italia, non ha mai pagato le multe. L’AI Act rende ora illegale questo modello di business in tutta l’UE, ma la sfida è far rispettare le regole su scala globale.

Cosa rischiano i cittadini?

Le telecamere intelligenti non sono neutre. Uno studio del 2023 del MIT ha dimostrato che i sistemi di riconoscimento facciale commettono il 35% di errori in più su volti di donne e persone con pelle scura. Errori che, in un contesto di polizia predittiva, possono tradursi in arresti ingiustificati o stigmatizzazione.

La partita ora è nazionale

L’UE ha tracciato la rotta, ma tocca ai singoli Paesi legiferare sui dettagli. In Italia, la moratoria sui sistemi di riconoscimento facciale nei luoghi pubblici è scaduta a fine 2024. Servirà una legge che specifichi:

  • Quali autorità possono richiedere l’uso di queste tecnologie.
  • Come documentare ogni autorizzazione.
  • Quali garanzie offrire ai cittadini.

«Chiediamo norme chiare, per evitare che l’eccezione diventi la regola», insiste Ferrari.

Glossario

  • Afis: Sistema di identificazione automatizzata delle impronte digitali, utilizzato anche per il riconoscimento facciale.
  • AI Act: Regolamento europeo sull’intelligenza artificiale, approvato nel 2023.
  • Scraping: Estrazione automatizzata di dati da siti web o social network.
  • Sari Enterprise: Software italiano di riconoscimento facciale usato dalle forze dell’ordine.