WASHINGTON – SENATO – I senatori statunitensi Mark Warner e Thom Tillis hanno annunciato l'introduzione del disegno di legge per il Secure Artificial Intelligence Act del 2024 al Congresso degli Stati Uniti. In particolare, il disegno di legge mira a migliorare il monitoraggio e l'elaborazione degli incidenti e dei rischi di sicurezza associati all'intelligenza artificiale (AI).
A cosa mira il disegno di legge?
Il disegno di legge definisce un 'incidente di sicurezza dell'intelligenza artificiale' come un evento che aumenta:
- il rischio che il funzionamento di un sistema AI avvenga in modo tale da consentire l'estrazione di informazioni sul comportamento o le caratteristiche di un sistema AI da parte di un terzo;
- la capacità di un terzo di manipolare un sistema AI al fine di sovvertire la riservatezza, l'integrità o la disponibilità di un sistema AI o di un sistema adiacente.
Una 'vulnerabilità di sicurezza dell'intelligenza artificiale' è definita come una debolezza in un sistema AI che potrebbe essere sfruttata da un terzo per sovvertire, senza autorizzazione, la riservatezza, l'integrità o la disponibilità di un sistema AI, anche attraverso tecniche come:
- avvelenamento dei dati;
- attacchi di evasione;
- attacchi basati sulla privacy; e
- attacchi di abuso.
Quali sono le disposizioni del disegno di legge?
Il disegno di legge prevede principalmente la creazione di un'autorità di supervisione e meccanismi di monitoraggio normativi per l'AI.
In particolare, il disegno di legge prevede la creazione di un Centro per la Sicurezza dell'Intelligenza Artificiale (il Centro) all'interno del Cybersecurity Collaboration Center della National Security Agency (NSA). Il Centro è responsabile dello sviluppo di linee guida per prevenire o mitigare le tecniche contro l'AI e promuovere pratiche sicure di adozione dell'AI.
Inoltre, il disegno di legge stabilisce che il National Institute of Standards and Technology (NIST) debba aggiornare il National Vulnerability Database (NVD) per incorporare le vulnerabilità di sicurezza dell'AI e identificare le caratteristiche dell'AI che rendono inappropriata l'utilizzazione dell'NVD per la gestione delle vulnerabilità. Allo stesso modo, il disegno di legge indirizza il Cybersecurity and Infrastructure Security Agency (CISA) a sviluppare un database volontario per tracciare pubblicamente gli incidenti di sicurezza e sicurezza dell'AI.
Implicazioni e connessioni
L'introduzione del Secure AI Act del 2024 riflette la crescente consapevolezza dei rischi associati allo sviluppo e all'uso dell'intelligenza artificiale. Questo disegno di legge mira a colmare le lacune nell'attuale sistema normativo, fornendo un quadro normativo più robusto per affrontare le minacce alla sicurezza legate all'AI.
Il Secure AI Act del 2024 rappresenta un passo significativo verso la protezione e la sicurezza nell'ambiente dell'intelligenza artificiale. Attraverso la creazione di un centro dedicato alla sicurezza dell'AI e l'aggiornamento dei meccanismi di monitoraggio normativi, il disegno di legge mira a promuovere una maggiore consapevolezza e preparazione per affrontare i rischi emergenti nell'era dell'IA.
Glossario
- AI: Intelligenza Artificiale
- NIST: National Institute of Standards and Technology
- NSA: National Security Agency
- CISA: Cybersecurity and Infrastructure Security Agency
- Database di vulnerabilità nazionale (NVD): Database che fornisce informazioni sulle vulnerabilità di sicurezza dei computer.
- Addestramento del modello: Processo di insegnamento di un modello di intelligenza artificiale utilizzando dati.
- Tecniche contro l'AI: Metodi utilizzati per manipolare o sfruttare i sistemi di intelligenza artificiale.
- Linee guida: Raccomandazioni o regole per adottare pratiche sicure o migliori pratiche.
- Cyber incident reporting: Processo di segnalazione degli incidenti informatici alle autorità competenti per indagini e risposte.
- Sicurezza dell'IA: La protezione dei sistemi di intelligenza artificiale da minacce o attacchi.
- Dati avvelenati: Dati manipolati per ingannare o influenzare il funzionamento di un sistema di intelligenza artificiale.