UE primo quadro normativo sui sistemi di intelligenza artificiale nel mondo

L’accordo sull’AI Act dell’UE, approvato dal Parlamento europeo e dal Consiglio dell’Unione Europea, raggiunto nella notte fra venerdì 8 e sabato 9 dicembre 2023, dopo una maratona negoziale di 36 ore. Si tratta del primo quadro normativo sui sistemi di AI nel mondo.

 

La legge distingue tre tipi di sistemi di intelligenza artificiale (IA):

  •     Sistemi di IA a basso rischio: Questi sistemi sono generalmente considerati a basso rischio per le persone e la società. Sono soggetti a requisiti minimi di trasparenza e documentazione.
  •     Sistemi di IA a rischio moderato: Questi sistemi possono presentare un rischio moderato per le persone e la società. Sono soggetti a requisiti aggiuntivi, come la valutazione del rischio e la messa in atto di misure di mitigazione.
  •     Sistemi di IA ad alto rischio: Questi sistemi possono presentare un rischio elevato per le persone e la società. Sono soggetti a requisiti rigorosi, come la valutazione del rischio, la documentazione, la trasparenza e la conformità a un processo di certificazione.

 

I sistemi di IA ad alto rischio includono:

  •  Sistemi di IA utilizzati per la sorveglianza o il controllo delle persone, come i sistemi di riconoscimento facciale o i sistemi di analisi del comportamento.
  •     Sistemi di IA utilizzati per prendere decisioni che hanno un impatto significativo sulla vita delle persone, come i sistemi utilizzati per la selezione del personale o i sistemi utilizzati per la concessione dei crediti.
  •     Sistemi di IA utilizzati per generare contenuti che possono essere dannosi o offensivi, come i sistemi utilizzati per generare fake news o i sistemi utilizzati per creare contenuti di incitamento all’odio.

 

L’AI Act impone agli sviluppatori e agli utilizzatori di sistemi di IA ad alto rischio di rispettare una serie di requisiti, tra cui:

  •     Valutazione del rischio: Gli sviluppatori devono valutare i rischi associati al proprio sistema di IA e adottare misure per mitigare questi rischi.
  •     Documentazione: Gli sviluppatori devono documentare il proprio sistema di IA, in modo che le persone possano comprenderne il funzionamento e i rischi associati.
  •     Trasparenza: Gli sviluppatori devono rendere trasparenti le decisioni prese dal proprio sistema di IA, in modo che le persone possano comprenderne le basi.
  •     Certificazione: I sistemi di IA ad alto rischio devono essere certificati da un organismo indipendente, che verifichi che il sistema soddisfi i requisiti dell’AI Act.

L’AI Act è la prima legge al mondo a regolamentare l’intelligenza artificiale. Ha lo scopo di garantire che l’IA venga sviluppata e utilizzata in modo responsabile e sicuro, proteggendo le persone e la società dai potenziali rischi associati all’IA.

La legge è destinata a entrare in vigore entro il 2027.