Artificial Intelligence Act: è ufficialmente entrato in vigore

Artificial Intelligence Act: è ufficialmente entrato in vigore


Il 2 febbraio 2025 segna una data cruciale nell’ambito della regolamentazione dell’intelligenza artificiale (IA) nell’Unione Europea: entrano in vigore le prime disposizioni dell’AI Act, il regolamento europeo che disciplina l’uso dell’IA.

L’AI Act, o Regolamento sull’intelligenza artificiale, è una proposta della Commissione Europea che mira a stabilire un quadro normativo per l’uso e lo sviluppo dell’intelligenza artificiale nell’Unione Europea. Queste disposizioni riguardano principalmente i divieti su pratiche di IA considerate troppo rischiose per i diritti fondamentali e l’obbligo di alfabetizzazione sull’IA. L’obiettivo è promuovere l’innovazione nell’IA, garantendo al contempo la sicurezza, la trasparenzae il rispetto dei diritti fondamentali.

Obiettivi principali dell’AI Act

Il Regolamento mira a promuovere l’innovazione responsabile, stimolando l’uso dell’IA in modo sicuro e innovativo e favorendo il suo impiego nei settori industriali, sanitari, educativi, e così via, ma garantendo che venga usata in modo etico. Ciò al fine di proteggere i diritti fondamentali, tentando di prevenire gli abusi e le discriminazioniche potrebbero derivare dall’uso non regolato di queste tecnologie. Il regolamento assume un ruolo estremamente rilevante nella creazione di un mercato unico europeo per l’IA, fornendo un insieme comune di regole con l’obiettivo di rendere l’Unione europea un leader globale nell’adozione sicura e responsabile dell’Intelligenza Artificiale.

Classificazione dei rischi

L’AI Act suddivide i sistemi di intelligenza artificiale in quattro categorie, a seconda del livello di rischio che presentano per i diritti e la sicurezza delle persone:

  • Rischio inaccettabile: Tecnologie di IA che sono considerate troppo pericolose per l’umanità, come il riconoscimento biometrico in tempo reale per la sorveglianza di massa. Questi sistemi sono vietati.
  • Rischio alto: Sistemi di IA che hanno un impatto significativo su persone o società, come i sistemi usati in ambito sanitario, giuridico o per la selezione del personale. Questi sistemi sono soggetti a rigorosi requisiti di trasparenza, sicurezza e monitoraggio.
  • Rischio limitato: Sistemi di IA che presentano rischi più bassi, come i chatbot o gli assistenti virtuali, che devono rispettare alcune linee guida di trasparenza.
  • Rischio minimo o nullo: Tecnologie che non presentano alcun rischio significativo e sono esenti da regolamentazioni particolari.

CONTATTA I NOSTRI CONSULENTI PER SAPERNE DI PIÙ

Obblighi di conformit

Tutte le Organizzazioni Pubbliche o Private che utilizzano sistemi di IA sono obbligate a rispettare una serie di requisiti, tra cui:

(1) adottare idonee misure tecniche e organizzative per garantire di utilizzare i sistemi IA ad alto rischio conformemente alle istruzioni per l’uso che accompagnano i sistemi;

  • (2) affidare la sorveglianza umana sulla operatività dei sistemi IA ad alto rischio a persone fisiche che dispongono della competenza, della formazione e dell’autorità necessarie nonché del sostegno necessario;

    (3) conservare i logsgenerati automaticamente dal sistema di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo, per almeno sei mesi;

    (4) informare i rappresentanti dei lavoratori – secondo le relative procedure sindacali – e i lavoratori interessati che saranno soggetti all’uso del sistema di IA ad alto rischio, e ciò prima di mettere in servizio o utilizzare un sistema di IA ad alto rischio sul luogo di lavoro;

    (5) nella misura in cui esercitano il controllo sui dati di input, garantire che tali dati di input siano pertinenti e sufficientemente rappresentativi alla luce della finalità prevista del sistema di IA ad alto rischio;

    (6) monitorare l’operatività dei sistemi IA ad alto rischio, prevedendo procedure tecniche di sospensione o interruzione in caso di indicenti;

    (7) notificare gli incidenti gravi al fornitore, al distributore e alle autorità di vigilanza del mercato;

    (8) effettuare la valutazione di impatto dui dati personali ai sensi dell’articolo 35 del Regolamento 679/2016 (avvalendosi anche delle specifiche informazioni sul sistema IA ad alto rischio di cui all’articolo 13 del Regolamento 2024/1689);

    (9) informare gli interessati se vengono impiegati sistemi di IA ad alto rischio di cui all’allegato III che adottano decisioni o assistono nell’adozione di decisioni che riguardano persone fisiche;

    (10) svolgere la valutazione di impatto sui diritti e le libertà fondamentali di cui all’articolo 27 del Regolamento 2024/1689, ma solamente nel caso in cui l’utilizzatore sia un soggetto pubblico oppure un privato che utilizza sistemi di IA per valutare l’affidabilità creditizia delle persone fisiche o per stabilire il loro merito di credito (ad eccezione dei sistemi di IA utilizzati allo scopo di individuare frodi finanziarie) oppure per valutare i rischi e determinare i prezzi in relazione a persone fisiche nel caso di assicurazioni sulla vita e assicurazioni sanitarie.

Timeline dell’entrata in vigore dell’AI Act

Ecco la cronistoria dell’entrata in vigore del regolamento, che fornisce i termini essenziali entro i quali ogni soggetto pubblico o privato, che utilizzi sistemi di Intelligenza Artificiale, è tenuto a conformarsiper non incorrere in ingenti sanzioni:

  • 1 agosto 2024: Pubblicazione ufficiale dell’AI Act nella Gazzetta Ufficiale dell’Unione Europea.2 febbraio 2025: Entrata in vigore delle disposizioni relative ai divieti su pratiche di IA ad alto rischio e all’obbligo di alfabetizzazione sull’IA.
  • 2 febbraio 2025: l’AI Act proibisce pratiche AI rischiose e impone alfabetizzazione obbligatoria nell’intelligenza artificiale. Le organizzazioni devono adattarsi per evitare sanzioni elevate, mappando i sistemi e avviando programmi di formazione completi.
  • 2 agosto 2025: Applicazione delle regole riguardanti i sistemi di IA di uso generale, inclusi i requisiti per i modelli di IA generativa (GPAI) e le normative sulla governance.
  • 2 agosto 2026: Applicazione delle disposizioni principali dell’AI Act, comprese le norme sui sistemi ad alto rischio.
  • 2 agosto 2027: Applicazione completa dell’AI Act, compreso l’elenco di casi in cui è ammesso l’uso della sorveglianza biometrica.

Questa timeline evidenzia l’approccio graduale dell’Unione Europea nell’implementazione dell’AI Act, con l’obiettivo di garantire una transizione efficace e conforme alle nuove normative. Tuttavia, si tratta di processo di adeguamento molto complesso e non immediato. Pertanto, è fondamentale non farsi trovare impreparati.

CONTATTA I NOSTRI CONSULENTI PER SAPERNE DI PIÙ

Conclusioni

L’AI Act rappresenta un passo storico verso la regolamentazione dell’intelligenza artificiale in Europa, un settore in rapida evoluzione e ad alto impatto sociale. Il regolamento cerca di bilanciare la necessità di sviluppare tecnologie innovative con la protezione della privacy e dei diritti degli individui. Con una serie di norme rigorose, l’Unione Europea si propone di essere all’avanguardia nella gestione etica e sicura dell’IA, creando un modello che potrebbe essere seguito da altri paesi nel mondo.

Per ulteriori informazioni, il dott. Massimo Zampetti e il suo Staff rimangono a disposizione.



law

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *