
L’UE posticipa l’applicazione delle regole più severe sull’intelligenza artificiale ad alto rischio: confronto acceso tra tutela dei diritti, innovazione e pressioni internazionali.
L’Unione Europea ha adottato una decisione cruciale che segna una svolta nel percorso normativo sull’intelligenza artificiale. Dopo l’adozione del Regolamento (UE) 2024/1689, noto come Legge sull’intelligenza artificiale o AI Act, Bruxelles ha annunciato il rinvio al 2027 dell’entrata in vigore delle disposizioni più stringenti relative ai sistemi di IA ad alto rischio. Questa scelta, frutto di un acceso dibattito tra istituzioni europee, settore tecnologico e attori internazionali, riflette le complesse sfide nella regolamentazione di un comparto in rapida evoluzione e dalle implicazioni globali.
Rinvio per i sistemi di IA ad alto rischio: motivazioni e implicazioni
La legge sull’intelligenza artificiale, approvata dal Parlamento europeo nel marzo 2024 e ratificata dal Consiglio UE a maggio dello stesso anno, rappresenta il primo quadro normativo completo al mondo per disciplinare lo sviluppo e l’utilizzo dell’IA. Il Regolamento prevede una classificazione dei sistemi di IA in base al rischio, distinguendo tra pratiche vietate, sistemi ad alto rischio, sistemi a rischio limitato e a rischio minimo.
Tra le norme più attese vi erano quelle dedicate ai sistemi di IA ad alto rischio, applicazioni capaci di incidere significativamente su salute, sicurezza, diritti fondamentali, ambiente e democrazia. Esempi concreti includono sistemi di valutazione per l’assunzione del personale, dove potenziali bias algoritmici potrebbero determinare discriminazioni di genere o di altro tipo.

Tuttavia, la Commissione europea ha deciso di posticipare di circa sedici mesi l’entrata in vigore delle regole più severe per questi sistemi, originariamente previste per agosto 2026, spostandole a dicembre 2027. Il rinvio è stato motivato dalla necessità di completare il lavoro sugli standard tecnici di conformità che aiuteranno le imprese a rispettare le nuove regole e di garantire un’applicazione più efficace e armonizzata.
Questa decisione ha suscitato reazioni contrastanti: da un lato, il settore tecnologico europeo e internazionale ha accolto con favore questa pausa che consente un adeguamento più graduale; dall’altro, associazioni per la tutela dei diritti digitali hanno denunciato un possibile arretramento nella protezione della privacy e dei diritti dei cittadini.
Il rinvio del capitolo sull’IA ad alto rischio si inserisce in un contesto di forti pressioni politiche ed economiche. In particolare, la storica ostilità dell’amministrazione statunitense, che durante il mandato di Donald Trump aveva manifestato diffidenza verso la regolamentazione digitale europea, ha influenzato le dinamiche negoziali. Thierry Breton, ex commissario europeo al Mercato interno e padre dell’AI Act, ha espresso dure critiche verso Washington, accusandola di tentare di indebolire le normative UE per favorire le grandi aziende tecnologiche statunitensi.












