Un errore diffuso nel dibattito pubblico è continuare a considerare l’intelligenza artificiale come una questione di mera innovazione tecnologica o, al più, di competitività industriale. In realtà, stiamo entrando in una fase diversa: l’AI è sempre più integrata nelle infrastrutture critiche e nei processi decisionali, e questo ne cambia radicalmente il profilo di rischio. Non si tratta più soltanto di efficienza o di automazione di funzioni rilevanti, ma di sicurezza sistemica. Ogni sistema che incorpora componenti di apprendimento automatico introduce infatti nuove, potenziali superfici di attacco. I modelli di AI sono addestrati su dati potenzialmente manipolabili, i processi di training possono essere compromessi, le dipendenze da fornitori cloud esterni aumentano, mentre i processi decisionali automatizzati sono spesso difficili da sottoporre ad audit in tempo reale.

La regolazione dell’intelligenza artificiale: il modello italiano nel quadro dell’AI Act europeo, Campus Luiss, Roma, 09 Febbraio 2026
Seminario di studio nell’ambito del progetto PRIN 2022 – Smart Legal Order in DigiTal Society (SLOTS)




