Un errore diffuso nel dibattito pubblico è continuare a considerare l’intelligenza artificiale come una questione di mera innovazione tecnologica o, al più, di competitività industriale. In realtà, stiamo entrando in una fase diversa: l’AI è sempre più integrata nelle infrastrutture critiche e nei processi decisionali, e questo ne cambia radicalmente il profilo di rischio. Non si tratta più soltanto di efficienza o di automazione di funzioni rilevanti, ma di sicurezza sistemica. Ogni sistema che incorpora componenti di apprendimento automatico introduce infatti nuove, potenziali superfici di attacco. I modelli di AI sono addestrati su dati potenzialmente manipolabili, i processi di training possono essere compromessi, le dipendenze da fornitori cloud esterni aumentano, mentre i processi decisionali automatizzati sono spesso difficili da sottoporre ad audit in tempo reale.

Sicurezza globale e IA, il rischio che a dettare le regole sia l’algoritmo anziché la democrazia
I paradossi di “Glasswing” di Oreste Pollicino su Il Dubbio.




