Ci sono libri che non si limitano a spiegare il presente, ma lo mettono in ordine. Intelligenza artificiale affidabile. Compliance e risk management per il governo dei rischi, a cura di Paola Manes, è uno di questi. L’opera affronta una questione decisiva per il nostro tempo: come costruire fiducia nell’era delle decisioni algoritmiche. Fiducia intesa non come adesione emotiva, ma come architrave giuridica, economica e culturale delle scelte individuali e collettive.
L’analisi multidisciplinare che il volume offre nasce da un presupposto condiviso: l’intelligenza artificiale non è un oggetto tecnico, ma un terreno in cui si ridefiniscono le categorie del diritto e dell’economia, partendo dalla stessa nozione di rischio. Nel saggio introduttivo, Manes costruisce un percorso che parte dal “viaggio che inizia da Platone”, evocando il mito di Tot e la scrittura che rende più sapienti e più smemorati. L’AI (Intelligenza Artificiale), come allora la parola scritta, promette conoscenza ma rischia di erodere responsabilità. Per questo non può essere trattata come una tecnologia neutra: richiede una governance che coniughi libertà e tutela, innovazione e controllo.





