di Tiziana Mazzaglia
A fine 2025 l’Intelligenza Artificiale è diventata anche una questione di calendario: non basta chiedersi cosa può fare un sistema, bisogna capire quando certe responsabilità diventano obbligo. Diversi aggiornamenti regolatori e commenti legali riportano che il 19 novembre 2025 la Commissione europea ha proposto, nel quadro del cosiddetto Digital Omnibus, di spostare più avanti alcune scadenze legate agli obblighi per i sistemi di IA ad alto rischio, con un orizzonte che viene descritto come “fine 2027” per parti rilevanti dell’attuazione; al tempo stesso, sul sito della Commissione dedicato alla timeline dell’AI Act resta la logica della messa a regime progressiva e l’indicazione di un pieno dispiegamento entro il 2 agosto 2027. Sembra un tecnicismo, ma ha un’anima psicologica: le società regolano ciò che temono e ciò che desiderano, e l’IA sta nel punto esatto in cui la promessa (efficienza, diagnosi migliori, burocrazia più snella) incontra il rischio (errori sistemici, discriminazioni, opacità). Qui entra in gioco la “risk perception”: gli studi sulla percezione del rischio mostrano che tendiamo a sopravvalutare minacce vivide e sottovalutare quelle lente, e che la fiducia istituzionale è la vera valuta dei sistemi complessi; per questo il senso dell’AI Act, al di là delle date, è fissare una grammatica di trasparenza, tracciabilità, valutazione del rischio e accountability. Sul versante economico, i sostenitori dei rinvii parlano di carico burocratico e di bisogno di strumenti di supporto (linee guida, standard, strutture di vigilanza) prima di chiedere piena conformità; sul versante sociale, il punto è evitare che l’IA diventi un potere senza responsabilità, soprattutto in ambiti “ad alto impatto” come selezione del personale, credito, istruzione o sanità. Quindi raccontare l’AI Act come un patto: non “fermare” l’innovazione, ma renderla abitabile, perché l’innovazione senza fiducia non scala.
L’immagine allegata è stata creata con l’Intelligenza Artificiale.
