di Tiziana Mazzaglia
La notizia è fatta di acciaio, software e ambizione: secondo Financial Times e conferme ufficiali del governo britannico, Google DeepMind aprirà nel 2026 un laboratorio automatizzato nel Regno Unito, dedicato alla ricerca sui materiali (superconduttori, semiconduttori, celle solari, batterie), con l’idea che l’IA possa progettare, selezionare, far sintetizzare e testare ipotesi in cicli più rapidi. Nel lessico degli economisti dell’innovazione, è un tentativo di ridurre il “costo del tentativo”: più esperimenti, più velocità, più probabilità di trovare combinazioni rare. Ma la scienza non è solo velocità; è anche controllo, riproducibilità, cautela. Per questo la stessa partnership include, sempre secondo FT e documenti ufficiali, un rafforzamento del lavoro sulla sicurezza dell’IA e la collaborazione con l’AI Security Institute britannico. In parallelo, negli stessi giorni OpenAI ha pubblicato un report di casi (“Early experiments in accelerating science with GPT‑5”) che descrive come, quando i modelli vengono usati da esperti, possano contribuire a fasi diverse del lavoro scientifico: generare ipotesi, sintetizzare letteratura, proporre piani sperimentali, aiutare nell’analisi; la National Academies ha raccolto testimonianze che raccontano un effetto simile, ad esempio in biologia, dove l’IA può “vedere” pattern nei dati che l’occhio umano tende a perdere. Qui si innesta un punto psicologico importante: l’IA è uno strumento cognitivo, e come ogni strumento cognitivo amplifica anche i nostri bias; il rischio non è soltanto l’errore, è l’illusione di certezza, perché un testo ben scritto può sembrare vero anche quando non lo è. La soluzione che propongono molti esperti è ibrida: IA per velocizzare raccolta, organizzazione e simulazione; esseri umani per giudizio critico, definizione delle domande e responsabilità. Raccontarlo in modo narrativo significa dire: non stiamo “delegando” la scienza alle macchine, stiamo cambiando la forma del laboratorio, e la domanda etica diventa: chi controlla, chi verifica, chi risponde quando la scoperta entra nel mondo reale?
L’immagine allegata è stata creata con l’Intelligenza Artificiale.
