A metà gennaio ho tenuto un incontro pubblico ad Annecy dove raccontavo a un pubblico di curiosi come si produce un bosone di Higgs e si misurano le sue proprietà (e perché, ma questa è un'altra storia). Nella chiacchierata con il pubblico che sempre segue questi eventi, ho ricevuto tra le altre una domanda che sempre più spesso arriva in queste occasioni: "Per le ricerche che fate a ATLAS e le misure sul bosone di Higgs, usate dei sistemi di intelligenza artificiale?".
La risposta semplice è "Ovviamente sì". In effetti, da tempo l'analisi dei dati collezionati dagli esperimenti LHC (e, più recentemente, una parte non trascurabile della stessa acquisizione dei dati) si basa su algoritmi di machine learning: separazione di "segnale" e "rumore", classificazione di fenomeni fisici diversi, identificazione di oggetti e particelle nei rivelatori, calibrazione della risposta stessa dei rivelatori. Possiamo dire anche con un certo orgoglio che la fisica delle particelle è stata una delle discipline pioniere ad adottare questo approccio per migliorare l'uso dei dati e spremerne il massimo. Prima che programmare in Python diventasse normale, prima che l'ecosistema dei tool di machine learning (cose come Keras, PyTorch, XGBoost, …) oggi così facilmente accessibile fosse a portata di tutti, prima che le GPU venissero usate per calcolare (e non per fare il rendering dei videogiochi), ROOT aveva già TMVA integrato e i fisici delle particelle lo sfruttavano intensamente.
"Machine Learning" non corrisponde però esattamente con "intelligenza artificiale", e dunque la domanda potrebbe richiedere una risposta più complessa. Se per "intelligenza artificiale" si intende l'uso "agentico" dei modelli di linguaggio LLM, per esempio per pianificare o strutturare un programma di ricerca, allora nel nostro campo le cose si stanno sviluppando solo adesso, e le implicazioni e le possibilità sono ancora tutte da capire e da studiare. Proprio stamattina al CERN c'è stato un interessante seminario di Tilman Plehn, che affrontava la questione dal punto di vista di un fisico teorico. Vi lascio andare a guardare le slide per i dettagli (anche parecchio tecnici). La cosa che a me pare più interessante è che i modelli LLM possono essere usati non solo per i compiti precisi che sarebbero tradizionalmente affidati a un algoritmo di machine learning (per esempio: trova l'algoritmo che meglio separa questo processo da quest'altro a partire da questi dati simulati), ma per costruire un workflow ben più complesso, spesso eliminando l'inevitabile frizione che avrebbe la difficoltà di scrivere direttamente del codice efficiente (e corretto) per realizzare un certo progetto. Quanto più lontano sarà possibile andare con la ricerca, se il nostro tempo non sarà più dominato a risolvere errori di compilazione, dipendenze da librerie, o inefficienza degli algoritmi? Se i compiti da far fare a una macchina possono essere espressi in linguaggio "naturale", quanto più rapidamente avanzeremo? Secondo me, molto.

Qualche settimana fa sono incappato, tramite questo post, in questo articolo di Alberto Romero che sostiene che l'avvento degli agenti basati sui modelli AI ci obbliga (obbligherà) a concentrarci su cosa fare, e non su come farlo. Questa idea sembra spaventare parecchie persone, preoccupate di essere rimpiazzate nelle proprie (indispensabili?) competenze. A me, fisico delle particelle sperimentale, sembra invece una liberazione potentissima. Programmo per necessità, ma non sono un programmatore. Progetto e costruisco circuiti elettronici e strutture meccaniche per necessità, ma non sono un ingegnere elettronico né meccanico. Queste professionalità sono per me e i miei obiettivi (avere il migliore strumento per interrogare la natura sul suo funzionamento) degli strumenti. Mi avvalgo già oggi dell'aiuto di ingegneri: poterne rimpiazzare i servizi con quelli di un agente AI non mi sconvolge affatto. Se Claude Code interfacciato al mio editor di codice preferito può darmi un codice robusto o correggere il pessimo codice che scrivo io, mantenendo le indicazioni su quello che il codice deve fare ma migliorando efficienza, leggibilità e manutenibilità, e può farlo nei tempi che meglio mi convengono, tanto meglio.
La vera domanda al limite è per chi lavora con competenze tecniche specialistiche: che cosa costituisce il valore aggiunto di una professionalità, se la conoscenza tecnica che fino a ieri la rendeva rara e preziosa diventa progressivamente accessibile a tutti? Non è una domanda retorica, è una delle più serie che il mercato del lavoro dovrà affrontare nei prossimi anni. A me, la cui professionalità è principalmente farsi delle domande, immaginare nuove direzioni, ed esplorare soluzioni mai viste prima, avere un esercito di aiutanti efficienti che mi liberano dall'usare il mio tempo a risolvere problemi pare una rivoluzione esaltante. Per chi invece costruiva il proprio valore sul come più che sul cosa, la transizione sarà probabilmente meno indolore.


Abbasso Ludd, Viva il progresso!
Molto interessante. Non so quanto un LLM nel breve possa sostituire un ingegnere, forse può sostituire un programmatore o un disegnatore o un tecnico elettronico, per la parte digitale e non ovviamente per quella manuale.