Gli LLM (Large Language Models) vengono spesso presentati come macchine onniscienti: scrivono contratti, producono codice, generano testi di marketing. Ma quando entrano nel terreno più apparentemente semplice – la matematica elementare, i calcoli di un preventivo, la coerenza tra subtotali e IVA – emergono crepe profonde. La ragione è strutturale: i modelli linguistici non calcolano, predicono. Ogni numero che vediamo uscire da un LLM non nasce da una somma o moltiplicazione reale, ma dalla probabilità che quella sequenza di cifre segua la precedente.
Numeri come parole, non come grandezze
In un foglio Excel, “12345” è un valore numerico che può essere moltiplicato per due. In un LLM, invece, è una sequenza di token testuali, simile a come lo sarebbe la parola “caffè”. Non esiste un registro numerico interno, nessuna gestione di precisione a virgola mobile. Quando i numeri crescono o si fanno complessi, il modello entra in territorio fragile: l’errore non è un’eccezione, è un effetto collaterale inevitabile.
La trappola della coerenza
Un preventivo reale deve rispettare una logica interna: i subtotali devono combaciare con il totale, le percentuali devono riflettersi correttamente in tutte le righe. Un LLM può generare un preventivo elegante e ben formattato, ma non ha la capacità nativa di propagare modifiche numeriche lungo il documento. Aggiorna una cifra, ma dimentica di modificare il totale. Aggiunge l’IVA, ma la applica in un punto e la ignora in un altro. Il risultato? Testi persuasivi ma contabilmente inconsistenti.
Il futuro è ibrido
Per rendere affidabili i preventivi generati da intelligenze artificiali serve un approccio ibrido: il linguaggio ai modelli, la matematica alle macchine progettate per farla. Sistemi di Retrieval-Augmented Generation (RAG) collegati a database di prezzi reali, integrazioni con motori di calcolo esterni (Python, Excel, API di pricing), e controlli di coerenza automatizzati. Solo così la potenza espressiva degli LLM potrà diventare un alleato concreto nel business, evitando il rischio di affidarsi a “numeri predetti” che non hanno alcun fondamento.
Leggi anche La corsa ai data center AI: un investimento senza precedenti
Una questione di fiducia
La tecnologia dei modelli linguistici non è fallace per natura: è semplicemente inadatta a svolgere compiti che richiedono consistenza aritmetica. La vera sfida, nei prossimi anni, non sarà tanto potenziare la capacità dei modelli di scrivere, quanto dotarli di strumenti per “ancorare” i testi alla realtà dei dati. Finché questo non accadrà, chi affida un preventivo a un LLM deve sapere che sta leggendo più un esercizio di stile che un documento finanziario.