La startup cinese DeepSeek è riuscita a sviluppare il suo modello di AI R1 ottimizzando l’uso di hardware meno avanzato rispetto ai modelli concorrenti, riducendo i requisiti energetici necessari per l’addestramento e l’esecuzione delle sue applicazioni. Grazie a tecnologie come il Group Relative Policy Optimization (GRPO), il modello ottimizza i processi di calcolo, limitando sprechi di energia e risorse. Questa caratteristica non solo abbassa i costi operativi, ma offre anche un vantaggio ambientale.
Il ‘terremoto’ tecnologico della cinese DeepSeek
DeepSeek è una startup cinese nel settore dell’intelligenza artificiale (AI) che ha rapidamente guadagnato l’attenzione globale grazie al lancio di DeepSeek-R1, un modello di linguaggio open source, gratuito e illimitato, in grado di generare un ‘terremoto’ tecnologico di portata mondiale.
Questo modello si distingue per la sua capacità di eseguire compiti complessi di ragionamento a un costo significativamente inferiore rispetto ai concorrenti statunitensi, come OpenAI e Google. Sviluppato con un budget di circa 5 milioni di dollari, una frazione degli investimenti tipici del settore, DeepSeek-R1 utilizza tecnologie avanzate come il Group Relative Policy Optimization (GRPO) per migliorare la precisione e l’efficienza senza dipendere da hardware di fascia alta come i chip NVIDIA di ultima generazione.
Non solo, DeepSeek, a quanto pare, è in grado di ridurre considerevolmente i consumi energetici a priori.
Serve davvero tutta questa energia per sviluppare l’AI?
Un dato fondamentale questo dei consumi, che ha portato gli investitori a porsi dei dubbi su quanto è stato fatto e detto fino ad oggi in relazione ai fabbisogni energetici dei data center, infrastruttura in crescita legata al moltiplicarsi delle applicazioni di AI.
Uno degli effetti collaterali dell’esplosione di DeepSeek è proprio il trambusto causato sul mercato dei titoli tecnologici ed energetici americani.
Lunedì le principali società energetiche degli Stati Uniti, in particolare i provider di energia elettrica, hanno registrato consistenti perdite in Borsa.
Il crollo dei titoli energetici
Come riportato in un articolo pubblicato su Cnbc, Vistra Energy ha perso il 30% e addirittura si parla di un pesante ridimensionamento dei possibili guadagni stimati per il 2025.
Lo stesso si può dire di Constellation Energy, Energia Talen e GE Vernova, che hanno lasciato per strada il 20%.
Da notare che prima del crollo, Constellation Energy (che poi è la società che sta dietro al rilancio della centrale nucleare di Three Mile Island per alimentare l’AI di Microsoft) e GE Vernova erano balzate in cima all’indice S&P 500, perché gli investitori seguivano le indicazioni di mercato degli ultimi mesi, cioè l’AI energivora necessitava di maggiore quantità di energia elettrica per sviluppare i suoi modelli.
A seguito di questo trend negativo, anche le aziende del settore Oil&Gas hanno perso pesantemente in borsa.
Per fare alcuni esempi, EQT Corp. ha perso quasi il 10%, mentre le società di oleodotti Kinder Morgan e Williams hanno perso circa l’8%.
Da valutare quale potrebbe essere ora l’impatto di DeepSeek anche sul fronte dell’energia nucleare, tirata in ballo da molti nell’ultimo anno come fondamentale per alimentare i data center delle Big Tech.
In discussione un modello di business?
I titoli energetici avevano guadagnato tanto negli ultimi mesi proprio perché il mercato riteneva l’elettrificazione, il gas naturale e il nucleare come centrali per soddisfare la crescita esponenziale della domanda di energia da parte dei data center necessari all’AI.
Per capirci, solo 4 giorni fa, prima che la startup cinese prendesse il centro del palcoscenico globale, Mark Zuckerberg annunciava che per sviluppare la sua Ai Llama 4: “Meta sta costruendo un datacenter 2GW+ così grande da coprire una parte significativa di Manhattan“.
La startup cinese afferma di aver sviluppato il suo modello R1 open source utilizzando circa 2.000 chip Nvidia, solo una frazione della potenza di calcolo generalmente ritenuta necessaria per addestrare programmi simili.
Ciò ha implicazioni significative non solo per quanto riguarda i costi di sviluppo dell’intelligenza artificiale, ma anche per l’energia necessaria ai data center che rappresentano il cuore pulsante di questo settore in crescita.
Fino ad ora, il presupposto da tutti accettato era che le esigenze di elaborazione e di energia sarebbero cresciute in modo esponenziale, determinando ingenti investimenti tecnologici sia nei data center sia nei mezzi per alimentarli, andando a rafforzare di conseguenza i titoli energetici.
Secondo quanto riportato da France24, l’elettrificazione e i data center continueranno comunque ad essere un fattore trainante per la crescita dell’AI e altri asset digitali del nostro tempo, ma con un approccio più misurato. Come ha detto Travis Miller di Morningstar: “Il problema è che le aspettative del mercato sono andate troppo oltre”. Troppo oltre la realtà aggiungiamo noi.
Effetto ‘Gattopardo’?
Quindi dopo DeepSeek si rimetterà tutto in discussione? Non proprio. Secondo molti esperti la domanda di energia legata alla crescita dell’AI potrebbe rimanere la stessa, al limite non si raggiungeranno i livelli di consumo più alti fin qui stimati per i prossimi dieci anni.
Come ben spiegato da Andrew Lensen, docente di intelligenza artificiale presso la Victoria University di Wellington: “l’impatto di DeepSeek potrebbe essere quello di aiutare le aziende statunitensi a comprendere come utilizzare l’efficienza computazionale per creare modelli ancora più grandi e performanti“.
“Invece di rendere il loro modello 10 volte più piccolo ed efficiente, mantenendo lo stesso livello di prestazioni – ha aggiunto Lensen – penso che utilizzeranno le nuove scoperte per rendere il loro modello più efficiente mantenendo lo stesso consumo energetico”.
Insomma, ritorna costante il pensiero di Tancredi Falconeri, personaggio chiave del “Gattopardo” di Giuseppe Tomasi di Lampedusa: “Perché tutto rimanga com’è bisogna che tutto cambi”.