Nei monitor di queste super-memorie è rappresentato il mondo. Sono cervelloni all’interno di stanze inaccessibili se non a pochissimi addetti ai lavori. Iper-sorvegliati notte e giorno da uomini della sicurezza. Sono in grado di vedere in tempo reale da dove sta arrivando un attacco hacker. I dati, archiviati nel cloud computing di alcuni colossi tech, vengono custoditi in armadietti. «Parliamo letteralmente di edifici che ospitano grandi “armadi” con dentro server in grado di processare tantissime informazioni. Oltre ai server, che rimangono attivi 24 ore su 24 e raggiungono temperature molto alte, sono necessari altri macchinari per rinfrescare la struttura e connetterla con il mondo esterno», spiega Luca Dozio, direttore dell’Osservatorio Data Center della School of Management del Politecnico di Milano. Se c’è un settore ciclico al momento questo è sicuramente quello dei data center.
La domanda esponenziale di gestione e raccolta dati, amplificata dalla rivoluzione appena abbozzata dell’intelligenza artificiale generativa, sta calamitando in Italia ingenti investimenti. L’esplosione delle interconnessioni digitali per finalità industriali sta facendo il resto. Un mercato polverizzato, ma che si sta aprendo a grossi investitori.
Sono presenti in Italia Tim Cloud, Aruba Cloud, Equinix e gli internazionali come Ibm Cloud, Amazon Web Services. Tutti hanno bisogno di una connettività multipla sul territorio. Google ha siglato una partnership con Tim per una regione in Italia. Microsoft Azure si è alleata a Poste Italiane investendo sul Paese oltre 1,5 miliardi anche sul personale. Amazon ha appena presentato al governo un progetto da qui ai prossimi cinque anni che consiste nella realizzazione di un data center a Milano per un valore di 1,2 miliardi di euro. La stessa Tim ha appena puntato 130 milioni sul cloud. Il gruppo delle telecomunicazioni ha varato un piano di investimenti per costruire un nuovo data center vicino Roma. La struttura andrà ad aumentare del 25% la capacità complessiva della società e sarà operativa entro la fine del 2026.

L’80% del totale delle spese delle Bit Tech per l’AI è destinato ai data center (foto © Getty Images)
La società di consulenza strategica Bain ha previsto – in un rapporto di fresca pubblicazione – una crescita del mercato hardware e software dell’intelligenza artificiale generativa tra il 40% e il 55% annuo, raggiungendo un valore compreso tra 780 e 990 miliardi di dollari entro il 2027. Ma inevitabilmente saliranno anche i costi di questi data center. Il tutto porterà a un inevitabile rischio di carenza di componenti: la domanda di GPU (graphic processor unit) è destinata a crescere del 30% entro il 2026. D’altronde il mercato dell’intelligenza artificiale generativa in Italia potrebbe triplicare il proprio valore entro il 2027, con un incremento in settori strategici come robotica, manifattura e aerospazio, anche se l’adozione tra le piccole e medie imprese è ancora inferiore alla media europea. Secondo lo studio, i carichi computazionali cresceranno del 25%-35% all’anno fino al 2027, con un conseguente incremento della domanda di potenza di calcolo, che spingerà i data center a evolvere verso dimensioni di oltre un gigawatt. I costi di costruzione – attualmente compresi tra 1 e 4 miliardi di dollari – potrebbero raggiungere i 25 miliardi nei prossimi cinque anni.
In fondo, dunque, cos’è l’intelligenza artificiale? «In ultima istanza, un data center». Chi può fermarla? «I narcos messicani, più che le leggi degli Stati». È la tesi provocatoria di Alessandro Aresu. Sardo, ex consigliere di Palazzo Chigi, tra i maggiori esperti italiani dell’impatto dell’industria tech negli equilibri globali. Nella sua Geopolitica dell’intelligenza artificiale (edizione Feltrinelli), appena uscito, racconta uomini e aziende dietro l’ascesa dell’AI. Aresu si chiede perché i data center siano ormai diventati fondamentali. «Se la spogliamo della “magia” degli algoritmi e ci concentriamo sull’infrastruttura, l’intelligenza artificiale è un insieme di fabbriche che culmina nella costruzione di migliaia di costosi data center, essenziali per la vita digitale, che però è sempre fatta di elettronica, acciaio, rame, acqua, energia. Sono il luogo del capitalismo dell’AI, come la fabbrica che Karl Polanyi chiamava “mulino satanico”. Il Ceo di Ndivia, Huang, ha un’idea imprenditoriale in cui al posto dell’iPhone c’è il data center, con lo stesso ruolo dominante nella filiera», dice Aresu.
E ciò permette di spiegare perché queste infrastrutture sono sempre più centrali e perché stiamo configurando una società senza lavoro. «I data center hanno bisogno di molti operai per essere costruiti, ma poi ci lavorano in pochissimi. Quindi, nel sistema abbiamo una fabbrica apicale, il data center, dove non lavora quasi nessuno, che però esiste grazie ad altre fabbriche e lavoratori, per esempio cinesi, taiwanesi e ora sempre più messicani, che assemblano i server per Foxconn. Poi usiamo le cose per cui ci abilitano per razionalizzare ulteriormente il lavoro. È quindi più probabile che, nella lotta del lavoro contro il capitale, il sistema capitalistico dell’intelligenza artificiale sia rovesciato, o alterato, da una rivolta di operai messicani», spiega Aresu.

Starlink, la realtà di Elon Musk è leader globale nelle connessioni satellitari, indispensabili per il potenziamento della connettività (foto © Getty Images)
La questione si lega alla geopolitica dei cavi sottomarini a cui i data center si legano, perché ne sono la propaggine sulla terraferma. Diversi esperti ritengono che l’Italia dovrebbe dotarsi sempre di più “porti digitali”. Punti di approdo per i cavi sottomarini a fibra ottica dove transitano i miliardi di miliardi di dati di Internet. Dove transitano gli scambi di comunicazione tra Paesi, i dati ultra-sensibili di istituzioni ed aziende. Per la particolare posizione geografica il nostro Paese potrebbe tramutarsi nella Singapore d’Europa, una piattaforma di transito dati anche per il Medio Oriente fino all’India e verso l’Africa.
Un’opportunità storica per l’economia italiana, perché i porti digitali darebbero un accesso privilegiato a tutti questi mercati offrendo un vantaggio competitivo a qualunque impresa italiana in termini di export. Attualmente lo snodo principale che ospita la gran parte del traffico dati europeo è l’hub di Marsiglia. Molte ricerche internet finiscono per transitare dalla Francia aumentando il tempo di latenza.
Realizzare hub analoghi in Italia potrebbe portare lavoro, personale super-qualificato attorno a questi snodi strategici di connettività. Il mercato, d’altronde, ha bisogno di un potenziamento della connettività, abbiamo fatto tanti progressi, ma ancora non basta e per questo si affacciano le connessioni satellitari di cui Starlink, diretta emanazione dell’imprenditore visionario e controverso Elon Musk, ne è la leader globale. L’Italia è un Paese fortemente decentralizzato, abbiamo tante fabbriche sul territorio. Abbiamo la necessità che la banda larga si disponga capillarmente non solo con la rete fissa, ma anche con il 5g e ora con i satelliti per coprire le aree più remote, vista l’incapacità di investire nelle zone a fallimento di mercato nonostante i fondi europei del Pnrr.
Bisogna stare attenti, però, a non costruire un colosso con le caviglie fragili, perché il network è la base della connettività. Al momento in Italia abbiamo solo due centri di connettività importanti, uno in via Caldera a Milano, l’altro a Roma nell’Eur. Sono zone che abbiamo ereditato dal passato. Ma ora andiamo incontro a una trasformazione tecnologica senza precedenti e servono sempre più data-center. Non è un caso che i numeri di Big Tech raccontino in maniera impressionante quello che sta avvenendo. Amazon, Microsoft, Meta e Google hanno speso circa 200 miliardi per l’intelligenza artificiale nel 2024, una cifra record che potrebbe salire ulteriormente nel 2025. Secondo gli analisti di Citi, come ha scritto di recente il Financial Times, le spese in conto capitale dei quattro giganti di Big Tech hanno raggiunto i 209 miliardi nel 2024, con un aumento del 42% rispetto al 2023. L’80% del totale delle spese è destinato ai data center.
Il nodo dell’energia
Sempre in funzione, i data center hanno un problema: sono assetati di energia. E, con l’uso sempre più massiccio dell’intelligenza artificiale, la loro sete è destinata ad aumentare. Basti pensare che in Irlanda, che ospita data center importanti come quelli di Amazon e Microsoft, il 2023 è stato il primo anno nella storia in cui il consumo di energia elettrica di queste strutture ha superato quello di tutte le abitazioni del Paese. E i consumi sono destinati a salire in tutta Europa, perché da una parte l’Ue punta a tutelare la sovranità dei dati più sensibili; dall’altra lo sviluppo di sistemi come AI e guida autonoma richiede tempi di risposta più rapidi, che possono essere garantiti solo se i data center sono più vicini. L’Ue è già al lavoro per regolamentare questo settore.
La direttiva 2023/1791 prevede che i data center con potenza di almeno 500 kilowatt siano obbligati a rendere pubbliche alcune informazioni sulle loro prestazioni energetiche. Il 6 giugno 2024 è entrato in vigore il Regolamento 1364, che punta a creare un sistema di valutazione della sostenibilità di queste strutture grazie a standard uniformi per migliorare la loro efficienza. Si tratta di incoraggiare l’uso delle energie rinnovabili e delle soluzioni per riutilizzare il calore. L’8 agosto, con il Decreto n. 257, anche il Ministero dell’Ambiente e della Sicurezza energetica ha adottato le nuove linee guida per la sostenibilità dei data center. L’operatore Aruba ha acquisito otto centrali idroelettriche proprio per rafforzare la propria capacità di produzione di energia rinnovabile. L’iniziativa risponde agli obiettivi del Climate Neutral Data Center Pact, un patto tra aziende europee del settore per raggiungere la neutralità climatica entro il 2030 che, tra l’altro, prevede di riutilizzare il calore dei centri dati.
Articolo pubblicato sul numero di Business People di marzo 2025. Scarica il numero o abbonati qui
© Riproduzione riservata