Al CES 2026 di Las Vegas, l’intelligenza artificiale ha attraversato una soglia critica. Non si discute più di algoritmi o modelli linguistici, ma di infrastrutture fisiche. La Physical AI ha spostato il dibattito dall’ambito software a quello delle reti elettriche, delle catene di approvvigionamento dei semiconduttori e degli investimenti in capitale fisso. Quello che emerge è un ecosistema industriale in piena riconfigurazione, dove la capacità computazionale diventa leva strategica per ridefinire interi comparti produttivi.
La logica economica di un investimento senza precedenti
Il mercato sta registrando una concentrazione di capitale senza eguali nella storia recente del settore tecnologico. Microsoft, Google, Meta e Amazon hanno allocato complessivamente oltre 500 miliardi di dollari in spesa per capitale fisso (Capex) per il 2026. L’ordine di grandezza non ha paragoni diretti con cicli di investimento precedenti e solleva interrogativi legittimi sulla sostenibilità e sul timing di questa accelerazione.
La risposta risiede nell’economia dell’inferenza. L’obiettivo strategico non è incrementare marginalmente le prestazioni dei modelli, ma modificare radicalmente la struttura dei costi operativi. Ridurre il costo per token generato di un ordine di grandezza—o due—trasforma l’IA da tecnologia ad alta intensità di capitale a risorsa distribuibile su scala industriale. Questa riduzione dei costi unitari rende economicamente sostenibile l’integrazione dell’IA in processi a basso margine: logistica, manifattura, servizi amministrativi. Il ritorno sull’investimento si materializza attraverso guadagni di efficienza distribuiti su miliardi di transazioni, non attraverso prodotti premium.
Il paradosso energetico e il ritorno al nucleare
La domanda computazionale generata dalla Physical AI ha prodotto un effetto collaterale di portata strategica: la riattivazione degli investimenti nel settore nucleare. I nuovi data center dedicati all’addestramento e all’inferenza richiedono una densità energetica che le fonti rinnovabili intermittenti, da sole, non possono garantire in modo affidabile.
Durante i panel tecnici al CES, ingegneri e fisici hanno evidenziato quello che alcuni definiscono un “effetto di rimbalzo tecnologico”. La necessità di alimentare infrastrutture computazionali distribuite su scala globale ha sbloccato finanziamenti privati diretti verso la ricerca nucleare avanzata. Si parla di Small Modular Reactors (SMR) e di progetti pilota sulla fusione nucleare, entrambi finanziati in parte direttamente dalle Big Tech.
Per la prima volta in decenni, il settore tecnologico sta agendo da catalizzatore per lo sviluppo di infrastrutture energetiche pesanti. L’obiettivo dichiarato è garantire un approvvigionamento elettrico stabile, decarbonizzato e, soprattutto, svincolato dalle fluttuazioni delle reti pubbliche. Questa convergenza tra domanda computazionale e investimenti energetici rappresenta un cambio di paradigma nella relazione tra settore tech e infrastrutture critiche.
NVIDIA: Vera Rubin e l’era della ragione meccanica
NVIDIA ha presentato la piattaforma Vera Rubin, che segna un passaggio dall’accelerazione computazionale pura ai sistemi agentici distribuiti. Non si tratta di un incremento prestazionale rispetto all’architettura Blackwell, ma di una ricalibrazione progettuale verso carichi di lavoro specifici: robotica industriale, fleet management autonomo, ottimizzazione di reti elettriche complesse in tempo reale.
La Vera CPU con core Olympus è progettata per gestire l’interazione tra modelli di intelligenza artificiale e attuatori fisici. Jensen Huang ha presentato dati che indicano una riduzione significativa dell’energia necessaria per l’addestramento di modelli di grandi dimensioni, un tentativo di mitigare attraverso l’efficienza algoritmica la pressione energetica descritta in precedenza.
Questa piattaforma consolida la posizione dominante di NVIDIA nel segmento dei data center enterprise, ma introduce anche una dipendenza crescente da un singolo fornitore per l’intera catena di valore della Physical AI. Una vulnerabilità che non è sfuggita ai competitor.
AMD e la strategia dell’IA distribuita
AMD ha risposto con una strategia complementare, focalizzata sull’Edge Computing e sulla decentralizzazione del carico computazionale. I processori Ryzen AI 400 e gli acceleratori Instinct MI400 sono progettati per spostare parte dell’inferenza dai data center centralizzati ai dispositivi periferici: workstation aziendali, gateway industriali, sistemi embedded.
Questa architettura risponde a due esigenze concrete. La prima è la latenza: per applicazioni critiche in tempo reale, la dipendenza dal cloud introduce ritardi inaccettabili. La seconda è la sovranità dei dati: settori regolamentati come sanità, finanza e difesa richiedono che i dati non lascino mai l’infrastruttura locale.
AMD si posiziona come l’alternativa necessaria in un mercato che, per ragioni di resilienza operativa e conformità normativa, non può tollerare un’eccessiva concentrazione nella catena di approvvigionamento dei semiconduttori.
Implicazioni operative per i decision-maker
L’adozione della Physical AI non è più una scelta tecnologica isolata, ma una trasformazione sistemica che coinvolge procurement hardware, strategia energetica e architettura IT. La convergenza tra semiconduttori di nuova generazione e modelli energetici alternativi ridefinisce i parametri di competitività per il prossimo decennio.
Le organizzazioni che sapranno integrare capacità computazionale avanzata con strategie di approvvigionamento energetico indipendente avranno un vantaggio strutturale. Non si tratta più solo di adottare l’IA, ma di costruire l’infrastruttura fisica che la rende sostenibile operativamente ed economicamente.
Le decisioni prese oggi su architetture hardware, partnership energetiche e diversificazione dei fornitori di semiconduttori determinano la capacità di scalare sistemi agentici complessi nei prossimi cinque anni. Il CES 2026 ha reso evidente che il vantaggio competitivo nell’era della Physical AI si costruisce a partire dalle fondamenta infrastrutturali, non dai modelli software.
Fonti:
- Axios: NVIDIA CES 2026 – Jensen Huang’s keynote on Physical AI and Robotics
- Reuters: AMD’s 2026 Roadmap: Ryzen AI 400 and Instinct MI400 series launch
- The Verge: Vera Rubin Platform: The next leap in NVIDIA’s computing dominance
- Goldman Sachs / Financial Reports: Big Tech Capital Expenditure Analysis 2025-2026
- International Energy Agency (IEA) – Report 2026: The impact of AI data centers on global nuclear energy investment
- YouTube Analysis: Why Big Tech is spending trillions on AI (and the Physicist’s perspective on Nuclear funding)



