Computer Law
  • Attualità
  • Elettronica
  • Scienza
  • IA
  • Mobilità
  • Economia
No Result
View All Result
AI News
  • Attualità
  • Elettronica
  • Scienza
  • IA
  • Mobilità
  • Economia
No Result
View All Result
Computer Law
No Result
View All Result

230 000 GPU e un accordo con Anthropic: xAI accelera la guerra dell’IA

230 000 GPU e un accordo con Anthropic: xAI accelera la guerra dell’IA

Bruno ARANZULLA di Bruno ARANZULLA
15 Maggio 2026
in Attualità, Economia, Elettronica, IA
0

La mossa è concreta: xAI ha aperto l’accesso a Colossus 1 per un accordo di calcolo con Anthropic, che userà questa potenza soprattutto per aumentare la capacità di inferenza destinata agli abbonati Claude.

Nel frattempo, Elon Musk spinge su un secondo supercluster, Colossus 2, progettato per il training su scala “frontier” con GPU Blackwell. Dietro la scelta c’è un dettaglio tecnico che pesa: Colossus 1 nasce come cluster enorme ma con una dotazione eterogenea di acceleratori, e questa impostazione pu diventare un freno quando l’obiettivo è addestrare un unico modello con sincronizzazione stretta. Da qui la separazione dei compiti: inferenza e capacità commerciale da una parte, training unificato e percorso industriale dall’altra, con l’ombra di una possibile quotazione che richiede numeri, margini e una storia credibile.

Colossus 1: oltre 220.000 GPU, utili per inferenza e capacità

Colossus 1 viene descritto come un sistema costruito “in tempi record” e pensato per carichi diversi, training, fine-tuning, inferenza e HPC. Il dato che colpisce è la scala: oltre 220.000 NVIDIA GPU, con una presenza dichiarata di H100, H200 e anche primi acceleratori di nuova generazione. In un impianto di queste dimensioni, la disponibilità immediata di calcolo è già un prodotto: si pu vendere capacità, si possono assorbire picchi, si pu alimentare un servizio in abbonamento.

L’accordo con Anthropic va letto in questa direzione. Anthropic ha indicato che userà il calcolo aggiuntivo per aumentare la capacità destinata agli abbonati Claude Pro e Claude Max, cioè per servire più richieste e ridurre code e latenza. Per un’azienda che monetizza sull’uso quotidiano, l’inferenza conta quanto, se non più, del training: ogni risposta erogata è un costo operativo, e la disponibilità di GPU pu diventare un collo di bottiglia commerciale.

La critica, se vuoi, è che la narrativa pubblica sui “supercomputer per addestrare il modello X” spesso semplifica. Un cluster enorme pu essere straordinario per throughput di inferenza, per batch di fine-tuning, per carichi diversi in parallelo, ma non per forza è ottimale per addestrare un singolo modello con sincronizzazione totale. Quando l’architettura è mista, l’orchestrazione diventa più complessa: si finisce a segmentare i lavori, a gestire profili diversi, e a perdere efficienza proprio dove servirebbe linearità.

Leia também  Insta360 trasforma la sua mini camera in una “pellicola digitale”, ecco cosa cambia davvero

Musk annuncia 230.000 GPU per Grok e 550.000 GB200/GB300 in arrivo

Musk ha rivendicato su X che oltre 230.000 GPU sono operative per addestrare Grok in un unico supercluster chiamato Colossus 1, includendo circa 30.000 GB200. Nello stesso messaggio ha indicato che Colossus 2 inizierà ad andare online “in poche settimane” con una prima ondata di 550.000 unità tra GB200 e GB300, sempre per training. È una dichiarazione aggressiva, perché sposta l’asticella dalla scala “grande” alla scala “industriale” nel giro di un ciclo di prodotto.

Qui entra il punto tecnico che spiega la biforcazione: il training “frontier” richiede interconnessioni veloci, sincronizzazione e omogeneità. Se in un supercluster convivono generazioni diverse, la parte più lenta pu dettare il ritmo, e la pianificazione delle risorse diventa un esercizio di compromessi. Per l’inferenza, invece, puoi spezzare il carico, replicare modelli, usare pool diversi per clienti diversi e sfruttare meglio l’eterogeneità. È il motivo per cui un’infrastruttura pu essere venduta come “capacità” senza essere la macchina ideale per addestrare un singolo modello gigantesco.

La cifra economica citata nel dibattito pubblico è fuori scala, con stime che arrivano a “trilioni di dollari” di spesa complessiva nel settore per assicurarsi hardware. Su questo serve prudenza: i numeri circolano, ma il punto verificabile è la corsa alla capacità e la competizione sull’accesso alle GPU. Se xAI vuole presentarsi come attore di prima fascia, deve dimostrare non solo potenza installata, ma anche utilizzo, costi energetici sostenibili e affidabilità operativa, elementi che gli investitori guardano più delle dichiarazioni.

Colossus 2 solo Blackwell: training unificato e narrativa da IPO

Colossus 2 viene presentato come il passo successivo: un cluster orientato al training, con acceleratori Blackwell, cioè GB200 e GB300. L’idea è semplice: ridurre la frammentazione e costruire una piattaforma più uniforme, dove il software di training pu scalare senza dover “negoziare” tra profili hardware differenti. In prospettiva, è anche un messaggio al mercato: non solo si possiede calcolo, ma lo si organizza per un obiettivo preciso, addestrare modelli di frontiera con cicli rapidi.

Leia também  Microsoft prepara un grande aggiornamento di prestazioni per Windows 11, ed Esplora file è finalmente nel mirino

Il contesto operativo conta quanto le GPU. xAI ha raccontato di aver trasformato un sito industriale in un data center in tempi brevi e di aver adottato raffreddamento a liquido su scala, un tema decisivo perché la densità di potenza delle GPU moderne rende il raffreddamento un vincolo fisico prima ancora che economico. In quel racconto, l’upgrade verso Blackwell viene associato a salti di prestazioni e banda memoria, e a una strategia di espansione continua. È il tipo di infrastruttura che, se funziona, diventa una barriera all’ingresso.

Resta una domanda scomoda, utile per leggere l’eventuale percorso verso una quotazione: quanto di questa capacità sarà impiegata stabilmente, e a quali margini? Dare Colossus 1 ad Anthropic per aumentare l’inferenza pu essere un modo per monetizzare hardware già installato e stabilizzare ricavi, mentre Colossus 2 si concentra sul training per differenziare il prodotto. È una strategia coerente, ma anche rischiosa: se la domanda di inferenza rallenta o se i costi energetici salgono, la “potenza” da sola non basta, serve efficienza e disciplina industriale.

Punti chiave

  • xAI ha concesso ad Anthropic accesso a Colossus 1 per aumentare capacità di inferenza di Claude.
  • La dotazione mista di Colossus 1 favorisce carichi flessibili, ma complica il training unificato.
  • Musk parla di oltre 230.000 GPU operative e di una prima ondata da 550.000 GB200/GB300 per Colossus 2.
  • Colossus 2 punta su una piattaforma Blackwell più omogenea, pensata per training “frontier”.

Domande frequenti

Perché Anthropic usa Colossus 1 soprattutto per inferenza?

Perché l’inferenza è un carico facilmente parallelizzabile e replicabile: puoi distribuire richieste e modelli su pool diversi di GPU, anche se non sono tutte identiche. Anthropic ha indicato che questa capacità servirà in modo diretto a migliorare la disponibilità per gli abbonati Claude Pro e Claude Max, riducendo congestione e tempi di risposta nei momenti di picco.

Leia também  Questa hypercar elettrica vuole fare lo 0-100 km/h in 0,9 secondi con booster a razzo integrati

Cosa rende più difficile addestrare un modello su un cluster con architetture miste?

Nel training sincrono su larga scala, la velocità complessiva tende ad allinearsi al componente più lento, e la gestione di memoria, banda e interconnessioni diventa più complessa quando convivono generazioni diverse. Questo può tradursi in minore efficienza e in una pianificazione più rigida dei job, mentre l’inferenza tollera meglio l’eterogeneità perché i carichi si spezzano e si bilanciano con più libertà.

Che cosa ha dichiarato Musk su Colossus 2?

Ha parlato di un avvio a breve della prima tranche di Colossus 2, con 550.000 unità tra NVIDIA GB200 e GB300 destinate al training. Nello stesso contesto ha rivendicato che Colossus 1 ha oltre 230.000 GPU operative per l’addestramento di Grok, includendo circa 30.000 GB200.

Perché una piattaforma solo Blackwell è rilevante anche in ottica IPO?

Perché una storia industriale credibile richiede non solo capacità installata, ma anche efficienza, ripetibilità e chiarezza di prodotto. Un cluster più omogeneo semplifica la scalabilità del training e rende più leggibile il legame tra investimenti, prestazioni e roadmap. In parallelo, monetizzare inferenza con un partner può stabilizzare ricavi, ma resta centrale la gestione di costi energetici e utilizzo effettivo.

Fonti

  • Elon Musk: 230K AI GPUs train Grok at Colossus 1: 550K GB200, GB300s at Colossus 2 coming soon
  • How xAI turned a factory shell into an AI ‘Colossus’ for Grok 3
  • New Compute Partnership with Anthropic – xAI
  • Elon knew all of this of course. It wasn’t a mistake. He made …
  • Inside the Colossus: How NVIDIA and xAI Teamed Up to Build a Supercomputer for Grok 3
Tags: COMPUTERTECNOLOGIA
Tweet146Condividi234Invia
Bruno ARANZULLA

Bruno ARANZULLA

Bruno Aranzulla é um jornalista tech português especializado em atualidade digital, inteligência artificial, smartphones, ciência aplicada e automóvel conectado. Através da NetParceiro.pt, acompanha as inovações que estão a transformar o quotidiano dos leitores, com uma abordagem clara, acessível e focada nos usos reais. O seu trabalho editorial procura tornar a tecnologia mais compreensível, sem jargão desnecessário nem promessas exageradas. Interessa-se tanto pelos grandes lançamentos das marcas como pelas mudanças mais discretas que alteram a forma como trabalhamos, comunicamos, nos deslocamos e consumimos informação.

Artigos relacionados

Attualità

ChatGPT cambia tutto: arriva la memoria nei Projects anche per gli utenti gratis

15 Maggio 2026
Attualità

Honda rinuncia al tutto elettrico entro il 2040 e punta forte sugli ibridi

15 Maggio 2026
Attualità

Pneumatici più resistenti: gli scienziati spiegano finalmente il trucco centenario

15 Maggio 2026
Next Post

ChatGPT cambia tutto: arriva la memoria nei Projects anche per gli utenti gratis

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Computer Law segue le novità di tecnologia, IA, smartphone, scienza e automotive con una lettura semplice e diretta.
Ogni giorno mettiamo in evidenza le tendenze digitali che stanno cambiando l'Italia e il mondo.

Seguici

Ultimi articoli

ChatGPT cambia tutto: arriva la memoria nei Projects anche per gli utenti gratis

15 Maggio 2026

230 000 GPU e un accordo con Anthropic: xAI accelera la guerra dell’IA

15 Maggio 2026

Honda rinuncia al tutto elettrico entro il 2040 e punta forte sugli ibridi

15 Maggio 2026

Artigos populares

  • Google starebbe preparando i Googlebook per sostituire i Chromebook, con Android, Gemini e un’ambizione molto più premium

    586 shares
    Share 234 Tweet 147
  • Amazon lancia sconti fino all’85% prima del Prime Day, ma non tutto è davvero un affare

    586 shares
    Share 234 Tweet 147
  • La Cina prepara un robot operaio da 100 kg per costruire sulla Luna con strumenti umani

    586 shares
    Share 234 Tweet 147
  • Honda rinuncia al tutto elettrico entro il 2040 e punta forte sugli ibridi

    585 shares
    Share 234 Tweet 146
  • Chi siamo
  • Redazione
  • Scheda tecnica
  • Termini e Condizioni
  • Politica sui Cookie (UE)
  • Contatti

© 2026 Computer Law — Tutti i diritti riservati.

No Result
View All Result
  • Attualità
  • Elettronica
  • Scienza
  • IA
  • Mobilità
  • Economia

© 2026 Computer Law — Tutti i diritti riservati.