IA: perché il 2026 sarà decisivo per i colossi dei chip

13 ore fa 3

AGI - Il boom dell'intelligenza artificiale ha spinto nel 2025 i colossi dei semiconduttori oltre 400 miliardi di dollari di ricavi complessivi, l'anno record per i chip, e le stime indicano un 2026 potenzialmente ancora più importante. Il ritmo di crescita, alimentato da una domanda di potenza di calcolo definita "insaziabile" da manager e analisti, sta però creando una serie di attriti: carenze di componenti, vincoli infrastrutturali e interrogativi su quanto a lungo le società dell'AI riusciranno a finanziare acquisti di hardware a questi livelli.

Al centro, secondo quanto scrive il Wall Street Journal, resta Nvidia, che ha più che raddoppiato i ricavi anno su anno e continua a essere il fornitore chiave di questa corsa all'oro digitale. Ma la concorrenza si intensifica: Google e Amazon spingono chip proprietari (TPU, Trainium e Inferentia) per ridurre la dipendenza dalle GPU, mentre cresce anche la tendenza di alcuni clienti a progettare soluzioni su misura con partner come Broadcom.

La competizione si sposta: dal training all'inference

La competizione, inoltre, si sta spostando dal training all'inference, la fase in cui i modelli già addestrati producono risposte: qui vince chi offre il miglior mix tra velocità e costi. Le previsioni restano aggressive. Secondo stime di Goldman Sachs, Nvidia potrebbe arrivare a vendere 383 miliardi di dollari tra GPU e altro hardware nel 2026, mentre le stime FactSet indicano ricavi combinati oltre 538 miliardi per Nvidia, Intel, Broadcom, AMD e Qualcomm (senza includere le attività chip di Google e Amazon, non scorporate nei conti). In parallelo, la domanda potrebbe trovare ulteriore sostegno dai piani di espansione dei data center: Microsoft ha indicato l'intenzione di raddoppiare l'impronta infrastrutturale nei prossimi due anni. Tuttavia, la crescita non è solo una questione di ordini, ma di capacità fisica di costruire e alimentare i data center.

Carenze di componenti e vincoli energetici

Si segnalano carenze di componenti per l'infrastruttura (trasformatori elettrici, turbine), difficoltà a garantire l'energia necessaria e shortage di parti per i server IA. In particolare, l'inference tende a essere più "memory-bound" del training: aumenta la pressione su memorie ad alta banda (HBM) e su materiali avanzati come i substrati sottili, con effetti a cascata su prezzi e tempi di consegna. La crescita non è solo una questione di ordini, ma di capacità fisica di costruire e alimentare i data center.

Sostenibilità finanziaria e il test del 2026

Restano poi le domande sul lato finanziario: una parte rilevante del build-out è sostenuta da accordi plurimiliardari tra AI lab e hyperscaler, ma il mercato è diventato sensibile a qualsiasi segnale di rallentamento della raccolta di capitali o di compressione dei margini. In questo, scrive il Wall Street Journal, il 2026 potrebbe essere un altro anno record ma, allo stesso tempo, anche un test sul doppio binario degli approvvigionamenti e della sostenibilità della spesa, con il rischio che il boom perda slancio se la finanza non tiene il passo dell'infrastruttura.

Leggi l'intero articolo