"La domanda supera l'offerta" è il tema d'investimento AI di massima priorità, mentre interconnessioni ottiche e chip di archiviazione sono considerate le tecnologie di frontiera più solide nel settore tech.
Secondo quanto riportato da Sinolink Securities, il colosso finanziario europeo BNP Paribas ha pubblicato questa settimana un nuovo rapporto di ricerca nel quale afferma che, prima della pubblicazione ufficiale dei risultati finanziari del primo trimestre da parte dei leader mondiali della tecnologia, la costruzione intensiva dei mega data center AI sta alimentando una domanda senza precedenti di tecnologie di interconnessione ottica e di chip di memoria, due traiettorie di investimento tecnologico che l’istituto europeo considera le più promettenti—che si tratti di cluster infrastrutturali Nvidia AI GPU o di cluster Google TPU (dove TPU rappresenta il percorso tecnologico degli AI ASIC), nessuno può prescindere da dispositivi di interconnessione ottica all’avanguardia e da chip di memoria ad alte prestazioni di livello data center.
BNP Paribas sottolinea che Arista Networks (ANET.US), Fabrinet (FN.US) e Ciena (CIEN.US), attivi nei settori delle interconnessioni ottiche per data center AI/DCI/comunicazioni ottiche coerenti/trasmissione ottica, sono le azioni tecnologiche strettamente legate all’infrastruttura AI che l’istituto preferisce alla vigilia della stagione degli utili delle big tech, principalmente perché gli investitori stanno allocando con priorità assoluta verso le azioni dei componenti hardware più fondamentali per i data center AI, categorie costantemente in deficit di offerta, come le tecnologie di interconnessione ottica e, altra tematica d’investimento preferita da BNP Paribas, i chip di memoria, che beneficiano anch’essi del boom delle infrastrutture AI.
Altri titoli tecnologici statunitensi raccomandati da BNP Paribas prima della stagione degli utili includono Celestica (CLS.US), Seagate (STX.US), Broadcom (AVGO.US), Credo (CRDO.US), MACOM (MTSI.US), Coherent (COHR.US) e Marvell Technology (MRVL.US), che si sono messi in evidenza grazie alla persistente domanda trainata dall'AI; e l’istituto stima per Broadcom un target price nei prossimi 12 mesi fino a 600 dollari; a chiusura di mercoledì, il titolo del colosso tecnologico è salito di oltre il 4% raggiungendo i 396,720 dollari.
“Offerta insufficiente” come priorità massima
Karl Ackerman, analista senior della divisione ricerca azionaria di BNP Paribas, ha dichiarato nell’ultimo report agli investitori: “La tematica degli investimenti nelle infrastrutture AI si sta ulteriormente rafforzando proprio prima della stagione degli utili, dimostrando che i mercati stanno ignorando le turbolenze geopolitiche e stanno invece rivoluzionando l’attenzione verso le aspettative di crescita senza precedenti dei risultati di alcuni protagonisti tecnologici, guidate dallo storico boom delle infrastrutture AI”.
Tuttavia, rispetto ai server AI e all’hardware di rete Ethernet ad alte prestazioni, gli investitori oggi stanno preferendo posizionarsi su quei componenti dei data center in perenne deficit di offerta che probabilmente rimarranno scarsi nei prossimi due anni — come le memorie IC e i componenti ottici core. “Stiamo rivedendo al rialzo le previsioni di crescita di diverse xPU, il che ci porta ad aumentare anche le stime per switch di rete ad alte prestazioni,switch HBM e transceiver ottici, nonché i target price delle società tecnologiche che seguiamo. Rimaniamo molto ottimisti sulle aree di memoria e ottica, come gli HDD, i moduli ottici, i CPO e i componenti OCS.” ha dichiarato Ackerman.
BNP Paribas prevede attualmente che, entro il 2028, il mercato totale degli switch per grandi data center e dei transceiver ottici supererà i 140 miliardi di dollari.
Lumentum (LITE.US), partner chiave della “catena di potenza AI TPU di Google” e fornitore irrinunciabile di componenti ottici/moduli ottici per la “catena di potenza AI GPU Nvidia e AMD”, ha annunciato recentemente che gli ordini dell’azienda potrebbero essere prenotati fino al 2028, con Nvidia che ha già prenotato la maggior parte della capacità produttiva impegnando 2 miliardi di dollari.
Michael Heerston, CEO di Lumentum, ha dichiarato che i capitali destinati alle spese dai cloud provider statunitensi su larga scala sono elevatissimi e la crescita non sembra destinata a fermarsi: “Stiamo accumulando ritardi rispetto alla domanda. Si prevede che entro due trimestri l’intera capacità produttiva fino alla fine del 2028 sarà esaurita.”
Ackerman aggiunge: “La nostra profonda analisi su oltre 50 SKU di DRAM e oltre 75 SKU di NAND per i prezzi contrattuali del primo trimestre ci porta a prevedere che, trainato dall’intensa domanda di server AI, il prezzo medio contrattuale della DRAM nel primo trimestre aumenterà fino al 90% rispetto al trimestre precedente, con un ulteriore incremento stimato conservativamente del 24% nel secondo trimestre.” “Per le NAND, prevediamo che, sostenute da una favorevole allocazione di bit nei prodotti enterprise e da una cauta espansione della capacità, il prezzo medio contrattuale aumenterà dell’80% nel primo trimestre, e di un ulteriore 30% nel secondo trimestre. Secondo noi, le dinamiche di offerta e domanda degli HDD sono le più sostenibili, mentre con l’adozione su larga scala della tecnologia HAMR da 40TB nella seconda metà del 2026, i margini di profitto di Seagate dovrebbero superare ampliamente quelli dei concorrenti.”
Al momento, la previsione chiave di Wall Street sulla dinamica della domanda e offerta di chip di memoria è che il mismatch tra offerta e domanda di memoria HBM/NAND potrebbe protrarsi fino al 2028, e il mercato sta ancora sottostimando il potenziale di crescita degli utili dei produttori di memoria di questo ciclo. È proprio per questo che il titolo Sandisk è salito notevolmente dall’inizio del 2026, registrando una rivalutazione record nell’ultimo anno— fenomeno non guidato semplicemente dall’emotività, ma piuttosto dalla rivalutazione del valore della “capacità di pricing guidata dall’AI per la memoria”. Nel corso del 2025, il titolo Sandisk è cresciuto di un incredibile 580%, e sta continuando il rally “mitologico” delle memorie anche quest’anno, con un ulteriore aumento del 300% dall’inizio dell’anno, confermandosi senza dubbio la “super blue-chip” del tema infrastrutturale AI nei mercati azionari mondiali.
Interconnessione ottica e memoria: i maggiori beneficiari del boom AI! Che sia la tecnologia GPU Nvidia o TPU Google a prevalere, continueranno a dettare il trend del mercato toro
Quello che viene esaltato dai data center AI non è solo la domanda di calcolo, ma la necessità di spostare efficientemente i dati tra diversi rack, pod e cluster. Quando un cluster cresce da decine di migliaia a dimensioni maggiori di GPU/TPU AI accelerator, il collo di bottiglia si sposta rapidamente dalle singole prestazioni dei chip verso la larghezza di banda di rete, latenza e consumo energetico; questo è esattamente ciò su cui Broadcom, Coherent e Lumentum—leader dell’interconnessione ottica per data center—hanno posto l’accento all’OFC 2026: dalla chip switching da 102.4T ai DSP ottici da 400G/lane, fino ai moduli ottici da 1.6T e oltre 3.2T, tutto serve a risolvere il problema del “muro della banda” e “muro dell’efficienza energetica” dei super cluster AI.
Nei super cluster AI composti da gruppi di potenza TPU e GPU, esiste una caratteristica comune: necessitano di una larghezza di banda elevatissima, latenza bassissima ed efficienza energetica massima per le interconnessioni interne del data center.Le tradizionali soluzioni su rame o switching elettronico, quando scalate a migliaia o decine di migliaia di chip, diventano insostenibili per via dell’explosione dei consumi energetici e delle perdite di calore; le tecnologie di interconnessione ottica (soprattutto CPO co-packaged optics, switch ottici fotonici, optical circuit switching OCS) consentono di sostituire il segnale elettrico con quello ottico, incrementando così densità di banda e efficienza energetica nei cluster di training/inferenza AI su vasta scala e riducendo al contempo latenza e consumo, esigenza fondamentale sia per i cluster GPU sia TPU.
Le ultime uscite di prodotto di Broadcom, Coherent e Lumentum, tre giganti dell’ottica, convergono su un punto: 1.6T è ormai prossima alla produzione di massa dopo essere passata dalla fase di ricerca e sviluppo, il 400G/lane sta diventando la base per approdare a moduli ottici da 3.2T, 12.8T e cluster AI ancora più grandi; le tecnologie più rappresentative della “scienza ottica”—cioè CPO e OCS—si stanno trasformando passo passo da opzioni a requisiti necessari per l’AI fabric, ovvero architetture di rete ad alte prestazioni ottimizzate per i carichi di lavoro dei data center di intelligenza artificiale.
Il “super ciclo delle memorie” è diventato una delle linee guida d’investimento più solide nel boom dell’AI, perché HBM/DRAM/NAND si stanno velocemente trasformando da beni ciclici a vincoli strutturali più scarsi per l’espansione della capacità di calcolo. Secondo le ultime valutazioni di BNP Paribas, prima della stagione degli utili, i capitali stanno privilegiando le memorie IC e l’ottica—temi ancora in penuria di offerta—piuttosto che rincorrere soltanto i chip di calcolo AI; secondo TrendForce, il prezzo contrattuale della DRAM per server dovrebbe crescere del 90% trimestre su trimestre nel primo trimestre 2026, raggiungendo livelli record, mentre il gigante della memoria SK Hynix evidenzia come il boom dell’AI stia spingendo al rialzo sia i prezzi delle memorie avanzate che quelle tradizionali, portando i profitti trimestrali ai massimi storici.
Per quanto potente sia la potenza di calcolo di GPU/TPU, senza la larghezza di banda fornita dall’HBM, senza la NAND enterprise e HDD ad alta capienza per gestire checkpoint di training, database vettoriali e data lake per l’inferenza, l’intera efficienza di utilizzo dei cluster e dei carichi di lavoro AI resta limitata; di conseguenza, i mercati finanziari mondiali sono disposti a riconoscere valutazioni più elevate alla filiera della memoria, in quanto beneficia simultaneamente di “aumento quantitativo + rialzo dei prezzi + offerta limitata a lungo termine”, non soltanto dalla crescita dei volumi di vendita.
Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.
Ti potrebbe interessare anche
DUCK (DuckChain) oscilla del 40,6% in 24 ore: bassa liquidità amplifica il volume delle transazioni
In tendenza
AltroOscillazione del 46,5% per TRADOOR nelle ultime 24 ore: correzione dopo una speculativa impennata guidata dall'attività delle balene e dal boom delle transazioni su DEX
Il Dipartimento di Giustizia degli Stati Uniti termina l'indagine sul superamento dei costi della ristrutturazione della Federal Reserve, eliminando gli ostacoli alla conferma di Walsh

