La cosiddetta intelligenza artificiale richiede potenze di elaborazione sempre crescenti. A eseguire queste elaborazioni pensano i microprocessori, nati ufficialmente all’inizio degli anni ‘70 e da allora andati sempre di più verso potenze e velocità crescenti. I microprocessori sono oggi composti da molte unità interne, dedicate a diversi tipi di elaborazione (lineare, parallela) e di memorizzazione. Molte aziende progettano questi chip, ma a produrne la maggior parte sono la taiwanese TSMC, la coreana Samsung e, da poco tempo, anche la statunitense Intel, che storicamente li produceva solo per sé.
I leader: Nvidia, AMD e l’outsider Tenstorrent
Si può essere leader per vari motivi, non solo per il mercato d’oggi. Certamente Nvidia va citata al primo posto, anche se molti divulgatori mainstream l’hanno conosciuta solo pochi mesi fa. Sono forti poi le aspettative di AMD, che anche per accordi commerciali (si parla di un parziale scambio per miliardi con Samsung tra GPU e memorie) va attesa con ansia.
Tra gli outsider che considerano in senso moderno i carichi GPU reali e la progressione dei chiplet, Tenstorrent sembra adatta a rappresentare l’orda dei design più aggressivi.

Cerebras WSE. Il processore di terza generazione WSE-3 è il più veloce che esista.
Nvidia passa dal 100 al 200
Nvidia è certamente l’azienda più nota nel mondo delle GPU per l’IA, grazie alla sua famiglia 100 (V100, A100, H100) e derivati. L’evento GTC 2024 ha portato alla luce moltissime innovazioni, a partire dalle GPU 200 della famiglia Blackwell, B100-B200-GB200 e soprattutto dell’NVLink di quinta generazione. Tipo, dimensione e velocità della memoria sono sempre più rilevanti oggi. Il confronto è tra le memorie. Le due famiglie principali di memorie sono oggi le GDDR, giunte alla versione 7, e le HBM, arrivate alla versione 3/3E; per entrambe sono in arrivo versioni migliorate, rispettivamente la 7+ e la 4.
In attesa di AMD MI350
La famiglia di AMD per l’AI è attualmente la Instinct MI300 (AMD). Comprende tre nomi di riferimento: 300, 300X e 300A (questo con processori x86) già disponibili, mentre c’è attesa per il futuro modello 350. Grande rilevanza stanno assumendo le memorie, sempre più rilevanti per l’esecuzione di carichi (specialmente di training, ma non solo).
L’MI300A, fino a poco fa il chip di riferimento, ha 128GB di memoria 8Hi HBM3, a 8 strati.
Il 6 dicembre 2023, però, è stato annunciato l’acceleratore MI300X come top di gamma per l’intelligenza artificiale e l’apprendimento automatico. MI300X ha 192GB di memoria con stack 12Hi HBM3.
Secondo la società di ricerche di mercato TrendForce, Amd prevede di introdurre le versioni aggiornate dei suoi processori della serie Instinct MI300 per AI e HPC nella seconda metà del 2024. Si prevede che i prodotti rinnovati della serie Instinct, a partire dall’MI350, adotteranno un nodo di processo più sofisticato e una configurazione di memoria aggiornata. La dicitura “nodo di processo” sostituisce la classica definizione di transistor, perché costruzioni e metriche dei vari produttori (TSMC, Samsung ed Intel) non sono direttamente confrontabili, per cui il nodo di processo a 3nm del produttore A potrebbe essere equivalente al nodo di processo da 1,6nm del produttore B.
Tenstorrent: Grendel all’arrembaggio
Nel frattempo si sta facendo strada una alternativa particolarmente interessante. L’azienda canadese si sente particolarmente forte nella gestione dei chiplet. Il suo Quasar includerà la tecnologia AI (Tensix). Invece Ascalon, la CPU superscalare basata su Risc-V ad alte prestazioni, sarà disponibile nella sua propria forma di chiplet con il nome Aegis. Quasar è noto per la sua matrice di almeno 80 core, potenzialmente basati su e per l’introduzione del core Greyskull, che rappresenta la sua prima generazione di prodotto.
Ma nel 2025 è attesa la rivoluzione di Grendel, la terza generazione di Tenstorrent.. I chiplet Aegis, invece, entreranno in un pacchetto di calcolo eterogeneo ad alte prestazioni chiamato Grendel.
Detto in altri termini: Quasar (chiplet IP Tensix) + Aegis (chiplet IP Risc-V) = Grendel (Modificato).
Altri chip con le spalle grosse
Il mercato è molto variegato e moltissime startup spingono per trovare spazio. Oltre a loro anche grandi realtà come Intel o… l’Europa promettono nuove soluzioni tra il 2025 e il 2026. E molte altre aziende hanno le loro soluzioni, più o meno note. Vediamone alcune.
Intel sgomita per rientrare
La mamma di tutti gli X86 sta cercando nuove strade, insieme allo stesso Governo Federale degli Stati Uniti, per riportare negli States la manifattura di chip conto terzi e lo sviluppo dei chip più avanzati al mondo. L’azienda è stata la prima ad acquistare il nuovo macchinario ad ultravioletti (al confine con i raggi X) prodotto dalla olandese ASML, con un accordo partito prima di eventuali altri con TSMC o Samsung.
Nel campo dei superchip AI, Intel ha anticipato Gaudi 3, un nuovo device più potente e meno energivoro di Nvidia H100. Presentato all’Intel Vision 2024, anche se con una nutrita serie di punti da confermare, le sue prestazioni garantirebbero a Gaudi 3 di competere ai massimi livelli.
La produzione del dispositivo è prevista con un nodo di processo a 5 nanometri, una tecnologia all’avanguardia che suggerisce l’uso iniziale di una fabbrica esterna. In aggiunta, Intel sta progettando una fabbrica per la produzione di chip AI in Ohio, prevista per il 2027 o 2028.

La European Processor Initiative
L’Unione Europea sta investendo molto in questo settore. Avendo stabilito di possedere il 10% del mercato mondiale (forse ottimisticamente), ha sviluppato un piano che porti il Vecchio Continente al 20% nel 2030. Al La strategia europea comprende anche l’indipendenza nel settore HPC, che dipende in buona parte dagli sviluppi della EPI, la European Processor Initiative. Il processore Rhea (che parte con matrici esistenti, Arm e Risc V) e gli acceleratori Epac dovrebbero confluire in un sistema exascale entro il 2026. Dopo bisognerà verificare quale foundry e con quale tecnologia si svilupperà un mercato europeo. Quale sarà la reale spinta -diretta ed indiretta- del Chips Act europeo lo scopriremo solo tra qualche anno.
Chip proprietari da Alibaba a Tesla
Molte grandi aziende, però, progettano in casa chip di varia potenza. Non mettendoli in vendita, non sono tenuti a dire come sono fatti, chi li produce e quanti ne hanno realizzati. Se non sappiamo molto dei chip di Tesla, sempre di più si viene a sapere dei prossimi mostri di Alibaba e Meta, mentre Google ed Amazon continuano a produrre chip solo per sé e i propri clienti.
Superdotati: half wafer e full wafer
I chip per l’AI sono di grandi dimensioni, rispetto a quelli usati nelle applicazioni standard. Il confronto tipico è con i modelli H100 o A100 di Nvidia, che ora ha rinnovato la gamma con il citato superchip Blackwell. I chip sono rettangoli di silicio lavorato, ritagliati all’interno d’una base molto più ampia. Ci sono però dispositivi grandi quasi quanto un quadrato inscritto nell’intero wafer, come la famiglia Cerebras: il suo Wafer Scale Engine 3 (WSE-3) è certamente il “chip” AI più potente al mondo.
Di grandi dimensioni è anche l’half-wafer Tachyum Prodigy, che unifica le funzionalità di CPU, GPU e TPU in un unico processore, o meglio in una soluzione multicore di ampie dimensioni.
I processori Tachyum sono costruiti in geometria 5nm. Sono disponibili in configurazioni da 32, 64, 96 e 128 core, con il Prodigy T16128-AIX come modello di punta. Un singolo sistema Prodigy con 1 Terabyte (TB) di memoria è in grado di eseguire un modello ChatGPT4 con 1.7 trilioni di parametri, secondo un white paper valuta in 52 GPU Nvidia H100 la potenza necessaria per gestire lo stesso modello, con costi e consumi energetici significativamente superiori.
Considerazioni geopolitiche
La necessaria diversificazione produttiva di TSMC al di fuori da Taiwan e la spinta di Intel alla manifattura conto terzi sta creando nuove opportunità per tutti, anche per la stessa Samsung. L’idea generale che l’attuale produzione di chip avanzati non sia economicamente matura sta creando effetti negativi su tutti i produttori. Anche i ban incrociati tra Cina e Stati Uniti stanno modificando il panorama giorno dopo giorno. Secondo Trendforce (9 aprile 2024), il ban ora include non solo i chip AI precedentemente limitati di Nvidia e Amd, come le serie Nvidia A100/H100 ed Amd MI250, ma anche la serie 300 (compresi 300X e 350), Nvidia e gli A800/H800 con tutta la prossima generazione le serie Blackwell B100, B200 e GB200.
Nel lungo termine, mentre gli Stati Uniti intendono bloccare l’accesso e lo sviluppo di tecnologie avanzate da parte della Cina, queste misure stanno accelerando i progressi della Cina nello sviluppo di chip IA e processi di produzione avanzati anche per chip di minori dimensioni.
La Russia, che deve aggiornarsi, sta disegnando nuovi chip da 128 core che verosimilmente produrranno in Cina. Lo stesso Paese di mezzo sta chiedendo a scuole e PA di usare desktop, notebook e tablet alimentati da chip di produzione nazionale. Anche nell’automotive, l’Europa potrebbe fronteggiare a breve un’ondata di simpatici chip a 30 nm o similari di prestazioni adeguate e costo molto ridotto. E per quanto riguarda i chip di fascia altissima, anche osservando le difficoltà di Biren e Cambrian, c’è da aspettarsi dalla Cina un avvicinamento a tappe forzate alla leadership progettuale statunitense. Nel frattempo, l’India spinge e gli Arabi investono.
Articoli correlati:


