→ CORNO DA NEBBIA - FOGHORN
QUANTO AI i capelli delle patatine.
foto web |
Il parlamento francese discuterà una proposta di legge che affronta la “discriminazione razzista dei capelli” sul posto di lavoro che vede le persone con determinate acconciature perdere promozioni e posti di lavoro. Olivier Serva, il deputato dell'isola caraibica francese della Guadalupa, autore del disegno di legge, ha affermato che esso si è ispirato a una legislazione statunitense simile e mira a rendere un reato penale la discriminazione in base "al taglio, al colore, alla lunghezza o alla struttura dei capelli". Fonte Telegraph.co.uk
Tra le notizie "a margine" del giorno sembra proprio che la Legge di
Moore sia morta e che il paradigma informatico sta cambiando. L'informatica
generale dominata dalle CPU si sta spostando verso l'elaborazione accelerata
tramite GPU. Le GPU hanno molte opportunità per sostituire le CPU negli scenari
industriali. L'intelligenza artificiale generativa ha notevolmente accelerato questa tendenza.
NVIDIA ha colto l'opportunità dell'intelligenza artificiale
generativa e ha lanciato un attacco completo, stabilendo un nuovo punto di
riferimento per gli sfidanti grandi e piccoli. Il settore delle memorie si sta
dando da fare da quando Nvidia ha
presentato il suo chip semiconduttore di intelligenza artificiale (AI) di nuova
generazione "Blackwell". che è stata notevolmente ottimizzata per gli
attuali modelli di grandi dimensioni AI popolari. Questo perché la forte
concorrenza si è intensificata per fornire la memoria ad alta larghezza di
banda (HBM), High Bandwidth Memory (in italiano traducibile come: Memoria a
grande ampiezza di banda). la memoria principale dei chip AI.
Il valore di mercato di NVIDIA aumenterà di mille miliardi
di dollari solo nel 2024, rendendolo il titolo con la migliore performance
nell'indice S&P 500. Pertanto, il mercato sta prestando molta attenzione
alle notizie relative a GTC. Il 18 marzo, le azioni statunitensi hanno chiuso a
884,55 dollari per azione, in crescita dello 0,7%.
Il produttore, senza eccessiva modestia, definisce il
processore grafico Nvidia B200 il chip più potente al mondo. La nuova
architettura GPU "Blackwell" prende il nome dal matematico americano
David Harold Blackwell. Il chip GPU B200 basato su questa architettura utilizza
il processo di produzione 4NP di TSMC. NVIDIA afferma di poter ottenere
formazione AI e LLM (larga scala) in tempo reale su decine di trilioni di
modelli di parametri (modello linguistico) ragionamento. Nell'elaborazione FP4
e FP8, la nuova GPU fornisce prestazioni rispettivamente fino a 20 e 10 Pflop.
La nuova GPU è composta da due cristalli, prodotti utilizzando una versione
speciale della tecnologia di processo TSMC 4NP a 4 nm e combinati con il packaging
CoWoS-L 2.5D. Questa è la prima GPU di Nvidia con un layout chiplet. I chip
sono collegati tramite un bus NV-HBI con un throughput di 10 TB/s e funzionano
come un'unica GPU. In totale, il nuovo prodotto ha 208 miliardi di transistor.
Ai lati dei cristalli della GPU si trovano otto stack di memoria HBM3E con una capacità totale di 192 GB. Il suo throughput raggiunge gli 8 TB/s. E per combinare più acceleratori Blackwell in un unico sistema, la nuova GPU ha ricevuto il supporto per l'interfaccia NVLink di quinta generazione, che fornisce un throughput fino a 1,8 TB / s in entrambe le direzioni. Utilizzando questa interfaccia (switch NVSwitch 7.2T), è possibile combinare fino a 576 GPU in un unico bundle. Così pare che Il mercato dei substrati di vetro per semiconduttori sia stato aperto.
L’industria è in competizione per
dominare il mercato dei substrati di vetro, che sono considerati substrati di
prossima generazione e sono rapidamente emersi come il fulcro degli imballaggi
avanzati. Rispetto ai materiali plastici (organici) esistenti, i substrati di
vetro stanno attirando l’attenzione come substrati semiconduttori per il
calcolo ad alte prestazioni come l’intelligenza artificiale (AI). A seconda
della capacità produttiva e della tecnologia, si prevede che assumerà un ruolo
guida nella futura catena di fornitura dei semiconduttori, attirando
l'attenzione. Ci sono molte montagne da superare risulta che sia al primo posto al mondo, non esiste alcun
precedente per la produzione di massa. Poiché non esistono dati di processo
esistenti, e si deve iniziare da zero.
Ciò significa che ci vuole tempo per garantire rendimenti e prestazioni stabili
e si potrà passere alla produzione di massa solo dopo una continua verifica
dell'affidabilità con i clienti.
NVIDIA è un “grande attore” nel settore HBM. NVIDIA domina
il mercato dei semiconduttori AI, quindi se venisse adottata per i chip AI
dell'azienda, la quota di mercato di HBM potrebbe aumentare in modo
significativo. Ora Nvidia offre formazione sull’intelligenza artificiale in
formato FP8 e FP4 è sufficiente per eseguire reti neurali addestrate. Tieni
presente che Blackwell supporta un'ampia varietà di formati, inclusi FP4, FP6,
FP8, INT8, BF16, FP16, TF32 e FP64. E in tutti i casi tranne l'ultimo è
disponibile il supporto per l'elaborazione sparsa.
L’acceleratore di punta della nuova architettura sarà il
Nvidia Grace Blackwell Superchip, che combina una coppia di GPU B200 e un
processore Arm centrale Nvidia Grace con 72 core Neoverse V2. Questo
acceleratore è largo la metà di un server rack e ha un TDP fino a 2,7 kW. Le
prestazioni nelle operazioni FP4 raggiungono i 40 Pflop, mentre nelle
operazioni FP8/FP6/INT8 il nuovo GB200 è in grado di fornire 10 Pflop.
Come nota la stessa Nvidia, il nuovo prodotto fornisce un
aumento di prestazioni di 30 volte rispetto a Nvidia H100 per carichi di lavoro
associati a modelli linguistici di grandi dimensioni ed è fino a 25 volte più
conveniente ed efficiente dal punto di vista energetico.
NVIDIA ha inoltre rilasciato GB200 NVL72, che integra le più
recenti conquiste di NVIDIA in termini di GPU, DPU, NVLink e altre tecnologie
nelle soluzioni hardware per data center per formare il motore alla base della
gestione di modelli linguistici di grandi dimensioni. GB200 NVL72 è entrato nel cloud ed è
diventato un'istanza di elaborazione per i fornitori di cloud. Nel suo
discorso, Huang Renxun ha lanciato anche il servizio cloud AI DGX Cloud dotato
di GPU B100. Attraverso la cooperazione con le piattaforme dei fornitori cloud,
fornisce agli utenti servizi di noleggio mensile di potenza di calcolo in grado
di addestrare grandi modelli di intelligenza artificiale generativa e altre
applicazioni di intelligenza artificiale. Il servizio sarà lanciato
inizialmente su Amazon Cloud, Microsoft Azure e Oracle Cloud. La GPU B200 sarà lanciata entro la fine
dell'anno e Nvidia ha affermato che Amazon Cloud Technology, Dell Technologies,
Google, Meta, Microsoft, OpenAI, Oracle, Tesla e xAI pianificheranno di
utilizzare i prodotti Blackwell.
Anche la piattaforma robotica Isaac di Nvidia per il mercato
dei robot ha ricevuto importanti aggiornamenti, incluso il rilascio di un nuovo
computer robot umanoide Jetson Thor basato su chip Thor, nonché una serie di
modelli di pre-addestramento dei robot, librerie e hardware di riferimento, in
termini di modelli base di intelligenza artificiale generativa e Con il
supporto di strumenti di simulazione e della potenza di calcolo NVIDIA, le
applicazioni dei robot umanoidi possono essere ulteriormente ottimizzate. Jetson Thor fornisce 800 trilioni di
operazioni al secondo di prestazioni IA a virgola mobile a 8 bit, può eseguire
modelli IA generativi multimodali come GR00T e semplifica notevolmente il
lavoro di progettazione e integrazione.
Nvidia ha affermato che sta sviluppando una piattaforma AI
completa per una serie di aziende di robot umanoidi, come 1X Technologies,
Agility Robotics, Apptronik, Boston Dynamics, Figure AI, Fourier Intelligence,
Sanctuary AI, Yushu Technology e Xiaopeng Pengxing.
Lo sviluppo di un modello di base di un robot umanoide
universale è uno degli argomenti più interessanti nel campo dell'intelligenza
artificiale oggi. I leader della robotica di tutto il mondo stanno riunendo
varie tecnologie abilitanti per raggiungere scoperte nel campo dei robot
universali artificiali."
Nel campo dell'informatica quantistica, NVIDIA ha annunciato
il lancio di un microservizio di simulazione cloud di computer quantistici per
aiutare ricercatori e sviluppatori a condurre ricerche sull'informatica
quantistica in chimica, biologia, scienza dei materiali e altri campi
scientifici. Il servizio è basato sul software open source CUDA-Q piattaforma
di calcolo quantistico e supporta gli utenti. Costruisci e testa nuovi
algoritmi e applicazioni quantistici nel cloud, inclusi simulatori e strumenti
che supportano la programmazione di algoritmi ibridi quantistici-classici. A
differenza di altri servizi cloud, Nvidia attualmente non dispone di computer
quantistici, ma in futuro fornirà l’accesso a computer quantistici di terze
parti.
Nel campo della medicina, NVIDIA ha annunciato che i suoi
prodotti, tra cui Parabricks, MONAI, NeMo™, Riva e Metropolis, sono ora
accessibili tramite i microservizi CUDA-X per accelerare i flussi di lavoro
medici come lo sviluppo di farmaci, l'imaging medico e l'analisi genomica.
NVIDIA ha inoltre annunciato di aver lanciato 25
microservizi per il settore medico, che possono accelerare la trasformazione
delle imprese mediche, compreso lo screening di trilioni di composti
farmaceutici per promuovere lo sviluppo medico, la raccolta di dati più
completi sui pazienti per migliorare il rilevamento precoce delle malattie e la
realizzazione di assistenti digitali più intelligenti. e altro ancora.
S.e.& 0. Fonte AI diversi.
-mm-
Commenti
Posta un commento