Passa ai contenuti principali

QUANTO AI i capelli delle patatine.

→ CORNO DA NEBBIA - FOGHORN

QUANTO AI i capelli delle patatine.

foto web

Il parlamento francese discuterà una proposta di legge che affronta la “discriminazione razzista dei capelli” sul posto di lavoro che vede le persone con determinate acconciature perdere promozioni e posti di lavoro. 
Olivier Serva, il deputato dell'isola caraibica francese della Guadalupa, autore del disegno di legge, ha affermato che esso si è ispirato a una legislazione statunitense simile e mira a rendere un reato penale la discriminazione in base "al taglio, al colore, alla lunghezza o alla struttura dei capelli".  Fonte Telegraph.co.uk

Tra le notizie "a margine" del giorno sembra proprio che la Legge di Moore sia morta e che il paradigma informatico sta cambiando. L'informatica generale dominata dalle CPU si sta spostando verso l'elaborazione accelerata tramite GPU. Le GPU hanno molte opportunità per sostituire le CPU negli scenari industriali. L'intelligenza artificiale generativa ha  notevolmente accelerato questa tendenza.

NVIDIA ha colto l'opportunità dell'intelligenza artificiale generativa e ha lanciato un attacco completo, stabilendo un nuovo punto di riferimento per gli sfidanti grandi e piccoli. Il settore delle memorie si sta dando da fare  da quando Nvidia ha presentato il suo chip semiconduttore di intelligenza artificiale (AI) di nuova generazione "Blackwell". che è stata notevolmente ottimizzata per gli attuali modelli di grandi dimensioni AI popolari. Questo perché la forte concorrenza si è intensificata per fornire la memoria ad alta larghezza di banda (HBM), High Bandwidth Memory (in italiano traducibile come: Memoria a grande ampiezza di banda). la memoria principale dei chip AI.

Il valore di mercato di NVIDIA aumenterà di mille miliardi di dollari solo nel 2024, rendendolo il titolo con la migliore performance nell'indice S&P 500. Pertanto, il mercato sta prestando molta attenzione alle notizie relative a GTC. Il 18 marzo, le azioni statunitensi hanno chiuso a 884,55 dollari per azione, in crescita dello 0,7%.

Il produttore, senza eccessiva modestia, definisce il processore grafico Nvidia B200 il chip più potente al mondo. La nuova architettura GPU "Blackwell" prende il nome dal matematico americano David Harold Blackwell. Il chip GPU B200 basato su questa architettura utilizza il processo di produzione 4NP di TSMC. NVIDIA afferma di poter ottenere formazione AI e LLM (larga scala) in tempo reale su decine di trilioni di modelli di parametri (modello linguistico) ragionamento. Nell'elaborazione FP4 e FP8, la nuova GPU fornisce prestazioni rispettivamente fino a 20 e 10 Pflop. La nuova GPU è composta da due cristalli, prodotti utilizzando una versione speciale della tecnologia di processo TSMC 4NP a 4 nm e combinati con il packaging CoWoS-L 2.5D. Questa è la prima GPU di Nvidia con un layout chiplet. I chip sono collegati tramite un bus NV-HBI con un throughput di 10 TB/s e funzionano come un'unica GPU. In totale, il nuovo prodotto ha 208 miliardi di transistor.

Ai lati dei cristalli della GPU si trovano otto stack di memoria HBM3E con una capacità totale di 192 GB. Il suo throughput raggiunge gli 8 TB/s. E per combinare più acceleratori Blackwell in un unico sistema, la nuova GPU ha ricevuto il supporto per l'interfaccia NVLink di quinta generazione, che fornisce un throughput fino a 1,8 TB / s in entrambe le direzioni. Utilizzando questa interfaccia (switch NVSwitch 7.2T), è possibile combinare fino a 576 GPU in un unico bundle.  Così pare che Il mercato dei substrati di vetro per semiconduttori sia stato aperto. 

L’industria è in competizione per dominare il mercato dei substrati di vetro, che sono considerati substrati di prossima generazione e sono rapidamente emersi come il fulcro degli imballaggi avanzati. Rispetto ai materiali plastici (organici) esistenti, i substrati di vetro stanno attirando l’attenzione come substrati semiconduttori per il calcolo ad alte prestazioni come l’intelligenza artificiale (AI). A seconda della capacità produttiva e della tecnologia, si prevede che assumerà un ruolo guida nella futura catena di fornitura dei semiconduttori, attirando l'attenzione. Ci sono molte montagne da superare risulta che sia al  primo posto al mondo, non esiste alcun precedente per la produzione di massa. Poiché non esistono dati di processo esistenti, e si deve  iniziare da zero. Ciò significa che ci vuole tempo per garantire rendimenti e prestazioni stabili e si potrà passere alla produzione di massa solo dopo una continua verifica dell'affidabilità con i clienti.

NVIDIA è un “grande attore” nel settore HBM. NVIDIA domina il mercato dei semiconduttori AI, quindi se venisse adottata per i chip AI dell'azienda, la quota di mercato di HBM potrebbe aumentare in modo significativo. Ora Nvidia offre formazione sull’intelligenza artificiale in formato FP8 e FP4 è sufficiente per eseguire reti neurali addestrate. Tieni presente che Blackwell supporta un'ampia varietà di formati, inclusi FP4, FP6, FP8, INT8, BF16, FP16, TF32 e FP64. E in tutti i casi tranne l'ultimo è disponibile il supporto per l'elaborazione sparsa.  

L’acceleratore di punta della nuova architettura sarà il Nvidia Grace Blackwell Superchip, che combina una coppia di GPU B200 e un processore Arm centrale Nvidia Grace con 72 core Neoverse V2. Questo acceleratore è largo la metà di un server rack e ha un TDP fino a 2,7 kW. Le prestazioni nelle operazioni FP4 raggiungono i 40 Pflop, mentre nelle operazioni FP8/FP6/INT8 il nuovo GB200 è in grado di fornire 10 Pflop.

Come nota la stessa Nvidia, il nuovo prodotto fornisce un aumento di prestazioni di 30 volte rispetto a Nvidia H100 per carichi di lavoro associati a modelli linguistici di grandi dimensioni ed è fino a 25 volte più conveniente ed efficiente dal punto di vista energetico.

https://www.nvidia.com/it-it/

NVIDIA ha inoltre rilasciato GB200 NVL72, che integra le più recenti conquiste di NVIDIA in termini di GPU, DPU, NVLink e altre tecnologie nelle soluzioni hardware per data center per formare il motore alla base della gestione di modelli linguistici di grandi dimensioni.  GB200 NVL72 è entrato nel cloud ed è diventato un'istanza di elaborazione per i fornitori di cloud. Nel suo discorso, Huang Renxun ha lanciato anche il servizio cloud AI DGX Cloud dotato di GPU B100. Attraverso la cooperazione con le piattaforme dei fornitori cloud, fornisce agli utenti servizi di noleggio mensile di potenza di calcolo in grado di addestrare grandi modelli di intelligenza artificiale generativa e altre applicazioni di intelligenza artificiale. Il servizio sarà lanciato inizialmente su Amazon Cloud, Microsoft Azure e Oracle Cloud.  La GPU B200 sarà lanciata entro la fine dell'anno e Nvidia ha affermato che Amazon Cloud Technology, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla e xAI pianificheranno di utilizzare i prodotti Blackwell.

Anche la piattaforma robotica Isaac di Nvidia per il mercato dei robot ha ricevuto importanti aggiornamenti, incluso il rilascio di un nuovo computer robot umanoide Jetson Thor basato su chip Thor, nonché una serie di modelli di pre-addestramento dei robot, librerie e hardware di riferimento, in termini di modelli base di intelligenza artificiale generativa e Con il supporto di strumenti di simulazione e della potenza di calcolo NVIDIA, le applicazioni dei robot umanoidi possono essere ulteriormente ottimizzate.  Jetson Thor fornisce 800 trilioni di operazioni al secondo di prestazioni IA a virgola mobile a 8 bit, può eseguire modelli IA generativi multimodali come GR00T e semplifica notevolmente il lavoro di progettazione e integrazione.

Nvidia ha affermato che sta sviluppando una piattaforma AI completa per una serie di aziende di robot umanoidi, come 1X Technologies, Agility Robotics, Apptronik, Boston Dynamics, Figure AI, Fourier Intelligence, Sanctuary AI, Yushu Technology e Xiaopeng Pengxing.

Lo sviluppo di un modello di base di un robot umanoide universale è uno degli argomenti più interessanti nel campo dell'intelligenza artificiale oggi. I leader della robotica di tutto il mondo stanno riunendo varie tecnologie abilitanti per raggiungere scoperte nel campo dei robot universali artificiali."

Nel campo dell'informatica quantistica, NVIDIA ha annunciato il lancio di un microservizio di simulazione cloud di computer quantistici per aiutare ricercatori e sviluppatori a condurre ricerche sull'informatica quantistica in chimica, biologia, scienza dei materiali e altri campi scientifici. Il servizio è basato sul software open source CUDA-Q piattaforma di calcolo quantistico e supporta gli utenti. Costruisci e testa nuovi algoritmi e applicazioni quantistici nel cloud, inclusi simulatori e strumenti che supportano la programmazione di algoritmi ibridi quantistici-classici. A differenza di altri servizi cloud, Nvidia attualmente non dispone di computer quantistici, ma in futuro fornirà l’accesso a computer quantistici di terze parti.

Nel campo della medicina, NVIDIA ha annunciato che i suoi prodotti, tra cui Parabricks, MONAI, NeMo™, Riva e Metropolis, sono ora accessibili tramite i microservizi CUDA-X per accelerare i flussi di lavoro medici come lo sviluppo di farmaci, l'imaging medico e l'analisi genomica.

NVIDIA ha inoltre annunciato di aver lanciato 25 microservizi per il settore medico, che possono accelerare la trasformazione delle imprese mediche, compreso lo screening di trilioni di composti farmaceutici per promuovere lo sviluppo medico, la raccolta di dati più completi sui pazienti per migliorare il rilevamento precoce delle malattie e la realizzazione di assistenti digitali più intelligenti. e altro ancora.

S.e.& 0. Fonte AI diversi. 

-mm-


Commenti