Cipul său A100 are cea mai rapidă lățime de bandă de memorie din lume, cu peste 2 terabytes pe secundă (TB/s).
Modelele de limbaj avansate alimentate de inteligența artificială au luat cu asalt industria tehnologiei în ultimul timp. Platforme precum Google și Microsoft se luptă pentru a integra capabilitățile AI în motoarele lor de căutare, după ce modelul revoluționar al OpenAI, ChatGPT, a deschis calea în integrarea AI pentru a produce rezultate remarcabile.
Modelele de inteligență artificială devin extrem de complexe pe măsură ce preiau provocări de nivel următor, cum ar fi inteligența artificială conversațională. Astfel de platforme au nevoie de o putere imensă de calcul și procesare pentru sarcinile de lucru AI, ML și de analiză a datelor.
Cele mai multe dintre aceste modele de limbaj folosesc cipul A100 de ultimă generație de la NVIDIA, care este alimentat de arhitectura sa Ampere, cipul acționând ca motor al platformei centrului de date NVIDIA.
„AI se află într-un punct de inflexiune, pregătindu-se pentru o adoptare largă, ajungând în fiecare industrie. De la startup-uri la întreprinderile majore, observăm un interes accelerat pentru versatilitatea și capacitățile AI generative”, a declarat Jensen Huang, fondator și CEO al NVIDIA, în un comunicat de presă.
Pe fondul cererii reînnoite pentru cipurile sale AI, firma a anunțat recent venituri de 6,05 miliarde de dolari pentru al patrulea trimestru încheiat la 29 ianuarie 2023, în creștere cu 2% față de trimestrul precedent.
NVIDIA susține că A100-ul său de 10.000 USD oferă performanțe de până la 20 de ori mai mari decât generația anterioară și poate fi împărțit în șapte instanțe GPU pentru a se adapta dinamic la cerințele în schimbare.
Variantele avansate sunt disponibile în versiuni de memorie de 40 GB și 80 GB. Firma susține că A100 80GB „debutează cea mai rapidă lățime de bandă de memorie din lume la peste 2 terabytes pe secundă (TB/s) pentru a rula cele mai mari modele și seturi de date”.
Potrivit companiei, gama sa de soluții de calcul asigură „implementarea, gestionarea și scalarea rapidă a sarcinilor de lucru AI în cloudul hibrid modern”.
Firma colaborează cu furnizori de top de servicii cloud pentru a oferi AI-as-a-service care oferă întreprinderilor acces la platforma AI a NVIDIA.
„Clienții vor putea angaja fiecare strat de AI NVIDIA – supercomputerul AI, software-ul de biblioteci de accelerare sau modelele AI generative pre-antrenate – ca serviciu cloud”, a spus firma într-o postare pe blog.
Firmele care îi folosesc serviciile vor putea să angajeze un supercomputer NVIDIA DGX™ AI prin NVIDIA DGX Cloud, care este „oferit deja pe Oracle Cloud Infrastructure, cu Microsoft Azure, Google Cloud Platform și altele așteptate în curând”.
Serviciul va permite, de asemenea, clienților să acceseze NVIDIA AI Enterprise pentru instruire și implementare sau alte sarcini de lucru AI. În plus, NVIDIA va oferi clienților modelele AI personalizabile NeMo și BioNeMo.
Compania consideră că gama sa de soluții este ideală pentru aplicații precum modelarea limbajului, sisteme de recomandare, segmentarea imaginilor, traduceri, detectarea obiectelor, recunoașterea automată a vorbirii, text-to-speech și calculul de înaltă performanță.
Articol de Răzvan Lupu