Nvidia tocmai a dezvăluit viitorul tehnologiei care a făcut-o cea mai valoroasă companie din lume
Nvidia a oferit o privire mai detaliată asupra noii sale platforme de calcul pentru centrele de date dedicate inteligenței artificiale, Vera Rubin, o lansare care ar putea avea consecințe majore pentru viitorul IA, în condițiile în care industria depinde masiv de tehnologia companiei, scrie CNN.
Nvidia anunțase anterior câteva informații despre Vera Rubin, însă luni, la conferința CES din Las Vegas, unde are loc cel mai mare salon internațional de gadgeturi și tehnologie din lume, a explicat în detaliu modul de funcționare al sistemului și calendarul de lansare.
Platforma se află deja în producție, iar primele produse bazate pe Vera Rubin vor ajunge pe piață în a doua jumătate a anului 2026, potrivit companiei.
Nvidia a devenit simbolul exploziei inteligenței artificiale, omniprezența cipurilor și platformelor sale propulsând compania, pentru scurt timp anul trecut, la statutul de prima firmă din lume evaluată la 5.000 de miliarde de dolari.
În același timp însă, Nvidia se confruntă cu temeri tot mai mari legate de o posibilă bulă AI, alimentate de creșterea concurenței și de eforturile marilor companii tech de a-și produce propriile cipuri pentru a reduce dependența de Nvidia.
De unde vin banii
Directorul general Jensen Huang, îmbrăcat în binecunoscuta sa jachetă de piele, a abordat frontal una dintre întrebările-cheie ale dezbaterii despre „bula AI”: de unde vin banii pentru această expansiune.
În discursul de deschidere de la teatrul din complexul Fontainebleau Las Vegas, Huang a spus că firmele redirecționează bugete din cercetarea clasică în domeniul calculului către inteligența artificială.
„Oamenii întreabă de unde vin banii. De acolo vin banii”, a spus el.
Prin Vera Rubin, Nvidia încearcă să se poziționeze drept răspunsul la provocările tot mai mari generate de modelele AI avansate, inclusiv întrebarea dacă infrastructura actuală poate face față unor cereri din ce în ce mai complexe.
Compania susține, într-un comunicat, că viitorul său rack de servere AI, denumit Vera Rubin NVL72, „oferă mai multă lățime de bandă decât întregul internet”.
Nvidia afirmă că a dezvoltat, odată cu Vera Rubin, un nou tip de sistem de stocare, menit să ajute modelele AI să proceseze mai rapid și mai eficient cereri complexe, bogate în context.
Sistemele tradiționale de stocare și memorie, inclusiv cele folosite în prezent în centrele de date, nu vor mai fi suficiente pe măsură ce companii precum Google, OpenAI sau Anthropic trec de la simple chatboți la asistenți AI complecși.
De la chatboți la asistenți AI
Huang a ilustrat această tranziție de la chatboți la „agenți” AI printr-o demonstrație video: un utilizator a construit un asistent personal conectând un mic robot de birou la mai multe modele AI rulate pe computerul Nvidia DGX Spark.
Robotul putea, printre altele, să redea lista de sarcini a utilizatorului sau chiar să îi spună câinelui să coboare de pe canapea.
Potrivit lui Huang, un astfel de asistent ar fi fost de neimaginat în urmă cu câțiva ani, dar este acum „banal”, datorită modelelor lingvistice de mari dimensiuni, care înlocuiesc programarea clasică în dezvoltarea de aplicații.
Cu alte cuvinte, vechile metode nu mai sunt suficiente pe măsură ce AI-ul devine mai sofisticat și „raționează” pe sarcini în mai mulți pași.
„Blocajul se mută de la puterea de calcul la gestionarea contextului”, a explicat Dion Harris, director senior la Nvidia pentru soluții de calcul de înaltă performanță și AI hyperscale. „Stocarea nu mai poate fi un detaliu secundar.”
Ce companii mari vor fi implicate în implementarea Vera Rubin
Înainte de CES, Nvidia a anunțat și un acord de licențiere cu compania Groq, specializată în inferență AI – un nou semnal că investește masiv în această zonă.
„Inferența nu mai este un răspuns dintr-o singură lovitură, ci un proces de gândire”, a spus Huang, referindu-se la modul în care modelele AI „raționează” pentru a oferi răspunsuri și a îndeplini sarcini.
Toți marii furnizori de cloud, cum arf i Microsoft, Amazon Web Services, Google Cloud și CoreWeave, se numără printre primii care vor implementa Vera Rubin, potrivit Nvidia.
Companii precum Dell și Cisco sunt așteptate să integreze noile cipuri în centrele lor de date, iar laboratoare AI precum OpenAI, Anthropic, Meta și xAI vor adopta probabil tehnologia pentru antrenarea modelelor și pentru furnizarea unor răspunsuri mai sofisticate.
Presiune pe Nvidia
Nvidia și-a extins totodată ofensiva în domeniul vehiculelor autonome, cu noi modele numite Alpamayo, și în zona de „AI fizic”, inteligența artificială care alimentează roboți și alte sisteme din lumea reală, continuând direcția trasată la conferința GTC din octombrie.
Însă succesul și dominația Nvidia vin la pachet cu presiuni uriașe: compania trebuie să depășească constant așteptările ridicate ale Wall Street și să calmeze temerile că investițiile în infrastructura AI cresc mult mai rapid decât cererea reală.
Meta, Microsoft și Amazon au cheltuit deja zeci de miliarde de dolari în investiții de capital doar anul acesta, iar McKinsey estimează că, până în 2030, companiile vor investi aproape 7.000 de miliarde de dolari în infrastructura globală de centre de date.
„Nimeni nu vrea să depindă de Nvidia”
O mare parte din acești bani circulă între un număr relativ mic de jucători, într-un sistem de „finanțare circulară”, în care tehnologia și capitalul se rotesc între aceleași companii.
În paralel, Google și OpenAI își dezvoltă propriile cipuri, pentru a adapta mai bine hardware-ul la nevoile modelelor lor. Nvidia se confruntă și cu o competiție tot mai puternică din partea AMD, iar Qualcomm a anunțat recent intrarea pe piața centrelor de date.
„Nimeni nu vrea să depindă de Nvidia”, spunea Ben Barringer, director global de cercetare în tehnologie la Quilter Cheviot, într-un interviu anterior pentru CNN când a fost întrebat despre alte companii precum Google care ar putea concura cu Nvidia în domeniul cipurilor de inteligență artificială. „Toată lumea încearcă să-și diversifice portofoliul de cipuri.”
