Companiile tech formeaza grupul „Ultra Accelerator Link” pentru a crea un standard de conectivitate deschis pentru acceleratoarele AI

Companiile tech formeaza grupul

Acum că boom-ul minierelor de criptomonede s-a încheiat, Nvidia nu a revenit încă la focusul său anterior pe gaming. În schimb, s-a orientat către boom-ul AI, furnizând GPU-uri pentru a alimenta chatbot-uri și servicii AI. În prezent, are o poziție dominantă pe piață, dar un consorțiu de companii încearcă să schimbe acest lucru prin proiectarea unui standard deschis de comunicație pentru procesoarele AI.

Unele dintre cele mai mari companii din sectorul tehnologiei hardware și AI au format un consorțiu pentru a crea un nou standard industrial pentru conectivitatea GPU. Grupul Ultra Accelerator Link (UALink) își propune să dezvolte soluții tehnologice deschise pentru a beneficia întregul ecosistem AI, în loc să se bazeze pe o singură companie precum Nvidia și tehnologia sa proprietară NVLink.

Grupul UALink include companii precum AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta și Microsoft. Potrivit comunicatului de presă, standardul industrial deschis dezvoltat de UALink va permite performanțe și eficiență mai bune pentru serverele AI, făcând ca GPU-urile și acceleratoarele AI specializate să comunice „mai eficient”.

Companii precum HPE, Intel și Cisco vor aduce „experiența lor extinsă” în crearea soluțiilor AI la scară largă și a sistemelor de calcul de înaltă performanță în cadrul grupului. Pe măsură ce cererea pentru calculul AI continuă să crească rapid, o rețea robustă, cu latență redusă și scalabilă, care poate partaja eficient resursele de calcul, este crucială pentru infrastructura AI viitoare.

În prezent, Nvidia furnizează cele mai puternice acceleratoare pentru a alimenta cele mai mari modele AI. Tehnologia sa NVLink facilitează schimbul rapid de date între sute de GPU-uri instalate în aceste clustere de servere AI. UALink speră să definească o interfață standard pentru AI și învățarea automată, HPC și cloud computing, cu comunicații de mare viteză și latență redusă pentru toate mărcile de acceleratoare AI, nu doar pentru cele ale Nvidia.

Grupul așteaptă ca specificația inițială 1.0 să fie lansată în al treilea trimestru al anului 2024. Standardul va permite comunicații pentru 1.024 de acceleratoare într-un „pod de calcul AI”, permițând GPU-urilor să acceseze direct sarcinile și să stocheze elementele de memorie atașate.

Vicepreședintele AMD, Forrest Norrod, a menționat că munca pe care o desfășoară grupul UALink este esențială pentru viitorul aplicațiilor AI. De asemenea, Broadcom a declarat că este „mândru” să fie membru fondator al consorțiului UALink pentru a susține un ecosistem deschis pentru conectivitatea AI.