Nejnovější čipy společnosti Nvidia dosáhly pokroku v trénování velkých systémů umělé inteligence, jak ukazují nové údaje zveřejněné ve středu, přičemž počet čipů potřebných k trénování velkých jazykových modelů dramaticky poklesl.
MLCommons, nezisková organizace, která zveřejňuje výsledky benchmarkových testů výkonnosti systémů umělé inteligence, zveřejnila nové údaje o čipech od společností Nvidia (NASDAQ:NVDA) a Advanced Micro Devices (NASDAQ:AMD) a dalších, které se používají pro výcvik, při kterém jsou systémy umělé inteligence krmeny velkým množstvím dat, ze kterých se učí. Zatímco se pozornost akciového trhu přesunula na větší trh s AI inferencí, kde AI systémy zpracovávají dotazy uživatelů, počet čipů potřebných k trénování systémů je stále klíčovým konkurenčním faktorem. Čínská společnost DeepSeek tvrdí, že vytvořila konkurenceschopného chatbota, který používá mnohem méně čipů než její americká konkurence.
Výsledky byly prvními, které MLCommons zveřejnilo o tom, jak si čipy vedly při výcviku systémů AI, jako je Llama 3.1 405B, open-source model AI vydaný společností Meta Platforms (NASDAQ:META), který má dostatečný počet takzvaných „parametrů“, aby bylo možné odhadnout, jak by si čipy vedly při některých z nejkomplexnějších výcvikových úkolů na světě, které mohou zahrnovat biliony parametrů.
Nvidia a její partneři byli jedinými účastníky, kteří předložili data o trénování tak velkého modelu, a data ukázala, že nové čipy Blackwell od Nvidie jsou na jeden čip více než dvakrát rychlejší než předchozí generace čipů Hopper.
Nejnovější čipy společnosti Nvidia dosáhly pokroku v trénování velkých systémů umělé inteligence, jak ukazují nové údaje zveřejněné ve středu, přičemž počet čipů potřebných k trénování velkých jazykových modelů dramaticky poklesl.
MLCommons, nezisková organizace, která zveřejňuje výsledky benchmarkových testů výkonnosti systémů umělé inteligence, zveřejnila nové údaje o čipech od společností Nvidia a Advanced Micro Devices a dalších, které se používají pro výcvik, při kterém jsou systémy umělé inteligence krmeny velkým množstvím dat, ze kterých se učí. Zatímco se pozornost akciového trhu přesunula na větší trh s AI inferencí, kde AI systémy zpracovávají dotazy uživatelů, počet čipů potřebných k trénování systémů je stále klíčovým konkurenčním faktorem. Čínská společnost DeepSeek tvrdí, že vytvořila konkurenceschopného chatbota, který používá mnohem méně čipů než její americká konkurence.
Výsledky byly prvními, které MLCommons zveřejnilo o tom, jak si čipy vedly při výcviku systémů AI, jako je Llama 3.1 405B, open-source model AI vydaný společností Meta Platforms , který má dostatečný počet takzvaných „parametrů“, aby bylo možné odhadnout, jak by si čipy vedly při některých z nejkomplexnějších výcvikových úkolů na světě, které mohou zahrnovat biliony parametrů.
Nvidia a její partneři byli jedinými účastníky, kteří předložili data o trénování tak velkého modelu, a data ukázala, že nové čipy Blackwell od Nvidie jsou na jeden čip více než dvakrát rychlejší než předchozí generace čipů Hopper.