Amazon Web Services (NASDAQ:AMZN) ve středu představil nový vlastní chladicí hardware navržený speciálně pro nejnovější grafické procesory společnosti Nvidia (NASDAQ:NVDA), které pohánějí generativní systémy umělé inteligence.
AWS vyvinulo vlastní infrastrukturu – In-Row Heat Exchanger (IRHX) – namísto použití běžných standardních řešení kapalného chlazení. Tento přístup umožňuje AWS přizpůsobit se vysokohustotním GPU rackům společnosti Nvidia bez nutnosti rozsáhlých renovací datových center.
GPU Blackwell společnosti Nvidia, vytvořené pro rozsáhlý výcvik a inferenci AI, spotřebovávají značné množství energie a produkují značné množství tepla, což vyžaduje pokročilé chladicí systémy. Tradiční metody vzduchového chlazení, které fungovaly u dřívějších generací čipů, nedokážou zvládnout tepelné nároky racků, jako je GB200 NVL72 společnosti Nvidia, který obsahuje 72 GPU v jediném racku.
„Zabíraly by příliš mnoho místa v datovém centru nebo výrazně zvýšily spotřebu vody,“ uvedl Dave Brown, viceprezident AWS pro výpočetní a strojové učení, v prezentačním videu. „A i když by některé z těchto řešení mohly fungovat pro menší objemy u jiných poskytovatelů, jejich kapacita kapalinového chlazení by prostě nestačila na podporu našeho rozsahu.“
Chladicí systém IRHX kombinuje kapalné a vzduchové komponenty pro efektivní řízení tepla. Byl vyvinut ve spolupráci se společností Nvidia a cirkuluje chladicí kapalinu k čipům GPU prostřednictvím chladicích desek a odvádí teplo pomocí ventilátorových jednotek, přičemž zachovává vzduchem chlazené mechanické uspořádání standardních racků AWS.
Tato inovace v oblasti chlazení se shoduje s uvedením nových výpočetních instancí AWS: EC2 P6e a P6e Ultra. Tyto instance zákazníkům poskytují přístup k Nvidia HGX B200 a GB200 NVL72 stack, přičemž druhá z nich je jednou z nejvýkonnějších serverových konfigurací AWS dosud, navržená pro pokročilý vývoj a nasazení modelů.

Amazon Web Services ve středu představil nový vlastní chladicí hardware navržený speciálně pro nejnovější grafické procesory společnosti Nvidia , které pohánějí generativní systémy umělé inteligence.
AWS vyvinulo vlastní infrastrukturu – In-Row Heat Exchanger – namísto použití běžných standardních řešení kapalného chlazení. Tento přístup umožňuje AWS přizpůsobit se vysokohustotním GPU rackům společnosti Nvidia bez nutnosti rozsáhlých renovací datových center.
GPU Blackwell společnosti Nvidia, vytvořené pro rozsáhlý výcvik a inferenci AI, spotřebovávají značné množství energie a produkují značné množství tepla, což vyžaduje pokročilé chladicí systémy. Tradiční metody vzduchového chlazení, které fungovaly u dřívějších generací čipů, nedokážou zvládnout tepelné nároky racků, jako je GB200 NVL72 společnosti Nvidia, který obsahuje 72 GPU v jediném racku.
„Zabíraly by příliš mnoho místa v datovém centru nebo výrazně zvýšily spotřebu vody,“ uvedl Dave Brown, viceprezident AWS pro výpočetní a strojové učení, v prezentačním videu. „A i když by některé z těchto řešení mohly fungovat pro menší objemy u jiných poskytovatelů, jejich kapacita kapalinového chlazení by prostě nestačila na podporu našeho rozsahu.“
Chladicí systém IRHX kombinuje kapalné a vzduchové komponenty pro efektivní řízení tepla. Byl vyvinut ve spolupráci se společností Nvidia a cirkuluje chladicí kapalinu k čipům GPU prostřednictvím chladicích desek a odvádí teplo pomocí ventilátorových jednotek, přičemž zachovává vzduchem chlazené mechanické uspořádání standardních racků AWS.
Tato inovace v oblasti chlazení se shoduje s uvedením nových výpočetních instancí AWS: EC2 P6e a P6e Ultra. Tyto instance zákazníkům poskytují přístup k Nvidia HGX B200 a GB200 NVL72 stack, přičemž druhá z nich je jednou z nejvýkonnějších serverových konfigurací AWS dosud, navržená pro pokročilý vývoj a nasazení modelů.