Qualcomm vstupuje do boje o AI čipy a míří proti AMD i Nvidii na trhu datových center
Qualcomm v pondělí oficiálně oznámil, že uvede na trh nové čipy pro akceleraci umělé inteligence, a tím se zařadí mezi klíčové hráče, kteří soupeří o dominanci na nejrychleji rostoucím segmentu polovodičového trhu.
Qualcomm oznámil nové AI čipy AI200 a AI250, mířící do datových center
Společnost se zaměřuje na inference AI modelů, nikoli jejich trénování
Qualcomm tvrdí, že jeho racková řešení nabídnou nižší náklady a lepší práci s pamětí
Tento krok staví Qualcomm do přímé konkurence s Nvidií a AMD na trhu AI infrastruktury
Po dlouhá léta byl Qualcomm znám především díky svým čipovým sadám pro mobilní zařízení a řešením pro bezdrátové připojení. Nyní však míří do prostoru, kde se točí biliony dolarů — do světa datových center optimalizovaných pro umělou inteligenci.
Nové čipy, označené jako AI200 a AI250, mají být uvedeny do prodeje postupně v letech 2026 a 2027. Oba produkty budou navrženy tak, aby mohly být součástí systémového řešení tvořícího kompletní serverový rack s kapalinovým chlazením. Tento přístup není náhodný — takto konstruované systémy dnes využívají nejmodernější laboratoře umělé inteligence k provozování modelů s extrémní výpočetní náročností. Klíčoví konkurenti, jako Nvidia nebo AMD, již nabízejí podobné rackové systémy se schopností koordinace až desítek GPU, které společně fungují jako jeden obří superpočítač.
Zdroj: Getty Images
Zvláštností přístupu Qualcommu je, že jeho datacentrové čipy vycházejí z technologií, které firma dlouhodobě používá ve svých čipech pro smartphony. Konkrétně jde o specializované jednotky Hexagon NPU (neural processing units), které byly původně určeny pro lokální výpočty AI přímo na mobilních zařízeních. Zatímco ostatní hráči jako Nvidia vsadili na extrémně výkonné GPU optimalizované pro trénování velkých modelů, Qualcomm se rozhodl zaměřit na fázi inference — tedy na spouštění již natrénovaných modelů a jejich každodenní provoz například v aplikacích, asistentech nebo serverových službách.
Tato strategie je logická. Zatímco trénování modelů probíhá ve specializovaných datových centrech a vyžaduje ohromné investice, inference je proces, který bude v budoucnu probíhat neustále a ve stále rostoucím měřítku. Pokud se Qualcommu podaří nabídnout řešení, které bude efektivnější, především z hlediska spotřeby energie a ceny na jeden výpočetní cyklus, může si vybudovat pevnou pozici na trhu, který podle odhadů společnosti McKinsey dosáhne do roku 2030 hodnoty přibližně 6,7 bilionu dolarů. Většina těchto výdajů připadne právě na infrastrukturu pro AI datová centra.
Nvidia má v tomto segmentu momentálně dominantní postavení s více než 90% tržním podílem díky svým GPU, které se staly technologickým standardem zejména při trénování modelů jako GPT od OpenAI. Nicméně trh se rychle mění. OpenAI nedávno oznámila plány nakoupit čipy od AMD a potenciálně získat podíl ve společnosti, což je jasný signál, že firmy hledají alternativy ke stávajícímu dominantnímu dodavateli. Kromě toho se do vývoje vlastních akcelerátorů pustily i Amazon, Google a Microsoft — tedy samotní hlavní provozovatelé globálních cloudových ekosystémů.
Qualcomm zdůrazňuje, že jednou z jeho hlavních výhod bude celková ekonomika provozu. Jeden rack postavený na jeho čipech má podle společnosti spotřebovat přibližně 160 kilowattů, což odpovídá některým systémům od Nvidie, ale Qualcomm tvrdí, že poměr výkonu ke spotřebě by měl být lepší. Další silnou stránkou má být práce s pamětí — nové AI karty od Qualcommu podporují až 768 gigabajtů paměti, což převyšuje současná řešení od Nvidie i AMD. To by mohlo zásadně zlepšit efektivitu při provozu velkých jazykových modelů, které jsou limitovány velikostí dostupné paměti.
Společnost také plánuje prodávat čipy nejen jako kompletní rackové systémy, ale i samostatně, aby vyhověla odběratelům, kteří si své servery navrhují sami — tzv. hyperscalers. Qualcomm dokonce naznačil, že některé komponenty, například CPU pro řízení datového toku v racku, by mohly potenciálně nakupovat i konkurenční společnosti.
Zatím nejsou známy ceny, ani přesné technické parametry výkonu ve srovnání s nejlepšími GPU Nvidie nebo AMD. Co ale jasné je: Qualcomm formálně vstoupil do závodu o infrastrukturu pro umělou inteligenci — závodu, který bude definovat strukturu technologického světa příští dekády.
Po dlouhá léta byl Qualcomm znám především díky svým čipovým sadám pro mobilní zařízení a řešením pro bezdrátové připojení. Nyní však míří do prostoru, kde se točí biliony dolarů — do světa datových center optimalizovaných pro umělou inteligenci.Nové čipy, označené jako AI200 a AI250, mají být uvedeny do prodeje postupně v letech 2026 a 2027. Oba produkty budou navrženy tak, aby mohly být součástí systémového řešení tvořícího kompletní serverový rack s kapalinovým chlazením. Tento přístup není náhodný — takto konstruované systémy dnes využívají nejmodernější laboratoře umělé inteligence k provozování modelů s extrémní výpočetní náročností. Klíčoví konkurenti, jako Nvidia nebo AMD, již nabízejí podobné rackové systémy se schopností koordinace až desítek GPU, které společně fungují jako jeden obří superpočítač.Zvláštností přístupu Qualcommu je, že jeho datacentrové čipy vycházejí z technologií, které firma dlouhodobě používá ve svých čipech pro smartphony. Konkrétně jde o specializované jednotky Hexagon NPU , které byly původně určeny pro lokální výpočty AI přímo na mobilních zařízeních. Zatímco ostatní hráči jako Nvidia vsadili na extrémně výkonné GPU optimalizované pro trénování velkých modelů, Qualcomm se rozhodl zaměřit na fázi inference — tedy na spouštění již natrénovaných modelů a jejich každodenní provoz například v aplikacích, asistentech nebo serverových službách.Tato strategie je logická. Zatímco trénování modelů probíhá ve specializovaných datových centrech a vyžaduje ohromné investice, inference je proces, který bude v budoucnu probíhat neustále a ve stále rostoucím měřítku. Pokud se Qualcommu podaří nabídnout řešení, které bude efektivnější, především z hlediska spotřeby energie a ceny na jeden výpočetní cyklus, může si vybudovat pevnou pozici na trhu, který podle odhadů společnosti McKinsey dosáhne do roku 2030 hodnoty přibližně 6,7 bilionu dolarů. Většina těchto výdajů připadne právě na infrastrukturu pro AI datová centra.Nvidia má v tomto segmentu momentálně dominantní postavení s více než 90% tržním podílem díky svým GPU, které se staly technologickým standardem zejména při trénování modelů jako GPT od OpenAI. Nicméně trh se rychle mění. OpenAI nedávno oznámila plány nakoupit čipy od AMD a potenciálně získat podíl ve společnosti, což je jasný signál, že firmy hledají alternativy ke stávajícímu dominantnímu dodavateli. Kromě toho se do vývoje vlastních akcelerátorů pustily i Amazon, Google a Microsoft — tedy samotní hlavní provozovatelé globálních cloudových ekosystémů.Qualcomm zdůrazňuje, že jednou z jeho hlavních výhod bude celková ekonomika provozu. Jeden rack postavený na jeho čipech má podle společnosti spotřebovat přibližně 160 kilowattů, což odpovídá některým systémům od Nvidie, ale Qualcomm tvrdí, že poměr výkonu ke spotřebě by měl být lepší. Další silnou stránkou má být práce s pamětí — nové AI karty od Qualcommu podporují až 768 gigabajtů paměti, což převyšuje současná řešení od Nvidie i AMD. To by mohlo zásadně zlepšit efektivitu při provozu velkých jazykových modelů, které jsou limitovány velikostí dostupné paměti.QUALCOMM Incorporated Chcete využít této příležitosti? Společnost také plánuje prodávat čipy nejen jako kompletní rackové systémy, ale i samostatně, aby vyhověla odběratelům, kteří si své servery navrhují sami — tzv. hyperscalers. Qualcomm dokonce naznačil, že některé komponenty, například CPU pro řízení datového toku v racku, by mohly potenciálně nakupovat i konkurenční společnosti.Zatím nejsou známy ceny, ani přesné technické parametry výkonu ve srovnání s nejlepšími GPU Nvidie nebo AMD. Co ale jasné je: Qualcomm formálně vstoupil do závodu o infrastrukturu pro umělou inteligenci — závodu, který bude definovat strukturu technologického světa příští dekády.