Obcházejí čínští „AI tygři“ pravidla? Americká Anthropic tvrdí, že ano
Americká společnost Anthropic obvinila několik předních čínských laboratoří umělé inteligence z toho, že neoprávněně využívaly její model Claude k urychlení vývoje vlastních systémů.
Anthropic obviňuje čínské AI laboratoře z nelegální destilace
Podezření se týká milionů interakcí s modelem Claude
Firma varuje před bezpečnostními a geopolitickými riziky
Kauza posiluje argumenty pro americká exportní omezení
Podle zveřejněných informací mělo jít o systematické a dlouhodobé jednání, které vyvolává nejen obchodní, ale i bezpečnostní a geopolitické otázky. Anthropic tvrdí, že praktiky některých čínských hráčů ohrožují snahy o regulaci nejpokročilejších AI modelů a podkopávají dosavadní americkou technologickou převahu.
Obvinění směřují na tři čínské firmy, které si v posledních letech vybudovaly výrazné postavení na domácím trhu a stále častěji poutají pozornost i v zahraničí. Právě jejich rychlý technologický postup je podle amerických firem podezřelý a zasluhuje důkladnější prověření.
Obvinění z nelegální destilace modelů
Anthropic ve svém blogovém příspěvku uvedla, že společnosti DeepSeek, MiniMax a Moonshot AI měly vytvořit více než 24 000 falešných účtů, jejichž prostřednictvím provedly přes 16 milionů interakcí s modelem Claude. Tyto interakce měly sloužit k tzv. destilaci, tedy procesu, při němž se schopnosti silnějšího modelu přenášejí do modelu slabšího nebo levnějšího.
Zdroj: Shutterstock
Destilace sama o sobě není v AI průmyslu neznámá ani nelegální. Běžně ji využívají i špičkové laboratoře k vytváření komerčně dostupnějších verzí vlastních systémů. Klíčový problém však spočívá v tom, že většina proprietárních poskytovatelů – včetně Anthropic – takové využití svých modelů třetími stranami výslovně zakazuje. Model Claude navíc není oficiálně dostupný v Číně, což podle americké firmy znamená, že muselo dojít k obcházení ochranných mechanismů.
Anthropic upozorňuje, že nešlo o jednotlivé excesy, ale o organizovanou a opakovanou snahu získat cizí know-how bez souhlasu jeho držitele. Podle společnosti to zpochybňuje férovost globální soutěže v oblasti umělé inteligence.
Americká firma zároveň varuje, že takto získané modely mohou postrádat bezpečnostní pojistky, které západní společnosti do svých systémů cíleně zabudovávají. Tyto pojistky mají omezovat zneužití AI k činnostem, jako jsou kybernetické útoky, šíření dezinformací nebo vývoj biologických zbraní. Pokud jsou modely vyvinuty na základě nelegálně získaných dat a bez odpovídajících kontrol, mohou se podle Anthropic stát vážným nástrojem pro škodlivé aktivity.
V tomto kontextu firma hovoří i o riziku pro národní bezpečnost. Upozorňuje, že autoritářské režimy by mohly podobné technologie využít k masovému sledování, ofenzivním kybernetickým operacím či informačním kampaním. Podle vyjádření společnosti je „časové okno pro reakci úzké“ a západní státy by neměly podceňovat rychlost, s jakou se tyto schopnosti šíří.
Obvinění Anthropic navazují na dřívější kroky jejího konkurenta OpenAI, který již dříve upozorňoval americké zákonodárce na podezření, že DeepSeek a další čínské subjekty neoprávněně destilovaly schopnosti ChatGPT. Tyto informace se objevily v memorandu adresovaném zvláštnímu výboru amerického Kongresu pro otázky Číny.
Exportní omezení a debata o technologické převaze
Rychlý vzestup čínských modelů, zejména DeepSeeku, vyvolal v uplynulém roce intenzivní debatu o tom, zda americká exportní omezení na pokročilé čipy a technologie selhala. DeepSeek totiž představil model, který se výkonem přiblížil globální špičce, přestože měl údajně k dispozici výrazně menší výpočetní kapacity. To zpochybnilo dosavadní představu, že k vývoji nejpokročilejší AI je nutné masivní množství špičkového hardwaru.
Zdroj: Shutterstock
Anthropic však tento výklad odmítá. Tvrdí, že právě podezření na rozsáhlou destilaci amerických modelů ukazuje, že čistě domácí inovace bez přístupu k pokročilým technologiím nestačí. Podle firmy je to argument ve prospěch exportních kontrol, které mají zabránit nekontrolovanému šíření klíčových AI schopností mimo Spojené státy a jejich spojence.
Čínské společnosti DeepSeek, MiniMax a Moonshot AI, jejichž model Kimi patří k nejznámějším na domácím trhu, jsou v Číně často označovány jako „AI tygři“. V mezinárodních žebříčcích se jejich systémy již objevují mezi patnácti nejvýkonnějšími modely. Podle Anthropic to ale neznamená, že by jejich úspěch byl plně výsledkem nezávislého vývoje.
Firma zdůrazňuje, že extrakce schopností amerických modelů ve velkém měřítku vyžaduje nejen know-how, ale i přístup k vyspělým čipům, což opět podtrhuje význam kontroly dodavatelských řetězců. Spor tak není jen o porušení smluvních podmínek, ale o širší otázku, jakým způsobem bude v budoucnu regulován globální vývoj umělé inteligence a kdo určí jeho pravidla.
Americká společnost Anthropic obvinila několik předních čínských laboratoří umělé inteligence z toho, že neoprávněně využívaly její model Claude k urychlení vývoje vlastních systémů.
Klíčové body
Anthropic obviňuje čínské AI laboratoře z nelegální destilace
Podezření se týká milionů interakcí s modelem Claude
Firma varuje před bezpečnostními a geopolitickými riziky
Kauza posiluje argumenty pro americká exportní omezení
Podle zveřejněných informací mělo jít o systematické a dlouhodobé jednání, které vyvolává nejen obchodní, ale i bezpečnostní a geopolitické otázky. Anthropic tvrdí, že praktiky některých čínských hráčů ohrožují snahy o regulaci nejpokročilejších AI modelů a podkopávají dosavadní americkou technologickou převahu.
Obvinění směřují na tři čínské firmy, které si v posledních letech vybudovaly výrazné postavení na domácím trhu a stále častěji poutají pozornost i v zahraničí. Právě jejich rychlý technologický postup je podle amerických firem podezřelý a zasluhuje důkladnější prověření.
Obvinění z nelegální destilace modelů
Anthropic ve svém blogovém příspěvku uvedla, že společnosti DeepSeek, MiniMax a Moonshot AI měly vytvořit více než 24 000 falešných účtů, jejichž prostřednictvím provedly přes 16 milionů interakcí s modelem Claude. Tyto interakce měly sloužit k tzv. destilaci, tedy procesu, při němž se schopnosti silnějšího modelu přenášejí do modelu slabšího nebo levnějšího.
Zdroj: Shutterstock
Destilace sama o sobě není v AI průmyslu neznámá ani nelegální. Běžně ji využívají i špičkové laboratoře k vytváření komerčně dostupnějších verzí vlastních systémů. Klíčový problém však spočívá v tom, že většina proprietárních poskytovatelů – včetně Anthropic – takové využití svých modelů třetími stranami výslovně zakazuje. Model Claude navíc není oficiálně dostupný v Číně, což podle americké firmy znamená, že muselo dojít k obcházení ochranných mechanismů.
Anthropic upozorňuje, že nešlo o jednotlivé excesy, ale o organizovanou a opakovanou snahu získat cizí know-how bez souhlasu jeho držitele. Podle společnosti to zpochybňuje férovost globální soutěže v oblasti umělé inteligence.
Bezpečnostní rizika a geopolitický rozměr
Americká firma zároveň varuje, že takto získané modely mohou postrádat bezpečnostní pojistky, které západní společnosti do svých systémů cíleně zabudovávají. Tyto pojistky mají omezovat zneužití AI k činnostem, jako jsou kybernetické útoky, šíření dezinformací nebo vývoj biologických zbraní. Pokud jsou modely vyvinuty na základě nelegálně získaných dat a bez odpovídajících kontrol, mohou se podle Anthropic stát vážným nástrojem pro škodlivé aktivity.
V tomto kontextu firma hovoří i o riziku pro národní bezpečnost. Upozorňuje, že autoritářské režimy by mohly podobné technologie využít k masovému sledování, ofenzivním kybernetickým operacím či informačním kampaním. Podle vyjádření společnosti je „časové okno pro reakci úzké“ a západní státy by neměly podceňovat rychlost, s jakou se tyto schopnosti šíří.
Obvinění Anthropic navazují na dřívější kroky jejího konkurenta OpenAI, který již dříve upozorňoval americké zákonodárce na podezření, že DeepSeek a další čínské subjekty neoprávněně destilovaly schopnosti ChatGPT. Tyto informace se objevily v memorandu adresovaném zvláštnímu výboru amerického Kongresu pro otázky Číny.
Exportní omezení a debata o technologické převaze
Rychlý vzestup čínských modelů, zejména DeepSeeku, vyvolal v uplynulém roce intenzivní debatu o tom, zda americká exportní omezení na pokročilé čipy a technologie selhala. DeepSeek totiž představil model, který se výkonem přiblížil globální špičce, přestože měl údajně k dispozici výrazně menší výpočetní kapacity. To zpochybnilo dosavadní představu, že k vývoji nejpokročilejší AI je nutné masivní množství špičkového hardwaru.
Zdroj: Shutterstock
Anthropic však tento výklad odmítá. Tvrdí, že právě podezření na rozsáhlou destilaci amerických modelů ukazuje, že čistě domácí inovace bez přístupu k pokročilým technologiím nestačí. Podle firmy je to argument ve prospěch exportních kontrol, které mají zabránit nekontrolovanému šíření klíčových AI schopností mimo Spojené státy a jejich spojence.
Čínské společnosti DeepSeek, MiniMax a Moonshot AI, jejichž model Kimi patří k nejznámějším na domácím trhu, jsou v Číně často označovány jako „AI tygři“. V mezinárodních žebříčcích se jejich systémy již objevují mezi patnácti nejvýkonnějšími modely. Podle Anthropic to ale neznamená, že by jejich úspěch byl plně výsledkem nezávislého vývoje.
Firma zdůrazňuje, že extrakce schopností amerických modelů ve velkém měřítku vyžaduje nejen know-how, ale i přístup k vyspělým čipům, což opět podtrhuje význam kontroly dodavatelských řetězců. Spor tak není jen o porušení smluvních podmínek, ale o širší otázku, jakým způsobem bude v budoucnu regulován globální vývoj umělé inteligence a kdo určí jeho pravidla.
Investiční svět s napětím vyhlíží hospodářské výsledky technologického giganta Nvidia, který v rámci nejdůležitější události sezóny odhalí svá čísla za...