Tvůrce chatbota Claude, společnost Anthropic, v pondělí oznámil, že tři čínské firmy – DeepSeek, Moonshot a MiniMax – neoprávněně využívaly jeho technologii ke zdokonalování vlastních modelů umělé inteligence. Podle zveřejněných informací tyto společnosti vytvořily více než 16 milionů interakcí s využitím přibližně 24 000 falešných účtů, čímž porušily podmínky služby a obcházely regionální omezení. Toto zjištění přichází krátce poté, co podobné varování vydala konkurenční OpenAI.
Zmíněné společnosti využívaly techniku zvanou „destilace“, která spočívá v tom, že starší a výkonnější model hodnotí kvalitu odpovědí nového modelu, čímž mu efektivně předává své znalosti. Zatímco DeepSeek cílil na schopnosti uvažování a vytváření obsahu bezpečného před cenzurou, Moonshot se zaměřil na kódování a analýzu dat. Anthropic odhalil aktivitu společnosti MiniMax ještě v jejím průběhu; tento startup dokonce dokázal do 24 hodin po vydání nového modelu Claude přesměrovat polovinu svého provozu na tento nejnovější systém. Čínské firmy na žádosti o komentář bezprostředně nereagovaly.
Tvůrce chatbota Claude, společnost Anthropic, v pondělí oznámil, že tři čínské firmy – DeepSeek, Moonshot a MiniMax – neoprávněně využívaly jeho technologii ke zdokonalování vlastních modelů umělé inteligence. Podle zveřejněných informací tyto společnosti vytvořily více než 16 milionů interakcí s využitím přibližně 24 000 falešných účtů, čímž porušily podmínky služby a obcházely regionální omezení. Toto zjištění přichází krátce poté, co podobné varování vydala konkurenční OpenAI.
Zmíněné společnosti využívaly techniku zvanou „destilace“, která spočívá v tom, že starší a výkonnější model hodnotí kvalitu odpovědí nového modelu, čímž mu efektivně předává své znalosti. Zatímco DeepSeek cílil na schopnosti uvažování a vytváření obsahu bezpečného před cenzurou, Moonshot se zaměřil na kódování a analýzu dat. Anthropic odhalil aktivitu společnosti MiniMax ještě v jejím průběhu; tento startup dokonce dokázal do 24 hodin po vydání nového modelu Claude přesměrovat polovinu svého provozu na tento nejnovější systém. Čínské firmy na žádosti o komentář bezprostředně nereagovaly.
Tvůrce chatbota Claude, společnost Anthropic, v pondělí oznámil, že tři čínské firmy – DeepSeek, Moonshot a MiniMax – neoprávněně využívaly jeho technologii ke zdokonalování vlastních modelů umělé inteligence. Podle zveřejněných informací tyto společnosti vytvořily více než 16 milionů interakcí s využitím přibližně 24 000 falešných účtů, čímž porušily podmínky služby a obcházely regionální omezení. Toto zjištění přichází krátce poté, co podobné varování vydala konkurenční OpenAI. Zmíněné společnosti využívaly techniku zvanou "destilace", která spočívá v tom, že starší a výkonnější model hodnotí kvalitu odpovědí nového modelu, čímž mu efektivně předává své znalosti. Zatímco DeepSeek cílil na schopnosti uvažování a vytváření obsahu bezpečného před cenzurou, Moonshot se zaměřil na kódování a analýzu dat. Anthropic odhalil aktivitu společnosti MiniMax ještě v jejím průběhu; tento startup dokonce dokázal do 24 hodin po vydání nového modelu Claude přesměrovat polovinu svého provozu na tento nejnovější systém. Čínské firmy na žádosti o komentář bezprostředně nereagovaly.