Podle amerického Institutu pro bezpečnost umělé inteligence (U.S. Artificial Intelligence Safety Institute) získaly startupy OpenAI a Anthropic smlouvy s vládou Spojených států na výzkum, testování a hodnocení svých modelů umělé inteligence. Tyto dohody znamenají významný posun, protože společnosti v současné době čelí regulační kontrole týkající se bezpečného a etického využívání technologií umělé inteligence. Kalifornští zákonodárci mají tento týden hlasovat o návrhu zákona, jehož cílem je komplexní regulace vývoje a zavádění umělé inteligence ve státě.
Americký institut pro bezpečnost AI bude mít přístup k hlavním novým modelům společností OpenAI a Anthropic před jejich zveřejněním i po něm. Dohody usnadní společný výzkum s cílem posoudit schopnosti těchto modelů AI a související rizika. Jason Kwon, ředitel pro strategii společnosti OpenAI, vyjádřil přesvědčení o úloze institutu při zavádění odpovědného vývoje AI s cílem, aby se tento rámec stal globálním standardem. Elizabeth Kellyová, ředitelka amerického Institutu pro bezpečnost AI, zdůraznila, že tyto dohody jsou sice výchozím bodem, ale představují důležitý milník na cestě k odpovědnému utváření budoucnosti AI.
Americký institut pro bezpečnost AI, divize Národního institutu pro standardy a technologie spadající pod americké ministerstvo obchodu, bude rovněž spolupracovat s britským institutem pro bezpečnost AI a poskytovat společnostem zpětnou vazbu ohledně možných bezpečnostních vylepšení. Institut byl zřízen v loňském roce na základě nařízení administrativy prezidenta Joea Bidena, aby vyhodnocoval známá i nově vznikající rizika spojená s modely umělé inteligence.
Podle amerického Institutu pro bezpečnost umělé inteligence získaly startupy OpenAI a Anthropic smlouvy s vládou Spojených států na výzkum, testování a hodnocení svých modelů umělé inteligence. Tyto dohody znamenají významný posun, protože společnosti v současné době čelí regulační kontrole týkající se bezpečného a etického využívání technologií umělé inteligence. Kalifornští zákonodárci mají tento týden hlasovat o návrhu zákona, jehož cílem je komplexní regulace vývoje a zavádění umělé inteligence ve státě.
Americký institut pro bezpečnost AI bude mít přístup k hlavním novým modelům společností OpenAI a Anthropic před jejich zveřejněním i po něm. Dohody usnadní společný výzkum s cílem posoudit schopnosti těchto modelů AI a související rizika. Jason Kwon, ředitel pro strategii společnosti OpenAI, vyjádřil přesvědčení o úloze institutu při zavádění odpovědného vývoje AI s cílem, aby se tento rámec stal globálním standardem. Elizabeth Kellyová, ředitelka amerického Institutu pro bezpečnost AI, zdůraznila, že tyto dohody jsou sice výchozím bodem, ale představují důležitý milník na cestě k odpovědnému utváření budoucnosti AI.
Americký institut pro bezpečnost AI, divize Národního institutu pro standardy a technologie spadající pod americké ministerstvo obchodu, bude rovněž spolupracovat s britským institutem pro bezpečnost AI a poskytovat společnostem zpětnou vazbu ohledně možných bezpečnostních vylepšení. Institut byl zřízen v loňském roce na základě nařízení administrativy prezidenta Joea Bidena, aby vyhodnocoval známá i nově vznikající rizika spojená s modely umělé inteligence.