Představitelé AI varují Senát před dvojím rizikem: Příliš pomalý a příliš rychlý pohyb
Vedoucí představitelé z oblasti výzkumu umělé inteligence vystoupili před senátním výborem pro soudnictví, aby diskutovali a odpovídali na otázky týkající se této nově vznikající technologie.
Jejich vcelku jednomyslné názory se obecně dělily do dvou kategorií: musíme jednat brzy, ale s rozvahou – pokud se nepohneme kupředu, riskujeme zneužití AI, nebo zkrácení průmyslu, pokud to uspěcháme.
V panelu odborníků, kteří se dnešního slyšení zúčastnili, zasedli spoluzakladatel společnosti Anthropic Dario Amodei, Stuart Russell z Kalifornské univerzity v Berkeley a dlouholetý výzkumník v oblasti umělé inteligence Yoshua Bengio.
Dvouhodinové slyšení bylo do značné míry prosté ostrosti a velkohubého vystupování, které je častější při slyšeních ve Sněmovně reprezentantů, i když ne zcela. Celé si ho můžete prohlédnout zde, ale níže uvádíme hlavní body jednotlivých řečníků.
Dario Amodei
Co můžeme dělat nyní? (Každý odborník byl nejprve dotázán, jaké jsou podle něj nejdůležitější krátkodobé kroky.)
1. Zabezpečení dodavatelského řetězce. V hardwaru, na který spoléháme při výzkumu a poskytování UI, existují úzká místa a zranitelnosti a některé jsou ohroženy kvůli geopolitickým faktorům (např. TSMC na Tchaj-wanu) a problémům s duševním vlastnictvím nebo bezpečností.
2. Vytvořit proces testování a auditu, jaký máme pro vozidla a elektroniku. A vytvořit „přísnou baterii bezpečnostních testů“. Poznamenal však, že vědecké poznatky pro jejich stanovení jsou „v plenkách“. Aby bylo možné vypracovat normy, je třeba definovat rizika a nebezpečí a tyto normy je třeba důrazně prosazovat.
Zdroj: Anthropic
Přirovnal současný průmysl umělé inteligence k letadlům několik let po letu bratří Wrightů. Je zřejmé, že regulace je nutná, ale musí to být živá, adaptivní regulace, která dokáže reagovat na nový vývoj.
Z bezprostředních rizik vyzdvihl jako nejznepokojivější dezinformace, falešné zprávy a propagandu během volebního období.
Amodeiovi se podařilo neskousnout na návnadu senátora Joshe Hawleyho (R-MO) ohledně investice Googlu do společnosti Anthropic a toho, že přidání modelů společnosti Anthropic k podnikání Googlu v oblasti pozornosti by mohlo být katastrofální. Amodei to odmítl a možná nechal za sebe mluvit zřejmý fakt, že Google vyvíjí své vlastní takové modely.
Yoshua Bengio
Co můžeme dělat nyní?
1. Omezte přístup k rozsáhlým modelům umělé inteligence a vytvořte pobídky pro zabezpečení a bezpečnost.
2. Zarovnání: Zajistěte, aby modely fungovaly tak, jak mají.
3. Sledování hrubé síly a kdo má přístup k hardwaru potřebnému k výrobě těchto modelů.
Zdroj: Burzovnísvět.cz
Bengio opakovaně zdůraznil potřebu financovat výzkum bezpečnosti umělé inteligence v celosvětovém měřítku. Podle něj vlastně nevíme, co děláme, a abychom mohli provádět věci, jako jsou nezávislé audity schopností a sladění UI, potřebujeme nejen více znalostí, ale i rozsáhlou spolupráci (spíše než konkurenci) mezi státy.
Navrhl, aby účty na sociálních sítích byly „omezeny na skutečné lidské bytosti, které se identifikovaly, ideálně osobně“. To je se vší pravděpodobností naprosto nesmyslné, a to z důvodů, které pozorujeme již mnoho let.
Ačkoli se nyní zaměřuje na větší organizace s dobrými zdroji, upozornil, že předtrénované velké modely lze snadno doladit. Špatní aktéři nepotřebují obří datové centrum a vlastně ani mnoho odborných znalostí, aby způsobili skutečné škody.
V závěru svého vystoupení uvedl, že USA a další země se musí zaměřit na vytvoření jediného regulačního subjektu, aby se lépe koordinovaly a předešlo se byrokratickému zpomalení.
Stuart Russell
Co můžeme dělat nyní?
1. Vytvořit absolutní právo vědět, zda člověk komunikuje s osobou nebo strojem.
2. Zakázat algoritmy, které se mohou rozhodnout zabíjet lidské bytosti v jakémkoli měřítku.
3. Pokud se systémy umělé inteligence nabourají do jiných počítačů nebo se replikují, nařiďte jim vypínač.
4. Požadovat stažení systémů, které porušují pravidla, z trhu, jako je nedobrovolné stažení z trhu.
Zdroj: Burzovnísvět.cz
Za nejpalčivější riziko považuje „kampaně s vnějším dopadem“ využívající personalizovanou umělou inteligenci. Jak řekl:
Můžeme systému předložit velké množství informací o určité osobě, vše, co kdy napsala nebo zveřejnila na Twitteru nebo Facebooku… vycvičit systém a požádat ho, aby vytvořil dezinformační kampaň speciálně pro tuto osobu. A to můžeme udělat pro milion lidí ještě před obědem. To má mnohem větší efekt než spamování a vysílání falešných informací, které nejsou šité na míru danému člověku.
Russell a ostatní se shodli na tom, že ačkoli existuje mnoho zajímavých aktivit v oblasti označování, vodoznaků a detekce umělé inteligence, tyto snahy jsou roztříštěné a základní. Jinými slovy, neočekávejte mnoho – a už vůbec ne v době voleb, na které se výbor ptal.
Poukázal na to, že do startupů s umělou inteligencí jde měsíčně řádově 10 miliard eur, ačkoli svůj zdroj tohoto čísla neuvedl. Profesor Russell je dobře informovaný, ale zdá se, že má zálibu v do očí bijících číslech, jako je „peněžní hodnota AI ve výši nejméně 14 kvadrilionů dolarů“. Každopádně i několik miliard měsíčně by znamenalo, že je to mnohem více, než kolik USA vynakládají na tucet oblastí základního výzkumu prostřednictvím Národních vědeckých nadací, o bezpečnosti AI nemluvě. Otevřete peněženku, řekl jen tak mimochodem.
Na otázku týkající se Číny poznamenal, že odborné znalosti této země v oblasti umělé inteligence jsou „mírně přeceňovány“ a že „mají docela dobrý akademický sektor, který právě ničí“. Jejich kopírovací LLM nepředstavují pro společnosti jako OpenAI a Anthropic žádnou hrozbu, ale Čína je podle očekávání daleko napřed, pokud jde o sledování, jako je identifikace hlasu a chůze.
Zdroj: Burzovnísvět.cz
V závěrečných poznámkách o tom, jaké kroky by měly být podniknuty jako první, všichni tři poukázali v podstatě na investice do základního výzkumu, aby navrhované nezbytné systémy testování, kontroly a prosazování byly založeny na důkladných vědeckých poznatcích, a nikoli na zastaralých nebo průmyslem navržených myšlenkách.
Senátor Blumenthal (D-CT) odpověděl, že toto slyšení má přispět k vytvoření vládního orgánu, který může postupovat rychle, „protože nemáme času nazbyt“.
„Nevím, kdo je Prométheus na UI,“ řekl, „ale vím, že máme spoustu práce, abychom zdejší oheň využili produktivně.“
Jejich vcelku jednomyslné názory se obecně dělily do dvou kategorií: musíme jednat brzy, ale s rozvahou – pokud se nepohneme kupředu, riskujeme zneužití AI, nebo zkrácení průmyslu, pokud to uspěcháme.V panelu odborníků, kteří se dnešního slyšení zúčastnili, zasedli spoluzakladatel společnosti Anthropic Dario Amodei, Stuart Russell z Kalifornské univerzity v Berkeley a dlouholetý výzkumník v oblasti umělé inteligence Yoshua Bengio.Dvouhodinové slyšení bylo do značné míry prosté ostrosti a velkohubého vystupování, které je častější při slyšeních ve Sněmovně reprezentantů, i když ne zcela. Celé si ho můžete prohlédnout zde, ale níže uvádíme hlavní body jednotlivých řečníků.Co můžeme dělat nyní? 1. Zabezpečení dodavatelského řetězce. V hardwaru, na který spoléháme při výzkumu a poskytování UI, existují úzká místa a zranitelnosti a některé jsou ohroženy kvůli geopolitickým faktorům a problémům s duševním vlastnictvím nebo bezpečností.2. Vytvořit proces testování a auditu, jaký máme pro vozidla a elektroniku. A vytvořit „přísnou baterii bezpečnostních testů“. Poznamenal však, že vědecké poznatky pro jejich stanovení jsou „v plenkách“. Aby bylo možné vypracovat normy, je třeba definovat rizika a nebezpečí a tyto normy je třeba důrazně prosazovat.Přirovnal současný průmysl umělé inteligence k letadlům několik let po letu bratří Wrightů. Je zřejmé, že regulace je nutná, ale musí to být živá, adaptivní regulace, která dokáže reagovat na nový vývoj.Z bezprostředních rizik vyzdvihl jako nejznepokojivější dezinformace, falešné zprávy a propagandu během volebního období.Amodeiovi se podařilo neskousnout na návnadu senátora Joshe Hawleyho ohledně investice Googlu do společnosti Anthropic a toho, že přidání modelů společnosti Anthropic k podnikání Googlu v oblasti pozornosti by mohlo být katastrofální. Amodei to odmítl a možná nechal za sebe mluvit zřejmý fakt, že Google vyvíjí své vlastní takové modely.Co můžeme dělat nyní?1. Omezte přístup k rozsáhlým modelům umělé inteligence a vytvořte pobídky pro zabezpečení a bezpečnost.2. Zarovnání: Zajistěte, aby modely fungovaly tak, jak mají.3. Sledování hrubé síly a kdo má přístup k hardwaru potřebnému k výrobě těchto modelů.Bengio opakovaně zdůraznil potřebu financovat výzkum bezpečnosti umělé inteligence v celosvětovém měřítku. Podle něj vlastně nevíme, co děláme, a abychom mohli provádět věci, jako jsou nezávislé audity schopností a sladění UI, potřebujeme nejen více znalostí, ale i rozsáhlou spolupráci mezi státy.Navrhl, aby účty na sociálních sítích byly „omezeny na skutečné lidské bytosti, které se identifikovaly, ideálně osobně“. To je se vší pravděpodobností naprosto nesmyslné, a to z důvodů, které pozorujeme již mnoho let.Ačkoli se nyní zaměřuje na větší organizace s dobrými zdroji, upozornil, že předtrénované velké modely lze snadno doladit. Špatní aktéři nepotřebují obří datové centrum a vlastně ani mnoho odborných znalostí, aby způsobili skutečné škody.V závěru svého vystoupení uvedl, že USA a další země se musí zaměřit na vytvoření jediného regulačního subjektu, aby se lépe koordinovaly a předešlo se byrokratickému zpomalení.Co můžeme dělat nyní?1. Vytvořit absolutní právo vědět, zda člověk komunikuje s osobou nebo strojem.2. Zakázat algoritmy, které se mohou rozhodnout zabíjet lidské bytosti v jakémkoli měřítku.3. Pokud se systémy umělé inteligence nabourají do jiných počítačů nebo se replikují, nařiďte jim vypínač.4. Požadovat stažení systémů, které porušují pravidla, z trhu, jako je nedobrovolné stažení z trhu.Za nejpalčivější riziko považuje „kampaně s vnějším dopadem“ využívající personalizovanou umělou inteligenci. Jak řekl:Můžeme systému předložit velké množství informací o určité osobě, vše, co kdy napsala nebo zveřejnila na Twitteru nebo Facebooku… vycvičit systém a požádat ho, aby vytvořil dezinformační kampaň speciálně pro tuto osobu. A to můžeme udělat pro milion lidí ještě před obědem. To má mnohem větší efekt než spamování a vysílání falešných informací, které nejsou šité na míru danému člověku.Russell a ostatní se shodli na tom, že ačkoli existuje mnoho zajímavých aktivit v oblasti označování, vodoznaků a detekce umělé inteligence, tyto snahy jsou roztříštěné a základní. Jinými slovy, neočekávejte mnoho – a už vůbec ne v době voleb, na které se výbor ptal.Poukázal na to, že do startupů s umělou inteligencí jde měsíčně řádově 10 miliard eur, ačkoli svůj zdroj tohoto čísla neuvedl. Profesor Russell je dobře informovaný, ale zdá se, že má zálibu v do očí bijících číslech, jako je „peněžní hodnota AI ve výši nejméně 14 kvadrilionů dolarů“. Každopádně i několik miliard měsíčně by znamenalo, že je to mnohem více, než kolik USA vynakládají na tucet oblastí základního výzkumu prostřednictvím Národních vědeckých nadací, o bezpečnosti AI nemluvě. Otevřete peněženku, řekl jen tak mimochodem.Na otázku týkající se Číny poznamenal, že odborné znalosti této země v oblasti umělé inteligence jsou „mírně přeceňovány“ a že „mají docela dobrý akademický sektor, který právě ničí“. Jejich kopírovací LLM nepředstavují pro společnosti jako OpenAI a Anthropic žádnou hrozbu, ale Čína je podle očekávání daleko napřed, pokud jde o sledování, jako je identifikace hlasu a chůze.V závěrečných poznámkách o tom, jaké kroky by měly být podniknuty jako první, všichni tři poukázali v podstatě na investice do základního výzkumu, aby navrhované nezbytné systémy testování, kontroly a prosazování byly založeny na důkladných vědeckých poznatcích, a nikoli na zastaralých nebo průmyslem navržených myšlenkách.Senátor Blumenthal odpověděl, že toto slyšení má přispět k vytvoření vládního orgánu, který může postupovat rychle, „protože nemáme času nazbyt“.„Nevím, kdo je Prométheus na UI,“ řekl, „ale vím, že máme spoustu práce, abychom zdejší oheň využili produktivně.“