V OpenAI, gigantu umělé inteligence, který téměř sám prosadil koncept generativní umělé inteligence do celosvětového veřejného diskurzu spuštěním ChatGPT, se chystá významná personální změna. Dave Willner, veterán v oboru, který v tomto startupu vedl oddělení důvěryhodnosti a bezpečnosti, včera večer v příspěvku na síti LinkedIn (kterého si jako první všimla agentura Reuters) oznámil, že z této pozice odchází a přechází do role poradce. Uvedl, že plánuje trávit více času se svou mladou rodinou. Ve funkci působil rok a půl.
Společnost OpenAI ve svém prohlášení uvedla, že hledá náhradu a že technický ředitel Mira Murati bude dočasně řídit tým. „Děkujeme Daveovi za jeho cenný přínos pro OpenAI,“ uvedla společnost. Celé prohlášení je uvedeno níže.
Jeho odchod přichází v kritické době pro svět umělé inteligence.
Vedle nadšení z možností generativních platforem umělé inteligence, které jsou založeny na rozsáhlých jazykových nebo jiných základních modelech a bleskurychle vytvářejí volně generovaný text, obrázky, hudbu a další prvky na základě jednoduchých pokynů uživatelů, se objevuje stále více otázek. Jak nejlépe regulovat činnost a podniky v tomto odvážném novém světě? Jak nejlépe zmírnit případné škodlivé dopady v celém spektru otázek? Důvěra a bezpečnost jsou základními součástmi těchto rozhovorů.
Právě dnes má prezident OpenAI Greg Brockman vystoupit v Bílém domě spolu s vedoucími pracovníky společností Anthropic, Google, Inflection, Microsoft, Meta a Amazon, aby podpořil dobrovolné závazky k dosažení společných cílů v oblasti bezpečnosti a transparentnosti před vydáním nařízení o umělé inteligenci, které se připravuje. To přichází v návaznosti na velký hluk v Evropě související s regulací AI a také na měnící se nálady mezi některými dalšími.
To vše je důležité pro OpenAI, která se snaží zaujmout pozici uvědomělého a zodpovědného hráče v této oblasti.
Willner se ve svém příspěvku na LinkedIn o ničem z toho konkrétně nezmiňuje. Místo toho se vyjadřuje na vysoké úrovni a uvádí, že po spuštění ChatGPT se požadavky jeho práce v OpenAI přesunuly do „vysoce intenzivní fáze“.
„Jsem hrdý na všechno, čeho náš tým za dobu mého působení v OpenAI dosáhl, a přestože moje práce tam byla jednou z nejúžasnějších a nejzajímavějších, jakou je dnes možné mít, od mého nástupu se také dramaticky rozrostla co do rozsahu a rozsahu,“ napsal. Ačkoli se s manželkou – Charlotte Willnerovou, která je rovněž specialistkou na důvěru a bezpečnost – oba zavázali, že rodina bude vždy na prvním místě, uvedl, že „v měsících následujících po spuštění ChatGPT jsem zjišťoval, že je stále obtížnější dodržet svou část dohody“.
Willner je ve své funkci v OpenAI teprve 1,5 roku, ale má za sebou dlouhou kariéru v oboru, během níž vedl týmy pro důvěru a bezpečnost ve společnostech Facebook a Airbnb.
Zajímavá je zejména práce na Facebooku. Jako jeden z prvních zaměstnanců se podílel na vypracování prvního stanoviska společnosti ke komunitním standardům, které dodnes slouží jako základ přístupu společnosti.
Bylo to velmi formativní období pro společnost a pravděpodobně – vzhledem k vlivu, který měl Facebook na vývoj sociálních médií po celém světě – i pro internet a společnost obecně. Některé z těchto let se vyznačovaly velmi vyhraněnými postoji ke svobodě projevu a k tomu, jak Facebook musel odolávat výzvám k omezení kontroverzních skupin a kontroverzních příspěvků.
Příkladem může být velmi rozsáhlý spor z roku 2009, který se odehrál na veřejném fóru ohledně toho, jak Facebook nakládá s účty a příspěvky popíračů holocaustu. Někteří zaměstnanci i vnější pozorovatelé se domnívali, že Facebook má povinnost zaujmout stanovisko a tyto příspěvky zakázat. Jiní se domnívali, že takový postup se podobá cenzuře a vysílá špatný signál kolem svobodné diskuse.
Willner patřil do druhého tábora a domníval se, že „nenávistné projevy“ nejsou totéž co „přímé poškozování“, a proto by neměly být stejně moderovány. „Nemyslím si, že popírání holocaustu jako myšlenka sama o sobě představuje hrozbu pro bezpečnost ostatních,“ napsal tehdy. (Výbuch z minulosti TechCrunche najdete v celém příspěvku zde).
Při zpětném pohledu, vzhledem k tomu, jak se odehrálo mnoho dalších událostí, to byl dost krátkozraký a naivní postoj. Zdá se však, že alespoň některé z těchto myšlenek se vyvinuly. V roce 2019, kdy už nebyl zaměstnancem sociální sítě, vystupoval proti tomu, jak společnost chtěla politikům a veřejně známým osobám udělit slabší výjimky z moderování obsahu.
Pokud však byla potřeba položit správné základy ve Facebooku větší, než lidé tehdy předpokládali, platí to nyní pro novou vlnu technologií pravděpodobně ještě více. Podle tohoto článku v New York Times, který vyšel před necelým měsícem, byl Willner do OpenAI původně přiveden, aby mu pomohl vyřešit, jak zabránit zneužití DALL-E, generátoru obrázků tohoto startupu, a jeho využití k takovým věcem, jako je tvorba dětské pornografie s generativní umělou inteligencí.
Ale jak se říká, OpenAI (a celý průmysl) potřebuje tuto politiku včera. „Do roka se v této oblasti dostaneme do velmi problematického stavu,“ řekl NYT David Thiel, hlavní technolog Stanford Internet Observatory.
Kdo teď bez Willnera povede OpenAI v této oblasti?
„Děkujeme Daveovi za jeho cenné příspěvky do OpenAI. Jeho práce byla základem pro operacionalizaci našeho závazku bezpečného a zodpovědného používání naší technologie a připravila půdu pro budoucí pokrok v této oblasti. Mira Murati bude dočasně přímo řídit tým a Dave bude do konce roku pokračovat v poradenské činnosti. Hledáme technicky zdatného vedoucího pracovníka, který bude pokračovat v naší misi a zaměří se na návrh, vývoj a implementaci systémů, které zajistí bezpečné používání a škálovatelný růst naší technologie.“
V OpenAI, gigantu umělé inteligence, který téměř sám prosadil koncept generativní umělé inteligence do celosvětového veřejného diskurzu spuštěním ChatGPT, se chystá významná personální změna. Dave Willner, veterán v oboru, který v tomto startupu vedl oddělení důvěryhodnosti a bezpečnosti, včera večer v příspěvku na síti LinkedIn oznámil, že z této pozice odchází a přechází do role poradce. Uvedl, že plánuje trávit více času se svou mladou rodinou. Ve funkci působil rok a půl. Společnost OpenAI ve svém prohlášení uvedla, že hledá náhradu a že technický ředitel Mira Murati bude dočasně řídit tým. „Děkujeme Daveovi za jeho cenný přínos pro OpenAI,“ uvedla společnost. Celé prohlášení je uvedeno níže. Jeho odchod přichází v kritické době pro svět umělé inteligence. Vedle nadšení z možností generativních platforem umělé inteligence, které jsou založeny na rozsáhlých jazykových nebo jiných základních modelech a bleskurychle vytvářejí volně generovaný text, obrázky, hudbu a další prvky na základě jednoduchých pokynů uživatelů, se objevuje stále více otázek. Jak nejlépe regulovat činnost a podniky v tomto odvážném novém světě? Jak nejlépe zmírnit případné škodlivé dopady v celém spektru otázek? Důvěra a bezpečnost jsou základními součástmi těchto rozhovorů. Právě dnes má prezident OpenAI Greg Brockman vystoupit v Bílém domě spolu s vedoucími pracovníky společností Anthropic, Google, Inflection, Microsoft, Meta a Amazon, aby podpořil dobrovolné závazky k dosažení společných cílů v oblasti bezpečnosti a transparentnosti před vydáním nařízení o umělé inteligenci, které se připravuje. To přichází v návaznosti na velký hluk v Evropě související s regulací AI a také na měnící se nálady mezi některými dalšími. To vše je důležité pro OpenAI, která se snaží zaujmout pozici uvědomělého a zodpovědného hráče v této oblasti. Willner se ve svém příspěvku na LinkedIn o ničem z toho konkrétně nezmiňuje. Místo toho se vyjadřuje na vysoké úrovni a uvádí, že po spuštění ChatGPT se požadavky jeho práce v OpenAI přesunuly do „vysoce intenzivní fáze“. „Jsem hrdý na všechno, čeho náš tým za dobu mého působení v OpenAI dosáhl, a přestože moje práce tam byla jednou z nejúžasnějších a nejzajímavějších, jakou je dnes možné mít, od mého nástupu se také dramaticky rozrostla co do rozsahu a rozsahu,“ napsal. Ačkoli se s manželkou – Charlotte Willnerovou, která je rovněž specialistkou na důvěru a bezpečnost – oba zavázali, že rodina bude vždy na prvním místě, uvedl, že „v měsících následujících po spuštění ChatGPT jsem zjišťoval, že je stále obtížnější dodržet svou část dohody“. Willner je ve své funkci v OpenAI teprve 1,5 roku, ale má za sebou dlouhou kariéru v oboru, během níž vedl týmy pro důvěru a bezpečnost ve společnostech Facebook a Airbnb. Zajímavá je zejména práce na Facebooku. Jako jeden z prvních zaměstnanců se podílel na vypracování prvního stanoviska společnosti ke komunitním standardům, které dodnes slouží jako základ přístupu společnosti. Bylo to velmi formativní období pro společnost a pravděpodobně – vzhledem k vlivu, který měl Facebook na vývoj sociálních médií po celém světě – i pro internet a společnost obecně. Některé z těchto let se vyznačovaly velmi vyhraněnými postoji ke svobodě projevu a k tomu, jak Facebook musel odolávat výzvám k omezení kontroverzních skupin a kontroverzních příspěvků. Příkladem může být velmi rozsáhlý spor z roku 2009, který se odehrál na veřejném fóru ohledně toho, jak Facebook nakládá s účty a příspěvky popíračů holocaustu. Někteří zaměstnanci i vnější pozorovatelé se domnívali, že Facebook má povinnost zaujmout stanovisko a tyto příspěvky zakázat. Jiní se domnívali, že takový postup se podobá cenzuře a vysílá špatný signál kolem svobodné diskuse. Willner patřil do druhého tábora a domníval se, že „nenávistné projevy“ nejsou totéž co „přímé poškozování“, a proto by neměly být stejně moderovány. „Nemyslím si, že popírání holocaustu jako myšlenka sama o sobě představuje hrozbu pro bezpečnost ostatních,“ napsal tehdy. . Při zpětném pohledu, vzhledem k tomu, jak se odehrálo mnoho dalších událostí, to byl dost krátkozraký a naivní postoj. Zdá se však, že alespoň některé z těchto myšlenek se vyvinuly. V roce 2019, kdy už nebyl zaměstnancem sociální sítě, vystupoval proti tomu, jak společnost chtěla politikům a veřejně známým osobám udělit slabší výjimky z moderování obsahu. Pokud však byla potřeba položit správné základy ve Facebooku větší, než lidé tehdy předpokládali, platí to nyní pro novou vlnu technologií pravděpodobně ještě více. Podle tohoto článku v New York Times, který vyšel před necelým měsícem, byl Willner do OpenAI původně přiveden, aby mu pomohl vyřešit, jak zabránit zneužití DALL-E, generátoru obrázků tohoto startupu, a jeho využití k takovým věcem, jako je tvorba dětské pornografie s generativní umělou inteligencí. Ale jak se říká, OpenAI potřebuje tuto politiku včera. „Do roka se v této oblasti dostaneme do velmi problematického stavu,“ řekl NYT David Thiel, hlavní technolog Stanford Internet Observatory. Kdo teď bez Willnera povede OpenAI v této oblasti? „Děkujeme Daveovi za jeho cenné příspěvky do OpenAI. Jeho práce byla základem pro operacionalizaci našeho závazku bezpečného a zodpovědného používání naší technologie a připravila půdu pro budoucí pokrok v této oblasti. Mira Murati bude dočasně přímo řídit tým a Dave bude do konce roku pokračovat v poradenské činnosti. Hledáme technicky zdatného vedoucího pracovníka, který bude pokračovat v naší misi a zaměří se na návrh, vývoj a implementaci systémů, které zajistí bezpečné používání a škálovatelný růst naší technologie.“