Víme, že naše nástroje umělé inteligence přinášejí lidem mnoho výhod již dnes. Naši uživatelé po celém světě nám řekli, že ChatGPT pomáhá zvyšovat jejich produktivitu, posilovat jejich kreativitu a nabízí jim učení na míru. Uvědomujeme si také, že stejně jako každá technologie, i tyto nástroje s sebou nesou reálná rizika – proto se snažíme zajistit, aby bezpečnost byla do našeho systému zabudována na všech úrovních.
Vytváření stále bezpečnějších systémů umělé inteligence
Před uvedením jakéhokoli nového systému na trh provádíme důkladné testování, zapojujeme externí odborníky pro získání zpětné vazby, pracujeme na zlepšení chování modelu pomocí technik, jako je posilování učení se zpětnou vazbou od lidí, a budujeme rozsáhlé bezpečnostní a monitorovací systémy.
Například poté, co jsme dokončili školení našeho nejnovějšího modelu GPT-4, strávili jsme více než šest měsíců prací v rámci celé organizace, abychom jej před zveřejněním učinili bezpečnějším a sladěnějším.

Domníváme se, že výkonné systémy umělé inteligence by měly být podrobeny přísnému hodnocení bezpečnosti. K zajištění přijetí takových postupů je zapotřebí regulace a my aktivně spolupracujeme s vládami na tom, jakou nejlepší formu by taková regulace mohla mít.
Poučení z reálného použití pro zlepšení ochranných opatření
Před nasazením se snažíme předvídatelným rizikům předcházet, nicméně to, co se můžeme dozvědět v laboratoři, má své hranice. Navzdory rozsáhlému výzkumu a testování nemůžeme předvídat všechny prospěšné způsoby, jak budou lidé naši technologii používat, ani všechny způsoby, jak ji budou zneužívat. Proto věříme, že učení se z reálného používání je zásadní součástí vytváření a uvolňování stále bezpečnějších systémů umělé inteligence v průběhu času.
Nové systémy umělé inteligence postupně a obezřetně uvolňujeme – se zásadními bezpečnostními opatřeními – stále širší skupině lidí a na základě získaných poznatků je neustále vylepšujeme.
Naše nejschopnější modely zpřístupňujeme prostřednictvím vlastních služeb a rozhraní API, takže vývojáři mohou tuto technologii zabudovat přímo do svých aplikací. Díky tomu můžeme monitorovat zneužití a přijímat opatření v případě jeho výskytu a neustále vytvářet opatření, která reagují na skutečné způsoby zneužití našich systémů – ne jen na teorie o tom, jak by zneužití mohlo vypadat.
Reálné používání nás také vedlo k tomu, abychom vyvíjeli stále jemnější zásady proti chování, které představuje skutečné riziko pro lidi, a zároveň umožňovalo mnoho prospěšných využití naší technologie.

Jsme přesvědčeni, že společnost musí mít čas na aktualizaci a přizpůsobení se stále schopnější umělé inteligenci a že každý, koho se tato technologie týká, by měl mít možnost významně ovlivnit další vývoj umělé inteligence. Iterativní nasazení nám pomohlo zapojit různé zúčastněné strany do diskuse o zavádění technologií AI efektivněji, než kdyby neměly s těmito nástroji přímou zkušenost.
Ochrana dětí
Jedním z klíčových bodů našeho bezpečnostního úsilí je ochrana dětí. Vyžadujeme, aby naše nástroje umělé inteligence mohly používat osoby starší 18 let nebo starší 13 let se souhlasem rodičů, a zkoumáme možnosti ověření.
Nedovolujeme, aby naše technologie byla používána k vytváření nenávistného, obtěžujícího a násilného obsahu nebo obsahu pro dospělé. Náš nejnovější model GPT-4 má o 82 % nižší pravděpodobnost, že bude reagovat na žádosti o nepovolený obsah, než GPT-3.5, a zavedli jsme robustní systém pro monitorování zneužití. GPT-4 je nyní k dispozici předplatitelům služby ChatGPT Plus a doufáme, že časem bude k dispozici ještě většímu počtu lidí.
Vynaložili jsme značné úsilí, abychom minimalizovali potenciál našich modelů vytvářet obsah, který poškozuje děti. Například když se uživatelé pokusí nahrát do našich obrazových nástrojů materiál se sexuálním zneužíváním dětí, zablokujeme jej a nahlásíme Národnímu centru pro pohřešované a zneužívané děti.
Kromě našich výchozích bezpečnostních zábran spolupracujeme s vývojáři, jako je nezisková organizace Khan Academy, která vytvořila asistenta s umělou inteligencí, jenž funguje jako virtuální učitel pro studenty i jako asistent ve třídě pro učitele, na bezpečnostních opatřeních přizpůsobených jejich případům použití. Pracujeme také na funkcích, které vývojářům umožní nastavit přísnější standardy pro výstupy modelů, abychom lépe podpořili vývojáře a uživatele, kteří o takové funkce stojí.

Respektování soukromí
Naše rozsáhlé jazykové modely jsou trénovány na rozsáhlém korpusu textů, který zahrnuje veřejně dostupný obsah, licencovaný obsah a obsah vytvořený lidskými recenzenty. Data nepoužíváme k prodeji našich služeb, reklamě nebo vytváření profilů lidí – data používáme k tomu, aby naše modely byly pro lidi užitečnější. Například ChatGPT se zlepšuje dalším tréninkem na základě konverzací, které s ním lidé vedou.
Některá naše tréninková data sice obsahují osobní informace, které jsou dostupné na veřejném internetu, ale chceme, aby se naše modely učily o světě, nikoli o soukromých osobách. Proto pracujeme na odstranění osobních informací z trénovacího souboru dat, kde je to možné, vylaďujeme modely tak, aby odmítaly žádosti o osobní informace soukromých osob, a reagujeme na žádosti jednotlivců o odstranění jejich osobních informací z našich systémů. Tyto kroky minimalizují možnost, že by naše modely mohly generovat odpovědi obsahující osobní údaje soukromých osob.
Pokračující výzkum
Při vytváření a nasazování schopnějších modelů budeme postupovat stále obezřetněji a s vývojem našich systémů umělé inteligence budeme i nadále zvyšovat bezpečnostní opatření.

S nasazením systému GPT-4 jsme sice čekali více než 6 měsíců, abychom lépe pochopili jeho možnosti, přínosy a rizika, ale někdy může být pro zlepšení bezpečnosti systémů umělé inteligence nutné počkat déle. Tvůrci politik a poskytovatelé UI proto budou muset zajistit, aby byl vývoj a nasazení UI účinně řízen v celosvětovém měřítku, aby nikdo neomezoval své možnosti, aby se prosadil. Jedná se o náročnou výzvu vyžadující technické i institucionální inovace, k jejímuž řešení však rádi přispějeme.
Řešení otázek bezpečnosti vyžaduje také rozsáhlou diskusi, experimentování a zapojení, včetně hranic chování systémů AI. Podporujeme a budeme podporovat spolupráci a otevřený dialog mezi zúčastněnými stranami s cílem vytvořit bezpečný ekosystém UI.
Chcete využít této příležitosti?
Zanechte svůj telefon a email a budete kontaktováni licencovanými odborníky