Pomoc investorům
Invest mentoring
Odebírat Ranního Bullionáře
Podcast
Burzovnisvet Logo
  • Headlines
    • Breaking
    • Bullionář Daily
    • Akcie
    • Hospodářské výsledky
    • ETF
    • Dividendy
    • IPO
    • Forex
    • Komodity
    • Kryptoměny
    • Ekonomika
  • Příležitost
  • IPO Radar

    Nadcházející IPO.

    MDLN 17 prosince, 2025

    Americký výrobce a distributor zdravotnických potřeb a zařízení

    471A 16 prosince, 2025

    Holdingová společnost poskytující služby záruky nájemného

    TBA Bude oznámeno

    Americká platforma pro nákup a prodej vstupenek na sportovní a kulturní akce

    TBA Bude oznámeno

    Komunikační platforma zaměřeá na hlasovou, video a textovou komunikaci

    Minulé IPO.

    CDNL 10 prosince, 2025

    Stavební společnost specializující se na infrastrukturní projekty

    PPHC.L 1 prosince, 2025

    Společnost specializující se na komunikaci v oblasti vládních vztahů

    UGAI 3 prosince, 2025

    UltraGreen.ai míří na burzu: vše podstatné o nadcházejícím IPO

    2685.HK 27 listopadu, 2025

    Digitální společnost zaměřená na e-commerce a využívající prvky AI

  • Úspěch
    • Alternativní investice
    • Škola bullionáře
    • Miliardáři
    • Business
    • Bullionářova knihspirace
    • Bullionářův almanach
    • Bullionářův slovníček
  • AI
  • Česko
  • E-booky
  • Srovnávač brokerů
  • Kariéra
  • Login
Burzovnisvet.cz - Akcie, kurzy, burza, forex, komodity, IPO, dluhopisy - zpravodajství
  • Headlines
    • Breaking
    • Bullionář Daily
    • Akcie
    • Hospodářské výsledky
    • ETF
    • Dividendy
    • IPO
    • Forex
    • Komodity
    • Kryptoměny
    • Ekonomika
  • Příležitost
  • IPO Radar

    Nadcházející IPO.

    MDLN 17 prosince, 2025

    Americký výrobce a distributor zdravotnických potřeb a zařízení

    471A 16 prosince, 2025

    Holdingová společnost poskytující služby záruky nájemného

    TBA Bude oznámeno

    Americká platforma pro nákup a prodej vstupenek na sportovní a kulturní akce

    TBA Bude oznámeno

    Komunikační platforma zaměřeá na hlasovou, video a textovou komunikaci

    Minulé IPO.

    CDNL 10 prosince, 2025

    Stavební společnost specializující se na infrastrukturní projekty

    PPHC.L 1 prosince, 2025

    Společnost specializující se na komunikaci v oblasti vládních vztahů

    UGAI 3 prosince, 2025

    UltraGreen.ai míří na burzu: vše podstatné o nadcházejícím IPO

    2685.HK 27 listopadu, 2025

    Digitální společnost zaměřená na e-commerce a využívající prvky AI

  • Úspěch
    • Alternativní investice
    • Škola bullionáře
    • Miliardáři
    • Business
    • Bullionářova knihspirace
    • Bullionářův almanach
    • Bullionářův slovníček
  • AI
  • Česko
  • E-booky
  • Srovnávač brokerů
  • Kariéra
    • Žádný výsledek
      Zobrazit všechny výsledky
BS Logo

OpenAI: Společnost píše o jejím přístupu k bezpečnosti umělé inteligence

OpenAI usiluje o to, aby výkonná umělá inteligence byla bezpečná a obecně prospěšná.

Michal Kmeť Autor: Michal Kmeť
3 října, 2023
7 min. čtení
Zdroj: Burzovnisvet.cz

Zdroj: Burzovnisvet.cz

7 min.
čtení
Přihlaste se k odběru newsletteru
Chcete využít této příležitosti?

Víme, že naše nástroje umělé inteligence přinášejí lidem mnoho výhod již dnes. Naši uživatelé po celém světě nám řekli, že ChatGPT pomáhá zvyšovat jejich produktivitu, posilovat jejich kreativitu a nabízí jim učení na míru. Uvědomujeme si také, že stejně jako každá technologie, i tyto nástroje s sebou nesou reálná rizika – proto se snažíme zajistit, aby bezpečnost byla do našeho systému zabudována na všech úrovních.

Vytváření stále bezpečnějších systémů umělé inteligence

Před uvedením jakéhokoli nového systému na trh provádíme důkladné testování, zapojujeme externí odborníky pro získání zpětné vazby, pracujeme na zlepšení chování modelu pomocí technik, jako je posilování učení se zpětnou vazbou od lidí, a budujeme rozsáhlé bezpečnostní a monitorovací systémy.

Například poté, co jsme dokončili školení našeho nejnovějšího modelu GPT-4, strávili jsme více než šest měsíců prací v rámci celé organizace, abychom jej před zveřejněním učinili bezpečnějším a sladěnějším.

Zdroj: Unsplash

Domníváme se, že výkonné systémy umělé inteligence by měly být podrobeny přísnému hodnocení bezpečnosti. K zajištění přijetí takových postupů je zapotřebí regulace a my aktivně spolupracujeme s vládami na tom, jakou nejlepší formu by taková regulace mohla mít.

Poučení z reálného použití pro zlepšení ochranných opatření

Advertisement

Před nasazením se snažíme předvídatelným rizikům předcházet, nicméně to, co se můžeme dozvědět v laboratoři, má své hranice. Navzdory rozsáhlému výzkumu a testování nemůžeme předvídat všechny prospěšné způsoby, jak budou lidé naši technologii používat, ani všechny způsoby, jak ji budou zneužívat. Proto věříme, že učení se z reálného používání je zásadní součástí vytváření a uvolňování stále bezpečnějších systémů umělé inteligence v průběhu času.

Chcete využít této příležitosti?

Nové systémy umělé inteligence postupně a obezřetně uvolňujeme – se zásadními bezpečnostními opatřeními – stále širší skupině lidí a na základě získaných poznatků je neustále vylepšujeme.

Naše nejschopnější modely zpřístupňujeme prostřednictvím vlastních služeb a rozhraní API, takže vývojáři mohou tuto technologii zabudovat přímo do svých aplikací. Díky tomu můžeme monitorovat zneužití a přijímat opatření v případě jeho výskytu a neustále vytvářet opatření, která reagují na skutečné způsoby zneužití našich systémů – ne jen na teorie o tom, jak by zneužití mohlo vypadat.

Reálné používání nás také vedlo k tomu, abychom vyvíjeli stále jemnější zásady proti chování, které představuje skutečné riziko pro lidi, a zároveň umožňovalo mnoho prospěšných využití naší technologie.

Zdroj: Fussybytes

Jsme přesvědčeni, že společnost musí mít čas na aktualizaci a přizpůsobení se stále schopnější umělé inteligenci a že každý, koho se tato technologie týká, by měl mít možnost významně ovlivnit další vývoj umělé inteligence. Iterativní nasazení nám pomohlo zapojit různé zúčastněné strany do diskuse o zavádění technologií AI efektivněji, než kdyby neměly s těmito nástroji přímou zkušenost.

Ochrana dětí

Jedním z klíčových bodů našeho bezpečnostního úsilí je ochrana dětí. Vyžadujeme, aby naše nástroje umělé inteligence mohly používat osoby starší 18 let nebo starší 13 let se souhlasem rodičů, a zkoumáme možnosti ověření.

Nedovolujeme, aby naše technologie byla používána k vytváření nenávistného, obtěžujícího a násilného obsahu nebo obsahu pro dospělé. Náš nejnovější model GPT-4 má o 82 % nižší pravděpodobnost, že bude reagovat na žádosti o nepovolený obsah, než GPT-3.5, a zavedli jsme robustní systém pro monitorování zneužití. GPT-4 je nyní k dispozici předplatitelům služby ChatGPT Plus a doufáme, že časem bude k dispozici ještě většímu počtu lidí.

Vynaložili jsme značné úsilí, abychom minimalizovali potenciál našich modelů vytvářet obsah, který poškozuje děti. Například když se uživatelé pokusí nahrát do našich obrazových nástrojů materiál se sexuálním zneužíváním dětí, zablokujeme jej a nahlásíme Národnímu centru pro pohřešované a zneužívané děti.

Kromě našich výchozích bezpečnostních zábran spolupracujeme s vývojáři, jako je nezisková organizace Khan Academy, která vytvořila asistenta s umělou inteligencí, jenž funguje jako virtuální učitel pro studenty i jako asistent ve třídě pro učitele, na bezpečnostních opatřeních přizpůsobených jejich případům použití. Pracujeme také na funkcích, které vývojářům umožní nastavit přísnější standardy pro výstupy modelů, abychom lépe podpořili vývojáře a uživatele, kteří o takové funkce stojí.

Zdroj: ChatGPT

Respektování soukromí

Naše rozsáhlé jazykové modely jsou trénovány na rozsáhlém korpusu textů, který zahrnuje veřejně dostupný obsah, licencovaný obsah a obsah vytvořený lidskými recenzenty. Data nepoužíváme k prodeji našich služeb, reklamě nebo vytváření profilů lidí – data používáme k tomu, aby naše modely byly pro lidi užitečnější. Například ChatGPT se zlepšuje dalším tréninkem na základě konverzací, které s ním lidé vedou.

Některá naše tréninková data sice obsahují osobní informace, které jsou dostupné na veřejném internetu, ale chceme, aby se naše modely učily o světě, nikoli o soukromých osobách. Proto pracujeme na odstranění osobních informací z trénovacího souboru dat, kde je to možné, vylaďujeme modely tak, aby odmítaly žádosti o osobní informace soukromých osob, a reagujeme na žádosti jednotlivců o odstranění jejich osobních informací z našich systémů. Tyto kroky minimalizují možnost, že by naše modely mohly generovat odpovědi obsahující osobní údaje soukromých osob.

Pokračující výzkum

Při vytváření a nasazování schopnějších modelů budeme postupovat stále obezřetněji a s vývojem našich systémů umělé inteligence budeme i nadále zvyšovat bezpečnostní opatření.

Zdroj: Getty Images

S nasazením systému GPT-4 jsme sice čekali více než 6 měsíců, abychom lépe pochopili jeho možnosti, přínosy a rizika, ale někdy může být pro zlepšení bezpečnosti systémů umělé inteligence nutné počkat déle. Tvůrci politik a poskytovatelé UI proto budou muset zajistit, aby byl vývoj a nasazení UI účinně řízen v celosvětovém měřítku, aby nikdo neomezoval své možnosti, aby se prosadil. Jedná se o náročnou výzvu vyžadující technické i institucionální inovace, k jejímuž řešení však rádi přispějeme.

Řešení otázek bezpečnosti vyžaduje také rozsáhlou diskusi, experimentování a zapojení, včetně hranic chování systémů AI. Podporujeme a budeme podporovat spolupráci a otevřený dialog mezi zúčastněnými stranami s cílem vytvořit bezpečný ekosystém UI.

Víme, že naše nástroje umělé inteligence přinášejí lidem mnoho výhod již dnes. Naši uživatelé po celém světě nám řekli, že ChatGPT pomáhá zvyšovat jejich produktivitu, posilovat jejich kreativitu a nabízí jim učení na míru. Uvědomujeme si také, že stejně jako každá technologie, i tyto nástroje s sebou nesou reálná rizika – proto se snažíme zajistit, aby bezpečnost byla do našeho systému zabudována na všech úrovních.Před uvedením jakéhokoli nového systému na trh provádíme důkladné testování, zapojujeme externí odborníky pro získání zpětné vazby, pracujeme na zlepšení chování modelu pomocí technik, jako je posilování učení se zpětnou vazbou od lidí, a budujeme rozsáhlé bezpečnostní a monitorovací systémy.Například poté, co jsme dokončili školení našeho nejnovějšího modelu GPT-4, strávili jsme více než šest měsíců prací v rámci celé organizace, abychom jej před zveřejněním učinili bezpečnějším a sladěnějším.Domníváme se, že výkonné systémy umělé inteligence by měly být podrobeny přísnému hodnocení bezpečnosti. K zajištění přijetí takových postupů je zapotřebí regulace a my aktivně spolupracujeme s vládami na tom, jakou nejlepší formu by taková regulace mohla mít.Před nasazením se snažíme předvídatelným rizikům předcházet, nicméně to, co se můžeme dozvědět v laboratoři, má své hranice. Navzdory rozsáhlému výzkumu a testování nemůžeme předvídat všechny prospěšné způsoby, jak budou lidé naši technologii používat, ani všechny způsoby, jak ji budou zneužívat. Proto věříme, že učení se z reálného používání je zásadní součástí vytváření a uvolňování stále bezpečnějších systémů umělé inteligence v průběhu času.Chcete využít této příležitosti?Nové systémy umělé inteligence postupně a obezřetně uvolňujeme – se zásadními bezpečnostními opatřeními – stále širší skupině lidí a na základě získaných poznatků je neustále vylepšujeme.Naše nejschopnější modely zpřístupňujeme prostřednictvím vlastních služeb a rozhraní API, takže vývojáři mohou tuto technologii zabudovat přímo do svých aplikací. Díky tomu můžeme monitorovat zneužití a přijímat opatření v případě jeho výskytu a neustále vytvářet opatření, která reagují na skutečné způsoby zneužití našich systémů – ne jen na teorie o tom, jak by zneužití mohlo vypadat.Reálné používání nás také vedlo k tomu, abychom vyvíjeli stále jemnější zásady proti chování, které představuje skutečné riziko pro lidi, a zároveň umožňovalo mnoho prospěšných využití naší technologie.Jsme přesvědčeni, že společnost musí mít čas na aktualizaci a přizpůsobení se stále schopnější umělé inteligenci a že každý, koho se tato technologie týká, by měl mít možnost významně ovlivnit další vývoj umělé inteligence. Iterativní nasazení nám pomohlo zapojit různé zúčastněné strany do diskuse o zavádění technologií AI efektivněji, než kdyby neměly s těmito nástroji přímou zkušenost.Jedním z klíčových bodů našeho bezpečnostního úsilí je ochrana dětí. Vyžadujeme, aby naše nástroje umělé inteligence mohly používat osoby starší 18 let nebo starší 13 let se souhlasem rodičů, a zkoumáme možnosti ověření.Nedovolujeme, aby naše technologie byla používána k vytváření nenávistného, obtěžujícího a násilného obsahu nebo obsahu pro dospělé. Náš nejnovější model GPT-4 má o 82 % nižší pravděpodobnost, že bude reagovat na žádosti o nepovolený obsah, než GPT-3.5, a zavedli jsme robustní systém pro monitorování zneužití. GPT-4 je nyní k dispozici předplatitelům služby ChatGPT Plus a doufáme, že časem bude k dispozici ještě většímu počtu lidí.Vynaložili jsme značné úsilí, abychom minimalizovali potenciál našich modelů vytvářet obsah, který poškozuje děti. Například když se uživatelé pokusí nahrát do našich obrazových nástrojů materiál se sexuálním zneužíváním dětí, zablokujeme jej a nahlásíme Národnímu centru pro pohřešované a zneužívané děti.Kromě našich výchozích bezpečnostních zábran spolupracujeme s vývojáři, jako je nezisková organizace Khan Academy, která vytvořila asistenta s umělou inteligencí, jenž funguje jako virtuální učitel pro studenty i jako asistent ve třídě pro učitele, na bezpečnostních opatřeních přizpůsobených jejich případům použití. Pracujeme také na funkcích, které vývojářům umožní nastavit přísnější standardy pro výstupy modelů, abychom lépe podpořili vývojáře a uživatele, kteří o takové funkce stojí.Naše rozsáhlé jazykové modely jsou trénovány na rozsáhlém korpusu textů, který zahrnuje veřejně dostupný obsah, licencovaný obsah a obsah vytvořený lidskými recenzenty. Data nepoužíváme k prodeji našich služeb, reklamě nebo vytváření profilů lidí – data používáme k tomu, aby naše modely byly pro lidi užitečnější. Například ChatGPT se zlepšuje dalším tréninkem na základě konverzací, které s ním lidé vedou.Některá naše tréninková data sice obsahují osobní informace, které jsou dostupné na veřejném internetu, ale chceme, aby se naše modely učily o světě, nikoli o soukromých osobách. Proto pracujeme na odstranění osobních informací z trénovacího souboru dat, kde je to možné, vylaďujeme modely tak, aby odmítaly žádosti o osobní informace soukromých osob, a reagujeme na žádosti jednotlivců o odstranění jejich osobních informací z našich systémů. Tyto kroky minimalizují možnost, že by naše modely mohly generovat odpovědi obsahující osobní údaje soukromých osob.Při vytváření a nasazování schopnějších modelů budeme postupovat stále obezřetněji a s vývojem našich systémů umělé inteligence budeme i nadále zvyšovat bezpečnostní opatření.S nasazením systému GPT-4 jsme sice čekali více než 6 měsíců, abychom lépe pochopili jeho možnosti, přínosy a rizika, ale někdy může být pro zlepšení bezpečnosti systémů umělé inteligence nutné počkat déle. Tvůrci politik a poskytovatelé UI proto budou muset zajistit, aby byl vývoj a nasazení UI účinně řízen v celosvětovém měřítku, aby nikdo neomezoval své možnosti, aby se prosadil. Jedná se o náročnou výzvu vyžadující technické i institucionální inovace, k jejímuž řešení však rádi přispějeme.Řešení otázek bezpečnosti vyžaduje také rozsáhlou diskusi, experimentování a zapojení, včetně hranic chování systémů AI. Podporujeme a budeme podporovat spolupráci a otevřený dialog mezi zúčastněnými stranami s cílem vytvořit bezpečný ekosystém UI.
Tagy: bezpečnostChatGPTopenAIumělá inteligence


    Chcete využít této příležitosti?


    Zanechte své kontaktní údaje, ozve se Vám licencovaný specialista a zároveň získáte:

    • Přístup k nejžhavějším IPO a investičním trendům.

    • Pravidelnou dávku aktuálních tipů pro Vaše portfolio v našem Newsletteru.

    • Investiční portfolio

    Máte zkušenosti s investováním?

    Jakou částku jste připraven použít na investování?



    Odesláním formuláře souhlasíte se zasíláním newsletteru Burzovní svět. Odhlásit se můžete kdykoli.

    Advertisement

    Breaking.

    13:13

    NBC 10 WJAR hlásí, že policie v Providence zadržela osobu podezřelou v souvislosti se střelbou na Brownově univerzitě.

    12:28

    Ruský zákaz herní platformy Roblox vyvolává neobvyklý protest.

    12:24

    Proč se americký železniční nákladní sektor stal více znečišťujícím než uhelné elektrárny

    11:54

    Mohl by se AI stát novou hlavní výzvou pro e-commerce a služby doručování jídla?

    11:13

    Zkoumání obrovské příležitosti v hodnotě 1 bilionu dolarů na trhu autonomních vozidel v USA

    10:58

    Japonská centrální banka: Očekávání roste před zvýšením úrokových sazeb tento týden.

    Advertisement

    Příležitosti.

    Zdroj: Getty Images
    Akcie

    Citi vidí v akciích Boeing atraktivní příležitost před novým rokem

    12 prosince, 2025

    Investiční banka Citi se domnívá, že akcie společnosti Boeing vstupují do nového roku v mimořádně zajímavé pozici a mohou nabídnout...

    Zdroj: Getty Images

    Akcie Meta Platforms mohou být tichým vítězem AI, býci radí kupovat

    12 prosince, 2025
    Zdroj: Unsplash

    Akcie cestovních společností rostou díky sazbám Fedu a silné poptávce

    12 prosince, 2025
    Zdroj: Bloomberg

    Akcie Roku už letos posílily o více než 40 %, Jefferies očekává další růst

    11 prosince, 2025
    Zdroj: Burzovnísvět

    IPO JST a Beta Technologies: emise potvrzují sílu závěru roku 2025

    11 prosince, 2025

    IPO Radar.

    Medline Inc.

    Datum IPO: 17 prosince, 2025
    Potenciální ocenění: 55,3 miliardy USD

    Buďte u toho

    Nejčtenější zprávy.

    Rok 2026 rozhodne o budoucnosti realitního modelu Opendoor

    13 prosince, 2025

    S&P 500 klesá, akcie Broadcomu dostávají zabrat

    12 prosince, 2025

    S&P 500 končí výše, Fed snížil sazby již potřetí v tomto roce

    10 prosince, 2025

    Broadcom zajistil propad celého technologického sektoru

    12 prosince, 2025

    CSG získává mnohamiliardový kontrakt na munici a posiluje svou globální pozici

    10 prosince, 2025

    Dokáže Meta zopakovat „rok efektivity“ a znovu nastartovat růst akcií v roce 2026?

    13 prosince, 2025

    Nvidia jako hlavní kandidát na první firmu s hodnotou 10 bilionů dolarů

    14 prosince, 2025

    S&P 500 uzavřel na rekordním maximu navzdory poklesu Oracle a AI

    11 prosince, 2025
    Advertisement

    Tip editora.

    Zdroj: BurzovníSvět.cz
    Tip editora

    Bublina na trhu nezastavila boom umělé inteligence v Silicon Valley

    30 listopadu, 2025

    Během technologického boomu, který definoval druhou dekádu tohoto století, byla uniformou Silicon Valley obyčejná mikina s kapucí. Tento symbol ležérnosti...

    Advertisement

    Veškeré materiály a informace umístěné na internetových stránkách Burzovního Světa jsou čerpány z veřejně dostupných zdrojů, jako napriklad tyto a slouží výhradně pro informační účely. Při jejich tvorbě bylo postupováno s vynaložením maximální péče. Informace uveřejněné na internetových stránkách Burzovní Svět nemají charakter právních, daňových či jiného doporučení, analýz nebo návrhů a nabídek ke koupi či prodeji investičních nástrojů, jejichž realizací může dojít k poklesu či ztrátě investovaného majetku. Investiční doporučení, která jsou takto označena, jsou pouze informativní a nezávazná. Burzovní Svět neodpovídá za jakoukoli případnou škodu, která v souvislosti s nimi vznikne. Pro obchodování s investičními nástroji proto využívejte výhradně společnosti s udělenou licencí ČNB, popřípadě s platným povolením k činnosti na území České Republiky.

    Burzovní Svět zároveň prohlašuje, že neodpovídá za přímou i nepřímou škodu vzniklou v důsledku obchodování na kapitálových trzích všeobecně a příspěvky v diskusích vyjadřující názory čtenářů, nemusí být v souladu s postojem provozovatele a není možno je tím pádem považovat za jeho názory. Udělením souhlasu / přijetím podmínek zároveň souhlasíte s možností zasílání, či jiného kontaktování v rámci marketingových služeb obchodních partnerů Burzovního Světa. Více informací o cookies

    • Zásady ochrany osobních údajů a cookies
    • Reklama
    • Kontakt

    Burzovnisvet.cz © 2025

    Burzovnisvet.cz © 2025

    Název nebo symbol
    Žádný výsledek
    Zobrazit všechny výsledky
    • Burzy
      • Headlines
      • Breaking
      • Akcie
      • ETF
      • Dividendy
      • IPO
      • Forex
      • Komodity
      • Kryptoměny
      • Ekonomika
      • Hospodářské výsledky
    • Příležitost
    • IPO Radar
    • Nejčtenější
    • Bullionář Daily
    • Úspěch
      • Alternativní investice
      • Škola bullionáře
      • Miliardáři
      • Business
      • Bullionářova knihspirace
      • Bullionářův almanach
      • Bullionářův slovníček
    • AI
    • Česko
    • Invest mentoring
    • E-booky
    • Srovnávač brokerů
    • Kariéra
    • Pomoc investorům
    Odebírat Ranního Bullionáře Podcast

    Retrieve your password

    Please enter your username or email address to reset your password.

    ·
    Poslední událost
    Poslední událost

      Používáme soubory cookie a podobné technologie, které jsou nezbytné pro provoz webových stránek. Další soubory cookie se používají k provádění analýzy používání webových stránek. Pokračováním v používání našich webových stránek vyjadřujete souhlas s používáním souborů cookie. Další informace naleznete v našich Zásadách ochrany osobních údajů.