Invest mentoring
Odebírat Ranního Bullionáře
Podcast
Burzovnisvet Logo
  • Headlines
    • Breaking
    • Bullionář Daily
    • Akcie
    • Hospodářské výsledky
    • ETF
    • Dividendy
    • IPO
    • Forex
    • Komodity
    • Kryptoměny
    • Ekonomika
  • Příležitost
  • DIP
  • IPO Radar
    KLAR 10 září, 2025

    Švédská fintech společnost, která poskytuje služby „kup teď, zaplať později“

    TBA Bude oznámeno

    Finančně-technologická společnost nabízející širokou škálu finančních služeb

    TBA Bude oznámeno

    ​Komunikační platforma umožňující uživatelům komunikovat pomoci hlasu a textu

    TBA Bude oznámeno

    Britská digitální banka a první peer-to-peer (P2P) platforma na světě

    TBA Bude oznámeno

    Technologická společnost poskytující infrastrukturu pro online platby

    Zdroj: Shein
    TBA Bude oznámeno

    Čínska společnost pro globální online prodej rychlé módy za dostupné ceny

    TBA Bude oznámeno

    Společnost poskytující cloudovou platformu pro datovou analytiku

  • Úspěch
    • Alternativní investice
    • Škola bullionáře
    • Miliardáři
    • Business
    • Bullionářova knihspirace
    • Bullionářův almanach
    • Bullionářův slovníček
  • AI
  • Česko
  • E-booky
  • Srovnávač brokerů
  • Kariéra
  • Login
Burzovnisvet.cz - Akcie, kurzy, burza, forex, komodity, IPO, dluhopisy - zpravodajství
  • Headlines
    • Breaking
    • Bullionář Daily
    • Akcie
    • Hospodářské výsledky
    • ETF
    • Dividendy
    • IPO
    • Forex
    • Komodity
    • Kryptoměny
    • Ekonomika
  • Příležitost
  • DIP
  • IPO Radar
    KLAR 10 září, 2025

    Švédská fintech společnost, která poskytuje služby „kup teď, zaplať později“

    TBA Bude oznámeno

    Finančně-technologická společnost nabízející širokou škálu finančních služeb

    TBA Bude oznámeno

    ​Komunikační platforma umožňující uživatelům komunikovat pomoci hlasu a textu

    TBA Bude oznámeno

    Britská digitální banka a první peer-to-peer (P2P) platforma na světě

    TBA Bude oznámeno

    Technologická společnost poskytující infrastrukturu pro online platby

    Zdroj: Shein
    TBA Bude oznámeno

    Čínska společnost pro globální online prodej rychlé módy za dostupné ceny

    TBA Bude oznámeno

    Společnost poskytující cloudovou platformu pro datovou analytiku

  • Úspěch
    • Alternativní investice
    • Škola bullionáře
    • Miliardáři
    • Business
    • Bullionářova knihspirace
    • Bullionářův almanach
    • Bullionářův slovníček
  • AI
  • Česko
  • E-booky
  • Srovnávač brokerů
  • Kariéra
    • Žádný výsledek
      Zobrazit všechny výsledky
BS Logo

OpenAI: Společnost píše o jejím přístupu k bezpečnosti umělé inteligence

OpenAI usiluje o to, aby výkonná umělá inteligence byla bezpečná a obecně prospěšná.

Michal Kmeť Autor: Michal Kmeť
3 října, 2023
7 min. čtení
Zdroj: Burzovnisvet.cz

Zdroj: Burzovnisvet.cz

7 min.
čtení
Chcete využít této příležitosti? Přihlaste se k odběru newsletteru

Víme, že naše nástroje umělé inteligence přinášejí lidem mnoho výhod již dnes. Naši uživatelé po celém světě nám řekli, že ChatGPT pomáhá zvyšovat jejich produktivitu, posilovat jejich kreativitu a nabízí jim učení na míru. Uvědomujeme si také, že stejně jako každá technologie, i tyto nástroje s sebou nesou reálná rizika – proto se snažíme zajistit, aby bezpečnost byla do našeho systému zabudována na všech úrovních.

Vytváření stále bezpečnějších systémů umělé inteligence

Před uvedením jakéhokoli nového systému na trh provádíme důkladné testování, zapojujeme externí odborníky pro získání zpětné vazby, pracujeme na zlepšení chování modelu pomocí technik, jako je posilování učení se zpětnou vazbou od lidí, a budujeme rozsáhlé bezpečnostní a monitorovací systémy.

Například poté, co jsme dokončili školení našeho nejnovějšího modelu GPT-4, strávili jsme více než šest měsíců prací v rámci celé organizace, abychom jej před zveřejněním učinili bezpečnějším a sladěnějším.

Zdroj: Unsplash

Domníváme se, že výkonné systémy umělé inteligence by měly být podrobeny přísnému hodnocení bezpečnosti. K zajištění přijetí takových postupů je zapotřebí regulace a my aktivně spolupracujeme s vládami na tom, jakou nejlepší formu by taková regulace mohla mít.

Poučení z reálného použití pro zlepšení ochranných opatření

Advertisement

Před nasazením se snažíme předvídatelným rizikům předcházet, nicméně to, co se můžeme dozvědět v laboratoři, má své hranice. Navzdory rozsáhlému výzkumu a testování nemůžeme předvídat všechny prospěšné způsoby, jak budou lidé naši technologii používat, ani všechny způsoby, jak ji budou zneužívat. Proto věříme, že učení se z reálného používání je zásadní součástí vytváření a uvolňování stále bezpečnějších systémů umělé inteligence v průběhu času.

Chcete využít této příležitosti?

Nové systémy umělé inteligence postupně a obezřetně uvolňujeme – se zásadními bezpečnostními opatřeními – stále širší skupině lidí a na základě získaných poznatků je neustále vylepšujeme.

Naše nejschopnější modely zpřístupňujeme prostřednictvím vlastních služeb a rozhraní API, takže vývojáři mohou tuto technologii zabudovat přímo do svých aplikací. Díky tomu můžeme monitorovat zneužití a přijímat opatření v případě jeho výskytu a neustále vytvářet opatření, která reagují na skutečné způsoby zneužití našich systémů – ne jen na teorie o tom, jak by zneužití mohlo vypadat.

Reálné používání nás také vedlo k tomu, abychom vyvíjeli stále jemnější zásady proti chování, které představuje skutečné riziko pro lidi, a zároveň umožňovalo mnoho prospěšných využití naší technologie.

Zdroj: Fussybytes

Jsme přesvědčeni, že společnost musí mít čas na aktualizaci a přizpůsobení se stále schopnější umělé inteligenci a že každý, koho se tato technologie týká, by měl mít možnost významně ovlivnit další vývoj umělé inteligence. Iterativní nasazení nám pomohlo zapojit různé zúčastněné strany do diskuse o zavádění technologií AI efektivněji, než kdyby neměly s těmito nástroji přímou zkušenost.

Ochrana dětí

Jedním z klíčových bodů našeho bezpečnostního úsilí je ochrana dětí. Vyžadujeme, aby naše nástroje umělé inteligence mohly používat osoby starší 18 let nebo starší 13 let se souhlasem rodičů, a zkoumáme možnosti ověření.

Nedovolujeme, aby naše technologie byla používána k vytváření nenávistného, obtěžujícího a násilného obsahu nebo obsahu pro dospělé. Náš nejnovější model GPT-4 má o 82 % nižší pravděpodobnost, že bude reagovat na žádosti o nepovolený obsah, než GPT-3.5, a zavedli jsme robustní systém pro monitorování zneužití. GPT-4 je nyní k dispozici předplatitelům služby ChatGPT Plus a doufáme, že časem bude k dispozici ještě většímu počtu lidí.

Vynaložili jsme značné úsilí, abychom minimalizovali potenciál našich modelů vytvářet obsah, který poškozuje děti. Například když se uživatelé pokusí nahrát do našich obrazových nástrojů materiál se sexuálním zneužíváním dětí, zablokujeme jej a nahlásíme Národnímu centru pro pohřešované a zneužívané děti.

Kromě našich výchozích bezpečnostních zábran spolupracujeme s vývojáři, jako je nezisková organizace Khan Academy, která vytvořila asistenta s umělou inteligencí, jenž funguje jako virtuální učitel pro studenty i jako asistent ve třídě pro učitele, na bezpečnostních opatřeních přizpůsobených jejich případům použití. Pracujeme také na funkcích, které vývojářům umožní nastavit přísnější standardy pro výstupy modelů, abychom lépe podpořili vývojáře a uživatele, kteří o takové funkce stojí.

Zdroj: ChatGPT

Respektování soukromí

Naše rozsáhlé jazykové modely jsou trénovány na rozsáhlém korpusu textů, který zahrnuje veřejně dostupný obsah, licencovaný obsah a obsah vytvořený lidskými recenzenty. Data nepoužíváme k prodeji našich služeb, reklamě nebo vytváření profilů lidí – data používáme k tomu, aby naše modely byly pro lidi užitečnější. Například ChatGPT se zlepšuje dalším tréninkem na základě konverzací, které s ním lidé vedou.

Některá naše tréninková data sice obsahují osobní informace, které jsou dostupné na veřejném internetu, ale chceme, aby se naše modely učily o světě, nikoli o soukromých osobách. Proto pracujeme na odstranění osobních informací z trénovacího souboru dat, kde je to možné, vylaďujeme modely tak, aby odmítaly žádosti o osobní informace soukromých osob, a reagujeme na žádosti jednotlivců o odstranění jejich osobních informací z našich systémů. Tyto kroky minimalizují možnost, že by naše modely mohly generovat odpovědi obsahující osobní údaje soukromých osob.

Pokračující výzkum

Při vytváření a nasazování schopnějších modelů budeme postupovat stále obezřetněji a s vývojem našich systémů umělé inteligence budeme i nadále zvyšovat bezpečnostní opatření.

Zdroj: Getty Images

S nasazením systému GPT-4 jsme sice čekali více než 6 měsíců, abychom lépe pochopili jeho možnosti, přínosy a rizika, ale někdy může být pro zlepšení bezpečnosti systémů umělé inteligence nutné počkat déle. Tvůrci politik a poskytovatelé UI proto budou muset zajistit, aby byl vývoj a nasazení UI účinně řízen v celosvětovém měřítku, aby nikdo neomezoval své možnosti, aby se prosadil. Jedná se o náročnou výzvu vyžadující technické i institucionální inovace, k jejímuž řešení však rádi přispějeme.

Řešení otázek bezpečnosti vyžaduje také rozsáhlou diskusi, experimentování a zapojení, včetně hranic chování systémů AI. Podporujeme a budeme podporovat spolupráci a otevřený dialog mezi zúčastněnými stranami s cílem vytvořit bezpečný ekosystém UI.

Víme, že naše nástroje umělé inteligence přinášejí lidem mnoho výhod již dnes. Naši uživatelé po celém světě nám řekli, že ChatGPT pomáhá zvyšovat jejich produktivitu, posilovat jejich kreativitu a nabízí jim učení na míru. Uvědomujeme si také, že stejně jako každá technologie, i tyto nástroje s sebou nesou reálná rizika – proto se snažíme zajistit, aby bezpečnost byla do našeho systému zabudována na všech úrovních.Před uvedením jakéhokoli nového systému na trh provádíme důkladné testování, zapojujeme externí odborníky pro získání zpětné vazby, pracujeme na zlepšení chování modelu pomocí technik, jako je posilování učení se zpětnou vazbou od lidí, a budujeme rozsáhlé bezpečnostní a monitorovací systémy.Například poté, co jsme dokončili školení našeho nejnovějšího modelu GPT-4, strávili jsme více než šest měsíců prací v rámci celé organizace, abychom jej před zveřejněním učinili bezpečnějším a sladěnějším.Domníváme se, že výkonné systémy umělé inteligence by měly být podrobeny přísnému hodnocení bezpečnosti. K zajištění přijetí takových postupů je zapotřebí regulace a my aktivně spolupracujeme s vládami na tom, jakou nejlepší formu by taková regulace mohla mít.Před nasazením se snažíme předvídatelným rizikům předcházet, nicméně to, co se můžeme dozvědět v laboratoři, má své hranice. Navzdory rozsáhlému výzkumu a testování nemůžeme předvídat všechny prospěšné způsoby, jak budou lidé naši technologii používat, ani všechny způsoby, jak ji budou zneužívat. Proto věříme, že učení se z reálného používání je zásadní součástí vytváření a uvolňování stále bezpečnějších systémů umělé inteligence v průběhu času. Chcete využít této příležitosti?Nové systémy umělé inteligence postupně a obezřetně uvolňujeme – se zásadními bezpečnostními opatřeními – stále širší skupině lidí a na základě získaných poznatků je neustále vylepšujeme.Naše nejschopnější modely zpřístupňujeme prostřednictvím vlastních služeb a rozhraní API, takže vývojáři mohou tuto technologii zabudovat přímo do svých aplikací. Díky tomu můžeme monitorovat zneužití a přijímat opatření v případě jeho výskytu a neustále vytvářet opatření, která reagují na skutečné způsoby zneužití našich systémů – ne jen na teorie o tom, jak by zneužití mohlo vypadat.Reálné používání nás také vedlo k tomu, abychom vyvíjeli stále jemnější zásady proti chování, které představuje skutečné riziko pro lidi, a zároveň umožňovalo mnoho prospěšných využití naší technologie.Jsme přesvědčeni, že společnost musí mít čas na aktualizaci a přizpůsobení se stále schopnější umělé inteligenci a že každý, koho se tato technologie týká, by měl mít možnost významně ovlivnit další vývoj umělé inteligence. Iterativní nasazení nám pomohlo zapojit různé zúčastněné strany do diskuse o zavádění technologií AI efektivněji, než kdyby neměly s těmito nástroji přímou zkušenost.Jedním z klíčových bodů našeho bezpečnostního úsilí je ochrana dětí. Vyžadujeme, aby naše nástroje umělé inteligence mohly používat osoby starší 18 let nebo starší 13 let se souhlasem rodičů, a zkoumáme možnosti ověření.Nedovolujeme, aby naše technologie byla používána k vytváření nenávistného, obtěžujícího a násilného obsahu nebo obsahu pro dospělé. Náš nejnovější model GPT-4 má o 82 % nižší pravděpodobnost, že bude reagovat na žádosti o nepovolený obsah, než GPT-3.5, a zavedli jsme robustní systém pro monitorování zneužití. GPT-4 je nyní k dispozici předplatitelům služby ChatGPT Plus a doufáme, že časem bude k dispozici ještě většímu počtu lidí.Vynaložili jsme značné úsilí, abychom minimalizovali potenciál našich modelů vytvářet obsah, který poškozuje děti. Například když se uživatelé pokusí nahrát do našich obrazových nástrojů materiál se sexuálním zneužíváním dětí, zablokujeme jej a nahlásíme Národnímu centru pro pohřešované a zneužívané děti.Kromě našich výchozích bezpečnostních zábran spolupracujeme s vývojáři, jako je nezisková organizace Khan Academy, která vytvořila asistenta s umělou inteligencí, jenž funguje jako virtuální učitel pro studenty i jako asistent ve třídě pro učitele, na bezpečnostních opatřeních přizpůsobených jejich případům použití. Pracujeme také na funkcích, které vývojářům umožní nastavit přísnější standardy pro výstupy modelů, abychom lépe podpořili vývojáře a uživatele, kteří o takové funkce stojí.Naše rozsáhlé jazykové modely jsou trénovány na rozsáhlém korpusu textů, který zahrnuje veřejně dostupný obsah, licencovaný obsah a obsah vytvořený lidskými recenzenty. Data nepoužíváme k prodeji našich služeb, reklamě nebo vytváření profilů lidí – data používáme k tomu, aby naše modely byly pro lidi užitečnější. Například ChatGPT se zlepšuje dalším tréninkem na základě konverzací, které s ním lidé vedou.Některá naše tréninková data sice obsahují osobní informace, které jsou dostupné na veřejném internetu, ale chceme, aby se naše modely učily o světě, nikoli o soukromých osobách. Proto pracujeme na odstranění osobních informací z trénovacího souboru dat, kde je to možné, vylaďujeme modely tak, aby odmítaly žádosti o osobní informace soukromých osob, a reagujeme na žádosti jednotlivců o odstranění jejich osobních informací z našich systémů. Tyto kroky minimalizují možnost, že by naše modely mohly generovat odpovědi obsahující osobní údaje soukromých osob.Při vytváření a nasazování schopnějších modelů budeme postupovat stále obezřetněji a s vývojem našich systémů umělé inteligence budeme i nadále zvyšovat bezpečnostní opatření.S nasazením systému GPT-4 jsme sice čekali více než 6 měsíců, abychom lépe pochopili jeho možnosti, přínosy a rizika, ale někdy může být pro zlepšení bezpečnosti systémů umělé inteligence nutné počkat déle. Tvůrci politik a poskytovatelé UI proto budou muset zajistit, aby byl vývoj a nasazení UI účinně řízen v celosvětovém měřítku, aby nikdo neomezoval své možnosti, aby se prosadil. Jedná se o náročnou výzvu vyžadující technické i institucionální inovace, k jejímuž řešení však rádi přispějeme.Řešení otázek bezpečnosti vyžaduje také rozsáhlou diskusi, experimentování a zapojení, včetně hranic chování systémů AI. Podporujeme a budeme podporovat spolupráci a otevřený dialog mezi zúčastněnými stranami s cílem vytvořit bezpečný ekosystém UI.
Tagy: bezpečnostChatGPTopenAIumělá inteligence

Chcete využít této příležitosti?

Zanechte svůj telefon a email a budete kontaktováni licencovanými odborníky

      Advertisement

      Breaking.

      15:47

      Co teď čeká letecké společnosti po bankrotu Spirit Airlines?

      15:32

      Zde je několik informací, které byste měli vědět o akciovém trhu v létě tohoto roku

      15:15

      UBS zvyšuje hodnocení výrobce skla Corning na „koupit“ díky růstu poptávky po vláknech poháněném umělou inteligencí

      15:00

      SAP zvýšil cílovou cenu díky poptávce po AI a síle BDC

      14:55

      TSMC Bernstein zvýšil cílovou cenu akcií díky zlepšeným vyhlídkám v oblasti umělé inteligence

      14:47

      UBS zvyšuje hodnocení ASML, očekává návrat výrobce čipů jako „kvalitního kombinátora“

      Advertisement

      Příležitosti.

      Zdroj: Amplitude
      Příležitost

      Amplitude: méně známý software, který může těžit z poptávky po AI

      7 září, 2025

      Softwarové společnosti obecně zaostávají za výrobci čipů v tom, jak rychle dokázaly zhodnotit příznivý vývoj v oblasti umělé inteligence. Výjimkou...

      Zdroj: Shutterstock

      Sweetgreen přináší do světa AI dnes tolik potřebnou efektivitu

      7 září, 2025
      Zdroj: Getty Images

      Wall Street sází na společnosti DraftKings a Flutter před startem NFL

      4 září, 2025
      Zdroj: Unsplash

      Nejlepší akcie v oblasti kosmetiky, které stojí za pozornost

      4 září, 2025
      Zdroj: Bloomberg

      Společnost Brinker International míří k růstu o více než 30 %

      4 září, 2025

      Tip editora.

      Zdroj: Shutterstock
      Akcie

      Evercore očekává nové rekordy S&P 500 díky umělé inteligenci

      2 září, 2025

      Současný akciový trh je často přirovnáván k technologické rally z konce devadesátých let.

      Nejčtenější zprávy.

      Bessent útočí na Fed a požaduje omezení jeho vlivu a pravomocí

      6 září, 2025

      Nvidia může do 3 let výrazně posílit díky AI a datovým centrům

      5 září, 2025

      S&P 500 uzavřel seanci výše díky posílení akcií společnosti Alphabet

      3 září, 2025

      S&P 500 zakončuje seanci níže, zaměstnanost vyvolávají obavy

      5 září, 2025

      Aktivista Elliott tlačí na PepsiCo: inspirujte se Coca-Colou

      3 září, 2025

      Jak akcie Tesly zareagovaly na potenciální odměny pro Muska?

      6 září, 2025

      Slábnoucí trh práce v USA tlačí na rychlejší snížení sazeb Fedu

      7 září, 2025

      S&P 500 dosáhl rekordního uzavření, rostou naděje na snížení úrokových sazeb

      4 září, 2025
      Advertisement

      IPO Radar.

      Klarna

      Datum IPO: 10 září, 2025
      Potenciální ocenění: 13 - 14 miliard dolarů

      Buďte u toho
      Advertisement

      Veškeré materiály a informace umístěné na internetových stránkách Burzovního Světa jsou čerpány z veřejně dostupných zdrojů, jako napriklad tyto a slouží výhradně pro informační účely. Při jejich tvorbě bylo postupováno s vynaložením maximální péče. Informace uveřejněné na internetových stránkách Burzovní Svět nemají charakter právních, daňových či jiného doporučení, analýz nebo návrhů a nabídek ke koupi či prodeji investičních nástrojů, jejichž realizací může dojít k poklesu či ztrátě investovaného majetku. Investiční doporučení, která jsou takto označena, jsou pouze informativní a nezávazná. Burzovní Svět neodpovídá za jakoukoli případnou škodu, která v souvislosti s nimi vznikne. Pro obchodování s investičními nástroji proto využívejte výhradně společnosti s udělenou licencí ČNB, popřípadě s platným povolením k činnosti na území České Republiky.

      Burzovní Svět zároveň prohlašuje, že neodpovídá za přímou i nepřímou škodu vzniklou v důsledku obchodování na kapitálových trzích všeobecně a příspěvky v diskusích vyjadřující názory čtenářů, nemusí být v souladu s postojem provozovatele a není možno je tím pádem považovat za jeho názory. Udělením souhlasu / přijetím podmínek zároveň souhlasíte s možností zasílání, či jiného kontaktování v rámci marketingových služeb obchodních partnerů Burzovního Světa. Více informací o cookies

      • Zásady ochrany osobních údajů a cookies
      • Reklama
      • Kontakt

      Burzovnisvet.cz © 2025

      Burzovnisvet.cz © 2025

      Název nebo symbol
      Žádný výsledek
      Zobrazit všechny výsledky
      • Burzy
        • Headlines
        • Breaking
        • Akcie
        • ETF
        • Dividendy
        • IPO
        • Forex
        • Komodity
        • Kryptoměny
        • Ekonomika
        • Hospodářské výsledky
      • Příležitost
      • DIP
      • IPO Radar
      • Nejčtenější
      • Bullionář Daily
      • Úspěch
        • Alternativní investice
        • Škola bullionáře
        • Miliardáři
        • Business
        • Bullionářova knihspirace
        • Bullionářův almanach
        • Bullionářův slovníček
      • AI
      • Česko
      • Invest mentoring
      • E-booky
      • Srovnávač brokerů
      • Kariéra
      Odebírat Ranního Bullionáře Podcast

      Retrieve your password

      Please enter your username or email address to reset your password.