Pomoc investorům
Invest mentoring
ODEBÍRAT BULLIONÁŘŮV NEWSLETTER
Podcast
Burzovnisvet Logo
  • Headlines
    • Breaking
    • Bullionář Daily
    • Akcie
    • Hospodářské výsledky
    • ETF
    • Dividendy
    • IPO
    • Forex
    • Komodity
    • Kryptoměny
    • Ekonomika
  • Příležitost
  • IPO Radar

    Nadcházející IPO.

    Zdroj: Burzovnísvět.cz
    CLRS 13 února, 2026

    Americká cloudová fintech společnost poskytující platformu pro clearing

    TBA Bude oznámeno

    Americká platforma pro nákup a prodej vstupenek na sportovní a kulturní akce

    TBA Bude oznámeno

    Komunikační platforma zaměřeá na hlasovou, video a textovou komunikaci

    BTGO Bude oznámeno

    Americká společnost specializující se na bezpečné úschovy kryptoměn

    Minulé IPO.

    Zdroj: Burzovnísvět.cz
    11 února, 2026

    Brazilská fintech banka využívající AI k poskytování zajištěných půjček sociálním příjemcům

    Zdroj: Burzovnísvět.cz
    FPS 5 února, 2026

    Americký výrobce elektrické distribuční infrastruktury pro datová centra

    Zdroj: Burzovnísvět.cz
    YSS 29 ledna, 2026

    Americká společnost specializující se na výrobu nákladově efektivních satelitů

    TBA 23 ledna, 2026

    Česká zbrojařská skupina zaměřená na výrobu obrněné techniky a munice

  • Úspěch
    • Alternativní investice
    • Škola bullionáře
    • Miliardáři
    • Business
    • Bullionářova knihspirace
    • Bullionářův almanach
    • Bullionářův slovníček
  • AI
  • Česko
  • E-booky
  • Srovnávač brokerů
  • Kariéra
  • Login
Burzovnisvet.cz - Akcie, kurzy, burza, forex, komodity, IPO, dluhopisy - zpravodajství
  • Headlines
    • Breaking
    • Bullionář Daily
    • Akcie
    • Hospodářské výsledky
    • ETF
    • Dividendy
    • IPO
    • Forex
    • Komodity
    • Kryptoměny
    • Ekonomika
  • Příležitost
  • IPO Radar

    Nadcházející IPO.

    Zdroj: Burzovnísvět.cz
    CLRS 13 února, 2026

    Americká cloudová fintech společnost poskytující platformu pro clearing

    TBA Bude oznámeno

    Americká platforma pro nákup a prodej vstupenek na sportovní a kulturní akce

    TBA Bude oznámeno

    Komunikační platforma zaměřeá na hlasovou, video a textovou komunikaci

    BTGO Bude oznámeno

    Americká společnost specializující se na bezpečné úschovy kryptoměn

    Minulé IPO.

    Zdroj: Burzovnísvět.cz
    11 února, 2026

    Brazilská fintech banka využívající AI k poskytování zajištěných půjček sociálním příjemcům

    Zdroj: Burzovnísvět.cz
    FPS 5 února, 2026

    Americký výrobce elektrické distribuční infrastruktury pro datová centra

    Zdroj: Burzovnísvět.cz
    YSS 29 ledna, 2026

    Americká společnost specializující se na výrobu nákladově efektivních satelitů

    TBA 23 ledna, 2026

    Česká zbrojařská skupina zaměřená na výrobu obrněné techniky a munice

  • Úspěch
    • Alternativní investice
    • Škola bullionáře
    • Miliardáři
    • Business
    • Bullionářova knihspirace
    • Bullionářův almanach
    • Bullionářův slovníček
  • AI
  • Česko
  • E-booky
  • Srovnávač brokerů
  • Kariéra
    • Žádný výsledek
      Zobrazit všechny výsledky
BS Logo

OpenAI: Společnost píše o jejím přístupu k bezpečnosti umělé inteligence

OpenAI usiluje o to, aby výkonná umělá inteligence byla bezpečná a obecně prospěšná.

Michal Kmeť Autor: Michal Kmeť
3 října, 2023
7 min. čtení
Zdroj: Burzovnisvet.cz

Zdroj: Burzovnisvet.cz

7 min.
čtení
Přihlaste se k odběru newsletteru
Chcete využít této příležitosti?

Víme, že naše nástroje umělé inteligence přinášejí lidem mnoho výhod již dnes. Naši uživatelé po celém světě nám řekli, že ChatGPT pomáhá zvyšovat jejich produktivitu, posilovat jejich kreativitu a nabízí jim učení na míru. Uvědomujeme si také, že stejně jako každá technologie, i tyto nástroje s sebou nesou reálná rizika – proto se snažíme zajistit, aby bezpečnost byla do našeho systému zabudována na všech úrovních.

Vytváření stále bezpečnějších systémů umělé inteligence

Před uvedením jakéhokoli nového systému na trh provádíme důkladné testování, zapojujeme externí odborníky pro získání zpětné vazby, pracujeme na zlepšení chování modelu pomocí technik, jako je posilování učení se zpětnou vazbou od lidí, a budujeme rozsáhlé bezpečnostní a monitorovací systémy.

Například poté, co jsme dokončili školení našeho nejnovějšího modelu GPT-4, strávili jsme více než šest měsíců prací v rámci celé organizace, abychom jej před zveřejněním učinili bezpečnějším a sladěnějším.

Zdroj: Unsplash

Domníváme se, že výkonné systémy umělé inteligence by měly být podrobeny přísnému hodnocení bezpečnosti. K zajištění přijetí takových postupů je zapotřebí regulace a my aktivně spolupracujeme s vládami na tom, jakou nejlepší formu by taková regulace mohla mít.

Poučení z reálného použití pro zlepšení ochranných opatření

Advertisement

Před nasazením se snažíme předvídatelným rizikům předcházet, nicméně to, co se můžeme dozvědět v laboratoři, má své hranice. Navzdory rozsáhlému výzkumu a testování nemůžeme předvídat všechny prospěšné způsoby, jak budou lidé naši technologii používat, ani všechny způsoby, jak ji budou zneužívat. Proto věříme, že učení se z reálného používání je zásadní součástí vytváření a uvolňování stále bezpečnějších systémů umělé inteligence v průběhu času.

Chcete využít této příležitosti?

Nové systémy umělé inteligence postupně a obezřetně uvolňujeme – se zásadními bezpečnostními opatřeními – stále širší skupině lidí a na základě získaných poznatků je neustále vylepšujeme.

Naše nejschopnější modely zpřístupňujeme prostřednictvím vlastních služeb a rozhraní API, takže vývojáři mohou tuto technologii zabudovat přímo do svých aplikací. Díky tomu můžeme monitorovat zneužití a přijímat opatření v případě jeho výskytu a neustále vytvářet opatření, která reagují na skutečné způsoby zneužití našich systémů – ne jen na teorie o tom, jak by zneužití mohlo vypadat.

Reálné používání nás také vedlo k tomu, abychom vyvíjeli stále jemnější zásady proti chování, které představuje skutečné riziko pro lidi, a zároveň umožňovalo mnoho prospěšných využití naší technologie.

Zdroj: Fussybytes

Jsme přesvědčeni, že společnost musí mít čas na aktualizaci a přizpůsobení se stále schopnější umělé inteligenci a že každý, koho se tato technologie týká, by měl mít možnost významně ovlivnit další vývoj umělé inteligence. Iterativní nasazení nám pomohlo zapojit různé zúčastněné strany do diskuse o zavádění technologií AI efektivněji, než kdyby neměly s těmito nástroji přímou zkušenost.

Ochrana dětí

Jedním z klíčových bodů našeho bezpečnostního úsilí je ochrana dětí. Vyžadujeme, aby naše nástroje umělé inteligence mohly používat osoby starší 18 let nebo starší 13 let se souhlasem rodičů, a zkoumáme možnosti ověření.

Nedovolujeme, aby naše technologie byla používána k vytváření nenávistného, obtěžujícího a násilného obsahu nebo obsahu pro dospělé. Náš nejnovější model GPT-4 má o 82 % nižší pravděpodobnost, že bude reagovat na žádosti o nepovolený obsah, než GPT-3.5, a zavedli jsme robustní systém pro monitorování zneužití. GPT-4 je nyní k dispozici předplatitelům služby ChatGPT Plus a doufáme, že časem bude k dispozici ještě většímu počtu lidí.

Vynaložili jsme značné úsilí, abychom minimalizovali potenciál našich modelů vytvářet obsah, který poškozuje děti. Například když se uživatelé pokusí nahrát do našich obrazových nástrojů materiál se sexuálním zneužíváním dětí, zablokujeme jej a nahlásíme Národnímu centru pro pohřešované a zneužívané děti.

Kromě našich výchozích bezpečnostních zábran spolupracujeme s vývojáři, jako je nezisková organizace Khan Academy, která vytvořila asistenta s umělou inteligencí, jenž funguje jako virtuální učitel pro studenty i jako asistent ve třídě pro učitele, na bezpečnostních opatřeních přizpůsobených jejich případům použití. Pracujeme také na funkcích, které vývojářům umožní nastavit přísnější standardy pro výstupy modelů, abychom lépe podpořili vývojáře a uživatele, kteří o takové funkce stojí.

Zdroj: ChatGPT

Respektování soukromí

Naše rozsáhlé jazykové modely jsou trénovány na rozsáhlém korpusu textů, který zahrnuje veřejně dostupný obsah, licencovaný obsah a obsah vytvořený lidskými recenzenty. Data nepoužíváme k prodeji našich služeb, reklamě nebo vytváření profilů lidí – data používáme k tomu, aby naše modely byly pro lidi užitečnější. Například ChatGPT se zlepšuje dalším tréninkem na základě konverzací, které s ním lidé vedou.

Některá naše tréninková data sice obsahují osobní informace, které jsou dostupné na veřejném internetu, ale chceme, aby se naše modely učily o světě, nikoli o soukromých osobách. Proto pracujeme na odstranění osobních informací z trénovacího souboru dat, kde je to možné, vylaďujeme modely tak, aby odmítaly žádosti o osobní informace soukromých osob, a reagujeme na žádosti jednotlivců o odstranění jejich osobních informací z našich systémů. Tyto kroky minimalizují možnost, že by naše modely mohly generovat odpovědi obsahující osobní údaje soukromých osob.

Pokračující výzkum

Při vytváření a nasazování schopnějších modelů budeme postupovat stále obezřetněji a s vývojem našich systémů umělé inteligence budeme i nadále zvyšovat bezpečnostní opatření.

Zdroj: Getty Images

S nasazením systému GPT-4 jsme sice čekali více než 6 měsíců, abychom lépe pochopili jeho možnosti, přínosy a rizika, ale někdy může být pro zlepšení bezpečnosti systémů umělé inteligence nutné počkat déle. Tvůrci politik a poskytovatelé UI proto budou muset zajistit, aby byl vývoj a nasazení UI účinně řízen v celosvětovém měřítku, aby nikdo neomezoval své možnosti, aby se prosadil. Jedná se o náročnou výzvu vyžadující technické i institucionální inovace, k jejímuž řešení však rádi přispějeme.

Řešení otázek bezpečnosti vyžaduje také rozsáhlou diskusi, experimentování a zapojení, včetně hranic chování systémů AI. Podporujeme a budeme podporovat spolupráci a otevřený dialog mezi zúčastněnými stranami s cílem vytvořit bezpečný ekosystém UI.

OpenAI usiluje o to, aby výkonná umělá inteligence byla bezpečná a obecně prospěšná. Víme, že naše nástroje umělé inteligence přinášejí lidem mnoho výhod již dnes. Naši uživatelé po celém světě nám řekli, že ChatGPT pomáhá zvyšovat jejich produktivitu, posilovat jejich kreativitu a nabízí jim učení na míru. Uvědomujeme si také, že stejně jako každá technologie, i tyto nástroje s sebou nesou reálná rizika - proto se snažíme zajistit, aby bezpečnost byla do našeho systému zabudována na všech úrovních. Vytváření stále bezpečnějších systémů umělé inteligence Před uvedením jakéhokoli nového systému na trh provádíme důkladné testování, zapojujeme externí odborníky pro získání zpětné vazby, pracujeme na zlepšení chování modelu pomocí technik, jako je posilování učení se zpětnou vazbou od lidí, a budujeme rozsáhlé bezpečnostní a monitorovací systémy. Například poté, co jsme dokončili školení našeho nejnovějšího modelu GPT-4, strávili jsme více než šest měsíců prací v rámci celé organizace, abychom jej před zveřejněním učinili bezpečnějším a sladěnějším. Zdroj: Unsplash Domníváme se, že výkonné systémy umělé inteligence by měly být podrobeny přísnému hodnocení bezpečnosti. K zajištění přijetí takových postupů je zapotřebí regulace a my aktivně spolupracujeme s vládami na tom, jakou nejlepší formu by taková regulace mohla mít. Poučení z reálného použití pro zlepšení ochranných opatření Před nasazením se snažíme předvídatelným rizikům předcházet, nicméně to, co se můžeme dozvědět v laboratoři, má své hranice. Navzdory rozsáhlému výzkumu a testování nemůžeme předvídat všechny prospěšné způsoby, jak budou lidé naši technologii používat, ani všechny způsoby, jak ji budou zneužívat. Proto věříme, že učení se z reálného používání je zásadní součástí vytváření a uvolňování stále bezpečnějších systémů umělé inteligence v průběhu času. Nové systémy umělé inteligence postupně a obezřetně uvolňujeme - se zásadními bezpečnostními opatřeními - stále širší skupině lidí a na základě získaných poznatků je neustále vylepšujeme. Naše nejschopnější modely zpřístupňujeme prostřednictvím vlastních služeb a rozhraní API, takže vývojáři mohou tuto technologii zabudovat přímo do svých aplikací. Díky tomu můžeme monitorovat zneužití a přijímat opatření v případě jeho výskytu a neustále vytvářet opatření, která reagují na skutečné způsoby zneužití našich systémů - ne jen na teorie o tom, jak by zneužití mohlo vypadat. Reálné používání nás také vedlo k tomu, abychom vyvíjeli stále jemnější zásady proti chování, které představuje skutečné riziko pro lidi, a zároveň umožňovalo mnoho prospěšných využití naší technologie. Zdroj: Fussybytes Jsme přesvědčeni, že společnost musí mít čas na aktualizaci a přizpůsobení se stále schopnější umělé inteligenci a že každý, koho se tato technologie týká, by měl mít možnost významně ovlivnit další vývoj umělé inteligence. Iterativní nasazení nám pomohlo zapojit různé zúčastněné strany do diskuse o zavádění technologií AI efektivněji, než kdyby neměly s těmito nástroji přímou zkušenost. Ochrana dětí Jedním z klíčových bodů našeho bezpečnostního úsilí je ochrana dětí. Vyžadujeme, aby naše nástroje umělé inteligence mohly používat osoby starší 18 let nebo starší 13 let se souhlasem rodičů, a zkoumáme možnosti ověření. Nedovolujeme, aby naše technologie byla používána k vytváření nenávistného, obtěžujícího a násilného obsahu nebo obsahu pro dospělé. Náš nejnovější model GPT-4 má o 82 % nižší pravděpodobnost, že bude reagovat na žádosti o nepovolený obsah, než GPT-3.5, a zavedli jsme robustní systém pro monitorování zneužití. GPT-4 je nyní k dispozici předplatitelům služby ChatGPT Plus a doufáme, že časem bude k dispozici ještě většímu počtu lidí. Vynaložili jsme značné úsilí, abychom minimalizovali potenciál našich modelů vytvářet obsah, který poškozuje děti. Například když se uživatelé pokusí nahrát do našich obrazových nástrojů materiál se sexuálním zneužíváním dětí, zablokujeme jej a nahlásíme Národnímu centru pro pohřešované a zneužívané děti. Kromě našich výchozích bezpečnostních zábran spolupracujeme s vývojáři, jako je nezisková organizace Khan Academy, která vytvořila asistenta s umělou inteligencí, jenž funguje jako virtuální učitel pro studenty i jako asistent ve třídě pro učitele, na bezpečnostních opatřeních přizpůsobených jejich případům použití. Pracujeme také na funkcích, které vývojářům umožní nastavit přísnější standardy pro výstupy modelů, abychom lépe podpořili vývojáře a uživatele, kteří o takové funkce stojí. Zdroj: ChatGPT Respektování soukromí Naše rozsáhlé jazykové modely jsou trénovány na rozsáhlém korpusu textů, který zahrnuje veřejně dostupný obsah, licencovaný obsah a obsah vytvořený lidskými recenzenty. Data nepoužíváme k prodeji našich služeb, reklamě nebo vytváření profilů lidí - data používáme k tomu, aby naše modely byly pro lidi užitečnější. Například ChatGPT se zlepšuje dalším tréninkem na základě konverzací, které s ním lidé vedou. Některá naše tréninková data sice obsahují osobní informace, které jsou dostupné na veřejném internetu, ale chceme, aby se naše modely učily o světě, nikoli o soukromých osobách. Proto pracujeme na odstranění osobních informací z trénovacího souboru dat, kde je to možné, vylaďujeme modely tak, aby odmítaly žádosti o osobní informace soukromých osob, a reagujeme na žádosti jednotlivců o odstranění jejich osobních informací z našich systémů. Tyto kroky minimalizují možnost, že by naše modely mohly generovat odpovědi obsahující osobní údaje soukromých osob. Pokračující výzkum Při vytváření a nasazování schopnějších modelů budeme postupovat stále obezřetněji a s vývojem našich systémů umělé inteligence budeme i nadále zvyšovat bezpečnostní opatření. Zdroj: Getty Images S nasazením systému GPT-4 jsme sice čekali více než 6 měsíců, abychom lépe pochopili jeho možnosti, přínosy a rizika, ale někdy může být pro zlepšení bezpečnosti systémů umělé inteligence nutné počkat déle. Tvůrci politik a poskytovatelé UI proto budou muset zajistit, aby byl vývoj a nasazení UI účinně řízen v celosvětovém měřítku, aby nikdo neomezoval své možnosti, aby se prosadil. Jedná se o náročnou výzvu vyžadující technické i institucionální inovace, k jejímuž řešení však rádi přispějeme. Řešení otázek bezpečnosti vyžaduje také rozsáhlou diskusi, experimentování a zapojení, včetně hranic chování systémů AI. Podporujeme a budeme podporovat spolupráci a otevřený dialog mezi zúčastněnými stranami s cílem vytvořit bezpečný ekosystém UI.
Tagy: bezpečnostChatGPTopenAIumělá inteligence


    Chcete využít této příležitosti?


    Zanechte své kontaktní údaje, ozve se Vám licencovaný specialista a zároveň získáte:

    • Přístup k nejžhavějším IPO a investičním trendům.

    • Pravidelnou dávku aktuálních tipů pro Vaše portfolio v našem Newsletteru.

    • Investiční portfolio

    Máte zkušenosti s investováním?

    Jakou částku jste připraven použít na investování?



    Odesláním formuláře souhlasíte se zasíláním newsletteru Burzovní svět. Odhlásit se můžete kdykoli.

    Advertisement

    Breaking.

    18:38

    Spolupráce s Volkswagenem a model R2 vystřelily akcie Rivianu o 27 %

    17:53

    CEO Tony Roma’s varuje před virálními značkami: Budoucnost patří tradičnímu kapitálu

    17:24

    Intuit sází na masivní marketing: Reklama na Super Bowl převyšuje výdaje na R&D

    16:51

    Hapag-Lloyd jedná o převzetí izraelského Zimu za 3,5 miliardy dolarů

    15:39

    Masivní nástup AI agentů přináší firmám nová bezpečnostní rizika

    14:58

    Konec memů: Florida se chce s pomocí miliardářů přeměnit na korporátní velmoc

    Advertisement

    Příležitosti.

    Zdroj: Shutterstock
    Akcie

    Nvidia a cesta k tržní kapitalizaci 20 bilionů USD a budoucnosti AI

    15 února, 2026

    Stane se obr ještě větším? Akcie společnosti NVIDIA Corporation (NVDA) byly v posledních letech miláčkem trhu. Poté, co nástup umělé...

    Zdroj: Shutterstock

    Revoluce v propojování: Jak Astera Labs řeší největší úzké hrdlo umělé inteligence

    14 února, 2026
    Zdroj: Getty Images

    Společnost BorgWarner mění směr. Datová centra AI táhnou akcie

    13 února, 2026
    Zdroj: Getty Images

    Akcie společnosti Applied Materials po zveřejnění výsledků prudce stoupají

    13 února, 2026
    Zdroj: Getty Images

    Analytici čekají další růst akcií společnosti McDonald’s

    13 února, 2026

    IPO Radar.

    Clear Street Group Inc.

    Datum IPO: 13 února, 2026
    Potenciální ocenění: 11,8–12 miliard USD

    Buďte u toho

    Nejčtenější zprávy.

    Krypto, stablecoiny proti bankám — spor o pravidla mění finance i politiku USA

    14 února, 2026

    Akcie po sérii dat oslabily, technologie pod tlakem a výnosy dluhopisů klesají

    13 února, 2026

    Americká ekonomika překvapila: lednový růst pracovních míst výrazně předčil odhady

    11 února, 2026

    Valentýnská poptávka po čokoládě odolává cenovým tlakům, trh s kakaem vyhlíží stabilizaci

    13 února, 2026

    Wall Street přerušila růst, dobrá data z trhu práce omezila sázky na snížení sazeb

    11 února, 2026

    Revoluce v propojování: Jak Astera Labs řeší největší úzké hrdlo umělé inteligence

    14 února, 2026

    Americká ekonomika míří k měkkému přistání: inflace zpomaluje, trh práce překvapuje silou

    15 února, 2026

    Wall Street výrazně oslabila před reportem dat o inflaci v USA, pražská burza ztrácí potřetí v řadě

    12 února, 2026
    Advertisement

    Tip editora.

    Zdroj: Burzovnísvět.cz
    Akcie

    Apple těží z výprodeje technologií: zdrženlivost v AI se investorům vyplácí

    6 února, 2026

    Technologický sektor v posledních dnech zažil prudký výprodej, který z trhu vymazal více než 1,2 bilionu dolarů tržní kapitalizace.

    Advertisement

    Veškeré materiály a informace umístěné na internetových stránkách Burzovního Světa jsou čerpány z veřejně dostupných zdrojů, jako napriklad tyto a slouží výhradně pro informační účely. Při jejich tvorbě bylo postupováno s vynaložením maximální péče. Informace uveřejněné na internetových stránkách Burzovní Svět nemají charakter právních, daňových či jiného doporučení, analýz nebo návrhů a nabídek ke koupi či prodeji investičních nástrojů, jejichž realizací může dojít k poklesu či ztrátě investovaného majetku. Investiční doporučení, která jsou takto označena, jsou pouze informativní a nezávazná. Burzovní Svět neodpovídá za jakoukoli případnou škodu, která v souvislosti s nimi vznikne. Pro obchodování s investičními nástroji proto využívejte výhradně společnosti s udělenou licencí ČNB, popřípadě s platným povolením k činnosti na území České Republiky.

    Burzovní Svět zároveň prohlašuje, že neodpovídá za přímou i nepřímou škodu vzniklou v důsledku obchodování na kapitálových trzích všeobecně a příspěvky v diskusích vyjadřující názory čtenářů, nemusí být v souladu s postojem provozovatele a není možno je tím pádem považovat za jeho názory. Udělením souhlasu / přijetím podmínek zároveň souhlasíte s možností zasílání, či jiného kontaktování v rámci marketingových služeb obchodních partnerů Burzovního Světa. Více informací o cookies

    • Zásady ochrany osobních údajů a cookies
    • Reklama
    • Kontakt

    Burzovnisvet.cz © 2026

    Burzovnisvet.cz © 2026

    Název nebo symbol
    Žádný výsledek
    Zobrazit všechny výsledky
    • Burzy
      • Headlines
      • Breaking
      • Akcie
      • ETF
      • Dividendy
      • IPO
      • Forex
      • Komodity
      • Kryptoměny
      • Ekonomika
      • Hospodářské výsledky
    • Příležitost
    • IPO Radar
    • Nejčtenější
    • Bullionář Daily
    • Úspěch
      • Alternativní investice
      • Škola bullionáře
      • Miliardáři
      • Business
      • Bullionářova knihspirace
      • Bullionářův almanach
      • Bullionářův slovníček
    • AI
    • Česko
    • Invest mentoring
    • E-booky
    • Srovnávač brokerů
    • Kariéra
    • Pomoc investorům
    BULLIONÁŘŮV NEWSLETTER Podcast

    Retrieve your password

    Please enter your username or email address to reset your password.

    ·
    Poslední událost
    Poslední událost
      Kontaktujte nás
      News Watchlist Markets Media Nastavení

      Používáme soubory cookie a podobné technologie, které jsou nezbytné pro provoz webových stránek. Další soubory cookie se používají k provádění analýzy používání webových stránek. Pokračováním v používání našich webových stránek vyjadřujete souhlas s používáním souborů cookie. Další informace naleznete v našich Zásadách ochrany osobních údajů.