Startup Anthropic, který se zabývá umělou inteligencí, uvedl, že pracuje na bezpečnostních opatřeních týkajících se jeho chatbota Claude před celosvětovými volbami, které se mají konat v tomto roce – včetně přesměrování výzev souvisejících s hlasováním mimo službu.
„Proaktivně uživatele odvádíme od našich systémů, pokud se ptají na témata, kde by halucinace byly nepřijatelné, například dotazy týkající se voleb,“ napsala společnost na blogu. Halucinace je zkratka pro nepravdivé informace generované umělou inteligencí.
Společnost uvedla, že vzhledem k tomu, že její chatbot nemůže poskytovat informace o konkrétních volbách v reálném čase, začne v příštích týdnech při dotazech týkajících se hlasování nabízet uživatelům, aby se obrátili na informační webovou stránku o volbách TurboVote.
Anthropic se podle příspěvku připravuje na problémy s volbami od července 2023 a testuje své systémy, aby zjistil, jak reagují na podněty, které porušují jeho zásady – například vydávání se za kandidáty nebo potlačování volební účasti. Společnost také uvedla, že umělá inteligence bude pravděpodobně ve volbách použita nepředvídaným způsobem. „Očekáváme, že v roce 2024 dojde k překvapivému využití systémů umělé inteligence – k využití, které jejich vlastní vývojáři nepředpokládali,“ napsala společnost v příspěvku.
Chcete využít této příležitosti?
Zanechte svůj telefon a email a budete kontaktováni licencovanými odborníky