Klíčové body
- Rostou obavy, že nové generátory videí a obrázků poháněné umělou inteligencí budou zneužívány k politickému prospěchu
- Přesvědčivé telefonické sdělení v kombinaci s databází voličů vytváří hrozivý nástroj, s nímž mají problém bojovat i ty nejpokročilejší volební systémy
- Aktéři používají deepfakes s úmyslem demotivovat voliče, aby se nedostavili k volbám
V upraveném zvukovém záznamu je slyšet hlas, který se velmi podobá hlasu prezidenta Bidena, který přesvědčuje voliče v New Hampshire, aby se neúčastnili úterních demokratických primárek, ale “schovali si svůj hlas na listopadové volby”. Ve zprávě je dokonce použit jeden z Bidenových výrazných idiomů: “To je ale banda nesmyslů.”
Navzdory možnému zmatení voličů prezident ve skutečnosti v New Hampshire nesoutěží. Hlasování v primárkách navíc nebrání voličům v účasti v listopadových volbách. S tím, jak se technologie neustále vyvíjejí, rostou obavy, že nové generátory videí a obrázků poháněné umělou inteligencí budou zneužívány k politickému prospěchu. Téměř polovina světového zastoupení závisí na volbách, zatímco zvukové deepfakes se staly obzvláště znepokojujícími kvůli jejich levnějším výrobním nákladům, snadné úpravě a obtížné dohledatelnosti.
Přesvědčivé telefonické sdělení v kombinaci s databází voličů vytváří podle výzkumníků hrozivý nástroj, s nímž mají problém bojovat i ty nejpokročilejší volební systémy. Robert Weissman, prezident Public Citizen, think-tanku na ochranu spotřebitelů, se vyjádřil, že “politický deepfake moment je tady”. Vyzval zákonodárce, aby zavedli ochranná opatření proti podvodným zvukovým a obrazovým záznamům a zabránili tak “volebnímu chaosu”.

K tomuto incidentu došlo v době, kdy stále více amerických politických kampaní využívá software umělé inteligence k rozsáhlému oslovení voličů a kdy investoři vkládají finanční prostředky do startupů zabývajících se hlasovým klonováním. Například v pondělí, kdy se šířila zpráva deepfake, oznámil technologický AI startup ElevenLabs, který reprodukuje hlasy pomocí umělé inteligence, nové kolo financování, které ocenilo společnost na 1,1 miliardy dolarů.
Zmanipulované politické zvukové nahrávky, známé jako deepfakes, se stávají stále významnějším fenoménem v moderní politice. Nedávný případ, kdy byla zveřejněna zmanipulovaná zvuková nahrávka, není prvním svého druhu, a ukazuje na rostoucí trend využívání sofistikovaných technologií k vytváření falešných důkazů nebo k diskreditaci politických osobností.
Jedním z příkladů, který ilustruje tento trend, byly loňské parlamentní volby na Slovensku. Během této doby se na sociálních sítích šířily podobné deepfake zvukové nahrávky, které měly vliv na veřejné mínění a politickou scénu. Jedna z nejvíce diskutovaných nahrávek údajně zachycovala předsedu politické strany Michala Šimečku, jak diskutuje o schématu nákupu hlasů. Tato nahrávka však byla později identifikována jako falzifikát.
Generální prokurátor státu New Hampshire zahájil v pondělí vyšetřování, ale vystopovat kořeny klamavého audia je obzvláště náročné, protože bylo šířeno prostřednictvím telefonu namísto online platforem. Podle Joan Donovanové, docentky žurnalistiky a studií nových médií na Bostonské univerzitě, nezanechávají zvukové zprávy přenášené po telefonu stejnou digitální stopu. Donovanová uvedla, že tento incident předznamenává “další generaci špinavých triků”.

Dalším aspektem falešného Bidenova klipu, který vyvolal značné znepokojení mezi výzkumníky dezinformací a volebními úředníky, je to, že potvrdil jejich nejhorší obavy: aktéři používají deepfakes s úmyslem demotivovat voliče, aby se nedostavili k volbám. I když takové dezinformace ovlivní jen několik stovek až tisíců hlasů voličů, podle Nicka Diakopoulose, profesora na Northwestern University, mohou mít rozhodující důsledky pro výsledky voleb.
Americká Federální volební komise podnikla nesmělé kroky k pochopení politických deepfakes, ale zatím se nezabývala technologiemi, které to umožňují. Jednotlivé státy předložily vlastní legislativní opatření k omezení deepfakes. Volební úředníci po celé zemi provádějí školení od srpna, kdy se v Coloradu sešla asi stovka federálních a státních úředníků, aby navrhla nejlepší postup proti potenciálním deepfakes.
Oblast nástrojů pro odhalování deepfake je stále v plenkách a výsledky jsou různé. V pondělí detekční nástroj společnosti ElevenLabs použitý jako případová studie oznámil, že Bidenův hovor byl pravděpodobně vytvořen pomocí klonovacího softwaru. Nicméně protizpráva společnosti Clarity, startupu zaměřeného na detekci deepfake, tvrdila, že hovor byl pravděpodobně deepfake s 80% jistotou. Tyto rozdílné výsledky zdůrazňují naléhavý požadavek na spolehlivější detekční nástroje k zajištění integrity demokratických procesů.
Chcete využít této příležitosti?
Zanechte svůj telefon a email a budete kontaktováni licencovanými odborníky