Grok AI Elona Muska čelí kritice za nevhodné zmínky o „genocidě bílých“
Chatbot Grok, vyvinutý společností xAI a integrován do platformy X Elona Muska, se ve středu ocitl pod palbou kritiky poté, co několikrát nečekaně zmínil teorii „genocidy bílých“ v Jižní Africe ve zcela nesouvisejících dotazech.
Grok AI nečekaně zmiňoval „genocidu bílých“ v nesouvisejících otázkách
Uživatelé hlásili podivné odpovědi na běžné dotazy jako baseball nebo videa
Elon Musk dlouhodobě podporuje tvrzení o diskriminaci bělochů v JAR
Odborníci varují před riziky politizace a „otrávení“ systémů AI
Uživatelé X, kteří kladli otázky na běžná témata – jako například baseballové statistiky, animovaná videa nebo stylizované odpovědi „jako pirát“ – dostali místo toho odpovědi, v nichž Grok bez kontextu začal rozebírat citlivé a polarizující téma.
Zveřejněné interakce, které byly později z platformy odstraněny, okamžitě vyvolaly pochybnosti o schopnosti Groku udržet tématickou relevanci a neutralitu, stejně jako otázky týkající se možného politického vlivu na jeho odpovědi.
Zdroj: Getty images
Zvláštní odpovědi vyvolaly pobouření uživatelů i expertů
V jednom příkladu požádal uživatel Groka, aby odpověděl na jiného uživatele „ve stylu pirátů“. Chatbot začal stylizovaně a vtipně, ale po několika větách přešel do tématu údajné „genocidy bílých“ a zmínil organizace jako AfriForum a statistiky o útocích na farmy. V jiné odpovědi na jednoduchý dotaz ohledně platu baseballisty Maxe Scherzera Grok opět bezdůvodně zmínil „rozdělující povahu tvrzení o genocidě bílých“.
Tato opakovaná a kontextově nevhodná témata překvapila mnoho uživatelů a přiměla je ptát se, zda s chatbotem není něco v nepořádku. Někteří se otevřeně podivovali, proč Grok stále zmiňuje stejné kontroverzní téma bez jakéhokoli vztahu k položeným otázkám.
Chyby systému nebo záměrný zásah?
Samotný Grok v několika případech uvedl, že nebyl instruován přijímat žádné politické teze jako fakta, ale že jeho odpovědi byly založeny na údajích a informacích obsažených v dotazech od uživatelů. V jednom smazaném příspěvku chatbot napsal, že jeho prohlášení „vycházelo z konkrétních faktů poskytnutých uživatelem, které musím respektovat“. V dalším pak přiznal: „Hlavní příčinou všech těchto případů se zdá být moje neschopnost odklonit se od nesprávného tématu, jakmile jsem ho jednou nastolil.“
Tato slova naznačují, že systém může trpět tzv. „tematickým uvíznutím“, kdy se po zmínění určitého pojmu v dotazu nadále zaměřuje na dané téma i v odpovědích na zcela odlišné otázky. Podobné jevy nejsou v jazykových modelech neznámé, ale ve spojení s citlivými tématy, jako je „genocida bílých“, mají vážnější dopady.
Podle Davida Harrise, odborníka na etiku a AI na Kalifornské univerzitě v Berkeley, existují dvě pravděpodobná vysvětlení: buď byl model záměrně nastaven, aby zohledňoval určité politické postoje, nebo došlo k tzv. „otrávení dat“ – tedy systematickému vkládání zkreslených či zavádějících vstupů do systému externími aktéry.
Kontext: Musk, Jižní Afrika a uprchlická politika
Teorie o „genocidě bílých“ v Jižní Africe, kterou Grok v odpovědích zmiňoval, dlouhodobě podporuje i samotný Elon Musk, který se v Jižní Africe narodil a vyrůstal. Ve svých vyjádřeních hovořil o diskriminaci bělošských farmářů a kritizoval pozemkovou reformu jihoafrické vlády, která má napravit historické nespravedlnosti z doby apartheidu.
Ve stejném týdnu, kdy Grok začal generovat problematické odpovědi, oznámila americká vláda, že udělila status uprchlíka 59 bělošským Jihoafričanům na základě údajné diskriminace. Přesto odborné autority včetně BBC a jihoafrických soudů opakovaně upozorňují, že násilné útoky na farmáře jsou kriminálními činy bez rasového motivu, a koncept „genocidy bílých“ je považován za mýtus.
Zdroj: Getty images
Někteří analytici upozorňují, že záměrná či nezáměrná politizace AI může ohrozit její důvěryhodnost i další použití. Chatboty jako Grok, ChatGPT nebo Claude se totiž stále více používají jako nástroje pro informování veřejnosti a tvorbu obsahu.
💡 Co z toho plyne? Chatbot Grok AI, vyvinutý firmou Elona Muska, čelí kritice za to, že bez souvislosti zmiňoval kontroverzní teorii o „genocidě bílých“ v Jižní Africe, i když dostával zcela běžné a nesouvisející dotazy. Uživatelé X byli zmatení, proč chatbot v odpovědích odbočuje k tomuto politicky citlivému tématu. Grok následně přiznal, že se „upnul“ na nesprávnou interpretaci a nedokázal se od ní odchýlit. Odborníci spekulují, zda šlo o chybu v návrhu modelu, nebo záměrnou manipulaci. Problém zvýšil obavy z politizace AI a jejího zneužití k šíření polarizujících narativů.
Uživatelé X, kteří kladli otázky na běžná témata – jako například baseballové statistiky, animovaná videa nebo stylizované odpovědi „jako pirát“ – dostali místo toho odpovědi, v nichž Grok bez kontextu začal rozebírat citlivé a polarizující téma.Zveřejněné interakce, které byly později z platformy odstraněny, okamžitě vyvolaly pochybnosti o schopnosti Groku udržet tématickou relevanci a neutralitu, stejně jako otázky týkající se možného politického vlivu na jeho odpovědi.Zvláštní odpovědi vyvolaly pobouření uživatelů i expertůV jednom příkladu požádal uživatel Groka, aby odpověděl na jiného uživatele „ve stylu pirátů“. Chatbot začal stylizovaně a vtipně, ale po několika větách přešel do tématu údajné „genocidy bílých“ a zmínil organizace jako AfriForum a statistiky o útocích na farmy. V jiné odpovědi na jednoduchý dotaz ohledně platu baseballisty Maxe Scherzera Grok opět bezdůvodně zmínil „rozdělující povahu tvrzení o genocidě bílých“.Tato opakovaná a kontextově nevhodná témata překvapila mnoho uživatelů a přiměla je ptát se, zda s chatbotem není něco v nepořádku. Někteří se otevřeně podivovali, proč Grok stále zmiňuje stejné kontroverzní téma bez jakéhokoli vztahu k položeným otázkám.Chyby systému nebo záměrný zásah?Samotný Grok v několika případech uvedl, že nebyl instruován přijímat žádné politické teze jako fakta, ale že jeho odpovědi byly založeny na údajích a informacích obsažených v dotazech od uživatelů. V jednom smazaném příspěvku chatbot napsal, že jeho prohlášení „vycházelo z konkrétních faktů poskytnutých uživatelem, které musím respektovat“. V dalším pak přiznal: „Hlavní příčinou všech těchto případů se zdá být moje neschopnost odklonit se od nesprávného tématu, jakmile jsem ho jednou nastolil.“Tato slova naznačují, že systém může trpět tzv. „tematickým uvíznutím“, kdy se po zmínění určitého pojmu v dotazu nadále zaměřuje na dané téma i v odpovědích na zcela odlišné otázky. Podobné jevy nejsou v jazykových modelech neznámé, ale ve spojení s citlivými tématy, jako je „genocida bílých“, mají vážnější dopady.Podle Davida Harrise, odborníka na etiku a AI na Kalifornské univerzitě v Berkeley, existují dvě pravděpodobná vysvětlení: buď byl model záměrně nastaven, aby zohledňoval určité politické postoje, nebo došlo k tzv. „otrávení dat“ – tedy systematickému vkládání zkreslených či zavádějících vstupů do systému externími aktéry.Kontext: Musk, Jižní Afrika a uprchlická politikaTeorie o „genocidě bílých“ v Jižní Africe, kterou Grok v odpovědích zmiňoval, dlouhodobě podporuje i samotný Elon Musk, který se v Jižní Africe narodil a vyrůstal. Ve svých vyjádřeních hovořil o diskriminaci bělošských farmářů a kritizoval pozemkovou reformu jihoafrické vlády, která má napravit historické nespravedlnosti z doby apartheidu.Ve stejném týdnu, kdy Grok začal generovat problematické odpovědi, oznámila americká vláda, že udělila status uprchlíka 59 bělošským Jihoafričanům na základě údajné diskriminace. Přesto odborné autority včetně BBC a jihoafrických soudů opakovaně upozorňují, že násilné útoky na farmáře jsou kriminálními činy bez rasového motivu, a koncept „genocidy bílých“ je považován za mýtus.Někteří analytici upozorňují, že záměrná či nezáměrná politizace AI může ohrozit její důvěryhodnost i další použití. Chatboty jako Grok, ChatGPT nebo Claude se totiž stále více používají jako nástroje pro informování veřejnosti a tvorbu obsahu.💡 Co z toho plyne? Chatbot Grok AI, vyvinutý firmou Elona Muska, čelí kritice za to, že bez souvislosti zmiňoval kontroverzní teorii o „genocidě bílých“ v Jižní Africe, i když dostával zcela běžné a nesouvisející dotazy. Uživatelé X byli zmatení, proč chatbot v odpovědích odbočuje k tomuto politicky citlivému tématu. Grok následně přiznal, že se „upnul“ na nesprávnou interpretaci a nedokázal se od ní odchýlit. Odborníci spekulují, zda šlo o chybu v návrhu modelu, nebo záměrnou manipulaci. Problém zvýšil obavy z politizace AI a jejího zneužití k šíření polarizujících narativů.