Na společnost OpenAI byla podána zřejmě první žaloba pro pomluvu v reakci na nepravdivé informace generované službou ChatGPT.
Rozhlasový moderátor Mark Walters z Georgie žaluje společnost poté, co společnost ChatGPT uvedla, že Walters byl obviněn z podvodu a zpronevěry finančních prostředků neziskové organizace. Systém tuto informaci vygeneroval v reakci na žádost třetí strany, novináře jménem Fred Riehl. Waltersův případ byl podán 5. června u vrchního soudu v okrese Gwinnett v Georgii a požaduje po společnosti OpenAI blíže nespecifikované finanční odškodnění.
Případ je pozoruhodný vzhledem k rozšířeným stížnostem na nepravdivé informace generované ChatGPT a dalšími chatboty. Tyto systémy nemají žádný spolehlivý způsob, jak rozlišit fakta od fikce, a na žádost o informace – zejména pokud mají potvrdit něco, co tazatel navrhuje jako pravdivé – si často vymýšlejí data, fakta a čísla.
Obvykle tyto výmysly nevedou k ničemu jinému než k uvedení uživatelů v omyl nebo k plýtvání jejich časem. Začínají se však objevovat případy, kdy tyto chyby způsobily škodu.
Společnost OpenAI na domovské stránce ChatGPT uvádí malé upozornění, že systém „může občas generovat nesprávné informace“, ale zároveň jej prezentuje jako zdroj spolehlivých dat a v reklamním textu popisuje systém jako způsob, jak „získat odpovědi“ a „dozvědět se něco nového“. Sám generální ředitel společnosti OpenAI Sam Altman při mnoha příležitostech uvedl, že se raději učí nové informace z ChatGPT než z knih.
Není však jasné, zda existuje právní precedens, který by firmu činil odpovědnou za to, že systémy umělé inteligence generují nepravdivé nebo pomlouvačné informace, nebo zda má tento konkrétní případ zásadní opodstatnění.
Tradičně v USA chrání článek 230 internetové firmy před právní odpovědností za informace vytvořené třetí stranou a umístěné na jejich platformách. Není známo, zda se tato ochrana vztahuje na systémy umělé inteligence, které se pouze nepropojují se zdroji dat, ale generují informace nově (což je proces, který rovněž vede k jejich vytváření nepravdivých údajů).
Žaloba za pomluvu, kterou Walters podal v Georgii, by mohla tento rámec otestovat. V případu se uvádí, že novinář Fred Riehl požádal společnost ChatGPT, aby shrnula skutečný případ federálního soudu odkazem na online PDF. Společnost ChatGPT reagovala vytvořením nepravdivého shrnutí případu, které bylo podrobné a přesvědčivé, ale v několika ohledech nesprávné. Shrnutí společnosti ChatGPT obsahovalo některé věcně správné informace, ale také nepravdivá obvinění proti Waltersovi. Uvádělo se v něm, že Walters měl zpronevěřit finanční prostředky neziskové organizace na ochranu práv držitelů zbraní s názvem Second Amendment Foundation „ve výši přesahující 5 000 000 USD“. Walters z toho nikdy obviněn nebyl.
Riehl nikdy nezveřejnil nepravdivé informace vygenerované společností ChatGPT, ale ověřil si podrobnosti u jiné strany. Ze spisu není jasné, jak se Walters‘ o této dezinformaci dozvěděl.
Je pozoruhodné, že i přes splnění Riehlovy žádosti o shrnutí PDF není ChatGPT ve skutečnosti schopen přistupovat k těmto externím datům bez použití dalších zásuvných modulů. Neschopnost systému upozornit na tuto skutečnost je příkladem jeho schopnosti uvádět uživatele v omyl. (Ačkoli, když The Verge dnes systém testoval na stejném úkolu, reagoval jasně a informativně, když řekl: „Je mi líto, ale jako textový model založený na umělé inteligenci nemám možnost přistupovat ke konkrétním souborům PDF nebo jiným externím dokumentům ani je otevírat.“).
Eugene Volokh, profesor práva, který se věnuje právní odpovědnosti systémů umělé inteligence, ve svém blogu poznamenal, že ačkoli si myslí, že „takové žaloby na ochranu osobnosti [proti společnostem zabývajícím se umělou inteligencí] jsou v zásadě právně životaschopné“, tato konkrétní žaloba „by měla být těžko udržitelná“. Volokh poznamenává, že Walters společnost OpenAI na tato nepravdivá tvrzení neupozornil a nedal jí tak možnost je odstranit, a že v důsledku výstupů ChatGPT nedošlo k žádné skutečné škodě. „V každém případě však bude zajímavé sledovat, co se zde nakonec stane,“ říká Volokh.
Na společnost OpenAI byla podána zřejmě první žaloba pro pomluvu v reakci na nepravdivé informace generované službou ChatGPT. Rozhlasový moderátor Mark Walters z Georgie žaluje společnost poté, co společnost ChatGPT uvedla, že Walters byl obviněn z podvodu a zpronevěry finančních prostředků neziskové organizace. Systém tuto informaci vygeneroval v reakci na žádost třetí strany, novináře jménem Fred Riehl. Waltersův případ byl podán 5. června u vrchního soudu v okrese Gwinnett v Georgii a požaduje po společnosti OpenAI blíže nespecifikované finanční odškodnění. Případ je pozoruhodný vzhledem k rozšířeným stížnostem na nepravdivé informace generované ChatGPT a dalšími chatboty. Tyto systémy nemají žádný spolehlivý způsob, jak rozlišit fakta od fikce, a na žádost o informace – zejména pokud mají potvrdit něco, co tazatel navrhuje jako pravdivé – si často vymýšlejí data, fakta a čísla. Obvykle tyto výmysly nevedou k ničemu jinému než k uvedení uživatelů v omyl nebo k plýtvání jejich časem. Začínají se však objevovat případy, kdy tyto chyby způsobily škodu. Společnost OpenAI na domovské stránce ChatGPT uvádí malé upozornění, že systém „může občas generovat nesprávné informace“, ale zároveň jej prezentuje jako zdroj spolehlivých dat a v reklamním textu popisuje systém jako způsob, jak „získat odpovědi“ a „dozvědět se něco nového“. Sám generální ředitel společnosti OpenAI Sam Altman při mnoha příležitostech uvedl, že se raději učí nové informace z ChatGPT než z knih. Není však jasné, zda existuje právní precedens, který by firmu činil odpovědnou za to, že systémy umělé inteligence generují nepravdivé nebo pomlouvačné informace, nebo zda má tento konkrétní případ zásadní opodstatnění. Tradičně v USA chrání článek 230 internetové firmy před právní odpovědností za informace vytvořené třetí stranou a umístěné na jejich platformách. Není známo, zda se tato ochrana vztahuje na systémy umělé inteligence, které se pouze nepropojují se zdroji dat, ale generují informace nově . Žaloba za pomluvu, kterou Walters podal v Georgii, by mohla tento rámec otestovat. V případu se uvádí, že novinář Fred Riehl požádal společnost ChatGPT, aby shrnula skutečný případ federálního soudu odkazem na online PDF. Společnost ChatGPT reagovala vytvořením nepravdivého shrnutí případu, které bylo podrobné a přesvědčivé, ale v několika ohledech nesprávné. Shrnutí společnosti ChatGPT obsahovalo některé věcně správné informace, ale také nepravdivá obvinění proti Waltersovi. Uvádělo se v něm, že Walters měl zpronevěřit finanční prostředky neziskové organizace na ochranu práv držitelů zbraní s názvem Second Amendment Foundation „ve výši přesahující 5 000 000 USD“. Walters z toho nikdy obviněn nebyl. Riehl nikdy nezveřejnil nepravdivé informace vygenerované společností ChatGPT, ale ověřil si podrobnosti u jiné strany. Ze spisu není jasné, jak se Walters‘ o této dezinformaci dozvěděl. Je pozoruhodné, že i přes splnění Riehlovy žádosti o shrnutí PDF není ChatGPT ve skutečnosti schopen přistupovat k těmto externím datům bez použití dalších zásuvných modulů. Neschopnost systému upozornit na tuto skutečnost je příkladem jeho schopnosti uvádět uživatele v omyl. . Eugene Volokh, profesor práva, který se věnuje právní odpovědnosti systémů umělé inteligence, ve svém blogu poznamenal, že ačkoli si myslí, že „takové žaloby na ochranu osobnosti [proti společnostem zabývajícím se umělou inteligencí] jsou v zásadě právně životaschopné“, tato konkrétní žaloba „by měla být těžko udržitelná“. Volokh poznamenává, že Walters společnost OpenAI na tato nepravdivá tvrzení neupozornil a nedal jí tak možnost je odstranit, a že v důsledku výstupů ChatGPT nedošlo k žádné skutečné škodě. „V každém případě však bude zajímavé sledovat, co se zde nakonec stane,“ říká Volokh.