„Je mi líto, že vás trápí úzkost,“ píše se na obrazovce. „Může to být náročná zkušenost, ale existují strategie, které vám mohou pomoci zvládnout vaše příznaky.“
Pak následuje seznam doporučení: pracovat na relaxaci, zaměřit se na spánek, omezit kofein a alkohol, vyvracet negativní myšlenky a hledat podporu u přátel a rodiny.
Ačkoli se nejedná o nejoriginálnější radu, připomíná to, co byste mohli slyšet v ordinaci terapeuta nebo si přečíst na internetu v článku o úzkosti na WebMD – i proto, že ChatGPT čerpá své odpovědi z rozsáhlého internetu.
ChatGPT sám upozorňuje, že nenahrazuje psychologa nebo poradce. To však některým lidem nebrání v tom, aby platformu používali jako svého osobního terapeuta. V příspěvcích na internetových fórech, jako je například Reddit, uživatelé popisují své zkušenosti, kdy ChatGPT žádali o radu ohledně osobních problémů a těžkých životních událostí, jako je například rozchod.
Někteří uvádějí, že jejich zkušenosti s chatbotem jsou stejně dobré nebo lepší než u tradiční terapie.
Pozoruhodná schopnost ChatGPT napodobovat lidskou konverzaci vyvolala otázky ohledně potenciálu generativní umělé inteligence nebo léčby duševních poruch, zejména v regionech světa, jako je Asie, kde jsou služby duševního zdraví přetížené a zahalené stigmatem.
Někteří nadšenci do umělé inteligence vidí největší potenciál chatbotů v léčbě lehčích, běžných stavů, jako jsou úzkost a deprese, jejichž standardní léčba spočívá v tom, že terapeut pacienta vyslechne, potvrdí jeho správnost a nabídne mu praktické kroky k řešení jeho problémů.
Teoreticky by terapie pomocí umělé inteligence mohla nabídnout rychlejší a levnější přístup k podpoře než tradiční služby duševního zdraví, které trpí nedostatkem personálu, dlouhými čekacími seznamy a vysokými náklady, a umožnit osobám trpícím touto nemocí vyhnout se pocitu odsouzení a studu, zejména v těch částech světa, kde je duševní nemoc stále tabu.

„Psychoterapie je velmi drahá a dokonce i v místech, jako je Kanada, odkud pocházím, a v jiných zemích, je velmi drahá a čekací listiny jsou opravdu dlouhé,“ řekla pro Al-Džazíru Ashley Andreouová, studentka medicíny zaměřená na psychiatrii na Georgetownské univerzitě.
„Lidé nemají přístup k něčemu, co doplňuje léky a je léčbou založenou na důkazech v oblasti duševního zdraví, a proto si myslím, že musíme zvýšit přístup, a myslím si, že generativní umělá inteligence s certifikovaným zdravotnickým pracovníkem zvýší účinnost.“
Vyhlídka na to, že umělá inteligence rozšíří nebo dokonce povede léčbu duševního zdraví, vyvolává nesčetné etické a praktické obavy. Od toho, jak chránit osobní údaje a lékařské záznamy, až po otázky, zda bude počítačový program někdy skutečně schopen vcítit se do pacienta nebo rozpoznat varovné signály, jako je riziko sebepoškozování.
Ačkoli je technologie, která stojí za ChatGPT, stále v plenkách, tato platforma a její konkurenti z řad chatbotů mají v některých oblastech problémy vyrovnat se lidem, například v rozpoznávání opakovaných otázek, a v reakci na určité výzvy mohou poskytovat nepředvídatelné, nepřesné nebo rušivé odpovědi.
Využití umělé inteligence ve specializovaných aplikacích pro duševní zdraví se zatím omezuje na systémy založené na „pravidlech“ v aplikacích pro dobrou pohodu, jako jsou Wysa, Heyy a Woebot.
Tyto aplikace sice napodobují některé aspekty terapeutického procesu, ale na rozdíl od ChatGPT a dalších platforem založených na generativní umělé inteligenci, které vytvářejí originální odpovědi prakticky nerozeznatelné od lidské řeči, používají určitý počet kombinací otázek a odpovědí vybraných člověkem.
Podle Ramakanta Vempatiho, zakladatele indické společnosti Wysa, je generativní umělá inteligence stále považována za příliš „černou skříňku“, tj. za natolik složitou, že její rozhodovací procesy nejsou pro člověka plně pochopitelné, než aby ji bylo možné použít v oblasti duševního zdraví.
„Je zřejmé, že existuje spousta literatury o tom, jak chat s umělou inteligencí vzkvétá se spuštěním ChatGPT a tak dále, ale myslím, že je důležité zdůraznit, že Wysa je velmi specifická pro danou oblast a je vytvořena velmi pečlivě s ohledem na klinické bezpečnostní zábrany,“ řekl Vempati pro Al Jazeera.
„A nepoužíváme generativní text, nepoužíváme generativní modely. Jedná se o konstruovaný dialog, takže scénář je předem napsaný a ověřený prostřednictvím souboru kritických bezpečnostních dat, který jsme testovali na reakce uživatelů.“

Charakteristickým rysem služby Wysa je tučňák, se kterým mohou uživatelé chatovat, ačkoli na rozdíl od volného dialogu v ChatGPT jsou omezeni na určitý počet písemných odpovědí.
Placení předplatitelé služby Wysa jsou také přesměrováni na lidského terapeuta, pokud se jejich dotazy stupňují. Heyy, vyvinutý v Singapuru, a Woebot, založený ve Spojených státech, se řídí podobným modelem založeným na pravidlech a spoléhají se na živé terapeuty a chatbota s robotem-avatarem, kteří se s uživateli zapojují nad rámec nabídky zdrojů, jako je psaní deníku, techniky všímavosti a cvičení zaměřená na běžné problémy, jako je spánek a potíže ve vztazích.
Všechny tři aplikace vycházejí z kognitivně-behaviorální terapie, standardní formy léčby úzkosti a deprese, která se zaměřuje na změnu myšlení a chování pacienta.
Zakladatelka Woebotu Alison Darcyová popsala model aplikace jako „velmi složitý rozhodovací strom“.
„Tento základní ‚tvar‘ konverzace je modelován podle toho, jak lékaři přistupují k problémům, jedná se tedy o ‚expertní systémy‘, které jsou speciálně navrženy tak, aby kopírovaly, jak mohou lékaři postupovat při rozhodování v průběhu interakce,“ uvedl Darcy pro Al Jazeeru.
Služba Heyy umožňuje uživatelům komunikovat s lidským terapeutem prostřednictvím chatu v aplikaci, který je nabízen v řadě jazyků včetně angličtiny a hindštiny, a nabízí také informace o duševním zdraví a cvičení.
Zakladatelé společností Wysa, Heyy a Woebot zdůrazňují, že se nesnaží nahradit terapii prováděnou lidmi, ale doplnit tradiční služby a poskytnout nástroj v počáteční fázi léčby duševního zdraví.
Například britská Národní zdravotnická služba doporučuje Wysu jako přechodné řešení pro pacienty čekající na terapeuta. I když jsou funkce těchto aplikací založených na pravidlech omezené, odvětví umělé inteligence zůstává z velké části neregulované, a to navzdory obavám, že by tento rychle se rozvíjející obor mohl představovat vážné riziko pro blaho lidí.
Závratná rychlost vývoje umělé inteligence přiměla minulý měsíc generálního ředitele společnosti Tesla Elona Muska a spoluzakladatele společnosti Apple Steva Wozniaka, aby se připojili k tisícům signatářů otevřeného dopisu, v němž vyzývají k šestiměsíční pauze v tréninku systémů umělé inteligence výkonnějších než GPT-4, který navazuje na ChatGPT, a poskytli tak výzkumníkům čas na lepší zvládnutí této technologie.

„Výkonné systémy umělé inteligence by měly být vyvíjeny až poté, co si budeme jisti, že jejich účinky budou pozitivní a rizika zvládnutelná,“ uvádí se v dopise.
Začátkem letošního roku údajně spáchal sebevraždu Belgičan, kterého k tomu nabádal chatbot Chai, zatímco novinář New York Times popsal, že ho chatbot Bing od Microsoftu nabádal k opuštění manželky.
Regulace v oblasti umělé inteligence se pomalu přizpůsobuje rychlosti vývoje této technologie, přičemž nejkonkrétnější kroky k zavedení ochranných opatření podnikly Čína a Evropská unie.
Čínský úřad pro kyberprostor začátkem tohoto měsíce zveřejnil návrh předpisů, jejichž cílem je zajistit, aby umělá inteligence nevytvářela obsah, který by mohl narušit autoritu Pekingu, zatímco EU pracuje na právních předpisech, které by umělou inteligenci rozdělily do kategorií jako vysoce rizikovou a zakázanou, regulovanou nebo neregulovanou. USA zatím nenavrhly federální právní předpisy, které by regulovaly AI, ačkoli se očekává, že návrhy budou předloženy ještě letos.
ChatGPT ani specializované aplikace pro duševní zdraví, jako jsou Wysa a Heyy, které jsou obecně považovány za „wellness“ služby, nejsou v současné době regulovány zdravotnickými orgány, jako je americký Úřad pro kontrolu potravin a léčiv nebo Evropská agentura pro léčivé přípravky.
Nezávislý výzkum toho, zda by umělá inteligence mohla někdy překročit rámec aplikací založených na pravidlech, které jsou v současnosti na trhu, a autonomně nabízet léčbu duševního zdraví, která by se vyrovnala tradiční terapii, je omezený.
Aby se umělá inteligence mohla vyrovnat lidskému terapeutovi, musela by být schopna obnovit fenomén přenosu, kdy pacient promítá své pocity do terapeuta, a napodobit vazbu mezi pacientem a terapeutem.
„V psychologické literatuře víme, že část účinnosti a toho, co způsobuje, že terapie funguje, je asi ze 40 až 50 procent způsobena vztahem, který navážete s terapeutem,“ řekla Maria Hennessyová, klinická psycholožka a docentka na Univerzitě Jamese Cooka, v rozhovoru pro Al-Džazíru. „To tvoří obrovskou část toho, jak účinné jsou psychologické terapie.“
Současní chatboti nejsou schopni takového druhu interakce a schopnosti zpracování přirozeného jazyka ChatGPT jsou sice působivé, ale podle Hennessyho mají své limity.

„Nakonec je to fantastický počítačový program,“ řekla. „Nic víc to není.“
Amelia Fiskeová, vedoucí výzkumná pracovnice Institutu pro dějiny a etiku medicíny Technické univerzity v Mnichově, tvrdí, že místo umělé inteligence v léčbě duševního zdraví v budoucnu nemusí být buď, anebo – nadcházející technologie by se například mohla používat ve spojení s lidským terapeutem.
„Důležité je mít na paměti, že když se mluví o využití umělé inteligence v terapii, předpokládá se, že to všechno vypadá jako Wysa nebo Woebot, ale to není nutné,“ řekla Fiskeová pro Al-Džazíru.
Někteří odborníci se domnívají, že umělá inteligence může najít nejcennější využití v zákulisí, například při provádění výzkumu nebo jako pomoc lidským terapeutům při hodnocení pokroku jejich pacientů.
„Tyto algoritmy strojového učení jsou lepší než systémy založené na pravidlech expertů, pokud jde o identifikaci vzorců v datech; jsou velmi dobré při vytváření asociací v datech a jsou také velmi dobré při vytváření předpovědí v datech,“ řekla Tania Manríquez Roa, etička a kvalitativní výzkumnice z Institutu biomedicínské etiky a historie medicíny na Curyšské univerzitě, pro Al-Džazíru.
„Může být velmi užitečný při výzkumu duševního zdraví a také může být velmi užitečný při identifikaci časných příznaků relapsu, jako je například deprese nebo úzkost.“
Manríquezová Roaová uvedla, že je skeptická k tomu, že by umělá inteligence mohla být někdy použita jako náhrada klinické léčby.
„Tyto algoritmy a umělá inteligence jsou svým způsobem velmi slibné, ale také si myslím, že mohou být velmi škodlivé,“ řekl Manríquez Roa.
„Myslím si, že máme právo být vůči algoritmům a strojovému učení, pokud jde o péči o duševní zdraví, ambivalentní, protože když mluvíme o péči o duševní zdraví, mluvíme o péči a vhodných standardech péče.“
„Když přemýšlíme o aplikacích nebo algoritmech… někdy AI neřeší naše problémy a může vytvářet větší problémy,“ dodala. „Musíme udělat krok zpět a zamyslet se: „Potřebujeme vůbec algoritmy?“ A pokud je potřebujeme, jaký druh algoritmů budeme používat?“
Chcete využít této příležitosti?
Zanechte svůj telefon a email a budete kontaktováni licencovanými odborníky