Psycholog vysvětluje, jak umělá inteligence a algoritmy mění naše životy
V době ChatGPT se počítačové algoritmy a umělá inteligence stále více zapojují do našich životů, vybírají obsah, který se nám zobrazuje online, navrhují hudbu, kterou posloucháme, a odpovídají na naše otázky.
Podle psychologa a behaviorálního vědce Gerda Gigerenzera, ředitele Hardingova centra pro rizikovou gramotnost na Postupimské univerzitě v Německu, mohou tyto algoritmy měnit náš svět a chování způsobem, kterému ještě plně nerozumíme. Dříve byl ředitelem Centra pro adaptivní chování a poznávání v Institutu Maxe Plancka pro lidský rozvoj a po desetiletí prováděl výzkum, který pomohl utvářet představu o tom, jak se lidé rozhodují, když čelí nejistotě.
Ve své nejnovější knize „How to Stay Smart in a Smart World“ se Dr. Gigerenzer zabývá tím, jak algoritmy utvářejí naši budoucnost – a proč je důležité si uvědomit, že nejsou lidmi. S časopisem Journal hovořil pro podcast The Future of Everything.
Pojem algoritmus se v dnešní době často skloňuje. O čem mluvíme, když mluvíme o algoritmech?
Je to obrovská věc, a proto je důležité rozlišovat, o čem mluvíme. Jedním z poznatků mého výzkumu v Institutu Maxe Plancka je, že pokud máte situaci, která je stabilní a dobře definovaná, pak jsou složité algoritmy, jako jsou hluboké neuronové sítě, určitě lepší než lidský výkon. Příkladem jsou [hry] šachy a Go, které jsou stabilní. Pokud ale máte problém, který není stabilní – například chcete předpovědět virus, jako je koronavirus -, pak dejte od složitých algoritmů ruce pryč. [Vypořádat se s] nejistotou – tak funguje spíše lidská mysl, která identifikuje jeden nebo dva důležité signály a zbytek ignoruje. V tomto typu špatně definovaného problému složité algoritmy nefungují dobře. Říkám tomu „princip stabilního světa“ a pomůže vám to jako první vodítko k tomu, co umělá inteligence dokáže. Říká vám také, že abychom z AI vytěžili co nejvíce, musíme svět učinit předvídatelnějším.
Jsou tedy algoritmy po všech těch desetiletích informatiky nakonec opravdu jen kalkulačky, které provádějí stále složitější rovnice?
Zdroj: Getty Images
Co jiného by to mělo být? Hluboké neuronové sítě mají mnoho a mnoho vrstev, ale stále jsou to počítací stroje. S pomocí videotechnologie toho dokážou mnohem více než kdykoli předtím. Umí malovat, umí konstruovat text. Ale to neznamená, že rozumí textu v tom smyslu, v jakém mu rozumí lidé.
Pomáhá lidem pochopit, jak se tyto algoritmy rozhodují?
Transparentnost je nesmírně důležitá a domnívám se, že by měla být lidským právem. Pokud je to transparentní, můžete to skutečně upravit a začít znovu přemýšlet [sami za sebe], místo abyste se spoléhali na algoritmus, který není lepší než banda špatně placených pracovníků. Musíme tedy pochopit situaci, kdy je lidský úsudek potřebný a je vlastně lepší. A také musíme dávat pozor, abychom se nedostali do situace, kdy technologické společnosti prodávají algoritmy typu black-box, které určují části našich životů. Jde o všechno, včetně vašeho sociálního a politického chování, a lidé pak ztrácejí kontrolu ve prospěch vlád a technologických společností.
Píšete, že „digitální technologie mohou snadno vychýlit misky vah směrem k autokratickým systémům“. Proč to říkáte? A jak se liší od minulých informačních technologií?
Tento druh nebezpečí je reálný. Mezi všemi výhodami, které přináší, je jednou z nectností náchylnost ke sledování ze strany vlád a technologických společností. Lidé už ale nečtou zásady ochrany osobních údajů, takže o nich nevědí. A také zásady ochrany osobních údajů jsou nastaveny tak, že je ve skutečnosti nelze číst. Jsou příliš dlouhé a složité. Musíme získat zpět kontrolu.
Jak bychom se tedy měli chovat, abychom něco takového zvládli?
Vzpomeňte si na kavárnu ve svém rodném městě, kde se podává káva zdarma. Všichni tam chodí, protože je zdarma, a všechny ostatní kavárny zkrachují. Takže už nemáte na výběr, ale alespoň si dáte kávu zdarma a užijete si konverzaci s přáteli. Jenže na stolech jsou mikrofony a na stěnách videokamery, které zaznamenávají všechno, co říkáte, každé slovo a komu, a posílají to k analýze. Kavárna je plná prodejců, kteří vás neustále vyrušují a nabízejí vám personalizované produkty. Zhruba v takové situaci se nacházíte, když jste na Facebooku, Instagramu nebo jiných platformách. [Meta Platforms Inc., mateřská společnost Facebooku a Instagramu, se k tomu odmítla vyjádřit]. V této kavárně nejste zákazníkem. Jste produkt. Chceme tedy mít kavárnu, kde si opět můžeme platit [za] sebe, abychom byli zákazníky.
Celá infrastruktura personalizovaných reklam se stala součástí infrastruktury internetu. A zdá se, že by bylo potřeba provést docela vážné zásahy, aby to zmizelo. Když budete realistický, kam si myslíte, že budeme směřovat v příštích zhruba deseti letech, co se týče technologií, umělé inteligence a dohledu?
Zdroj: Getty Images
Obecně mám větší naději, že si lidé uvědomí, že není dobrý nápad předávat svá data a odpovědnost za vlastní rozhodnutí technologickým společnostem, které je využívají k vydělávání peněz od inzerentů. To nemůže být naše budoucnost. Všude jinde platíme svými [vlastními] penězi, a proto jsme zákazníky a máme nad nimi kontrolu. Existuje skutečné nebezpečí, že stále více lidí zaspává sledování a prostě přijímá vše, co je pohodlnější.
Ale zní to tak těžce, když je všechno tak pohodlné, číst zásady ochrany osobních údajů a zkoumat tyto algoritmy, které ovlivňují můj život. Jak se proti tomu mám bránit?
Nejvhodnější je nepřemýšlet. A alternativou je začít myslet. Nejdůležitější [technologií, kterou je třeba si uvědomit] je mechanismus, který psychologové nazývají „přerušované posilování“. Dostanete posílení, například „To se mi líbí“, ale nikdy nevíte, kdy ho dostanete. Lidé se na platformu neustále vracejí a kontrolují, zda se jim líbí. To skutečně změnilo mentalitu a učinilo lidi závislými. Myslím, že je velmi důležité, aby každý pochopil tyto mechanismy a to, jak se člověk stane závislým. Abyste mohli získat kontrolu zpět, pokud chcete.
Podle psychologa a behaviorálního vědce Gerda Gigerenzera, ředitele Hardingova centra pro rizikovou gramotnost na Postupimské univerzitě v Německu, mohou tyto algoritmy měnit náš svět a chování způsobem, kterému ještě plně nerozumíme. Dříve byl ředitelem Centra pro adaptivní chování a poznávání v Institutu Maxe Plancka pro lidský rozvoj a po desetiletí prováděl výzkum, který pomohl utvářet představu o tom, jak se lidé rozhodují, když čelí nejistotě.Ve své nejnovější knize „How to Stay Smart in a Smart World“ se Dr. Gigerenzer zabývá tím, jak algoritmy utvářejí naši budoucnost – a proč je důležité si uvědomit, že nejsou lidmi. S časopisem Journal hovořil pro podcast The Future of Everything.Pojem algoritmus se v dnešní době často skloňuje. O čem mluvíme, když mluvíme o algoritmech?Je to obrovská věc, a proto je důležité rozlišovat, o čem mluvíme. Jedním z poznatků mého výzkumu v Institutu Maxe Plancka je, že pokud máte situaci, která je stabilní a dobře definovaná, pak jsou složité algoritmy, jako jsou hluboké neuronové sítě, určitě lepší než lidský výkon. Příkladem jsou [hry] šachy a Go, které jsou stabilní. Pokud ale máte problém, který není stabilní – například chcete předpovědět virus, jako je koronavirus -, pak dejte od složitých algoritmů ruce pryč. [Vypořádat se s] nejistotou – tak funguje spíše lidská mysl, která identifikuje jeden nebo dva důležité signály a zbytek ignoruje. V tomto typu špatně definovaného problému složité algoritmy nefungují dobře. Říkám tomu „princip stabilního světa“ a pomůže vám to jako první vodítko k tomu, co umělá inteligence dokáže. Říká vám také, že abychom z AI vytěžili co nejvíce, musíme svět učinit předvídatelnějším.Jsou tedy algoritmy po všech těch desetiletích informatiky nakonec opravdu jen kalkulačky, které provádějí stále složitější rovnice?Co jiného by to mělo být? Hluboké neuronové sítě mají mnoho a mnoho vrstev, ale stále jsou to počítací stroje. S pomocí videotechnologie toho dokážou mnohem více než kdykoli předtím. Umí malovat, umí konstruovat text. Ale to neznamená, že rozumí textu v tom smyslu, v jakém mu rozumí lidé.Chcete využít této příležitosti?Pomáhá lidem pochopit, jak se tyto algoritmy rozhodují?Transparentnost je nesmírně důležitá a domnívám se, že by měla být lidským právem. Pokud je to transparentní, můžete to skutečně upravit a začít znovu přemýšlet [sami za sebe], místo abyste se spoléhali na algoritmus, který není lepší než banda špatně placených pracovníků. Musíme tedy pochopit situaci, kdy je lidský úsudek potřebný a je vlastně lepší. A také musíme dávat pozor, abychom se nedostali do situace, kdy technologické společnosti prodávají algoritmy typu black-box, které určují části našich životů. Jde o všechno, včetně vašeho sociálního a politického chování, a lidé pak ztrácejí kontrolu ve prospěch vlád a technologických společností.Píšete, že „digitální technologie mohou snadno vychýlit misky vah směrem k autokratickým systémům“. Proč to říkáte? A jak se liší od minulých informačních technologií?Tento druh nebezpečí je reálný. Mezi všemi výhodami, které přináší, je jednou z nectností náchylnost ke sledování ze strany vlád a technologických společností. Lidé už ale nečtou zásady ochrany osobních údajů, takže o nich nevědí. A také zásady ochrany osobních údajů jsou nastaveny tak, že je ve skutečnosti nelze číst. Jsou příliš dlouhé a složité. Musíme získat zpět kontrolu.Jak bychom se tedy měli chovat, abychom něco takového zvládli?Vzpomeňte si na kavárnu ve svém rodném městě, kde se podává káva zdarma. Všichni tam chodí, protože je zdarma, a všechny ostatní kavárny zkrachují. Takže už nemáte na výběr, ale alespoň si dáte kávu zdarma a užijete si konverzaci s přáteli. Jenže na stolech jsou mikrofony a na stěnách videokamery, které zaznamenávají všechno, co říkáte, každé slovo a komu, a posílají to k analýze. Kavárna je plná prodejců, kteří vás neustále vyrušují a nabízejí vám personalizované produkty. Zhruba v takové situaci se nacházíte, když jste na Facebooku, Instagramu nebo jiných platformách. [Meta Platforms Inc., mateřská společnost Facebooku a Instagramu, se k tomu odmítla vyjádřit]. V této kavárně nejste zákazníkem. Jste produkt. Chceme tedy mít kavárnu, kde si opět můžeme platit [za] sebe, abychom byli zákazníky.Celá infrastruktura personalizovaných reklam se stala součástí infrastruktury internetu. A zdá se, že by bylo potřeba provést docela vážné zásahy, aby to zmizelo. Když budete realistický, kam si myslíte, že budeme směřovat v příštích zhruba deseti letech, co se týče technologií, umělé inteligence a dohledu?Obecně mám větší naději, že si lidé uvědomí, že není dobrý nápad předávat svá data a odpovědnost za vlastní rozhodnutí technologickým společnostem, které je využívají k vydělávání peněz od inzerentů. To nemůže být naše budoucnost. Všude jinde platíme svými [vlastními] penězi, a proto jsme zákazníky a máme nad nimi kontrolu. Existuje skutečné nebezpečí, že stále více lidí zaspává sledování a prostě přijímá vše, co je pohodlnější.Ale zní to tak těžce, když je všechno tak pohodlné, číst zásady ochrany osobních údajů a zkoumat tyto algoritmy, které ovlivňují můj život. Jak se proti tomu mám bránit?Nejvhodnější je nepřemýšlet. A alternativou je začít myslet. Nejdůležitější [technologií, kterou je třeba si uvědomit] je mechanismus, který psychologové nazývají „přerušované posilování“. Dostanete posílení, například „To se mi líbí“, ale nikdy nevíte, kdy ho dostanete. Lidé se na platformu neustále vracejí a kontrolují, zda se jim líbí. To skutečně změnilo mentalitu a učinilo lidi závislými. Myslím, že je velmi důležité, aby každý pochopil tyto mechanismy a to, jak se člověk stane závislým. Abyste mohli získat kontrolu zpět, pokud chcete.