Buffett varuje před riziky umělé inteligence, přirovnává je k jaderným zbraním
Legendární investor Warren Buffett znovu otevřel debatu o tom, kam může směřovat rychlý rozvoj umělé inteligence a jaká rizika s sebou tato technologie nese.
Warren Buffett přirovnává rizika umělé inteligence k hrozbám spojeným s vývojem jaderných zbraní
Upozorňuje, že ani lídři v oblasti AI nedokážou spolehlivě odhadnout dlouhodobé důsledky této technologie
Podle Buffetta je umělá inteligence technologií, kterou už nelze „vzít zpět“ ani plně kontrolovat
Zdůrazňuje obrovský potenciál AI pro dobro, ale i významná systémová rizika pro společnost
Ve svých nejnovějších veřejných vystoupeních upozornil, že rizika spojená s umělou inteligencí mu v mnoha ohledech připomínají hrozby, které svět řešil v době vývoje jaderných zbraní. Podle Buffetta je hlavním problémem skutečnost, že ani samotní lídři v oblasti AI nedokážou přesně říci, kam se tato technologie bude ubírat.
Buffettova slova zazněla v dvouhodinovém speciálním pořadu vysílaném na CNBC, kde otevřeně hovořil o tom, že nedostatečné pochopení dlouhodobých dopadů umělé inteligence představuje nebezpečí nejen pro byznys, ale i pro společnost jako celek. Jeho varování přichází v době, kdy se AI stala dominantním tématem finančních trhů a technologických investic.
„Džin je venku z láhve“: nejistota ohledně dalšího vývoje umělé inteligence
Buffett ve vysílání zdůraznil, že i ti nejchytřejší lidé pracující na vývoji umělé inteligence otevřeně přiznávají, že nevědí, kam tato technologie směřuje. Právě tato nejistota je podle něj zásadním rizikem. Přirovnal situaci k historickému objeviteli Kolumbovi, který se mohl v případě omylu vrátit zpět, zatímco u umělé inteligence taková možnost prakticky neexistuje.
Podle Buffetta je „džin venku z láhve“ – jakmile je technologie vypuštěna do světa, nelze ji jednoduše zastavit nebo vzít zpět. Tento fakt činí umělou inteligenci zásadně odlišnou od mnoha předchozích technologických inovací, u nichž bylo možné postupně korigovat směr vývoje.
Investor zároveň přirovnal slepotu technologických lídrů ohledně dlouhodobých důsledků AI k historickým komentářům Alberta Einsteina z období druhé světové války, kdy popisoval vývoj atomové bomby slovy, že „to změní vše na světě kromě toho, jak lidé myslí“. Buffett tím naznačuje, že technologický pokrok může dramaticky předběhnout schopnost společnosti adaptovat se na jeho důsledky.
Paralela s jadernými zbraněmi a geopolitickým rizikem
Buffettova kariéra byla dlouhodobě poznamenána zájmem o geopolitická rizika, zejména ta spojená s jadernými zbraněmi. V pořadu připomněl, že lidstvo se v této oblasti od druhé světové války neposunulo k řešení, ale spíše k rozšíření problému. Zatímco původně se jednalo o schopnost jedné země, dnes disponuje jadernými zbraněmi osm států a podle Buffetta brzy možná devět.
Podle jeho slov je obzvlášť znepokojivé, že existují lidé, kteří dokážou „vyděsit k smrti“ už s neškodnou zbraní, natož s jaderným arzenálem. Tato paralela má podle Buffetta upozornit na podobné riziko u umělé inteligence – technologie s obrovským potenciálem, která se může dostat do rukou aktérů bez dostatečné odpovědnosti nebo kontroly.
Buffett otevřeně řekl, že pokud by existovala možnost vyřešit problém jaderných zbraní pomocí peněz, neváhal by utratit celé své jmění, přestože si uvědomuje, že jejich vývoj byl pro Spojené státy během druhé světové války považován za „absolutně nezbytný“. Právě otázka jaderného rizika byla podle něj prvním tématem, které mu přišlo na mysl, když začal uvažovat o filantropii.
Filantropie, bezpečnost a odpovědnost
V emotivní části rozhovoru Buffett uvedl, že kdyby měl možnost vybrat tři země, které by se trvale vzdaly jaderných zbraní, udělal by to okamžitě. Podle jeho slov by neváhal ani vteřinu, protože by šlo o zásadní krok ke zvýšení globální bezpečnosti. Tato vyjádření ukazují, jak vážně Buffett vnímá existenční hrozby, které přesahují hranice finančních trhů.
Jeho obavy nejsou nové. Už ve výroční zprávě společnosti Berkshire Hathaway (BRK-B) za rok 2015 Buffett upozorňoval, že existuje „jedno jasné, aktuální a trvalé nebezpečí“, proti němuž jsou on i jeho dlouholetý partner Charlie Munger bezmocní. Tímto nebezpečím měl na mysli úspěšný kybernetický, biologický, jaderný nebo chemický útok na Spojené státy – hrozbu, která by měla fatální dopady nejen na firmu, ale na celou společnost.
Buffettovy aktuální komentáře tak zapadají do dlouhodobého rámce jeho myšlení, v němž hrají klíčovou roli systémová rizika, jež nelze jednoduše diverzifikovat nebo pojistit.
Umělá inteligence: potenciál pro dobro i škody
Varování před riziky AI nejsou u Buffetta novinkou. Na výroční valné hromadě akcionářů Berkshire Hathaway v květnu 2024 uvedl, že umělá inteligence má „obrovský potenciál pro dobro i obrovský potenciál pro škody“. Tím dal jasně najevo, že nejde o odmítání technologie jako takové, ale o výzvu k opatrnosti a odpovědnému přístupu.
Buffett se dlouhodobě vyhýbá investicím, kterým plně nerozumí, a tento přístup se promítá i do jeho pohledu na AI. Zatímco trhy často oslavují krátkodobý růst a technologické inovace, Buffett se soustředí na dlouhodobé důsledky a rizika, která se mohou projevit až s odstupem let či desetiletí.
Jeho komentáře přicházejí také v době významné změny ve vedení Berkshire Hathaway. Buffett v listopadovém dopise akcionářům z roku 2025 oznámil, že již nebude vystupovat na výroční schůzi společnosti. Vedení firmy převzal k 1. lednu generální ředitel Greg Abel, který by měl letos na jaře napsat výroční dopis akcionářům a odpovídat na jejich dotazy.
I když se Buffett postupně stahuje z veřejné role, jeho slova o umělé inteligenci a globálních rizicích jasně ukazují, že téma odpovědnosti a bezpečnosti považuje za jedno z nejdůležitějších výzev současnosti. Přirovnání AI k jaderným zbraním tak není varováním před technologií samotnou, ale před tím, co se může stát, pokud její vývoj předběhne schopnost lidstva porozumět jejím důsledkům a řídit je.
Zdroj: Shutterstock
Klíčové body
Warren Buffett přirovnává rizika umělé inteligence k hrozbám spojeným s vývojem jaderných zbraní
Upozorňuje, že ani lídři v oblasti AI nedokážou spolehlivě odhadnout dlouhodobé důsledky této technologie
Podle Buffetta je umělá inteligence technologií, kterou už nelze „vzít zpět“ ani plně kontrolovat
Zdůrazňuje obrovský potenciál AI pro dobro, ale i významná systémová rizika pro společnost
Ve svých nejnovějších veřejných vystoupeních upozornil, že rizika spojená s umělou inteligencí mu v mnoha ohledech připomínají hrozby, které svět řešil v době vývoje jaderných zbraní. Podle Buffetta je hlavním problémem skutečnost, že ani samotní lídři v oblasti AI nedokážou přesně říci, kam se tato technologie bude ubírat.Buffettova slova zazněla v dvouhodinovém speciálním pořadu vysílaném na CNBC, kde otevřeně hovořil o tom, že nedostatečné pochopení dlouhodobých dopadů umělé inteligence představuje nebezpečí nejen pro byznys, ale i pro společnost jako celek. Jeho varování přichází v době, kdy se AI stala dominantním tématem finančních trhů a technologických investic.„Džin je venku z láhve“: nejistota ohledně dalšího vývoje umělé inteligenceBuffett ve vysílání zdůraznil, že i ti nejchytřejší lidé pracující na vývoji umělé inteligence otevřeně přiznávají, že nevědí, kam tato technologie směřuje. Právě tato nejistota je podle něj zásadním rizikem. Přirovnal situaci k historickému objeviteli Kolumbovi, který se mohl v případě omylu vrátit zpět, zatímco u umělé inteligence taková možnost prakticky neexistuje.Podle Buffetta je „džin venku z láhve“ – jakmile je technologie vypuštěna do světa, nelze ji jednoduše zastavit nebo vzít zpět. Tento fakt činí umělou inteligenci zásadně odlišnou od mnoha předchozích technologických inovací, u nichž bylo možné postupně korigovat směr vývoje.Investor zároveň přirovnal slepotu technologických lídrů ohledně dlouhodobých důsledků AI k historickým komentářům Alberta Einsteina z období druhé světové války, kdy popisoval vývoj atomové bomby slovy, že „to změní vše na světě kromě toho, jak lidé myslí“. Buffett tím naznačuje, že technologický pokrok může dramaticky předběhnout schopnost společnosti adaptovat se na jeho důsledky.Chcete využít této příležitosti?Paralela s jadernými zbraněmi a geopolitickým rizikemBuffettova kariéra byla dlouhodobě poznamenána zájmem o geopolitická rizika, zejména ta spojená s jadernými zbraněmi. V pořadu připomněl, že lidstvo se v této oblasti od druhé světové války neposunulo k řešení, ale spíše k rozšíření problému. Zatímco původně se jednalo o schopnost jedné země, dnes disponuje jadernými zbraněmi osm států a podle Buffetta brzy možná devět.Podle jeho slov je obzvlášť znepokojivé, že existují lidé, kteří dokážou „vyděsit k smrti“ už s neškodnou zbraní, natož s jaderným arzenálem. Tato paralela má podle Buffetta upozornit na podobné riziko u umělé inteligence – technologie s obrovským potenciálem, která se může dostat do rukou aktérů bez dostatečné odpovědnosti nebo kontroly.Buffett otevřeně řekl, že pokud by existovala možnost vyřešit problém jaderných zbraní pomocí peněz, neváhal by utratit celé své jmění, přestože si uvědomuje, že jejich vývoj byl pro Spojené státy během druhé světové války považován za „absolutně nezbytný“. Právě otázka jaderného rizika byla podle něj prvním tématem, které mu přišlo na mysl, když začal uvažovat o filantropii.Filantropie, bezpečnost a odpovědnostV emotivní části rozhovoru Buffett uvedl, že kdyby měl možnost vybrat tři země, které by se trvale vzdaly jaderných zbraní, udělal by to okamžitě. Podle jeho slov by neváhal ani vteřinu, protože by šlo o zásadní krok ke zvýšení globální bezpečnosti. Tato vyjádření ukazují, jak vážně Buffett vnímá existenční hrozby, které přesahují hranice finančních trhů.
Jeho obavy nejsou nové. Už ve výroční zprávě společnosti Berkshire Hathaway za rok 2015 Buffett upozorňoval, že existuje „jedno jasné, aktuální a trvalé nebezpečí“, proti němuž jsou on i jeho dlouholetý partner Charlie Munger bezmocní. Tímto nebezpečím měl na mysli úspěšný kybernetický, biologický, jaderný nebo chemický útok na Spojené státy – hrozbu, která by měla fatální dopady nejen na firmu, ale na celou společnost.
Buffettovy aktuální komentáře tak zapadají do dlouhodobého rámce jeho myšlení, v němž hrají klíčovou roli systémová rizika, jež nelze jednoduše diverzifikovat nebo pojistit. Umělá inteligence: potenciál pro dobro i škodyVarování před riziky AI nejsou u Buffetta novinkou. Na výroční valné hromadě akcionářů Berkshire Hathaway v květnu 2024 uvedl, že umělá inteligence má „obrovský potenciál pro dobro i obrovský potenciál pro škody“. Tím dal jasně najevo, že nejde o odmítání technologie jako takové, ale o výzvu k opatrnosti a odpovědnému přístupu.Buffett se dlouhodobě vyhýbá investicím, kterým plně nerozumí, a tento přístup se promítá i do jeho pohledu na AI. Zatímco trhy často oslavují krátkodobý růst a technologické inovace, Buffett se soustředí na dlouhodobé důsledky a rizika, která se mohou projevit až s odstupem let či desetiletí.Jeho komentáře přicházejí také v době významné změny ve vedení Berkshire Hathaway. Buffett v listopadovém dopise akcionářům z roku 2025 oznámil, že již nebude vystupovat na výroční schůzi společnosti. Vedení firmy převzal k 1. lednu generální ředitel Greg Abel, který by měl letos na jaře napsat výroční dopis akcionářům a odpovídat na jejich dotazy.I když se Buffett postupně stahuje z veřejné role, jeho slova o umělé inteligenci a globálních rizicích jasně ukazují, že téma odpovědnosti a bezpečnosti považuje za jedno z nejdůležitějších výzev současnosti. Přirovnání AI k jaderným zbraním tak není varováním před technologií samotnou, ale před tím, co se může stát, pokud její vývoj předběhne schopnost lidstva porozumět jejím důsledkům a řídit je.