Jensen Huang ze společnosti Nvidia říká, že umělá obecná inteligence je vzdálená 5 let
Umělá obecná inteligence (AGI), označovaná také jako “silná AI”, “plná AI”, “AI na úrovni člověka” nebo “obecná inteligentní činnost”, znamená pozoruhodný budoucí pokrok v oblasti umělé inteligence.
Rostoucí obavy spekulují o tom, že jakmile AGI získá určitou úroveň autonomie a schopností, může se ukázat, že je nemožné ji zadržet
Senzacechtivý tisk často láká odborníky na umělou inteligenci, aby předpověděli časový plán vzniku AGI
V reakci na halucinace AI Huang ztvárnil viditelně frustrované chování, ale prohlásil, že problém je řešitelný
Na rozdíl od úzké umělé inteligence, která je speciálně vytvořena pro specializované úkoly, jako je identifikace vad výrobků, kondenzace zpráv nebo konstrukce webových stránek, je AGI zaměřena na provádění rozmanité škály kognitivních úkolů na úrovni lidských schopností nebo je překonává.
Tento týden na výroční vývojářské konferenci Nvidia GTC vystoupil před novináři generální ředitel Jensen Huang. Huang se podělil o svůj osobitý pohled na toto téma. Frustrace generálního ředitele z tohoto opakujícího se tématu je vzhledem k existenciálním otázkám, které AGI představuje, značně logická. Vize budoucnosti, v níž si stroje uzurpují kognitivní schopnosti lidí – předčí je, naučí se je a dokonce je předčí v myšlení – jsou náročné.
Ústředním bodem těchto obav je nepředvídatelnost rozhodovacích procesů a cílů AGI. Budou se shodovat s lidskými hodnotami a prioritami, nebo se budou rozcházet? Tato obava se odráží v nevyřčených příbězích, které se objevují ve vědecké fantastice přinejmenším od 40. let 20. století. Rostoucí obavy spekulují o tom, že jakmile AGI získá určitou úroveň autonomie a schopností, může se ukázat, že je nemožné ji zadržet nebo ovládat, což povede ke scénářům, kdy její činy budou neodvolatelné.
Zdroj: Burzovnísvět.cz
Senzacechtivý tisk často láká odborníky na umělou inteligenci, aby předpověděli časový plán vzniku AGI, čímž nepřímo naznačují konec lidstva nebo alespoň status quo. Tváří v tvář tomu jsou generální ředitelé AI často zdrženliví nebo váhaví. Huang však žádné takové výhrady neprojevil a věnoval značnou část svého času formulování svých myšlenek.
Předpovídání příchodu kompetentní AGI, tvrdí Huang, do značné míry závisí na konceptualizaci AGI. Jako analogické příklady uvedl časové a prostorové případy, jako je příchod nového roku nebo příjezd do kongresového centra v San José – místa konání letošní konference GTC. Společné rysy spočívají ve vzájemném odsouhlasení opatření, které potvrdí příjezd do požadovaného cíle.
V současném diskurzu o umělé inteligenci (AI) se často objevuje pojem „umělá obecná inteligence“ (AGI), což je fáze vývoje AI, kdy software dosáhne schopnosti vykonávat jakoukoli intelektuální úlohu, kterou je schopen vykonat lidský mozek. Tento koncept je daleko přesahující současné aplikace AI, které jsou typicky navrženy k vykonávání velmi specifických úkolů v omezených doménách, jako je rozpoznávání obrazu, překlad jazyků nebo doporučovací systémy.
Zdroj: Bloomberg
V kontextu AGI, pokud bychom ho definovali prostřednictvím konkrétní sady testů, ve kterých software dosahuje výrazně lepších výsledků než většina lidí – konkrétně o 8 % lepších – teoretik AI a futurista Huang naznačuje, že by mohlo být tohoto milníku dosaženo během příštích pěti let. Tyto testy by mohly zahrnovat široké spektrum intelektuálních výzev, od složitých právních advokátních zkoušek, přes logické testy a ekonomické simulace, až po kvalifikační zkoušky pro medicínu. Tyto příklady ukazují na rozmanitost oblastí, kde by AGI mohlo najít uplatnění, a zdůrazňují významnost tohoto potenciálního průlomu.
Huangův předpoklad vychází z představy, že pokrok v oblasti umělé inteligence se bude nadále ubírat exponenciální trajektorií, kdy inovace ve výpočetní technice, algoritmech strojového učení a dostupnosti dat povedou k rychlejšímu a efektivnějšímu vývoji. Nicméně Huang také zdůrazňuje, že dokud nebude v oboru přesně vyjasněn význam a definice AGI, zůstává skeptický k jakýmkoli konkrétním předpovědím.
Téma halucinace AI upoutalo pozornost během úterního zasedání otázek a odpovědí. Týká se tendence některých UI vymýšlet si věrohodné, ale faktů zbavené odpovědi. V reakci na to Huang ztvárnil viditelně frustrované chování, ale prohlásil, že problém je řešitelný. Klíčem je podle něj zajistit, aby odpovědi vytvořené umělou inteligencí byly dobře prozkoumány.
Zdroj: Burzovnísvět.cz
Doporučovaný přístup, který Huang nazývá “generování rozšířené o vyhledávání”, silně rezonuje se základní mediální gramotností. Každá jednotlivá odpověď by měla být kriticky zkoumána z hlediska zdroje a kontextu. Fakta uváděná v rámci zdroje je třeba konfrontovat se zavedenými pravdami. Jakákoli odpověď vykazující byť jen náznak faktografičnosti postrádá celý zdroj, měla by být ignorována a mělo by se přejít k další odpovědi.
U kritických odpovědí, jako je například zdravotní poradenství, navrhuje Huang konzultovat více zdrojů a ověřených pravd. Z toho vyplývá, že generátor umělé inteligence musí mít možnost přiznat nedostatečné znalosti nebo nedostatek shody na správné odpovědi. Stručně řečeno, AGI musí ovládat umění říkat “nevím”.
Vzhledem k tomu, že debata o UI a AGI pokračuje, Huangova jasná definice AGI a řešení halucinace UI přináší do diskuse nové pohledy. Zdůrazňuje potřebu transparentnosti, přesnosti a odpovědnosti v ekosystému umělé inteligence, protože postupně směřujeme k budoucnosti ovládané AGI.
Na rozdíl od úzké umělé inteligence, která je speciálně vytvořena pro specializované úkoly, jako je identifikace vad výrobků, kondenzace zpráv nebo konstrukce webových stránek, je AGI zaměřena na provádění rozmanité škály kognitivních úkolů na úrovni lidských schopností nebo je překonává.Tento týden na výroční vývojářské konferenci Nvidia GTC vystoupil před novináři generální ředitel Jensen Huang. Huang se podělil o svůj osobitý pohled na toto téma. Frustrace generálního ředitele z tohoto opakujícího se tématu je vzhledem k existenciálním otázkám, které AGI představuje, značně logická. Vize budoucnosti, v níž si stroje uzurpují kognitivní schopnosti lidí – předčí je, naučí se je a dokonce je předčí v myšlení – jsou náročné.Ústředním bodem těchto obav je nepředvídatelnost rozhodovacích procesů a cílů AGI. Budou se shodovat s lidskými hodnotami a prioritami, nebo se budou rozcházet? Tato obava se odráží v nevyřčených příbězích, které se objevují ve vědecké fantastice přinejmenším od 40. let 20. století. Rostoucí obavy spekulují o tom, že jakmile AGI získá určitou úroveň autonomie a schopností, může se ukázat, že je nemožné ji zadržet nebo ovládat, což povede ke scénářům, kdy její činy budou neodvolatelné.Senzacechtivý tisk často láká odborníky na umělou inteligenci, aby předpověděli časový plán vzniku AGI, čímž nepřímo naznačují konec lidstva nebo alespoň status quo. Tváří v tvář tomu jsou generální ředitelé AI často zdrženliví nebo váhaví. Huang však žádné takové výhrady neprojevil a věnoval značnou část svého času formulování svých myšlenek.Předpovídání příchodu kompetentní AGI, tvrdí Huang, do značné míry závisí na konceptualizaci AGI. Jako analogické příklady uvedl časové a prostorové případy, jako je příchod nového roku nebo příjezd do kongresového centra v San José – místa konání letošní konference GTC. Společné rysy spočívají ve vzájemném odsouhlasení opatření, které potvrdí příjezd do požadovaného cíle.V současném diskurzu o umělé inteligenci se často objevuje pojem „umělá obecná inteligence“ , což je fáze vývoje AI, kdy software dosáhne schopnosti vykonávat jakoukoli intelektuální úlohu, kterou je schopen vykonat lidský mozek. Tento koncept je daleko přesahující současné aplikace AI, které jsou typicky navrženy k vykonávání velmi specifických úkolů v omezených doménách, jako je rozpoznávání obrazu, překlad jazyků nebo doporučovací systémy.V kontextu AGI, pokud bychom ho definovali prostřednictvím konkrétní sady testů, ve kterých software dosahuje výrazně lepších výsledků než většina lidí – konkrétně o 8 % lepších – teoretik AI a futurista Huang naznačuje, že by mohlo být tohoto milníku dosaženo během příštích pěti let. Tyto testy by mohly zahrnovat široké spektrum intelektuálních výzev, od složitých právních advokátních zkoušek, přes logické testy a ekonomické simulace, až po kvalifikační zkoušky pro medicínu. Tyto příklady ukazují na rozmanitost oblastí, kde by AGI mohlo najít uplatnění, a zdůrazňují významnost tohoto potenciálního průlomu.Huangův předpoklad vychází z představy, že pokrok v oblasti umělé inteligence se bude nadále ubírat exponenciální trajektorií, kdy inovace ve výpočetní technice, algoritmech strojového učení a dostupnosti dat povedou k rychlejšímu a efektivnějšímu vývoji. Nicméně Huang také zdůrazňuje, že dokud nebude v oboru přesně vyjasněn význam a definice AGI, zůstává skeptický k jakýmkoli konkrétním předpovědím.Téma halucinace AI upoutalo pozornost během úterního zasedání otázek a odpovědí. Týká se tendence některých UI vymýšlet si věrohodné, ale faktů zbavené odpovědi. V reakci na to Huang ztvárnil viditelně frustrované chování, ale prohlásil, že problém je řešitelný. Klíčem je podle něj zajistit, aby odpovědi vytvořené umělou inteligencí byly dobře prozkoumány.Doporučovaný přístup, který Huang nazývá “generování rozšířené o vyhledávání”, silně rezonuje se základní mediální gramotností. Každá jednotlivá odpověď by měla být kriticky zkoumána z hlediska zdroje a kontextu. Fakta uváděná v rámci zdroje je třeba konfrontovat se zavedenými pravdami. Jakákoli odpověď vykazující byť jen náznak faktografičnosti postrádá celý zdroj, měla by být ignorována a mělo by se přejít k další odpovědi.U kritických odpovědí, jako je například zdravotní poradenství, navrhuje Huang konzultovat více zdrojů a ověřených pravd. Z toho vyplývá, že generátor umělé inteligence musí mít možnost přiznat nedostatečné znalosti nebo nedostatek shody na správné odpovědi. Stručně řečeno, AGI musí ovládat umění říkat “nevím”.Vzhledem k tomu, že debata o UI a AGI pokračuje, Huangova jasná definice AGI a řešení halucinace UI přináší do diskuse nové pohledy. Zdůrazňuje potřebu transparentnosti, přesnosti a odpovědnosti v ekosystému umělé inteligence, protože postupně směřujeme k budoucnosti ovládané AGI.