Americká technologická politika musí držet krok s inovacemi v oblasti umělé inteligence
Vzhledem k tomu, že inovace v oblasti umělé inteligence (AI) předbíhají zpravodajské cykly a přitahují pozornost veřejnosti, stává se rámec pro její odpovědný a etický rozvoj a využívání stále důležitějším pro zajištění toho, aby tato bezprecedentní technologická vlna dosáhla svého plného potenciálu jako pozitivního příspěvku k hospodářskému a společenskému pokroku.
Evropská unie již pracuje na přijetí zákonů týkajících se odpovědné umělé inteligence; o své názory na tyto iniciativy jsem se podělil téměř před dvěma lety. Tehdy byl zákon o UI, jak se mu říká, „objektivním a uvážlivým přístupem k inovacím a společenským ohledům“. Dnes se vedoucí představitelé technologických podniků a vlády Spojených států spojují, aby společně vytyčili jednotnou vizi odpovědné UI.
Síla generativní umělé inteligence
Vydání aplikace ChatGPT společností OpenAI v loňském roce zaujalo technologické inovátory, vedoucí představitele firem i veřejnost a zájem spotřebitelů o možnosti generativní umělé inteligence a její chápání prudce vzrostl. Nicméně s tím, jak se umělá inteligence stává hlavním proudem, a to i jako politické téma, a se sklonem lidí experimentovat a testovat systémy, hrozí, že se schopnost dezinformace, dopad na soukromí a riziko kybernetické bezpečnosti a podvodného jednání rychle dostanou do pozadí.
Zdroj: Getty Images
Bílý dům oznámil nová opatření na podporu odpovědné umělé inteligence, která se snaží řešit tyto potenciální problémy a zajistit odpovědné inovace v oblasti umělé inteligence, jež chrání práva a bezpečnost Američanů.
Bidenova a Harrisova administrativa minulý týden zveřejnila v informačním listu tři opatření na „podporu odpovědných amerických inovací v oblasti umělé inteligence a ochranu práv a bezpečnosti lidí“. Patří mezi ně:
Nové investice do odpovědného amerického výzkumu a vývoje umělé inteligence.
Veřejné hodnocení stávajících generativních systémů umělé inteligence.
Politiky, které zajistí, že vláda USA půjde příkladem při zmírňování rizik spojených s umělou inteligencí a využívání příležitostí spojených s umělou inteligencí.
Nové investice
Co se týče nových investic, 140 milionů dolarů, které Národní vědecká nadace (The National Science Foundation) poskytla na založení sedmi nových národních výzkumných ústavů pro umělou inteligenci, je ve srovnání s částkou, kterou získaly soukromé společnosti, bledá.
Zdroj: Getty Images
Ačkoli jsou investice americké vlády do umělé inteligence obecně správné, jsou mikroskopické ve srovnání s vládními investicemi jiných zemí, konkrétně Číny, která zahájila investice v roce 2017. Existuje bezprostřední příležitost posílit dopad investic prostřednictvím akademických partnerství pro rozvoj pracovních sil a výzkumu. Vláda by měla financovat centra AI spolu s akademickými a podnikovými institucemi, které již stojí v popředí výzkumu a vývoje AI, a podporovat tak inovace a vytvářet nové příležitosti pro podniky s využitím síly AI.
Spolupráce mezi centry umělé inteligence a špičkovými akademickými institucemi, jako je Schwarzmanova vysoká škola MIT a Institut pro experimentální umělou inteligenci Northeastern, pomáhá překlenout propast mezi teorií a praktickým využitím tím, že spojuje odborníky z akademické sféry, průmyslu a státní správy, aby spolupracovali na špičkových výzkumných a vývojových projektech, které mají reálné využití. Díky spolupráci s velkými podniky mohou tato centra pomoci společnostem lépe integrovat umělou inteligenci do jejich provozu, zvýšit efektivitu, ušetřit náklady a zlepšit výsledky pro spotřebitele.
Kromě toho tato centra pomáhají vychovávat novou generaci odborníků na umělou inteligenci tím, že studentům poskytují přístup k nejmodernějším technologiím, praktickým zkušenostem s reálnými projekty a mentorství předních odborníků v oboru. Proaktivním přístupem k umělé inteligenci a spoluprací s ní může vláda USA pomoci utvářet budoucnost, v níž umělá inteligence lidskou práci spíše posílí, než nahradí. V důsledku toho mohou všichni členové společnosti těžit z příležitostí, které tato výkonná technologie přináší.
Zdroj: Getty Images
Veřejné hodnocení
Posuzování modelů má zásadní význam pro zajištění toho, aby modely umělé inteligence byly přesné, spolehlivé a nezkreslené, což je nezbytné pro úspěšné nasazení v reálných aplikacích. Představte si například případ použití v městském plánování, kdy je generativní AI trénována na městech s historicky nedostatečně zastoupenou chudou populací. Bohužel to povede jen k dalším podobným případům. Totéž platí pro předpojatost při poskytování úvěrů, protože stále více finančních institucí používá algoritmy AI k rozhodování o úvěrech.
Pokud jsou tyto algoritmy vyškoleny na základě údajů diskriminujících určité demografické skupiny, mohou těmto skupinám nespravedlivě odmítat půjčky, což vede k ekonomickým a sociálním nerovnostem. Ačkoli se jedná pouze o několik příkladů předpojatosti v umělé inteligenci, je třeba na ni stále myslet bez ohledu na to, jak rychle se vyvíjejí a zavádějí nové technologie a techniky umělé inteligence!
Evropská unie již pracuje na přijetí zákonů týkajících se odpovědné umělé inteligence; o své názory na tyto iniciativy jsem se podělil téměř před dvěma lety. Tehdy byl zákon o UI, jak se mu říká, „objektivním a uvážlivým přístupem k inovacím a společenským ohledům“. Dnes se vedoucí představitelé technologických podniků a vlády Spojených států spojují, aby společně vytyčili jednotnou vizi odpovědné UI.Vydání aplikace ChatGPT společností OpenAI v loňském roce zaujalo technologické inovátory, vedoucí představitele firem i veřejnost a zájem spotřebitelů o možnosti generativní umělé inteligence a její chápání prudce vzrostl. Nicméně s tím, jak se umělá inteligence stává hlavním proudem, a to i jako politické téma, a se sklonem lidí experimentovat a testovat systémy, hrozí, že se schopnost dezinformace, dopad na soukromí a riziko kybernetické bezpečnosti a podvodného jednání rychle dostanou do pozadí.Bílý dům oznámil nová opatření na podporu odpovědné umělé inteligence, která se snaží řešit tyto potenciální problémy a zajistit odpovědné inovace v oblasti umělé inteligence, jež chrání práva a bezpečnost Američanů.Bidenova a Harrisova administrativa minulý týden zveřejnila v informačním listu tři opatření na „podporu odpovědných amerických inovací v oblasti umělé inteligence a ochranu práv a bezpečnosti lidí“. Patří mezi ně:
Nové investice do odpovědného amerického výzkumu a vývoje umělé inteligence.
Veřejné hodnocení stávajících generativních systémů umělé inteligence.
Politiky, které zajistí, že vláda USA půjde příkladem při zmírňování rizik spojených s umělou inteligencí a využívání příležitostí spojených s umělou inteligencí.
Co se týče nových investic, 140 milionů dolarů, které Národní vědecká nadace poskytla na založení sedmi nových národních výzkumných ústavů pro umělou inteligenci, je ve srovnání s částkou, kterou získaly soukromé společnosti, bledá.Ačkoli jsou investice americké vlády do umělé inteligence obecně správné, jsou mikroskopické ve srovnání s vládními investicemi jiných zemí, konkrétně Číny, která zahájila investice v roce 2017. Existuje bezprostřední příležitost posílit dopad investic prostřednictvím akademických partnerství pro rozvoj pracovních sil a výzkumu. Vláda by měla financovat centra AI spolu s akademickými a podnikovými institucemi, které již stojí v popředí výzkumu a vývoje AI, a podporovat tak inovace a vytvářet nové příležitosti pro podniky s využitím síly AI.Spolupráce mezi centry umělé inteligence a špičkovými akademickými institucemi, jako je Schwarzmanova vysoká škola MIT a Institut pro experimentální umělou inteligenci Northeastern, pomáhá překlenout propast mezi teorií a praktickým využitím tím, že spojuje odborníky z akademické sféry, průmyslu a státní správy, aby spolupracovali na špičkových výzkumných a vývojových projektech, které mají reálné využití. Díky spolupráci s velkými podniky mohou tato centra pomoci společnostem lépe integrovat umělou inteligenci do jejich provozu, zvýšit efektivitu, ušetřit náklady a zlepšit výsledky pro spotřebitele.Kromě toho tato centra pomáhají vychovávat novou generaci odborníků na umělou inteligenci tím, že studentům poskytují přístup k nejmodernějším technologiím, praktickým zkušenostem s reálnými projekty a mentorství předních odborníků v oboru. Proaktivním přístupem k umělé inteligenci a spoluprací s ní může vláda USA pomoci utvářet budoucnost, v níž umělá inteligence lidskou práci spíše posílí, než nahradí. V důsledku toho mohou všichni členové společnosti těžit z příležitostí, které tato výkonná technologie přináší.Posuzování modelů má zásadní význam pro zajištění toho, aby modely umělé inteligence byly přesné, spolehlivé a nezkreslené, což je nezbytné pro úspěšné nasazení v reálných aplikacích. Představte si například případ použití v městském plánování, kdy je generativní AI trénována na městech s historicky nedostatečně zastoupenou chudou populací. Bohužel to povede jen k dalším podobným případům. Totéž platí pro předpojatost při poskytování úvěrů, protože stále více finančních institucí používá algoritmy AI k rozhodování o úvěrech.Pokud jsou tyto algoritmy vyškoleny na základě údajů diskriminujících určité demografické skupiny, mohou těmto skupinám nespravedlivě odmítat půjčky, což vede k ekonomickým a sociálním nerovnostem. Ačkoli se jedná pouze o několik příkladů předpojatosti v umělé inteligenci, je třeba na ni stále myslet bez ohledu na to, jak rychle se vyvíjejí a zavádějí nové technologie a techniky umělé inteligence!