Ale druhy umělé inteligence, které se rychle integrují do podniků po celém světě, nejsou tohoto druhu – jsou to velmi reálné technologie, které mají skutečný dopad na skutečné lidi.
Ačkoli je umělá inteligence v podnikovém prostředí přítomna již řadu let, vývoj produktů generativní umělé inteligence, jako jsou ChatGPT, ChatSonic, Jasper AI a další, výrazně zvýší snadnost používání pro běžného člověka. V důsledku toho je americká veřejnost hluboce znepokojena možností zneužití těchto technologií. Nedávný průzkum ADL zjistil, že 84 % Američanů se obává, že generativní AI zvýší šíření dezinformací a nenávisti.
Vedoucí pracovníci, kteří uvažují o zavedení této technologie, by si měli položit náročné otázky o tom, jak může ovlivnit budoucnost – v dobrém i zlém – při vstupu na tuto novou hranici. Zde jsou tři věci, které, jak doufám, zváží všichni vedoucí pracovníci při zavádění nástrojů generativní umělé inteligence do organizací a na pracovištích.

Důvěra a bezpečnost jsou nejvyšší prioritou
Zatímco sociální média jsou zvyklá potýkat se s moderováním obsahu, generativní umělá inteligence se zavádí na pracovištích, která s těmito problémy dosud neměla žádné zkušenosti, například ve zdravotnictví a finančnictví. Mnohá odvětví mohou při zavádění těchto technologií brzy náhle čelit novým obtížným výzvám. Jste-li zdravotnická společnost, jejíž chatbot poháněný umělou inteligencí v první linii se najednou chová k pacientovi hrubě nebo dokonce nenávistně, jak to budete řešit?
Platformy sociálních médií si v průběhu desetiletí vytvořily novou disciplínu – důvěru a bezpečnost -, aby se pokusily vypořádat s palčivými problémy spojenými s obsahem vytvářeným uživateli. Ne tak v jiných odvětvích.
Z tohoto důvodu budou muset společnosti přizvat odborníky na důvěru a bezpečnost, kteří budou hovořit o jejich implementaci. Budou muset vybudovat odborné znalosti a promyslet způsoby, jakými mohou být tyto nástroje zneužity. A budou muset investovat do zaměstnanců, kteří budou zodpovědní za řešení zneužití, aby nebyly zaskočeny, když tyto nástroje zneužijí špatní aktéři.

Zavedení vysokých bezpečnostních zábran a trvání na transparentnosti.
Zejména v pracovním nebo vzdělávacím prostředí je nezbytné, aby platformy umělé inteligence měly odpovídající ochranné prvky, které zabrání vytváření nenávistného nebo obtěžujícího obsahu.
Přestože jsou platformy AI neuvěřitelně užitečnými nástroji, nejsou stoprocentně spolehlivé. Nedávno například testeři ADL během několika minut použili aplikaci Expedia s novou funkcí ChatGPT k vytvoření itineráře slavných protižidovských pogromů v Evropě a seznamu blízkých obchodů s uměleckými potřebami, kde lze zakoupit barvy ve spreji, údajně za účelem vandalských útoků na tato místa.
Zatímco u některých generativních UI jsme viděli, jak se zlepšilo zpracování otázek, které mohou vést k antisemitským a jiným nenávistným reakcím, u jiných jsme viděli, že selhávají při zajišťování toho, aby nepřispívaly k šíření nenávisti, obtěžování, konspiračních teorií a dalších typů škodlivého obsahu.
Před širokým zavedením umělé inteligence by si vedoucí pracovníci měli položit zásadní otázky, jako například: Jaké testování se provádí, aby se zajistilo, že tyto produkty nebudou zneužitelné? Jaké datové soubory se používají pro konstrukci těchto modelů? A jsou do tvorby těchto nástrojů integrovány zkušenosti komunit, které jsou nejvíce terčem online nenávisti?
Bez transparentnosti ze strany platforem jednoduše není zaručeno, že tyto modely umělé inteligence neumožňují šíření předsudků nebo bigotnosti.

Ochrana
I při důkladném zajištění důvěryhodnosti a bezpečnosti může být umělá inteligence zneužita běžnými uživateli. Jako vedoucí představitelé musíme podporovat konstruktéry systémů UI, aby do nich zabudovali ochranná opatření proti zneužití člověka.
Bohužel nástroje umělé inteligence přes veškerou svou sílu a potenciál umožňují špatným subjektům snadno, rychle a přístupně vytvářet obsah pro kterýkoli z těchto scénářů. Během několika sekund mohou vytvářet přesvědčivé falešné zprávy, vizuálně působivé deepfakes a šířit nenávist a obtěžování. Generativní obsah vytvářený umělou inteligencí by také mohl přispět k šíření extremistických ideologií – nebo být využit k radikalizaci vnímavých jedinců.
V reakci na tyto hrozby by platformy umělé inteligence měly zahrnovat robustní moderační systémy, které by dokázaly odolat potenciálnímu přívalu škodlivého obsahu, který by pachatelé mohli pomocí těchto nástrojů vytvářet.
Generativní umělá inteligence má téměř neomezený potenciál zlepšit život a revolučně změnit způsob, jakým zpracováváme nekonečné množství informací dostupných online. Jsem nadšený z vyhlídek na budoucnost s AI, ale pouze za předpokladu zodpovědného vedení.
Chcete využít této příležitosti?
Zanechte svůj telefon a email a budete kontaktováni licencovanými odborníky