Rostoucí integrace agentů umělé inteligence do firemních procesů přináší kromě efektivity i nová zranitelná místa, která mohou kyberzločinci zneužít. Podle bezpečnostní zprávy Cyber Pulse společnosti Microsoft nasazuje více než 80 % společností z žebříčku Fortune 500 agenty AI vytvořené pomocí nástrojů low-code nebo no-code. Navzdory tomuto masivnímu rozšíření má pouze 47 % podniků zavedeny bezpečnostní kontroly pro správu platforem generativní AI.
Vasu Jakkal, viceprezident pro bezpečnost ve společnosti Microsoft, varuje, že přehled organizací o aktivitě těchto agentů je velmi omezený. Průzkum mezi 1 700 bezpečnostními odborníky navíc odhalil, že 29 % zaměstnanců již použilo k práci neschválené agenty. To otevírá dveře rizikům spojeným s nadměrným přístupem k datům, kdy agenti mohou vyhledat a zobrazit citlivé informace, ke kterým by uživatel neměl mít oprávnění.
Ještě znepokojivější hrozbou je tzv. otrava doporučení AI (AI recommendation poisoning). Útočníci mohou manipulovat s agenty prostřednictvím škodlivých odkazů nebo skrytých instrukcí v dokumentech, což vede k tomu, že AI poskytuje zkreslené nebo zaujaté odpovědi. Rudra Mitra z Microsoftu upozorňuje, že podniky často mylně předpokládají, že jejich chatboti budou vždy poskytovat důvěryhodné výsledky, aniž by braly v úvahu možnost externí manipulace.
Rostoucí integrace agentů umělé inteligence do firemních procesů přináší kromě efektivity i nová zranitelná místa, která mohou kyberzločinci zneužít. Podle bezpečnostní zprávy Cyber Pulse společnosti Microsoft nasazuje více než 80 % společností z žebříčku Fortune 500 agenty AI vytvořené pomocí nástrojů low-code nebo no-code. Navzdory tomuto masivnímu rozšíření má pouze 47 % podniků zavedeny bezpečnostní kontroly pro správu platforem generativní AI.
Vasu Jakkal, viceprezident pro bezpečnost ve společnosti Microsoft, varuje, že přehled organizací o aktivitě těchto agentů je velmi omezený. Průzkum mezi 1 700 bezpečnostními odborníky navíc odhalil, že 29 % zaměstnanců již použilo k práci neschválené agenty. To otevírá dveře rizikům spojeným s nadměrným přístupem k datům, kdy agenti mohou vyhledat a zobrazit citlivé informace, ke kterým by uživatel neměl mít oprávnění.
Ještě znepokojivější hrozbou je tzv. otrava doporučení AI . Útočníci mohou manipulovat s agenty prostřednictvím škodlivých odkazů nebo skrytých instrukcí v dokumentech, což vede k tomu, že AI poskytuje zkreslené nebo zaujaté odpovědi. Rudra Mitra z Microsoftu upozorňuje, že podniky často mylně předpokládají, že jejich chatboti budou vždy poskytovat důvěryhodné výsledky, aniž by braly v úvahu možnost externí manipulace.
Rostoucí integrace agentů umělé inteligence do firemních procesů přináší kromě efektivity i nová zranitelná místa, která mohou kyberzločinci zneužít. Podle bezpečnostní zprávy Cyber Pulse společnosti Microsoft nasazuje více než 80 % společností z žebříčku Fortune 500 agenty AI vytvořené pomocí nástrojů low-code nebo no-code. Navzdory tomuto masivnímu rozšíření má pouze 47 % podniků zavedeny bezpečnostní kontroly pro správu platforem generativní AI. Vasu Jakkal, viceprezident pro bezpečnost ve společnosti Microsoft, varuje, že přehled organizací o aktivitě těchto agentů je velmi omezený. Průzkum mezi 1 700 bezpečnostními odborníky navíc odhalil, že 29 % zaměstnanců již použilo k práci neschválené agenty. To otevírá dveře rizikům spojeným s nadměrným přístupem k datům, kdy agenti mohou vyhledat a zobrazit citlivé informace, ke kterým by uživatel neměl mít oprávnění. Ještě znepokojivější hrozbou je tzv. otrava doporučení AI (AI recommendation poisoning). Útočníci mohou manipulovat s agenty prostřednictvím škodlivých odkazů nebo skrytých instrukcí v dokumentech, což vede k tomu, že AI poskytuje zkreslené nebo zaujaté odpovědi. Rudra Mitra z Microsoftu upozorňuje, že podniky často mylně předpokládají, že jejich chatboti budou vždy poskytovat důvěryhodné výsledky, aniž by braly v úvahu možnost externí manipulace.