Hlavní navigace

Bojíte se umělé inteligence? Nejste jediní, obavy panují u všech CIO

25. 9. 2023
Doba čtení: 5 minut

Sdílet

 Autor: Depositphotos
Jaký rozdíl přineslo pár měsíců v očekávaném i neočekávaném směru. Ve svém předchozím sloupku v květnu, když jsem psal o využití generativní AI a rizicích kybernetické bezpečnosti, která mohou představovat, CISO poznamenali, že jejich organizace nenasadily mnoho (pokud vůbec nějaké) řešení na bázi generativní AI ve velkém.

Jaký rozdíl udělá pár měsíců. Využití generativní umělé inteligence nyní do podniků proniklo skrze nástroje a platformy, jako jsou ChatGPT / DALL-E od OpenAI, Claude.ai od Anthropic, Stable Diffusion a další, a to očekávaným i neočekávaným způsobem.

V nedávném příspěvku McKinsey poznamenal, že se očekává, že generativní AI bude mít „významný dopad ve všech průmyslových odvětvích“. Konzultační společnost například uvádí, jak by generativní technologie umělé inteligence mohla potenciálně přidat 200 – 400 miliard USD v přidané roční hodnotě bankovnímu odvětví, pokud by se v různých případech použití posunula plná implementace.

Potenciální hodnota napříč širším spektrem institucí by mohla být obrovská. Zatímco se však organizace snaží začlenit prvky generativní umělé inteligence k posílení efektivity a produktivity, jiné se obávají kontroly jejího používání v rámci podniku.

Generativní AI v podnicích odpoutaná z řetězu

Kontaktoval jsem řadu předních světových CIO, CISO a expertů na kybernetickou bezpečnost napříč odvětvími, abych získal jejich názor na nedávný nárůst neřízeného používání generativní umělé inteligence ve firemních operacích. Zde je to, co jsem od nich zjistil.

Tucet největších problémů, před kterými stojí dnešní IT Přečtěte si také:

Tucet největších problémů, před kterými stojí dnešní IT

Organizace zaznamenávají dramatický nárůst neformálního přijímání gen AI – nástrojů a platforem používaných bez oficiálních sankcí. Zaměstnanci jej používají k vývoji softwaru, psaní kódu, vytváření obsahu a přípravě prodejních a marketingových plánů. Před několika měsíci nebylo sledování těchto nepovolených použití na seznamu úkolů CISO. Dnes je tomu tak, protože vytvářejí nové tajemné riziko a útočnou plochu, proti které je třeba se bránit.

Jeden odborník na kybernetickou bezpečnost mi řekl: „Společnosti dnes nejsou připraveny na příliv produktů založených na umělé inteligenci – z pohledu lidí, procesů nebo technologií. Kromě toho se tento problém zhoršuje tím, že velká část zavádění umělé inteligence není viditelná na úrovni produktu, ale na smluvní úrovni. Neexistují žádné předpisy týkající se zveřejňování ‚AI Inside‘.“

Jiný CISO mi řekl, že mezi jeho hlavní obavy patřilo možné porušení IP a otrava dat (data poisoning). Identifikoval také technologie pro zabezpečení AI motorů a pracovních postupů používaných společností (nebo jejími partnery třetích stran), které podporují vývoj kreativního obsahu.

Vysoce postavený CISO v řízení kapitálu se obával „plagiátorství, neobjektivních informací ovlivňujících rozhodnutí nebo doporučení, ztráty dat mnoha organizací a spoléhání se na produkty, které nevykazují krátkou nebo střední hodnotu, a jejich ekonomická degradace“.

Jeden vedoucí pracovník IT mi řekl, že jeho největší obavou je, že jsou jejich vlastnická data nebo obsah začleněny do školicí sady (nebo úložiště pro získávání informací) produktu třetí strany, aby pak byly prezentovány jako produkt práce této společnosti.

Úniky soukromí?

Mezi respondenty jasně zaznělo, že se firmy obávají nechtěného úniku dat. Jistý CISO z velké marketingové softwarové firmy se toho výslovně obával, když prohlásil: „Skutečné riziko je, že dojde k neúmyslnému úniku důvěrných informací. Lidé posílají do ChatGPT věci, které by neměli, a které jsou nyní uložené na serverech ChatGPT. Možná se uplatní v modelingu. Možná to pak skončí odhalením. Takže si myslím, že skutečným rizikem je zde vystavení citlivých informací. Musíme si položit otázku: ‚Jsou tato data dostatečně chráněna nebo ne?‘“

Byl pro vás článek přínosný?