;

ChatGPT ve firemním prostředí?

10. 10. 2023
Doba čtení: 5 minut

Sdílet

ChatGPT Autor: Depositphotos
ChatGPT
Otazník v titulku naznačuje dilema pro manažery, zda používat nástroje ChatGPT ve firmách, a pokud ano, v jakém rozsahu, včetně zdůvodnění.

Nedávno se v médiích objevila zpráva, že společnost Samsung zakázala svým zaměstnancům používat v práci chatboty s umělou inteligencí. Důvodem prý byly bezpečnostní problémy, když programátoři chtěli pomoci s programováním i optimalizací některých výrobních procesů. 

Je pro vás digitalizace obchodu jasnou volbou?

Při upřesňování úkolu nahráli chatbotu v prvním případě utajovaný zdrojový kód a ve druhém případě neveřejné technologické informace. Neuvědomili si, že vše, co zadají pomocí tohoto nástroje, může být použito pro strojové učení. Jinými slovy, neveřejné kódy a informace se dostaly do znalostní báze chatbotu a zřejmě se objevily v následujících výstupech.

Tento příklad také naznačuje, že bezpečnostní problémy nejsou skryté v odpovědích, ale ve vstupních údajích. Představte si situaci, kdy společnost dokončuje vývoj revolučního produktu, například průsvitného ohýbatelného smartphonu, v naprostém utajení a marketing má za úkol připravit reklamní kampaň na nový produkt, vytvořit produktové listy a manuály, které je pak třeba přeložit do několika jazyků.

Pokud k tomuto účelu použijí ChatGPT, Google Bard nebo jiný podobný nástroj, musejí poskytnout stručný popis se všemi podrobnostmi a specifikacemi. To pravděpodobně tuto fázi výrazně urychlí a možná pomoc nástrojů umělé inteligence přispěje k tomu, že výrobek bude uveden na trh dříve, než se původně plánovalo. 

Tucet největších problémů, před kterými stojí dnešní IT Přečtěte si také:

Tucet největších problémů, před kterými stojí dnešní IT

Může se však stát, že odpovědí na brief manažera konkurence nebo novináře o trendech v designu a konstrukci chytrých telefonů bude odkaz na skutečnost zjištěnou z předchozího briefu, například: „… Pear plánuje v březnu 2024 představit průsvitný, ohýbatelný chytrý telefon, který bude mít následující revoluční vlastnosti:…“

bitcoin_skoleni

Pokud takovou informaci student získá pomocí ChatGPT, pravděpodobně se nic nestane, zkušební komise pochválí studentovu vynalézavost a na práci se bude prášit v univerzitní knihovně. Novinář nebo člověk od konkurence však okamžitě přeorientuje svou pozornost a začne pokládat AI v chatu doplňující otázky, takže se dozví další zajímavé informace, které si rozhodně nenechá pro sebe.

ChatGPT a podobné modely umělé inteligence mají nejen přístup k velkému množství informací, ale také využívají údaje z předchozích zadání pro strojové učení. To může představovat značné riziko prozrazení důvěrného nebo citlivého firemního obsahu. Pro společnost, jejíž zaměstnanci tyto informace nevědomky poskytli umělé inteligenci, to může mít vážné důsledky, materiální škody nebo ztrátu reputace. Potenciálním problémem jsou také nepřesné, nebo dokonce chybné odpovědi, které mohou vést k nesprávným rozhodnutím.

Autor článku