Nedávno se v médiích objevila zpráva, že společnost Samsung zakázala svým zaměstnancům používat v práci chatboty s umělou inteligencí. Důvodem prý byly bezpečnostní problémy, když programátoři chtěli pomoci s programováním i optimalizací některých výrobních procesů.
Je pro vás digitalizace obchodu jasnou volbou?
Při upřesňování úkolu nahráli chatbotu v prvním případě utajovaný zdrojový kód a ve druhém případě neveřejné technologické informace. Neuvědomili si, že vše, co zadají pomocí tohoto nástroje, může být použito pro strojové učení. Jinými slovy, neveřejné kódy a informace se dostaly do znalostní báze chatbotu a zřejmě se objevily v následujících výstupech.
Tento příklad také naznačuje, že bezpečnostní problémy nejsou skryté v odpovědích, ale ve vstupních údajích. Představte si situaci, kdy společnost dokončuje vývoj revolučního produktu, například průsvitného ohýbatelného smartphonu, v naprostém utajení a marketing má za úkol připravit reklamní kampaň na nový produkt, vytvořit produktové listy a manuály, které je pak třeba přeložit do několika jazyků.
Pokud k tomuto účelu použijí ChatGPT, Google Bard nebo jiný podobný nástroj, musejí poskytnout stručný popis se všemi podrobnostmi a specifikacemi. To pravděpodobně tuto fázi výrazně urychlí a možná pomoc nástrojů umělé inteligence přispěje k tomu, že výrobek bude uveden na trh dříve, než se původně plánovalo.
Může se však stát, že odpovědí na brief manažera konkurence nebo novináře o trendech v designu a konstrukci chytrých telefonů bude odkaz na skutečnost zjištěnou z předchozího briefu, například: „… Pear plánuje v březnu 2024 představit průsvitný, ohýbatelný chytrý telefon, který bude mít následující revoluční vlastnosti:…“
Pokud takovou informaci student získá pomocí ChatGPT, pravděpodobně se nic nestane, zkušební komise pochválí studentovu vynalézavost a na práci se bude prášit v univerzitní knihovně. Novinář nebo člověk od konkurence však okamžitě přeorientuje svou pozornost a začne pokládat AI v chatu doplňující otázky, takže se dozví další zajímavé informace, které si rozhodně nenechá pro sebe.
ChatGPT a podobné modely umělé inteligence mají nejen přístup k velkému množství informací, ale také využívají údaje z předchozích zadání pro strojové učení. To může představovat značné riziko prozrazení důvěrného nebo citlivého firemního obsahu. Pro společnost, jejíž zaměstnanci tyto informace nevědomky poskytli umělé inteligenci, to může mít vážné důsledky, materiální škody nebo ztrátu reputace. Potenciálním problémem jsou také nepřesné, nebo dokonce chybné odpovědi, které mohou vést k nesprávným rozhodnutím.
Některé společnosti proto přistupují k ChatGPT prostřednictvím externích služeb. Tyto služby poskytují různé užitečné funkce jako přidanou hodnotu, například pomáhají upřesňovat otázky a zadání, abyste získali relevantnější výsledky. Případně doplňují odpovědi AI o výsledky webového vyhledávání.
ChatGPT je vycvičen na historických datech, takže ze své podstaty nemá přístup k nejaktuálnějším informacím a nemůže prohledávat web. Problém může být v tom, že poskytovatel služby zachycuje informace z vašich vstupů. Stačí, aby se někdo naboural do databázových serverů poskytovatele služeb, a data ze vstupů zaměstnanců společnosti mohou uniknout. Také závislost na externích službách může způsobit problémy, pokud se tyto služby stanou nedostupnými nebo neúměrně drahými a společnosti, které tyto služby využívají, jsou na nich závislé a nemají alternativní řešení.
Obsah generovaný službou ChatGPT v průběhu komunikace s klienty nebo partnery firmy může mít různé právní nebo etické důsledky včetně možných sporů o vlastnictví generovaného obsahu. Podniky by tak měly zavést směrnice a zásady pro používání ChatGPT a měly by také informovat zaměstnance, zákazníky a obchodní partnery, že nekomunikují s lidmi, ale s umělou inteligencí.
Pracovníci některých profesí, například copywriteři v marketingových odděleních, budou pravděpodobně zpočátku nadšení, že ChatGPT a podobné nástroje, které budou vznikat jako houby po dešti, budou dělat práci za ně. Dříve nebo později však pochopí plný význam slova „dělat svou práci“ a jejich nadšení se změní v obavy, ba dokonce ve zděšení, že je tyto nástroje mohou plně nahradit.
Navíc není otázkou, zda se to stane, ale kdy se to stane. Nahrazeni budou i „rutinní“ programátoři. To se samozřejmě netýká špičkových programátorů a softwarových architektů. Dříve či později bude ohrožena i profese podnikového právníka. Pro Chat GPT není problém vytvořit kupní a prodejní smlouvu, smlouvu o spolupráci mezi firmami apod.
Vedení firem na jedné straně a pracovníci na straně druhé mají rozdílné pohledy na využití AI a také na možnost nahrazení některých pracovních míst nástroji založenými na AI. Manažeři to přivítají jako potenciální zdroj úspor a zvýšení efektivity i stability a spolehlivosti. Alespoň na první pohled to tak vypadá. Na rozdíl od zaměstnanců se softwaru pandemie nedotkne, ale je třeba si také uvědomit, že pojem virus je možná více skloňován v IT než v medicíně.
Tento článek by mohl mít podtitul „Kdo je na vrcholu pyramidy?“. Abychom opět použili analogii ze školství. Žáci běžně používají ChatGPT k tvorbě školních úloh. Učitel to zjistí, a i on začne používat umělou inteligenci k pořizování zápisů ze schůzí nebo hlášení nadřízeným. Stejným způsobem začnou AI používat i školské správní úřady pro podávání zpráv ministerstvu. Pokračuje to tím, že nižší úředníci ministerstva podávají zprávy vyšším úředníkům, kteří je podávají vedoucím sekcí.
Výše v hierarchii jsou náměstci a nakonec ministr. Stejně tak zaměstnanci stále častěji používají ChatGPT pro komunikaci se svými nadřízenými. Typickým příkladem je: „Napište svému nadřízenému e-mail, ve kterém 150 slovy vysvětlíte, proč jsem nesplnil úkol XY ve stanoveném termínu.“
Vedoucí napíše podobné, možná obsáhlejší vysvětlení svému nadřízenému a cyklus pokračuje až k nejvyššímu vedení. Všichni známe hru na tichou poštu, a proto si dokážeme živě představit vypovídací hodnotu takových zpráv, často plných „vaty“, tedy výmluv a marného mlžení.
Odborníci také varují před rizikem ztráty kontinuity některých činností a absencí lidské interakce, která je pro mnohé zákazníky či obchodní partnery důležitá a cenná. Ztrátu kontinuity si vysvětlíme na příkladu automobilky Škoda, kdy se rozhodovalo o novém modelu, který nahradí Škodu 120. Jedním z řešení byl nákup licence, ale vedení se rozhodlo vyvinout favorit vlastními silami. Odůvodnilo to mimo jiné tím, že jedna generace konstruktérů by neměla zkušenosti s vývojem nového vozu.
Podobně, pokud bude ChatGPT nějakou dobu využíván k tvorbě marketingových a reklamních textů a po čase začnou být strojově generované texty pro člověka nudné, bude nutné se vrátit k „lidské“ tvorbě. To však může být problém, protože firma mezitím copywritery propustila nebo museli přejít na jiné pozice.
Autor je redaktor magazínu Nextech
Článek vyšel v magazínu CIO BW 4/2023. Ten si můžete zakoupit třeba zde.
CIO Business World si můžete objednat i jako klasický časopis (v tištěné i v digitální podobně) Věnujeme se nejnovějším technologiím a efektivnímu řízení podnikové informatiky. Přinášíme nové ekonomické trendy a analýzy a zejména praktické informace z oblasti podnikového IT se zaměřením na obchodní a podnikatelské přínosy informačních technologií. Nabízíme možná řešení problémů spojených s podnikovým IT v období omezených rozpočtů. Naší cílovou skupinou je vyšší management ze všech odvětví ekonomiky.
Chcete si článek přečíst celý?
Tento článek je součástí exkluzivního obsahu pouze pro odběratele našeho newsletteru.
Přihlaste se k odběru newsletteru a my vám do mailu pošleme odkaz na celý článek.