;

Pět způsobů implementace vlastního velkého jazykového modelu pro AI

21. 12. 2023
Doba čtení: 12 minut

Sdílet

 Autor: CIO.cz s využitím DALL-E
Vybudování nového velkého jazykového modelu (LLM) od nuly může společnost stát miliony – nebo dokonce stovky milionů dolarů. Existuje však několik způsobů, jak nasadit přizpůsobené LLM, které jsou rychlejší, jednodušší a hlavně levnější.

Je to nejrychleji se rozvíjející nová technologie v historii. Generativní umělá inteligence mění svět a mění způsob, jakým vytváříme obrázky a videa, zvuk, text a kód.

Podle zářijového průzkumu společnosti Dell mezi osobami s rozhodovací pravomocí v oblasti IT 76 % uvedlo, že generativní AI bude mít „významný, ne-li transformační“ dopad na jejich organizace, a většina očekává, že během příštích 12 měsíců uvidí smysluplné výsledky.

Kvíz: Hodíte se na CIO? Přečtěte si také:

Kvíz: Hodíte se na CIO?

Velký jazykový model (LLM) je typ generativní umělé inteligence, který se zaměřuje na text a kód namísto obrázků nebo zvuku, i když některé začaly integrovat různé modality. Nejoblíbenější LLM v dnešním podniku jsou ChatGPT a další modely OpenAI GPT, Claude od společnosti Anthropic, Llama 2 od společnosti Meta a Falcon, model s otevřeným zdrojovým kódem od Technology Innovation Institute v Abu Dhabi, nejlépe známý pro svou podporu jiných jazyků než angličtiny.

Existuje několik způsobů, jak společnosti nasazují LLM, jako je poskytování přístupu zaměstnanců k veřejným aplikacím, používání rychlého inženýrství a rozhraní API k vkládání LLM do stávajícího softwaru, používání vektorových databází ke zlepšení přesnosti a relevance, dolaďování stávajících modelů nebo vytváření vlastních.

Implementace veřejných LLM

Dig Security je izraelská společnost pro zabezpečení cloudových dat a její inženýři používají ChatGPT k psaní kódu. „Každý inženýr používá věci, které mu pomáhají psát kód rychleji,“ říká generální ředitel Dan Benjamin. A ChatGPT je jedním z prvních a nejjednodušších asistentů kódování. 

Ale je v tom problém – nikdy si nemůžete být jisti, zda informace, které nahrajete, nebudou použity k trénování další generace modelu. Dig Security řeší tuto možnost dvěma způsoby. Za prvé, společnost používá zabezpečenou bránu ke kontrole, jaké informace se nahrávají.

Vítězové soutěže Případová studie 2023 Přečtěte si také:

Vítězové soutěže Případová studie 2023

„Naši zaměstnanci vědí, že nemohou nahrát nic citlivého,“ říká Benjamin. „Je to zablokované.“

Za druhé, společnost nasměruje své inženýry k verzi ChatGPT běžící na privátním cloudu Azure. To znamená, že Dig Security získá svou vlastní samostatnou instanci ChatGPT. I s tímto přístupem k bezpečnosti pomocí preventivních opatření to není dokonalé řešení, říká Benjamin. „Dokonalé řešení neexistuje. Každá organizace, která si myslí, že existuje, klame sama sebe.“

Někdo může například použít VPN nebo osobní počítač a získat přístup k veřejné verzi ChatGPT. Zde přichází na řadu další úroveň zmírnění rizik.

„Všechno je to o školení zaměstnanců,“ říká, „a ujištění se, že rozumí tomu, co mají dělat, a že jsou dobře vyškoleni v oblasti zabezpečení dat.“

Společnost Dig Security v tom není sama.

Skyhigh Security v Kalifornii uvádí, že k ChatGPT přistupoval prostřednictvím podnikové infrastruktury během první poloviny roku 2023 téměř milion koncových uživatelů, přičemž objem uživatelů vzrostl mezi lednem a červnem o 1 500 %, říká Tracy Holdenová, ředitelka podnikového marketingu Skyhigh.

A v červencové zprávě od Netskope Threat Labs je zdrojový kód zasílán do ChatGPT více než jakýkoli jiný typ citlivých dat s rychlostí 158 incidentů na 10 000 podnikových uživatelů za měsíc.