Akt EU o umělé inteligenci se ve vývoji a používání AI zaměřuje na vyhodnocování rizik s cílem zajistit bezpečnou, transparentní a etickou umělou inteligenci.
Zdůrazňuje, jak je důležitý lidský dohled a kontrola při automatizovaném rozhodování a že je potřeba používat vysoce kvalitní data a řádně je spravovat, aby se zamezilo zkreslení a diskriminaci.
Chcete dostávat do mailu týdenní přehled článků z CIO Business Worldu? Objednejte si náš mailový servis a žádná důležitá informace vám neuteče. Objednat si lze také newsletter To hlavní, páteční souhrn nejdůležitějších článků ze všech našich serverů. Newslettery si můžete objednat na této stránce.
Kvůli této nové legislativě budou společnosti nuceny pečlivě vyhodnocovat údaje, které používají při tvorbě rozsáhlých jazykových modelů, a kontrolovat, zda jsou přesné, spolehlivé, eticky nezávadné a obhajitelné.
Rizikový přístup k vývoji a používání umělé inteligence
Tato legislativa nařizující pravidla pro nakládání s daty a umělou inteligencí donutila společnosti nasadit datovou strategii, která zahrnuje všechny aspekty odpovědné správy dat: od shromažďování a ukládání dat přes typ dat včetně citlivých dat a osobních údajů až po způsob, jakým se se všemi daty v organizaci nakládá, jak jsou zabezpečená a jak se k nim přistupuje. Společnostem, které chtějí realizaci projektů umělé inteligence uspěchat, připomíná Akt EU o umělé inteligenci, jak využívat data pro obchodní účely eticky.
Všechny firmy, které využívají nástroje umělé inteligence, musejí dodržovat článek 5 Aktu a odstranit veškeré zakázané systémy umělé inteligence. Z historie však vyplývá, že zpětná regulace po rychlém přijetí nové technologie vede k nepřetržitým opravám. Příkladem jsou právní předpisy zaměřené na ochranu soukromí.
Tomu se EU snaží předejít, a v rámci Aktu proto vytvořila standardizovaný rámec regulací pro umělou inteligenci pro všechny členské země. Cílem je zpřehlednit právní aspekty umělé inteligence a usnadnit její odpovědný vývoj a zavádění ve prospěch společnosti. Nakolik jsou požadavky praktické pro soukromý sektor, se však teprve ukáže.
Umělá inteligence je dlouho označována za technologický průlom, který zvýší příjmy soukromému i veřejnému sektoru. Nicméně AI Akt, jehož cílem by mělo být podpořit inovace v oblasti umělé inteligence a zároveň zajistit jejich bezpečnost, důvěryhodnost a dodržování základních práv, vyvolává smíšené reakce.
EU chce vytvořit prostředí příznivé pro inovace v oblasti umělé inteligence, ale zároveň podle některých společností právě tato legislativa může bránit rychlému zavádění nových technologií poháněných umělou inteligencí. Toto dilema podtrhává nutnost důkladně se zamyslet nad tím, jaké výhody a nevýhody může kompromis mezi podporou inovací a zajištěním odpovědného vývoje AI přinést.
Definice přijatelných rizik
AI Akt definuje čtyři úrovně rizika, pro které popisuje kontrolní mechanismy. Kategorie minimální a omezené riziko jsou dvě nejméně rizikové úrovně. Zahrnují například filtry spamu, umělou inteligenci ve hrách, chatboty nebo texty generované AI pro veřejnost.
Další dvě úrovně rizika jsou už podchyceny striktněji. Na úrovni vysokého rizika se jedná o systémy, které mohou být potenciálně nebezpečné, ale s dostatečným dohledem a specifickými pravidly stále využitelné. Mezi příklady patří systémy pro rozhodování o přístupu ke vzdělání nebo pro zajištění kritické infrastruktury, jako je doprava.
Nejvyšší úroveň, tzv. nepřijatelná rizika, upravuje systémy, které jsou zcela zakázané, protože představují významné riziko pro osobní práva a bezpečnost. Jedná se například o systémy sociálního kreditu nebo databáze rozpoznávání obličeje.
Nejvíce povinností dopadá na dodavatele vysoce rizikové umělé inteligence a na vývojáře, kteří budou muset podstoupit posouzení shody a provádět interní kontroly vyhovění předpisům. Největší zátěž pocítí zejména vývojáři, kteří budou muset provádět pravidelné vyhodnocování například skrze tzv. nepřátelské testování (adversarial testing), které jim pomůže najít a napravit potenciální chyby ve zdrojových datech nebo samotných modelech.
Pokud nastanou jakékoli problémy nebo rizika, vývojáři jsou zodpovědní za sledování dokumentování a reporting společně s adekvátním řešením bezpečnostních obav.
Kvalitní data jsou předpokladem robustního řízení dat
Pro úspěch umělé inteligence jsou data zásadní, takže firmy musejí před vyvinutím a nasazením systémů umělé inteligence zajistit připravenost svých dat na AI. Musí tedy vytvářet strukturované, vysoce kvalitní datové sady, na kterých budou umělou inteligenci trénovat a které do ní budou vkládat. Bez kvalitních datových vstupů nemohou být výstupy umělé inteligence důvěryhodné.
Kvalitní data jsou pro komplexní řízení dat zásadní, protože společnosti díky nim zvládnou rozlišovat různé druhy dat a uplatňovat na ně vhodná pravidla a ochranu. Teprve když lze datům skutečně věřit, mohou obchodní, IT a bezpečnostní týmy lépe zajistit soulad s předpisy a snížit riziko negativních důsledků pro jejich podnik. Umožňují jim také začlenit řádné vyhodnocování rizik do každodenního nakládání s daty a vytvořit potřebné ochranné prvky v celé společnosti, včetně řízení umělé inteligence.
Pokud podnik nesplní požadavky Aktu EU o umělé inteligenci, důsledky jsou skutečně vážné. Může totiž dostat pokutu ve výši až 30 milionů eur nebo 6 % celosvětového ročního obratu. Správné dodržování předpisů ale neznamená jen snižovat rizika a vyhýbat se finančním postihům. Efektivní správa dat je důležitou součástí strategie růstu.
Pokud má podnik efektivní rámec pro správu dat, může s vědomím stávajících i budoucích předpisů snadno vyvíjet a vydávat své modely. Může tak proaktivně plánovat a připravovat svou obchodní strategii a plán inovací v oblasti umělé inteligence na budoucnost, aby měl maximální konkurenční výhodu s náskokem.
Hledání rovnováhy mezi ochranou a inovací
Cílem regulace technologií je najít rovnováhu mezi ochranou občanů a podniků a možným potlačením inovací a zastavením vývoje potenciálně převratných technologií. Stupnice rizik zavedená v rámci Aktu EU o umělé inteligenci představuje rozumný kompromis, který omezuje pouze ty nejrizikovější systémy a modely umělé inteligence. Výzvou ovšem bude určovat, kam na této nové stupnici rizik různé technologie a nástroje ve skutečnosti spadají.
Akt také firmám nařizuje vést striktní záznamy, aby je mohly v případě potřeby zkontrolovat regulační orgány na místě, k čemuž je potřeba robustní systém řízení dat. Tento požadavek je podobný přístupu zavedeného podle Obecného nařízení o ochraně osobních údajů (GDPR).
Organizace, které již zavedly opatření pro zajištění souladu s přísnými zákony o ochraně osobních údajů, tedy mohou snáze rozšířit postupy správy, řízení a zabezpečení dat tak, aby splňovaly požadavky nového Aktu. Stejně jako v případě GDPR se bude výklad Aktu vyvíjet v soudech členských států, které by mohly najít další nedostatky a reagovat na ně v podobě dalších pravidel.
Přestože je Akt EU o umělé inteligenci katalyzátorem, který zpětně řeší nekontrolované zavádění umělé inteligence, má skutečně užitečný význam, protože nutí organizace kompletně katalogizovat a klasifikovat svá data. Aby podniky plnily požadavky Aktu, mohou zahájit, pokračovat nebo posílit nezbytné práce, díky kterým budou data používaná pro interní vývoj umělé inteligence bezpečná, kvalitní a bez citlivých údajů.
Kromě toho mohou začít vytvářet registry modelů umělé inteligence a zajistit si tak dokumentaci, auditní záznamy a zdůvodnění pro aplikaci umělé inteligence ve svém podniku.
V konečném důsledku je umělá inteligence jednou z nejslibnějších a nejpřevratnějších technologií v lidské historii a má potenciál vytvořit obrovskou ekonomickou hodnotu po celém světě. Je však zásadní hlídat některá její okrajová, vysoce riziková uplatnění.
Regulace v tomto ohledu sice hraje důležitou roli, ale pokud chtějí podniky podpořit odpovědné a rozumné využívání umělé inteligence v regionálním i globálním měřítku, musejí přijmout strategie řízení umělé inteligence, které jdou nad rámec pouhého dodržování předpisů.