Systém Deep Q-network (DQN), který vyvinula londýnská společnost DeepMind zabývající se vývojem umělé inteligence (AI), se naučil hrát hry na počítači Atari 2600 pouze na základě tabulky dosažených skóre a obrazu na monitoru jako vstupními informacemi.
Ve studii otištěné v prestižním časopise Nature výzkumníci společnosti DeepMind (kterou nedávno koupil Google) píší, že nový program dokázal překonat výkony dřívějších algoritmů ve většině z 49 her, na nichž byl testován. V některých případech se dokázal vyrovnat i profesionálnímu zkušebnímu hráči.
Program předem neznal pravidla. Měl pouze schopnost učit se z předchozích her a cíl maximalizovat své skóre. Díky algoritmu, který napodobuje aspekty lidského myšlení a učení, oslnil ve hrách jako je Video Pinball nebo Breakout. Dařilo se mu i v dalších typech her včetně střílecích, bojových a závodních.
Vědci použili přístup zvaný posilované učení, jehož součástí je odměna pro AI jako motivace. Spojili jej s tzv. hlubokou neurální sítí, která využívá různé výpočetní vrstvy k postupně se zvyšující míře abstraktnosti reprezentace dat. Obdobný přístup použili vědci u robotů, kteří se měli naučit vařit na základě sledování videí na YouTube.
Nejpodstatnější je, že se program po určitém počtu her naučil využívat úspěšné strategie. Například po 600 hrách hry Breakout, v níž hráč odrážením míče rozbíjí cihlovou zeď, začal program využívat strategii prokopání tunelu, kterým pošle míč na druhou stranu zdi a bezpracně tak rozbije její velkou část. DQN se však nedařilo u her, které vyžadují dlouhodobě plánovanou hrací strategii.
Vědci považují skutečnost, že se jedna architektura dokázala naučit adaptovat a řešit různorodé problémy, za důležitý úspěch a za další krok k vytvoření efektivní mnohoúčelové umělé inteligence.