Academix Revue Tři úskalí umělé inteligence
9.
Měření inteligence

Tři úskalí umělé inteligence

Roman Neruda působí v Oddělení umělé inteligence při Ústavu informatiky AV ČR a vyučuje na Katedře teoretické matematiky a matematické logiky Matematicko-fyzikální fakulty Univerzity Karlovy. Po nástupu pandemie covidu-19 se stal spoluzakladatelem Centra pro modelování biologických a společenských procesů a později i členem analytické skupiny Národního institutu pro zvládání pandemie. Píše texty, zpívá a hraje v kapele Sdružení rodičů a přátel RoPy, podílí se na site specific instalacích a věnuje se dalším tvořivým činnostem.

Academix Revue Tři úskalí umělé inteligence

To, čemu se v médiích dnes říká umělá inteligence, je ve skutečnosti jen její část založená na modelech hlubokých neuronových sítí učených z dat nebo simulací metodami strojového učení. Celá oblast umělé inteligence je širší a zahrnuje i přístupy formální reprezentace znalostí, algoritmy usuzování nebo pravidlové systémy. Zatímco metody strojového učení staví inteligentní systémy „zdola“, pomocí příkladů a dat, formální a pravidlové systémy používají lidský náhled a abstrakci k vytvoření systému, který má řešit nějakou úlohu „jako člověk“. V poměrně krátké historii oboru umělé inteligence spolu tyto dva přístupy často soupeří o místo na slunci, a jejich popularita se odvíjí od toho, jak úspěšně dokážou řešit praktické problémy. 

Poslední desetiletí zažíváme období boomu metod strojového učení. Ve své eseji Hořká lekce z roku 2019 se Rich Sutton zabývá vztahem těchto dvou zmíněných přístupů k umělé inteligenci. Jeho tezí je, že v dlouhodobější perspektivě algoritmy strojového učení a prohledávání vítězí nad lidskými znalostmi a intuicí o tom, jak řešit problémy. Příkladů pro toto tvrzení nalezneme poměrně dost. První šachový program, který hrál lépe než člověk, nehraje šachy jako člověk nebo podle pravidel stanovených geniálním šachistou. Místo toho používá prohledávací algoritmus možných tahů, který funguje obdobně třeba pro piškvorky. Stejně tak první program, který porazil velmistra ve hře go kombinuje chytré prohledávání možných tahů s odhadem, jak je daná situace v průběhu hry nadějná. Odhadovat dobré pozice pomocí neuronové sítě se první program AlphaGo naučil na základě záznamů mnoha partií sehraných lidmi. Ale tento algoritmus byl zanedlouho poražen jiným systémem, AlphaGo Zero, který lidské partie pro učení nepoužil a učil se metodou zpětnovazebného učení – hrál sám proti sobě. 

Dalším příkladem jsou velké jazykové modely, které dokážou analyzovat nebo překládat přirozený jazyk mnohem lépe než předchozí metody umělé inteligence vyvinuté pro tento účel. Posledním příkladem jsou hluboké sítě pro rozpoznávání obrazu. Zatímco před dvaceti lety jsme měli lidmi vyvinuté algoritmy, které stěží rozpoznaly složitější objekt na fotografii, metody hlubokého učení dnes dokážou vytvořit model, který rozpozná zvířata, lidi, automobily a další objekty a jejich vzájemné vztahy.

Co je tedy tou hořkou lekcí podle Suttona, který sám patří k zakladatelům oboru zpětnovazebného strojového učení? Pozorování, že metody výpočetní umělé inteligence, které se učí, překonávají znalosti expertů o daném oboru. A tedy apel na to, že složitost i velmi specializovaných a úzkých problémů je mnohem větší, než se zdá, a není možné ji zachytit několika pravidly. Namísto toho bychom měli vyvíjet učící se a prohledávací metaalgoritmy, které si díky dostupným datům a velkému množství automaticky nastavitelných parametrů, s komplexními problémy poradí samy. 

I když přijmeme danou premisu, že strojové učení zaznamenalo v oborech, jako je zpracování jazyka nebo obrazu (ale třeba i v molekulární chemii a biologii nebo v medicínské diagnostice), větší pokrok než generace výzkumníků doposud, čekají nás bohužel další úskalí tohoto přístupu. 

Systémy, které se učí z dat, jsou i v tom nejlepším případě jen tak dobré, jak dobrá jsou data, ze kterých je učíme. 

Systémy, které se učí z dat, jsou i v tom nejlepším případě jen tak dobré, jak dobrá jsou data, ze kterých je učíme. Pesimisticky to lze vyjádřit informatickou maximou garbage in – garbage out, tedy jaký je vstup, takový bude výsledek. Z nedávné minulosti jsou známé příklady jazykového modelu reprezentovaného chatbotkou Tay, která se na sociální síti učila komunikací s ostatními uživateli, a musela být po dni fungování vypnuta, protože začala komunikovat rasisticky a vulgárně. Podobně to dopadlo se systémem umělé inteligence, který měl ve velké počítačové firmě doporučovat zájemce o zaměstnání automatickou analýzou jejich životopisů. Zjistilo se, že systém na technické pozice doporučuje jen muže, a to proto, že se učil na základě historických dat, která měla na těchto pozicích mnohem větší podíl mužů. To, že učící se systémy dokážou reprodukovat vlastnosti dat, je ukázka jejich schopností, ale bohužel, data mohou obsahovat mnohé předsudky a zkreslení.

A s tím souvisí i třetí úskalí velkých modelů strojového učení – jsou tak složité, že jim nerozumíme. Jazykový model Chat-GPT 4 má své znalosti o tom, co se naučil, uložené v neuronové síti, která má 1012 parametrů. Těžko v takovém případě můžeme mluvit o vysvětlitelnosti výstupů pro dané vstupy, a tedy o spolehlivosti a bezpečnosti daného modelu. Bohužel ale tahle obrovská černá skříň – na rozdíl od malých a vysvětlitelných modelů – funguje. Výzkum v oblasti takzvaných nepřátelských vzorů ukazuje, že nedůvěra ve spolehlivost velkých modelů je na místě. Je stále poměrně snadné najít (samozřejmě opět pomocí automatických prohledávacích algoritmů) vstupy, které model zmatou natolik, že odpoví úplně špatně. Typickým příkladem jsou třeba obrázky, které člověk pozná jako jasnou kočičku, ale naučený model je klasifikuje jako cokoliv jiného, třeba loď. To nám ukazuje, že takové modely v žádném případně negeneralizují jako člověk, a tedy ani nerozpoznávají obrázky nebo jazyk stejně jako lidé. 

Jazykový model Chat-GPT 4 má své znalosti o tom, co se naučil, uložené v neuronové síti, která má 1012 parametrů. Těžko v takovém případě můžeme mluvit o vysvětlitelnosti výstupů pro dané vstupy, a tedy o spolehlivosti a bezpečnosti daného modelu. 

Což je možná dobrá zpráva pro ty, co se obávají vzpoury superinteligentních strojů; podle mínění řady odborníků pracujících v oblasti umělé inteligence je taková vize zatím nereálná. Na druhou stranu tato úskalí představují velké výzvy při zavádění technologií umělé inteligence do praxe. Autonomní vozidlo, které občas nerozpozná chodce, nebo dokonce jde napadnout hackerem tak, aby špatně rozpoznávalo značky, je potenciálně nebezpečné. I vlastní zkušenosti z interakcí s jazykovými modely nám často ukážou, že si model vymýšlí, ale bohužel to dělá velmi přesvědčivě. 

Koneckonců podobnou hořkou lekci si odnesli v roce 2022 i autoři velkého jazykového modelu Galactica učeného na korpusu 48 milionu vědeckých článků, který měl sloužit jako pomůcka pro výzkumníky v hledání citací, psaní anotací a sumarizaci relevantního výzkumu. Výstupy modelu velmi dobře demonstrovaly, že tyto systémy nerozumí významu textu, se kterým umí dobře pracovat na syntaktické úrovni. Takže systém často generoval nesmyslné teorie a vymýšlel si neexistující citace, ale pro člověka bylo těžké to poznat, protože tvrzení vypadala velmi věrohodně.