
„Na roboty musí být přísnost!“ Morální psychologie záchranářských robotů
Pokroky v robotizaci pravděpodobně povedou k tomu, že čím dále více morálních rozhodnutí bude připadat robotickým aktérům. Co vychází z dnešních myšlenkových experimentů týkajících se morálního rozhodování robotů? Jak jejich případné rozhodování lidé hodnotí? Autorský kolektiv nám poskytl shrnutí svého rozsáhlého článku podloženého osmi studiemi.
Představme si svět plný humanoidních robotů volně inspirovaný sbírkou povídek Isaaca Asimova. Právě takový svět ožívá ve filmu Já, robot, kde umělí aktéři pravidelně vstupují do rozmanitých interakcí s lidmi a stávají se součástí každodenního světa. Hlavní postava tohoto filmu, detektiv Del Spooner, pociťuje vůči robotům hlubokou nedůvěru. Nestalo se tak proto, že by mu nějaká umělá bytost ublížila, ale paradoxně z toho důvodu, že mu právě robot zachránil život. Po autonehodě byl detektiv robotem vytažen z potápějícího se vozu, zatímco v druhém vozidle uvízlo dvanáctileté dítě. Robot, řízený logickým kalkulem, vyhodnotil, že protagonista – dospělý detektiv má vyšší šanci na přežití než dítě, a proto upřednostnil jeho záchranu. Výsledkem robotova racionálního jednání byl zachráněný dospělý a jedno utonulé dítě.
Úvodní zápletka filmu, ač fiktivní, poukazuje na jeden z klíčových aspektů předpovědí budoucího vývoje spojeného s nástupem aktérů řízených umělou inteligencí. Odborná diskuse v technologických kruzích se zaměřuje spíše na problém morálního softwaru: do jaké míry lze převést morální a právní teorie do softwarového kódu a které z řady různých teorií by měly být upřednostněny. Oproti tomu příklad s detektivem Spoonerem poukazuje na druhou významnou složku – lidské aktéry, jejichž chování je řízeno jejich vlastním morálním kompasem, zejména morálními emocemi. Právě mezi lidskými morálními emocemi a jejich očekáváními ohledně chování umělých aktérů na straně jedné a předem naprogramovaným chováním umělé inteligence dle etických teorií na straně druhé bude probíhat veřejná debata. Budou lidé považovat roboty za reálné morální aktéry? Pokud ano, tak budou je soudit na základě stejně přísných kritérií jako lidské aktéry?
Lidé někdy hodnotí totožná rozhodnutí jinak, v závislosti na tom, zda byl aktérem robot, nebo člověk. Vlivná studie srovnávala, jak hodnotí lidé rozhodnutí aktérů v klasickém vozíkovém problému s výhybkou v závislosti na tom, jaký typ aktéra – člověk, nebo robot – jim byl v dilematu představen. Studie ukázala, že lidé jsou více viněni za jednání (utilitaristické rozhodnutí přehodit výhybku, které vede ke smrti jednoho za účelem záchrany pěti) v klasickém trolley problému, než když upřednostňují nejednání (nezasahovat a přihlížet, jak pět lidí zahyne). Naopak umělý aktér – robot – byl viněn stejně za utilitaristické i neutilitaristické rozhodnutí. To by naznačovalo, že přirození aktéři bývají viněni na základě konkrétních rozhodnutí, a nejen obecně. Když lidé hodnotili morální špatnost daného rozhodnutí ve vozíkovém dilematu, jednání robota bylo hodnoceno jako morálně horší, pokud zvolil neutilitaristické rozhodnutí, zatímco u lidského aktéra bylo jako morálně horší hodnoceno jeho neutilitaristické rozhodnutí. V další studii bylo zkoumáno, jak je hodnocen lidský a robotický poradce při řešení vozíkového problému. Robotický poradce byl pokládán za důvěryhodnějšího a spolehlivějšího, když doporučoval utilitaristické rozhodnutí, zatímco lidský rádce byl pokládán za méně vinného a více etického než robotický poradce, když doporučoval neutilitaristické rozhodnutí.
Ve studii, která zkoumala morální rozhodnutí AI v kontextu vojenství, byl buďto lidskému pilotovi, nebo řídící AI vydán rozkaz k raketovému útoku na cíl, který by mohl způsobit kolaterální ztráty – usmrtit osoby v blízkosti cíle. Pilot nebo řídící AI se pak rozhodovali, zda rozkaz splní, či nikoliv. Lidé připsali více viny lidskému pilotovi, pokud rozkaz neuposlechl, než když jej uposlechl. Zatímco AI byla viněna při uposlechnutí i neuposlechnutí stejně. Když však srovnáme, jak lidé hodnotí pilota s tím, jak hodnotí řídící AI, zjistíme, že AI je viněna méně při neuposlechnutí, než je viněn pilot. V tomto případě, je umělý aktér hodnocen pozitivněji než jeho lidský protějšek, který jednal stejně.
V jiné studii byly hodnoceny robotické zdravotní sestry negativněji než lidské sestry, pokud léčily pacienty navzdory jejich přání. Nicméně pokud robotické sestry odmítly léčit pacienty proti jejich vůli, byly hodnoceny stejně nebo lépe než lidské sestry, které by učinily stejné rozhodnutí. Tyto tři studie naznačují, že umělí aktéři nejsou veřejností obecně hodnocení záporněji nebo kladněji, ale podléhají odlišným morálním standardům než lidští aktéři. Tento jev lze označit jako asymetrii v hodnocení rozhodnutí člověka a robota.
Z pohledu etických teorií použité typy dilemat v případě vozíkového problému nebo útoku s kolaterálními ztrátami staví proti sobě jednání (komisi) a nejednání (omisi). Postaví tak proti sobě utilitaristickou pozici a neutilitaristickou, která oproti první jmenované nepřipouští nemorální skutek, například usmrcení někoho za účelem většího dobra, kupříkladu většího počtu zachráněných životů. Ovšem lidské nejednání (omision bias) je snadněji pochopitelné nebo omluvitelné než nejednání robota. Proto jsme se zaměřili ve studii o záchranářských robotech na srovnání dvou různých jednání (komisí).
Představme si následující situaci: dva opilí mladíci v motorovém člunu způsobí svou divokou jízdou kolizi s malým člunem, ve kterém je rybář. Incident se odehrává na podzim ve velmi studeném moři a zachránce – lidský nebo robotický záchranář – má možnost plavat a zachránit jen posádku jednoho z těchto dvou člunů, protože po srážce jsou od sebe značně vzdáleny. V tomto dilematu stojí proti sobě utilitarismus (zachránit větší počet lidí a jednoho člověka nechat utonout) versus lidová spravedlnost (zachránit nevinného rybáře a nechat viníky se utopit). Obě rozhodnutí jsou ale shodně jednáním (komise), přičemž jedno preferuje utilitarismus a druhé lidovou spravedlnost.
V sérii experimentů napříč zeměmi (Finsko, anglicky mluvící země, Česko) a napříč skupinami (placení účastníci z panelu, dobrovolní účastníci z řad veřejnosti, univerzitní studenti) jsme zkoumali morální hodnocení veřejnosti ohledně dvou typů aktérů v daném morálním dilematu. Zjistili jsme, že lidé hodnotí robota záporněji, když preferuje záchranu dvou viníků, než když takovou záchranu preferuje lidský záchranář. I po manipulaci s počty osob – vinných a nevinných – lidé preferovali obecně záchranu nevinných (lidovou spravedlnost), i když jejich počet byl nižší než počet viníků (utilitarismus). A dále lidé konzistentně hodnotili jednání robota negativněji než totožné jednání lidského záchranáře.
Na základě osmi studií, ve kterých jsme zkoušeli různé varianty záchranářského dilematu, jsme dospěli k následujícím zjištěním: Rozhodnutí robotů nejsou vždy hodnocena jako morálně horší než totožná rozhodnutí lidských aktérů. Spíše platí, že pokud robot udělá rozhodnutí, které odporuje obecnému morálnímu konsenzu (např. zvolí záchranu menší skupiny nevinných lidí oproti většímu počtu nevinných osob), je za něj morálně hodnocen přísněji, než kdyby totožné rozhodnutí udělal lidský záchranář. Špatné rozhodnutí robota je tedy hodnoceno přísněji než stejně špatné rozhodnutí člověka, zatímco správné rozhodnutí robota je hodnoceno stejně dobře (nebo jen o nepatrně méně pozitivně) jako správné rozhodnutí člověka.
Můžeme spekulovat, proč tomu tak je. Možná jsme vůči chybám robotů přísnější nebo máme empatii, tedy větší pochopení pro lidská morální selhání a lidské emoce. Přesto lidé konzistentně považují morální normy za stejně závazné pro lidi i robotické aktéry. Mohou nám výsledky naší studie nějak napomoci k pochopení morálních emocí detektiva Spoonera z úvodního příběhu? Pokud by ho z potápějícího se automobilu zachránil člověk, pravděpodobně by mu dokázal snáze odpustit. Pro morální chyby robotů však zatím nemáme stejnou míru empatie a pochopení.