Etika umělé inteligence

Umím si v myšlenkách představit svět bez válek, svět bez nenávisti. A dokážu si představit, že bychom na ten svět zaútočili, protože by to od nás nikdy nečekal.

Jack Handey

Umělá inteligence se využívá v mnoha oborech a přináší lidstvu prospěch. Jmenujme například diagnostiku chorob, pomoc hendikepovaným, předpověď počasí, pomoc v domácnosti, chytré telefony, vyhledávání informací na internetu,.. Rychlý rozvoj AI však přináší nové výzvy a akutní etické otázky:

  1. Kdo nese zodpovědnost za to, když umělá inteligence selže?
  2. Kdo odpovídá za to, že AI nebude zneužita?

Etické navrhování AI

Čím více volnosti má stroj, tím více potřebuje morální měřítka.

Rosalind Picardová

První otázku by měli řešit vývojáři. Zkoumat, jestli jejich AI dělá přesně to, na co jí vyvíjejí. Testování jednoúčelové umělé inteligence (narrow AI) je jednodušší než testování komplexnějších systémů AI. Pokud jde například o autonomní vozidla, jsou tak komplexní, že může dojít k celé řadě nepředvídatelných poruch. Proto musejí systémy AI být podrobeny soustavnému testování, než jsou uvedeny na trh. Nám jako uživatelům však stačí, když něco funguje nad rozumnou míru pochybnosti. Jak tuto rozumnou míru definovat, je otázka pro obor spolehlivostního inženýrství.

autonomní vůz
Autonomní vozidlo. Foto: Bernd 📷 Dittrich na Unsplash

Vezměme si ale otázky, kdy je při rozhodování ve hře lidský život. Jak se rozhodne autonomní vozidlo, když hrozí na jedné straně zabití posádky při kolizi s protijedoucím vozem, a na druhé straně srážka se skupinou předškolních dětí na chodníku vedle silnice. Jak v takové situaci zareaguje člověk? Záleží na jeho vnitřních hodnotách. A ty se projeví i v tom, co autoři naprogramují do AI.

Kdo rozhodne, co je etické?

Odpovědností za etické používání AI by se měla zabývat politika. Když máme k dispozici určitou technologii, měla by se použít? Bude to etické? Má například velitel vypustit bezpilotní bojový letoun Harpy při daném rozložení bitevního pole? Smí Google psát software, který některá videa zakáže, a jiná povolí?

Problém je totiž v tom, že etiku do systému vkládají jeho autoři. Zastávají nějaký světonázor, a to se promítá do jejich softwaru. Například bylo dokázáno, že Google v určitých etických otázkách podsouvá tazatelům jednostranné informace, které jsou v souladu s firemní etikou.

Zájem o etické ohledy při navrhování a využívání umělé inteligence vedl v roce 2017 k sformulování 23 zásad zvaných Asimolarské principy AI, které podepsalo více jak 1000 výzkumných pracovníků v oboru. Mezi signatáře patří i Stephen Hawking, Elon Musk a Jaan Tallinn. Hlavním cílem této deklarace je zajistit, aby vznikající umělá inteligence byla navržena tak, aby její systémy byly bezpečné a v souladu se zájmy rozvoje co největšího počtu lidí na světě. Jde o to, aby AI sloužila k dobrému všem lidem, nejen úzké zájmové skupině jako je stát nebo firma.

Na papíře to zní pěkně, ale všichni víme, jak to vypadá s prosazováním bezpečnostních předpisů v práci. Existují místa, kde je umělá inteligence bezprecedentně zneužívána úzkou skupinou lidí k ovládání mas.

Čínská digitální totalita

Orwellův Velký bratr víceméně už existuje v Čínské lidové republice, kde komunistická strana ovládá lid prostřednictvím AI. Postupně zavádí systém sociálního kreditu, aby hodnotila spolehlivost a důvěryhodnost občanů. Na začátku každý občan dostane 300 bodů a může získávat další „dobrým“ (tj. vládou schváleným) chováním – jezdit MHD, pečovat o zdraví, udat policii toho, kdo disponuje velkým množstvím valut apod. Kdo sbírá body, tomu přibývá výhod – možnost uplatnění v práci, lepší škola pro děti, lepší nákupy, možnost cestovat atd.

Pokud se člověk dopouští „protispolečenského“ chování, třeba tím, že se stýká s „protivládními“ živly, je v konfliktu s policií nebo se často opíjí, ztrácí body – a v konečném důsledku nabídku pracovních pozic, kvalitní bydlení a svobodu pohybu. Čínský policejní cloud rozlišuje 7 kategorií občanů. Lidem s nízkým sociálním kreditem je znemožněno podnikat nebo najít si práci. Mohou dokonce být v televizi veřejně vyhlášeni za „zdiskreditovanou osobu“, právě když procházejí okolo ní.

Reportáž o čínském kreditním systému z NBC News.

Režim vyvíjí tlak převážně prostřednictvím všudypřítomného kamerového systému a aparátu umělé inteligence s rozpoznáváním tváří, napojeného na obří databázi. Podle deníku Times některé čínské firmy dávají svým zaměstnancům čelenku se skrytým zařízením, které skenuje mozkové vlny. Sbírají a vyhodnocují data, aby u zaměstnanců zjistily pocity jako deprese, úzkost a hněv. Z etického hlediska existují pochyby: důkazy hovoří o tom, že algoritmicky vyhodnocené pocity mohou být zavádějící.

Podle zprávy Human Rights Watch, kterou podala Maya Wangová, monitoruje čínská vláda v severozápadní provincii Sin-ťiang všechny stránky života. Zaměřuje se na podezřelé občany, aby je podrobila zvláštnímu dohledu. Provincie je domovinou převážně muslimských Ujgurů. Zatímco se Číňané volně pohybují, Ujguři jsou bedlivě sledováni. Hlavní město Urumči se stalo digitální pevností. Ulice lemují každých pár metrů kamery. Ujguři jsou nuceni každých několik set metrů zastavit se u policejní stanice, odevzdat mobil, aby ho elektronicky nechali zkontrolovat a data mohl zpracovat ústřední systém AI. Na dveře domů policie vylepuje QR kódy, aby snadněji mohla kontrolovat identitu lidí ubytovaných v domě. Nejhorší je existence „vzdělávacích zařízení“, kde je nedobrovolně držen asi milion Ujgurů, aby z nich režim vychoval loajální čínské občany. A to vše se děje prostřednictvím umělé inteligence, která se zjevně může zmýlit. Zpráva paní Wangové končí varováním: „Je to budíček – nejen pro Čínu – ale pro každého z nás.“

Dozorčí kapitalismus

Všichni žijeme v době algoritmického sledování mas. Podle slov Yuvala Harariho dataismus požaduje, aby veškeré dostupné informace mohly volně protékat internetem věcí, který by se jednou mohl rozšířit z planety Země do celého vesmíru. Volný tok dat není však totéž, co svoboda projevu. Dataisté jako Aaron Swartz jsou zastánci toho, aby se informace neomezeně sdílely nehledě na autorská práva. Swartz byl proti tomu, aby digitální knihovna JSTOR za své služby vyžadovala poplatek. Byl přesvědčen, že všechny vědecké články by měly být volně přístupné a že nápady nepatří jejich autorům. Stáhl statisíce vědeckých článků, které hodlal zavěsit na internet, ale byl zatčen a obviněn. Když si uvědomil, že ho čeká soud a vězení, oběsil se. JSTOR se pod nátlakem za svou roli v celé kauze omluvil a uvolnil značnou část svých článků. Dataismus se dostává do rozporu se základními svobodami člověka – jako je autorské právo nebo právo na soukromí. 

Otázka výměny svobody za bezpečnost je dnes aktuální. V knize Neži v lži  Rod Dreher píše, že skoro 70 milionů Američanů má v domácnosti nainstalované hlasové asistenty monitorující jejich rozhovory, aby jim zpříjemňovali život. Když se o tom zmínil v rozhovoru s Kamilou Bendovou, manželkou známého disidenta československého komunistického režimu, úplně se zhrozila:  „Jak mohou být Američané tak důvěřiví?“ Dobrovolně si nasadit doma štěnici! Abychom si zachovali svobodu, musíme si okolo sebe zachovat zónu soukromí, která je nedotknutelná, mínila paní Bendová.

Profesorka Shoshana Zuboffová této problematice věnovala knihu s titulem The Age of Surveillance Capitalism. Analyzuje novou formu kapitalismu, který zavedly společnosti Google, Microsoft, Amazon, Apple a Facebook. Google si v roce 2003 nechal patentovat proces využívající „datový odpad“ z vyhledávání, aby na uživatele mohla být cílena co nejvhodnější reklama. Extrakce dat se s pomocí umělé inteligence stala základem nové ekonomiky. Shromažďují se a analyzují uživatelská data, aby se nám nabízelo zboží a služby. S vidinou zisku se záměrně ovlivňuje naše chování a názory, aniž bychom k tomu dali souhlas. (To se však v poslední době napraviloe aspoň tím, že je povinné žádat o souhlas s používáním cookies.)

loga velkých korporací
Zdroj: P3D7AQ09M6 – Own work, CC BY-SA 4.0,

Samozvaný vliv korporací na společnost však zdaleka nekončí jen u zboží a služeb. Jak píše Dreher, kapitalismus 21. století je také velice woke – ostražitý. Vlivné korporace se daly do boje za  „sociální spravedlnost“, přičemž své cíle definují jen vágně. Profesorka Zuboffová cituje vysoce postaveného člověka ze Silicon Valley, který věří, že jejich firma  „změní to, jak se lidé každodenně rozhodují.“ Například Twitter už odepřel své služby řadě lidí, včetně bývalého amerického prezidenta Donalda Trumpa, když je obvinil z „nenávistných projevů“. Coby soukromá společnost k tomu jistě má právo, ale Dreher píše o zaměstnancích korporací, kteří se bojí projevit nesouhlas s aktivisty sociální spravedlnosti, aby nepřišli o práci. Autocenzura, jakou známe z dob československé normalizace.

Jakmile někdo dohlíží na to, co děláme, nechtěně s tím počítáme, a nic z toho, co uděláme, není upřímné.

Milan Kundera

Na Západě jsou zatím sledovací prostředky v soukromých rukou, ale i to se začíná měnit. Co brání vládě jednat podobně? Připomeňme si informace, které vyzradil v roce 2013 analytik americké Národní bezpečnostní agentury NSA Edward Snowden. Zveřejnil důkazy o masivním a před veřejností utajovaném celosvětovém sledování telefonů a elektronické komunikace ze strany bezpečnostních služeb USA. CIA chtěla tyto údaje ukládat a analyzovat. Zatím naštěstí platí zákony, které jí brání využít je proti jednotlivcům, pokud nejsou podezřelí z terorismu nebo špionáže. Společnost se musí vypořádat s dilematem, jak uchovat soukromí lidí a současně umožnit sběr dat, která jsou všem prospěšná.

Yuval Harari si ovšem myslí, že umožnit Googlu přístup ke všem dostupným osobním údajům, jako jsou naše zdravotní záznamy, DNA, geografická poloha a naše záliby atd., nám může jedině prospět. Tvrdí, že když nás algoritmy budou znát lépe, než my sami sebe, navrhnou nám lepší rozhodnutí – ať už ve volbách, při nákupu, u doktora, a nebo při volbě životního partnera – a přitom se nedají ovlivnit naší momentální náladou. Harari sám ovšem uznává, že tím bude hodnota naší jedinečné osobnosti nenávratně ztracena. Nicméně si myslí, že nová doba dává prožitku smysl jedině tehdy, je-li sdílen s digitálním světem.

Lidé ztrácejí díky AI hodnotu i z jiného pohledu, a to z ekonomického. Podle prognóz nebude trvat dlouho, a většina lidí bude patřit k neužitečné třídě společnosti.

Ekonomické otázky

Celkově vzato, AI by měla být lepší než lidé prakticky ve všem za 45 let.

Katja Graceová

V roce 2016 provedl tým Katji Graceové z Oxfordské univerzity anketu mezi akademiky a odborníky na strojovou inteligenci. Výsledky ankety přinesly prognózu, že AI bude v čím dál více oblastech nahrazovat práci člověka. Z průzkumu také vyplývá, že všechny lidské činnosti se zautomatizují do 125 let. Mluví se o vytěsňování pracovních pozic z trhu práce tlakem technického pokroku. Yuval Harari píše: „V 21. století se můžeme stát svědky vzniku obrovské nepracující třídy: lidí bez jakékoliv ekonomické, politické či dokonce umělecké hodnoty, kteří nijak nepřispívají k blahobytu, moci a slávě společnosti. Tato neužitečná třída nebude jen nezaměstnaná – bude nezaměstnatelná.“

Vznikají sice i nová pracovní místa, ale pomaleji, než AI přebírá naši práci. A na co by se měli studenti zaměřit, aby se uplatnili v přicházející technické revoluci? Bude třeba matematické myšlení a umět vyhledat informace, umět řešit problémy a tvořivě myslet. Budou muset být neuvěřitelně flexibilní a schopni učit se stále novým dovednostem. Problém je, že miliony dětí z různých příčin těchto dovedností nenabývají. Kromě toho se jim studenti jistě nenaučí tak, že budou odevzdávat slohové práce a programy napsané umělou inteligencí. Co by měl na takových pracích učitel hodnotit? A jaké dovednosti tím žák získá, když ani nerozumí tomu, jak napsat osnovu nebo proč jeho program funguje?

Pokud nechcete, aby vás nahradil stroj, nechovejte se jako on.

Arno Allan Penzias, laureát Nobelovy ceny

Technooptimisté doufají, že ačkoli nebude možné novou neužitečnou třídu lidí zaměstnat, využíváním technologie vznikne dostatečný přebytek, aby měli z čeho žít. Kdo ale bude platit za nové technologické služby – ti nezaměstnaní? Odkud se vezme ten přebytek?

Práce dodává člověku sebeúctu a podle bible je jednou ze základních úloh člověka. Komunistické heslo  „kdo nepracuje, ať nejí“ vzniklo překroucením rady apoštola Pavla tesalonickým křesťanům: „kdo nechce pracovat, ať nejí.“ Umělá inteligence však směřuje k tomu, že práce bude stále menší součástí našeho života.

Ještě důležitější otázkou ovšem je, zda AI neohrozí náš život jako takový. Nick Bostrom však varuje, že nezaměstnatelnosti možná nikdo ani nedosáhne, pokud tito lidi AI při svém vzestupu AI prostě vyhladí.

Umělá inteligence a zbrojení

Umělá inteligence není jen budoucností Ruska, ale celého lidstva. Přináší kolosální příležitosti, ale je zároveň těžké předvídat její hrozby. Kdokoliv se ujme vedení v této oblasti, stane se vládcem světa.

Vladimír Putin

Komerční i vojenští roboti budou pomocí zabudované AI schopni samostatně plnit úkoly a bojové mise. To vede k debatě, zda takové mise připustit, obzvlášť v případě, kdy půjde o lidské životy.

Rozhodnutí AI by mělo podléhat schválení člověka všude tam, kde je to namístě. Proč? To nejlépe ilustruje případ z dob studené války. Dne 26. září 1983 sovětský systém umělé inteligence Oko naznačoval, že Američané vyslali proti SSSR rakety. Naštěstí byla umělá inteligence pod dohledem podplukovníka Stanislava Petrova, který nakonec zjistil, že jde o falešný poplach. Nebýt dohledu člověka, skončilo by to třetí světovou válkou. Jsou však situace, kdy na rozhodnutí člověka není dost času.

Představme si scénář útoku nadzvukovými raketami z různých směrů. Není čas systematicky vyhodnotit hrozbu každé jednotlivě. V takovém případě je nutná autonomní odezva. Od zpracování dat přes koncept hejna k rozhodování na bitevním poli, všude může AI pomoci vojsku operovat rychleji a přesněji, a tak vystavovat ohrožení méně lidských životů. Správně sestrojené autonomní zbraně se nevymknou kontrole, protože v rozhodovacím cyklu  stále figuruje lidský úsudek. Hovoříme o poloautonomních zbraních.

Existují však dvě velká rizika. Jedním je náchylnost neuronových sítí a umělé inteligence k selhání. Pokud nepřítel rozumí tomu, jak obranná AI funguje, může ji záškodník zmást falešnými daty. Autonomní zbraně tak zneškodní nebo je obrátí proti vlastním vojákům. 

Na druhé straně stojí velké riziko zneužití ze strany teroristů. To je jeden z důvodů, proč velmoci nestojí v zavádění AI do výzbroje stranou. Neutralita není na stole, jak se vyjádřil Paul Scharre, vojenský poradce prezidenta Obamy: „neexistuje způsob, jak zabránit tomu, aby se technologie dostala do rukou teroristů… Je to skutečně problém a nejlepším řešením je zaměřit se na obranná opatření.“

Hrozí nám roboti-zabijáci?

Ve sci-fi filmech je oblíbené téma zabijáckých robotů. Obavy z možného použití robotických zabijáků vykresluje krátké video Slaughterbots:

Představa mikrodronu velikosti sušenky Oreo, který rozpozná tvář člověka a pronásleduje ho, dokud ho neusmrtí, je děsivá. Když si uvědomíme, že potřebnou technologii máme na dosah, tuhne krev v žilách. Dojem vyvolaný videem je však zavádějící. Umělá inteligence nemá mysl, a proto se sama nikdy neobrátí proti člověku. „Technologii ukázanou ve videu si umím představit, ale v podstatě všechno ostatní jsou úplné bláboly,“ uvedl Scharre. Video předpokládá, že neexistuje účinná obrana proti smrtícímu úderu hejna dronů. Jenže „proti každé vojenské technologii existuje obrana, a opatření proti malým dronům se nepohybují jen na hypotetické rovině. Americká vláda soustavně vyvíjí způsoby, jak malé drony zneškodnit: sestřelit, zamotat, usmažit, unést, pochytat apod. Na mikrodrony ve videu by stačilo obyčejné drátěné pletivo.“ Mezi jiné účinné obranné prostředky patří poloautonomní zbraně.

Obavy o etické ohledy při navrhování a využívání umělé inteligence vedly v roce 2017 k sformulování 23 zásad zvaných Asimolarské principy AI, které podepsalo více jak 1000 výzkumných pracovníků v oboru. Mezi signatáře patří i Stephen Hawking, Elon Musk a Jaan Tallinn. Hlavním cílem této deklarace je zajistit, aby vznikající umělá inteligence byla navržena tak, aby její systémy byly bezpečné a v souladu se zájmy rozvoje co největšího počtu lidí na světě. Jde o to, aby AI sloužila k dobrému všem lidem, nejen úzké zájmové skupině jako je stát nebo firma.

Huxleyova dystopie na obzoru?

Orwellův román 1984 popisuje totalitní dystopický svět, kde vše řídí Velký bratr pomocí represí. Ve stejné době napsal Aldous Huxley dystopický román Konec civilizace aneb překrásný nový svět. V něm elita k ovládání mas nepotřebuje žádné násilí. Jedná se o „růžový policejní stát“, kde se lidé dobrovolně vzdali svých práv výměnou za záruku osobní rozkoše. Stát informace nemusí cenzurovat – lidé v záplavě informací nemají zájem číst knihy. Aby se podvolili totalitní moci, stačí je strašit odstřihnutím od zdroje štěstí. Huxleyho svět vnímá utrpení, či dokonce jen nedostatek štěstí, jako nesnesitelný útlak. Totalitní moc efektivně ovládá masy tím, že naprogramovala jejich vůli.

Doufejme, že se Huxleyova vize na nastupující generaci v blízké budoucnosti nenaplní! Stále je šance, že si lidé uvědomí, v čem jsou jedineční a v čem je počítače nikdy nemohou nahradit.

Zdroje

  • John C. Lennox: 2084: Artificial Intelligence and the Future of Humanity, Zondervan Reflective 2020
  • Robert J. Marks: The Non-Computable You – What you can do that Artificial Intelligence never will, Seattle Discovery Institute Press 2022
  • Yuval Noah Harari: Homo deus – stručné dějiny zítřka, LEDA 2017
  • Rod Dreher: Neži v lži – Príručka pre kresťanských disidentov, Postoj Media 2021

Přečteno 97-krát