O možnosti padělání lidí Jan Němec

Yuval Noah Harari: Nexus. Stručná historie informačních sítí od doby kamenné po AI. Jan Melvill, Brno, 2025, překlad Petr Oliver

Když jsem kdysi na přelomu dětství a rané puberty hltal science-fiction, jeden motiv mě zvlášť zneklidňoval. Hrdinové těch báječných knih, které mě na celé odpoledne teleportovaly do vzdáleného vesmíru nebo blízké budoucnosti, se čas od času setkávali s mimolidskými entitami. Mimozemšťani ve mně vyvolávali obavy a mrazení v zátylku přirozeně: evoluce do nás vložila nedůvěru k cizincům a mimozemšťan je jejich mezní podobou.

Vážně? Ten nejvíc zneklidňující motiv se ve skutečnosti týkal něčeho jiného. Mezi mimolidské entity patří nejen extraterrestriálové, ale i roboti a androidi. Základní rozdíl: zatímco v případě mimozemšťanů si autoři science-fiction obvykle dávají záležet na tom, aby byli co nejodlišnější, roboti a androidi jsou naopak jako my. První děsí tím, jak jsou nepodobní všemu, s čím máme zkušenost, druzí vyhrožují, že je od nás vůbec nerozeznáme. Už jako kluka mě fascinovaly testy, které autoři vymysleli, aby určili lidskost člověka, respektive nelidskost nečlověka. Ve filmu Blade Runner dostávají replikanti emočně nabité otázky, a zatímco odpovídají, přístroje jim měří tělesné reakce jako tep, pocení nebo rozšíření zornic. V jedné povídce – tuším, že Isaaca Asimova – vypadá test jednodušeji: stačí mít s sebou trochu pepře, protože žádný android nemá tolik drobného obličejového svalstva, aby dokázal přesvědčivě kýchnout.

V době zlatého věku science-fiction vznikl i slavný Turingův test (1950), který má odlišit lidskou inteligenci od té strojové. Letos na jaře se opět dostal do titulků na celém světě, to když jím GPT-4.5 přesvědčivě prošel. Konkrétně se stalo to, že výzkumné subjekty považovaly ChatGPT za člověka ve třech čtvrtinách případů, častěji, než tak označily skutečné lidi. Jistě: šlo pouze o elektronickou komunikaci, umělá inteligence dosud nemá naši tvář, přesněji řečeno, nemá naše těla a jejich tělesné funkce. Může nás to však ukonejšit? Pokud se sami čím dál víc pohybujeme v online prostředí, kde se nepotí ani nekýchá nikdo, máme zjevně zaděláno na problém: nedokážeme už rozlišit, zda komunikujeme s lidskou, nebo mimolidskou entitou.

Vadí to něčemu? Přinejmenším provozovatelům webových stránek, kteří se botů snaží zbavit pomocí testu CAPTCHA (v principu jde o automatizovaný Turingův test). Každý uživatel internetu na něho narazí několikrát denně, když musí správně přečíst deformovaná písmena nebo označit všechny obrázky, na kterých je most. Advokáti humanity zatím mohou být v klidu – ani GPT-4.5 se zatím s tímto testem nedokáže vypořádat.
Přesněji řečeno, nedokáže ho vyřešit tak, jak bychom čekali. A právě tady to začíná být zajímavé. Už předchozí verzi totiž napadlo kontaktovat službu TaskRabbit, jež zprostředkovává drobné služby, především domácí práce, a požádat operátora o pomoc. Ten projevil překvapivě bystrý úsudek – zeptal se, zda si náhodou nepíše s botem. Bot odvětil, že nikoli, má pouze vadu zraku, a proto s obrázky potřebuje pomoct. V tu chvíli se skutečný člověk omluvil a pomohl botovi úkol CAPTCHA vyřešit. Je to jako námět na sci-fi povídku, jen by se v ní hrálo o víc než o přístup na webovou stránku.

Poslední příklad pochází z nové knihy izraelského historika Yuvala Noaha Harariho Nexus s podtitulem Stručná historie informačních sítí od doby kamenné po AI.

Po celosvětově úspěšném titulu Sapiens, shrnujícím historii lidstva, a Homo Deus, kde načrtl jeho budoucnost, Harari obrací pozornost k něčemu, co zásadně definuje obojí: schopnost lidí vytvářet intersubjektivní skutečnosti, zejména různé typy sítí. Právě to je naše největší evoluční zbraň – již umíme obrátit i proti sobě.

Harari přitom sítěmi nemyslí zdaleka jen internet. Nejúspěšnějšími sítěmi v dějinách jsou příběhy, zejména ty mytologické, náboženské a politické. Právě příběhy sjednotily obrovské populace. Schopnost člověka vyprávět příběhy a schopnost příběhů poutat lidi stojí za úspěchem jedné židovské sekty, z níž se zrodilo křesťanství, i za vzestupem nepřeberného množství diktátorů či naopak za šířením myšlenky všeobecných lidských práv. Odlišné příběhy jsou podle Harariho důvodem toho, proč se v Jeruzalémě bojuje o jednotlivé kameny nebo proč teď umírají tisíce lidí v Gaze.

Problém je mimo jiné v tom, že příběhy se nepoužívají jen k popisu, vytváření nebo popírání skutečnosti, ale také – a často hlavně – k udržování společenského řádu. Některé příběhy odhalují hluboké pravdy, jiné slouží k hloubkové kontrole. A tak to může být i s novým druhem sítě, kterým je umělá inteligence. Také ta v čím dál větší míře vytváří intersubjektivní realitu. Jenže zatímco s příběhy máme tisíciletou zkušenost, v případě AI jsou to přinejlepším desetiletí, spíše jen roky.

Možná to není zřejmé, že z umělé inteligence se stal důležitý hráč, který utváří naši společnou realitu, jazykem filosofie žitý svět. Teprve postupně nám například dochází, že algoritmy sociálních sítí utvářejí specifický typ této reality, definovaný tím, že usilují o co nejvyšší zapojení uživatelů; teprve postupně objevujeme všechny psychologické, sociální či politické důsledky, které to s sebou nese. Že by jiné algoritmy znamenaly jinou intersubjektivní realitu, o tom by mohli svědčit například v Myanmaru, kde Facebook v roce 2017 prokazatelně zvýhodňoval šíření genocidního obsahu zaměřeného proti tamní menšině muslimských Rohingů. Platforma i zde sledovala jen míru zapojení, vyhodnotila, že nenávistný obsah ji zvyšuje nejvíc, a čistě z toho důvodu ho uživatelům přednostně zobrazovala. Jinak vcelku mírumilovná buddhistická většina nakonec vzala do rukou tyče.

Algoritmy sociálních sítí jsou samozřejmě jen malou částí AI, ale dobře ilustrují ještě jednu věc. Nové technologie vždy představují ohromnou příležitost pro soukromý sektor a nemenší výzvu pro společenské instituce. Harari uvádí tuto analogii: Průmyslová revoluce proměnila svět, ale málem ho také zničila. Trvalo dlouhá desetiletí, než vešly v platnost regulace v oblasti trhu práce, dopravě nebo zbrojení. Rovněž informační revoluce, která díky AI významně akceleruje, v sobě nese hrozby, které nelze odbýt nálepkou alarmismu. Poprvé v dějinách lidstva se na scéně objevila entita, která nejenže je v mnoha ohledech inteligentnější než my, ale je rovněž schopná vlastního rozhodování, jehož mechanismům nerozumíme. A to nejen jako laici v oboru, ale v principu. Zaslouží si to krátkou odbočku. Jedním ze zlomových okamžiků vývoje AI byl rok 2016, kdy modul AlphaGo porazil nejlepšího světového hráče ve hře Go, několikanásobně složitější než šachy. Jde však o to, jak ho porazil. AlphaGo zvítězil pomocí tahu, který žádný lidský hráč do té doby nepoužil a který se i zpětně velmistrům jevil nepochopitelný. V současnosti se přitom AI stěhuje z oblasti her do reálného života a kolonizuje v něm sféru za sférou. Nejde zdaleka jen o všudypřítomné hodnocení všeho v případě výrobků a služeb. V některých demokratických zemích například už i soudní systémy přihlížejí k algoritmizovanému posuzovaní nebezpečnosti odsouzených a na základě toho jim vyměřují trest. V těch totalitních hodlají zajít ještě dále, když jako Čína budují celé metodiky sociálního skóre a kreditů, jež mají člověka provázet životem. Některá pravidla těchto metodik jsou součástí promptu, jiná si systém vytváří sám.

To všechno nevyhnutelně nastoluje otázku regulace. Vrátíme-li se na začátek: potřebujeme jako hrdinové sci-fi literatury vědět, zda jednáme s botem, nebo s člověkem? Při vyřizování reklamace na běžecké boty to možná nutné není, ale co v případě diskutéra na sociálních sítích nebo v budoucnu lékaře, který nám diagnostikuje rakovinu tlustého střeva? Odhaduje se, že například na síti X představují příspěvky botů nižší desítky procent, dávno přitom nejde jen o reposty. Jistým minimem by mohlo být, že každý produkt AI, ať jde o text, obraz nebo video, bude zřetelně označen, a to samotnou AI v okamžiku, kdy ho vytvořila. Ve hře je poměrně hodně, a sice padělání lidí. Jestliže je finanční systém založený na tom, že peníze nejde jen tak tisknout, protože by ztratily hodnotu, zakládá se společnost na předpokladu, že aktéry sociálního jednání jsou lidé. Právo rozlišuje fyzické osoby a právnické osoby, nepočítá však zatím s boty. Přesto už soudy projednávaly případy, kdy to byl chatující bot, co člověka navedlo ke zločinu.

Harari upozorňuje i na to, že demokracie historicky závisí na diskusi. Jenže právě tu mohou boti v online prostoru zcela paralyzovat – jsou s to produkovat v minimálním čase a s minimálními náklady nekonečné množství postů, článků a analýz. Co hůř, každá diskuse s botem je ztrátou času: nelze ho přesvědčit, během „výměny názorů“ přinejlepším sbírá informace o svém protějšku.

Existují však i znepokojivější oblasti, než je politická debata, jež lze v neregulovaném prostředí s pomocí umělé inteligence vytěžit nebo zcela přeměnit. Čerstvým trendem jsou AI přítelkyně a partneři, cílící na lidskou intimitu, ať už sexuální, citovou nebo existenciální. Stáhnout si příslušnou aplikaci stojí pár set korun. Avataři vás přímo na obrazovce telefonu vezmou do utopie, kde jsou ti nejatraktivnější těmi nejdostupnějšími a za smysl svého života považují právě vás. A vás. A taky vás. Po společné masturbaci si můžete promluvit například o Heideggerovi, kterého mají přečteného tam a zpět.

Jsme na začátku něčeho, co neznáme. Harari oproti techno-optimistům nejásá a oproti techno-skeptikům nežehrá. Nexus je cenný hlavně tím, že ukazuje, jak se všechny možné sítě podílejí na utváření sociální reality. Vynález písma, rozšíření knihtisku, masová distribuce novin, spuštění rozhlasového a televizního vysílání, připojení k internetu a nyní pronikání AI do všech možných oblastí života, to všechno nějak proměnilo předivo sociálních vztahů a podílelo se na dějinných zvratech. Jeden podle všeho právě zažíváme a spočívá i v tomto: nemáte jak poznat, zda tuto recenzi napsal Jan Němec, nebo umělá inteligence. Můžete samozřejmě věřit šéfredaktorovi Qartalu, že by text od AI neotiskl. Ale pozná to on, nebo zase jen věří Janu Němcovi?

Autor je spisovatel a šéfredaktor časopisu Host