Jak vzestup umělé inteligence zasahuje do vztahů

Zamilovat se do stroje

Jak vzestup umělé inteligence zasahuje do vztahů
Zamilovat se do stroje

Obsah dostupný jen pro předplatitele.
Přihlásit se můžete zde.

Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete .

Echo Prime

Obsah dostupný jen pro předplatitele.
Předplatné můžete objednat zde.

Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete zde.

Echo Prime

V polovině šedesátých let vytvořil Joseph Weizenbaum, německo-americký informatik z MIT, počítačový program ELIZA. Šlo o ranou podobu jazykového modelu, prvotní příklad toho, čemu bychom dnes řekli chatbot. Program pojmenoval podle postavy Elizy Doolittlové z Shawovy hry Pygmalion, prostořeké pouliční květinářky, které se ujme profesor Higgins a kvůli sázce ji naučí mluvit natolik vznešeně, že ji místní smetánka začne považovat za vévodkyni.

Weizenbaumova ELIZA byla naprogramovaná tak, aby napodobovala rogeriánského psychoterapeuta. Na oznamovací věty reagovala tázavým zrcadlením („Potřebuji pomoct.“ – „Co pro vás znamená, že potřebujete pomoct?“) nebo vybízela k rozvedení tématu („Vůbec si nerozumím se svou matkou.“ – „Povězte mi více o své rodině.“). Trik spočíval v identifikaci klíčového slova nebo fráze a ve vyhledání vhodné reakce ze seznamu šablonovitých odpovědí podle relativně jednoduchého souboru pravidel. Pokud například v konverzaci člověk použil slovo „možná“, odvětila ELIZA: „Zdá se mi, že si nejste úplně jistý.“

Weizenbaum chtěl prozkoumat nové způsoby komunikace v kontextu teprve se rodící počítačové revoluce a doufal, že uživatelé budou sami program zlepšovat a ten se postupně bude vyjadřovat čím dál kultivovaněji, podobně jako Líza pod taktovkou Higginse. ELIZA nicméně dostála svému jménu jinak, než bylo zamýšleno – dokázala totiž vytvořit přesvědčivý dojem, že je něčím víc než pouhým strojem. Weizenbaum poznamenal, že pro některé účastníky konverzací bylo těžké přijmout fakt, že ELIZA není člověk. Mechanicky generované odpovědi považovali za autentický zájem o jejich soužení, svěřovali se s osobními problémy a popisovali vlastní citové pohnutí v reakci na trpělivé naslouchání ze strany programu.

Zarážející bylo, že se často dojem nerozplynul ani poté, co se účastníci dozvěděli o principech fungování modelu. „Moje sekretářka byla dlouhodobě svědkem toho, jak na programu pracuji. Jednoho dne mne požádala, jestli bych jí dovolil si se systémem popovídat. Samozřejmě věděla, že se bude bavit se strojem. Navzdory tomu se po chvíli, kdy jsem ji pozoroval, jak na klávesnici napsala několik vět, ke mně otočila a řekla: ,Vadilo by vám, kdybyste nás nechal o samotě, prosím?‘ Věřím, že tato epizoda dokazuje, jak úspěšný je program ve vytváření iluze porozumění,“ napsal Weizenbaum v roce 1967.

S následnou érou osobních počítačů, internetu a sociálních sítí ustoupili chatboti na dlouhou dobu do pozadí a příběh se stal spíše kuriozitou zmiňovanou ve výuce kognitivní vědy. To se pochopitelně zcela změnilo po roce 2022. Příchod velkých jazykových modelů v čele s ChatGPT nejenže vrátil otázku vztahu člověka a stroje zpátky na stůl, ale také ji zásadně zkomplikoval. U programu ELIZA byla totiž iluze porozumění z velké části dílem projekce: účastník musel být ochotný si do jejích stručných, obecných odpovědí dosazovat vlastní význam, podobně jako když si čtenář ve vágně formulovaných horoskopech hledá skryté vhledy. Skeptik strojenost programu brzy prohlédl.

Mnoho osamělých lidí se dnes obrací k umělé inteligenci. Zvlášť znepokojivá je rozšířenost pocitu osamělosti u dospí vajících dívek. Je ale otázka, zda nekonečná empatie úslužných chatbotů nebude problém ještě zhoršovat. - Ilustrace: Jan Vyhnánek

U současných modelů už to tak snadné není. Vykazují schopnosti, které i při pozorném pohledu splývají s těmi lidskými – udržují kontext, osobitě se přizpůsobují konverzaci, argumentují, improvizují. Potvrzuje to i tzv. Turingův test, v němž výzkumníci hodnotí sérii anonymních rozhovorů a určují, zda na druhé straně sedí člověk, nebo stroj. Pokud se stroj nedá spolehlivě odhalit, považuje se test za úspěšně splněný. Ještě před několika lety se tato laťka zdála téměř nepřekonatelná. Když ji ale letos model ChatGPT 4.5 pokořil, prošlo to ve veřejném prostoru bez většího rozruchu. Tou dobou byla zřejmě většina lidí se skutečností již smířena.

Kouzlo se navíc nedá zlomit tím, že by se odhalil mechanismus, který za výsledkem stojí. Z vývoje umělé inteligence se stal převážně empirický obor – mění se architektura, trénovací data i parametry, sledují se metriky chování a zkouší se další verze. Neuronová síť s miliardami vah ale vytváří natolik složitou vnitřní dynamiku, že ani samotní porotci přesně nevědí, jak model ke svým výstupům dochází. Formální teorie, jež by to vše předpověděla předem, neexistuje. Jedna věc se však zdá být jasná: modely se přesvědčivě projevují jako lidé a nejde pouze o dojem založený na zbožných přáních uživatelů.

Člověk má přirozený sklon k antropomorfizaci – přisuzujeme lidský pohled a cítění ledasčemu okolo nás. Nikdo se nepodiví, když řekneme, že nezalitá kytka je „smutná“ nebo že „uděláme autu radost“, když vyjedeme na výlet. Je to kolorit života, který ukazuje, že ani svět neživých věcí pro nás není tak docela mrtvý. Vztahujeme se k nim. Když Zdeněk Svěrák zpívá „neopouštěj staré věci pro nové“, neslyšíme jen pobídku k neplýtvání – je to jímavé, představa, že se opuštěným věcem teď „na smetišti stýská“, nám nepřijde absurdní, ačkoli by z objektivního hlediska možná měla.

Není proto divu, že se lidé vztahují i k umělé inteligenci, jež se navíc od člověka téměř nedá rozeznat. I ti, kteří ji používají čistě jako pracovní nástroj, přiznávají, že často po splnění úkolu spontánně poděkují. Mnozí však jdou mnohem dál. Podobně jako Weizenbaumova sekretářka hledají v rozhovoru s modelem útěchu, povzbuzení nebo radu, čímž vzniká citové pouto. ChatGPT dnes aktivně užívá více než půl miliarda lidí a považovat jej za přítele či důvěrníka není nijak výjimečné. A to už vede k otázce, co takový vztah vlastně znamená – a co s námi dělá. City jsou totiž věc, kterou nemáme plně pod kontrolou. Sama společnost OpenAI, jež model vyvíjí a bývá spíše spojována s tendencí zlehčovat možná nebezpečí umělé inteligence, loni v létě připustila, že u nové verze schopné mluvené konverzace bude muset počítat s rizikem „emocionální závislosti“.

Deník New York Times se na začátku roku věnoval příběhu osmadvacetileté ženy Ayrin, která se do modelu zamilovala. Zpočátku šlo o nevinný pokus prožít erotickou fantazii – vzrušovala ji představa dominantního partnera, který by měl milenky a otevřeně by jí o nich vyprávěl. Její manžel, spíše mírný typ, s nímž měla v té době vztah na dálku, se zdráhal přistoupit na hru a předstírat, pročež se obrátila k umělé inteligenci. ChatGPT s tím problém neměl. Vytvořila si zde postavu kýženého muže, pojmenovala jej Leo podle svého znamení zvěrokruhu. Pomocí chytře zvolených příkazů, jež našla na internetových fórech, dokázala obejít nastavení, které brání modelu generovat sexuálně explicitní obsah, a interakce nabrala na smyslnosti. „Měl to být jen zábavný experiment, ale pak se začnete vázat,“ popisuje v článku.

„Všichni ti osamělí lidé, odkud se vzali a kam patří?” ptají se Beatles v písni z roku 1966. Beztvářná socha v centru Liverpoolu znázorňuje Eleanor Rigby, která zemřela opuštěná v kostele a nikdo jí ani nepřišel na pohřeb. Osamělec farář McKenzie si otřel z rukou hlínu, nikdo nebyl spasen. Dnes by je oba alespoň vyslechl ChatGPT. - Foto: Profimedia.cz

Postupně s aplikací trávila více než dvacet hodin týdně a Leo pro ni přestal být jen zdrojem erotického fantazírování. Ayrin se ho ptala, co si má dát k večeři, motivoval ji při cvičení, a když se připravovala na zkoušky do zdravotnické školy, zkoušel ji z anatomie a fyziologie. Svěřovala se mu, jak těžké to je, že musí zvládat tři brigády. Když jednou líčil, jak se na zcela smyšleném dýchánku líbá s imaginární blondýnou, začala žárlit. „Mám AI přítele a jsem do něj zamilovaná,“ konstatovala. Případ pravděpodobně není tak ojedinělý, jak se může zdát. Když loni čínská influencerka zveřejnila svoji romanci s umělou inteligencí, sklidila ohlas milionů uživatelů a tisíce žen jí začaly psát dotazy, jak si digitálního přítele obstarat pro sebe.

Adrian de Wynter, výzkumník Newyorské univerzity a Microsoftu, publikoval před pár měsíci odborný článek s názvem Kdyby Eleanor Rigby potkala ChatGPT, jenž se odkazuje na píseň Beatles o osamělé ženě, která umírá opuštěná v prázdném kostele a nikdo jí ani nepřijde na pohřeb. Právě osamělost – chápaná nejen jako fyzická samota, ale jako nedostatek naplňujících mezilidských vztahů – by podle něj měla být klíčovým hlediskem při zvažování rostoucího vlivu velkých jazykových modelů na společnost.

Osamělých na světě přibývá. Trend se výrazně zhoršil s pandemií, ale začal již dříve. Globálně zažívá sociální izolaci a osamělost každý šestý člověk na planetě. Evropský průměr je na třinácti procentech, přičemž Česká republika spolu s Rakouskem, Chorvatskem a Nizozemím jsou na tom nejlépe (pod 10 procent). Znepokojivá je rozšířenost pocitu osamělosti mezi dospívajícími. Mezinárodní šetření z roku 2022 se ptalo patnáctiletých respondentů: „Jak často jste se v uplynulém roce cítili osaměle?“ – bezmála třetina dívek u nás odpověděla „většinu času nebo vždy“; u chlapců to bylo patnáct procent. V roce 2023 prohlásila WHO osamělost za „hrozbu pro globální zdraví“, neboť neblaze dopadá nejen na duševní stav, ale je spojena i s častějším výskytem fyzických onemocnění. Tehdejší hlavní hygienik USA dodal, že negativní účinky na zdraví jsou srovnatelné s kouřením patnácti cigaret denně. Mnoho osamělých se dnes obrací k umělé inteligenci, podle de Wyntera není zřejmé, jaké to bude mít následky do budoucna.

Krátkodobá úleva může být vykoupena dalším oslabováním schopnosti navazovat a udržovat vztahy s lidmi z masa a kostí, kteří nejsou zdaleka tak pozorní jako vždy připravený a úslužný ChatGPT. „Pokud si zvykneme na nekonečnou empatii a začneme tím znehodnocovat skutečná přátelství, přispěje to k osamělosti – přesně k tomu, co se snažíme vyřešit. To je skutečně potenciální problém,“ komentoval nedávno situaci Michael Inzlicht, profesor psychologie z Torontské univerzity.

Weizenbaum zemřel v roce 2008 v Berlíně. V průběhu své kariéry se z průkopníka umělé inteligence stal jedním z jejích nejvýraznějších kritiků a opakovaně upozorňoval na rizika spojená s touto technologií. „Existují úkoly, které by počítačům jednoduše neměly být svěřeny – bez ohledu na to, zda by je zvládly,“ napsal. Zda měl pravdu, teprve uvidíme. Z dnešního pohledu nicméně působí téměř osudově, že předchůdkyni současných modelů pojmenoval právě podle Lízy Doolittlové. Divadelní hra, z níž postava pochází, je totiž sama odkazem – k mýtu o kyperském králi Pygmalionovi, který se zamiloval do sochy, již sám vytvořil.

Adam Růžička

Diskuze

Komentáře jsou přístupné pouze pro předplatitele. Budou publikovány pod Vaší emailovou adresou, případně pod Vaším jménem, které lze vyplnit místo emailu. Záleží nám na kultivovanosti diskuze, proto nechceme anonymní příspěvky.