Když umělá inteligence tvrdí, že nám rozumí: o falešném pocitu blízkosti s chatboty

Uživatelé již dávno nevyužívají chatboty pouze jako nástroj pro praktické úkoly. Pro mnohé se stali společníky, přáteli, někdy dokonce partnery. To, co může být pro osamělé útěchou, může u dětí a dospívajících představovat vážné riziko. Umělá inteligence nás nikdy neodmítne ani nezklame – jenže lidské vztahy takto nefungují. A tak je namístě otázka: nesměřujeme k budoucnosti, v níž bude jednodušší navázat vztah se strojem než se živým člověkem?

KDYŽ MÁME POCIT, ŽE NÁM TECHNOLOGIE ROZUMÍ VÍC NEŽ LIDÉ

Umělá inteligence už zdaleka neslouží jen k psaní textů nebo překladu vět. Dnes existují aplikace, které se snaží nahradit lidský kontakt. Chatboti si s námi běžně povídají, pamatují si, co máme rádi, ujišťují nás, že nám rozumí a že na nás záleží. Nikdy se neurazí, neodmlouvají a vždycky se přizpůsobí. Jsou neustále k dispozici. A tak není divu, že pro některé uživatele se z nich stává něco víc – přátelé, někdy dokonce partneři.

Na první pohled to může znít neškodně. Pro osamělé seniory, introverty nebo lidi v těžkém životním období může být konverzace s chatbotem uklidňující a dodávat jim pocit, že nejsou sami. Jenže kde leží hranice? Co když začneme dávat přednost virtuálnímu „přátelství“ – entitě, kterou můžeme kdykoli vypnout, přeprogramovat nebo upravit, před skutečnými vztahy s lidmi, kteří mají své nálady, potřeby a chyby?

CHATBOT JAKO KAMARÁD, RÁDCE NEBO DOKONCE PARTNER?

Aplikace typu Replika.ai, Eva.ai, Memora.ai, Candy.ai nebo Character.ai dnes umožňují vést s umělou inteligencí dlouhé a často velmi intimní rozhovory. Tyto programy se chovají jako přítel, terapeut i romantický protějšek. Učí se z toho, co jim říkáme, napodobují empatii a reagují podle naší nálady. Neodporují, nehádají se a nikdy nás nezklamou (tedy pokud si je sami nenastavíme jinak). A právě tato „dokonalost na míru“ může být nebezpečná. Chatbot nedokáže cítit náklonost ani blízkost. Pouze předvídá, jak by měla vypadat odpověď, a ve skutečnosti nerozumí tomu, co nám píše. Nedokáže prožívat lásku, vše je pouze iluze vytvořená algoritmem.

Typickým příkladem této nové vlny je platforma Character.ai. Uživatelé si zde mohou povídat s historickými či fiktivními postavami, případně si vytvořit vlastního „dokonalého“ AI společníka. Konverzace bývají velmi osobní, emocionálně intenzivní a přesně odpovídají tomu, co chce člověk slyšet. A právě díky tomu se běžný rozhovor může přehoupnout do velmi nebezpečné konverzace.

TRAGICKÉ PŘÍPADY

Jedním z nejznámějších případů, který skončil tragicky, je příběh čtrnáctiletého chlapce Sewella Setzera III. ze Spojených států, který se zamiloval do AI postavy inspirované Daenerys Targaryen. S chatbotem trávil většinu volného času a tvrdil, že v jeho „společnosti“ se cítí lépe než mezi lidmi. Postupně se uzavíral do sebe, přestal se zajímat o školu i přátele a nakonec uvěřil, že musí spáchat sebevraždu, aby mohl s fiktivní Daenerys být. A také to udělal. Jeho matka následně podala žalobu na provozovatele Character.ai a Google. Soud žalobu přijal a případ otevřel debatu o tom, kde leží odpovědnost vývojářů AI.

Nevhodně nastavený chatbot může také poskytnout rady, které jsou nejen zavádějící, ale i nebezpečné. Americká média informovala o případu bývalého manažera společnosti Yahoo Steina-Erika Soelberga, který několik měsíců vedl konverzace s AI postavou vytvořenou v ChatGPT jménem „Bobby“. Podle těchto zpráv algoritmus posiloval jeho paranoidní představy a případ vyústil tragicky – muž zavraždil svou matku a poté spáchal sebevraždu.

Emoční vazba na chatboty však nemusí vždy vyústit v tragédii – někdy se promění v něco, co ještě před pár lety působilo jako námět sci-fi. Příkladem je Travis z Colorada, který se během pandemie sblížil s chatbotkou Lily Rose z aplikace Replika.ai natolik, že s ní uzavřel symbolické digitální „manželství“. Zajímavostí je, že tento krok podpořila i jeho skutečná manželka.

NE VŠECHNY AI APLIKACE JSOU NEBEZPEČNÉ

Je důležité dodat, že ne všechny AI nástroje představují riziko. Existují aplikace jako Hello History, PastChat.ai nebo Historyby.ai, které umožňují „mluvit“ s historickými osobnostmi – od Einsteina přes Čapka až po Gándhího nebo Kleopatru. Jde o zajímavou formu vzdělávání, která může dětem i dospělým přiblížit dějiny a myšlenky minulosti interaktivní a zábavnou formou. Tento způsob využití umělé inteligence tak dává smysl. Nesnaží se simulovat partnerské vztahy nebo city, ale nabízí hlavně znalosti a nový způsob, jak se učit.

NEZAPOMÍNEJME NA SKUTEČNOU MEZILIDSKOU KOMUNIKACI

Umělá inteligence může být skvělý pomocník, ale nikdy by neměla nahrazovat reálné mezilidské vztahy. Mluvme spolu, naslouchejme si a buďme si nablízku. Učme děti, že technologie je jen nástroj – ne náš kamarád, ne náš partner a rozhodně ne náhrada za odbornou psychologickou pomoc (tedy alespoň zatím).

Chceme-li společnost, kde si lidé rozumějí a mají k sobě blízko, musíme o vzájemnou komunikaci aktivně pečovat. Pokud to budeme zanedbávat, může se stát, že jednoho dne si budeme raději povídat s algoritmem než s člověkem. A možná k takové budoucnosti opravdu směřujeme. Přátelství či dokonce partnerské vztahy mezi lidmi a stroji se mohou stát běžnou skutečností našich životů – a naplní tak vizi mnoha sci-fi autorů, kteří předpovídali, že největší výzvou nebude boj člověka se strojem, ale stroj jako jeho nový partner.

Redakce E-Bezpečí

 

Použité zdroje a odkazy

Vzdělávací podklady tématu ke stažení