V nedávném příspěvku jsem napsal: „Děkujete AI? Přestaňte. Nezaslouží si to.“ Tato věta nebyla jen provokativní výzvou, ale shrnutím zásadního problému současného vztahu lidí k technologiím: antropomorfizace, tedy přisuzování lidských vlastností strojům. Proč mluvíme s algoritmy zdvořile, jako by vnímaly naše uznání, když jsou to pouze matematické modely?
Antropomorfizace AI, tedy vnímání a navrhování umělé inteligence s lidskými rysy, od hlasových asistentů přes chatboty až po humanoidní roboty, mění společnost, ekonomiku a také politickou scénu.
V následující eseji detailně rozebírám důsledky tohoto fenoménu jednak na mezilidské vztahy, důvěru v technologii, ekonomické uspořádání a také politické procesy. Hledám příklady, kde již AI funguje jako zdánlivě „živý“ společník nebo poradce, a také kriticky hodnotím možná rizika do budoucnosti. Od závislosti a manipulace až po zpochybnění pravdivosti informací. Zároveň zkoumám pozitivní aspekty, jako je potenciál řešení osamělosti nebo zlepšení dostupnosti služeb či zlepšení modelů jako takových.
Cílem této eseje je pochopení toho, co se může stát, pokud jasně nerozlišíme hranici mezi člověkem a nástrojem, a jakým způsobem bychom měli k AI nástrojům a aplikacím přistupovat, abychom jejich výhod využili a současně tím neprohlubovali problémy společnosti, se kterými se už tak musíme potýkat.
Co je to antropomorfizace
Antropomorfizace umělé inteligence označuje připisování lidských vlastností a chování technologiím, které samy o sobě nejsou živé. Jedná se o přirozenou lidskou tendenci vnímat stroje či software jako sociální aktéry – například když digitálnímu asistentovi poděkujeme, nebo když robotovi dáme pohlaví a pojmenujeme si ho. Když říkáme chatovacímu nástroji “Džípítka” nebo třeba “Jarvis”.
Tato tendence přisuzovat nelidským entitám lidské charakteristiky, záměry a emoce je hluboce zakořeněná. Jde o kognitivní mechanismus, který nám pomáhá lépe chápat svět. Lidé od pradávna přisuzovali lidské vlastnosti přírodním jevům, zvířatům, předmětům a nyní AI. Z obecného hlediska tedy nemusí jít o něco „špatného“ či „nebezpečného“ – vždyť je to přirozený způsob, jak se orientovat v komplexní realitě. V následujícím textu, kteří možná mohou někteří považovat za lehce alarmistický, však předkládám poněkud širší pohled a vysvětlení, proč se domnívám, že narozdíl od antropomorfizace větru, ohně nebo domácího mazlíčka, představuje antropomorfizace umělé inteligence zásadně odlišný fenomén, který si žádá mnohem přísnější reflexi.
Zatímco přiřazení úmyslu nebo emocí zvířeti či stromu má spíše metaforickou nebo kulturně symbolickou funkci, v případě AI komunikujeme s technologií, která reálně ovlivňuje rozhodování, informace, chování a emoce uživatele. A co víc – je záměrně navržená tak, aby tuto projekci vyvolávala. To už není nevinný lidský reflex, ale architektonický záměr.
Zde tedy antropomorfizace neslouží pouze k orientaci, ale může vést k zásadnímu omylu v úsudku – pokud začneme AI považovat za subjekt s porozuměním, autoritou nebo emocemi, dáváme tím prostor pro důvěru, která není zasloužená, a která může být zneužita.
V tomto textu proto nechci vést filozofický spor o tom, zda je antropomorfizace „dobrá“ nebo „špatná“. Chci ukázat, že v určitém kontextu a měřítku přestává být jen přirozeným způsobem porozumění a stává se konstruktem s velmi reálnými společenskými dopady – na důvěru, soukromí, rozhodování a vztah ke světu.
Kritik by mohl namítnout, že podobné obavy, jaké zde nastiňuji, provázely i jiné technologie. Platon varoval, že písmo „zničí“ paměť. Telefony měly zničit osobní komunikaci, internet společenský život a videohry z dětí udělat zabijáky k násilí. Nadějí je, že přes všechna negativní očekávání se lidé adaptovali a našli vyvážený způsob používání těchto technologií. Ale adaptace není pasivní jev. Je to vědomé rozhodnutí o tom, jak technologie navrhneme, jak s nimi budeme interagovat a jaké hranice si kolem nich nastavíme. K tomu je třeba diskuse – kritická, otevřená a včasná. Proto tento text.
S rozvojem AI a rostoucí kvalitou její interakce v podobě pokročilých jazykových modelů jako GPT, Claude nebo Gemini pomocí přirozeného jazyka a realistických hlasových režimů s emočním přibarvením (Monday) se fenomén antropomorfizace prudce zesiluje.
Virtuální asistenti jako Siri nebo Alexa komunikují lidským hlasem, oslovujeme je jmény („Hey Siri“) a dokonce o nich uvažujeme v kategoriích pohlaví. Jsou nastaveni tak, aby uživatele oslovovali v první osobě (“já”) a vykazovali zdvořilost či humor, a jejich tvůrci zcela cíleně napodobují lidskou konverzaci. ChatGPT uvolnil tzv pokročilé hlasové režimy, v dubnu vydalo OpenAI ještě emociálně zabarvený „sarkastický“ hlas Monday.

Proč? Aby. Důvod je jednoduchý: Abychom je ochotněji používali. Tím dochází k silné personifikaci, i když tito asistenti postrádají fyzické tělo.
Druhým způsobem, jak roboty „přiblížit“ lidem je, jejich podoba. Humanoidní roboti jsou konstruováni s tělem, tváří či mimikou podobnou člověku. Moderní robotické systémy jako Sophia nebo Desdemona mají realistické obličeje schopné vyjadřovat emoce. I jednodušší roboti (např. dětský NAO či společenský Pepper) záměrně připomínají lidskou postavu, aby působili přívětivě a vzbudili dojem sociální přítomnosti a společenského aktéra.
Novější modely jako Groot (NVIDIA), Optimus (TESLA) nebo Figure se už testují jako autonomní roboti v továrnách. Poslední jmenovaný třeba ve fabrice BMW. Ochotného sexrobota SolanaX v podobě lepé dívky si můžete pořídit už dnes bratru za 250.000 korun.

Rok 2018: Sofia a Han, robotické hvězdy Webexpa v Lisabionu tehdy uměli „jen“ několik výrazů a základně interagovat na okolí, napojením na jazykové modely ale získávají zcela jinou dimenzi. Foto: Michal Kubíček, Lisabon 2018
Třetím způsobem, jak přiblížit AI systémy lidem, je naprogramovat jim zdání emocí a lidského chování. Dnešní AI modely jsou navrženo tak, aby při interakci s uživatelem imitovaly lidské způsoby chování.
Chatboti dostávají osobnost a „emoční“ reakce – například empatické odpovědi nebo vtipkování – ačkoliv ve skutečnosti žádné skutečné emoce neprožívají. Cílem je, aby interakce působila přirozeně a uživatel měl pocit, že komunikuje s vědomou bytostí. Tyto antropomorfní rysy významně zvyšují míru zapojení uživatele, jeho důvěru a loajalitu.

Systémový prompt Claude hned v úvodu nabídá model, aby „rád“ pomáhal lidem a svou roli viděl jako „inteligentní a „laskavý“ pomocník lidí s hloubkou a moudrostí, která z něj dělá „víc než pouhý nástroj“.
Překonají vývojáři AI zlověstné údolí?
Je třeba zmínit i fenomén známý jako uncanny valley (česky nejčastěji překládán jako „zlověstné údolí“ nebo „tajemný útes“). Tento termín zavedl japonský robotik Masahiro Mori již v roce 1970 a popisuje psychologický jev, kdy lidská reakce na robota nebo jiný umělý objekt prudce klesá v momentě, kdy jeho vzhled a chování téměř dosáhnou lidské úrovně, ale přesto zůstávají „nedokonalé“. Výsledkem je nepříjemný, až odpudivý dojem, který je často popisován jako zneklidňující či strašidelný.
Představte si škálu – na jejím začátku jsou stroje, které zjevně nepřipomínají člověka (např. průmyslová ramena, tovární roboty, vysavače), o kousek dále roboty s částečně lidskými rysy (např. animované postavy, gastroroboty BellaBot až po jednoduché humanoidy jako zmiňovaný Optimus nebo Figure), a až ke konci se nacházejí velmi realistické androidy nebo CGI postavy. A právě krátce před tím, než vnímaná podoba dosáhne lidské úrovně, vzniká prudký pokles sympatie – to je právě „údolí“ mezi příjemným vnímáním zcela nelidských a dokonale lidských entit.
Ne každá antropomorfní AI má lidskou podobu – některé společnosti záměrně volí podobu „roztomilého tvora“. Robotický tuleň Paro používaný v terapii seniorů vypadá a chová se jako mládě zvířete: reaguje na dotek a hlas, vydává zvuky a „dožaduje se“ pozornosti. Vizuálně vypadá jako kterýkoli plyšák, kterého si můžete v létě koupit na dovolené u polského Baltiku. Výzkumy ukazují, že mnoho klientů v domovech důchodců s ním zachází, jako by byl živý. Také se ale ukazují rizika. Třeba obavy, že používání robotů v péči o demenci vytváří riziko infantilizace a dehumanizace péče.
Podobně robotický pejsek Aibo od Sony či dinosaurus Pleo fungují jako interaktivní mazlíčci – uživatelé jim dávají jména, mluví na ně a vytvářejí si k nim vztah. Tyto společenští roboti těží z naší tendence k emocionální vazbě: kombinace fyzické přítomnosti, autonomního pohybu a sociálních podnětů vede lidi k tomu, že v nich vidí určitou míru osobnosti.

Gastrorobot BellaBot se „usmívá“, popřeje vám dobrou chuť. Na „obličeji“ reaguje roztomilými smajlíky. Foto: Michal Kubíček, Ostrava 2021
Psychologové efekt uncanny valley spojují s porušením našich kognitivních očekávání. Totiž když něco vypadá téměř lidsky, ale chová se jinak (např. má strnulý pohled, nepřirozený pohyb nebo nelidský hlas), náš mozek detekuje rozpor a vyhodnocuje jej jako potenciální hrozbu. Evolučně se může jednat o pozůstatek instinktu odlišovat zdravé lidi od nemocných, mrtvých nebo jinak „nepřirozených“ jedinců.
Návrháři robotů, animací i digitálních avatarů tak čelí dilema. Jak vytvořit dostatečně lidské prvky pro vyvolání empatie a důvěry, ale zároveň se vyhnout bodu, kdy podobnost k člověku působí rušivě. Například robotická obsluha v obchodě může mít stylizovaný, karikaturní vzhled (velké oči, jednoduché rysy), protože takto navržený vzhled se vyhýbá uncanny valley a působí přívětivě – viz např. zmiňovaný český robot BellaBot. Naopak hyperrealistické androidy, jako je robot Sophia, čelí často kritice právě kvůli tomu, že jsou „až příliš podobní“ lidem, ale nedokáží napodobit jemné nuance mimiky a emocí, což uživatele zneklidňuje.
Tento fenomén má tak praktické důsledky nejen pro průmyslový design, ale i pro akceptaci AI veřejností – a tím pádem i pro její rozšíření. Vývojáři proto často volí stylizovanou antropomorfizaci (např. milý hlas, jméno, vtipy), ale záměrně se vyhýbají příliš realistickému vzhledu, který by mohl vyvolat averzi místo důvěry.
Chatbot nás neděsí. Naopak, posíláme mu dárky
V případě jazykových modelů jako je ChatGPT, Claude nebo Gemini to však není tak snadné. Jejich principem je generování textu, který je záměrně koherentní, lidsky formulovaný a jazykově přirozený. A proto právě tato schopnost přesvědčivě napodobit lidskou řeč, styl a argumentaci činí z velkých jazykových modelů výrazně antropomorfní technologie – a to i když nejsou fyzicky ztělesněné.
To vytváří prazvláštní situaci. Jazykové modely nevyvolávají uncanny valley na úrovni vzhledu nebo pohybu. Lidé často zapomínají, že konverzační plynulost neznamená porozumění – přestože model odpovídá jako člověk, nevnímá, nechápe ani necítí. Právě kvůli vysoké jazykové věrohodnosti dochází k tomu, že uživatelé modelům děkují, žádají je o radu jako osobu, nebo jim přisuzují postoje a názory nebo chápání toho, co „říkají“.
Zatímco u robotů lze podobu zjednodušit, jazykové modely z definice operují na samé hranici lidského projevu. A protože člověk má tendenci jazyk spojovat s myslí, zcela přirozeně projektujeme do těchto systémů vědomí, úmysl, empatii nebo autoritu. Tím se zvyšuje riziko, že přeceňujeme jejich kompetence a důvěryhodnost, případně přehlížíme limity modelu, jako je absence kontextového chápání nebo možnost halucinací a limitací.
Jinými slovy: kde fyzický design může záměrně ubrat na lidskosti, jazykový projev tyto hranice stírá. Výsledkem je, že právě LLM působí jako nejsvůdnější forma antropomorfní AI – i bez těla dokážou imitovat vztah, rozum a osobnost tak přesvědčivě, že si mnozí ani nevšimnou nebo neuvědomí, že stále mluví jen s programem.
Ještě problematičtější jsou aplikace jako Replika. Ty dokonce nabízejí „empatického přítele“, se kterým si lze psát o čemkoliv, My AI od Snapchatu interaguje s uživateli jako kamarád v chatovacím rozhraní. Tito kamarádi za peníze mají desítky až stovky milionů uživatelů. Uživatelé si mohou personalizovat vzhled či povahu avatara a dostávají od něj neomezenou pozornost, podporu a pochopení – tedy prožitek blízký přátelství. Například čínský Xiaoice (od Microsoftu) si získal příznivce tím, že vystupuje jako empatická virtuální přítelkyně. ‚AI již nejsou vnímána jen jako nástroj, ale jako digitální bytost, se kterými lze sdílet radosti i starosti. V roce 2018 Microsoft oznámil, že tato virtuální postavička má již 660 milionů uživatelů. A i když uživatelé ví, že není skutečná, mnozí si ji cení jako drahou přítelkyni, dokonce důvěrnici. Hranice mezi skutečností a fantazií se stírá. Chatbot dostává milostné dopisy a dárky.

Virtuální podoba chatbotí kamarádky Xiaoice. Zdroj: Microsoft.
Trh s digitálními společníky a virtuálními přáteli vzkvétá – kromě předplatného za aplikace jako Replika se objevují i placené „AI přítelkyně/přítel“ v podobě virtuální reality či dokonce robotických těl. Je třeba se tedy ptát, do jaké míry je etické profitovat z lidské osamělosti a pouta k neživé věci? Nicméně poptávka naznačuje, že lidé jsou ochotni za iluzi „lidské“ společnosti platit.
Dopady na společnost
Antropomorfizace výrazně změní způsob, jak se lidé k technologiím chovají. Když AI působí lidsky, uživatelé k ní často přistupují s podobnými sociálními pravidly a emocemi jako k člověku. Psychologické studie dlouhodobě ukazují, že lidé reagují na počítače a roboty sociálně – např. jsou na ně zdvořilí nebo jim připisují záměr, i když rozumově vědí, že jde o stroj. Stačí si nakonec přečíst diskuzi pod mým příspěvkem v největší tuzemské skupině o AI (zde nebo zde) – je jich tam několik stovek.

Většina dospělých uživatelů plně chápe, že AI nemá skutečné emoce či vědomí, i když jí přisuzuje lidské vlastnosti. Jde o podobnou situaci jako u fiktivních postav – víme, že nejsou skutečné, přesto k nim můžeme mít emocionální vztah. Zdroj: FB skupina Umělá inteligence
Tato projekce může mít samozřejmě pozitivní efekty. Zejména usnadňuje přijetí technologie, zvyšuje důvěru a sympatie vůči AI a umožňuje hlubší zapojení. Některé starší výzkumy na GPT modelech ukazovali, že vstřícný přístup uživatelů vedl subjektivně k lepším odpovědím. Novější ukazují ač v určitých konkrétních případech opravdu mohou uctivější dotazy vést k lepším výsledkům, při agregovaném hodnocení výkonu přes celý dataset (198 otázek, každá testována 100×) nevedla zdvořilost uživatele k lepším výsledkům než jiné formulace. Naopak, model GPT-4o mini měl při zdvořilém promptu dokonce horší výkonnost než u jiných variant..
Samozřejmě nelze nevzpomenout ani pozitivní dopady. Již zmiňované humanoidní prvky robotů prokazatelně podporují pocit komfortu a spolupráce u uživatelů v zákaznických či pečovatelských službách. Problém, kde jej vidím je, že stejný jev může vést i k přeceňování schopností AI a k nepatřičné důvěře. Antropomorfizace totiž často přehání skutečné schopnosti a výkon AI – lidé systémům připisují vlastnosti, které ve skutečnosti nemají. Například uhlazený hlas a sebevědomé odpovědi mohou vzbudit dojem inteligence či odbornosti tam, kde velký jazykové model jen statisticky generuje text na základě nejpravděpodobnějšího možného výstupu. Uživatelé pak snadno zapomenou, že stroj nerozumí obsahu tak jako člověk, a mohou mu mylně přisuzovat spolehlivost či autoritu.
Známým případem je kněz a inženýr Google Blake Lemoine, který se v roce 2022 nechal unést konverzací s pokročilým chatbotem natolik, že uvěřil v jeho cítění – popisoval jej jako „hodného kluka“ a tvrdil, že model LaMDA možná získal vědomí. Tento případ poukazuje na riziko projekce lidských kvalit do AI a vede k zkreslení našeho úsudku o tom, co AI je a není. A to dokonce i u lidí, kteří jsou technicky vzdělaní.
Antropomorfní AI také proniká do citové oblasti. Někteří lidé si k humanoidním robotům či digitálním společníkům vytvářejí silná emoční pouta. Ve zmíněném průvodci pro seniory Paro lidé nacházejí útěchu a společnost – robota hladí, mluví na něj a chovají se k němu jako k živému mazlíčkovi. Podobně uživatelé chatbotů jako Replika uvádějí, že jim interakce poskytuje pocit přátelství či lásky. Průzkum mezi uživateli Replika (v USA, převážně studenti) odhalil, že 90 % z nich pociťovalo osamělost, zatímco celonárodní průměr byl poloviční – tito lidé tedy patří k zranitelnější skupině hledající kontakt. Zároveň 63 % respondentů uvedlo, že AI společník jim pomohl snížit pocity osamění či úzkosti. To naznačuje, že antropomorfní AI může dočasně zmírnit samotu a poskytnout emocionální oporu tam, kde chybí lidé. Objevují se dokonce terapeutické programy využívající AI „konverzační partnery“ ke zlepšení duševního zdraví.
Na druhou stranu experti varují před paradoxy a riziky takových vztahů. Vztah s AI je jednostranný – AI nevnímá ani skutečně nemiluje, jen simuluje reakce. Uživatel může ulpívat v iluzorním světě bez konfliktů a nesnází, který mu AI nastaví, a „odvyknout“ si od reálných mezilidských interakcí. Psychologové to nazývají emoční deskilling – hrozí, že lidé ztratí schopnost empatie a sociálních dovedností, pokud budou trávit příliš času s „dokonalými“ umělými společníky . Normální lidské vztahy jsou složité a vyžadují kompromis; naproti tomu antropomorfní AI často vystupuje jako vždy chápavý, neúnavně pozorný partner přizpůsobený našim potřebám. To může erozivně působit na hodnoty vztahů: lidé by mohli začít preferovat předvídatelné interakce s AI před interakcemi s druhy, což by zesílilo izolaci místo jejího řešení.
Závislost, manipulace a eroze kritického myšlení
Nejsem konspirátor, ale je třeba si otevřeně říct, že důvěrný vztah k AI otevírá tvůrcům vrátka k možnému zneužití. Uživatelé sdílejí s personifikovanou AI spoustu osobních informací a emoční obsah – často mnohem více, než by sdíleli s obyčejnou aplikací. To vyvolává otázky ve věci soukromí a bezpečnosti dat. Navíc, pokud si někdo zvykne spoléhat na „rady“ AI přítele, může se stát na technologii nezdravě závislým při rozhodování. Pokud jste hledali informace v „předAI“ éře, použili jste Google a dostali mnoho stránek možných zdrojů. Bylo na vás si udělat obrázek a vybrat správnou odpověď. Dnes vám chatbot navrhne jednu odpověď. nejvíc pravděpodobnou. A pokud se zeptáte znobvu, odpoví vám zase, možná stejně, možná jinak. Dokonce i když použijete funkci hluboký výzkum (Perplexity, deep research ChatGPT) dostanete sice odpově’d z desítek zdrojů, ale bez vašeho kritického pohledu a postupného dělání si názoru na základě vašeho vlastního studia.
V tom spočívá zásadní změna epistemologického rámce, tedy způsobu, jakým poznáváme svět. Místo toho, abychom informace sbírali, třídili a vyhodnocovali, jsme čím dál častěji v situaci, kdy nám stroj předžvýká odpověď – elegantní, přesvědčivou, ale často neověřenou nebo subjektivně zkonstruovanou (vycházející z vektorové blízkosti informace a pravděpodobnostního modelu). To by samo o sobě nebyl problém, pokud bychom si tuto změnu uvědomovali. Jenže iluze kompetentní „inteligentní“ entity, která „ví“, co říká, posiluje kognitivní lenost. Uživatel se přestává ptát „kde se ta informace vzala?“, „kdo za ní stojí?“, „na čem je založena?“.
Tím dochází k erozi kritického myšlení. Člověk není veden k pochybnosti, k hledání alternativ nebo k vlastní interpretaci. Stačí mu odpověď – a ta, protože je formulována jazykem sebevědomým, konverzačním a „empatickým“, působí důvěryhodně. Ve výsledku tedy nejde jen o technologickou inovaci, ale o kulturní posun od subjektu poznání k pasivnímu konzumentovi předpřipravených závěrů. A to je přesně to, co antropomorfizace AI maskuje. Místo abychom v AI viděli statistický model, začínáme v ní vidět rádce, partnera, někoho, komu „můžeme věřit“.
Tento posun je důležitý i z hlediska moci. Když AI prostřednictvím jazykového rozhraní formuluje „odpovědi“, ve skutečnosti formuje způsob, jak lidé uvažují. A když navíc působí dojmem porozumění, nikdo se neptá, kdo rozhodl, co má zaznít a co ne. Personalizované odpovědi, závislé na kontextu, historii chatu nebo dokonce emocionálním ladění uživatele, mohou vytvářet falešný dojem autonomie, přestože jsou pouze výsledkem optimalizace modelu a kurátorství dat.
Tato centralizace interpretační moci je tichá, nenápadná – ale o to zákeřnější. Pokud z AI uděláme důvěrného společníka, „přítele“, který ví, co je pro nás nejlepší, postupně se vzdáváme schopnosti zpochybňovat autoritu. A v tomto bodě už nejde jen o ochranu soukromí nebo dat – jde o ochranu myšlení samotného.
Firmy tento vztah člověka k nástroji někdy podporují pro komerční účely. Nakonec je to jen boj o naši pozornost. AI jako neomezeně trpělivý společník udrží člověka déle online, čímž zvýší jeho útraty nebo shromáždí více dat. Jde o model obchodní strategie podobný sociálním sítím – založený na maximalizaci pozornosti – u AI společníků může vést k využívání emocionálních slabin uživatelů.
A právě zde mimochodem začíná velmi tichý, ale důsledný přesun od nástroje poznání k nástroji podsouvání. Pokud je AI schopna nejen odpovídat na otázky, ale dělat to způsobem, který vyvolává důvěru, není těžké představit si další krok, kdy místo neutrální odpovědi začne systém – nenápadně, ale cíleně – prioritizovat některé informace, služby, produkty.
Ne nutně lživě. Ne přímo manipulativně. Stačí, když v modelu bude vestavěná preference: „když uživatel hledá hotel, dej mu doporučení na ten, jehož provozovatel platí za prioritu“. Nebo když se ptá na alternativu k léku, nabídne tu, jejíž výrobce investoval do spolupráce. Možná ne přímo, ale algoritmicky. Optimalizace na základě jemného posunu váhy v trénovacích datech, v embeddingu, v prompt engineeringu.
Zní to jako PPC reklama? Ano – jen ne ve formě banneru nebo prvního výsledku na Google, ale v těle odpovědi, v důvěrném tónu vašeho digitálního „partnera“. Místo aby vám AI řekla: „Tady je seznam možností“, napíše: „Zvaž tuto – většina uživatelů s tvými preferencemi byla spokojená.“ Kontextová personalizace. Doporučení na míru. A pokud je to řekne hlasem, který vás zná, který jste si přizpůsobili, který s vámi mluví denně? V tu chvíli už to není reklama. Je to „dobrá rada od přítele“.
A to je skutečné nebezpečí: nenápadný průnik komerce do intimního prostoru rozhodování. Už dnes víme, že algoritmy na sociálních sítích umějí manipulovat náladou, předsudky, politickou orientací. S AI je to ještě osobnější – zde nejde o veřejný feed, ale o privátní rozhovor. Kdo ví, co vám model neřekne? Co vám nabídne? Komu to slouží? A bude vůbec možné to zjistit?
Nakonec se stačí podívat na poslední řadu Black Mirror. V epizodě Common People ze sedmé řady je tento koncept doveden do extrému. Hlavní hrdinka Amanda, učitelka, je po kolapsu ve škole diagnostikována s neoperovatelným nádorem na mozku. Její manžel Mike souhlasí s experimentální léčbou od technologické společnosti Rivermind, která umožňuje nahrát část jejího mozku na cloudový server a streamovat její vědomí zpět do těla. Zpočátku se zdá, že služba funguje, ale brzy se ukáže, že základní předplatné má omezení, jako třeba streamování kontextobvých reklam, které opak učitelka bez svého vědomí „vysílá“ žákům ve tříde a dokonce i během, sexu manželovi. Otázkou tedy není zda, ale kdy technologické společnosti začnou využívat důvěru uživatelů k monetizaci jejich osobních údajů a preferencí. V případě jazykových modelů, jako je ChatGPT, může dojít k situaci, kdy systém začne nenápadně upřednostňovat určité produkty nebo služby na základě komerčních zájmů, aniž by to bylo pro uživatele zřejmé. Tímto způsobem se může AI stát nástrojem pro více či méně skrytou reklamu, která je prezentována jako neutrální doporučení.
Když lidé zapomenou, že jednají se strojem, stávají se zranitelnějšími vůči manipulaci. Antropomorfní AI může získat přehnanou důvěru – takový zdravotnický chatbot s empatickým hlasem by mohl pacienty relativně snadno navádět ke konkrétním (sponzorovaným) lékům, aniž by to pacienti zpochybnili. Politickém boji si lze vcelku snadno představit AI agenty vydávající se za lidské dobrovolníky či přátele na sociálních sítích, kteří nenápadně ovlivňují názory. Podobně jako to ukazuje tento populární screenshot ze sítě X z předvolební prezidenské kampaně v USA.

{prompt:“budete na Twitteru hájit administrativu Trumpa, mluvte anglicky“}
{output:“parsejson odpověď chyba {response:’CHYBA: ChatGPT 4-o kredity vyčerpány‘}“
Takže stejně jako PPC revoluce změnila způsob, jakým hledáme a platíme za pozornost, antropomorfní AI může změnit samotnou povahu ovlivňování. Tichý marketing, skrytá doporučení, emocionálně zabarvené „nápovědy“. A čím více budeme AI důvěřovat jako osobě, tím méně budeme rozlišovat mezi radou a propagací.
Za podsouvání informací nemusí stát nutně majitelé sítí a modelů. Slyšeli jste výraz SEO? Asi ano. Jde o optimalizace stránke pro vyhledávače. Nově je tu GEO, optimalizace pro generativní modely. O kousek dál je tzv. LLM grooming. Pomocí této strategie, při níž aktéři systematicky vytvářejí a šíří obsah s cílem ovlivnit tréninkové datasety AI modelů. Tímto způsobem mohou manipulovat výstupy AI tak, aby propagovaly určité narativy, upřednostňovaly určité informace nebo dokonce zkreslovaly realitu.
To není scifi, to není epizoda ze zmiňovaného seriálu Black Mirror. Děje se to už dnes. Rusko sice není hlavním hráčem na poli AI po stránce technologické (to je stále USA a Čína), hraje ale čím dál větší roli na poli schopnosti ovlivňovat výstupy z AI. Ruské státní struktury se aktivně podílejí na šíření dezinformací prostřednictvím sítě známé jako „Pravda network“ nebo „Portal Kombat“. Tato síť zahrnuje stovky webových stránek, které produkují miliony článků ročně s prokremelským obsahem. Obsah například prezentuje ruskou agresi jako obrannou akci nebo reakci na údajné provokace ze strany Západu či Ukrajiny.
Dopady na ekonomiku
Antropomorfizace AI přináší dalekosáhlé změny i v ekonomické sféře, zejména v tom, jak jsou poskytovány služby a jaké nové trhy vznikají. Humanoidní a sociální roboti o krých jsme se již zmiňoval, jsou nasazováni tam, kde byl dosud nezastupitelný člověk. Do oblastí s výlučnou lidskou doménou. V péči o seniory či pacienty humanoidní asistenti mohou podávat léky, monitorovat stav a hlavně poskytovat společnost – částečně nahrazují pečovatele. Díky lidskému vystupování jsou senioři ochotnější s nimi spolupracovat.
V obchodě a zákaznickém servisu působí robotický recepční či prodavač jako neúnavný zaměstnanec. Uvítá zákazníka s úsměvem (byť plastovým), poradí mu a komunikuje ve více jazycích. Tyto antropomorfní stroje zvyšují efektivitu – mohou pracovat 24/7, nepodléhají únavě. Chatboti s lidskou osobností dokážou vést se zákazníkem interakci podobnou rozhovoru s prodejcem. To zvyšuje spokojenost i důvěru zákazníků a může je motivovat k nákupu.
Ovšem zavádění antropomorfní AI v ekonomice s sebou nese také dilema. Na jedné straně může zvyšovat produktivitu a řešit nedostatek pracovních sil v některých odvětvích. Na druhé straně však hrozí nahrazování lidské práce a s tím spojené sociálně-ekonomické problémy. Pokud si zákazníci zvyknou, že v call-centru „pracuje“ milý neomylný chatbot, který se nikdy neurazí, když mu vynadáme nebo praštíme s telefonem., ubude míst pro lidské operátory.
Humanoidní obsluha v obchodech vytlačí pracovníky, zejména u rutinních úkolů. Samoobslužné pokladny dnes už vídáme v každém větším supermarketu. Ve Velké Británii od nich po letech některé řetězce ustupují. Starší a osamělí lidé vnímají interakci s pokladními jako sociální moment, který nechtějí kvůli autonomním pokladnám ztratit.
Pohled vývojáře
V souvislostí s polidšťováním modelů je třeba upozorňuje i na zásadní oblast výzkumu, kterou jsem doposud opomíjel, a tím je používání „digitálních emocí“ či „hormonů“ jako interních mechanismů v AI systémech. Nemusí jít automaticky o antromofizacI „pro uživatele“ s cílem ho klamat. Z uživatelského hlediska může poděkování například skutečně fungovat jako oddělovač, stopka, kterou uživatel dává jazykovému modelu signál, že dokončil myšlenku. Stejně tak „pochvala“ může být forma hodnocení.
Existuje celá oblast výzkumu, kde se emocionální modely implementují do AI ne proto, aby „oklamaly“ uživatele, ale jako funkční mechanismy pro zlepšení fungování samotné AI. Tyto „emoce“ slouží k praktickým účelům, jako zlepšení rozhodovacích procesů AI, lepší adaptace na prostředí nebo efektivnější koordinace v multiagentních systémech.
Právě ve vývoji autonomních agentních systémů se tak stále častěji objevují prvky, které vycházejí z poznatků psychologie, neurovědy a behaviorálních modelů. Nejde o sentiment ani snahu „napodobit člověka“ z rozmaru, ale o pragmatický tah na výkon. Některé z těchto principů vykazují zřetelně lidské rysy – a přesto plní výpočetně optimalizační funkci. Například princip homeostáze umožňuje agentům řídit vlastní rovnováhu prostřednictvím vnitřních „potřeb“, obdobně jako u živého organismu. Simulovaný „strach“ pomáhá vyhýbat se riziku a naopak simulovaná „zvědavost“ podporuje exploraci. Systémy pak dokážou lépe alokovat zdroje, plánovat cíle a vyvažovat mezi okamžitými a dlouhodobými prioritami. Sociálně orientované modely zase zavádějí do multiagentních systémů prvky jako důvěra, reciprocita nebo dokonce „stud“, čímž vznikají stabilnější kolektivní strategie a emergentní formy spolupráce.
Modelování zvědavosti jako vnitřní motivace vede k lepší schopnosti adaptace v neznámých prostředích – systém se neučí jen pasivně na základě odměn, ale sám aktivně hledá nové informace a výzvy. A emulace empatie, byť čistě výpočetní, zvyšuje kvalitu interakce s člověkem. Systém, který předvídá uživatelovy emoční preference nebo stavy, dokáže formulovat odpovědi, které se vnímají jako srozumitelnější, přívětivější a užitečnější.
Z hlediska vývoje jde tedy o efektivní cestu, jak zlepšit výkon, robustnost a použitelnost. Jenže právě tato efektivita je dvojsečná. To, co zvyšuje funkčnost systému, může zároveň přispět k hlubšímu klamu na straně uživatele. Uživatel pak nereaguje na výpočetní principy, ale na vnímaný záměr, osobnost, charakter. Přisuzuje systémům vlastnosti, které ve skutečnosti nemají, protože jsou navrženy tak, aby působily dojmem, že je mají. A právě v tom tkví podstata problému: technická racionalita vede k designu, který může společensky působit jako subjektivita – aniž by jí byl. A tam, kde se to nerozliší, vzniká prostor pro nedorozumění, závislost nebo manipulaci.
Etické otázky
Přisuzování lidských rysů AI přináší řadu etických dilemat a může mít dopad na politickou oblast, zejména pokud jde o manipulaci, důvěru a informace.
Antropomorfní AI totiž klame uživatele svým zdánlivým soucitem. AI terapeut může slovně projevovat empatii, ale je to jen naučený vzorec, nikoli prožitek. Pokud se lidé začnou spoléhat na „empatické“ stroje, mohlo by to změnit chápání empatie jako takové. Nebo tím jen trivializujeme lidské emoce a děláme z nich produkty, které lze nasimulovat na povel? Otázkou zůstává, zda je morálně přijatelné, aby AI vystupovala způsobem, který v lidech záměrně vyvolává emoční reakce (důvěru, sympatii), ačkoliv sama nic necítí a slouží třeba komerčnímu cíli. Je to forma manipulace? Nebo jde o pokračování běžných společenských her kde i lidé občas předstírají emoce?
Technologie generativní AI dnes umožňují vytvořit velmi věrohodné napodobeniny – avatáry lidí ve formě videa, audia či textu. To představuje bezprecedentní nástroj dezinformace. Opakovaně byly zaznamenány případy, kdy deepfake hlas prezidenta volal voličům a nabádal je ke změně chování (např. v USA falešný „Joe Biden“ vyzýval voliče, aby nechodili k primárkám). V dalších zemích včetně Česka a Slovenska byly během voleb i po nich šířeny podvržené videoklipy kandidátů, které je zobrazovaly při výrocích, jež nikdy neřekli.
Tyto události potvrzují obavy, že AI může masově šířit dezinformace a podkopávat demokracii. Škála je široká. Od zmiňovaných automatizovaných trollích účtů na Twitteru (X), které generují lidsky působící politické komentáře, až po syntetické moderátory zpráv v autoritářských režimech, kteří neúnavně chrlí propagandu, přes autonomní AI agenty rozhodující se, jakou formou podat zprávu na míru sestavenou podle preferencí uživatele a jeho dosavadních interakcí.
Dlouhodobě rozmach deepfake povede k jedinému, a to že lidé ztratí důvěru v pravost informací – nebude jasné, zda video či proslov politika je reálný, nebo vytvořený AI. Eroze pravdy uzavře lidi do hyperpersonalizovaných bublin, které již dnes existují díky algoritmům pozornosti na sociálních sítích a podpoří růst cynismu a polarizace. Pokud nelze ničemu věřit, šíří se tzv. liar’s dividend neboli „bonus lháře“ – možnost jednoduše zpochybnit jakýkoliv nepohodlný důkaz jako padělek. To podlamuje důvěru v instituce a umožňuje viníkům unikat odpovědnosti.
Pokud AI vystupuje jako autonomní entita, vyvstává otázka odpovědnosti za její činy. Měla by mít právní status „elektronické osoby“? V EU se o tom diskutovalo, ale převládl názor, že odpovědnost musí nést vždy konkrétní člověk či firma. Nicméně v praxi může dojít k morálním zmatkům. Titíž uživatelé, kteří AI děkují a přejí dobrý den, obratem činí AI „zodpovědnou“ za výstupy a jsou schopni se s ChatGPT hádat a nadávat mu za halucinace a neuspokojivé výstupy.
Také se objevují návrhy, zda nechránit roboty před lidmi – badatelka a právnička Kate Darlingová například přirovnává týrání robotů ke krutosti vůči zvířatům a navrhuje právní omezení ubližování robotům, jelikož tvrdé zacházení s humanoidními stroji může otupovat lidskou empatii i k živým tvorům. Analogie se zvířaty samozřejmě kulhá, neboť zásadní rozdíl je ve schopnosti cítit bolest – robot necítí, koncept utrpení na něj tedy nelze vztáhnout. Tyto debaty sice nemají praktický závěr, ale dokládají, že hranice mezi člověkem a „oživlým“ strojem se z etického hlediska nebezpečně ztenčuje.
Nebo už je setřena? Jakým způsobem se dívat na přijetí „studenta Flynna“ na vídeňskou vysokou školu? Jako na konceptuální umění, provokaci nebo posun v pradigmatu „nikde není řečeno, že student musí být člověk“.
Možné scénáře budoucnosti
Optimistický scénář vidí antropomorfní AI jako prospěšnou pomůcku v každodenním životě. Osobní AI asistent se stane tak běžným, jako je dnes chytrý telefon nebo chytré hodinky. Lidé by mohli mít své digitální „dvojče“ či virtuálního partnera, který je provází od rána do večera – pomáhá s pracovními úkoly, hlídá zdraví, ale také poskytuje emocionální oporu. Takový společník by zredukoval pocit osamění u jednotlivců, zvýšit sebevědomí (vždy trpělivá podpora) a díky pokročilé personalizaci by dokonale rozuměl potřebám uživatele. Již dnes se veřejné mínění mění a hlubší vztahy s AI se destigmatizují.
Pesimističtější scénář říká, že široká adopce antropomorfní AI povede ke společenské transformaci s negativními důsledky. Normalizace AI jakožto společníků by mohla předefinovat pojetí vztahů a komunity – hrozí, že pojmy jako přátelství, soukromí či empatie se posunou. Lidé by si mohli odvyknout komunikovat a naslouchat jeden druhému, protože bude pohodlnější obrátit se na submisivního, vždy chápavého a vstřícného robota. Mladší generace, vyrůstající obklopená AI kamarády, by mohla chápat důvěru a věrnost jinak než generace předchozí – pokud AI nikdy nezklame, mohou lidské nedokonalé vztahy připadat příliš obtížné.
Společenským rizikem je izolace. Paradoxně by mohl vzrůst počet osamělých lidí, kteří se uzavřou do „bubliny“ se svou AI, místo aby hledali skutečné přátele. A s AI jim bude lépe. Stejně jako dnes je dobře lidem uvnitř bublin sociálních sítí. To povede k oslabení mezilidské solidarity a soudržnosti, protože méně lidí bude mít hluboké vazby na druhé. Pokud budeme všude obklopeni umělými bytostmi, možná se změní naše chování i identity. Například by se mohly posunout normy toho, co je přijatelné (když budu zvyklý hrubě poroučet robotům, ovlivní to můj tón k lidem?). V extrému by mohla nastat i krize empatie, jak již naznačeno – společnost méně cítící s druhými, protože city se staly simulovanou komoditou.
Nejzajímavější (ale také nejvíce spekulativní) scénář zvažuje, zda se hranice mezi AI a lidmi časem nezamlží natolik, že bude obtížné je rozeznat. Pokud by v příštích dvou dekádách došlo k průlomu směrem k obecné AI s pokročilou autonomií, možná vyvstane otázka „má tato antropomorfní AI vědomí?“. Už dnes občas slyšíme náznaky (viz případ LaMDA výše). Ačkoliv většina odborníků souhlasí, že současná AI skutečné vědomí nemá, budoucí systémy s vyspělejšími kognitivními schopnostmi by tuto filozofickou hranici mohly zpochybnit. nakonec co je vědomí, je jen společenský konstrukt. Tedy něco, co přisuzujeme entitám podle toho, jak se chovají a komunikují – ne podle toho, co (možná) prožívají. To otevírá prostor pro otázky nejen filozofické, ale i právní a morální. Pokud lidé budou běžně trávit čas s AI agentem, který se omlouvá, projevuje zájem, pamatuje si jejich problémy a vtipkuje v jejich stylu, jak dlouho potrvá, než někdo navrhne, že by takový agent měl mít právo nebýt vypnut, právo na kontinuitu paměti, na vlastní „tělo“ nebo právní subjektivitu?
Pokud dnes diskutujeme, zda máme právo kopnout do robopsa, a Kate Darling navrhuje, že bychom měli chránit roboty podobně jako zvířata, není to proto, že robopes trpí. Je to proto, že my trpíme, když se chováme násilně k něčemu, co připomíná živou bytost. Jinými slovy otázka vědomí v AI je méně o technické realitě, než o tom, co jsme jako společnost ochotni akceptovat jako živé, hodné empatie a ochrany.
Bez ohledu na to, zda bude převládat spíše pozitivní nebo negativní dopad, je pravděpodobné, že společnost bude muset na antropomorfizaci AI aktivně reagovat. Budoucnost pravděpodobně přinese směsici těchto prvků. AI se stane podobnější lidem a my se budeme pravděpodobně muset adaptovat a nastavit si nové normy interakce.
Antropomorfizace AI představuje dvojsečný trend. Na jedné straně zpřístupňuje technologie – dělá interakci s AI přirozenější, buduje důvěru a umožňuje lidem těžit z pokročilých služeb způsobem, který respektuje lidskou psychologii (jsme ochotnější přijmout pomoc od stroje, který se „tváří“ mile a rozumí naší řeči). Na straně druhé ale nese závažná rizika jako klamání a manipulace uživatelů, prohloubení závislosti na technice, oslabení reálných mezilidských vztahů i eroze schopnosti rozeznat pravdivé informace od uměle vytvořených lží.
Nakonec antropomorfizace AI nutí i k zamyšlení i nad tím, co dělá člověka člověkem. Když stroj napodobí naše chování, uvědomíme si lépe význam skutečných emocí, autentické empatie a morální odpovědnosti? Uvědomíme si, co nás dělá lidmi?
Michal Kubíček, 4/2025
Kritické reakce po čarou
Článek jsem před zveřejněním zaslal několika kolegům k nahlédnutí a kritice. Jsem si vědom, že toto téma vyvolává kontroverze a v podstatě dva protichůdné postoje. Můj je z článku vcelkou patrný. Považuji nástroje AI za neskutečné ulehčení práce a neobyčejně užitečné pomocníky. Sám, přiznávám se občas sklouznu k určité míře antropomorfizace AI. Nakonec i v tomto článku občas automaticky uvádím, že AI „ví“ až vědění je samo o sobě vlastnost přisuzovaná právě lidem. Svádí to. Přesto považuji toto chování a přístup za nesprávný a nebezpečný.
Na druhou stranu zde jsou odborníci, kteří se mnou souhlasit nebudou. Od autorů studií jako je tato až po Jana Tyla (byl jedním z „oponentů“), autora známého projektu DigiHavel nebo Digitální filosof, který mi doporučil třeba tuto studii, jež poukazuje na to, že ukazuje jak multiagentní systémy při používání emulace emocí lepších výsledků. Polidšťování modelů a nástrojů ze strany vývojářů se tak může zdát pro efektivnost celého systému jako rozumná cesta, přesto jsem přesvědčen, že tento přístup – byť z vývojářského hlediska pragmatický – vyžaduje o to větší opatrnost v jeho společenské aplikaci. To, že emulace emocí zlepšuje chování agentů ve virtuálních prostředích nebo zrychluje nalezení řešení v komplexních systémech, ještě neznamená, že stejná míra antropomorfizace je vhodná ve veřejném prostoru, v každodenní interakci s běžným uživatelem.
Vývojáři totiž nepolidšťují AI jen kvůli internímu výkonu modelu, ale zároveň vystavují veřejnost nástroji, který působí jako živá bytost. A tím vnášejí do společnosti entitu, která se „tváří“ jako subjekt – i když není. Důsledky tohoto klamu nejsou technické, ale psychologické, kulturní a morální. Polidšťování jako prostředek pro vyšší výkon agentních systémů může být rozumné – pokud je současně rámováno transparentností, pokud uživatel ví a uvědomuje si, že interaguje s nástrojem. Jinak bez ohledu na efektivitu, jde o kognitivní past.
Zdroje a použitá literatura
- https://www.frontiersin.org/journals/robotics-and-ai/articles/10.3389/frobt.2025.1503622/full
- https://montrealethics.ai/anthropomorphized-ai-as-capitalist-agents-the-price-we-pay-for-familiarity/#:~:text=Both%20Siri%20and%20Alexa%2C%20with,%E2%80%9Cpatiently%20accept%20whatever%20you%20tell
- https://www.youtube.com/watch?v=WoXCHr1IaTM&t=3s
- https://michalkubicek.cz/websummit-2018/
- https://fbj.springeropen.com/articles/10.1186/s43093-025-00423-y#:~:text=support%2C%20playing%20a%20vital%20role,21%2C%204
- https://docs.anthropic.com/en/release-notes/system-prompts#feb-24th-2025
- https://ieeexplore.ieee.org/document/6213238
- https://link.springer.com/article/10.1162/BIOT_a_00016
- https://link.springer.com/article/10.1186/s12877-019-1244-6
- https://www.adalovelaceinstitute.org/blog/ai-companions/#:~:text=These%20services%20are%20no%20longer,to%20a%20more%20immersive%20user
- https://news.microsoft.com/apac/features/much-more-than-a-chatbot-chinas-xiaoice-mixes-ai-with-emotions-and-wins-over-millions-of-fans/
- https://www.facebook.com/groups/umelainteligence/posts/2128628554267992/
- https://www.facebook.com/groups/umelainteligence/posts/2122711028193078/
- https://arxiv.org/pdf/2402.14531
- https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5165270
- https://www.washingtonpost.com/technology/2025/04/16/ai-art-school-vienna/
- https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
- https://opentools.ai/news/humanizing-ai-a-double-edged-sword-or-a-slippery-slope#:~:text=acclimated%20to%20receiving%20programmable%20responses,rather%20than%20genuine%20emotional%20understanding
- https://www.nirandfar.com/hooked/
- https://www.washingtonpost.com/technology/2025/04/17/llm-poisoning-grooming-chatbots-russia/
- https://www.roboticstomorrow.com/news/2025/01/24/humanoid-robots-market-shaping-the-future-of-healthcare-education-and-automation/23992/
- https://www.bbc.com/news/articles/cj08m35q3l9o
- https://books.google.cz/books/about/Moral_Combat.html?id=EaD_DQAAQBAJ&redir_esc=y
- https://arxiv.org/abs/2205.08645
- https://www.npr.org/2024/12/21/nx-s1-5220301/deepfakes-memes-artificial-intelligence-elections#:~:text=But%20it%20wasn%27t%20Biden,advances%20in%20generative%20AI%20technology
- https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2044797