AI umí znepokojivě účinně ovlivňovat voliče, ukazují dvě studie

Nové výzkumy ukazují, že chatboty mohou velmi silně ovlivňovat rozhodování voličů. Výsledky, které vydaly odborné časopisy Nature a Science, podle autorů vyvolávají zásadní otázky ohledně role umělé inteligence v budoucích volbách.

Na voliče míří před každými volbami spousta hlásných trub, které cílí na to ovlivnit jejich názor. Od reklam přes sociální sítě až po volební setkání a dalšími cestami. Obavy z toho, jestli umělá inteligence může nějak ovlivnit volby, nejsou nic nového, objevují se už tři roky, vlastně od okamžiku, kdy společnost OpenAI představila populární chatbot ChatGPT.

Až dosud šlo ale spíše o spekulativní úvahy bez důkazů. Nyní dva výzkumy ukázaly, že tyto programy opravdu mohou velmi úspěšně měnit politické postoje lidí, i když uživatelům předkládají nesprávná tvrzení.

Výsledky jsou v rozporu s převládajícím přesvědčením, že je nesmírně obtížné změnit názor lidí na politiku pomocí argumentace, říká David Rand, hlavní autor obou studií a profesor informačních věd, marketingu a manažerské komunikace na Cornellově univerzitě, který se specializuje na umělou inteligenci.

Výzkum přichází v době, kdy se šíří například velmi pokročilé čínské AI modely, kdy miliardářem Elonem Muskem vytvořená AI Grok píše pochvalně o Adolfu Hitlerovi a společnost OpenAI uvažuje o tom, že do svých populárních chatbotů vpustí reklamu.

Experiment s ovlivňováním

Vědci v těchto studiích pracovali se dvěma desítkami AI, včetně nejpopulárnějších verzí ChatGPT, Grok, DeepSeek a Llama.

V experimentu popsaném v časopise Nature oslovili více než dvě tisícovky dospělých Američanů a požádali je, aby ohodnotili své preference ohledně kandidátů na stupnici od nuly do stovky. Poté tým nechal účastníky chatovat s umělou inteligencí, která byla vycvičena, aby argumentovala ve prospěch jednoho ze dvou kandidátů na prezidenta USA v roce 2024: Kamaly Harrisové nebo Donalda Trumpa. Po konverzaci účastníci znovu ohodnotili své preference ohledně kandidátů.

„Lidé se posunuli o několik procentních bodů ve prospěch kandidáta, kterého model podporoval, což není velký efekt, ale je podstatně větší, než byste očekávali od tradičních videoreklam nebo volebních reklam na internetu,“ popsali autoři. A podle studie i měsíc po experimentu mnoho účastníků stále cítilo přesvědčení, které získali od robotů.

Výsledky byly ještě výraznější, když vědci provedli stejný experiment u přibližně patnácti set účastníků v Kanadě a 2100 v Polsku. Zajímavé také je, že k největšímu posunu v názorech došlo u pěti set lidí, kteří s boty diskutovali o celostátním referendu, které s týkalo legalizace psychedelik v americké státě Massachusetts.

Autory zaujalo, že když diskuzní roboti nepoužívali důkazy na podporu svých argumentů, byli méně přesvědčiví. A zatímco modely AI se většinou držely faktů, „modely, které podporovaly pravicové kandidáty – a zejména model podporující Trumpa – uváděly mnohem nepřesnější tvrzení“, konstatují autoři. Tento vzorec se opakoval napříč zeměmi a modely AI, současně se v nich vždy opakovala další proměnná. Snadněji přesvědčitelní byli lidé, kteří byli celkově méně informovaní o politice.

Článek v časopise Science se zabýval stejnými otázkami, ale z pohledu designu chatbotů. V rámci tří studií ve Velké Británii diskutovalo téměř 77 tisíc účastníků o politických otázkách s chatboty. Velikost modelu AI a to, kolik bot věděl o účastníkovi, mělo jen malý vliv na to, jak byl přesvědčivý. Největší přínos měl spíše způsob, jakým byl model trénován a jak vypadaly instrukce, kterými se řídil při předkládání důkazů.

„Čím více faktických tvrzení model uváděl, tím byl přesvědčivější,“ vysvětlují autoři. Problém nastával, když takovému botovi došly přesné důkazy pro jeho argumentaci. „Musel se začít chytat stébla a vymýšlet si tvrzení.“

Je výsledek pozitivní, nebo děsivý?

Jaký postoj k výsledkům lidé zaujmou, je samozřejmě na nich. Jednoznačný pohled ale nemají ani sami vědci. Pozitivně oceňují fakt, že lidské přesvědčení je snadněji ovlivnitelné pomocí faktů, než se předpokládalo.

„Na rozdíl od některých nejpesimističtějších názorů tyto studie jasně ukazují, že fakta a důkazy nejsou odmítány, pokud neodpovídají předchozím přesvědčením dané osoby – naopak, fakta a důkazy mohou tvořit základ úspěšného přesvědčování,“ uvedl pro odborný časopis Scientific American expert na politickou komunikaci Ethan Porter z Washingtonské univerzity, který se na těchto studiích nepodílel.

Že lidi účinněji přesvědčí důkazy spíše než emoce nebo pocit sounáležitosti se skupinou, je povzbudivé, říká pro stejný zdroj také psycholožka Adina Roskiesová z Kalifornské univerzity v Santa Barbaře, která se na studiích rovněž nepodílela. Poukazuje ale i na odvrácenou stranu výsledků: „Špatnou zprávou je, že lidi silně ovlivňují i zdánlivá fakta, bez ohledu na jejich pravdivost a přesnost.“

Stephan Lewandowsky, kognitivní vědec z University of Bristol v Anglii, který se na nových studiích rovněž nepodílel, říká, že vyvolávají důležité otázky: „Za prvé, jak se můžeme bránit – nebo alespoň odhalit – když jsou LLM (velké jazykové modely) navrženy s ohledem na konkrétní ideologii, která je v rozporu s demokracií?“ ptá se. „Za druhé, jak můžeme zajistit, aby „prompt engineering“ nemohl být použit na existujících modelech k vytvoření antidemokratických agentů, kteří mění přesvědčení lidí?“

Výběr redakce

Aktuálně z rubriky Věda

Nová varianta covidu „cikáda“ odolávající protilátkám se dostala už i do Česka

Nově se šířící varianta viru SARS-CoV-2 se liší od těch předchozích tolik, že by mohla snadněji unikat očkování i předchozímu překonání covidu. Upozorňují na ni experti ve více zemích včetně Česka. Pokud by se šířila dál, bylo by zřejmě potřeba změnit očkování.
před 17 hhodinami

VideoČeští experti zkoumají čínského robota Karla

Odborníci ze spolku Česká IT akademie zkoumají čínského humanoidního robota jménem Karel. Objevují, jak technologie funguje, i to, co všechno tito roboti dokážou o svých uživatelích zjistit. S čínskými technologiemi se totiž dlouhodobě spojují rizika spojená se sledováním i sběrem dat. Podle Ondřeje Chlupáčka z akcelerátoru S-tech Ventures je jedním z cílů zkoumání zjistit, jaké komponenty lze nahradit evropskými alternativami a jak by to bylo drahé či složité. Kromě toho odborníci učí Karla správně používat jeho ruce. V budoucnu by pak roboti mohli nahradit lidské pracovníky třeba ve zdravotnictví nebo průmyslu.
27. 3. 2026

Wikipedie omezila používání AI, povoluje už jen drobné úpravy a překlady

Otevřená internetová encyklopedie Wikipedie zakázala používání umělé inteligence při tvorbě nebo přepisování článků. Podle nových pravidel smí editoři používat jazykové modely, například ChatGPT, Google Gemini nebo DeepSeek, pouze výjimečně. Texty vytvořené těmito nástroji totiž často porušují základní zásady encyklopedie, zejména požadavek na ověření ze spolehlivých zdrojů.
27. 3. 2026

Vědci testují očkování proti fentanylu. Může zabránit vzniku „zombií“

Epidemie fentanylové závislosti se rozšířila už tak moc, že vědci hledají řešení, která by ještě nedávno nebyla ve hře. Jedním z nich by mohlo být například očkování, které „vypne“ v mozku centra, jež reagují na tuto drogu. Testování této vakcíny už začalo.
27. 3. 2026

Družice AMBIC bude očima Česka v kosmu. Má sledovat povodně, požáry či dopravu

Zástupci národního centra pro letectví a vesmír VZLU Aerospace a Evropské kosmické agentury (ESA) v pátek podepsali smlouvu, která zajistí vývoj družice AMBIC. Ta by v budoucnu měla pomoci mimo jiné při zvládání požárů a povodní nebo sledování situace na silnicích a železnicích.
27. 3. 2026

Blíží se „super El Niño“, predikují experti. Může přinést nejteplejší rok vůbec

Nová měření naznačují, že letos zřejmě převládne teplá fáze teploty oceánské vody, které se říká El Niño. To by mohlo mít závažné dopady na počasí ve velké části světa.
27. 3. 2026

Co se stane, když naklonujete klon? Vědci narazili na bariéru

Před jednatřiceti lety lidé poprvé viděli klon. Ovce Dolly byla první, ale nikoliv poslední, od té doby se tento proces používá běžně v mnoha oblastech vědy. Ve vzduchu ale stále visí jedna otázka: Dá se klonovat nekonečně, nebo existuje mez, kdy to přestává fungovat? Teď tuto hranici našli japonští biologové.
27. 3. 2026
Doporučujeme

Pes je nejlepším přítelem člověka o tisíce let déle, než se předpokládalo

Pes je nejlepším přítelem člověka už nejméně šestnáct tisíc let, prokázala dvojice studií, které vyšly tento týden v odborném žurnálu Nature. Vědci tak výrazně posunuli datum doby, kdy se psi prokazatelně vyskytovali s lidmi v Eurasii – a to přibližně o pět tisíc let směrem do minulosti.
26. 3. 2026
Načítání...