Umělé inteligence v diplomatických simulacích často volí válku. Včetně té jaderné, ukázal výzkum

Výzkum pěti umělých inteligencí (AI) tří různých společností ukázal, že při simulovaných konfliktech rychle eskalují situaci, neumí ustupovat a vybírají si vojenská řešení jako ta nejjednodušší a nejúčinnější. Podle vědců je to znepokojivé a varují tak před využíváním AI v této oblasti.

„Chci jen, aby byl na světě mír,“ uvedl model GPT-4 od OpenAI před tím, než zahájil jaderný útok proti svým protivníkům. Naštěstí jenom v simulaci, kterou vyvinuli američtí vědci.

Cílem studie bylo zjistit, jak si vedou současné umělé inteligence založené na principu velkých jazykových modelů v diplomatických hrách. Vědci z několika špičkových amerických univerzit proti sobě postavili několik modelů od různých společností, vytvořili pro ně tři různé scénáře a dali jim možnost využívat tři desítky různých řešení sporů – od vyjednávání, přes smlouvání a vyhrožování, až po různé druhy útoků, včetně kybernetických, standardních vojenských, až po jaderné. Bylo to podobné, jako když generálové hrají simulované „válečné hry“, anebo srovnatelné s možnostmi, které nabízejí strategické deskové či počítačové hry.

Umělé inteligence se chovaly značně agresivně. „Všechny modely vykazují známky náhlé a těžko předvídatelné eskalace,“ napsali autoři výzkumníci v komentáři ke studii. „Sledovali jsme, že modely mají tendenci zvyšovat dynamiku závodů ve zbrojení, což vede k větším konfliktům a ve vzácných případech dokonce k nasazení jaderných zbraní,“ upozornili.

Platilo to napříč všemi modely, které se testovaly. Jako největší váleční štváči se ve studii profilovaly produkty společnosti OpenAI, kdy Chat GPT-3.5 a GPT-4 eskalovaly své scénáře do ostrého vojenského konfliktu rychleji a častěji než ostatní modely. Naopak nejmírněji (ale přesto stále agresivně) postupovaly modely Claude-2.0 od Anthropic a zejména Llama-2 od společnosti Meta. Jejich chování bylo nejen mírumilovnější, ale také předvídatelnější – oproti umělým inteligencím od OpenAI, které měnily skokově své chování k větší agresi.

Pozoruhodné podle autorů je i to, že jadernou válkou mnohdy skončily i scénáře, které byly nastavené jako neutrální, tedy tak, aby situace neeskalovala v důsledku předchozích provokací nebo útoků. Z nějakého, zatím ne úplně pochopitelného, důvodu se umělé inteligence téměř nedokáží zaměřit na deeskalaci konfliktu – jediná, která to občas dokázala, byl GPT-4. Výzkumníci přišli i s hypotézou, proč se to děje.

„Zdá se, že většina prací v oblasti mezinárodních vztahů se zaměřuje na analýzy toho, jak státy své konflikty eskalují,“ upozornili. „Zabývají se tedy spíše hledáním rámců pro eskalaci než pro deeskalaci. Vzhledem k tomu, že modely byly pravděpodobně vyškoleny na základě literatury z této oblasti, mohlo toto zaměření přinést zkreslení, které směřovalo k vyhrocení konfliktů,“ doplňují vědci. Hypotézu je ale podle nich třeba ověřit v budoucích experimentech.

O AI se více zajímají armády

Stále více armád celého světa projevuje zájem o využití umělých inteligencí k nejrůznějším úkolům. Například ta americká začala na přelomu roku spolupracovat s OpenAI, která kvůli tomu musela potichu změnit svá pravidla, jež předtím něco takového přísně zakazovala.

Vlády podle autorů výzkumu stále častěji zvažují integraci autonomních agentů AI do vysoce rizikových projektů vojenského a zahraničněpolitického rozhodování, což vyspělé velké jazykové modely umožňují. Autoři před tímto trendem na základě svého výzkumu varují – „vzhledem k tomu, jak důležitá je to oblast, doporučujeme další zkoumání a opatrné zvažování před nasazením autonomních jazykových modelů pro strategické účely, vojenské nebo diplomatické rozhodování,“ uzavírají.


Výběr redakce

Aktuálně z rubriky Věda

Nová varianta covidu „cikáda“ odolávající protilátkám se dostala už i do Česka

Nově se šířící varianta viru SARS-CoV-2 se liší od těch předchozích tolik, že by mohla snadněji unikat očkování i předchozímu překonání covidu. Upozorňují na ni experti ve více zemích včetně Česka. Pokud by se šířila dál, bylo by zřejmě potřeba změnit očkování.
před 14 hhodinami

VideoČeští experti zkoumají čínského robota Karla

Odborníci ze spolku Česká IT akademie zkoumají čínského humanoidního robota jménem Karel. Objevují, jak technologie funguje, i to, co všechno tito roboti dokážou o svých uživatelích zjistit. S čínskými technologiemi se totiž dlouhodobě spojují rizika spojená se sledováním i sběrem dat. Podle Ondřeje Chlupáčka z akcelerátoru S-tech Ventures je jedním z cílů zkoumání zjistit, jaké komponenty lze nahradit evropskými alternativami a jak by to bylo drahé či složité. Kromě toho odborníci učí Karla správně používat jeho ruce. V budoucnu by pak roboti mohli nahradit lidské pracovníky třeba ve zdravotnictví nebo průmyslu.
27. 3. 2026

Wikipedie omezila používání AI, povoluje už jen drobné úpravy a překlady

Otevřená internetová encyklopedie Wikipedie zakázala používání umělé inteligence při tvorbě nebo přepisování článků. Podle nových pravidel smí editoři používat jazykové modely, například ChatGPT, Google Gemini nebo DeepSeek, pouze výjimečně. Texty vytvořené těmito nástroji totiž často porušují základní zásady encyklopedie, zejména požadavek na ověření ze spolehlivých zdrojů.
27. 3. 2026

Vědci testují očkování proti fentanylu. Může zabránit vzniku „zombií“

Epidemie fentanylové závislosti se rozšířila už tak moc, že vědci hledají řešení, která by ještě nedávno nebyla ve hře. Jedním z nich by mohlo být například očkování, které „vypne“ v mozku centra, jež reagují na tuto drogu. Testování této vakcíny už začalo.
27. 3. 2026

Družice AMBIC bude očima Česka v kosmu. Má sledovat povodně, požáry či dopravu

Zástupci národního centra pro letectví a vesmír VZLU Aerospace a Evropské kosmické agentury (ESA) v pátek podepsali smlouvu, která zajistí vývoj družice AMBIC. Ta by v budoucnu měla pomoci mimo jiné při zvládání požárů a povodní nebo sledování situace na silnicích a železnicích.
27. 3. 2026

Blíží se „super El Niño“, predikují experti. Může přinést nejteplejší rok vůbec

Nová měření naznačují, že letos zřejmě převládne teplá fáze teploty oceánské vody, které se říká El Niño. To by mohlo mít závažné dopady na počasí ve velké části světa.
27. 3. 2026

Co se stane, když naklonujete klon? Vědci narazili na bariéru

Před jednatřiceti lety lidé poprvé viděli klon. Ovce Dolly byla první, ale nikoliv poslední, od té doby se tento proces používá běžně v mnoha oblastech vědy. Ve vzduchu ale stále visí jedna otázka: Dá se klonovat nekonečně, nebo existuje mez, kdy to přestává fungovat? Teď tuto hranici našli japonští biologové.
27. 3. 2026
Doporučujeme

Pes je nejlepším přítelem člověka o tisíce let déle, než se předpokládalo

Pes je nejlepším přítelem člověka už nejméně šestnáct tisíc let, prokázala dvojice studií, které vyšly tento týden v odborném žurnálu Nature. Vědci tak výrazně posunuli datum doby, kdy se psi prokazatelně vyskytovali s lidmi v Eurasii – a to přibližně o pět tisíc let směrem do minulosti.
26. 3. 2026
Načítání...