Čínské AI modely vykradly ty americké, zlobí se firma

Umělé inteligence (AI) vznikly mnohdy na základě toho, že jejich provozovatelé je trénovali na nelegálně získaných datech. Tato praktika funguje dál a cílí na samotné modely AI. Vývojáři společnosti Anthropic tento týden upozornili, že tři čínské společnosti zabývající se umělou inteligencí „nelegálně získaly“ schopnosti modelu Claude. Ten je považovaný za jednu z nejvyspělejších AI současnosti.

Vývojáři popsali, že čínské AI „destilovaly“ schopnosti modelu společnosti Anthropic. Podněcovaly ho speciálně připravenými příkazy, aby se z jeho odpovědí samy učily a zlepšovaly se. Připomíná to špičkovou soukromou školu, kam se vloudí neplatící student.

Destilace je legitimní metoda, která se často používá například pro trénink modelů tak, aby byly levnější, menší a úspornější. V tomto případě to ale dle Anthropicu byla jiná situace: americká firma označuje aktivitu čínských konkurentů za „destilační útoky“. Podle vyjádření společnosti nejsou sice zřejmě trestné, ale pravděpodobně odporují podmínkám užívání služby Claude.

Anthropic označil obcházení pravidel za problém, zejména proto, že společnosti „podléhající kontrole Komunistické strany Číny“ tak mohou eliminovat domnělou konkurenční výhodu amerických firem.

Řada médií viní Anthropic z pokrytectví. I tato firma, stejně další v oboru, totiž získávala data pro trénink svého AI modelu Claude pomocí takzvaného scrapování – tedy získávání dat z webů, přičemž některé to ve svých podmínkách užití zapovídají.

Anthropic z toho obvinila například diskusní platforma Reddit, která tvrdí, že Claude byl natrénován na datech a konverzacích právě tohoto webu. A to dokonce i z dat, která byla označena jako určená ke smazání, což pravidla explicitně zakazují. Podle Redditu se toho měl Anthropic dopouštět v letech 2021 až 2024.

Z tohoto chování viní Anthropic také generální ředitel společností Tesla a xAI Elon Musk. Ten nedávno prohlásil, že společnost Anthropic ukradla velké množství dat za účelem trénování svých modelů. Musk tvrdí, že k této krádeži dat došlo v obrovském měřítku, což vedlo k tomu, že společnost musela zaplatit miliardy dolarů na vyrovnání. Pro zajímavost: ze stejného chování obviňují experti i Muskovu AI Grok.

AI firmy pro tréninky svých modelů použily obrovské množství licencovaného obsahu, čemuž napovídá například to, že modely jsou schopné věrně přepsat takřka celé konkrétní knihy. Společnost Meta podle spisovatelů, kteří se obrátili na soud, zneužila na osmdesát terabajtů dat z on-line knihoven. V Británii se zase hudebníci ohradili vůči tomu, aby firmy provozující umělé inteligence mohly trénovat na jejich licencované hudbě.

Anthropic v příspěvku na svém blogu označil a pojmenoval i konkrétní společnosti, které pravidla údajně porušily. Jsou to DeepSeek, Moonshot a MiniMax, přičemž největší vinu podle americké firmy měla poslední jmenovaná, která sídlí v Šanghaji a provozuje aplikaci Talkie.

Ta zaplavila chatbot Claude od Anthropicu více než třinácti miliony dotazy a výměnami dat. To výrazně přesahuje 3,4 milionu výměn u pekingské společnosti Moonshot s její AI Kimi a 150 tisíc u nejznámější čínské AI platformy DeepSeek.

Jak podvod funguje

Anthropic má svoje služby pro Čínu z důvodů národní bezpečnosti zablokované, takže by se tamní firmy k jeho službám neměly teoreticky ani dostat. Aby to obešly, využily podle Anthropicu komerční služby, které po celém světě prodávají přístup ke Claudovi a dalším špičkovým modelům umělé inteligence.

Tyto služby využívají takzvané „hydra cluster“ architektury: rozsáhlé sítě podvodných účtů, které distribuují provoz přes platformy třetích stran. „Rozsah těchto sítí znamená, že když je jeden účet zablokován, nahradí ho nový. V jednom případě spravovala jedna síť současně více než dvacet tisíc podvodných účtů a kombinovala provoz destilace s běžnými požadavky zákazníků, aby tak ztížila odhalení,“ popisuje Anthropic.

Jakmile se podařilo takto získat přístup, začaly čínské firmy vytvářet nastíněné obří objemy pečlivě vytvořených výzev, jejichž cílem bylo získat z amerického modelu specifické schopnosti. „Cílem je buď shromáždit vysoce kvalitní odpovědi pro přímý trénink modelu, nebo generovat desítky tisíc jedinečných úkolů potřebných pro spuštění posilového učení,“ popisuje americká forma formu útoku.

Čínské snahy o americká data

O podobné situaci informovala také další americká společnost OpenAI, která provozuje model ChatGPT. Na začátku února informovala americkou Sněmovnu reprezentantů v memorandu, v němž obvinila společnost DeepSeek z „pokračujících snah o bezplatné využívání schopností vyvinutých společností OpenAI a dalšími americkými laboratořemi“.

Toto zápolení probíhá v kontextu dynamických změn v úspěšnosti různých modelů umělých inteligencí. Právě čínský DeepSeek, který loni zaskočil svět svou kvalitou, by měl každým dnem uvést na trh svůj nejnovější vlajkový model DeepSeek V4.

Výběr redakce

Aktuálně z rubriky Věda

Nová varianta covidu „cikáda“ odolávající protilátkám se dostala už i do Česka

Nově se šířící varianta viru SARS-CoV-2 se liší od těch předchozích tolik, že by mohla snadněji unikat očkování i předchozímu překonání covidu. Upozorňují na ni experti ve více zemích včetně Česka. Pokud by se šířila dál, bylo by zřejmě potřeba změnit očkování.
před 17 hhodinami

VideoČeští experti zkoumají čínského robota Karla

Odborníci ze spolku Česká IT akademie zkoumají čínského humanoidního robota jménem Karel. Objevují, jak technologie funguje, i to, co všechno tito roboti dokážou o svých uživatelích zjistit. S čínskými technologiemi se totiž dlouhodobě spojují rizika spojená se sledováním i sběrem dat. Podle Ondřeje Chlupáčka z akcelerátoru S-tech Ventures je jedním z cílů zkoumání zjistit, jaké komponenty lze nahradit evropskými alternativami a jak by to bylo drahé či složité. Kromě toho odborníci učí Karla správně používat jeho ruce. V budoucnu by pak roboti mohli nahradit lidské pracovníky třeba ve zdravotnictví nebo průmyslu.
27. 3. 2026

Wikipedie omezila používání AI, povoluje už jen drobné úpravy a překlady

Otevřená internetová encyklopedie Wikipedie zakázala používání umělé inteligence při tvorbě nebo přepisování článků. Podle nových pravidel smí editoři používat jazykové modely, například ChatGPT, Google Gemini nebo DeepSeek, pouze výjimečně. Texty vytvořené těmito nástroji totiž často porušují základní zásady encyklopedie, zejména požadavek na ověření ze spolehlivých zdrojů.
27. 3. 2026

Vědci testují očkování proti fentanylu. Může zabránit vzniku „zombií“

Epidemie fentanylové závislosti se rozšířila už tak moc, že vědci hledají řešení, která by ještě nedávno nebyla ve hře. Jedním z nich by mohlo být například očkování, které „vypne“ v mozku centra, jež reagují na tuto drogu. Testování této vakcíny už začalo.
27. 3. 2026

Družice AMBIC bude očima Česka v kosmu. Má sledovat povodně, požáry či dopravu

Zástupci národního centra pro letectví a vesmír VZLU Aerospace a Evropské kosmické agentury (ESA) v pátek podepsali smlouvu, která zajistí vývoj družice AMBIC. Ta by v budoucnu měla pomoci mimo jiné při zvládání požárů a povodní nebo sledování situace na silnicích a železnicích.
27. 3. 2026

Blíží se „super El Niño“, predikují experti. Může přinést nejteplejší rok vůbec

Nová měření naznačují, že letos zřejmě převládne teplá fáze teploty oceánské vody, které se říká El Niño. To by mohlo mít závažné dopady na počasí ve velké části světa.
27. 3. 2026

Co se stane, když naklonujete klon? Vědci narazili na bariéru

Před jednatřiceti lety lidé poprvé viděli klon. Ovce Dolly byla první, ale nikoliv poslední, od té doby se tento proces používá běžně v mnoha oblastech vědy. Ve vzduchu ale stále visí jedna otázka: Dá se klonovat nekonečně, nebo existuje mez, kdy to přestává fungovat? Teď tuto hranici našli japonští biologové.
27. 3. 2026
Doporučujeme

Pes je nejlepším přítelem člověka o tisíce let déle, než se předpokládalo

Pes je nejlepším přítelem člověka už nejméně šestnáct tisíc let, prokázala dvojice studií, které vyšly tento týden v odborném žurnálu Nature. Vědci tak výrazně posunuli datum doby, kdy se psi prokazatelně vyskytovali s lidmi v Eurasii – a to přibližně o pět tisíc let směrem do minulosti.
26. 3. 2026
Načítání...