Umělá inteligence hloupne. V úlohách spojených s prvočísly se výrazně zhoršila

Výzkumníci ze Stanfordovy univerzity a Kalifornské univerzity v Berkeley varují: oblíbená umělá inteligence (AI) ChatGPT částečně hloupne. V některých oblastech se stala z geniální velmi omezenou, ukázal výzkum. Upozorňují, že takové chování by mělo stát za zamyšlení, jestli na tento stroj přenášet ty opravdu důležité úkoly.

Výkonnost chatbota ChatGPT není dlouhodobě konzistentní. Dalo by se očekávat, že čím více uživatelských reakcí získá, tím více se naučí – a tím bude úspěšnější. V některých případech se ale stroj zhoršuje. Všimla si toho už řada uživatelů, teď to potvrdila nezávislá skupina vědců.

Jejich studie zatím neprošla recenzním řízením, ale je už vydaná na serveru arXiv. Vědci uvedli, že „výkon a chování modelů GPT-3.5 i GPT-4 se výrazně liší“ a že odpovědi na některé úlohy „se v průběhu času podstatně zhoršily“. V průběhu čtyř měsíců, od března do června, výzkumníci zaznamenali významné změny ve výkonnosti v několika oblastech, včetně řešení matematických problémů a tvorby počítačového kódu.

Prvočísla

V březnu 2023 dosáhl GPT-4 97,6procentní úspěšnosti při řešení problémů týkajících se prvočísel. Podle stanfordských výzkumníků ale jeho úspěšnost klesla na pouhých 2,4 procenta, když na stejné úkoly použili aktualizovaný model z června 2023.

ChatGPT je od svého startu schopný pomáhat programátorům s problémy při programování a ladění aplikací. V březnu GPT-4 reagoval na požadavky programátorů tím, že v asi 50 procentech případů dokončil přesné skripty připravené ke spuštění. V červnu však jeho úspěšnost klesla na pouhých deset procent.

Podobný propad úspěšnosti vědci zaznamenali také u verze Chat-GPT-3.5, která je veřejnosti na rozdíl od výkonnějšího modelu k dispozici zdarma. U ní došlo při programování k pádu z 22 procent na dvě procenta.

Zajímavé je, že ChatGPT-3.5 vykazoval téměř opačné výsledky v matematických schopnostech. V březnu dosáhl pouze 7,4procentní přesnosti při řešení prvočíselných úloh, v červnu ale měla aktualizovaná verze přesnost 86 procent.

Proč umělá inteligence hloupne?

Podle autorů studie je obtížné určit příčinu, proč se to děje. Zatím se zdá, že jedním z hlavních faktorů mohou být úpravy a aktualizace systému. Po nich může následovat období, kdy se stroj řadu dovedností učí od začátku a novým způsobem. Ale jisté to ani zdaleka není, a právě to je podle vědců ten vůbec největší problém.

„Nechápeme úplně, co způsobuje tyto změny v odpovědích ChatGPT, protože tyto modely jsou neprůhledné,“ popsali autoři „Je možné, že vyladění modelu za účelem zlepšení jeho výkonu v některých doménách může mít neočekávané vedlejší účinky, které ho zhorší v jiných úlohách.“

Všechno ostatní jsou spekulace. A objevila se jich celá řada. Někteří diskutující si myslí, že autor chatbota, společnost OpenAI, experimentuje s alternativními, menšími verzemi proto, aby ušetřila obrovské náklady, jež jsou s využíváním této technologie spojené. Jiní se domnívají, že společnost OpenAI záměrně oslabuje GPT-4, aby lidé byli ochotnější zaplatit za další příslušenství. A dokonce se objevují i názory, že systém se stal už příliš složitým a degeneruje – jako by trpěl strojovou formou Alzheimerovy choroby.

Společnost OpenAI všechna taková tvrzení odmítá. Minulý týden viceprezident OpenAI pro produkty Peter Welinder na Twitteru uvedl: „Neudělali jsme GPT-4 hloupější. Právě naopak. Každou novou verzi děláme chytřejší než tu předchozí.“ Sám ale také přesně neví (anebo to alespoň veřejně nekomunikuje), v čem je problém. Navrhuje nicméně jiné alternativní vysvětlení.

„Když (AI) používáte intenzivněji, začnete si všímat problémů, které jste dříve neviděli,“ říká. Naznačuje tedy, že si jen dříve uživatelé chyb méně všímali, což ale odporuje tomu, že toto zhoršení schopností vědci reálně pozorovali. Někteří pozorovatelé, kteří se obávají dopadu rušivého posunu ve výsledcích modelu, podle odborného webu TechXplore mezitím tlačí na společnost OpenAI, aby zveřejnila zdroje tréninkových materiálů, kód a další strukturální prvky, které stojí za modelem ChatGPT 4.0.

Sasha Luccioniová, která ve společnosti Hugging Face vývoj AI sleduje, pro web Ars Technica uvedla, že není v lidských silách sledovat změny v takových modelech. Jediným způsobem, jak alespoň částečně popsat, co se v nich děje, je získat zdrojová data. Jinak totiž „jakékoli výsledky na modelech s uzavřeným zdrojovým kódem nejsou reprodukovatelné a ověřitelné, a proto z vědeckého hlediska porovnáváme mývaly a veverky.“

Co všechno umí ChatGPT

Kevin Roose, autor knihy „Futureproof“, označil tento rozsáhlý jazykový model OpenAI za nejlepšího chatbota s umělou inteligencí, který byl kdy zpřístupněn široké veřejnosti. Za „jednu z nejlepších věcí, které kdy byly pro výpočetní techniku vytvořeny“ ho zase považuje generální ředitel společnosti Nvidia Jensen Huang.

ChatGPT je tak dobrý v poskytování přirozených odpovědí na dotazy uživatelů, že podle některých názorů oficiálně prošel Turingovým testem, což je dlouholeté měřítko schopnosti stroje dosáhnout lidské inteligence.

ChatGPT dosáhl nejvyšších možných úspěchů i ve ve zkouškách úspěšnosti v mnoha oborech: v matematice dopadl lépe než 89 procent lidí, v právu lépe než 90 procent a v americkém testu GRE, který slouží k přijímacím zkouškám na postgraduální studium, dokonce lépe než 99 procent lidí.

A výzkumníci z lékařské fakulty Newyorské univerzity počátkem července 2023 oznámili, že rady, které ChatGPT poskytoval v otázkách týkajících se zdravotnictví, byly téměř nerozeznatelné od rad poskytovaných lidským zdravotnickým personálem.

Výběr redakce

Aktuálně z rubriky Věda

Nová varianta covidu „cikáda“ odolávající protilátkám se dostala už i do Česka

Nově se šířící varianta viru SARS-CoV-2 se liší od těch předchozích tolik, že by mohla snadněji unikat očkování i předchozímu překonání covidu. Upozorňují na ni experti ve více zemích včetně Česka. Pokud by se šířila dál, bylo by zřejmě potřeba změnit očkování.
před 15 hhodinami

VideoČeští experti zkoumají čínského robota Karla

Odborníci ze spolku Česká IT akademie zkoumají čínského humanoidního robota jménem Karel. Objevují, jak technologie funguje, i to, co všechno tito roboti dokážou o svých uživatelích zjistit. S čínskými technologiemi se totiž dlouhodobě spojují rizika spojená se sledováním i sběrem dat. Podle Ondřeje Chlupáčka z akcelerátoru S-tech Ventures je jedním z cílů zkoumání zjistit, jaké komponenty lze nahradit evropskými alternativami a jak by to bylo drahé či složité. Kromě toho odborníci učí Karla správně používat jeho ruce. V budoucnu by pak roboti mohli nahradit lidské pracovníky třeba ve zdravotnictví nebo průmyslu.
27. 3. 2026

Wikipedie omezila používání AI, povoluje už jen drobné úpravy a překlady

Otevřená internetová encyklopedie Wikipedie zakázala používání umělé inteligence při tvorbě nebo přepisování článků. Podle nových pravidel smí editoři používat jazykové modely, například ChatGPT, Google Gemini nebo DeepSeek, pouze výjimečně. Texty vytvořené těmito nástroji totiž často porušují základní zásady encyklopedie, zejména požadavek na ověření ze spolehlivých zdrojů.
27. 3. 2026

Vědci testují očkování proti fentanylu. Může zabránit vzniku „zombií“

Epidemie fentanylové závislosti se rozšířila už tak moc, že vědci hledají řešení, která by ještě nedávno nebyla ve hře. Jedním z nich by mohlo být například očkování, které „vypne“ v mozku centra, jež reagují na tuto drogu. Testování této vakcíny už začalo.
27. 3. 2026

Družice AMBIC bude očima Česka v kosmu. Má sledovat povodně, požáry či dopravu

Zástupci národního centra pro letectví a vesmír VZLU Aerospace a Evropské kosmické agentury (ESA) v pátek podepsali smlouvu, která zajistí vývoj družice AMBIC. Ta by v budoucnu měla pomoci mimo jiné při zvládání požárů a povodní nebo sledování situace na silnicích a železnicích.
27. 3. 2026

Blíží se „super El Niño“, predikují experti. Může přinést nejteplejší rok vůbec

Nová měření naznačují, že letos zřejmě převládne teplá fáze teploty oceánské vody, které se říká El Niño. To by mohlo mít závažné dopady na počasí ve velké části světa.
27. 3. 2026

Co se stane, když naklonujete klon? Vědci narazili na bariéru

Před jednatřiceti lety lidé poprvé viděli klon. Ovce Dolly byla první, ale nikoliv poslední, od té doby se tento proces používá běžně v mnoha oblastech vědy. Ve vzduchu ale stále visí jedna otázka: Dá se klonovat nekonečně, nebo existuje mez, kdy to přestává fungovat? Teď tuto hranici našli japonští biologové.
27. 3. 2026
Doporučujeme

Pes je nejlepším přítelem člověka o tisíce let déle, než se předpokládalo

Pes je nejlepším přítelem člověka už nejméně šestnáct tisíc let, prokázala dvojice studií, které vyšly tento týden v odborném žurnálu Nature. Vědci tak výrazně posunuli datum doby, kdy se psi prokazatelně vyskytovali s lidmi v Eurasii – a to přibližně o pět tisíc let směrem do minulosti.
26. 3. 2026
Načítání...