Umelá inteligencia, ktorá rozmýšľa ako človek? Táto AI už nie je len „papagáj“, ale uvažuje ako ľudský mozog
GPT-4 prekonal očakávania vedcov. Vďaka schopnosti generovať kód zvládol analógové úlohy porovnateľne s ľuďmi a to bez predchádzajúceho tréningu.
Umelé inteligencie, ako sú veľké jazykové modely (LLM), už dávno nie sú len o dokonalej gramatike či pútavých textoch. Najnovší výskum publikovaný v prestížnom žurnále PNAS Nexus naznačuje, že modely ako GPT-4 sú schopné niečoho oveľa sofistikovanejšieho, konkrétne analógového myslenia. A to dokonca aj pri veľmi neštandardných a zámerne náročných úlohách. A to aj takých, ktoré by človek považoval za mimo bežného „tréningu“ týchto modelov.
Čo je to analógové myslenie
Jednoducho povedané, ide o schopnosť prenášať riešenie problému z jednej oblasti do inej, napríklad keď pochopíš, že vzťah medzi slnkom a svetlom je podobný vzťahu medzi batériou a energiou. Takéto „prepájanie bodiek“ nie je len náhodné, ale vyžaduje hlbšie porozumenie vzťahov, čo je typické pre ľudskú inteligenciu. A práve v tomto smere sa vedci pozreli na to, čo dokáže GPT-4.
Problém s „popletenou abecedou“
Aby vedci zistili, či GPT-4 len opakuje naučené frázy alebo skutočne rozmýšľa, vytvorili takzvané kontrafaktuálne úlohy. Ide o úlohy, ktoré sú zámerne navrhnuté tak, aby sa nepodobali ničomu, čo by mohol model mať v trénovacích dátach. Napríklad analógie založené na „pomiešanej“ abecede, kde namiesto klasického A-B-C-… dostane model abecedu v inom poradí.
Ukázalo sa, že GPT-4 bez pomoci túto úlohu zvláda dosť biedne. Avšak keď mu výskumníci umožnili využívať schopnosť generovať a spúšťať vlastný kód, všetko sa zmenilo. Model si sám napísal kód, ktorý mu pomohol správne počítať pozície písmen v tejto pomiešanej abecede, a zrazu sa jeho výsledky vyrovnali ľudským.
GPT-4 matches human performance on analogical reasoning tasks, study shows https://t.co/unnJW2ekHv pic.twitter.com/h8Vy9k32DD
— Evan Kirstel #B2B #TechFluencer (@EvanKirstel) May 28, 2025
Neprehliadni
Nie je to len slepé opakovanie
Kritici často tvrdia, že LLM modely iba opakujú to, čo sa naučili z obrovských databáz textov. Tento experiment však ukazuje, že keď má model možnosť riešiť úlohu cez vlastné „premýšľanie“, napríklad vytvorením kódu, dokáže nielen zvoliť správnu odpoveď, ale aj vysvetliť prečo. To naznačuje, že rozumie nielen povrchu úlohy, ale aj jej vnútorným vzťahom.
Zaujímavé je tiež to, že mnohé chybné odpovede GPT-4 neboli úplne mimo, vychádzali z alternatívnych, no logických pravidiel. Presne tak ako by zareagoval človek, ktorý pochopil úlohu po svojom, ale trochu sa zmýlil v detailoch.
Rozmýšľa GPT ako človek?
Nie je to tak, že by GPT-4 premýšľalo ako človek, jeho spôsob spracovania informácií je zásadne odlišný. No keď mu poskytneme vhodné nástroje, ako napríklad možnosť generovať a spúšťať vlastný kód, dokáže problém „prerámcovať“ a analyzovať ho cez hlbšie vzťahy a štruktúry. Práve tento typ uvažovania pripomína analógové myslenie, ktoré je charakteristické pre ľudí. Vedci zdôrazňujú, že hoci ide o iný mechanizmus ako pri ľudskej inteligencii, výsledky môžu byť veľmi podobné, a v niektorých prípadoch dokonca porovnateľné s výkonom ľudského mozgu pri riešení komplexných úloh.
Pre teba ako bežného používateľa to znamená jedno, a to že GPT-4 (a jeho nástupcovia) nie sú len sofistikované autokorektory alebo chatboti. Sú to systémy, ktoré začínajú chápať vzťahy, štruktúry a pravidlá sveta. A to už nie je sci-fi film, ale realita.
Komentáre