Umelá inteligencia je iracionálna, no nie tak ako my, tvrdia vedci

Umelá inteligencia uvažuje iracionálne, no nie úplne tak, ako človek. Výskumníci ju otestovali v rôznych úlohách a takto dopadla.

Roboty sa učia od umelej inteligencie so sklonmi k rasizmu, sexizmu a stereotypizácii.
Zdroj: Pexels (Pavel Danilyuk)

Väčšina z nás sa už s umelou inteligenciou nejakým spôsobom stretla. Vyhnúť sa jej sa stáva rok čo rok náročnejšie a hoci vidíme, že má stále svoje muchy, už teraz nám vie uľahčiť život v mnohých oblastiach.  

Napriek tomu sa stane, že nám dá nezmyselné odpovede, čo experti v odbore nazývajú “halucinovanie”. V rámci novej štúdie vedci z University College London zistili, že umelá inteligencia môže byť skutočne iracionálna, no nie spôsobom ako ľudia. Otestovali niekoľko najpopulárnejších LLM modelov, ako napríklad ChatGPT. Ukázalo sa, že umelá inteligencia poskytla odlišné odpovede na rovnaký test uvažovania a odpovede sa nezlepšili ani s pridaným kontextom.  

Odoberaj Vosveteit.sk cez Telegram a prihlás sa k odberu správ

Vedci testovali umelú inteligenciu pomocou štandardných psychologických testov. Vysvetľujú, že tento experiment nám lepšie pomôže pochopiť, ako umelá inteligencia rozmýšľa. Na základe toho potom vieme umelú inteligenciu lepšie použiť na rôzne úlohy, obzvlášť tie, ktoré vyžadujú rozhodovanie.  

“V posledných rokoch LLM modely výrazne poskočili vo svojej sofistikovanosti. Dokážu nám ponúknuť realistický text, obrázok, audio alebo video. Tieto schopnosti vyvolali obavy z kradnutia pracovných miest alebo ovplyvňovania volieb. Niektorí sa obávajú aj toho, aby umelá inteligencia nespáchala nejaké zločiny,” píšu vedci.  

Na druhú stranu sa stále pomerne často stretávame s tým, že si umelá inteligencia vycucá odpoveď z prsta. Popri tom môžeme vidieť ako na rovnakú otázku odpovie zakaždým inak alebo nesprávne vypočíta triviálne príklady. Autori novej štúdie preto chceli vedieť, či dokážu najväčšie modely racionálne uvažovať.  

Ako si umelá inteligencia poradila?

Racionálne uvažovanie autori štúdie definovali ako schopnosť rozhodovať sa na základe logiky a pravdepodobnosti. Umelej inteligencii dali 12 bežných testov, ktoré vyhodnocujú schopnosť uvažovania. Medzi nimi boli testy ako Watsonova úloha, Lindin problém alebo Monty Hallov problém. Ľudia majú veľký problém tieto testy vyriešiť. Lindin problém dokázalo vyriešiť len 14% dobrovoľníkov a Watsonovu úlohu 16%. 

Umelá inteligencia ukázala iracionálne uvažovanie pri mnohých odpovediach. Ak sa vedci opýtali rovnakú otázku 10-krát, umelá inteligencia poskytla inú odpoveď. Zároveň ale robila jednoduché chyby a mýlila si samohlásky so spoluhláskami.  

Vo Watsonovej úlohe umelá inteligencia GPT-4 odpovedala správne v 90% prípadov. GPT-3.5 a Google Bard odpovedali správne v 0% prípadov. Model Llama 2 70b odpovedal správne v 10% prípadov.  

Ani ľudia neodpovedajú pri Watsonovej úlohe správne, no chyba nie je v tom, že nepoznajú samohlásky.  

“S ohľadom na výsledky tejto štúdie môžeme bezpečne prehlásiť, že umelá inteligencia ešte nerozmýšľa ako človek,” tvrdia vedci.  

Napriek tomu poukazujú na to, že model GPT-4 podal oveľa lepší výkon ako iné modely. To naznačuje, že sa rýchlo vylepšuje. Vedci ale nevedia povedať ako presne tento model uvažuje, keďže ide o uzavretý systém. 

Sleduj našu novú Facebook stránku a pridaj sa!

Komentáre