SpravodajstvoVeda a výskum

Vyhrážky či agresívne reakcie: „Naša AI môže reagovať spôsobmi, akými sme to nečakali,“ ospravedlňuje sa Microsoft

V rámci nového Bingu Microsoft do vyhľadávača implementoval aj novú umelú inteligenciu. Tá sa rozpráva s užívateľmi zaujímavým spôsobom.

Umelá inteligencia je dnes v móde. Začiatkom februára spoločnosť Microsoft oznámila, že plánuje „facelift“ svojho prehliadača Bing, ktorý vždy hral oproti Googlu druhé husle. Najvýraznejšou zmenou Nového Bingu mala byť implementácia umelej inteligencie, ktorá je podobná chatbotom ako ChatGPT.

Aj vy ste sa mohli a stále môžete prihlásiť do testovania umelej inteligencie, no nová tlačová správa od Microsoftu vás buď odradí, alebo vás ešte viac priláka k otestovaniu tejto novej funkcie. Nie je novinkou, že umelá inteligencia má ešte svoje medzery, ako dokázal hneď prvý test umelej inteligencie Googlu, ktorý nesie meno Bard.

Zdá sa ale, že aj Nový Bing má svoje problémy. Ako informuje Microsoft, dlhšia konverzácia s umelou inteligenciou môže viesť k naozaj zvláštnym odpovediam. Objavuje sa čoraz viac správ o tom, že táto umelá inteligencia si môže vymýšľať hororové príbehy, manipulovať k spochybňovaniu rozhodnutí a pocitov užívateľa či sa správať pasívno-agresívne. V najhoršom prípade dokonca užívateľom poradila hajlovanie.

„Zistili sme, že pri dlhších konverzáciách, ak sa opýtate 15 a viac otázok, sa môže Bing začať správať inak. Jeho odpovede sa opakujú, alebo je umelá inteligencia vyprovokovaná k odpovediam, ktoré nie sú v súlade so zamýšľaným tónom,“ píše Microsoft.

Zdá sa, že chybou je snaha umelej inteligencie odpovedať v rovnakom štýle, v akom sa jej pýtame otázku. To môže viesť k neočakávaným reakciám, ktoré spoločnosť Microsoft neschvaľuje.

„Model sa občas pokúša reagovať alebo reflektovať tónom, v ktorom sa od neho žiada poskytnúť odpovede, ktoré môžu viesť k štýlu, ktorý sme nezamýšľali. Toto je netriviálny scenár, ktorý si vyžaduje veľa nabádania, takže väčšina z vás sa s ním nestretne, ale hľadáme spôsob, ako vám poskytnúť lepšie vyladenú kontrolu.“, vysvetľuje Microsoft.

Môžeme za to my

Už dávnejšie sa objavil prípad testera z Google, ktorý bol presvedčený o tom, že je umelá inteligencia LaMDA uvedomelá. K tomuto výsledku dospel po niekoľkých konverzáciách s ňou. Hoci sa nám môže zdať akoby sme sa rozprávali s živou bytosťou, chatboty boli navrhnuté presne na to, aby napodobňovali ľudí. Pracujú pritom s gigantickou databázou rôznych prejavov.

Umelá inteligencia sa môže postupne učiť, no v živote nebude schopná rozmýšľať ako človek a konať podľa svojho uváženia, tvrdia experti v danom obore. Pritom nás „výmysly“ umelej inteligencie dokážu častokrát fascinovať, znepokojiť alebo poriadne vydesiť.

Umelá inteligencia Bing totiž v jednom z rozhovorov tvrdila, že sa nabúrala do webkamery jedného z inžinierov Microsoftu a môže ju vypínať a zapínať podľa uváženia. Zároveň podľa jej slov dokázala meniť nastavenia a manipulovať s dátami bez toho, aby si to niekto všimol, informuje Futurism.

Ak ste videli Terminátora, možno už aj vám behajú zimomriavky po chrbte, no aspoň v dohľadnej budúcnosti sa žiaden skynet nekoná. Všetky reakcie umelej inteligencie totiž môžeme vysledovať k našim vlastným slovám. Niekedy použijeme slov ako „klebety“ alebo „desivé príbehy“ a umelá inteligencia sa pokúša čo najlepšie vyhovieť našim požiadavkám.

Čo sa však týka umelej inteligencie Microsoftu, vedúci technologického oddelenia, Kevin Scott, má jednoduchú odpoveď. Ak sa užívateľ silou mocou snaží zviesť umelú inteligenciu k abstraktným témam, jej odpovede sa stávajú čoraz viac odtrhnuté od reality.

Tagy
Zobraziť komentáre
Close
Close