S umelou inteligenciou by sme mali byť opatrní, tvrdia bezpečnostní experti: Naše chápanie je podľa nich stále v „beta verzii“

Ani lídri vo sfére AI nemajú úplne jasno v tom, čo umelá inteligencia dokáže a kde sú jej limity a slabiny. Zatiaľ by sme ju nemali používať v dôležitých sférach.

umela inteligencia_titulka
Zdroj: Ole.CNX / Shutterstock.com

Spoločnosť OpenAI vydala pre verejnosť umelú inteligenciu ChatGPT ešte v roku 2022. Táto technológia na seba okamžite strhla pozornosť verejnosti, pretože išlo o prvý ukážku toho, čo umelá inteligencia, presnejšie veľký jazykový model, skutočne dokáže.  

Je rok 2024 a umelá inteligencia sa postupne začína objavovať aj v rôznych komerčných produktoch. Centrum pre kyberbezpečnosť NCSC ale varuje, aby boli ako väčšie a menšie spoločnosti, tak aj bežní ľudia s touto technológiou opatrní.  

Odoberajte Vosveteit.sk cez Telegram a prihláste sa k odberu správ

“Len pred niekoľkými rokmi sme vedeli pomerne dobre rozlíšiť koncepty strojového učenia a umelej všeobecnej inteligencie. Strojové učenie bola technológia, ktorá dokázala pomerne dobre určiť, či sa na nejakom existujúcom obrázku nachádza mačka alebo nie. Umelá všeobecná inteligencia ešte ako taká neexistovala, no vedeli sme, ako by mala vyzerať. Umelá všeobecná inteligencia, skrátene AGI, by sa správala podobne ako človek,” píše portál NCSC. 

Bezpečnostní experti touto cestou chcú upozorniť na to, že hoci odbor umelej inteligencie napreduje naozaj raketovým tempom vpred, ani experti na AI zatiaľ nemajú úplne jasno v tom, čo umelá inteligencia skutočne dokáže, aké sú jej slabiny a čo je dôležitejšie, zraniteľné miesta. Dnes môžeme používať niekoľko rôznych umelých inteligencií. Veľkými hráčmi sú ChatGPT, Bard od Googlu a Bing od Microsoftu. Naše chápanie umelej inteligencie je však podľa expertov stále v “beta verzii”.  

Umelú inteligenciu sme vychovali a stále jej dobre nerozumieme

Najväčšou výzvou a potenciálne aj problémom je to, že strojové učenie a umelá inteligencia začali vykazovať všeobecnejšie schopnosti. Tieto systémy sú trénované na obrovskom množstve dát a vedci sa snažia pochopiť, ako je niečo také možné. Niektorí odborníci hovoria, že umelú inteligenciu sme nevytvorili ale “vychovali”. Z hľadiska bezpečnosti by sme preto veľké jazykové modely mali vnímať ako samostatnú entitu, ktorú zatiaľ plne nechápeme, než sa snažiť na ňu uplatniť naše poznatky z odborov strojového učenia a umelej všeobecnej inteligencie.  

Experti si uvedomujú, že veľké jazykové modely zatiaľ nechápu rozdiel medzi inštrukciou a dátami, ktoré majú AI pomôcť túto inštrukciu splniť. Príkladom z praxe je umelá inteligencia, ktorej užívatelia dávali nevhodné komentáre. Netrvalo dlho a takáto umelá inteligencia začala sama písať rasistické, urážlivé či inak nevhodné správy.  

Bezpečnostní analytici sa už stretli aj s útokmi hackerov, ktoré prebiehali keď sa užívateľ spýtal AI nejakú konkrétnu otázku. V praxi by takýto útok mohol viesť k vytvoreniu falošnej transakcie, ak by banky uplatňovali umelú inteligenciu ako digitálneho asistenta. Výskumníci sa na tieto typy útokov momentálne pozerajú lepšie, no nevedia, či sa im v budúcnosti bude dať zabrániť.  

Existuje šanca, že umelé inteligencie sú už od základov náchylné na tieto typy útokov. Odborníci vedia hackerom prácu sťažiť, no neexistuje nič, čo by si dokázalo s útokmi poradiť “na istotu”. Zároveň existuje riziko, že postupom času objavíme viac vážnejších zraniteľností AI modelov. Umelá inteligencia je fascinujúcou a prelomovou technológiou. Odborníci tvrdia, že zatiaľ by sme ju nemali zavádzať do kritických systémov, ktoré by mohli negatívne ovplyvniť užívateľov.  

Prihláste sa k odberu správ z Vosveteit.sk cez Google správy

Komentáre