Ako sa umelej inteligencii darí brániť proti hackerom? Nie veľmi dobre, ukazuje štúdia

Výskumníci z NC State University poukázali na mimoriadne závažnú slabinu umelej inteligencie, ktorá by mohla stáť životy.

umela inteligencia titulka
Zdroj: GrandeDuc / Shutterstock.com

Umelá inteligencia je pre mnohých technológiou budúcnosti. Už dnes pomáha v rôznych výskumoch, no jej schopnosti môžeme využívať aj my. Nástroje ako ChatGPT nám uľahčujú vyhľadávanie informácií alebo môžeme vďaka nim jednoducho vytvoriť prakticky akýkoľvek obraz.  

Už o pár rokov by sa však umelá inteligencia mohla stať neoddeliteľnou súčasťou autonómnych vozidiel alebo by mohla pomáhať v zdravotníctve. Výskumníci z NC State University však v rámci nového výskumu varujú, že umelá inteligencia je viac náchylnejšia na kyberútoky, než sa spočiatku predpokladalo. Ak by sa hackerom podarilo preniknúť do siete umelej inteligencie, dokázali by ju “presvedčiť”, aby robila zlé rozhodnutia.  

Odoberajte Vosveteit.sk cez Telegram a prihláste sa k odberu správ

Ide o rôzne typy útokov, ktoré sa spoliehajú na rovnakú metódu. Tou je manipulácia dát, ktoré môže umelá inteligencia “vidieť” alebo s ktorými pracuje. Napríklad útočníci môžu prísť na to, že určitá nálepka na značke STOP môže spôsobiť, že ju AI autonómne vozidlo úplne prehliadne. Ďalším prípadom je kód, ktorý by mohol zmeniť spôsob akým umelá inteligencia diagnostikuje chorobu pacienta. V najhorších prípadoch by takéto zmeny mohli stáť ľudské životy, varujú vedci. 

“Vo väčšine prípadov môže človek zmeniť značku STOP rôznymi spôsobmi, no umelá inteligencia bude stále vedieť, že ide o stopku. Stále má však svoje slabiny, ktoré môže útočník spoznať a zneužiť ich, aby spôsobil napríklad dopravnú nehodu,” vysvetľuje Tianfu Wu, spoluautor štúdie.  

Umelá inteligencia má viac slabín, než sa čakalo

Autori novej štúdie vedeli, že takéto typy slabín existujú. Nová štúdia preto zisťovala, ako často sa môžu v umelej inteligencii vyskytovať. Ukázalo sa, že takéto typy slabín sú bežnejšie, než sa spočiatku predpokladalo. Varujú, že tieto slabiny nie sú len o tom, aby umelú inteligenciu pomýlili. Skúsený útočník môže tieto slabiny využiť na to, aby prinútil umelú inteligenciu interpretovať dáta presne takým spôsobom, akým útočník chce.  

Ako príklad opäť uvádzajú scenár so stopkou. Útočník nemusí túto značku označiť len tak, aby ju AI prehliadla. Pomocou odlišných nálepiek môže umelú inteligenciu presvedčiť o tom, že sa pozerá na zelené svetlo semaforu alebo na rýchlostnú značku.  

Umelá inteligencia sa proti podobným útokom zatiaľ nedokáže vôbec brániť. Autori štúdie preto vysvetľujú, že by sme ju nemali implementovať do praktických scenárov, obzvlášť ak v rámci týchto prípadov môžu byť ohrozené ľudské životy.  

Výskumníci vytvorili pre potreby výskumu nástroj QuadAttacK. Ide o softvér, ktorý sleduje ako sa AI systém učí na čistých dátach a snaží sa pochopiť, ako sa AI rozhoduje na základe týchto dát. Následne nájde spôsob, ako by sa dali manipulovať dáta tak, aby softvér dosiahol svoj vlastný výsledok. Autori štúdie otestovali softvér na štyroch rôznych umelých inteligenciách a všetky vykazovali množstvo bezpečnostných slabín. V nasledujúcich krokoch budú vedci zisťovať, ako tieto slabiny odstrániť.  

Prihláste sa k odberu správ z Vosveteit.sk cez Google správy

Komentáre