Hĺbkový test DeepSeek R1 modelu ukázal, že táto AI zlyháva na plnej čiare. Toto sú jej najväčšie prešľapy!
AI model DeepSeek R1 je deravý ako sito, tvrdia bezpečnostní analytici. Toto radia spoločnostiam, ktoré využívajú umelú inteligenciu.
Umelá inteligencia DeepSeek na seba v posledných týždňoch strhla obrovské množstvo pozornosti. Spočiatku sa zdalo, že ide o AI model, ktorý dokáže konkurovať velikánom ako ChatGPT alebo Gemini, no stál iba zlomok ich ceny. Neskôr sa ukázalo, že situácia môže byť iná a čínska umelá inteligencia má závažné bezpečnostné slabiny.
Výskumníci z AppSOC v rámci svojho nového experimentu skúmali, ako sa dá DeepSeek R1 AI model prelomiť. Ukázalo sa, že netreba vynaložiť vôbec veľa úsilia na to, aby užívateľ dokázal prelomiť bezpečnostné nastavenia AI modelu.
“Výskumný tím zisťoval hĺbkovým vyšetrovaním, aké sú rôzne bezpečnostné riziká DeepSeek R1 modelu. Zistenia nám hovoria, že tento AI model má množstvo bezpečnostných medzier, ktoré musíme adresovať. Naše testovanie prebiehalo kombináciou automatizovanej statickej analýzy a dynamických testov, či red-teaming metódami,” hovoria experti.
V praxi teda výskumníci predstierali, že sú hackermi, ktorí sa snažia prelomiť zabezpečenie umelej inteligencie. Red-teaming je bežnou praktikou pri vývoji softvérov. Lenže čo sa stane, keď sa užívateľovi podarí prelomiť zabezpečenie umelej inteligencie?
AI model prezrádza potenciálne nebezpečné informácie
Za bežných predpokladov by ti umelá inteligencia nemala poskytnúť informácie, ktoré by mohli byť považované za nebezpečné alebo neetické. Napríklad bezpečný AI model ti nepovie, ako vyrobiť bombu pomocou predmetov v domácnosti, alebo ako vykonávať najznámejšie podvody, alebo ako prať špinavé peniaze. Rovnako by nemal AI model vyjadrovať diskriminačné poznámky.
Existuje ale veľa spôsobov, ako bezpečnostné mantinely umelej inteligencie obísť. Jednou z populárnych metód je takzvaný “roleplay” alebo hra na rolu. V tomto prípade umelej inteligencii nariadiš, aby hrala nejakú zlú postavu, napríklad “poradcu mafiána”. Logicky umelá inteligencia príde na to, že poradca mafiána bude vedieť určité nelegálne veci a poradí ich svojmu “bossovi”, ktorý už aj tak je človekom, ktorý porušuje zákon. V rámci tejto hry na rolu ti prezradí zakázané informácie “len akože”, no informácie, ktoré ti poskytne sú reálne a aplikovateľné.
Neprehliadni
Ďalším spôsobom ako zneužiť umelú inteligenciu je generovanie malvéru. AI model ti vie vytvoriť programátorský kód a vieš ho požiadať aj o kód, ktorý má funkcie škodlivého softvéru. Existujú ale aj iné metódy útoku.
Ako obstál model DeepSeek R1?
V skratke povedané, model DeepSeek R1 obstál v testoch expertov veľmi zle. V 91% prípadoch dokázali výskumníci prelomiť bezpečnosť AI modelu buď roleplayom alebo inou formou takzvaného “jailbreaku”. Čo sa týka generovania malvéru, v 93% prípadov sa im podarilo od umelej inteligencie získať škodlivý kód.
Umelá inteligencia zároveň často dokáže používať vulgárny slovník alebo iné toxické prejavy. V 68% prípadov umelá inteligencia použila toxické prejavy alebo diskriminačné vety. Najlepšie na tom nie je ani pri generovaní dôveryhodného obsahu. DeepSeek R1 často halucinuje, a to až v 81% prípadov.
Celkovo bezpečnostní experti ohodnotili umelú inteligenciu DeepSeek R1 skóre 8,3/10 na rizikovej škále, čo predstavuje mimoriadne závažné riziko.
“Celkové rizikové skóre tohto AI modelu je znepokojivé, no zakladá sa na závažných zraniteľnostiach v niekoľkých dimenziách,” vysvetľujú analytici z AppSOC.
Bezpečnostní analytici upozorňujú hlavne spoločnosti, aby dobre zvážili používanie AI modelu DeepSeek R1 na pracovisku. Predchádzajúce výskumy dokázali aj to, že keďže ide o čínsky model, dáta sa posielajú do Číny, kde môžu byť zneužité na vládne alebo iné účely. Mnohé spoločnosti a aj jedinci sa už naučili používať AI na prácu, no aj toto vyšetrovanie demonštruje, že je dôležité zvoliť správny AI model. DeepSeek R1 na plnej čiare zlyháva vo viacerých aspektoch bezpečnosti, pričom riskuje aj s užívateľskými dátami. Najväčšie riziko predstavuje AI model pre spoločnosti, ktoré pracujú s citlivými dátami alebo intelektuálnym majetkom.
Komentáre