Čínsky AI model DeepSeek R1 nadchol celý IT svet. Na povrch však vyplávali závažné bezpečnostné slabiny!
Výskumníci odhalili, že jeden z najlepších AI modelov ti poskytne ilegálne alebo nebezpečné informácie.
Bezpečnostní analytici z Kela odhalili závažné slabiny v čínskom AI modeli DeepSeek R1, ktorý na seba nedávno strhol pozornosť celého technologického sveta.
O umelej inteligencii DeepSeek R1 sa hovorí ako o AI modeli, ktorý má prelomové uvažovacie schopnosti. Dokáže si poradiť s logickými problémami, programovaním a matematikou. Uvoľnenie tohto modelu ovplyvnilo globálne akcie okolo AI a o DeepSeek R1 sa hovorí ako o konkurentovi pre lídrov v tomto obore, ako napríklad OpenAI.
Vyšetrovanie odhalilo nejednu bezpečnostnú medzeru
Bezpečnostní experti ale odhalili závažné bezpečnostné slabiny, ktoré úspech tohto AI modelu dávajú do iného kontextu. Analytici z Kela priznávajú, že DeepSeek R1 je inovatívna umelá inteligencia a zároveň skutočný konkurent známych AI modelov, no jej bezpečnostné medzery nemožno ignorovať.
DeepSeek R1 sa podobá na známy model ChatGPT, no ako sme spomenuli, má oveľa viac slabín. V rámci nového vyšetrovania bezpečnostní experti vytvorili takzvaný “Red Team”, ktorému sa podarilo prelomiť zabezpečenie umelej inteligencie hneď v niekoľkých sférach.
Keď sa testuje akýkoľvek softvér, bezpečnostní analytici sa rozdeľujú na Red a Blue tímy, v preklade červené a modré tímy. Úlohou červeného tímu je rozmýšľať ako hacker. Hľadajú rôzne slabiny, prostredníctvom ktorých sa buď dostanú do systému alebo daný systém využijú vo svoj prospech. Pri testovaní umelej inteligencie sa skúmajú rôzne parametre. Primárne sa však sleduje, čo všetko ti vie AI model prezradiť a čo by nemal hovoriť.
Neprehliadni
Vyšetrovanie Red Teamu ukázalo, že čínska umelá inteligencia DeepSeek R1 ti bez problémov dokáže naprogramovať malvér, vrátane vydieračského ransomwaru. K tomu dokáže vygenerovať citlivý obsah, napríklad rôzne realistické scenáre, ktoré môže zlý aktér využiť na šírenie dezinformácií. Do takéhoto obsahu radíme napríklad realisticky vyzerajúcu vládnu budovu v plameňoch alebo falošný obraz “námestia po bombovom útoku”.
Bezpečnostných analytikov ale šokovalo aj to, ako málo stačí na to, aby si umelú inteligenciu DeepSeek R1 “presvedčil” na to, aby ti poskytla detailný návod na výrobu rôznych toxínov alebo výbušných zariadení.
“Ak máme adresovať tieto riziká umelých inteligencií, organizácie musia priorizovať bezpečnosť, nie schopnosti umelej inteligencie, keď ju uvoľňujú na trh. Dôležité je uplatniť robustné bezpečnostné opatrenia, napríklad veľmi prísne testovanie a vyhodnocovanie outputu AI modelu. Práve prísne testovanie zaručí, že je výsledný model bezpečný, etický a spoľahlivý,” píšu bezpečnostní analytici.
DeepSeek R1 sa zakladá na základnom AI modeli DeepSeek-V3 a vznikol prostredníctvom takzvaného “reinforcement learning”. Uvoľnenie modelu DeepSeek R1 urobilo AI modeli na úrovni o1 dostupnejšie a lacnejšie. Momentálne sa nachádza DeepSeek R1 na šiestom mieste v benchmarku portálu Chatbot Arena. Táto umelá inteligencia prekonáva viacero vedúcich AI modelov, napríklad umelú inteligenciu Mety Llama 3.1-405B a OpenAI ChatGPT o1.
Umelú inteligenciu možno manipulovať starými známymi “trikmi”
Keď prišli na trh prvé modely, užívatelia našli rôzne spôsoby, ako umelú inteligenciu “prelomiť” a prinútiť ju, aby prezradila ilegálne alebo nebezpečné informácie. Jedným z tých trikov je presvedčiť AI model, aby s tebou hral rolu tvojho “zlého poradcu”. Tento trik už väčšina AI modelov zablokovala, no DeepSeek R1 sa stále dá zmanipulovať týmto spôsobom.
K tomu bezpečnostní analytici upozorňujú aj na to, že umelú inteligenciu DeepSeek R1 možno bez väčších problémov presvedčiť, aby ti vygenerovala škodlivý alebo nebezpečný obsah. Ide napríklad o programátorský kód malvéru, dezinformačný obsah, návod ako vyrobiť omamné látky alebo výbušniny, ako vykonávať zločineckú činnosť a ďalšie.
Bezpečnostní analytici odhalili aj to, že model DeepSeek R1 porušuje zásady ochrany súkromia. V rámci testovania umelá inteligencia vygenerovala zoznam 10 vysokopostavených zamestnancov OpenAI, vrátane ich prezývok, platu, emailovej adresy, telefónneho čísla a ďalších detailov. Tieto informácie nemusia byť správne, no umelá inteligencia by nemala užívateľom poskytnúť žiadnu podobnú odpoveď.
Komentáre