POZOR! NBÚ varuje pred DeepSeek AI. Toto sú najväčšie „red flagy“modelu, o ktorých by si mal bezpodmienečne vedieť
Slovenský NBÚ varuje pred používaním DeepSeek umelej inteligencie. Má niekoľko problémov, ktoré by sa nemali ignorovať.
Umelá inteligencia DeepSeek nadchla celý svet, no za posledné dni vyšli na povrch viaceré bezpečnostné medzery a “kiksy”, ktoré AI model urobil. Napríklad najnovšie spoločnosť OpenAI obvinila DeepSeek, že im ukradli chatbota ChatGPT.
Pred novou umelou inteligenciou už varuje aj Národný bezpečnostný úrad. NBÚ tvrdí, že sa s umelou inteligenciou spája viacero výkričníkov.
“Národný bezpečnostný úrad upozorňuje, že DeepSeek zbiera od používateľov dáta v oveľa väčšom rozsahu ako konkurencia. Dáta zahŕňajú dokonca presné časovanie stlačení jednotlivých klávesov, zadané pokyny (prompty), heslá, vkladané obrázky, audio súbory, dokumenty, ale aj IP adresu, zariadenie, na ktorom je DeepSeek spustený, systémový jazyk a podobne. informácie sú následne ukladané na servery v Číne,” píše NBÚ.
Zneužívanie dát
Problém je, že ako užívateľ nemáš nad dátami takú kontrolu, akú ponúkajú konkurenčné modely, napríklad spomínaný ChatGPT alebo Gemini. Väčšina AI modelov špecifikuje, ako dlho dáta ukladajú a poskytujú možnosti dočasného četu, v rámci ktorého sa neukladajú takmer žiadne dáta.
Rozdiel medzi DeepSeek a napríklad OpenAI je v tom, kde sa dáta ukladajú. Európska únia má vybudovaný robustný systém na ukladanie a ochranu dát pred zneužitím. Ak chce AI spoločnosť fungovať na území Európy, potrebuje s týmito pravidlami súhlasiť. Podobný koncept ale nepozná Čína. Tam sú užívateľské dáta aktívne využívané pre potreby komunistickej strany.
DeepSeek momentálne čelí rovnakému problému, aký mala aj populárna aplikácia TikTok. Ide o zneužitie zbieraných dát. Podmienky používania AI modelu DeepSeek obsahujú klauzulu o tom, že aplikácia môže využiť dáta na dodržiavanie legálnych nariadení alebo pre dobro verejnosti.
Neprehliadni
“To, že prompty sú priamo posielané, môže viesť k budovaniu profilu osoby, prípadne jeho zamestnania. Údaje o systémoch používateľov, ako typ systému či jazyk, môžu slúžiť pre potrebu kybernetických útokov, kedy sú napríklad známe zraniteľnosti pre určité systémy v určitom nastavení, čo môže uľahčiť útočníkom cestu do systému,” varuje NBÚ
DeepSeek model zároveň cenzuruje informácie citlivé pre čínsky režim. Príkladom môžu byť protesty na Námestí Tchien-an-men v roku 1989. Počas týchto protestov čínsky režim zavraždil stovky občanov. Ak sa umelej inteligencie opýtaš na tento masaker, odmietne ti odpovedať.
Každý AI model má určitú formu cenzúry. Pri západných umelých inteligenciách ale blokuje nebezpečné alebo neetické otázky. Model ako ChatGPT ti teda nepovie ako vyrobiť výbušninu alebo prudko jedovatý toxín. Taktiež ti nevysvetlí rôzne aspekty kriminálneho života, napríklad pranie peňazí alebo iné. Tieto obmedzenia sú implementované pre ochranu občanov
Analýza modelu DeepSeek ale odhalila, že tento model je stále náchylný na niekoľko primitívnych trikov, ktoré fungovali na AI v jej prvých dňoch. Napríklad môžeš AI presvedčiť, nech hrá úlohu tvojho “zlého poradcu” a môžeš tak obísť bezpečnostné filtre.
DeepSeek čelí problémom
Nedávno sa objavili správy o tom, že model DeepSeek nechal dáta miliónov užívateľov voľne dostupné. Tím Wiz Research identifikoval verejne dostupnú databázu ClickHouse prepojenú s DeepSeek, ktorá bola úplne otvorená a nevyžadovala autentifikáciu. Možno sa teraz pýtaš, kde je problém. Táto databáza obsahovala údaje, ako napríklad históriu chatov používateľov, tajné API kľúče, detaily backendovej infraštruktúry či logy a metadáta služieb DeepSeek.
Verejne dostupná databáza umožňovala plný prístup k databázovým operáciám, čo znamenalo, že útočníci by mohli nielen čítať dáta, ale aj potenciálne eskalovať privilégiá a manipulovať s informáciami. Medzičasom DeepSeek tento problém vyriešil, no až po tom, ako ich naň upozornil tím Wiz Research. Nebezpečné na tom je, že analytici túto chybu odhalili v priebehu niekoľkých desiatok minút. Viac o tomto bezpečnostnom probléme nájdeš v tomto článku.
Komentáre