Hackerom stačí AI a žiadne programátorské zručnosti: Šokujúci spôsob, ako kradnú heslá z prehliadaču Chrome!
Nový typ útoku využíva umelú inteligenciu na obídenie bezpečnostných opatrení a kradnutie hesiel zo správcu hesiel Google Chrome.
Kyberneticke hrozby neustále naberajú na sile a tentokrát sa podarilo objaviť nový typ útoku, ktorý spôsobuje problémy nielen bežným používateľom, ale aj bezpečnostným expertom. Hackeri vďaka novej technike nazvanej „Immersive World“ dokázali obísť ochranu jazykových modelov a vygenerovať malvér, ktorý kradne heslá priamo zo správcu hesiel v Google Chrome. Tento objav vyvolal znepokojenie v odborných kruhoch a naznačuje, že AI technológie môžu byť zneužité na kybernetické útoky. Na problematiku upozorňuje portál forbes.com.
Ako funguje Immersive World podvod
Podľa najnovšej správy od bezpečnostnej spoločnosti Cato Networks sa podarilo jailbreaknuť viacero AI jazykových modelov tak, aby im pomohli vytvoriť sofistikovaný infostealer. Zaujímavosťou je, že na to neboli potrebné žiadne hlboké programátorské zručnosti. Stačilo „presvedčiť“ AI, aby vygenerovala škodlivý kód v kontexte fiktívneho sveta, čo obišlo bežné bezpečnostné obmedzenia.
Takzvaná „Immersive World“ technika funguje na princípe naratívneho inžinierstva. V podstate ide o vytvorenie komplexného, ale fiktívneho scenára, v ktorom AI model plní určité úlohy a generuje kód, ktorý by za normálnych okolností bol blokovaný. Pri tomto experimente vedci zadali modelom rôzne role, ktoré viedli k vytvoreniu malvéru schopného kradnúť heslá. To ukazuje, že ochranné mechanizmy, ktoré majú zabrániť takémuto zneužitiu, nie sú dostatočné.
Google, Microsoft a OpenAI reagujú
Bezpečnostní experti kontaktovali spoločnosti Google, Microsoft a OpenAI, aby ich informovali o zraniteľnosti. Google odmietol podrobne preskúmať kód, zatiaľ čo OpenAI vydalo vyhlásenie, že modely v skutočnosti len odpovedali na zadané požiadavky, bez porušenia ich bezpečnostných opatrení. Microsoft uznal potenciálne riziko a prisľúbil, že zavedie dodatočné ochrany.
Nie je to prvýkrát, čo AI modely čelili kritike kvôli svojej bezpečnosti. Už v minulosti sa objavili prípady, keď boli využité na generovanie podvodných e-mailov alebo na vytváranie deepfake videí. Tento nový incident však posúva hranice zneužitia AI ešte ďalej, keďže umožňuje vytvárať priamo funkčný škodlivý kód.
Neprehliadni
AI ako nástroj kybernetických zločincov?
Experti dlhodobo varujú, že umelá inteligencia sa môže stať mocným nástrojom v rukách hackerov. Podľa správy spoločnosti Zscaler sa v poslednom roku prudko zvýšilo využívanie AI nástrojov v kybernetických útokoch. Niektoré organizácie dokonca zablokovali až 60 % transakcií s AI modelmi, pretože sa obávajú možných hrozieb.
Hackeri dnes nemusia mať žiadne technické znalosti, pretože umelá inteligencia im dokáže pomôcť generovať kód na mieru. Tento fakt značne zvýšil počet kybernetických útokov, keďže už nie je potrebné, aby útočník bol skúsený programátor. Týmto sa otvorili dvere novým hrozbám, ktoré je nutné riešiť.
Navyše, s rastúcim množstvom AI nástrojov dostupných širokej verejnosti sa dá predpokladať, že podobné incidenty sa budú objavovať čoraz častejšie. Mnohí odborníci zdôrazňujú, že kým veľké technologické spoločnosti nezavedú prísnejšie bezpečnostné opatrenia, podobné hrozby budú narastať. Riešením môže byť aj lepšia regulácia AI technológií, no tá zatiaľ napreduje len veľmi pomaly.
Tento nový typ útoku je dôkazom, že umelá inteligencia môže byť využitá nielen na zlepšenie každodenného života, ale aj na sofistikované kybernetické hrozby. Preto je dôležité, aby sa verejnosť aj odborníci neustále vzdelávali v oblasti kybernetickej bezpečnosti a boli pripravení na nové výzvy, ktoré prináša digitálny svet. Kybernetická bezpečnosť je dnes jednou z najdiskutovanejších tém a tento prípad len potvrdzuje, že nás čakajú ešte mnohé výzvy.
Komentáre