Takto kyberzločinci používajú AI proti nám! Od výzvednej činnosti, cez klonovaniu hlasu, až po programovacie rady!

Spoločná štúdia Microsoftu a OpenAI odhaľuje, ako najčastejšie zneužívajú hackeri umelú inteligenciu na útoky a podvody.

Ako kyberzločinci používajú AI proti nám?
Zdroj: Pixabay (Nika_Akin, OpenClipart-Vectors, geralt), Úprava: Vosveteit.sk

Prostredie kyberbezpečnosti sa rapídne mení. Nové hrozby sa objavujú každým dňom a staré známe podvody sa stávajú sofistikovanejšie a nebezpečnejšie. Svoju zásluhu na tom určite má aj umelá inteligencia a jej rapídna integrácia do našich každodenných životov. Dnes AI pomáha nielen nám, ale aj kyberzločincom, ktorí môžu vďaka jej schopnostiam vykonávať útoky vo väčšej škále a oveľa rýchlejšie.  

Spoločnosť Microsoft v spolupráci s OpenAI, vydala výskum, ktorý sa zameriava na to, ako kyberzločinci používajú umelú inteligenciu, presnejšie veľké jazykové modely (LLM) na vykonávanie podvodov. Microsoft vysvetľuje, že rôzne hackerské skupiny a jednotliví kyberzločinci si umelú inteligenciu veľmi rýchlo adaptovali, no zatiaľ ešte bezpečnostní experti nepozorovali nové druhy útokov, ktoré by stavali čisto len na umelej inteligencii.  

Odoberajte Vosveteit.sk cez Telegram a prihláste sa k odberu správ

Ako teda hackeri využívajú umelú inteligenciu?

Napríklad proruská hackerská skupina Forest Blizzard používa modely ako ChatGPT a iné na výzvednú činnosť. Interakciou s modelmi LLM sa hackeri môžu lepšie pochopiť komunikačné protokoly satelitov, radarové technológie či špecifické technické parametre. Microsoft vysvetľuje, že používanie umelej inteligencie týmito hackermi môžeme spojiť s učením sa o technológiách, ktoré sa používajú pri konvenčných vojenských operáciách na Ukrajine.  

Okrem toho ale hackeri z Forest Blizzard používajú umelú inteligenciu na všeobecné sa vzdelávanie ohľadom skriptovacích jazykov, čo im vie pomôcť v hackerskej činnosti.  

Aj takto pomáha umelá inteligencia hackerom

Naopak severokórejská hackerská skupina Emerald Sleet, aktívna hlavne minulý rok, používa LLM modely na pomoc s phishingovými e-mailami a inými správami. Umelá inteligencia dokáže vytvoriť dôveryhodný podvodný e-mail prakticky v akomkoľvek jazyku, čím sa hackeri vyhnú robeniu základných gramatických chýb alebo zvláštnemu slovosledu.  

LLM modely taktiež používajú na vyhľadávanie nových bezpečnostných slabín. Umelá inteligencia im vie prezradiť, aké problémy so zariadeniami ľudia najčastejšie vyhľadávajú a tým sa dostať k zariadeniam náchylným na ich útoky. Zároveň im umelá inteligencia môže pomôcť identifikovať takzvané think tanky, vládne organizácie či iné verejne známe osoby.  

Iné aktívne hackerské skupiny využívajú umelú inteligenciu podobným spôsobom. V drvivej väčšine prípadov sa hackeri cez umelú inteligenciu učia o skriptovacích a programovacích jazykoch, ako zefektívniť ich program, informujú sa o existujúcich bezpečnostných nástrojoch a iné. Umelá inteligencia sa zároveň dá použiť na vytvorenie obsahu, ktorý môže byť ďalej použitý na sociálne inžinierstvo. Nehovoríme iba o phishingových e-mailoch, ale aj generovaných obrázkoch na dezinformačné kampane.  

Čoraz častejšie sa ale objavujú aj takzvané “hlasové klony”. Ak získa hacker prístup k vášmu hlasu alebo hlasu vášho známeho, stačí mu krátka nahrávka na vytvorenie AI hlasového modelu. Cez model môže povedať hocičo, čo mu hacker napíše. Takýto hlasový klon následne hacker využije na oklamanie vás alebo vašich blízkych.  

Hlasové klony sú efektívne, pretože človek len ťažko rozpozná, že nehovorí so skutočnou osobou. V presvedčení, že mu skutočne volá známy v problémoch obeť pošle kyberzločincovi peniaze oveľa jednoduchšie.  

Microsoft aj OpenAI priznávajú jedno. Ihrisko kyberzločinu, rovnako ako “hra na mačku a myš”, sa budú s rozširujúcimi sa možnosťami umelej inteligencie rýchlo a výrazne meniť. Aj naďalej tieto veľké spoločnosti starostlivo monitorujú online priestor a snažia sa nové hrozby odhaliť ešte skôr, ako bude neskoro.  

Prihláste sa k odberu správ z Vosveteit.sk cez Google správy

Komentáre