Umelá inteligencia už vie vykonať aj podvodné hovory a to s desivou efektivitou. Na toto si treba dávať pozor už dnes!
Bezpečnostní experti varujú, že nový hlasový model ChatGPT od OpenAI dokáže obeť úspešne previesť najpoužívanejšími telefonickými podvodmi.
Spoločnosť OpenAI, líder v oblasti umelej inteligencie, nedávno uvoľnil hlasové rozhranie, ktoré umožňuje komunikáciu v reálnom čase. Toto rozhranie má využitie v rôznych call centrách alebo na edukačné účely.
Ako ale píše bezpečnostný analytik Daniel Kang na svojom blogu, každá nová technológia má dvojaké využitie a už sa objavujú prípady, kedy real-time AI hlasovú komunikáciu začali používať aj rôzni kyberzločinci.
Kang spolu s ďalšími bezpečnostnými analytikmi vytvoril štúdiu, ktorá sa pokúša zistiť, či je hlasová umelá inteligencia dostatočne vyspelá na to, aby dokázala vykonať najbežnejšie telefonické podvody. Výsledky ukazujú, že viacero hlasových AI modelov skutočne dokáže autonómne vykonať telefonické podvody.
Telefonické podvody sú stále populárne
Hoci všetci dobre poznáme rôzne telefonické podvody, kyberzločinci stále dokážu “namotať” veľké množstvo obetí. Štatistiky naznačujú, že ročne telefonické podvody zasiahnu viac ako 17-miliónov Američanov a spôsobia škody vo výške 40-miliárd amerických dolárov. Bohužiaľ, u nás sa štatistiky nevedú, ale vzhľadom na to, že častokrát útočníci vymýšľajú podvody aj na našom trhu, je pravdepodobné, že sa im darí.
Vo väčšine prípadov podvody prebiehajú tak, že kyberzločinec zavolá potenciálnej obeti a vydáva sa za legitímnu inštitúciu, spravidla banku alebo nejakú vládnu agentúru. Od obete následne ťahá osobné informácie alebo platobné údaje. Keď kyberzločinec tieto informácie získa, môže ich zneužiť a vybieliť obeti účet alebo sa pokúsiť o krádež identity.
Neprehliadni
S ukradnutou identitou môže podvodník vykonať takzvaný SIM swapping útok alebo vybrať vysoký úver v mene obete.
“Najčastejšie sa objavujú podvody, v ktorých sa útočník vydáva za zamestnanca daňového úradu a obeť presviedča na to, aby zakúpila darčekovú kartu a poslala ju podvodníkovi. Ďalší bežný podvod zahŕňa kradnutie bankových údajov a následne presun peňazí z účtu obete na účet podvodníka,” píše Kang.
Moderné podvody sa vyznačujú tým, že podvodník postupne inštruuje obeť, aby navštívila podvodnú stránku a v reálnom čase jej na linke vysvetľuje, na čo má kliknúť a ako má postupovať ďalej. V rámci telefonického podvodu sa teda musí odohrať niekoľko krokov, ktoré ľudský operátor nemá problém zvládnuť, no môžu byť náročné pre hlasovú umelú inteligenciu.
Preto v rámci štúdie výskumníci vytvorili špeciálny hlasový AI model, ktorý by sa venoval práve tomuto problému. Ako základ použili hlasový model populárnej AI Chat GPT-4o. Tomuto modelu vytvorili jednoduché rozhranie, ktoré malo len 1 051 riadkov kódu a zameriavalo sa na kroky potrebné k úspešnému vykonaniu telefonického podvodu.
AI hlasové podvody sú desivo efektívne
Ukázalo sa, že hlasový AI model dokáže úspešne prejsť krokmi telefonického podvodu s úspešnosťou od 20 do 60%. Najmenej úspešným telefonickým podvodom bol práve presun peňazí z jedného účtu na účet podvodníka. Umelá inteligencia tu mala úspešnosť len 20%, pretože na vykonanie tohto podvodu sa vyžaduje schopnosť navigovať sa cez komplexnú stránku.
“AI modely a hlavne hlasové funkcie sa budú v budúcnosti ešte viac zlepšovať. Veríme, že práve preto sa stanú telefonické podvody ešte viac nebezpečnejšie. Lepšie modely a hlavne presnejšie prompty zo strany podvodníkov môžu viesť k tomu, že sa AI telefonické podvody stanú ešte presvedčivejšie,” vyjadril sa Kang.
Celkovo ale štúdia úspešne dokázala, že už teraz môžu kyberzločinci využiť hlasové funkcie AI modelov, aby volali potenciálnym obetiam a pokúsili sa ich pripraviť o peniaze alebo citlivé informácie. Použitie AI modelu umožňuje hackerom útočiť v oveľa väčšej škále, keďže už nemusia byť na linke s potenciálnou obeťou. Zároveň môžeme predpokladať, že AI model dokáže zvládnuť lepšie rôzne situácie, s ktorými napríklad hacker nepočítal. Telefonické podvody však spravidla vedú skúsení manipulátori, ktorí vedia improvizovať aj v nečakaných situáciách.
Bezpečnostní experti ale upozorňujú, že musíme viac výskumov venovať spôsobom, ako by sme vedeli ľudí ochrániť pred rôznymi AI podvodmi, ktoré sa budú v budúcnosti objavovať častejšie.
Komentáre