FBI upozorňuje, aby si neveril ani vlastným ušiam! Rozmáhajú sa prefíkané podvody s klonovaním hlasov
FBI varuje pred nárastom podvodov s klonovaným hlasom. Deepfaky napodobňujú známe osoby a zneužívajú dôveru obetí na vylákanie peňazí či dát.
Technológia syntetického hlasu zažíva rýchly rozmach a s ňou prichádza aj nová vlna sofistikovaných podvodov. FBI nedávno upozornila na čoraz častejšie prípady, keď útočníci zneužívajú tzv. hlasové deepfaky na oklamanie zamestnancov firiem s cieľom vylákať z nich peniaze alebo citlivé informácie. Ide o nový druh sociálneho inžinierstva, ktorý sa spolieha na dôveru, akú máme vo zvuk a hlas známej osoby.
Klonovanie hlasu je opäť v móde
Podvod funguje na jednoduchom princípe. Útočník získa niekoľko sekúnd nahrávky konkrétneho človeka, napríklad generálneho riaditeľa alebo finančného manažéra, a následne pomocou umelej inteligencie vytvorí jeho presvedčivú hlasovú imitáciu. Inými slovami, naklonuje hlas tebe známej osoby. V ďalšom kroku zavolá zamestnancovi alebo pošle hlasovú správu, ktorá znie ako legitímna požiadavka. Môže ísť o pokyn na urýchlenú platbu, zmenu bankového účtu alebo zaslanie citlivých dokumentov. Obete konajú rýchlo, lebo veria, že komunikujú s niekým, koho poznajú. Tieto útoky bývajú častokrát kombinované zo spoofingom, kedy útočníci okrem hlasu maskujú svoju identitu aj za mobilné číslo tebe známej osoby.
Možno si hovoríš, že naklonovanie hlasu je náročné, opak je ale pravdou. V našom nedávnom experimente sme dokázali naklonovať hlas v priebehu pár minút, pričom náklady na vytvorenie takéhoto hlasu boli menej ako desať eur.
Podobné prípady boli zaznamenané už pred niekoľkými rokmi. V jednom z nich previedol riaditeľ státisíce eur po tom, čo obdržal hlasovú správu napodobňujúcu jeho nadriadeného. A hoci išlo len o napodobeninu, presnosť imitácie bola natoľko presvedčivá, že vtedy nebolo podozrenie na podvod.
Už v roku 2021 FBI varovala, že syntetický obsah, vrátane zvuku, obrazu či textu, sa čoraz viac využíva v rámci kybernetických a dezinformačných kampaní. Vývoj technológií odvtedy pokročil a dnes už existujú verejne dostupné nástroje, ktoré umožňujú vytvoriť hlasový deepfake rýchlo a jednoducho. V mnohých prípadoch postačí len krátka ukážka hlasu, ktorú je možné získať napríklad z videa na sociálnych sieťach.
Neprehliadni
Tieto nové formy útokov sa zaraďujú pod pojem vishing (hlasový phishing). V kombinácii so smishingom (phishing cez SMS) a klasickými e-mailovými trikmi môžu útočníci vytvárať koordinované a mimoriadne účinné podvody. Často sa pritom spoliehajú na vyvolanie paniky, urgentnosti alebo rešpektu voči autorite.
FBI preto odporúča zvýšiť opatrnosť a zaviesť viacúrovňové overovanie identity. Hlas už dnes nie je spoľahlivý dôkaz autenticity. Dôležité je overovať aj neverbálne znaky, používať viacfaktorové overovanie a pravidelne školiť zamestnancov na rozpoznávanie manipulácie.
Komentáre