FBI upozorňuje, aby si neveril ani vlastným ušiam! Rozmáhajú sa prefíkané podvody s klonovaním hlasov

FBI varuje pred nárastom podvodov s klonovaným hlasom. Deepfaky napodobňujú známe osoby a zneužívajú dôveru obetí na vylákanie peňazí či dát.

Hlasová deepfake technológia dokáže vytvoriť desivo presvedčivú kópiu hlasu
Zdroj Pixabay (OpenClipart-Vectors), Unsplash (Taylor Grote), Úprava: Vosveteit.sk

Technológia syntetického hlasu zažíva rýchly rozmach a s ňou prichádza aj nová vlna sofistikovaných podvodov. FBI nedávno upozornila na čoraz častejšie prípady, keď útočníci zneužívajú tzv. hlasové deepfaky na oklamanie zamestnancov firiem s cieľom vylákať z nich peniaze alebo citlivé informácie. Ide o nový druh sociálneho inžinierstva, ktorý sa spolieha na dôveru, akú máme vo zvuk a hlas známej osoby.

Klonovanie hlasu je opäť v móde

Podvod funguje na jednoduchom princípe. Útočník získa niekoľko sekúnd nahrávky konkrétneho človeka, napríklad generálneho riaditeľa alebo finančného manažéra, a následne pomocou umelej inteligencie vytvorí jeho presvedčivú hlasovú imitáciu.  Inými slovami, naklonuje hlas tebe známej osoby. V ďalšom kroku zavolá zamestnancovi alebo pošle hlasovú správu, ktorá znie ako legitímna požiadavka. Môže ísť o pokyn na urýchlenú platbu, zmenu bankového účtu alebo zaslanie citlivých dokumentov. Obete konajú rýchlo, lebo veria, že komunikujú s niekým, koho poznajú. Tieto útoky bývajú častokrát kombinované zo spoofingom, kedy útočníci okrem hlasu maskujú svoju identitu aj za mobilné číslo tebe známej osoby.

Odoberaj Vosveteit.sk cez Telegram a prihlás sa k odberu správ

Možno si hovoríš, že naklonovanie hlasu je náročné, opak je ale pravdou. V našom nedávnom experimente sme dokázali naklonovať hlas v priebehu pár minút, pričom náklady na vytvorenie takéhoto hlasu boli menej ako desať eur.

Podobné prípady boli zaznamenané už pred niekoľkými rokmi. V jednom z nich previedol riaditeľ státisíce eur po tom, čo obdržal hlasovú správu napodobňujúcu jeho nadriadeného. A hoci išlo len o napodobeninu, presnosť imitácie bola natoľko presvedčivá, že vtedy nebolo podozrenie na podvod.

Už v roku 2021 FBI varovala, že syntetický obsah, vrátane zvuku, obrazu či textu, sa čoraz viac využíva v rámci kybernetických a dezinformačných kampaní. Vývoj technológií odvtedy pokročil a dnes už existujú verejne dostupné nástroje, ktoré umožňujú vytvoriť hlasový deepfake rýchlo a jednoducho. V mnohých prípadoch postačí len krátka ukážka hlasu, ktorú je možné získať napríklad z videa na sociálnych sieťach.

Tieto nové formy útokov sa zaraďujú pod pojem vishing (hlasový phishing). V kombinácii so smishingom (phishing cez SMS) a klasickými e-mailovými trikmi môžu útočníci vytvárať koordinované a mimoriadne účinné podvody. Často sa pritom spoliehajú na vyvolanie paniky, urgentnosti alebo rešpektu voči autorite.

FBI preto odporúča zvýšiť opatrnosť a zaviesť viacúrovňové overovanie identity. Hlas už dnes nie je spoľahlivý dôkaz autenticity. Dôležité je overovať aj neverbálne znaky, používať viacfaktorové overovanie a pravidelne školiť zamestnancov na rozpoznávanie manipulácie.

Sleduj našu novú Facebook stránku a pridaj sa!

Komentáre