Neverte svojim ušiam: Nový telefonický podvod je až šialene nebezpečný. Nachytať sa môže skutočne každý!

Čoraz častejšie sa objavujú podvody, ktoré by ste odhalili len ťažko. Z telefónov obetí sa ozýva deepfake hlas ich súrodenca alebo dieťaťa.

Hlasová deepfake technológia dokáže vytvoriť desivo presvedčivú kópiu hlasu
Zdroj Pixabay (OpenClipart-Vectors), Unsplash (Taylor Grote), Úprava: Vosveteit.sk

Deepfake technológia existuje už nejakí ten piatok a väčšina zhruba vie, čo dokáže. Pre tých, ktorí ale nevedia, deepfake využíva schopnosti umelej inteligencie na upravovanie rôznych obrázkov alebo videí. Vygenerovať vie tváre známych osobností, ktoré následne „prilepí“ na tvár niekoho iného. V nesprávnych rukách tak dokáže narobiť veľké škody.

Bezpečnostní experti spoločnosti Kaspersky však varujú, že sa objavil nový typ falošného obsahu, ktorý sa tentokrát zameriava na hlas. Hrozbu tejto technológie demonštrujú na desivom prípade, ktorý sa odohral tento rok. Na jar žene z Arizony zavolala jej 15-ročná dcéra. Keď hovor zodvihla, počula ako jej dieťa prosí o pomoc predtým, než telefón chytil do rúk neznámy muž a žiadal si výkupné, zatiaľ čo dcéra kričala v pozadí. Vydesená matka nemala odkiaľ vedieť, že hlas jej dcéry nie je skutočný a útočník ho vygeneroval počítačom. Našťastie večer zistila, že dcéra je v poriadku, no žena sa stále stala obeťou podvodu.

Odoberajte Vosveteit.sk cez Telegram a prihláste sa k odberu správ

Podobné podvody sa objavujú čoraz častejšie a využívajú obrovský potenciál umelej inteligencie. Kyberzločincom stačí naozaj malá vzorka hlasu, napríklad útržok audiosprávy, aby vytvorili hlasový klon nejakej osoby. Schopnosti AI sú tak pokročilé, že obeť nemá prakticky šancu rozoznať, že nehovorí zo známym alebo s rodinou.

Spočiatku sa deepfake technológia dokázala jednoducho poznať, no dnes by ste ju spozorovali len veľmi ťažko. Čo sa týka klonovania hlasu, umelá inteligencia najprv komprimuje vložené dáta do komplexnej internej reprezentácie a potom sa dáta snaží rozbaliť tak, aby vznikla kópia čo najvernejšia originálu.

Na vytvorenie hlasového klonu potrebujeme dať umelej inteligencii dve nahrávky, pričom hlas z druhej nahrávky konvertuje do prvej. Umelá inteligencia sa pokúša rozpoznať čo bolo povedané na prvej nahrávke a následne sa z druhej nahrávky snaží zistiť hlavné charakteristiky hlasu. Následne spojí to čo musí byť povedané s tým ako to osoba povedala. Kyberzločinec tak môže vytvoriť akúkoľvek správu, ktorú prednesie hlas, na nerozoznanie od hlasu inej osoby.

Šírenie hlasových klonov

Na internete je veľa voľne dostupných nástrojov, ktoré vám umožnia vytvoriť hlasový klon. Dobrou správou je, že dosiahnuť kvalitu na vykonanie podvodu nie je až tak jednoduché, ako sa zdá. Kyberzločinec potrebuje špičkové programovacie schopnosti a ani v takom prípade to nie je zárukou kvality. Zlou správou je, že ak má útočník potrebné schopnosti, k vytvoreniu hlasového klonu mu stačí len trojsekundová audionahrávka. To by však musel útočník byť expert.

V bežných prípadoch, za použitia komerčne dostupného softvéru, by podvodník potreboval približne päť minút audiozáznamu, aby mohol vytvoriť presvedčivý klon hlasu. Takú dlhú nahrávku sa útočníkovi nepodarí získať až tak ľahko. No neznámou je, že keď sa na vás zamiera podvodník, či bude expert alebo nie.

Ako sme však už spomenuli, podvody s klonovanými hlasmi narastajú. Len málokedy na základe hlasu rozpoznáte podvod, no ak by vám zavolal niekto kto sa zdá byť v tiesni a požaduje od vás peniaze alebo osobné údaje, hovor radšej ukončite alebo sa volajúce opýtajte na niečo, čo viete len vy a on. Ak to je známy, pravdepodobne máte jeho číslo uložené v telefóne a zavolajte mu znovu. Možno zistíte, že nemal ani len tušenie o tom, že si od vás pred chvíľou pýtal peniaze.

Prihláste sa k odberu správ z Vosveteit.sk cez Google správy

Komentáre