Ukradnúť vám hlas pomocou AI nebude už také ľahké. Nový nástroj má hackerom urobiť škrt cez rozpočet

Čoraz častejšie sa objavujú podvody, pri ktorých zločinci využívajú hlas známeho obete. Nový systém AntiFake má podobným prípadom zabrániť.

Hlasová deepfake technológia dokáže vytvoriť desivo presvedčivú kópiu hlasu
Zdroj Pixabay (OpenClipart-Vectors), Unsplash (Taylor Grote), Úprava: Vosveteit.sk

Umelá inteligencia napreduje bleskovým tempom a už dnes nám robí problém rozlíšiť čo je skutočné a čo naopak vytvorila umelá inteligencia. Jednou z oblastí sú aj takzvané hlasové klony, takmer dokonalá replika hlasu určitej osoby, ktorú dokáže umelá inteligencia vytvoriť len z krátkej audionahrávky.  

Niektorí kyberzločinci používajú hlasové klony na oklamanie obetí, ktoré prakticky nemajú šancu podvod prekuknúť, ak nemajú predstavu o tom, že takáto technológia existuje už dnes. Výskumníci z Washington University in St. Louis v rámci svojej novej práce vytvorili nástroj, ktorý nazvali AntiFake. Ide o nový mechanizmus, ktorý dokáže zabrániť vytvoreniu hlasového klonu.

Odoberajte Vosveteit.sk cez Telegram a prihláste sa k odberu správ

AntiFake je v niečom podobný softvérom na rozoznanie DeepFake videí, no v jednej veci sa výrazne líši. Dnes vieme DeepFake rozpoznať až po útoku. AntiFake priamo zabraňuje vytvoreniu hlasového klonu tak, že pri niektorých slovách umelej inteligencii sťaží schopnosť získať charakteristiku hlasu človeka.  

“AntiFake poskytuje záruku, že kyberzločinci nepoužijú naše hlasy na vytvorenie hlasového klonu. V rámci tohto systému určité slová v hlasovej nahrávke deformujeme. Pre ľudské ucho ide o nepostrehnuteľný rozdiel, no pre umelú inteligenciu sa stane slovo nerozoznateľné,” tvrdí Ning Zhang, jeden z autorov štúdie.  

AntiFake je časť kódu, ktorú si môže hocikto stiahnuť zadarmo a implementovať ju. Autori štúdie zároveň chceli, aby sa AntiFake vedel postaviť aj novým hrozbám, ktoré sa objavujú čoraz častejšie. V rámci štúdie teda otestovali na AntiFake až päť špičkových hlasových softvérov. AntiFake dokázal ochrániť až v 95% prípadoch, dokonca aj v prípade neznámych programov. Následne pracovali aj s 24 dobrovoľníkmi, ktorí potvrdili, že tento nástroj môžu používať rôzne skupiny ľudí.  

Už čoskoro budeme môcť chrániť všetky hlasové správy

V súčasnosti dokáže AntiFake chrániť krátke hlasové správy. Autori štúdie ale hovoria, že nič nebráni softvéru expandovať a chrániť aj dlhšie hlasové nahrávky. Cieľom je nájsť spoľahlivé spôsoby, ako bojovať proti dezinformáciám.  

“Hlavnou myšlienkou našej práce je chrániť všetky hlasové záznamy. Nemôžem povedať, ako budú hlasové technológie napredovať ďalej. S istotou však môžeme povedať, že do pár rokov tu budeme mať nové nástroje a funkcie. Verím však, že používanie nepriateľskej technológie proti kyberzločincom sa nám vyplatí aj v budúcnosti,” vysvetlil Zhang.  

AntiFake totiž používa techniky, ktoré využívali aj kyberzločinci na napodobňovanie hlasu známych ich obetí. Teraz však túto techniku používajú odborníci na ochranu pred kyberhrozbami. AntiFake aj naďalej pokračuje vo vývoji a ako sme už spomenuli, autori hľadajú stále nové spôsoby, ako chrániť ľudí nielen pred podvodmi, ale aj dezinformáciami.  

S technológiami DeepFake a hlasových klonov je dnes až desivo jednoduché vytvoriť realisticky vyzerajúci hoax. Práve preto by sme mali mať nástroje, ktoré nám pomôžu chrániť sa pred vygenerovaným obsahom.    

Prihláste sa k odberu správ z Vosveteit.sk cez Google správy

Komentáre