Hlasový deepfake sa stáva hrozbou: Dokáže človek rozpoznať falošný hlas? Štúdia priniesla znepokojivé výsledky

Podvodníci si prisvojujú mimoriadne nebezpečnú formu podvodu, obete klamú umelo vytvorenými hlasmi. Dokáže človek ale rozpoznať, že mu volá falošný hlas?

Hlasová deepfake technológia dokáže vytvoriť desivo presvedčivú kópiu hlasu
Zdroj Pixabay (OpenClipart-Vectors), Unsplash (Taylor Grote), Úprava: Vosveteit.sk

Deepfake technológia dokáže pomocou umelej inteligencie dosadiť do videa tvár iného človeka, napríklad celebrity, politika, známej osoby alebo prakticky akéhokoľvek človeka. Táto technológia existuje už nejaký ten piatok a hoci sa spočiatku používala aj na zábavu, mnohí si okamžite uvedomili riziko, aké predstavuje.

Dnes dokážeme vytvoriť nielen deepfake video, ale aj hlasový klon určitej osoby. Minulý mesiac sme informovali o šialene nebezpečnom podvode, ktorý využíva práve schopnosti umelej inteligencie vytvoriť mimoriadne presvedčivú kópiu hlasu blízkej osoby. Vo svojej podstate ide o typický phishing, no obete zmätie to, že im tentokrát volá známy alebo dokonca rodina. Podvodníci môžu situáciu vyhrotiť až do extrému, príkladom je podvod v ktorej sa útočník vyhrážal žene, zatiaľ čo umelo vytvorený hlas jej dcéry kričal v pozadí. Znie to nebezpečne a táto nová forma kyberzločinu predstavuje naozaj obrovské riziko, no na vytvorenie dokonalej kópie hlasu sa vyžaduje veľké úsilie.

Odoberajte Vosveteit.sk cez Telegram a prihláste sa k odberu správ

PLOS ONE sa nedávno objavila štúdia, ktorá v tomto smere prináša znepokojivé výsledky. Vedci upozorňujú, že človek nedokáže spoľahlivo identifikovať umelo vytvorený hlas, ani keď je vopred na túto úlohu trénovaný. V rámci výskumu vedci pracovali s viac ako 500 dobrovoľníkmi. Tí len v 73% prípadov dokázali správne identifikovať hlasový deepfake. Trénovanie na rozpoznanie falošných hlasov v tomto prípade malo naozaj minimálny účinok.

Hlasovú deepfake technológiu použili útočníci v praxi aj tak, že vďaka nej oklamali bankárov a vykonali nezákonné transakcie. Autori štúdie poukazujú na to, že v tomto smere predstavuje hlasový deepfake obsah obrovskú hrozbu.

Deepfake obsah sa stáva nebezpečnejším

V rámci experimentu vedci dobrovoľníkov vopred upozornili, že budú pracovať s umelo vytvorenými hlasmi. Zároveň nepoužili najlepšiu technológiu na vytvorenie hlasového deepfake obsahu. Ako sme spomenuli, správne určili dobrovoľníci falošný hlas len v 73% prípadov. Autori štúdie však upozorňujú, že v realistických scenároch môže byť výsledok ešte horší.

Experiment prebiehal v dvoch jazykoch, angličtine a mandarínčine. Zaujímavosťou je, že anglicky hovoriaci dobrovoľníci identifikovali falošný hlas na základe dýchania, zatiaľ čo mandarínsky hovoriaci identifikovali falošný hlas na základe kadencie, tempa medzi slovami a plynulosti reči. Na individuálnej škále ľudia podali horší výkon ako automatizovaný detekčný systém. V priemere však podali rovnaké skóre. Človek si však lepšie poradil s nečakanými udalosťami, na ktoré nebol detektor trénovaný.

Závery štúdie však dokazujú, že ľudia nedokážu spoľahlivo rozlíšiť falošný hlas od toho skutočného. Autori poznamenávajú, že technológia hlasového deepfake obsahu sa stane lepšou a lepšou, čím sa stane falošný hlas ťažšie rozoznateľný.

„Vzhľadom na to ako sa dobrovoľníkom darilo pred a po tréningu usudzujeme, že je zbytočné trénvať ľudí na rozoznávanie deepfake hlasu. Namiesto toho by sme sa mali venovať viac úsilia vylepšovaniu detektorov,“ tvrdia autori.

Vysporiadať sa s hrozbou hlasových deepfake nahrávok by sme sa teraz mohli napríklad crowdsourcovaním procesu vyhodnocovania hlasu.

Prihláste sa k odberu správ z Vosveteit.sk cez Google správy

Komentáre