AI deepfake je hrozbou. Microsoft varuje, že musíme niečo spraviť, inak sa nám to vymkne z rúk
Spoločnosť Microsoft varuje pred dezinformáciami vytváranými AI a žiada lepšiu reguláciu AI deepfake obsahu na internete.
Umelá inteligencia sa pomaly dostáva do nášho každodenného života a spolu s ňou sa objavujú aj nové formy kyberhrozieb. Jednou z nich je deepfake, ktorý sa s pomocou AI modelu stal jednoduchším a presvedčivejším.
Môžeme predpokladať, že rokmi sa schopnosti AI budú vylepšovať a rovnako aj tieto hrozby budú nebezpečnejšie. Spoločnosť Microsoft si už teraz uvedomuje problém AI a žiada, aby sa vytvorili prísne regulácie, ktoré by nás ochránili pred deepfake a iným škodlivým AI obsahom. Podľa Microsoftu sú najohrozenejšími skupinami deti a seniori.
Čo sa problému zneužitia AI týka, súkromné spoločnosti už urobili niekoľko krokov, aby zabezpečili čo najzodpovednejšie používanie AI modelov. Microsoft ale verí, že naše zákony sa nevyvíjajú dostatočne rýchlo na to, aby dokázali efektívne bojovať s deepfake podvodmi. Deepfake sa objavujú častejšie napríklad pred voľbami.
“Na adresovanie AI deepfake problému nemáme všetky riešenia a nehovoríme, že tie, ktoré máme, sú perfektné. Chceme ale prispieť k rýchlejšej reakcii na hrozbu AI deepfake obsahu,” píše Microsoft.
Microsoft verí, že technologická inovácia môže byť skvelým nástrojom na zlepšenie spoločnosti, no zároveň zbraňou, ktorú môžu zločinci použiť na jej narušenie. AI predstavuje ideálny príklad. Už teraz môžeme vidieť, ako umelá inteligencia transformuje podniky, školstvo či vedecké odbory a zdravotníctvo. Zároveň sa však umelú inteligenciu učia používať aj kyberzločinci
Lenže ako by sme mohli bojovať proti falošnému AI obsahu. Podľa Microsoftu je dôležitá silná a bezpečná architektúra, ktorá by zabránila generovaniu podvodného obsahu. Popri tom pomôže aj kontrola obsahu alebo určité formy vodoznakov. Podľa nich by sme jednoducho a rýchlo vedeli zistiť, aký obsah je vytvorený umelou inteligenciou a aký nie.
Neprehliadni
“Nachádzame sa v dobe, kedy každý s prístupom na internet môže použiť AI nástroje na vytvorenie realistického obsahu, ktorým môže podviesť iných ľudí. Na mysli máme napríklad hlasový deepfake rodinného príslušníka, deepfake fotku politického lídra, či dokonca aj falošný vládny dokument. Umelá inteligencia urobila fotomontáže výrazne jednoduchšie. Vytvoriť falošnú fotografiu dnes trvá len krátko a nevyžaduje sa žiadna špeciálna schopnosť,” tvrdí Microsoft.
Dezinformátori vo veľkom využívajú AI
Začiatkom júna spoločnosť OpenAI, líder v oblasti vývoja umelej inteligencie, zastavil až 5 dezinformačných kampaní, ktoré používali ChatGPT na generovanie dezinformácií. Dezinformačné skupiny využívali umelú inteligenciu rôznymi spôsobmi. Od vytvárania krátkych komentárov, dlhších článkov, až po vymýšľanie názvov a popisov dezinformačných účtov na sociálnych sieťach.
Konkrétna zastavená kampaň pochádza z Ruska a bezpečnostní analytici ju sledovali pod názvom Bad Grammar. Táto kampaň využívala umelú inteligenciu na odstránenie chýb z kódu, ktorý poháňal Telegram bota. Tento bot vytváral krátke politické komentáre v ruskom a anglickom jazyku.
Regulovanie AI obsahu
Jedným zo spôsobov boja proti dezinformáciám vytvoreným AI je navrhnúť AI model tak, aby dokázal rozpoznať čo najviac škodlivých promptov. To si vyžaduje naozaj hlboké testovanie. Viackrát sa už stalo, že blokované prompty mohol človek obísť šikovne navrhnutou otázkou.
Nie všetok obsah je ale od začiatku dezinformačný. V prípade vygenerovaných obrázkov Microsoft navrhuje, aby AI modely vkladali do obrázkov metadáta, ktoré by okamžite prezradili, že ide o dielo vytvorené umelou inteligenciou. Následne potrebujeme zaviesť aj štandardy na kontrolu obsahu, aby sme dezinformačné AI obrázky čo najrýchlejšie odhalili.
Napríklad počas obdobia volieb je dôležitejšie, aby sa podvodný AI obsah zastavil čo najskôr. Popri tom však zákonodarcovia musia vykonať patričné kroky na to, aby sme dokázali viac podporovať autentický obsah a aby sme vedeli efektívne odhaľovať a reagovať na deepfake videá. Posledným pilierom ochrany je zvýšiť povedomie o AI a jej možnostiach naprieč verejnosťou, s lepším zameraním na ohrozenejšie skupiny, teda deti a seniorov.
Komentáre