OpenAI zastavilo 5 dezinformačných kampaní, ktoré využívali ChatGPT. Takto útočníci používajú umelú inteligenciu, aby narobili škody
Čoraz viac dezinformačných kampaní používa AI na generovanie falošného obsahu (a nielen toho). OpenAI zastavila niekoľko z nich.
Umelá inteligencia si získava v našej spoločnosti čoraz väčšie miesto. Už dnes existuje na internete množstvo nástrojov, ktoré využívajú umelú inteligenciu a dokážu urobiť náš život jednoduchším. Zároveň ale robia život ľahším aj kyberzločincom.
Viaceré hackerské skupiny vykonávajú masívne dezinformačné kampane a využívajú aj schopnosti umelej inteligencie na to, aby vytvorili presvedčivejší obsah alebo vytvorili viac dezinformačného obsahu. Spoločnosť OpenAI, líder v oblasti vývoja umelej inteligencie, zavádza pravidlá, ktorých cieľom je zabránenie zneužívania AI modelov a zlepšenie transparentnosti okolo AI generovaného obsahu.
Zároveň však spoločnosť bojuje proti dezinformačným operáciám, ktoré sa pokúšajú manipulovať s verejnou mienkou alebo ovplyvniť výsledky rôznych politických procesov. Spoločnosť OpenAI sa zaväzuje k zastaveniu týchto operácií a odhaleniu aktérov, ktorí za nimi stáli.
OpenAI vystavila viacerým dezinformačným kampaniam stopku
Za posledné tri mesiace sa podarilo spoločnosti zastaviť päť dezinformačných kampaní. Tie využívali umelú inteligenciu od OpenAI na vytváranie falošného obsahu. Od mája tohto roku si nezískali tieto kampane výrazne vyššie množstvo divákov.
“Kyberzločinci pracujú naprieč celým internetom, no rovnako aj my. Spoluprácou s partnermi v priemysle, užívateľmi a vládami riešime problém vytvárania, distribúcie a dopadu dezinformačného obsahu. Naše snahy vyšetriť a prerušiť podobné operácie boli úspešné aj preto, lebo sme mali k dispozícii množstvo hlásení,” tvrdí OpenAI.
Ako hackeri a útočníci zneužívajú AI?
Dezinformačné skupiny využívali umelú inteligenciu rôznymi spôsobmi. Od vytvárania krátkych komentárov, dlhších článkov, až po vymýšľanie názvov a popisov dezinformačných účtov na sociálnych sieťach.
Neprehliadni
Konkrétna zastavená kampaň pochádza z Ruska a bezpečnostní analytici ju sledovali pod názvom Bad Grammar. Táto kampaň využívala umelú inteligenciu na odstránenie chýb z kódu, ktorý poháňal Telegram bota. Tento bot vytváral krátke politické komentáre v ruskom a anglickom jazyku.
Masívne dezinformačné kampane pribúdajú
Pomocou umelej inteligencie hackerské skupiny zahájili aj veľkú dezinformačnú kampaň, ktorá mala ľudí odstrašiť od účasti na nadchádzajúcich Olympijských hrách. Za touto operáciou stála skupina Doppelganger, ktorá navyše použila AI na vytváranie komentárov v rôznych jazykoch na sociálne platformy X a 9GAG. Okrem toho používali AI na prekladanie a editovanie článkov v anglickom a francúzskom jazyku, vytvárali pomocou nej dezinformačné titulky a články pretvárali na Facebook príspevky.
OpenAI zároveň poukazuje na to, že hoci mnoho aktérov využíva umelú inteligenciu, nespolieha sa len na ňu. Spravidla ide o dezinformačné kampane, ktoré využívajú staré osvedčené taktiky, manuálne písaný text, meme obrázky a do toho pridávajú AI generovaný obsah. Zároveň umelú inteligenciu využívajú na komentovanie cez falošné profily pod svojimi príspevkami, čím zvyšujú engagement svojho príspevku.
Nie vždy sa však útočníkom podarí dostať to, čo chcú. Spoločnosť OpenAI tvrdí, že v mnohých prípadoch ich umelá inteligencia nevytvorila obsah, ktorý dezinformátori požadovali. Spoločnosť OpenAI aj naďalej starostlivo monitoruje situáciu na internete a snaží sa odhaliť aktérov, ktorí sa k podvodnému obsahu pokúšajú dostať cez umelú inteligenciu spoločnosti.
Komentáre