Môžeme zlú umelú inteligenciu naučiť ako zabúdať?
Zdroj: Microsoft Bing Image Creator
Spoločnosť, Technológie

Tajná zbraň proti zlej umelej inteligencií: Dokážeme AI „naučiť ako zabúdať“?

Už od prvých modelov ChatGPT je umelá inteligencia niečo, čo vyvoláva rovnakým dielom úžas ako aj obavy. Mnohí odborníci vyzdvihujú prínos nielen generatívnej technológie pre ľudstvo a hovoria, že umelá inteligencia ako celok má potenciál zmeniť svet.  

Zároveň však upozorňujú, že nám môže umelá inteligencia aj uškodiť, hlavne ak sa teraz nepostavíme zodpovedne k jej regulácii. Ako vysvetľujú vedci z University of Warwick, AI modely už teraz prispievajú k rôznym sféram výskumu a pomáhajú nám dopracovať sa k novým poznatkom. Ak chceme ale čo najmenej znížiť riziká, ktoré pre nás táto technológia predstavuje, často zabúdame na jednu zbraň, ktorú máme po celý čas v rukáve.  

Jednou z najfascinujúcejších oblastí umelej inteligencie je nepochybne to, ako sa dokáže učiť novým veciam, no v rámci novej štúdie autori vysvetľujú, že by sme ju mali naučiť aj “zabúdať”. Výskum v tomto smere pomáha nájsť efektívne spôsoby, ako by sme mohli docieliť to, že hĺbkové neurónové siete zabudnú dáta, ktoré by mohli predstavovať pre spoločnosť riziko.  

Už dnes dokážeme umelú inteligenciu “naučiť zabúdať”, no ide o mimoriadne nákladný a náročný proces. Najväčšie jazykové modely ako ChatGPT, Bard a iné sa cvičia na masívnych datasetoch po dobu týždňov až mesiacov. Aby to dosiahli zároveň spotrebujú obrovské množstvo energie. Niektoré štúdie odhadujú, že energia vynaložená na trénovanie umelých inteligencií by stačila tisícom domácností na jeden rok.  

Strojové zabúdanie je opakom strojového učenia a momentálne ide o rozvíjajúci sa odbor výskumu. Jeho cieľom je nájsť spôsoby, ako by sme mohli dáta z hĺbkovej neurónovej siete odstrániť lacno, rýchlo a za použitia čo najmenšieho množstva zdrojov

“Hĺbkové neurónové siete sú mimoriadne komplexné štruktúry zložené z triliónov parametrov. Častokrát sa stáva, že sami nevieme, ako sa dopracovali k určitému výsledku. Keďže ide o komplexné zariadenia trénované na komplexných a gigantických datasetoch, v určitom spôsobe môžu predstavovať pre ľudstvo riziko,” vysvetľuje jeden z autorov štúdie, Peter Triantafillou.

Prečo by mala umelá inteligencia zabúdať?

Riziko by mohlo byť napríklad to, ak by sa umelá inteligencia učila na datasetoch s rozličnými predsudkami. Na základe toho by mohla šíriť negatívne stereotypy ďalej a v krajných prípadoch dokonca získať rasistické tendencie. Zároveň by sa však mohla umelá inteligencia učiť na chybných datasetoch, napríklad by mohla vnímať ako deepfake fotografiu, ktorá deepfakom nie je. V tom prípade by pracovala nesprávne v nejakej praktickej aplikácii.  

Najhorším prípadom je, ak by umelá inteligencia trénovala na dátach, ktoré podporujú porušovanie súkromia jedincov. Dnes máme v platnosti legislatívu, ktorá sa právami súkromia zaoberá, napríklad GDPR. Táto legislatíva dáva človeku právo požiadať o vymazanie osobných dát z akéhokoľvek datasetu vrátane umelej inteligencie.  

V tomto prípade je nutné, aby vedela AI zabudnúť, no pre nás to zatiaľ predstavuje obrovský problém. Výskumníci veria, že môžeme navrhnúť špecifický algoritmus, ktorý by spôsobil, že umelá inteligencia vymaže špecifické dáta zo svojej pamäti bez toho, aby sme ju museli učiť veci nanovo. Zatiaľ to však ostáva otázkou budúcnosti.  

Ďalší článok Predošlý článok

Môže sa vám tiež páčiť