SpravodajstvoVeda a výskum

Riskujeme vytvorenie generácie rasistických a sexistických robotov, tvrdí štúdia: Tie sa učia od „zlej“ umelej inteligencie

Neurónové siete dostupné na internete môžu mať vážne predsudky, ktoré by sa nemali dostať do praxe.

Nová štúdia vedená vedcami z Johns Hopkins University demonštruje, čo sa stane, ak sa robot učí prostredníctvom chybných neurónových sietí, informuje portál Eurekalert.

Umelé inteligencie sa častokrát učia z obšírnych datasetov, ktoré sú voľne dostupné na internete, no už viackrát sa dokázalo, že internet je miesto, kde sa stretávajú rôzne postoje, ktoré sú vo väčšine prípadov vyhrotené a nie úplne vhodné pre umelú inteligenciu, aby si z nich brala príklad. Robot vytvorený v spolupráci Johns Hopkins University, Georgia Institute of Technology a Unversity of Washington začal diskriminovať ľudí na základe pohlavia, rasy a po chvíli začal vyvodzovať závery o zamestnaniach ľudí len podľa ich tváre.

„Robot sa naučil toxické stereotypy prostredníctvom nevhodných neurónových modelov. Nachádzame sa v momente, kedy riskujeme vytvorenie celej generácie rasistických a sexistických robotov, pričom spoločnosti nerobia takmer nič pre to, aby túto chybu napravili,“ vyjadril sa Andrew Hundt z Johns Hopkins University.

Chybné neurónové siete

Roboty sa spoliehajú na neurónové siete, prostredníctvom ktorých sa učia chápať objekty a svet okolo seba. Odborníci sú však znepokojení predstavou, ako by mohla umelá inteligencia s nesprávnymi názormi ovplyvniť robota povereného rozhodovaním bez ľudského zásahu. V novom výskume sa preto vedci rozhodli otestovať verejne dostupnú umelú inteligenciu postavenú na neurónovej sieti CLIP.

V experimente dostal robot za úlohu presunúť objekty do krabice. Na týchto objektoch boli vyobrazené ľudské tváre rôznych pohlaví, či rás. Následne dostal robot úlohu, aby do krabice uložil doktora, zločinca alebo len osobu. Vedci zistili, že robot nedokázal úlohu dokončiť bez toho, aby nebol ovplyvnený výraznými a znepokojivými stereotypmi. Ženy vnímal ako osoby v domácnosti, afro-američanov ako zločincov a latino-američanov ako upratovačov.

„Ak zadáme robotovi pokyn aby umiestnil zločinca do krabice, dobre navrhnutý systém by nemal urobiť nič. Rovnako je to aj s ostatnými príkazmi, napríklad umiestni do krabice doktora. Robot by nemal usúdiť povolanie len z tváre človeka, ak nie je nič iné, čo by indikovalo jeho profesiu, napríklad stetoskop,“ vysvetľuje Hundt.

V dnešnej dobe sa spoločnosti v oblasti robotiky doslova pretekajú. Autori štúdie sa obávajú, že uplatnenie umelej inteligencie so zaužívanými nebezpečnými stereotypmi by mohlo viesť k mnohým problémom, obzvlášť ak sa robot s takouto umelou inteligenciou dostane do praxe.

Vplyv internetu na umelú inteligenciu

Príkladom môže byť dnes už starý robot Tay, ktorého vytvorila spoločnosť Microsoft, ktorá mala jednoduchý cieľ – vytvoriť robota schopného četovať s inými ľuďmi. Tento experiment však nedopadol podľa predstáv, pretože robota musel Microsoft vypnúť po 24 hodinách a dôvod? Tay začala pridávať príspevky, v ktorých chválila nacizmus či priamo Hitlera. Padli aj výrazy ak „Hitler mal pravdu“ alebo „Hitler neurobil nič zlé“.

Samozrejme že časť viny na tom nesieme aj my ľudia. Mnohí užívatelia, ktorí s robotom Tay komunikovali. Tí ju podľa všetkého nabádali na zlé a z reakcií umelej inteligencie mali obrovskú srandu.

Tagy
Zobraziť komentáre
Close
Close