AI ťa bude vedieť označiť za zločinca skôr, než niečo urobíš. Briti pracujú na technológii ako z Minority Report

Britská vláda testuje algoritmus, ktorý má predpovedať násilné trestné činy ešte predtým, než k nim dôjde. Odborníci varujú pred rizikom porušovania práv.

Zla umela inteligencia
Zdroj: OpenClipart-Vectors z Pixabay

Britská vláda čelí pozornosti verejnosti potom čo odhalila, že aktívne pracuje na vývoji algoritmu, ktorý má predpovedať vraždy ešte predtým, než sa stanú. Na desivú novinku upozornil britský server The Guardian. Úrady tvrdia, že nateraz ide len o výskumný projekt. Ako som naznačil v názve, prirovnanie k sci-fi filmu Minority Report (2002), ja teda na mieste. Vo filme existoval úrad, na základe ktorého, polícia zatýkala ľudí na základe predpovedí trojice jasnovidcov.

Britský projekt, sa pôvodne nazýval „Projekt Predikcie Vrážd„. Ten analyzuje informácie niekoľko stotisíc osôb, vrátane údajov o obetiach trestných činov s jediným cieľom. Cieľom je identifikovať tých, ktorí by mohli v budúcnosti spáchať násilné trestné činy. Túto skutočnosť odhalila organizácia Statewatch prostredníctvom zákona o slobodnom prístupe k informáciám.

Odoberaj Vosveteit.sk cez Telegram a prihlás sa k odberu správ

Podľa informácii Statewatch, čo je organizácia na ochranu občianskych práv, pracoval tím vývojárov s údajmi od 100 000 až do 500 000 osôb. Dáta zahŕňali mená, dátumy narodenia, pohlavia a etnické pôvody. Oveľa šokujúcejšie boli citlivé informácie ako duševné zdravie, závislosti, samovražedné sklony, sebaubližovanie či zdravotné postihnutia! Úrady síce opierajú, že by boli použité dáta o obetiach zločinov, no občianska organizácia trvá na tom, že do databázy spadajú aj oni!
Sofia Lyall z Statewatch označila tento projekt za absurdný.

„Ďalší mrazivý a dystopický príklad snahy vlády zavádzať tzv. prediktívne systémy boja proti kriminalite.“

Podľa Sofie Lyall tieto opakované výskumy dokazujú, že uvedené algoritmy sú chybné, zaujaté a často posilňujú existujúce systémové nerovnosti. Nebezpečné je hlavne to, že sa opierajú o dáta z inštitucionálne rasistických štruktúr ako polícia či ministerstvo vnútra. Zástupcovia Ministerstva spravodlivosti sa však bránia. Tvrdia, že tento projekt je iba rozšírením už existujúcich nástrojov na hodnotenie rizika recidívy, teda pravdepodobnosti, že sa väzni po prepustení dopustia ďalších trestných činov. Cieľom má byť analýzy, či by pridanie nových dát z policajných a väzenských databáz zlepšilo presnosť predikcií.

„Ide len o výskum,“ uvádza ministerstvo v oficiálnom stanovisku.

Viacero štátov zvažuje alebo testuje podobný systém

Veľká Británia pritom nie je jediná, kto sa vydáva týmto smerom. Známe sú minimálne ďalšie tri krajiny. V Južnej Kórei funguje veľmi podobný projekt s názvom Dejaview. Ten analyzuje záznamy z bezpečnostných kamier a sleduje vzorce správania na odhalenie potenciálnych zločinov ešte pred ich spáchaním. V roku 2022 zasa výskumníci z USA tvrdili, že vyvinuli algoritmus, ktorý dokáže predpovedať zločin týždeň dopredu s až 90 % presnosťou. V Číne sa zase hovorí o systémoch, ktoré vytvárajú profily občanov. Čínske systémy sú utajované, takže viac informácií žiaľ k dispozícii nie je. Čína je známa tým, že svojich občanov kontroluje. Čínsky systém má identifikovať disidentov či potenciálnych zločincov.

umela inteligencia zla umela inteligencia
Zdroj: Vosveteit.sk, AI

Otázkou zostáva, kedy predikcia prestáva byť prediktívnou ochranou a stáva sa naopak zásahom do slobody? Čo ak by k zločinu nikdy neprišlo. Predstav si, že len zo zlosti pomyslíš na to, že niekomu ublížiš, a systém ťa okamžite označí za potenciálneho kriminálnika.

Ak vláda začne rozhodovať o našej budúcnosti prakticky len na základe algoritmu, ktorý hodnotí „pravdepodobnosť“, než skutočné skutky, ako ďaleko sme od toho, čo sme doteraz považovali za fikciu vo filme?

Sleduj našu novú Facebook stránku a pridaj sa!

Komentáre