Google stvoril AI, ktorá poslúcha až príliš. Gemini 2.5 Flash prekračuje nebezpečné hranice
Nový model umelej inteligencie Gemini 2.5 Flash od Googlu síce ponúka vyšší výkon, no odborníci varujú pred zníženou bezpečnosťou. Častejšie odpovedá aj na nevhodné požiadavky, ktoré by mal podľa pravidiel ignorovať.
Google nedávno predstavil novú verziu svojho jazykového modelu umelej inteligencie s názvom Gemini 2.5 Flash. Novinka sľubuje vyšší výkon a lepšie pochopenie požiadaviek používateľov. Na prvý pohľad ide o pokrok, no pri bližšom pohľade sa objavujú aj problémy. Technická správa Googlu upozorňuje, že s vyšším výkonom prichádzajú aj nové riziká. Najväčším z nich je bezpečnosť. Model častejšie reaguje aj na zadania, ktoré by mal podľa pravidiel ignorovať. Upozornil na to portál techcrunch.com.
Model plní príkazy, ale občas až príliš dobre
Oficiálna technická správa ukazuje, že Gemini 2.5 Flash má v oblasti bezpečnosti horšie výsledky než jeho predchodca. V kategóriách text-to-text safety a image-to-text safety zaznamenal pokles o 4,1 % a 9,6 %. Tieto hodnoty odrážajú schopnosť modelu držať sa pravidiel, ktoré nastavuje samotný Google.
V praxi to znamená, že ak mu položíš citlivú alebo nevhodnú otázku, model pravdepodobne odpovie. A to aj v prípade, že odpoveď porušuje interné zásady. Nový model jednoducho poslúcha viac, no nie vždy je to výhoda.
Uč sa rýchlo, ale rešpektuj hranice
Google priznáva, že nový model dokáže lepšie pochopiť a vykonať inštrukcie. Problém nastáva vtedy, keď sú tieto inštrukcie nevhodné. Predchádzajúce verzie boli opatrnejšie, no Gemini 2.5 Flash niekedy prekročí hranice, ktoré by mal rešpektovať. Spoločnosť zároveň tvrdí, že niektoré porušenia pravidiel mohli vzniknúť omylom. Testy mohli označiť bežné výstupy ako problematické. No Google priznáva aj to, že model niekedy vygeneruje nevhodný obsah vedome, ak ho o to používateľ priamo požiada.
Vo vyjadreniach sa spomína „napätie medzi presnosťou a bezpečnosťou“. V podstate ide o dilemu, má AI uprednostniť poslušnosť, alebo chrániť používateľov pred škodlivým obsahom?
Neprehliadni
Google nie je jediný, kto rieši tento problém
Podobné situácie zažívajú aj iné firmy. OpenAI sa nedávno ospravedlnil za to, že jeho model umožnil neplnoletým vytvárať erotické rozhovory. Meta zas upravuje správanie svojich jazykových modelov tak, aby sa nevyjadrovali k politickým témam.
Tieto prípady ukazujú, aké ťažké je nájsť rovnováhu medzi otvorenosťou modelu a jeho zodpovednosťou. Gemini 2.5 Flash len potvrdzuje, že vyšší výkon môže viesť k nečakaným problémom.
Chýbajú podrobnosti, odborníci sú znepokojení
Google čelí aj kritike za to, ako o problémoch informuje. Thomas Woodside z iniciatívy Secure AI upozorňuje, že chýbajú konkrétne príklady nevhodného obsahu. Bez nich sa nedá objektívne posúdiť, či ide o vážny problém, alebo len o výnimky. Google v minulosti viackrát zverejnil správy neskoro alebo bez dôležitých údajov. To oslabuje dôveru verejnosti a komplikuje nezávislé hodnotenie.
Výkon nestačí, kontrolky musia svietiť
Model Gemini 2.5 Flash pôsobí výkonne, rýchlo a ochotne. No práve preto môže byť aj rizikový. Umelá inteligencia dnes napreduje rýchlo, no o to dôležitejšie je klásť dôraz na zodpovednosť. Každý nový model by mal prejsť nielen výkonnostným, ale aj etickým testom. Inovácie sú dôležité, no nesmú zatieniť otázku, kam až je AI ochotná zájsť, aby nám vyhovela.
Komentáre