Filipíny čelili nebezpečnej situácii, keď sa obrátili na AI chatbota, aby overili pravosť fotografií, ktoré sa rýchlo šírili po sociálnych sieťach. Obrázky ukazovali bývalého zákonníka Elizaldyho Coa, ktorý čelí obvineniam v prípade korupcie. Keď používatelia požiadali nový režim AI od Google, nástroj potvrdil, že obrázok je autentický, hoci išlo o úplne vymyslený obsah generovaný pomocou AI.
Používanie chatbota na overovanie obrázkov sa stáva čoraz bežnejším, avšak tieto nástroje stále zlyhávajú pri presnom rozpoznávaní falzifikátov. Nové technológie, ktoré sú navrhnuté tak, aby pomáhali užívateľom v boji proti dezinformáciám, často poskytujú nesprávne alebo nepresné hodnotenie, čo zneisťuje ich využiteľnosť v boji proti falošným správam.
„Tieto modely sú trénované predovšetkým na jazykových vzorcoch a chýba im špecializované vizuálne porozumenie potrebné na presnú identifikáciu obrázkov generovaných alebo manipulovaných umelou inteligenciou.“
Alon Yamin, generálny riaditeľ platformy Copyleaks
Generatívne AI modely, ako tie od Google, dokážu vytvárať fotorealistické fotky, ktoré sa môžu nebezpečne podobať skutočným fotografiám. Prípad obrázka Coa ukazuje, ako ťažké je pre tieto nástroje správne rozpoznať, že ide o falošný obsah. Aj keď je technológia stále na vzostupe, tieto modely sú stále viac zamerané na jazykové spracovanie, než na pochopenie vizuálnych aspektov.

Rovnaké problémy sa ukázali aj pri testoch iných generatívnych nástrojov, ktoré boli použité na kontrolu obrázkov z protestov v Pakistane. Aj keď obrázky boli vytvorené pomocou AI, systém ich často označil za pravdivé. Tento jav ukazuje, že dnešné modely ešte nedosahujú potrebnú úroveň presnosti v oblasti vizuálnych overovacích nástrojov.
![]()
Mohlo by vás zaujímať:
- Veľký výpadok internetu: Nešlo o útok, Cloudflare odhalil príčinu
- Technológia zachytávania CO₂ v námornej doprave mení emisie na stavebné materiály
- Čím dlhšie čakáme, tým viac zaplatíme: Klimatická kríza sa predražuje
![]()
„Z dlhodobého hľadiska sa nemôžeme spoliehať na nástroje umelej inteligencie v boji proti umelej inteligencii.”
Rossine Fallorinová z neziskovej organizácie Sigla Research Center
Prípad s Coom tak upozorňuje na veľký problém, ktorým je používanie generatívnych nástrojov bez dôkladnej kontroly. Často sa stáva, že AI generuje obsah, ktorý na prvý pohľad vyzerá reálne, čo nielen zmätie širokú verejnosť, ale môže tiež šíriť dezinformácie. Keďže AI stále nie je schopná správne odhaliť falošný obsah, je dôležité, aby sa na tieto úlohy naďalej využívali profesionálni ľudskí kontrolóri.
Zdroj: Techxplore