Austrálski vedci z organizácie CSIRO v spolupráci s Cyber Security Cooperative Research Center a Chicagskou univerzitou vyvinuli techniku, ktorá môže zabrániť neautorizovaným systémom umelej inteligencie učiť sa z obrázkov, umeleckých diel či iného vizuálneho obsahu. To je niečo, po čom volajú médiá, ale aj bežní ľudia už nejaký ten čas. Metóda funguje tak, že do súboru sa pridajú jemné úpravy, ktoré človek nepostrehne, no AI modely ich nedokážu spracovať na účely tréningu.
Táto ochrana by mohla pomôcť umelcom, firmám, ale aj bežným používateľom sociálnych sietí. Napríklad fotografie zverejnené na internete by mohli mať automaticky pridanú ochrannú vrstvu, aby AI systémy nevedeli rozpoznať tváre a využiť ich napríklad na tvorbu falošných videí. Podobne by obranné zložky mohli chrániť satelitné snímky alebo citlivé kybernetické dáta pred spracovaním neautorizovanými modelmi.
Ochrana spotrebiteľa na prvom mieste
Kľúčom je to, že výskumníci poskytujú matematickú záruku, že AI sa z takto chráneného obsahu nenaučí viac než vopred stanovený limit. To platí aj pri pokusoch o adaptívne útoky či opätovné pokusy o trénovanie modelu. Podľa Dr. Derui Wanga ide o zásadný posun oproti doterajším metódam, ktoré sa spoliehajú skôr na odhad správania AI než na presne definované pravidlá.

Systém je možné aplikovať automaticky vo veľkom rozsahu, napríklad priamo na platforme, kde sa obrázky nahrávajú. Tým by sa mohlo obmedziť šírenie deepfake obsahu, znížiť riziko krádeže autorských práv a pomôcť ľuďom udržať kontrolu nad svojou digitálnou tvorbou. Zatiaľ je technika určená iba pre obrázky, no výskumníci plánujú rozšírenie aj na text, hudbu a video záznamy.
![]()
Mohlo by vás zaujímať:
- Zavreli továreň na spracovanie uhlia. V tejto oblasti sa znížil výskyt astmy o 40 %
- Fairphone nabíjačky: Rýchlosť a ekológia v jednom
- Prichádza GPT-5 od OpenAI. Prináša viacero nových zmien
![]()
Metóda je zatiaľ overená iba v laboratórnych podmienkach a má teoretický charakter. Zdrojový kód je voľne dostupný na GitHube pre akademické účely a tím hľadá partnerov z oblasti bezpečnosti AI, etiky, obrany či kybernetickej ochrany. Za svoj príspevok získali autori na konferencii NDSS 2025 ocenenie Distinguished Paper Award, čo ho predurčuje k veľmi zaujímavej budúcnosti.
Zdroj: TechXplore