Umelá inteligencia by mala vysvetľovať používateľom svoje rozhodnutia a odpovede, hovorí štúdia

Štúdia, publikovaná v časopise Applied Artificial Intelligence, zdôrazňuje, že je nevyhnutné, aby systémy AI vedeli jasne vysvetliť svoje závery.
Umela inteligencia vysvetluje
Zdroj: ChatGPT

S umelou inteligenciou sa stretávame čoraz častejšie, pričom jej rozhodnutia ovplyvňujú oblasti ako bankovníctvo, zdravotníctvo či dokonca aj detekciu kriminality. Nová štúdia z University of Surrey upozorňuje na to, že AI modely často fungujú ako “čierne skrinky”, čo znamená, že síce im veríme, no nerozumieme ich rozhodnutiam. Výskumníci preto volajú po väčšej transparentnosti a dôveryhodnosti týchto technológií, a to v globálnom meradle.

Mohlo by vás zaujímať:

Štúdia, publikovaná v časopise Applied Artificial Intelligence, zdôrazňuje, že v sektoroch, kde môžu mať rozhodnutia AI vážne následky, je nevyhnutné, aby tieto systémy vedeli jasne vysvetliť svoje závery. Nedostatok takýchto vysvetlení môže viesť k fatálnym chybám – napríklad v prípade nesprávnych zdravotných diagnóz či chybných podozrení na podvod v bankovníctve. Dôkazom je aj fakt, že iba 0,01 % bankových transakcií sú podvodné, no napriek tomu AI občas nesprávne označí legitímne transakcie ako podvody, čo vedie k značným finančným škodám.

Aké je riešenie?

Výskumníci zo Surrey prišli s riešením v podobe rámca SAGE (Settings, Audience, Goals, Ethics), ktorý pomáha zabezpečiť, aby AI poskytovala vysvetlenia zrozumiteľné pre konkrétnych používateľov. Okrem toho využívajú metódu Scenario-Based Design (SBD), ktorá umožňuje lepšie pochopiť, čo od AI vysvetlení očakávajú reálni ľudia. Dr. Wolfgang Garn, jeden z autorov štúdie, upozorňuje, že za každým rozhodnutím algoritmu stoja skutoční ľudia, ktorých životy môžu byť značne ovplyvnené.

Metóda SAGE a vysvetľovanie výsledkov
Metóda SAGE a vysvetľovanie výsledkov | Zdroj: Applied Artificial Intelligence

Preto je nevyhnutné, aby AI vývojári aktívne spolupracovali s odborníkmi z priemyslu a koncovými používateľmi, čím by sa zabezpečilo, že systémy budú nielen inteligentné, ale aj ľahko pochopiteľné a spoľahlivé. Zavedenie vysvetľovania do AI môže mať formu textových alebo grafických výstupov, ktoré umožnia používateľom lepšie pochopiť dôvody rozhodnutí algoritmov. Tento prístup nielenže zvýši dôveru v AI systémy, ale aj umožní ľuďom robiť lepšie informované rozhodnutia na základe ich výstupov.

Zdroj: TechXplore

Total
0
Shares
Podobné články