Medzinárodný tím výskumníkov predstavil rámec, ktorý podľa nich môže pomôcť odpovedať na jednu z najväčších otázok, ktorým čelí technológia umelej inteligencie: môžeme AI dôverovať? Tento rámec ponúka organizovaný postup k riešeniu tejto komplexnej témy, čerpajúci z rôznych výskumných disciplín.
“Spoločnosti, vlády a bežní ľudia stále viac využívajú nástroje AI na vykonávanie rôznych úloh, no stále nie je jasné, či ide o technológiu, ktorej môžeme skutočne dôverovať,” hovorí Roger Mayer, spoluautor štúdie a profesor vedenia na Poole College of Management na North Carolina State University. Podľa neho je dôvera v AI kľúčovým faktorom, keď ide o rozhodovanie a investovanie do aplikácií s touto technológiou.
Môžeme veriť umelej inteligencii?
Ak budeme AI používať na významné rozhodnutia alebo na ich ovplyvňovanie, dôvera je nevyhnutná. Rozvoj prístupu, ktorý umožní vedecky aj prakticky hodnotiť dôveryhodnosť AI, je podľa Mayera veľkým krokom vpred. “Vypracovanie rámca, ktorý nám umožní dôkladne posúdiť dôveru v AI, je nevyhnutné a viac než žiadané,” dodáva Mayer.

Výskumníci navrhli transdisciplinárny rámec “TrustNet”, ktorý má pomôcť lepšie pochopiť a posilniť dôveru v AI. Tento rámec sa zaoberá psychológiou, etikou a spoločenským dopadom dôvery v AI a rieši veľké výzvy, akými sú dezinformácie, diskriminácia a vojny. Tvorcovia rámca vychádzali z myšlienok, ktoré vznikli na TRUST workshope vo Viedni, kde sa stretol tím výskumníkov z celého sveta. Výskumníci neboli všetci len zo sveta umelej inteligencie, no zastrešené boli aj iné disciplíny.
Cieľom rámca TrustNet je nielen pochopiť, ako ľudia dôverujú AI, ale aj preskúmať, ako AI systémy hodnotia a reagujú na ľudskú spoľahlivosť. Okrem toho sa zaoberá aj tým, ako by AI malo budovať dôveru medzi jednotlivými systémami umelej inteligencie v automatizovaných a prepojených prostrediach.
Zdroj: TechXplore