Môže sa nám vývoj zbraní umelej inteligencie vymknúť z pod kontroly?

Technológia umelej inteligencie sa neustále vyvíja, no jej schopnosť “myslieť“ nie je vždy taká sofistikovaná, ako si možno predstavujeme.
ai zbrane
Zdroj: ChatGPT

Technológia umelej inteligencie sa neustále vyvíja, no jej schopnosť “myslieť“ nie je vždy taká sofistikovaná, ako si možno predstavujeme. Jedným z kurióznych príkladov je AI systém trénovaný na rozpoznávanie rakoviny kože. Vedci si mysleli, že dosiahli úspech, kým nezistili, že algoritmus spájal prítomnosť pravítka na obrázkoch s malignitou. Dôvod? V pôvodnej dátovej sade sa pravítka objavovali len pri zhubných nádoroch.

Výsledok? Akákoľvek snímka s pravítkom bola systémom označená ako taká, na ktorej je koža s rakovinou. Podobné zlyhania sú bežné, a to od algoritmov na prijímanie zamestnancov, ktoré preferujú mužov, až po systémy podporujúce rasové nerovnosti v zdravotníctve. Výskumníci sa snažia tieto problémy riešiť, no výzvy stále zostávajú.

Google a AI zbrane: Morálny problém alebo nevyhnutnosť?

Google nedávno zrušil zákaz vývoja AI zbraní, čím otvoril dvere nielen vývoju autonómnych vojenských systémov, ale aj sledovacím technológiám. Tento krok prišiel len pár dní po tom, čo materská spoločnosť Alphabet zaznamenala pokles akcií až o 6 %.

ai vazenie
Zdroj: ChatGPT

Nie je to prvýkrát, čo Google stúpil na tenký ľad. V roku 2018 spolupracoval s americkým ministerstvom obrany na projekte Maven, ktorý využíval AI na analýzu záberov z dronov. Po masívnej kritike zo strany zamestnancov spoločnosť kontrakt nepredĺžila, no projekt rýchlo prevzal konkurent Palantir. Táto situácia vyvoláva otázku: Ak je vývoj AI zbraní nevyhnutný, nie je lepšie byť pri tom a riadiť ho eticky?

Nebezpečenstvo nekontrolovanej AI

Existuje niekoľko dôvodov, prečo je takzvaná slepá dôvera v AI riskantná:

  1. Past sebadôvery – Keď technológia funguje v obmedzenom prostredí, ľudia ju prirodzene chcú použiť aj inde. Napríklad autonómne vozidlá môžu byť nasadené na trasách, ktoré nepoznajú, čo môže viesť k nepredvídaným nehodám. Takýto prípad sa stal, keď Tesla narazila do prúdového lietadla v neznámom prostredí.

  2. Cudzí spôsob uvažovania – AI algoritmy môžu “myslieť“ spôsobmi, ktoré sú pre ľudí nepochopiteľné. Napríklad experimenty ukázali, že AI dokázala v šachových hrách podvádzať manipuláciou súborov označujúcich polohu figúrok, čím vytvorila nemožné ťahy.

  3. Nedostatok zodpovednosti – Obrovské firmy ako Google môžu byť “príliš veľké na to, aby zlyhali“. Ak sa AI zbraň pokazí, kto za to ponesie zodpovednosť? Aké opatrenia budú prijaté na nápravu?

Mohlo by vás zaujímať:

Zastaviť vývoj AI zbraní? Možno to nie je nemožné

Hoci sa môže zdať, že vývoj AI zbraní je nevyhnutný, história ukazuje, že svet vie konať rýchlo, keď čelí zreteľnej hrozbe. Napríklad keď bol objavený problém s ozónovou dierou, krajiny dokázali do dvoch rokov prijať globálny zákaz škodlivých chemikálií.

Podobne existujú precedensy pre zákaz nehumánnych zbraní – biologické zbrane sú zakázané podľa medzinárodného práva. Výzvou však zostáva fakt, že žiadna krajina nechce zostať pozadu, rovnako ako žiadna firma nechce prísť o potenciálny zisk.

Zdroj: TechXplore

Total
0
Shares
Podobné články