Technológia umelej inteligencie sa neustále vyvíja, no jej schopnosť “myslieť“ nie je vždy taká sofistikovaná, ako si možno predstavujeme. Jedným z kurióznych príkladov je AI systém trénovaný na rozpoznávanie rakoviny kože. Vedci si mysleli, že dosiahli úspech, kým nezistili, že algoritmus spájal prítomnosť pravítka na obrázkoch s malignitou. Dôvod? V pôvodnej dátovej sade sa pravítka objavovali len pri zhubných nádoroch.
Výsledok? Akákoľvek snímka s pravítkom bola systémom označená ako taká, na ktorej je koža s rakovinou. Podobné zlyhania sú bežné, a to od algoritmov na prijímanie zamestnancov, ktoré preferujú mužov, až po systémy podporujúce rasové nerovnosti v zdravotníctve. Výskumníci sa snažia tieto problémy riešiť, no výzvy stále zostávajú.
Google a AI zbrane: Morálny problém alebo nevyhnutnosť?
Google nedávno zrušil zákaz vývoja AI zbraní, čím otvoril dvere nielen vývoju autonómnych vojenských systémov, ale aj sledovacím technológiám. Tento krok prišiel len pár dní po tom, čo materská spoločnosť Alphabet zaznamenala pokles akcií až o 6 %.

Nie je to prvýkrát, čo Google stúpil na tenký ľad. V roku 2018 spolupracoval s americkým ministerstvom obrany na projekte Maven, ktorý využíval AI na analýzu záberov z dronov. Po masívnej kritike zo strany zamestnancov spoločnosť kontrakt nepredĺžila, no projekt rýchlo prevzal konkurent Palantir. Táto situácia vyvoláva otázku: Ak je vývoj AI zbraní nevyhnutný, nie je lepšie byť pri tom a riadiť ho eticky?
Nebezpečenstvo nekontrolovanej AI
Existuje niekoľko dôvodov, prečo je takzvaná slepá dôvera v AI riskantná:
-
Past sebadôvery – Keď technológia funguje v obmedzenom prostredí, ľudia ju prirodzene chcú použiť aj inde. Napríklad autonómne vozidlá môžu byť nasadené na trasách, ktoré nepoznajú, čo môže viesť k nepredvídaným nehodám. Takýto prípad sa stal, keď Tesla narazila do prúdového lietadla v neznámom prostredí.
-
Cudzí spôsob uvažovania – AI algoritmy môžu “myslieť“ spôsobmi, ktoré sú pre ľudí nepochopiteľné. Napríklad experimenty ukázali, že AI dokázala v šachových hrách podvádzať manipuláciou súborov označujúcich polohu figúrok, čím vytvorila nemožné ťahy.
-
Nedostatok zodpovednosti – Obrovské firmy ako Google môžu byť “príliš veľké na to, aby zlyhali“. Ak sa AI zbraň pokazí, kto za to ponesie zodpovednosť? Aké opatrenia budú prijaté na nápravu?
Mohlo by vás zaujímať:
- Reakcia na DeepSeek? OpenAI priniesol rýchlejší a dostupnejší ChatGPT o3-mini. Navyše je zadarmo.
- Chôdza ako gekón? Nový polymér inšpirovaný prírodou znižuje riziko pošmyknutia na ľade
- Ako jednotlivé krajiny okolo nás regulujú umelú inteligenciu?
Zastaviť vývoj AI zbraní? Možno to nie je nemožné
Hoci sa môže zdať, že vývoj AI zbraní je nevyhnutný, história ukazuje, že svet vie konať rýchlo, keď čelí zreteľnej hrozbe. Napríklad keď bol objavený problém s ozónovou dierou, krajiny dokázali do dvoch rokov prijať globálny zákaz škodlivých chemikálií.
Podobne existujú precedensy pre zákaz nehumánnych zbraní – biologické zbrane sú zakázané podľa medzinárodného práva. Výzvou však zostáva fakt, že žiadna krajina nechce zostať pozadu, rovnako ako žiadna firma nechce prísť o potenciálny zisk.
Zdroj: TechXplore