Roboty, ktoré budú bojovať ako ľudia, nepostavíme nikdy, ale umelá inteligencia výrazne zmení vnímanie vojny, hovorí v rozhovore pre SME analytik Štokholmského medzinárodného inštitútu pre výskum mieru VINCENT BOULANIN.
Na Czernin Security Forum v Prahe, ktoré organizoval Ústav medzinárodných vzťahov s podporou NATO a Friedrich Ebert Stiftung, rozprával o tom, čo bude znamenať umelá inteligencia pre budúce vojnové konflikty.
V rozhovore vysvetľuje aj to, prečo už máme autonómne autá, ale autonómne tanky sa do vojny tak skoro nedostanú a kto je zodpovedný, ak sa program zmýli a zomrú nevinní.
Mnohí ľudia si využitie umelej inteligencie vo vojne predstavujú v podobe bojujúcich robotov. Sme k tomu blízko?
„Toto je takmer prirodzená reakcia, hneď si začneme predstavovať terminátora a podobne. Istým spôsobom je to dobré, lebo nás to núti rozmýšľať nad etickým rozmerom toho, keď do vojny namiesto ľudí pustíme roboty. Z krátkodobého hľadiska sme však veľmi ďaleko od toho, aby sme vytvorili terminátora. Vieme síce vytvoriť autonómne systémy, ale od tohto sme ďaleko.“
Ako ďaleko?

„To záleží od typu misie. Ak by sme chceli vytvoriť robota, ktorý by robil tie isté veci, ako robia ľudskí vojaci, to nemusí byť možné nikdy.“
Prečo?
„Dobrý vojak potrebuje mať schopnosti, ktoré nevieme naprogramovať. Schopnosť v rýchlosti sa rozhodnúť, čo je správne, na základe komplexného pochopenia toho, čo je dobré a čo nie. Medzinárodné právo napríklad prikazuje rozlišovať medzi nutným a prehnaným použitím sily. Je veľmi ťažké to preložiť do počítačových kódov, pretože bojová nutnosť sa nedá označiť na stupnici od jeden do desať. Takéto rozhodnutia budú musieť naďalej robiť ľudia.“
Ako teda umelú inteligenciu využívajú súčasné armády?
„Roboty možno nebudú vedieť samy bojovať, ale môžeme vytvoriť roboty, ktoré budú samy vedieť plniť niektoré úlohy. Napríklad analyzovať spravodajské informácie, vyhodnocovať dáta z rôznych zdrojov a na základe toho predpovedať ďalšie kroky. To už využíva polícia v niektorých mestách, kde hľadajú rizikové oblasti. Umelá inteligencia sa vie správať podľa určitej logiky, ale bojová realita je veľmi komplexná.“
Umelá inteligencia vie zbierať dáta a niekto podľa nich koná. Ak sa však program zmýli, človek koná na základe nesprávnych údajov a môže pochybiť.

„Ani umelá inteligencia nemusí byť úplne objektívna. Keď vytvárate systém, už do neho vkladáte isté predsudky o svete. Ak má napríklad rozoznávať tváre a učí sa len podľa tvárí belochov, nebude vedieť správne rozoznávať černochov. Ak si toto inžinieri na začiatku neuvedomia, systémy budú nespoľahlivé. Systém tiež môže mať problém prispôsobiť sa meniacej sa situácii.“
Kto má zodpovednosť za prípadný útok na civilistov, ak sa niekto rozhodne na základe chybných údajov od umelej inteligencie? Programátor alebo ten, kto stláča spúšť?