TechSpot bo kmalu praznoval svojo 25. obletnico. TechSpot pomeni tehnično analizo in nasvet, ki mu lahko zaupate.
V kontekstu: Nenaden vzpon in napredek sistemov umetne inteligence v zadnjih nekaj mesecih sta prinesla strah pred njenimi potencialno škodljivimi učinki na družbo. Ne samo, da bi umetna inteligenca lahko ogrozila delovna mesta in ustvarjalnost ljudi, uporaba pametnih strojev v vojskovanju bi lahko imela katastrofalne posledice. Da bi se spopadli s to nevarnostjo, je prejšnji teden potekal prvi globalni vrh o odgovorni umetni inteligenci v vojaški domeni (REAIM), zaradi česar so države podpisale sporazum, da bi odgovorno uporabo umetne inteligence postavile višje na politični dnevni red.
Konference REAIM, ki sta jo prejšnji teden v Haagu skupaj gostili Nizozemska in Južna Koreja, so se udeležili predstavniki iz več kot 60 držav, vključno s Kitajsko. V pogovorih so sodelovali ministri, vladni delegati, možganski trusti in industrijske/civilne organizacije. Rusija ni bila povabljena k sodelovanju, Ukrajina pa se je ni udeležila.
Poziv k ukrepanju, ki so ga podpisali vsi udeleženci razen Izraela, je potrdil, da so države zavezane razvoju in uporabi vojaške umetne inteligence v skladu z „mednarodnimi pravnimi obveznostmi in na način, ki ne spodkopava mednarodne varnosti, stabilnosti in odgovornosti.”
Ameriška državna podsekretarka za nadzor orožja Bonnie Jenkins je pozvala k odgovorni uporabi umetne inteligence v vojaških situacijah. „Vabimo vse države, da se nam pridružijo pri izvajanju mednarodnih norm, saj se nanašajo na vojaški razvoj in uporabo umetne inteligence” in avtonomnega orožja, je dejal Jenkins. „Želimo poudariti, da smo odprti za sodelovanje z vsako državo, ki se nam želi pridružiti.”
Predstavnik Kitajske Jian Tan je na vrhu dejal, da bi morale države „nasprotovati iskanju absolutne vojaške prednosti in hegemonije prek umetne inteligence” in delovati prek Združenih narodov.
Druga vprašanja, za katera so se podpisniki strinjali, da bodo obravnavali, vključujejo zanesljivost vojaške umetne inteligence, nenamerne posledice njene uporabe, stopnjevanje tveganj in način, kako morajo biti ljudje vključeni v proces odločanja.
Leta 2019 je Ministrstvo za obrambo izjavilo, da bodo imeli ljudje vedno zadnjo besedo o tem, ali avtonomni orožni sistemi odpirajo ogenj na žive tarče. Kar zadeva te nenamerne posledice, omenjene v izjavi, se nekateri bojijo, da bi indijsko prizadevanje za vojaške sisteme, ki jih poganja umetna inteligenca, lahko povzročilo jedrsko vojno s Pakistanom zaradi povečanega tveganja preventivnih napadov.
Nekateri udeleženci so opazili prednosti uporabe umetne inteligence v konfliktih, zlasti v Ukrajini, kjer so strojno učenje in drugo tehnologijo uporabili za obrambo pred večjim in močnejšim agresorjem.
„Predstavljajte si, da projektil zadene stanovanjsko hišo,” je dejal podpredsednik nizozemske vlade Wopke Hoekstra. „V delčku sekunde lahko umetna inteligenca zazna njen udar in nakaže, kje bi se lahko nahajali preživeli. Še bolj impresivno je, da bi umetna inteligenca lahko sploh prestregla raketo. Vendar pa ima umetna inteligenca tudi potencial, da uniči v nekaj sekundah.”
Kritiki pravijo, da izjava ni pravno zavezujoča in ne obravnava številnih drugih pomislekov glede uporabe umetne inteligence v vojaških spopadih, vključno z brezpilotnimi letali, vodenimi z umetno inteligenco.
Več strahov glede številnih potencialnih aplikacij umetne inteligence v vojni se je pojavilo prejšnji teden, potem ko je Lockheed Martin razkril, da je njegovo novo učno letalo upravljala umetna inteligenca več kot 17 ur, kar je prvič, da je bila umetna inteligenca na taktični način uporabljena na taktičnem letalu. Nekdanji izvršni direktor Googla in predsednik Alphabeta Eric Schmidt je drugje dejal, da bi lahko imela umetna inteligenca podoben učinek na vojne kot uvedba jedrskega orožja.