Attilio Caligiani 1, gen. (Ret.) Koen Gijsbers 2, Lennart Padberg 3
Dirbtinis intelektas (AI) greitai keičia kiekvieną visuomenės aspektą, o jos integracija į gynybą ir saugumą keičia šiuolaikines strategines ir veiklos sistemas. Nors AI siūlo precedento neturinčius pranašumus, tai taip pat kelia kritinius etinius ir politinius iššūkius. Atskaitomybės, patikimumo ir teisinių pagrindų laikymosi klausimai išlieka diskusijų dėl atsakingo AI dislokavimo priešakyje. Šiame straipsnyje autoriai nagrinėja strateginius naujovių pusiausvyros padarinius su etiniais laikymosi ir politikos standartais, kad būtų užtikrintas atsakingas AI panaudojimas gynybai ir saugumui
Greitas AI plėtros ir augimo panaudojimo srityse keičia gynybos ir saugumo aplinką, kaip mes jį žinome-didesnį supratimą apie situaciją ir veiklos efektyvumą, palaikant sprendimų priėmimą ir skatinant pažangą savarankiškų ginklų sistemose.
Nors AI turi didelį potencialą sustiprinti Europos strateginę autonomiją gynyboje ir saugume, tai taip pat reiškia etiškų padarinių seriją. AI galimybė savarankiškai vykdyti sprendimus dėl gyvybės ar mirties pabrėžia, kad būtinybė yra žmogaus požiūrio į žmogaus, kai palaikoma žmonių priežiūra, siekiant užkirsti kelią nenumatytoms pasekmėms. Be to, AI gebėjimas apdoroti stebėjimo duomenis precedento neturinčiu mastu kelia susirūpinimą dėl privatumo, duomenų apsaugos ir galimo netinkamo AI-patobulintų žvalgybos priemonių naudojimo.
Priėmus AI įstatymą, Europos Sąjunga yra priešakyje reguliuojant AI, siūlydama išsamią sistemą, skirtą suderinti nacionalinę politiką. Tačiau norint užtikrinti veiksmingą jo įgyvendinimą, bus labai svarbu užtikrinti nuoseklumą su kitais susijusiais Europos įstatymais, tokiais kaip tinklo ir informacinių sistemų saugumo direktyva (NIS2), Kibernetinio atsparumo įstatymas (CRA), kritinių subjektų atsparumo direktyvas (CERD) ), Bendrasis duomenų apsaugos reglamentas (GDPR), teisėsaugos direktyva (LED) ir Europos dronų ir kontraktūrų sprendimų politikos sistema.
Siekdamas užtikrinti etišką ir saugų naudojimą įvairiose srityse, AI įstatymas klasifikuoja AI sistemas pagal rizikos lygius, suderinant saugumo poreikį su inovacijų paskatomis. Tačiau jo įgyvendinimas gynybos sektoriuje kelia tam tikrą iššūkių rinkinį. Nelygivaros, susijusios su karinėmis AI išimtimis, ypač atliekant dvigubo naudojimo programas, kai civilinės ir karinės technologijos sutampa, reikalauja tolesnių patarimų. Kadangi karinės AI paraiškos neįtraukiamos į AI įstatymą, nacionalinės vyriausybės išlaiko didelę autonomiją apibrėždamos savo gynybos AI politiką, todėl rizika suskaidyti etikos standartus ir valstybių narių sąveiką. Nors šiuo metu nėra jokio oficialaus sprendimo, kad karo taisyklės galioja skaitmeninėje erdvėje, tačiau plačiai sutarta, kad grynai karinių AI karinių taikymo išimtys turėtų griežtai laikytis karo įstatymo, užtikrinant etikos standartų išsaugojimą.
Nors Europos politikos pastangos teikia pirmenybę saugai, jas reikia kruopščiai subalansuoti su naujovėmis, atsižvelgiant į greitą AI pažangą, kurią įgyvendina kitos pasaulinės galios. Neturint tiksliai apibrėžto strateginio požiūrio ir tinkamos finansinės ir techninės paramos Europos Sąjungoje ir nacionaliniame lygmenyje, Europos įmonės rizikuoja atsilikti nuo pasaulinės AI rasės.
Tokius rūpesčius patvirtina neseniai pateiktas Henna Virkkunen, Europos technologinio suvereniteto viceprezidento viceprezidento Henna Virkkunen, įgyvendinant „AI ir debesų plėtros įstatymą“, siekiant kovoti su didėjančiu Europos produktyvumo atotrūkiu su JAV ir Kinija.
Einant į priekį, patikimas pažengęs AI (AAI) bus viena iš kylančių technologijų, į kurias turėtų atkreipti daugiau dėmesio Europos Sąjunga. Kaip aprašė aukšto lygio dirbtinio intelekto ekspertų grupė, patikimas AAI turi tris komponentus, kurie turėtų būti patenkinti per visą sistemos gyvenimo ciklą: jis turėtų būti teisėtas, etiškas ir tvirtas tiek iš techninės, tiek socialinės perspektyvos.
Siekiant išspręsti techninius, socialinius ir etinius aspektus, pagrindiniai smėlio dėžės bus svarbiausios, siūlančios kontroliuojamą aplinką įmonėms naujovėms, užtikrinant laikymąsi. Pasitelkdamos etinius reikalavimus kaip konkurencinį pranašumą ir keičiant turto atitiktį, o ne apribojimą, Europos įmonės gali vadovauti atsakingai AI naudojimui, skatindamos pasitikėjimą tarp sąjungininkų NATO ir pasauliniu lygiu. Tai ypač labai svarbu, nes kibernetinės grėsmės tampa sudėtingesnės: užsitarnauti visuomenės pasitikėjimą novatoriškomis technologijomis reikalauja, kad įmonės teiktų pirmenybę kibernetiniam saugumui, kurti atsparias sistemas, galinčias aptikti ir lengviau aptikti vis sudėtingesnius kibernetines ataka.
Atsakingo PG plėtros skatinimas taip pat reikalauja glaudaus viešojo ir privačiojo sektorių partnerystės ir bendradarbiavimo su politikos įstaigomis. Šis požiūris leidžia įmonėms pasidalyti žiniomis ir ištekliais, kad būtų galima paspartinti inovacijas, tuo pačiu užtikrinant sąveiką ir derinimą su politikos reikalavimais. Taigi vieninga Europos strategija, paremta finansavimo programomis, tokiomis kaip Europos gynybos fondas (EDF) ir „Horizon Europe“, yra labai svarbi siekiant sustiprinti pramonės bendradarbiavimą ir užtikrinti AI tyrimų pažangą
Be to, atsižvelgiant į dinamišką AI technologijų pobūdį, būtina judrioms strategijoms, kurios tikisi, kad technologiniai pokyčiai yra būtini: atitinkamai stebėti savo pasaulinius pasiekimus ir pritaikyti metodus yra svarbiausia, kad būtų išlaikytas Europos aktualumas ir strateginis pranašumas gynyboje ir saugume. Siekdamos sėkmės šioje besivystančioje aplinkoje, įmonėms reikalingas iniciatyvus strateginis požiūris, užtikrinant pasirengimą ir pritaikomumą tiek technologiniams, tiek politiniams iššūkiams.
Vaizdo mandagumas FSG globalus
- 1 „FGS Global“ partnerių partneriai
- 2 „FGS Global“ vyresnysis patarėjas ir buvęs NCIA NL MOD CIO ir GM
- 3 „FGS Global“ vyresnysis bendradarbis
- „FGS Global“ yra pagrindinis strateginis suinteresuotųjų šalių ekonomikos patarėjas