Europos sistemų namai „Thales“ netrukus paskelbs baltąją knygą apie tai, kaip „Human-Machine Teaming“ (HMT) gali pagerinti sprendimų priėmimą ir veiklos judrumą gynyboje, kuriai ESD buvo suteikta peržiūros peržiūra.
Pažymėdamas, kad dirbtinio intelekto (AI) ir autonominių sistemų įterpimas visose šiuolaikinės gynybos sistemose lemia didžiulį pokytį priimant sprendimus ir vykdant misijas, baltosios knygos teigimu, HMT siūlo struktūrizuotus ir etiškus AI integravimo į operacijas, išsaugojant žmonių sprendimus tuo pačiu metu, kai atlaisvina intelektualių sistemų pranašumus.
Kadangi organizacijos siekia būdų, kaip aplenkti priešininkus, sumažinti žmogaus pažinimo naštą ir pagerinti supratimo apie situaciją galimybes, baltajame popieriuje pažymima, kad AI ir autonomija yra svarbiausia šiems užmojams, tačiau perspėja, kad jų integracija turi būti atidžiai valdoma siekiant išlaikyti operatyvinę kontrolę ir laikytis teisinių bei etikos standartų.
Apibrėždamas HMT, „Thales“ baltajame popieriuje teigiama, kad jo esmė HMT „yra susijęs su mašinos intelekto integravimu į sprendimų priėmimo grandinę taip, kad sustiprintų, o ne sumenkintų žmogaus valdžią“, taigi jie smogia tinkamam pusiausvyrai tarp žmonių galimybių ir apribojimų bei jų naudojamų technologijų.
Straipsnyje apibrėžti trys pagrindiniai HMT modeliai:
- „Žmogaus-kilpos“ (HITL), kai žmonės išlaiko visišką pagrindinių sprendimų kontrolę, pateikdama AI rekomendacijas ar apdorojimo palaikymą: modelį, būdingą taikymo ir stebėjimo sistemoms;
- Žmogaus ir kilpos (HOTL), kai AI savarankiškai vykdo tam tikras užduotis, tuo tarpu žmonės stebi ir išlaiko galimybę įsikišti: modelį, tinkantį laiko kritinėms ar aukšto tempo misijoms;
- ir „Žmogaus-out“ (Hootl), kuriame AI veikia autonomiškai be realiojo laiko žmogaus priežiūros, paprastai griežtai apribotų, iš anksto patvirtintų scenarijų.
Remiantis tuo, kas vadinama sociotechnine sistema, kurioje tiek „socialiniai, tiek„ techniniai “elementai turi būti svarstomi kartu, nes susitarimai, kurie yra optimalūs, gali būti ne optimalūs kitam-baltoji knyga rodo, kad į vartotoją orientuotas projektavimo metodas gali padėti ir užtikrinti etinį sistemų projektavimą.
Kalbėdamas su ESD 2025 m. Liepos 7 d., Prieš paskelbiant baltąją knygą, „Thales“ tyrimų technologijos ir sprendimų inovacijų skyriaus techninis direktorius Markas Chattingtonas pabrėžė, kaip gyvybiškai svarbu atsiminti vartotojus ir ką jie bando pasiekti, kad apsaugotų nuo bet kokių etinių iškraipymų.
„Yra keletas dalykų, dėl kurių reikia nerimauti“, – aiškino jis. “One is the output and worrying about the whether the end result of what you do now is is ethical; that's one thing that probably most people focus on. The thing that we're also mindful of, and have discovered in more detailed analysis of how AI could be implemented, is that, if I don't fully understand what you were doing, how you were processing information, how it informed the decisions that you were taking, I could fundamentally change your job as well; I could inadvertently cause ethical issues, which bus praleistas vien tik (sutelkdamas dėmesį į tai) „Aš galiu jums padėti su jūsų išvestimi“.
„Chattington“ taip pat perspėjo apie PG įgyvendinimo painiavą. „Aš galiu turėti etinį modulį ir įdėti jį į platformą“, – sakė jis, „tačiau pakeiskite vartotojo veikimo būdą ir galų gale yra neetiška arba gali būti neetiška, kaip jis veikia“.
Baltajame dokumente pažymėta, kad pagrindinis etinio AI įgyvendinimo pagrindimas yra prasmingos žmogaus kontrolės (MHC) principas: užtikrinimas, kad žmonės išliks atsakingi už sprendimus, iki sprendimų ir įskaitant sprendimus naudoti mirtiną jėgą, kuriai reikalingas skaidrus AI projektavimas, patikimi patvirtinimo procesai ir aiškios vadovybės grandinės.
„Thales“ baltajame dokumente taip pat pažymėta, kad nors AI yra ypač veiksminga valdant ir aiškinant didelius duomenų kiekius, tokius kaip jutiklių tiekimas, palydoviniai vaizdai ir atvirojo kodo intelektas, tokia galia kelia naują riziką.
„Juodosios dėžės AI sistemos, kurios negali paaiškinti jų samprotavimų, pakenkia pasitikėjimui, o duomenų šališkumas ar blogas mokymas gali sukelti ydingus sprendimus“,-pažymėta dokumente ir pridūrė, kad „yra rizika, kad mes tikimės AI išspręsti visas problemas, kai iš tikrųjų gali būti tinkamesnės alternatyvios švelninimo strategijos“.
Straipsnyje buvo pridėta, kad norint, kad būtų veiksminga kritinėje aplinkoje, PG sistemos turi būti paaiškinamos, patikimos ir suderintos su vado ketinimais ir platesniais misijos tikslais.
Straipsnyje taip pat perspėjo, kad autonominių sistemų įvedimas ir PG gali padidinti nusiraminimo, per didelio pasitikėjimo ir įgūdžių išnykimo riziką, tuo pačiu tvirtindama, kad veiksmingiausios HMT sistemos palaiko intuityvų sprendimų priėmimą spaudžiant, tuo pačiu išsaugant operatoriaus moralinę agentūrą.
Kalbant apie operatyvinį HMT įgyvendinimą, baltajame popieriuje buvo nustatytos kelios kliūtys, susijusias su sklandžios gynybos sistemų integracija:
- vieningos architektūros, trukdančios operacijoms daugialypiai domenams ir paliekanti JK gynybą, nebuvimas, susiduria su prieštaringomis grėsmėmis;
- AI integravimo į esamą infrastruktūrą sudėtingumas;
- ir žmogiškieji veiksniai, pagal kuriuos operatoriai turi būti mokomi ne tik naudoti AI įrankius, bet ir suprasti jų apribojimus ir tinkamai interpretuoti jų rezultatus.
Žvelgiant į priekį, „Thales“ baltoji knyga pažymėjo, kad HMT „tiesiogiai palaiko JK gynybos ministerijos viziją apie modernizuotą, skaitmeniškai įgalintą jėgą“ ir pridūrė, kad JK strateginė gynybos apžvalga, paskelbta 2025 m. Birželio 2 d., Daug dėmesio skyrė AI, duomenų išnaudojimui ir daugialypės srities integravimui.
Norėdami subręsti HMT į veiklos galimybes, „Thales“ baltajame popieriuje teigiama, kad reikia nuolatinių investicijų:
- PG tyrimai ir plėtra buvo orientuoti į konkrečios misijos autonomiją, numatomą analizę ir adaptyvųjį mokymąsi;
- Žmogaus veiksnių tyrimai, siekiant suprasti, kaip operatoriai sąveikauja su AI įrankiais;
- testavimo ir vertinimo sistemos, imituojančios realaus pasaulio sąlygas ir padidinate pasitikėjimą HMT sistemomis.
Apibendrinant, baltosios knygos teigimu, HMT komanda „nėra ateities užmojai; tai yra dabartinė būtinybė“, pridurdama, kad „didėjant operacijų tempui ir sudėtingumui, gynybos jėgos turi pritaikyti technologijas, palaikančias greitesnes, labiau pagrįstus sprendimų priėmimą, išsaugojant moralinę ir teisinę žmogaus vadovybės atskaitomybę“.
Šiuo metu Thalesas stengiasi integruoti AI ir HMT daugelyje sričių. Tarp jų yra žinoma, kad bendrovės „DigitalCrew“ koncepcija: algoritmų kolekcija, kuri sumažina šarvuotosios transporto priemonių įgulų pažintinę naštą, kad būtų galima absorbuoti jiems pateiktą informaciją apie įvairius transporto priemonės jutiklius.
Kalbėdamas su ESD 2024 m. Gruodžio mėn. Pradžioje Stewartas Macphersonas, skaitmeninės strategijos su „Thales UK“ optronikos ir raketų elektronikos verslu vadovas, paaiškino, kad mašinų mokymosi pagrindu pagrįsti algoritmai, pirmiausia pagrįsti konvoliuciniais nervų tinklais (CNN), siūlo žingsnius pakeisti situacijos sąmoningumo technologiją, nes galima atpažinti vaizdus iš jutiklių ir kontekstualizuoti IT. Tai, pasak „MacPherson“, reiškia, kad programinė įranga „dabar turi akis“ ir todėl pakeis situacijos sąmoningumo sistemų kūrimą.
„Žmogaus įgula gali apdoroti tik tiek daug duomenų, todėl„ DigitalCrew “turi tam tikru momentu įsitraukti“, – sakė A. MacPhersonas.
Mašinų mokymosi „DigitalCrew“ algoritmai yra ypač veiksmingi objektų stebėjimo atžvilgiu-pavyzdžiui, stebėti mažų UAV judėjimą atstumu taip, kaip žmogaus akis paprasčiausiai negalėjo-ir objektų klasifikacija, juo labiau, kad „DigitalCrew“ visuose transporto priemonės jutiklio jutiklio technologijos bangos ilgiuose yra visuose.
Tuo tarpu 2024 m. Kovo mėn. „Thales“ paskelbė apie „Cortaix“ sukūrimą: AI greitintuvą, skirtą išplėsti patikimos AI technologijos integraciją į visus įmonės veiklos sektorius (gynyba, kosmosas, kosmosas, kibernetinė sauga ir skaitmeninė tapatybė).
„Thales Cortax“ iniciatyva yra skirta sukurti AI sprendimus, kurie pagerins sprendimų priėmimą žmonių operatoriams, net ir esant sunkiausioms ir ribojančioms aplinkybėms; pagerinti pažangiausių sistemų veikimą; ir užtikrinkite, kad AI būtų dislokuota etiškai, saugiai ir skaidriai.
Thalesas tvirtino, kad ji yra įsipareigojusi auginti JK AI talentų dujotiekį ir pareiškė, kad iki 2025 m. Pabaigos „Cortaix“ JK išlaikys 200 aukštos kvalifikacijos AI ir duomenų specialistų vaidmenų, palaikydamas JK vyriausybės viziją apie AI orientuotą augimą ir produktyvumą.