Dirbtinio intelekto balso agentai, turintys įvairių galimybių, dabar gali vadovautis tardymais visame pasaulyje, Pentagono pareigūnai sakė „Defense News“. Šis avansas turėjo įtakos JAV karinių AI agentų, skirtų apklausti darbuotojams, siekiantiems prieigos prie įslaptintos medžiagos, projektavimui ir testavimui.
Padėtis tampa susirūpinusi, kad LAX reglamentai leidžia AI programuotojams vengti atsakomybės už algoritminį veikėją, kuriam vyksta emocinė prievarta arba „be jokių ženklų“. Pažymėtina, kad paauglys tariamai mirė dėl savižudybės-ir keli kiti išgyveno psichinę kančią-po pokalbio su savarankišku balso botru ir „Chatbot“ „kompanionais“, kurie išleido prieštaraujančią kalbą.
Dabar, praėjus septyneriems metams po to, kai parašė apie fizinius kankinimus „AI tardymo kilimu auštant autonominiams robotams ir poreikiui papildomai protokolui JT konvencijai prieš kankinimus“, privatumo advokatė Amanda McAllister Novak mato dar didesnį draudimų ir nusikalstamų padarinių poreikį.
Pasinaudoję „pokalbių botais, balso botais ir kitomis AI įjungiamomis technologijomis psichologiškai neleidžiančiais tikslais-turime galvoti apie tai, ar verta turėti AI-kvalifikacijos sistemas kariniame kontekste“,-sakė Novakas, kuris taip pat tarnauja pasaulyje be genocido direktorių valdybos. Novakas savo vardu kalbėjo „Defense News“.
„Royal Reff“, JAV gynybos kontržvalgybos ir saugumo agentūros (DCSA) atstovas, kuris ekranuoja asmenis, laikančius ar kreipdamiesi dėl saugumo, pareiškime teigė, kad agentūros AI balso agentas buvo „aiškiai išsivysčiusi“ į „Mitigat (E) lyties ir kultūrinius paklaidus“, kuriuos žmonės gali turėti.
Be to, „kadangi sistemos, tokios kaip pašnekovų programinė įranga“, yra „šiuo metu naudojamos visame pasaulyje, įskaitant JAV ir vietos teisėsaugą, mes manome, kad mums svarbu suprasti tokių sistemų galimybes“, – teigė jis.
DCSA atstovė spaudai Cindy McGovern pridūrė, kad šios technologijos plėtra tęsiasi dėl savo „galimybių sustiprinti JAV nacionalinį saugumą, nepaisant kitų užsienio programų“.
Išgirdęs projekto pagrindimą, Novakas užregistravo susirūpinimą dėl pasaulinių lenktynių dėl dominavimo karinių AI galimybių.
Šansai yra dideli, kad „nesvarbu, kiek vyriausybei rūpi tinkamas mokymas, priežiūra ir turėklai“,-kibernetinių kriminalinių organizacijų ar užsienio remiamų kibernetinių nusikaltėlių gali įsilaužti ir ginkluoti karinius AI, kad psichologiškai įskaudintų karininkų ar civilių gyventojų.
„Internetinės baudžiamosios erdvės klesti“ ir „kenkia pažeidžiamiausiems žmonėms“, – pridūrė Novakas.
Investuotojai lažinasi 500 milijardų JAV dolerių, kad duomenų centrai, skirti AI programų vykdymui, galiausiai užtikrins pasaulio lyderystę AI ir sutaupys išlaidų visame viešajame ir privačiame sektoriuose. Vien tik 13 milijardų dolerių pokalbių AI rinka iki 2030 m. Iki 2030 m. Bus beveik keturis kartus iki 50 milijardų dolerių, nes balso generatorių pramonė padidės nuo 3 milijardų dolerių iki numatomo 40 milijardų JAV dolerių iki 2032 m. Tuo tarpu JAV centrinė žvalgybos agentūra bent jau nuo devintojo dešimtmečio pradžios žaisdavo bent jau nuo 1980 -ųjų pradžios.
DCSA pareigūnai 2022 m. Viešai rašė, kad tai, ar saugumo interviu gali būti visiškai automatizuotas, išlieka atviras klausimas. Preliminarūs „Mock“ apklausos sesijų rezultatai „teikia vilčių“, – pažymėjo pareigūnai, pabrėždami naudą, tokią kaip „ilgesni, natūralistiniai interviu formatų tipai“.
Reffas pareiškė, kad agentūra „nenaudos tokios sistemos, kuri pirmiausia nebuvo pakankamai ištirta, kad suprastų jos galimybes“, įskaitant „neigiamas pasekmes“.
Tyrėjai leido savanoriams po kiekvieno testo kelti susirūpinimą ir nė vienas nenurodė, kad „VoiceBot“ pašnekovas jiems padarė žalos psichologiškai ar kitaip, pridūrė jis.
Tačiau eksperimentai su naujausiu prototipu draudė dalyvauti psichikos sutrikimų turintys savanoriai, tuo tarpu faktiniai saugumo interviu paprastai neatleidžia asmenų, turinčių psichinės sveikatos būklės, nuo apklausos, pažymėjo Virdžinijos universiteto duomenų mokslo profesoriaus ir kriminalinės psichologo Renée Cummings.
Cummingsas teigė, kad tyrimai ir testavimas niekada negali atsižvelgti į kiekvieną psichologinį kintamąjį, kuris gali turėti įtakos pašnekovo emocinei ar pažintinei būsenai.
Laboratorijos ar lauko bandymo scenarijuose „jūs negalite parodyti, kad kas nors kankina avatarą ar botą, kad pamatytumėte rezultatą“,-sakė Cummingsas, kuris taip pat sėdi AI ir lygybės iniciatyvos patariamojoje taryboje Carnegie etikos taryboje tarptautiniuose reikaluose. „Turime sutelkti dėmesį į sudėtingesnio supratimo apie algoritmų poveikį psichologinei būsenai, mūsų emocijoms ir smegenims įgyti, nes AI gebėjimas paveikti realiuoju laiku“.
„VoiceBot“ ekranizerių peržiūra
Devintojo dešimtmečio pradžioje CŽV tariamo PG programos ir tariamo šnipo pokalbio nuorašas pabrėžia seniai nacionalinio saugumo pasaulyje susidomėjimą automatizuojant žmogaus šaltinio žvalgybos intelektą arba „Humint“ kolekciją.
Kūrėjai suprojektavo „Chatbot“ algoritmus, kad būtų galima išanalizuoti įtariamo Spooko „Joe Hardesty“ elgesio ir žodžių ar frazių koreliacijas Hardesty atsakymuose į neterminuotus klausimus.
Remiantis šia analize, „Chatbot“ susiejo kai kuriuos įtariamojo pažeidžiamumus, įskaitant temas, kurios gali sukelti neapdorotą nervą:
AI: Ką jūs linkę manyti, kad mano domimasi jūsų vyriausybe?
Hardesty: Manau, kad jūs darytumėte mano vyriausybėje, jei turėtumėte galimybę.
AI: Jūs esate linkęs galvoti, kad daryčiau jūsų vyriausybėje, nes?
Hardesty: Jūs esate antidemokratinis.
1983 m. CŽV sušuko, kad Joe Hardesty pasisekė, kad „jei zondavimas turėtų būti per daug nepatogus, jis turės galimybę, kurios jam nebus prieinama tikroje užjūrio interviu situacijoje – jis gali sustabdyti klausimus„ išjungimo “jungiklio brūkštelėjimu.
Šiandien Bradley Moss, advokatas, atstovaujantis informatoriams, kaltinamiems nutekėjimu, nesijuokia DCSA vizija apie visiškai automatinius interviu.
„Turėtų būti kažkas, stebinantis“ avatarą, kuris gali sustabdyti procesą, kuris gali patekti į kambarį ir įkišti į jį žmogiškąjį elementą “, – perspėjo jis.
Ir vėl kiti kritikai pažymi, kad žmogus gali nenorėti įsikišti. Situacija, kai „Žmogaus prižiūrėtojas stebi pokalbių programą“ yra puiki, nebent žmogus taip pat mano, kad žodinis kankinimas yra geras dalykas. Ir tai yra reali galimybė “, – teigė Herbas Linas, Stanfordo universiteto kibernetinės politikos ir saugumo vyresnysis mokslininkas, kuris kadaise turėjo keletą saugumo.
Nepaisant visuotinio kankinimo draudimo ir įrodymų, kad interviu pranešimai yra veiksmesni nei tie, kurie verčia prisipažinti, žvalgybos pareigūnai ir toliau nagrinėja interviu su nežmonišku elgesiu.
„Novak“, duomenų privatumo advokatas ir anti-Genocido aktyvistas, teigė, kad idėja, kad per didelė jėga atlieka darbą, gali paskatinti kai kuriuos vyriausybės rangovus nustatyti balso algoritmų, leidžiančių patyčias, veiklos metriką.
„Nors AI turi didžiulį sugebėjimą išryškinti geriausius žmogaus potencialus, tačiau ji taip pat turi galimybę paaštrinti blogiausią žmogaus potencialą ir padidinti tą priešiškumą“, – pridūrė ji.
Tėvai tvirtina, kad „VoiceBot“ ir „ChatBot“ kompanionai, mokomi turinio iš internetinių forumų, parodykite būtent tai.
Veikėjas AI, įmonė, siūlanti virtualius ryšius su robotu, parašytu po piktogramų ir influencerių, vartotojų pelnas, priklijuotas prie savo telefonų. Kiekvienas vartotojas vidutiniškai kalbasi dvi valandas per dieną su įvairiais virtualiais draugais. Veikėjo AI pareigūnai pareiškė, kad sužinojusi apie susirūpinimą, įmonė sumažino vartotojų tikimybę, kad susiduria su siūlomu turiniu, ir dabar perspėja juos apie valandos trukmės pokalbius.
Novakas pakomentavo, kad kaltinimai charakteriui AI iliustruoja savarankiško balso botes sugebėjimą sustiprinti nepadorumą treniruočių duomenyse ir atstumti trenerius nuo atskaitomybės už tą įžeidimą.
Nacionalinio saugumo srityje karinių AI balso sistemų, galinčių piktnaudžiauti ar terorizuoti, vystytojai, veikiantys praktiškai neteisėtai niekuo dėsnyje. AI etikos politika galingiausioje pasaulyje šalyje beveik neturi jokių patarimų, kaip panaikinti piktnaudžiaujančius pokalbius.
Ankstyvosios JAV atsakinga ir etiška AI politika nacionalinės saugumo erdvėje buvo sutelkta į tikslumą, privatumą ir sumažinant rasinius ir etninius šališkumus – neatsižvelgiant į psichologinį poveikį. Šis politikos atotrūkis išsiplėtė po to, kai prezidentas Donaldas Trumpas atšaukė daugelį reglamentų vykdomosios įsakymo, kuriuo siekiama pagreitinti privataus sektoriaus naujoves.
Apskritai, psichologinės kančios dažnai yra „nuvalytos“ kaip paprastas teiginys, nes „ji nepalieka akivaizdžių fizinių randų“.
Iš pradžių Jungtinės Tautos nenagrinėjo „psichologinių kankinimų“ pagal 1984 m. Konvenciją prieš kankinimus. Tik prieš penkerius metus terminas įgavo reikšmę.
2020 m. Ataskaitoje dabar iš dalies nusako „kankinimus“, nes bet kuri technika buvo skirta ar skirta tikslingai sukelti stiprų psichinį skausmą ar kančias „nenaudojant„ stipraus fizinio skausmo ar kančios “.
Apačioje psichologiniai kankinimai nukreipti į pagrindinius žmogaus poreikius. Tardymo metodai kyla baimės; pažeidimo privatumas ar seksualinis vientisumas, kad būtų galima gauti gėdą ar savižudišką idėją; Pakeiskite garsą, kad padidintumėte dezorientaciją ir išsekimą; Fosteris ir paskui išduoda užuojautą izoliuoti; ir intarpas bejėgiškumas.
Kai algoritminis audiobotas yra žiaurumo kanalas, nei JT sutartis, nei kiti tarptautiniai įstatymai nėra pasirengę laikyti atsakomybe žmonėms, sakė Novakas. Neturėdama įpareigojančių AI naudojimo kariniame kontekste taisyklių, „blogi veikėjai paneigs tokius kankinimus buvo„ tyčiniai “ – tai reikalingas baudžiamosios atsakomybės elementas, kurį įstatymas sukūrė prieš subrendus AI, – paaiškino ji.
Žvelgdamas į ateitį, Nilsas Melzeris, 2020 m. JT ataskaitos ir buvusio JT specialiojo kankintojo pranešėjo autorius, perspėjo, kad psichologinių kankinimų aiškinimas turi vystytis sinchronizuojant su kylančiomis technologijomis, „tokiomis kaip dirbtinis intelektas“, nes kibernetinė aplinka suteikia „praktiškai garantuotą anonimiškumą ir beveik užbaigtą vargą“ pažeidėjams.