Net Teksasas ir Kalifornija sutinka: AI dabar reikia realios priežiūros

Dirbtinio intelekto plėtra yra posūkio taške. Kyla susirūpinimas ne tik dėl to, ką gali padaryti technologija, bet ir tai, kas nori prisiimti atsakomybę, kai ji nepavyks.

Visoje šalyje nuo Kalifornijos iki Vašingtono DC diskusijos dėl AI valdymo kyla. Neseniai Kalifornijos AI ekspertų patariamosios tarybos laikinoji darbo ataskaita, kurią užsakė gubernatorius Gavinas Newsomas, ir 8 755 pastabos, pateiktos Baltųjų rūmų AI veiksmų plane, abu rodo didėjantį dvišalį sutarimą: laikas nutraukti AI priežiūrą kaip abstrakčią būsimą problemą ir pradėti kurti tikrą, nepriklausomą gebėjimą įvertinti riziką dabar.

Kalifornijos ataskaita, parašyta šviestuvų, įskaitant vadinamąją AI krikštatėvę Stanfordo universiteto Fei-Fei Li, yra viena blaiviausių, techniškai informuotų planų, atsirandančių iš bet kurios valstybės. Nors jis nebeįmanoma nustatyti konkrečių teisės aktų, jis netaiko jokių štampų apie tai, kad šiuo metu AI ekosistemai trūksta savarankiškų trečiųjų šalių vertinimų, standartizuoto streso patikrinimo prieš dislokavimą ir struktūrizuotus būdus viešam atskleidimui, kai AI modeliai eina.

Stebėtina, kad net Teksaso 2024 m. AI patariamosios tarybos tarpinė ataskaita, politiškai konservatyvios valstybės, žinomos dėl priešinimosi reguliavimo perpildymo, produktas, atspindi panašias temas. Ataskaitoje daroma išvada, kad įstatymų leidėjai privalo ištirti nepriklausomus techninius vertinimus ir visuomenės rizikos atskleidimą, kad užtikrintų, jog AI sistemos nepakenks saugai, pilietinėms laisvėms ar kritinei infrastruktūrai.

Nors Teksaso ataskaitoje daugiau dėmesio skiriama nacionaliniam saugumui ir valstybiniam pirkimui, Kalifornijos ir Teksaso AI padėties sutapimas yra ryškus. Nepaisant dviejų valstybių politinės ir ekonominės konkurencijos, vis labiau pripažinta, kad vien savireguliacija nėra pakankamai gera valdyti AI sistemas.

Kalifornijos pranešimo pagrindiniai autoriai neryškiai teigia, kad skaidrumas yra atskaitos taškas, o ne baigtis. Savanoriškas modelio kūrėjų atskleidimas, nesvarbu, kaip gerai ketinama, negali pakeisti išorinio, patikrinto galimo realaus pasaulio žalos bandymų, ypač kai modeliai tampa galingesni ir nepermatomi.

Federaliniu lygmeniu Nacionalinio mokslo fondo ir Mokslo ir technologijų politikos biuro komentatoriai pakartojo šį susirūpinimą. Pramonės lyderiai, tokie kaip „Openai“ ir „Palantir“, pripažino, kad reikia išplėsti federalinius pajėgumus ir stipresnes viešojo ir privačiojo sektorių partnerystes, kad būtų galima įvertinti riziką. Verslo apskritojo stalo diskusijos paragino veiksmus išvengti suskaidytos reguliavimo kraštovaizdžio, o organizacijos, įskaitant atvirojo kodo iniciatyvą, saugumo ir kylančių technologijų centrą, ir atviros filantropijos reikalavimus reikalauti bendrų vertinimo standartų, nepriklausomų auditų ir prieš diegimo testavimo protokolus, kad būtų užtikrinta atskaitomybė.

Nesvarbu, ar jie bus raudoni, ar mėlyni, vieši, ar privati, akademiniai ar komerciniai, rimčiausi balsai sutinka, kad savaiminio policijos nepakanka AI valdymui. Statymai yra per dideli, rizika privatumui per daug tiesiogiai, o pramonės šakų, tokių kaip nafta ir socialinė žiniasklaida, pamokos, taip pat pačios Kalifornijos patirtis, susijusi su duomenų apsauga per Kalifornijos vartotojų privatumo įstatymą – yra per daug švieži, kad būtų galima ignoruoti.

Šį susirūpinimą palaiko ir visuomenė. 2025 m. Kovo mėn. „YouGov“ apklausoje dauguma amerikiečių (58 proc.) Buvo labai susirūpinę dėl galimybės, kad AI skleis klaidinančius vaizdo įrašus ir garso gilius padirbinius. Be to, maždaug „pusei amerikiečių labai rūpi kiekviena iš šių dalykų: asmeninio privatumo (53 proc.), Politinės propagandos plitimo (52 proc.), Žmogaus darbo pakeitimo (48 proc.) Ir manipuliavimo žmogaus elgesiu (48 proc.).“

Bet kaip galėtų atrodyti nepriklausoma priežiūra? Nors priežiūra galėjo būti teikiama naujai suformuotai federalinei agentūrai, Kongresas taip pat galėtų įgalinti esamas partnerystes, pavyzdžiui, išplėsti Nacionalinio standartų ir technologijos instituto AI saugos institutą, kad galėtų glaudžiau bendradarbiauti su patikimais trečiųjų šalių vertintojais. Politikos formuotojai galėtų sustiprinti viešųjų testavimo laboratorijas arba finansuoti universitetus, kad patikrintų galingus modelius. Valstybinės viešųjų pirkimų agentūros taip pat galėtų reikalauti savarankiškų saugos etalonų kaip verslo sąlygos.

Kalifornijos AI ataskaita „Newsom“ administracijos negali surišti su konkrečiais veiksmais, tačiau ji jau daro įtaką įstatymų leidybos įstatymų leidybos įstatymams, įskaitant valstijos senatoriaus Scotto Wienerio atgaivintus AI saugos įstatymus ir asamblėjos narės Buffy Wicks skaidrumo reikalavimus. Tiesą sakant, šioje sesijoje Kalifornijos įstatymų leidėjoje nagrinėjami beveik trys dešimtys su AI susijusių vekselių. Daugelis šių vekselių galėtų remtis ataskaitos rekomendacijomis, susijusiomis su trečiųjų šalių vertinimu, informatorių apsauga ir visuomenės rizikos atskleidimu.

Tuo pačiu metu federaliniu lygmeniu prezidento Donaldo Trumpo vykdomasis įsakymas „pašalinant kliūtis Amerikos vadovybei dirbtiniame intelekte“ pabrėžia AI plėtros skatinimą be ideologinio šališkumo. Tai atspindi platesnį JAV pasukimą į pirmojo inovacijų, rinkos pagrįsto požiūrio į AI, siekiančią išlaikyti pasaulinį pranašumą, atsižvelgiant į kylančių Kinijos pažangą, pavyzdžiui, pastarojo meto „Deepseek“ proveržį.

Tačiau pasiūlymai sumažinti reglamentus paskatino diskusijas apie naujovių suderinimą su būtinomis vartotojų apsaugos ir nacionalinio saugumo apsaugos priemonėmis. Būsimas AI veiksmų planas, kurį informavo viešieji ir pramonės atsiliepimai, suteikia galimybę išsamiai išspręsti šias problemas ir potencialiai aprėpti adatą tarp pasaulinės lyderystės ir atsakingo valdymo. PG saugos ir saugumo priemonės gali būti reta abiejų pusių galimybė kitaip skiriančioje politinėje aplinkoje.

Rizika, kaip visada, yra inercija. Tačiau nieko nedaryti išlaidos yra aiškios. Kalifornijos ekspertų grupė palygino dabartinį AI momentą su pirmosiomis tabako ir iškastinio kuro dienomis, kai pramonė žinojo savo produktų riziką, tačiau neturėjo atskaitomybės, o politikos formuotojai dar neturėjo įrankių reaguoti.

Mums nereikia laukti, kol AI modelis katastrofiškai sugenda, prieš pradėdami veikti. Mes jau žinome, kaip atrodo pagrįsta pradinė linija: skaidrumas, trečiųjų šalių testavimas ir bendra atsakomybė. Liko vienintelis klausimas, ar turime politinę valią patekti ten, kol dar nevėlu.

Apie autorius:

Josephas Hoeferis yra AI praktikos lyderė „Monument“ gynime. Jeffas Le valdo direktorių 100 mylių „Strategies LLC“ ir lankantis bendradarbis George’o Masono universiteto nacionalinio saugumo institute. 2015–2019 m. Jeffas buvo buvusio Kalifornijos gubernatoriaus Jerry Browno kabineto sekretoriaus pavaduotojas, atsakingas už kylančių technologijų ir kibernetinio saugumo portfelį.

Source link

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -