Pagrindiniai pasiėmimai
- Naujame dokumente teigiama, kad dirbtinis intelektas gali nustatyti, kuriems mokslinių tyrimų projektams gali prireikti daugiau reguliavimo nei kitiems.
- Tai dalis vis didėjančių pastangų atrasti, koks AI gali būti pavojingas.
-
Vienas ekspertas teigia, kad tikrasis dirbtinio intelekto pavojus yra tas, kad dėl jo žmonės gali nutildyti.
Dirbtinis intelektas (DI) teikia daug naudos, tačiau taip pat gali kelti pavojų. Ir dabar mokslininkai pasiūlė metodą, kaip stebėti savo kompiuterizuotus kūrinius.
Tarptautinė komanda naujame dokumente teigia, kad AI gali nustatyti, kurių tipų mokslinių tyrimų projektams gali prireikti daugiau reguliavimo nei kitiems. Mokslininkai naudojo modelį, kuris sujungia biologijos ir matematikos sąvokas ir yra dalis vis didėjančių pastangų atrasti, koks AI gali būti pavojingas.
„Žinoma, nors „mokslinės fantastikos“pavojingas AI naudojimas gali kilti, jei taip nuspręsime […], DI pavojingu daro ne pats AI, o [kaip mes jį naudojame]“, – sakė Thierry Rayna. Prancūzijoje, École Polytechnique technologijos pokyčių katedros pirmininkas sakė Lifewire interviu el. paštu. „DI įgyvendinimas gali būti arba kompetenciją tobulinantis (pavyzdžiui, sustiprinantis žmogaus/darbuotojo įgūdžių ir žinių aktualumą), arba naikinantis kompetencijas, t. y. DI daro esamus įgūdžius ir žinias mažiau naudingus arba pasenusius.“
Skirtukų laikymas
Neseniai paskelbto dokumento autoriai savo įraše rašė, kad sukūrė modelį hipotetinėms AI varžyboms imituoti. Simuliaciją jie atliko šimtus kartų, kad pabandytų nuspėti, kaip gali pasisekti realaus pasaulio AI lenktynės.
„Kintamasis, mūsų nuomone, buvo ypač svarbus, buvo lenktynių „ilgis“– laikas, per kurį mūsų imituojamos lenktynės pasiekė savo tikslą (funkcinį AI produktą), – rašė mokslininkai. „Kai dirbtinio intelekto lenktynės greitai pasiekė savo tikslą, pastebėjome, kad konkurentai, kuriems mes įvardijome, kad visada nepaiso saugos priemonių, visada laimėdavo.“
Priešingai, mokslininkai nustatė, kad ilgalaikiai AI projektai nebuvo tokie pavojingi, nes ne visada laimi tie, kurie nepaisė saugumo. „Atsižvelgiant į šias išvadas, reguliavimo institucijoms bus svarbu nustatyti, kiek laiko gali trukti skirtingos AI lenktynės, taikydamos skirtingus reglamentus pagal jų numatomą laiką“, – rašė jie. „Mūsų išvados rodo, kad viena taisyklė visoms AI lenktynėms – nuo sprinto iki maratono – lems kai kuriuos rezultatus, kurie toli gražu nėra idealūs.“
David Zhao, bendrovės „Coda Strategy“, konsultuojančios dirbtinio intelekto klausimais, generalinis direktorius, interviu su Lifewire elektroniniu paštu sakė, kad pavojingą AI nustatyti gali būti sunku. Iššūkiai slypi tame, kad šiuolaikiniai AI metodai apima gilų mokymąsi.
„Žinome, kad gilus mokymasis duoda geresnių rezultatų daugeliu naudojimo atvejų, pvz., vaizdo aptikimo ar kalbos atpažinimo“, – sakė Zhao. "Tačiau žmonėms neįmanoma suprasti, kaip veikia giluminio mokymosi algoritmas ir kaip jis sukuria savo išvestį. Todėl sunku pasakyti, ar gerus rezultatus duodantis dirbtinis intelektas yra pavojingas, nes žmonėms neįmanoma suprasti, kas vyksta."
Programinė įranga gali būti „pavojinga“, kai naudojama kritinėse sistemose, kuriose yra pažeidžiamumų, kuriais gali pasinaudoti blogi veikėjai arba duoti neteisingus rezultatus, el. paštu sakė AI įmonės „MixMode“strategijos direktorius Mattas Shea. Jis pridūrė, kad dėl nesaugaus AI taip pat gali būti netinkamai klasifikuojami rezultatai, gali būti prarasti duomenys, gali atsirasti ekonominis poveikis arba fizinė žala.
„Naudodami tradicinę programinę įrangą, kūrėjai koduoja algoritmus, kuriuos asmuo gali išnagrinėti, kad išsiaiškintų, kaip pašalinti pažeidžiamumą arba ištaisyti klaidą, žiūrėdamas į š altinio kodą“, – sakė Shea.„Tačiau naudojant dirbtinį intelektą didžioji dalis logikos sukuriama iš pačių duomenų, užkoduotų duomenų struktūrose, pvz., neuroniniuose tinkluose ir panašiai. Dėl to sistemos yra „juodosios dėžės“, kurių negalima ištirti ieškant ir ištaisant pažeidžiamumą. kaip įprasta programinė įranga."
Prieš pavojaus?
Nors tokiuose filmuose kaip „Terminatorius“dirbtinis intelektas buvo vaizduojamas kaip pikta jėga, ketinanti sunaikinti žmoniją, tikrieji pavojai gali būti proziškesni, sako ekspertai. Pavyzdžiui, Rayna mano, kad dirbtinis intelektas gali padaryti mus kvailesnius.
„Tai gali atimti iš žmonių galimybę lavinti savo smegenis ir tobulinti žinias“, – sakė jis. „Kaip gali tapti rizikos kapitalo ekspertu, jei didžiosios laiko dalies neskiriu startuolių paraiškų skaitymui? Dar blogiau, AI yra žinoma „juodoji dėžė“ir mažai paaiškinama. Nežinant, kodėl buvo priimtas konkretus AI sprendimas, iš to bus labai mažai ko pasimokyti, kaip ir negali tapti profesionaliu bėgiku važinėdamas po stadioną Segway."
Sunku pasakyti, ar gerus rezultatus duodantis dirbtinis intelektas yra pavojingas, nes žmonėms neįmanoma suprasti, kas vyksta.
Ko gero, didžiausia PG grėsmė yra galimybė, kad ji gali duoti šališkų rezultatų, interviu el. paštu sakė Lyle'as Solomonas, teisininkas, rašantis apie AI teisines pasekmes.
„AI gali padėti gilinti visuomenės atskirtį. AI iš esmės sukurtas iš duomenų, surinktų iš žmonių“, – pridūrė Solomonas. "[Tačiau] nepaisant daugybės duomenų, jame yra minimalūs poaibiai ir neapima to, ką visi galvoja. Taigi duomenys, surinkti iš komentarų, viešų pranešimų, apžvalgų ir kt., turintys būdingą šališkumą, privers AI sustiprinti diskriminaciją ir neapykantą."