AI gali pasivyti žmogiškąjį samprotavimą

Turinys:

AI gali pasivyti žmogiškąjį samprotavimą
AI gali pasivyti žmogiškąjį samprotavimą
Anonim

Pagrindiniai pasiėmimai

  • Tyrėjai sukūrė metodus, kurie leidžia vartotojams reitinguoti mašininio mokymosi modelio elgsenos rezultatus.
  • Ekspertai teigia, kad šis metodas rodo, kad mašinos vejasi žmonių mąstymo gebėjimus.
  • DI pažanga gali paspartinti kompiuterių gebėjimo suprasti kalbą vystymąsi ir pakeisti AI ir žmonių sąveiką.
Image
Image

Nauja technika, kuria matuojamas dirbtinio intelekto (DI) mąstymo galia, rodo, kad mašinos vejasi žmones savo gebėjimu mąstyti, sako ekspertai.

Tyrėjai iš MIT ir IBM tyrimų sukūrė metodą, leidžiantį vartotojui reitinguoti mašininio mokymosi modelio elgsenos rezultatus. Jų technika, vadinama bendru interesu, apima metriką, kuri lygina, kaip modelio mąstymas atitinka žmonių mąstymą.

„Šiandien dirbtinis intelektas gali pasiekti (o kai kuriais atvejais ir viršyti) žmogaus našumą atliekant konkrečias užduotis, įskaitant vaizdo atpažinimą ir kalbos supratimą“, – sakė Pieteris Buteneersas, mašininio mokymosi ir AI komunikacijos inžinerijos direktorius. bendrovė „Sinch“, sakė „Lifewire“interviu el. „Naudodamos natūralios kalbos apdorojimą (NLP), AI sistemos gali interpretuoti, rašyti ir kalbėti kalbomis taip pat, kaip ir žmonės, o AI netgi gali koreguoti savo dialektą ir toną, kad atitiktų savo bendraamžius žmones.“

Dirbtinės išmaniosios priemonės

AI dažnai duoda rezultatų nepaaiškindamas, kodėl tie sprendimai yra teisingi. O įrankiai, padedantys ekspertams suprasti modelio samprotavimus, dažnai pateikia tik įžvalgas, tik vieną pavyzdį vienu metu. DI paprastai mokomas naudojant milijonus įvestų duomenų, todėl žmogui sunku įvertinti pakankamai sprendimų, kad nustatytų modelius.

Neseniai paskelbtame dokumente mokslininkai teigė, kad bendri interesai gali padėti vartotojui atskleisti modelio sprendimų priėmimo tendencijas. Ir šios įžvalgos gali leisti vartotojui nuspręsti, ar modelis yra paruoštas diegti.

„Plėtodami bendrus interesus, mūsų tikslas yra išplėsti šį analizės procesą, kad galėtumėte pasauliniu lygmeniu suprasti, koks yra jūsų modelio elgesys“, – Angie Boggust, straipsnio bendraautorė., sakoma pranešime spaudai.

Bendras interesas naudoja metodą, parodantį, kaip mašininio mokymosi modelis priėmė konkretų sprendimą, vadinamą ryškumo metodais. Jei modelis klasifikuoja vaizdus, ryškumo metodai išryškina vaizdo sritis, kurios yra svarbios modeliui priimant sprendimą. „Shared Interest“veikia lygindami reikšmingumo metodus su žmogaus sukurtais komentarais.

Tyrėjai naudojo bendrus interesus, kad padėtų dermatologui nustatyti, ar jis turėtų pasitikėti mašininio mokymosi modeliu, skirtu padėti diagnozuoti vėžį pagal odos pažeidimų nuotraukas. Bendras susidomėjimas leido dermatologui greitai pamatyti teisingų ir neteisingų modelio prognozių pavyzdžius. Dermatologas nusprendė, kad negali pasitikėti modeliu, nes jis padarė per daug prognozių, pagrįstų vaizdo artefaktais, o ne tikrais pažeidimais.

„Vertė yra ta, kad naudodami bendrus interesus galime pastebėti, kad šie modelio elgesys išryškėja. Maždaug per pusvalandį dermatologas galėjo nuspręsti, pasitikėti modeliu, ar ne, ir naudoti jį, ar ne“, – sakė Boggust.

Modelio sprendimo motyvai yra svarbūs ir mašininio mokymosi tyrinėtojui, ir sprendimus priimančiam asmeniui.

Pažangos matavimas

MIT tyrėjų darbas gali būti reikšmingas žingsnis į priekį, siekiant dirbtinio intelekto pažangos link žmogaus lygio intelekto, sakė Benas Hagagas, Mašininio mokymosi algoritmus naudojančios bendrovės Darrow tyrimų vadovas, tai sakė Lifewire interviu el. paštu..

„Modelio sprendimo motyvai yra svarbūs tiek mašininio mokymosi tyrinėtojui, tiek sprendimus priimančiam asmeniui“, – sakė Hagagas. „Pirmasis nori suprasti, koks geras yra modelis ir kaip jį galima patobulinti, o antrasis nori ugdyti pasitikėjimo modeliu jausmą, todėl jie turi suprasti, kodėl ta produkcija buvo prognozuojama.“

Tačiau Hagagas perspėjo, kad MIT tyrimas grindžiamas prielaida, kad mes suprantame arba galime anotuoti žmogaus supratimą ar samprotavimus.

„Tačiau yra tikimybė, kad tai gali būti netikslu, todėl reikia daugiau dirbti, kad suprastų žmogaus sprendimų priėmimą“, – pridūrė Hagagas.

Image
Image

DI pažanga gali paspartinti kompiuterių gebėjimo suprasti kalbą vystymąsi ir pakeisti AI ir žmonių sąveiką, sakė Buteneersas. Pokalbių robotai vienu metu gali suprasti šimtus kalbų, o dirbtinio intelekto padėjėjai gali nuskaityti teksto dalis, ieškodami atsakymų į klausimus ar pažeidimus.

„Kai kurie algoritmai netgi gali nustatyti, kada pranešimai yra apgaulingi, o tai gali padėti įmonėms ir vartotojams atsikratyti šlamšto“, – pridūrė Buteneers.

Tačiau, sakė Buteneers, dirbtinis intelektas vis dar daro klaidų, kurių žmonės niekada nedarytų. „Nors kai kurie nerimauja, kad dirbtinis intelektas pakeis žmonių darbus, realybė yra tokia, kad mums visada reikės žmonių, dirbančių kartu su AI robotais, kurie padėtų juos kontroliuoti ir išvengti šių klaidų, išlaikant žmogišką ryšį versle“, – pridūrė jis.

Rekomenduojamas: