Kodėl mums reikia dirbtinio intelekto, kuris paaiškina save

Turinys:

Kodėl mums reikia dirbtinio intelekto, kuris paaiškina save
Kodėl mums reikia dirbtinio intelekto, kuris paaiškina save
Anonim

Pagrindiniai pasiėmimai

  • Įmonės vis dažniau naudoja dirbtinį intelektą, paaiškinantį, kaip pasiekiami rezultatai.
  • LinkedIn neseniai padidino prenumeratos pajamas, kai naudojo dirbtinį intelektą, kuris numatė, kad klientams gresia atšaukimas, ir aprašė, kaip padarė savo išvadas.
  • Federalinė prekybos komisija pareiškė, kad AI, kuris nėra paaiškinamas, gali būti ištirtas.
Image
Image

Viena karščiausių naujų programinės įrangos tendencijų gali būti dirbtinis intelektas (AI), kuris paaiškina, kaip jis pasiekia savo rezultatus.

Paaiškinamasis AI atsiperka, nes programinės įrangos įmonės stengiasi dirbtinį intelektą padaryti suprantamesnį. „LinkedIn“neseniai padidino savo prenumeratos pajamas, kai naudojo dirbtinį intelektą, kuris numatė, kad klientams gresia atšaukimas, ir aprašė, kaip padarė savo išvadas.

„Paaiškinamas dirbtinis intelektas yra galimybė pasitikėti rezultatu ir suprasti, kaip mašina ten atsidūrė“, – interviu el. paštu „Lifewire“sakė Travisas Nixonas, „SynerAI“generalinis direktorius ir „Microsoft“finansinių paslaugų vyriausiasis duomenų mokslų vadovas..

„Kaip?“yra klausimas, keliamas daugeliui AI sistemų, ypač kai priimami sprendimai arba gaunami rezultatai, kurie nėra idealūs“, – pridūrė Nixonas. "Mes turime žinoti, kodėl AI sistemos duoda savo rezultatus, pradedant nesąžiningu elgesiu su skirtingomis rasėmis ir baigiant plikos galvos supainiojimu su futbolu. Kai tik suprantame "kaip", įmonės ir asmenys turi atsakyti į klausimą "kas toliau?"

Susipažinimas su AI

AI pasirodė esąs tikslus ir pateikia daugybę prognozių. Tačiau dirbtinis intelektas dažnai gali paaiškinti, kaip padarė savo išvadas.

Ir reguliavimo institucijos atkreipia dėmesį į AI paaiškinamumo problemą. Federalinė prekybos komisija teigė, kad AI, kurio negalima paaiškinti, galima ištirti. ES svarsto galimybę priimti Dirbtinio intelekto įstatymą, į kurį įtraukti reikalavimai, kad naudotojai galėtų interpretuoti DI prognozes.

Linkedin yra viena iš įmonių, kurios mano, kad paaiškinamas AI gali padėti padidinti pelną. Anksčiau „LinkedIn“pardavėjai pasitikėjo savo žiniomis ir praleido daug laiko ieškodami neprisijungus naudojamų duomenų, kad nustatytų, kurios paskyros greičiausiai tęs verslą ir kokiais produktais jie galėtų susidomėti kito sutarties atnaujinimo metu. Siekdama išspręsti problemą, „LinkedIn“pradėjo programą „CrystalCandle“, kuri nustato tendencijas ir padeda pardavėjams.

Kitame pavyzdyje Niksonas teigė, kad kurdama kvotų nustatymo modelį įmonės pardavimų komandai, jo įmonė sugebėjo įtraukti paaiškinamą dirbtinį intelektą, kad nustatytų, kokios savybės rodo sėkmingą naujo pardavimo samdymą.

„Su šia produkcija šios įmonės vadovybė sugebėjo atpažinti, kuriuos pardavėjus paspartinti, o kuriems reikia instruktavimo, prieš iškilus didelėms problemoms“, – pridūrė jis.

Daugelis aiškinamojo AI naudojimo būdų

Paaiškinamasis AI šiuo metu naudojamas kaip žarnyno patikrinimas daugeliui duomenų mokslininkų, sakė Nixonas. Tyrėjai naudoja savo modelį taikydami paprastus metodus, įsitikinkite, kad nėra nieko visiškai netinkamo, tada išsiunčia modelį.

„Taip yra iš dalies dėl to, kad daugelis duomenų mokslo organizacijų optimizavo savo sistemas pagal „laiką per vertę“kaip KPI, todėl procesai paspartinti ir modeliai nėra baigti“, – pridūrė Nixonas.

Aš nerimauju, kad neatsakingų modelių smūgis gali rimtai sugrąžinti AI pramonę.

Žmonių dažnai neįtikina rezultatai, kurių AI negali paaiškinti. Raj Gupta, „Cogito“vyriausiasis inžinierius, elektroniniame laiške teigė, kad jo įmonė apklausė klientus ir išsiaiškino, kad beveik pusė vartotojų (43 %) būtų pozityvesni apie įmonę ir dirbtinį intelektą, jei įmonės būtų aiškiau apie jų naudojimą. technologijos.

Ir ne tik finansiniai duomenys ištiesia pagalbos ranką iš paaiškinamo AI. Viena iš sričių, kuriai naudingas naujas požiūris, yra vaizdo duomenys, kuriuose nesunku nurodyti, kurios vaizdo dalys, algoritmo nuomone, yra esminės ir kur žmogui lengva žinoti, ar ta informacija yra prasminga, sakė Stevens docentė Samantha Kleinberg. Technologijos institutas ir paaiškinamo AI ekspertas „Lifewire“pasakė el. paštu.

„Daug sunkiau tai padaryti naudojant EKG arba nuolatinio gliukozės kiekio monitoriaus duomenis“, – pridūrė Kleinbergas.

Nixonas numatė, kad paaiškinamas AI ateityje bus kiekvienos AI sistemos pagrindas. Ir be paaiškinamo AI rezultatai gali būti baisūs, sakė jis.

„Tikiuosi, kad pažengsime šioje srityje pakankamai toli, kad ateinančiais metais paaiškinamąjį AI laikysimės savaime suprantamu dalyku ir kad šiandien žiūrėsime atgal į tą laiką nustebę, kad kas nors bus pakankamai išprotėjęs diegti modelius, kurių nesuprato., jis pridėjo.„Jei nesutiksime ateities tokiu būdu, nerimauju, kad neatsakingų modelių smūgis gali rimtai sugrąžinti dirbtinio intelekto pramonę“.

Rekomenduojamas: