AI Nusik altimų Numatymas gali apk altinti neteisingus žmones

Turinys:

AI Nusik altimų Numatymas gali apk altinti neteisingus žmones
AI Nusik altimų Numatymas gali apk altinti neteisingus žmones
Anonim

Pagrindiniai pasiėmimai

  • Pranešama, kad programinės įrangos įmonė renka informaciją apie socialinę žiniasklaidą, kad sukurtų profilius, kuriuos būtų galima naudoti identifikuojant žmones, kurie kelia pavojų saugumui.
  • Voyager Labs sudarė reikšmingą sandorį su Japonijos vyriausybine agentūra.
  • Tačiau ekspertai perspėja, kad dirbtinio intelekto numatymo programinę įrangą galima apgauti.
Image
Image

Jūsų internetinė informacija gali būti naudojama nuspėjant, ar galite padaryti nusik altimą.

Pranešama, kad „Voyager Labs“renka informaciją apie socialinę žiniasklaidą, kad sukurtų profilius, kurie gali būti naudojami saugumui keliančių žmonių atpažinimui. Tai dalis didėjančių pastangų naudoti dirbtinį intelektą (AI) tiriant galimus nusik altėlius. Tačiau kai kurie ekspertai teigia, kad judėjimas kupinas galimų problemų.

„Labai sunku nuspėti žmogaus elgesį“, – interviu el. paštu „Lifewire“sakė Matthew Carr, „Atumcell Group“saugumo tyrinėtojas. "Mes net negalime nuspėti savo elgesio, jau nekalbant apie kažkieno kito elgesį. Manau, kad gali būti, kad dirbtinis intelektas ateityje gali būti panaudotas šiam tikslui, tačiau šiuo metu mes toli iki to."

Profilių kūrimas

Kaip neseniai pranešė „The Guardian“, Los Andželo policijos departamentas ištyrė galimybę naudoti „Voyager Lab“nusik altimų numatymo programinę įrangą. Bendrovė taip pat paskelbė, kad sudarė reikšmingą sandorį su Japonijos vyriausybine agentūra.

Japonijos susitarimas suteikia vyriausybei dirbtinio intelekto pagrindu veikiančią tyrimo platformą, kuri analizuoja didžiulius kiekius informacijos iš bet kurio š altinio, įskaitant atvirus ir išsamius duomenis.

„Džiaugiuosi, kad bendradarbiaujame kovojant su terorizmu ir nusikalstamumu“, – pranešime spaudai sakė „Voyager Labs“APAC generalinė direktorė Divya Khangarot. „Naudodami pažangiausius „Voyager Lab“žvalgybos sprendimus, mūsų klientai įgyja unikalių galimybių aktyviai identifikuoti ir sužlugdyti galimas grėsmes. Naudodami AI, mašininio mokymosi ir OSINT derinį pateikiame papildomų gilių tyrimų įžvalgų sluoksnius, kad atskleistume paslėptus pėdsakus, pažeistą informaciją, ir blogi aktoriai."

Ne toks protingas?

Tačiau interviu el. paštu Mattas Heisie, Ferret.ai, kuris taip pat naudoja dirbtinį intelektą pažeidėjams prognozuoti, įkūrėjas, suabejojo kai kuriais Voyager Labs teiginiais.

"Ar yra toks aiškus ryšys tarp, tarkime, suėmimo įrašo ir būsimo nusikalstamo elgesio, kaip yra juoda dėmė ant tyrimo ir naviko išsivystymo?" jis pasakė. „Pagalvokite apie visas galimas suėmimo problemas – kokioje kaimynystėje asmuo gyveno, policijos toje srityje skaičių ir kokybę, netgi šališkumą. Asmens amžius, lytis, fizinė išvaizda, visa tai turi susikertančią įtaką tikimybei, kad asmuo bus sulaikytas, visiškai atskirtas nuo faktinio polinkio padaryti nusik altimą, kurį bandome nuspėti."

K altinamieji, turintys geresnius advokatus, labiau tikėtina, kad negalės uždrausti įrašų, kad jie nebūtų prieinami viešai, sakė Heisie. Kai kurios jurisdikcijos riboja šūvių ar arešto įrašų paskelbimą, kad apsaugotų k altinamąjį.

"Kompiuteris mokysis pagal jūsų pateiktus duomenis ir įtrauks visus paklaidas, kurios buvo įtrauktos į duomenų rinkimą…"

„Visa tai dar labiau iškraipo algoritmus“, – pridūrė jis. "Kompiuteris mokysis remdamasis jūsų pateiktais duomenimis ir įtrauks visus šališkumus, kurie buvo renkami renkant duomenis į mokymąsi ir interpretavimą."

Buvo keli bandymai sukurti nusikalstamumą, numatantį dirbtinį intelektą, o rezultatai dažnai buvo skandalingi, sakė Heisie.

COMPAS – algoritmas, kurį teisėsauga naudoja siekdama numatyti pakartotinį nusik altimą, dažnai naudojamas nustatant bausmę ir užstatą. Iki 2016 m. ji patyrė skandalą dėl rasinio šališkumo, nes prognozuojama, kad juodaodžiai k altinamieji kelia didesnę recidyvizmo riziką nei jie iš tikrųjų, o b altiesiems k altinamiesiems – atvirkščiai.

Daugiau nei 1 000 technologų ir mokslininkų, įskaitant akademikus ir AI ekspertus iš Harvardo, MIT, Google ir Microsoft, 2020 m. pasisakė prieš dokumentą, kuriame teigiama, kad mokslininkai sukūrė algoritmą, galintį numatyti nusikalstamumą, pagrįstą tik žmogaus veidą, sakydamas, kad tokių tyrimų paskelbimas sustiprina jau egzistuojantį rasinį šališkumą baudžiamojo teisingumo sistemoje, pažymėjo Heisie.

Image
Image

Kinija yra didžiausia ir greičiausiai auganti šio tipo technologijų rinka, visų pirma dėl plačios prieigos prie privačių duomenų, daugiau nei 200 milijonų stebėjimo kamerų ir pažangių dirbtinio intelekto tyrimų, kurie daugelį metų buvo skirti šiai problemai, sakė Heisie.. Tokios sistemos kaip „CloudWalk's Police Cloud“dabar naudojamos nusik altėliams numatyti ir sekti bei tiksliai nustatyti teisėsaugą.

„Tačiau ten taip pat pranešama apie didelius paklaidas“, – sakė Heisie.

Heisie pridūrė, kad jo įmonė kruopščiai tvarko įvedamus duomenis ir nenaudoja nuotraukų ar suėmimo įrašų, „susitelkdama į objektyvesnius kriterijus“.

„Mūsų AI mokosi iš kuruojamų duomenų, bet dar svarbiau, kad jis taip pat mokosi iš žmonių, kurie patys analizuoja, kuruoja ir vertina įrašus bei pasakoja mums apie savo sąveiką su kitais“, – pridūrė jis. „Mes taip pat palaikome visišką skaidrumą ir nemokamą bei viešą prieigą prie savo programos (kiek galime greitai išleisti jas į beta versiją) ir džiaugiamės mūsų procesų ir procedūrų įžvalga.“

Rekomenduojamas: