Kodėl nauja profiliavimo programinė įranga kelia susirūpinimą dėl privatumo

Turinys:

Kodėl nauja profiliavimo programinė įranga kelia susirūpinimą dėl privatumo
Kodėl nauja profiliavimo programinė įranga kelia susirūpinimą dėl privatumo
Anonim

Pagrindiniai pasiėmimai

  • Programinė įranga, kuri naudoja dirbtinį intelektą žmonių profiliavimui, kelia susirūpinimą dėl privatumo.
  • Cryfe sujungia elgesio analizės metodus su dirbtiniu intelektu.
  • Kinijos bendrovė „Alibaba“neseniai sulaukė kritikos po to, kai pranešė, kad jos programinė įranga gali aptikti uigūrus ir kitas etnines mažumas.
Image
Image

Nauja dirbtinio intelekto sukurta programinė įranga, skirta darbdaviams profiliuoti savo darbuotojus, kelia susirūpinimą dėl privatumo.

Viena nauja programinės įrangos platforma, pavadinta Cryfe, sujungia elgesio analizės metodus su dirbtiniu intelektu. Kūrėjas teigia, kad analizuodama smulkmenas, programinė įranga gali atskleisti žmonių ketinimus pokalbių metu. Tačiau kai kurie stebėtojai teigia, kad „Cryfe“ir kitų tipų elgseną analizuojanti programinė įranga gali pažeisti privatumą.

„Įmonės vis dažniau pasikliauja AI profiliuodamos“, – interviu el. paštu sakė dirbtinio intelekto ekspertas Vaclavas Vincale. "Tačiau net žmonės, kurie koduoja šiuos algoritmus, o tuo labiau klientų aptarnavimo asmuo, su kuriuo susisiekiate telefonu, negalėjo pasakyti, kodėl jie pateikia kokią nors rekomendaciją."

Daugiau nei žodžių

Cryfe sukūrė Šveicarijos įmonė, kurios darbuotojus FTB apmokė profiliavimo metodų. „Cryfe'as, bendraudamas su žmonėmis, ne tik klausosi žodžių, bet ir atpažįsta kitus žmogaus skleidžiamus signalus, tokius kaip emocijos, mikroraiškos ir visi gestai“, – interviu el. paštu sakė „Cryfe“įkūrėja Caroline Matteucci.

"Pavyzdžiui, įdarbinant tai leidžia mums eiti ir ieškoti tikrosios pašnekovo asmenybės."

Matteucci teigė, kad vartotojų privatumas yra apsaugotas, nes įmonė skaidriai žino, kaip veikia jos programinė įranga. „Naudotojas, prieš pradėdamas naudotis platforma, turi sutikti su bendromis sąlygomis“, – sakė ji.

"Ten nurodyta, kad vartotojas jokiu būdu negali pateikti pokalbio analizei negavęs raštiško pašnekovo sutikimo."

Cryfe nėra vienintelė AI pagrįsta programinė įranga, skirta analizuoti žmogaus elgesį. Taip pat yra „Humantic“, kuri teigia analizuojanti vartotojų elgesį. „Kelią laužanti „Humantic“technologija nuspėja kiekvieno elgesį ir jiems niekada nereikės atlikti asmenybės testo“, – rašoma bendrovės svetainėje.

Image
Image

Bendrovė teigia, kad naudoja dirbtinį intelektą, kad sukurtų kandidatų psichologinius profilius pagal žodžius, kuriuos jie vartoja gyvenimo aprašymuose, motyvaciniuose laiškuose, „LinkedIn“profiliuose ir bet kokiame kitame jų pateiktame tekste.

Elgesio programinė įranga praeityje susidūrė su teisiniais iššūkiais. 2019 m. „Bloomberg Law“pranešė, kad Lygių įsidarbinimo galimybių komisija (EEOC) išnagrinėjo tariamos neteisėtos diskriminacijos dėl su algoritmais susijusių su žmogiškųjų išteklių susijusių sprendimų atvejus.

„Viską reikės išsiaiškinti, nes ateitis įdarbinant yra dirbtinis intelektas“, – Bloomberg sakė advokatas Bradfordas Newmanas.

Kai kurie stebėtojai nesutinka su įmonėmis, naudojančiomis elgsenos stebėjimo programinę įrangą, nes ji nėra pakankamai tiksli. Viename interviu Nigelas Duffy, pasaulinis dirbtinio intelekto lyderis iš profesionalių paslaugų įmonės EY, „InformationWeek“sakė, kad jam nerimą kelia programinė įranga, kuri naudoja socialinės žiniasklaidos viktorinas ir poveikio aptikimą.

„Manau, kad yra tikrai įtikinamos literatūros apie potencialą aptikti poveikį, bet aš suprantu, kad būdas, kuris dažnai taikomas, yra gana naivus“, – sakė jis.

"Žmonės daro išvadas, kad mokslas iš tikrųjų nepalaiko [pavyzdžiui] nuspręsti, kad kažkas yra potencialiai geras darbuotojas, nes jie daug šypsosi arba nusprendžia, kad kažkam patinka jūsų produktai, nes jie daug šypsosi"

Kinijos įmonės, kaip pranešama, profilio mažumos

Elgesio stebėjimas gali turėti ir baisesnių tikslų, teigia kai kurios žmogaus teisių grupės. Kinijoje internetinės prekybos milžinė Alibaba neseniai sukėlė ažiotažą po to, kai pranešė, kad jos programinė įranga gali aptikti uigūrus ir kitas etnines mažumas.

The New York Times pranešė, kad bendrovės debesų kompiuterijos verslas turėjo programinę įrangą, kuri nuskaito vaizdus ir vaizdo įrašus.

Tačiau net žmonės, kurie koduoja šiuos algoritmus… negalėjo pasakyti, kodėl jie pateikia kokią nors rekomendaciją.

The Washington Post taip pat neseniai pranešė, kad Huawei, kita Kinijos technologijų įmonė, išbandė programinę įrangą, galinčią įspėti teisėsaugą, kai jos stebėjimo kameros aptiko uigūrų veidus.

Pranešama, kad „Huawei“2018 m. patento paraiškoje„Pėsčiųjų atributų identifikavimas yra labai svarbus“veido atpažinimo technologijoje.„Tikslinio objekto atributai gali būti lytis (vyras, moteris), amžius (pavyzdžiui, paaugliai, vidutinio amžiaus, seni) [arba] rasė (hanas, uigūras),“– sakoma paraiškoje.

Huawei atstovas CNN Business sakė, kad etninės priklausomybės nustatymo funkcija „niekada neturėjo tapti programos dalimi“.

Didėjantis dirbtinio intelekto naudojimas dideliam duomenų kiekiui rūšiuoti neabejotinai kelia susirūpinimą dėl privatumo. Galbūt niekada nežinosite, kas ar kas jus analizuoja, kai kitą kartą eisite į darbo pokalbį.

Rekomenduojamas: