Kodėl emocijų skaitymo programinė įranga gali pažeisti jūsų privatumą

Turinys:

Kodėl emocijų skaitymo programinė įranga gali pažeisti jūsų privatumą
Kodėl emocijų skaitymo programinė įranga gali pažeisti jūsų privatumą
Anonim

Pagrindiniai pasiėmimai

  • Pranešama, kad „Zoom“naudos dirbtinį intelektą, kad įvertintų naudotojo nuotaikas ar įsitraukimo lygį.
  • Žmogaus teisių grupės prašo Zoom persvarstyti savo planą dėl privatumo ir duomenų saugumo problemų.
  • Kai kurios įmonės interviu metu taip pat naudoja emocijų aptikimo programinę įrangą, kad įvertintų, ar vartotojas atkreipia dėmesį.
Image
Image

Didėjantis dirbtinio intelekto (AI) naudojimas žmogaus emocijoms stebėti kelia susirūpinimą dėl privatumo.

Žmogaus teisių organizacijos prašo Zoom sulėtinti savo planą įtraukti emocijas analizuojančią AI į savo vaizdo konferencijų programinę įrangą. Pranešama, kad bendrovė pranešė, kad naudos dirbtinį intelektą, kad įvertintų vartotojo nuotaikas arba įsitraukimo lygį.

„Ekspertai pripažįsta, kad emocijų analizė neveikia“, – laiške Zoom rašė žmogaus teisių grupių, įskaitant ACLU, konsorciumas. "Veido išraiškos dažnai yra atskirtos nuo emocijų, esančių apačioje, ir tyrimai parodė, kad net žmonės kartais negali tiksliai perskaityti ar išmatuoti kitų emocijų. Sukūrus šį įrankį, pseudomokslas tampa patikimesnis ir rizikuojama jūsų reputacija."

Zoom ne iš karto atsakė į Lifewire prašymą pakomentuoti.

Stebėkite savo emocijas

Remiantis Protokolo straipsniu, mastelio keitimo stebėjimo sistema, vadinama Q for Sales, tikrintų vartotojų pokalbio laiko santykį, atsako laiko delsą ir dažnus garsiakalbių keitimus, kad būtų galima stebėti, kaip asmuo yra įsitraukęs. Mastelio keitimas naudotų šiuos duomenis balams nuo nulio iki 100 priskirti, o aukštesni balai rodytų didesnį įsitraukimą ar nuotaiką.

Žmogaus teisių grupės tvirtina, kad programinė įranga gali diskriminuoti žmones su negalia arba tam tikros etninės grupės atstovais, darant prielaidą, kad visi bendraudami naudoja tas pačias veido išraiškas, balso raštus ir kūno kalbą. Grupės taip pat teigia, kad programinė įranga gali kelti pavojų duomenų saugumui.

Image
Image

„Surinkus labai asmeninius duomenis, bet kuris subjektas, diegiantis šią technologiją, gali tapti valdžios institucijų ir kenkėjiškų įsilaužėlių taikiniu“, – teigiama laiške.

Julija Stojanovich, Niujorko universiteto kompiuterių mokslo ir inžinerijos profesorė, interviu „Lifewire“el. paštu sakė skeptiškai vertinanti teiginius, susijusius su emocijų aptikimu.

„Nesuprantu, kaip tokia technologija gali veikti – žmonių emocinė išraiška yra labai individuali, labai priklausoma nuo kultūros ir labai priklauso nuo konteksto“, – sakė Stojanovičius. Tačiau, galbūt dar svarbiau, nesuprantu, kodėl norėtume, kad šie įrankiai veiktų. Kitaip tariant, turėtume dar daugiau bėdų, jei jie veiktų gerai. Tačiau galbūt net prieš pagalvodami apie riziką, turėtume paklausti – kokia gali būti tokios technologijos nauda?

Zoom nėra vienintelė įmonė, kuri naudoja emocijų aptikimo programinę įrangą. Theo Willsas, privatumo ir saugumo konsultacijų bendrovės „Kuma LLC“vyresnysis privatumo direktorius, „Lifewire“el. paštu sakė, kad programinė įranga emocijoms aptikti naudojama interviu metu, siekiant įvertinti, ar vartotojas atkreipia dėmesį. Jis taip pat bandomas transporto pramonėje, siekiant stebėti, ar vairuotojai atrodo mieguisti, vaizdo platformose, siekiant įvertinti susidomėjimą ir pritaikyti rekomendacijas, ir mokomuosiuose vadovėliuose, siekiant nustatyti, ar konkretus mokymo metodas yra patrauklus.

Wills tvirtino, kad ginčai dėl emocijų stebėjimo programinės įrangos yra labiau duomenų etikos, o ne privatumo klausimas. Ji sakė, kad tai apie sistemą, kuri realiame pasaulyje priima sprendimus, pagrįstus nuojautomis.

"Naudodami šią technologiją, dabar manote, kodėl mano veidas turi tam tikrą išraišką, tačiau išraiškos impulsas labai skiriasi dėl tokių dalykų kaip socialinis ar kultūrinis auklėjimas, elgesys šeimoje, praeities patirtis ar nervingumas. Šiuo metu“, – pridūrė Willsas. "Grįžti algoritmą prielaida iš prigimties yra klaidinga ir galimai diskriminuojanti. Daugeliui populiacijų nėra atstovaujama populiacijoje, kuria remiasi algoritmai, todėl prieš naudojant jį reikia suteikti pirmenybę tinkamam vaizdavimui."

Praktiniai svarstymai

Emocijų sekimo programinės įrangos keliamos problemos gali būti ir praktinės, ir teorinės. Mattas Heisie, AI valdomos programėlės, teikiančios santykių žvalgybą, įkūrėjas Mattas Heisie el. laiške Lifewire sakė, kad vartotojai turi paklausti, kur atliekama veidų analizė ir kokie duomenys saugomi. Ar tyrimas atliekamas naudojant skambučių įrašus, apdorojamus debesyje ar vietiniame įrenginyje?

Be to, Heisie paklausė, kai algoritmas išmoksta, kokius duomenis jis renka apie žmogaus veidą ar judesius, kuriuos galima atskirti nuo algoritmo ir panaudoti kieno nors biometriniams duomenims atkurti? Ar įmonė saugo momentines nuotraukas, kad patikrintų arba patvirtintų algoritmo išmoktas, ir ar vartotojui pranešama apie šiuos naujus išvestinius duomenis arba saugomus vaizdus, kurie gali būti renkami iš skambučių?

„Tai visos problemos, kurias išsprendė daugelis įmonių, tačiau yra ir įmonių, kurias sukrėtė skandalas, kai paaiškėja, kad jos tai padarė neteisingai“, – sakė Heisie. "Facebook" yra svarbiausias atvejis, kai įmonė atsisakė savo veido atpažinimo platformos dėl susirūpinimo dėl vartotojų privatumo. Patronuojanti bendrovė "Meta" dabar naudoja AR funkcijas iš Instagram kai kuriose jurisdikcijose, pvz., Ilinojaus ir Teksaso, dėl privatumo įstatymų, susijusių su biometriniais duomenimis."

Rekomenduojamas: