Twitter algoritmo rasinis šališkumas rodo didesnę techninę problemą

Turinys:

Twitter algoritmo rasinis šališkumas rodo didesnę techninę problemą
Twitter algoritmo rasinis šališkumas rodo didesnę techninę problemą
Anonim

Pagrindiniai pasiėmimai

  • Twitter tikisi ištaisyti tai, ką vartotojai vadina rasiniu šališkumu savo vaizdo peržiūros programinėje įrangoje.
  • Technologijų milžino kvietimas gali būti kultūrinis skaičiavimas, kurio pramonei reikia spręsti įvairovės problemas.
  • Dėl technologijų įvairovės stokos pablogėja jos technologinės pažangos veiksmingumas.
Image
Image

Twitter ketina pradėti tyrimą dėl savo nuotraukų apkarpymo algoritmo, kai jis tapo populiaria tema, paskatinusia plačiau pradėti pokalbį apie įvairovės klausimus technologijų pramonėje.

Socialinės žiniasklaidos žmogelis pateko į antraštes po to, kai naudotojai aptiko akivaizdų rasinį šališkumą jo vaizdo peržiūros algoritme. Šis atradimas įvyko po to, kai „Twitter“vartotojas Colinas Madlandas pasinaudojo platforma, norėdamas įvardinti Zoom nesugebėjimą atpažinti savo juodaodžių kolegų, kurie naudojo žaliojo ekrano technologiją, tačiau demonstruodamas didžiulę ironiją, jis pastebėjo, kad „Twitter“vaizdų apkarpymo algoritmas elgiasi panašiai ir juodaodžiams veidams buvo suteiktas prioritetas.

Žinoma, tai didžiulė problema bet kuriai mažumai, bet manau, kad yra ir daug platesnė problema.

Kiti naudotojai įsitraukė į šią tendenciją ir sukėlė daugybę virusinių tviterių, rodančių, kad algoritmas nuosekliai pirmenybę teikė b altiems ir šviesesnės odos veidams – nuo žmonių iki animacinių filmų personažų ir net šunų. Ši nesėkmė rodo didesnį kultūrinį judėjimą technologijų pramonėje, kuris nuolat neatsižvelgė į mažumų grupes, o tai perėjo į techninę pusę.

„Tai priverčia mažumos jaustis siaubingai, tarsi jos nėra svarbios, ir gali būti naudojamos kitiems dalykams, kurie gali padaryti rimtesnę žalą“, – sakė universiteto kompiuterių mokslų profesorius Erik Learned-Miller. Masačusetso valstijos, sakė interviu telefonu.„Kai nuspręsite, kam programinės įrangos dalis gali būti naudojama ir kokiai žalai gali kilti, pradėsime kalbėti apie būdus, kaip sumažinti jų tikimybę.“

Kanarė laiko juostoje

Twitter naudoja neuroninius tinklus, kad automatiškai apkarpytų į tviterius įterptus vaizdus. Algoritmas turėtų aptikti veidus, kad būtų galima peržiūrėti, tačiau atrodo, kad jis turi pastebimą b altos spalvos paklaidą. Bendrovės atstovė Liz Kelley tviteryje paskelbė atsakymą į visus susirūpinimą keliančius klausimus.

Kelley tviteryje parašė: „Ačiū visiems, kurie tai iškėlė. Prieš pristatydami modelį išbandėme šališkumą ir neradome rasinio ar lyties šališkumo įrodymų, tačiau akivaizdu, kad turime daugiau analizės. mes atidarysime savo darbą, kad kiti galėtų peržiūrėti ir pakartoti."

B altosios knygos „Veidų atpažinimo technologijos laukinėje aplinkoje: kvietimas į federalinę tarnybą“bendraautorius Learned-Miller yra pirmaujantis tyrėjas, tiriantis AI mokymosi programinės įrangos perteklių. Jis daugelį metų diskutuoja apie galimą neigiamą įvaizdžio mokymosi programinės įrangos poveikį ir kalbėjo apie tai, kaip svarbu sukurti tikrovę, kurioje šis šališkumas būtų kiek įmanoma sumažintas.

Daugelis veido atpažinimo technologijos algoritmų naudoja duomenų atskaitos rinkinius, dažnai vadinamus mokymo rinkiniais, kurie yra vaizdų rinkinys, naudojamas vaizdų mokymosi programinės įrangos veikimui patikslinti. Galiausiai tai leidžia AI lengvai atpažinti daugybę veidų. Tačiau šiuose nuorodų rinkiniuose gali trūkti įvairaus telkinio, todėl gali kilti tokių problemų, kokias patyrė „Twitter“komanda.

„Be abejo, tai didžiulė problema bet kuriai mažumai, bet manau, kad yra ir daug platesnė problema“, – sakė Learned-Miller. „Tai susiję su įvairovės stoka technologijų sektoriuje ir būtinybe centralizuotos reguliavimo jėgos, kuri parodytų, kaip tinkamai naudojama tokia galinga programinė įranga, linkusi piktnaudžiauti ir piktnaudžiauti.“

Technologijoms trūksta įvairovės

Twitter gali būti naujausia pjaustymo bloko technologijų įmonė, tačiau tai toli gražu nėra nauja problema. Technologijų sritis tebėra b altoji sritis, kurioje nuolat dominuoja vyrai, o mokslininkai nustatė, kad įvairovės trūkumas sukelia sisteminio, istorinio disbalanso atkartojimą sukurtoje programinėje įrangoje.

2019 m. Niujorko universiteto AI Now instituto ataskaitoje mokslininkai nustatė, kad juodaodžiai sudaro mažiau nei 6 procentus geriausių šalies technologijų įmonių darbuotojų. Panašiai moterys sudaro tik 26 procentus šios srities darbuotojų – statistika mažesnė nei jų dalis 1960 m.

Jis leidžia mažumoms jaustis siaubingai, tarsi jos nėra svarbios, be to, jis gali būti naudojamas kitiems dalykams, kurie gali padaryti rimtesnę žalą.

Paviršiuje šios reprezentacinės problemos gali atrodyti kasdieniškos, tačiau praktiškai žala gali būti didžiulė. Tyrėjai AI Now Institute ataskaitoje teigia, kad tai priežastiniu ryšiu susiję su programinės įrangos problemomis, dažnai neatsižvelgiančiomis į ne b altųjų ir ne vyrų populiacijas. Nesvarbu, ar infraraudonųjų spindulių muilo dozatoriai nesugeba aptikti tamsesnės odos, ar „Amazon“AI programinė įranga neatskiria moterų veidų nuo vyrų veidų, nesugebėjimas spręsti įvairovės technologijų pramonėje lemia, kad technologijos nesugeba susidoroti su įvairiu pasauliu.

„Yra daug žmonių, kurie negalvojo apie problemas ir iš tikrųjų nesuvokia, kaip šie dalykai gali pakenkti ir kokia didelė ši žala“, – apie AI vaizdo mokymąsi pasiūlė Learned-Miller. "Tikimės, kad žmonių skaičius mažėja!"

Rekomenduojamas: