Pagrindiniai pasiėmimai
- Nauja programinės įrangos priemonė leidžia dirbtiniam intelektui stebėti, ar interneto komentaruose nėra neapykantos kurstymo.
- AI reikalingas norint reguliuoti interneto turinį, nes medžiagos kiekis viršija žmogaus galimybes.
- Tačiau kai kurie ekspertai teigia, kad DI kalbos stebėjimas kelia susirūpinimą dėl privatumo.
Kadangi internete daugėja neapykantos kurstymo, viena įmonė teigia, kad ji gali turėti sprendimą, kuris nepasikliauja žmonių moderatoriais.
Paleistis, pavadinta Spectrum Labs, teikia dirbtinio intelekto technologiją platformos teikėjams, kad galėtų aptikti ir išjungti toksiškus mainus realiuoju laiku. Tačiau ekspertai teigia, kad dirbtinio intelekto stebėjimas taip pat kelia privatumo problemų.
„AI stebėti dažnai reikia žiūrėti į modelius laikui bėgant, todėl reikia saugoti duomenis“, – interviu el. paštu „Lifewire“sakė Davidas Moody, vyresnysis „Schellman“, saugumo ir privatumo atitikties vertinimo bendrovės, darbuotojas. "Šiuose duomenyse gali būti duomenų, kuriuos įstatymai pažymėjo kaip privatumo duomenis (asmenį identifikuojanti informacija arba AII)."
Daugiau neapykantos kurstymo
Spectrum Labs žada aukštųjų technologijų sprendimą, kaip išspręsti seną neapykantos kurstymo problemą.
„Vidutiniškai padedame platformoms 50 % sumažinti turinio moderavimo pastangas ir 10 kartų padidinti toksiško elgesio aptikimą“, – teigia bendrovė savo svetainėje.
Spectrum teigia, kad bendradarbiavo su mokslinių tyrimų institutais, turinčiais specialių žalingų elgsenų patirties, kad sukurtų daugiau nei 40 elgesio identifikavimo modelių. Bendrovės „Guardian“turinio moderavimo platformą sukūrė duomenų mokslininkų ir moderatorių komanda, siekdama „palaikyti bendruomenių apsaugą nuo toksiškumo."
Didėja poreikis kovoti su neapykanta kurstančia kalba, nes žmogui neįmanoma stebėti kiekvieno internetinio srauto, sako Dylanas Foxas, „AssemblyAI“generalinis direktorius. kalboje, sakė Lifewire interviu el. paštu.
„Vien tik „Twitter“per dieną skelbiama apie 500 mln. „Twitter“, – pridūrė jis. "Net jei vienas asmuo galėtų patikrinti tviterį kas 10 sekundžių, "Twitter" turėtų įdarbinti 60 tūkst. žmonių. Vietoj to, procesui automatizuoti naudojame išmaniuosius įrankius, pvz., AI."
Skirtingai nei žmogus, dirbtinis intelektas gali veikti 24 valandas per parą, 7 dienas per savaitę ir galbūt būti teisingesnis, nes jis sukurtas taip, kad jo taisykles vienodai taikytų visiems vartotojams, nesikišant į asmeninius įsitikinimus, sakė Fox. Taip pat kainuoja tie žmonės, kurie turi stebėti ir tvarkyti turinį.
„Jie gali patirti smurtą, neapykantą ir žiaurius veiksmus, kurie gali pakenkti žmogaus psichinei sveikatai“, – sakė jis.
Spectrum nėra vienintelė įmonė, kuri siekia automatiškai aptikti neapykantą kurstančią kalbą internete. Pavyzdžiui, „Center Malaysia“neseniai pristatė internetinę sekimo priemonę, skirtą Malaizijos internautų neapykantos kurstymui rasti. Jų sukurta programinė įranga, vadinama Tracker Benci, naudoja mašininį mokymąsi, kad aptiktų neapykantą kurstančią kalbą internete, ypač „Twitter“.
Iššūkis – kaip sukurti erdves, kuriose žmonės iš tikrųjų galėtų konstruktyviai bendrauti vieni su kitais.
Susirūpinimas dėl privatumo
Nors techniniai sprendimai, tokie kaip Spectrum, gali kovoti su neapykantos kurstymu internete, jie taip pat kelia klausimų, kiek kompiuteriai turėtų atlikti policijos darbą.
Yra žodžio laisvės reikšmė, bet ne tik kalbėtojams, kurių įrašai būtų pašalinti kaip neapykantos kurstymas, Santa Klaros universiteto Markkulos taikomosios etikos centro interneto etikos direktorė Irina Raicu sakė Lifewire el. interviu.
„Leidimas priekabiavimui „žodžio laisvės“vardu paskatino tokių kalbų (ypač kai jos skirtos tam tikriems asmenims) taikinius nustoti kalbėti – visiškai atsisakyti įvairių pokalbių ir platformų“, – sakė Raicu.„Iššūkis yra tai, kaip sukurti erdves, kuriose žmonės iš tikrųjų galėtų konstruktyviai bendrauti vieni su kitais“.
AI kalbos stebėjimas neturėtų kelti privatumo problemų, jei įmonės stebėsenos metu naudoja viešai prieinamą informaciją, sakė Fox. Tačiau jei įmonė perka išsamią informaciją apie tai, kaip vartotojai sąveikauja kitose platformose, kad iš anksto nustatytų probleminius vartotojus, tai gali kelti susirūpinimą dėl privatumo.
"Tai tikrai gali būti šiek tiek pilka sritis, priklausomai nuo programos", - pridūrė jis.
Justin Davis, „Spectrum Labs“generalinis direktorius, el. laiške „Lifewire“sakė, kad bendrovės technologija gali peržiūrėti nuo 2 iki 5 tūkstančių duomenų eilučių per sekundės dalis. „Svarbiausia, kad technologijos gali sumažinti toksiško turinio, su kuriuo žmogaus moderatoriai susiduria, kiekį“, – sakė jis.
Galbūt artėjame prie AI, stebinčio žmogaus kalbą ir tekstą internete, revoliucijos slenksčio. Ateities pažanga apima geresnius nepriklausomus ir savarankiškus stebėjimo pajėgumus, leidžiančius nustatyti anksčiau nežinomas neapykantos kurstymo formas ar bet kokius kitus cenzūruojamus modelius, kurie vystysis, sakė Moody.
AI taip pat netrukus galės atpažinti konkrečių kalbos modelių modelius ir susieti š altinius bei kitą jų veiklą, atlikdama naujienų analizę, viešuosius įrašus, srauto modelių analizę, fizinį stebėjimą ir daugybę kitų galimybių, pridūrė jis.
Tačiau kai kurie ekspertai teigia, kad žmonėms visada reikės dirbti su kompiuteriais, kad galėtų stebėti neapykantą kurstančią kalbą.
„Vienas AI neveiks“, – sakė Raicu. "Tai turi būti pripažinta kaip vienas netobulas įrankis, kuris turi būti naudojamas kartu su kitais atsakymais."
Pataisa 2022-01-25: 5-oje pastraipoje nuo galo pridėta Justino Daviso citata, kad atspindėtų el. laišką po paskelbimo.