Nepasitikėkite niekuo, ką matote internete, sako ekspertai

Turinys:

Nepasitikėkite niekuo, ką matote internete, sako ekspertai
Nepasitikėkite niekuo, ką matote internete, sako ekspertai
Anonim

Pagrindiniai pasiėmimai

  • Naujas tyrimas atskleidžia, kad žmonės negali atskirti dirbtinio intelekto sukurtų vaizdų nuo tikrų.
  • Dalyviai AI sukurtus vaizdus įvertino kaip patikimesnius.
  • Ekspertai mano, kad žmonės turėtų nustoti pasitikėti viskuo, ką mato internete.
Image
Image

Posakis „matyti – tai tikėti“nebėra aktualus kalbant apie internetą, o ekspertai teigia, kad greitu metu tai nepagerės.

Neseniai atliktas tyrimas parodė, kad dirbtinio intelekto (DI) sukurti veidų vaizdai buvo ne tik labai tikroviški, bet ir atrodė labiau dorybingi nei tikri veidai.

„Mūsų atliktas dirbtinio intelekto sintezuotų veidų fotorealizmo įvertinimas rodo, kad sintezės varikliai praėjo nepaprastą slėnį ir gali sukurti veidus, kurių negalima atskirti ir kurie yra patikimesni už tikrus veidus“, – pastebėjo mokslininkai.

To asmens nėra

Tyrėjai, daktarė Sophie Nightingale iš Lankasterio universiteto ir profesorius Hany Faridas iš Kalifornijos universiteto Berklyje, atliko eksperimentus, pripažinę plačiai paskelbtas padirbinėjimo grėsmes – nuo visų rūšių sukčiavimo internete iki pagyvinimo. dezinformacijos kampanijos.

„Galbūt žalingiausia pasekmė, kad skaitmeniniame pasaulyje, kuriame bet koks vaizdas ar vaizdo įrašas gali būti suklastoti, gali kilti abejonių dėl bet kokio nepatogaus ar nepageidaujamo įrašo autentiškumo“, – tvirtino tyrėjai.

Jie tvirtino, kad nors buvo padaryta pažanga kuriant automatines giliai suklastotam turiniui aptikti skirtas technologijas, dabartinės technologijos nėra pakankamai veiksmingos ir tikslios, kad neatsiliktų nuo nuolatinio į internetą įkeliamo naujo turinio srauto. Tai reiškia, kad internetinio turinio vartotojai turi atskirti tikrąjį nuo netikro, siūlo duetas.

Jelle Wieringa, „KnowBe4“saugumo supratimo advokatė, sutiko. El. paštu jis pasakė „Lifewire“, kad be specializuotų technologijų labai sunku kovoti su tikrais klastotėmis. "[Mažinimo technologijos] gali būti brangios ir sunkiai įgyvendinamos realiuoju laiku vykstančiuose procesuose, dažnai aptinkamos gilios klastotės tik po to."

Remiantis šia prielaida, mokslininkai atliko daugybę eksperimentų, siekdami nustatyti, ar žmonės gali atskirti naujausius susintetintus veidus nuo tikrų veidų. Atlikdami bandymus jie nustatė, kad nepaisant mokymo, padedančio atpažinti padirbinius, tikslumo rodiklis tik pagerėjo iki 59 %, palyginti su 48 % be mokymo.

Tai paskatino tyrėjus patikrinti, ar patikimumo suvokimas gali padėti žmonėms atpažinti dirbtinius vaizdus. Trečiajame tyrime jie paprašė dalyvių įvertinti veidų patikimumą, tik sužinojo, kad sintetinių veidų vidutinis įvertinimas buvo 7.7 % patikimesnis nei vidutinis tikrų veidų įvertinimas. Skaičius gali pasirodyti ne toks didelis, bet mokslininkai tvirtina, kad jis statistiškai reikšmingas.

Deeper Fakes

Didlūs klastotės jau kėlė didelį susirūpinimą, o dabar šis tyrimas dar labiau drumstė vandenį, kuris rodo, kad tokie aukštos kokybės netikri vaizdai gali suteikti visiškai naują internetinių sukčių dimensiją, pavyzdžiui, padėdami sukurti daugiau įtikinami netikri internetiniai profiliai.

„Vienintelis dalykas, skatinantis kibernetinį saugumą, yra žmonių pasitikėjimas technologijomis, procesais ir žmonėmis, kurie stengiasi juos apsaugoti“, – dalijosi Wieringa. "Gilūs klastotės, ypač kai jos tampa fotorealistiškos, kenkia šiam pasitikėjimui, taigi ir kibernetinio saugumo priėmimui bei pripažinimui. Dėl to žmonės gali nepasitikėti viskuo, ką suvokia."

Image
Image

Chrisas Haukas, Pixel Privacy vartotojų privatumo čempionas, sutiko. Trumpai pasikeisdamas el. paštu, jis pasakė „Lifewire“, kad fotorealistinis padirbinys gali sukelti „sumaištį“internete, ypač šiais laikais, kai naudojant ID technologiją galima pasiekti visas paskyras.

Taisomieji veiksmai

Laimei, Gregas Kuhnas, „Prosegur Security“daiktų interneto direktorius, sako, kad yra procesų, kuriais galima išvengti tokio apgaulingo autentifikavimo. El. paštu jis pasakė Lifewire, kad dirbtiniu intelektu pagrįstos kredencialų suteikimo sistemos atitinka patikrintą asmenį sąraše, tačiau daugelis jų turi apsaugos priemones, skirtas patikrinti, ar nėra „gyvumo“.

"Šių tipų sistemose gali būti reikalaujama, kad vartotojas atliktų tam tikras užduotis, pvz., šypsotųsi arba pasuktų galvą į kairę, tada į dešinę. Tai yra dalykai, kurių statiškai sukurti veidai negalėtų atlikti", – dalijosi Kuhn.

Tyrėjai pasiūlė gaires, kaip reguliuoti jų kūrimą ir platinimą, kad apsaugotų visuomenę nuo sintetinių vaizdų. Pirmiausia jie siūlo įtraukti giliai įsišaknijusius vandens ženklus į pačius vaizdų ir vaizdo įrašų sintezės tinklus, kad būtų galima patikimai identifikuoti visas sintetines laikmenas.

Iki tol Paulas Bischoffas, privatumo gynėjas ir „Comparitech“informacinių technologijų tyrimų redaktorius, sako, kad žmonės yra vieni.„Žmonės turės išmokti nepasitikėti veidais internete, kaip mes visi (tikiuosi) išmokome nepasitikėti rodomais vardais savo el. laiškuose“, – Bischoffas sakė Lifewire el. paštu.

Rekomenduojamas: