„Facebook“„Deepfake Tech“mūsų neišgelbės, sako ekspertai

Turinys:

„Facebook“„Deepfake Tech“mūsų neišgelbės, sako ekspertai
„Facebook“„Deepfake Tech“mūsų neišgelbės, sako ekspertai
Anonim

Pagrindiniai pasiėmimai

  • Kadangi padirbinėjimus tampa lengviau padaryti, nauji ir patobulinti jų aptikimo būdai tapo prioritetu.
  • „Facebook“giliųjų klastotės nustatymo technologija naudoja atvirkštinį mašininį mokymąsi, kad nustatytų, ar vaizdo įrašas yra netikras, ar ne.
  • Ekspertai teigia, kad blokų grandinės technologija būtų geriausias būdas sužinoti, ar vaizdo įrašas yra tikras, ar ne, nes metodas priklauso nuo kontekstinių duomenų.
Image
Image

Tokios įmonės kaip „Facebook“, „Microsoft“ir „Google“stengiasi kovoti su giliomis klastotėmis, kurios neplistų žiniatinklyje ir socialiniuose tinkluose. Nors metodai skiriasi, yra vienas patikimas būdas aptikti šiuos klaidingus vaizdo įrašus: blokų grandinės.

„[Blockchains] tiesiog suteikia jums daug galimybių patvirtinti giluminį padirbimą tokiu būdu, kuris yra geriausia patvirtinimo forma, kokią tik galiu matyti“, – Stephenas Wolframas, Wolfram Research įkūrėjas ir generalinis direktorius bei knygos „A New Kind of“autorius. „Lifewire“telefonu pasakė Science.

Facebook's Deepfake-Spotting Tech

Per pastaruosius kelerius metus „Deepfake“technologija sparčiai išaugo. Klaidinančiuose vaizdo įrašuose naudojami mašininio mokymosi metodai, pvz., uždėti kažkieno veidą ant kito asmens kūno, pakeisti fono sąlygas, netikras lūpų sinchronizavimas ir kt. Jos įvairios – nuo nekenksmingų parodijų iki priverstinių įžymybių ar visuomenės veikėjų pasakyti ar daryti tai, ko jie to nepadarė.

Ekspertai teigia, kad technologija sparčiai tobulėja, o giliosios klastotės bus tik įtikinamos (ir lengviau sukuriamos), kai technologija taps plačiau prieinama ir naujoviškesnė.

Image
Image

„Facebook“, bendradarbiaudamas su Mičigano valstijos universitetu, neseniai suteikė daugiau įžvalgos apie savo giliųjų klastotės aptikimo technologiją. Socialinis tinklas teigia, kad jis remiasi atvirkštine inžinerija nuo vieno dirbtinio intelekto sukurto vaizdo iki generatyvaus modelio, naudojamo jam sukurti.

„Apibendrindami vaizdo priskyrimą atviram atpažinimui, galime gauti daugiau informacijos apie generatyvųjį modelį, naudojamą kuriant gilią klastotę, kuri neapsiriboja pripažinimu, kad to dar nebuvo matyti. Ir atsekdami panašumus tarp gilių klastotės kolekcijos modelių, taip pat galėtume pasakyti, ar vaizdų serija atsirado iš vieno š altinio“, – rašė mokslininkai Xi Yin ir Tan Hassner Facebook tinklaraščio įraše apie giliųjų klastotės aptikimo metodą.

Image
Image

Wolfram teigia, kad prasminga naudoti mašininį mokymąsi, kad pastebėtumėte pažangų AI modelį (gilią klastotę). Tačiau visada yra kur apgauti technologiją.

„Aš visiškai nesistebiu, kad yra tinkamas mašininio mokymosi būdas [aptikti gilius klastojimus]“, – sakė Wolframas. „Klausimas tik toks, jei įdėsi pakankamai pastangų, ar gali tai apgauti? Esu tikras, kad tu gali.“

Kova su giliomis klastotėmis kitu būdu

Volframas teigė, kad jo nuomone, blokų grandinės naudojimas būtų geriausias pasirinkimas norint tiksliai nustatyti tam tikrų tipų giluminius klastojimus. Jo nuomonė apie „blockchain“naudojimą, o ne mašininį mokymąsi, siekia 2019 m., ir jis teigė, kad galiausiai „blockchain“metodas gali pateikti tikslesnį mūsų gilios klastotės problemos sprendimą.

„Tikiuosi, kad vaizdų ir vaizdo įrašų žiūrovai galėtų reguliariai tikrinti blokų grandines (ir „duomenų trianguliacijos skaičiavimus“), panašiai kaip dabar žiniatinklio naršyklės tikrina saugos sertifikatus“, – rašė Wolframas straipsnyje, paskelbtame Scientific American.

Kadangi blokų grandinės saugo duomenis blokuose, kurie vėliau sujungiami chronologine tvarka, o kadangi decentralizuotos blokų grandinės yra nekintamos, įvesti duomenys yra negrįžtami.

Vienintelis klausimas yra, jei įdėsite pakankamai pastangų, ar galite tai apgauti? Esu tikras, kad galite.

Wolfram paaiškino, kad įtraukę vaizdo įrašą į blokų grandinę galėsite matyti jo filmavimo laiką, vietą ir kitą kontekstinę informaciją, kuri leistų nustatyti, ar vaizdo įrašas kaip nors buvo pakeistas.

„Apskritai, turėdami daugiau metaduomenų, kurie kontekstualizuoja vaizdą ar vaizdo įrašą, tuo didesnė tikimybė, kad galėsite tai pasakyti“, – sakė jis. „Jūs negalite suklastoti laiko „blockchain“.

Tačiau Wolframas sakė, kad naudojamas metodas – ar tai mašininis mokymasis, ar „blockchain“naudojimas – priklauso nuo gilaus klastojimo, nuo kurio bandote apsisaugoti, tipo (t. y. vaizdo įrašas, kuriame Kim Kardashian sako ką nors kvailo, arba vaizdo įrašas apie politikas daro pareiškimą ar pasiūlymą).

„Blockchain metodas apsaugo nuo tam tikrų gilių klastočių rūšių, lygiai taip pat, kaip mašininio mokymosi vaizdo apdorojimas apsaugo nuo tam tikrų gilių padirbinėjimo rūšių“, – sakė jis.

Atrodo, kad svarbiausia yra mūsų visų budrumas, kai reikia kovoti su artėjančiu netikru potvyniu.

Rekomenduojamas: