Što su deepfakes? AI koja vara

Deepfakes su mediji - često video, ali ponekad i audio - koji su stvoreni, preinačeni ili sintetizirani uz pomoć dubokog učenja kako bi pokušali prevariti neke gledatelje ili slušatelje da vjeruju u lažni događaj ili lažnu poruku.

Izvorni primjer deepfakea (od korisnika reddita / u / deepfake) zamijenio je lice glumice na tijelo porno izvođača u videu - što je, naravno, bilo potpuno neetično, iako u početku nije bilo nezakonito. Drugi deepfakes promijenili su ono što su poznati ljudi govorili ili jezik kojim su govorili.

Deepfakes proširuju ideju videokomponiranja, što se radi već desetljećima. Značajne video vještine, vrijeme i oprema idu u videokomponiranje; video deepfakes zahtijeva mnogo manje vještine, vremena (pod pretpostavkom da imate GPU-ove) i opreme, iako pažljivi promatrači često nisu uvjerljivi.

Kako stvoriti deepfakes

Izvorno su se deepfakesi oslanjali na autokodere, vrstu nenadzirane neuronske mreže, a mnogi to još uvijek čine. Neki su precizirali tu tehniku ​​koristeći GAN-ove (generativne kontradiktorne mreže). Druge metode strojnog učenja također su korištene za duboke kopije, ponekad u kombinaciji s metodama ne-strojnog učenja, s različitim rezultatima.

Autoenkoderi

U osnovi, autokoderi za duboko lažna lica na slikama izvode postupak u dva koraka. Prvi korak je korištenje neuronske mreže za izdvajanje lica iz izvorne slike i njegovo kodiranje u skup značajki i po mogućnosti masku, obično koristeći nekoliko 2D slojeva konvolucije, nekoliko gustih slojeva i softmax sloj. Korak dva je uporaba druge neuronske mreže za dekodiranje značajki, povećavanje generiranog lica, zakretanje i skaliranje lica prema potrebi i primjenu upscaled lica na drugu sliku.

Za osposobljavanje autodekera za izradu dubokog fake lica potrebno je mnogo slika izvornog i ciljanog lica s više točaka gledišta i u različitim svjetlosnim uvjetima. Bez GPU-a trening može trajati tjednima. S GPU-ima to ide puno brže.

GAN-ovi

Generativne suparničke mreže mogu pročistiti rezultate autokoderima, na primjer, postavljanjem dvije neuronske mreže jedna protiv druge. Generativna mreža pokušava stvoriti primjere koji imaju istu statistiku kao i original, dok diskriminacijska mreža pokušava otkriti odstupanja od izvorne distribucije podataka.

Obuka GAN-ova dugotrajna je iterativna tehnika koja uvelike povećava troškove računanja tijekom automatskih kodera. Trenutno su GAN-ovi prikladniji za generiranje realističnih okvira pojedinačnih slika zamišljenih ljudi (npr. StyleGAN) nego za stvaranje deepfake videozapisa. To bi se moglo promijeniti kako hardver za duboko učenje postaje brži.

Kako otkriti deepfakes

Početkom 2020. konzorcij iz AWS-a, Facebooka, Microsofta, Upravnog odbora za integritet medija AI i akademika izradio je Deepfake Detection Challenge (DFDC), koji se na Kaggleu prikazivao četiri mjeseca.

Natječaj je uključivao dva dobro dokumentirana prototipska rješenja: uvod i početni pribor. Pobjedničko rješenje, Selima Seferbekova, također ima prilično dobar ispis.

Pojedinosti o rješenjima izmamit će vam oči ako se ne bavite dubokim neuronskim mrežama i obradom slika. U osnovi, pobjedničko rješenje izvršilo je prepoznavanje lica po kadar i izvadilo SSIM (Strukturna sličnost) indeksne maske. Softver je izdvojio otkrivena lica plus maržu od 30 posto, a za kodiranje (klasifikaciju) koristio je EfficientNet B7 prethodno obučen na ImageNetu. Rješenje je sada otvorenog koda.

Nažalost, čak je i pobjedničko rješenje moglo uhvatiti samo oko dvije trećine dubinskih fakeova u testnoj bazi podataka DFDC.

Aplikacije za duboko stvaranje i otkrivanje

Jedna od najboljih aplikacija za izradu deepfakea za otvoreni izvor videozapisa trenutno je Faceswap koja se nadovezuje na originalni algoritam deepfake. Piscu Ars Technice Timu Leeju trebala su dva tjedna, koristeći Faceswap, da stvori deepfake koji je lice poručnika zapovjednika (Brent Spiner) zamijenio iz filma  Star Trek: The Next Generation u videozapis Marka Zuckerberga koji svjedoči pred Kongresom. Kao što je tipično za deepfakes, rezultat ne prolazi test sniffanja za one koji imaju značajnu grafičku sofisticiranost. Dakle, stanje tehnike za deepfakes još uvijek nije jako dobro, uz rijetke iznimke koje više ovise o vještini "umjetnika" nego o tehnologiji.

To je pomalo utješno, s obzirom da ni pobjedničko rješenje za otkrivanje DFDC-a nije baš dobro. U međuvremenu, Microsoft je najavio, ali od ovog pisanja nije objavio Microsoft Video Authenticator. Microsoft kaže da Video Authenticator može analizirati statičnu fotografiju ili videozapis kako bi pružio postotak šanse ili ocjene pouzdanosti da se medijima umjetno manipulira.

Video Authenticator testiran je na temelju DFDC skupa podataka; Microsoft još nije izvijestio koliko je bolji od Seferbekova pobjedničkog rješenja Kaggle. Tipično je da sponzor AI natjecanja nadograđuje i poboljšava pobjednička rješenja iz natjecanja.

Facebook također obećava deepfake detektor, ali planira zadržati izvorni kod zatvorenim. Jedan od problema s otvorenim izvorima deepfake detektora kao što je Seferbekov je taj što programeri generacija deepfake mogu koristiti detektor kao diskriminator u GAN-u kako bi zajamčili da će lažni proći taj detektor, što će na kraju podstaći utrku u naoružanju AI između generatora deepfake i deepfake detektora.

Na zvučnom dijelu, Descript Overdub i Adobeov demonstrirani, ali još uvijek neobjavljeni VoCo, mogu pretvoriti pretvaranje teksta u govor realnim. Trenirate Overdub oko 10 minuta kako biste stvorili sintetičku verziju vlastitog glasa; jednom obučeni, možete uređivati ​​svoje zvučne zapise kao tekst.

Srodna tehnologija je Google WaveNet. Glasovi sintetizirani WaveNetom realističniji su od standardnih glasova pretvaranja teksta u govor, premda ne baš na razini prirodnih glasova, prema Googleovom vlastitom testiranju. Čuli ste glasove WaveNet-a ako ste nedavno koristili glas iz Google Asistenta, Google pretraživanja ili Google prevoditelja.

Dubinske kopije i pornografija bez pristanka

Kao što sam već spomenuo, originalni deepfake zamijenio je lice glumice u tijelo porno izvođača u videu. Reddit je od tada zabranio / r / deepfake pod-Reddit koji je bio domaćin tom i drugim pornografskim deepfakeovima, budući da je većina sadržaja bila pornografija bez pristanka, koja je sada ilegalna, barem u nekim jurisdikcijama.

Jedan sub-Reddit za ne -pornographic deepfakes dalje postoji na / r / SFWdeepfakes. Iako stanovnici tog pod-Reddita tvrde da rade dobar posao, morat ćete sami prosuditi ima li, recimo, to što lice Joea Bidena loše pretvoreno u tijelo Roda Serlinga ima bilo kakve vrijednosti - i prolazi li koji od tamošnjih dubokih lažnih sniff test vjerodostojnosti. Po mom mišljenju, neki se približe prodaji sebe kao stvarnih; većina se može dobro opisati kao sirova.

Zabrana / r / deepfake naravno ne eliminira pornografiju bez pristanka koja može imati više motiva, uključujući osvetničku pornografiju, koja je sama po sebi zločin u SAD-u. Ostale web stranice koje su zabranile dubinske kopije bez pristanka uključuju Gfycat, Twitter, Discord, Google i Pornhub te konačno (nakon dugog povlačenja) Facebook i Instagram.

U Kaliforniji pojedinci koji su ciljani seksualno eksplicitnim deepfake sadržajem izrađenim bez njihovog pristanka imaju razlog za pokretanje postupka protiv tvorca sadržaja. Također u Kaliforniji, zabranjena je distribucija zlonamjernih dubokih zvučnih ili vizualnih medija usmjerenih na kandidata koji se kandidira za javnu funkciju u roku od 60 dana od njihova izbora. Kina zahtijeva da deepfakes budu jasno označeni kao takvi.

Duboke laži u politici

Mnogim drugim jurisdikcijama nedostaju zakoni protiv političkih dubokih lažnjaka. To može biti zabrinjavajuće, pogotovo kad se visokokvalitetni fafici političkih ličnosti uvelike prošire. Bi li deepfake Nancy Pelosi bio gori od konvencionalno usporenog videozapisa Pelosi kojim se manipulira kako bi zvučalo kao da gnjavi riječi? Moglo bi biti ako se dobro proizvede. Primjerice, pogledajte ovaj videozapis CNN-a koji se koncentrira na duboke lažne fajlove relevantne za predsjedničku kampanju 2020. godine.

Duboke laži kao izgovori

"To je duboka laž" također je moguća isprika političarima čiji su stvarni, neugodni videozapisi procurili. To se nedavno dogodilo (ili se navodno dogodilo) u Maleziji kada je ministar ekonomskih poslova gay seks traku odbacio kao duboku laž, iako se drugi muškarac prikazan na traci zakleo da je stvaran.

S druge strane, raspodjela vjerojatnog amaterskog deepfakea bolesnog predsjednika Gabona Alija Bonga bila je faktor koji je pridonio naknadnom vojnom puču protiv Bonga. Video s dubokim lažnim tekstovima najavio je vojsci da nešto nije u redu, čak i više od Bongovog dugotrajnog izbivanja iz medija.

Primjeri deepfakea

Nedavni deepfake video All Star-a , klasik Smash Mouth iz 1999. godine, primjer je manipulacije videom (u ovom slučaju, miješanjem iz popularnih filmova) radi lažnog sinkroniziranja usana. Tvorac, korisnik YouTubea ontyj, napominje da je "Zauzeo me testiranjem wav2lip-a i sada ovo postoji ..." Zabavno je, iako nije uvjerljivo. Ipak, pokazuje koliko su bolja kretanja usana postala bolja. Prije nekoliko godina, neprirodno kretanje usnama obično je bilo mrtvo dijeljenje lažnog videa.

Moglo bi biti i gore. Pogledajte ovaj video snimak na kojem su predsjednik Obama kao meta i Jordan Peele kao vozač. Sad zamislite da nije sadržavao nikakav kontekst koji ga otkriva kao lažan i uključivao je zapaljiv poziv na akciju.

Jeste li se već prestrašili?

Pročitajte više o strojnom učenju i dubokom učenju:

  • Dubinsko učenje nasuprot strojnom učenju: shvatite razlike
  • Što je strojno učenje? Inteligencija izvedena iz podataka
  • Što je duboko učenje? Algoritmi koji oponašaju ljudski mozak
  • Objašnjeni algoritmi strojnog učenja
  • Objašnjeno automatizirano strojno učenje ili AutoML
  • Objašnjeno nadzirano učenje
  • Objašnjeno polunadgledano učenje
  • Objašnjeno učenje bez nadzora
  • Objašnjeno učenje pojačanja
  • Što je računalni vid? AI za slike i video
  • Što je prepoznavanje lica? AI za Velikog Brata
  • Što je obrada prirodnog jezika? AI za govor i tekst
  • Kaggle: Gdje znanstvenici podataka uče i natječu se
  • Što je CUDA? Paralelna obrada za GPU