BBC News

Borba protiv dipfejkova „pretvorila se u trku u naoružanju“

Borba protiv lažnih fotografija, videa i zvuka postaje sve teža kako se tehnologija poboljšava.

Luiz Bruder
Louise Bruder
Luiz Bruder kaže da iako veštačka inteligencija može da se koristi u borbi protiv dipfejkova nastalih uz pomoć veštačke inteligencije, i dalje će uvek biti neophodna kontrola ljudi

Luiz Bruder nikad ne zaboravlja lica.

Što nije samo zgodna veština na žurkama, već joj je pomogla i u oblikovanju njene karijere.

Na radnom mestu oma ima fantastičnu titulu „super-prepoznavača", a njen rad u britanskoj firmi za digitalno prepoznavanje Joti podrazumeva upoređivanje fotografija na ličnim dokumentima sa objavljenim selfijima, da bi odredilo da li se radi o istoj osobi.

Ali Joti, zajedno sa drugim firmama za identifikaciju, suočava se sa novom pretnjom - prepoznavanjem takozvanih dipfejkova.

To su lažne slike nastale uz pomoć softvera veštačke inteligencije.

Luiz mi kaže da od nje još nije zatraženo da procenjuje dipfejkove u sklopu njenog svakodnevnog posla, ali da je firma savršeno svesna ove pretnje.

I zato ona aktivno radi na tehnologiji koja će joj pomoći da ih prepoznaju.

Kad smo stavili njene veštine na probu na BBC-jevom vlastitom Dipfejk kvizu, osvojila je sedam od ukupno osam poena.

„Postoji mrtvilo u očima ljudi koje govori da oni nisu stvarni", kaže Luiz.

Ben Kolman je šef Rijaliti difendera, američke firme čiji je cilj da obezbeđuje tehnologiju za prepoznavanje dipfejkova i on misli da bi Luiz uskoro mogla da ima problema da razluči prave od lažnih slika.

Ben Kolman
Ben Colman
Ben Kolman upozorava da dipfejk tehnologija postaje sve sofisticiranija

„Rekao bih da je u poslednjih devet meseci postalo praktično nemoguće čak i za najveće eksperte da razlikuju pravu sliku od one generisane veštačkom inteligencijom. Potrebno nam je softversko rešenja za ovo", kaže on.

Kolman razdvaja zaista sofisticirane dipfejkove, koje je mogla da izradi neka zemlja za širenje dezinformacija, i ono što naziva „čipfejkovima" (jeftini dipfejkovi), kada kriminalci koriste postojeći dostupni softver veštačke inteligencije.

Zabrinjavajuće, ali čak i ti jeftini lažnjaci su „i dalje dovoljno dobri da prevare ljude, naročito na slikama i audio snimcima", kaže on.

Video je, ipak, „još uvek malo zahtevniji i traži mnogo više kompjuterske obrade".

Rešenje koje nudi njegova firma može da skenira i obeleži zastupljenost veštačke inteligencije na slici, video snimku ili audio snimku.

U njihove klijente spadaju tajvanska vlada, NATO, medijske organizacije i velike banke.

I dok su dipfejk video snimci ili fotografije ono što dobija najviše pažnje u vestima, prevare isključivo sa zvukom takođe su u porastu.

Na primer, kriminalci šalju audio poruke uz pomoć glasa osoba koji govori stvari kao što su: „Mama, izgubio sam telefon, molim te odmah uplati novac na ovaj račun."

Sakupljanje zvučnih odlomaka sa nečijeg naloga na društvenim mrežama ili Jutjubu je lak posao, a samo nekoliko sekundi audio snimka dovoljno je da se klonira glas i iskoristi za stvaranje rečenica koje osoba nikad nije izgovorila.

Neki postojeći softver čak omogućuje korisnicima da „pojača" nivo stresa u glasu, što je tehnika koja korišćena da se prevare roditelji u stvarnim slučajevima kad su roditelji verovali da im je dete oteto.

Sivei Liju je profesor na Univerzitetu u Bafalu, u SAD, koji već godinama proučava dipfejkove, sa krajnjim ciljem da razvije algoritme koji će pomoći u njihovom automatskom prepoznavanju i razotkrivanju.

Algoritmi su obučeni da primete najsitniju razliku - oči koje ne gledaju u pravom pravcu ili, u slučaju veštački stvorenog glasa, odsustvo dokaza o dahu.

Banner around links to stories about AI
BBC

Profesor Liju misli da bi morao da postoji određeni stepen hitnosti u rešavanju ovog problema, upozorivši da bi video konferencije mogle biti sledeća meta kriminalaca.

„Ne tako daleko u budućnosti mogli biste da se ubacite u Zum poziv i mislite da razgovarate sa mnom, a da se zapravo radi o virtuelnoj verziji mene. Neko bi mogao da iskoristi moju sliku i stvori je kao dipfejk prisustvo u Zum pozivu."

Dipfejkovi takođe imaju potencijal da izazovu široko rasprostranjenu društvenu pometnju.

Banner around links to stories about AI
BBC

Prošle godine je lažna slika eksplozije blizu Pentagona postala viralna na društvenim mrežama, baš kao i lažne slike Donalda Trampa sa lisicama na rukama.

A u januaru je njuhempširsko Ministarstvo pravde bilo primorano da izda saopštenje rekavši da je audio snimak Džoa Bajdena koji govori građanima da ne glasaju na državnim predizborima dipfejk.

Sigurdur Arnason vodi platformu za pravljenje muzike na Islandu.

Pre Božića ga je Islandski nacionalni emiterski servis zamolio da napravi muzički video skeč uz pomoć dipfejka sa omiljenim pokojnim islandskim komičarem Hemijem Ganom za emisiju emitovanu na Novogodišnju noć.

„Mislili smo da će to biti zabavan projekat", kaže on.

„Tražili smo dozvolu komičareve porodice i stvorili smo vlastite modele veštačke inteligencije u okviru naše kuće."

Skeč je, međutim, postigao više od obične zabave.

„Potresao je čitavu zemlju do temelja", kaže Arnason.

„Sve radijske, informativne onlajn publikacije i televizije govorili su o tome. Neki članovi porodice nisu bili zadovoljni jer je bilo suviše stvarno. Političari su počeli da govore o regulisanju veštačke inteligencije."

Važno je da političari i najšira javnost vode takve razgovore i rasprave, smatra Kristofer Dos, istraživač ekspertske grupe Rend korporacija.

On je nedavno sproveo studiju dipfejkova koja je pokazala da je više ljudi izloženo dipfejkovima što ih oni manje pravilno prepoznaju.

A on je zabrinut da bi korišćenje alatki veštačke inteligencije za borbu protiv pretnje kreacija veštačke inteligencije mogao da bude pogrešan pristup.

„To će samo pokrenuti neku vrstu trke u naoružanju između onih koji se trude da ih prepoznaju i onih koji se trude da izbegnu prepoznavanje", kaže on.

„Algoritam će prepoznati neki artefakt na aktuelnom horizontu dipfejkova i potom će tvorci grupisati svoje slabosti i unaprediti metode."

Po njemu, pravi način da se reši ovaj problem je obučavanje ljudi da budu kritičniji prema sadržaju koji konzumiraju, što podrazumeva posmatranje svega sa „zdravom dozom skepse" i dvostruko proveravanje izvora.

To bi moglo da znači učenje dece kako da prepoznaju dipfejkove od najmlađih dana.

„Najveći izazov i onaj za koji nemam rešenje je kako obučiti najširu populaciju odraslih", kaže on.

Kristofer Dos
Christopher Doss
Kristofer Dos kaže da pripadnici javnosti moraju da postanu svesniji dipfejkova

Kolman, iz Rijaliti difendera, misli da bi odgovornost trebalo da bude na kompanijama da nude rešenja za prepoznavanje dipfejkova a ne na konzumentima.

„Moja majka nije odgovorna za prepoznavanje problema sa anti-virusom", ističe on.

A on ne misli ni da bi ona trebalo da bude odgovorna za prepoznavanje dipfejkova.

„Pristup društvenih mreža i platformi za deljenje na internetu je da ako se to ne traži od njih da rade, onda će raditi što manje toga i prebaciti štafetu na konzumente i prepustiti njima da prijavljuju stvari", kaže on.

„Problem sa tim je što je to kao vraćanje paste za zube u tubu."

„Ljudi prijavljuju stvari tek kad su viđene već milion puta i već je prekasno."

Za to vreme u Jotiju, Luiz Bruder kaže da bez obzira na toliko je dobra veštačka inteligencija u borbi protiv dipfejkova, uvek će postojati potreba da ljudi poput nje vrše kontrolu.

„Omogućavanje ljudske provere je nešto što se zahteva od mnogih kompanija… a ne očekujemo da će se to promeniti jer pruža poslovanju dodatnu sigurnost."


Pratite nas na Fejsbuku, Tviteru, Instagramu, Jutjubu i Vajberu. Ako imate predlog teme za nas, javite se na [email protected]