Sadržaj:
Video: femto meter to meter, meter to fm convert (Studeni 2024)
Krajem 2017. Motherboard je izvijestio o AI tehnologiji koja može zamijeniti lica u videozapisima. U to vrijeme, tehnologija - kasnije nazvana deepfakes - dala je sirove, zrnaste rezultate i uglavnom se koristila za stvaranje lažnih porno video zapisa s poznatim ličnostima i političarima.
Dvije godine kasnije tehnologija je nevjerojatno napredovala i teže ju je otkriti golim okom. Uz lažne vijesti, krivotvoreni videozapisi postali su briga nacionalne sigurnosti, posebice kako se bliže predsjednički izbori 2020. godine.
Otkako su se pojavili deepfakesi, nekoliko organizacija i tvrtki razvile su tehnologiju za otkrivanje videozapisa koji su bili neovlašteni. Ali postoji bojazan da će jednog dana tehnologiju deepfakesa biti nemoguće otkriti.
Istraživači sa Sveučilišta u Surreyu razvili su rješenje koje bi moglo riješiti problem: umjesto otkrivanja neistine, dokazat će što je istina. Planirana da bude predstavljena na predstojećoj Konferenciji o računalnom viđenju i prepoznavanju uzoraka (CVPR), tehnologija koja se naziva Archangel koristi AI i blockchain za stvaranje i registraciju digitalnog otiska zaštićenom od neovlaštenosti za autentične video zapise. Otisak prsta može se koristiti kao referentna točka za provjeru valjanosti medija koji se distribuiraju putem Interneta ili se emituju na televiziji.
Pomoću AI-a za potpisivanje videozapisa
Klasičan način dokazivanja izvornosti binarnog dokumenta je uporaba digitalnog potpisa. Izdavači izvode svoj dokument putem kriptografskog algoritma kao što su SHA256, MD5 ili Blowfish, koji stvara "hash", kratki niz bajtova koji predstavlja sadržaj te datoteke i postaje njezin digitalni potpis. Pokretanje iste datoteke putem algoritma raspršivanja u bilo kojem trenutku će proizvesti isti hash ako se njegov sadržaj nije promijenio.
Zbirke su preosjetljive na promjene u binarnoj strukturi izvorne datoteke. Kada izmijenite jedan bajt u hashed datoteci i pokrenete ga ponovo kroz algoritam, nastaje potpuno drugačiji rezultat.
No, iako hashe dobro funkcionira za tekstualne datoteke i aplikacije, oni predstavljaju izazove za videozapise, koji se mogu pohraniti u različitim formatima, rekao je John Collomosse, profesor računalnog vida na Sveučilištu u Surreyu i voditelj projekta za Arhanđela.
"Željeli smo da potpis bude isti bez obzira na kodek s kojim se komprimira video", kaže Collomosse. "Ako uzmem svoj video i pretvorim ga iz, recimo, MPEG-2 u MPEG-4, tada će ta datoteka biti potpuno drugačije duljine, a bitovi će se potpuno promijeniti, što će stvoriti različit hash. Ono što nam je trebalo bio algoritam raspršivanja zbog sadržaja."
Da bi riješili taj problem, Collomosse i njegovi kolege razvili su duboku neurološku mrežu koja je osjetljiva na sadržaj sadržan u videozapisu. Duboke neuronske mreže su vrsta AI konstrukcije koja razvija svoje ponašanje analizom ogromnih količina primjera. Zanimljivo je da su neuronske mreže tehnologija u srcu deepfakesa.
Prilikom stvaranja dubokih zvukova, programer hrani mrežu slikama lica subjekta. Neuronska mreža uči značajke lica i, uz dovoljno treninga, postaje sposobna pronaći i zamijeniti lica u drugim videozapisima s licem subjekta.
Arhanđelova neuronska mreža osposobljena je na videu u kojem je otisak prsta. "Mreža gleda na sadržaj videozapisa, a ne na njegove bitne bitove i bajtove", kaže Collomosse.
Nakon treninga, kada pokrenete novi videozapis putem mreže, on će ga potvrditi kada sadrži isti sadržaj kao izvorni videozapis, bez obzira na njegov format, i odbacit će ga kada je u pitanju drugi videozapis ili je u njega kraden ili uređen.
Prema Collomosseu, tehnologija može otkriti i prostorno i vremensko ugrožavanje. Prostorne promjene su promjene koje se vrše na pojedinim okvirima, poput izmjena lica koje se rade u izmjenama lica.
Ali duboke slike nisu jedini način na koji se mogu mijenjati videozapisi. Manje raspravljane, ali podjednako opasne su namjerne promjene u redoslijedu kadrova, u brzini i trajanju videozapisa. Nedavno, široko rasprostranjeni videopovijest zvučnika Doma Nancy Pelosi nije koristila duboke zvukove, već je stvoren pažljivim korištenjem jednostavnih tehnika uređivanja zbog kojih se činila zbunjena.
"Jedan od oblika zloporabe koje možemo otkriti je uklanjanje kratkih segmenata videozapisa. To su privremeni prijevari. I možemo otkriti i do tri sekunde neovlaštenog postupanja. Dakle, ako je videozapis dugačak nekoliko sati, a samo tri uklonite sekundi tog videozapisa, to možemo otkriti ", kaže Collomosse, dodajući da će Arhanđeo također otkriti promjene u brzini izvornog videa, kao što je učinjeno u videozapisu Pelosi.
Registracija otiska prsta na Blockchainu
Druga komponenta Arhanđeovog projekta je blockchain, baza podataka zaštićena od neovlaštenih zloporaba, u koju se nove informacije mogu pohraniti, ali ne mijenjati - idealne su za video arhive, koji ne mijenjaju videozapise nakon što su registrirani.
Blockchain tehnologija je u osnovi digitalnih valuta kao što su Bitcoin i Ether. To je digitalna knjiga koju održava nekoliko neovisnih stranaka. Većina stranaka mora se složiti o promjenama koje su učinjene na blockchainu, što onemogućuje bilo kojoj pojedinoj stranci jednostrano miješanje u knjigu.
Tehnički je moguće napasti i promijeniti sadržaj blockchaina ako više od 50 posto njegovih sudionika pregovara. Ali u praksi je izuzetno teško, pogotovo kada blockchain održavaju mnoge neovisne stranke s različitim ciljevima i interesima.
Arhanđelov blockchain malo se razlikuje od javnog blockchaina. Prvo, ona ne proizvodi kripto valute i pohranjuje samo identifikator, otisak prsta svjesnog sadržaja i binarni hash neuronske mreže verifikatora za svaki videozapis u arhivi (blockchains nije prikladan za pohranu velikih količina podataka, zbog čega sam videozapis i neuronska mreža pohranjuju se izvan lanca).
Također, to je odobreni ili "privatni" blockchain. To znači da za razliku od Bitcoin blockchaina, gdje svi mogu snimati nove transakcije, samo ovlaštene stranke mogu pohraniti nove zapise u Arhanđeo blockchain.
Arhanđela trenutno sudi mreža arhiva nacionalnih vlada iz Velike Britanije, Estonije, Norveške, Australije i SAD-a: Da bi se pohranile nove informacije, svaka uključena zemlja mora podložiti dodatak. No, iako samo nacionalni arhivi zemalja sudionica imaju pravo dodavanja zapisa, svi ostali su pročitali pristup blockchainu i mogu ga koristiti za potvrdu drugih videozapisa prema arhivi.
- AI i Strojno učenje Exploit, Deepfakes, sada je teže detektirati AI i Strojno učenje Exploit, Deepfakes, Sada je teže otkriti
- Deepfake videozapisi su ovdje, a nismo još spremni Deepfake videozapisi su ovdje, a nismo još spremni
- Adobe-ov New AI otkriva Photoshopped lica Adobe-ov New AI otkriva Photoshopped lica
"Ovo je aplikacija blockchaina za javno dobro", kaže Collomosse. "Po mom mišljenju, jedina razumna upotreba blockchaina je kada imate neovisne organizacije koje ne moraju nužno vjerovati jedna drugoj, ali imaju interes za ovaj kolektivni cilj međusobnog povjerenja. A ono što mi radimo je da osigurati državne arhive vlasti širom svijeta, tako da mi možemo podržati njihov integritet pomoću ove tehnologije."
Budući da stvaranje krivotvorenih videozapisa postaje lakše, brže i dostupnije, svima će trebati sva pomoć koju mogu dobiti kako bi osigurali integritet svojih video arhiva - posebno vlade.
"Mislim da su deepfaksi gotovo poput trke u naoružanju", kaže Collomosse. "Budući da ljudi stvaraju sve uvjerljivije duboke slike, i jednog dana bi ih moglo biti nemoguće otkriti. Zato je najbolje što možete učiniti pokušati dokazati izvornost videozapisa."