Sadržaj:
Video: WAP, but an AI attempts to continue the song [OpenAI Jukebox] (Studeni 2024)
Neprofitni laboratorij istraživanja AI OpenAI prošlog je mjeseca izazvao val panike apokalipse AI kada je uveo vrhunski AI koji generira tekst pod nazivom GPT-2. No, iako je slavio postignuća GPT-2, OpenAI je izjavio da neće objaviti svoj AI model javnosti, bojeći se da bi GPT-2 mogao u zlonamjerne svrhe da se koristi u zlonamjerne svrhe, poput generiranja pogrešnih članaka, lažno predstavljanje drugih na mreži i automatiziranje proizvodnje lažnih sadržaja na društvenim medijima.
AI i ljudski jezik
Računala su se povijesno borila s ljudskim jezikom. Postoji toliko složenosti i nijanse pisanog teksta da je pretvaranje svih u klasična softverska pravila praktički nemoguće. No nedavni napredak u dubokom učenju i neuronskim mrežama otvorili su put drugačijem pristupu stvaranju softvera koji može podnijeti zadatke povezane s jezikom.
Duboko učenje donijelo je velika poboljšanja u područjima kao što su strojni prijevod, sažetak teksta, odgovaranje na pitanja i stvaranje prirodnog jezika. Omogućuje softverskim inženjerima izradu algoritama koji razvijaju vlastito ponašanje analizom mnogih primjera. Za zadaće povezane s jezikom, inženjeri hrane neuronske mreže digitaliziranim sadržajem poput vijesti, stranica Wikipedije i postova na društvenim mrežama. Neuronske mreže pažljivo uspoređuju podatke i bilježe kako određene riječi slijede druge u ponavljajućim nizovima. Zatim pretvaraju ove obrasce u složene matematičke jednadžbe koje im pomažu u rješavanju zadataka povezanih s jezikom, kao što su predviđanje nedostajućih riječi u nizu teksta. Općenito, što kvalitetniji podaci o treningu koje pružite modelu dubokog učenja to će on biti bolji u izvršavanju svog zadatka.
Prema OpenAI-ju, GPT-2 je obučen na 8 milijuna web stranica i milijardama riječi, što je mnogo više od ostalih, sličnih modela. Također koristi napredne AI modele radi bolje primjene obrazaca teksta. Uzorak iz GPT-2 pokazuje da model uspijeva održati koherenciju u duljim nizovima teksta od svojih prethodnika.
No, iako je GPT-2 korak naprijed u području stvaranja prirodnog jezika, to nije tehnološki iskorak prema stvaranju AI koji može razumjeti značenje i kontekst pisanog teksta. GPT-2 i dalje koristi algoritme za stvaranje niza riječi koje su statistički slične milijardama tekstualnih ulomaka koje je prethodno vidio - apsolutno ne razumije što stvara.
U detaljnoj analizi, ZDNet-ov Tiernan Ray ukazuje na nekoliko slučajeva gdje uzorci izlaza GPT-2 izdaju njihovu umjetnu prirodu s poznatim artefaktima, poput dupliranja pojmova i nedostatka logike i dosljednosti u činjenicama. "Kad se GPT-2 pristupi rješavanju pisanja koje zahtijeva više razvoja ideja i logike, pukotine se otvaraju prilično široko", primjećuje Ray.
Statističko učenje može pomoći računalima da generiraju tekst koji je gramatički ispravan, ali potrebno je dublje konceptualno razumijevanje za održavanje logičke i stvarne dosljednosti. Nažalost, to je još uvijek izazov koji trenutni spojevi AI nisu prevladali. Zato GPT-2 može generirati lijepe odlomke teksta, ali vjerojatno će biti teško stvoriti autentični članak dugog oblika ili lažno predstavljati nekoga na uvjerljiv način i kroz dulji vremenski period.
Zašto je panika lažnih vijesti prepuštena
Još jedan problem s obrazloženjem OpenAI-a: pretpostavlja da AI može stvoriti krizu s lažnim vijestima.
Godine 2016. skupina makedonskih tinejdžera širila je lažne vijesti o američkim predsjedničkim izborima na milione ljudi. Ironično je da nisu imali ni odgovarajuće znanje engleskog jezika; pronalazili su svoje priče na webu i zajedno šivali različiti sadržaj. Bili su uspješni jer su stvorili web stranice koje su izgledale dovoljno autentično kako bi uvjerili posjetitelje da im vjeruje kao pouzdane izvore vijesti. Senzacionalni naslovi, nemarni korisnici društvenih medija i algoritmi trendova učinili su ostalo.
Tada su 2017. zlonamerni akteri pokrenuli diplomatsku krizu u regionu Perzijskog zaljeva, hakirajući katarske državne informativne web stranice i vladine račune društvenih medija i objavivši lažne primjedbe u ime katarskog emira Sheikh Tamim bin Hamad Al Thani.
Kao što ove priče pokazuju, uspjeh kampanja lažnih vijesti ovisi o uspostavljanju (i izdaji) povjerenja, a ne o stvaranju velike količine koherentnog engleskog teksta.
Ipak, upozorenja OpenAI-ja o automatizaciji proizvodnje lažnog sadržaja za objavljivanje na društvenim medijima imaju opravdanje jer razmjera i glasnoća igraju važniju ulogu na društvenim mrežama nego u tradicionalnim medijima. Pretpostavka je da će AI poput GPT-2 moći preplaviti društvene medije milijunima jedinstvenih postova o određenoj temi, utječući na trendovske algoritme i javne rasprave.
Ali ipak, upozorenja nisu stvarna. Posljednjih nekoliko godina kompanije društvenih medija kontinuirano razvijaju sposobnosti otkrivanja i blokiranja automatiziranog ponašanja. Tako bi zlonamjeran glumac naoružan AI koji generira tekst morao prevladati niz izazova osim stvaranja jedinstvenog sadržaja.
Primjerice, trebat će im tisuće lažnih računa na društvenim mrežama u kojima bi mogli objavljivati svoje AI generirane sadržaje. Čak i stroži, kako bi bili sigurni da ne postoji način za povezivanje lažnih računa, trebat će im jedinstveni uređaj i IP adresu za svaki račun.
Pogoršava se: računi bi morali biti kreirani u različito vrijeme, možda preko godine ili duže da bi se smanjile sličnosti. Prošle godine, istraživanje New York Timesa pokazalo je da samo datumi otvaranja računa mogu pomoći otkrivanju bot računa. Da bi dodatno sakrili svoju automatiziranu prirodu od drugih korisnika i algoritama rada policije, računi bi se morali uključiti u ponašanje poput čovjeka, poput interakcije s drugim korisnicima i postavljanja jedinstvenog tona u svojim postovima.
Nijedan od ovih izazova nije nemoguće prevladati, ali oni pokazuju da je sadržaj samo jedan dio napora potrebnog za provođenje kampanje za lažne vijesti na društvenim medijima. I opet, povjerenje igra važnu ulogu. Nekoliko pouzdanih utjecaja na društvene medije koji postave nekoliko lažnih vijesti imat će veći utjecaj od gomile nepoznatih računa koji stvaraju veliku količinu sadržaja.
U obranu upozorenja OpenAI-ja
Pretjerana upozorenja OpenAI-ja pokrenula su ciklus medijske preljube i panike koja se, ironično, graničila s lažnim vijestima, izazivajući kritike poznatih stručnjaka za AI.
Pozvali su medijske ljude da rano pristupe rezultatima, uz novčani embargo, tako da je istog dana sve objavljeno. Nijedan istraživač za kojeg ja znam nije vidio veliki model, ali novinari jesu. Da, oni su je namjerno raznijeli.
- Matt Gardner (@nlpmattg) 19. veljače 2019. godine
Svaki se novi čovjek potencijalno može upotrijebiti za stvaranje lažnih vijesti, širenje teorija zavjere i utjecaj na ljude.
Trebamo li prestati stvarati bebe?
- Yann LeCun (@ylecun) 19. veljače 2019. godine
Samo sam vam htio uputiti glave, naš laboratorij pronašao je nevjerojatan iskorak u razumijevanju jezika. ali također se brinemo da bi mogao pasti u pogrešne ruke. pa smo ga odlučili izbaciti i umjesto toga objaviti samo uobičajene * ACL stvari. Veliko poštovanje tima za njihov sjajan rad.
- (((? () (? () 'Yoav)))) (@yoavgo) 15. veljače 2019.
Zachary Lipton, istraživač AI-a i urednik časopisa Približno korektno, ukazao je na OpenAI-ovu povijest „korištenja svog bloga i nadmudrivanje pozornosti kako bi katapultirali nezreli rad u javnosti, i često igrajući aspekte ljudske sigurnosti rada koji još nema intelektualni noge na kojima će stajati."
Iako OpenAI zaslužuje svu kritiku i toplinu koju je dobio usprkos svojim pogrešnim primjedbama, također je ispravno biti zabrinut zbog mogućih zlonamjernih primjena svoje tehnologije, čak i ako je tvrtka koristila neodgovorni način da educira javnost o tome.
- Godina etičkog obračunavanja AI industrije Godina etičkog obračunavanja AI industrije
- Nepoštena prednost: Ne očekujte da će se AI igrati poput ljudske Nepravedna prednost: Ne očekujte da će se AI igrati kao čovjek
- Ovaj AI predviđa online trolling prije nego što se dogodi Ovaj AI predviđa Online Trolling prije nego što se dogodi
Proteklih godina vidjeli smo kako AI tehnologije javno i bez razmišljanja mogu biti naoružane za zlonamjerne namjere. Jedan primjer je FakeApp, AI aplikacija koja može zamijeniti lica u videozapisima. Ubrzo nakon što je FakeApp objavljen, korišten je za stvaranje lažnih pornografskih videa u kojima su sudjelovali slavne osobe i političari, što izaziva zabrinutost zbog prijetnje krivotvorenjem na AI.
Odluka OpenAI-a pokazuje da moramo zastati i razmisliti o mogućim posljedicama tehnologije puštanja javnosti u promet. A mi moramo voditi aktivnije rasprave o rizicima AI tehnologija.
"Jedna organizacija koja pauzira neki određeni projekt zaista neće dugoročno promijeniti ništa. Ali OpenAI dobiva puno pažnje zbog svega što čine… i mislim da bi im trebalo pohvale za skretanje pozornosti s ovog pitanja", David Bau, istraživač u MIT-ovu laboratoriju za računalne znanosti i umjetnu inteligenciju (CSAIL), rekao je za Slate.