Dom Značajke Kako googleov slagalica pokušava detoksicirati internet

Kako googleov slagalica pokušava detoksicirati internet

Sadržaj:

Video: Detoksikacija teških metala DMPS protokol (Rujan 2024)

Video: Detoksikacija teških metala DMPS protokol (Rujan 2024)
Anonim

Internet se može osjećati kao otrovno mjesto. Trolovi se spuštaju u odjeljke s komentarima i teme na društvenim mrežama da bi vrebali govor mržnje i uznemiravanja, pretvarajući potencijalno prosvjetljujuće rasprave u napade ad hominem i grupne gomile. Izražavanje mišljenja na mreži često se ne čini vrijednim stakla.

Ogromne društvene platforme - uključujući Facebook, Twitter i YouTube - priznaju da ne mogu adekvatno baviti tim problemima. Oni su u utrci s oružjem s robotima, trolovima i svim ostalim nepoželjnim koji prolaze kroz filtre sadržaja. Ljudi nisu fizički sposobni čitati svaki komentar na webu; oni koji to pokušavaju često žale.

Tehnički divovi eksperimentirali su s različitim kombinacijama ljudske umjerenosti, AI algoritmama i filtrima kako bi proširio niz sadržaja koji svakodnevno teče kroz njihove feedove. Jigsaw pokušava pronaći sredinu. Podružnica Alphabeta i tehnološki inkubator, ranije poznat kao Google Ideas, počinju dokazivati ​​da strojno učenje (ML) izrađeno u alate za ljudske moderatore može promijeniti način na koji pristupamo internetu s problemom toksičnosti.

Perspektiva je API koji su razvili Jigsaw i Googleov tim za borbu protiv zlouporabe. Koristi ML za pronalaženje zlostavljanja i uznemiravanja putem Interneta i bilježi komentare na temelju uočenog utjecaja koji bi mogli imati na razgovor u pokušaju da olakšaju život ljudskih moderatora.

Perspektiva usred utakmica

Tehnologija otvorenog koda prvi je put najavljena 2017. godine, iako je razvoj na njoj započeo nekoliko godina ranije. Neke od prvih web lokacija koje su eksperimentirale s Perspektivom bile su vijesti poput New York Timesa i web stranice poput Wikipedije. No, nedavno je Perspective pronašla dom na web lokacijama poput Reddita i platforme za komentare Disqus (koja se koristi na PCMag.com.)

CJ Adams, menadžer proizvoda za perspektivu, rekao je da projekt želi ispitati kako glas ljudi šuti na mreži. Jigsaw je želio istražiti kako ciljano zlostavljanje ili opća atmosfera maltretiranja mogu stvoriti zastrašujući učinak, obeshrabrujući ljude do točke kad smatraju da nije vrijedno vremena ili energije da dodaju svoj glas raspravi. Koliko često ste vidjeli tweet, post ili komentar i odlučili da ne odgovarate, jer borba s trolovima i dobivanje Mad Online-a jednostavno ne vrijedi otežati?

"Vrlo je lako upropastiti internetski razgovor", rekao je Adams. "Lako je uskočiti, ali jedna osoba koja je zlobna ili otrovna može otjerati druge glasove. Možda 100 ljudi pročita članak ili pokrene raspravu, a nerijetko na kraju ostanete najglasniji glasovi u sobi, na Internetu koji je optimiziran za lajkove i dijeljenje. Dakle, tiho utišate sve te glasove. Tada je ono što definira raspravu samo najglasniji glas u sobi - vikanje."

    Jigsaw i Google

    Bila je teška godina za sestrinsku tvrtku Jigsaw, Google, koja se suočila sa pitanjima sigurnosti podataka, povratnim potezima zaposlenika na svoje sudjelovanje u projektima Pentagona i Kine i otkrićima zbog postupanja sa seksualnim uznemiravanjem. A da i ne spominjemo sporno saslušanje u Kongresu na kojem su izvršni direktor sundar Pichai pokidali roštilje.

    Na Jigsawu, altruističkom inkubatoru Alphabeta, stvari su bile manje dramatične. Tim je proveo vrijeme ispitujući više tehničkih oblika cenzure, poput trovanja DNS-om svojom Intra aplikacijom i DDoS napada s Project Shieldom. S perspektive, cilj je apstraktniji. Umjesto da pomoću strojnog učenja utvrdi što je ili ne protiv određenog skupa pravila, izazov Perspektive je intenzivno subjektivan: klasificiranje emocionalnog utjecaja jezika.

    Da biste to učinili, potrebna vam je obrada prirodnog jezika (NLP) koja razgrađuje rečenicu kako bi primijetili uzorke. Perspektivni tim suočava se s problemima poput pristranosti potvrde, razmišljanja o grupi i uznemiravanja u okruženju u kojem je tehnologija pojačala njihov doseg i otežala ih rješavanje.

    AI je 'Pogrešno i glupo ponekad'

    Poboljšanje mrežnih razgovora putem strojnog učenja nije jednostavan zadatak. To je još uvijek novo polje istraživanja. Algoritmi mogu biti pristrani, sustavi strojnog učenja zahtijevaju beskrajno usavršavanje, a najteži i najvažniji problemi još uvijek su u velikoj mjeri neistraženi.

    Istraživačka skupina Conversation AI, koja je stvorila Perspektivu, započela je susretom s novinama, izdavačima i drugim web lokacijama koje su ugostile razgovore. Neke od prvih web lokacija koje su eksperimentirale s tehnologijom bile su New York Times , Wikipedia, The Guardian i The Economist .

    U 2017. tim je otvorio početni demo Perspektive putem javne web stranice u sklopu alfa testa, puštajući ljude da uđu u milijune odvratnih, uvredljivih komentara. Bio je to poput Microsoftovog zloglasnog eksperimenta Tay chatbota, osim što je pokušao da bot pokuša odgovoriti na rasističke tweetove, Jigsaw je koristio virulentnost mnoštva kao obuku podataka za hranjenje svojih modela, pomažući u prepoznavanju i kategorizaciji različitih vrsta zlostavljanja na mreži.

    Početna javna probna vožnja nije prošla bez problema. Wiredov "Trolovi širom Amerike", koji su razbili toksičnost u komentarima diljem zemlje na temelju perspektivnog bodovanja, pokazao je kako algoritam nenamjerno diskriminira grupe prema rasi, rodnom identitetu ili seksualnoj orijentaciji.

    Adams je bio otvoren za činjenicu da je prvotno ispitivanje Perspektiva otkrilo velike slijepe točke i algoritamsku pristranost. Poput Amazonovog skraćenog alata za zapošljavanje, koji je desetljećima osposobljavao za pogrešne podatke o poslu i razvio urođenu pristranost prema kandidatkinjama, i rani Perspektivni modeli imali su snažne nedostatke zbog podataka na kojima je osposobljena.

    "Na primjeru često ciljanih skupina, ako pogledate raspodjelu među komentarima u skupu podataka o treninzima, naišao je na nestašno mali broj komentara koji su uključivali riječ 'gay' ili 'feminist' i koristili su ih pozitivno način ", objasnio je Adams. "Uvredljivi komentari koriste riječi kao uvrede. Dakle, ML-ov gledajući obrasce, rekao bi:" Hej, prisutnost ove riječi prilično je dobar prediktor da li je taj osjećaj toksičan ili ne."

    Na primjer, alfa algoritam je možda pogrešno označio izjave poput "Ja sam ponosan homoseksualac" ili "Feminist sam i transrodan" s visokim rezultatima toksičnosti. No, javno transparentan proces treninga - iako bolan - bio je neprocjenjiva pouka za Jigsawa o posljedicama nenamjerne pristranosti, rekao je Adams.

    Kada se modeli strojnog učenja osposobljavaju za nešto tako uznemirujuće i osobno kao što je zlostavljanje i uznemiravanje preko interneta, postojanje algoritamskih pristranosti također naglašava zašto AI sam po sebi nije rješenje. Društvene tvrtke poput Facebooka i YouTubea oglasile su se tako da značajke AI-a za moderiranje sadržaja AI-a na njihovim platformama budu samo da bi se povukle usred skandala i ispravljanja kursa angažirajući tisuće ljudskih moderatora.

    Jigsaw je s tim hibridom. Perspektiva nisu AI algoritmi koji donose odluke u vakuumu; API je integriran u sučelja za upravljanje zajednicom i uređivanje sadržaja kako bi poslužio kao pomoćni alat ljudskim moderatorima. Perspektivni inženjeri opisuju moderiranje govora mržnje sa i bez ML-a primjenom analogije stola sijena: AI pomaže automatiziranjem postupka sortiranja, uklanjanjem ogromnih stog sijena, a ljudima još uvijek daje posljednju riječ o tome smatra li komentar zloupotrebom ili uznemiravanjem.

    "To je ta nova sposobnost ML-a", rekao je Adams. "Ljudi govore o tome koliko je pametni AI, ali često ne razgovaraju o svim načinima na koji je to ponekad pogrešno i glupo. Od samog početka znali smo da će to napraviti puno pogrešaka, pa smo rekli:" Ovo Alat je koristan za strojnu umjerenost ljudi, ali nije spreman donositi automatske odluke. " Ali može potrajati problem "igla u plastu sijena" kako bi pronašao ovaj otrovni govor i sveo ga na šaku sijena."

    Što je ocjena toksičnosti?

    Najdjelektivniji aspekt modeliranja Perspektive je stavljanje brojeva u subjektivnu kao "toksičnost". Prvo što je Adams istaknuo je da su rezultati u Perspektivi pokazatelj vjerojatnosti, a ne ozbiljnosti. Veći brojevi predstavljaju veću vjerojatnost da obrasci u tekstu nalikuju obrascima u komentarima koje su ljudi označili kao otrovne.

    Što se tiče onoga što "toksično" zapravo znači, ekipa Perspektiva to široko definira kao "nepristojan, nepošten ili nerazuman komentar koji će vas vjerojatno natjerati da ostavite raspravu". Ali kako se to očituje može biti suptilno. U 2018. godini Jigsaw se udružio s laboratorijom za umjetnu inteligenciju Rhodes (RAIL) kako bi razvio ML modele koji mogu pokupiti više dvosmislene oblike prijetećeg ili mržnjenog govora, poput odbojnog, prikrivajućeg ili sarkastičnog komentara koji nije otvoreno neprijateljski.

    Do ovog trenutka, većina perspektivnih modela obučena je od ljudi koji traže da ocijene internetske komentare na skali od "vrlo toksične" do "vrlo zdrave". Razvojni programeri zatim mogu kalibrirati model kako bi komentirali komentare iznad određenog praga, od 0, 0 do 1, 0. Ocjena iznad 0, 9 ukazuje na visoku vjerojatnost toksičnosti, a rezultat 0, 5 ili niži znači daleko niži stupanj algoritamske sigurnosti. Perspektiva također koristi ono što se naziva normalizacija rezultata, što programerima daje dosljednu osnovnu osnovu za tumačenje rezultata. Adams je objasnio da programeri, ovisno o forumu ili web lokaciji, mogu miješati i slagati modele. Dakle, ako zajednici nije smetalo nepristojnost, taj se atribut može odvažiti.

    Adams mi je pokazao sučelje za demo moderaciju integrirano s API-jem Perspektive. Na administrativnoj ploči, pored opcija za razvrstavanje komentara po vrhu, najnovijem, itd., Nalazi se mala ikona zastave koju treba razvrstati po toksičnosti. Tu je i ugrađeni mehanizam za povratne informacije kako bi ljudski moderator rekao Perspektivi da je dao pogrešan komentar i s vremenom poboljšao model.

    Kliknuo je demo sučelje za moderiranje komentara na stranici Wikipedia Talk na različitim modelima perspektive i histogramski graf koji razgrađuje koji komentari mogu biti napad na autora stranice ili napad na drugog komentatora.

    "Želimo izgraditi strojno potpomognute moderacijske modere za označavanje stvari koje ljudi mogu preispitati, ali ne želimo da neka središnja definicija ili netko kaže što je dobro i loše", rekao je Adams. "Dakle, ako sam razvrstao po toksičnosti, vidjet ćete zlobne komentare koji dolaze do vrha. Ali ako vas više zanima, recimo, identitetski napadi ili prijetnje nego metrike poput zakletve, možda ne biste koristili opći model toksičnosti. To su sastojke koje možete miješati. Nudimo ih i programeri ih uvažavaju."

    RAIL eksperiment zahtijeva detaljniji pristup. Studenti grada Oxforda grade skup podataka od nekoliko desetaka tisuća komentara iz odjeljka s komentarima kanadskih novina Globe and Mail i stranica Wikipedia Talk. Oni traže ljudske „annotatore“ da odgovore na pitanja o svakom komentaru vezanom za pet pod atributa „nezdravog sadržaja“: neprijateljske ili uvredljive (trolovi), odbacivajuće, prigovarajuće ili pokroviteljske, sarkastične i nepravedne generalizacije.

    Udruživanje ovih suptilnijih atributa otkrilo je nove složene probleme s nenamjernom pristranosti prema određenim skupinama i lažnim pozitivnim kritikama sarkastičnim komentarima. To je dio AI rastuće boli, hranjenje modela sve više i više podataka kako bi se razumjelo podrazumijevano, neizravno značenje koje stoji iza ljudskog govora. Tim još uvijek češlja i bilježi tisuće komentara, a konačni skup podataka planira objaviti početkom ove godine.

    "Ono na čemu želimo raditi je nešto na čemu zajednica može dati skup komentara, a zatim ih možemo izraditi po mjeri prilagođenih kombinacija perspektivnih modela", rekao je Adams.

    Redditova radoznala testnica

    Reddit je mikrokozmos svega što je dobro i strašno na internetu. Postoji subreddit zajednica za svaku temu i nišu, bizarni interes koji se možete sjetiti. Jigsaw ne radi s Redditom na korporativnoj razini, ali jedno od najintrigantnijih mjesta na kojima se testira umjerenost AI perspektive nalazi se na podredditu koji se zove r / changemyview.

    Začudo, postoje kutovi interneta u kojima se još uvijek vodi istinska rasprava i rasprava. Promjena mog prikaza ili CMV nije poput većine drugih podredova. Ideja je objaviti mišljenje za koje prihvaćate da je pogrešno ili su otvoreni za promjenu, a zatim slušati i razumjeti druga gledišta kako biste vidjeli mogu li promijeniti mišljenje o nekom pitanju. Teme se kreću od svjetovnih tema poput pravilnog redoslijeda gledanja filmova Star Wars do ozbiljnih rasprava o pitanjima uključujući rasizam, politiku, kontrolu oružja i religiju.

    Change My View je zanimljiv testni ogled za perspektivu, jer subreddit ima svoj detaljan set pravila za pokretanje i moderiranje razgovora koji po dizajnu potiču raspravu i žestoku raspravu. Kal Turnbull, koji ide u / Snorrrlax na Reddit, osnivač je i jedan od moderatora r / changemyview-a. Turnbull je rekao PCMagu da se Perspektivni API posebno dobro podudara s podređenim pravilom 2, koje u osnovi zabranjuje nepristojan ili neprijateljski govor.

    "Zvuči jednostavno pravilo, ali u njemu je dosta nijanse", rekao je Turnbull, sa sjedištem u Škotskoj. "Teško je automatizirati ovo pravilo bez pametan jezika. Reddit vam daje stvar koja se zove AutoModerator, gdje možete postaviti filtre i ključne riječi za označavanje. Ali postoji toliko lažnih pozitivnih prijedloga, i to može biti prilično teško uhvatiti, jer netko može reći lošu riječ, a da nekoga ne vrijeđa, a može i nekoga vrijeđati, a da pritom ne koristi loše riječi."

    Jigsaw je posegnuo za Turnbullom u ožujku 2018. Suradnja je započela s pravilom 2, ali ubrzo je tim izgradio perspektivne modele i za druga pravila. Ne radi se o punoj integraciji otvorenog koda perspektivnog API-ja, već o Reddit-u koji omogućuje moderatorima da postave komentare postignute iznad određenog praga toksičnosti.

    Posljednjih šest godina Turnbull i ostali modoni sve su to radili ručno iz reda AutoModerator izvješća (označene ključne riječi) i korisničkih izvješća. Jigsaw je koristio višegodišnje bilješke o kršenju pravila od strane moderatora, koje su pratili pomoću proširenja preglednika i na temelju tih podataka izgradio perspektivne modele, kombinirane s nekim od postojećih toksičnih modela Perspektiva. Kroz 2018. godine CMV modovi davali su povratne informacije o pitanjima poput viška lažnih pozitivnih rezultata, a Jigsaw je prilagodio pragove bodovanja, nastavljajući modelirati više CMV pravila.

    Složene presude u internetskoj raspravi

    (Perspektivni bot integriran u sučelje moderatora Reddita.)

    Perspektiva nije dostupna za svu moderiranje pravila podreddita. Neka složenija ili apstraktnija pravila još uvijek su izvan okvira onoga što ova vrsta ML-a može razumjeti.

    Pravilo 4, na primjer, upravlja sub-sustavom Delta bodova, dok pravilo B sprečava korisnike da igraju vražjeg advokata ili koriste post za "sapun". Ovakva nuancirana umjerenost zahtijeva kontekstualne podatke i jasno ljudsko razumijevanje da bi se utvrdilo postoji li netko tko raspravlja o točki iz istinskih razloga ili jednostavno trolira.

    U doglednoj budućnosti još će nam trebati ljudski modoni. Ovi složeniji scenariji prosuđivanja su tamo gdje CMV moderatori počinju vidjeti pukotine u AI modeliranju, a pametnija automatizacija mogla bi utvrditi je li sve to skalabilno.

    "Mislim da je razlog zašto je to tako komplicirano to što je kombinacija naše prosudbe o njihovom izvornom postu i njihove interakcije tijekom cijelog razgovora. Dakle, nije samo jedan komentar koji je pokreće model", rekao je Turnbull. "Ako se svađa naprijed i naprijed, a na kraju je komentar koji kaže 'hvala' ili priznanje, pustit ćemo to čak i ako je neko pravilo prekršeno ranije u niti. Ili lagana šala koja u kontekstu može se činiti nepristojnim - to je lijepa mala ljudska stvar, a to je ono što bot još ne posjeduje."

    Trenutno je moj podreddit jedini aktivni model perspektivnih ML modela za moderiranje, iako je Adams rekao da je tim primio zahtjeve za pristup od nekoliko drugih. Specifični skup pravila CMV učinio ga je idealnim testnim slučajem, ali perspektivni modeli su popravljivi; pojedinačni podredovi mogu prilagoditi algoritam bodovanja tako da odgovaraju njihovim smjernicama.

    Sljedeći korak za Turnbul je uklanjanje CMV-a s Reddita, jer je zajednica to prerasla, rekao je. Posljednjih šest mjeseci novoformirani pokretači moderatora rade s Jigsawom na posvećenom mjestu s dubljom funkcionalnošću od Redditovog mod sučelja i botova mogu pružiti.

    Projekt je još uvijek u alfa testiranju, ali Turnbull je govorio o značajkama kao što su proaktivna upozorenja kada korisnik upiše komentar koji bi mogao pokvariti neko pravilo, ugrađeno izvještavanje kako bi moderatorima dalo više konteksta i povijesnih podataka za donošenje odluka. Turnbull je naglasio da ne planiraju isključiti ili preseliti subreddit, ali uzbuđen je zbog novog eksperimenta.

  • Svi se komentari uklapaju u ispis

    Ovisno o danu u tjednu, web stranica New York Timesa dobiva od 12.000 do više od 18.000 komentara. Sve do sredine 2017. odjeljke za komentare rada moderiralo je stalno zaposleno osoblje za upravljanje zajednicom koje je čitalo svaki komentar i odlučivalo hoće li ga odobriti ili odbiti.

    Bassey Etim, koji je do ovog mjeseca bio urednik zajednice za Times , proveo je desetljeće za stolom u zajednici, a njegov je urednik od 2014. godine. U jeku radnog dana, tim bi mogao imati nekoliko ljudi koji moderiraju komentare o pričama javnog mnijenja, dok ostali bavio se vijestima. Prostorna tablica podijelila se i pratila različite odgovornosti, ali tim od otprilike desetak ljudi neprestano je dodijeljen ili kretao se ovisno o vrhunskim vijestima trenutka. Također su hranili sitnice iz komentara natrag novinarima zbog potencijalne stočne hrane.

    Na kraju je postalo jasno da se s tim više od 12 ljudi može nositi. Odjeljci za komentare na priče morali bi se zatvoriti nakon postizanja maksimalnog broja komentara koje bi tim mogao moderirati.

    Grupa za razvoj publike u novinama već je eksperimentirala s strojnim učenjem za osnovna, očita odobravanja komentara, ali Etim je rekao da to nije osobito pametno ili prilagodljivo. Times je prvi put objavio svoje partnerstvo s Jigsawom u rujnu 2016. Od tada su se njegovi odjeljci s komentarima proširili s pojavljivanja na manje od 10 posto svih priča na danas oko 30 posto i penjanja.

    Iz Jigsawine perspektive, inkubator je vidio priliku da iz perspektive napaja anonimne podatke iz milijuna komentara dnevno, koje su moderirali profesionalci koji bi mogli pomoći u usavršavanju procesa. U zamjenu za anonimne podatke o treningu ML-a, Jigsaw i Times zajedno su radili na izgradnji platforme pod nazivom Moderator, koja je predstavljena u lipnju 2017. godine.

  • Unutar moderatora, sučelje NYT za komentare

    (Image ljubaznošću The New York Timesa )

    Moderator kombinira modele Perspektiva s više od 16 milijuna anonimnih, moderiranih komentara Timesa koji sežu u 2007. godinu.

    Ono što tim zajednice zapravo vidi u sučelju moderatora je nadzorna ploča s interaktivnom grafikonom histograma koja vizualno prikazuje raščlambu komentara iznad određenog praga. Na primjer, oni mogu povući klizač naprijed i natrag kako bi automatski odobrili sve komentare sa samo 0 do 20 posto sažetim rezultatom, koji se temelji na kombinaciji mogućnosti komentara za opscenost, toksičnost i vjerojatnost da budu odbijeni. Dolje su tipke za brzo moderiranje kako biste odobrili ili odbili komentar, odgodili ga ili označili komentar kako biste nastavili poboljšavati modeliranje Perspektive.

    "Za svaki dio web stranice analizirali smo dolazne komentare i način na koji bi ih Perspektiva označila. Koristili smo i javne modele Perspektive i vlastite modele jedinstvene za New York Times ", rekao je Etim. "Analizirao bih komentare iz svakog odjeljka i pokušao pronaći točku presjeka u kojoj bi nam bilo ugodno reći: 'U redu, sve iznad ove vjerojatnosti koristeći ove oznake specifične toksičnosti, kao što je opscenost, na primjer, odobrit ćemo."

    Strojno učenje odobrava razmjerno mali postotak komentara (oko 25 posto ili slično, rekao je Etim) dok Times djeluje na način da objavljuje komentare na više priča i na kraju čak prilagodi kako modeli filtriraju i odobravaju komentare za različite odjeljke web mjesta. Modeli odobravaju samo komentare; odbacivanjem još uvijek u potpunosti upravljaju ljudski moderatori.

    Ručnih isključenja komentara više nema. Komentari se obično završavaju ili priče 24 sata nakon objavljivanja na mreži ili dan nakon što je objavljen u tisku, rekao je Etim.

    'Ne zamjenjujemo te strojevima'

    Sljedeća je faza ugrađivanje više značajki u sustav kako bi se moderatorima pomoglo da odrede prioritete koje komentare prvo pogledaju. Sve više, automatizacija onoga što je uvijek bio ručni proces omogućila je moderatorima da proaktivno provode vrijeme radeći s novinarima na odgovaranje na komentare. Stvorena je petlja za povratne informacije u kojoj komentari vode do naknadnog izvještavanja i dodatnih priča - mogu uštedjeti i preraspodijeliti resurse za stvaranje više novinarstva.

    "Moderator i Perspektiva učinili su Times mnogo odgovornijim na brige čitatelja, jer mi imamo resurse za to, bilo da sami pišemo priče ili radimo s novinarima kako bismo smislili priče", rekao je Etim. "Kul stvar ovog projekta je to što nikoga nismo ostavili. Ne zamjenjujemo te strojevima. Jednostavno koristimo ljude koje imamo efikasnije i donosimo doista teške odluke."

    Rad je otvoren za rad s drugim publikacijama kako bi se pomoglo ostatku industrije da implementira ovu vrstu tehnologije. To može pomoći lokalnim novinama s ograničenim resursima da održavaju odjeljke s komentarima bez velikog namjenskog osoblja i da koriste komentare kao što to čini Times , kako bi pronašli potencijalne potencijalne potencijale i pokrenuli široko novinarstvo.

    Etim je uspoređivao umjerenost potpomognutu AI-om dajući farmeru mehanički plug u odnosu na pik. Možete mnogo bolje obaviti posao s plugom.

    "Ako se perspektiva može razvijati na pravi način, ona može, nadamo se, stvoriti barem niz smjernica koje se mogu ponoviti u malim prodajnim mjestima", rekao je. "Duga je to igra, ali već smo postavili temelje da budemo dio tog čitateljskog iskustva. Onda će ovi lokalni listovi možda ponovno dobiti komentare i uspostaviti malu plažu protiv glavnih društvenih igrača."

    Vrištanje u bezdan

    U ovom trenutku većina nas je vidjela ljude kako napadaju ili maltretiraju na društvenim medijima zbog izražavanja mišljenja. Nitko ne želi da im se to dogodi, osim trolova koji uspijevaju u takvim stvarima. I naučili smo da vikanje na neznanca koji nikada neće poslušati racionalnu raspravu nije dragocjena upotreba našeg vremena.

    Perspektiva pokušava iskoristiti tu dinamiku, ali CJ Adams rekao je da je širi cilj objaviti podatke, istraživanje i nove UX modele otvorenog koda kako bi se stvorile nove strukture razgovora - zastrašujući zadatak. Činiti Internet zdravim mjestom koje vrijedi vrijeme ljudi znači skaliranje ovih sustava izvan dijelova i vijesti o komentarima vijesti. Konačno, AI alati moraju biti u mogućnosti upravljati ogromnim društvenim aplikacijama i mrežama koje dominiraju našim svakodnevnim digitalnim interakcijama.

    Odbacujući ono što Facebook, Twitter i drugi društveni divovi rade interno, najizravniji način da se to postigne je prebacivanje tehnologije s moderatora na same korisnike. Adams je pokazao na projekat Coral kako bi mogao izgledati.

    Coral Project je u početku utemeljen kao suradnja između Mozilla Foundation, New York Timesa i Washington Posta. Coral gradi alate otvorenog koda, poput platforme Talk, kako bi potaknuo internetsku raspravu i pružio vijestima alternativu zatvaranju odjeljaka s komentarima. Talk trenutno pokreće platforme za gotovo 50 mrežnih izdavača, uključujući poštu , časopis New York, časopis Wall Street Journal i The Intercept.

    Ranije ovog mjeseca, Vox Media kupio je Coral Project od Mozilla Foundation; planira ga "duboko integrirati" u Chorus, njegovu platformu za upravljanje sadržajem i pripovijedanje.

    Perspektiva ima dodatak za Coral Project koji koristi isti temeljni tehnološki alat - ocjenjivanje i pragove toksičnosti na temelju ML - da korisnicima pruži proaktivne prijedloge kao što pišu, rekao je Adams. Kada korisnik napiše komentar koji sadrži izraze označene kao zloupotreba ili uznemiravanje, korisniku se može pojaviti obavijest koja kaže: "Prije nego što ovo objavite, upamtite naše smjernice zajednice" ili "Jezik u ovom komentaru može prekršiti naše smjernice zajednice. Ubrzo će ga pregledati naš moderatorski tim."

    "Ta mala pomaka može pomoći ljudima da samo sekundu pomisle, ali nikog ne blokira", rekao je Adams. "Ne zaustavlja se rasprava."

    To je mehanizam koji su platforme za video igre i streaming platforme integrirale kako bi zaustavile zlostavljanje i uznemiravanje. Korisnici Twittera također bi očito mogli imati koristi od takvog sustava.

    To govori o ideji koju je znanstvenik s MIT-a Andrew Lippmann iznio u PCMagovom izdanju budućnosti: Govorio je o ugrađenim mehanizmima koji bi omogućili ljudima da se zaustave i razmisle prije nego što nešto podijele na mreži, kako bi se spriječilo širenje dezinformacija. Koncept se odnosi i na internetsku raspravu. Stvorili smo komunikacijske sustave bez trenja koji mogu u trenu eksponencijalno povećati doseg izjave, ali ponekad malo trenja može biti dobra stvar, rekao je Lippmann.

    Perspektiva se ne odnosi na korištenje AI kao pokrivnog rješenja. To je način oblikovanja ML modela u alate za ljude koji će im pomoći u izliječenju vlastitih iskustava. No, jedno kontrapunkt je da ako ljudima olakšate prilagođavanje internetske buke koja im se ne sviđa, Internet će postati još više eho komora nego što već jest.

    Upitan mogu li sredstva poput Perspektive to u konačnici pogoršati, Adams je rekao da vjeruje da internetske komore za eho postoje jer ne postoje mehanizmi za vođenje rasprave u kojima se ljudi smisleno ne mogu složiti.

    "Put najmanjeg otpora je" Ti se ljudi bore. Pustimo ih da se dogovore sami sa sobom u svojim kutovima. Neka se ljudi siloniraju ", rekao je. "Dopuštate ljudima da viču sve ostale iz sobe ili isključite raspravu. Mi želimo da Perspektiva stvori treću opciju."

    Adams je izložio ogledni scenarij. Ako pitate sobu od 1.000 ljudi, "Koliko ste danas pročitali nešto do čega vas je zaista zanimalo?" većina korisnika interneta uputit će na članak, tweet, post ili nešto što čitaju na mreži. Ali ako ih onda pitate: "Koliko ste mislili da je vrijedno vašeg vremena to komentirati ili razgovarati?" sve će se ruke u sobi spustiti.

    "Za mnoge od nas to jednostavno nije vrijedno truda. Struktura rasprave koju trenutno imamo samo znači da je to odgovornost. Ako imate trenutnu razumnu misao ili nešto što želite podijeliti, za većinu ljudi oni nemaju" ne želim sudjelovati ", rekao je Adams. "To znači da od tih 1.000 ljudi koji bi mogli biti u sobi imate samo nekolicinu zastupljenih u raspravi; recimo, 10 ljudi. Duboko vjerujem da možemo izgraditi strukturu koja će ostalih 990 vratiti u raspravu i to čini na način za koji smatraju da vrijedi svoga vremena."

Kako googleov slagalica pokušava detoksicirati internet