Dom Značajke 10 Neugodan algoritam nije uspio

10 Neugodan algoritam nije uspio

Sadržaj:

Video: CAS11 Linijska struktura algoritma (Rujan 2024)

Video: CAS11 Linijska struktura algoritma (Rujan 2024)
Anonim

Tehnologija nije samo za štrebere, već za sve, a to je puno ljudi. Sa samo nekoliko tvrtki koje kontroliraju većinu hardvera i softvera - od Applea i Amazona do Facebooka, Microsofta i Googlea - mogu učiniti toliko da kontroliraju vaš novčanik i očne jabučice. Što treba učiniti siromašna, divovska korporacija? Oslonite se na algoritme za donošenje nekih važnih odluka.

Oxford Living Rječnici algoritam definira kao "postupak ili skup pravila kojih se treba pridržavati u proračunima ili drugim operacijama na rješavanju problema, posebno računalo". Savršen primjer je Facebook News Feed. Nitko ne zna kako funkcionira to što se neki vaši postovi pojavljuju na News Feeds nekim ljudima ili ne, ali Facebook to čini. Ili kako bi Amazon pokazao povezane knjige? Srodne pretrage na Googleu? Sve su to strogo čuvane tajne koje puno rade za tvrtku i mogu imati veliki utjecaj na vaš život.

Ali algoritmi nisu savršeni. Ne uspijevaju, a neki spektakularno propadaju. Dodajte svjetlucanje društvenim medijima, a mali propust može se brzo pretvoriti u PR noćnu moru. Rijetko je zlonamjerna; to je obično ono što New York Times naziva "Frankenstein Moments", gdje se stvorenje koje je netko stvorio pretvara u čudovište. Ali događa se, i u nastavku smo sastavili neke od najagresivnijih nedavnih primjera. Javite nam svoje favorite u komentarima ispod.

    1 Instagram upitni oglasi

    Kako je izvijestio The Guardian , Facebook voli prikazivati ​​oglase za svoj Instagram servis uz postove svojih vlastitih korisnika. Ali algoritam je odabrao pogrešnu "fotografiju" kako bi se oglasila prijateljima Olivije Solon, koja je sama novinarka The Guardiana , odabirom snimke koja je prije godinu dana snimila prijeteću e-poštu.

    2 ciljane rasističke reklame

    ProPublica je prošli tjedan izvijestio da Facebook dopušta oglašivačima da ciljaju uvredljive kategorije ljudi, poput "mržnja Židova". Stranica je platila 30 dolara za oglas (gore) koji je ciljao publiku koja će pozitivno odgovoriti na stvari poput "zašto Židovi ruše svijet" i "Hitler nije učinio ništa loše". Odobreno je u roku od 15 minuta.

    Slate su pronašli slične uvredljive kategorije, a postao je to još jedan u dugom nizu stavki za koje se Facebook morao ne samo ispričati, već je obećao popraviti s nekim ljudskim nadzorom. Znate, kao kad je postavila izborne oglase u vrijednosti od 100.000 dolara za Rusiju.

    U svom postu na Facebooku, COO Sheryl Sandberg rekla je da je "zgrožena i razočarana tim riječima" i najavila promjene svojih alata za oglašavanje.

    BuzzFeed je provjerio kako će Google postupati sa sličnim stvarima i ustanovio je kako je lako postaviti i ciljane oglase kako bi ih rasisti i bigoti mogli vidjeti. Daily Beast to je provjerio na Twitteru i pronašao milijune oglasa pomoću izraza kao što su „nacistički“, „mokri“ i riječi N.

    3 Facebook godina u nevolji pregleda

    Ako ste na Facebooku, bez sumnje ste vidjeli videozapise generirane algoritmima s istaknutim fotografijama u posljednjih 12 mjeseci. Ili za neke, slaba svjetla. Godine 2014. jedan je otac vidio fotografiju svoje pokojne kćeri, dok je drugi vidio plamenove svog doma u plamenu. Ostali primjeri uključuju ljude koji vide njihove pokojne kućne ljubimce, urne pune roditeljskog pepela i pokojne prijatelje. Do 2015. godine, Facebook je obećao da će ukloniti tužna sjećanja.

  • 4 Pad sustava autopilota Tesle

    Većina algoritamskih snafusa daleko je od kobnih, ali svijet osobnih automobila donijet će sasvim novu razinu opasnosti. To se već barem jednom dogodilo. Vlasnik Tesle na autocesti na Floridi koristio je poluautonomni način rada (Autopilot) i naletio na traktorsku prikolicu koja ga je presjekla. Tesla je brzo izdao nadogradnje, ali je li to stvarno bila krivica za način rada Autopilot? Nacionalna uprava za sigurnost cestovnog prometa kaže da možda nije, jer sustav zahtijeva da vozač bude budan o problemima, kao što možete vidjeti u gornjem videu. Sada Tesla sprječava čak da se Autopilot angažira ako vozač prvo ne odgovori na vizualne znakove.

  • 5 Kažite rasistički Microsoftov ai

    Prije nekoliko godina chat botovi trebali su zauzeti svijet olujom, zamijenivši predstavnike za usluge kupcima i učinivši internetski svijet brbljivim mjestom za dobivanje informacija. Microsoft je reagirao u ožujku 2016. gurnuvši AI po imenu Tay s kojim bi ljudi, točnije od 18 do 24 godine, mogli komunicirati na Twitteru. Tay zauzvrat bi činio javni tweet za mase. Ali za manje od 24 sata, učeći od gadne mase, Tay je postao rasno rasni. Microsoft je Taya odmah povukao dolje; vratila se kao nova AI po imenu Zo u prosincu 2016., s "snažnim provjerama i balansima kako bi je zaštitili od eksploatacije".

    6 čestitki za vašu (nepostojeću) bebu!

    Potpuno otkrivanje: Dok ovo pišem, moja je žena zapravo trudna. Obojica smo dobili ovu poruku od Amazona kako je netko kupio nešto za nas iz registra za bebe. Nismo ga još objavili, ali nije bilo tako šokantno. U međuvremenu, nekoliko milijuna ostalih Amazonovih kupaca također je dobilo istu poruku, uključujući neke bez registra… ili dijete koje je na putu. Moglo je biti dio lažnog predstavljanja, ali nije. Amazon je opazio pogrešku i poslao je e-poštu s daljnjim izvinjenjem. Do tada, mnogi su se žalili da je to neprimjereno ili bezosjećajno. Ovo je manje algoritam nego sjajni poslužitelj e-pošte, ali pokazuje vam da je uvijek lako uvrijediti.

    7 Amazon 'preporučuje' bombaške materijale

    Svi su skočili na ovo nakon što su ga objavile britanske televizije Channel 4 News, od Fox Newsa do New York Timesa . Navodno je utvrđeno da će Amazonovo "često kupljeno zajedno" ljudima pokazati što im treba za izgradnju bombe ako započnu s jednim od sastojaka, koje mjesto ne bi imenovalo (to je kalijev nitrat).

    Amazonov algoritam zapravo je pokazao kupcima sastojke kako napraviti crni prah u malim količinama, što je u Velikoj Britaniji potpuno legalno, a koristi se za sve vrste stvari - poput vatrometa - što je brzo istaknuto u nevjerojatno dobro razmišljanje- objavite blog na Idle Words. Umjesto toga, sva su izvješća o tome kako Amazon gleda na to, jer to moraju reći u svijetu u kojem se boje terorizma i logike.

    8 Google Maps dobiva rasisti

    Godine 2015. Google se morao ispričati kada Google Maps pretraže "n ***** kralja" i "n *** kuću", vode prema Bijeloj kući, koju je u to vrijeme još uvijek zauzimao Barack Obama. To je rezultat "Googlebomba", pri čemu se pojam koji upotrebljava tražilica preuzima i označava kao "popularan", pa se rezultati nalaze na vrhu pretraživanja. Tako je riječ "Santorum" dobila svoju novu definiciju.

    9 Google oznake ljudi kao gorile

    Google Photos nevjerojatna je aplikacija / usluga koja pohranjuje sve vaše slike i još mnogo toga. Jedna od tih stvari je automatsko označavanje ljudi i stvari na fotografijama. Koristi prepoznavanje lica kako bi ih ljudi suzili do prave osobe. Čak imam i mapu svih svojih pasa, a nijednog nisam označio. Koliko god to radilo, bilo je grozno kada se Google 2015. morao ispričati računalnom programeru Jackyju Alcinéu, kada su njega i prijatelja - obojicu u crno - služba identificirala kao gorile. "Iznenađeni smo i iskreno nam je žao što se to dogodilo", rekao je Google za PCMag.

    10 robotskih sigurnosnih hitova dijete, ubija sebe

    Knightscope izrađuje autonomne sigurnosne robote pod nazivom K5 za patroliranje školama, trgovačkim centrima i susjedstvima. Konusi Dalek-esque u širini od 5 stopa na kotačima - za koje je zaslužan da su još uvijek u beta testiranju - uglavnom nude vijest ne za sprečavanje kriminala, već za propuste.

    Primjerice, u srpnju 2016., K5 u trgovačkom centru Stanford u Palo Altu naletio je na nogu 16-mjesečnog starca, a Knightscope se morao službeno ispričati. Ta ista lokacija - možda isti droid - imala je prepirku na parkiralištu s pijanim pijancem, ali barem to nije bila kriva K5. Porota je još uvijek u jedinici K5 u poslovnom / trgovačkom kompleksu Georgetown u Washingtonu… da se jedan navodno nakon samo tjedan dana na poslu zaustavio nekim stepenicama u vodoskoku. Ne izgleda dobro za Skynetovu vojsku.

10 Neugodan algoritam nije uspio