Sadržaj:
Video: This resin alien egg is actually a $2,000 Alexa speaker (Studeni 2024)
Amazon Echo uređaj nedavno je snimio privatni razgovor korisnika i poslao ga jednom kontaktu bez njegovog znanja i pristanka. Ovo (opet) izaziva zabrinutost zbog sigurnosti i privatnosti pametnih zvučnika. Kao što je kasnije postalo očito, Alexaino čudno ponašanje nije bilo dio zlosretne zavjere o špijunaži - prije, uzrokovalo ga je nizom povezanih kvarova koji su pripisani načinu na koji funkcionira pametni zvučnik.
Scenarij je rubni slučaj, vrsta incidenta koji se događa vrlo rijetko. Ali također je zanimljiva studija o granicama tehnologije umjetne inteligencije koja napaja Echo i ostale takozvane "pametne" uređaje.
Previše ovisnosti u oblaku
Da bi razumjeli glasovne naredbe, pametni zvučnici poput Echo i Google Home oslanjaju se na algoritme dubokog učenja koji zahtijevaju veliku računalnu snagu. Budući da nemaju računalne resurse za izvršavanje zadatka lokalno, oni ih moraju poslati na proizvođačeve cloud servere, gdje AI algoritmi pretvaraju govorne podatke u tekst i obrađuju naredbe.
Ali pametni zvučnici ne mogu poslati sve što čuju na svojim cloud poslužiteljima, jer bi to zahtijevalo od proizvođača da pohranjuje preveliku količinu podataka na svoje poslužitelje - od kojih bi većina bila beskorisna. Slučajno snimanje i pohranjivanje privatnih razgovora koji se vode u kućama korisnika također bi predstavljalo izazov u vezi s privatnošću i moglo bi stvoriti probleme proizvođačima, posebno s novim propisima o privatnosti podataka koji postavljaju stroga ograničenja na način na koji tehnološke tvrtke pohranjuju i koriste podatke.
Zato su pametni zvučnici dizajnirani tako da se aktiviraju nakon što korisnik izgovori budnu riječ poput "Alexa" ili "Hey Google". Tek nakon što čuju budnu riječ, počinju slati audio ulaz svojih mikrofona u oblak na analizu i obradu.
Iako ova značajka poboljšava privatnost, ona predstavlja vlastite izazove, kako je istaknuo nedavni incident Alexa.
"Ako se riječ - ili nešto što baš sliči na nju" pošalje na pola razgovora, Alexa neće imati nijedan prethodni kontekst ", kaže Joshua March, izvršni direktor Conversocial-a. "U tom trenutku izuzetno je teško slušati bilo kakve naredbe vezane za vještine koje ste postavili (poput njihove aplikacije za razmjenu poruka). Većinom se privatnost uvelike poboljšava ograničavanjem konteksta na koji Alexa obraća pažnju (kao to nije snimanje ili slušanje bilo kojeg vašeg uobičajenog razgovora), iako je to u ovom slučaju podrhtavano."
Napredak u rubnom računanju mogao bi pomoći u ublažavanju ovog problema. Dok AI i dubinsko učenje pronalaze svoj put na sve više uređaja i aplikacija, neki proizvođači hardvera stvorili su procesore specijalizirane za izvođenje AI zadataka bez previše oslanjanja na resurse oblaka. Edge AI procesori mogu pomoći uređajima kao što je Echo da bolje razumiju i obrađuju razgovore bez narušavanja privatnosti korisnika slanjem svih podataka u oblak.
Kontekst i namjera
Osim što prima različite i fragmentirane zvučne dijelove, Amazonov AI bori se s razumijevanjem nijansi ljudskog razgovora.
"Iako je u posljednjih nekoliko godina došlo do ogromnog napretka u dubokom učenju, što omogućava softveru da bolje razumije govor i slike nego ikad prije, još uvijek ima puno ograničenja", kaže March. "Iako glasovni pomoćnici mogu prepoznati riječi koje izgovarate, oni nemaju nužno bilo kakvo stvarno razumijevanje značenja ili namjere iza njega. Svijet je složeno mjesto, ali bilo koji danas AI sustav može se vrlo baviti posebni slučajevi uske uporabe."
Na primjer, mi ljudi imamo mnogo načina da utvrdimo je li rečenica usmjerena prema nama, poput tona glasa ili slijedeći vizualne znakove - recimo, u kojem smjeru gledatelj gleda.
Nasuprot tome, Alexa pretpostavlja da je primatelj bilo koje rečenice koja sadrži riječ "A". Zbog toga ga korisnici često slučajno pokreću.
Dio problema je što pretjerujemo u mogućnostima trenutnih AI aplikacija, često ih stavljajući u ravan sa ili iznad ljudskog uma i previše povjerenja u njih. Zato se čudimo kad spektakularno ne uspiju.
"Dio problema ovdje je da se izraz" AI "toliko agresivno plasirao da su potrošači uložili nezasluženu vjeru u proizvode koji su ovom terminom vezani za njih", kaže Pascal Kaufmann, neuroznanstvenik i osnivač Starmind-a. "Ova priča pokazuje da Alexa ima mnogo mogućnosti i relativno ograničeno razumijevanje kako i kada ih treba primjenjivati na odgovarajući način."
Algoritmi dubokog učenja skloni su neuspjehu kada se suoče s postavkama koje odstupaju od podataka i scenarija za koje su osposobljeni. "Jedna od najvažnijih značajki AI na ljudskoj razini bit će samodovoljna kompetencija i istinsko razumijevanje sadržaja", kaže Kaufmann. "Ovo je ključni dio istinskog smatranja AI" inteligentnim "i od vitalnog je značaja za njegov razvoj. Stvaranje samosvjesnih digitalnih pomoćnika, koji sa sobom donose potpuno razumijevanje ljudske prirode, označiće njihovu transformaciju iz zabavne novosti u istinsku koristan alat."
Ali, stvaranje AI na razini čovjeka, koji se također naziva i opći AI, lakše je reći nego učiniti. Mnogo desetljeća smo mislili da je to negdje iza ugla, samo da bismo se prezirali jer je tehnološki napredak pokazao koliko je ljudski um kompliciran. Mnogi stručnjaci vjeruju da je jurnjava za općim AI beskorisna.
U međuvremenu, uski AI (kako su opisane trenutačne tehnologije umjetne inteligencije) i dalje nudi brojne mogućnosti i može ih se popraviti kako se ne bi ponovile pogreške. Da budemo jasni, duboko učenje i strojno učenje i dalje su u tijeku, a tvrtke poput Amazona stalno ažuriraju svoje AI algoritme za rješavanje rubnih slučajeva svaki put kada se dogode.
Što trebamo učiniti
"Ovo je mlado polje u nastajanju. Razumijevanje prirodnog jezika posebno je u povojima, tako da ovdje možemo puno učiniti", kaže Eric Moller, predstavnik organizacije Atomic X.
Moller vjeruje da se AI algoritmi za analizu glasa mogu prilagoditi tako da bolje razumiju intonaciju i fleksiju. "Upotreba riječi 'Alexa' u široj rečenici zvuči drugačije od poziva ili naredbe. Alexa se ne bi trebala buditi jer ste to ime izgovarali usput, " kaže Moller. Uz dovoljno treninga, AI bi trebao biti u stanju razlikovati koji su tonovi usmjereni na pametni zvučnik.
Tehničke tvrtke također mogu osposobiti svoj AI kako bi se razlikovale kad prima pozadinsku buku, za razliku od direktnog izgovaranja. "Pozadinsko brbljanje ima jedinstveni slušni 'potpis' da su ljudi vrlo dobri u odabiru i selektivnom ugađanju. Nema razloga da ne treniramo AI modele da rade isto", kaže Moller.
Kao mjera opreza, pomoćnici AI trebali bi ocijeniti utjecaj odluka koje donose i uključiti ljudsku odluku u slučajevima kada žele učiniti nešto što je potencijalno osjetljivo. Proizvođači bi trebali uvesti više zaštitnih mjera u svoje tehnologije kako bi spriječili slanje osjetljivih podataka bez izričitog i jasnog pristanka korisnika.
"Iako je Amazon izvijestio da je Alexa pokušala potvrditi akciju koju je protumačila, neke akcije je potrebno pažljivije upravljati i držati se viših standarda za potvrdu korisnikove namjere", kaže Sagi Eliyahi, izvršni direktor Tonkeana. "Ljudi imaju iste probleme s prepoznavanjem govora, povremeno pogrešno postavljajući zahtjeve. Za razliku od Alexa, vjerovatno je da će čovjek apsolutno potvrditi da razumije nejasan zahtjev i, što je još važnije, procijeniti vjerojatnost zahtjeva u usporedbi s prošlim zahtjevima."
U međuvremenu…
Dok tehnološke tvrtke finaliziraju svoje AI aplikacije kako bi umanjile pogreške, korisnici će morati donijeti konačnu odluku o tome koliko žele biti izloženi potencijalnim pogreškama koje mogu činiti njihovi uređaji koji rade na AI.
"Ove priče pokazuju sukob s količinom podataka koju su ljudi voljni podijeliti protiv obećanja o novim AI tehnologijama", kaže Doug Rose, stručnjak za znanost podataka i pisac nekoliko knjiga o AI i softveru. "Možda ćeš zadirkivati Siri da je sporo. Ali najbolji način da postigne veću inteligenciju je napadom na naše privatne razgovore. Dakle, ključno pitanje u narednom desetljeću ili otprilike jest koliko ćemo dopustiti da ovi agensi AI uvide u naše ponašanje ?”
"Koja bi obitelj smjestila ljudskog pomoćnika u dnevnu sobu i pustila tu osobu da stalno sluša bilo kakve razgovore?" kaže Kaufmann, neuroznanstvenica iz Starmind-a. "Trebali bismo barem primijeniti iste standarde na takozvane" AI "uređaje (ako ne i više) koje primjenjujemo i na ljudska inteligentna bića kada je u pitanju privatnost, tajnost ili pouzdanost."