Sadržaj:
Video: В ЧЁМ РАЗНИЦА МЕЖДУ ФОРМАТАМИ ФАЙЛОВ AI и EPS ? | ADOBE ILLUSTRATOR ЛАЙФХАКИ | (Studeni 2024)
Google je nedavno replicirao Duplex kako bi eksplicitno otkrio domaćinima restorana i osoblju salona da razgovaraju s Google Assistantom i da se snimaju.
Pipanjem Duplexa Google se suočio s tim kritikama. Ali zašto je tako važno da tvrtke budu transparentne u pogledu identiteta svojih AI agenata?
Mogu li AI pomoćnici poslužiti zle svrhe?
"Raste očekivanje da biste, kada komunicirate o poslovanju, mogli komunicirati s chat-om sa AI napajanjem. Ali kad zapravo čujete ljude koji govore, uglavnom očekujete da je to stvarna osoba", kaže Joshua March, izvršni direktor od Coversocial.
March kaže da smo na početku ljudi koji imaju značajne interakcije s AI-om na redovnoj osnovi, a napredak na terenu stvorio je strah da bi hakeri mogli iskoristiti AI agente u zlonamjerne svrhe.
"U najboljem slučaju, AI roboti sa zlonamjernim namjerama mogli bi uvrijediti ljude", kaže Marcio Avillez, SVP iz mreže u Cujo AI. No Marcio dodaje da ćemo se možda suočiti s još gorim prijetnjama. Na primjer, AI može naučiti specifične jezične obrasce, olakšavajući tehnologiju prilagođavanja manipulacijama ljudima, lažnim predstavljanjem žrtava i napadima fašizma (voice phishing) i sličnim aktivnostima.
Mnogi se stručnjaci slažu da je prijetnja stvarna. U stupcu za CIO, Steven Brykman je izložio različite načine na koje se tehnologija poput Duplexa može iskoristiti: "Barem kod ljudi koji nazivaju ljude, još uvijek postoji ograničavajući faktor - čovjek može obaviti toliko poziva na sat dnevno. Ljudi moraju biti plaćeni, napraviti stanke i tako dalje. Ali AI chatbot bi doslovno mogao obavljati neograničen broj poziva neograničenom broju ljudi na neograničen broj različitih načina!"
U ovoj fazi, većina onoga što čujemo su nagađanja; još uvijek ne znamo opseg i ozbiljnost prijetnji koje se mogu pojaviti pojavom glasovnih pomoćnika. Ali mnogi potencijalni napadi koji uključuju glasovne pomoćnike mogu se otkloniti ako tvrtka koja pruža tehnologiju izričito komunicira s korisnicima tijekom interakcije s AI agentom.
Pitanja o privatnosti
Drugi problem oko upotrebe tehnologija poput Duplexa potencijalni je rizik za privatnost. Sustavima koji pokreću AI potrebni su korisnički podaci za osposobljavanje i poboljšanje svojih algoritama, a Duplex nije iznimka. Vrlo je važno kako će pohraniti, zaštititi i koristiti te podatke.
Pojavljuju se novi propisi koji od tvrtki zahtijevaju da dobiju izričit pristanak korisnika kada žele prikupiti svoje podatke, ali oni su uglavnom dizajnirani tako da pokrivaju tehnologije u kojima korisnici namjerno pokreću interakcije. Ovo ima smisla za AI pomoćnike poput Siri i Alexa, koji su aktivirani od strane korisnika. No nije jasno kako bi se nova pravila primjenjivala na AI pomoćnike koji dosežu korisnike bez aktiviranja.
U svom članku, Brykman naglašava potrebu uspostavljanja regulatornih zaštitnih mjera, poput zakona koji zahtijevaju od kompanija da izjavljuju prisustvo AI agenta - ili zakona koji će, kada pitate chatbota da li je chatbot, morati reći: "Da, Ja sam chatbot. " Takve bi mjere ljudskom sugovorniku dale priliku da se isključe ili barem odluče žele li komunicirati s AI sustavom koji bilježi njihov glas.
Čak i uz takve zakone, pitanja privatnosti neće nestati. "Najveći rizik koji predviđam u trenutnom utjelovljenju tehnologije jest da će ona dati Googleu još podataka o našim privatnim životima koje još nije imala. Do ovog trenutka, oni su znali samo za naše internetske komunikacije; sada će steći pravi uvid u naših razgovora u stvarnom svijetu ", kaže Vian Chinner, osnivač i izvršni direktor Xineoha.
Nedavni skandali o privatnosti koji uključuju velike tehnološke kompanije, u kojima su korisničke podatke koristili na upitne načine u svrhu vlastite dobiti, stvorili su osjećaj nepovjerenja u pogledu davanja novih prozora u naš život. "Ljudi općenito smatraju da ih velike kompanije iz Silicijske doline gledaju kao zalihe umjesto na kupce i imaju velik stupanj nepovjerenja u gotovo sve što čine, bez obzira na to koliko će to biti revolucionarno i životno promjenjivo", kaže Chinner.
Funkcionalni kvarovi
Iako ima prirodan glas i ton i koristi zvukove slične čovjeku poput "mmhm" i "ummm, " Duplex se ne razlikuje od ostalih suvremenih AI tehnologija i trpi ista ograničenja.
Bilo da se kao sučelje koristi glas ili tekst, AI agenti su dobri u rješavanju specifičnih problema. Zato ih nazivamo „uskim AI“ (za razliku od „općeg AI“ - vrste umjetne inteligencije koja se može uključiti u opće rješavanje problema, kao što to čini ljudski um). Iako uski AI može biti izuzetno dobar u izvršavanju zadataka za koje je programiran, on može spektakularno uspjeti kada mu se da scenarij koji odstupa od njegove problematične domene.
"Ako potrošač misli da razgovaraju s čovjekom, vjerojatno će pitati nešto što je izvan uobičajene skripte AI-ja i tada će dobiti frustrirajući odgovor kada bot ne razumije", kaže Conversocial's March.
Suprotno tome, kada osoba zna da razgovaraju s AI-jem koji je osposobljen za rezervaciju stolova u restoranu, pokušat će izbjeći upotrebu jezika koji će zbuniti AI i uzrokovati da se ponaša neočekivano, pogotovo ako donosi njima kupac.
"Osoblje koje prima pozive iz Duplexa također bi trebalo izravno primiti da to nije stvarna osoba. To bi pomoglo da komunikacija između osoblja i AI bude konzervativnija i jasnija", kaže Avillez.
Iz tog razloga, sve dok (i ako) ne razvijemo AI koji se može izjednačiti s ljudskom inteligencijom, u interesu je samih tvrtki da budu transparentni u njihovom korištenju AI.
Na kraju dana, dio straha od govornih asistenata poput Duplexa uzrokuje činjenica da su novi, a mi se još uvijek naviknemo susretati s njima u novim postavkama i slučajevima upotrebe. "Barem se nekim ljudima čini vrlo neugodna ideja da razgovaraju s robotom bez da to znaju, pa bi to za sada vjerojatno trebalo otkriti svojim kolegama u razgovoru", kaže Chinner.
- AI je (također) sila za dobro AI je (također) sila za dobro
- Kada AI zamagljuje liniju između stvarnosti i fikcije, kada AI zamagljuje liniju između stvarnosti i fikcije
- Umjetna inteligencija ima problem pristranosti, a naša je greška Umjetna inteligencija ima problem pristranosti, i naša je greška
Ali dugoročno ćemo se naviknuti na interakciju s AI agentima koji su pametniji i sposobniji za izvršavanje zadataka za koje se prethodno mislilo da su isključivo domena ljudskih operatora.
"Sljedeću generaciju neće zanimati hoće li razgovarati s nepoznatim osobama ili s ljudima kad kontaktiraju tvrtku. Oni će jednostavno htjeti brzo i lako dobiti odgovor i odrasti će u razgovoru s Alexa. Čekaju dalje držanje da razgovarate s čovjekom bit će mnogo više frustrirajuće nego samo interakcija s robotom ", kaže Conversocial's March.