Sadržaj:
- Duboko učenje previše se oslanja na podatke
- Duboko učenje nije fleksibilno
- Duboko učenje jednostavno je
- Duboko učenje može se prenagliti
Video: STRAH Imamo li se razloga bojati? (Studeni 2024)
2012. godine, skupina znanstvenika sa Sveučilišta u Torontu napravila je proboj u klasifikaciji slika.
Na ImageNet-u, godišnjem natjecanju u umjetnoj inteligenciji (AI) u kojem se natjecatelji trude stvoriti najtačniji algoritam za klasifikaciju slike, ekipa iz Toronta debitirala je AlexNetom, "koji je na terenu pobijedio nevjerojatnih 10, 8 postotnih marži… 41 posto bolje nego sljedeći najbolji ", prema Quartzu.
Mnogi su pohvalili duboko učenje i njegov superset, strojno učenje, kao općenitu tehnologiju našeg doba i dublju od struje i vatre. Drugi, međutim, upozoravaju da će duboko učenje na kraju najbolje zaraditi kod svakog zadatka i postati krajnji ubojica posla. A eksplozija aplikacija i usluga potaknuta dubokim učenjem ponovno je obuzela strah od AI apokalipse, u kojoj super-inteligentna računala osvajaju planet i tjeraju ljude u ropstvo ili izumiranje.
No usprkos hiperspokojstvu, duboko učenje ima neke nedostatke koji ga mogu spriječiti da realizira svoja obećanja - i pozitivne i negativne.
Duboko učenje previše se oslanja na podatke
Duboko učenje i duboke neuronske mreže, koje čine njegovu temeljnu strukturu, često se uspoređuju s ljudskim mozgom. Ali naš um može naučiti koncepte i donositi odluke s vrlo malo podataka; dubinsko učenje zahtijeva tona uzoraka da bi izvršili najjednostavniji zadatak.
U osnovi je duboko učenje složena tehnika koja preslikava unose u rezultate pronalaskom uobičajenih obrazaca u označenim podacima i koristeći znanje za kategorizaciju ostalih uzoraka podataka. Na primjer, dajte aplikaciji za duboko učenje dovoljno slika mačaka i ona će moći otkriti sadrži li fotografija mačku. Isto tako, kada algoritam dubokog učenja proguta dovoljno zvučnih uzoraka različitih riječi i izraza, može prepoznati i prepisati govor.
No, ovaj je pristup učinkovit samo ako imate puno kvalitetnih podataka za hranjenje svojih algoritama. Inače algoritmi dubokog učenja mogu napraviti divlje pogreške (poput pogreške puške za helikopter). Kad njihovi podaci nisu inkluzivni i raznoliki, algoritmi dubokog učenja pokazuju čak rasističko i seksističko ponašanje.
Oslanjanje na podatke također uzrokuje problem s centralizacijom. Budući da imaju pristup ogromnoj količini podataka, tvrtke kao što su Google i Amazon u boljoj su poziciji da razviju visoko učinkovite programe za duboko učenje od startupa s manje resursa. Centralizacija AI u nekoliko tvrtki mogla bi ugroziti inovacije i dati im tim tvrtkama da previše upravljaju svojim korisnicima.
Duboko učenje nije fleksibilno
Ljudi mogu naučiti apstraktne pojmove i primijeniti ih u različitim situacijama. Radimo to stalno. Na primjer, kada igrate računalnu igru poput Mario Bros. po prvi put, možete odmah upotrijebiti znanje iz stvarnog svijeta - poput potrebe za preskakanje jama ili izmicanje vatrenih kuglica. Svoje znanje igre možete naknadno primijeniti na druge Mariove verzije, poput Super Mario Odyssey, ili druge igre slične mehanike, poput Donkey Kong Country i Crash Bandicoot.
AI aplikacije, međutim, moraju naučiti sve ispočetka. Pogled kako se algoritam dubokog učenja uči igrati Mario pokazuje koliko je AI proces učenja različit od onog kod ljudi. U suštini počinje ništa ne znati o svojoj okolini i postepeno uči interakciju s različitim elementima. Ali znanje koje dobiva iz igre Mario služi samo uskoj domeni te pojedinačne igre i nije prenosivo na druge igre, čak ni na ostale Mario igre.
Ovaj nedostatak konceptualnog i apstraktnog razumijevanja drži programe dubokog učenja usredotočenim na ograničene zadatke i sprječava razvoj opće umjetne inteligencije, vrste AI koji može donositi intelektualne odluke kao što to čine ljudi. To nije nužno slabost; neki stručnjaci tvrde da je stvaranje općeg AI besmislen cilj. Ali to je sigurno ograničenje u usporedbi s ljudskim mozgom.
Duboko učenje jednostavno je
Za razliku od tradicionalnog softvera, za koji programeri definiraju pravila, aplikacije za duboko učenje stvaraju vlastita pravila obrađujući i analizirajući testne podatke. Posljedično, nitko zapravo ne zna kako donose zaključke i odluke. Čak se i programeri algoritama za duboko učenje često nalaze zbunjeni rezultatima svojih kreacija.
Ovaj nedostatak transparentnosti mogao bi biti velika prepreka AI-ju i dubokom učenju, jer tehnologija pokušava pronaći svoje mjesto u osjetljivim područjima kao što su liječenje pacijenata, provođenje zakona i automobili koji se voze samostalno. Algoritmi za duboko učenje možda su manje skloni pravljenju pogrešaka nego ljudi, ali kada pogriješe, razlozi tih pogrešaka trebaju biti objašnjivi. Ako ne možemo razumjeti kako djeluju naše AI aplikacije, nećemo im moći povjeriti kritične zadatke.
Duboko učenje može se prenagliti
Duboko učenje već se pokazalo vrijednim na mnogim poljima i nastavit će se transformirati na način na koji radimo. Unatoč svojim nedostacima i ograničenjima, duboko učenje nas nije iznevjerilo. Ali moramo prilagoditi svoja očekivanja.
Kao što upozorava znanstvenik AI Gary Marcus, prekomjerno trošenje tehnologije moglo bi dovesti do još jedne "AI zime" - razdoblja u kojem previsoka očekivanja i lošiji učinak dovode do općeg razočaranja i nedostatka interesa.
Marcus sugerira da duboko učenje nije „univerzalno otapalo, već jedno sredstvo među mnogima“, što znači da dok nastavljamo istraživati mogućnosti koje pruža duboko učenje, trebali bismo se osvrnuti i na druge, u osnovi različite pristupe stvaranju AI aplikacija.
Čak i profesor Geoffrey Hinton, koji je začetnik rada koji je doveo do revolucije dubokog učenja, vjeruje da će se vjerojatno morati izmisliti potpuno nove metode. "Budućnost ovisi o nekom diplomiranom studentu koji je duboko sumnjičav prema svemu što sam rekao", rekao je Axiosu.