Kto potrzebuje człowieka? Algorytm Google DeepMind może sam nauczyć się widzieć.

in polish •  6 years ago  (edited)

Inspirując się niemowlętami, naukowcy z Google DeepMind stworzyli system, który może zacząć uczyć się sam postrzegania i rozumienia środowiska przestrzennego.

1.jpg

Algorytm stworzony przez Googla jest ważnym krokiem do badań komputerowych. To pole ma na celu nadanie tym narzędziom możliwości analizy obrazu i wideo, podobnie jak u człowieka.

Jak dotąd, ten rodzaj pracy opierał się głównie na tym, że systemy uczenia maszynowego stanowiły dużą pomocną dłoń.
Często polega to na szkoleniu ich za pomocą dziesiątek tysięcy oznakowanych obrazów - "to jest samochód", "to jest piłka", "to stolik".
System DeepMind sam określa najlepszy sposób interpretacji sceny.

Nazwany generacyjną siecią zapytań (GQN), system pozbywa się etykiet i koncentruje się na tym, co nazywa się uczeniem bez nadzoru.

Jak komputer uczy się sam?

3.jpg

W GQN dwie sieci grają "grę kooperacyjną".

Pierwsza sieć patrzy na obraz i stara się opisać go w jak najkrótszy sposób.

Druga sieć przyjmuje ten opis i próbuje przewidzieć, jak będzie wyglądać scena z innego punktu widzenia.

W przypadku nieprawidłowej prognozy obie sieci aktualizują się, aby zmniejszyć prawdopodobieństwo popełnienia tego samego błędu w przyszłości.

Zespół przetestował sieć w pomieszczeniach z wieloma obiektami, a także w środowiskach przypominających labirynt.

"Jeśli grają w tę grę wystarczająco długo, oboje stają się bardzo dobrzy," powiedział badacz DeepMind Ali Eslami.

Michael Milford, profesor robotyki z Queensland University of Technology, który nie był zaangażowany w badanie (ale pracował z Google DeepMind), powiedział, że sieć ma duży potencjał.

Badania nad obrazem komputerowym często koncentrują się na tworzeniu algorytmów, które mogą wykonywać wyspecjalizowane zadania, wyjaśnił: na przykład kontrolowanie samochodów do samodzielnego prowadzenia lub robotów domowych.

System, który sam może nauczyć się, jak postrzegać świat, mógłby być o wiele bardziej elastyczny. Ale, jak zauważył dr Milford, badania były dotychczas prowadzone tylko w laboratorium i dotyczyły prostych scen 3D. To, czy jest w stanie przetrwać w świecie realnym, jest pytaniem na późniejszy termin.

"Kiedy zabierasz je do prawdziwego świata, jest ciemno, pada deszcz, w powietrzu jest kurz, przed autonomicznym samochodem krążą ludzie, oczywiście, to dużo trudniejsze" - powiedział.

Kiedy laptop jest laptopem?

4.jpg

GQN unika wykorzystywania oznakowanych obrazów do poznawania świata, więc może nie od razu znać nazw niektórych obiektów lub interpretować je w sposób zrozumiały dla ludzi - tutaj przychodzą dzieci.

"Pomyśl, jak niemowlak może wchodzić w interakcję z laptopem" - powiedział pan Eslami.

"Najpierw może pomyśleć, "to tylko zbiór pudełek," ... ale z czasem, jeśli zobaczy wystarczająco długo laptopa ... będzie się domyślał, że faktycznie to, jest coś więcej niż tylko zbiór pudełek i może to jest koncepcja sama w sobie. "

"To wtedy może wkroczyć rodzic i wyjaśnić, że ludzie nazywają to "laptopem".

Ten sposób poznawania sceny jest nie tylko znacznie bardziej efektywny, ale także ma potencjał tworzenia systemów, które mają głębsze zrozumienie świata, według naukowców.

Dobry bot, zły bot.
Czy możesz zaufać robotowi, któremu zależy?

6.jpeg

Tradycyjne systemy uczenia maszynowego zazwyczaj nie są w stanie odpowiedzieć na pytania "co jeśli", wyjaśnił badacz DeepMind, Danilo Rezende. Po prostu odpowiadają na bardzo konkretne pytanie: czy na obrazie jest osoba? Czy na obrazie jest pies?

"Nie może odpowiedzieć:" Co, jeśli zmienię coś na obrazie? " lub "Co jeśli zobaczę z tej innej perspektywy, co powinienem zobaczyć?", dodał.

GQN może pomóc w budowie systemów uczenia maszynowego, które mogą odpowiedzieć na tego typu pytania, ale jeśli maszyny uczą samych siebie, stoimy przed nowymi wyzwaniami, powiedział dr Milford.

Trudniej zrozumieć wewnętrzne procesy tych skomplikowanych systemów - jak system postrzega świat? Dlaczego dokonuje wyborów?

"Ostatecznie, kiedy umieścisz to w robocie lub samochodzie ... chcesz się upewnić, że rozumiesz, co może zrobić i czego nie zrobi," powiedział.

Systemy które same uczą się świata mogą stać się inteligentne jak ludzie. Czy również mogą posiąść duszę?

Źródło: DeepMind, google.com

Authors get paid when people like you upvote their post.
If you enjoyed what you read here, create your account today and start earning FREE STEEM!