fbpx

Google: milowy krok w budowie sztucznej inteligencji

Amerykańskie portale obiegła informacja, którą Google kreuje na miarę osiągnięcia IBMa z roku 1997. Wtedy to, jak pamiętamy Deep Blue IBMowski algorytm połączony z odpowiednim hardwarem pokonał rosyjskiego mistrza szachowego, Garriego Kasparowa

W ostatnich dniach Google pochwalił się, że ograł innego mistrza w inną grę o cudzoziemsko brzmiącej nazwie „Go”. Czy to faktycznie wyczyn na miarę zwycięstwa Deep Blue?

 

 

Argumenty Google’a są następujące: Go to gra dużo trudniejsza, ponieważ przewiduje ona:

1,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000 możliwości wykonania ruchu. To więcej niż na przykład liczba atomów we wszechświecie (cokolwiek to znaczy) – tak przynajmniej twierdzi Google.

 

Aby móc obliczyć najlepszy możliwy do wykonania ruch w danej sytuacji oddział Google o nazwie DeepMind (nieprzypadkowa zbieżność nazw z Deep Blue) napisał nowy algorytm, który nie jest oparty o klasyczną strukturę drzewka decyzyjnego. Algorytm nazwany AlphaGo skorzystał z zaawansowanego drzewka decyzyjnego (advanced tree search) połączonego z głębokimi sieciami neuronowymi (deep neural networks).

 

To właśnie głęboko uczące się sieci neuronowe odpowiadały za „przeczytanie” gry na tablicy i procesowanie decyzyjne na podstawie zaawansowanego drzewka decyzyjnego. Algorytm dysponował aż 12 sieciami neuronowymi, przy czym każda dysponowała innym zadaniem np. jedna odpowiadała za decydowanie jaki ruch podjąć, inna zaś przewidywała kto może wygrać przy danym układzie sił.

 

Zanim sieć neuronowa podjęła wyzwanie „nauczono ją” aż 30 milionów możliwych ruchów – był to efekt starć z ludzkimi graczami. Nauka nie poszła w las – AlphaGo nauczył się przewidywać blisko 2/3 ruchów ludzkich graczy (poprzedni rekord to mniej niż 50 procent). Ale w dalszym ciągu nie było mowy o uczeniu się czegoś nowego.

 

Stąd Google wprowadził kolejny element układanki – wymuszanie uczenia się nowych strategii grania. Aby to uczynić sieci neuronalne zostały zmuszone do prowadzenia między sobą rozgrywek w ramach procesu tzw reinforcement learning czyli uczenia poprzez wzmacnianie (wzmocnienia to pozytywne bodźce – myślenie zaczerpnięte z psychologii behawioralnej).

 

Skoro wiemy już co nieco na temat szczegółów pozostaje zadać pytanie: czy jest to faktycznie przełom na miarę Deep Blue? W czasach, gdy IBM z piekielną skutecznością wdraża Watsona – maszynę zdolną do „rozumienia” tekstu i podejmowania skomplikowanych decyzji np. medycznych; maszyny która już 5 lat temu wygrała program Jeopardy! (polski odpowiedni to Jeden z dziesięciu), trudno o zachwyt nad maszynką wygrywającą w potyczki kamieniami na papierowej planszy. Ten przełom mamy już dawno za sobą.

 

Zostaw odpowiedź