Sztuczna inteligencja znana jako DeepBlue jako pierwsza wygrała z Mistrzem Świata w szachach już w 1997 roku. Przez wiele lat podobne osiągnięcie w przypadku chińskiej gry Go zdawało się nieosiągalne dla AI. Jednak w 2017 roku udało się tego dokonać programowi AlphaGo, pokonując najlepszego zawodnika w Go na świecie — Ke Jie. Największym celem twórców AlphaGo pozostała znana gra komputerowa z gatunku RTS (Real Time Strategy) — StarCraft II. Jak się okazało, cel został osiągnięty w grudniu ubiegłego roku, software AlphaStar pokonał zawodowych graczy z wynikiem 10 wygranych i jednej przegranej. Jakie wyzwania dla AI skrywała nauka gry w StarCrafta II i jak sobie z nimi poradzono? Czy kolejne sukcesy sztucznej inteligencji w grach mają większe znaczenie? W związku z niedawną obecnością na platformie L.E.M. nano powiązanego z tymi pytaniami zdarzenia pt. „Sztuczna inteligencja kontra StarCraft”, zapraszamy do zapoznania się z artykułem wyjaśniającym kulisy ostatnich podbojów AI.
Założona w 2010 roku i przejęta przez Google w 2014 roku brytyjska spółka DeepMind jest światowym liderem w zakresie rozwoju sztucznej inteligencji. Jest znana przede wszystkim z tworzenia uczących się algorytmów mających za cel pokonanie najlepszych graczy w szachach, Go i Shōgi (japońskie szachy). Firma na swoim koncie ma również projekt DQN — software zdolny do mistrzowskiego opanowania 2600 gier z platformy Atari, mając do dyspozycji informację jedynie o wyświetlanych pikselach i wyniku punktowym. Jednak głównym założeniem DeepMind bynajmniej nie jest pokonywaniem coraz większych wyzwań programistycznych dla samego sportu. Przedsiębiorstwu zależy przede wszystkim na dogłębnym poznaniu i uwolnieniu potencjału drzemiącym w sztucznej inteligencji, by można było z powodzeniem wykorzystać ją w realnych problemach. Już teraz część zespołów pracuje nad projektami związanymi z ochroną środowiska czy systemem opieki zdrowotnej.
StarCraft II jest osadzoną w świecie science fiction strategią czasu rzeczywistego, stworzoną przez Blizzard Entertainment. O wysokiej kompetytywności tej produkcji świadczą, chociażby cieszące się ogromną popularnością od ponad 20 lat turnieje esportowe. Jednak tym, co czyni ją tak dużym wyzwaniem dla AI, jest jej złożoność. W przeciwieństwie do szachów czy Go gracz nie ma też dostępu do wszystkich informacji o rozgrywce, o ile nie podejmie działań w celu ich zdobycia. Odbywa się ona również w czasie rzeczywistym, a nie turowym, tym samym wymuszając analizę sytuacji i podejmowanie decyzji w każdej chwili trwania pojedynku. Dodajmy do tego setki różnych jednostek i budynków, wymagających ciągłej uwagi oraz konieczność długookresowego planowania działań, a algorytmy uczące się grania w szachy wydadzą się dziecinnie proste. Warto przy tym wspomnieć, że deweloper gry od 2009 roku znacznie przyczynił się do rozwoju sztucznej inteligencji, organizując szereg zawodów dla rywalizujących ze sobą AI, a w 2017 roku udostępnił narzędzie ułatwiające interakcję tego typu programów z SCII.
Największy sukces na tym polu jak do tej pory odniosło oprogramowanie od DeepMind nazwane AlphaStar. Podstawowym mechanizmem, na którym funkcjonuje, jest sieć neuronowa pobierająca informacje bezpośrednio z interfejsu i oddająca uszeregowane instrukcje, będącymi wykonywanymi czynnościami, po przełożeniu na środowisko gry. Czynnikiem, który wyróżnia ten projekt od konkurencji, jest jednak sposób, w jaki wspomniana sieć neuronowa jest budowana. W tym celu posłużono się wieloma powtórkami meczów rozegranych przez profesjonalnych graczy, które zostały poddane obserwacji i analizie przez algorytm, by ten mógł zaadaptować efektywne strategie. Następnie jego poszczególne wersje zostały postawione przeciwko sobie, aby w sposób autonomiczny udoskonalać do tej pory poznane taktyki. W tym punkcie wykorzystano metodę uczenia maszynowego, znaną jako reinforcement learning, pozwalającą AI poznać sposoby na osiągnięcie celu poprzez samodzielne eksperymentowanie. Tak przygotowany trening zaowocował pokonaniem dwójki czołowych zawodników w StarCrafta II — Gragorza „MaNa” Komincza i Daria „TLO” Wüncha 19 grudnia 2018 roku.
Techniki wykorzystywane przez AlphaStar posiadają potencjał znacznie wykraczający poza gry wideo. Opracowywanie złożonych, długoterminowych predykcji i potrzeba podejmowania na ich podstawie sekwencji działań występują również w problemach realnego świata. Jednymi z nich są wyzwania dotyczące prognozowania pogody, modelowania klimatu, rozwoju informatycznych narzędzi językowych czy nawet planowania militarnego. Nie ulega wątpliwości, że w najbliższych latach udział sztucznej inteligencji w ogólnym rozwoju technologicznym będzie stawał się coraz istotniejszy. Z kolei prace prowadzone w takich organizacjach jak DeepMind tylko przybliżają nas do przyszłości wolnej od dręczących nas dzisiaj problemów cywilizacyjnych.
Bibliografia:
AlphaStar mastering real time strategy game StarCraft II (ang.)
Breakthrough technologies 2017 - reinforcement learning (ang.)
DeepMind - Official Site (ang.)
StarCraft II - Wikipedia (ang.)
DeepMind - Wikipedia (ang.)
AlphaGo - Wikipedia (ang.)
Powrót