Roboty
AI od DeepMind znowu zaskakuje. Sztuczna inteligencja najlepsza w Quake III

Wygląda na to, że musimy się przyzwyczaić do tego, że sztuczna inteligencja rozwijana przez związaną z Google firmą DeepMind regularnie będzie nas zaskakiwać swoimi możliwościami - dziś przyszedł czas na kolejny pokaz siły.

W grudniu ubiegłego roku poznaliśmy system AlphaZero, czyli zaawansowaną sztuczną inteligencję, dla której ludzcy przeciwnicy nie stanowili żadnego wyzwania i trzeba jej było znaleźć rywali wśród innych wybitnych AI. W ten oto sposób pokonała dotychczasowego mistrza gier planszowych od DeepMind, a mianowicie AlphaGo Zero, a także mistrza szachowego Stockfish oraz wybitnego zawodnika Shogi (japońska odmiana szachów rozgrywana na planszy 9x9), czyli „elmo”. Mniej więcej w tym samym czasie usłyszeliśmy o nowym dziecku firmy, a mianowicie AlphaStar, szkolonym do grania w Star Craft II.

To zdecydowanie bardziej wymagające zadanie niż w przypadku gier planszowych o prostych zasadach, bo gry wideo są dużo bardziej złożone i na ekranie dzieje się dużo więcej, ale jak się okazało sztuczna inteligencja poradziła sobie i z tym, pokonując profesjonalnych zawodników Dario “TLO” Wünscha i Grzegorza “MaNa” Komincza, a raczej miażdząc ich kompletnie, bo każdy z nich przegrał 5 starć. Co prawda Polak jakiś czas później wygrał jedną bitwę z nieco inną wersją tego AI, ale trzeba pamiętać, że gdyby dać sztucznej inteligencji kilka kolejnych, to pewnie nie byłoby co zbierać.

Teraz okazuje się, że przyszła pora na zmianę gatunku na zdecydowanie bardziej wymagający, a mianowicie first person shootery. To bardzo ambitne plany, bo sztuczna inteligencja porzuca wygodne dla siebie dwa wymiary i zestaw zasad, przenosząc się do świata szaleństwa, niekontrolowanego ruchu, przypadkowo generowanych map i pracy zespołowej. Jak się jednak okazuje, sztuczna inteligencja FTW nie ma żadnych problemów z pokonywaniem ludzkich przeciwników, odnosząc zwycięstwo za zwycięstwem.

Co ciekawe, żeby nauczyć się zasad i warunków zwycięstwa klasycznego trybu Capture the Flag w grze Quake III, AI potrzebowało tylko... surowego obrazu. Po rozegrania 140 tysięcy gier osiągnęło umiejętności przeciętnego człowieka, po 175 tysiącach dobrego zawodnika, a po 450 tysiącach gier treningowych było już znacznie lepsze niż jakikolwiek ludzki zawodnik. FTW było też szkolone na przypadkowo generowanych mapach, żeby zminimalizować ryzyko adaptowania konkretnych strategii do konkretnych lokacji.

Kiedy przyszedł czas na turniej z ludzkimi zawodnikami, AI okazało się bezkonkurencyjne - zespoły złożone z tradycyjnych graczy zdobywały średnio 16 flag mniej niż pary sztucznej inteligencji, a para profesjonalnych graczy, która mogła ze sobą rozmawiać, po 12 godzinach treningu była w stanie pokonać AI tylko w co czwartym starciu. A żeby jeszcze dolać oliwy do ognia, duża część zawodników określiła sztuczną inteligencję jako bardziej kooperacyjną niż ludzcy zawodnicy - interesujące, prawda?

Warto też podkreślić, że za sprawą zastosowania dwóch warstw, myślącej i działającej, sztuczna inteligencja jest w stanie nie tylko interpretować strategie, ale i wcielać je w życie. Oznacza to również, że FTW uczy się gry w taki sam sposób jak człowiek, poznaje podstawy, obserwuje przeciwników, uczy się metod działania, a następnie wybiera najkorzystniejsze dla siebie i je ulepsza. Żeby zniwelować przewagę AI, na czas turnieju miało ono ustawione taki sam czas reakcji jak ludzie i zmniejszoną celność, żeby wyrównać poziom, ale ostatecznie i tak okazało się lepsze, więc chyba pora pogodzić się z tym, że roboty będą od nas inteligentniejsze.

Źródło: GeekWeek.pl/techspot