Войти
ФлеймФорумИгры

Starcraft II (опять) (40 стр)

Страницы: 137 38 39 40 41 42 Следующая »
#585
(Правка: 13:51) 13:49, 30 янв. 2019

1 frag / 2 deaths
Не с монитора, но с изображений. Почему нет? Есть же у них там какой-то "Image-based AI API"

https://github.com/Blizzard/s2client-proto/blob/master/docs/protocol.md

#586
14:00, 30 янв. 2019

entryway
> Simplified image based representation of game state.
Что это?

entryway
> Raw Data Interface
> Feature Layer Interface
> Rendered Interface
Кто из трёх тут используется.

#587
(Правка: 14:03) 14:02, 30 янв. 2019

1 frag / 2 deaths
> Что это?

+ Показать

1 frag / 2 deaths
> Кто из трёх тут используется.
Там же написано, какие из них для Machine Learning based AI.

#588
14:04, 30 янв. 2019

entryway
А вот эти буковки на кружочках - он их каждый кадр "читает" как массивы пикселей и распознаёт символы?
Потому что картника похожа на то, что нас дурят и что на самом деле это упрощённый рендер числовых данных, и ИИ её не читает.

#589
(Правка: 14:55) 14:08, 30 янв. 2019

1 frag / 2 deaths
Буковки думаю для ютуба, а в сеть подаются маски по параметрам. Ну типа 300*300 параметров с единицами там где пробка, следующие 300 на 300 с видимостью итд.

пояснения от мамкиного специалиста по машинному обучению
#590
14:22, 30 янв. 2019

entryway
Я так понимаю, искажения от дарков тоже идут в чистом виде в картинку?

#591
14:26, 30 янв. 2019

1 frag / 2 deaths
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-… starcraft-ii/ :

During the matches against TLO and MaNa, AlphaStar interacted with the StarCraft game engine directly via its raw interface, meaning that it could observe the attributes of its own and its opponent’s visible units on the map directly, without having to move the camera - effectively playing with a zoomed out view of the game.
Additionally, and subsequent to the matches, we developed a second version of AlphaStar. Like human players, this version of AlphaStar chooses when and where to move the camera, its perception is restricted to on-screen information, and action locations are restricted to its viewable region.

(впрочем, возможно, интерфейс в этом случае всё-равно сырой, но с фильтром).
#592
14:29, 30 янв. 2019
AlphaStar’s behaviour is generated by a deep neural network that receives input data from the raw game interface (a list of units and their properties), and outputs a sequence of instructions that constitute an action within the game.
#593
14:35, 30 янв. 2019

FordPerfect
> its perception is restricted to on-screen information
Ну, это можно означать, что он отрезает инфу о юнитах, чьи координаты не выходят в экран.

FordPerfect
> AlphaStar’s behaviour is generated by a deep neural network that receives input
> data from the raw game interface (a list of units and their properties), and
> outputs a sequence of instructions that constitute an action within the game.
Спасибо а то я уже начал сомневаться в своём рассудке.

#594
14:40, 30 янв. 2019

Обсуждение с разработчаками:
https://www.reddit.com/r/MachineLearning/comments/ajgzoc/we_are_o… _silver_from/

1 frag / 2 deaths
>> its perception is restricted to on-screen information
> Ну, это можно означать, что он отрезает инфу о юнитах, чьи координаты не выходят в экран.
Ну я ж и говрою: "впрочем, возможно, интерфейс в этом случае всё-равно сырой, но с фильтром".
Ну и это было только в 11-й игре (show-match)

+ Показать
#595
15:02, 30 янв. 2019

  Это какой-то загон дипмайнда что нужно обязательно двигать камеру. У обычных ботов никакой камеры нет, что видно во время реплеев, а получают они всю информацию прямо из API для ботов. Да и какая разница как он управляет камерой, если он всё равно этот экран может тысячу раз в секунду переключать. Он может всю карту просканировать десять раз за это время и везде понаотдавать приказов.
  Так что сканировать экран это явно перебор и трата ресурсов. Ещё помимо возможности видеть искажения от невидимых юнитов у AI должна быть возможность как-то слышать звук. Например встроенного ИИ-эксперта невозможно нормально зафотонить, потому что он запалит первый же поставленный пилон поблизости от своей базы (боты более низкого уровня этого не делают). Я предполагаю, что это делается по звуку.

#596
15:10, 30 янв. 2019

1 frag / 2 deaths
> Я так понимаю, искажения от дарков тоже идут в чистом виде в картинку?
https://www.reddit.com/r/MachineLearning/comments/ajgzoc/we_are_o… from/eevr1ry/

#597
15:29, 30 янв. 2019

Zefick
> Он может всю карту просканировать десять раз за это время и везде понаотдавать
> приказов.
Я пытался в каментах выяснить, что мешает боту это делать, но из-за наплыва идиотов удалось только дойти до предположения, что типа боту дали возможность самому научиться двигать камеру, типа пусть он сам научится протыкивать всю карту.

#598
15:31, 30 янв. 2019

Zefick
>если он всё равно этот экран может тысячу раз в секунду переключать.
Не может. Чтобы переключить экран надо нажать стрелки на клаве или тыкнуть мышкой. А у него APM ограничен

#599
16:00, 30 янв. 2019

Вообще, сравнение не совсем корректное. Точнее, я не могу понять их цель - полностью эмулировать поведение человека, или сделать мощный самообучающийся ИИ. Если первое - то пусть выдают компу мышь и клаву, чтобы тыкал ими и курсор двигал. Чтобы по честному. Если второе - то нафига камеру двигать компу?

И всегда возникает вопрос про дарков, как заметил Тарас.

Страницы: 137 38 39 40 41 42 Следующая »
ФлеймФорумИгры