2019 IEEE Conference on Games (CoG) 2019
DOI: 10.1109/cig.2019.8848080
|View full text |Cite
|
Sign up to set email alerts
|

Action Spaces in Deep Reinforcement Learning to Mimic Human Input Devices

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1

Citation Types

0
1
0
2

Year Published

2021
2021
2022
2022

Publication Types

Select...
3
1

Relationship

0
4

Authors

Journals

citations
Cited by 4 publications
(3 citation statements)
references
References 2 publications
0
1
0
2
Order By: Relevance
“…Jednak nie zostały one szczegółowo opisane, ani nie wskazano zastosowanych algorytmów uczenia. Platforma Unity oraz biblioteka Unity ML-Agents Toolkit posłużyła również do badania skuteczności sposobów definiowania przestrzeni akcji agenta [9]. Wśród narzędzi pozwalających na testowanie algorytmów uczenia ze wzmocnieniem w symulowanych środowiskach, obok Unity, można wyróżnić platformę Arcade Learning Environment [7,[10][11][12][13] oraz OpenAI Gym [14].…”
Section: Wstępunclassified
See 1 more Smart Citation
“…Jednak nie zostały one szczegółowo opisane, ani nie wskazano zastosowanych algorytmów uczenia. Platforma Unity oraz biblioteka Unity ML-Agents Toolkit posłużyła również do badania skuteczności sposobów definiowania przestrzeni akcji agenta [9]. Wśród narzędzi pozwalających na testowanie algorytmów uczenia ze wzmocnieniem w symulowanych środowiskach, obok Unity, można wyróżnić platformę Arcade Learning Environment [7,[10][11][12][13] oraz OpenAI Gym [14].…”
Section: Wstępunclassified
“…Akcje agenta zaimplementowano jako dyskretne, stosując gałęzie akcji (z ang. action branching), które pozwalają uprościć przestrzeń akcji, rozdzielając ją na grupy, z których agent może wybierać wartości jednocześnie [9,15]. Ponadto akcje podejmowane są co 5 kroków środowiska i są one automatycznie powtarzane pomiędzy kolejnymi decyzjami.…”
Section: Projekt śRodowiskaunclassified
“…As stated in the introduction, Jacob et al [3] argued that industry does not need agents build to "beat the game", but rather to produce credible and human-like behaviors. Results such as [11]- [13] are other notable examples of applying DRL to commercial video games, as well as the DeepCrawl work [14], [15], a game environment specicially designed for studying the applicability of DRL in video game production. Within this context, Procedural Content Generation (PCG) has recently gained a lot of attention: works like [16]- [18] have noticed that diverse environment distributions are essential to adequately train and evaluate RL agents for video game production, as these kinds of environments enable generalization of agents when faced with design changes [15].…”
Section: Related Workmentioning
confidence: 99%