JP5759164B2 - ゲーム用人工知能 - Google Patents
ゲーム用人工知能 Download PDFInfo
- Publication number
- JP5759164B2 JP5759164B2 JP2010283389A JP2010283389A JP5759164B2 JP 5759164 B2 JP5759164 B2 JP 5759164B2 JP 2010283389 A JP2010283389 A JP 2010283389A JP 2010283389 A JP2010283389 A JP 2010283389A JP 5759164 B2 JP5759164 B2 JP 5759164B2
- Authority
- JP
- Japan
- Prior art keywords
- solution
- fitness score
- new
- state
- mario
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013473 artificial intelligence Methods 0.000 title claims description 36
- 230000033001 locomotion Effects 0.000 claims description 10
- 230000009191 jumping Effects 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 50
- 230000009471 action Effects 0.000 description 24
- 238000000034 method Methods 0.000 description 24
- 241000544061 Cuculus canorus Species 0.000 description 18
- 238000009826 distribution Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 238000013507 mapping Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 12
- 230000035772 mutation Effects 0.000 description 10
- 238000005457 optimization Methods 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 9
- 230000006399 behavior Effects 0.000 description 8
- 239000003795 chemical substances by application Substances 0.000 description 8
- 235000013601 eggs Nutrition 0.000 description 8
- 230000002068 genetic effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000011160 research Methods 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000005653 Brownian motion process Effects 0.000 description 3
- 238000005537 brownian motion Methods 0.000 description 3
- 238000010845 search algorithm Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 235000001674 Agaricus brunnescens Nutrition 0.000 description 1
- 241000272525 Anas platyrhynchos Species 0.000 description 1
- 244000000626 Daucus carota Species 0.000 description 1
- UIIMBOGNXHQVGW-UHFFFAOYSA-M Sodium bicarbonate Chemical compound [Na+].OC([O-])=O UIIMBOGNXHQVGW-UHFFFAOYSA-M 0.000 description 1
- 235000017899 Spathodea campanulata Nutrition 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 235000005770 birds nest Nutrition 0.000 description 1
- 238000003776 cleavage reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011534 incubation Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000007017 scission Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 235000005765 wild carrot Nutrition 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/58—Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
- A63F13/46—Computing the game score
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/67—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Stored Programmes (AREA)
Description
解の表現は,間違いなく最適化アルゴリズムの最も重要な部分であり,解がどのように表現されるかについて,フレームワークにおいては制約がない。上記で説明されているように,本発明による表現は,状態から動作へマッピングすることである。
他の進化アルゴリズムと同様に,解をある予測可能なランダム値に初期化する処理を始める。しかし,ある解の予測可能なスクリーンの小さな集合を訪れるだけならば,すべてを初期化するにはリソースの浪費となるだろう(また,処理しにくいものでもある)。その代わりに,空の解から始めることで,ゆっくりと初期化させる。つまり,AIは,あるレベルを探索する時に,ある適切な値に初期化されたスクリーンを初めて認識することになる。このようにして,無駄のない初期化の特性とする。
カッコウ探索は,自然界の実例を基にした学習アルゴリズムの最も新しいものである。詳細は,[X.−S.Yang,S.Deb,‘Cuckoo search via L´evy flights’, in Proc. World Congress Nature & Biologically Inspired Computing NaBIC 2009,2009,pp. 210−214]で理解され,もしこの研究がなかったら,本明細書の残りの記載に沿って理解できるよう,このアルゴリズムの本質を説明する。これの最もよい例は,グリッドの少し外部にある大砲である。よくあることで,たとえAIが大砲の知識を有していなくても,AIは,大砲が発火するのを待つことになる。
所定の最適化問題について,解は,巣(卵を含んだ)によって表現される。基本的なアルゴリズムは,ランダムな解の初期化を呼び出す。各反復ステップにおいて,2つの操作が実行される。1つ目は,その時評価されるある現在の巣からランダムウォークを実行することにより,新しい巣を生成する。実際上,この巣は現在の最も良い巣である。この新しい巣を維持するかどうかを決定するために,すでに存在するランダムな巣が選択され,そしてそれらの優劣が比較される。より良い巣は維持され,好ましくない巣は,排除される。2つ目は,好ましくない巣は,ある確率pにより取り除き,ランダムな巣に変換する。これは,ある確率pで,最も好ましくない托卵が発見されることに相当する。
上記アルゴリズムの核心部分は,レヴィフライトを使用しなくても(例えば標準的なブラウン運動で)記載され得る。しかしそのようなバージョンは,最適化を考慮していない。レヴィフライトに基づく運動は,裾が低減していくレヴィ分布の性質から,大きな領域をとてもすばやく探索することができる。このことから,所定の解の周りの領域を探査する時,この探索は,ほとんどの場合ローカルに留まることになるが,時折,長い距離を移動することができる。これは,高速で空間を探査する助けとなる。マリオが提供する莫大な探索空間を考慮する時,このようなタイプが適している。レヴィフライトの有用性の詳細は,上記研究で説明されている。
高く評価されるカッコウ探索の1つの明確な特質は,パラメータが少ないことである。遺伝的アルゴリズムのようなアルゴリズムに共通する問題点は,最良の結果を得るために,入念にチューニングしなければならない多くのパラメータが存在することである。Cukoo探索は,個体数を加えた単一のパラメータ,すなわち卵が発見される確率を提供するのみと言うことができる。このパラメータは,レヴィ分布のパラメータを考慮しても,一般的な遺伝的アルゴリズムよりもはるかに少ない。加えて,少なくとも明示的な例の集合では,このパラメータは,どのチューニングにも起こる多くのエラーをほとんど考慮しない。このアルゴリズムをマリオの問題空間に適用する時,この鈍感さが保持されるかどうかは,知られていなかった。パラメータの感度はこの実験の焦点ではないが,かなりの部分が正しいようである。適切な確率が,無関係に.2から.5にわずかに変化したのに対して,個体数は,その結果により,15から30の巣にわずかに変化した。
カッコウ探索の初期の実験において,いくつかの従来の最適化問題を行うことが示された。翌年,[‘Engineering optimization by cuckoo search ‘Int.J.Mathematical Modelling and Numerical Optimisation,vol.1,no.4,pp330−343,May 2010.]などの,いくつかの現実世界の最適化問題の開発の成果がさらに示された。しかし,これらの問題の性質は,すべてが数値探索空間に関するという点で類似している。レヴィフライトは,レヴィ分布の大小の量によって数値を変換させ,概念化するのが容易であるため,このタイプの問題は,特にレヴィフライトに適している。この技術を,マッピングが容易でない領域へ展開させる開発は今までなされていなかった。しかし,考えられる今後の実験の領域として,TSP(巡回セールスマン問題)が示された。
レヴィフライトは,特定の方法で解を変化させることにより機能する。この解が数値の時,レヴィ分布から値を得ることと解を直接変化させることは,単純な処理である。それに比べて,TSPは,連続状態を含むので,レヴィフライトの方法では,一般的に変換させることができない。そこで,数値と連続状態間のマッピングを生成することにより,レヴィ値をTSP問題に適用する直観的な方法を可能にする。さらに,このようなシステムは,この方法により視覚化できるいずれの問題にも適用されることになる。そのような関係の1つとして,連続状態を数値で表現することがある。各状態は,数値のビットに対応している。この連続の大小の変化は,各状態の特定の変更として表現される。TSPは,同様の方法で視覚化できる。(図7参照)
任意の変化を連続状態へ表わす方法を明確に述べていることから,そのような変化をもたらす処理を作り出す必要がある。幸運にも,どの数値も取り込み(おそらくレヴィ分布から),ほとんどいずれにも変化するパラメータとして,その数値を使用する方法が複数ある。例えば,ある方法は,確率として数値を扱うことができる。TSPの各シティは,レヴィ確率pによって,ランダムなシティと交換される。通常,わずかな変化のみの結果なら,確率は低くなる。まれに全体の解が変化することがある。これは必要な振る舞いである。さらに制約される例として,レヴィ分布の数値は,すべての状態数のほんの一部分とみなされる場合がある。そのほんの一部分を使用することにより,最も多い現在の状態数の多くが,ランダムに変化する。これは,初期状態がすでに最適化であるように,つまり,つながりの端が探査の重要部分であるように,解を展開する場合に,特に有用である。ここで留意すべきことは,選択される状態がランダムに変化するように始めているが,これは必ずしも要件ではないことである。多くの最適化問題は,新しい状態を選択するヒューリスティックを利用することが望ましい。
TSPへのアルゴリズムの適用は,マリオへの適用がほぼすぐに理解できるほど,一般的だった。上記,状態表現により,マリオの解でレヴィ変異を生成する上記説明の1つと同様の方法を説明できる必要がある。しかし,TSPで,各状態は理解され,ゴールは,すべての状態を介して,最適なパスを見つけることができた。マリオは,数えきれないほど多くの状態を有している。さらに,状態から状態への遷移を制限する制約の集合は,あまり理解されていない。マリオの問題は,認識できないほどの状態を有し,状態間の遷移は,ほとんど理解されていない。
レヴィ確率が,状態を変化させる必要があることを示す時,TSPでは選択できたような,完全にランダムな状態を選択する方法はない。なぜなら,状態の集合が理解されていないためである。すべての状態が理解されていても,現在の状態へのつながりは,同様に,容易に決定できない。したがって,代わりに,新しい動作がランダムに(ヒューリスティックに)生成される。そのため,レヴィ変異は以下のように適用できる。初めに,レヴィ分布の値を確率として利用し,解となる状態‐動作のペアのいずれかの1つを変化させる。前記確率により,すべての状態‐動作のペアを巡回し,適切に動作を変化させる。興味深いことに,変化した連続状態の位置は,まったく変化していないが,順に続くすべての状態へのリンクは,すぐに,切断される(図8参照)。
今あるものを含めて,進化するAIは,それほどうまくいってはいない。つまり,AIは,ランダムな初期化状態では,とてもゆっくりと収束する。事実,マリオAIのコンペの所定の最少シュミレーション数は,決して合理的な解を導かない。最終結果は,表IIで理解できる。性能は期待外れだが,それは予想通りである。そのような大きな問題空間で,解を見つけだすことは,本質的に不可能であり,コンペにおける所定の制限である。ソフトマックスは,Q学習に利用される手法である。これは,貪欲手段の問題点である,好ましくない状態が最良の1つとして選択される可能性を回避する。ソフトマックス手法は,様々なQ値を基にして,適切な確率を各遷移に割り当てる。ここで使用されるアルゴリズムは,Q学習と異なるが,そのため,新しい状態への遷移の確率の基礎となるQ値は存在しない。けれども,ソフトマックスにより具体化される概念は,十分似通っているため,以下のヒューリスティックを説明するのに利用できる。この実験で使用されるAIは,マリオのレベルのコースをクリアするため,次の状態へ展開する動作を絶えず選択する。これらの選択時,チューニングされたあるヒューリスティックの手法によって,好ましくない動作から好ましい動作になるように変換することで,ソフトマックス手段の本質が理解される。初めに,一般的なヒューリスティックをアルゴリズムに適用することを考察する。次に,マリオを最適化するために選択する特定のヒューリスティックを考察する。
説明したとおり,初期化時にヒューリスティックを適用することは可能であり,レヴィ変異処理の一部分として適用することも可能である。それぞれの場合において,状態を取り込み,遷移動作がこの状態で生成されるように決定する。これは,次の状態が何になるかを決定する。一般的に,小探索空間のアルゴリズムにおいては,これらの決定は,ランダムに生成される。代わりに,確率pによって,ある特定動作は,ある所定のヒューリスティックに従って選択される。別の方法では,ランダム動作が選択されることになる。さらに,オリジナルのソフトマックス手段と異なる点があげられる。つまり,ヒューリスティックは,現在の状態と関係がない。
主要なヒューリスティックの選択は,マリオ2009のコンペの結果を考察して,選択された。マリオ2009のコンペは,A*アルゴリズムが優れていたことのほかに,興味深い結果を提示した。特に,多くの進化アルゴリズムは,マリオAIベンチマークシステムが含まれた単純なエージェントに敗北した。そのエージェントは,ただ,1)前方へ走る,2)ジャンプ,の2つのことをしただけである。これは,多くの進化アルゴリズムが,均等に探索空間を探査していたようなので,道理にかなっている。コンペにおける試みは,ステージの冒頭で,左側に走ろうとすることに秒単位で多くの時間を費やした。対照的に,マリオのゴールは,このレベルの一番の右側のゴールポストに到達することである。すでに,この単純なエージェントは,たとえすべての出来事に全く対処しない場合も,問題空間を効果的に移動している。右に走る基本技術は,マリオAIの基本的なニューラルネットワークであるかのように示された。
表1は,本明細書で示されるカッコウ探索アルゴリズムと遺伝的アルゴリズムの比較を示している。
共に本明細書で説明されるソフトマックスヒューリスティックを使用している。
LDは,困難なレベルを表わしている。Defaultは,パラメータを加えない場合のレベルを表わしている。UGは,地下のレベルを表わしている。HBは,隠された障害物がある場合のレベルである。BOTHは,隠された障害物を含む地下のレベルを表わしている。
本明細書で説明されるAIを,任意に選択されたシードによって生成された,様々なタイプのレベルと困難なレベルの集合で,検証した。また,そのレベルで,ソフトマックスのヒューリスティックの場合とそうでない場合を検証した。さらに,類似エージェントを,同じレベルで進化させるために,一般的な遺伝的アルゴリズムが使用された。ソフトマックスヒューリスティックの結果は,表1により理解することができる。ランダムなヒューリスティックエージェントの結果は,表2に示される。
まず注意することは,従来の仮設とは逆となることであり,遺伝的アルゴリズムは,カッコウ探索と同じように実行される。一般的に,両者は,容易なレベルでは,速く十分に実行する。容易なレベルは,前記単純なエージェントが,どの学習機能も全く利用することなく,解決できる場合なので,予期され得る。
2つのAIの結果は共に,ヒューリスティックを使用していないため,はるかに劣るものになった。これは,アルゴリズムを使用するか否かにかかわらず,問題空間の探索に焦点を当てるソフトマックスのヒューリスティックを使用することで利益を得ることができることを示している。さらに,レヴィによる速いカッコウ探索は,それをさらに発展させる可能性があるが,それは結果に示されていない。その1つの可能性のある理由として,カッコウエージェントは,比較的速い速度で探索しているけれども,探索空間は,とても広いので規則的な探索では基本的に絶えず失敗することになるためである。他の理由は単純であって,カッコウ探索は,より少ないパラメータチューニングを要件とするが,副最適化として,好ましくない行動を導くように,パラメータがチューニングされるためである。それと対照的に,遺伝的アルゴリズムは,平均よりも良くチューニングされた。
すでに述べたように,状態空間を変換させるために,レヴィ分布により生成される値を使用する方法が多数ある。これに関して,異なる選択の探査は,いくつかのレベルにおいて,さえない性能を明らかにするかもしれない。
最も重要なことは,進むことに圧力を掛け続けるヒューリスティックであるが,それほど探査を抑制しなかった。
現在のAIは,訓練されているレベルを唯一確実に行うことができる。これは,現実のゲームシステムだけでなく,コンペのラーニングトラック(Learning Track)でも有用だが,‘マリオをプレイするAI’にとっては重要ではない。そのような進化アルゴリズムが,A*に似たアルゴリズムと競争できるかどうかを考えることは,重要な作業である。
この実験において,スーパーマリオブラザーズを使用して,カッコウ探索アルゴリズムの拡張を説明してきた。さらに,論理的な解に速く収束するようにソフトマックスヒューリスティックを加えた。レヴィフライトとカッコウ探索を利用することは,一般的な遺伝的アルゴリズムに匹敵するほどの機能を有する。しかし,他のアルゴリズムでは,カッコウアルゴリズムの素早い探索能力から得られる利益は,示されなかった。
マリオを動かす進化アルゴリズムとして,レヴィフライトとカッコウ探索を利用することを選択するのは,理にかなっている。
さらに,そのようなアルゴリズムはいずれも,論理空間の探索に焦点を当てるソフトマックスヒューリスティックを使用することが好ましい。
110 マッピング手段
111 解探索手段
112 レヴィフライト手段
113 ソフトマックス手段
Claims (1)
- コンピュータに実行させる,プラットフォームゲームにおけるゴールへの適切な解を計算する人工知能のためのプログラムであって,
前記解は,キャラクターの状態が,当該キャラクターの移動及びジャンプを含む動作によって,当該キャラクターの動作後の状態にリンクされたものであり,
複数の解の候補を設定するステップと,
前記複数の解の候補の中から,初期の解及び新しい解を選択するステップと,
解に含まれるキャラクターの状態の良し悪しに関連する適合度スコアに関し,前記初期の解の前記適合度スコアと前記新しい解の前記適合度スコアを比較するステップと,
現在の解を生成するステップであって,前記初期の解の前記適合度スコアが前記新しい解の前記適合度スコアよりも同じか又は高い場合には前記初期の解を前記現在の解とし,前記新しい解の前記適合度スコアが前記初期の解の前記適合度スコアよりも高い場合には前記新しい解を前記現在の解とするステップと,
前記複数の解の候補の中から他の新しい解を選択するステップと,前記現在の解の前記適合度スコアと前記他の新しい解の前記適合度スコアを比較して,前記現在の解の前記適合度スコアが前記他の新しい解の前記適合度スコアよりも同じか又は高い場合には前記現在の解を新たな現在の解とし,前記他の新しい解の前記適合度スコアが前記現在の解の前記適合度スコアよりも高い場合には前記他の新しい解を新たな現在の解とするステップと,を繰り返すステップと,
前記適合度スコアの比較が行われた解のうち最も悪い前記適合度スコアを有する解を取り除くとともに,前記複数の解の候補に,新たな解の候補を加えるステップとを含む,
プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010283389A JP5759164B2 (ja) | 2010-12-20 | 2010-12-20 | ゲーム用人工知能 |
EP11189030A EP2495021A1 (en) | 2010-12-20 | 2011-11-14 | Artificial intelligence for games |
US13/309,036 US20120157176A1 (en) | 2010-12-20 | 2011-12-01 | Artificial intelligence for games |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010283389A JP5759164B2 (ja) | 2010-12-20 | 2010-12-20 | ゲーム用人工知能 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012130430A JP2012130430A (ja) | 2012-07-12 |
JP5759164B2 true JP5759164B2 (ja) | 2015-08-05 |
Family
ID=45092220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010283389A Active JP5759164B2 (ja) | 2010-12-20 | 2010-12-20 | ゲーム用人工知能 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20120157176A1 (ja) |
EP (1) | EP2495021A1 (ja) |
JP (1) | JP5759164B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104092618A (zh) * | 2014-07-23 | 2014-10-08 | 湖北工业大学 | 一种基于杜鹃搜索算法的对等网络流量特征选择方法 |
US9987559B2 (en) | 2016-05-27 | 2018-06-05 | International Business Machines Corporation | Aggregating and utilizing meta-game data for artificial intelligence in video games |
JP6330008B2 (ja) * | 2016-10-13 | 2018-05-23 | 株式会社 ディー・エヌ・エー | Q学習を用いたニューラルネットワークの重み付け調整のためのプログラム、システム、及び方法 |
CN109213663A (zh) * | 2018-08-06 | 2019-01-15 | 成都安易迅科技有限公司 | 一种手机人工智能算力的测评方法 |
CN109922478B (zh) * | 2019-01-14 | 2021-10-22 | 北京工商大学 | 一种基于改进布谷鸟算法的水质传感器网络优化部署方法 |
CN110263915A (zh) * | 2019-05-31 | 2019-09-20 | 广东工业大学 | 一种基于深度信念网络的风电功率预测方法 |
CN111263369B (zh) * | 2020-02-11 | 2023-05-16 | 北京工商大学 | 一种水质传感器网络覆盖优化方法 |
US20220035640A1 (en) * | 2020-07-28 | 2022-02-03 | Electronic Arts Inc. | Trainable agent for traversing user interface |
CN113457152B (zh) * | 2021-07-22 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 一种游戏阵容生成方法、装置、设备及存储介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6608589B1 (en) * | 1999-04-21 | 2003-08-19 | The Johns Hopkins University | Autonomous satellite navigation system |
JP2001157979A (ja) * | 1999-11-30 | 2001-06-12 | Sony Corp | ロボット装置及びその制御方法 |
JP2002133351A (ja) * | 2000-10-25 | 2002-05-10 | Nec Corp | 最小コスト経路探索装置及びそれに用いる最小コスト経路探索方法 |
GB0407336D0 (en) * | 2004-03-31 | 2004-05-05 | British Telecomm | Pathfinding system |
WO2005096223A2 (en) * | 2004-03-31 | 2005-10-13 | British Telecommunications Public Limited Company | Pathfinding system |
US7765029B2 (en) * | 2005-09-13 | 2010-07-27 | Neurosciences Research Foundation, Inc. | Hybrid control device |
JP4646001B2 (ja) * | 2005-09-15 | 2011-03-09 | 株式会社ソニー・コンピュータエンタテインメント | ゲーム制御プログラム |
AU2007335257C1 (en) * | 2006-12-21 | 2014-03-13 | Pathfinder Events Pty Ltd | Live combat simulation |
US8257173B2 (en) * | 2008-02-05 | 2012-09-04 | Disney Enterprises, Inc. | System and method for driving artificial intelligence (AI) characters having continuous reevaluation of current goals and navigation path |
US8069124B2 (en) * | 2008-03-26 | 2011-11-29 | Intel Corporation | Combining speculative physics modeling with goal-based artificial intelligence |
JP2010068872A (ja) * | 2008-09-16 | 2010-04-02 | Namco Bandai Games Inc | プログラム、情報記憶媒体及びゲーム装置 |
JP4827911B2 (ja) * | 2008-12-02 | 2011-11-30 | 株式会社コナミデジタルエンタテインメント | ゲームシステムおよびゲームプログラム |
-
2010
- 2010-12-20 JP JP2010283389A patent/JP5759164B2/ja active Active
-
2011
- 2011-11-14 EP EP11189030A patent/EP2495021A1/en not_active Withdrawn
- 2011-12-01 US US13/309,036 patent/US20120157176A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP2495021A1 (en) | 2012-09-05 |
US20120157176A1 (en) | 2012-06-21 |
JP2012130430A (ja) | 2012-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5759164B2 (ja) | ゲーム用人工知能 | |
Yang et al. | Hierarchical cooperative multi-agent reinforcement learning with skill discovery | |
Browne et al. | A survey of monte carlo tree search methods | |
US9908051B2 (en) | Techniques for creating dynamic game activities for games | |
JP2013084175A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Barriga et al. | Game tree search based on nondeterministic action scripts in real-time strategy games | |
Lin et al. | Juewu-mc: Playing minecraft with sample-efficient hierarchical reinforcement learning | |
Knegt et al. | Opponent modelling in the game of Tron using reinforcement learning | |
Zhou et al. | Hierarchical control of multi-agent reinforcement learning team in real-time strategy (RTS) games | |
Dharna et al. | Co-generation of game levels and game-playing agents | |
Sheikh et al. | Learning intrinsic symbolic rewards in reinforcement learning | |
Khalifa et al. | Mutation models: Learning to generate levels by imitating evolution | |
Galam et al. | Viral infection genetic algorithm with dynamic infectability for pathfinding in a tower defense game | |
Charity et al. | Amorphous Fortress: Observing Emergent Behavior in Multi-Agent FSMs | |
Olesen et al. | Evolutionary planning in latent space | |
KR100850913B1 (ko) | 게임 캐릭터 형성방법 | |
Chandraprabha et al. | An Empirical View of Genetic Machine Learning based on Evolutionary Learning Computations | |
Nakashima et al. | Designing high-level decision making systems based on fuzzy if–then rules for a point-to-point car racing game | |
Nguyen et al. | Applying Monte-Carlo tree search to collaboratively controlling of a ghost team in Ms Pac-Man | |
Babin et al. | Leveraging Reinforcement Learning and WaveFunctionCollapse for Improved Procedural Level Generation | |
Oh et al. | A hybrid method of Dijkstra algorithm and evolutionary neural network for optimal Ms. Pac-Man agent | |
Cerezo et al. | Solving Atari Games using fractals and entropy | |
Pardo et al. | Goal-oriented trajectories for efficient exploration | |
Togelius et al. | Evolutionary Machine Learning and Games | |
Ba et al. | Monte Carlo Tree Search with variable simulation periods for continuously running tasks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130702 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140805 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150519 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5759164 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |