JP5759164B2 - ゲーム用人工知能 - Google Patents

ゲーム用人工知能 Download PDF

Info

Publication number
JP5759164B2
JP5759164B2 JP2010283389A JP2010283389A JP5759164B2 JP 5759164 B2 JP5759164 B2 JP 5759164B2 JP 2010283389 A JP2010283389 A JP 2010283389A JP 2010283389 A JP2010283389 A JP 2010283389A JP 5759164 B2 JP5759164 B2 JP 5759164B2
Authority
JP
Japan
Prior art keywords
solution
fitness score
new
state
mario
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010283389A
Other languages
English (en)
Other versions
JP2012130430A (ja
Inventor
アール スピード エレック
アール スピード エレック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2010283389A priority Critical patent/JP5759164B2/ja
Priority to EP11189030A priority patent/EP2495021A1/en
Priority to US13/309,036 priority patent/US20120157176A1/en
Publication of JP2012130430A publication Critical patent/JP2012130430A/ja
Application granted granted Critical
Publication of JP5759164B2 publication Critical patent/JP5759164B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/46Computing the game score
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Stored Programmes (AREA)

Description

本発明は,プラットフォームにおけるゲームの人工知能プログラムに関する。
チェスや囲碁のようなボードゲームをプレイする人工知能(AI)の利用が広く知られている。これらの研究分野は,自ら興味のある問題空間を探査するアクションゲームに似ている。そのため,使用するアルゴリズムは,かなり特定の領域になる傾向があった。同様に,最近のいくつかの論文では,レーシングゲームやパックマン(登録商標)などのゲームが取り上げられているが,同じような問題が指摘されている。これは,他のプラットフォームのゲームのAIでも関心事になるが,研究はほとんど行われていない。
面白いことに,たとえ,スーパーマリオブラザーズ(登録商標)のようなゲームが人気を得ていても,プラットフォームのゲームは,それほどAI研究の目的とされなかった。これは,相互に敵対者の関係にないゲームには,キャラクターとしてのAIが必要がないという事実があることから(非特許文献1参照),AI研究は,どこか他の分野で行われていたことが理由として考えられる。
国際公開WO2009−120601号パンフレットは,‘COMBINING SPECULATIVE PHYSICS MODELING WITH GOAL−BASED ARTIFICIAL INTELLIGENCE’を開示している。この文書は,ゲームに関する目標志向のAI(goal−oriented AI)が開示されており,この文書の図1A及び図1Bには,様々な状態と動きを有するマップが開示されている。
国際公開WO2009−120601号パンフレット
J.Togelius,S.Karakovskiy,J.Koutnik,and J.Schmidhuber,‘Super mario evolution,’in Proc.IEEE Symp.Comptational Intelligence and Games CIG 2009,2009,pp.156−161
本発明の1つの目的は,プラットフォームのゲームに適するゲームAIプログラムを提供することである。
本発明の他の目的は,プラットフォームのゲームにおいて高性能を実現する,ゲームAIプログラムを提供することである。
本発明は,基本的には最近導入された探索アルゴリズムを基にしている。このアルゴリズムは,プラットフォームのゲームの大領域を探索するのに非常に適している。特に,レヴィフライト(Levy Flight)を利用することが適している。しかしながら,レヴィフライトは,プラットフォームのゲームのような非数値問題を適用することができない。そこで,本発明の好ましい態様は,マッピングを使用する。レヴィフライトをマッピングすることで,数値を状態から成る解に任意に変化させる。このようなマッピングを行うことで,状態の集合を含むどのプラットフォームのゲームにも使用できることになる。さらに,プラットフォームのゲーム空間の探索を最適化するために,適した解を有する領域に焦点を当てる,ソフトマックスヒューリスティックが適用される。
本発明の第1の側面は,プラットフォームのゲームAIプログラムに関する。本プログラムは,コンピュータに下記のステップを実行させることができる。本プログラムは,コンピュータに,解を初期化させてもよい。解は,キャラクターの一又は複数の状態を含む。1つの状態は,キャラクターのある動きによって,他の状態とリンクされている。例として,スタート,右に動く,右に動く,ジャンプする,右に動く,そしてファイアの状態である。初期化はランダムに実行されてもよい。つまり,一又は複数の動きは,ランダムに選択されてもよい。そのとき,次の状態は,ある動作によって決定されるため,解は,動作の情報により決定されてもよい。本発明の好ましい態様は,初期化が,アルゴリズム又はソフトマックスのヒューリスティックの手段により実行されることである。
そして,コンピュータは,初期の解と新しい解を選択する。初期の解は,存在しないか,又は上記初期化される解からランダムに選択されてもよい。例えば,初期の解は,スタート,右に動く,右に動く,ジャンプする,右に動く,ファイアである。新しい解は,スタート及びジャンプである。
次に,コンピュータは,初期の解の適合度スコアと新しい解の適合度スコアを比較する。適合度スコアは,周知のエンジン又はアルゴリズムの手段により計算されてもよい。その時,コンピュータは,現在の解を生成する。初期の解の適合度スコアが,新しい解の適合度スコアよりも大きいか又は同じ程度である場合,現在の解は初期の解となる。新しい解の適合度スコアが初期の解のそれよりも大きい場合には,現在の解は新しい解となる。その後,解が選択されなかった比較は,放棄されてもよい。
また,コンピュータは,改訂される現在の解を生成するために,他の新しい解の生成と現在の解の適合度スコアと他の新しい解の適合度スコアの比較を繰り返す。
好ましくない状態が多数ある場合の解は,好ましくない解となるだろうし,確率pでの解は,上記アルゴリズムの反復中に変換されるだろう。好ましくない状態は,キャラクターの死を含んでもよい。コンピュータは,最も悪い適合度スコアを有する解が,所定の確率で,解の候補からランダムに新しく選択される解に変換されるように,解の適合度スコアを比較してもよい。解は,初期の解と生成される解を含んでもよい。このアルゴリズムは,最も好ましい解を維持しながら,好ましくない解を取り除くので,解はより好ましくなる。ランダムな選択は,状態に対応する数値を使用するレヴィフライトアルゴリズムにより実行される。
レヴィ分布は,xの値が大きいと,べき乗則1/(x1+γ)により減少する。ここで,γの値は0と2の間にある。γ=2のときガウス型になるので(ガウス型がλ=2に一致する時),ブラウン運動は,レヴィ運動の極端な例とみなすことができる。ガウス分布に比べると,レヴィ分布は,長距離であっても急速に減少しない。ブラウン運動の場合,各ジャンプは通常小さく,分布の分散であるxは有限である。しかし,レヴィ運動の場合,分布の分散を発散させるため,小さいジャンプは大きいジャンプ又は飛ぶ(flight)に変えられる。つまり,レヴィでのジャンプは,特定の長さの尺度を有しない。したがって,プラットフォームのゲーム空間は非常に巨大なため,レヴィフライトは,プラットフォームのゲームのAIプログラムに適している。
本発明は,プラットフォームのゲームに適するゲームAIプログラムを提供することができる。
本発明は,プラットフォームのゲームで高性能を実現できるゲームAIプログラムを提供することができる。
図1は,本発明の1つの態様に係る,ゲーム装置100の構成の例を示すブロック図である。 図2は,本発明のプログラムが実装されるコンピュータのブロック概念図である。 図3は,概念マップの例である。 図4は,解の概念マップの例である。 図5は,本発明のプログラムを実現させるフローチャートを示している。 図6は,解を表す一組の状態‐動作の集合を示している。 図7は,TSPの解と数値の大小の変化を示している。 図8は,図6に適用できるレヴィ変異の例を示している。
本発明の第1の側面は,ゲームのプログラムに関する。特に,プラットフォームのゲームAIプログラムに関する。本プログラムは,コンピュータに実装されてもよい。コンピュータの例は,Play Station(登録商標),Nintendo DS(登録商標)及びNintendo Wii(登録商標)等がある。本プログラムは,プログラムからの命令に従ってコンピュータに行わせてもよい。
プラットフォームのゲーム(又はプラットフォーマ)は,ビデオゲームのジャンルである。プラットフォームのゲームにおいて,1つ又は複数のキャラクターは,移動し,得点し,1つ又は複数のゴールを探索する。プラットフォームのゲームの例は,スーパーマリオブラザーズ(登録商標)である。
本発明は,プラットフォームのゲーム用のAIプログラムに関する。したがって,コンピュータは,そのようなプラットフォームのゲームのプログラムを実装してもよく,本発明のプログラムは,すでに実装されたプログラムを使用してもよい。つまり,コンピュータは,キャラクター,敵,環境,マップ,動作などを含むプラットフォームのゲームの情報を格納するメモリを含んでもよい。
下記では,図を参照して本発明の1つの態様を説明する。図1は,本発明の1つの態様に係る,ゲーム装置100の構成の例を示すブロック図である。ゲーム装置100は,装置の各構成要素が取り付けられている携帯可能な機器本体10を有している。
機械本体10の表面部は,ディスプレイ50と操作入力部21を有している。ディスプレイ50は,上部の画像表示部51と下部の画像表示部52の複数の画像表示部を有する。操作入力部21は,電源スイッチや十字キーなどの複数のスイッチやキーで構成されている。
機械本体10に配置される回路には,制御部11,RAM12,ハードディスクドライブ(HDD)13,音響処理部14,グラフィックス処理部15,通信インターフェース17,インターフェース部18,フレームメモリ19,及びカードスロット20が含まれる。制御部11,RAM12,HDD13,音響処理部14,グラフィック処理部15,通信インターフェース17,及びインターフェース部18は,それぞれ内部バス22に接続されている。
CPU,ROMなどを含む制御部11は,HDD13又は記録媒体70に格納される制御プログラムに従って,ゲーム装置100全体を制御する。制御装置11は,例えばタイマー割り込みを生成するのに使用される内部タイマーを有する。RAM12もまた,制御部11の作業領域として使用される。
音響処理部14は,音響信号のD/A変換及びA/D変換を行う音響入出力インターフェース機能を有する。また,音響処理部14は,スピーカなどで構成される音響出力装置30に接続されている。音響処理部14は,様々な制御プログラムで処理を実行する制御部11からの出力指示により,音響信号を音響出力装置30に出力する。
グラフィック処理部15は,上部の画像表示部51と下部の画像表示部52を有する表示部50に接続されている。グラフィック処理部15は,制御部11の描画指示により,画像をフレームメモリ19に分配し,上部と下部の画像表示部51,52に画像を表示するビデオ信号を出力する。ビデオ信号により表示される画像の切り替え時間は,例えば1フレーム1/30秒に設定される。
プログラムなどが格納される記録媒体70は,カードスロット20に挿入される。本発明の態様の記録媒体70は,書き込み可能なフラッシュメモリのような半導体メモリである。通信インターフェース17は,無線又は有線により他のゲーム装置100に接続可能であり,また,インターネットのような通信ネットワークにも接続可能である。機械本体10は,通信インターフェース17の通信機能により他のゲーム装置100と通信し合うことが可能である。
操作入力部21,カードスロット20,及びタッチパネル40は,インターフェース部18に接続されている。インターフェース部18は,プレーヤ(ユーザー)の操作を基にした操作入力部21からの指示データ,及びタッチペン41によるタッチパネル40のプレーヤの操作を基にした指示データを,RAM12に格納する。その後,制御部11は,RAM12に格納される指示データにより様々な算術処理を実行する。
タッチパネル40は,上下の画像表示部51,52のどちらか一方又は,両方の表示スクリーン側に積層されている。したがって,制御部11は,タッチパネル40が積層される上下の画像表示部51,52のいずれか一方又は両方の表示スクリーン側での表示タイミングを管理,制御し,タッチペン41などによるタッチパネル40の操作のタイミングと位置座標を管理,制御することにより,プレーヤの入力操作に応じた入力情報を認識する。ディスプレイ50は,上下の画像表示部51,52のような複数の画像表示部を有する代わりに,単一の画像表示部で構成されていてもよい。
インターフェース部18は,制御部11からの指示に従って,RAM12に格納されるゲームの進行を示すデータを,カードスロット20に挿入される記録媒体70に格納し,又は記録媒体70に格納される中断時のゲームデータを読み出し,データをRAM12に転送することなどの処理を実行する。
ゲーム装置100でゲームをプレイする制御プログラム等の様々なデータは,記録媒体70に格納されている。記録媒体70に格納される制御プログラムの等の様々なデータは,記録媒体70が挿入されるカードスロット20から,制御部11により読み出され,RAM12にロードされる。
制御部11は,RAM12にロードされる制御プログラムにしたがって,グラフィックス処理部15に描画指示を出力すること,又は音響処理部14に音響出力指示を出力するような処理を実行する。制御部11が,処理を実行している間に,ゲームの進行に応じて途中で発生するデータは,作業メモリとして使用されるRAM12に格納される。
図2は,本発明のプログラムが実装されるコンピュータのブロック概念図を示す。ゲーム装置100は,マッピング手段110,解探索手段111,レヴィフライト手段112,及びソフトマックス手段113を含む。各手段は,プログラム及びゲーム装置のハードウエアにより実装されてもよい。
コンピュータ(又はゲーム装置)は,状態と動作の関係を示す概念マップを生成してもよい。本発明のプログラムはプラットフォームのゲーム用であるから,ある状態は,ある動作によって,メインキャラクターの他の状態に関係する。マリオのようなメインキャラクターは,標準型プラットフォームのゲームプレーヤによって制御されてもよい。本発明の構成において,メインキャラクター,つまりAIキャラクターの動作は,本発明のアルゴリズムにより計算される。メインキャラクターの1連の動作,つまり,AIキャラクターの1連の状態が,プラットフォームのゲームのゲームAIプログラムの解となる。
図3は,概念マップの例である。図3において,ノードはAIキャラクターの取りえる状態であり,端は,AIキャラクターが行える動作である。動作は,‘J’,‘L’,‘R’でそれぞれ示される,‘ジャンプ(jump)’,‘左に動く(move left)’,‘右に動く(move right)’を含んでもよい。スーパーマリオブラザーズ(登録商標)における動作は,‘F’で示される‘ファイア(fire)’又は‘早く動く(move fast)’,‘D’で示される‘しゃがむ(duck)’をさらに含んでもよい。図3で示されるように,マップは,複数のノードを含んでおり,各ノードは,AIキャラクターの状態を定義する。全ての状態は,動作によって他の状態にリンクされている。本発明のAIアルゴリズムは,ゴールへの最も適する解を計算する。解は,いくつかの動作といくつかの状態を含んでもよい。
例えば,プログラム及びコンピュータのハードウエアにより達成されるマッピング手段110は,マップを生成してもよい。本発明の好ましい態様は,ソフトマックス手段113を使用してもよい。ソフトマックス手段113は,周知のソフトマックスプログラムを含むか又はソフトマックスアルゴリズムを認識できる。ソフトマックスプログラムの詳細は,本明細書の実施例で説明されている。ソフトマックスは,商業的に利用可能であり,ソフトマックススカッシング(squashing)は,例えば,J.S.Bridle著‘Probabilistic interpretation of feed−forward classfication network outputs,with relationship to statistical pattern recognition’,F.Fogelman Soulid and J.Herault,編 Neurocαmputing:Algorithm,Architectures and Applications,pages 227−236,NATO ASI Series で説明されている。
図4は,解の概念マップの例である。マップの各ノードは,解に対応している。円内の‘X’は,例えばAIキャラクターの死などの失敗状態を意味している。円内の‘10’は,得点を意味している。
マッピング手段110は,動作情報を格納するメモリから,状態を読み込んでもよく,メモリから動作を読み込んでもよい。マッピング手段110は,初期状態と読み込んだ動作の情報により,次の状態を計算することができる。ゴールに到達する動作の連続が,解となってもよい。つまり,解は状態の集合であってもよい。
初期の解は,計算される解から,ランダムに選択されてもよい。初期の解が計算された後,例えば,マッピング手段110は,解の候補を計算してもよい。処理の実行において,マッピング手段110は,メモリから1つ又は複数の動作を読み込んで,次の解を計算してもよい。
解探索手段111は,解の候補から新しい解を選び出してもよい。その時,解探索手段111は,初期の解の適合度スコアと新しい解の適合度スコアを比較してもよい。適合度スコアを計算する方法は,当該技術分野ではすでに周知である。例えば,好ましくない状態を含む解は,低いスコアとなってもよい。好ましくない状態の例は,死や失敗である。適合度スコアの他の要因は,ゴールを探索する必要時間であってもよい。もし,ある解が,他の解の時間よりも多くの時間を必要とするならば,その解のスコアは低くなってもよい。適合度スコアを計算する例は,特許文献1に開示されている。解探索手段111は,適合度スコアを計算した後,メモリに解のスコアを格納してもよい。適合度スコアを比較する時,解探索手段111は,格納される適合度スコアをメモリから読み込んでもよく,さらに,そのスコアを比較してもよい。
解探索手段111は,比較の結果に基づく現在の解を決定してもよい。もし,初期の解の適合度スコアが新しい解の適合度スコアと同じか又はそれより高いなら,解探索手段111は,現在の解として初期の解を選択してもよい。逆に,もし,初期の適合度スコアが新しい解の適合度スコアよりも低い場合,解探索手段111は,現在の解として新しい解を選択してもよい。
次に,解探索手段111は他の新しい解を選択する。新しい解と他の新しい解を選択する場合,本発明の好ましい態様は,レヴィフライトの概念を使用してもよい。そのような選択は,レヴィフライトエンジンを使用することにより実行されてもよい。レヴィフライトエンジンは,レヴィフライトアルゴリズムを使用して,解をランダムに選択してもよい。解の選択において,そのエンジンは,数値を解に割り当て,割り当てた数値により解を選択する。解探索手段111は,他の新しい解の生成と適合度スコアを比較するステップを繰り返してもよい。その時,解探索手段111は,改訂される現在の解を決定する。最も低いスコアを有する解は,放棄され,解の候補からランダムに選択される新しく選択された解に,所定の確率で変換される。
上記の説明は,プログラムを基にしている。本発明は,上記プログラムを含む,CD−ROM,DVD,FD,MO,SD−Card,USB,Hard Disc,又はメモリなどのコンピュータの読み込み可能な媒体であってもよい。本発明は,上記プログラムを含むか又は上記ステップを実現できるゲーム装置又はコンピュータであってもよい。
図5は,本発明のプログラムを達成させる例を示すフローチャートである。図5で示されるように,プラットフォームのゲームにおける解の決定方法は,解を初期化するステップ(S101),初期の解と新しい解を選択するステップ(S102),第1の適合度スコアを比較するステップ(S103),現在の解を生成するステップ(S104),他の新しい解の生成と適合度スコアの比較を繰り返すステップ(S105),及び状態を変換するステップ(S106)を含む。この方法は,選択されなかった解を放棄するステップと最も低い適合度スコアを有する解を変換するステップとを,さらに含んでもよい。
解を初期化するステップ(S101)において,コンピュータは,図4に示されるような,キャラクターの1つ又は複数の状態を含むそれぞれの解を計算する。
初期の解と新しい解を選択するステップ(S102)において,コンピュータは,初期の解と新しい解を選択してもよい。これらの解は2つとも,初期化された解から選択されてもよい。初期の解はなくてもよい。この場合,新しい解は現在の解として選択されてもよい。コンピュータは,初期の解と新しい解の適合度スコアを算出してもよい。
第1の適合度スコアを比較するステップ(S103)において,コンピュータは,初期の解の適合度スコアと新しい解の適合度スコアを比較する。適合度スコアは,従来のエンジン手段により計算され,コンピュータのメモリに格納されてもよい。適合度スコアは,比較を行うため,メモリから読み出されてもよい。
現在の解を生成するステップ(S104)において,コンピュータは,現在の解を生成する。高いスコアを有する状態が,現在の解となる。
他の新しい解の生成と適合度スコアの比較を繰り返すステップ(S105)において,コンピュータは,改訂される現在の解を生成するために,他の新しい解を生成するステップ及び現在の解の適合度スコアと他の新しい解の適合度スコアを比較するステップを繰り返す。
状態を変換するステップ(S106)において,コンピュータは,初期の解と生成される解を含む解の適合度スコアを比較する。そのため,最も低いスコアを有する解は,候補の解からランダムに選択される新しく選択された解に,所定の確率で変換される。ステップ106は,ステップ105のそれぞれの終わりに実行されてもよく,さらに,低い適合度スコアを有する状態は,他の状態にランダムに変換されてもよい。選択は,レヴィフライトエンジンにより制御されていてもよい。
スーパーマリオブラザーズ(登録商標)に夢中になって成長した世代の人々にとって,そのゲームは,プラットフォームのジャンルそのものである。ゴールと基本的な操作は単純だけれども,そのゲームは,様々な罠を解決し,キノコ王国の宝物を求めて夢中になることで,数えきれない娯楽の時間を与えてくれた。
そこで,以下の実施例は,スーパーマリオブラザーズ(登録商標)を基に説明する。しかし,本発明は,スーパーマリオブラザーズ(登録商標)におけるAIアルゴリズムに限定されるものではない。
最近の研究は,以前の研究の様々な分野を基にしている。最も近い例は,スーパーマリオブラザーズ(登録商標)をプレイすることを目的としてAIを探求する研究である。少し遠い例としては,他のゲーム,特に進化的なものをプレイすることが意図されているAIである。
本来的には,ある瞬間におけるマリオの状態は,マリオAIのベンチマークによって完全に決定されるものである。しかし,AIを実装する時,選択アルゴリズムで表わされる状態が,どのくらいでどのような局面なのかにおいて,多数の選択肢がある。既定値では,マリオAIのベンチマークは,マリオスプライトの中心に置かれた22×22個のグリッドタイルを有する。
上記のグリッドは例であり,異なってもよい。
すべてのグリッドセルは,それぞれの位置で存在するあらゆる関係の情報を含んでいる。グリッドに含まれる情報の例は,敵,地面,ブロック,パワーアップ,そしてマリオ自身である。この情報は,状態が良い時を表わしているけれども,問題空間においてより細かな様子を提供する2つの付加的要素を取り入れる。1つ目は,いずれかの特定グリッドが観測される時のレベルをクリアするための残り時間であり,2つ目は,グリッドが観測される時のマリオが向く方向である。したがって,すべての状態の表現は,時間と方向が追加されるグリッドのスクリーン情報から成る。
解の表現
解の表現は,間違いなく最適化アルゴリズムの最も重要な部分であり,解がどのように表現されるかについて,フレームワークにおいては制約がない。上記で説明されているように,本発明による表現は,状態から動作へマッピングすることである。
スーパーマリオブラザーズの動作空間は,組み合わせ可能な,1)左に動く,2)右に動く,3)しゃがむ,4)ファイアボール(fireball)/速く動く,から成る。解の表現は,状態間の明示的なリンクのすべてを含んでいるが,単一レベルの確定性により形成される黙示的なつながりも存在する。もし,マリオが状態‘a’で動作‘x’を行う場合,マリオは,通常,状態‘a´’に移るだろう。この表現の形式は,この形式でのアルゴリズムは,AIが,実施中である現在のレベル以外には存在しない黙示的なつながりに依存することを,一般化しない1つの理由である。これらの状態‐動作のペアの集合が,解を表現する(図6参照)。
図6において,マリオの状態の任意の集まりが,円で表わされている。円の下にある文字は,それぞれの状態に関連する動作を表わしている。この文字は,上記記載された動作の始めの文字に対応している。状態間の点線は,マリオが状態間を移動するときにのみ,状態間に形成される黙示的なつながりを表わしている。また,つながりは,解を導き出すことを示している。状態‘X’は,死を意味している。
解の初期化
他の進化アルゴリズムと同様に,解をある予測可能なランダム値に初期化する処理を始める。しかし,ある解の予測可能なスクリーンの小さな集合を訪れるだけならば,すべてを初期化するにはリソースの浪費となるだろう(また,処理しにくいものでもある)。その代わりに,空の解から始めることで,ゆっくりと初期化させる。つまり,AIは,あるレベルを探索する時に,ある適切な値に初期化されたスクリーンを初めて認識することになる。このようにして,無駄のない初期化の特性とする。
カッコウ探索(Cuckoo search)
カッコウ探索は,自然界の実例を基にした学習アルゴリズムの最も新しいものである。詳細は,[X.−S.Yang,S.Deb,‘Cuckoo search via L´evy flights’, in Proc. World Congress Nature & Biologically Inspired Computing NaBIC 2009,2009,pp. 210−214]で理解され,もしこの研究がなかったら,本明細書の残りの記載に沿って理解できるよう,このアルゴリズムの本質を説明する。これの最もよい例は,グリッドの少し外部にある大砲である。よくあることで,たとえAIが大砲の知識を有していなくても,AIは,大砲が発火するのを待つことになる。
このアルゴリズムは,托卵の方法で他の鳥の巣に卵を産む,ある種のカッコウの動作を基にしている。もし,托卵の特性が十分に発達していたなら,その卵は生き残り,卵が孵化することでその巣を乗っ取ることになる。さもなければ,卵は,巣の里親に排除されることになる。もっともよく托卵を進化させる処理は,カッコウ探索の本質である。
アルゴリズムの説明
所定の最適化問題について,解は,巣(卵を含んだ)によって表現される。基本的なアルゴリズムは,ランダムな解の初期化を呼び出す。各反復ステップにおいて,2つの操作が実行される。1つ目は,その時評価されるある現在の巣からランダムウォークを実行することにより,新しい巣を生成する。実際上,この巣は現在の最も良い巣である。この新しい巣を維持するかどうかを決定するために,すでに存在するランダムな巣が選択され,そしてそれらの優劣が比較される。より良い巣は維持され,好ましくない巣は,排除される。2つ目は,好ましくない巣は,ある確率pにより取り除き,ランダムな巣に変換する。これは,ある確率pで,最も好ましくない托卵が発見されることに相当する。
レヴィフライト(Levy Flight)
上記アルゴリズムの核心部分は,レヴィフライトを使用しなくても(例えば標準的なブラウン運動で)記載され得る。しかしそのようなバージョンは,最適化を考慮していない。レヴィフライトに基づく運動は,裾が低減していくレヴィ分布の性質から,大きな領域をとてもすばやく探索することができる。このことから,所定の解の周りの領域を探査する時,この探索は,ほとんどの場合ローカルに留まることになるが,時折,長い距離を移動することができる。これは,高速で空間を探査する助けとなる。マリオが提供する莫大な探索空間を考慮する時,このようなタイプが適している。レヴィフライトの有用性の詳細は,上記研究で説明されている。
パラメータチューニング
高く評価されるカッコウ探索の1つの明確な特質は,パラメータが少ないことである。遺伝的アルゴリズムのようなアルゴリズムに共通する問題点は,最良の結果を得るために,入念にチューニングしなければならない多くのパラメータが存在することである。Cukoo探索は,個体数を加えた単一のパラメータ,すなわち卵が発見される確率を提供するのみと言うことができる。このパラメータは,レヴィ分布のパラメータを考慮しても,一般的な遺伝的アルゴリズムよりもはるかに少ない。加えて,少なくとも明示的な例の集合では,このパラメータは,どのチューニングにも起こる多くのエラーをほとんど考慮しない。このアルゴリズムをマリオの問題空間に適用する時,この鈍感さが保持されるかどうかは,知られていなかった。パラメータの感度はこの実験の焦点ではないが,かなりの部分が正しいようである。適切な確率が,無関係に.2から.5にわずかに変化したのに対して,個体数は,その結果により,15から30の巣にわずかに変化した。
レヴィフライトとカッコウ探索のマリオへの応用
カッコウ探索の初期の実験において,いくつかの従来の最適化問題を行うことが示された。翌年,[‘Engineering optimization by cuckoo search ‘Int.J.Mathematical Modelling and Numerical Optimisation,vol.1,no.4,pp330−343,May 2010.]などの,いくつかの現実世界の最適化問題の開発の成果がさらに示された。しかし,これらの問題の性質は,すべてが数値探索空間に関するという点で類似している。レヴィフライトは,レヴィ分布の大小の量によって数値を変換させ,概念化するのが容易であるため,このタイプの問題は,特にレヴィフライトに適している。この技術を,マッピングが容易でない領域へ展開させる開発は今までなされていなかった。しかし,考えられる今後の実験の領域として,TSP(巡回セールスマン問題)が示された。
マリオのようなTSPは,ある制約のもとに,異なる状態の連続性を最適化する試みを表わしている。TSPにおいて,各状態は,シティであり,ゴールは,各シティを1度訪れる場合の最も短いパスを最適化することである。マリオの場合,状態は,上記の状態であり,ゴールは,マリオがそのレベルの最後に向かって移動する距離を最短にすることである。
レヴィ分布による解を基にした状態の問題についても,同様の変換を適用する方法を提案する。その方法を初めに単純TSPに適用し,その後,マリオの領域にすべて拡張する(状況は似ているが)。
状態と数値間のギャップの橋渡し
レヴィフライトは,特定の方法で解を変化させることにより機能する。この解が数値の時,レヴィ分布から値を得ることと解を直接変化させることは,単純な処理である。それに比べて,TSPは,連続状態を含むので,レヴィフライトの方法では,一般的に変換させることができない。そこで,数値と連続状態間のマッピングを生成することにより,レヴィ値をTSP問題に適用する直観的な方法を可能にする。さらに,このようなシステムは,この方法により視覚化できるいずれの問題にも適用されることになる。そのような関係の1つとして,連続状態を数値で表現することがある。各状態は,数値のビットに対応している。この連続の大小の変化は,各状態の特定の変更として表現される。TSPは,同様の方法で視覚化できる。(図7参照)
図7は,TSPの解と数値の大小の変化を示している。数値と解は共に,連続状態を表わしている。数値に関して,変化の大きさは,状態を変更するために,状態を符号化するビットの重要度に,大抵,依存する。TSPの解において,状態変化の頻度は,最も重要である。
ここで留意すべきことは,‘大’と‘小’の概念は,異なる2つの例によって別々に表わされていることである。問題の多くは,領域特有の方法により,そのような大きさの相異を表現することになるだろう。この関係は,TSPの解を変化させるゴールを明確に示している。しかし,さらに加えると,必要な変化を生成する数値によって,ある方法が創り出される必要がある。
変化の際の数値の改変
任意の変化を連続状態へ表わす方法を明確に述べていることから,そのような変化をもたらす処理を作り出す必要がある。幸運にも,どの数値も取り込み(おそらくレヴィ分布から),ほとんどいずれにも変化するパラメータとして,その数値を使用する方法が複数ある。例えば,ある方法は,確率として数値を扱うことができる。TSPの各シティは,レヴィ確率pによって,ランダムなシティと交換される。通常,わずかな変化のみの結果なら,確率は低くなる。まれに全体の解が変化することがある。これは必要な振る舞いである。さらに制約される例として,レヴィ分布の数値は,すべての状態数のほんの一部分とみなされる場合がある。そのほんの一部分を使用することにより,最も多い現在の状態数の多くが,ランダムに変化する。これは,初期状態がすでに最適化であるように,つまり,つながりの端が探査の重要部分であるように,解を展開する場合に,特に有用である。ここで留意すべきことは,選択される状態がランダムに変化するように始めているが,これは必ずしも要件ではないことである。多くの最適化問題は,新しい状態を選択するヒューリスティックを利用することが望ましい。
マリオのTSP
TSPへのアルゴリズムの適用は,マリオへの適用がほぼすぐに理解できるほど,一般的だった。上記,状態表現により,マリオの解でレヴィ変異を生成する上記説明の1つと同様の方法を説明できる必要がある。しかし,TSPで,各状態は理解され,ゴールは,すべての状態を介して,最適なパスを見つけることができた。マリオは,数えきれないほど多くの状態を有している。さらに,状態から状態への遷移を制限する制約の集合は,あまり理解されていない。マリオの問題は,認識できないほどの状態を有し,状態間の遷移は,ほとんど理解されていない。
しかし,前記段落に示されるように,解を作り上げる状態と遷移の小さな部分集合については,容易に推論できる。すべての状態は,次の状態に至る動作に関連している。レヴィ分布によりこれらの連続状態は変換される。
レヴィ変異の適用
レヴィ確率が,状態を変化させる必要があることを示す時,TSPでは選択できたような,完全にランダムな状態を選択する方法はない。なぜなら,状態の集合が理解されていないためである。すべての状態が理解されていても,現在の状態へのつながりは,同様に,容易に決定できない。したがって,代わりに,新しい動作がランダムに(ヒューリスティックに)生成される。そのため,レヴィ変異は以下のように適用できる。初めに,レヴィ分布の値を確率として利用し,解となる状態‐動作のペアのいずれかの1つを変化させる。前記確率により,すべての状態‐動作のペアを巡回し,適切に動作を変化させる。興味深いことに,変化した連続状態の位置は,まったく変化していないが,順に続くすべての状態へのリンクは,すぐに,切断される(図8参照)。
図8は,図6に適用可能なレヴィ変異の例を示している。切断されるリンクは黒の矩形で示されている。古い動作から新しい動作へ矢印が示されている。ここで留意すべきことは,初めの変異は,次の状態との関連性を取り除いたにもかかわらず,もう1つまた変異されていたことである。これは,将来の変異が,それを連続状態に戻す場合,これは役割を果たすことになる。
これは,変異が,TSPで見られた切断よりもさらに多くの切断となることを意味している。加えて,図7の数値の例のように,変化の大きさは,ほぼ,変化する状態の位置に依存する(初期の連続状態は最も影響が大きい)。
ソフトマックス(SOFTMAX)による探索空間の絞り込み
今あるものを含めて,進化するAIは,それほどうまくいってはいない。つまり,AIは,ランダムな初期化状態では,とてもゆっくりと収束する。事実,マリオAIのコンペの所定の最少シュミレーション数は,決して合理的な解を導かない。最終結果は,表IIで理解できる。性能は期待外れだが,それは予想通りである。そのような大きな問題空間で,解を見つけだすことは,本質的に不可能であり,コンペにおける所定の制限である。ソフトマックスは,Q学習に利用される手法である。これは,貪欲手段の問題点である,好ましくない状態が最良の1つとして選択される可能性を回避する。ソフトマックス手法は,様々なQ値を基にして,適切な確率を各遷移に割り当てる。ここで使用されるアルゴリズムは,Q学習と異なるが,そのため,新しい状態への遷移の確率の基礎となるQ値は存在しない。けれども,ソフトマックスにより具体化される概念は,十分似通っているため,以下のヒューリスティックを説明するのに利用できる。この実験で使用されるAIは,マリオのレベルのコースをクリアするため,次の状態へ展開する動作を絶えず選択する。これらの選択時,チューニングされたあるヒューリスティックの手法によって,好ましくない動作から好ましい動作になるように変換することで,ソフトマックス手段の本質が理解される。初めに,一般的なヒューリスティックをアルゴリズムに適用することを考察する。次に,マリオを最適化するために選択する特定のヒューリスティックを考察する。
ヒューリスティックの適用
説明したとおり,初期化時にヒューリスティックを適用することは可能であり,レヴィ変異処理の一部分として適用することも可能である。それぞれの場合において,状態を取り込み,遷移動作がこの状態で生成されるように決定する。これは,次の状態が何になるかを決定する。一般的に,小探索空間のアルゴリズムにおいては,これらの決定は,ランダムに生成される。代わりに,確率pによって,ある特定動作は,ある所定のヒューリスティックに従って選択される。別の方法では,ランダム動作が選択されることになる。さらに,オリジナルのソフトマックス手段と異なる点があげられる。つまり,ヒューリスティックは,現在の状態と関係がない。
現在の状態がたとえどんなであっても,確率は,本実験においては同じままである。状況固有の確率は推測できても,同時に,システムによってハードコードされた規則に対応することにより,すべての付加的確率はアルゴリズムをさらに複雑にする。
ヒューリスティックの選択
主要なヒューリスティックの選択は,マリオ2009のコンペの結果を考察して,選択された。マリオ2009のコンペは,Aアルゴリズムが優れていたことのほかに,興味深い結果を提示した。特に,多くの進化アルゴリズムは,マリオAIベンチマークシステムが含まれた単純なエージェントに敗北した。そのエージェントは,ただ,1)前方へ走る,2)ジャンプ,の2つのことをしただけである。これは,多くの進化アルゴリズムが,均等に探索空間を探査していたようなので,道理にかなっている。コンペにおける試みは,ステージの冒頭で,左側に走ろうとすることに秒単位で多くの時間を費やした。対照的に,マリオのゴールは,このレベルの一番の右側のゴールポストに到達することである。すでに,この単純なエージェントは,たとえすべての出来事に全く対処しない場合も,問題空間を効果的に移動している。右に走る基本技術は,マリオAIの基本的なニューラルネットワークであるかのように示された。
初めに,ヒューリスティックは単純であって,確率pで前方へ走ったり,ジャンプさせる。別の方法では,ランダムに動作が選択される。ただ,この変化は,1番初めの平凡なレベルを通過することが,一見不可能なタスクとなった。p値は,重要であるが,鈍感なパラメータ(insensitive parameter)である。実験では,.6は低すぎたため,コンペでの収束は遅すぎたことが明らかになった。これに対して,.9以上では,AIは素早く収束され,局所最適化に行き詰った。しかし,たとえそれが,動作空間の大部分であっても,このひたむきなヒューリスティックは,プレーヤがプレイするためのものではない。マリオの困難なステージを探査するということは,ときどきマリオは左に進むことが必要であるということがわかった。特に,隠された障害物が,そのレベルをクリアするのに必要な状況の場合,マリオはおそらくその場所を通り過ぎ,行き詰ることになる。もちろん,十分な時間があれば,確率要素は,マリオを正しいパスに導くだろうが,その速度は,今まで観測されたことがないほどゆっくりである。人間のプレーヤであれば,問題を理解して,すでに探査した空間を再度探査するために左に移動することになるだろう。
ある解は,行き詰りに気づき,隠された障害物などを探す為に引き返すように,特定のコードを加えることになる。この解は,公正であって,そのような学習技術の組み合わせやハンドコードアルゴリズムを,成功させることは可能である。しかし,この実験において,望まれる振る舞いを導くヒューリスティックが存在するかどうかを見つけだすのは,とても重要であった。従来のヒューリスティックは,明白な論理により左に移動させるヒューリスティックに置き換えられない。したがって,解は単純であって,ある確率p´により左側を探査させる複合的なヒューリスティックを生成する。最後に,ヒューリスティックは,1)確率pにより先へ進む,ジャンプする,2)確率p´により,左に進む,ジャンプする,3)別のやり方では,ランダムに動作を選択する,こととなる。この場合でのヒューリスティックの値は,互いに依存する。その前に,確率pを相当値に変化させるが,この実験例では,pが.6よりも.9に近づくことを示している。p´は,レベルに応じて,.6と.8の間を変化することができる。pが,前よりも高い値になる必要があるのは,その時に付加される左への移動が,レベルをクリアする一般的な進路を妨害するからである。これに対抗するために,常に,良い解を考慮しながら右に移動させる。
[表1]
Figure 0005759164
表1は,本明細書で示されるカッコウ探索アルゴリズムと遺伝的アルゴリズムの比較を示している。
共に本明細書で説明されるソフトマックスヒューリスティックを使用している。
LDは,困難なレベルを表わしている。Defaultは,パラメータを加えない場合のレベルを表わしている。UGは,地下のレベルを表わしている。HBは,隠された障害物がある場合のレベルである。BOTHは,隠された障害物を含む地下のレベルを表わしている。
結果
本明細書で説明されるAIを,任意に選択されたシードによって生成された,様々なタイプのレベルと困難なレベルの集合で,検証した。また,そのレベルで,ソフトマックスのヒューリスティックの場合とそうでない場合を検証した。さらに,類似エージェントを,同じレベルで進化させるために,一般的な遺伝的アルゴリズムが使用された。ソフトマックスヒューリスティックの結果は,表1により理解することができる。ランダムなヒューリスティックエージェントの結果は,表2に示される。
ソフトマックスの結果
まず注意することは,従来の仮設とは逆となることであり,遺伝的アルゴリズムは,カッコウ探索と同じように実行される。一般的に,両者は,容易なレベルでは,速く十分に実行する。容易なレベルは,前記単純なエージェントが,どの学習機能も全く利用することなく,解決できる場合なので,予期され得る。
困難なレベルにおいては,以下の2つのことが起こりえる。1)手に負えないレベルの場合,両者のボット(bots)はたいていすぐに,平凡な答えに収束する。2)実行できるレベルの場合,両者は,解(ひょっとすると最適ではない)に収束するか,又は一方は他方よりもわずかに良い解となる。2つのアルゴリズムの違いを考えれば,ヒューリスティックを利用することで,振る舞いを莫大な量にさせることは確かであると思われる。この場合,考えられるレヴィ分布の速い探索能力は,カッコウエージェントによって,扱いにくい領域を,遺伝的アルゴリズムよりも速い速度で,解決するだろうという見込みがあった。しかしここでは現れなかった。
[表2]
Figure 0005759164
表2は,ソフトマックスヒューリスティックを適用しない場合の,表1と同じ比較を示している。つまり,解はランダムに初期化される。
ランダムの結果
2つのAIの結果は共に,ヒューリスティックを使用していないため,はるかに劣るものになった。これは,アルゴリズムを使用するか否かにかかわらず,問題空間の探索に焦点を当てるソフトマックスのヒューリスティックを使用することで利益を得ることができることを示している。さらに,レヴィによる速いカッコウ探索は,それをさらに発展させる可能性があるが,それは結果に示されていない。その1つの可能性のある理由として,カッコウエージェントは,比較的速い速度で探索しているけれども,探索空間は,とても広いので規則的な探索では基本的に絶えず失敗することになるためである。他の理由は単純であって,カッコウ探索は,より少ないパラメータチューニングを要件とするが,副最適化として,好ましくない行動を導くように,パラメータがチューニングされるためである。それと対照的に,遺伝的アルゴリズムは,平均よりも良くチューニングされた。
マリオAIの領域は,極端に開かれており,本実験では,明確に‘解決’しなかった。本実験から拡張されるいくつかを記載する。
レヴィ変異の考察
すでに述べたように,状態空間を変換させるために,レヴィ分布により生成される値を使用する方法が多数ある。これに関して,異なる選択の探査は,いくつかのレベルにおいて,さえない性能を明らかにするかもしれない。
最適なヒューリスティックの発見
最も重要なことは,進むことに圧力を掛け続けるヒューリスティックであるが,それほど探査を抑制しなかった。
AIの一般化
現在のAIは,訓練されているレベルを唯一確実に行うことができる。これは,現実のゲームシステムだけでなく,コンペのラーニングトラック(Learning Track)でも有用だが,‘マリオをプレイするAI’にとっては重要ではない。そのような進化アルゴリズムが,Aに似たアルゴリズムと競争できるかどうかを考えることは,重要な作業である。
結論
この実験において,スーパーマリオブラザーズを使用して,カッコウ探索アルゴリズムの拡張を説明してきた。さらに,論理的な解に速く収束するようにソフトマックスヒューリスティックを加えた。レヴィフライトとカッコウ探索を利用することは,一般的な遺伝的アルゴリズムに匹敵するほどの機能を有する。しかし,他のアルゴリズムでは,カッコウアルゴリズムの素早い探索能力から得られる利益は,示されなかった。
ソフトマックスヒューリスティックの使用は,困難なレベルを規則的にクリアさせるので,AI手法の性能に劇的な効果があった。
マリオを動かす進化アルゴリズムとして,レヴィフライトとカッコウ探索を利用することを選択するのは,理にかなっている。
さらに,そのようなアルゴリズムはいずれも,論理空間の探索に焦点を当てるソフトマックスヒューリスティックを使用することが好ましい。
100 ゲーム装置
110 マッピング手段
111 解探索手段
112 レヴィフライト手段
113 ソフトマックス手段



Claims (1)

  1. コンピュータに実行させる,プラットフォームゲームにおけるゴールへの適切な解を計算する人工知能のためのプログラムであって,
    前記解は,キャラクターの状態が,当該キャラクターの移動及びジャンプを含む動作によって,当該キャラクターの動作後の状態にリンクされたものであり,
    複数の解の候補を設定するステップと,
    前記複数の解の候補の中から,初期の解及び新しい解を選択するステップと,
    解に含まれるキャラクターの状態の良し悪しに関連する適合度スコアに関し,前記初期の解の前記適合度スコアと前記新しい解の前記適合度スコアを比較するステップと,
    現在の解を生成するステップであって,前記初期の解の前記適合度スコアが前記新しい解の前記適合度スコアよりも同じか又は高い場合には前記初期の解を前記現在の解とし,前記新しい解の前記適合度スコアが前記初期の解の前記適合度スコアよりも高い場合には前記新しい解を前記現在の解とするステップと,
    前記複数の解の候補の中から他の新しい解を選択するステップと,前記現在の解の前記適合度スコアと前記他の新しい解の前記適合度スコアを比較して,前記現在の解の前記適合度スコアが前記他の新しい解の前記適合度スコアよりも同じか又は高い場合には前記現在の解を新たな現在の解とし,前記他の新しい解の前記適合度スコアが前記現在の解の前記適合度スコアよりも高い場合には前記他の新しい解を新たな現在の解とするステップと,を繰り返すステップと,
    前記適合度スコアの比較が行われた解のうち最も悪い前記適合度スコアを有する解を取り除くとともに,前記複数の解の候補に,新たな解の候補を加えるステップとを含む,
    プログラム。
JP2010283389A 2010-12-20 2010-12-20 ゲーム用人工知能 Active JP5759164B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010283389A JP5759164B2 (ja) 2010-12-20 2010-12-20 ゲーム用人工知能
EP11189030A EP2495021A1 (en) 2010-12-20 2011-11-14 Artificial intelligence for games
US13/309,036 US20120157176A1 (en) 2010-12-20 2011-12-01 Artificial intelligence for games

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010283389A JP5759164B2 (ja) 2010-12-20 2010-12-20 ゲーム用人工知能

Publications (2)

Publication Number Publication Date
JP2012130430A JP2012130430A (ja) 2012-07-12
JP5759164B2 true JP5759164B2 (ja) 2015-08-05

Family

ID=45092220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010283389A Active JP5759164B2 (ja) 2010-12-20 2010-12-20 ゲーム用人工知能

Country Status (3)

Country Link
US (1) US20120157176A1 (ja)
EP (1) EP2495021A1 (ja)
JP (1) JP5759164B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104092618A (zh) * 2014-07-23 2014-10-08 湖北工业大学 一种基于杜鹃搜索算法的对等网络流量特征选择方法
US9987559B2 (en) 2016-05-27 2018-06-05 International Business Machines Corporation Aggregating and utilizing meta-game data for artificial intelligence in video games
JP6330008B2 (ja) * 2016-10-13 2018-05-23 株式会社 ディー・エヌ・エー Q学習を用いたニューラルネットワークの重み付け調整のためのプログラム、システム、及び方法
CN109213663A (zh) * 2018-08-06 2019-01-15 成都安易迅科技有限公司 一种手机人工智能算力的测评方法
CN109922478B (zh) * 2019-01-14 2021-10-22 北京工商大学 一种基于改进布谷鸟算法的水质传感器网络优化部署方法
CN110263915A (zh) * 2019-05-31 2019-09-20 广东工业大学 一种基于深度信念网络的风电功率预测方法
CN111263369B (zh) * 2020-02-11 2023-05-16 北京工商大学 一种水质传感器网络覆盖优化方法
US20220035640A1 (en) * 2020-07-28 2022-02-03 Electronic Arts Inc. Trainable agent for traversing user interface
CN113457152B (zh) * 2021-07-22 2023-11-03 腾讯科技(深圳)有限公司 一种游戏阵容生成方法、装置、设备及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6608589B1 (en) * 1999-04-21 2003-08-19 The Johns Hopkins University Autonomous satellite navigation system
JP2001157979A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット装置及びその制御方法
JP2002133351A (ja) * 2000-10-25 2002-05-10 Nec Corp 最小コスト経路探索装置及びそれに用いる最小コスト経路探索方法
GB0407336D0 (en) * 2004-03-31 2004-05-05 British Telecomm Pathfinding system
WO2005096223A2 (en) * 2004-03-31 2005-10-13 British Telecommunications Public Limited Company Pathfinding system
US7765029B2 (en) * 2005-09-13 2010-07-27 Neurosciences Research Foundation, Inc. Hybrid control device
JP4646001B2 (ja) * 2005-09-15 2011-03-09 株式会社ソニー・コンピュータエンタテインメント ゲーム制御プログラム
AU2007335257C1 (en) * 2006-12-21 2014-03-13 Pathfinder Events Pty Ltd Live combat simulation
US8257173B2 (en) * 2008-02-05 2012-09-04 Disney Enterprises, Inc. System and method for driving artificial intelligence (AI) characters having continuous reevaluation of current goals and navigation path
US8069124B2 (en) * 2008-03-26 2011-11-29 Intel Corporation Combining speculative physics modeling with goal-based artificial intelligence
JP2010068872A (ja) * 2008-09-16 2010-04-02 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
JP4827911B2 (ja) * 2008-12-02 2011-11-30 株式会社コナミデジタルエンタテインメント ゲームシステムおよびゲームプログラム

Also Published As

Publication number Publication date
EP2495021A1 (en) 2012-09-05
US20120157176A1 (en) 2012-06-21
JP2012130430A (ja) 2012-07-12

Similar Documents

Publication Publication Date Title
JP5759164B2 (ja) ゲーム用人工知能
Yang et al. Hierarchical cooperative multi-agent reinforcement learning with skill discovery
Browne et al. A survey of monte carlo tree search methods
US9908051B2 (en) Techniques for creating dynamic game activities for games
JP2013084175A (ja) 情報処理装置、情報処理方法、及びプログラム
Barriga et al. Game tree search based on nondeterministic action scripts in real-time strategy games
Lin et al. Juewu-mc: Playing minecraft with sample-efficient hierarchical reinforcement learning
Knegt et al. Opponent modelling in the game of Tron using reinforcement learning
Zhou et al. Hierarchical control of multi-agent reinforcement learning team in real-time strategy (RTS) games
Dharna et al. Co-generation of game levels and game-playing agents
Sheikh et al. Learning intrinsic symbolic rewards in reinforcement learning
Khalifa et al. Mutation models: Learning to generate levels by imitating evolution
Galam et al. Viral infection genetic algorithm with dynamic infectability for pathfinding in a tower defense game
Charity et al. Amorphous Fortress: Observing Emergent Behavior in Multi-Agent FSMs
Olesen et al. Evolutionary planning in latent space
KR100850913B1 (ko) 게임 캐릭터 형성방법
Chandraprabha et al. An Empirical View of Genetic Machine Learning based on Evolutionary Learning Computations
Nakashima et al. Designing high-level decision making systems based on fuzzy if–then rules for a point-to-point car racing game
Nguyen et al. Applying Monte-Carlo tree search to collaboratively controlling of a ghost team in Ms Pac-Man
Babin et al. Leveraging Reinforcement Learning and WaveFunctionCollapse for Improved Procedural Level Generation
Oh et al. A hybrid method of Dijkstra algorithm and evolutionary neural network for optimal Ms. Pac-Man agent
Cerezo et al. Solving Atari Games using fractals and entropy
Pardo et al. Goal-oriented trajectories for efficient exploration
Togelius et al. Evolutionary Machine Learning and Games
Ba et al. Monte Carlo Tree Search with variable simulation periods for continuously running tasks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150605

R150 Certificate of patent or registration of utility model

Ref document number: 5759164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250