JP2018175051A - 情報処理装置、ゲーム制御プログラム及びゲーム制御方法 - Google Patents

情報処理装置、ゲーム制御プログラム及びゲーム制御方法 Download PDF

Info

Publication number
JP2018175051A
JP2018175051A JP2017075218A JP2017075218A JP2018175051A JP 2018175051 A JP2018175051 A JP 2018175051A JP 2017075218 A JP2017075218 A JP 2017075218A JP 2017075218 A JP2017075218 A JP 2017075218A JP 2018175051 A JP2018175051 A JP 2018175051A
Authority
JP
Japan
Prior art keywords
evaluation value
phase
information
calculated
current phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017075218A
Other languages
English (en)
Inventor
諒 二宮
Ryo Ninomiya
諒 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017075218A priority Critical patent/JP2018175051A/ja
Publication of JP2018175051A publication Critical patent/JP2018175051A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ターン制ゲームの現在の局面において複数の取り得る次のプレイに関する、注視すべき位置を知ることを目的とする。【解決手段】所定の順序のターン毎にプレイするターン制ゲームの現在の局面の評価値を算出し、現在の局面から取り得る次のプレイに対する次の局面の評価値を、複数の前記取り得る次のプレイについて算出する算出部と、算出した複数の前記取り得る次のプレイのそれぞれに対する、前記次の局面の評価値と前記現在の局面の評価値との差分に応じた情報を、複数の前記取り得る次のプレイのそれぞれにより移動する位置に、識別可能な態様で表示する表示部と、を有する情報処理装置が提供される。【選択図】図5

Description

本発明は、情報処理装置、ゲーム制御プログラム及びゲーム制御方法に関する。
近年、将棋や囲碁等のゲームでは、機械学習の発展によりコンピュータによる局面の評価や判断のレベルが向上しており、人間が将棋や囲碁の相手にコンピュータを利用して学習する機会が増えている。そこで、人間がコンピュータを利用して将棋等を行う際、学習を補助するさまざまな機能が提案されている(例えば、特許文献1〜4参照)。
例えば、特許文献1では、コンピュータが現在どの駒に対してどのような候補手を思考中であるかを画面の盤面に矢印で表示することが記載されている。
特開平10−314453号公報 特開昭61−263470号公報 特開2003−47770号公報 特開2012−065852号公報
しかしながら、上記の手法では、盤面にコンピュータが計算した最良の手が表示されるために、コンピュータが示す候補手の手順をそのまま模倣してしまい学習が進まないという課題がある。
一方、コンピュータは、最良の手だけでなく、最良ではないがコンピュータが考える他の手を計算している。特に指し手に対する理解度が十分でない初心者の場合、プレイヤーは、最良の手だけでなく、コンピュータが考える他の手を知る方が、将棋等のゲームを学習する際に指し手に対する理解度が深まることがある。
そこで、1つの側面では、本発明は、ターン制ゲームの現在の局面において複数の取り得る次のプレイに関する、注視すべき位置を知ることを目的とする。
1つの実施態様では、所定の順序のターン毎にプレイするターン制ゲームの現在の局面の評価値を算出し、現在の局面から取り得る次のプレイに対する次の局面の評価値を、複数の前記取り得る次のプレイについて算出する算出部と、算出した複数の前記取り得る次のプレイのそれぞれに対する、前記次の局面の評価値と前記現在の局面の評価値との差分に応じた情報を、複数の前記取り得る次のプレイのそれぞれにより移動する位置に、識別可能な態様で表示する表示部と、を有する情報処理装置が提供される。
1つの側面では、本発明は、ターン制ゲームの現在の局面において複数の取り得る次のプレイに関する、注視すべき位置を知ることができる。
一実施形態に係る情報処理装置の機能構成の一例を示す図。 一実施形態に係る将棋の一局面の例を示す図。 一実施形態に係る評価関数DBの一例を示す図。 一実施形態に係る情報処理装置のハードウェア構成の一例を示す図。 一実施形態に係るゲーム制御処理の一例を示すフローチャート。 一実施形態に係る期待評価値を説明するための図。 一実施形態に係るゲーム制御処理の効果の一例を示す図。 一実施形態に係る変化局面の一例を示す図。 一実施形態に係る変化局面の一例を示す図。
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
[情報処理装置]
まず、本発明の一実施形態に係る情報処理装置10の機能構成の一例について、図1を参照しながら説明する。図1は、本実施形態に係る情報処理装置10の機能構成の一例を示す。
本実施形態に係る情報処理装置10は、ゲーム機器、携帯用ゲーム機器、タブレットコンピュータ、パーソナルコンピュータ、スマートフォン、携帯電話、PDA(Personal Digital Assistants)、HMD(Head Mount Display)、FMD(Face Mount Display)等の電子機器に適用され得る。
本実施形態に係る情報処理装置10は、画面に表示されているゲームを所定の順序のターンでプレイヤーにプレイさせて、ゲームを進行させるターン制ゲームを実行する機器である。所定の順序は、ゲーム毎に定められており、必ずしも、自プレイヤーのターンと対戦相手のターンとが交互に来る対戦型ボードゲームに限らず、自プレイヤーのターンと対戦相手のターンとが所定の順番で来るゲームであればよい。
本実施形態では、情報処理装置10が行うターン型ゲームの一例として「将棋ゲーム」を挙げて説明する。しかし、情報処理装置10が行うターン型ゲームは、これに限らず、画面に表示されているゲームのプレイヤーと対戦相手とが所定の決まった順番でプレイするゲームであればよい。情報処理装置10が行うターン型ゲームの他の例としては、囲碁、オセロ、チェス、麻雀、トランプ(例えばポーカー)等が挙げられる。
プレイヤーは、情報処理装置10の画面に表示されている盤面を見て、自分のターン(順番)のときに、自駒をいずれかのマスに移動させる。対戦相手は、情報処理装置10のコンピュータ自身であってもよいし、ネットワークを介して情報処理装置10に接続される他の機器のプレイヤーであってもよい。
情報処理装置10は、現在の局面の状態を示す情報の入力を受け付けると、次の打つ手の良し悪しを示す評価値を計算し、評価値に基づく注視点情報を出力する。本実施形態では、最良の手だけでなく、最良ではないが考え得る他の手を計算し、現在の局面において次のターンでプレイヤーが注視すべき情報としてプレイヤーに示す。本実施形態に係る情報処理装置10によれば、複数の次の一手についての注視点情報をプレイヤーに提供することで、プレイヤーが次の一手をどこに打つかの学習効率を上げることができる。つまり、本実施形態に係る情報処理装置10によるゲーム制御方法によれば、ゲーム中の局面毎にプレイヤーが行うことができる複数の手のそれぞれを、評価関数を用いて点数化し、複数の手のそれぞれが良手か悪手かを点数化した評価値を色の濃淡で表現し、プレイヤーに提示できるものである。
[機能構成]
本実施形態に係る情報処理装置10は、入力部11、記憶部12、算出部14及び表示部15を有する。入力部11は、現在の局面等、所定の局面のそれぞれの駒の配置位置を示す局面情報を入力する。
図2は、一実施形態に係る将棋の一局面の例を示す。図2の局面は、任意のタイミングにおける将棋の盤面の一例であり、情報処理装置10のディスプレイに表示されている。ここでは、40手目の盤面の一例が示されている。つまり、図2は、プレイヤーと対戦相手とが20手ずつ打ったときの盤面の一例を示す。先手の駒は盤上の17の駒と2つの持ち駒(金、銀)である。後手の駒は盤上の17の駒と4つの持ち駒(角二、桂、歩)である。入力部11が入力する局面情報は、ある局面における先手及び後手の駒の種類及び各駒の位置を示す座標情報である。
記憶部12は、入力部11が入力した局面情報を配置情報テーブル16に格納する。加えて、記憶部12は、評価関数DB17を記憶している。図3は、一実施形態に係る評価関数DB17の一例を示す。
評価関数DB17には、任意の局面情報から評価値を算出する際の各駒の重み付けである評価値の係数kが定義されている。評価値の係数kは、各種の駒の評価を点数化するために記憶されている。評価値の係数kは、所有する駒の優劣を表現する。評価値の係数kは、駒が自プレイヤーの所属の場合はプラス値を有し、相手プレイヤー所属の場合はマイナス値を有する。
今回は、各駒の評価値の係数kにより示される重み付けは固定値に設定されているが、評価値の係数kの値には、設計者が任意のパラメータを与えることができ、また、公知の機械学習手法によって調整を行うことができる。
算出部14は、評価関数DB17を用いて、入力した局面情報に基づき評価値を計算する。算出部14は、算出した評価値に基づき現在の局面から次の局面への一手を指す際の注視すべき情報(以下、「注視点情報」ともいう。)を算出する。算出部14は、現在の局面情報を配置情報テーブル16から取得し、算出された評価値を用いて40マスの盤面に対する注視点情報を計算する。
表示部15は、配置情報テーブル16に格納されている現在の局面情報が示す盤面を表示し、算出した注視点情報を色情報に変換し、得られた40マスの色情報を盤面に重畳させて表示する。
なお、本実施形態に係る評価値は、説明をわかり易くするために、駒の数だけ「駒×評価値の係数k」を加算した合計値から算出される。しかし、実際には、評価値は、駒の数だけでなく、駒の位置、王の周囲の駒数、王手ができるパターン数、評価対象の盤面がこれまでに行われた対局に似ているか等の経験に基づく複数の評価パラメータを用いて算出される。つまり、それらの複数の評価パラメータにより評価値の係数kが算出され、評価値が求められる。
また、本実施形態に係る注視点情報は、現在の局面情報から評価値の係数kを用いて評価値を算出し、現在の局面の評価値と、現在の局面の評価値から変化可能な盤面のマスに対する次の局面の全局面の評価値との差分から導出され得る。
しかしながら、本実施形態に係る注視点情報は、これに限らず、現在の局面の評価値と、現在の局面の評価値から変化可能な盤面のマスに対する次の局面のうちの複数の取り得る手(すべての取り得る手でなくてもよい)の評価値との差分から導出してもよい。
[情報処理装置/ハードウェア構成]
次に、本発明の一実施形態に係る情報処理装置10のハードウェア構成の一例について、図4を参照しながら説明する。図4は、本実施形態に係る情報処理装置10のハードウェア構成の一例を示す。
情報処理装置10は、入力装置101、出力装置102、外部I/F103、RAM(Random Access Memory)104、ROM(Read Only Memory)105、CPU(Central Processing Unit)106、通信I/F107、及びHDD(Hard Disk Drive)108などを備え、それぞれがバスBで相互に接続されている。
入力装置101は、キーボードやマウスなどを含み、情報処理装置10に各操作信号を入力するために用いられる。出力装置102は、LCD(Liquid crystal Display)モニタ等のディスプレイ、プリンタ、CRT(Cathode Ray Tube)などを含み、各種の処理結果を出力する。通信I/F107は、情報処理装置10をネットワークに接続するインターフェースである。これにより、情報処理装置10は、通信I/F107を介して、他のゲーム機器などの電子機器とデータ通信を行うことができる。
HDD108は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、情報処理装置10の全体を制御する基本ソフトウェア及びアプリケーションソフトウェアがある。例えば、HDD108には、各種のデータベースやプログラム等が格納されてもよい。
外部I/F103は、外部装置とのインターフェースである。外部装置には、記録媒体103aなどがある。これにより、情報処理装置10は、外部I/F103を介して記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aには、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)やUSBメモリ(Universal Serial Bus memory)等がある。
ROM105は、電源を切っても内部データを保持することができる不揮発性の半導体メモリである。ROM105には、ネットワーク設定等のプログラム及びデータが格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリである。CPU106は、HDD108やROM105などの記憶装置から、プログラムやデータをRAM104上に読み出し、処理を実行することで、装置全体の制御や将棋のゲームを制御するための機能を実現する演算装置である。
かかる構成により、本実施形態に係る情報処理装置10では、CPU106が、例えばRAM104、ROM105、HDD108内に格納された将棋ゲームプログラム18及びデータを用いてゲーム制御処理を実行する。なお、配置情報テーブル16及び評価関数DB17に記憶された情報は、RAM104、HDD108、又はネットワークを介して情報処理装置10に接続されるクラウド上のサーバ等に格納され得る。
なお、図2は機能に着目したブロック図を描いており、これらの機能ブロックで示した各部のソフトウェアを実行するプロセッサはハードウェアである。例えば、図2の算出部14は、情報処理装置10にインストールされた将棋ゲーム制御プログラム18が、CPU106に実行させる処理により実現され得る。
また、入力部11は、例えば入力装置101により実現可能である。記憶部12は、例えばRAM104、ROM15、HDD108により実現可能である。表示部15は、例えば表示装置102により実現可能である。
[ゲーム制御処理]
次に、本実施形態に係るゲーム制御処理の一例について図5を参照して説明する。図5は、一実施形態に係るゲーム制御処理の一例を示したフローチャートである。なお、説明では、81マス(=9×9)の将棋の盤面を想定することがある。一方、盤面のマスの数を少なくして説明を行う場合があるが、これは説明の便宜のためであり、以下のゲーム制御処理に使用する各種の式による注視点情報の導出方法は、盤面のマスの数によらず同じである。
本処理が開始されると、入力部11は、盤面の状態を示す局面情報『v』を取得する(ステップS10)。なお、説明において、局面情報『v』は、ベクトルであり、以下、本明細書では、ベクトル表記は、文字を『』で括り、スカラーと区別する。また、ベクトルを含む式の場合は、ベクトル表記を『』で括るか又は太字で示す場合がある。
例えば、局面情報『v』を取得した場合、局面情報『v』は現在の局面(一手目)の盤面の状態を数値化したベクトルである。取得した局面情報『v』は、配置情報テーブル16に格納される。
また、以下の説明において、局面情報『v』が示す局面の情報は、駒の配置、持ち駒、現在どちらのプレイヤーの順番(ターン)であるかの情報を含む。局面情報『v』のnは、現在の局面から何手進めたかを示し、例えば、n=1は現在の局面、n=2は一手先の局面である。現在の局面の情報『v』と表示されるが、nの表記がない場合、つまり、局面情報『v』は、現在の局面の情報『v』と同じ意味とする。ある特定の局面の情報を『v』と表示する場合がある。
次に、算出部14は、変数nに「1」を設定し(ステップS12)、局面情報『v』を(1)式に代入し、n手先の盤面の評価値『q』を算出する(ステップS14)。
『q』=f(『v』)・・・(1)
ここでは、現在の局面情報『v』を(1)式に代入することで一手先の盤面、つまり、現在の局面の盤面の評価値『q』が算出される。評価値『q』は、局面情報『v』に対応する、プレイヤーの有利又は不利を数値化した値である。
f(『v』)は局面情報『v』を入力とし、評価値『q』を算出する任意の評価関数であり、以下の(1)(2)により定義づけられる。
(1)f(『v』)の値の範囲を、[−∞、+∞]とし、勝利を+∞、敗北を−∞、引き分けを0と定義する。
(2)f(『v』)は、ベクトル『v』を引数とする任意のスカラー関数である。
(1)式の評価関数は、設計者又はプレイヤーが任意で決定することができる。本実施形態では、評価関数DB17に記憶されている各駒の評価値の係数kと駒の数とを乗算した値の合計とする。
次に、算出部14は、次の局面(n+1手先)の局面情報『vn+1』を(1)式に代入し、n+1手先の盤面の評価値『qn+1』を算出する(ステップS16)。
ここでは、二手先の局面情報『v』を(1)式に代入することで現在の局面の次の局面の盤面の評価値『q』が算出される。
次に、算出部14は、評価値『q』と評価値『qn+1』との差分から期待評価値『p』を計算する(ステップS18)。期待評価値『p』は、現在の局面の各マスへ駒を進めた場合の評価値を集約したベクトルである。期待評価値『p』は、盤面の各マスに対応する評価値を要素として持つ。例えば、盤面が81(=9×9)のマスを有する場合、期待評価値『p』は、盤面の各マスに対応する81の評価値を要素として持つ。
説明の簡略化のために、要素数を減らした一例として、期待評価値『p』を要素数9(=3×3)のベクトルとすると、図6に示すように、盤面上の横の座標をx、縦の座標をyとすると、期待評価値『p』は(x、y)が(1、1)〜(3、3)で示される「1」〜「9」の9要素の評価値からなる。
例えば、図6の1〜9の数字が付与されたマトリクスで「8」の位置は(x、y)=(3、2)で表される。期待評価値『p』について、特定の座標(x、y)の要素を示す場合、期待評価値『p3、2』のように記す。期待評価値『px、y』のようにx及びyが代数のままの場合は、期待評価値の全要素を含み、期待評価値『p』と等価とする。
図5に戻り、次に、算出部14は、ステップS14〜S18の再帰的処理を、予め設定されたN回(再帰回数)繰り返したかを判定する(ステップS20)。再帰回数は、設計者又はプレイヤーが決めることができる。また、Nは1でもよいし、2以上でもよい。
算出部14は、ステップS14〜S18の再帰的処理をN回繰り返していないと判定した場合、繰り返し回数をカウントする変数nに「1」を加算し(ステップS22)、ステップS14に戻り、ステップS14以降の処理を繰り返す。
一方、ステップS20において、算出部14は、ステップS14〜S18の再帰的処理をN回繰り返したと判定した場合、算出部14は、繰り返し回数分算出したn手先までの期待評価値『p』、『p』、・・・『p』を足し合わせて注視点情報『P』を算出する(ステップS24)。注視点情報『P』の計算は、盤面の(1,1)〜(9,9)のすべてのマスに対して、1〜n手先までのn局面のそれぞれにおいて取り得る手の数だけ行われる。
次に、表示部15は、(1,1)〜(9、9)の各マスに対して注視点情報『P』を色で表示する表示データに変換し、元の局面の盤面データに重ね合わせて出力し(ステップS26)、本処理を終了する。例えば、図7に一実施形態に係るゲーム制御処理の効果の一例を示す。例えば、図7(a)の元の局面(現在の局面)データと、図7(b)の(1,1)〜(9、9)の盤面の注視点情報『P』を色で表示する表示データとを重畳して、図7(c)に示すように、現在の局面の盤面に注視すべき情報が表示される。
以上、本実施形態に係るゲーム制御処理によれば、ターン制ゲームの一例である将棋のゲームの現在の局面において次手でプレイヤーが注視すべき複数の情報を提供することができる。例えば、図7(c)〜図7(e)に示すように、図7(c)〜図7(e)のそれぞれの局面に対して各マスに対する注視点情報『P』が計算され、一手毎に注視点情報『P』の分布が変わっていることがわかる。例えば、注視点情報『P』が上がっていくと対応するマスの色が濃くなり、注視点情報『P』が下がっていくと対応するマスの色が薄くなる。これにより、プレイヤーは、注視すべき盤面の位置を容易に知ることができる。例えば、プレイヤーは、(1,1)〜(9、9)の各マスに対して次に取り得る手のうち、どの手がどれだけ評価されているかを簡単に知ることができる。
以上から、本実施形態に係る情報処理装置10によれば、最良の手だけでなく、最良ではないが情報処理装置10が考える他の手を、プレイヤーにわかり易いよう盤面に表示することができる。これにより、特に初心者のプレイヤーは、本実施形態のように、最良の手だけでなく情報処理装置10が考える他の手を知ることで、将棋を学習する際に指し手に対する理解度を深めることができ、将棋を効率よく学習することができる。
[注視点情報『P』の具体的算出例]
次に、注視点情報『P』を求める具体的手順を以下に示す。まず、算出部14は、現在の局面情報『v』について盤面の各座標(x、y)に対する期待評価値『P』(=『px、y』)を算出する。
(評価関数f(『v』))
例えば、図2に示す仮想局面をAとすると、仮想局面Aの局面情報『v』を入力した際の評価関数f(『v』)は、評価値の係数kを使用して線形結合で示した以下の(2)式により表される。
Figure 2018175051
仮想局面Aについて、局面情報『v』を(2)式に代入し計算した場合、図3の評価関数DB17を用いて、f(『v』)=2300−2600=−300(<0)と計算される。つまり、評価関数f(『v』)によって、先手番が「−300」不利、つまり、後手番が「+300」有利と判断される。
なお、(2)式における係数kは、図3に一例を示した通り各駒の評価値の係数であり、図3に示す値に限らず、設計者が任意に調整し、設定可能な値である。調整の手法としては、機械学習等のパラメータ学習の手法を用いることができる。また、駒の所属だけでなく、駒の配置、駒の利きの関係など、上記条件(1)及び条件(2)の条件を満たす限り任意の関数を利用してもよい。なお、「駒の利き」とは、各駒を動かすことのできる範囲である。動かすことのできる範囲が多い程、得られる点数は高くなる。
また、図2の仮想局面Aの例では、先手は19個の駒を所有し、後手は21個の駒を所有している。いずれも持ち駒を含んだ駒数である。このとき、(2)式の「n」は、先手番であれば19駒になり、後手番であれば21駒になる。
(現在の局面の評価値『q』)
次に、算出部14は、現在の局面情報『v』から着手mした場合の評価値『q』を求める。「着手」とは、現在の局面から盤面上の座標(x,y)への着手可能な手のパターン数である。算出部14は、評価関数f(『v1、m』)を用いて、現在の局面情報『v』から着手mした場合の評価値『q1、m』を算出する。評価値『q1、m』は、(3)式により算出される。
『q1、m』=f(『v1、m』)・・・(3)
例えば、図2の仮想局面を現在の局面とした場合、評価値『q1、m』は、先手番であれば、19駒の駒毎に一手動かしたときの評価値を、動かせるパターン数mだけ算出した値となる。後手番であれば、21駒の駒毎に一手動かしたときの評価値を、動かせるパターン数mだけ算出した値である。つまり、現在の局面から盤面上のある地点の座標(x,y)へ任意の駒を動かした操作を、代数化して着手mとする。
(期待評価値『p』)
次に、現在の局面から何かの駒を動かしたときの期待評価値『p』の算出方法について説明する。現在の局面から座標(x,y)への着手可能な合法手の集合をMとし、現在の局面から盤面上の座標(x,y)に着手した場合の期待評価値『px,y』を求める。現在の局面から盤面上の座標(x,y)に着手可能な手は複数通り存在する場合があるため、現在の局面から盤面上の座標(x,y)への合法手の集合を、Mx、y∋mとすると、期待評価値『px,y』は(4)式を用いて算出される。
Figure 2018175051
合法手の集合Mx、y∋mでは、着手mが反則を含まない盤面上の座標(x、y)への任意の一手であるとき、合法手の集合Mは、これら着手mのすべてを集めた集まりで、着手mを元とする集合とする。合法手の集合Mx、yは、特定の座標(x、y)に対する合法手の集合を示す。つまり、合法手の集合Mx、yは、ある座標(x,y)に注目して、その座標に動かせる手のうち反則を含まないパターン数を示し、例えば座標(3,2)については、M3、2のように表記する。M3、2のように代数のままの場合は全要素を含み、Mと等価とする。なお、本明細書において、Mの表記は、n手目のMx、yを示す。
n局面から、盤面上のある地点の座標(x、y)へ任意の駒を動かした後の局面を、局面情報『v』から着手mをした局面として局面情報『vnm』で示す。着手mは、反則やルール外の操作を含まない。着手mには、盤面が9×9マスの場合、着手mには[(x,y)=(1,1),(1,2),〜,(9,9)の81通り]×[その地点へ進める駒(持ち駒を打てる駒)の数]通りのパターンが存在する。局面情報『vnm』は、着手mのパターンと同数存在する。例えば、現在の局面から、盤面上のある地点の座標(x、y)へ任意の駒を動かした後の次の局面を、局面情報『v』から着手mをした局面情報として局面情報『v1m』とする。
(4)式を説明するに当たって、座標(x、y)=(5,5)の仮想局面を示す図8(a)を例に挙げ、(4)式を展開する。座標(x、y)=(5,5)の仮想局面を現在の局面とし、局面情報『v』から(4)式は、下記の式のように展開される。
Figure 2018175051
図8(a)の仮想局面では、M5,5には3パターンの着手mがある。具体的には、3パターンは、図8(b−1)の「金」の駒を座標(5,5)に移動させる着手m(金の横移動)、図8(b−2)の「角」の駒を座標(5,5)に移動させる着手m(角の斜め移動)、図8(b−3)の「歩」の駒を座標(5,5)に移動させる着手m(歩の前進)である。図8(b−1)〜(b−3)の局面情報『v1M(5,5)』は、局面情報『v』からMx,yを指した場合を意味し、局面情報『v』と等価である。
それぞれのパターンの着手m,m,mに評価値『q1m1』,『q1m2』,『q1m3』が存在するため、期待評価値『p5、5』は以下の(4−1)式のように展開される。
Figure 2018175051
実際には、座標(x、y)が(1,1)〜(9,9)までの全パターンに対して、期待評価値『p1,1』,『p1,2』,・・・,『p9,9』が算出される。
任意の座標(x,y)毎に着手可能な手、つまり、着手mの数に差がある。このため、(4)式の期待評価値『px,y』に対してwを用いて加重平均をとり、(5)式の期待評価値『px,y』を導く。
Figure 2018175051
(5)式を(4−1)式と同様に展開し、w=1/3とすると下記の式が導かれる。
Figure 2018175051
例えば、図8(a)の仮想局面では座標(x、y)=(6,4)は、「金」の駒の前進の1パターンであり、例えば、手が増えていくと考えるパターン数が増えていくというように、手のパターン数は、各座標(x、y)で一定ではない。このように、手のパターンが各座標(x、y)で一定ではないため、(5)式では加重平均をとり、評価値を正規化する。
なお、上記(5)式を(4−1)式と同様に展開した式では、着手mの3つのパターンに対して平均をとっているが、例えば着手m=[3/5,2/5,0/5]のように設計者が任意のルールで重み付けしてもよい。この例では、着手mは重視され、着手mは無視されるように重み付けがされているが、これは一例であり、各着手に対して様々な重み付けをすることが可能である。
(変化局面の期待評価値『p』)
以上では、複数の手のパターンである着手mを用いて、着手mをした場合の現在の局面情報『v1,m』についての期待評価値『p1,m』が算出される。次に、算出部14は、局面情報『v』からの変化局面の局面情報『v』について、盤面の各座標(x、y)に対する期待評価値『p』を求める。局面情報『v』は、現在の局面の次の局面に関する情報を示す。現在の局面情報『v』における有効着手Mについてそれぞれに期待評価値『p1,m』があるため、期待評価値『p』はMについて和をとり、(6)式にて変化局面情報『v』についての期待評価値『p』を求める。
Figure 2018175051
変化局面の局面情報『v』は、一手先(n=2)の局面情報を数値化したベクトルである。n=1の現在の局面情報を数値化したベクトルであるvの状況から変化することのできるパターン数分の局面情報を持つ。局面情報『v1Mx,y』は現在の局面情報『v』から合法手の集合Mx、yを指した場合を示し、変化局面の局面情報『v』と等価である。
例えば、図8(a)の仮想局面の局面情報『v』に対して、座標(x、y)=(5,5)に注目した場合、変化局面の局面情報『v』は、図8(b−1)〜図8(b−3)に示すように、3通りの局面の情報から成り立つ。着手mした場合の局面情報『v1、m』は、局面情報『v1Mx,y』のうち特定の1パターンのみの局面情報を示す。局面情報『v1、m』は、図8(b−1)〜図8(b−3)に示す3通りの局面情報『v1M5,5』と等価である。
期待評価値『p』は期待評価値『p』に対して全有効着手Mの総数倍となる。図9に示すように、座標(x、y)=(5,5)、合法手の集合M5,5に注目して(6)式の右辺を展開すると(6−1)式により座標(x、y)=(5,5)の期待評価値『p2(5,5)』が導かれる。
Figure 2018175051
図9(a)の局面の場合の着手mに注目して(5)式に代入したときの期待評価値『p』は以下の式により算出される。
Figure 2018175051
ここで、「l」は、図9(a)の仮想局面からさらに一手進めた場合の着手lを示す。
以上に説明した(1)式〜(5)式を用いて行った計算を、図9(b−1)に示す仮想局面と図9(c)に示す仮想局面について行うことで、期待評価値『p』が算出される。このようにして、図9(b−1)〜図9(b−3)の仮想局面のそれぞれについて、各仮想局面からさらに一手進めた図9(c)に示す仮想局面について(1)式〜(5)式を用いて期待評価値の計算を行うことで、期待評価値『p2(5,5)』が算出される。
(6)式により求めようとする期待評価値『p』は、すべての期待評価値『p2(x,y)』を要素に持つベクトルなので、期待評価値『p2(5,5)』と同様に期待評価値『p2(1,1)』から期待評価値『p2(9,9)』まで計算し、集約することで算出できる。
(6−1)式では、手の候補である合法手の集合M5,5の座標の要素は3であるため、3項の和である。一方、合法手の集合Mx,yの座標の要素は3であるとは限らないため、(7)式で正規化している。つまり、(5)式の場合と同様に、(6)式の右辺の期待評価値『p1、m』を要素数で割って正規化したものが(7)式である。(7)式により、二手目の期待評価値『p』が求められる。
Figure 2018175051
ここで、|M|は、全有効着手を示し、合法手の集合Mx,yと同じ意味で用いられる。つまり、|M|は、|Mx,y|に等しく、各座標(x、y)についての要素数(つまり、差し手mの数)である。
以下の(8)式は、(7)式をi手目までに拡張した式である。(8)式により、i手目の期待評価値『p』が求められる。iは2よりも大きい。
Figure 2018175051
ただし、i手目の期待評価値『p』を計算する場合、i乗に比例して計算量が増加するため、実際の計算では有効着手の集合MについてMの有効着手の場合の予想最善手順mmaxに限って計算してもよい。予想最善手順mmaxのi手目の評価値は、次式で示される着手mとして求められる。
Figure 2018175051
(注視点情報『P』)
算出部14は、算出したi手目の期待評価値『p』を(9)式に代入して注視点情報『P』を算出する。
Figure 2018175051
算出結果は、n手先まで考慮した注視点情報『P』であり、iは総和のインデックスでi手目の要素を表す。実際に計算する際には、iに反比例する重みづけや色相空間へ写像を行う。g(x)は、任意の変数関数であり、nの計算範囲によって注視点情報『P』の大きさが変わるため正規化を行っている。正規化の方法は任意であるが、(5)式のwと同様に定義し、iの少ない(=直近の手)に重みをもたせる方法がある。例えば、次式に示す三手目まで計算して一手目をより重視し、二手目がより軽視され、三手目が更に軽視されるように定義してもよい。
Figure 2018175051
(注視点情報『P』の色によるマッピング)
表示部15は、算出した注視点情報『P』に応じた情報を、次のプレイにより移動する駒の位置に、識別可能な態様で画面に表示する。識別可能な態様とは、例えば、注視点情報『P』を色情報に変換し、取り得る次のプレイのそれぞれにより移動する位置に、マッピングして表示してもよい。
この場合、算出部14は、算出した注視点情報『P』の値について色の範囲の変換を行う。算出部14は、色でマッピングする際には、注視点情報『Px、y』の値の範囲を[0,255]とする場合、正規化と同時に値の範囲を変換する。注視点情報『P』が識別可能な態様で表示される例としては色の例を挙げて説明したが、これに限らず、記号、光、音等により注視点情報『P』が識別可能な態様で表示されてもよい。
上記条件(1)のように評価関数f(x)を[−∞,+∞]と定義していると、注視点情報『Px、y』の値の範囲も[−∞,+∞]となってしまうため、算出部14は、(10)式によりtanh(x)を用いて[−1,+1]の範囲に変換している。
g(x)=255×(1+tanh(x))/2・・・(10)
[実施例]
最後に、実施例として、(A)同一局面で考慮手数(i)を一〜五手で変化させた場合と、(B)五手目まで考慮した状態で数手進めた場合の例を示す。
(A)同一局面で考慮手数(i)を変化させた場合
仮想局面の一例を図7(a)に示す。従来の機械学習計算によって候補手順1,2,3…と各評価値『q』が求められているものとする。(9)式より、g(x)を(10)式の形で置き、一手先の注視点情報『P』を盤面上の色の濃淡として出力を求めた場合(図7(b)参照)、色の濃淡を描いた画像を、現在の局面の盤面の表示に重ねる。この結果、プレイヤー視点では図7(c)〜図7(e)のように表現される。
特に評価が高かった手順の上位3通りを例として抽出し、それぞれの評価値とそれに対応した表示を示す。
・評価手順例
1.▲2二角(+5)△同銀(+2)▲6五角(+5)△5四角(+4)▲同角(+6)…
2.▲4八玉(+5)△3五歩(+3)▲2八銀(+3)△6二玉(+3)▲3八玉(+3)△3六歩(+3)…
3.▲6六歩(+4)△6二玉(+5)▲7八銀(+5)△7二銀(+5)▲7七角(+5)△7一玉(+2)…
…(1−3.以下の評価手順)
ただし、先手▲、後手△、盤上の座標と移動した駒を”xy駒”、その時点の局面の評価値『q』を”()”内の数字で表す。
図7(c)及び(d)では次の着手において、「どこの位置に注目して着手する手が有力なのか」が色の濃淡で表されている。図7(c)では一手先の状況を考慮して、注視すべき情報として(2二,6六,4八)の3つの候補手のマスの位置を濃く表示している。プレイヤーはこれを手掛かりに複数の候補手の中から着手を検討する。濃淡によって重要度の軽重が示されているので、プレイヤーは、もっとも濃い位置以外のマスの部分も候補手外の手も検討の基準として用いることができる。
また、図7(d)ではさらに相手の手を含む数手の情報が示されている。図7(d)ではi=3、つまり三手先まで考慮した場合の表示となる。図7(c)と同様だが色の濃淡により重要度と着手の連続性の情報を同時に示唆することが可能となっており、この手数の長さをより長くすることで相手の読みの深さを調整することが可能である。一手目で注目すべき位置となっていた手から予想される手(例△4八玉〜▲6二玉〜△2二玉)の部分がより強く表示されており、それ以外の部分は段階的に薄くなっている。
図7(e)ではさらに5手目まで考慮した場合の表示であり、現在の局面からでは見えづらいパターン等も表示されている。
このように考慮する手数を伸ばしていくと、相手が考慮する手順も同時に増えるため、プレイヤーの理解度に応じて変化させることで難易度や補助の度合いの調整等に利用可能である。
(B)考慮手数(5)で継続した場合
仮想局面を図7(a)に示す。従来の機械学習計算によって候補手順1,2,3…と各評価値『q』が求められているものとする。(9)式より、g(x)を(10)式の形で置き、一手先の注視点情報を盤面上の色の濃さとして出力を求めた場合、プレイヤー視点では図7(c)〜図7(e)のように表現される。
以上、本実施形態によれば、現在の局面から複数の手順情報を含めた注視点情報を導出することが可能であり、従来学習の補助情報としては問題のあった推奨手順の直接表示や次の一手候補の表示を用いることなく、プレイヤーにどこに注目すればよいかの思考補助情報を提示することができる。この結果、注視点情報により手順を示すことなく複数の候補手順を踏まえた思考補助情報を提供することができる。
以上、情報処理装置、ゲーム制御プログラム及びゲーム制御方法を上記実施形態により説明したが、本発明に係る情報処理装置、ゲーム制御プログラム及びゲーム制御方法は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。
例えば、取り得る次のプレイのすべてについて評価値を算出し、算出した評価値から注視点情報『P』を算出してもよい。しかしながら、これに限らず、取り得る次のプレイのうちの一部であり、かつ複数の取り得る次のプレイについて評価値を算出し、算出した評価値から注視点情報『P』を算出してもよい。
以上の説明に関し、更に以下の項を開示する。
(付記1)
所定の順序のターン毎にプレイするターン制ゲームの現在の局面の評価値を算出し、現在の局面から取り得る次のプレイに対する次の局面の評価値を、複数の前記取り得る次のプレイについて算出する算出部と、
算出した複数の前記取り得る次のプレイのそれぞれに対する、前記次の局面の評価値と前記現在の局面の評価値との差分に応じた情報を、複数の前記取り得る次のプレイのそれぞれにより移動する位置に、識別可能な態様で表示する表示部と、
を有する情報処理装置。
(付記2)
前記表示部は、算出した複数の前記取り得る次のプレイのそれぞれに対する、前記次の局面の評価値と前記現在の局面の評価値との差分に応じた情報を、複数の前記取り得る次のプレイのそれぞれにより移動する位置に、前記現在の局面に重畳して表示する、
付記1に記載の情報処理装置。
(付記3)
前記算出部は、第n(n≧1)局面の評価値と第(n+1)局面の評価値との差分から第nの期待評価値を算出することを、nの値を1ずつ加算して再帰的にN(N≧1)回繰り返し、
前記表示部は、前記N回繰り返して算出した第1〜第nの期待評価値の合計値に応じた情報を、識別可能な態様で表示する、
付記1又は2に記載の情報処理装置。
(付記4)
所定の順序のターン毎にプレイするターン制ゲームの現在の局面の評価値を算出し、現在の局面から取り得る次のプレイに対する次の局面の評価値を、複数の前記取り得る次のプレイについて算出し、
算出した複数の前記取り得る次のプレイのそれぞれに対する、前記次の局面の評価値と前記現在の局面の評価値との差分に応じた情報を、複数の前記取り得る次のプレイのそれぞれにより移動する位置に、識別可能な態様で表示する、
処理をコンピュータに実行させるためのゲーム制御プログラム。
(付記5)
算出した複数の前記取り得る次のプレイのそれぞれに対する、前記次の局面の評価値と前記現在の局面の評価値との差分に応じた情報を、複数の前記取り得る次のプレイのそれぞれにより移動する位置に、前記現在の局面情報に重畳して表示する、
付記4に記載のゲーム制御プログラム。
(付記6)
第n(n≧1)局面の評価値と第(n+1)局面の評価値との差分から第nの期待評価値を算出することを、nの値を1ずつ加算して再帰的にN(N≧1)回繰り返し、
前記N回繰り返して算出した第1〜第nの期待評価値の合計値に応じた情報を、識別可能な態様で表示する、
付記4又は5に記載のゲーム制御プログラム。
(付記7)
所定の順序のターン毎にプレイするターン制ゲームの現在の局面の評価値を算出し、現在の局面から取り得る次のプレイに対する次の局面の評価値を、複数の前記取り得る次のプレイについて算出し、
算出した複数の前記取り得る次のプレイのそれぞれに対する、前記次の局面の評価値と前記現在の局面の評価値との差分に応じた情報を、複数の前記取り得る次のプレイのそれぞれにより移動する位置に、識別可能な態様で表示する、
ことをコンピュータが実行するゲーム制御方法。
(付記8)
算出した複数の前記取り得る次のプレイのそれぞれに対する、前記次の局面の評価値と前記現在の局面の評価値との差分に応じた情報を、複数の前記取り得る次のプレイのそれぞれにより移動する位置に、前記現在の局面情報に重畳して表示する、
付記7に記載のゲーム制御方法。
(付記9)
第n(n≧1)局面の評価値と第(n+1)局面の評価値との差分から第nの期待評価値を算出することを、nの値を1ずつ加算して再帰的にN(N≧1)回繰り返し、
前記N回繰り返して算出した第1〜第nの期待評価値の合計値に応じた情報を、識別可能な態様で表示する、
付記7又は8に記載のゲーム制御方法。
10 情報処理装置
11 入力部
12 記憶部
14 算出部
15 表示部
16 配置情報テーブル
17 評価関数DB
18 将棋ゲーム制御プログラム
f(『v』) 評価関数
『q』 評価値
『p』 期待評価値
『P』 注視点情報

Claims (5)

  1. 所定の順序のターン毎にプレイするターン制ゲームの現在の局面の評価値を算出し、現在の局面から取り得る次のプレイに対する次の局面の評価値を、複数の前記取り得る次のプレイについて算出する算出部と、
    算出した複数の前記取り得る次のプレイのそれぞれに対する、前記次の局面の評価値と前記現在の局面の評価値との差分に応じた情報を、複数の前記取り得る次のプレイのそれぞれにより移動する位置に、識別可能な態様で表示する表示部と、
    を有する情報処理装置。
  2. 前記表示部は、算出した複数の前記取り得る次のプレイのそれぞれに対する、前記次の局面の評価値と前記現在の局面の評価値との差分に応じた情報を、複数の前記取り得る次のプレイのそれぞれにより移動する位置に、前記現在の局面情報に重畳して表示する、
    請求項1に記載の情報処理装置。
  3. 前記算出部は、第n(n≧1)局面の評価値と第(n+1)局面の評価値との差分から第nの期待評価値を算出することを、nの値を1ずつ加算して再帰的にN(N≧1)回繰り返し、
    前記表示部は、前記N回繰り返して算出した第1〜第nの期待評価値の合計値に応じた情報を、識別可能な態様で表示する、
    請求項1又は2に記載の情報処理装置。
  4. 所定の順序のターン毎にプレイするターン制ゲームの現在の局面の評価値を算出し、現在の局面から取り得る次のプレイに対する次の局面の評価値を、複数の前記取り得る次のプレイについて算出し、
    算出した複数の前記取り得る次のプレイのそれぞれに対する、前記次の局面の評価値と前記現在の局面の評価値との差分に応じた情報を、複数の前記取り得る次のプレイのそれぞれにより移動する位置に、識別可能な態様で表示する、
    処理をコンピュータに実行させるためのゲーム制御プログラム。
  5. 所定の順序のターン毎にプレイするターン制ゲームの現在の局面の評価値を算出し、現在の局面から取り得る次のプレイに対する次の局面の評価値を、複数の前記取り得る次のプレイについて算出し、
    算出した複数の前記取り得る次のプレイのそれぞれに対する、前記次の局面の評価値と前記現在の局面の評価値との差分に応じた情報を、複数の前記取り得る次のプレイのそれぞれにより移動する位置に、識別可能な態様で表示する、
    ことをコンピュータが実行するゲーム制御方法。
JP2017075218A 2017-04-05 2017-04-05 情報処理装置、ゲーム制御プログラム及びゲーム制御方法 Pending JP2018175051A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017075218A JP2018175051A (ja) 2017-04-05 2017-04-05 情報処理装置、ゲーム制御プログラム及びゲーム制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017075218A JP2018175051A (ja) 2017-04-05 2017-04-05 情報処理装置、ゲーム制御プログラム及びゲーム制御方法

Publications (1)

Publication Number Publication Date
JP2018175051A true JP2018175051A (ja) 2018-11-15

Family

ID=64279862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017075218A Pending JP2018175051A (ja) 2017-04-05 2017-04-05 情報処理装置、ゲーム制御プログラム及びゲーム制御方法

Country Status (1)

Country Link
JP (1) JP2018175051A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7186321B1 (ja) 2022-04-11 2022-12-08 株式会社Cygames 形勢評価装置、形勢評価方法、およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003047770A (ja) * 2001-08-03 2003-02-18 Konami Co Ltd 囲碁ゲームのプログラム
JP2005052312A (ja) * 2003-08-01 2005-03-03 Konami Co Ltd 対局ゲーム装置、及び対局ゲームプログラム
JP2011147498A (ja) * 2010-01-19 2011-08-04 Konami Digital Entertainment Co Ltd ゲーム機及びそれに用いるコンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003047770A (ja) * 2001-08-03 2003-02-18 Konami Co Ltd 囲碁ゲームのプログラム
JP2005052312A (ja) * 2003-08-01 2005-03-03 Konami Co Ltd 対局ゲーム装置、及び対局ゲームプログラム
JP2011147498A (ja) * 2010-01-19 2011-08-04 Konami Digital Entertainment Co Ltd ゲーム機及びそれに用いるコンピュータプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
INFORMATION & COMPUTING−45 コンピュータ将棋 あなたも挑戦してみませんか, vol. 初版, JPN6020014910, 25 May 1990 (1990-05-25), pages 31 - 32, ISSN: 0004385373 *
コンピュータ囲碁の入門, vol. 初版, JPN6020014909, 10 November 2005 (2005-11-10), pages 63 - 79, ISSN: 0004385372 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7186321B1 (ja) 2022-04-11 2022-12-08 株式会社Cygames 形勢評価装置、形勢評価方法、およびプログラム
WO2023199819A1 (ja) * 2022-04-11 2023-10-19 株式会社Cygames 形勢評価装置、形勢評価方法、およびプログラム
JP2023155679A (ja) * 2022-04-11 2023-10-23 株式会社Cygames 形勢評価装置、形勢評価方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP5746291B2 (ja) プログラム及びゲームシステム
JP7177288B2 (ja) 仮想オブジェクトの制御方法、装置、機器及びコンピュータプログラム
JP4213052B2 (ja) タッチパネル入力を用いたゲームシステム
US12042733B2 (en) Non-transitory computer-readable medium, information processing system, and method
JP4074321B2 (ja) ゲームプログラム、ゲーム装置及びゲーム制御方法
JP6375351B2 (ja) プログラム及びゲームシステム
JP3686071B2 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2024100914A5 (ja) プログラム、情報処理方法、及び情報処理装置
JP6032710B2 (ja) シミュレーション装置及びプログラム
JP2014027975A (ja) プログラム、情報記憶媒体、ゲーム装置及びサーバ
JP6103683B2 (ja) ロールプレイングゲームの攻略法算出装置、算出方法、算出プログラム及びこのプログラムを記録した記録媒体
JP2018175051A (ja) 情報処理装置、ゲーム制御プログラム及びゲーム制御方法
TWI792090B (zh) 提供動態決定遊戲區域與參加者數目之大逃殺遊戲之方法及使用該方法之伺服器
US20130143632A1 (en) System, method and computer-accessible medium for generating a puzzle game using various exemplary properties of the visual world
JP2014233403A (ja) ゲームプログラム、ゲーム処理方法および情報処理装置
JP7236232B2 (ja) プログラム、情報処理方法、及び情報処理装置
JP2009178245A (ja) ゲームプログラム、ゲーム装置、およびゲーム制御方法
JP7317515B2 (ja) ゲームプログラム、ゲーム処理方法及び情報処理装置
JP7417451B2 (ja) 電子ゲーム情報処理装置及び電子ゲーム情報処理プログラム
TW400506B (en) A method of executing black-white chess in computer
KR20140007061A (ko) 문장 슈팅 볼 게임 및 그 프로그램
KR101596160B1 (ko) 카드 게임 프로그램 및 이를 실행하는 컴퓨팅 디바이스
JP6017479B2 (ja) ゲームプログラム、ゲーム処理方法および情報処理装置
JP7482847B2 (ja) プログラム、端末、及びゲームシステム
JP5577014B2 (ja) ゲーム装置、ゲームプログラム、オブジェクト制御方法

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180717

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190327

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190531

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201117