JP2016224512A - Decision support system and decision making support method - Google Patents
Decision support system and decision making support method Download PDFInfo
- Publication number
- JP2016224512A JP2016224512A JP2015107193A JP2015107193A JP2016224512A JP 2016224512 A JP2016224512 A JP 2016224512A JP 2015107193 A JP2015107193 A JP 2015107193A JP 2015107193 A JP2015107193 A JP 2015107193A JP 2016224512 A JP2016224512 A JP 2016224512A
- Authority
- JP
- Japan
- Prior art keywords
- action
- player
- model
- evaluation
- actions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 32
- 230000009471 action Effects 0.000 claims abstract description 266
- 238000011156 evaluation Methods 0.000 claims abstract description 58
- 238000013210 evaluation model Methods 0.000 claims abstract description 38
- 238000004088 simulation Methods 0.000 description 31
- 238000010586 diagram Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 230000001364 causal effect Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003252 repetitive effect Effects 0.000 description 3
- 239000010779 crude oil Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、意思決定支援システムに関する。 The present invention relates to a decision support system.
専門家の知見を用いて将来生じるであろう情勢や関係者の行動を予測するコンピュータシステムが提案されている。 Computer systems have been proposed that use the knowledge of experts to predict future situations and behaviors of related parties.
例えば、特許文献1(特開平5−204991号公報)には、コンピュータと時系列データベースと登録パターンデータベースと端末装置からなるシステムにおいて、複数のパターンを登録するステップと、時系列データベースから時系列データを読み込み、既に登録されている複数のパターンとの照合をパターン毎,一定期間毎に行うステップと、登録されたパターン間の出現に関する因果関係を分析するステップと、分析結果を表示するステップとからなる時系列データ検索システムが記載されている。特許文献1に記載された時系列データ検索システムは、登録されたパターンと比較した結果に基づいて(ルールベースで)将来動向(アクション)を予測する。
For example, Patent Document 1 (Japanese Patent Laid-Open No. 5-204991) discloses a step of registering a plurality of patterns in a system including a computer, a time series database, a registration pattern database, and a terminal device, and a time series data from the time series database. From the step of performing the matching with a plurality of patterns already registered for each pattern and every predetermined period, the step of analyzing the causal relationship regarding the appearance between the registered patterns, and the step of displaying the analysis result A time-series data search system is described. The time-series data search system described in
しかし、特許文献1に記載されているようなルールベースの予測システムでは、連鎖モデルを用いて、多くのルールを含むモデルを作成して、次に何が生じるかをシミュレートするものである。このため、ルールベースの予測システムではモデルの作成が困難であった。すなわち、このモデルでは、全ての事象や関係者の行動を考慮しなければならず、専門家の知見を整理して、知見を統合したモデルを作成するために、専門家の知見を分類して、モデルを作成することは困難である。このため、専門家の知識を無理なくモデル化して、将来を予測するシステムが求められている。
However, in a rule-based prediction system as described in
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、プロセッサとメモリとを有する計算機によって構成される意思決定支援システムであって、前記メモリは、意思決定に必要な複数の情勢を数値化した複数の指標値を格納し、前記意思決定支援システムは、前記プロセッサが、プレーヤーのアクションから次のアクションを導出するためのアクション連鎖モデルと、前記プロセッサが、プレーヤーのアクションと前記指標値とから、次の指標値を導出するための反応モデルと、前記プロセッサが、指標値からアクションの意思を表す選択確率をプレーヤー毎に導出するための意思モデルと、前記プロセッサが、指標値から評価値をプレーヤー毎に導出するための評価モデルと、前記プロセッサが、プレーヤーのアクションを選択するアクション選択部とを有し、前記意思決定支援システムは、前記アクション連鎖モデルを用いて、前記プレーヤーのアクションから前記プレーヤーがとり得る次のアクションを導出し、前記反応モデルを用いて、前記プレーヤーのアクションと前記指標値とから、次の指標値を導出し、前記意思モデルを用いて、前記導出された次の指標値から前記各プレーヤーのアクションの選択確率を計算し、前記評価モデルを用いて、前記導出された次の指標値が前記各プレーヤーにとって望ましい程度を表す評価値を計算し、前記アクション選択部は、前記アクション連鎖モデルを用いて導出されたアクションと、前記意思モデルを用いて計算された選択確率と、前記評価モデルを用いて計算された評価値とを用いて、前記各プレーヤーのアクションを選択し、前記選択されたアクションを出力する。 A typical example of the invention disclosed in the present application is as follows. That is, a decision support system comprising a computer having a processor and a memory, wherein the memory stores a plurality of index values obtained by quantifying a plurality of situations necessary for decision making, and the decision support system Is an action chain model for the processor to derive the next action from the player's action, and a reaction model for the processor to derive the next index value from the player's action and the index value; An intention model for the player to derive, for each player, a selection probability representing the intention of the action from the index value; an evaluation model for the processor to derive an evaluation value for each player from the index value; An action selection unit for selecting an action of the player, and The system derives the next action that the player can take from the action of the player using the action chain model, and uses the reaction model to determine the next index value from the action of the player and the index value. And using the intention model to calculate the selection probability of each player's action from the derived next index value, and using the evaluation model, the derived next index value is An evaluation value representing a degree desired for the player is calculated, and the action selection unit uses the action derived using the action chain model, the selection probability calculated using the intention model, and the evaluation model. Using the calculated evaluation value, the action of each player is selected, and the selected action is output.
本発明の代表的な形態によれば、専門家の知見を容易に整理でき、将来生じるであろう情勢やアクションを専門家の知見に基づいて予測することができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。 According to the representative embodiment of the present invention, expert knowledge can be easily organized, and the situation and actions that will occur in the future can be predicted based on the expert knowledge. Problems, configurations, and effects other than those described above will become apparent from the description of the following embodiments.
図1は、第1の実施例の意思決定支援システムの物理的な構成を示すブロック図である。 FIG. 1 is a block diagram showing the physical configuration of the decision support system of the first embodiment.
本実施例の意思決定支援システムは、複数の計算機(CALC_NODE)と、これら複数の計算機を接続する通信スイッチ(COM_SW)とを有する。 The decision support system according to this embodiment includes a plurality of computers (CALC_NODE) and a communication switch (COM_SW) that connects the plurality of computers.
各計算機(CALC_NODE)は、プログラムを実行するプロセッサ(CPU)と、データ及びプログラムを格納する一時記憶装置(RAM)及び補助記憶装置(STOR)と、通信スイッチ(COM_SW)と接続される通信デバイス(COM_DEV)とを有する。プロセッサ(CPU)と、一時記憶装置(RAM)と、補助記憶装置(STOR)と、通信デバイス(COM_DEV)とは、バス(BUS)で接続されている。 Each computer (CALC_NODE) is a communication device (CPU) that executes a program, a temporary storage device (RAM) that stores data and a program, an auxiliary storage device (STOR), and a communication device (COM_SW) that is connected to a communication switch (COM_SW). COM_DEV). The processor (CPU), the temporary storage device (RAM), the auxiliary storage device (STOR), and the communication device (COM_DEV) are connected by a bus (BUS).
プロセッサ(CPU)は、一時記憶装置(RAM)に格納されたプログラムを実行する。一時記憶装置(RAM)は、不揮発性の記憶素子であるROM及び揮発性の記憶素子である(RAM)を含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。(RAM)は、D(RAM)(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサ(CPU)が実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。 The processor (CPU) executes a program stored in a temporary storage device (RAM). The temporary storage device (RAM) includes a ROM that is a nonvolatile storage element and a RAM that is a volatile storage element. The ROM stores an immutable program (for example, BIOS). (RAM) is a high-speed and volatile storage element such as D (RAM) (Dynamic Random Access Memory), and temporarily stores a program executed by the processor (CPU) and data used when the program is executed. To do.
補助記憶装置(STOR)は、例えば、磁気記憶装置(HDD)、フラッシュメモリ(SSD)等の大容量かつ不揮発性の記憶装置であり、プロセッサ(CPU)が実行するプログラム及びプログラムの実行時に使用されるデータを格納する。すなわち、プログラムは、補助記憶装置(STOR)から読み出されて、記憶装置(RAM)にロードされて、プロセッサ(CPU)によって実行される。 The auxiliary storage device (STOR) is a large-capacity non-volatile storage device such as a magnetic storage device (HDD) or a flash memory (SSD), for example, and is used when executing a program executed by a processor (CPU) and a program. Data to be stored. That is, the program is read from the auxiliary storage device (STOR), loaded into the storage device (RAM), and executed by the processor (CPU).
通信デバイス(COM_DEV)は、所定のプロトコルに従って、通信スイッチ(COM_SW)を介して、他の装置との通信を制御するネットワークインターフェース装置である。 The communication device (COM_DEV) is a network interface device that controls communication with other devices via a communication switch (COM_SW) according to a predetermined protocol.
各計算機(CALC_NODE)は、入力インターフェース及び出力インターフェースを有してもよい。入力インターフェースは、オペレータからの入力を受けるインターフェースであり、具体的には、マウス、キーボード、タッチパネル、マイクなどである。出力インターフェースは、プログラムの実行結果をオペレータが視認可能な形式で出力するインターフェースであり、ディスプレイ装置やプリンタなどである。 Each computer (CALC_NODE) may have an input interface and an output interface. The input interface is an interface that receives input from an operator, and specifically includes a mouse, a keyboard, a touch panel, a microphone, and the like. The output interface is an interface that outputs the execution result of the program in a format that can be visually recognized by the operator, such as a display device or a printer.
通信スイッチ(COM_SW)に、入力インターフェース及び出力インターフェースを有する端末計算機が接続されてもよい。 A terminal computer having an input interface and an output interface may be connected to the communication switch (COM_SW).
プロセッサ(CPU)が実行するプログラムは、リムーバブルメディア(CD−ROM、フラッシュメモリなど)又はネットワークを介して各計算機(CALC_NODE)に提供され、非一時的記憶媒体である不揮発性の補助記憶装置(STOR)に格納される。このため、各計算機(CALC_NODE)は、リムーバブルメディアからデータを読み込むインターフェースを有するとよい。 A program executed by the processor (CPU) is provided to each computer (CALC_NODE) via a removable medium (CD-ROM, flash memory, etc.) or a network, and is a nonvolatile auxiliary storage device (STOR) that is a non-temporary storage medium. ). Therefore, each computer (CALC_NODE) may have an interface for reading data from the removable medium.
各計算機(CALC_NODE)は、物理的に一つの計算機上で、又は、論理的又は物理的に構成された複数の計算機上で構成される計算機システムであり、同一の計算機上で別個のスレッドで動作してもよく、複数の物理的計算機資源上に構築された仮想計算機上で動作してもよい。また、各計算機(CALC_NODE)の各機能部は異なる計算機上で実現されてもよい。 Each computer (CALC_NODE) is a computer system that is configured on a single computer or a plurality of computers that are logically or physically configured, and operates on separate threads on the same computer. Alternatively, it may operate on a virtual machine built on a plurality of physical computer resources. Each functional unit of each computer (CALC_NODE) may be realized on a different computer.
図2は、第1の実施例の意思決定支援システムの論理的な構成を示すブロック図である。 FIG. 2 is a block diagram illustrating a logical configuration of the decision support system according to the first embodiment.
本実施例の意思決定支援システムは、アクション連鎖モデル1、反応モデル2、意思モデル4及び評価モデル5の四つのモデルで構成される。具体的には、図2に示す意思決定支援システムは、アクション連鎖モデル1、反応モデル2及び複数のアクション決定部3を有する。アクション決定部3は、意思モデル4、評価モデル5及びアクション選択部6を有し、プレーヤー毎に設けられる。
The decision support system according to the present embodiment includes four models: an
アクション連鎖モデル1は、図3に示すように、ルールベースのシミュレータであり、プレーヤーの現在のアクションから次に実行される蓋然性があるアクションを導出する。プレーヤーは、世の中で意思を決定し、行動する(アクションを実行する)主体であり、例えば、国民、行政機関(各省庁)、国会、内閣、外国政府、マスコミなどである。
As shown in FIG. 3, the
反応モデル2は、図4に示すように、ルールベースのシミュレータであり、各プレーヤーの現在のアクション及び現在の指標値から次の指標値を導出する。指標値とは、例えば、世の中で生じている事象(情勢の変化)を数値化した指標であり、経済指標(GDP、株価、為替レートなど)、世論調査結果(内閣支持率など)である。
As shown in FIG. 4, the
アクション決定部3は、プレーヤー毎に設けられ、各プレーヤーの次のアクションを導出する。
The
意思モデル4は、図5に示すように、次の指標値からアクション意思を導出するシミュレータである。アクション意思は、ある情勢(指標値の組み合わせによって表される)において採用されるアクションを実行する意志の強さを表す数値である。すなわち、各プレーヤーはアクション意思の値が大きいアクションを選択する確率(期待値)が高い。評価モデル5は、図6に示すように、次の指標値から評価値を導出するシミュレータである。評価値は、ある情勢がプレーヤーにとって望ましい程度を表す数値である。
As shown in FIG. 5, the
アクション選択部6は、当該プレーヤーの次のアクションの蓋然性、アクション意思及び評価値から当該プレーヤーの次のアクションを導出するセレクタである。アクション選択部6は、例えば、意思モデル4から出力されたアクション意思及び評価モデル5から出力された評価値でアクション連鎖モデル1から出力されたアクションに重み付けすることによって、当該プレーヤーの次のアクションを選択する。
The
アクション選択部6が導出した次のアクションは、アクション連鎖モデル1に入力され、次のアクションのシミュレーションに用いられる。また、反応モデル2が導出した次の指標値は、反応モデル2に入力され、次の指標値のシミュレーションに用いられる。
The next action derived by the
図3は、第1の実施例のアクション連鎖モデル1を説明する図である。アクション連鎖モデル1は、各プレーヤーのアクションをノードとしたマルコフ決定過程モデルで表されている。各ノードにはプレーヤーがアクションを選択する確率が対応付けられており、ノード間のエッジにはノード間を状態が遷移する確率が対応付けられている。
FIG. 3 is a diagram for explaining the
図3に示すアクション連鎖モデル1では、プレーヤー1がアクション1、アクション2及びアクション3を選択する確率は、それぞれ、0.3:0.5:0.2である。また、プレーヤー1がアクション1を選択した場合、プレーヤー2は0.8の確率でアクション2を選択する。つまり、プレーヤー2がアクション2を選択する確率は、式1によって表すことができる。
1−((1−0.3)×(1−0.8)) …(式1)
In the
1-((1-0.3) × (1-0.8)) (Formula 1)
アクション連鎖モデル1によって、プレーヤーの現在のアクションから蓋然性がある次のアクションを一つ又は複数導出することができる。
The
図4は、第1の実施例の反応モデル2を説明する図である。反応モデル2は、コーザル・ループ・ダイアグラムによって各指標間の相関関係を表すモデルである。
FIG. 4 is a diagram for explaining the
反応モデル2は、例えば図4に示すように、複数の指標をノードとして、ノード間をエッジによって連結したグラフィカルモデルによって表すことができる。各エッジの実線の矢印は正の相関を示し、破線の矢印は負の相関を示す。さらに、各エッジに係数を定めることによって、各指標の挙動を表すシステムダイナミクスモデルとすることができる。各エッジの係数は、指標の増減量との比で定義する。例えば、指標3と指標2とは正の相関があり、エッジの係数が0.5であれば、指標3が1増加したとき、指標2は0.5増加する。また、指標3と指標5とは負の相関があり、エッジの係数が1.2であれば、指標3が1増加したとき、指標5は1.2減少する。
For example, as illustrated in FIG. 4, the
なお、離散系シミュレーションを行う場合、計算機内では反応モデル2を漸化式で表すことができる。また、連続系シミュレーションを行う場合、計算機内では反応モデル2を一次微分方程式で表すことができる。
When performing a discrete system simulation, the
指標には、ストック要素とフロー要素とがある。ストック要素は、例えば、原油の備蓄量など、ある時点における量を示す。また、フロー要素は、例えば、原油の輸入量(生産量)や消費量など、時間帯における変数の流れを示す。ある指標をストック要素とするかフロー要素とするかは、世の中で、その指標が一般的にストック量及びフロー量のいずれとして使われているかによって決定するとよい。また、実際には数値で計測できない量(例えば、リスクインパクト、ナショナリズム)を指標として用いてもよい。このように、ストック要素とフロー要素とを混在させて反応モデル2を構成することによって、有識者の思考をそのままで、制約を設けることなく、モデル化することができる。
Indicators include stock elements and flow elements. The stock element indicates an amount at a certain point in time, for example, a stock of crude oil. The flow element indicates a flow of variables in a time zone such as the import amount (production amount) and consumption amount of crude oil. Whether an index is a stock element or a flow element may be determined depending on whether the index is generally used as a stock quantity or a flow quantity in the world. Moreover, you may use the quantity (for example, risk impact, nationalism) which cannot be actually measured numerically as a parameter | index. In this way, by configuring the
図5は、第1の実施例の意思モデル4を説明する図である。意思モデル4は、コーザル・ループ・ダイアグラムによって各指標間の相関関係を表し、さらに、各プレーヤーのアクションと各指標との相関関係を表すモデルである。
FIG. 5 is a diagram for explaining the
意思モデル4は、前述した反応モデル2と同様のモデルによって表すことができる。すなわち、意思モデル4は、例えば、複数の指標をノードとして、ノード間をエッジによって連結したグラフィカルモデルによって表すことができる。各エッジの実線の矢印は正の相関を示し、破線の矢印は負の相関を示す。さらに、各エッジに係数を定めることによって、各指標の挙動を表すシステムダイナミクスモデルとすることができる。各エッジの係数は、指標の増減量との比で定義する。
The
意思モデル4において、指標間は互いに相関関係を有するが、プレーヤーのアクションと指標との間は、各プレーヤーのアクションから指標へ向かうのエッジのみが定義され、逆方向のエッジは定義されない。また、各アクションの間のエッジも定義されない。意思モデル4によって、各プレーヤーのアクションの指標への影響をモデル化することができる。
In the
なお、離散系シミュレーションを行う場合、計算機内では意思モデル4を漸化式で表すことができる。また、連続系シミュレーションを行う場合、計算機内では意思モデル4を一次微分方程式で表すことができる。意思モデル4は、反応モデル2と同様に、意思モデル4の指標には、ストック要素とフロー要素とがある。
When performing discrete system simulation, the
図6は、第1の実施例の評価モデル5を説明する図である。評価モデル5は、コーザル・ループ・ダイアグラムによって各指標間の相関関係を表し、各プレーヤーのアクションと各指標との相関関係を表し、各指標と各プレーヤーの評価との相関関係を表し、さらに、各指標と各プレーヤーのアクションの意思との相関関係を表すモデルである。評価は、複数の指標の組み合わせによって表される情勢を、各プレーヤーが望ましいと思うかを示す数値である。なお、評価は、指標の数値範囲の組み合わせ毎に異なる評価値を持ってもよい。アクション意思は、各プレーヤーがとり得るアクションと各アクションを選択する確率の組によって表される。
FIG. 6 is a diagram for explaining the
評価モデル5は、前述した反応モデル2と同様のモデルによって表すことができる。すなわち、評価モデル5は、例えば、複数の指標をノードとして、ノード間をエッジによって連結したグラフィカルモデルによって表すことができる。各エッジの実線の矢印は正の相関を示し、破線の矢印は負の相関を示す。さらに、各エッジに係数を定めることによって、各指標の挙動を表すシステムダイナミクスモデルとすることができる。各エッジの係数は、指標の増減量との比で定義する。
The
評価モデル5において、指標間は互いに相関関係を有するが、プレーヤーのアクションと指標との間は、各プレーヤーのアクションから指標へ向かうのエッジのみが定義され、逆方向のエッジは定義されない。また、各アクションの間のエッジも定義されない。また、各指標と各プレーヤーの評価との間は、各指標から評価へ向かうのエッジのみが定義され、逆方向のエッジは定義されない。また、各指標と各プレーヤーのアクションの意思との間は、各指標からアクションの意思へ向かうのエッジのみが定義され、逆方向のエッジは定義されない。さらに、アクションの意思の間のエッジも定義されない。評価モデル5によって、各指標の各プレーヤーのアクションの意思の強さへの影響をモデル化することができ、各プレーヤーのアクションの評価値を定めることができる。
In the
なお、離散系シミュレーションを行う場合、計算機内では意思モデル4を漸化式で表すことができる。また、連続系シミュレーションを行う場合、計算機内では意思モデル4を一次微分方程式で表すことができる。評価モデル5は、反応モデル2と同様に、評価モデル5の指標には、ストック要素とフロー要素とがある。
When performing discrete system simulation, the
なお、評価モデル5は意思モデル4を含み、意思モデル4は反応モデル2を含む。このため、反応モデル2と意思モデル4と評価モデル5とは、一つのモデルを論理的に区分して構成してもよい。
The
反応モデル2、意思モデル4及び評価モデル5において、各ノードが表す事象は多少は関係があるので、ほとんど全てのノード間でエッジが定義できる。しかし、全てのノード間でエッジを定義するとモデルが複雑になるので、相関性が高いエッジ(例えば、係数が所定の閾値より大きいエッジ)によってモデルを構成するとよい。
In the
図7は、第1の実施例の意思決定支援システムによる処理のフローチャートである。 FIG. 7 is a flowchart of processing by the decision support system of the first embodiment.
まず、現在の状況及びシミュレーション期間が入力インターフェースに入力されると(S101)繰り返し制御パラメータtの初期値にシミュレーション開始時を設定し、シミュレーション終了時t_endを設定する。入力される現在の状態は、各プレーヤーの現在のアクション及び現在の各指標値を含む。 First, when the current situation and simulation period are input to the input interface (S101), the simulation start time is set as the initial value of the repetitive control parameter t, and the simulation end time t_end is set. The current state entered includes each player's current action and each current index value.
次に、tがt_endより小さいかを判定する(S102)。tがt_endより小さければ、ステップS103及びS105に進む。tがt_end以上であれば、指定された期間のシミュレーション結果が得られたので、処理を終了し、シミュレーション結果出力画面(図8)を出力する。 Next, it is determined whether t is smaller than t_end (S102). If t is smaller than t_end, the process proceeds to steps S103 and S105. If t is equal to or greater than t_end, the simulation result for the specified period is obtained, so the processing is terminated and the simulation result output screen (FIG. 8) is output.
ステップS103では、アクション連鎖モデル1を駆動し、プレーヤーの現在のアクションから蓋然性がある次のアクションを導出し、補助記憶装置(STOR)に格納する(S104)。また、ステップS105では、反応モデル2を駆動し、各プレーヤーの現在のアクション及び現在の指標値から次の指標値を導出し、補助記憶装置(STOR)に格納する(S106)。
In step S103, the
ステップS103〜S106の処理は、並行して実行することができるが、アクション連鎖モデル1を起動する処理(S103)と、反応モデル2を駆動する処理(S105)とを順に実行してもよい。 The processes of steps S103 to S106 can be executed in parallel, but the process of starting the action chain model 1 (S103) and the process of driving the reaction model 2 (S105) may be executed in order.
次に、全てのプレーヤーについて、意思モデル4及び評価モデル5を駆動する(S107、S109)。ステップS107〜S110の処理は、並行して実行することができるが、意思モデル4を起動する処理(S107)と、評価モデル5を駆動する処理(S109)とを順に実行してもよい。
Next, the
ステップS107では、意思モデル4を駆動し、次の指標値から各プレーヤーのアクション意思を導出し、補助記憶装置(STOR)に格納する(S108)。また、ステップS109では、評価モデル5を駆動し、次の指標値から評価値を導出し、補助記憶装置(STOR)に格納する(S110)。
In step S107, the
その後、アクション選択部6が、当該プレーヤーの次のアクションの蓋然性、アクション意思及び評価値を勘案して当該プレーヤーの次のアクションを決定し、補助記憶装置(STOR)に格納する(S111)。
Thereafter, the
全てのプレーヤーの次のアクションが決定した後、反応モデル2が出力した次の指標値を現在の指標値に設定して、反応モデル2の時刻を一つ進める(S112)。そして、繰り返し制御パラメータtに1を加算して(S113)、ステップS102に戻る。なお、tに加算される1は、シミュレーションを実行する時間間隔を示し、オペレータが(例えば、1日を)予め設定するとよい。
After the next action of all players is determined, the next index value output from the
以上の処理によって、シミュレーション期間中の各プレーヤーのアクションを導出できる。 Through the above processing, each player's action during the simulation period can be derived.
図8は、第1の実施例のシミュレーション結果出力画面1000の例を示す図である。シミュレーション結果出力画面1000は、時間の経過に伴って各プレーヤーが選択するアクションを表し、出力インターフェース(ディスプレイ装置)に表示される。例えば、図8に示すように、縦方向にプレーヤーが列記され、横方向にシミュレーション結果の時刻が列記された表形式で、各プレーヤーの各時刻におけるアクションが表示される。シミュレーション結果出力画面1000によって、ユーザは各プレーヤーがとるアクションを時系列に知ることができる。
FIG. 8 is a diagram illustrating an example of a simulation
次に、第1の実施例の変形例について説明する。以下に説明する変形例では、星取表を用いて各プレーヤーのアクションを選択する。 Next, a modification of the first embodiment will be described. In the modification described below, the action of each player is selected using a star chart.
図9は、第1の実施例の変形例の意思決定支援システムによる処理のフローチャートである。 FIG. 9 is a flowchart of processing by the decision support system according to the modification of the first embodiment.
まず、現在の状況及びシミュレーション期間が入力インターフェースに入力されると(S121)、繰り返し制御パラメータtの初期値をシミュレーション開始時に設定し、シミュレーション終了時t_endを設定する。入力される現在の状態には、各プレーヤーの現在のアクション及び現在の各指標値が含まれる。 First, when the current situation and simulation period are input to the input interface (S121), the initial value of the repetitive control parameter t is set at the start of simulation, and t_end at the end of simulation is set. The input current state includes the current action of each player and the current index values.
次に、tがt_endより小さいかを判定する。tがt_endより小さければ、ステップS103及びS105に進む(S122)。tがt_end以上であれば、指定された期間のシミュレーション結果が得られたので、処理を終了し、シミュレーション結果出力画面(図8)を出力する。 Next, it is determined whether t is smaller than t_end. If t is smaller than t_end, the process proceeds to steps S103 and S105 (S122). If t is equal to or greater than t_end, the simulation result for the specified period is obtained, so the processing is terminated and the simulation result output screen (FIG. 8) is output.
次に、全てのプレーヤーが取り得るアクションの選択肢の全ての組み合わせを列挙し(S123)、列挙された全ての組み合わせについて、アクション連鎖モデル1及び反応モデル2をt+αまで駆動し、各プレーヤーの次のアクション及び次の指標値を導出し、補助記憶装置(STOR)に格納する(S124)。αは、星取表に記載される各アクションのスコアを計算するうえで、時刻tにおいて予測が考慮される将来の時間である。
Next, all combinations of action options that all players can take are listed (S123), and for all the listed combinations, the
その後、全てのプレーヤーについて、意思モデル4及び評価モデル5を駆動し、各プレーヤーのアクション意思及び評価値を導出し、補助記憶装置(STOR)に格納する(S125)。
Thereafter, the
その後、時刻t+αでの評価値に基づいて星取表を作成し(S126)、星取表を用いて、時刻tにおけるプレーヤーのアクションを決定し、補助記憶装置(STOR)に格納する(S127)。具体的には、星取表は自分の評価と他のプレーヤーの評価とを記載した表で、後述するように、適切なアクションを選択するために用いられる。 Thereafter, a star chart is created based on the evaluation value at time t + α (S126), the action of the player at time t is determined using the star chart, and stored in the auxiliary storage device (STOR) (S127). Specifically, the star chart is a table in which one's own evaluation and other player's evaluation are described, and is used to select an appropriate action as will be described later.
全てのプレーヤーの次のアクションが決定した後、反応モデル2が出力した次の指標値を現在の指標値に設定して、反応モデル2の時刻を一つ進める(S128)。そして、繰り返し制御パラメータtに1を加算して(S129)、ステップS122に戻る。
After the next action of all players is determined, the next index value output from the
以上の処理によって、シミュレーション期間中の各プレーヤーのアクションを、他人のアクションを考慮しつつシミュレートできる。 Through the above processing, each player's action during the simulation period can be simulated in consideration of the actions of others.
図10は、第1の実施例の星取表出力画面1100の例を示す図である。星取表出力画面は、シミュレーション結果出力画面1000(図8)において、アクションの欄を選択することによって、出力インターフェース(ディスプレイ装置)に表示される。なお、星取表は、二人のプレーヤーのアクションの関係を表すので、オペレータは、シミュレーション結果出力画面1000においてアクションの欄を選択した後に、相手方のプレーヤーを選択する。
FIG. 10 is a diagram illustrating an example of the star
なお、星取表は、計算機の内部では、図11に示すモンテカルロ木によって構成するとよい。 Note that the star chart is preferably composed of a Monte Carlo tree shown in FIG. 11 inside the computer.
まず、画面の内容について説明する。図10に示す星取表出力画面1100は、二人のプレーヤーの関係を示し、縦方向にプレーヤー1のアクションが列記され、横方向にプレーヤー2のアクションが列記された星取表1110を含む。また、画面の下部には「戻る」ボタン1120が設けられている。オペレータが「戻る」ボタン1120を操作することによって、シミュレーション結果出力画面1000に戻ることができる。
First, the contents of the screen will be described. The star
次に、星取表の内容について説明する。図10に示す星取表は、プレーヤー1のアクションとプレーヤー2のアクションとの組において、プレーヤー1の評価とプレーヤー2の評価とが組になって記録される。評価は、図10に示すように記号で表してもよいし、数値で表してもよい。星取表を用いることによって、複数のプレーヤーの評価値を総合した評価したアクションを決定することができる。
Next, the contents of the star chart will be described. The star chart shown in FIG. 10 is recorded with a combination of the evaluation of the
次に、星取表を用いてアクションを選択する方法について、自分がプレーヤー1であり、相手がプレーヤー2である場合を説明する。MinMax法を用いて、想定される最大の損害が最小になるようにアクションを決定する。
Next, a method for selecting an action using the star chart will be described in the case where the player is the
例えば、プレーヤーが二人の場合、星取表の各行(自分のアクションが同じ行)に着目して、相手(プレーヤー2)の評価値が最も良いアクションにおけるプレーヤー1の評価値(MinMax評価値)が最も良いアクションを、自プレーヤーの次のアクションに決定する。図示した場合、プレーヤー1のアクションはアクション2に決定する。
For example, if there are two players, paying attention to each row of the star chart (your own action is the same), the evaluation value (MinMax evaluation value) of
また、プレーヤーが3人以上である場合、自分(プレーヤー1)のアクションについて、他プレーヤーのアクションを順に(そのプレーヤーの評価値が最も高いアクションを選ぶとして)固定した上で、自分の評価値が最も高いアクションに決定する。以下、具体的に説明する。 If there are three or more players, the actions of other players are fixed in order for the actions of the player (player 1) (assuming that the player with the highest evaluation value of the player is selected), Decide on the highest action. This will be specifically described below.
プレーヤーが3人の場合は、以下のステップでアクションを決める。 If there are three players, the action is decided by the following steps.
ステップ1:自分(プレーヤー1)のアクションをアクション1に設定する。
Step 1: Set own (player 1) action to
その状態で、プレーヤー2とプレーヤー3との2人のゲームを考える。
ステップ1−1:プレーヤー2を自プレーヤーとして、上記のプレーヤーが2人の方法(星取表によるMinMax)によって、プレーヤー2のアクションを決める。
ステップ1−2:プレーヤー3を自プレーヤーとして、上記のプレーヤーが2人の方法(星取表によるMinMax)によって、プレーヤー3のアクションを決める。
In that state, consider a two-player game between
Step 1-1: With the
Step 1-2: With the
以上で決まった各プレーヤーのアクション(プレーヤー1=アクション1、プレーヤー2=ステップ1−1で決めたアクション、プレーヤー3=ステップ1−2で決めたアクション)の組み合わせにおける、自分(プレーヤー1)の評価値を、プレーヤー1のアクション1における評価値に設定する。
Evaluation of the player (player 1) in the combination of the actions of each player determined as described above (
ステップ2:自分(プレーヤー1)のアクションをアクション2に設定する。
Step 2: Set own (player 1) action to
また、前述と同様の方法で、プレーヤー1のアクション2における評価値を決める。
Further, the evaluation value in the
ステップ3:自分(プレーヤー1)のアクションの数だけ、ステップ1の計算を行い、自分(プレーヤー1)にとっての評価値が最も良いアクションを決定する。
Step 3: The calculation of
さらに、プレーヤーが4人の場合は、以下のステップでアクションを決定する。 Furthermore, when there are four players, the action is determined by the following steps.
ステップ4:自分(プレーヤー1)のアクションを固定する。その結果、プレーヤー2〜4のプレーヤーが3人のゲームとなる。
ステップ4−1:3人のゲームにおいて、プレーヤー2を自プレーヤーとして、上記のプレーヤーが3人の方法によって、プレーヤー2のアクションを決める。
ステップ4−2:3人のゲームにおいて、プレーヤー3を自プレーヤーとして、上記のプレーヤーが3人の方法によって、プレーヤー3のアクションを決める。
ステップ4−3:3人のゲームにおいて、プレーヤー4を自プレーヤーとして、上記のプレーヤーが3人の方法によって、プレーヤー4のアクションを決める。
Step 4: Fix yourself (player 1) 's action. As a result, the
Step 4-1: In the game of three players, the
Step 4-2: In the three-player game, the
Step 4-3: In the three-player game, the
以上で決まった各プレーヤーのアクション(プレーヤー1=アクション1、プレーヤー2〜4=ステップ4−1〜4−3で決めたアクション)の組み合わせにおける、自分(プレーヤー1)の評価値を、プレーヤー1のアクション1における評価値に設定する。
ステップ5:自分(プレーヤー1)のアクションの数だけ、ステップ4の計算を行い、自分(プレーヤー1)にとっての評価値が最も良いアクションを決定する。
In the combination of the actions of each player determined as described above (
Step 5:
図11は、第1の実施例の星取表を構成するためのモンテカルロ木探索を説明する図である。 FIG. 11 is a diagram for explaining a Monte Carlo tree search for configuring the star chart of the first embodiment.
すなわち、図10を用いて前述した方法では、全プレーヤーの全てのアクションの組み合わせを計算するので、計算量が多い。このため、モンテカルロ木探索(Monte-Carlo Tree Search)を用いることで、少ない計算量で同様の処理を近似的に実行することができる。なお、モンテカルロ木の計算を無限回行うと、全プレーヤーの全てのアクションの組み合わせを計算した場合と同じ結果が得られる。 That is, in the method described above with reference to FIG. 10, since all combinations of actions of all players are calculated, the calculation amount is large. For this reason, the same processing can be approximately executed with a small amount of calculation by using Monte-Carlo Tree Search. If the Monte Carlo tree is calculated infinitely, the same result as when all combinations of actions of all players are calculated can be obtained.
図11に示すモンテカルロ木探索では、プレーヤー1〜4の4人によるゲームで、各プレーヤーが、アクション1、2のいずれかを選択可能な場合、自分(プレーヤー1)のアクション1における評価値を計算する処理を示す。
In the Monte Carlo tree search shown in FIG. 11, when each player can select one of
まず、自分(プレーヤー1)がアクション1を選択する。次に、プレーヤー2〜4のうちから1人をランダム(等確率)に選択する。以下、プレーヤー2を選択した場合を説明する。プレーヤー2は、子ノードにおいて、プレーヤー2にとって評価値の平均値が高いアクションを選択する。
First, the player (player 1) selects
次に、プレーヤー3又は4の1人をランダム(等確率)に選択する。以下、プレーヤー3を選択した場合を説明する。プレーヤー3は、子ノードにおいて、プレーヤー3にとって評価値の平均値が高いアクションを選択する。最後に、プレーヤー4が、子ノードにおいて、プレーヤー4にとって評価値の平均値が高いアクションを選択する。
Next, one
以上の処理によって、時刻X+0における、各プレーヤーのアクションの組が決定する。 With the above processing, a set of actions of each player at time X + 0 is determined.
さらに、先読みをする場合、以下の処理を実行する。 Further, when prefetching is performed, the following processing is executed.
まず、プレーヤー1〜4の1人をランダム(等確率)に選択し、子ノードにおいて、選択されたプレーヤーにとって評価値が高いアクションを選択する。その後、残りのプレーヤーについて、前述と同様に、ランダムにプレーヤーを選択し、アクションを決定する。ある程度まで木を展開した後、ランダム・プレイアウトによって、全てのプレーヤーがランダムにアクションを選択して、時刻を進める。そして、予め定めておいた先読み回数に達したときの各プレーヤーの評価値を計算する。最後に、それまで通ってきた木の各ノードを逆に辿って、ノードに付けられている評価値に、先読み時の評価値を追加して平均値を求め、評価値を更新する。
First, one of the
以上の処理を、数百回程度行った後、ルートノードに付されているプレーヤー1の評価値が、プレーヤー1のアクション1の評価値となる。
After performing the above processing about several hundred times, the evaluation value of the
以上の処理を、自分(プレーヤー1)がとり得る各アクションについて行い、最も自分(プレーヤー1)にとっての評価値が良いアクションを選択する。 The above processing is performed for each action that the player (player 1) can take, and the action with the best evaluation value for the player (player 1) is selected.
このように、星取表によって、ユーザはアクションが導出された理由を知ることができる。 Thus, the star chart allows the user to know the reason why the action is derived.
以上に説明したように、本発明の第1の実施例によると、アクション連鎖モデル1、反応モデル2、意思モデル4及び評価モデル5を用いて意思決定支援システムを構成するので、専門家の知見を容易に整理してモデル化することができる。このため、専門家の知見に基づいて将来生じるであろう情勢やアクションを予測することができる。特に、意思モデル4と評価モデル5を分けてモデル化するので、意思要因と抑制要因とを分けることができ、専門家の知見を加工することなくモデルに取り込むことができる。
As described above, according to the first embodiment of the present invention, since the decision support system is configured using the
<第2の実施例>
次に、本発明の第2の実施例について説明する。第2の実施例の意思決定支援システムは、アクション連鎖モデル1、反応モデル2、意思モデル4、評価モデル5及び調停モデル7の五つのモデルで構成される。第2の実施例では、前述した第1の実施例と同じ構成及び処理の説明は省略し、異なる構成及び処理について説明する。
<Second embodiment>
Next, a second embodiment of the present invention will be described. The decision support system of the second embodiment is composed of five models: an
図12は、第2の実施例の意思決定支援システムの論理的な構成を示すブロック図である。 FIG. 12 is a block diagram illustrating a logical configuration of the decision support system according to the second embodiment.
第2の実施例の意思決定支援システムは、アクション連鎖モデル1、反応モデル2、複数のアクション決定部3及び調停モデル7を有する。アクション決定部3は、意思モデル4、評価モデル5及びアクション選択部6を有し、プレーヤー毎に設けられる。
The decision support system of the second embodiment includes an
アクション連鎖モデル1、反応モデル2、意思モデル4、評価モデル5及びアクション選択部6は、前述した第1の実施例と同じである。なお、第2の実施例のアクション決定部3は、各プレーヤー毎に取り得る複数のアクションを、その選択率と共に出力する。
The
調停モデル7は、複数のアクション決定部3から出力されたアクションを調停して、各プレーヤーのアクションを決定する。例えば、各プレーヤーが取り得るアクションには、相反するものがある。調停モデル7は、これらの関係を用いて、同時に行うことができるアクションの組み合わせを選択し、各プレーヤーのアクションを決定する。
The mediation model 7 mediates the actions output from the plurality of
具体的には、調停モデル7は、アクション選択部6から出力された複数のアクションの選択率を計算し、各プレーヤー毎に選択率が最も高いアクションを選択し、各プレーヤーのアクションに決定する。
Specifically, the arbitration model 7 calculates a selection rate of a plurality of actions output from the
図13は、第2の実施例の調停モデル7を説明する図である。調停モデル7は、コーザル・ループ・ダイアグラムによって各指標間(ストック要素、フロー要素、状態要素)の相関関係を表すモデルである。 FIG. 13 is a diagram illustrating the arbitration model 7 according to the second embodiment. The arbitration model 7 is a model that represents the correlation between each index (stock element, flow element, state element) by a causal loop diagram.
例えば、図示した調停モデル7では、ストック要素1、2、3、4を、それぞれ、x1、x2、x3、x4とし、状態要素1、2を、それぞれ、y1、y2とし、各エッジの係数(k1〜k9)を定める。なお、状態要素は、現在の状態を表す数字であり、例えば、プレーヤー1が現在、アクション1を行っている場合に1、アクション1以外を行っている場合に0などと定めることができる。
For example, in the illustrated arbitration model 7, the
図示したように、ストック要素及び状態要素によって、ストック要素へ流入するフローの量や、ストック要素から流出するフローの量が決まり、ストック要素の量が啓示的に変化する。 As shown in the drawing, the amount of flow flowing into and out of the stock element is determined by the stock element and the state element, and the amount of the stock element changes in an empirical manner.
前述のように定義した場合、離散系シミュレーションにおいて、時刻t+1における各ストック要素の値は以下の漸化式によって計算することができる。
x1(t+1)=k1×y1(t)+k2×x4(t)−k3×x3(t)
x2(t+1)=x1(t)+k3×x3(t)−k4×x4(t)
x3(t+1)=k5×x4(t)−k6×x1(t)
x4(t+1)=k7×x1(t)−k8×x3(t)−k9×y2(t)
When defined as described above, in the discrete system simulation, the value of each stock element at time t + 1 can be calculated by the following recurrence formula.
x1 (t + 1) = k1 * y1 (t) + k2 * x4 (t) -k3 * x3 (t)
x2 (t + 1) = x1 (t) + k3 * x3 (t) -k4 * x4 (t)
x3 (t + 1) = k5 * x4 (t) -k6 * x1 (t)
x4 (t + 1) = k7 * x1 (t) -k8 * x3 (t) -k9 * y2 (t)
また、連続系シミュレーションにおいて、各ストック要素の値は以下の微分方程式によって計算することができる。
d[x1(t)]/dt=k1×y1(t)+k2×x4(t)−k3×x3(t)
d[x2(t)]/dt=x1(t)+k3×x3(t)−k4×x4(t)
d[x3(t)]/dt=k5×x4(t)−k6×x1(t)
d[x4(t)]/dt=k7×x1(t)−k8×x3(t)−k9×y2(t)
In the continuous system simulation, the value of each stock element can be calculated by the following differential equation.
d [x1 (t)] / dt = k1 * y1 (t) + k2 * x4 (t) -k3 * x3 (t)
d [x2 (t)] / dt = x1 (t) + k3 × x3 (t) −k4 × x4 (t)
d [x3 (t)] / dt = k5 * x4 (t) -k6 * x1 (t)
d [x4 (t)] / dt = k7 * x1 (t) -k8 * x3 (t) -k9 * y2 (t)
調停モデル7では、ストック要素及び状態要素によってフロー量を制御することによって、複数のストック要素を関連付けて制御し、各プレーヤーがアクションを選択する確率(選択率)を決定し、各プレーヤーのアクションを調停することができる。 In the arbitration model 7, by controlling the flow amount by the stock element and the state element, a plurality of stock elements are controlled in association with each other, the probability (selection rate) that each player selects an action is determined, and the action of each player is determined. Mediation is possible.
以上に説明したように、本発明の第2の実施例によると、調停モデル7が、アクション選択部6が選択した各プレーヤーのアクションを調停して、各プレーヤーのアクションを決定するので、複数プレーヤーのアクションの調停を考慮せず、モデル1、2、4、5を作成することができる。すなわち、アクションの調停と切り離してモデルを作成することができる。
As described above, according to the second embodiment of the present invention, the arbitration model 7 arbitrates the actions of each player selected by the
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。 The present invention is not limited to the above-described embodiments, and includes various modifications and equivalent configurations within the scope of the appended claims. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and the present invention is not necessarily limited to those having all the configurations described. A part of the configuration of one embodiment may be replaced with the configuration of another embodiment. Moreover, you may add the structure of another Example to the structure of a certain Example. In addition, for a part of the configuration of each embodiment, another configuration may be added, deleted, or replaced.
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。 In addition, each of the above-described configurations, functions, processing units, processing means, etc. may be realized in hardware by designing a part or all of them, for example, with an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing the program to be executed.
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。 Information such as programs, tables, and files that realize each function can be stored in a storage device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。 Further, the control lines and the information lines are those that are considered necessary for the explanation, and not all the control lines and the information lines that are necessary for the mounting are shown. In practice, it can be considered that almost all the components are connected to each other.
CALC_NODE 計算機
CPU プロセッサ
RAM 一時記憶装置
STOR 補助記憶装置
COM_SW 通信スイッチ
COM_DEV 通信デバイス
1 アクション連鎖モデル
2 反応モデル
3 アクション決定部
4 意思モデル
5 評価モデル
6 アクション選択部
7 調停モデル
CALC_NODE computer CPU processor RAM temporary storage device STOR auxiliary storage device COM_SW communication switch
Claims (8)
前記メモリは、意思決定に必要な複数の情勢を数値化した複数の指標値を格納し、
前記意思決定支援システムは、
前記プロセッサが、プレーヤーのアクションから次のアクションを導出するためのアクション連鎖モデルと、
前記プロセッサが、プレーヤーのアクションと前記指標値とから、次の指標値を導出するための反応モデルと、
前記プロセッサが、指標値からアクションの意思を表す選択確率をプレーヤー毎に導出するための意思モデルと、
前記プロセッサが、指標値から評価値をプレーヤー毎に導出するための評価モデルと、
前記プロセッサが、プレーヤーのアクションを選択するアクション選択部とを有し、
前記意思決定支援システムは、
前記アクション連鎖モデルを用いて、前記プレーヤーのアクションから前記プレーヤーがとり得る次のアクションを導出し、
前記反応モデルを用いて、前記プレーヤーのアクションと前記指標値とから、次の指標値を導出し、
前記意思モデルを用いて、前記導出された次の指標値から前記各プレーヤーのアクションの選択確率を計算し、
前記評価モデルを用いて、前記導出された次の指標値が前記各プレーヤーにとって望ましい程度を表す評価値を計算し、
前記アクション選択部は、前記アクション連鎖モデルを用いて導出されたアクションと、前記意思モデルを用いて計算された選択確率と、前記評価モデルを用いて計算された評価値とを用いて、前記各プレーヤーのアクションを選択し、前記選択されたアクションを出力することを特徴とする意思決定支援システム。 A decision support system comprising a computer having a processor and a memory,
The memory stores a plurality of index values obtained by quantifying a plurality of situations necessary for decision making,
The decision support system includes:
An action chain model for the processor to derive a next action from a player action;
A reaction model for the processor to derive a next index value from a player's action and the index value;
An intention model for the processor to derive, for each player, a selection probability representing the intention of the action from the index value;
An evaluation model for the processor to derive an evaluation value from the index value for each player;
The processor has an action selection unit for selecting an action of a player;
The decision support system includes:
Using the action chain model, deriving the next action that the player can take from the action of the player,
The reaction model is used to derive the next index value from the player's action and the index value,
Using the intention model, calculate the selection probability of each player's action from the derived next index value,
Using the evaluation model, calculating an evaluation value representing the degree to which the derived next index value is desirable for each player;
The action selection unit uses the action derived using the action chain model, the selection probability calculated using the intention model, and the evaluation value calculated using the evaluation model. A decision support system, characterized by selecting a player action and outputting the selected action.
前記プロセッサが、前記選択された各プレーヤーのアクションを調停して、前記各プレーヤーのアクションを決定するための調停モデルを有し、
前記アクション選択部は、前記各プレーヤーがとり得る複数のアクションを選択し、前記選択された複数のアクションの確率を出力し、
前記意思決定支援システムは、前記調停モデルを用いて、前記アクション選択部が選択した前記各プレーヤーのアクションを調停して、前記各プレーヤーのアクションを決定することを特徴とする意思決定支援システム。 The decision support system according to claim 1,
The processor has an arbitration model for arbitrating the actions of each selected player to determine the actions of each player;
The action selection unit selects a plurality of actions that each player can take, and outputs probabilities of the selected plurality of actions.
The decision support system uses the arbitration model to arbitrate the actions of the players selected by the action selection unit to determine the actions of the players.
前記アクション選択部は、前記選択された各プレーヤーのアクションを時系列に表示するための画面データを出力することを特徴とする意思決定支援システム。 The decision support system according to claim 1,
The action selection unit outputs screen data for displaying the actions of the selected players in time series.
前記アクション選択部は、前記複数のプレーヤーのアクションの組について、前記各プレーヤーの評価を表示するための画面データを出力することを特徴とする意思決定支援システム。 The decision support system according to claim 1,
The decision selection support system, wherein the action selection unit outputs screen data for displaying an evaluation of each player for a set of actions of the plurality of players.
前記メモリは、意思決定に必要な複数の情勢を数値化した複数の指標値を格納し、
前記計算機は、プレーヤーのアクションから次のアクションを導出するためのアクション連鎖モデルと、プレーヤーのアクションと前記指標値とから、次の指標値を導出するための反応モデルと、指標値からアクションの意思を表す選択確率をプレーヤー毎に導出するための意思モデルと、指標値から評価値をプレーヤー毎に導出するための評価モデルとを有し、
前記方法は、
前記プロセッサが、前記アクション連鎖モデルを用いて、前記プレーヤーのアクションから前記プレーヤーがとり得る次のアクションを導出し、前記メモリに格納し、
前記プロセッサが、前記反応モデルを用いて、前記プレーヤーのアクションと前記指標値とから、次の指標値を導出し、前記メモリに格納し、
前記プロセッサが、前記意思モデルを用いて、前記導出された次の指標値から前記各プレーヤーのアクションの選択確率を計算し、前記メモリに格納し、
前記プロセッサが、前記評価モデルを用いて、前記導出された次の指標値が前記各プレーヤーにとって望ましい程度を表す評価値を計算し、前記メモリに格納し、
前記プロセッサが、前記アクション連鎖モデルを用いて導出されたアクションと、前記意思モデルを用いて計算された選択確率と、前記評価モデルを用いて計算された評価値とを用いて、前記各プレーヤーのアクションを選択し、前記メモリに格納することを特徴とする意思決定支援方法。 A decision support method executed by a computer having a processor and a memory,
The memory stores a plurality of index values obtained by quantifying a plurality of situations necessary for decision making,
The calculator includes an action chain model for deriving a next action from a player action, a reaction model for deriving a next index value from the player action and the index value, and an intention of the action from the index value. An intention model for deriving a selection probability for each player, and an evaluation model for deriving an evaluation value for each player from the index value,
The method
The processor derives the next action that the player can take from the action of the player using the action chain model, and stores it in the memory;
The processor uses the reaction model to derive the next index value from the player action and the index value, and stores the next index value in the memory,
The processor calculates the selection probability of each player's action from the derived next index value using the intention model, and stores it in the memory;
The processor uses the evaluation model to calculate an evaluation value representing the degree to which the derived next index value is desirable for each player, and stores the evaluation value in the memory;
The processor uses the action derived using the action chain model, the selection probability calculated using the intention model, and the evaluation value calculated using the evaluation model to A decision support method, wherein an action is selected and stored in the memory.
前記計算機は、前記選択された各プレーヤーのアクションを調停して、前記各プレーヤーのアクションを決定するための調停モデルを有し、
前記プロセッサは、前記各プレーヤーがとり得る複数のアクションを選択し、前記選択された複数のアクションの確率を出力し、
前記プロセッサは、前記調停モデルを用いて、前記選択された前記各プレーヤーのアクションを調停して、前記各プレーヤーのアクションを決定することを特徴とする意思決定支援方法。 The decision support method according to claim 5,
The calculator has an arbitration model for arbitrating the actions of each selected player to determine the actions of each player;
The processor selects a plurality of actions that each player can take, and outputs probabilities of the selected plurality of actions.
A decision support method, wherein the processor arbitrates the action of each selected player using the arbitration model, and determines the action of each player.
前記プロセッサは、前記選択された各プレーヤーのアクションを時系列に表示するための画面データを出力することを特徴とする意思決定支援方法。 The decision support method according to claim 5,
The said processor outputs the screen data for displaying the action of each said selected player in time series, The decision support method characterized by the above-mentioned.
前記プロセッサは、前記複数のプレーヤーのアクションの組について、前記各プレーヤーの評価を表示するための画面データを出力することを特徴とする意思決定支援方法。 The decision support method according to claim 5,
A decision support method, wherein the processor outputs screen data for displaying an evaluation of each player for a set of actions of the plurality of players.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015107193A JP6511333B2 (en) | 2015-05-27 | 2015-05-27 | Decision support system and decision support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015107193A JP6511333B2 (en) | 2015-05-27 | 2015-05-27 | Decision support system and decision support method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016224512A true JP2016224512A (en) | 2016-12-28 |
JP6511333B2 JP6511333B2 (en) | 2019-05-15 |
Family
ID=57748147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015107193A Active JP6511333B2 (en) | 2015-05-27 | 2015-05-27 | Decision support system and decision support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6511333B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110772794A (en) * | 2019-10-12 | 2020-02-11 | 广州多益网络股份有限公司 | Intelligent game processing method, device, equipment and storage medium |
CN111798044A (en) * | 2020-06-30 | 2020-10-20 | 国网甘肃省电力公司武威供电公司 | RIES operation planning simulation method based on improved minimum cross entropy |
CN111931513A (en) * | 2020-07-08 | 2020-11-13 | 泰康保险集团股份有限公司 | Text intention identification method and device |
CN117933745A (en) * | 2024-01-08 | 2024-04-26 | 深业智慧科技(深圳)有限公司 | Intelligent park data visual analysis method and system based on big data processing |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004227208A (en) * | 2003-01-22 | 2004-08-12 | Matsushita Electric Ind Co Ltd | User-adaptive action determination device and action determination method |
JP2004258816A (en) * | 2003-02-24 | 2004-09-16 | Toshiba Corp | Equipment investment risk estimation method and system, and program therefor |
JP2004362066A (en) * | 2003-06-02 | 2004-12-24 | Fujitsu Ltd | Method and program for analyzing behavioral data |
JP2005258697A (en) * | 2004-03-10 | 2005-09-22 | Fuji Heavy Ind Ltd | System and method for control |
JP2006035388A (en) * | 2004-07-28 | 2006-02-09 | Riyuukoku Univ | Learning device, operating object equipped with learning device, learning method, learning program, and program-recording medium readable by computer |
JP2010073200A (en) * | 2008-09-18 | 2010-04-02 | Honda Motor Co Ltd | Learning system and learning method |
JP2010287028A (en) * | 2009-06-11 | 2010-12-24 | Sony Corp | Information processor, information processing method and program |
US20110106736A1 (en) * | 2008-06-26 | 2011-05-05 | Intuitive User Interfaces Ltd. | System and method for intuitive user interaction |
JP2012068780A (en) * | 2010-09-22 | 2012-04-05 | Internatl Business Mach Corp <Ibm> | Method for determining optimal action considering risk, program and apparatus |
JP2013242761A (en) * | 2012-05-22 | 2013-12-05 | Internatl Business Mach Corp <Ibm> | Method, and controller and control program thereof, for updating policy parameters under markov decision process system environment |
JP2014130520A (en) * | 2012-12-28 | 2014-07-10 | International Business Maschines Corporation | Method, computer system, and computer program for optimizing scheme for selecting action maximizing expectation return while suppressing risk |
-
2015
- 2015-05-27 JP JP2015107193A patent/JP6511333B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004227208A (en) * | 2003-01-22 | 2004-08-12 | Matsushita Electric Ind Co Ltd | User-adaptive action determination device and action determination method |
JP2004258816A (en) * | 2003-02-24 | 2004-09-16 | Toshiba Corp | Equipment investment risk estimation method and system, and program therefor |
JP2004362066A (en) * | 2003-06-02 | 2004-12-24 | Fujitsu Ltd | Method and program for analyzing behavioral data |
JP2005258697A (en) * | 2004-03-10 | 2005-09-22 | Fuji Heavy Ind Ltd | System and method for control |
JP2006035388A (en) * | 2004-07-28 | 2006-02-09 | Riyuukoku Univ | Learning device, operating object equipped with learning device, learning method, learning program, and program-recording medium readable by computer |
US20110106736A1 (en) * | 2008-06-26 | 2011-05-05 | Intuitive User Interfaces Ltd. | System and method for intuitive user interaction |
JP2010073200A (en) * | 2008-09-18 | 2010-04-02 | Honda Motor Co Ltd | Learning system and learning method |
JP2010287028A (en) * | 2009-06-11 | 2010-12-24 | Sony Corp | Information processor, information processing method and program |
JP2012068780A (en) * | 2010-09-22 | 2012-04-05 | Internatl Business Mach Corp <Ibm> | Method for determining optimal action considering risk, program and apparatus |
JP2013242761A (en) * | 2012-05-22 | 2013-12-05 | Internatl Business Mach Corp <Ibm> | Method, and controller and control program thereof, for updating policy parameters under markov decision process system environment |
JP2014130520A (en) * | 2012-12-28 | 2014-07-10 | International Business Maschines Corporation | Method, computer system, and computer program for optimizing scheme for selecting action maximizing expectation return while suppressing risk |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110772794A (en) * | 2019-10-12 | 2020-02-11 | 广州多益网络股份有限公司 | Intelligent game processing method, device, equipment and storage medium |
CN111798044A (en) * | 2020-06-30 | 2020-10-20 | 国网甘肃省电力公司武威供电公司 | RIES operation planning simulation method based on improved minimum cross entropy |
CN111931513A (en) * | 2020-07-08 | 2020-11-13 | 泰康保险集团股份有限公司 | Text intention identification method and device |
CN111931513B (en) * | 2020-07-08 | 2023-11-14 | 泰康保险集团股份有限公司 | Text intention recognition method and device |
CN117933745A (en) * | 2024-01-08 | 2024-04-26 | 深业智慧科技(深圳)有限公司 | Intelligent park data visual analysis method and system based on big data processing |
Also Published As
Publication number | Publication date |
---|---|
JP6511333B2 (en) | 2019-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10496436B2 (en) | Method and apparatus for automatically scheduling jobs in computer numerical control machines using machine learning approaches | |
JP6511333B2 (en) | Decision support system and decision support method | |
CN110956272A (en) | Method and system for realizing data processing | |
JP6247775B2 (en) | Time series prediction apparatus and time series prediction method | |
JP6316844B2 (en) | User interface for predictive model generation | |
JP2018147280A (en) | Data analysis device and data analysis method | |
CN111389006B (en) | Action prediction method and device | |
JP2020194377A (en) | Job power prediction program, job power prediction method, and job power prediction device | |
JP6301853B2 (en) | Secular change prediction system | |
Rhodes | Innovation in complex public service systems | |
CN113988199A (en) | Grading processing method and device for AI playing model and related equipment | |
US9892462B1 (en) | Heuristic model for improving the underwriting process | |
JP6422512B2 (en) | Computer system and graphical model management method | |
JP7249580B2 (en) | Application method, application program and application device | |
JP2017151614A (en) | Computing machine and analytical index calculation method | |
JP7373384B2 (en) | Verification method for computer systems and scheduling systems | |
JP2022007311A (en) | System for evaluating risk of information leakage from learning model | |
JP3889716B2 (en) | Evaluation apparatus and evaluation program | |
Gigerenzer et al. | Rationality the fast and frugal way: introduction | |
JP7476984B2 (en) | BEHAVIOR PREDICTION METHOD, BEHAVIOR PREDICTION DEVICE, AND PROGRAM | |
Kase | Parallel genetic algorithm optimization of a cognitive model: Investigating group and individual performance on a math stressor task | |
CN111727446A (en) | Equipment for risk analysis and modeling of complex systems and phenomena | |
JP7559927B2 (en) | Information processing device, estimation method, and program | |
Ovchinnik et al. | Monotonicity detection and enforcement in longitudinal classification | |
JP7456485B2 (en) | Observation efficiency improvement device, observation efficiency improvement method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181030 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6511333 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |