JP2016224512A - Decision support system and decision making support method - Google Patents

Decision support system and decision making support method Download PDF

Info

Publication number
JP2016224512A
JP2016224512A JP2015107193A JP2015107193A JP2016224512A JP 2016224512 A JP2016224512 A JP 2016224512A JP 2015107193 A JP2015107193 A JP 2015107193A JP 2015107193 A JP2015107193 A JP 2015107193A JP 2016224512 A JP2016224512 A JP 2016224512A
Authority
JP
Japan
Prior art keywords
action
player
model
evaluation
actions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015107193A
Other languages
Japanese (ja)
Other versions
JP6511333B2 (en
Inventor
幸二 福田
Koji Fukuda
幸二 福田
泰幸 工藤
Yasuyuki Kudo
泰幸 工藤
谷本 幸一
Koichi Tanimoto
幸一 谷本
美奈子 鳥羽
Minako Toba
美奈子 鳥羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2015107193A priority Critical patent/JP6511333B2/en
Publication of JP2016224512A publication Critical patent/JP2016224512A/en
Application granted granted Critical
Publication of JP6511333B2 publication Critical patent/JP6511333B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To naturally model expert knowledge and make future prediction.SOLUTION: A decision support system having an action chain model, a reaction model, a decision model, an evaluation model, and an action selection unit, derives a next action possibly taken by a player from actions of the player using the action chain model; derives next index values from the action of the player and index values using the reaction model; calculates a selection probability of the action of each player from the derived next index values using the decision model; and calculates an evaluation value representing a desirable degree of the derived next index values for each player using the evaluation model, and the action selection unit selects and outputs the action of each player using the action derived using the action chain model, the selection probability calculated using the decision model, and the evaluation value calculated using the evaluation model.SELECTED DRAWING: Figure 2

Description

本発明は、意思決定支援システムに関する。   The present invention relates to a decision support system.

専門家の知見を用いて将来生じるであろう情勢や関係者の行動を予測するコンピュータシステムが提案されている。   Computer systems have been proposed that use the knowledge of experts to predict future situations and behaviors of related parties.

例えば、特許文献1(特開平5−204991号公報)には、コンピュータと時系列データベースと登録パターンデータベースと端末装置からなるシステムにおいて、複数のパターンを登録するステップと、時系列データベースから時系列データを読み込み、既に登録されている複数のパターンとの照合をパターン毎,一定期間毎に行うステップと、登録されたパターン間の出現に関する因果関係を分析するステップと、分析結果を表示するステップとからなる時系列データ検索システムが記載されている。特許文献1に記載された時系列データ検索システムは、登録されたパターンと比較した結果に基づいて(ルールベースで)将来動向(アクション)を予測する。   For example, Patent Document 1 (Japanese Patent Laid-Open No. 5-204991) discloses a step of registering a plurality of patterns in a system including a computer, a time series database, a registration pattern database, and a terminal device, and a time series data from the time series database. From the step of performing the matching with a plurality of patterns already registered for each pattern and every predetermined period, the step of analyzing the causal relationship regarding the appearance between the registered patterns, and the step of displaying the analysis result A time-series data search system is described. The time-series data search system described in Patent Literature 1 predicts a future trend (action) based on a result of comparison with a registered pattern (on a rule basis).

特開平5−204991号公報JP-A-5-204991

しかし、特許文献1に記載されているようなルールベースの予測システムでは、連鎖モデルを用いて、多くのルールを含むモデルを作成して、次に何が生じるかをシミュレートするものである。このため、ルールベースの予測システムではモデルの作成が困難であった。すなわち、このモデルでは、全ての事象や関係者の行動を考慮しなければならず、専門家の知見を整理して、知見を統合したモデルを作成するために、専門家の知見を分類して、モデルを作成することは困難である。このため、専門家の知識を無理なくモデル化して、将来を予測するシステムが求められている。   However, in a rule-based prediction system as described in Patent Document 1, a model including many rules is created using a chain model, and what happens next is simulated. For this reason, it is difficult to create a model with a rule-based prediction system. In other words, in this model, all events and the actions of related parties must be taken into account, and in order to organize the knowledge of experts and create a model that integrates knowledge, the knowledge of experts is classified. Creating a model is difficult. For this reason, there is a need for a system that models expert knowledge without difficulty and predicts the future.

本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、プロセッサとメモリとを有する計算機によって構成される意思決定支援システムであって、前記メモリは、意思決定に必要な複数の情勢を数値化した複数の指標値を格納し、前記意思決定支援システムは、前記プロセッサが、プレーヤーのアクションから次のアクションを導出するためのアクション連鎖モデルと、前記プロセッサが、プレーヤーのアクションと前記指標値とから、次の指標値を導出するための反応モデルと、前記プロセッサが、指標値からアクションの意思を表す選択確率をプレーヤー毎に導出するための意思モデルと、前記プロセッサが、指標値から評価値をプレーヤー毎に導出するための評価モデルと、前記プロセッサが、プレーヤーのアクションを選択するアクション選択部とを有し、前記意思決定支援システムは、前記アクション連鎖モデルを用いて、前記プレーヤーのアクションから前記プレーヤーがとり得る次のアクションを導出し、前記反応モデルを用いて、前記プレーヤーのアクションと前記指標値とから、次の指標値を導出し、前記意思モデルを用いて、前記導出された次の指標値から前記各プレーヤーのアクションの選択確率を計算し、前記評価モデルを用いて、前記導出された次の指標値が前記各プレーヤーにとって望ましい程度を表す評価値を計算し、前記アクション選択部は、前記アクション連鎖モデルを用いて導出されたアクションと、前記意思モデルを用いて計算された選択確率と、前記評価モデルを用いて計算された評価値とを用いて、前記各プレーヤーのアクションを選択し、前記選択されたアクションを出力する。   A typical example of the invention disclosed in the present application is as follows. That is, a decision support system comprising a computer having a processor and a memory, wherein the memory stores a plurality of index values obtained by quantifying a plurality of situations necessary for decision making, and the decision support system Is an action chain model for the processor to derive the next action from the player's action, and a reaction model for the processor to derive the next index value from the player's action and the index value; An intention model for the player to derive, for each player, a selection probability representing the intention of the action from the index value; an evaluation model for the processor to derive an evaluation value for each player from the index value; An action selection unit for selecting an action of the player, and The system derives the next action that the player can take from the action of the player using the action chain model, and uses the reaction model to determine the next index value from the action of the player and the index value. And using the intention model to calculate the selection probability of each player's action from the derived next index value, and using the evaluation model, the derived next index value is An evaluation value representing a degree desired for the player is calculated, and the action selection unit uses the action derived using the action chain model, the selection probability calculated using the intention model, and the evaluation model. Using the calculated evaluation value, the action of each player is selected, and the selected action is output.

本発明の代表的な形態によれば、専門家の知見を容易に整理でき、将来生じるであろう情勢やアクションを専門家の知見に基づいて予測することができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。   According to the representative embodiment of the present invention, expert knowledge can be easily organized, and the situation and actions that will occur in the future can be predicted based on the expert knowledge. Problems, configurations, and effects other than those described above will become apparent from the description of the following embodiments.

第1の実施例の意思決定支援システムの物理的な構成を示すブロック図である。It is a block diagram which shows the physical structure of the decision support system of a 1st Example. 第1の実施例の意思決定支援システムの論理的な構成を示すブロック図である。It is a block diagram which shows the logical structure of the decision support system of a 1st Example. 第1の実施例のアクション連鎖モデルを説明する図である。It is a figure explaining the action chain model of the 1st example. 第1の実施例の反応モデルを説明する図である。It is a figure explaining the reaction model of the 1st example. 第1の実施例の意思モデルを説明する図である。It is a figure explaining the intention model of a 1st Example. 第1の実施例の評価モデルを説明する図である。It is a figure explaining the evaluation model of a 1st Example. 第1の実施例の意思決定支援システムによる処理のフローチャートである。It is a flowchart of the process by the decision support system of a 1st Example. 第1の実施例のシミュレーション結果出力画面の例を示す図である。It is a figure which shows the example of the simulation result output screen of 1st Example. 第1の実施例の変形例の意思決定支援システムによる処理のフローチャートである。It is a flowchart of the process by the decision support system of the modification of a 1st Example. 第1の実施例の星取表出力画面の例を示す図である。It is a figure which shows the example of the star chart output screen of a 1st Example. 第1の実施例の星取表を構成するためのモンテカルロ木探索を説明する図である。It is a figure explaining the Monte Carlo tree search for comprising the star chart of a 1st Example. 第2の実施例の意思決定支援システムの論理的な構成を示すブロック図である。It is a block diagram which shows the logical structure of the decision support system of a 2nd Example. 第2の実施例の調停モデルを説明する図である。It is a figure explaining the mediation model of a 2nd Example.

図1は、第1の実施例の意思決定支援システムの物理的な構成を示すブロック図である。   FIG. 1 is a block diagram showing the physical configuration of the decision support system of the first embodiment.

本実施例の意思決定支援システムは、複数の計算機(CALC_NODE)と、これら複数の計算機を接続する通信スイッチ(COM_SW)とを有する。   The decision support system according to this embodiment includes a plurality of computers (CALC_NODE) and a communication switch (COM_SW) that connects the plurality of computers.

各計算機(CALC_NODE)は、プログラムを実行するプロセッサ(CPU)と、データ及びプログラムを格納する一時記憶装置(RAM)及び補助記憶装置(STOR)と、通信スイッチ(COM_SW)と接続される通信デバイス(COM_DEV)とを有する。プロセッサ(CPU)と、一時記憶装置(RAM)と、補助記憶装置(STOR)と、通信デバイス(COM_DEV)とは、バス(BUS)で接続されている。   Each computer (CALC_NODE) is a communication device (CPU) that executes a program, a temporary storage device (RAM) that stores data and a program, an auxiliary storage device (STOR), and a communication device (COM_SW) that is connected to a communication switch (COM_SW). COM_DEV). The processor (CPU), the temporary storage device (RAM), the auxiliary storage device (STOR), and the communication device (COM_DEV) are connected by a bus (BUS).

プロセッサ(CPU)は、一時記憶装置(RAM)に格納されたプログラムを実行する。一時記憶装置(RAM)は、不揮発性の記憶素子であるROM及び揮発性の記憶素子である(RAM)を含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。(RAM)は、D(RAM)(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサ(CPU)が実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。   The processor (CPU) executes a program stored in a temporary storage device (RAM). The temporary storage device (RAM) includes a ROM that is a nonvolatile storage element and a RAM that is a volatile storage element. The ROM stores an immutable program (for example, BIOS). (RAM) is a high-speed and volatile storage element such as D (RAM) (Dynamic Random Access Memory), and temporarily stores a program executed by the processor (CPU) and data used when the program is executed. To do.

補助記憶装置(STOR)は、例えば、磁気記憶装置(HDD)、フラッシュメモリ(SSD)等の大容量かつ不揮発性の記憶装置であり、プロセッサ(CPU)が実行するプログラム及びプログラムの実行時に使用されるデータを格納する。すなわち、プログラムは、補助記憶装置(STOR)から読み出されて、記憶装置(RAM)にロードされて、プロセッサ(CPU)によって実行される。   The auxiliary storage device (STOR) is a large-capacity non-volatile storage device such as a magnetic storage device (HDD) or a flash memory (SSD), for example, and is used when executing a program executed by a processor (CPU) and a program. Data to be stored. That is, the program is read from the auxiliary storage device (STOR), loaded into the storage device (RAM), and executed by the processor (CPU).

通信デバイス(COM_DEV)は、所定のプロトコルに従って、通信スイッチ(COM_SW)を介して、他の装置との通信を制御するネットワークインターフェース装置である。   The communication device (COM_DEV) is a network interface device that controls communication with other devices via a communication switch (COM_SW) according to a predetermined protocol.

各計算機(CALC_NODE)は、入力インターフェース及び出力インターフェースを有してもよい。入力インターフェースは、オペレータからの入力を受けるインターフェースであり、具体的には、マウス、キーボード、タッチパネル、マイクなどである。出力インターフェースは、プログラムの実行結果をオペレータが視認可能な形式で出力するインターフェースであり、ディスプレイ装置やプリンタなどである。   Each computer (CALC_NODE) may have an input interface and an output interface. The input interface is an interface that receives input from an operator, and specifically includes a mouse, a keyboard, a touch panel, a microphone, and the like. The output interface is an interface that outputs the execution result of the program in a format that can be visually recognized by the operator, such as a display device or a printer.

通信スイッチ(COM_SW)に、入力インターフェース及び出力インターフェースを有する端末計算機が接続されてもよい。   A terminal computer having an input interface and an output interface may be connected to the communication switch (COM_SW).

プロセッサ(CPU)が実行するプログラムは、リムーバブルメディア(CD−ROM、フラッシュメモリなど)又はネットワークを介して各計算機(CALC_NODE)に提供され、非一時的記憶媒体である不揮発性の補助記憶装置(STOR)に格納される。このため、各計算機(CALC_NODE)は、リムーバブルメディアからデータを読み込むインターフェースを有するとよい。   A program executed by the processor (CPU) is provided to each computer (CALC_NODE) via a removable medium (CD-ROM, flash memory, etc.) or a network, and is a nonvolatile auxiliary storage device (STOR) that is a non-temporary storage medium. ). Therefore, each computer (CALC_NODE) may have an interface for reading data from the removable medium.

各計算機(CALC_NODE)は、物理的に一つの計算機上で、又は、論理的又は物理的に構成された複数の計算機上で構成される計算機システムであり、同一の計算機上で別個のスレッドで動作してもよく、複数の物理的計算機資源上に構築された仮想計算機上で動作してもよい。また、各計算機(CALC_NODE)の各機能部は異なる計算機上で実現されてもよい。   Each computer (CALC_NODE) is a computer system that is configured on a single computer or a plurality of computers that are logically or physically configured, and operates on separate threads on the same computer. Alternatively, it may operate on a virtual machine built on a plurality of physical computer resources. Each functional unit of each computer (CALC_NODE) may be realized on a different computer.

図2は、第1の実施例の意思決定支援システムの論理的な構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a logical configuration of the decision support system according to the first embodiment.

本実施例の意思決定支援システムは、アクション連鎖モデル1、反応モデル2、意思モデル4及び評価モデル5の四つのモデルで構成される。具体的には、図2に示す意思決定支援システムは、アクション連鎖モデル1、反応モデル2及び複数のアクション決定部3を有する。アクション決定部3は、意思モデル4、評価モデル5及びアクション選択部6を有し、プレーヤー毎に設けられる。   The decision support system according to the present embodiment includes four models: an action chain model 1, a reaction model 2, a intention model 4, and an evaluation model 5. Specifically, the decision support system shown in FIG. 2 includes an action chain model 1, a reaction model 2, and a plurality of action determination units 3. The action determination unit 3 includes an intention model 4, an evaluation model 5, and an action selection unit 6, and is provided for each player.

アクション連鎖モデル1は、図3に示すように、ルールベースのシミュレータであり、プレーヤーの現在のアクションから次に実行される蓋然性があるアクションを導出する。プレーヤーは、世の中で意思を決定し、行動する(アクションを実行する)主体であり、例えば、国民、行政機関(各省庁)、国会、内閣、外国政府、マスコミなどである。   As shown in FIG. 3, the action chain model 1 is a rule-based simulator, and derives an action that is likely to be executed next from the current action of the player. A player is a subject who makes decisions and acts (executes actions) in the world, and includes, for example, the public, administrative bodies (each ministry and agency), the Diet, the Cabinet, foreign governments, and the media.

反応モデル2は、図4に示すように、ルールベースのシミュレータであり、各プレーヤーの現在のアクション及び現在の指標値から次の指標値を導出する。指標値とは、例えば、世の中で生じている事象(情勢の変化)を数値化した指標であり、経済指標(GDP、株価、為替レートなど)、世論調査結果(内閣支持率など)である。   As shown in FIG. 4, the reaction model 2 is a rule-based simulator, and derives the next index value from the current action and the current index value of each player. The index value is, for example, an index that quantifies events occurring in the world (changes in circumstances), such as economic indicators (GDP, stock price, exchange rate, etc.), and public opinion survey results (Cabinet support rate, etc.).

アクション決定部3は、プレーヤー毎に設けられ、各プレーヤーの次のアクションを導出する。   The action determination unit 3 is provided for each player, and derives the next action of each player.

意思モデル4は、図5に示すように、次の指標値からアクション意思を導出するシミュレータである。アクション意思は、ある情勢(指標値の組み合わせによって表される)において採用されるアクションを実行する意志の強さを表す数値である。すなわち、各プレーヤーはアクション意思の値が大きいアクションを選択する確率(期待値)が高い。評価モデル5は、図6に示すように、次の指標値から評価値を導出するシミュレータである。評価値は、ある情勢がプレーヤーにとって望ましい程度を表す数値である。   As shown in FIG. 5, the intention model 4 is a simulator that derives an action intention from the next index value. The action intention is a numerical value indicating the strength of the will to execute the action adopted in a certain situation (represented by a combination of index values). That is, each player has a high probability (expected value) of selecting an action having a large action intention value. As shown in FIG. 6, the evaluation model 5 is a simulator that derives an evaluation value from the next index value. The evaluation value is a numerical value representing the degree to which a certain situation is desirable for the player.

アクション選択部6は、当該プレーヤーの次のアクションの蓋然性、アクション意思及び評価値から当該プレーヤーの次のアクションを導出するセレクタである。アクション選択部6は、例えば、意思モデル4から出力されたアクション意思及び評価モデル5から出力された評価値でアクション連鎖モデル1から出力されたアクションに重み付けすることによって、当該プレーヤーの次のアクションを選択する。   The action selection unit 6 is a selector that derives the next action of the player from the probability of the next action of the player, the action intention, and the evaluation value. The action selection unit 6 weights the action output from the action chain model 1 with the action intention output from the intention model 4 and the evaluation value output from the evaluation model 5, for example. select.

アクション選択部6が導出した次のアクションは、アクション連鎖モデル1に入力され、次のアクションのシミュレーションに用いられる。また、反応モデル2が導出した次の指標値は、反応モデル2に入力され、次の指標値のシミュレーションに用いられる。   The next action derived by the action selection unit 6 is input to the action chain model 1 and used for simulation of the next action. The next index value derived by the reaction model 2 is input to the reaction model 2 and used for the simulation of the next index value.

図3は、第1の実施例のアクション連鎖モデル1を説明する図である。アクション連鎖モデル1は、各プレーヤーのアクションをノードとしたマルコフ決定過程モデルで表されている。各ノードにはプレーヤーがアクションを選択する確率が対応付けられており、ノード間のエッジにはノード間を状態が遷移する確率が対応付けられている。   FIG. 3 is a diagram for explaining the action chain model 1 of the first embodiment. The action chain model 1 is represented by a Markov decision process model in which each player's action is a node. Each node is associated with a probability that the player selects an action, and an edge between the nodes is associated with a probability that the state transitions between the nodes.

図3に示すアクション連鎖モデル1では、プレーヤー1がアクション1、アクション2及びアクション3を選択する確率は、それぞれ、0.3:0.5:0.2である。また、プレーヤー1がアクション1を選択した場合、プレーヤー2は0.8の確率でアクション2を選択する。つまり、プレーヤー2がアクション2を選択する確率は、式1によって表すことができる。
1−((1−0.3)×(1−0.8)) …(式1)
In the action chain model 1 shown in FIG. 3, the probabilities that the player 1 selects the action 1, the action 2 and the action 3 are 0.3: 0.5: 0.2, respectively. When player 1 selects action 1, player 2 selects action 2 with a probability of 0.8. That is, the probability that the player 2 selects the action 2 can be expressed by Equation 1.
1-((1-0.3) × (1-0.8)) (Formula 1)

アクション連鎖モデル1によって、プレーヤーの現在のアクションから蓋然性がある次のアクションを一つ又は複数導出することができる。   The action chain model 1 can derive one or more next actions that are likely from the player's current action.

図4は、第1の実施例の反応モデル2を説明する図である。反応モデル2は、コーザル・ループ・ダイアグラムによって各指標間の相関関係を表すモデルである。   FIG. 4 is a diagram for explaining the reaction model 2 of the first embodiment. The reaction model 2 is a model that represents the correlation between each index by a causal loop diagram.

反応モデル2は、例えば図4に示すように、複数の指標をノードとして、ノード間をエッジによって連結したグラフィカルモデルによって表すことができる。各エッジの実線の矢印は正の相関を示し、破線の矢印は負の相関を示す。さらに、各エッジに係数を定めることによって、各指標の挙動を表すシステムダイナミクスモデルとすることができる。各エッジの係数は、指標の増減量との比で定義する。例えば、指標3と指標2とは正の相関があり、エッジの係数が0.5であれば、指標3が1増加したとき、指標2は0.5増加する。また、指標3と指標5とは負の相関があり、エッジの係数が1.2であれば、指標3が1増加したとき、指標5は1.2減少する。   For example, as illustrated in FIG. 4, the reaction model 2 can be represented by a graphical model in which a plurality of indices are nodes and the nodes are connected by edges. A solid line arrow at each edge indicates a positive correlation, and a broken line arrow indicates a negative correlation. Furthermore, by defining a coefficient for each edge, a system dynamics model representing the behavior of each index can be obtained. The coefficient of each edge is defined by the ratio with the increase / decrease amount of the index. For example, if the index 3 and the index 2 have a positive correlation and the edge coefficient is 0.5, when the index 3 increases by 1, the index 2 increases by 0.5. In addition, the index 3 and the index 5 have a negative correlation, and if the edge coefficient is 1.2, when the index 3 increases by 1, the index 5 decreases by 1.2.

なお、離散系シミュレーションを行う場合、計算機内では反応モデル2を漸化式で表すことができる。また、連続系シミュレーションを行う場合、計算機内では反応モデル2を一次微分方程式で表すことができる。   When performing a discrete system simulation, the reaction model 2 can be represented by a recurrence formula in the computer. Moreover, when performing a continuous system simulation, the reaction model 2 can be represented by a primary differential equation in the computer.

指標には、ストック要素とフロー要素とがある。ストック要素は、例えば、原油の備蓄量など、ある時点における量を示す。また、フロー要素は、例えば、原油の輸入量(生産量)や消費量など、時間帯における変数の流れを示す。ある指標をストック要素とするかフロー要素とするかは、世の中で、その指標が一般的にストック量及びフロー量のいずれとして使われているかによって決定するとよい。また、実際には数値で計測できない量(例えば、リスクインパクト、ナショナリズム)を指標として用いてもよい。このように、ストック要素とフロー要素とを混在させて反応モデル2を構成することによって、有識者の思考をそのままで、制約を設けることなく、モデル化することができる。   Indicators include stock elements and flow elements. The stock element indicates an amount at a certain point in time, for example, a stock of crude oil. The flow element indicates a flow of variables in a time zone such as the import amount (production amount) and consumption amount of crude oil. Whether an index is a stock element or a flow element may be determined depending on whether the index is generally used as a stock quantity or a flow quantity in the world. Moreover, you may use the quantity (for example, risk impact, nationalism) which cannot be actually measured numerically as a parameter | index. In this way, by configuring the reaction model 2 by mixing the stock elements and the flow elements, it is possible to model the thinking of the expert without any restrictions.

図5は、第1の実施例の意思モデル4を説明する図である。意思モデル4は、コーザル・ループ・ダイアグラムによって各指標間の相関関係を表し、さらに、各プレーヤーのアクションと各指標との相関関係を表すモデルである。   FIG. 5 is a diagram for explaining the intention model 4 of the first embodiment. The intention model 4 is a model that expresses a correlation between each index by a causal loop diagram, and further represents a correlation between each player's action and each index.

意思モデル4は、前述した反応モデル2と同様のモデルによって表すことができる。すなわち、意思モデル4は、例えば、複数の指標をノードとして、ノード間をエッジによって連結したグラフィカルモデルによって表すことができる。各エッジの実線の矢印は正の相関を示し、破線の矢印は負の相関を示す。さらに、各エッジに係数を定めることによって、各指標の挙動を表すシステムダイナミクスモデルとすることができる。各エッジの係数は、指標の増減量との比で定義する。   The intention model 4 can be expressed by a model similar to the reaction model 2 described above. That is, the intention model 4 can be represented by, for example, a graphical model in which a plurality of indices are nodes and nodes are connected by edges. A solid line arrow at each edge indicates a positive correlation, and a broken line arrow indicates a negative correlation. Furthermore, by defining a coefficient for each edge, a system dynamics model representing the behavior of each index can be obtained. The coefficient of each edge is defined by the ratio with the increase / decrease amount of the index.

意思モデル4において、指標間は互いに相関関係を有するが、プレーヤーのアクションと指標との間は、各プレーヤーのアクションから指標へ向かうのエッジのみが定義され、逆方向のエッジは定義されない。また、各アクションの間のエッジも定義されない。意思モデル4によって、各プレーヤーのアクションの指標への影響をモデル化することができる。   In the intention model 4, the indexes have a correlation with each other. However, between the player's action and the index, only the edge from each player's action toward the index is defined, and the opposite edge is not defined. Also, the edge between each action is not defined. The intention model 4 can model the influence of each player's action on the index.

なお、離散系シミュレーションを行う場合、計算機内では意思モデル4を漸化式で表すことができる。また、連続系シミュレーションを行う場合、計算機内では意思モデル4を一次微分方程式で表すことができる。意思モデル4は、反応モデル2と同様に、意思モデル4の指標には、ストック要素とフロー要素とがある。   When performing discrete system simulation, the intention model 4 can be expressed by a recurrence formula in the computer. Moreover, when performing a continuous system simulation, the intention model 4 can be represented by a primary differential equation in the computer. In the intention model 4, as in the reaction model 2, the indicators of the intention model 4 include a stock element and a flow element.

図6は、第1の実施例の評価モデル5を説明する図である。評価モデル5は、コーザル・ループ・ダイアグラムによって各指標間の相関関係を表し、各プレーヤーのアクションと各指標との相関関係を表し、各指標と各プレーヤーの評価との相関関係を表し、さらに、各指標と各プレーヤーのアクションの意思との相関関係を表すモデルである。評価は、複数の指標の組み合わせによって表される情勢を、各プレーヤーが望ましいと思うかを示す数値である。なお、評価は、指標の数値範囲の組み合わせ毎に異なる評価値を持ってもよい。アクション意思は、各プレーヤーがとり得るアクションと各アクションを選択する確率の組によって表される。   FIG. 6 is a diagram for explaining the evaluation model 5 of the first embodiment. The evaluation model 5 represents a correlation between each indicator by a corusal loop diagram, represents a correlation between each player's action and each indicator, represents a correlation between each indicator and each player's evaluation, This model represents the correlation between each indicator and each player's intention of action. The evaluation is a numerical value indicating whether each player prefers the situation represented by the combination of a plurality of indicators. Note that the evaluation may have a different evaluation value for each combination of numerical ranges of the index. The action intention is represented by a set of actions that each player can take and the probability of selecting each action.

評価モデル5は、前述した反応モデル2と同様のモデルによって表すことができる。すなわち、評価モデル5は、例えば、複数の指標をノードとして、ノード間をエッジによって連結したグラフィカルモデルによって表すことができる。各エッジの実線の矢印は正の相関を示し、破線の矢印は負の相関を示す。さらに、各エッジに係数を定めることによって、各指標の挙動を表すシステムダイナミクスモデルとすることができる。各エッジの係数は、指標の増減量との比で定義する。   The evaluation model 5 can be represented by a model similar to the reaction model 2 described above. That is, the evaluation model 5 can be represented by, for example, a graphical model in which a plurality of indices are nodes and nodes are connected by edges. A solid line arrow at each edge indicates a positive correlation, and a broken line arrow indicates a negative correlation. Furthermore, by defining a coefficient for each edge, a system dynamics model representing the behavior of each index can be obtained. The coefficient of each edge is defined by the ratio with the increase / decrease amount of the index.

評価モデル5において、指標間は互いに相関関係を有するが、プレーヤーのアクションと指標との間は、各プレーヤーのアクションから指標へ向かうのエッジのみが定義され、逆方向のエッジは定義されない。また、各アクションの間のエッジも定義されない。また、各指標と各プレーヤーの評価との間は、各指標から評価へ向かうのエッジのみが定義され、逆方向のエッジは定義されない。また、各指標と各プレーヤーのアクションの意思との間は、各指標からアクションの意思へ向かうのエッジのみが定義され、逆方向のエッジは定義されない。さらに、アクションの意思の間のエッジも定義されない。評価モデル5によって、各指標の各プレーヤーのアクションの意思の強さへの影響をモデル化することができ、各プレーヤーのアクションの評価値を定めることができる。   In the evaluation model 5, the indexes have a correlation with each other, but only an edge from each player's action toward the index is defined, and no opposite edge is defined between the player's action and the index. Also, the edge between each action is not defined. Also, between each index and each player's evaluation, only the edge from each index toward the evaluation is defined, and the opposite edge is not defined. Also, between each index and each player's action intention, only the edge from each index toward the action intention is defined, and the opposite edge is not defined. In addition, the edges between intentions of action are not defined. The evaluation model 5 can model the effect of each index on the strength of the intention of each player's action, and can determine the evaluation value of each player's action.

なお、離散系シミュレーションを行う場合、計算機内では意思モデル4を漸化式で表すことができる。また、連続系シミュレーションを行う場合、計算機内では意思モデル4を一次微分方程式で表すことができる。評価モデル5は、反応モデル2と同様に、評価モデル5の指標には、ストック要素とフロー要素とがある。   When performing discrete system simulation, the intention model 4 can be expressed by a recurrence formula in the computer. Moreover, when performing a continuous system simulation, the intention model 4 can be represented by a primary differential equation in the computer. Similar to the reaction model 2, the evaluation model 5 includes stock elements and flow elements as indices of the evaluation model 5.

なお、評価モデル5は意思モデル4を含み、意思モデル4は反応モデル2を含む。このため、反応モデル2と意思モデル4と評価モデル5とは、一つのモデルを論理的に区分して構成してもよい。   The evaluation model 5 includes the intention model 4, and the intention model 4 includes the reaction model 2. Therefore, the reaction model 2, the intention model 4, and the evaluation model 5 may be configured by logically dividing one model.

反応モデル2、意思モデル4及び評価モデル5において、各ノードが表す事象は多少は関係があるので、ほとんど全てのノード間でエッジが定義できる。しかし、全てのノード間でエッジを定義するとモデルが複雑になるので、相関性が高いエッジ(例えば、係数が所定の閾値より大きいエッジ)によってモデルを構成するとよい。   In the reaction model 2, the intention model 4, and the evaluation model 5, the events represented by each node are somewhat related, so that an edge can be defined between almost all nodes. However, if the edges are defined between all the nodes, the model becomes complicated. Therefore, the model may be configured with edges having high correlation (for example, edges whose coefficients are larger than a predetermined threshold).

図7は、第1の実施例の意思決定支援システムによる処理のフローチャートである。   FIG. 7 is a flowchart of processing by the decision support system of the first embodiment.

まず、現在の状況及びシミュレーション期間が入力インターフェースに入力されると(S101)繰り返し制御パラメータtの初期値にシミュレーション開始時を設定し、シミュレーション終了時t_endを設定する。入力される現在の状態は、各プレーヤーの現在のアクション及び現在の各指標値を含む。   First, when the current situation and simulation period are input to the input interface (S101), the simulation start time is set as the initial value of the repetitive control parameter t, and the simulation end time t_end is set. The current state entered includes each player's current action and each current index value.

次に、tがt_endより小さいかを判定する(S102)。tがt_endより小さければ、ステップS103及びS105に進む。tがt_end以上であれば、指定された期間のシミュレーション結果が得られたので、処理を終了し、シミュレーション結果出力画面(図8)を出力する。   Next, it is determined whether t is smaller than t_end (S102). If t is smaller than t_end, the process proceeds to steps S103 and S105. If t is equal to or greater than t_end, the simulation result for the specified period is obtained, so the processing is terminated and the simulation result output screen (FIG. 8) is output.

ステップS103では、アクション連鎖モデル1を駆動し、プレーヤーの現在のアクションから蓋然性がある次のアクションを導出し、補助記憶装置(STOR)に格納する(S104)。また、ステップS105では、反応モデル2を駆動し、各プレーヤーの現在のアクション及び現在の指標値から次の指標値を導出し、補助記憶装置(STOR)に格納する(S106)。   In step S103, the action chain model 1 is driven, and the next action having a probability is derived from the current action of the player, and stored in the auxiliary storage device (STOR) (S104). In step S105, the reaction model 2 is driven, and the next index value is derived from the current action and the current index value of each player, and stored in the auxiliary storage device (STOR) (S106).

ステップS103〜S106の処理は、並行して実行することができるが、アクション連鎖モデル1を起動する処理(S103)と、反応モデル2を駆動する処理(S105)とを順に実行してもよい。   The processes of steps S103 to S106 can be executed in parallel, but the process of starting the action chain model 1 (S103) and the process of driving the reaction model 2 (S105) may be executed in order.

次に、全てのプレーヤーについて、意思モデル4及び評価モデル5を駆動する(S107、S109)。ステップS107〜S110の処理は、並行して実行することができるが、意思モデル4を起動する処理(S107)と、評価モデル5を駆動する処理(S109)とを順に実行してもよい。   Next, the intention model 4 and the evaluation model 5 are driven for all players (S107, S109). The processes of steps S107 to S110 can be executed in parallel, but the process of starting the intention model 4 (S107) and the process of driving the evaluation model 5 (S109) may be executed in order.

ステップS107では、意思モデル4を駆動し、次の指標値から各プレーヤーのアクション意思を導出し、補助記憶装置(STOR)に格納する(S108)。また、ステップS109では、評価モデル5を駆動し、次の指標値から評価値を導出し、補助記憶装置(STOR)に格納する(S110)。   In step S107, the intention model 4 is driven, the action intention of each player is derived from the next index value, and stored in the auxiliary storage device (STOR) (S108). In step S109, the evaluation model 5 is driven, an evaluation value is derived from the next index value, and stored in the auxiliary storage device (STOR) (S110).

その後、アクション選択部6が、当該プレーヤーの次のアクションの蓋然性、アクション意思及び評価値を勘案して当該プレーヤーの次のアクションを決定し、補助記憶装置(STOR)に格納する(S111)。   Thereafter, the action selection unit 6 determines the next action of the player in consideration of the probability of the next action of the player, the action intention, and the evaluation value, and stores them in the auxiliary storage device (STOR) (S111).

全てのプレーヤーの次のアクションが決定した後、反応モデル2が出力した次の指標値を現在の指標値に設定して、反応モデル2の時刻を一つ進める(S112)。そして、繰り返し制御パラメータtに1を加算して(S113)、ステップS102に戻る。なお、tに加算される1は、シミュレーションを実行する時間間隔を示し、オペレータが(例えば、1日を)予め設定するとよい。   After the next action of all players is determined, the next index value output from the reaction model 2 is set to the current index value, and the time of the reaction model 2 is advanced by one (S112). Then, 1 is added to the repetitive control parameter t (S113), and the process returns to step S102. In addition, 1 added to t shows the time interval which performs simulation, and it is good for an operator to preset (for example, 1 day).

以上の処理によって、シミュレーション期間中の各プレーヤーのアクションを導出できる。   Through the above processing, each player's action during the simulation period can be derived.

図8は、第1の実施例のシミュレーション結果出力画面1000の例を示す図である。シミュレーション結果出力画面1000は、時間の経過に伴って各プレーヤーが選択するアクションを表し、出力インターフェース(ディスプレイ装置)に表示される。例えば、図8に示すように、縦方向にプレーヤーが列記され、横方向にシミュレーション結果の時刻が列記された表形式で、各プレーヤーの各時刻におけるアクションが表示される。シミュレーション結果出力画面1000によって、ユーザは各プレーヤーがとるアクションを時系列に知ることができる。   FIG. 8 is a diagram illustrating an example of a simulation result output screen 1000 according to the first embodiment. The simulation result output screen 1000 represents an action selected by each player as time passes, and is displayed on an output interface (display device). For example, as shown in FIG. 8, the actions at each time of each player are displayed in a table format in which players are listed in the vertical direction and times of simulation results are listed in the horizontal direction. The simulation result output screen 1000 allows the user to know the actions taken by each player in time series.

次に、第1の実施例の変形例について説明する。以下に説明する変形例では、星取表を用いて各プレーヤーのアクションを選択する。   Next, a modification of the first embodiment will be described. In the modification described below, the action of each player is selected using a star chart.

図9は、第1の実施例の変形例の意思決定支援システムによる処理のフローチャートである。   FIG. 9 is a flowchart of processing by the decision support system according to the modification of the first embodiment.

まず、現在の状況及びシミュレーション期間が入力インターフェースに入力されると(S121)、繰り返し制御パラメータtの初期値をシミュレーション開始時に設定し、シミュレーション終了時t_endを設定する。入力される現在の状態には、各プレーヤーの現在のアクション及び現在の各指標値が含まれる。   First, when the current situation and simulation period are input to the input interface (S121), the initial value of the repetitive control parameter t is set at the start of simulation, and t_end at the end of simulation is set. The input current state includes the current action of each player and the current index values.

次に、tがt_endより小さいかを判定する。tがt_endより小さければ、ステップS103及びS105に進む(S122)。tがt_end以上であれば、指定された期間のシミュレーション結果が得られたので、処理を終了し、シミュレーション結果出力画面(図8)を出力する。   Next, it is determined whether t is smaller than t_end. If t is smaller than t_end, the process proceeds to steps S103 and S105 (S122). If t is equal to or greater than t_end, the simulation result for the specified period is obtained, so the processing is terminated and the simulation result output screen (FIG. 8) is output.

次に、全てのプレーヤーが取り得るアクションの選択肢の全ての組み合わせを列挙し(S123)、列挙された全ての組み合わせについて、アクション連鎖モデル1及び反応モデル2をt+αまで駆動し、各プレーヤーの次のアクション及び次の指標値を導出し、補助記憶装置(STOR)に格納する(S124)。αは、星取表に記載される各アクションのスコアを計算するうえで、時刻tにおいて予測が考慮される将来の時間である。   Next, all combinations of action options that all players can take are listed (S123), and for all the listed combinations, the action chain model 1 and the reaction model 2 are driven to t + α, and each player's next combination is selected. The action and the next index value are derived and stored in the auxiliary storage device (STOR) (S124). α is a future time at which a prediction is considered at time t in calculating the score of each action described in the star chart.

その後、全てのプレーヤーについて、意思モデル4及び評価モデル5を駆動し、各プレーヤーのアクション意思及び評価値を導出し、補助記憶装置(STOR)に格納する(S125)。   Thereafter, the intention model 4 and the evaluation model 5 are driven for all the players, and the action intention and evaluation value of each player are derived and stored in the auxiliary storage device (STOR) (S125).

その後、時刻t+αでの評価値に基づいて星取表を作成し(S126)、星取表を用いて、時刻tにおけるプレーヤーのアクションを決定し、補助記憶装置(STOR)に格納する(S127)。具体的には、星取表は自分の評価と他のプレーヤーの評価とを記載した表で、後述するように、適切なアクションを選択するために用いられる。   Thereafter, a star chart is created based on the evaluation value at time t + α (S126), the action of the player at time t is determined using the star chart, and stored in the auxiliary storage device (STOR) (S127). Specifically, the star chart is a table in which one's own evaluation and other player's evaluation are described, and is used to select an appropriate action as will be described later.

全てのプレーヤーの次のアクションが決定した後、反応モデル2が出力した次の指標値を現在の指標値に設定して、反応モデル2の時刻を一つ進める(S128)。そして、繰り返し制御パラメータtに1を加算して(S129)、ステップS122に戻る。   After the next action of all players is determined, the next index value output from the reaction model 2 is set as the current index value, and the time of the reaction model 2 is advanced by one (S128). Then, 1 is added to the repetition control parameter t (S129), and the process returns to step S122.

以上の処理によって、シミュレーション期間中の各プレーヤーのアクションを、他人のアクションを考慮しつつシミュレートできる。   Through the above processing, each player's action during the simulation period can be simulated in consideration of the actions of others.

図10は、第1の実施例の星取表出力画面1100の例を示す図である。星取表出力画面は、シミュレーション結果出力画面1000(図8)において、アクションの欄を選択することによって、出力インターフェース(ディスプレイ装置)に表示される。なお、星取表は、二人のプレーヤーのアクションの関係を表すので、オペレータは、シミュレーション結果出力画面1000においてアクションの欄を選択した後に、相手方のプレーヤーを選択する。   FIG. 10 is a diagram illustrating an example of the star chart output screen 1100 according to the first embodiment. The star chart output screen is displayed on the output interface (display device) by selecting the action column in the simulation result output screen 1000 (FIG. 8). Since the star chart represents the relationship between the actions of the two players, the operator selects the opponent player after selecting the action column on the simulation result output screen 1000.

なお、星取表は、計算機の内部では、図11に示すモンテカルロ木によって構成するとよい。   Note that the star chart is preferably composed of a Monte Carlo tree shown in FIG. 11 inside the computer.

まず、画面の内容について説明する。図10に示す星取表出力画面1100は、二人のプレーヤーの関係を示し、縦方向にプレーヤー1のアクションが列記され、横方向にプレーヤー2のアクションが列記された星取表1110を含む。また、画面の下部には「戻る」ボタン1120が設けられている。オペレータが「戻る」ボタン1120を操作することによって、シミュレーション結果出力画面1000に戻ることができる。   First, the contents of the screen will be described. The star chart output screen 1100 shown in FIG. 10 shows the relationship between two players, and includes a star chart 1110 in which the actions of the player 1 are listed in the vertical direction and the actions of the player 2 are listed in the horizontal direction. A “return” button 1120 is provided at the bottom of the screen. The operator can return to the simulation result output screen 1000 by operating the “return” button 1120.

次に、星取表の内容について説明する。図10に示す星取表は、プレーヤー1のアクションとプレーヤー2のアクションとの組において、プレーヤー1の評価とプレーヤー2の評価とが組になって記録される。評価は、図10に示すように記号で表してもよいし、数値で表してもよい。星取表を用いることによって、複数のプレーヤーの評価値を総合した評価したアクションを決定することができる。   Next, the contents of the star chart will be described. The star chart shown in FIG. 10 is recorded with a combination of the evaluation of the player 1 and the evaluation of the player 2 in the combination of the action of the player 1 and the action of the player 2. The evaluation may be expressed by a symbol as shown in FIG. 10 or may be expressed by a numerical value. By using the star chart, it is possible to determine an action that evaluates the evaluation values of a plurality of players.

次に、星取表を用いてアクションを選択する方法について、自分がプレーヤー1であり、相手がプレーヤー2である場合を説明する。MinMax法を用いて、想定される最大の損害が最小になるようにアクションを決定する。   Next, a method for selecting an action using the star chart will be described in the case where the player is the player 1 and the opponent is the player 2. The action is determined using the MinMax method so that the largest possible damage is minimized.

例えば、プレーヤーが二人の場合、星取表の各行(自分のアクションが同じ行)に着目して、相手(プレーヤー2)の評価値が最も良いアクションにおけるプレーヤー1の評価値(MinMax評価値)が最も良いアクションを、自プレーヤーの次のアクションに決定する。図示した場合、プレーヤー1のアクションはアクション2に決定する。   For example, if there are two players, paying attention to each row of the star chart (your own action is the same), the evaluation value (MinMax evaluation value) of player 1 in the action with the best evaluation value of the opponent (player 2) is The best action is determined as the next action of the player. In the illustrated case, the action of the player 1 is determined as action 2.

また、プレーヤーが3人以上である場合、自分(プレーヤー1)のアクションについて、他プレーヤーのアクションを順に(そのプレーヤーの評価値が最も高いアクションを選ぶとして)固定した上で、自分の評価値が最も高いアクションに決定する。以下、具体的に説明する。   If there are three or more players, the actions of other players are fixed in order for the actions of the player (player 1) (assuming that the player with the highest evaluation value of the player is selected), Decide on the highest action. This will be specifically described below.

プレーヤーが3人の場合は、以下のステップでアクションを決める。   If there are three players, the action is decided by the following steps.

ステップ1:自分(プレーヤー1)のアクションをアクション1に設定する。   Step 1: Set own (player 1) action to action 1.

その状態で、プレーヤー2とプレーヤー3との2人のゲームを考える。
ステップ1−1:プレーヤー2を自プレーヤーとして、上記のプレーヤーが2人の方法(星取表によるMinMax)によって、プレーヤー2のアクションを決める。
ステップ1−2:プレーヤー3を自プレーヤーとして、上記のプレーヤーが2人の方法(星取表によるMinMax)によって、プレーヤー3のアクションを決める。
In that state, consider a two-player game between player 2 and player 3.
Step 1-1: With the player 2 as the player, the above player determines the action of the player 2 by the method of two people (MinMax according to the star chart).
Step 1-2: With the player 3 as its own player, the player determines the action of the player 3 by the method of two people (MinMax according to the star chart).

以上で決まった各プレーヤーのアクション(プレーヤー1=アクション1、プレーヤー2=ステップ1−1で決めたアクション、プレーヤー3=ステップ1−2で決めたアクション)の組み合わせにおける、自分(プレーヤー1)の評価値を、プレーヤー1のアクション1における評価値に設定する。   Evaluation of the player (player 1) in the combination of the actions of each player determined as described above (player 1 = action 1, player 2 = action determined in step 1-1, player 3 = action determined in step 1-2) The value is set to the evaluation value in action 1 of player 1.

ステップ2:自分(プレーヤー1)のアクションをアクション2に設定する。   Step 2: Set own (player 1) action to action 2.

また、前述と同様の方法で、プレーヤー1のアクション2における評価値を決める。   Further, the evaluation value in the action 2 of the player 1 is determined by the same method as described above.

ステップ3:自分(プレーヤー1)のアクションの数だけ、ステップ1の計算を行い、自分(プレーヤー1)にとっての評価値が最も良いアクションを決定する。   Step 3: The calculation of step 1 is performed for the number of actions of the player (player 1), and the action having the best evaluation value for the player (player 1) is determined.

さらに、プレーヤーが4人の場合は、以下のステップでアクションを決定する。   Furthermore, when there are four players, the action is determined by the following steps.

ステップ4:自分(プレーヤー1)のアクションを固定する。その結果、プレーヤー2〜4のプレーヤーが3人のゲームとなる。
ステップ4−1:3人のゲームにおいて、プレーヤー2を自プレーヤーとして、上記のプレーヤーが3人の方法によって、プレーヤー2のアクションを決める。
ステップ4−2:3人のゲームにおいて、プレーヤー3を自プレーヤーとして、上記のプレーヤーが3人の方法によって、プレーヤー3のアクションを決める。
ステップ4−3:3人のゲームにおいて、プレーヤー4を自プレーヤーとして、上記のプレーヤーが3人の方法によって、プレーヤー4のアクションを決める。
Step 4: Fix yourself (player 1) 's action. As a result, the players 2 to 4 become three players.
Step 4-1: In the game of three players, the player 2 is determined as the player, and the player determines the action of the player 2 by the method of three players.
Step 4-2: In the three-player game, the player 3 is the player, and the player determines the action of the player 3 by the method of three players.
Step 4-3: In the three-player game, the player 4 is determined to be the player, and the player determines the action of the player 4 by three methods.

以上で決まった各プレーヤーのアクション(プレーヤー1=アクション1、プレーヤー2〜4=ステップ4−1〜4−3で決めたアクション)の組み合わせにおける、自分(プレーヤー1)の評価値を、プレーヤー1のアクション1における評価値に設定する。
ステップ5:自分(プレーヤー1)のアクションの数だけ、ステップ4の計算を行い、自分(プレーヤー1)にとっての評価値が最も良いアクションを決定する。
In the combination of the actions of each player determined as described above (player 1 = action 1, players 2-4 = actions determined in steps 4-1 to 4-3), the evaluation value of the player (player 1) Set to the evaluation value in action 1.
Step 5: Step 4 is calculated for the number of actions of the player (player 1), and the action having the best evaluation value for the player (player 1) is determined.

図11は、第1の実施例の星取表を構成するためのモンテカルロ木探索を説明する図である。   FIG. 11 is a diagram for explaining a Monte Carlo tree search for configuring the star chart of the first embodiment.

すなわち、図10を用いて前述した方法では、全プレーヤーの全てのアクションの組み合わせを計算するので、計算量が多い。このため、モンテカルロ木探索(Monte-Carlo Tree Search)を用いることで、少ない計算量で同様の処理を近似的に実行することができる。なお、モンテカルロ木の計算を無限回行うと、全プレーヤーの全てのアクションの組み合わせを計算した場合と同じ結果が得られる。   That is, in the method described above with reference to FIG. 10, since all combinations of actions of all players are calculated, the calculation amount is large. For this reason, the same processing can be approximately executed with a small amount of calculation by using Monte-Carlo Tree Search. If the Monte Carlo tree is calculated infinitely, the same result as when all combinations of actions of all players are calculated can be obtained.

図11に示すモンテカルロ木探索では、プレーヤー1〜4の4人によるゲームで、各プレーヤーが、アクション1、2のいずれかを選択可能な場合、自分(プレーヤー1)のアクション1における評価値を計算する処理を示す。   In the Monte Carlo tree search shown in FIG. 11, when each player can select one of actions 1 and 2 in the game of four players 1 to 4, the evaluation value in action 1 of himself (player 1) is calculated. The processing to be performed is shown.

まず、自分(プレーヤー1)がアクション1を選択する。次に、プレーヤー2〜4のうちから1人をランダム(等確率)に選択する。以下、プレーヤー2を選択した場合を説明する。プレーヤー2は、子ノードにおいて、プレーヤー2にとって評価値の平均値が高いアクションを選択する。   First, the player (player 1) selects action 1. Next, one of the players 2 to 4 is randomly selected (equal probability). Hereinafter, the case where the player 2 is selected will be described. The player 2 selects an action having a high average evaluation value for the player 2 at the child node.

次に、プレーヤー3又は4の1人をランダム(等確率)に選択する。以下、プレーヤー3を選択した場合を説明する。プレーヤー3は、子ノードにおいて、プレーヤー3にとって評価値の平均値が高いアクションを選択する。最後に、プレーヤー4が、子ノードにおいて、プレーヤー4にとって評価値の平均値が高いアクションを選択する。   Next, one player 3 or 4 is selected at random (equal probability). Hereinafter, the case where the player 3 is selected will be described. The player 3 selects an action having a high average evaluation value for the player 3 at the child node. Finally, the player 4 selects an action having a high evaluation value for the player 4 at the child node.

以上の処理によって、時刻X+0における、各プレーヤーのアクションの組が決定する。   With the above processing, a set of actions of each player at time X + 0 is determined.

さらに、先読みをする場合、以下の処理を実行する。   Further, when prefetching is performed, the following processing is executed.

まず、プレーヤー1〜4の1人をランダム(等確率)に選択し、子ノードにおいて、選択されたプレーヤーにとって評価値が高いアクションを選択する。その後、残りのプレーヤーについて、前述と同様に、ランダムにプレーヤーを選択し、アクションを決定する。ある程度まで木を展開した後、ランダム・プレイアウトによって、全てのプレーヤーがランダムにアクションを選択して、時刻を進める。そして、予め定めておいた先読み回数に達したときの各プレーヤーの評価値を計算する。最後に、それまで通ってきた木の各ノードを逆に辿って、ノードに付けられている評価値に、先読み時の評価値を追加して平均値を求め、評価値を更新する。   First, one of the players 1 to 4 is selected at random (equal probability), and an action having a high evaluation value for the selected player is selected at the child node. Thereafter, for the remaining players, the player is randomly selected and the action is determined in the same manner as described above. After expanding the tree to some extent, all players randomly select an action and advance the time by random playout. Then, the evaluation value of each player when the predetermined number of pre-reads is reached is calculated. Finally, each node of the tree that has passed so far is traced in reverse, the evaluation value at the time of prefetching is added to the evaluation value attached to the node, the average value is obtained, and the evaluation value is updated.

以上の処理を、数百回程度行った後、ルートノードに付されているプレーヤー1の評価値が、プレーヤー1のアクション1の評価値となる。   After performing the above processing about several hundred times, the evaluation value of the player 1 attached to the root node becomes the evaluation value of the action 1 of the player 1.

以上の処理を、自分(プレーヤー1)がとり得る各アクションについて行い、最も自分(プレーヤー1)にとっての評価値が良いアクションを選択する。   The above processing is performed for each action that the player (player 1) can take, and the action with the best evaluation value for the player (player 1) is selected.

このように、星取表によって、ユーザはアクションが導出された理由を知ることができる。   Thus, the star chart allows the user to know the reason why the action is derived.

以上に説明したように、本発明の第1の実施例によると、アクション連鎖モデル1、反応モデル2、意思モデル4及び評価モデル5を用いて意思決定支援システムを構成するので、専門家の知見を容易に整理してモデル化することができる。このため、専門家の知見に基づいて将来生じるであろう情勢やアクションを予測することができる。特に、意思モデル4と評価モデル5を分けてモデル化するので、意思要因と抑制要因とを分けることができ、専門家の知見を加工することなくモデルに取り込むことができる。   As described above, according to the first embodiment of the present invention, since the decision support system is configured using the action chain model 1, the reaction model 2, the intention model 4, and the evaluation model 5, the knowledge of experts Can be easily organized and modeled. Therefore, it is possible to predict the situation and actions that will occur in the future based on the knowledge of experts. In particular, since the intention model 4 and the evaluation model 5 are separately modeled, the intention factor and the suppression factor can be separated, and expert knowledge can be incorporated into the model without being processed.

<第2の実施例>
次に、本発明の第2の実施例について説明する。第2の実施例の意思決定支援システムは、アクション連鎖モデル1、反応モデル2、意思モデル4、評価モデル5及び調停モデル7の五つのモデルで構成される。第2の実施例では、前述した第1の実施例と同じ構成及び処理の説明は省略し、異なる構成及び処理について説明する。
<Second embodiment>
Next, a second embodiment of the present invention will be described. The decision support system of the second embodiment is composed of five models: an action chain model 1, a reaction model 2, a intention model 4, an evaluation model 5, and an arbitration model 7. In the second embodiment, description of the same configuration and processing as those of the first embodiment is omitted, and different configuration and processing will be described.

図12は、第2の実施例の意思決定支援システムの論理的な構成を示すブロック図である。   FIG. 12 is a block diagram illustrating a logical configuration of the decision support system according to the second embodiment.

第2の実施例の意思決定支援システムは、アクション連鎖モデル1、反応モデル2、複数のアクション決定部3及び調停モデル7を有する。アクション決定部3は、意思モデル4、評価モデル5及びアクション選択部6を有し、プレーヤー毎に設けられる。   The decision support system of the second embodiment includes an action chain model 1, a reaction model 2, a plurality of action determination units 3, and an arbitration model 7. The action determination unit 3 includes an intention model 4, an evaluation model 5, and an action selection unit 6, and is provided for each player.

アクション連鎖モデル1、反応モデル2、意思モデル4、評価モデル5及びアクション選択部6は、前述した第1の実施例と同じである。なお、第2の実施例のアクション決定部3は、各プレーヤー毎に取り得る複数のアクションを、その選択率と共に出力する。   The action chain model 1, the reaction model 2, the intention model 4, the evaluation model 5, and the action selection unit 6 are the same as those in the first embodiment described above. The action determination unit 3 of the second embodiment outputs a plurality of actions that can be taken for each player together with the selection rate.

調停モデル7は、複数のアクション決定部3から出力されたアクションを調停して、各プレーヤーのアクションを決定する。例えば、各プレーヤーが取り得るアクションには、相反するものがある。調停モデル7は、これらの関係を用いて、同時に行うことができるアクションの組み合わせを選択し、各プレーヤーのアクションを決定する。   The mediation model 7 mediates the actions output from the plurality of action determination units 3 and determines the action of each player. For example, there are conflicting actions that each player can take. The arbitration model 7 uses these relationships to select a combination of actions that can be performed at the same time, and determines an action for each player.

具体的には、調停モデル7は、アクション選択部6から出力された複数のアクションの選択率を計算し、各プレーヤー毎に選択率が最も高いアクションを選択し、各プレーヤーのアクションに決定する。   Specifically, the arbitration model 7 calculates a selection rate of a plurality of actions output from the action selection unit 6, selects an action with the highest selection rate for each player, and determines the action of each player.

図13は、第2の実施例の調停モデル7を説明する図である。調停モデル7は、コーザル・ループ・ダイアグラムによって各指標間(ストック要素、フロー要素、状態要素)の相関関係を表すモデルである。   FIG. 13 is a diagram illustrating the arbitration model 7 according to the second embodiment. The arbitration model 7 is a model that represents the correlation between each index (stock element, flow element, state element) by a causal loop diagram.

例えば、図示した調停モデル7では、ストック要素1、2、3、4を、それぞれ、x1、x2、x3、x4とし、状態要素1、2を、それぞれ、y1、y2とし、各エッジの係数(k1〜k9)を定める。なお、状態要素は、現在の状態を表す数字であり、例えば、プレーヤー1が現在、アクション1を行っている場合に1、アクション1以外を行っている場合に0などと定めることができる。   For example, in the illustrated arbitration model 7, the stock elements 1, 2, 3, and 4 are x1, x2, x3, and x4, respectively, and the state elements 1 and 2 are y1 and y2, respectively. k1 to k9). The state element is a number representing the current state, and can be set to 1 when the player 1 is currently performing action 1, 0 when the player 1 is performing action other than action 1, and the like.

図示したように、ストック要素及び状態要素によって、ストック要素へ流入するフローの量や、ストック要素から流出するフローの量が決まり、ストック要素の量が啓示的に変化する。   As shown in the drawing, the amount of flow flowing into and out of the stock element is determined by the stock element and the state element, and the amount of the stock element changes in an empirical manner.

前述のように定義した場合、離散系シミュレーションにおいて、時刻t+1における各ストック要素の値は以下の漸化式によって計算することができる。
x1(t+1)=k1×y1(t)+k2×x4(t)−k3×x3(t)
x2(t+1)=x1(t)+k3×x3(t)−k4×x4(t)
x3(t+1)=k5×x4(t)−k6×x1(t)
x4(t+1)=k7×x1(t)−k8×x3(t)−k9×y2(t)
When defined as described above, in the discrete system simulation, the value of each stock element at time t + 1 can be calculated by the following recurrence formula.
x1 (t + 1) = k1 * y1 (t) + k2 * x4 (t) -k3 * x3 (t)
x2 (t + 1) = x1 (t) + k3 * x3 (t) -k4 * x4 (t)
x3 (t + 1) = k5 * x4 (t) -k6 * x1 (t)
x4 (t + 1) = k7 * x1 (t) -k8 * x3 (t) -k9 * y2 (t)

また、連続系シミュレーションにおいて、各ストック要素の値は以下の微分方程式によって計算することができる。
d[x1(t)]/dt=k1×y1(t)+k2×x4(t)−k3×x3(t)
d[x2(t)]/dt=x1(t)+k3×x3(t)−k4×x4(t)
d[x3(t)]/dt=k5×x4(t)−k6×x1(t)
d[x4(t)]/dt=k7×x1(t)−k8×x3(t)−k9×y2(t)
In the continuous system simulation, the value of each stock element can be calculated by the following differential equation.
d [x1 (t)] / dt = k1 * y1 (t) + k2 * x4 (t) -k3 * x3 (t)
d [x2 (t)] / dt = x1 (t) + k3 × x3 (t) −k4 × x4 (t)
d [x3 (t)] / dt = k5 * x4 (t) -k6 * x1 (t)
d [x4 (t)] / dt = k7 * x1 (t) -k8 * x3 (t) -k9 * y2 (t)

調停モデル7では、ストック要素及び状態要素によってフロー量を制御することによって、複数のストック要素を関連付けて制御し、各プレーヤーがアクションを選択する確率(選択率)を決定し、各プレーヤーのアクションを調停することができる。   In the arbitration model 7, by controlling the flow amount by the stock element and the state element, a plurality of stock elements are controlled in association with each other, the probability (selection rate) that each player selects an action is determined, and the action of each player is determined. Mediation is possible.

以上に説明したように、本発明の第2の実施例によると、調停モデル7が、アクション選択部6が選択した各プレーヤーのアクションを調停して、各プレーヤーのアクションを決定するので、複数プレーヤーのアクションの調停を考慮せず、モデル1、2、4、5を作成することができる。すなわち、アクションの調停と切り離してモデルを作成することができる。   As described above, according to the second embodiment of the present invention, the arbitration model 7 arbitrates the actions of each player selected by the action selection unit 6 and determines the actions of each player. Models 1, 2, 4, and 5 can be created without considering mediation of actions. That is, it is possible to create a model separately from the mediation of actions.

なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。   The present invention is not limited to the above-described embodiments, and includes various modifications and equivalent configurations within the scope of the appended claims. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and the present invention is not necessarily limited to those having all the configurations described. A part of the configuration of one embodiment may be replaced with the configuration of another embodiment. Moreover, you may add the structure of another Example to the structure of a certain Example. In addition, for a part of the configuration of each embodiment, another configuration may be added, deleted, or replaced.

また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。   In addition, each of the above-described configurations, functions, processing units, processing means, etc. may be realized in hardware by designing a part or all of them, for example, with an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing the program to be executed.

各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。   Information such as programs, tables, and files that realize each function can be stored in a storage device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。   Further, the control lines and the information lines are those that are considered necessary for the explanation, and not all the control lines and the information lines that are necessary for the mounting are shown. In practice, it can be considered that almost all the components are connected to each other.

CALC_NODE 計算機
CPU プロセッサ
RAM 一時記憶装置
STOR 補助記憶装置
COM_SW 通信スイッチ
COM_DEV 通信デバイス
1 アクション連鎖モデル
2 反応モデル
3 アクション決定部
4 意思モデル
5 評価モデル
6 アクション選択部
7 調停モデル
CALC_NODE computer CPU processor RAM temporary storage device STOR auxiliary storage device COM_SW communication switch COM_DEV communication device 1 action chain model 2 reaction model 3 action decision unit 4 intention model 5 evaluation model 6 action selection unit 7 arbitration model

Claims (8)

プロセッサとメモリとを有する計算機によって構成される意思決定支援システムであって、
前記メモリは、意思決定に必要な複数の情勢を数値化した複数の指標値を格納し、
前記意思決定支援システムは、
前記プロセッサが、プレーヤーのアクションから次のアクションを導出するためのアクション連鎖モデルと、
前記プロセッサが、プレーヤーのアクションと前記指標値とから、次の指標値を導出するための反応モデルと、
前記プロセッサが、指標値からアクションの意思を表す選択確率をプレーヤー毎に導出するための意思モデルと、
前記プロセッサが、指標値から評価値をプレーヤー毎に導出するための評価モデルと、
前記プロセッサが、プレーヤーのアクションを選択するアクション選択部とを有し、
前記意思決定支援システムは、
前記アクション連鎖モデルを用いて、前記プレーヤーのアクションから前記プレーヤーがとり得る次のアクションを導出し、
前記反応モデルを用いて、前記プレーヤーのアクションと前記指標値とから、次の指標値を導出し、
前記意思モデルを用いて、前記導出された次の指標値から前記各プレーヤーのアクションの選択確率を計算し、
前記評価モデルを用いて、前記導出された次の指標値が前記各プレーヤーにとって望ましい程度を表す評価値を計算し、
前記アクション選択部は、前記アクション連鎖モデルを用いて導出されたアクションと、前記意思モデルを用いて計算された選択確率と、前記評価モデルを用いて計算された評価値とを用いて、前記各プレーヤーのアクションを選択し、前記選択されたアクションを出力することを特徴とする意思決定支援システム。
A decision support system comprising a computer having a processor and a memory,
The memory stores a plurality of index values obtained by quantifying a plurality of situations necessary for decision making,
The decision support system includes:
An action chain model for the processor to derive a next action from a player action;
A reaction model for the processor to derive a next index value from a player's action and the index value;
An intention model for the processor to derive, for each player, a selection probability representing the intention of the action from the index value;
An evaluation model for the processor to derive an evaluation value from the index value for each player;
The processor has an action selection unit for selecting an action of a player;
The decision support system includes:
Using the action chain model, deriving the next action that the player can take from the action of the player,
The reaction model is used to derive the next index value from the player's action and the index value,
Using the intention model, calculate the selection probability of each player's action from the derived next index value,
Using the evaluation model, calculating an evaluation value representing the degree to which the derived next index value is desirable for each player;
The action selection unit uses the action derived using the action chain model, the selection probability calculated using the intention model, and the evaluation value calculated using the evaluation model. A decision support system, characterized by selecting a player action and outputting the selected action.
請求項1に記載の意思決定支援システムであって、
前記プロセッサが、前記選択された各プレーヤーのアクションを調停して、前記各プレーヤーのアクションを決定するための調停モデルを有し、
前記アクション選択部は、前記各プレーヤーがとり得る複数のアクションを選択し、前記選択された複数のアクションの確率を出力し、
前記意思決定支援システムは、前記調停モデルを用いて、前記アクション選択部が選択した前記各プレーヤーのアクションを調停して、前記各プレーヤーのアクションを決定することを特徴とする意思決定支援システム。
The decision support system according to claim 1,
The processor has an arbitration model for arbitrating the actions of each selected player to determine the actions of each player;
The action selection unit selects a plurality of actions that each player can take, and outputs probabilities of the selected plurality of actions.
The decision support system uses the arbitration model to arbitrate the actions of the players selected by the action selection unit to determine the actions of the players.
請求項1に記載の意思決定支援システムであって、
前記アクション選択部は、前記選択された各プレーヤーのアクションを時系列に表示するための画面データを出力することを特徴とする意思決定支援システム。
The decision support system according to claim 1,
The action selection unit outputs screen data for displaying the actions of the selected players in time series.
請求項1に記載の意思決定支援システムであって、
前記アクション選択部は、前記複数のプレーヤーのアクションの組について、前記各プレーヤーの評価を表示するための画面データを出力することを特徴とする意思決定支援システム。
The decision support system according to claim 1,
The decision selection support system, wherein the action selection unit outputs screen data for displaying an evaluation of each player for a set of actions of the plurality of players.
プロセッサとメモリとを有する計算機が実行する意思決定支援方法であって、
前記メモリは、意思決定に必要な複数の情勢を数値化した複数の指標値を格納し、
前記計算機は、プレーヤーのアクションから次のアクションを導出するためのアクション連鎖モデルと、プレーヤーのアクションと前記指標値とから、次の指標値を導出するための反応モデルと、指標値からアクションの意思を表す選択確率をプレーヤー毎に導出するための意思モデルと、指標値から評価値をプレーヤー毎に導出するための評価モデルとを有し、
前記方法は、
前記プロセッサが、前記アクション連鎖モデルを用いて、前記プレーヤーのアクションから前記プレーヤーがとり得る次のアクションを導出し、前記メモリに格納し、
前記プロセッサが、前記反応モデルを用いて、前記プレーヤーのアクションと前記指標値とから、次の指標値を導出し、前記メモリに格納し、
前記プロセッサが、前記意思モデルを用いて、前記導出された次の指標値から前記各プレーヤーのアクションの選択確率を計算し、前記メモリに格納し、
前記プロセッサが、前記評価モデルを用いて、前記導出された次の指標値が前記各プレーヤーにとって望ましい程度を表す評価値を計算し、前記メモリに格納し、
前記プロセッサが、前記アクション連鎖モデルを用いて導出されたアクションと、前記意思モデルを用いて計算された選択確率と、前記評価モデルを用いて計算された評価値とを用いて、前記各プレーヤーのアクションを選択し、前記メモリに格納することを特徴とする意思決定支援方法。
A decision support method executed by a computer having a processor and a memory,
The memory stores a plurality of index values obtained by quantifying a plurality of situations necessary for decision making,
The calculator includes an action chain model for deriving a next action from a player action, a reaction model for deriving a next index value from the player action and the index value, and an intention of the action from the index value. An intention model for deriving a selection probability for each player, and an evaluation model for deriving an evaluation value for each player from the index value,
The method
The processor derives the next action that the player can take from the action of the player using the action chain model, and stores it in the memory;
The processor uses the reaction model to derive the next index value from the player action and the index value, and stores the next index value in the memory,
The processor calculates the selection probability of each player's action from the derived next index value using the intention model, and stores it in the memory;
The processor uses the evaluation model to calculate an evaluation value representing the degree to which the derived next index value is desirable for each player, and stores the evaluation value in the memory;
The processor uses the action derived using the action chain model, the selection probability calculated using the intention model, and the evaluation value calculated using the evaluation model to A decision support method, wherein an action is selected and stored in the memory.
請求項5に記載の意思決定支援方法であって、
前記計算機は、前記選択された各プレーヤーのアクションを調停して、前記各プレーヤーのアクションを決定するための調停モデルを有し、
前記プロセッサは、前記各プレーヤーがとり得る複数のアクションを選択し、前記選択された複数のアクションの確率を出力し、
前記プロセッサは、前記調停モデルを用いて、前記選択された前記各プレーヤーのアクションを調停して、前記各プレーヤーのアクションを決定することを特徴とする意思決定支援方法。
The decision support method according to claim 5,
The calculator has an arbitration model for arbitrating the actions of each selected player to determine the actions of each player;
The processor selects a plurality of actions that each player can take, and outputs probabilities of the selected plurality of actions.
A decision support method, wherein the processor arbitrates the action of each selected player using the arbitration model, and determines the action of each player.
請求項5に記載の意思決定支援方法であって、
前記プロセッサは、前記選択された各プレーヤーのアクションを時系列に表示するための画面データを出力することを特徴とする意思決定支援方法。
The decision support method according to claim 5,
The said processor outputs the screen data for displaying the action of each said selected player in time series, The decision support method characterized by the above-mentioned.
請求項5に記載の意思決定支援方法であって、
前記プロセッサは、前記複数のプレーヤーのアクションの組について、前記各プレーヤーの評価を表示するための画面データを出力することを特徴とする意思決定支援方法。
The decision support method according to claim 5,
A decision support method, wherein the processor outputs screen data for displaying an evaluation of each player for a set of actions of the plurality of players.
JP2015107193A 2015-05-27 2015-05-27 Decision support system and decision support method Active JP6511333B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015107193A JP6511333B2 (en) 2015-05-27 2015-05-27 Decision support system and decision support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015107193A JP6511333B2 (en) 2015-05-27 2015-05-27 Decision support system and decision support method

Publications (2)

Publication Number Publication Date
JP2016224512A true JP2016224512A (en) 2016-12-28
JP6511333B2 JP6511333B2 (en) 2019-05-15

Family

ID=57748147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015107193A Active JP6511333B2 (en) 2015-05-27 2015-05-27 Decision support system and decision support method

Country Status (1)

Country Link
JP (1) JP6511333B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110772794A (en) * 2019-10-12 2020-02-11 广州多益网络股份有限公司 Intelligent game processing method, device, equipment and storage medium
CN111798044A (en) * 2020-06-30 2020-10-20 国网甘肃省电力公司武威供电公司 RIES operation planning simulation method based on improved minimum cross entropy
CN111931513A (en) * 2020-07-08 2020-11-13 泰康保险集团股份有限公司 Text intention identification method and device
CN117933745A (en) * 2024-01-08 2024-04-26 深业智慧科技(深圳)有限公司 Intelligent park data visual analysis method and system based on big data processing

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004227208A (en) * 2003-01-22 2004-08-12 Matsushita Electric Ind Co Ltd User-adaptive action determination device and action determination method
JP2004258816A (en) * 2003-02-24 2004-09-16 Toshiba Corp Equipment investment risk estimation method and system, and program therefor
JP2004362066A (en) * 2003-06-02 2004-12-24 Fujitsu Ltd Method and program for analyzing behavioral data
JP2005258697A (en) * 2004-03-10 2005-09-22 Fuji Heavy Ind Ltd System and method for control
JP2006035388A (en) * 2004-07-28 2006-02-09 Riyuukoku Univ Learning device, operating object equipped with learning device, learning method, learning program, and program-recording medium readable by computer
JP2010073200A (en) * 2008-09-18 2010-04-02 Honda Motor Co Ltd Learning system and learning method
JP2010287028A (en) * 2009-06-11 2010-12-24 Sony Corp Information processor, information processing method and program
US20110106736A1 (en) * 2008-06-26 2011-05-05 Intuitive User Interfaces Ltd. System and method for intuitive user interaction
JP2012068780A (en) * 2010-09-22 2012-04-05 Internatl Business Mach Corp <Ibm> Method for determining optimal action considering risk, program and apparatus
JP2013242761A (en) * 2012-05-22 2013-12-05 Internatl Business Mach Corp <Ibm> Method, and controller and control program thereof, for updating policy parameters under markov decision process system environment
JP2014130520A (en) * 2012-12-28 2014-07-10 International Business Maschines Corporation Method, computer system, and computer program for optimizing scheme for selecting action maximizing expectation return while suppressing risk

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004227208A (en) * 2003-01-22 2004-08-12 Matsushita Electric Ind Co Ltd User-adaptive action determination device and action determination method
JP2004258816A (en) * 2003-02-24 2004-09-16 Toshiba Corp Equipment investment risk estimation method and system, and program therefor
JP2004362066A (en) * 2003-06-02 2004-12-24 Fujitsu Ltd Method and program for analyzing behavioral data
JP2005258697A (en) * 2004-03-10 2005-09-22 Fuji Heavy Ind Ltd System and method for control
JP2006035388A (en) * 2004-07-28 2006-02-09 Riyuukoku Univ Learning device, operating object equipped with learning device, learning method, learning program, and program-recording medium readable by computer
US20110106736A1 (en) * 2008-06-26 2011-05-05 Intuitive User Interfaces Ltd. System and method for intuitive user interaction
JP2010073200A (en) * 2008-09-18 2010-04-02 Honda Motor Co Ltd Learning system and learning method
JP2010287028A (en) * 2009-06-11 2010-12-24 Sony Corp Information processor, information processing method and program
JP2012068780A (en) * 2010-09-22 2012-04-05 Internatl Business Mach Corp <Ibm> Method for determining optimal action considering risk, program and apparatus
JP2013242761A (en) * 2012-05-22 2013-12-05 Internatl Business Mach Corp <Ibm> Method, and controller and control program thereof, for updating policy parameters under markov decision process system environment
JP2014130520A (en) * 2012-12-28 2014-07-10 International Business Maschines Corporation Method, computer system, and computer program for optimizing scheme for selecting action maximizing expectation return while suppressing risk

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110772794A (en) * 2019-10-12 2020-02-11 广州多益网络股份有限公司 Intelligent game processing method, device, equipment and storage medium
CN111798044A (en) * 2020-06-30 2020-10-20 国网甘肃省电力公司武威供电公司 RIES operation planning simulation method based on improved minimum cross entropy
CN111931513A (en) * 2020-07-08 2020-11-13 泰康保险集团股份有限公司 Text intention identification method and device
CN111931513B (en) * 2020-07-08 2023-11-14 泰康保险集团股份有限公司 Text intention recognition method and device
CN117933745A (en) * 2024-01-08 2024-04-26 深业智慧科技(深圳)有限公司 Intelligent park data visual analysis method and system based on big data processing

Also Published As

Publication number Publication date
JP6511333B2 (en) 2019-05-15

Similar Documents

Publication Publication Date Title
US10496436B2 (en) Method and apparatus for automatically scheduling jobs in computer numerical control machines using machine learning approaches
JP6511333B2 (en) Decision support system and decision support method
CN110956272A (en) Method and system for realizing data processing
JP6247775B2 (en) Time series prediction apparatus and time series prediction method
JP6316844B2 (en) User interface for predictive model generation
JP2018147280A (en) Data analysis device and data analysis method
CN111389006B (en) Action prediction method and device
JP2020194377A (en) Job power prediction program, job power prediction method, and job power prediction device
JP6301853B2 (en) Secular change prediction system
Rhodes Innovation in complex public service systems
CN113988199A (en) Grading processing method and device for AI playing model and related equipment
US9892462B1 (en) Heuristic model for improving the underwriting process
JP6422512B2 (en) Computer system and graphical model management method
JP7249580B2 (en) Application method, application program and application device
JP2017151614A (en) Computing machine and analytical index calculation method
JP7373384B2 (en) Verification method for computer systems and scheduling systems
JP2022007311A (en) System for evaluating risk of information leakage from learning model
JP3889716B2 (en) Evaluation apparatus and evaluation program
Gigerenzer et al. Rationality the fast and frugal way: introduction
JP7476984B2 (en) BEHAVIOR PREDICTION METHOD, BEHAVIOR PREDICTION DEVICE, AND PROGRAM
Kase Parallel genetic algorithm optimization of a cognitive model: Investigating group and individual performance on a math stressor task
CN111727446A (en) Equipment for risk analysis and modeling of complex systems and phenomena
JP7559927B2 (en) Information processing device, estimation method, and program
Ovchinnik et al. Monotonicity detection and enforcement in longitudinal classification
JP7456485B2 (en) Observation efficiency improvement device, observation efficiency improvement method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190408

R150 Certificate of patent or registration of utility model

Ref document number: 6511333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150