JP6679645B2 - Simulator, simulation method and action determination device - Google Patents

Simulator, simulation method and action determination device Download PDF

Info

Publication number
JP6679645B2
JP6679645B2 JP2018070447A JP2018070447A JP6679645B2 JP 6679645 B2 JP6679645 B2 JP 6679645B2 JP 2018070447 A JP2018070447 A JP 2018070447A JP 2018070447 A JP2018070447 A JP 2018070447A JP 6679645 B2 JP6679645 B2 JP 6679645B2
Authority
JP
Japan
Prior art keywords
individual
value
unit
stimulus
follower
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018070447A
Other languages
Japanese (ja)
Other versions
JP2019185074A (en
Inventor
彰 鶴島
彰 鶴島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2018070447A priority Critical patent/JP6679645B2/en
Publication of JP2019185074A publication Critical patent/JP2019185074A/en
Application granted granted Critical
Publication of JP6679645B2 publication Critical patent/JP6679645B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、群集の行動を予測するシミュレーター、シミュレーション方法および群集を構成する個体のひとつである自個体の行動を決定する行動決定装置に関する。   The present invention relates to a simulator that predicts a behavior of a crowd, a simulation method, and a behavior determination device that determines the behavior of an individual person who is one of the individuals that make up the crowd.

災害時に群衆を適切に避難誘導し、または円滑に避難可能な空間設計をするために、パニック行動等が生じるメカニズムを究明する必要がある。そのために、群衆の行動をシミュレートするシミュレーターを用いる方法がある。
災害時の群衆に生じるパニック行動のように、群衆が非合理的な行動を採ることの説明のひとつとして、認知バイアスによる同調行動が挙げられ、リーダー・フォロワー問題としてアプローチするなどの研究が行なわれてきた。リーダー・フォロワー問題としてのアプローチは、自ら行動を決定するリーダーと自身の行動を他者の行動によって決定するフォロワーとからなる群衆において、個体同士が影響し合った結果、群衆として非合理的な行動を採るというモデル化に基づくアプローチである。
In order to properly guide the evacuation of the crowd in the event of a disaster or to design a space where evacuation can be performed smoothly, it is necessary to investigate the mechanism that causes panic behavior. Therefore, there is a method of using a simulator that simulates the behavior of a crowd.
One of the explanations of the irrational behavior of the crowd, such as the panic behavior of the crowd at the time of a disaster, is entrainment behavior by cognitive bias, and studies such as approaching it as a leader-follower problem have been conducted. It was The approach as a leader-follower problem is that, in a crowd consisting of a leader who decides his own behavior and a follower who decides his own behavior by the behavior of another person, as a result of the influence of individuals, irrational behavior as a crowd This is a modeling-based approach of taking.

例えば、特許文献1に記載のシミュレーション装置においては、複数の対象物の関係をハイパーグラフで表し、そのハイパーグラフを用いて複数の対象物の行動をシミュレートすることにより、リーダーが特定の追従者を必ず連れて行く関係や追従者が必ず特定のリーダーに付いて行く関係等を表現していた。   For example, in the simulation device described in Patent Document 1, the relationship between a plurality of objects is represented by a hypergraph, and the behavior of the plurality of objects is simulated by using the hypergraph, so that the leader follows a specific follower. The relationship was always expressed and the relationship that the follower always followed with a particular leader.

特開2003−346071号公報JP, 2003-346071, A

しかしながら、従来技術においては、群衆におけるパニック行動等の特定行動をシミュレートするにはそのための条件を恣意的に設定する必要があるため、未知の条件下において特定行動をシミュレートすることは困難であり、さらには特定行動が生じた条件を究明することが困難であった。   However, in the conventional technique, it is difficult to simulate a specific behavior under unknown conditions because it is necessary to arbitrarily set conditions for simulating a specific behavior such as panic behavior in a crowd. However, it was difficult to determine the conditions under which the specific behavior occurred.

例えば、特許文献1に記載のシミュレーション装置においては、ハイパーグラフはシミュレーションの都度生成可能であるもののシミュレーションの間は、ハイパーグラフで表した関係が維持される。
そのため、例えば、2つの出口の一方に避難者が集中するパニック行動をシミュレートするには、群衆中の大多数の個体が極めて少数のリーダーのフォロワーになるようなハイパーグラフを生成しておくなど、パニック行動を生じさせるための恣意的な設定をしなければならないと考えられる。
For example, in the simulation device described in Patent Document 1, the hypergraph can be generated each time the simulation is performed, but the relationship represented by the hypergraph is maintained during the simulation.
So, for example, in order to simulate panic behavior in which evacuees concentrate on one of the two exits, create a hypergraph in which the majority of individuals in the crowd are followers of a very small number of leaders. , It is considered necessary to make arbitrary settings to induce panic behavior.

本発明は、上記問題を鑑みてなされたものであり、群集におけるパニック行動等の特定行動を未知の条件下においてシミュレートでき、群集において特定行動が生じた条件の究明を容易化できるシミュレーター、シミュレーション方法および行動決定装置を提供することを目的とする。
なお、本明細書において「群衆」は人の集まりを表すものとし、「群集」は人を含む社会性生物の集まりを表すものとする。
The present invention has been made in view of the above problems, a simulator capable of simulating a specific behavior such as panic behavior in a crowd under unknown conditions, and a simulator capable of facilitating the investigation of the condition in which the specific behavior occurs in the crowd. It is an object to provide a method and a behavior determining device.
In this specification, "crowd" means a group of people, and "crowd" means a group of social organisms including a person.

かかる目的を達成するために本発明は、所定の目的を達成することが可能な所定の空間における群集の行動を予測するシミュレーターであって、前記群集を構成する複数の個体のそれぞれについて、少なくとも、リーダーかフォロワーかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶する個体情報記憶部と、前記行動の契機となる刺激の程度を表す刺激値を順次設定する刺激値設定部と、前記刺激値が設定されるたびに、前記個体のうちの、前記属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである個体に所定の第二当選確率を設定する確率設定部と、前記第一当選確率が設定された個体の前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである個体の前記行動パラメータに当該個体の前記状態値を前記目的の達成に近づける値を設定するリーダー行動決定部と、前記個体ごとに当該個体からの前記位置が所定距離以内である周囲個体を抽出する周囲個体情報取得部と、前記第二当選確率が設定された個体の前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである個体の前記行動パラメータに当該個体の前記周囲個体の前記行動パラメータに類似した値を設定するフォロワー行動決定部と、前記各個体の前記状態値を当該個体の前記行動パラメータにて更新する個体情報更新部と、を備えたシミュレーターを提供する。   In order to achieve such an object, the present invention is a simulator for predicting the behavior of a crowd in a predetermined space capable of achieving a predetermined goal, and at least for each of a plurality of individuals constituting the crowd, An attribute value indicating whether it is a leader or a follower, a state value including a position in the space, and an individual information storage unit that stores an action parameter that acts on the state value, and a stimulus that indicates a degree of a stimulus that triggers the action. A stimulus value setting unit that sequentially sets a value, and each time the stimulus value is set, a first winning probability based on the stimulus value is set to an individual whose attribute value is a follower among the individuals, A probability setting unit that sets a predetermined second winning probability for an individual whose attribute value is a leader, and the attribute value of the individual for which the first winning probability is set is the leader at that probability. A leader action determination unit that sets a value that brings the state value of the individual closer to the achievement of the purpose in the action parameter of the individual whose attribute value is a leader, and the position from the individual for each individual. A surrounding individual information acquisition unit that extracts surrounding individuals within a predetermined distance, and the attribute value of the individual for which the second winning probability is set is changed to a follower with the probability, and the attribute value is a follower. A follower action determination unit that sets a value similar to the action parameter of the individual surrounding the individual in the action parameter of the individual, and individual information update that updates the state value of each individual with the action parameter of the individual And a simulator provided with the section.

また、前記個体情報記憶部は、さらに、前記個体それぞれの反応閾値を記憶し、前記確率設定部は、前記個体ごとに前記刺激値が高いほど高く且つ前記反応閾値が低いほど高い前記第一当選確率を設定することが好適である。   Further, the individual information storage unit further stores a reaction threshold value of each individual, and the probability setting unit, the higher the stimulus value is higher for each individual, the higher the lower the reaction threshold, the higher the first winning. It is preferable to set the probability.

また、前記刺激値設定部は、前記個体ごとに前記刺激値を設定することが好適である。   Further, it is preferable that the stimulus value setting unit sets the stimulus value for each individual.

また、前記空間に生じるリスクの大きさを表すリスク値を順次取得するリスク値取得部、をさらに備え、前記個体情報記憶部は、前記個体のそれぞれが認知する前記リスクの大きさを表す認知閾値をさらに記憶し、前記刺激値設定部は、前記個体ごとに設定した前記刺激値を前記個体情報記憶部に記憶させ、前記個体ごとに前記リスク値と当該個体の前記認知閾値との差が大きな個体ほど前記個体情報記憶部に記憶させた値から大きく増加させて前記刺激値を設定することが好適である。   Further, further comprising a risk value acquisition unit that sequentially acquires a risk value representing the magnitude of the risk occurring in the space, the individual information storage unit, a cognitive threshold value representing the magnitude of the risk recognized by each of the individuals Further, the stimulation value setting unit stores the stimulation value set for each individual in the individual information storage unit, and a large difference between the risk value for each individual and the cognitive threshold of the individual is large. It is preferable to set the stimulus value by increasing the value stored in the individual information storage unit more for an individual.

また、前記刺激値設定部は、前記個体ごとに設定した前記刺激値を前記個体情報記憶部に記憶させ、前記周囲個体情報取得部が抽出した前記周囲個体の数が多い個体ほど前記個体情報記憶部に記憶させた値から大きく増加させて前記刺激値を設定することが好適である。   Further, the stimulation value setting unit stores the stimulation value set for each individual in the individual information storage unit, and the individual information storage unit stores the individual information as the number of the surrounding individuals extracted by the surrounding individual information acquisition unit increases. It is preferable to set the stimulus value by greatly increasing the value stored in the unit.

また、かかる目的を達成するために本発明は、所定の目的を達成することが可能な所定の空間における群集の行動を予測するシミュレーション方法であって、コンピュータに、前記群集を構成する複数の個体のそれぞれについて、少なくとも、リーダーかフォロワーかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶させ、前記行動の契機となる刺激の程度を表す刺激値を順次設定する処理と、前記刺激値が設定されるたびに、前記個体のうちの、前記属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである個体に所定の第二当選確率を設定する処理と、前記第一当選確率が設定された個体の前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである個体の前記行動パラメータに当該個体の前記状態値を前記目的の達成に近づける値を設定する処理と、前記個体ごとに当該個体からの前記位置が所定距離以内である周囲個体を抽出する処理と、前記第二当選確率が設定された個体の前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである個体の前記行動パラメータに当該個体の前記周囲個体の前記行動パラメータに類似した値を設定するフォロワー行動決定部と、前記各個体の前記状態値を当該個体の前記行動パラメータにて更新する個体情報更新部と、を実行させることを特徴とするシミュレーション方法を提供する。   Further, in order to achieve such an object, the present invention is a simulation method for predicting the behavior of a crowd in a predetermined space capable of achieving a predetermined purpose, the computer comprising a plurality of individuals constituting the crowd. For each of the above, at least an attribute value indicating whether it is a leader or a follower, a state value including a position in the space, and an action parameter that acts on the state value are stored, and the degree of stimulation that triggers the action is represented. A process of sequentially setting a stimulus value, and each time the stimulus value is set, a first winning probability based on the stimulus value is set to an individual whose attribute value is a follower among the individuals, and the attribute value is set. The process of setting a predetermined second winning probability to the individual whose is the leader, and the attribute value of the individual for which the first winning probability is set to the leader with the probability. In addition, a process of setting a value that brings the state value of the individual closer to the achievement of the purpose in the action parameter of the individual whose attribute value is a leader, and the position of the individual from the individual is a predetermined distance. With the process of extracting surrounding individuals that are within, and changing the attribute value of the individual for which the second winning probability is set to a follower with the probability, the attribute value is related to the action parameter of the individual who is a follower. To execute a follower action determination unit that sets a value similar to the action parameter of the surrounding individual of the individual, and an individual information update unit that updates the state value of each individual with the action parameter of the individual. There is provided a simulation method characterized by:

また、かかる目的を達成するために本発明は、所定の目的を達成することが可能な所定の空間において群集を構成する個体のひとつである自個体の行動を決定する行動決定装置であって、前記自個体について、少なくとも、リーダーであるかフォロワーであるかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶する個体情報記憶部と、前記行動の契機となる刺激の程度を表す刺激値を設定する刺激値設定部と、前記属性値がフォロワーである場合に前記刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである場合に所定の第二当選確率を設定する確率設定部と、前記第一当選確率が設定された場合に前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである場合に前記行動パラメータに前記状態値を前記目的の達成に近づける値を設定するリーダー行動決定部と、前記個体のうちの、前記自個体の前記位置から所定距離以下に存在する周囲個体の行動を取得する周囲個体情報取得部と、前記第二当選確率が設定された場合に前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである場合に前記周囲個体の行動に類似する前記行動パラメータを設定するフォロワー行動決定部と、を備えた行動決定装置を提供する。   Further, in order to achieve such an object, the present invention is a behavior determination device for determining the behavior of one's own individual, which is one of the individuals constituting a crowd in a predetermined space capable of achieving a predetermined objective, An individual information storage unit that stores at least an attribute value indicating whether the subject is a leader or a follower, a state value that includes a position in the space, and an action parameter that acts on the state value for the own individual; A stimulus value setting unit that sets a stimulus value that represents the degree of stimulus that triggers action, and sets a first winning probability based on the stimulus value when the attribute value is a follower, and the attribute value is a leader. A probability setting unit that sets a predetermined second winning probability in that case, and when the first winning probability is set, the attribute value is changed to a leader with the probability, and the attribute value is changed. In the case of a leader, a leader action determination unit that sets the action parameter to a value that brings the state value closer to the achievement of the purpose, and among the individuals, surrounding individuals that are present within a predetermined distance from the position of the own individual. When the second winning probability is set, the attribute value is changed to a follower with the probability, and when the attribute value is a follower, Provided is an action determination device including a follower action determination unit that sets the action parameter similar to the action.

本発明によれば、同一の設定を行ってもリーダーとフォロワーが確率的に変更される。これによって、群集におけるパニック行動等の特定行動を未知の条件下においてシミュレートでき、群集において特定行動が生じた条件の究明を容易化できる。   According to the present invention, the leader and the follower are stochastically changed even if the same setting is performed. This makes it possible to simulate a specific behavior such as a panic behavior in the crowd under unknown conditions, and facilitate the investigation of the condition in which the specific behavior occurs in the crowd.

第一の実施形態に係るシミュレーター1の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the simulator 1 which concerns on 1st embodiment. 第一の実施形態に係るシミュレーター1の機能ブロック図である。It is a functional block diagram of the simulator 1 which concerns on 1st embodiment. 環境情報記憶部41が記憶する情報を模式的に例示したものである。3 schematically illustrates information stored in the environment information storage unit 41. 個体情報記憶部42が記憶する情報を模式的に例示したものである。3 schematically illustrates the information stored in the individual information storage unit 42. 個体情報記憶部42が記憶する情報を模式的に例示したものである。3 schematically illustrates the information stored in the individual information storage unit 42. 中間予測結果の一例である。It is an example of an intermediate prediction result. 中間予測結果の別の一例である。It is another example of an intermediate prediction result. 統計処理してグラフとして画像化した予測結果の一例である。It is an example of the prediction result imaged as a graph by statistically processing. 第一の実施形態に係るシミュレーターの動作を示したフローチャートである。3 is a flowchart showing the operation of the simulator according to the first embodiment. 第一の実施形態に係るシミュレーターの行動決定処理のフローチャートである。It is a flow chart of action determination processing of a simulator concerning a first embodiment.

[第一の実施形態]
本発明のシミュレーターに係る第一の実施形態として、2つの出口E,Eを有する部屋Rに火災が発生し、部屋Rに滞在していた複数の人(群集)がいずれかの出口から避難する行動を予測するシミュレーター1の例を示す。
つまり、この実施形態において、シミュレーションの対象となる空間(対象空間)は部屋Rであり、群集を構成する個体は人であり、群集ないし個体の目的は火災という事象からの避難であり、対象空間は出口E,Eがあることで目的を達成することが可能となっている。
また、例示するシミュレーター1は、本発明のもうひとつである行動決定装置を含み、行動決定装置が各個体の行動を逐次確率的に決定することにより群集の行動の予測が行われる。
[First embodiment]
As a first embodiment of the simulator of the present invention, a fire broke out in a room R having two exits E 1 and E 2, and a plurality of people (crowd) staying in the room R were discharged from either exit. An example of the simulator 1 for predicting evacuation behavior will be shown.
That is, in this embodiment, the space to be simulated (target space) is the room R, the individuals that make up the crowd are people, and the purpose of the crowd or individuals is to evacuate from the event of fire. Has the exits E 1 and E 2 , which makes it possible to achieve the purpose.
In addition, the exemplified simulator 1 includes an action determination device which is another aspect of the present invention, and the action determination device sequentially and randomly determines the action of each individual to predict the action of the crowd.

<シミュレーター1の構成>
図1は、第一の実施形態に係るシミュレーター1の概略の構成を示すブロック図である。
シミュレーター1は、操作入力部2、ファイル入出力部3、記憶部4、制御部5、および表示部6からなる。これらのうちのファイル入出力部3、記憶部4および制御部5はいわゆるコンピュータで実現でき、操作入力部2および表示部6は当該コンピュータの周辺機器として実現できる。
<Structure of Simulator 1>
FIG. 1 is a block diagram showing a schematic configuration of the simulator 1 according to the first embodiment.
The simulator 1 includes an operation input unit 2, a file input / output unit 3, a storage unit 4, a control unit 5, and a display unit 6. Of these, the file input / output unit 3, the storage unit 4, and the control unit 5 can be realized by a so-called computer, and the operation input unit 2 and the display unit 6 can be realized as peripheral devices of the computer.

操作入力部2は、キーボード、マウス等のユーザーインターフェースであり、利用者に操作されてデータの入力等に用いられる。操作入力部2は、制御部5に接続され、利用者の操作を操作信号に変換して制御部5に出力する。   The operation input unit 2 is a user interface such as a keyboard and a mouse, and is operated by a user and used to input data. The operation input unit 2 is connected to the control unit 5, converts the user's operation into an operation signal, and outputs the operation signal to the control unit 5.

ファイル入出力部3は、DVD(Digital Versatile Disc)ドライブ、USB(Universa Serial Bus)インターフェース、ネットワークインターフェース等であり、一方が不図示の外部機器、記録メディア、ネットワーク等に接続され、他方が制御部5に接続され、データをファイルとして制御部5に入力し、およびデータをファイルとして制御部5から出力する。   The file input / output unit 3 is a DVD (Digital Versatile Disc) drive, a USB (Universa Serial Bus) interface, a network interface, etc., one of which is connected to an external device (not shown), a recording medium, a network, etc., and the other is a control unit. 5, the data is input to the control unit 5 as a file, and the data is output from the control unit 5 as a file.

記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、制御部5と接続されて制御部5との間でこれらの情報を入出力する。   The storage unit 4 is a memory device such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and stores various programs and various data. The storage unit 4 is connected to the control unit 5 and inputs / outputs these pieces of information from / to the control unit 5.

制御部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。制御部5は、記憶部4と接続され、記憶部4からプログラムを読み出して実行することにより各種処理部として動作し、各種データを記憶部4に記憶させ、読み出す。また、制御部5は、操作入力部2、ファイル入出力部3および表示部6とも接続され、利用者が操作入力部2を操作して入力されたデータを取得し、ファイル入出力部3を介して外部からファイルとしてデータを取得および出力し、所得したデータに基づいたシミュレーションを行って群集の行動を予測し、予測結果のデータをファイルとしてファイル入出力部3から出力させ、または/および予測結果のデータを画像化して表示部6に表示させる。   The control unit 5 is configured by an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and an MCU (Micro Control Unit). The control unit 5 is connected to the storage unit 4 and operates as various processing units by reading and executing a program from the storage unit 4 to store and read various data in the storage unit 4. The control unit 5 is also connected to the operation input unit 2, the file input / output unit 3, and the display unit 6, and the user operates the operation input unit 2 to acquire the input data, and the file input / output unit 3 is operated. Data is externally acquired and output as a file, a simulation based on the obtained data is performed to predict the behavior of the crowd, and data of the prediction result is output as a file from the file input / output unit 3 and / or prediction The resulting data is imaged and displayed on the display unit 6.

表示部6は、液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、制御部5と接続され、制御部5による予測結果を表示する。利用者は表示された予測結果を視認して群集の行動に関する考察等を行う。   The display unit 6 is a display device such as a liquid crystal display or a CRT (Cathode Ray Tube) display, is connected to the control unit 5, and displays a prediction result by the control unit 5. The user visually recognizes the displayed prediction result and considers the behavior of the crowd.

<シミュレーター1の機能>
図2は、第一の実施形態に係るシミュレーター1の機能ブロック図である。
<Function of Simulator 1>
FIG. 2 is a functional block diagram of the simulator 1 according to the first embodiment.

操作入力部2は条件設定部20の一部等として機能する。ファイル入出力部3は条件設定部20の一部および予測結果出力部57の一部等として機能する。記憶部4は反復条件記憶部40、環境情報記憶部41および個体情報記憶部42等として機能する。制御部5は、リスク値取得部50、周囲個体情報取得部51、刺激値設定部52、確率設定部53、リーダー行動決定部54、フォロワー行動決定部55、個体情報更新部56、予測結果出力部57の一部等として機能する。   The operation input unit 2 functions as a part of the condition setting unit 20 or the like. The file input / output unit 3 functions as a part of the condition setting unit 20 and a part of the prediction result output unit 57. The storage unit 4 functions as the repetition condition storage unit 40, the environment information storage unit 41, the individual information storage unit 42, and the like. The control unit 5 includes a risk value acquisition unit 50, a surrounding individual information acquisition unit 51, a stimulus value setting unit 52, a probability setting unit 53, a leader action determination unit 54, a follower action determination unit 55, an individual information update unit 56, and a prediction result output. It functions as a part of the unit 57 and the like.

条件設定部20は、シミュレーションに必要な各種条件の入力を受け付け、入力された条件を記憶部4に記憶させる。条件設定部20は、例えば、操作入力部2および制御部5が協働して実現され、利用者が操作入力部2を操作して入力した値を、制御部5が記憶部4に記憶させる。条件設定部20は、条件の一部または全部が記されたファイルを入力するファイル入出力部3を含んでもよく、利用者が操作入力部2を操作して指定したファイルを制御部5がファイル入出力部3を介して取得して当該ファイルに記された値を記憶部4に記憶させる。   The condition setting unit 20 receives inputs of various conditions necessary for simulation, and stores the input conditions in the storage unit 4. The condition setting unit 20 is realized, for example, by the operation input unit 2 and the control unit 5 cooperating with each other, and the control unit 5 causes the storage unit 4 to store the value input by the user operating the operation input unit 2. . The condition setting unit 20 may include a file input / output unit 3 for inputting a file in which some or all of the conditions are written, and the control unit 5 sets the file designated by the user operating the operation input unit 2 as a file. The value obtained through the input / output unit 3 and written in the file is stored in the storage unit 4.

シミュレーションは仮想時刻を所定範囲内で進めながら行われる。また、同一範囲内の仮想時刻についての試行が繰り返し行われる。各試行で用いる条件は同一であるが、各試行の各仮想時刻における各個体の行動は確率的に決定されるため、試行間のシミュレーション結果が同一となることは殆ど無い。   The simulation is performed while advancing the virtual time within a predetermined range. Also, trials are repeated for virtual times within the same range. Although the conditions used in each trial are the same, the behavior of each individual at each virtual time of each trial is probabilistically determined, so that the simulation results between trials are rarely the same.

仮想時刻は、実際の時間の経過を模擬したものであるが、シミュレーターが1時刻分の演算を終えるたびに進められ、実際の時間の経過よりも高速に刻まれる。例えば、仮想時刻の1時刻を実際の1秒間に対応させ、仮想時刻を0から始まり1ずつ増加する整数で表す。   The virtual time is a simulation of the passage of the actual time, but is advanced every time the simulator finishes the calculation for one hour, and is ticked faster than the passage of the actual time. For example, one virtual time is associated with an actual one second, and the virtual time is represented by an integer starting from 0 and incrementing by 1.

本実施形態のシミュレーションにおいては、上限仮想時刻をT、試行予定回数をMとし、仮想時刻を0から(T−1)まで変化させながら仮想時刻ごとに環境および個体の情報を更新する試行がM回繰り返される。   In the simulation of this embodiment, assuming that the upper limit virtual time is T, the scheduled number of trials is M, and the virtual time is changed from 0 to (T-1), the trial of updating the environment and individual information for each virtual time is M. Repeated times.

反復条件記憶部40は、上限仮想時刻Tおよび試行予定回数Mを記憶する。これらの値は、条件設定部20を用いた利用者による入力操作により予め設定される。   The repetition condition storage unit 40 stores the upper limit virtual time T and the scheduled trial count M. These values are set in advance by an input operation by the user using the condition setting unit 20.

環境情報記憶部41は対象空間に由来する情報を記憶する。具体的には、環境情報記憶部41は、出口の領域を含む対象空間の地図、および対象空間に生じるリスクの大きさを表すリスク値を記憶する。リスク値は仮想時刻の関数である。これらの値は、条件設定部20を用いた利用者による入力操作により予め設定される。   The environment information storage unit 41 stores information derived from the target space. Specifically, the environment information storage unit 41 stores a map of the target space including the exit area and a risk value indicating the magnitude of the risk occurring in the target space. The risk value is a function of virtual time. These values are set in advance by an input operation by the user using the condition setting unit 20.

図3は、環境情報記憶部41が記憶する情報を模式的に例示したものである。   FIG. 3 schematically illustrates information stored in the environment information storage unit 41.

図3(A)は、二次元のxy座標系における部屋Rの地図100を図化したものである。地図100においては、部屋Rの床面が個体の移動可能領域としてx方向に128個、y方向に40個の正方形でブロック分割され、ブロックの一部が出口Eの領域、ブロックの別の一部が出口Eの領域となっている。部屋Rの中央がxy座標系の原点であり、x方向が北であるとする。環境情報記憶部41には各ブロックの重心に割り当てられたx方向のグリッド番号、y方向のグリッド番号、および出口Eと出口Eとそれ以外とを区別する符号の組み合わせが列挙されたデータが記憶される。地図100は原理説明のための簡単な例であるが、対象空間は、複数の部屋や通路から構成される複雑な空間であってもよい。その場合の移動可能領域は、壁、什器等の領域を除いた複雑な形状となる。 FIG. 3A shows a map 100 of the room R in a two-dimensional xy coordinate system. In the map 100, the floor surface of the room R is divided into blocks each having 128 squares in the x direction and 40 squares in the y direction as a movable area of an individual, and a part of the block is the area of the exit E 1 and another of the blocks. Part of the area is the exit E 2 . It is assumed that the center of the room R is the origin of the xy coordinate system and the x direction is north. The environment information storage unit 41 lists data in which x-direction grid numbers assigned to the centers of gravity of the blocks, y-direction grid numbers, and combinations of codes that distinguish the exit E 1 from the exit E 2 and others. Is memorized. The map 100 is a simple example for explaining the principle, but the target space may be a complicated space composed of a plurality of rooms and passages. In that case, the movable area has a complicated shape excluding areas such as walls and furniture.

図3(B)は、リスク値を模式的に表したものである。環境情報記憶部41には仮想時刻0〜(T−1)までのリスク値の系列r(0),r(1),r(2),…,r(T−1)が記憶される。事象を火災とする本実施形態においてリスク値は火災の規模に応じた値であり、仮想時刻が進むほど大きな値となるように設定されている。   FIG. 3B schematically shows the risk value. The environment information storage unit 41 stores risk value sequences r (0), r (1), r (2), ..., R (T-1) from virtual time 0 to (T-1). In the present embodiment in which the event is a fire, the risk value is a value according to the scale of the fire, and is set to become larger as the virtual time advances.

個体情報記憶部42は、群集を構成する複数の個体のそれぞれについて、少なくとも、属性値、状態値、および行動パラメータを記憶する。また、個体情報記憶部42は、さらに、個体それぞれの反応閾値、個体それぞれの認知閾値、および個体それぞれに対する刺激値のうちの1以上を記憶してもよい。   The individual information storage unit 42 stores at least an attribute value, a state value, and an action parameter for each of the plurality of individuals that form the crowd. Further, the individual information storage unit 42 may further store one or more of a reaction threshold value of each individual, a cognitive threshold value of each individual, and a stimulation value for each individual.

属性値には、個体がリーダーかフォロワーかの別を表す識別子が設定される。リーダーとフォロワーは群集における個体の役割である。リーダーは自身の行動を自分の意思によって決定する。フォロワーは自身の行動を他の個体の行動によって決定する。
本発明において属性値は仮想時刻の経過とともに動的に変更される。ただし、各試行において属性値の初期値は共通である。すなわち、条件設定部20を用いた利用者による入力操作により属性値の初期値が設定され、試行のたびに属性値には当該初期値が設定され、属性値は後述するリーダー行動決定部54およびフォロワー行動決定部55により随時変更される。
ちなみに、本実施形態において属性値の初期値は全個体に共通してフォロワーである。
An identifier indicating whether the individual is a leader or a follower is set in the attribute value. Leaders and followers are the roles of individuals in the crowd. Leaders decide their actions based on their will. A follower decides his / her behavior according to the behavior of another individual.
In the present invention, the attribute value is dynamically changed as the virtual time passes. However, the initial value of the attribute value is common in each trial. That is, the initial value of the attribute value is set by the input operation by the user using the condition setting unit 20, the initial value is set to the attribute value each time the trial is performed, and the attribute value is set to the leader action determination unit 54 and It is changed by the follower action determination unit 55 at any time.
Incidentally, in this embodiment, the initial value of the attribute value is a follower common to all individuals.

状態値は、各試行の各仮想時刻における各個体の状態を表す。状態値は対象空間における個体の位置であり、グリッド番号で表す。
状態値の初期値も各試行において共通であり、仮想時刻の経過とともに更新される。すなわち、条件設定部20を用いた利用者による入力操作により状態値の初期値が設定され、試行のたびに状態値には当該初期値が設定され、状態値は後述する個体情報更新部56により随時更新される。
ちなみに、本実施形態において各個体の位置の初期値は部屋Rの移動可能領域中のグリッド番号の中からランダムに設定された値である。
なお、本実施形態において状態値は位置のみの一要素であるが、別の実施形態において状態値は、位置と姿勢を表す値というように複数の要素を含んでもよい。
The state value represents the state of each individual at each virtual time of each trial. The state value is the position of the individual in the target space and is represented by a grid number.
The initial value of the state value is also common in each trial and is updated as the virtual time passes. That is, the initial value of the state value is set by the input operation by the user using the condition setting unit 20, the initial value is set to the state value for each trial, and the state value is set by the individual information updating unit 56 described later. Updated from time to time.
Incidentally, in the present embodiment, the initial value of the position of each individual is a value randomly set from the grid numbers in the movable area of the room R.
In addition, in the present embodiment, the state value is one element only of the position, but in another embodiment, the state value may include a plurality of elements such as a value representing the position and the posture.

行動パラメータは、各試行の各仮想時刻における各個体の行動を表し、状態値に作用するパラメータである。行動パラメータは、基本的に、各個体の行動の目的、当該目的を達成するために当該個体が決定した行動の手段、当該個体が当該行動の手段を実行することによる1時刻当たりの状態値の変更量(状態変更量)で表すものと定義する。
例えば、目的は避難であり、目的として避難を表す識別子が記憶される。ただし、本実施形態において目的は避難の一種類であるため、目的の記憶は省略してもよい。
また、例えば、手段は出口Eへの移動と出口Eへの移動の2通りであり、手段として選択出口を表す符号が記憶される。すなわち、前者を選択したときは手段には符号E、後者を選択したときは手段には符号Eが記憶される。
また、例えば、状態変更量はグリッド単位の移動量であり、状態変更量としてグリッド番号のx方向の増分値とy方向の増分値の組を記憶させる。すなわち、図3(A)の地図で表す対象空間においては、例えば、北に1グリッド移動するときは(0,−1)、北西に1グリッド移動するときは(−1,−1)、…などと記憶される。試行回数mにおける仮想時刻tの位置が(5,10)である個体の移動量が(−1,−1)であれば、当該試行回数mにおける仮想時刻(t+1)の位置は(4,9)に更新される。
ちなみに、本実施形態において各個体の選択出口の初期値は定義されず、各個体の移動量の初期値は(0,0)である。行動パラメータは後述するリーダー行動決定部54およびフォロワー行動決定部55により随時変更される。
The action parameter represents the action of each individual at each virtual time of each trial, and is a parameter that acts on the state value. The behavior parameter is basically the purpose of the behavior of each individual, the means of the behavior determined by the individual to achieve the purpose, and the state value per hour by the individual performing the means of the behavior. It is defined as the amount of change (state change amount).
For example, the purpose is evacuation, and an identifier representing evacuation is stored as the purpose. However, in the present embodiment, the purpose is one type of evacuation, and thus the storage of the purpose may be omitted.
Further, for example, there are two kinds of means, that is, the movement to the exit E 1 and the movement to the exit E 2 , and the code representing the selected exit is stored as the means. That is, when the former is selected, the code E 1 is stored in the means, and when the latter is selected, the code E 2 is stored in the means.
Further, for example, the state change amount is a movement amount in a grid unit, and a set of an increment value in the x direction and an increment value in the y direction of the grid number is stored as the state change amount. That is, in the target space represented by the map of FIG. 3 (A), for example, when moving one grid to the north (0, -1), when moving one grid to the northwest (-1, -1), ... And so on. If the movement amount of the individual whose virtual time t is (5, 10) at the number of trials m is (-1, -1), the position of virtual time (t + 1) at the number of trials m is (4, 9). ) Is updated.
Incidentally, the initial value of the selection exit of each individual is not defined in this embodiment, and the initial value of the movement amount of each individual is (0, 0). The behavior parameter is changed at any time by the leader behavior determination unit 54 and the follower behavior determination unit 55, which will be described later.

反応閾値および認知閾値は、個体の個性を表現するパラメータであり、条件設定部20を用いた利用者による入力操作により予め設定される。
個体ごとの反応閾値は、当該個体の刺激値に対する閾値であり、刺激値に対して自ら行動を起こす反応の生じにくさ、つまりリーダーへの変更されにくさを表す。反応閾値が高い個体ほど刺激に対して鈍感で、低い個体ほど刺激に対して敏感である。よって、反応閾値が高い個体ほどリーダーに変更されにくく、低い個体ほどリーダーに変更され易い。
また、個体ごとの認知閾値は、当該個体が認知するリスクの大きさを表す。認知閾値が高い個体ほどリスク値の上昇に応じて刺激値が上昇しにくく、低い個体ほど刺激値が上昇し易い。よって、認知閾値が高い個体ほどリーダーに変更されにくく、低い個体ほどリーダーに変更され易い。
The reaction threshold and the cognitive threshold are parameters expressing the individuality of an individual, and are preset by an input operation by the user using the condition setting unit 20.
The reaction threshold for each individual is a threshold for the stimulus value of the individual, and represents the difficulty of causing a reaction that causes an action by the stimulus value, that is, the difficulty of being changed to a leader. Individuals with higher response thresholds are less sensitive to stimuli, and individuals with lower response thresholds are more sensitive to stimuli. Therefore, an individual having a higher reaction threshold is less likely to be changed to a leader, and an individual having a lower reaction threshold is more likely to be changed to a leader.
The cognitive threshold for each individual represents the magnitude of the risk recognized by the individual. The higher the cognitive threshold, the more difficult it is for the stimulus value to increase in accordance with the increase in the risk value, and the lower the cognitive threshold, the easier the stimulus value increases. Therefore, an individual with a higher cognitive threshold is less likely to be changed to a leader, and an individual with a lower cognitive threshold is more likely to be changed to a leader.

刺激値は行動の契機となる刺激の程度を表す値である。例えば、刺激値は火災の規模の拡大や避難を促す放送などに応じて時々刻々と上昇する値として設定される。個体ごとの刺激値は当該個体が各仮想時刻において受ける刺激値である。
本実施形態において刺激値は仮想時刻の経過とともに更新される。ただし、各試行において刺激値の初期値は共通である。すなわち、条件設定部20を用いた利用者による入力操作により刺激値の初期値が設定され、試行のたびに刺激値には当該初期値が設定され、刺激値は後述する刺激値設定部52により個体ごと且つ仮想時刻ごとに更新される。
ちなみに、本実施形態において刺激値の初期値s(−1)は全個体に共通して0である。
The stimulus value is a value indicating the degree of stimulus that triggers an action. For example, the stimulus value is set as a value that increases every moment in response to an increase in the scale of a fire or a broadcast that prompts evacuation. The stimulus value for each individual is the stimulus value that the individual receives at each virtual time.
In this embodiment, the stimulus value is updated as the virtual time passes. However, the initial value of the stimulation value is common in each trial. That is, the initial value of the stimulation value is set by the input operation by the user using the condition setting unit 20, the initial value is set to the stimulation value each time the trial is performed, and the stimulation value is set by the stimulation value setting unit 52 described later. It is updated for each individual and for each virtual time.
By the way, in this embodiment, the initial value s (−1) of the stimulation value is 0 in common for all individuals.

図4および図5は、個体情報記憶部42が記憶する情報を模式的に例示したものである。   4 and 5 schematically illustrate information stored in the individual information storage unit 42.

N個の個体それぞれには当該個体を識別する個体IDが付与され、個体IDと当該個体に関する情報とが対応付けて記憶される。
図4の情報110は、個体IDが0,1,…,(N−1)である個体それぞれに対して記憶される反応閾値θ,θ,…,θN−1、および認知閾値μ,μ,…,μN−1を例示している。
図5は、シミュレーション終了時点の情報111を例示したものである。情報111として、1,2,…,M回目の試行それぞれにおける仮想時刻が0,1,2,…,(T−1)の各時点での個体IDが0,1,…,(N−1)である個体のそれぞれについて刺激値の履歴、属性値の履歴、状態値の履歴、行動パラメータの履歴が記憶される。例えば、情報111には、1回目の試行で個体IDが0である個体に与えられた各仮想時刻の刺激値はs1,0(0),s1,0(1),s1,0(2),…,s1,0(T−1)であり、これに対応して同試行で同個体の属性値はフォロワー,リーダー,リーダー,…,リーダーと変遷し、同試行で同個体の選択出口は未定値,E,E,…,Eと変遷し、同試行で同個体の移動量は(0,0),(−1,−1),(−1,−1),…,(−1,−1)と変遷し、同試行で同個体が位置するグリッドは(0,0),(−1,−1),(−2,−2),…,(−64,−20)と変遷して出口Eに到達したことなどが記憶される。
An individual ID for identifying the individual is given to each of the N individuals, and the individual ID and information about the individual are stored in association with each other.
The information 110 of FIG. 4 includes the reaction thresholds θ 0 , θ 1 , ..., θ N−1 and the cognitive threshold μ that are stored for each individual whose individual ID is 0, 1, ..., (N−1). 0 , μ 1 , ..., μ N−1 are illustrated.
FIG. 5 shows an example of the information 111 at the end of the simulation. As the information 111, the individual IDs at the virtual times 0, 1, 2, ..., (T-1) in the 1, 2, ..., Mth trials are 0, 1, ..., (N-1). ), The history of stimulus values, the history of attribute values, the history of state values, and the history of action parameters are stored. For example, in the information 111, the stimulus value at each virtual time given to the individual whose individual ID is 0 in the first trial is s 1,0 (0), s 1,0 (1), s 1,0 (2), ..., s 1,0 (T-1), and in response to this, the attribute value of the same individual changes in the same trial as follower, leader, leader ,. , The selected exits of E 1 , E 1 , E 1 , ..., E 1 have changed, and the movement amount of the same individual in the same trial is (0, 0), (-1, -1), (-1, -1). , ..., (-1, -1), and the grid where the same individual is located in the same trial is (0, 0), (-1, -1), (-2, -2), ..., ( -64, -20) and the fact that the exit E 1 is reached is stored.

リスク値取得部50は、対象空間に生じるリスクの大きさを表すリスク値を順次取得して刺激値設定部52に出力する。具体的には、リスク値取得部50は、仮想時刻tが進むごとに刺激値設定部52から要求を受け、当該仮想時刻tのリスク値r(t)を環境情報記憶部41から読み出して刺激値設定部52に出力する。   The risk value acquisition unit 50 sequentially acquires the risk value indicating the magnitude of the risk occurring in the target space and outputs it to the stimulation value setting unit 52. Specifically, the risk value acquisition unit 50 receives a request from the stimulation value setting unit 52 each time the virtual time t advances, reads the risk value r (t) at the virtual time t from the environment information storage unit 41, and performs stimulation. The value is output to the value setting unit 52.

周囲個体情報取得部51は、各個体について当該個体の位置から所定距離以下に存在する周囲個体の情報を取得し、刺激値設定部52およびフォロワー行動決定部55に出力する。
周囲個体情報取得部51が取得する情報のひとつは周囲個体の数であり、周囲個体情報取得部51は刺激値設定部52からの個体IDを指定した要求に応じて、指定された個体の周囲の個体の数を出力する。例えば、距離閾値Tを近傍の8グリッドを包含する円の半径に予め設定しておく。周囲個体情報取得部51は、個体情報記憶部42を参照して、指定された個体の位置から半径T内の位置が設定されている個体を周囲個体として抽出し、抽出した周囲個体の数を計数して出力する。
また、周囲個体情報取得部51が取得する情報のもうひとつは周囲個体の行動であり、周囲個体情報取得部51はフォロワー行動決定部55からの個体IDを指定した要求に応じて、指定された個体の周囲の個体の行動を出力する。具体的には、周囲個体情報取得部51は、上記と同様にして周囲個体を抽出し、抽出した周囲個体に設定されている行動パラメータを出力する。
The surrounding individual information acquisition unit 51 acquires, for each individual, information about surrounding individuals existing within a predetermined distance from the position of the individual, and outputs the information to the stimulus value setting unit 52 and the follower action determination unit 55.
One of the pieces of information acquired by the surrounding individual information acquisition unit 51 is the number of surrounding individuals, and the surrounding individual information acquisition unit 51 responds to the request from the stimulus value setting unit 52 specifying the individual ID, and the surroundings of the specified individual. Output the number of individuals. For example, the distance threshold T D is set in advance to the radius of a circle that includes the neighboring 8 grids. The surrounding individual information acquisition unit 51 refers to the individual information storage unit 42, extracts an individual whose position within the radius T D is set from the position of the specified individual as a surrounding individual, and extracts the number of surrounding individuals. Is counted and output.
Further, another piece of information acquired by the surrounding individual information acquiring unit 51 is the behavior of the surrounding individual, and the surrounding individual information acquiring unit 51 is designated in response to the request from the follower behavior determining unit 55 designating the individual ID. Outputs the behavior of individuals around them. Specifically, the surrounding individual information acquisition unit 51 extracts the surrounding individual in the same manner as above and outputs the action parameter set for the extracted surrounding individual.

刺激値設定部52は、仮想時刻ごとに、各個体に対する刺激値を設定して、設定した刺激値を確率設定部53に出力する。具体的には、刺激値設定部52は、各仮想時刻tにおける各個体i(個体IDがiである個体)の刺激値s(t)を下式(1)〜(4)に従って設定する。 The stimulus value setting unit 52 sets a stimulus value for each individual for each virtual time and outputs the set stimulus value to the probability setting unit 53. Specifically, the stimulus value setting unit 52 sets the stimulus value s i (t) of each individual i (individual ID is i) at each virtual time t according to the following equations (1) to (4). .

Figure 0006679645
Figure 0006679645
Figure 0006679645
Figure 0006679645
Figure 0006679645
Figure 0006679645
Figure 0006679645
Figure 0006679645

ただし、s(t−1)は、個体iに対して1時刻前に設定した刺激値であり、刺激値設定部52はこれを個体情報記憶部42から取得する。また刺激値設定部52は1時刻後での設定のために現時刻で設定した刺激値を個体情報記憶部42に記憶させる。δは1時刻当たりの刺激増加量であり、刺激増加量δには0より大きな値が予め設定される。αは刺激を抑制するスケールファクタであり、スケールファクタαには0以上の値が予め設定される。また、r(t)は上述したリスク値であり、刺激値設定部52はこれをリスク値取得部50から取得する。gは非負の定数である。μは上述した認知閾値のうちの個体iについての認知閾値であり、刺激値設定部52はこれを個体情報記憶部42から取得する。nは個体iの周囲の個体の数であり、刺激値設定部52はこれを周囲個体情報取得部51から取得する。Nmaxは周囲個体数の最大数であり、1以上の値が予め設定される。
また、式(1)におけるmax{・,0}、式(2)(4)における「if ・ 0 otherwise」はそれぞれ値を非負に制限することを表している。
However, s i (t−1) is the stimulus value set for the individual i one time ago, and the stimulus value setting unit 52 acquires this from the individual information storage unit 42. Further, the stimulus value setting unit 52 causes the individual information storage unit 42 to store the stimulus value set at the current time for setting after one time. δ is the stimulus increase amount per one time, and a value larger than 0 is preset for the stimulus increase amount δ. α is a scale factor for suppressing stimulation, and a value of 0 or more is preset for the scale factor α. Further, r (t) is the above-described risk value, and the stimulation value setting unit 52 acquires this from the risk value acquisition unit 50. g is a non-negative constant. μ i is the cognitive threshold for the individual i among the cognitive thresholds described above, and the stimulation value setting unit 52 acquires this from the individual information storage unit 42. ni is the number of individuals around the individual i, and the stimulation value setting unit 52 acquires this from the surrounding individual information acquisition unit 51. N max is the maximum number of surrounding individuals, and a value of 1 or more is set in advance.
Further, max {·, 0} in the formula (1) and “if · 0 otherwise” in the formulas (2) and (4) respectively indicate that the value is restricted to a non-negative value.

式(3)のRはリスク値r(t)と認知閾値μの差が大きいほど1に近づき、式(1)の刺激値s(t)はRが1に近づくほど大きく増加する。つまり、認知閾値μが小さな個体ほど、リスク値r(t)との差が大きくなり易く、刺激値s(t)が増加し易い。これは、認知閾値が小さな個体ほど、リスクに敏感な個体であり、リーダーになり易い個体であるという現実世界の様子をモデル化している。
このように、刺激値設定部52は、個体ごとに刺激値を設定し、特に、リスク値r(t)と当該個体iの認知閾値μとの差が大きな個体ほど個体情報記憶部42に記憶させた値s(t−1)から大きく増加させて刺激値s(t)を設定することによって、より現実世界に近い予測を可能にしている。
R p of the equation (3) approaches 1 as the difference between the risk value r (t) and the cognitive threshold μ i increases, and the stimulation value s i (t) of the equation (1) increases as R p approaches 1. To do. That is, the smaller the cognitive threshold μ i, the greater the difference from the risk value r (t) and the more likely the stimulation value s i (t) increases. This models the state of the real world in which the smaller the cognitive threshold, the more sensitive the risk is and the more likely a leader becomes.
In this way, the stimulus value setting unit 52 sets the stimulus value for each individual, and in particular, the greater the difference between the risk value r (t) and the cognitive threshold μ i of the individual i, the more the individual information storage unit 42 stores. By greatly increasing the stored value s i (t−1) and setting the stimulation value s i (t), it is possible to make a prediction closer to the real world.

また、式(4)のFは周囲個体の数nが多いほど0に近づき、式(1)の刺激値s(t)はFが0に近づくほど大きく増加する。つまり、周囲個体が多い個体ほど、刺激値s(t)が増加し易い。これは、避難が進んでいない領域ほど行動の契機となる刺激の増加が促進され(行動を起こすべき雰囲気が促進され)、避難が進んだ領域は刺激が飽和する現実世界の様子をモデル化している。
このように、刺激値設定部52は、個体ごとに刺激値を設定し、特に、周囲個体情報取得部51が抽出した周囲個体の数nが多い個体ほど個体情報記憶部42に記憶させた値s(t−1)から大きく増加させて刺激値s(t)を設定することによって、より現実世界に近い予測を可能にしている。
Further, F in Expression (4) approaches 0 as the number n i of surrounding individuals increases, and the stimulation value s i (t) in Expression (1) increases greatly as F approaches 0. That is, the stimulus value s i (t) is likely to increase as the number of surrounding individuals increases. This is because the area where evacuation is less advanced promotes an increase in stimuli that trigger actions (the atmosphere in which evacuation is to be promoted), and the area where evacuation is advanced models the state of the real world where stimuli saturate. There is.
In this way, the stimulus value setting unit 52 sets the stimulus value for each individual, and in particular, the individual information storage unit 42 stores the individual having a larger number n i of surrounding individuals extracted by the surrounding individual information acquisition unit 51. By setting the stimulus value s i (t) by greatly increasing the value s i (t−1), it is possible to make a prediction closer to the real world.

なお、試行回数と仮想時刻の制御は刺激値設定部52によって行われる。   The control of the number of trials and the virtual time is performed by the stimulation value setting unit 52.

確率設定部53は、刺激値設定部52によって刺激値が設定されるたびに、個体のうちの、属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定して当該第一当選確率をリーダー行動決定部54に出力し、属性値がリーダーである個体に所定の第二当選確率を設定して当該第二当選確率をフォロワー行動決定部55に出力する。   Each time the stimulus value setting unit 52 sets the stimulus value, the probability setting unit 53 sets the first winning probability based on the stimulus value to the individual whose attribute value is a follower among the individuals and sets the first winning probability. The winning probability is output to the leader action determining unit 54, a predetermined second winning probability is set for the individual whose attribute value is the leader, and the second winning probability is output to the follower action determining unit 55.

具体的には、確率設定部53は、個体情報記憶部42から属性値がフォロワーである個体の個体ID(iとする)とその反応閾値θを読み出し、刺激値設定部52から入力された刺激値の中から当該個体iに対する刺激値s(t)を特定し、個体iの第一当選確率P(X=0→X=1)を次式(5)に従って設定する。

Figure 0006679645
Specifically, the probability setting unit 53 reads out the individual ID (assumed to be i) of the individual whose attribute value is a follower and its reaction threshold θ i from the individual information storage unit 42, and inputs them from the stimulus value setting unit 52. The stimulus value s i (t) for the individual i is specified from the stimulus values, and the first winning probability P i (X i = 0 → X i = 1) of the individual i is set according to the following equation (5).
Figure 0006679645

ただし、Xは個体iの属性値に対応する確率変数であり、X=1は個体iがリーダーであること、X=0は個体iがフォロワーであること、(X=0→X=1)は個体iをフォロワーからリーダーに変更することを表している。つまりP(X=0→X=1)は個体iをフォロワーからリーダーに変更する確率である。 However, X i is a random variable corresponding to the attribute value of the individual i, X i = 1 that the individual i is a leader, X i = 0 that the individual i is a follower, and (X i = 0 → X i = 1) represents changing the individual i from a follower to a leader. That is, P i (X i = 0 → X i = 1) is the probability of changing the individual i from a follower to a leader.

式(5)の第一当選確率P(X=0→X=1)は、刺激値s(t)が高いほど高く、反応閾値θが低いほど高い値となる。これは、刺激が強いときほどリーダーになり易く、刺激に対する反応が敏感な個体ほどリーダーになり易い現実世界の様子をモデル化している。
このように、確率設定部53は、個体ごとに刺激値s(t)が高いほど高く且つ反応閾値θが低いほど高い第一当選確率P(X=0→X=1)を設定する。
The first winning probability P i (X i = 0 → X i = 1) of the equation (5) is higher as the stimulation value s i (t) is higher, and is higher as the reaction threshold θ i is lower. This models the state of the real world where the stronger the stimulus is, the easier it is to become a leader, and the more sensitive an individual is to become a leader.
As described above, the probability setting unit 53 has a higher first winning probability P i (X i = 0 → X i = 1), which is higher as the stimulation value s i (t) is higher and lower as the reaction threshold θ i is lower for each individual. To set.

また、確率設定部53は、個体情報記憶部42から属性値がリーダーである個体の個体ID(iとする)を特定し、個体iの第二当選確率P(X=1→X=0)を次式(6)に従って設定する。

Figure 0006679645
Further, the probability setting unit 53 identifies the individual ID (i) of the individual whose attribute value is the leader from the individual information storage unit 42, and the second winning probability P i (X i = 1 → X i ) of the individual i. = 0) is set according to the following equation (6).
Figure 0006679645

は式(5)の説明と同様であるからP(X=1→X=0)はリーダーからフォロワーに変更する確率である。εには0以上の値が予め設定される。 Since X i is the same as the description of the equation (5), P i (X i = 1 → X i = 0) is the probability of changing from the leader to the follower. A value of 0 or more is set in advance in ε.

式(5)と式(6)は反応閾値モデルに倣って定式化しており、確率設定部53は反応閾値モデルをリーダーとフォロワーの間の変更に応用する独自アプローチを特徴としている。   Equations (5) and (6) are formulated following the reaction threshold model, and the probability setting unit 53 is characterized by an original approach in which the reaction threshold model is applied to change between a leader and a follower.

リーダー行動決定部54は、確率設定部53によって第一当選確率が設定された個体の属性値を当該確率にてリーダーに変更するとともに、属性値がリーダーである個体の行動パラメータに当該個体の状態値を目的の達成に近づける値を設定する。   The leader action determination unit 54 changes the attribute value of the individual for which the first winning probability is set by the probability setting unit 53 to the leader with the probability, and sets the state of the individual as the action parameter of the individual whose attribute value is the leader. Set a value that brings the value closer to achieving the objective.

具体的には、リーダー行動決定部54は、第一当選確率が設定された個体iに対して第一当選確率P(X=0→X=1)での抽選を行い、当該抽選に当選した場合に当該個体(当選個体)iの属性値Xがリーダーであることを個体情報記憶部42に記憶させる。
上記抽選においては、例えば、リーダー行動決定部54は、値域[0,1]の乱数を1つ決定し、当該乱数がP(X=0→X=1)未満であれば当選、P(X=0→X=1)以上であれば落選と判定する。
また、リーダー行動決定部54は、個体情報記憶部42から属性値がリーダーである個体の位置を読み出し、当該位置から環境情報記憶部41に記憶されている各出口までの距離を算出して、最も近い出口を当選個体の選択出口に決定する。
また、リーダー行動決定部54は、属性値がリーダーである個体の位置の8近傍グリッドそれぞれから選択出口までの距離を算出して、当該個体の位置から最も近い近傍グリッドへの移動量を決定する。そして、リーダー行動決定部54は、目的が避難であることと、決定した選択出口および移動量を属性値がリーダーである個体の行動パラメータとして個体情報記憶部42に記憶させる。
Specifically, the leader action determination unit 54 performs a lottery with the first winning probability P i (X = 0 → X = 1) for the individual i for which the first winning probability is set, and wins the lottery. In this case, the individual information storage unit 42 stores that the attribute value X i of the individual (winning individual) i is the leader.
In the above-mentioned lottery, for example, the leader action determination unit 54 determines one random number in the range [0, 1], and if the random number is less than P i (X i = 0 → X i = 1), it is won, If P i (X i = 0 → X i = 1) or more, it is determined that the player has failed.
Further, the leader action determination unit 54 reads the position of the individual whose attribute value is the leader from the individual information storage unit 42, calculates the distance from the position to each exit stored in the environment information storage unit 41, The nearest exit is determined as the selection exit of the winning individual.
The leader action determination unit 54 also calculates the distance from each of the eight neighborhood grids of the position of the individual whose attribute value is the leader to the selected exit, and determines the amount of movement from the position of the individual to the nearest neighborhood grid. . Then, the leader action determination unit 54 stores the determined evacuation purpose, the determined selection exit and the determined movement amount in the individual information storage unit 42 as the action parameter of the individual whose attribute value is the leader.

フォロワー行動決定部55は、確率設定部53によって第二当選確率が設定された個体の属性値を当該確率にてフォロワーに変更するとともに、属性値がフォロワーである個体の行動パラメータに当該個体の周囲個体の行動パラメータに類似した値を設定する。
具体的には、フォロワー行動決定部55は、第二当選確率が設定された個体iに対して第二当選確率P(X=1→X=0)での抽選を行い、当該抽選に当選した場合に当該当選個体iの属性値Xがフォロワーであることを個体情報記憶部42に記憶させる。
上記抽選においては、例えば、フォロワー行動決定部55は、値域[0,1]の乱数を1つ決定し、当該乱数がP(X=1→X=0)未満であれば当選、P(X=1→X=0)以上であれば落選と判定する。
また、フォロワー行動決定部55は、周囲個体情報取得部51に属性値がフォロワーである個体の周囲の個体の行動パラメータを取得させ、取得した行動パラメータの中で最多の選択出口を当選個体の選択出口に決定する。
また、フォロワー行動決定部55は、属性値がフォロワーである個体の位置の8近傍グリッドそれぞれから選択出口までの距離を算出して、当該個体の位置から最も近い近傍グリッドへの移動量を決定する。そして、フォロワー行動決定部55は、目的が避難であることと、決定した選択出口および移動量を属性値がフォロワーである個体の行動パラメータとして個体情報記憶部42に記憶させる。
The follower action determination unit 55 changes the attribute value of the individual for which the second winning probability is set by the probability setting unit 53 to a follower with the probability, and sets the behavior parameter of the individual whose attribute value is the follower to the surroundings of the individual. Set a value similar to the behavior parameter of the individual.
Specifically, the follower action determination unit 55 performs the lottery with the second winning probability P i (X = 1 → X = 0) for the individual i for which the second winning probability is set, and wins the lottery. attribute value X i of the winning individual i is to be stored to be a follower to the individual information storage section 42 when.
In the lottery, for example, the follower action determination unit 55 determines one random number in the range [0, 1], and if the random number is less than P i (X i = 1 → X i = 0), the winning If P i (X i = 1 → X i = 0) or more, it is determined that the player has failed.
Further, the follower behavior determination unit 55 causes the surrounding individual information acquisition unit 51 to acquire the behavior parameter of the individual surrounding the individual whose attribute value is the follower, and selects the winning outlet with the largest number of selected exits among the acquired behavior parameters. Decide on the exit.
Further, the follower action determination unit 55 calculates the distance from each of the eight neighboring grids of the position of the individual whose attribute value is a follower to the selected exit, and determines the amount of movement from the position of the individual to the closest neighboring grid. . Then, the follower behavior determination unit 55 causes the individual information storage unit 42 to store that the purpose is evacuation and the determined selection exit and movement amount as behavior parameters of the individual whose attribute value is follower.

個体情報更新部56は、各個体の状態値を当該個体の行動パラメータにて更新する。
本実施形態においては、個体情報更新部56は、状態値のうちの位置に、行動パラメータのうちの移動量を加算することによって更新を行う。具体的には、個体情報更新部56は、個体情報記憶部42から各個体の位置と移動量とを読み出し、個体ごとに、読み出した位置に読み出した移動量を加算して加算後の位置を個体情報記憶部42に記憶させる。
The individual information updating unit 56 updates the state value of each individual with the action parameter of the individual.
In the present embodiment, the individual information updating unit 56 updates by adding the movement amount of the action parameter to the position of the state value. Specifically, the individual information updating unit 56 reads the position and the movement amount of each individual from the individual information storage unit 42, adds the read movement amount to the read position for each individual, and obtains the position after the addition. It is stored in the individual information storage unit 42.

予測結果出力部57は、シミュレーションの結果である予測結果を出力する。予測結果は、個体情報記憶部42に記憶されている情報の一部または全部を少なくとも含み、好適には、さらに環境情報記憶部41に記憶されている情報の一部または全部を含む。また、予測結果出力部57は個体情報記憶部42に記憶されている情報、または該情報と環境情報記憶部41に記憶されている情報とを統計処理し、得られた統計量を予測結果として出力してもよい。   The prediction result output unit 57 outputs the prediction result which is the result of the simulation. The prediction result includes at least a part or all of the information stored in the individual information storage unit 42, and preferably further includes a part or all of the information stored in the environment information storage unit 41. Further, the prediction result output unit 57 statistically processes the information stored in the individual information storage unit 42, or the information and the information stored in the environment information storage unit 41, and uses the obtained statistical amount as the prediction result. You may output.

予測結果の出力タイミングは、シミュレーションを終えた時点の他に、シミュレーションの途中を含んでもよい。つまり、シミュレーションの途中までに得られた上記情報の一部または全部を中間予測結果として出力してもよい。   The output timing of the prediction result may include the middle of the simulation in addition to the time when the simulation is finished. That is, part or all of the above information obtained up to the middle of the simulation may be output as the intermediate prediction result.

また、予測結果出力部57は、予測結果をデータファイルとして出力してもよいし、画像ファイルとして出力してもよいし、画像として表示してもよいし、これらのうちの1以上の形式で出力してもよい。   In addition, the prediction result output unit 57 may output the prediction result as a data file, an image file, or an image, and may use one or more of these formats. You may output.

図6および図7のそれぞれは、或る試行回数での上限仮想時刻に近い仮想時刻における中間予測結果の一例である。これらの予測結果は同一の設定から得られる。予測結果出力部57は、出口を含む対象空間の地図を画像化するとともに当該画像上の各個体の位置と対応する座標に個体を表す図形を重畳描画して中間予測結果を生成し、表示部6に出力する。   Each of FIG. 6 and FIG. 7 is an example of an intermediate prediction result at a virtual time close to the upper limit virtual time at a certain number of trials. These prediction results are obtained from the same settings. The prediction result output unit 57 images the map of the target space including the exits, superimposes a figure representing the individual on the coordinates corresponding to the position of each individual on the image to generate an intermediate prediction result, and the display unit Output to 6.

図8は、シミュレーションを終えた時点の情報から生成された統計量をグラフとして画像化した予測結果の一例である。グラフの横軸は選択出口の均等性を表す指標値Eであり、縦軸は試行の頻度である。指標値Eは、南側出口Eに向かう個体の割合Sと北側出口Eに向かう個体の割合Nを乗じた値である(E=S・N)。予測結果出力部57は、個体情報記憶部42に記憶されている選択出口のデータのうち、仮想時刻が(T−1)であるデータを、試行回数ごとに選択出口別に計数して全個体数で除して各試行回数におけるSとNを算出する。そして、試行回数ごとにSとNを乗じてEを算出し、Eを13区間のそれぞれで計数して試行予定回数で除して区間ごとの頻度を算出する。そして、区間ごとの頻度をグラフとして描画した画像を表示部6に出力する。 FIG. 8 is an example of a prediction result in which a statistic generated from information at the time when the simulation is finished is imaged as a graph. The horizontal axis of the graph is the index value E q that represents the uniformity of the selected outlets, and the vertical axis is the frequency of trials. The index value E q is a value obtained by multiplying the proportion S r of individuals heading to the south exit E 2 by the proportion N r of individuals heading to the north exit E 1 (E q = S r · N r ). The prediction result output unit 57 counts the data whose virtual time is (T-1) among the data of the selection exits stored in the individual information storage unit 42 for each selection exit for each number of trials and calculates the total number of individuals. Is divided by to calculate S r and N r at each trial. Then, to calculate the E q by multiplying the S r and N r for each number of trials, to calculate the frequency of each section was divided by attempts estimated count by counting the E q of 13 sections each. Then, the image in which the frequency for each section is drawn as a graph is output to the display unit 6.

図6の中間予測結果110は、0.25に近いEが算出された試行の過程で得られた中間予測結果であり、図8のグラフにおいて最も右側のビンに含まれる試行でのものである。つまり、図6の中間結果が得られた試行ではパニックが発生せずに、2つの出口にほぼ均等に使って避難が行われる様子が予測された。 The intermediate prediction result 110 in FIG. 6 is an intermediate prediction result obtained in the course of the trial in which E q close to 0.25 was calculated, and is the trial in the bin on the rightmost side in the graph of FIG. is there. That is, it was predicted that the trial in which the intermediate result of FIG. 6 was obtained did not cause a panic and the evacuation was performed by using the two exits almost equally.

一方、図7の中間予測結果120は、0.00に近いEが算出された試行の過程で得られた中間予測結果であり、図8のグラフにおいて最も左側のビンに含まれる試行でのものである。つまり、図7の中間結果が得られた試行では、南側出口Eに避難者が集中してしまうパニックが発生する様子が予測された。 On the other hand, the intermediate prediction result 120 of FIG. 7 is an intermediate prediction result obtained in the course of the trial in which E q close to 0.00 was calculated, and is the trial prediction included in the leftmost bin in the graph of FIG. It is a thing. That is, in the trial in which the intermediate result of FIG. 7 was obtained, it was predicted that a panic in which evacuees were concentrated at the south exit E 2 occurred.

例えば、シミュレーター1による予測結果を用いれば、例えば、図6に例示される試行と図7に例示される試行におけるリーダーの位置やその時間推移を比較する解析を行い、パニックが発生する条件を究明することが可能となる。そして究明した結果から、どの位置に誘導手段を設置し又は誘導員を配置すべきか、誘導手段や誘導員がどのようなタイミングでどのような誘導をすべきかといった計画を適確且つ効率的に立案することが可能となる。   For example, if the prediction result by the simulator 1 is used, for example, an analysis is performed to compare the position of the leader and its time transition in the trial illustrated in FIG. 6 and the trial illustrated in FIG. It becomes possible to do. Based on the results of the investigation, it is possible to accurately and efficiently formulate a plan such as at which position the guide means should be installed or the guide member should be placed, and at what timing the guide means and the guide member should perform the guide. It becomes possible to do.

<シミュレーター1の動作例>
図9および図10のフローチャートを参照してシミュレーター1の動作例を説明する。
<Example of simulator 1 operation>
An operation example of the simulator 1 will be described with reference to the flowcharts of FIGS. 9 and 10.

始めに、条件設定部20が利用者からの入力を受け付けてシミュレーションの条件を設定する(ステップS1)。すなわち、利用者が条件設定部20を用いて手入力することによって得られたシミュレーションの条件、または/および利用者が条件設定部20を用いてファイルを指定しそれに応じた条件設定部20が該当するファイルから読み出すことによって得られたシミュレーションの条件を、条件設定部20が反復条件記憶部40、環境情報記憶部41および個体情報記憶部42に設定する。   First, the condition setting unit 20 receives an input from the user and sets the conditions for simulation (step S1). That is, the simulation conditions obtained by the user manually inputting using the condition setting unit 20 and / or the user using the condition setting unit 20 to specify a file and the corresponding condition setting unit 20 are applicable. The condition setting unit 20 sets the simulation condition obtained by reading from the file in the iterative condition storage unit 40, the environment information storage unit 41, and the individual information storage unit 42.

シミュレーションの条件が設定されると、刺激値設定部52は試行回数を1に初期化し(ステップS2)、ステップS2〜S12のループ処理を設定する。   When the simulation condition is set, the stimulation value setting unit 52 initializes the number of trials to 1 (step S2), and sets the loop process of steps S2 to S12.

さらに、試行回数のループ処理において、刺激値設定部52は仮想時刻を0に初期化し(ステップS3)、ステップS3〜S10のループ処理を設定する。   Furthermore, in the loop processing of the number of trials, the stimulation value setting unit 52 initializes the virtual time to 0 (step S3), and sets the loop processing of steps S3 to S10.

仮想時刻のループ処理においては、まず、行動決定処理が行われる(ステップS4)。   In the virtual time loop process, first, the action determination process is performed (step S4).

図10のフローチャートを参照してステップS4の行動決定処理について説明する。   The action determination process of step S4 will be described with reference to the flowchart of FIG.

行動決定処理においては、まず、リスク値の取得が行われる(ステップS401)。すなわち、刺激値設定部52がリスク値取得部50に設定中の仮想時刻を指定してリスク値の取得を要求し、リスク値取得部50は指定された時刻に対応するリスク値を環境情報記憶部41から読み出して刺激値設定部52に出力する。   In the action determination process, first, the risk value is acquired (step S401). That is, the stimulus value setting unit 52 requests the risk value acquisition unit 50 to acquire the risk value by specifying the virtual time being set, and the risk value acquisition unit 50 stores the risk value corresponding to the specified time in the environmental information storage. It is read from the unit 41 and output to the stimulation value setting unit 52.

次に、刺激値設定部52が、個体情報記憶部42を参照してその位置が未だ出口EまたはEに達していない個体を特定し、特定した個体を順次処理対象に設定することによって(ステップS402)、ステップS402〜S417のループ処理を設定する。 Next, the stimulation value setting unit 52 refers to the individual information storage unit 42 to identify an individual whose position has not yet reached the exit E 1 or E 2 , and sequentially sets the identified individual as a processing target. (Step S402), the loop processing of steps S402 to S417 is set.

個体のループ処理においては、まず、周囲個体の計数が行われる(ステップS403)。すなわち、刺激値設定部52が処理対象の個体の個体IDを指定して周囲個体情報取得部51に周囲個体の情報の取得を要求し、周囲個体情報取得部51は個体情報記憶部42を参照して指定された個体の周囲個体を計数し、計数した周囲個体数を刺激値設定部52に出力する。   In the individual loop processing, first, surrounding individuals are counted (step S403). That is, the stimulus value setting unit 52 specifies the individual ID of the processing target individual and requests the surrounding individual information acquisition unit 51 to acquire information about the surrounding individual, and the surrounding individual information acquisition unit 51 refers to the individual information storage unit 42. Then, the surrounding individuals of the designated individual are counted, and the counted number of surrounding individuals is output to the stimulus value setting unit 52.

次に、刺激値の更新が行われる(ステップS404)。すなわち、刺激値設定部52は、個体情報記憶部42から処理対象の個体の1時刻前の刺激値および認知閾値を読み出し、読み出した刺激値と、認知閾値と、ステップS401で取得されたリスク値と、ステップS403で取得された周囲個体数とを式(1)〜(4)に適用して刺激値を算出し、当該刺激値を個体情報記憶部42に追記する。   Next, the stimulation value is updated (step S404). That is, the stimulus value setting unit 52 reads the stimulus value and the cognitive threshold of the individual to be processed one hour before from the individual information storage unit 42, the read stimulus value, the cognitive threshold, and the risk value acquired in step S401. Then, the number of surrounding individuals acquired in step S403 is applied to equations (1) to (4) to calculate a stimulus value, and the stimulus value is added to the individual information storage unit 42.

続いて、確率設定部53が、個体情報記憶部42を参照して処理対象の個体の属性値を確認する(ステップS405)。   Subsequently, the probability setting unit 53 refers to the individual information storage unit 42 and confirms the attribute value of the individual to be processed (step S405).

属性値がフォロワーである場合(ステップS405にてYES)、確率設定部53は個体情報記憶部42から処理対象の個体の反応閾値と最新の刺激値を読み出し、これらを式(5)に適用して第一当選確率を算出する(ステップS406)。そして、リーダー行動決定部54は、算出した第一当選確率での抽選を行い(ステップS407)、当選した場合(ステップS408にてYES)、個体情報記憶部42における処理対象の個体の属性値をリーダーに変更し(ステップS409)、処理をステップ413に進める。当選しなかった場合(ステップS408にてNO)、処理対象の個体の属性値は変更しないことが決定されてステップS409は省略され、処理はステップS415に進められる。   When the attribute value is a follower (YES in step S405), the probability setting unit 53 reads the reaction threshold value and the latest stimulus value of the processing target individual from the individual information storage unit 42, and applies these to Expression (5). The first winning probability is calculated (step S406). Then, the leader action determination unit 54 performs a lottery with the calculated first winning probability (step S407), and when the winning is achieved (YES in step S408), the attribute value of the processing target individual in the individual information storage unit 42 is set. Change to a leader (step S409), and the process proceeds to step 413. If not won (NO in step S408), it is determined that the attribute value of the processing target individual is not changed, step S409 is omitted, and the process proceeds to step S415.

他方、属性値がリーダーである場合(ステップS405にてNO)、確率設定部53が式(6)に基づく第二当選確率を設定し、フォロワー行動決定部55が設定された第二当選確率での抽選を行う(ステップS410)。当選した場合(ステップS411にてYES)、フォロワー行動決定部55が個体情報記憶部42における処理対象の個体の属性値をフォロワーに変更し(ステップS412)、処理をステップS415に進める。当選しなかった場合(ステップS411にてNO)、処理対象の個体の属性値は変更しないことが決定されてステップS412は省略され、処理はステップS413に進められる。   On the other hand, when the attribute value is the leader (NO in step S405), the probability setting unit 53 sets the second winning probability based on the equation (6), and the follower action determining unit 55 sets the second winning probability. Lottery is performed (step S410). If the player has won (YES in step S411), the follower behavior determination unit 55 changes the attribute value of the processing target individual in the individual information storage unit 42 to a follower (step S412), and the process proceeds to step S415. If not won (NO in step S411), it is determined that the attribute value of the processing target individual is not changed, step S412 is omitted, and the process proceeds to step S413.

ステップS413においては、リーダー行動決定部54が、属性値をリーダーに変更することが決定された個体および属性値をリーダーから変更しないことが決定された個体の選択出口を、個体情報記憶部42に記憶されている当該個体の位置から近い方の出口に決定する。
そして、リーダー行動決定部54は、処理対象の個体の位置の8近傍グリッドのうちの選択出口に最も近い近傍グリッドへの移動量を、当該個体の移動量として算出する(ステップS414)。
In step S 413, the leader action determination unit 54 stores the selection outlets of the individual whose attribute value has been changed to the leader and the individual outlets of the individual whose attribute value has not been changed from the leader in the individual information storage unit 42. An exit closer to the stored location of the individual is determined.
Then, the leader behavior determination unit 54 calculates the amount of movement of the position of the processing target individual to the nearest neighboring grid of the eight neighboring grids to the selected exit as the amount of movement of the individual (step S414).

他方、ステップS415においては、フォロワー行動決定部55が、属性値をフォロワーに変更することが決定された個体および属性値をフォロワーから変更しないことが決定された個体の選択出口を周囲個体に類似させて決定する。フォロワー行動決定部55は、処理対象の個体の周囲の個体の選択出口を周囲個体情報取得部51に取得させ、そのうちの最も多数である選択出口を処理対象の個体の選択出口に決定する。なお、仮想時刻が0または0に近いときは周囲個体の多くの選択出口が未定の場合があるが、その場合は処理対象の個体の選択出口も未定となる。
そして、リーダー行動決定部54は、処理対象の個体の位置の8近傍グリッドのうちの選択出口に最も近い近傍グリッドへの移動量を、当該個体の移動量として算出する(ステップS416)。
On the other hand, in step S415, the follower behavior determination unit 55 makes the selection outlets of the individuals whose attribute values are determined to be changed to followers and the individuals whose attribute values are determined not to be changed from followers similar to the surrounding individuals. To decide. The follower behavior determination unit 55 causes the surrounding individual information acquisition unit 51 to acquire selection outlets of individuals around the processing target individual, and determines the largest number of selection outlets of the selection outlets of the processing target individual. Note that when the virtual time is 0 or close to 0, many selection outlets of surrounding individuals may be undecided. In that case, the selection outlets of the processing target individuals are also undecided.
Then, the leader action determination unit 54 calculates the amount of movement of the position of the processing target individual to the neighboring grid closest to the selected exit among the eight neighboring grids as the amount of movement of the individual (step S416).

続くステップS417では個体のループ処理の終了判定が行われる。刺激値設定部52は、出口に達していない個体の全てを処理し終えたか否かを確認し、処理し終えていない場合は(ステップS417にてNO)、処理をステップS402に戻して、個体のループ処理を継続する。   In the following step S417, it is determined whether or not the loop processing of the individual has ended. The stimulus value setting unit 52 confirms whether or not all the individuals who have not reached the exit have been processed, and if not processed (NO in step S417), returns the process to step S402 and Continue the loop processing of.

他方、出口に達していない個体の全てを処理し終えた場合(ステップS417にてYES)、リーダー行動決定部54およびフォロワー行動決定部55が個体情報記憶部42に記憶されている各個体の行動パラメータを更新する(ステップS418)。すなわちリーダー行動決定部54はステップS413で決定した選択出口およびステップS414で決定した移動量を個体情報記憶部42に記憶させ、フォロワー行動決定部55はステップS415で決定した選択出口およびステップS416で決定した移動量を個体情報記憶部42に記憶させる。   On the other hand, when all the individuals who have not reached the exit have been processed (YES in step S417), the leader behavior determination unit 54 and the follower behavior determination unit 55 cause the behavior of each individual stored in the individual information storage unit 42. The parameters are updated (step S418). That is, the leader action determination unit 54 stores the selected exit determined in step S413 and the movement amount determined in step S414 in the individual information storage unit 42, and the follower action determination unit 55 determines the selected exit determined in step S415 and step S416. The moved amount is stored in the individual information storage unit 42.

行動パラメータが更新されると行動決定処理は終了して、処理は図9のステップS5に進められ、個体情報更新部56がステップS4で更新された各個体の移動量を用いて当該個体の位置を更新する。   When the action parameter is updated, the action determination process ends, the process proceeds to step S5 in FIG. 9, and the individual information updating unit 56 uses the movement amount of each individual updated in step S4 to position the individual. To update.

続くステップS6では予測結果の出力が行われる。予測結果出力部57は、環境情報記憶部41を参照して部屋Rの地図を描画し、個体情報記憶部42を参照して各個体の最新の位置を地図に重畳して描画し、描画結果の画像を中間予測結果として表示部6に表示させる。   In the subsequent step S6, the prediction result is output. The prediction result output unit 57 refers to the environment information storage unit 41 to draw a map of the room R, refers to the individual information storage unit 42 to draw the latest position of each individual on the map, and draws the result. Is displayed on the display unit 6 as an intermediate prediction result.

続いて仮想時刻のループ処理の終了判定が行われる。刺激値設定部52は、仮想時刻を1だけ増加させるとともに(ステップS7)、個体情報記憶部42を参照して全個体が出口に到達したか否かを確認する(ステップS8)。さらに、出口に到達していない個体がある場合(ステップS8にてNO)、刺激値設定部52は、増加させた仮想時刻が上限仮想時刻以上であるか否かを確認する(ステップS9)。
出口に到達していない個体があり且つ仮想時刻が上限仮想時刻未満である場合(ステップS9にてNO)、刺激値設定部52は、処理をステップS4に戻し、仮想時刻のループ処理を継続する。
Then, the end of the virtual time loop process is determined. The stimulus value setting unit 52 increases the virtual time by 1 (step S7), and refers to the individual information storage unit 42 to check whether all the individuals have reached the exit (step S8). Furthermore, when there is an individual that has not reached the exit (NO in step S8), the stimulation value setting unit 52 confirms whether the increased virtual time is equal to or more than the upper limit virtual time (step S9).
If there is an individual that has not reached the exit and the virtual time is less than the upper limit virtual time (NO in step S9), the stimulation value setting unit 52 returns the processing to step S4 and continues the loop processing of the virtual time. .

他方、全個体が出口に到達した場合(ステップS8にてYES)、または仮想時刻が上限仮想時刻以上である場合は(ステップS9にてYES)、試行回数のループ処理の終了判定が行われる。刺激値設定部52は、試行回数を1だけ増加させ(ステップS10)、増加させた試行回数が試行予定回数を超えたか否かを確認する(ステップS11)。増加させた試行回数が試行予定回数以下の場合(ステップS11にてNO)、刺激値設定部52は、処理をステップS3に戻して試行回数のループ処理を継続する。   On the other hand, when all the individuals have reached the exit (YES in step S8) or when the virtual time is equal to or more than the upper limit virtual time (YES in step S9), it is determined whether or not the loop processing for the number of trials has ended. The stimulation value setting unit 52 increases the number of trials by 1 (step S10), and confirms whether or not the increased number of trials exceeds the scheduled number of trials (step S11). When the increased number of trials is equal to or less than the planned number of trials (NO in step S11), the stimulation value setting unit 52 returns the process to step S3 and continues the loop process of the number of trials.

増加させた試行回数が試行予定回数を超えた場合(ステップS11にてYES)、シミュレーションは終了となり、予測結果の出力が行われる。
予測結果出力部57は、個体情報記憶部42を参照して指標値Eの頻度を集計し、頻度グラフを描画し、描画したグラフ画像を予測結果として表示部6に表示させる。また、予測結果出力部57は個体情報記憶部42の全データと環境情報記憶部41の全データとをファイルに書き出し、当該ファイルを予測結果のもうひとつとしてファイル入出力部3から出力する。
If the increased number of trials exceeds the scheduled number of trials (YES in step S11), the simulation ends and the prediction result is output.
The prediction result output unit 57 refers to the individual information storage unit 42, totals the frequencies of the index values E q , draws a frequency graph, and displays the drawn graph image on the display unit 6 as a prediction result. The prediction result output unit 57 also writes all the data in the individual information storage unit 42 and all the data in the environment information storage unit 41 to a file, and outputs the file from the file input / output unit 3 as another prediction result.

[第二の実施形態]
第一の実施形態においては、個体情報記憶部42、周囲個体情報取得部51、刺激値設定部52、確率設定部53、リーダー行動決定部54、フォロワー行動決定部55、個体情報更新部56が複数の個体についての処理を行う例を示した。第二の実施形態におけるシミュレーター1bは、これらに代えて、それぞれが1つの個体についての処理を行う個体情報記憶部42b−i、周囲個体情報取得部51b−i、刺激値設定部52b−i、確率設定部53b−i、リーダー行動決定部54b−i、フォロワー行動決定部55b−i、個体情報更新部56b−iで構成される行動決定装置70b−iを個体の数Nだけ備える。ただし、i=0,1,2,…,N−1である。
すなわち、シミュレーター1bに含まれる行動決定装置70b−i(ただし、i=0,1,2,…,N−1)のそれぞれは、記憶部4が並列に或いは時分割なメモリ領域として機能し、制御部5が並列に或いは時分割に動作するプロセスを実行することによって実現される。
[Second embodiment]
In the first embodiment, the individual information storage unit 42, the surrounding individual information acquisition unit 51, the stimulus value setting unit 52, the probability setting unit 53, the leader action determination unit 54, the follower action determination unit 55, and the individual information update unit 56. An example of performing processing for a plurality of individuals has been shown. Instead of these, the simulator 1b in the second embodiment has an individual information storage unit 42b-i, which performs processing for one individual, a surrounding individual information acquisition unit 51b-i, a stimulus value setting unit 52b-i, The behavior determining apparatus 70b-i including the probability setting unit 53b-i, the leader behavior determining unit 54b-i, the follower behavior determining unit 55b-i, and the individual information updating unit 56b-i is provided by the number N of individuals. However, i = 0, 1, 2, ..., N-1.
That is, in each of the action determination devices 70b-i (where i = 0, 1, 2, ..., N-1) included in the simulator 1b, the storage unit 4 functions as a memory region in parallel or in a time-division manner, It is realized by the control unit 5 executing processes that operate in parallel or in a time-division manner.

すなわち、行動決定装置70b−iのそれぞれは、所定の目的を達成することが可能な所定の空間において群集を構成する個体のひとつである自個体の行動を決定する行動決定装置であって、自個体について、少なくとも、リーダーであるかフォロワーであるかの別を表す属性値、空間における位置を含む状態値、および状態値に作用する行動パラメータを記憶する個体情報記憶部42b−iと、行動の契機となる刺激の程度を表す刺激値を設定する刺激値設定部52b−iと、属性値がフォロワーである場合に刺激値に基づく第一当選確率を設定し、属性値がリーダーである場合に所定の第二当選確率を設定する確率設定部53b−iと、第一当選確率が設定された場合に属性値を当該確率にてリーダーに変更するとともに、属性値がリーダーである場合に行動パラメータに状態値を目的の達成に近づける値を設定するリーダー行動決定部54b−iと、個体のうちの、個体の位置から所定距離以下に存在する周囲個体の行動を取得する周囲個体情報取得部51b−iと、第二当選確率が設定された場合に属性値を当該確率にてフォロワーに変更するとともに、属性値がフォロワーである場合に周囲個体の行動に類似する行動パラメータを設定するフォロワー行動決定部55b−iと、を備える。   That is, each of the behavior determination devices 70b-i is a behavior determination device that determines the behavior of its own individual, which is one of the individuals forming a crowd in a predetermined space that can achieve a predetermined purpose. An individual information storage unit 42b-i that stores at least an attribute value indicating whether a person is a leader or a follower, a state value including a position in space, and an action parameter that acts on the state value of an individual; A stimulus value setting unit 52b-i that sets a stimulus value that represents the degree of stimulus that triggers, and a first winning probability based on the stimulus value when the attribute value is a follower, and when the attribute value is a leader A probability setting unit 53b-i that sets a predetermined second winning probability, and when the first winning probability is set, the attribute value is changed to a leader with the probability and the attribute value is set to Leader action determining unit 54b-i that sets the state value to the action parameter that is close to the achievement of the purpose, and the actions of the surrounding individuals present within a predetermined distance from the position of the individual among the individuals are acquired. The surrounding individual information acquisition unit 51b-i that changes the attribute value to a follower with the probability when the second winning probability is set, and an action similar to the behavior of the surrounding individual when the attribute value is a follower And a follower action determination unit 55b-i that sets a parameter.

[第一の実施形態および第二の実施形態の変形例]
上記各実施形態においては、環境情報記憶部41が空間の二次元地図を記憶する例を示したが三次元地図としてもよい。その場合、個体情報記憶部42および42−iのそれぞれが記憶する状態値、行動パラメータも三次元の情報となる。
[Modifications of First and Second Embodiments]
In each of the above-described embodiments, an example in which the environment information storage unit 41 stores a two-dimensional space map is shown, but a three-dimensional map may be used. In that case, the state value and the behavior parameter stored in each of the individual information storage units 42 and 42-i are also three-dimensional information.

上記各実施形態およびその変形例においては、シミュレーションの条件の一部をリアルタイムの対象空間の状況に応じた値とすることができる。例えば、各個体の位置として実際の人の位置を設定したシミュレーションによって近未来の状況を予測すれば、群集の誘導を適確に行うことが可能となる。   In each of the above-described embodiments and the modifications thereof, a part of the simulation condition can be a value according to the situation of the real-time target space. For example, if the situation in the near future is predicted by a simulation in which the position of the actual person is set as the position of each individual, it becomes possible to accurately guide the crowd.

上記各実施形態およびその変形例においては、リスク値取得部50は、環境情報記憶部41からリスク値を読み出す例を示したが、別の実施形態においてリスク値取得部50は、炎センサ、煙センサなどの災害に関する実空間の物理量を計測する災害センサおよび災害センサからの信号をプログラムに従って処理する制御部5の機能によって構成されてもよい。この場合、リスク値取得部50は、災害の発生有無や災害の程度を表す信号を所定規則に従ってリスク値に定量化する。   Although the risk value acquisition unit 50 reads the risk value from the environment information storage unit 41 in each of the above-described embodiments and its modifications, in another embodiment, the risk value acquisition unit 50 includes a flame sensor and smoke. It may be configured by a function of the disaster sensor that measures a physical quantity of a real space related to a disaster such as a sensor and a function of the control unit 5 that processes signals from the disaster sensor according to a program. In this case, the risk value acquisition unit 50 quantifies a signal indicating the presence or absence of a disaster and the degree of the disaster into a risk value according to a predetermined rule.

上記各実施形態およびその変形例においては、個体情報更新部56および56b−iのそれぞれが個体の大きさを考慮せず重なりを排除せずに個体の位置を更新する例を示したが、これらの物理的な制約を考慮して個体の位置を更新してもよい。その場合、例えば、個体情報更新部56および56b−iのそれぞれが、リーダー行動決定部54および54b−iのそれぞれやフォロワー行動決定部55および55b−iのそれぞれが決定した移動量を、仮想空間内で個体同士が重ならない位置への移動量に調整して更新を行う。または、例えば、個体情報更新部56および56b−iのそれぞれが、リーダー行動決定部54および54b−iのそれぞれやフォロワー行動決定部55および55b−iのそれぞれが決定した選択エリアに個体を近づける移動量であって、仮想空間内で個体同士が重ならない位置への移動量を算出して更新を行う。   In each of the above-described embodiments and its modified examples, the individual information updating units 56 and 56b-i each update the position of the individual without considering the size of the individual and eliminating the overlap. The position of the individual may be updated in consideration of the physical constraint of. In that case, for example, the individual information update units 56 and 56b-i respectively set the movement amounts determined by the leader action determination units 54 and 54b-i and the follower action determination units 55 and 55b-i, respectively, in the virtual space. Adjust the amount of movement to a position where individuals do not overlap each other and update. Alternatively, for example, the individual information updating units 56 and 56b-i move the individuals closer to the selection areas determined by the leader behavior determination units 54 and 54b-i and the follower behavior determination units 55 and 55b-i, respectively. The amount of movement, which is the amount of movement to a position where the individuals do not overlap in the virtual space, is calculated and updated.

[第三の実施形態]
第三の実施形態に係る自律走行ロボット8は、本発明の行動決定装置の一例である行動決定装置70cを備え、群集を構成するひとつの個体を模擬する。
[Third embodiment]
The autonomous mobile robot 8 according to the third embodiment includes an action determination device 70c that is an example of the action determination device of the present invention, and simulates one individual forming a crowd.

自律走行ロボット8は、第一の実施形態の操作入力部2、ファイル入出力部3、制御部5、表示部6と同様の操作入力部2c、ファイル入出力部3c、制御部5c、表示部6cを備え、さらに、炎センサや煙センサなどの災害センサ、カメラ等の周囲個体センサ、実時刻を計時する計時部、および、モータと車輪と測位手段と障害物センサ等からなる移動制御部を備える。災害センサ、周囲個体センサ、計時部および移動制御部のそれぞれは制御部5cに接続される。操作入力部2cおよび表示部6cは着脱可能であることが望ましい。   The autonomous mobile robot 8 has an operation input unit 2c, a file input / output unit 3, a control unit 5, and an operation input unit 2c similar to the display unit 6 of the first embodiment, a file input / output unit 3c, a control unit 5c, and a display unit. 6c, a disaster sensor such as a flame sensor or a smoke sensor, a surrounding individual sensor such as a camera, a timekeeping unit that measures real time, and a movement control unit including a motor, wheels, positioning means, obstacle sensors, and the like. Prepare Each of the disaster sensor, the surrounding individual sensor, the clock unit, and the movement control unit is connected to the control unit 5c. It is desirable that the operation input unit 2c and the display unit 6c be removable.

自律走行ロボット8は、第一の実施形態の条件設定部20、反復条件記憶部40、環境情報記憶部41、個体情報記憶部42、リスク値取得部50、周囲個体情報取得部51、刺激値設定部52、確率設定部53、リーダー行動決定部54、フォロワー行動決定部55、個体情報更新部56、予測結果出力部57のそれぞれに対応して、それぞれがひとつの個体についての処理を行う条件設定部20c、反復条件記憶部40c、環境情報記憶部41c、個体情報記憶部42c、リスク値取得部50c、周囲個体情報取得部51c、刺激値設定部52c、確率設定部53c、リーダー行動決定部54c、フォロワー行動決定部55c、個体情報更新部56c、予測結果出力部57cを備える。   The autonomous mobile robot 8 includes the condition setting unit 20, the repetition condition storage unit 40, the environment information storage unit 41, the individual information storage unit 42, the risk value acquisition unit 50, the surrounding individual information acquisition unit 51, and the stimulation value of the first embodiment. Conditions for performing processing for one individual corresponding to each of the setting unit 52, the probability setting unit 53, the leader action determining unit 54, the follower action determining unit 55, the individual information updating unit 56, and the prediction result output unit 57. Setting unit 20c, repetition condition storage unit 40c, environment information storage unit 41c, individual information storage unit 42c, risk value acquisition unit 50c, surrounding individual information acquisition unit 51c, stimulus value setting unit 52c, probability setting unit 53c, leader action determination unit. 54c, a follower action determination unit 55c, an individual information update unit 56c, and a prediction result output unit 57c.

ただし、リスク値取得部50cは災害センサが出力する信号を所定規則に従って定量化することでリスク値を取得する。
また、周囲個体情報取得部51cは周囲個体センサが出力する画像を解析して自律走行ロボット8の周囲に存在する自律走行ロボット8と同型のロボットおよび人を周囲個体として検出し、検出した周囲個体の数および行動を認識することで周囲個体の数および行動を取得する。
また、第一の実施形態における仮想時刻に代えて実時刻が用いられ、刺激値設定部52cは、計時部が出力する実時刻を参照してシミュレーションの時刻を制御する。試行回数は操作入力部2cによる利用者からの指示ごとに進め、刺激値設定部52cは操作入力部2cからの指示の信号を参照して試行回数を制御する。
また、個体情報更新部56cは、行動パラメータのうちの移動量が示す方向に当該移動量が示す距離を上限としてモータを回転させ、モータと接続された車輪を駆動して自律走行ロボット8を移動させる。また、個体情報更新部56cは、自律走行ロボット8の周囲の障害物を検出する障害物センサからの信号を解析して障害物までの距離と方向を検出し、障害物と自律走行ロボット8との距離が所定距離未満とならないようモータの回転を抑制する。また、個体情報更新部56cは、ビーコンシステムやGPSシステムとの通信を行う通信インターフェースを含む測位手段が出力する信号を解析して自律走行ロボット8の位置を検出し、検出した位置で状態値を更新する。
However, the risk value acquisition unit 50c acquires the risk value by quantifying the signal output by the disaster sensor according to a predetermined rule.
In addition, the surrounding individual information acquisition unit 51c analyzes the image output by the surrounding individual sensor, detects a robot and a person of the same type as the autonomous traveling robot 8 existing around the autonomous traveling robot 8 as surrounding individuals, and detects the detected surrounding individuals. The number and behavior of surrounding individuals are acquired by recognizing the number and behavior of.
Further, the real time is used instead of the virtual time in the first embodiment, and the stimulus value setting unit 52c controls the time of the simulation with reference to the real time output by the time counting unit. The number of trials is advanced for each instruction from the user through the operation input unit 2c, and the stimulation value setting unit 52c refers to the instruction signal from the operation input unit 2c to control the number of trials.
In addition, the individual information updating unit 56c rotates the motor in the direction indicated by the movement amount of the action parameter up to the distance indicated by the movement amount, drives the wheels connected to the motor, and moves the autonomous mobile robot 8. Let In addition, the individual information updating unit 56c analyzes a signal from an obstacle sensor that detects an obstacle around the autonomous mobile robot 8 to detect a distance and a direction to the obstacle, and detects the obstacle and the autonomous mobile robot 8. The rotation of the motor is suppressed so that the distance is not less than the predetermined distance. Further, the individual information updating unit 56c analyzes the signal output by the positioning means including the communication interface for communicating with the beacon system and the GPS system, detects the position of the autonomous mobile robot 8, and obtains the state value at the detected position. Update.

これらのうちの個体情報記憶部42c、周囲個体情報取得部51c、刺激値設定部52c、確率設定部53c、リーダー行動決定部54c、フォロワー行動決定部55c、個体情報更新部56cが、行動決定装置70cに含まれる。   Of these, the individual information storage unit 42c, the surrounding individual information acquisition unit 51c, the stimulus value setting unit 52c, the probability setting unit 53c, the leader action determination unit 54c, the follower action determination unit 55c, and the individual information update unit 56c are the action determination devices. Included in 70c.

すなわち、行動決定装置70cは、所定の目的を達成することが可能な所定の空間において群集を構成する個体のひとつである自個体の行動を決定する行動決定装置であって、自個体について、少なくとも、リーダーであるかフォロワーであるかの別を表す属性値、空間における位置を含む状態値、および状態値に作用する行動パラメータを記憶する個体情報記憶部と42c、行動の契機となる刺激の程度を表す刺激値を設定する刺激値設定部52cと、属性値がフォロワーである場合に刺激値に基づく第一当選確率を設定し、属性値がリーダーである場合に所定の第二当選確率を設定する確率設定部53cと、第一当選確率が設定された場合に属性値を当該確率にてリーダーに変更するとともに、属性値がリーダーである場合に行動パラメータに状態値を目的の達成に近づける値を設定するリーダー行動決定部54cと、個体のうちの、自個体の位置から所定距離以下に存在する周囲個体の行動を取得する周囲個体情報取得部51cと、第二当選確率が設定された場合に属性値を当該確率にてフォロワーに変更するとともに、属性値がフォロワーである場合に周囲個体の行動に類似する行動パラメータを設定するフォロワー行動決定部55cと、を備える。   That is, the behavior determining device 70c is a behavior determining device that determines the behavior of the individual, which is one of the individuals forming a crowd in a predetermined space that can achieve a predetermined purpose, and at least for the individual. , An individual information storage unit and 42c that stores an attribute value that indicates whether it is a leader or a follower, a state value that includes a position in space, and an action parameter that acts on the state value, and a degree of stimulation that triggers an action And a stimulus value setting unit 52c that sets a stimulus value that indicates the first winning probability based on the stimulus value when the attribute value is a follower, and a predetermined second winning probability when the attribute value is a leader And a probability setting unit 53c that changes the attribute value to the leader with the probability when the first winning probability is set, and the action parameter when the attribute value is the leader. A leader action determination unit 54c that sets a state value that approximates the achievement of the purpose, and a surrounding individual information acquisition unit 51c that acquires the actions of surrounding individuals within a predetermined distance from the position of the own individual among individuals. And when the second winning probability is set, the attribute value is changed to a follower with the probability, and when the attribute value is a follower, a follower action determination unit 55c that sets an action parameter similar to the action of surrounding individuals And

[上記各実施形態に共通する変形例]
上記各実施形態およびその変形例においては、対象空間として部屋を例示したが、対象空間は、コンサートホール、駅などであってもよいし、屋内に限らず商店街、公園、街などの屋外の空間であってもよいし、イベント会場、学校などの屋内と屋外を横断した空間であってもよい。
[Modifications common to the above embodiments]
In each of the above-described embodiments and its modifications, a room is illustrated as the target space, but the target space may be a concert hall, a station, or the like, and is not limited to indoors, but is also used for outdoor shopping malls, parks, towns, and the like. It may be a space, or a space that crosses indoors and outdoors such as at an event venue or school.

上記各実施形態およびその変形例においては、事象として火災を例示したが、地震、不審者の出現などといった他の災害、イベント会場等における病人の発生、著名人の出現、群集に対する呼びかけや質問提示などといった災害以外の事象にも適用できる。   In each of the above-described embodiments and its modifications, fire was illustrated as an event, but other disasters such as an earthquake, the appearance of a suspicious person, the occurrence of a sick person at an event site, the appearance of a celebrity, a call to the crowd, and question presentation. It can also be applied to events other than disasters such as.

上記各実施形態およびその変形例においては、行動の目的として避難を例示したが、病人の発生に対する救護行動や野次馬行動、著名人の出現に対する野次馬行動、呼びかけや質問提示に対する応答など、事象に対応した目的を適宜設定できる。   In each of the above-described embodiments and its modified examples, evacuation was illustrated as the purpose of the action, but rescue actions and field horse actions for the occurrence of sick people, field horse actions for the appearance of celebrities, responses to calls and question presentations, and other events are handled. The purpose can be set appropriately.

上記各実施形態およびその変形例においては、行動の手段として移動を例示したが、地震に対する避難の手段としてのかがみ姿勢への移行(着席中の机の下へ避難)、呼びかけや質問提示に対する応答の手段としての挙手や発声など、事象と目的に応じた移動を伴わない手段を適宜設定することもできる。なお、手段の選択肢として出口への移動とかがみ姿勢への移行を設定し、いずれかをランダムに選択するようにしてもよい。
なお、上記実施形態およびその変形例においては、行動の手段を2つとしたが、1つ以上であれば2つ以外でも良い。
In each of the above-described embodiments and the modifications thereof, movement was illustrated as a means of action, but a shift to a leaning posture (evacuation under a sitting desk) as a means of evacuation against an earthquake, a response to a call or question presentation It is also possible to appropriately set means that does not involve movement according to the event and the purpose, such as raising hands and uttering as means of. It is also possible to set the movement to the exit and the transition to the bending posture as an option of the means, and to randomly select one of them.
In addition, in the said embodiment and its modification, although the means of action was two, if it is one or more, it may be other than two.

上記各実施形態およびその変形例においては、人の群集を例示したが、魚、鳥、蟻などの他の社会性生物の群集にも適用できる。なお、個体が人以外である場合は、対象空間や事象を個体の種類に応じて適宜設定することができる。   In each of the above-described embodiments and its modifications, a crowd of people is illustrated, but the invention can be applied to a crowd of other social organisms such as fish, birds, and ants. In addition, when the individual is other than a person, the target space and the event can be appropriately set according to the type of the individual.

以上で説明した、シミュレーター1、シミュレーター1bおよびシミュレーター1bに含まれる行動決定装置70b−i、自律移動ロボット8および自律移動ロボット8に含まれる行動決定装置70cによれば、同一の設定を行ってもリーダーとフォロワーが確率的に変更され、同一の設定を行っても異なる予測結果が生成できる。そのため、これらのそれぞれによって群集におけるパニック行動等の特定行動を未知の条件下において予測でき、それぞれによって得られる予測結果を用いれば群集において特定行動が生じた条件の究明を容易化できる。
According to the simulator 1, the simulator 1b and the action determination device 70b-i included in the simulator 1b, the autonomous mobile robot 8 and the action determination device 70c included in the autonomous mobile robot 8 described above, even if the same setting is performed. The leader and follower are changed stochastically, and different prediction results can be generated even if the same settings are made. Therefore, each of these can predict a specific behavior such as panic behavior in a crowd under unknown conditions, and by using the prediction results obtained by each, it is possible to easily find out the condition in which the specific behavior occurs in the crowd.

1・・・シミュレーター
2・・・操作入力部
20・・・条件設定部
3・・・ファイル入出力部
4・・・記憶部
40・・・反復条件記憶部
41・・・環境情報記憶部
42・・・個体情報記憶部
5・・・制御部
50・・・リスク値取得部
51・・・周囲個体情報取得部
52・・・刺激値設定部
53・・・確率設定部
54・・・リーダー行動決定部
55・・・フォロワー行動決定部
56・・・個体情報更新部
57・・・予測結果出力部
6・・・表示部
1 ... Simulator 2 ... Operation input unit 20 ... Condition setting unit 3 ... File input / output unit 4 ... Storage unit 40 ... Repetition condition storage unit 41 ... Environmental information storage unit 42 ... Individual information storage unit 5 ... Control unit 50 ... Risk value acquisition unit 51 ... Surrounding individual information acquisition unit 52 ... Stimulation value setting unit 53 ... Probability setting unit 54 ... Reader Action determination unit 55 ... Follower action determination unit 56 ... Individual information update unit 57 ... Prediction result output unit 6 ... Display unit

Claims (7)

所定の目的を達成することが可能な所定の空間における群集の行動を予測するシミュレーターであって、
前記群集を構成する複数の個体のそれぞれについて、少なくとも、リーダーかフォロワーかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶する個体情報記憶部と、
前記行動の契機となる刺激の程度を表す刺激値を順次設定する刺激値設定部と、
前記刺激値が設定されるたびに、前記個体のうちの、前記属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである個体に所定の第二当選確率を設定する確率設定部と、
前記第一当選確率が設定された個体の前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである個体の前記行動パラメータに当該個体の前記状態値を前記目的の達成に近づける値を設定するリーダー行動決定部と、
前記個体ごとに当該個体からの前記位置が所定距離以内である周囲個体を抽出する周囲個体情報取得部と、
前記第二当選確率が設定された個体の前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである個体の前記行動パラメータに当該個体の前記周囲個体の前記行動パラメータに類似した値を設定するフォロワー行動決定部と、
前記各個体の前記状態値を当該個体の前記行動パラメータにて更新する個体情報更新部と、
を備えたことを特徴とするシミュレーター。
A simulator for predicting the behavior of a crowd in a predetermined space capable of achieving a predetermined purpose,
An individual information storage unit that stores at least an attribute value indicating whether a leader or a follower, a state value including a position in the space, and a behavior parameter that acts on the state value, for each of the plurality of individuals forming the crowd. When,
A stimulus value setting unit that sequentially sets stimulus values that represent the degree of stimulus that triggers the action;
Each time the stimulus value is set, a first winning probability based on the stimulus value is set for the individual whose attribute value is a follower among the individuals, and the individual whose attribute value is the leader has a predetermined probability. A probability setting unit that sets the winning probability,
The attribute value of the individual for which the first winning probability is set is changed to a leader with the probability, and the state value of the individual is set to the action parameter of the individual whose attribute value is the leader to achieve the purpose. A leader action decision unit that sets a value to approach,
A surrounding individual information acquisition unit that extracts, for each individual, a surrounding individual whose position from the individual is within a predetermined distance,
The attribute value of the individual for which the second winning probability is set is changed to a follower with the probability, and the behavior parameter of the individual whose attribute value is a follower is similar to the behavior parameter of the surrounding individuals of the individual. A follower action determiner that sets the value
An individual information updating unit for updating the state value of each individual with the action parameter of the individual,
A simulator characterized by having.
前記個体情報記憶部は、さらに、前記個体それぞれの反応閾値を記憶し、
前記確率設定部は、前記個体ごとに前記刺激値が高いほど高く且つ前記反応閾値が低いほど高い前記第一当選確率を設定する、
請求項1に記載のシミュレーター。
The individual information storage unit further stores a reaction threshold value of each individual,
The probability setting unit sets the first winning probability higher for each individual as the stimulus value is higher and as the reaction threshold is lower.
The simulator according to claim 1.
前記刺激値設定部は、前記個体ごとに前記刺激値を設定する、請求項1または2に記載のシミュレーター。   The simulator according to claim 1, wherein the stimulus value setting unit sets the stimulus value for each individual. 前記空間に生じるリスクの大きさを表すリスク値を順次取得するリスク値取得部、をさらに備え、
前記個体情報記憶部は、前記個体のそれぞれが認知する前記リスクの大きさを表す認知閾値をさらに記憶し、
前記刺激値設定部は、前記個体ごとに設定した前記刺激値を前記個体情報記憶部に記憶させ、前記個体ごとに前記リスク値と当該個体の前記認知閾値との差が大きな個体ほど前記個体情報記憶部に記憶させた値から大きく増加させて前記刺激値を設定する、
請求項3に記載のシミュレーター。
Further comprising a risk value acquisition unit that sequentially acquires a risk value representing the magnitude of the risk occurring in the space,
The individual information storage unit further stores a cognitive threshold representing the magnitude of the risk recognized by each of the individual,
The stimulus value setting unit stores the stimulus value set for each individual in the individual information storage unit, and the individual information has a larger difference between the risk value and the cognitive threshold of the individual for each individual. The stimulus value is set by greatly increasing it from the value stored in the storage unit,
The simulator according to claim 3.
前記刺激値設定部は、前記個体ごとに設定した前記刺激値を前記個体情報記憶部に記憶させ、前記周囲個体情報取得部が抽出した前記周囲個体の数が多い個体ほど前記個体情報記憶部に記憶させた値から大きく増加させて前記刺激値を設定する、請求項3または4に記載のシミュレーター。   The stimulus value setting unit stores the stimulus value set for each individual in the individual information storage unit, and the larger the number of the surrounding individuals extracted by the surrounding individual information acquisition unit, the more the individual information storage unit. The simulator according to claim 3, wherein the stimulus value is set by greatly increasing the stored value. 所定の目的を達成することが可能な所定の空間における群集の行動を予測するシミュレーション方法であって、
コンピュータに、
前記群集を構成する複数の個体のそれぞれについて、少なくとも、リーダーかフォロワーかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶させ、
前記行動の契機となる刺激の程度を表す刺激値を順次設定する処理と、
前記刺激値が設定されるたびに、前記個体のうちの、前記属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである個体に所定の第二当選確率を設定する処理と、
前記第一当選確率が設定された個体の前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである個体の前記行動パラメータに当該個体の前記状態値を前記目的の達成に近づける値を設定する処理と、
前記個体ごとに当該個体からの前記位置が所定距離以内である周囲個体を抽出する処理と、
前記第二当選確率が設定された個体の前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである個体の前記行動パラメータに当該個体の前記周囲個体の前記行動パラメータに類似した値を設定するフォロワー行動決定部と、
前記各個体の前記状態値を当該個体の前記行動パラメータにて更新する個体情報更新部と、
を実行させることを特徴とするシミュレーション方法。
A simulation method for predicting the behavior of a crowd in a predetermined space capable of achieving a predetermined purpose, comprising:
On the computer,
For each of the plurality of individuals that make up the crowd, store at least an attribute value indicating whether it is a leader or a follower, a state value including a position in the space, and a behavior parameter that acts on the state value,
A process of sequentially setting a stimulus value indicating the degree of stimulus that triggers the action,
Each time the stimulus value is set, a first winning probability based on the stimulus value is set for the individual whose attribute value is a follower among the individuals, and the individual whose attribute value is the leader has a predetermined probability. The process of setting the second winning probability,
The attribute value of the individual for which the first winning probability is set is changed to a leader with the probability, and the state value of the individual is set to the action parameter of the individual whose attribute value is the leader to achieve the purpose. The process of setting the value to approach,
A process of extracting surrounding individuals whose position from the individual is within a predetermined distance for each individual;
The attribute value of the individual for which the second winning probability is set is changed to a follower with the probability, and the behavior parameter of the individual whose attribute value is a follower is similar to the behavior parameter of the surrounding individuals of the individual. A follower action determiner that sets the value
An individual information updating unit for updating the state value of each individual with the action parameter of the individual,
A simulation method characterized by causing to execute.
所定の目的を達成することが可能な所定の空間において群集を構成する個体のひとつである自個体の行動を決定する行動決定装置であって、
前記自個体について、少なくとも、リーダーであるかフォロワーであるかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶する個体情報記憶部と、
前記行動の契機となる刺激の程度を表す刺激値を設定する刺激値設定部と、
前記属性値がフォロワーである場合に前記刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである場合に所定の第二当選確率を設定する確率設定部と、
前記第一当選確率が設定された場合に前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである場合に前記行動パラメータに前記状態値を前記目的の達成に近づける値を設定するリーダー行動決定部と、
前記個体のうちの、前記自個体の前記位置から所定距離以下に存在する周囲個体の行動を取得する周囲個体情報取得部と、
前記第二当選確率が設定された場合に前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである場合に前記周囲個体の行動に類似する前記行動パラメータを設定するフォロワー行動決定部と、
を備えたことを特徴とする行動決定装置。
A behavior determination device for determining the behavior of one's own individual, which is one of the individuals constituting a crowd in a predetermined space capable of achieving a predetermined purpose,
For the own individual, at least an attribute value indicating whether it is a leader or a follower, a state value including a position in the space, and an individual information storage unit that stores an action parameter that acts on the state value,
A stimulus value setting unit that sets a stimulus value indicating the degree of stimulus that triggers the action;
A probability setting unit that sets a first winning probability based on the stimulus value when the attribute value is a follower, and sets a predetermined second winning probability when the attribute value is a leader,
When the first winning probability is set, the attribute value is changed to a leader with the probability, and when the attribute value is a leader, the action parameter is set to a value that brings the state value close to the achievement of the purpose. A leader action decision section to set,
Among the individuals, a surrounding individual information acquisition unit that acquires the behavior of surrounding individuals existing at a predetermined distance or less from the position of the own individual,
When the second winning probability is set, the attribute value is changed to a follower with the probability, and when the attribute value is a follower, a follower action that sets the action parameter similar to the action of the surrounding individual is set. The decision section,
An action determination device comprising:
JP2018070447A 2018-03-31 2018-03-31 Simulator, simulation method and action determination device Active JP6679645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018070447A JP6679645B2 (en) 2018-03-31 2018-03-31 Simulator, simulation method and action determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018070447A JP6679645B2 (en) 2018-03-31 2018-03-31 Simulator, simulation method and action determination device

Publications (2)

Publication Number Publication Date
JP2019185074A JP2019185074A (en) 2019-10-24
JP6679645B2 true JP6679645B2 (en) 2020-04-15

Family

ID=68341147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018070447A Active JP6679645B2 (en) 2018-03-31 2018-03-31 Simulator, simulation method and action determination device

Country Status (1)

Country Link
JP (1) JP6679645B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7441080B2 (en) 2020-03-05 2024-02-29 セコム株式会社 Simulator, simulation method and simulation program
CN111639809B (en) * 2020-05-29 2023-07-07 华中科技大学 Multi-agent evacuation simulation method and system based on leaders and panic emotion

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346071A (en) * 2002-05-29 2003-12-05 Advanced Telecommunication Research Institute International Apparatus, method and program for simulating behavior, and recording medium recording the program
JP3911511B2 (en) * 2004-12-21 2007-05-09 株式会社光栄 Character group movement control program, storage medium, and game device
US20090306946A1 (en) * 2008-04-08 2009-12-10 Norman I Badler Methods and systems for simulation and representation of agents in a high-density autonomous crowd

Also Published As

Publication number Publication date
JP2019185074A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
Lovreglio et al. Prototyping virtual reality serious games for building earthquake preparedness: The Auckland City Hospital case study
KR102034947B1 (en) Method and terminal for fixing the target in the game scene
CN110794968B (en) Emergency drilling interaction system and method based on scene construction
JP2022502112A (en) Scheduling methods, devices, devices and computer programs for virtual objects in a virtual environment
JP6679645B2 (en) Simulator, simulation method and action determination device
KR20140092526A (en) System and Method for Disaster Evacuation providing Evacuation Simulation
Jacobsen et al. Active personalized construction safety training using run-time data collection in physical and virtual reality work environments
US11417106B1 (en) Crowd evacuation system based on real time perception, simulation, and warning
US20170124430A1 (en) Apparatus, method and program for classifying crowd
CN108376198B (en) Crowd simulation method and system based on virtual reality
CN111881625A (en) Crowd evacuation simulation method and system based on deep reinforcement learning
CN113643170A (en) Big data driven public place crowd gathering evacuation method and device
CN112673410B (en) Earthquake vulnerability analysis system and method for user living space
Siddiqui et al. Employing pedestrian observations in engineering analysis
JP7060460B2 (en) Simulator, simulation method and simulation program
JP6679644B2 (en) Simulator, simulation method and action determination device
JP7074580B2 (en) Simulator, simulation method and simulation program
JPH10307864A (en) Group escape action prediction method
JP5418938B2 (en) Group behavior estimation apparatus and service providing system
EP4012663A1 (en) Image processing device, image processing method, and program
Nafea Simulation of crowd management using deep learning algorithm
JP7492840B2 (en) Simulator, simulation method, and simulation program
CN112138394B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
JP2010136113A (en) Device, method and program for adjusting imaging parameter, and recording medium
JP2021140490A (en) Simulator, simulation method, and simulation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200318

R150 Certificate of patent or registration of utility model

Ref document number: 6679645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250