JP6679645B2 - Simulator, simulation method and action determination device - Google Patents
Simulator, simulation method and action determination device Download PDFInfo
- Publication number
- JP6679645B2 JP6679645B2 JP2018070447A JP2018070447A JP6679645B2 JP 6679645 B2 JP6679645 B2 JP 6679645B2 JP 2018070447 A JP2018070447 A JP 2018070447A JP 2018070447 A JP2018070447 A JP 2018070447A JP 6679645 B2 JP6679645 B2 JP 6679645B2
- Authority
- JP
- Japan
- Prior art keywords
- individual
- value
- unit
- stimulus
- follower
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 title claims description 126
- 238000000034 method Methods 0.000 title claims description 34
- 238000004088 simulation Methods 0.000 title claims description 30
- 230000008569 process Effects 0.000 claims description 26
- 230000001149 cognitive effect Effects 0.000 claims description 21
- 238000013459 approach Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 5
- 230000006399 behavior Effects 0.000 description 78
- 230000000638 stimulation Effects 0.000 description 39
- 238000012545 processing Methods 0.000 description 28
- 230000006870 function Effects 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000011835 investigation Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 241000271566 Aves Species 0.000 description 1
- 241000257303 Hymenoptera Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、群集の行動を予測するシミュレーター、シミュレーション方法および群集を構成する個体のひとつである自個体の行動を決定する行動決定装置に関する。 The present invention relates to a simulator that predicts a behavior of a crowd, a simulation method, and a behavior determination device that determines the behavior of an individual person who is one of the individuals that make up the crowd.
災害時に群衆を適切に避難誘導し、または円滑に避難可能な空間設計をするために、パニック行動等が生じるメカニズムを究明する必要がある。そのために、群衆の行動をシミュレートするシミュレーターを用いる方法がある。
災害時の群衆に生じるパニック行動のように、群衆が非合理的な行動を採ることの説明のひとつとして、認知バイアスによる同調行動が挙げられ、リーダー・フォロワー問題としてアプローチするなどの研究が行なわれてきた。リーダー・フォロワー問題としてのアプローチは、自ら行動を決定するリーダーと自身の行動を他者の行動によって決定するフォロワーとからなる群衆において、個体同士が影響し合った結果、群衆として非合理的な行動を採るというモデル化に基づくアプローチである。
In order to properly guide the evacuation of the crowd in the event of a disaster or to design a space where evacuation can be performed smoothly, it is necessary to investigate the mechanism that causes panic behavior. Therefore, there is a method of using a simulator that simulates the behavior of a crowd.
One of the explanations of the irrational behavior of the crowd, such as the panic behavior of the crowd at the time of a disaster, is entrainment behavior by cognitive bias, and studies such as approaching it as a leader-follower problem have been conducted. It was The approach as a leader-follower problem is that, in a crowd consisting of a leader who decides his own behavior and a follower who decides his own behavior by the behavior of another person, as a result of the influence of individuals, irrational behavior as a crowd This is a modeling-based approach of taking.
例えば、特許文献1に記載のシミュレーション装置においては、複数の対象物の関係をハイパーグラフで表し、そのハイパーグラフを用いて複数の対象物の行動をシミュレートすることにより、リーダーが特定の追従者を必ず連れて行く関係や追従者が必ず特定のリーダーに付いて行く関係等を表現していた。
For example, in the simulation device described in
しかしながら、従来技術においては、群衆におけるパニック行動等の特定行動をシミュレートするにはそのための条件を恣意的に設定する必要があるため、未知の条件下において特定行動をシミュレートすることは困難であり、さらには特定行動が生じた条件を究明することが困難であった。 However, in the conventional technique, it is difficult to simulate a specific behavior under unknown conditions because it is necessary to arbitrarily set conditions for simulating a specific behavior such as panic behavior in a crowd. However, it was difficult to determine the conditions under which the specific behavior occurred.
例えば、特許文献1に記載のシミュレーション装置においては、ハイパーグラフはシミュレーションの都度生成可能であるもののシミュレーションの間は、ハイパーグラフで表した関係が維持される。
そのため、例えば、2つの出口の一方に避難者が集中するパニック行動をシミュレートするには、群衆中の大多数の個体が極めて少数のリーダーのフォロワーになるようなハイパーグラフを生成しておくなど、パニック行動を生じさせるための恣意的な設定をしなければならないと考えられる。
For example, in the simulation device described in
So, for example, in order to simulate panic behavior in which evacuees concentrate on one of the two exits, create a hypergraph in which the majority of individuals in the crowd are followers of a very small number of leaders. , It is considered necessary to make arbitrary settings to induce panic behavior.
本発明は、上記問題を鑑みてなされたものであり、群集におけるパニック行動等の特定行動を未知の条件下においてシミュレートでき、群集において特定行動が生じた条件の究明を容易化できるシミュレーター、シミュレーション方法および行動決定装置を提供することを目的とする。
なお、本明細書において「群衆」は人の集まりを表すものとし、「群集」は人を含む社会性生物の集まりを表すものとする。
The present invention has been made in view of the above problems, a simulator capable of simulating a specific behavior such as panic behavior in a crowd under unknown conditions, and a simulator capable of facilitating the investigation of the condition in which the specific behavior occurs in the crowd. It is an object to provide a method and a behavior determining device.
In this specification, "crowd" means a group of people, and "crowd" means a group of social organisms including a person.
かかる目的を達成するために本発明は、所定の目的を達成することが可能な所定の空間における群集の行動を予測するシミュレーターであって、前記群集を構成する複数の個体のそれぞれについて、少なくとも、リーダーかフォロワーかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶する個体情報記憶部と、前記行動の契機となる刺激の程度を表す刺激値を順次設定する刺激値設定部と、前記刺激値が設定されるたびに、前記個体のうちの、前記属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである個体に所定の第二当選確率を設定する確率設定部と、前記第一当選確率が設定された個体の前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである個体の前記行動パラメータに当該個体の前記状態値を前記目的の達成に近づける値を設定するリーダー行動決定部と、前記個体ごとに当該個体からの前記位置が所定距離以内である周囲個体を抽出する周囲個体情報取得部と、前記第二当選確率が設定された個体の前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである個体の前記行動パラメータに当該個体の前記周囲個体の前記行動パラメータに類似した値を設定するフォロワー行動決定部と、前記各個体の前記状態値を当該個体の前記行動パラメータにて更新する個体情報更新部と、を備えたシミュレーターを提供する。 In order to achieve such an object, the present invention is a simulator for predicting the behavior of a crowd in a predetermined space capable of achieving a predetermined goal, and at least for each of a plurality of individuals constituting the crowd, An attribute value indicating whether it is a leader or a follower, a state value including a position in the space, and an individual information storage unit that stores an action parameter that acts on the state value, and a stimulus that indicates a degree of a stimulus that triggers the action. A stimulus value setting unit that sequentially sets a value, and each time the stimulus value is set, a first winning probability based on the stimulus value is set to an individual whose attribute value is a follower among the individuals, A probability setting unit that sets a predetermined second winning probability for an individual whose attribute value is a leader, and the attribute value of the individual for which the first winning probability is set is the leader at that probability. A leader action determination unit that sets a value that brings the state value of the individual closer to the achievement of the purpose in the action parameter of the individual whose attribute value is a leader, and the position from the individual for each individual. A surrounding individual information acquisition unit that extracts surrounding individuals within a predetermined distance, and the attribute value of the individual for which the second winning probability is set is changed to a follower with the probability, and the attribute value is a follower. A follower action determination unit that sets a value similar to the action parameter of the individual surrounding the individual in the action parameter of the individual, and individual information update that updates the state value of each individual with the action parameter of the individual And a simulator provided with the section.
また、前記個体情報記憶部は、さらに、前記個体それぞれの反応閾値を記憶し、前記確率設定部は、前記個体ごとに前記刺激値が高いほど高く且つ前記反応閾値が低いほど高い前記第一当選確率を設定することが好適である。 Further, the individual information storage unit further stores a reaction threshold value of each individual, and the probability setting unit, the higher the stimulus value is higher for each individual, the higher the lower the reaction threshold, the higher the first winning. It is preferable to set the probability.
また、前記刺激値設定部は、前記個体ごとに前記刺激値を設定することが好適である。 Further, it is preferable that the stimulus value setting unit sets the stimulus value for each individual.
また、前記空間に生じるリスクの大きさを表すリスク値を順次取得するリスク値取得部、をさらに備え、前記個体情報記憶部は、前記個体のそれぞれが認知する前記リスクの大きさを表す認知閾値をさらに記憶し、前記刺激値設定部は、前記個体ごとに設定した前記刺激値を前記個体情報記憶部に記憶させ、前記個体ごとに前記リスク値と当該個体の前記認知閾値との差が大きな個体ほど前記個体情報記憶部に記憶させた値から大きく増加させて前記刺激値を設定することが好適である。 Further, further comprising a risk value acquisition unit that sequentially acquires a risk value representing the magnitude of the risk occurring in the space, the individual information storage unit, a cognitive threshold value representing the magnitude of the risk recognized by each of the individuals Further, the stimulation value setting unit stores the stimulation value set for each individual in the individual information storage unit, and a large difference between the risk value for each individual and the cognitive threshold of the individual is large. It is preferable to set the stimulus value by increasing the value stored in the individual information storage unit more for an individual.
また、前記刺激値設定部は、前記個体ごとに設定した前記刺激値を前記個体情報記憶部に記憶させ、前記周囲個体情報取得部が抽出した前記周囲個体の数が多い個体ほど前記個体情報記憶部に記憶させた値から大きく増加させて前記刺激値を設定することが好適である。 Further, the stimulation value setting unit stores the stimulation value set for each individual in the individual information storage unit, and the individual information storage unit stores the individual information as the number of the surrounding individuals extracted by the surrounding individual information acquisition unit increases. It is preferable to set the stimulus value by greatly increasing the value stored in the unit.
また、かかる目的を達成するために本発明は、所定の目的を達成することが可能な所定の空間における群集の行動を予測するシミュレーション方法であって、コンピュータに、前記群集を構成する複数の個体のそれぞれについて、少なくとも、リーダーかフォロワーかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶させ、前記行動の契機となる刺激の程度を表す刺激値を順次設定する処理と、前記刺激値が設定されるたびに、前記個体のうちの、前記属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである個体に所定の第二当選確率を設定する処理と、前記第一当選確率が設定された個体の前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである個体の前記行動パラメータに当該個体の前記状態値を前記目的の達成に近づける値を設定する処理と、前記個体ごとに当該個体からの前記位置が所定距離以内である周囲個体を抽出する処理と、前記第二当選確率が設定された個体の前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである個体の前記行動パラメータに当該個体の前記周囲個体の前記行動パラメータに類似した値を設定するフォロワー行動決定部と、前記各個体の前記状態値を当該個体の前記行動パラメータにて更新する個体情報更新部と、を実行させることを特徴とするシミュレーション方法を提供する。 Further, in order to achieve such an object, the present invention is a simulation method for predicting the behavior of a crowd in a predetermined space capable of achieving a predetermined purpose, the computer comprising a plurality of individuals constituting the crowd. For each of the above, at least an attribute value indicating whether it is a leader or a follower, a state value including a position in the space, and an action parameter that acts on the state value are stored, and the degree of stimulation that triggers the action is represented. A process of sequentially setting a stimulus value, and each time the stimulus value is set, a first winning probability based on the stimulus value is set to an individual whose attribute value is a follower among the individuals, and the attribute value is set. The process of setting a predetermined second winning probability to the individual whose is the leader, and the attribute value of the individual for which the first winning probability is set to the leader with the probability. In addition, a process of setting a value that brings the state value of the individual closer to the achievement of the purpose in the action parameter of the individual whose attribute value is a leader, and the position of the individual from the individual is a predetermined distance. With the process of extracting surrounding individuals that are within, and changing the attribute value of the individual for which the second winning probability is set to a follower with the probability, the attribute value is related to the action parameter of the individual who is a follower. To execute a follower action determination unit that sets a value similar to the action parameter of the surrounding individual of the individual, and an individual information update unit that updates the state value of each individual with the action parameter of the individual. There is provided a simulation method characterized by:
また、かかる目的を達成するために本発明は、所定の目的を達成することが可能な所定の空間において群集を構成する個体のひとつである自個体の行動を決定する行動決定装置であって、前記自個体について、少なくとも、リーダーであるかフォロワーであるかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶する個体情報記憶部と、前記行動の契機となる刺激の程度を表す刺激値を設定する刺激値設定部と、前記属性値がフォロワーである場合に前記刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである場合に所定の第二当選確率を設定する確率設定部と、前記第一当選確率が設定された場合に前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである場合に前記行動パラメータに前記状態値を前記目的の達成に近づける値を設定するリーダー行動決定部と、前記個体のうちの、前記自個体の前記位置から所定距離以下に存在する周囲個体の行動を取得する周囲個体情報取得部と、前記第二当選確率が設定された場合に前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである場合に前記周囲個体の行動に類似する前記行動パラメータを設定するフォロワー行動決定部と、を備えた行動決定装置を提供する。 Further, in order to achieve such an object, the present invention is a behavior determination device for determining the behavior of one's own individual, which is one of the individuals constituting a crowd in a predetermined space capable of achieving a predetermined objective, An individual information storage unit that stores at least an attribute value indicating whether the subject is a leader or a follower, a state value that includes a position in the space, and an action parameter that acts on the state value for the own individual; A stimulus value setting unit that sets a stimulus value that represents the degree of stimulus that triggers action, and sets a first winning probability based on the stimulus value when the attribute value is a follower, and the attribute value is a leader. A probability setting unit that sets a predetermined second winning probability in that case, and when the first winning probability is set, the attribute value is changed to a leader with the probability, and the attribute value is changed. In the case of a leader, a leader action determination unit that sets the action parameter to a value that brings the state value closer to the achievement of the purpose, and among the individuals, surrounding individuals that are present within a predetermined distance from the position of the own individual. When the second winning probability is set, the attribute value is changed to a follower with the probability, and when the attribute value is a follower, Provided is an action determination device including a follower action determination unit that sets the action parameter similar to the action.
本発明によれば、同一の設定を行ってもリーダーとフォロワーが確率的に変更される。これによって、群集におけるパニック行動等の特定行動を未知の条件下においてシミュレートでき、群集において特定行動が生じた条件の究明を容易化できる。 According to the present invention, the leader and the follower are stochastically changed even if the same setting is performed. This makes it possible to simulate a specific behavior such as a panic behavior in the crowd under unknown conditions, and facilitate the investigation of the condition in which the specific behavior occurs in the crowd.
[第一の実施形態]
本発明のシミュレーターに係る第一の実施形態として、2つの出口E1,E2を有する部屋Rに火災が発生し、部屋Rに滞在していた複数の人(群集)がいずれかの出口から避難する行動を予測するシミュレーター1の例を示す。
つまり、この実施形態において、シミュレーションの対象となる空間(対象空間)は部屋Rであり、群集を構成する個体は人であり、群集ないし個体の目的は火災という事象からの避難であり、対象空間は出口E1,E2があることで目的を達成することが可能となっている。
また、例示するシミュレーター1は、本発明のもうひとつである行動決定装置を含み、行動決定装置が各個体の行動を逐次確率的に決定することにより群集の行動の予測が行われる。
[First embodiment]
As a first embodiment of the simulator of the present invention, a fire broke out in a room R having two exits E 1 and E 2, and a plurality of people (crowd) staying in the room R were discharged from either exit. An example of the
That is, in this embodiment, the space to be simulated (target space) is the room R, the individuals that make up the crowd are people, and the purpose of the crowd or individuals is to evacuate from the event of fire. Has the exits E 1 and E 2 , which makes it possible to achieve the purpose.
In addition, the exemplified
<シミュレーター1の構成>
図1は、第一の実施形態に係るシミュレーター1の概略の構成を示すブロック図である。
シミュレーター1は、操作入力部2、ファイル入出力部3、記憶部4、制御部5、および表示部6からなる。これらのうちのファイル入出力部3、記憶部4および制御部5はいわゆるコンピュータで実現でき、操作入力部2および表示部6は当該コンピュータの周辺機器として実現できる。
<Structure of
FIG. 1 is a block diagram showing a schematic configuration of the
The
操作入力部2は、キーボード、マウス等のユーザーインターフェースであり、利用者に操作されてデータの入力等に用いられる。操作入力部2は、制御部5に接続され、利用者の操作を操作信号に変換して制御部5に出力する。
The
ファイル入出力部3は、DVD(Digital Versatile Disc)ドライブ、USB(Universa Serial Bus)インターフェース、ネットワークインターフェース等であり、一方が不図示の外部機器、記録メディア、ネットワーク等に接続され、他方が制御部5に接続され、データをファイルとして制御部5に入力し、およびデータをファイルとして制御部5から出力する。 The file input / output unit 3 is a DVD (Digital Versatile Disc) drive, a USB (Universa Serial Bus) interface, a network interface, etc., one of which is connected to an external device (not shown), a recording medium, a network, etc., and the other is a control unit. 5, the data is input to the control unit 5 as a file, and the data is output from the control unit 5 as a file.
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、制御部5と接続されて制御部5との間でこれらの情報を入出力する。
The
制御部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。制御部5は、記憶部4と接続され、記憶部4からプログラムを読み出して実行することにより各種処理部として動作し、各種データを記憶部4に記憶させ、読み出す。また、制御部5は、操作入力部2、ファイル入出力部3および表示部6とも接続され、利用者が操作入力部2を操作して入力されたデータを取得し、ファイル入出力部3を介して外部からファイルとしてデータを取得および出力し、所得したデータに基づいたシミュレーションを行って群集の行動を予測し、予測結果のデータをファイルとしてファイル入出力部3から出力させ、または/および予測結果のデータを画像化して表示部6に表示させる。
The control unit 5 is configured by an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and an MCU (Micro Control Unit). The control unit 5 is connected to the
表示部6は、液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、制御部5と接続され、制御部5による予測結果を表示する。利用者は表示された予測結果を視認して群集の行動に関する考察等を行う。 The display unit 6 is a display device such as a liquid crystal display or a CRT (Cathode Ray Tube) display, is connected to the control unit 5, and displays a prediction result by the control unit 5. The user visually recognizes the displayed prediction result and considers the behavior of the crowd.
<シミュレーター1の機能>
図2は、第一の実施形態に係るシミュレーター1の機能ブロック図である。
<Function of
FIG. 2 is a functional block diagram of the
操作入力部2は条件設定部20の一部等として機能する。ファイル入出力部3は条件設定部20の一部および予測結果出力部57の一部等として機能する。記憶部4は反復条件記憶部40、環境情報記憶部41および個体情報記憶部42等として機能する。制御部5は、リスク値取得部50、周囲個体情報取得部51、刺激値設定部52、確率設定部53、リーダー行動決定部54、フォロワー行動決定部55、個体情報更新部56、予測結果出力部57の一部等として機能する。
The
条件設定部20は、シミュレーションに必要な各種条件の入力を受け付け、入力された条件を記憶部4に記憶させる。条件設定部20は、例えば、操作入力部2および制御部5が協働して実現され、利用者が操作入力部2を操作して入力した値を、制御部5が記憶部4に記憶させる。条件設定部20は、条件の一部または全部が記されたファイルを入力するファイル入出力部3を含んでもよく、利用者が操作入力部2を操作して指定したファイルを制御部5がファイル入出力部3を介して取得して当該ファイルに記された値を記憶部4に記憶させる。
The
シミュレーションは仮想時刻を所定範囲内で進めながら行われる。また、同一範囲内の仮想時刻についての試行が繰り返し行われる。各試行で用いる条件は同一であるが、各試行の各仮想時刻における各個体の行動は確率的に決定されるため、試行間のシミュレーション結果が同一となることは殆ど無い。 The simulation is performed while advancing the virtual time within a predetermined range. Also, trials are repeated for virtual times within the same range. Although the conditions used in each trial are the same, the behavior of each individual at each virtual time of each trial is probabilistically determined, so that the simulation results between trials are rarely the same.
仮想時刻は、実際の時間の経過を模擬したものであるが、シミュレーターが1時刻分の演算を終えるたびに進められ、実際の時間の経過よりも高速に刻まれる。例えば、仮想時刻の1時刻を実際の1秒間に対応させ、仮想時刻を0から始まり1ずつ増加する整数で表す。 The virtual time is a simulation of the passage of the actual time, but is advanced every time the simulator finishes the calculation for one hour, and is ticked faster than the passage of the actual time. For example, one virtual time is associated with an actual one second, and the virtual time is represented by an integer starting from 0 and incrementing by 1.
本実施形態のシミュレーションにおいては、上限仮想時刻をT、試行予定回数をMとし、仮想時刻を0から(T−1)まで変化させながら仮想時刻ごとに環境および個体の情報を更新する試行がM回繰り返される。 In the simulation of this embodiment, assuming that the upper limit virtual time is T, the scheduled number of trials is M, and the virtual time is changed from 0 to (T-1), the trial of updating the environment and individual information for each virtual time is M. Repeated times.
反復条件記憶部40は、上限仮想時刻Tおよび試行予定回数Mを記憶する。これらの値は、条件設定部20を用いた利用者による入力操作により予め設定される。
The repetition
環境情報記憶部41は対象空間に由来する情報を記憶する。具体的には、環境情報記憶部41は、出口の領域を含む対象空間の地図、および対象空間に生じるリスクの大きさを表すリスク値を記憶する。リスク値は仮想時刻の関数である。これらの値は、条件設定部20を用いた利用者による入力操作により予め設定される。
The environment
図3は、環境情報記憶部41が記憶する情報を模式的に例示したものである。
FIG. 3 schematically illustrates information stored in the environment
図3(A)は、二次元のxy座標系における部屋Rの地図100を図化したものである。地図100においては、部屋Rの床面が個体の移動可能領域としてx方向に128個、y方向に40個の正方形でブロック分割され、ブロックの一部が出口E1の領域、ブロックの別の一部が出口E2の領域となっている。部屋Rの中央がxy座標系の原点であり、x方向が北であるとする。環境情報記憶部41には各ブロックの重心に割り当てられたx方向のグリッド番号、y方向のグリッド番号、および出口E1と出口E2とそれ以外とを区別する符号の組み合わせが列挙されたデータが記憶される。地図100は原理説明のための簡単な例であるが、対象空間は、複数の部屋や通路から構成される複雑な空間であってもよい。その場合の移動可能領域は、壁、什器等の領域を除いた複雑な形状となる。
FIG. 3A shows a
図3(B)は、リスク値を模式的に表したものである。環境情報記憶部41には仮想時刻0〜(T−1)までのリスク値の系列r(0),r(1),r(2),…,r(T−1)が記憶される。事象を火災とする本実施形態においてリスク値は火災の規模に応じた値であり、仮想時刻が進むほど大きな値となるように設定されている。
FIG. 3B schematically shows the risk value. The environment
個体情報記憶部42は、群集を構成する複数の個体のそれぞれについて、少なくとも、属性値、状態値、および行動パラメータを記憶する。また、個体情報記憶部42は、さらに、個体それぞれの反応閾値、個体それぞれの認知閾値、および個体それぞれに対する刺激値のうちの1以上を記憶してもよい。
The individual
属性値には、個体がリーダーかフォロワーかの別を表す識別子が設定される。リーダーとフォロワーは群集における個体の役割である。リーダーは自身の行動を自分の意思によって決定する。フォロワーは自身の行動を他の個体の行動によって決定する。
本発明において属性値は仮想時刻の経過とともに動的に変更される。ただし、各試行において属性値の初期値は共通である。すなわち、条件設定部20を用いた利用者による入力操作により属性値の初期値が設定され、試行のたびに属性値には当該初期値が設定され、属性値は後述するリーダー行動決定部54およびフォロワー行動決定部55により随時変更される。
ちなみに、本実施形態において属性値の初期値は全個体に共通してフォロワーである。
An identifier indicating whether the individual is a leader or a follower is set in the attribute value. Leaders and followers are the roles of individuals in the crowd. Leaders decide their actions based on their will. A follower decides his / her behavior according to the behavior of another individual.
In the present invention, the attribute value is dynamically changed as the virtual time passes. However, the initial value of the attribute value is common in each trial. That is, the initial value of the attribute value is set by the input operation by the user using the
Incidentally, in this embodiment, the initial value of the attribute value is a follower common to all individuals.
状態値は、各試行の各仮想時刻における各個体の状態を表す。状態値は対象空間における個体の位置であり、グリッド番号で表す。
状態値の初期値も各試行において共通であり、仮想時刻の経過とともに更新される。すなわち、条件設定部20を用いた利用者による入力操作により状態値の初期値が設定され、試行のたびに状態値には当該初期値が設定され、状態値は後述する個体情報更新部56により随時更新される。
ちなみに、本実施形態において各個体の位置の初期値は部屋Rの移動可能領域中のグリッド番号の中からランダムに設定された値である。
なお、本実施形態において状態値は位置のみの一要素であるが、別の実施形態において状態値は、位置と姿勢を表す値というように複数の要素を含んでもよい。
The state value represents the state of each individual at each virtual time of each trial. The state value is the position of the individual in the target space and is represented by a grid number.
The initial value of the state value is also common in each trial and is updated as the virtual time passes. That is, the initial value of the state value is set by the input operation by the user using the
Incidentally, in the present embodiment, the initial value of the position of each individual is a value randomly set from the grid numbers in the movable area of the room R.
In addition, in the present embodiment, the state value is one element only of the position, but in another embodiment, the state value may include a plurality of elements such as a value representing the position and the posture.
行動パラメータは、各試行の各仮想時刻における各個体の行動を表し、状態値に作用するパラメータである。行動パラメータは、基本的に、各個体の行動の目的、当該目的を達成するために当該個体が決定した行動の手段、当該個体が当該行動の手段を実行することによる1時刻当たりの状態値の変更量(状態変更量)で表すものと定義する。
例えば、目的は避難であり、目的として避難を表す識別子が記憶される。ただし、本実施形態において目的は避難の一種類であるため、目的の記憶は省略してもよい。
また、例えば、手段は出口E1への移動と出口E2への移動の2通りであり、手段として選択出口を表す符号が記憶される。すなわち、前者を選択したときは手段には符号E1、後者を選択したときは手段には符号E2が記憶される。
また、例えば、状態変更量はグリッド単位の移動量であり、状態変更量としてグリッド番号のx方向の増分値とy方向の増分値の組を記憶させる。すなわち、図3(A)の地図で表す対象空間においては、例えば、北に1グリッド移動するときは(0,−1)、北西に1グリッド移動するときは(−1,−1)、…などと記憶される。試行回数mにおける仮想時刻tの位置が(5,10)である個体の移動量が(−1,−1)であれば、当該試行回数mにおける仮想時刻(t+1)の位置は(4,9)に更新される。
ちなみに、本実施形態において各個体の選択出口の初期値は定義されず、各個体の移動量の初期値は(0,0)である。行動パラメータは後述するリーダー行動決定部54およびフォロワー行動決定部55により随時変更される。
The action parameter represents the action of each individual at each virtual time of each trial, and is a parameter that acts on the state value. The behavior parameter is basically the purpose of the behavior of each individual, the means of the behavior determined by the individual to achieve the purpose, and the state value per hour by the individual performing the means of the behavior. It is defined as the amount of change (state change amount).
For example, the purpose is evacuation, and an identifier representing evacuation is stored as the purpose. However, in the present embodiment, the purpose is one type of evacuation, and thus the storage of the purpose may be omitted.
Further, for example, there are two kinds of means, that is, the movement to the exit E 1 and the movement to the exit E 2 , and the code representing the selected exit is stored as the means. That is, when the former is selected, the code E 1 is stored in the means, and when the latter is selected, the code E 2 is stored in the means.
Further, for example, the state change amount is a movement amount in a grid unit, and a set of an increment value in the x direction and an increment value in the y direction of the grid number is stored as the state change amount. That is, in the target space represented by the map of FIG. 3 (A), for example, when moving one grid to the north (0, -1), when moving one grid to the northwest (-1, -1), ... And so on. If the movement amount of the individual whose virtual time t is (5, 10) at the number of trials m is (-1, -1), the position of virtual time (t + 1) at the number of trials m is (4, 9). ) Is updated.
Incidentally, the initial value of the selection exit of each individual is not defined in this embodiment, and the initial value of the movement amount of each individual is (0, 0). The behavior parameter is changed at any time by the leader
反応閾値および認知閾値は、個体の個性を表現するパラメータであり、条件設定部20を用いた利用者による入力操作により予め設定される。
個体ごとの反応閾値は、当該個体の刺激値に対する閾値であり、刺激値に対して自ら行動を起こす反応の生じにくさ、つまりリーダーへの変更されにくさを表す。反応閾値が高い個体ほど刺激に対して鈍感で、低い個体ほど刺激に対して敏感である。よって、反応閾値が高い個体ほどリーダーに変更されにくく、低い個体ほどリーダーに変更され易い。
また、個体ごとの認知閾値は、当該個体が認知するリスクの大きさを表す。認知閾値が高い個体ほどリスク値の上昇に応じて刺激値が上昇しにくく、低い個体ほど刺激値が上昇し易い。よって、認知閾値が高い個体ほどリーダーに変更されにくく、低い個体ほどリーダーに変更され易い。
The reaction threshold and the cognitive threshold are parameters expressing the individuality of an individual, and are preset by an input operation by the user using the
The reaction threshold for each individual is a threshold for the stimulus value of the individual, and represents the difficulty of causing a reaction that causes an action by the stimulus value, that is, the difficulty of being changed to a leader. Individuals with higher response thresholds are less sensitive to stimuli, and individuals with lower response thresholds are more sensitive to stimuli. Therefore, an individual having a higher reaction threshold is less likely to be changed to a leader, and an individual having a lower reaction threshold is more likely to be changed to a leader.
The cognitive threshold for each individual represents the magnitude of the risk recognized by the individual. The higher the cognitive threshold, the more difficult it is for the stimulus value to increase in accordance with the increase in the risk value, and the lower the cognitive threshold, the easier the stimulus value increases. Therefore, an individual with a higher cognitive threshold is less likely to be changed to a leader, and an individual with a lower cognitive threshold is more likely to be changed to a leader.
刺激値は行動の契機となる刺激の程度を表す値である。例えば、刺激値は火災の規模の拡大や避難を促す放送などに応じて時々刻々と上昇する値として設定される。個体ごとの刺激値は当該個体が各仮想時刻において受ける刺激値である。
本実施形態において刺激値は仮想時刻の経過とともに更新される。ただし、各試行において刺激値の初期値は共通である。すなわち、条件設定部20を用いた利用者による入力操作により刺激値の初期値が設定され、試行のたびに刺激値には当該初期値が設定され、刺激値は後述する刺激値設定部52により個体ごと且つ仮想時刻ごとに更新される。
ちなみに、本実施形態において刺激値の初期値s(−1)は全個体に共通して0である。
The stimulus value is a value indicating the degree of stimulus that triggers an action. For example, the stimulus value is set as a value that increases every moment in response to an increase in the scale of a fire or a broadcast that prompts evacuation. The stimulus value for each individual is the stimulus value that the individual receives at each virtual time.
In this embodiment, the stimulus value is updated as the virtual time passes. However, the initial value of the stimulation value is common in each trial. That is, the initial value of the stimulation value is set by the input operation by the user using the
By the way, in this embodiment, the initial value s (−1) of the stimulation value is 0 in common for all individuals.
図4および図5は、個体情報記憶部42が記憶する情報を模式的に例示したものである。
4 and 5 schematically illustrate information stored in the individual
N個の個体それぞれには当該個体を識別する個体IDが付与され、個体IDと当該個体に関する情報とが対応付けて記憶される。
図4の情報110は、個体IDが0,1,…,(N−1)である個体それぞれに対して記憶される反応閾値θ0,θ1,…,θN−1、および認知閾値μ0,μ1,…,μN−1を例示している。
図5は、シミュレーション終了時点の情報111を例示したものである。情報111として、1,2,…,M回目の試行それぞれにおける仮想時刻が0,1,2,…,(T−1)の各時点での個体IDが0,1,…,(N−1)である個体のそれぞれについて刺激値の履歴、属性値の履歴、状態値の履歴、行動パラメータの履歴が記憶される。例えば、情報111には、1回目の試行で個体IDが0である個体に与えられた各仮想時刻の刺激値はs1,0(0),s1,0(1),s1,0(2),…,s1,0(T−1)であり、これに対応して同試行で同個体の属性値はフォロワー,リーダー,リーダー,…,リーダーと変遷し、同試行で同個体の選択出口は未定値,E1,E1,…,E1と変遷し、同試行で同個体の移動量は(0,0),(−1,−1),(−1,−1),…,(−1,−1)と変遷し、同試行で同個体が位置するグリッドは(0,0),(−1,−1),(−2,−2),…,(−64,−20)と変遷して出口E1に到達したことなどが記憶される。
An individual ID for identifying the individual is given to each of the N individuals, and the individual ID and information about the individual are stored in association with each other.
The
FIG. 5 shows an example of the information 111 at the end of the simulation. As the information 111, the individual IDs at the
リスク値取得部50は、対象空間に生じるリスクの大きさを表すリスク値を順次取得して刺激値設定部52に出力する。具体的には、リスク値取得部50は、仮想時刻tが進むごとに刺激値設定部52から要求を受け、当該仮想時刻tのリスク値r(t)を環境情報記憶部41から読み出して刺激値設定部52に出力する。
The risk
周囲個体情報取得部51は、各個体について当該個体の位置から所定距離以下に存在する周囲個体の情報を取得し、刺激値設定部52およびフォロワー行動決定部55に出力する。
周囲個体情報取得部51が取得する情報のひとつは周囲個体の数であり、周囲個体情報取得部51は刺激値設定部52からの個体IDを指定した要求に応じて、指定された個体の周囲の個体の数を出力する。例えば、距離閾値TDを近傍の8グリッドを包含する円の半径に予め設定しておく。周囲個体情報取得部51は、個体情報記憶部42を参照して、指定された個体の位置から半径TD内の位置が設定されている個体を周囲個体として抽出し、抽出した周囲個体の数を計数して出力する。
また、周囲個体情報取得部51が取得する情報のもうひとつは周囲個体の行動であり、周囲個体情報取得部51はフォロワー行動決定部55からの個体IDを指定した要求に応じて、指定された個体の周囲の個体の行動を出力する。具体的には、周囲個体情報取得部51は、上記と同様にして周囲個体を抽出し、抽出した周囲個体に設定されている行動パラメータを出力する。
The surrounding individual
One of the pieces of information acquired by the surrounding individual
Further, another piece of information acquired by the surrounding individual
刺激値設定部52は、仮想時刻ごとに、各個体に対する刺激値を設定して、設定した刺激値を確率設定部53に出力する。具体的には、刺激値設定部52は、各仮想時刻tにおける各個体i(個体IDがiである個体)の刺激値si(t)を下式(1)〜(4)に従って設定する。
The stimulus
ただし、si(t−1)は、個体iに対して1時刻前に設定した刺激値であり、刺激値設定部52はこれを個体情報記憶部42から取得する。また刺激値設定部52は1時刻後での設定のために現時刻で設定した刺激値を個体情報記憶部42に記憶させる。δは1時刻当たりの刺激増加量であり、刺激増加量δには0より大きな値が予め設定される。αは刺激を抑制するスケールファクタであり、スケールファクタαには0以上の値が予め設定される。また、r(t)は上述したリスク値であり、刺激値設定部52はこれをリスク値取得部50から取得する。gは非負の定数である。μiは上述した認知閾値のうちの個体iについての認知閾値であり、刺激値設定部52はこれを個体情報記憶部42から取得する。niは個体iの周囲の個体の数であり、刺激値設定部52はこれを周囲個体情報取得部51から取得する。Nmaxは周囲個体数の最大数であり、1以上の値が予め設定される。
また、式(1)におけるmax{・,0}、式(2)(4)における「if ・ 0 otherwise」はそれぞれ値を非負に制限することを表している。
However, s i (t−1) is the stimulus value set for the individual i one time ago, and the stimulus
Further, max {·, 0} in the formula (1) and “if · 0 otherwise” in the formulas (2) and (4) respectively indicate that the value is restricted to a non-negative value.
式(3)のRpはリスク値r(t)と認知閾値μiの差が大きいほど1に近づき、式(1)の刺激値si(t)はRpが1に近づくほど大きく増加する。つまり、認知閾値μiが小さな個体ほど、リスク値r(t)との差が大きくなり易く、刺激値si(t)が増加し易い。これは、認知閾値が小さな個体ほど、リスクに敏感な個体であり、リーダーになり易い個体であるという現実世界の様子をモデル化している。
このように、刺激値設定部52は、個体ごとに刺激値を設定し、特に、リスク値r(t)と当該個体iの認知閾値μiとの差が大きな個体ほど個体情報記憶部42に記憶させた値si(t−1)から大きく増加させて刺激値si(t)を設定することによって、より現実世界に近い予測を可能にしている。
R p of the equation (3) approaches 1 as the difference between the risk value r (t) and the cognitive threshold μ i increases, and the stimulation value s i (t) of the equation (1) increases as R p approaches 1. To do. That is, the smaller the cognitive threshold μ i, the greater the difference from the risk value r (t) and the more likely the stimulation value s i (t) increases. This models the state of the real world in which the smaller the cognitive threshold, the more sensitive the risk is and the more likely a leader becomes.
In this way, the stimulus
また、式(4)のFは周囲個体の数niが多いほど0に近づき、式(1)の刺激値si(t)はFが0に近づくほど大きく増加する。つまり、周囲個体が多い個体ほど、刺激値si(t)が増加し易い。これは、避難が進んでいない領域ほど行動の契機となる刺激の増加が促進され(行動を起こすべき雰囲気が促進され)、避難が進んだ領域は刺激が飽和する現実世界の様子をモデル化している。
このように、刺激値設定部52は、個体ごとに刺激値を設定し、特に、周囲個体情報取得部51が抽出した周囲個体の数niが多い個体ほど個体情報記憶部42に記憶させた値si(t−1)から大きく増加させて刺激値si(t)を設定することによって、より現実世界に近い予測を可能にしている。
Further, F in Expression (4) approaches 0 as the number n i of surrounding individuals increases, and the stimulation value s i (t) in Expression (1) increases greatly as F approaches 0. That is, the stimulus value s i (t) is likely to increase as the number of surrounding individuals increases. This is because the area where evacuation is less advanced promotes an increase in stimuli that trigger actions (the atmosphere in which evacuation is to be promoted), and the area where evacuation is advanced models the state of the real world where stimuli saturate. There is.
In this way, the stimulus
なお、試行回数と仮想時刻の制御は刺激値設定部52によって行われる。
The control of the number of trials and the virtual time is performed by the stimulation
確率設定部53は、刺激値設定部52によって刺激値が設定されるたびに、個体のうちの、属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定して当該第一当選確率をリーダー行動決定部54に出力し、属性値がリーダーである個体に所定の第二当選確率を設定して当該第二当選確率をフォロワー行動決定部55に出力する。
Each time the stimulus
具体的には、確率設定部53は、個体情報記憶部42から属性値がフォロワーである個体の個体ID(iとする)とその反応閾値θiを読み出し、刺激値設定部52から入力された刺激値の中から当該個体iに対する刺激値si(t)を特定し、個体iの第一当選確率Pi(Xi=0→Xi=1)を次式(5)に従って設定する。
ただし、Xiは個体iの属性値に対応する確率変数であり、Xi=1は個体iがリーダーであること、Xi=0は個体iがフォロワーであること、(Xi=0→Xi=1)は個体iをフォロワーからリーダーに変更することを表している。つまりPi(Xi=0→Xi=1)は個体iをフォロワーからリーダーに変更する確率である。 However, X i is a random variable corresponding to the attribute value of the individual i, X i = 1 that the individual i is a leader, X i = 0 that the individual i is a follower, and (X i = 0 → X i = 1) represents changing the individual i from a follower to a leader. That is, P i (X i = 0 → X i = 1) is the probability of changing the individual i from a follower to a leader.
式(5)の第一当選確率Pi(Xi=0→Xi=1)は、刺激値si(t)が高いほど高く、反応閾値θiが低いほど高い値となる。これは、刺激が強いときほどリーダーになり易く、刺激に対する反応が敏感な個体ほどリーダーになり易い現実世界の様子をモデル化している。
このように、確率設定部53は、個体ごとに刺激値si(t)が高いほど高く且つ反応閾値θiが低いほど高い第一当選確率Pi(Xi=0→Xi=1)を設定する。
The first winning probability P i (X i = 0 → X i = 1) of the equation (5) is higher as the stimulation value s i (t) is higher, and is higher as the reaction threshold θ i is lower. This models the state of the real world where the stronger the stimulus is, the easier it is to become a leader, and the more sensitive an individual is to become a leader.
As described above, the
また、確率設定部53は、個体情報記憶部42から属性値がリーダーである個体の個体ID(iとする)を特定し、個体iの第二当選確率Pi(Xi=1→Xi=0)を次式(6)に従って設定する。
Xiは式(5)の説明と同様であるからPi(Xi=1→Xi=0)はリーダーからフォロワーに変更する確率である。εには0以上の値が予め設定される。 Since X i is the same as the description of the equation (5), P i (X i = 1 → X i = 0) is the probability of changing from the leader to the follower. A value of 0 or more is set in advance in ε.
式(5)と式(6)は反応閾値モデルに倣って定式化しており、確率設定部53は反応閾値モデルをリーダーとフォロワーの間の変更に応用する独自アプローチを特徴としている。
Equations (5) and (6) are formulated following the reaction threshold model, and the
リーダー行動決定部54は、確率設定部53によって第一当選確率が設定された個体の属性値を当該確率にてリーダーに変更するとともに、属性値がリーダーである個体の行動パラメータに当該個体の状態値を目的の達成に近づける値を設定する。
The leader
具体的には、リーダー行動決定部54は、第一当選確率が設定された個体iに対して第一当選確率Pi(X=0→X=1)での抽選を行い、当該抽選に当選した場合に当該個体(当選個体)iの属性値Xiがリーダーであることを個体情報記憶部42に記憶させる。
上記抽選においては、例えば、リーダー行動決定部54は、値域[0,1]の乱数を1つ決定し、当該乱数がPi(Xi=0→Xi=1)未満であれば当選、Pi(Xi=0→Xi=1)以上であれば落選と判定する。
また、リーダー行動決定部54は、個体情報記憶部42から属性値がリーダーである個体の位置を読み出し、当該位置から環境情報記憶部41に記憶されている各出口までの距離を算出して、最も近い出口を当選個体の選択出口に決定する。
また、リーダー行動決定部54は、属性値がリーダーである個体の位置の8近傍グリッドそれぞれから選択出口までの距離を算出して、当該個体の位置から最も近い近傍グリッドへの移動量を決定する。そして、リーダー行動決定部54は、目的が避難であることと、決定した選択出口および移動量を属性値がリーダーである個体の行動パラメータとして個体情報記憶部42に記憶させる。
Specifically, the leader
In the above-mentioned lottery, for example, the leader
Further, the leader
The leader
フォロワー行動決定部55は、確率設定部53によって第二当選確率が設定された個体の属性値を当該確率にてフォロワーに変更するとともに、属性値がフォロワーである個体の行動パラメータに当該個体の周囲個体の行動パラメータに類似した値を設定する。
具体的には、フォロワー行動決定部55は、第二当選確率が設定された個体iに対して第二当選確率Pi(X=1→X=0)での抽選を行い、当該抽選に当選した場合に当該当選個体iの属性値Xiがフォロワーであることを個体情報記憶部42に記憶させる。
上記抽選においては、例えば、フォロワー行動決定部55は、値域[0,1]の乱数を1つ決定し、当該乱数がPi(Xi=1→Xi=0)未満であれば当選、Pi(Xi=1→Xi=0)以上であれば落選と判定する。
また、フォロワー行動決定部55は、周囲個体情報取得部51に属性値がフォロワーである個体の周囲の個体の行動パラメータを取得させ、取得した行動パラメータの中で最多の選択出口を当選個体の選択出口に決定する。
また、フォロワー行動決定部55は、属性値がフォロワーである個体の位置の8近傍グリッドそれぞれから選択出口までの距離を算出して、当該個体の位置から最も近い近傍グリッドへの移動量を決定する。そして、フォロワー行動決定部55は、目的が避難であることと、決定した選択出口および移動量を属性値がフォロワーである個体の行動パラメータとして個体情報記憶部42に記憶させる。
The follower
Specifically, the follower
In the lottery, for example, the follower
Further, the follower
Further, the follower
個体情報更新部56は、各個体の状態値を当該個体の行動パラメータにて更新する。
本実施形態においては、個体情報更新部56は、状態値のうちの位置に、行動パラメータのうちの移動量を加算することによって更新を行う。具体的には、個体情報更新部56は、個体情報記憶部42から各個体の位置と移動量とを読み出し、個体ごとに、読み出した位置に読み出した移動量を加算して加算後の位置を個体情報記憶部42に記憶させる。
The individual
In the present embodiment, the individual
予測結果出力部57は、シミュレーションの結果である予測結果を出力する。予測結果は、個体情報記憶部42に記憶されている情報の一部または全部を少なくとも含み、好適には、さらに環境情報記憶部41に記憶されている情報の一部または全部を含む。また、予測結果出力部57は個体情報記憶部42に記憶されている情報、または該情報と環境情報記憶部41に記憶されている情報とを統計処理し、得られた統計量を予測結果として出力してもよい。
The prediction
予測結果の出力タイミングは、シミュレーションを終えた時点の他に、シミュレーションの途中を含んでもよい。つまり、シミュレーションの途中までに得られた上記情報の一部または全部を中間予測結果として出力してもよい。 The output timing of the prediction result may include the middle of the simulation in addition to the time when the simulation is finished. That is, part or all of the above information obtained up to the middle of the simulation may be output as the intermediate prediction result.
また、予測結果出力部57は、予測結果をデータファイルとして出力してもよいし、画像ファイルとして出力してもよいし、画像として表示してもよいし、これらのうちの1以上の形式で出力してもよい。
In addition, the prediction
図6および図7のそれぞれは、或る試行回数での上限仮想時刻に近い仮想時刻における中間予測結果の一例である。これらの予測結果は同一の設定から得られる。予測結果出力部57は、出口を含む対象空間の地図を画像化するとともに当該画像上の各個体の位置と対応する座標に個体を表す図形を重畳描画して中間予測結果を生成し、表示部6に出力する。
Each of FIG. 6 and FIG. 7 is an example of an intermediate prediction result at a virtual time close to the upper limit virtual time at a certain number of trials. These prediction results are obtained from the same settings. The prediction
図8は、シミュレーションを終えた時点の情報から生成された統計量をグラフとして画像化した予測結果の一例である。グラフの横軸は選択出口の均等性を表す指標値Eqであり、縦軸は試行の頻度である。指標値Eqは、南側出口E2に向かう個体の割合Srと北側出口E1に向かう個体の割合Nrを乗じた値である(Eq=Sr・Nr)。予測結果出力部57は、個体情報記憶部42に記憶されている選択出口のデータのうち、仮想時刻が(T−1)であるデータを、試行回数ごとに選択出口別に計数して全個体数で除して各試行回数におけるSrとNrを算出する。そして、試行回数ごとにSrとNrを乗じてEqを算出し、Eqを13区間のそれぞれで計数して試行予定回数で除して区間ごとの頻度を算出する。そして、区間ごとの頻度をグラフとして描画した画像を表示部6に出力する。
FIG. 8 is an example of a prediction result in which a statistic generated from information at the time when the simulation is finished is imaged as a graph. The horizontal axis of the graph is the index value E q that represents the uniformity of the selected outlets, and the vertical axis is the frequency of trials. The index value E q is a value obtained by multiplying the proportion S r of individuals heading to the south exit E 2 by the proportion N r of individuals heading to the north exit E 1 (E q = S r · N r ). The prediction
図6の中間予測結果110は、0.25に近いEqが算出された試行の過程で得られた中間予測結果であり、図8のグラフにおいて最も右側のビンに含まれる試行でのものである。つまり、図6の中間結果が得られた試行ではパニックが発生せずに、2つの出口にほぼ均等に使って避難が行われる様子が予測された。
The
一方、図7の中間予測結果120は、0.00に近いEqが算出された試行の過程で得られた中間予測結果であり、図8のグラフにおいて最も左側のビンに含まれる試行でのものである。つまり、図7の中間結果が得られた試行では、南側出口E2に避難者が集中してしまうパニックが発生する様子が予測された。 On the other hand, the intermediate prediction result 120 of FIG. 7 is an intermediate prediction result obtained in the course of the trial in which E q close to 0.00 was calculated, and is the trial prediction included in the leftmost bin in the graph of FIG. It is a thing. That is, in the trial in which the intermediate result of FIG. 7 was obtained, it was predicted that a panic in which evacuees were concentrated at the south exit E 2 occurred.
例えば、シミュレーター1による予測結果を用いれば、例えば、図6に例示される試行と図7に例示される試行におけるリーダーの位置やその時間推移を比較する解析を行い、パニックが発生する条件を究明することが可能となる。そして究明した結果から、どの位置に誘導手段を設置し又は誘導員を配置すべきか、誘導手段や誘導員がどのようなタイミングでどのような誘導をすべきかといった計画を適確且つ効率的に立案することが可能となる。
For example, if the prediction result by the
<シミュレーター1の動作例>
図9および図10のフローチャートを参照してシミュレーター1の動作例を説明する。
<Example of
An operation example of the
始めに、条件設定部20が利用者からの入力を受け付けてシミュレーションの条件を設定する(ステップS1)。すなわち、利用者が条件設定部20を用いて手入力することによって得られたシミュレーションの条件、または/および利用者が条件設定部20を用いてファイルを指定しそれに応じた条件設定部20が該当するファイルから読み出すことによって得られたシミュレーションの条件を、条件設定部20が反復条件記憶部40、環境情報記憶部41および個体情報記憶部42に設定する。
First, the
シミュレーションの条件が設定されると、刺激値設定部52は試行回数を1に初期化し(ステップS2)、ステップS2〜S12のループ処理を設定する。
When the simulation condition is set, the stimulation
さらに、試行回数のループ処理において、刺激値設定部52は仮想時刻を0に初期化し(ステップS3)、ステップS3〜S10のループ処理を設定する。
Furthermore, in the loop processing of the number of trials, the stimulation
仮想時刻のループ処理においては、まず、行動決定処理が行われる(ステップS4)。 In the virtual time loop process, first, the action determination process is performed (step S4).
図10のフローチャートを参照してステップS4の行動決定処理について説明する。 The action determination process of step S4 will be described with reference to the flowchart of FIG.
行動決定処理においては、まず、リスク値の取得が行われる(ステップS401)。すなわち、刺激値設定部52がリスク値取得部50に設定中の仮想時刻を指定してリスク値の取得を要求し、リスク値取得部50は指定された時刻に対応するリスク値を環境情報記憶部41から読み出して刺激値設定部52に出力する。
In the action determination process, first, the risk value is acquired (step S401). That is, the stimulus
次に、刺激値設定部52が、個体情報記憶部42を参照してその位置が未だ出口E1またはE2に達していない個体を特定し、特定した個体を順次処理対象に設定することによって(ステップS402)、ステップS402〜S417のループ処理を設定する。
Next, the stimulation
個体のループ処理においては、まず、周囲個体の計数が行われる(ステップS403)。すなわち、刺激値設定部52が処理対象の個体の個体IDを指定して周囲個体情報取得部51に周囲個体の情報の取得を要求し、周囲個体情報取得部51は個体情報記憶部42を参照して指定された個体の周囲個体を計数し、計数した周囲個体数を刺激値設定部52に出力する。
In the individual loop processing, first, surrounding individuals are counted (step S403). That is, the stimulus
次に、刺激値の更新が行われる(ステップS404)。すなわち、刺激値設定部52は、個体情報記憶部42から処理対象の個体の1時刻前の刺激値および認知閾値を読み出し、読み出した刺激値と、認知閾値と、ステップS401で取得されたリスク値と、ステップS403で取得された周囲個体数とを式(1)〜(4)に適用して刺激値を算出し、当該刺激値を個体情報記憶部42に追記する。
Next, the stimulation value is updated (step S404). That is, the stimulus
続いて、確率設定部53が、個体情報記憶部42を参照して処理対象の個体の属性値を確認する(ステップS405)。
Subsequently, the
属性値がフォロワーである場合(ステップS405にてYES)、確率設定部53は個体情報記憶部42から処理対象の個体の反応閾値と最新の刺激値を読み出し、これらを式(5)に適用して第一当選確率を算出する(ステップS406)。そして、リーダー行動決定部54は、算出した第一当選確率での抽選を行い(ステップS407)、当選した場合(ステップS408にてYES)、個体情報記憶部42における処理対象の個体の属性値をリーダーに変更し(ステップS409)、処理をステップ413に進める。当選しなかった場合(ステップS408にてNO)、処理対象の個体の属性値は変更しないことが決定されてステップS409は省略され、処理はステップS415に進められる。
When the attribute value is a follower (YES in step S405), the
他方、属性値がリーダーである場合(ステップS405にてNO)、確率設定部53が式(6)に基づく第二当選確率を設定し、フォロワー行動決定部55が設定された第二当選確率での抽選を行う(ステップS410)。当選した場合(ステップS411にてYES)、フォロワー行動決定部55が個体情報記憶部42における処理対象の個体の属性値をフォロワーに変更し(ステップS412)、処理をステップS415に進める。当選しなかった場合(ステップS411にてNO)、処理対象の個体の属性値は変更しないことが決定されてステップS412は省略され、処理はステップS413に進められる。
On the other hand, when the attribute value is the leader (NO in step S405), the
ステップS413においては、リーダー行動決定部54が、属性値をリーダーに変更することが決定された個体および属性値をリーダーから変更しないことが決定された個体の選択出口を、個体情報記憶部42に記憶されている当該個体の位置から近い方の出口に決定する。
そして、リーダー行動決定部54は、処理対象の個体の位置の8近傍グリッドのうちの選択出口に最も近い近傍グリッドへの移動量を、当該個体の移動量として算出する(ステップS414)。
In step S 413, the leader
Then, the leader
他方、ステップS415においては、フォロワー行動決定部55が、属性値をフォロワーに変更することが決定された個体および属性値をフォロワーから変更しないことが決定された個体の選択出口を周囲個体に類似させて決定する。フォロワー行動決定部55は、処理対象の個体の周囲の個体の選択出口を周囲個体情報取得部51に取得させ、そのうちの最も多数である選択出口を処理対象の個体の選択出口に決定する。なお、仮想時刻が0または0に近いときは周囲個体の多くの選択出口が未定の場合があるが、その場合は処理対象の個体の選択出口も未定となる。
そして、リーダー行動決定部54は、処理対象の個体の位置の8近傍グリッドのうちの選択出口に最も近い近傍グリッドへの移動量を、当該個体の移動量として算出する(ステップS416)。
On the other hand, in step S415, the follower
Then, the leader
続くステップS417では個体のループ処理の終了判定が行われる。刺激値設定部52は、出口に達していない個体の全てを処理し終えたか否かを確認し、処理し終えていない場合は(ステップS417にてNO)、処理をステップS402に戻して、個体のループ処理を継続する。
In the following step S417, it is determined whether or not the loop processing of the individual has ended. The stimulus
他方、出口に達していない個体の全てを処理し終えた場合(ステップS417にてYES)、リーダー行動決定部54およびフォロワー行動決定部55が個体情報記憶部42に記憶されている各個体の行動パラメータを更新する(ステップS418)。すなわちリーダー行動決定部54はステップS413で決定した選択出口およびステップS414で決定した移動量を個体情報記憶部42に記憶させ、フォロワー行動決定部55はステップS415で決定した選択出口およびステップS416で決定した移動量を個体情報記憶部42に記憶させる。
On the other hand, when all the individuals who have not reached the exit have been processed (YES in step S417), the leader
行動パラメータが更新されると行動決定処理は終了して、処理は図9のステップS5に進められ、個体情報更新部56がステップS4で更新された各個体の移動量を用いて当該個体の位置を更新する。
When the action parameter is updated, the action determination process ends, the process proceeds to step S5 in FIG. 9, and the individual
続くステップS6では予測結果の出力が行われる。予測結果出力部57は、環境情報記憶部41を参照して部屋Rの地図を描画し、個体情報記憶部42を参照して各個体の最新の位置を地図に重畳して描画し、描画結果の画像を中間予測結果として表示部6に表示させる。
In the subsequent step S6, the prediction result is output. The prediction
続いて仮想時刻のループ処理の終了判定が行われる。刺激値設定部52は、仮想時刻を1だけ増加させるとともに(ステップS7)、個体情報記憶部42を参照して全個体が出口に到達したか否かを確認する(ステップS8)。さらに、出口に到達していない個体がある場合(ステップS8にてNO)、刺激値設定部52は、増加させた仮想時刻が上限仮想時刻以上であるか否かを確認する(ステップS9)。
出口に到達していない個体があり且つ仮想時刻が上限仮想時刻未満である場合(ステップS9にてNO)、刺激値設定部52は、処理をステップS4に戻し、仮想時刻のループ処理を継続する。
Then, the end of the virtual time loop process is determined. The stimulus
If there is an individual that has not reached the exit and the virtual time is less than the upper limit virtual time (NO in step S9), the stimulation
他方、全個体が出口に到達した場合(ステップS8にてYES)、または仮想時刻が上限仮想時刻以上である場合は(ステップS9にてYES)、試行回数のループ処理の終了判定が行われる。刺激値設定部52は、試行回数を1だけ増加させ(ステップS10)、増加させた試行回数が試行予定回数を超えたか否かを確認する(ステップS11)。増加させた試行回数が試行予定回数以下の場合(ステップS11にてNO)、刺激値設定部52は、処理をステップS3に戻して試行回数のループ処理を継続する。
On the other hand, when all the individuals have reached the exit (YES in step S8) or when the virtual time is equal to or more than the upper limit virtual time (YES in step S9), it is determined whether or not the loop processing for the number of trials has ended. The stimulation
増加させた試行回数が試行予定回数を超えた場合(ステップS11にてYES)、シミュレーションは終了となり、予測結果の出力が行われる。
予測結果出力部57は、個体情報記憶部42を参照して指標値Eqの頻度を集計し、頻度グラフを描画し、描画したグラフ画像を予測結果として表示部6に表示させる。また、予測結果出力部57は個体情報記憶部42の全データと環境情報記憶部41の全データとをファイルに書き出し、当該ファイルを予測結果のもうひとつとしてファイル入出力部3から出力する。
If the increased number of trials exceeds the scheduled number of trials (YES in step S11), the simulation ends and the prediction result is output.
The prediction
[第二の実施形態]
第一の実施形態においては、個体情報記憶部42、周囲個体情報取得部51、刺激値設定部52、確率設定部53、リーダー行動決定部54、フォロワー行動決定部55、個体情報更新部56が複数の個体についての処理を行う例を示した。第二の実施形態におけるシミュレーター1bは、これらに代えて、それぞれが1つの個体についての処理を行う個体情報記憶部42b−i、周囲個体情報取得部51b−i、刺激値設定部52b−i、確率設定部53b−i、リーダー行動決定部54b−i、フォロワー行動決定部55b−i、個体情報更新部56b−iで構成される行動決定装置70b−iを個体の数Nだけ備える。ただし、i=0,1,2,…,N−1である。
すなわち、シミュレーター1bに含まれる行動決定装置70b−i(ただし、i=0,1,2,…,N−1)のそれぞれは、記憶部4が並列に或いは時分割なメモリ領域として機能し、制御部5が並列に或いは時分割に動作するプロセスを実行することによって実現される。
[Second embodiment]
In the first embodiment, the individual
That is, in each of the action determination devices 70b-i (where i = 0, 1, 2, ..., N-1) included in the simulator 1b, the
すなわち、行動決定装置70b−iのそれぞれは、所定の目的を達成することが可能な所定の空間において群集を構成する個体のひとつである自個体の行動を決定する行動決定装置であって、自個体について、少なくとも、リーダーであるかフォロワーであるかの別を表す属性値、空間における位置を含む状態値、および状態値に作用する行動パラメータを記憶する個体情報記憶部42b−iと、行動の契機となる刺激の程度を表す刺激値を設定する刺激値設定部52b−iと、属性値がフォロワーである場合に刺激値に基づく第一当選確率を設定し、属性値がリーダーである場合に所定の第二当選確率を設定する確率設定部53b−iと、第一当選確率が設定された場合に属性値を当該確率にてリーダーに変更するとともに、属性値がリーダーである場合に行動パラメータに状態値を目的の達成に近づける値を設定するリーダー行動決定部54b−iと、個体のうちの、個体の位置から所定距離以下に存在する周囲個体の行動を取得する周囲個体情報取得部51b−iと、第二当選確率が設定された場合に属性値を当該確率にてフォロワーに変更するとともに、属性値がフォロワーである場合に周囲個体の行動に類似する行動パラメータを設定するフォロワー行動決定部55b−iと、を備える。 That is, each of the behavior determination devices 70b-i is a behavior determination device that determines the behavior of its own individual, which is one of the individuals forming a crowd in a predetermined space that can achieve a predetermined purpose. An individual information storage unit 42b-i that stores at least an attribute value indicating whether a person is a leader or a follower, a state value including a position in space, and an action parameter that acts on the state value of an individual; A stimulus value setting unit 52b-i that sets a stimulus value that represents the degree of stimulus that triggers, and a first winning probability based on the stimulus value when the attribute value is a follower, and when the attribute value is a leader A probability setting unit 53b-i that sets a predetermined second winning probability, and when the first winning probability is set, the attribute value is changed to a leader with the probability and the attribute value is set to Leader action determining unit 54b-i that sets the state value to the action parameter that is close to the achievement of the purpose, and the actions of the surrounding individuals present within a predetermined distance from the position of the individual among the individuals are acquired. The surrounding individual information acquisition unit 51b-i that changes the attribute value to a follower with the probability when the second winning probability is set, and an action similar to the behavior of the surrounding individual when the attribute value is a follower And a follower action determination unit 55b-i that sets a parameter.
[第一の実施形態および第二の実施形態の変形例]
上記各実施形態においては、環境情報記憶部41が空間の二次元地図を記憶する例を示したが三次元地図としてもよい。その場合、個体情報記憶部42および42−iのそれぞれが記憶する状態値、行動パラメータも三次元の情報となる。
[Modifications of First and Second Embodiments]
In each of the above-described embodiments, an example in which the environment
上記各実施形態およびその変形例においては、シミュレーションの条件の一部をリアルタイムの対象空間の状況に応じた値とすることができる。例えば、各個体の位置として実際の人の位置を設定したシミュレーションによって近未来の状況を予測すれば、群集の誘導を適確に行うことが可能となる。 In each of the above-described embodiments and the modifications thereof, a part of the simulation condition can be a value according to the situation of the real-time target space. For example, if the situation in the near future is predicted by a simulation in which the position of the actual person is set as the position of each individual, it becomes possible to accurately guide the crowd.
上記各実施形態およびその変形例においては、リスク値取得部50は、環境情報記憶部41からリスク値を読み出す例を示したが、別の実施形態においてリスク値取得部50は、炎センサ、煙センサなどの災害に関する実空間の物理量を計測する災害センサおよび災害センサからの信号をプログラムに従って処理する制御部5の機能によって構成されてもよい。この場合、リスク値取得部50は、災害の発生有無や災害の程度を表す信号を所定規則に従ってリスク値に定量化する。
Although the risk
上記各実施形態およびその変形例においては、個体情報更新部56および56b−iのそれぞれが個体の大きさを考慮せず重なりを排除せずに個体の位置を更新する例を示したが、これらの物理的な制約を考慮して個体の位置を更新してもよい。その場合、例えば、個体情報更新部56および56b−iのそれぞれが、リーダー行動決定部54および54b−iのそれぞれやフォロワー行動決定部55および55b−iのそれぞれが決定した移動量を、仮想空間内で個体同士が重ならない位置への移動量に調整して更新を行う。または、例えば、個体情報更新部56および56b−iのそれぞれが、リーダー行動決定部54および54b−iのそれぞれやフォロワー行動決定部55および55b−iのそれぞれが決定した選択エリアに個体を近づける移動量であって、仮想空間内で個体同士が重ならない位置への移動量を算出して更新を行う。
In each of the above-described embodiments and its modified examples, the individual
[第三の実施形態]
第三の実施形態に係る自律走行ロボット8は、本発明の行動決定装置の一例である行動決定装置70cを備え、群集を構成するひとつの個体を模擬する。
[Third embodiment]
The autonomous
自律走行ロボット8は、第一の実施形態の操作入力部2、ファイル入出力部3、制御部5、表示部6と同様の操作入力部2c、ファイル入出力部3c、制御部5c、表示部6cを備え、さらに、炎センサや煙センサなどの災害センサ、カメラ等の周囲個体センサ、実時刻を計時する計時部、および、モータと車輪と測位手段と障害物センサ等からなる移動制御部を備える。災害センサ、周囲個体センサ、計時部および移動制御部のそれぞれは制御部5cに接続される。操作入力部2cおよび表示部6cは着脱可能であることが望ましい。
The autonomous
自律走行ロボット8は、第一の実施形態の条件設定部20、反復条件記憶部40、環境情報記憶部41、個体情報記憶部42、リスク値取得部50、周囲個体情報取得部51、刺激値設定部52、確率設定部53、リーダー行動決定部54、フォロワー行動決定部55、個体情報更新部56、予測結果出力部57のそれぞれに対応して、それぞれがひとつの個体についての処理を行う条件設定部20c、反復条件記憶部40c、環境情報記憶部41c、個体情報記憶部42c、リスク値取得部50c、周囲個体情報取得部51c、刺激値設定部52c、確率設定部53c、リーダー行動決定部54c、フォロワー行動決定部55c、個体情報更新部56c、予測結果出力部57cを備える。
The autonomous
ただし、リスク値取得部50cは災害センサが出力する信号を所定規則に従って定量化することでリスク値を取得する。
また、周囲個体情報取得部51cは周囲個体センサが出力する画像を解析して自律走行ロボット8の周囲に存在する自律走行ロボット8と同型のロボットおよび人を周囲個体として検出し、検出した周囲個体の数および行動を認識することで周囲個体の数および行動を取得する。
また、第一の実施形態における仮想時刻に代えて実時刻が用いられ、刺激値設定部52cは、計時部が出力する実時刻を参照してシミュレーションの時刻を制御する。試行回数は操作入力部2cによる利用者からの指示ごとに進め、刺激値設定部52cは操作入力部2cからの指示の信号を参照して試行回数を制御する。
また、個体情報更新部56cは、行動パラメータのうちの移動量が示す方向に当該移動量が示す距離を上限としてモータを回転させ、モータと接続された車輪を駆動して自律走行ロボット8を移動させる。また、個体情報更新部56cは、自律走行ロボット8の周囲の障害物を検出する障害物センサからの信号を解析して障害物までの距離と方向を検出し、障害物と自律走行ロボット8との距離が所定距離未満とならないようモータの回転を抑制する。また、個体情報更新部56cは、ビーコンシステムやGPSシステムとの通信を行う通信インターフェースを含む測位手段が出力する信号を解析して自律走行ロボット8の位置を検出し、検出した位置で状態値を更新する。
However, the risk value acquisition unit 50c acquires the risk value by quantifying the signal output by the disaster sensor according to a predetermined rule.
In addition, the surrounding individual information acquisition unit 51c analyzes the image output by the surrounding individual sensor, detects a robot and a person of the same type as the
Further, the real time is used instead of the virtual time in the first embodiment, and the stimulus value setting unit 52c controls the time of the simulation with reference to the real time output by the time counting unit. The number of trials is advanced for each instruction from the user through the operation input unit 2c, and the stimulation value setting unit 52c refers to the instruction signal from the operation input unit 2c to control the number of trials.
In addition, the individual information updating unit 56c rotates the motor in the direction indicated by the movement amount of the action parameter up to the distance indicated by the movement amount, drives the wheels connected to the motor, and moves the autonomous
これらのうちの個体情報記憶部42c、周囲個体情報取得部51c、刺激値設定部52c、確率設定部53c、リーダー行動決定部54c、フォロワー行動決定部55c、個体情報更新部56cが、行動決定装置70cに含まれる。 Of these, the individual information storage unit 42c, the surrounding individual information acquisition unit 51c, the stimulus value setting unit 52c, the probability setting unit 53c, the leader action determination unit 54c, the follower action determination unit 55c, and the individual information update unit 56c are the action determination devices. Included in 70c.
すなわち、行動決定装置70cは、所定の目的を達成することが可能な所定の空間において群集を構成する個体のひとつである自個体の行動を決定する行動決定装置であって、自個体について、少なくとも、リーダーであるかフォロワーであるかの別を表す属性値、空間における位置を含む状態値、および状態値に作用する行動パラメータを記憶する個体情報記憶部と42c、行動の契機となる刺激の程度を表す刺激値を設定する刺激値設定部52cと、属性値がフォロワーである場合に刺激値に基づく第一当選確率を設定し、属性値がリーダーである場合に所定の第二当選確率を設定する確率設定部53cと、第一当選確率が設定された場合に属性値を当該確率にてリーダーに変更するとともに、属性値がリーダーである場合に行動パラメータに状態値を目的の達成に近づける値を設定するリーダー行動決定部54cと、個体のうちの、自個体の位置から所定距離以下に存在する周囲個体の行動を取得する周囲個体情報取得部51cと、第二当選確率が設定された場合に属性値を当該確率にてフォロワーに変更するとともに、属性値がフォロワーである場合に周囲個体の行動に類似する行動パラメータを設定するフォロワー行動決定部55cと、を備える。 That is, the behavior determining device 70c is a behavior determining device that determines the behavior of the individual, which is one of the individuals forming a crowd in a predetermined space that can achieve a predetermined purpose, and at least for the individual. , An individual information storage unit and 42c that stores an attribute value that indicates whether it is a leader or a follower, a state value that includes a position in space, and an action parameter that acts on the state value, and a degree of stimulation that triggers an action And a stimulus value setting unit 52c that sets a stimulus value that indicates the first winning probability based on the stimulus value when the attribute value is a follower, and a predetermined second winning probability when the attribute value is a leader And a probability setting unit 53c that changes the attribute value to the leader with the probability when the first winning probability is set, and the action parameter when the attribute value is the leader. A leader action determination unit 54c that sets a state value that approximates the achievement of the purpose, and a surrounding individual information acquisition unit 51c that acquires the actions of surrounding individuals within a predetermined distance from the position of the own individual among individuals. And when the second winning probability is set, the attribute value is changed to a follower with the probability, and when the attribute value is a follower, a follower action determination unit 55c that sets an action parameter similar to the action of surrounding individuals And
[上記各実施形態に共通する変形例]
上記各実施形態およびその変形例においては、対象空間として部屋を例示したが、対象空間は、コンサートホール、駅などであってもよいし、屋内に限らず商店街、公園、街などの屋外の空間であってもよいし、イベント会場、学校などの屋内と屋外を横断した空間であってもよい。
[Modifications common to the above embodiments]
In each of the above-described embodiments and its modifications, a room is illustrated as the target space, but the target space may be a concert hall, a station, or the like, and is not limited to indoors, but is also used for outdoor shopping malls, parks, towns, and the like. It may be a space, or a space that crosses indoors and outdoors such as at an event venue or school.
上記各実施形態およびその変形例においては、事象として火災を例示したが、地震、不審者の出現などといった他の災害、イベント会場等における病人の発生、著名人の出現、群集に対する呼びかけや質問提示などといった災害以外の事象にも適用できる。 In each of the above-described embodiments and its modifications, fire was illustrated as an event, but other disasters such as an earthquake, the appearance of a suspicious person, the occurrence of a sick person at an event site, the appearance of a celebrity, a call to the crowd, and question presentation. It can also be applied to events other than disasters such as.
上記各実施形態およびその変形例においては、行動の目的として避難を例示したが、病人の発生に対する救護行動や野次馬行動、著名人の出現に対する野次馬行動、呼びかけや質問提示に対する応答など、事象に対応した目的を適宜設定できる。 In each of the above-described embodiments and its modified examples, evacuation was illustrated as the purpose of the action, but rescue actions and field horse actions for the occurrence of sick people, field horse actions for the appearance of celebrities, responses to calls and question presentations, and other events are handled. The purpose can be set appropriately.
上記各実施形態およびその変形例においては、行動の手段として移動を例示したが、地震に対する避難の手段としてのかがみ姿勢への移行(着席中の机の下へ避難)、呼びかけや質問提示に対する応答の手段としての挙手や発声など、事象と目的に応じた移動を伴わない手段を適宜設定することもできる。なお、手段の選択肢として出口への移動とかがみ姿勢への移行を設定し、いずれかをランダムに選択するようにしてもよい。
なお、上記実施形態およびその変形例においては、行動の手段を2つとしたが、1つ以上であれば2つ以外でも良い。
In each of the above-described embodiments and the modifications thereof, movement was illustrated as a means of action, but a shift to a leaning posture (evacuation under a sitting desk) as a means of evacuation against an earthquake, a response to a call or question presentation It is also possible to appropriately set means that does not involve movement according to the event and the purpose, such as raising hands and uttering as means of. It is also possible to set the movement to the exit and the transition to the bending posture as an option of the means, and to randomly select one of them.
In addition, in the said embodiment and its modification, although the means of action was two, if it is one or more, it may be other than two.
上記各実施形態およびその変形例においては、人の群集を例示したが、魚、鳥、蟻などの他の社会性生物の群集にも適用できる。なお、個体が人以外である場合は、対象空間や事象を個体の種類に応じて適宜設定することができる。 In each of the above-described embodiments and its modifications, a crowd of people is illustrated, but the invention can be applied to a crowd of other social organisms such as fish, birds, and ants. In addition, when the individual is other than a person, the target space and the event can be appropriately set according to the type of the individual.
以上で説明した、シミュレーター1、シミュレーター1bおよびシミュレーター1bに含まれる行動決定装置70b−i、自律移動ロボット8および自律移動ロボット8に含まれる行動決定装置70cによれば、同一の設定を行ってもリーダーとフォロワーが確率的に変更され、同一の設定を行っても異なる予測結果が生成できる。そのため、これらのそれぞれによって群集におけるパニック行動等の特定行動を未知の条件下において予測でき、それぞれによって得られる予測結果を用いれば群集において特定行動が生じた条件の究明を容易化できる。
According to the
1・・・シミュレーター
2・・・操作入力部
20・・・条件設定部
3・・・ファイル入出力部
4・・・記憶部
40・・・反復条件記憶部
41・・・環境情報記憶部
42・・・個体情報記憶部
5・・・制御部
50・・・リスク値取得部
51・・・周囲個体情報取得部
52・・・刺激値設定部
53・・・確率設定部
54・・・リーダー行動決定部
55・・・フォロワー行動決定部
56・・・個体情報更新部
57・・・予測結果出力部
6・・・表示部
1 ...
Claims (7)
前記群集を構成する複数の個体のそれぞれについて、少なくとも、リーダーかフォロワーかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶する個体情報記憶部と、
前記行動の契機となる刺激の程度を表す刺激値を順次設定する刺激値設定部と、
前記刺激値が設定されるたびに、前記個体のうちの、前記属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである個体に所定の第二当選確率を設定する確率設定部と、
前記第一当選確率が設定された個体の前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである個体の前記行動パラメータに当該個体の前記状態値を前記目的の達成に近づける値を設定するリーダー行動決定部と、
前記個体ごとに当該個体からの前記位置が所定距離以内である周囲個体を抽出する周囲個体情報取得部と、
前記第二当選確率が設定された個体の前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである個体の前記行動パラメータに当該個体の前記周囲個体の前記行動パラメータに類似した値を設定するフォロワー行動決定部と、
前記各個体の前記状態値を当該個体の前記行動パラメータにて更新する個体情報更新部と、
を備えたことを特徴とするシミュレーター。 A simulator for predicting the behavior of a crowd in a predetermined space capable of achieving a predetermined purpose,
An individual information storage unit that stores at least an attribute value indicating whether a leader or a follower, a state value including a position in the space, and a behavior parameter that acts on the state value, for each of the plurality of individuals forming the crowd. When,
A stimulus value setting unit that sequentially sets stimulus values that represent the degree of stimulus that triggers the action;
Each time the stimulus value is set, a first winning probability based on the stimulus value is set for the individual whose attribute value is a follower among the individuals, and the individual whose attribute value is the leader has a predetermined probability. A probability setting unit that sets the winning probability,
The attribute value of the individual for which the first winning probability is set is changed to a leader with the probability, and the state value of the individual is set to the action parameter of the individual whose attribute value is the leader to achieve the purpose. A leader action decision unit that sets a value to approach,
A surrounding individual information acquisition unit that extracts, for each individual, a surrounding individual whose position from the individual is within a predetermined distance,
The attribute value of the individual for which the second winning probability is set is changed to a follower with the probability, and the behavior parameter of the individual whose attribute value is a follower is similar to the behavior parameter of the surrounding individuals of the individual. A follower action determiner that sets the value
An individual information updating unit for updating the state value of each individual with the action parameter of the individual,
A simulator characterized by having.
前記確率設定部は、前記個体ごとに前記刺激値が高いほど高く且つ前記反応閾値が低いほど高い前記第一当選確率を設定する、
請求項1に記載のシミュレーター。 The individual information storage unit further stores a reaction threshold value of each individual,
The probability setting unit sets the first winning probability higher for each individual as the stimulus value is higher and as the reaction threshold is lower.
The simulator according to claim 1.
前記個体情報記憶部は、前記個体のそれぞれが認知する前記リスクの大きさを表す認知閾値をさらに記憶し、
前記刺激値設定部は、前記個体ごとに設定した前記刺激値を前記個体情報記憶部に記憶させ、前記個体ごとに前記リスク値と当該個体の前記認知閾値との差が大きな個体ほど前記個体情報記憶部に記憶させた値から大きく増加させて前記刺激値を設定する、
請求項3に記載のシミュレーター。 Further comprising a risk value acquisition unit that sequentially acquires a risk value representing the magnitude of the risk occurring in the space,
The individual information storage unit further stores a cognitive threshold representing the magnitude of the risk recognized by each of the individual,
The stimulus value setting unit stores the stimulus value set for each individual in the individual information storage unit, and the individual information has a larger difference between the risk value and the cognitive threshold of the individual for each individual. The stimulus value is set by greatly increasing it from the value stored in the storage unit,
The simulator according to claim 3.
コンピュータに、
前記群集を構成する複数の個体のそれぞれについて、少なくとも、リーダーかフォロワーかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶させ、
前記行動の契機となる刺激の程度を表す刺激値を順次設定する処理と、
前記刺激値が設定されるたびに、前記個体のうちの、前記属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである個体に所定の第二当選確率を設定する処理と、
前記第一当選確率が設定された個体の前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである個体の前記行動パラメータに当該個体の前記状態値を前記目的の達成に近づける値を設定する処理と、
前記個体ごとに当該個体からの前記位置が所定距離以内である周囲個体を抽出する処理と、
前記第二当選確率が設定された個体の前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである個体の前記行動パラメータに当該個体の前記周囲個体の前記行動パラメータに類似した値を設定するフォロワー行動決定部と、
前記各個体の前記状態値を当該個体の前記行動パラメータにて更新する個体情報更新部と、
を実行させることを特徴とするシミュレーション方法。 A simulation method for predicting the behavior of a crowd in a predetermined space capable of achieving a predetermined purpose, comprising:
On the computer,
For each of the plurality of individuals that make up the crowd, store at least an attribute value indicating whether it is a leader or a follower, a state value including a position in the space, and a behavior parameter that acts on the state value,
A process of sequentially setting a stimulus value indicating the degree of stimulus that triggers the action,
Each time the stimulus value is set, a first winning probability based on the stimulus value is set for the individual whose attribute value is a follower among the individuals, and the individual whose attribute value is the leader has a predetermined probability. The process of setting the second winning probability,
The attribute value of the individual for which the first winning probability is set is changed to a leader with the probability, and the state value of the individual is set to the action parameter of the individual whose attribute value is the leader to achieve the purpose. The process of setting the value to approach,
A process of extracting surrounding individuals whose position from the individual is within a predetermined distance for each individual;
The attribute value of the individual for which the second winning probability is set is changed to a follower with the probability, and the behavior parameter of the individual whose attribute value is a follower is similar to the behavior parameter of the surrounding individuals of the individual. A follower action determiner that sets the value
An individual information updating unit for updating the state value of each individual with the action parameter of the individual,
A simulation method characterized by causing to execute.
前記自個体について、少なくとも、リーダーであるかフォロワーであるかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶する個体情報記憶部と、
前記行動の契機となる刺激の程度を表す刺激値を設定する刺激値設定部と、
前記属性値がフォロワーである場合に前記刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである場合に所定の第二当選確率を設定する確率設定部と、
前記第一当選確率が設定された場合に前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである場合に前記行動パラメータに前記状態値を前記目的の達成に近づける値を設定するリーダー行動決定部と、
前記個体のうちの、前記自個体の前記位置から所定距離以下に存在する周囲個体の行動を取得する周囲個体情報取得部と、
前記第二当選確率が設定された場合に前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである場合に前記周囲個体の行動に類似する前記行動パラメータを設定するフォロワー行動決定部と、
を備えたことを特徴とする行動決定装置。
A behavior determination device for determining the behavior of one's own individual, which is one of the individuals constituting a crowd in a predetermined space capable of achieving a predetermined purpose,
For the own individual, at least an attribute value indicating whether it is a leader or a follower, a state value including a position in the space, and an individual information storage unit that stores an action parameter that acts on the state value,
A stimulus value setting unit that sets a stimulus value indicating the degree of stimulus that triggers the action;
A probability setting unit that sets a first winning probability based on the stimulus value when the attribute value is a follower, and sets a predetermined second winning probability when the attribute value is a leader,
When the first winning probability is set, the attribute value is changed to a leader with the probability, and when the attribute value is a leader, the action parameter is set to a value that brings the state value close to the achievement of the purpose. A leader action decision section to set,
Among the individuals, a surrounding individual information acquisition unit that acquires the behavior of surrounding individuals existing at a predetermined distance or less from the position of the own individual,
When the second winning probability is set, the attribute value is changed to a follower with the probability, and when the attribute value is a follower, a follower action that sets the action parameter similar to the action of the surrounding individual is set. The decision section,
An action determination device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070447A JP6679645B2 (en) | 2018-03-31 | 2018-03-31 | Simulator, simulation method and action determination device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070447A JP6679645B2 (en) | 2018-03-31 | 2018-03-31 | Simulator, simulation method and action determination device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019185074A JP2019185074A (en) | 2019-10-24 |
JP6679645B2 true JP6679645B2 (en) | 2020-04-15 |
Family
ID=68341147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018070447A Active JP6679645B2 (en) | 2018-03-31 | 2018-03-31 | Simulator, simulation method and action determination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6679645B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7441080B2 (en) | 2020-03-05 | 2024-02-29 | セコム株式会社 | Simulator, simulation method and simulation program |
CN111639809B (en) * | 2020-05-29 | 2023-07-07 | 华中科技大学 | Multi-agent evacuation simulation method and system based on leaders and panic emotion |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003346071A (en) * | 2002-05-29 | 2003-12-05 | Advanced Telecommunication Research Institute International | Apparatus, method and program for simulating behavior, and recording medium recording the program |
JP3911511B2 (en) * | 2004-12-21 | 2007-05-09 | 株式会社光栄 | Character group movement control program, storage medium, and game device |
US20090306946A1 (en) * | 2008-04-08 | 2009-12-10 | Norman I Badler | Methods and systems for simulation and representation of agents in a high-density autonomous crowd |
-
2018
- 2018-03-31 JP JP2018070447A patent/JP6679645B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019185074A (en) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lovreglio et al. | Prototyping virtual reality serious games for building earthquake preparedness: The Auckland City Hospital case study | |
KR102034947B1 (en) | Method and terminal for fixing the target in the game scene | |
CN110794968B (en) | Emergency drilling interaction system and method based on scene construction | |
JP2022502112A (en) | Scheduling methods, devices, devices and computer programs for virtual objects in a virtual environment | |
JP6679645B2 (en) | Simulator, simulation method and action determination device | |
KR20140092526A (en) | System and Method for Disaster Evacuation providing Evacuation Simulation | |
Jacobsen et al. | Active personalized construction safety training using run-time data collection in physical and virtual reality work environments | |
US11417106B1 (en) | Crowd evacuation system based on real time perception, simulation, and warning | |
US20170124430A1 (en) | Apparatus, method and program for classifying crowd | |
CN108376198B (en) | Crowd simulation method and system based on virtual reality | |
CN111881625A (en) | Crowd evacuation simulation method and system based on deep reinforcement learning | |
CN113643170A (en) | Big data driven public place crowd gathering evacuation method and device | |
CN112673410B (en) | Earthquake vulnerability analysis system and method for user living space | |
Siddiqui et al. | Employing pedestrian observations in engineering analysis | |
JP7060460B2 (en) | Simulator, simulation method and simulation program | |
JP6679644B2 (en) | Simulator, simulation method and action determination device | |
JP7074580B2 (en) | Simulator, simulation method and simulation program | |
JPH10307864A (en) | Group escape action prediction method | |
JP5418938B2 (en) | Group behavior estimation apparatus and service providing system | |
EP4012663A1 (en) | Image processing device, image processing method, and program | |
Nafea | Simulation of crowd management using deep learning algorithm | |
JP7492840B2 (en) | Simulator, simulation method, and simulation program | |
CN112138394B (en) | Image processing method, image processing device, electronic equipment and computer readable storage medium | |
JP2010136113A (en) | Device, method and program for adjusting imaging parameter, and recording medium | |
JP2021140490A (en) | Simulator, simulation method, and simulation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190423 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6679645 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |