JP2021140490A - Simulator, simulation method, and simulation program - Google Patents
Simulator, simulation method, and simulation program Download PDFInfo
- Publication number
- JP2021140490A JP2021140490A JP2020038113A JP2020038113A JP2021140490A JP 2021140490 A JP2021140490 A JP 2021140490A JP 2020038113 A JP2020038113 A JP 2020038113A JP 2020038113 A JP2020038113 A JP 2020038113A JP 2021140490 A JP2021140490 A JP 2021140490A
- Authority
- JP
- Japan
- Prior art keywords
- action
- agent
- destination
- evaluation value
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims description 138
- 230000009471 action Effects 0.000 claims abstract description 296
- 238000009826 distribution Methods 0.000 claims abstract description 254
- 238000011156 evaluation Methods 0.000 claims abstract description 147
- 238000004364 calculation method Methods 0.000 claims abstract description 67
- 230000008569 process Effects 0.000 claims description 105
- 238000012545 processing Methods 0.000 claims description 33
- 230000001186 cumulative effect Effects 0.000 claims description 10
- 238000005315 distribution function Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 2
- 239000003795 chemical substances by application Substances 0.000 description 460
- 230000003542 behavioural effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 210000003608 fece Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、群集の行動を予測するシミュレータ、シミュレーション方法及びシミュレーションプログラムに関する。 The present invention relates to a simulator, a simulation method and a simulation program for predicting the behavior of a crowd.
近年、大勢の人々が集まる空間について、空間設計やその改善の効果、運用施策の導入やその改善等の効果を予測するために、群集の行動を予測するシミュレータが用いられている。また、そのようなシミュレータで用いる方法の一つとして、群集を構成する個体それぞれをエージェントと呼ばれるデータで表すマルチエージェントシミュレーションが知られている。
一般に、大勢の人々が集まる空間には複数の目的(行動目的)に対してそれを達成できる場所(目的地)が存在し、マルチエージェントシミュレーションではエージェントそれぞれの行動目的と目的地を決定する必要がある。
例えば特許文献1にはT字路の通行者を模した個体それぞれに対してA駅への移動、B駅への移動、観客席への移動等の目的と西側連絡口、東側連絡口、南側連絡口等の移動目標位置とをシミュレータの利用者が予め設定することが記載されている。また、例えば特許文献2には属性がリーダーである個体の選択目的と選択目的に対応する選択エリアを避難・出口エリアと消火・燃焼エリアの中から抽選によって決定することが記載されている。
In recent years, in a space where a large number of people gather, a simulator for predicting the behavior of a crowd has been used in order to predict the effect of space design and its improvement, and the effect of introducing operational measures and their improvement. Further, as one of the methods used in such a simulator, a multi-agent simulation is known in which each individual constituting the community is represented by data called an agent.
In general, in a space where a large number of people gather, there are places (destination) that can achieve multiple purposes (action purposes), and in multi-agent simulation, it is necessary to determine the action purpose and destination of each agent. be.
For example, in
ここで、設計や施策等の試行錯誤を減ずるためにシミュレータには予測精度が要求され、予測精度を左右する要因のひとつに複数の行動目的を持った個体が時間制限の下で達成の可能性を考慮して行う選択(意思決定)がある。例えば、現実世界の劇場の15分休憩において、観客の一人は休憩時間内に確実にグッズを入手すべく買い物を優先してまず売店に向かい、その後用便のための時間が余る可能性が高ければトイレへの移動を予定し、時間が余る可能性が低ければ用便はあきらめるというように、先の行動目的を達成した場合に後の行動目的を達成できる可能性の高低を考えて優先順位決めや取捨選択をして目的地を選ぶ。
しかしながら、従来のシミュレータが行うマルチエージェントシミュレーションでは、各エージェントの行動目的や目的地をシミュレータの利用者が予め設定し、または各時点で抽選していた。このため、従来技術では、複数の行動目的を有するエージェントが時間制限の下で達成の可能性を考慮して行う順序決めと選択を反映した群集行動を模擬することが困難であった。
例えばシミュレータの利用者が予め設定する場合は個体と行動目的の組み合わせの数だけ設定しなければならない上、その一つひとつを先の行動目的と後の行動目的の達成可能性を考慮して設定しなければならない。また、例えば抽選による決定は複数の行動目的と目的地を決めるものではなく、先の行動目的と後の行動目的の達成可能性を考慮して決めるものでもなかった。
Here, prediction accuracy is required for the simulator in order to reduce trial and error in design and measures, and one of the factors that influences prediction accuracy is the possibility that individuals with multiple behavioral objectives can achieve it under a time limit. There is a choice (decision-making) to be made in consideration of. For example, during a 15-minute break in a real-world theater, one of the spectators is likely to prioritize shopping and then head to the store to ensure that goods are available during the break, followed by extra time for the toilet. For example, if you plan to move to the toilet and give up the stool if there is little chance of surplus time, prioritize the possibility of achieving the later action purpose if you achieve the earlier action purpose. Select a destination by making decisions and selections.
However, in the multi-agent simulation performed by the conventional simulator, the user of the simulator sets the action purpose and destination of each agent in advance, or the lottery is performed at each time point. For this reason, in the prior art, it has been difficult to simulate a crowd behavior that reflects the ordering and selection performed by agents having a plurality of behavioral objectives in consideration of the possibility of achievement under a time limit.
For example, when the simulator user sets in advance, the number of combinations of individual and action purpose must be set, and each of them must be set in consideration of the achievability of the first action purpose and the second action purpose. Must be. Further, for example, the decision by lottery does not determine a plurality of action objectives and destinations, nor does it determine the achievability of the earlier action objectives and the later action objectives.
本発明は、上記の問題点を鑑みてなされたものであり、複数の行動目的を有するエージェントが時間制限の下で達成の可能性を考慮して行う順序決めと選択を反映した群集行動を模擬するシミュレータ、シミュレーション方法及びシミュレーションプログラムを目的とする。 The present invention has been made in view of the above problems, and simulates a crowd behavior that reflects the ordering and selection performed by agents having a plurality of behavioral objectives in consideration of the possibility of achievement under a time limit. The purpose is a simulator, a simulation method, and a simulation program.
本発明の一形態によれば、複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて複数の行動目的をそれぞれ達成する行動を模擬するシミュレータが与えられる。シミュレータは、複数の目的地の中から複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択手段と、目的地の組合せ毎に、組み合わせた目的地で複数の行動目的を達成期限までに各々達成する確率の合計を、複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、合計に応じて評価値を算出する評価値算出手段と、目的地の複数の組合せの中から評価値に基づいて選択した目的地の組合せを順次訪れるように移動するエージェントの行動を模擬する行動模擬手段と、を備える。評価値算出手段は、複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を達成期限までに達成する確率を、残り時間の確率密度分布に基づいて予測する。 According to one embodiment of the present invention, an agent having a plurality of action objectives is provided with a simulator that simulates an action in which an agent having a plurality of action objectives achieves a plurality of action objectives at a plurality of destinations in a predetermined space. The simulator achieves a plurality of action objectives at a combination of a combination selection means for selecting a plurality of destination combinations that achieve each of a plurality of action objectives from a plurality of destinations and a combination of destinations. An evaluation value calculation means that predicts the total probability of achieving each by the deadline based on the probability density distribution of each time required to achieve a plurality of action objectives, and calculates the evaluation value according to the total. It is provided with an action simulating means for simulating the behavior of an agent moving so as to sequentially visit a combination of destinations selected based on an evaluation value from a plurality of combinations of destinations. The evaluation value calculation means determines the probability density distribution of the time required for the action purpose to be achieved first among the plurality of action objectives and the probability density distribution of the remaining time according to the achievement deadline, and the action objective to be achieved later is reached until the achievement deadline. Is predicted based on the probability density distribution of the remaining time.
本発明の他の形態によれば、複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて複数の行動目的をそれぞれ達成する行動を模擬するシミュレーション方法が与えられる。シミュレーション方法では、複数の目的地の中から複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択処理と、目的地の組合せ毎に、組み合わせた目的地で複数の行動目的を達成期限までに各々達成する確率の合計を、複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、合計に応じて評価値を算出する評価値算出処理と、目的地の複数の組合せの中から評価値に基づいて選択した目的地の組合せを順次訪れるように移動するエージェントの行動を模擬する行動模擬処理と、をコンピュータが実行する。評価値算出処理において、複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を達成期限までに達成する確率を、残り時間の確率密度分布に基づいて予測する。 According to another aspect of the present invention, a simulation method is provided in which an agent having a plurality of action objectives simulates an action in which an agent having a plurality of action objectives achieves a plurality of action objectives at a plurality of destinations in a predetermined space. In the simulation method, a combination selection process for selecting a plurality of combinations of destinations that achieve each of a plurality of action objectives from a plurality of destinations, and for each combination of destinations, a plurality of action objectives are selected at the combined destinations. Evaluation value calculation processing that predicts the total of the probabilities to be achieved by the achievement deadline based on the probability density distribution of each time required to achieve multiple action objectives, and calculates the evaluation value according to the total. , The computer executes a behavior simulation process that simulates the behavior of an agent who moves so as to sequentially visit a combination of destinations selected based on an evaluation value from a plurality of combinations of destinations. In the evaluation value calculation process, the probability density distribution of the time required for the action purpose to be achieved first among multiple action objectives and the probability density distribution of the remaining time according to the achievement deadline are determined, and the action objective to be achieved later is reached until the achievement deadline. Is predicted based on the probability density distribution of the remaining time.
本発明の更なる他の形態によれば、複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて複数の行動目的をそれぞれ達成する行動を模擬するシミュレーションプログラムが与えられる。シミュレーションプログラムは、複数の目的地の中から複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択処理と、目的地の組合せ毎に、組み合わせた目的地で複数の行動目的を達成期限までに各々達成する確率の合計を、複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、合計に応じて評価値を算出する評価値算出処理と、目的地の複数の組合せの中から評価値に基づいて選択した目的地の組合せを順次訪れるように移動するエージェントの行動を模擬する行動模擬処理と、をコンピュータに実行させる。評価値算出処理において、複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を達成期限までに達成する確率を、残り時間の確率密度分布に基づいて予測する。 According to still another aspect of the present invention, an agent having a plurality of behavioral objectives is provided with a simulation program that simulates an behavior in which an agent having a plurality of behavioral objectives achieves a plurality of behavioral objectives at a plurality of destinations in a predetermined space. The simulation program performs a combination selection process that selects a plurality of combinations of destinations that achieve each of a plurality of action objectives from a plurality of destinations, and multiple action objectives at the combined destinations for each combination of destinations. Evaluation value calculation processing that predicts the total of the probabilities to be achieved by the achievement deadline based on the probability density distribution of each time required to achieve multiple action objectives, and calculates the evaluation value according to the total. , The computer is made to execute an action simulation process that simulates the behavior of an agent that moves so as to sequentially visit a combination of destinations selected based on an evaluation value from a plurality of combinations of destinations. In the evaluation value calculation process, the probability density distribution of the time required for the action purpose to be achieved first among multiple action objectives and the probability density distribution of the remaining time according to the achievement deadline are determined, and the action objective to be achieved later is reached until the achievement deadline. Is predicted based on the probability density distribution of the remaining time.
本発明によれば、複数の行動目的を有するエージェントが時間制限の下で達成の可能性を考慮して行う順序決めと選択を反映した群集行動を模擬することができる。 According to the present invention, it is possible to simulate a crowd behavior that reflects the ordering and selection performed by agents having a plurality of behavioral objectives in consideration of the possibility of achievement under a time limit.
以下において、図面を参照して本発明の実施形態を説明する。なお、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments of the present invention shown below exemplify devices and methods for embodying the technical idea of the present invention, and the technical idea of the present invention includes the structure, arrangement, and the like of components. Is not specified as the following. The technical idea of the present invention may be modified in various ways within the technical scope specified by the claims stated in the claims.
本発明の実施形態として、客席、トイレおよび売店を有する劇場において複数の人が客席、トイレおよび売店を利用する行動を予測するシミュレータの例を示す。
すなわち、本実施形態において、シミュレーションの対象となる空間(対象空間)は劇場であり、群集を構成する個体は人であり、各個体の行動目的は、劇場の座席への「着席」と、「用便」と、「買い物」である。以下、シミュレータにおける個体のデータを「エージェント」と表記する。
As an embodiment of the present invention, an example of a simulator that predicts the behavior of a plurality of people using the audience seats, toilets and shops in a theater having audience seats, toilets and shops is shown.
That is, in the present embodiment, the space (target space) to be simulated is a theater, the individuals constituting the crowd are people, and the action objectives of each individual are "seating" in the theater seat and "sit". "Usage" and "shopping". Hereinafter, individual data in the simulator will be referred to as "agent".
また、この実施形態においては、シミュレーションの実施者(以下「利用者」と表記する)が、シミュレータを用いて幕間時間の群集の行動を予測する例について説明する。また、複数回の幕間時間を経て群集の行動の予測が変化する例について説明する。ちなみに、簡単化のために、幕前、幕後は省略するものとする。
なお、本明細書において説明される劇場は、あくまで対象空間の一例であり、本発明の対象はこれに限定されるものではない。
Further, in this embodiment, an example in which a simulation performer (hereinafter referred to as “user”) predicts the behavior of a crowd during the inter-curricular time using a simulator will be described. In addition, an example in which the prediction of crowd behavior changes after multiple intermission times will be described. By the way, for the sake of simplicity, the pre-curtain and post-curtain are omitted.
The theater described in the present specification is merely an example of the target space, and the subject of the present invention is not limited to this.
(第1実施形態)
(構成)
図1は、第1実施形態に係るシミュレータの一例の概略構成図である。
シミュレータ1は、操作入力部2、ファイル入出力部3、記憶部4、制御部5、および表示部6からなる。これらのうちのファイル入出力部3、記憶部4および制御部5はいわゆるコンピュータで実現でき、操作入力部2および表示部6は当該コンピュータの周辺機器として実現できる。
操作入力部2は、キーボード、マウス等のユーザーインターフェースであり、利用者に操作されてデータの入力等に用いられる。操作入力部2は、制御部5に接続され、利用者の操作を操作信号に変換して制御部5に出力する。
(First Embodiment)
(composition)
FIG. 1 is a schematic configuration diagram of an example of a simulator according to the first embodiment.
The
The
ファイル入出力部3は、DVD(Digital Versatile Disc)ドライブ、USB(Universal Serial Bus)インターフェース、ネットワークインターフェース等であり、一方が不図示の外部機器、記録メディア、ネットワーク等に接続され、他方が制御部5に接続され、データをファイルとして制御部5に入力し、およびデータをファイルとして制御部5から出力する。
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、制御部5と接続されて制御部5との間でこれらの情報を入出力する。
The file input /
The
制御部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。制御部5は、記憶部4と接続され、記憶部4からプログラムを読み出して実行することにより各種処理部として動作し、各種データを記憶部4に記憶させ、読み出す。また、制御部5は、操作入力部2、ファイル入出力部3および表示部6とも接続され、利用者が操作入力部2を操作して入力されたデータを取得し、ファイル入出力部3を介して外部からファイルとしてデータを取得および出力し、所得したデータに基づいたシミュレーションを行って群集の行動を予測し、予測結果のデータをファイルとしてファイル入出力部3から出力させ、および/または予測結果のデータを画像化して表示部6に表示させる。
表示部6は、液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、制御部5と接続され、制御部5による予測結果を表示する。利用者は表示された予測結果を視認して群集の行動に関する考察等を行う。
The
The
(シミュレータ1の機能)
図2は、第1実施形態に係るシミュレータ1の一例の機能ブロック図である。
操作入力部2は、条件設定手段20の一部等として機能し、ファイル入出力部3は条件設定手段20の一部および予測結果出力手段60の一部等として機能する。
記憶部4は模擬条件記憶手段40、空間情報記憶手段41、エージェント情報記憶手段42および統計情報記憶手段43等として機能する。
(Function of simulator 1)
FIG. 2 is a functional block diagram of an example of the
The
The
制御部5は、CPU、DSP、MCU等の演算装置によって記憶部4に格納されたコンピュータプログラムを実行することにより、評価値算出手段50、目的地選択手段51、行動模擬手段52および統計情報更新手段53等として機能する。
条件設定手段20は、シミュレーションに必要な各種条件の入力を受け付け、入力された条件を模擬条件記憶手段40、空間情報記憶手段41、エージェント情報記憶手段42および統計情報記憶手段43に記憶させる。
The
The condition setting means 20 receives input of various conditions necessary for the simulation, and stores the input conditions in the simulated condition storage means 40, the spatial information storage means 41, the agent information storage means 42, and the statistical information storage means 43.
条件設定手段20は、例えば、操作入力部2および制御部5が協働して実現され、利用者が操作入力部2を操作して入力した値を、制御部5が記憶部4に記憶させる。条件設定手段20は、条件の一部または全部が記されたファイルを入力するファイル入出力部3を含んでもよく、利用者が操作入力部2を操作して指定したファイルを制御部5がファイル入出力部3を介して取得して当該ファイルに記された値を記憶部4に記憶させる。
条件設定手段20により入力されて模擬条件記憶手段40が記憶する条件は、例えば、仮想時刻の上限T、行動決定間隔、観測間隔、エージェント基本速さ(1時刻で進もうとする距離)の設定を含む。
The condition setting means 20 is realized, for example, in collaboration with the
The conditions input by the condition setting means 20 and stored by the simulated condition storage means 40 are, for example, the setting of the upper limit T of the virtual time, the action determination interval, the observation interval, and the agent basic speed (distance to advance in one time). including.
第1実施形態のシミュレーションは、仮想時刻を進めながら行われる。例えば、仮想時刻が(T−1)に達するまで仮想時刻を0から1ずつ増加させながら仮想時刻毎にエージェントの情報を更新する処理が繰り返される。操作入力部2にて利用者による終了指示の入力を受け付け、終了指示が入力された時点で強制終了する処理を加えてもよい。
仮想時刻は、実際の時間の経過を模擬したものであるが、シミュレータが1時刻分の演算を終えるたびに進められ、実際の時間の経過よりも高速に刻まれる。例えば、仮想時刻の1時刻を実際の0.1秒間に対応させ、仮想時刻を0から始まり1ずつ増加する整数で表す。
The simulation of the first embodiment is performed while advancing the virtual time. For example, the process of updating the agent information for each virtual time is repeated while increasing the virtual time from 0 to 1 until the virtual time reaches (T-1). The
The virtual time simulates the passage of the actual time, but it is advanced every time the simulator finishes the calculation for one hour, and is ticked at a higher speed than the passage of the actual time. For example, one time of virtual time corresponds to an actual 0.1 second, and the virtual time is represented by an integer starting from 0 and increasing by 1.
空間情報記憶手段41は、対象空間を表す地図情報と、対象空間において達成可能な行動目的を定義する行動目的情報と、対象空間内において行動目的を達成可能な場所である目的地に関する目的地情報を含んだ空間情報を記憶する。なお、対象空間には、少なくとも1つの行動目的に対して、この行動目的を達成できる複数の目的地が存在している。
図3は地図情報100の一例の模式図であり、図4は、行動目的情報110及び目的地情報111の一例を示す図である。これらの空間情報は、目的地情報111に含まれる「キュー」を除いて、条件設定手段20を用いた利用者による入力操作により予め設定される。
The spatial information storage means 41 includes map information representing the target space, action purpose information that defines an action purpose that can be achieved in the target space, and destination information regarding a destination that is a place where the action purpose can be achieved in the target space. Stores spatial information including. In the target space, there are a plurality of destinations capable of achieving this action purpose for at least one action purpose.
FIG. 3 is a schematic diagram of an example of
図3に示す地図情報100において線分は壁を表しており、線分以外の領域が、エージェントが移動可能な移動可能領域である。
またローマ数字I〜Xは、各目的地に付与される目的地IDであり、図3の地図情報100において各目的地の場所を示している。
2重丸印Q1〜Q10は、各目的地I〜Xの位置を表す代表点の位置を示す。実際には領域である目的地I〜Xの位置を、点情報として定義して取り扱いを容易にしている。
丸印Q11〜Q21は、エージェントが壁を回避しながら移動可能領域を移動するために経由できる経由点を示す。移動可能領域でエージェントが移動する経路は、代表点同士、経由点同士、代表点と経由点を結ぶ局所的な経路(以下、「局所経路」と表記する)により定義される。
In the
The Roman numerals I to X are destination IDs given to each destination, and indicate the location of each destination in the
Double circles Q1 to Q10 indicate the positions of representative points representing the positions of the destinations I to X. The positions of destinations I to X, which are actually areas, are defined as point information to facilitate handling.
The circles Q11 to Q21 indicate the waypoints that the agent can pass through to move in the movable area while avoiding the wall. The route on which the agent moves in the movable area is defined by a local route connecting representative points, transit points, and representative points and transit points (hereinafter, referred to as "local route").
図4を参照する。行動目的情報110は、行動目的ID(1〜3)に対応付けて、各行動目的の「行動目的名」を含んでいる。
また、目的地情報111は、目的地ID(I〜X)に対応付けて、各目的地の「目的地名」、「代表点」、「性別制限」、「サービス窓口数」、「達成可能な行動目的」、「サービス時間分布」及び「キュー」を含んでいる。
See FIG. The
Further, the
「目的地名」は、当該目的地の名称である。例えば、目的地Iは「客席」であり、目的地IIは「女子トイレ1」であり、目的地IIIは「女子トイレ2」であり、目的地IVは「男子トイレ1」であり、目的地Vは「男子トイレ2」であり、目的地VI〜Xは「売店1」〜「売店5」である。
「代表点」は、上述した代表点Q1〜Q10のXY座標値である。
The "destination name" is the name of the destination. For example, the destination I is the "audience seat", the destination II is the "women's
The "representative point" is the XY coordinate value of the above-mentioned representative points Q1 to Q10.
「性別制限」は、当該目的地を利用可能なエージェントの属性制限の一つであり、当該目的地を利用可能なエージェントの性別である。
「サービス窓口数」は、当該目的地を同時に利用可能なエージェントの最大数である。以下の説明において「サービス」とは、行動目的の達成のための目的地の利用を意味する。例えば、目的地が「トイレ」であればサービスは用便のための場所の提供であり、目的地が「売店」であればサービスは販売役務である。
"Gender restriction" is one of the attribute restrictions of the agent who can use the destination, and is the gender of the agent who can use the destination.
The "number of service counters" is the maximum number of agents who can use the destination at the same time. In the following description, "service" means the use of a destination to achieve an action purpose. For example, if the destination is a "toilet", the service is to provide a place for stool, and if the destination is a "stand", the service is a sales service.
「達成可能な行動目的」は、当該目的地で達成可能な行動目的である。
「サービス時間分布」は、当該目的地におけるサービスの所要時間(以下「サービス時間」と表記する)を確率分布で表した統計情報である。例えば、サービス時間を正規分布で表したときの平均値と分散が記憶される。サービス時間分布は、当該目的地において各エージェントが行動目的を達成するのに要したサービス時間を決定するのに使用される。
An "achievable purpose of action" is an action purpose that can be achieved at the destination.
The "service time distribution" is statistical information representing the time required for a service at the destination (hereinafter referred to as "service time") as a probability distribution. For example, the mean value and variance when the service time is expressed by a normal distribution are stored. The service time distribution is used to determine the service time required for each agent to achieve its behavioral objective at the destination.
「キュー」は、当該目的地に滞在しているエージェントのエージェントIDを当該目的地への到達順に並べたバッファである。キューは、行動模擬手段52によって逐次更新される。
キュー内の順序がサービス窓口数以下であるエージェントが、目的地においてサービスを受けているエージェントであり、キュー内の順序がサービス窓口数より大きなエージェントが、サービス待ちのエージェントである。また、サービス待ちのエージェントの数が待機数(待ち数)である。
The "queue" is a buffer in which the agent IDs of the agents staying at the destination are arranged in the order of arrival at the destination. The queue is sequentially updated by the behavior simulating means 52.
An agent whose order in the queue is less than or equal to the number of service counters is an agent receiving service at the destination, and an agent whose order in the queue is larger than the number of service counters is an agent waiting for service. The number of agents waiting for service is the number of waits (waiting number).
図4の空間情報111の例では、売店1には4つのエージェント#9、#63、#39、#83が到達しており、サービス窓口数が1であることからキューの先頭のエージェント#9のみがサービスを受けている(例えば、レジで精算している)ことを示す。また、残りのエージェント#63、#39、#83はサービス待ちであり(商品を選んでいるかレジ待ち)、待機数は3であることを示す。
In the example of the
図2を参照する。エージェント情報記憶手段42は、統計情報記憶手段43とともに群集を構成する複数のエージェントのそれぞれに関する情報を記憶する。以下、エージェント情報記憶手段42が記憶する情報を「エージェント情報」と表記する。
図5、図6、図7及び図8に、それぞれエージェント情報120、121、122及び123の一例を示す。各図において数値の横にかぎ括弧で示した文字列は図の見易さを考慮して意味を付記したものである。
例えばエージェント情報120の初期位置において(4.55,14.00)「扉1」と表記した個所に実際に記憶されているのは値(4.55,14.00)であり、それは「扉1」の座標を意味する。なお、以下の説明では、値の表記を省略して代わりに意味で説明する場合もある。
See FIG. The agent information storage means 42 stores information about each of a plurality of agents constituting the crowd together with the statistical information storage means 43. Hereinafter, the information stored in the agent information storage means 42 is referred to as "agent information".
5, FIG. 6, FIG. 7 and FIG. 8 show an example of
For example, at the initial position of the agent information 120 (4.55, 14.00), the value (4.55, 14.00) is actually stored in the place described as "
図5のエージェント情報120は、条件設定手段20を用いた利用者による入力操作により設定される情報の一部である。エージェント情報120としてエージェントID、生成時刻、初期位置及び性別の組合せが記憶される。初期位置は、エージェントの位置の初期値であり、生成時刻にエージェントを生成する位置を示す。
図5の例は、女性のエージェント#1が、「幕間1」内の仮想時刻0に「扉1」の座標に生成されることを示している。また「幕間2」及び「幕間3」については説明を省略する。さらに「幕間4」内の仮想時刻99600に「扉3」の座標に生成されること等を示している。第1実施形態のシミュレーションの例では、同一エージェントが複数回生成されることに注意されたい。
The
The example of FIG. 5 shows that
図6のエージェント情報121も、条件設定手段20を用いた利用者により入力操作によって設定される。エージェント情報121は、エージェントIDと生成時刻の組合せに対応付けて、「行動目的ID」、「達成期限」、「希望達成度」、「終端目的フラグ」、「達成フラグ」の組合せを含んでいる。ただし、これらの情報のうち、達成フラグは行動模擬手段52によって適宜更新される。
The
「行動目的ID」は、各場面(幕間)においてエージェントが対象空間で行動する目的(行動目的)のIDである。各場面において各エージェントに対して複数の行動目的を設定できる。
「達成期限」は、各場面のエージェントの各行動目的に対する達成期限であり、当該エージェントの生成時刻以降の仮想時刻が指定される。
「希望達成度」は、各場面のエージェントの各行動目的の達成に対する優先度合いである。例えば、希望達成度は、行動目的を達成したことによってエージェントが得ることができる主観的な満足度合い(効用)であってよい。希望達成度が高い行動目的ほど優先度合いが高い。
The "action purpose ID" is an ID of the purpose (action purpose) in which the agent acts in the target space in each scene (between the curtains). Multiple action objectives can be set for each agent in each scene.
The "achievement deadline" is the achievement deadline for each action purpose of the agent in each scene, and a virtual time after the generation time of the agent is specified.
The "desired achievement level" is the priority level for the achievement of each action purpose of the agent in each scene. For example, the desired achievement level may be the subjective satisfaction level (utility) that the agent can obtain by achieving the action purpose. The higher the degree of achievement of hope, the higher the priority.
「終端目的フラグ」は、各場面での行動の最後に必ず達成すべき行動目的を示すフラグである。終端目的フラグに値「1」が設定された行動目的は、その達成順序が最後の行動目的であると制約される。一方で、終端目的フラグに値「0」が設定された行動目的は、達成の順序は任意であり且つ達成するか否かは任意である。
「達成フラグ」は、各場面のエージェントの各行動目的が達成されたか否かを表すフラグである。達成フラグの初期値は「0」であり、値「0」は未達成、値「1」は達成済みを示す。
The "termination purpose flag" is a flag indicating the action purpose that must be achieved at the end of the action in each scene. The action purpose for which the value "1" is set in the terminal purpose flag is constrained that the achievement order is the last action purpose. On the other hand, for the action purpose for which the value "0" is set in the terminal purpose flag, the order of achievement is arbitrary and whether or not it is achieved is arbitrary.
The "achievement flag" is a flag indicating whether or not each action purpose of the agent in each scene has been achieved. The initial value of the achievement flag is "0", the value "0" indicates unachieved, and the value "1" indicates achieved.
図6の例は、「幕間1」の「エージェント#1」は、最後に「着席」を達成することを必達条件として、「用便」を「3分後」までに達成し、且つ「着席」と「買い物」を「10分後」までに達成することを目標としており、「着席」「用便」「買い物」の希望達成度はそれぞれ「35」「100」「40」であり、いずれの行動目的も未達成であること等を示している。
In the example of FIG. 6, "
図7のエージェント情報122は時刻毎に生成される情報である。エージェント情報122は、エージェントIDと仮想時刻との組合せに対応付けて、「目的地ID」、「局所経路」、「移動速度」、「位置」および「状況」の組合せを含む。
「目的地ID」は、仮想時刻が示す時点の各エージェントが移動の目標としている目的地のIDを示す。なお、第1実施形態のシミュレータ1の例では、生成時刻における目的地IDは空欄としている。
「局所経路」は、仮想時刻が示す時点の各エージェントが移動している局所経路を示す。なお、第1実施形態のシミュレータ1の例では、生成時刻および移動していない時刻における局所経路は空欄としている。
The
The "destination ID" indicates the ID of the destination that each agent at the time indicated by the virtual time is the target of the movement. In the example of the
“Local route” indicates the local route to which each agent is moving at the time indicated by the virtual time. In the example of the
「移動速度」は、仮想時刻が示す時点の各エージェントが単位時間(1仮想時刻)で移動しようとする移動量を示す。図7のエージェント情報122の例では移動速度をベクトルで表現している。
移動速度は、あくまで各エージェントが意図する移動量であって、必ずしも仮想時刻が示す時点にエージェントが移動する移動量と一致するとは限らない。例えば、エージェント間の物理的な制約等によって、現時刻の位置が前時刻の位置に現時刻の移動速度を加えた値にならない場合もある。
また、便宜上、生成時刻における移動速度と、目的地に到達してから当該目的地で達成可能な行動目的を達成するまでの移動速度は0ベクトルとする。
The "movement speed" indicates the amount of movement that each agent at the time indicated by the virtual time tries to move in a unit time (1 virtual time). In the example of the
The movement speed is just the amount of movement intended by each agent, and does not necessarily match the amount of movement that the agent moves at the time indicated by the virtual time. For example, due to physical restrictions between agents, the current time position may not be the value obtained by adding the current time movement speed to the previous time position.
Further, for convenience, the moving speed at the generation time and the moving speed from reaching the destination to achieving the action purpose achievable at the destination are set to 0 vectors.
「位置」は、仮想時刻が示す時点の各エージェントの対象空間における位置である。各エージェントの位置の初期値は、上述したエージェント情報120を参照して当該エージェントの生成時刻に設定された初期位置である。
目的地に到達してから当該目的地で達成可能な行動目的を達成するまでは目的地の代表点の座標が設定される。
The "position" is the position in the target space of each agent at the time indicated by the virtual time. The initial value of the position of each agent is the initial position set at the generation time of the agent with reference to the
The coordinates of the representative point of the destination are set from the time when the destination is reached until the action purpose that can be achieved at the destination is achieved.
「状況」は、仮想時刻が示す時点の各エージェントの状況であり、取り得る値は「移動中」「待機中」「処理中」「達成」である。
「移動中」は、目的地に未到達であり移動中であることを示す。
「待機中」は、目的地に到達したがサービス待ちであることを示す。
「処理中」は、目的地にてサービスを受けていることを示す。
「達成」は、目的地にてサービスを受け終わり行動目的を達成したことを示す。
第1実施形態のシミュレータ1の例では、便宜上、生成時刻における状況として「達成」を指定する。
The "status" is the status of each agent at the time indicated by the virtual time, and the possible values are "moving", "waiting", "processing", and "achieved".
"Moving" indicates that the destination has not been reached and is moving.
"Waiting" indicates that the destination has been reached but is waiting for service.
"Processing" indicates that the service is being received at the destination.
"Achievement" indicates that the service has been received at the destination and the action purpose has been achieved.
In the example of the
図7の例は、シミュレーション終了時点のエージェント情報122を例示している。
例えば「幕間1」の「エージェント#1」が「女子トイレ1」「売店2」「客席」の順に移動して、時刻「2909」「2969」において「売店2」「客席」で行動目的を達成したことが、その間の各時刻の移動速度、位置および状況とともに記録されている
また、その過程において、時刻「1322」から「2686」まで「売店2」でサービス待ちであったこと、時刻「2687」から「2908」までサービスを受けたことが記録されている。
The example of FIG. 7 illustrates the
For example, "
図8のエージェント情報123はサービスを受け終わったか否かを判定するために、行動模擬手段52により必要に応じて生成される。エージェント情報123は、エージェントIDに対応付けて、サービス完了時刻を含んでいる。エージェント情報123に含まれている情報は、該当するエージェントが現時刻の目的地でサービスを受けている間、保持され、サービスが完了すると消去される。
The
「エージェントID」は、目的地でサービスを受けているエージェント(つまり状況が「処理中」のエージェント)を示す。サービスを受けている目的地はエージェント情報122により特定できる。
「サービス完了時刻」は、当該目的地にて当該エージェントがサービスを受け終わる時刻である。
図8のエージェント情報123には、図4の空間情報111に例示した売店1〜5のキューの先頭のエージェント#9、#34、#76、#5、#36などに対してサービス完了時刻が保持されている。
The "agent ID" indicates an agent receiving service at the destination (that is, an agent whose status is "in process"). The destination receiving the service can be specified by the
The "service completion time" is the time when the agent finishes receiving the service at the destination.
In the
エージェント情報121に含まれる達成フラグ、並びに、エージェント情報122に含まれる位置および状況は、状態値の一例であり、エージェントの状態を表す。
エージェント情報121に含まれる行動目的、行動目的毎の達成期限、行動目的毎の希望達成度および行動目的毎の終端目的フラグ、並びに、エージェント情報122に含まれる目的地、局所経路および移動速度は、行動パラメータの一例である。行動パラメータは、エージェントの状態値に作用するパラメータである。
なお、図5〜図8に示したエージェント情報120、121、122及び123は、あくまで一例であり、本発明のエージェント情報の構成はこれに限定されるものではない。
The achievement flag included in the
The action purpose included in the
The
図2を参照する。統計情報記憶手段43はエージェント情報記憶手段42とともに、群集を構成する複数のエージェントのそれぞれに関する情報を記憶する。
統計情報記憶手段43が記憶する情報は、各目的地において行動目的を達成するのに要する所要時間に関する統計情報である。かかる統計情報を、エージェント毎に記憶することにより、実世界の各個体が所要時間について有する知識の違いを模擬することができる。すなわち、統計情報記憶手段43は、エージェント毎に、複数の目的地で行動目的を達成するのに要する各々の所要時間に関する統計情報を記憶する。
See FIG. The statistical information storage means 43, together with the agent information storage means 42, stores information about each of the plurality of agents constituting the crowd.
The information stored in the statistical information storage means 43 is statistical information regarding the time required to achieve the action purpose at each destination. By storing such statistical information for each agent, it is possible to simulate the difference in knowledge that each individual in the real world has about the required time. That is, the statistical information storage means 43 stores statistical information regarding each required time required to achieve the action purpose at a plurality of destinations for each agent.
行動目的毎の所要時間は、目的地に至る移動時間と、目的地における待ち時間と、目的地におけるサービス時間の和であると定義する。
目的地における待ち時間は、当該目的地における待ち数を当該目的地のサービス窓口数で除した結果と、サービス時間との積で算出されるとモデル化する。
The time required for each action purpose is defined as the sum of the travel time to the destination, the waiting time at the destination, and the service time at the destination.
The waiting time at the destination is modeled as being calculated by dividing the number of waits at the destination by the number of service counters at the destination and the product of the service time.
また、目的地に至る移動時間は、目的地に至る各局所経路の経路長を当該局所経路の移動速度で除した結果を総和することによって算出されるとモデル化される。
このため、統計情報記憶手段43は、エージェント毎に、目的地毎の待ち数の確率分布(待ち数分布)、目的地毎のサービス時間の確率分布(サービス時間分布)、局所経路毎の移動速度の確率分布(移動速度分布)を統計情報として記憶している。
例えば待ち数分布、サービス時間分布、移動速度分布のそれぞれを正規分布でモデル化する。そして各分布を観測値で更新するために待ち数分布、サービス時間分布、移動速度分布のそれぞれの正規分布のパラメータの同時確率分布を用いる。統計情報記憶手段43は、待ち数分布、サービス時間分布、移動速度分布のそれぞれ同時確率分布のパラメータである平均値μ、自由度ν、仮説的標本数κ、尺度母数λの4パラメータを記憶する。同時確率分布をΝ・χ―2(μ,ν,κ,λ)と表記する。
Further, the travel time to the destination is modeled as being calculated by summing up the results obtained by dividing the route length of each local route to the destination by the travel speed of the local route.
Therefore, the statistical information storage means 43 has a probability distribution of the number of waits for each destination (wait number distribution), a probability distribution of service time for each destination (service time distribution), and a movement speed for each local route for each agent. The probability distribution (movement speed distribution) of is stored as statistical information.
For example, each of the waiting number distribution, the service time distribution, and the moving speed distribution is modeled by a normal distribution. Then, in order to update each distribution with the observed value, the joint probability distribution of the parameters of each normal distribution of the waiting number distribution, the service time distribution, and the moving speed distribution is used. The statistical information storage means 43 stores four parameters of the mean value μ, the degree of freedom ν, the hypothetical sample number κ, and the scale parameter λ, which are the parameters of the simultaneous probability distribution of the waiting number distribution, the service time distribution, and the moving speed distribution. do. The joint probability distribution is expressed as Ν ・ χ- 2 (μ, ν, κ, λ).
これら待ち数分布、サービス時間分布および移動速度分布の初期値は、条件設定手段20を介して予め設定される。初期値は、経験や一般常識、実測した統計情報などを基に作成してよい。全エージェントに共通の初期値としてもよいし、エージェント毎に異なる初期値としてもよい。
また、エージェントと所要時間の組合せの一部を設定せず、当該組合せについて統計情報記憶手段43が記憶しない初期設定としてもよい。これにより、例えばエージェント#1が売店4の存在を知らないというような、実世界の個体における知識の欠落を模擬することができる。
本実施形態では、エージェント毎に各行動目的に対応する1以上の目的地に関する分布(待ち数分布、及びサービス時間分布)の初期値を記憶する初期設定とする。記憶される目的地は事前のランダム抽選により決定しておく。また、本実施形態では、局所経路に関してはエージェントと局所経路の全組合せについて局所経路に関する分布(移動速度分布)の初期値を記憶する初期設定とする。
また、本実施形態において統計情報記憶手段43は、エージェント毎の情報とは別に、目的地毎に当該目的地に関する分布の初期値を記憶する。この情報は各エージェントが目的地を初めて観測したときの初期値として利用される。
The initial values of the waiting number distribution, the service time distribution, and the moving speed distribution are preset by the condition setting means 20. The initial value may be created based on experience, common sense, actually measured statistical information, and the like. The initial value may be common to all agents, or may be different for each agent.
Further, a part of the combination of the agent and the required time may not be set, and the initial setting may be set so that the statistical information storage means 43 does not store the combination. This makes it possible to simulate the lack of knowledge in a real-world individual, for example,
In the present embodiment, the initial setting is set to store the initial value of the distribution (waiting number distribution and service time distribution) related to one or more destinations corresponding to each action purpose for each agent. The destination to be stored is determined by a random lottery in advance. Further, in the present embodiment, for the local route, the initial setting for storing the initial value of the distribution (movement speed distribution) for the local route is set for all combinations of the agent and the local route.
Further, in the present embodiment, the statistical information storage means 43 stores the initial value of the distribution related to the destination for each destination, separately from the information for each agent. This information is used as an initial value when each agent first observes the destination.
後述するように、各エージェントの統計情報は、当該エージェントの行動に伴って得られる観測値によって個々に更新及び参照される。これにより、実世界において個体の経験知が個々に異なるがごとく、仮想時間が経過するに従って互いに異なるものとなる。
また、統計情報記憶手段43は、エージェントと所要時間の組合せのうちの記憶していない組合せについて(すなわち、エージェントが知らない目的地や局所経路について)、観測値が得られた時点で追加して記憶することで、実世界の個体における新たな知識の獲得を模擬してもよい。
As will be described later, the statistical information of each agent is individually updated and referred to by the observation values obtained with the behavior of the agent. As a result, just as the empirical knowledge of individuals differs from one another in the real world, they become different from each other as the virtual time elapses.
Further, the statistical information storage means 43 adds the unmemorized combination of the agent and the required time combination (that is, the destination or local route that the agent does not know) when the observed value is obtained. By memorizing, the acquisition of new knowledge in an individual in the real world may be simulated.
図9に、統計情報記憶手段43に記憶される統計情報130及び131の一例を示す。
統計情報130は、エージェントIDと目的地IDの組合せに対応付けられた「待ち数分布」と「サービス時間分布」を含む。
「待ち数分布」と「サービス時間分布」は、それぞれ当該エージェントが、当該目的地について記憶している「待ち数分布」と「サービス時間分布」の同時確率分布である。
図9の統計情報130の例では、エージェント#1について、客席、女子トイレ1、男子トイレ1、売店1、売店2および売店3の待ち数分布およびサービス時間分布が記憶され、女子トイレ2、男子トイレ2、売店4および売店5の分布は記憶されていない。
統計情報131は、エージェントIDと局所経路の組合せに対応付けられた「移動速度分布」を含む。「移動速度分布」は、当該エージェントが、当該局所経路について記憶している「移動速度分布」の同時確率分布である。
FIG. 9 shows an example of
The
The "waiting number distribution" and the "service time distribution" are joint probability distributions of the "waiting number distribution" and the "service time distribution" that the agent stores for the destination, respectively.
In the example of the
図2を参照する。評価値算出手段50は、各場面(幕間)において各エージェントが行動目的を達成する目的地を選択するにあたって選択の基準とする評価値を算出する。
上記の通り、各場面においてエージェントが達成すべき行動目的が複数設定することがあるため、各場面において達成すべき行動目的は、複数設定された行動目的の順列(以下「行動パターン」と表記する)によって表現される。
また、同じ行動目的を達成できる複数の目的地が存在することがある。この場合には各々行動目的を達成する目的地には複数の選択肢がある。
評価値算出手段50は、各行動パターンに対して選択しうる目的地の選択肢毎に評価値を算出する。そして、エージェントと選択肢と評価値とを対応付けた評価値情報を目的地選択手段51に出力する。なお、行動パターンに対して選択しうる目的地の選択肢は目的地の順列となり、以下その順列を「目的地パターン」と表記する。
See FIG. The evaluation value calculation means 50 calculates an evaluation value as a criterion for selection when each agent selects a destination that achieves an action purpose in each scene (between curtains).
As described above, since a plurality of action objectives to be achieved by an agent may be set in each scene, the action objectives to be achieved in each scene are expressed as a permutation of a plurality of set action objectives (hereinafter referred to as "action pattern"). ).
In addition, there may be multiple destinations that can achieve the same purpose of action. In this case, there are multiple options for the destination to achieve each action purpose.
The evaluation value calculation means 50 calculates an evaluation value for each destination option that can be selected for each action pattern. Then, the evaluation value information in which the agent, the option, and the evaluation value are associated with each other is output to the destination selection means 51. The destination options that can be selected for the behavior pattern are permutations of destinations, and the permutations are hereinafter referred to as "destination patterns".
そのために、まず、評価値算出手段50は行動パターンの情報を生成する。具体的には、評価値算出手段50は、エージェント情報121に記憶されているエージェントIDと生成時刻(各場面)の組合せのうち達成フラグが0である行動目的IDを有する各組合せについて、当該組合せに対応付けられた行動目的IDの中から達成フラグが0である行動目的IDを順に並べた順列を生成する。ただし、評価値算出手段50は、終端目的フラグが設定された行動目的を順列の最後に設定する。
例えば、図6のエージェント情報121におけるエージェント#1であれば、仮想時刻が0の時の行動パターンは、P1={用便,買い物,着席}、P2={買い物,用便,着席}、P3={用便,着席}、P4={買い物,着席}、P5={着席}の5通りとなる。
Therefore, first, the evaluation value calculating means 50 generates information on the behavior pattern. Specifically, the evaluation value calculation means 50 uses the combination of the agent ID and the generation time (each scene) stored in the
For example, in the case of
次に、評価値算出手段50は目的地パターンの情報を生成する。具体的には、評価値算出手段50は、各行動パターンについて、空間情報111において「達成可能な行動目的」が当該行動パターンの各要素と合致し、性別制限を満たし、当該行動パターンが生成されたエージェントの統計情報130に記憶されている目的地IDを、当該行動パターンの各要素に対する目的地IDの選択肢とする。そして、評価値算出手段50は、各行動パターンについて、当該行動パターンの各要素に対して取得した選択肢から目的地IDを1つずつ選択し、選択された目的地IDを当該行動パターンの各要素の順で並べた目的地IDの順列を目的地パターンとして生成する。評価値算出手段50は、特許請求の範囲に記載の「組合せ選択手段」の一例である。
例えば、図6のエージェント情報121における幕間1のエージェント#1の行動パターンP1={用便,買い物,着席}に対し、図4の空間情報111および図9の統計情報130を参照して生成される目的地パターンは、M11={女子トイレ1,売店1,客席}、M12={女子トイレ1,売店2,客席}、M13={女子トイレ1,売店3,客席}の3通りとなる。
Next, the evaluation value calculating means 50 generates information on the destination pattern. Specifically, in the evaluation value calculating means 50, for each behavior pattern, the "achievable behavioral purpose" in the
For example, for the action pattern P 1 = {toilet, shop, seating} of the
そして、評価値算出手段50は、目的地パターン毎の評価値Eを次式(1)〜(4)に従って算出する。
式(1)において、Piは評価値を算出する対象のエージェントの各場面での行動パターンのうちi番目の行動パターンであり、Mijは行動パターンPiに対応する目的地パターンのうちのj番目の目的地パターンであり、Niは行動パターンPiに含まれる行動目的数である。
Pisは、行動パターンPiの第s要素(すなわちs番目に実行する行動目的)を示す。
mijsは、目的地パターンMijの第s要素(すなわちs番目の目的地)を示す。
p(Pis,mijs)は、行動目的Pisの達成期限までに、行動目的Pisを目的地mijsで達成する確率である。以下、この確率を成功確率と称する。上記の通り、行動目的Pisの達成期限は、エージェント情報121として設定されており、図6に示すとおり、エージェント毎に、各場面で達成すべき行動目的の行動目的ID毎にそれぞれ達成期限が指定されている。成功確率p(Pis,mijs)の算出方法の詳細は後述する。
In the formula (1), P i is the i-th action patterns of behavior patterns in each scene of the target agent to calculate the evaluation value, M ij is one of the destinations pattern corresponding to the action pattern P i it is the j-th destination pattern, N i is the number of action purposes is included in the behavior pattern P i.
P IS shows a first s elements of behavior pattern P i (i.e. behavioral purpose of performing the s th).
mijs indicates the s element (that is, the sth destination) of the destination pattern M ij.
p (P is, m ijs) is, until the deadline for achieving behavior purpose P is, is the probability to achieve at the destination m ijs the action purpose P is. Hereinafter, this probability is referred to as a success probability. As described above, the achievement deadline of the action purpose Pis is set as the
式(1)においてV(Pis)は、行動目的Pisの希望達成度である。上記の通り、希望達成度V(Pis)は、エージェント情報121として設定されており、図6に示すとおり、エージェント毎に、各場面で達成すべき行動目的の行動目的ID毎にそれぞれ希望達成度V(Pis)が指定されている。
例えば、図6のエージェント情報121における幕間1のエージェント#1の行動パターンP1に対する希望達成度は、s=1のとき100、s=2のとき40、s=3のとき35である。
In the formula (1), V ( Pis ) is the desired achievement degree of the action purpose Pis. As described above, the desired achievement level V ( Pis ) is set as the
For example, in the
つまり、評価値は達成しようとする複数の行動目的に対応した各目的地の成功確率を当該目的地に対応する行動目的の希望達成度で重み付けて総和して算出できる。
なお、別の実施形態として希望達成度による重み付けを省略することもできる。
また、さらに別の実施形態として、重み付け成功確率の総和、または成功確率の総和に代えて、重み付け成功確率の積、または成功確率の積など、成功確率が高いほど評価値が高くなる他の増加関数を定義して用いることもできる。
That is, the evaluation value can be calculated by weighting the success probability of each destination corresponding to a plurality of action objectives to be achieved by the desired achievement degree of the action objective corresponding to the destination and summing them up.
As another embodiment, weighting based on the desired achievement level can be omitted.
Further, as yet another embodiment, the evaluation value becomes higher as the success probability is higher, such as the product of the weighted success probabilities or the product of the success probabilities instead of the sum of the weighted success probabilities or the sum of the success probabilities. Functions can also be defined and used.
式(1)についての上記説明をまとめると次のようになる。
評価値算出手段50は、エージェント毎に、統計情報記憶手段43に記憶された統計情報に基づいて、行動目的Pisの達成期限までに複数の目的地mijsで行動目的Pisを達成する各々の成功確率p(Pis,mijs)を予測し、成功確率p(Pis,mijs)に応じて評価値Eを算出する。
このとき、複数の行動目的Pisを達成しようとするエージェントの目的地を選択するために、複数の目的地mijsの中から複数の行動目的Pisの各々を達成する目的地mijsの組合せである目的地パターンMijを複数選択して、目的地パターンMijに属する目的地mijsで複数の行動目的Pisをそれぞれ達成する確率p(Pis,mijs)に応じて評価値Eを算出する。
また、評価値算出手段50は、行動目的に対する優先度をエージェント毎に異ならせたことに関連して、エージェントによる優先度の違いに応じた目的地選択を可能とするために、複数の行動目的Pisの各々を達成する確率p(Pis,mijs)を複数の行動目的の希望達成度V(Pis)で重み付けて評価値Eを算出する。
The above description of equation (1) can be summarized as follows.
Evaluation value calculating means 50, for each agent, based on the statistical information stored in the statistical
In this case, in order to select the destination of the agent to try to achieve a plurality of behavior purpose P is, the combination of the destination m ijs to achieve each of the plurality of behavior purpose P is from among a plurality of destination m ijs the destination pattern M ij is to select multiple, probability p (P is, m ijs) to achieve a plurality of actions the object P iS destinations m ijs belonging to the destination pattern M ij evaluation value according to E Is calculated.
Further, the evaluation value calculating means 50 has a plurality of action objectives in order to enable the agent to select a destination according to the difference in priority in relation to different priorities for the action objectives for each agent. probability p (P is, m ijs) to achieve each of the P iS calculates an evaluation value E by weighted in the plurality of action object desired achievement V (P is).
以下、式(2)〜(4)が示す成功確率p(Pis,mijs)の算出方法について一例を説明する。
はじめに、評価値算出手段50は、式(3)及び式(4)を利用するために、目的地パターンMijに含まれる各目的地(mij1,mij2,…)において、各行動目的(Pi1,Pi2,…)を実行する場合の所要時間Tdの確率分布である所要時間分布(f1(Td),f2(Td),…)を算出する。
Hereinafter, formula (2) to (4) of success probability p (P is, m ijs) illustrating a method of calculating the illustrating an example.
First, evaluation
ここで、所要時間分布fs(Td)は、s−1番目の目的地mij(s−1)からs番目の目的地mijsまで移動する際の移動時間分布と、目的地mijsでの待ち時間分布と、目的地mijsでの行動目的の達成に係るサービス時間分布の和で定義される。ただし、mij0はエージェントの現在位置である。
また、同時確率分布のパラメータ(平均値μ、自由度ν、仮説的標本数κ、尺度母数λ)とそれが表す正規分布N(μ,σ2)の間には分散σ2=λ/(ν−2)の関係がある。
また、各分布を正規分布で表した場合、和の分布の平均値は元の分布の平均値同士の和となり、和の分布の分散は元の分布の分散同士の和となる。
Here, the required time distribution f s (T d ) is the movement time distribution when moving from the s -1st destination mij (s-1) to the sth destination mijs, and the destination mijs. It is defined by the sum of the waiting time distribution at the destination and the service time distribution related to the achievement of the action purpose at the destination mijs. However, mij0 is the current position of the agent.
In addition, the variance σ 2 = λ / between the parameters of the simultaneous probability distribution (mean value μ, degree of freedom ν, hypothetical sample number κ, scale population λ) and the normal distribution N (μ, σ 2) represented by it. There is a relationship of (ν-2).
When each distribution is represented by a normal distribution, the average value of the sum distribution is the sum of the mean values of the original distribution, and the variance of the sum distribution is the sum of the variances of the original distribution.
fs(Td)の算出のために評価値算出手段50は移動時間分布を算出する。評価値算出手段50は、目的地mij(s−1)から目的地mijsまでに経由する局所経路の移動速度分布の同時確率分布のパラメータを統計情報記憶手段43が記憶している処理対象のエージェントの統計情報131の中から読み出し、読み出したパラメータから各局所経路の移動速度分布を表す正規分布を導出する。評価値算出手段50は、各局所経路の移動速度分布における速度軸を当該局所経路の距離との除算で時間軸に変換することにより各局所経路の移動時間分布を得、これら局所経路の移動時間分布を総和して目的地までの移動時間分布を算出する。
The evaluation value calculating means 50 calculates the travel time distribution for the calculation of f s (T d). The evaluation value calculation means 50 is a processing target in which the statistical information storage means 43 stores the parameters of the joint probability distribution of the movement speed distribution of the local route passing from the destination mij (s-1) to the destination mijs. It is read from the
fs(Td)の算出のために評価値算出手段50は待ち時間分布も算出する。評価値算出手段50は、目的地mijsの待ち数分布とサービス時間分布の同時確率分布のパラメータを統計情報記憶手段43が記憶している処理対象のエージェントの統計情報130の中から読み出すとともに目的地mijsのサービス窓口数を読み出す。評価値算出手段50は、読み出したパラメータから待ち数分布とサービス時間分布を表す正規分布を導出する。評価値算出手段50は、待ち数分布の平均値(これが待ち数となる)を読み出したサービス窓口数で除した結果にサービス時間分布を乗じて待ち時間分布を算出する。なお、平均値に代えて最頻値を用いてもよく、或いは待ち数分布が示す確率で当選するランダム抽選により決定した値を用いてもよい。また、目的地の待ち数は、処理対象のエージェントが現時刻に観測した値とすることもできる(該当する観測値が得られている場合に限る)。また、数時刻の間、目的地の待ち数の観測値を記憶部4に保持し、保持している値を利用してもよい。
The evaluation value calculating means 50 also calculates the waiting time distribution for the calculation of f s (T d). The evaluation value calculation means 50 reads out the parameters of the joint probability distribution of the waiting number distribution and the service time distribution of the destination mijs from the
fs(Td)の算出のために評価値算出手段50はサービス時間分布も算出する。評価値算出手段50は、目的地mijsのサービス時間分布の同時確率分布のパラメータを統計情報記憶手段43が記憶している処理対象のエージェントの統計情報130の中から読み出し、読み出したパラメータからサービス時間分布を表す正規分布を導出する。
そして、評価値算出手段50は、sごとの移動時間分布と待ち時間分布とサービス時間分布との和を当該sについての所要時間分布fs(Td)として算出する。
The evaluation value calculating means 50 also calculates the service time distribution for the calculation of f s (T d). The evaluation value calculation means 50 reads out the parameters of the joint probability distribution of the service time distribution of the destination mijs from the
Then, the evaluation value calculating means 50 calculates the sum of the travel time distribution, the waiting time distribution, and the service time distribution for each s as the required time distribution f s (T d ) for the s.
次に、評価値算出手段50は、式(4)に従って行動目的Pisの達成期限Tlim(PiS)までの残り時間Tr(Pis)を算出する。
s=1のときの残り時間、すなわち、行動パターンPiの1番目の行動目的Pi1の達成期限Tlim(Pi1)までの残り時間Tr(Pi1)はスカラとなる。評価値算出手段50は、s=1の場合、達成期限Tlim(Pi1)から現在時刻tcを減じた差を残り時間Tr(Pi1)として算出する。
s>1のときの残り時間、すなわち、行動パターンPiの2番目以降の行動目的Pi2、Pi3、…の達成期限までの残り時間は確率分布となる。つまり、2番目以降の行動目的Pi2、Pi3、…を達成するために残された時間は、その行動目的よりも前に実行される行動目的の所要時間T1 d,…,Ts−1 dに左右され、行動目的の所要時間T1 d,…,Ts−1 dは各々所要時間分布f1(Td)〜fs−1(Td)に従う確率変数として定義されるから、2番目以降の行動目的Pi2、Pi3、…の残り時間Trもまた確率分布に従う確率変数として算出される。この確率分布を残り時間分布gs(Tr)と定義する。なお、所要時間分布が正規分布である本実施形態においては、残り時間分布もまた正規分布となる。
評価値算出手段50は、s>1の場合、s番目の行動目的Pisの達成期限Tlim(Pis)と現在時刻tcとの差を求め、さらに1番目からs−1番目の行動目的Pi1〜Pi(s−1)の達成にかかる所要時間分布f1(Td)〜fs−1(Td)の総和を求める。求めた分布を総和分布と称する。そして、評価値算出手段50は、上記差から上記総和分布の平均値を減じた値と、上記総和分布の分散を用いて残り時間分布gs(Tr)を算出する。つまり、残り時間分布gs(Tr)の平均値は上記差から上記総和分布の平均値を減じた値であり、残り時間分布gs(Tr)の分散は上記総和分布の分散である。
Then, evaluation
The remaining time in the case of s = 1, ie, the deadline for achieving T lim (P i1) remaining up to the time T r (P i1) of the first action purpose P i1 of behavior patterns P i is a scalar. When s = 1, the evaluation value calculating means 50 calculates the difference obtained by subtracting the current time t c from the achievement deadline Trim ( Pi 1 ) as the remaining time Tr (P i 1 ).
s> remaining time of the time of 1, ie, the second and subsequent behavior purpose of behavior pattern P i P i2, P i3, ... time remaining until the deadline for achieving is the probability distribution of. That is, the time left to achieve the second and subsequent action objectives Pi2, Pi3, ... Is the time required for the action objective executed before the action objective T 1 d , ..., T s-. Because it depends on 1 d , the required time T 1 d , ..., T s-1 d for the action purpose are defined as random variables according to the required time distributions f 1 (T d ) to f s-1 (T d), respectively. The remaining time Tr of the second and subsequent action objectives Pi2, Pi3, ... Is also calculated as a random variable according to the probability distribution. This probability distribution is defined as the remaining time distribution g s ( Tr). In the present embodiment in which the required time distribution is a normal distribution, the remaining time distribution is also a normal distribution.
Evaluation value calculating means 50, s>
次に、評価値算出手段50は、式(2)及び式(3)に従って成功確率p(Pis,mijs)を算出する。成功確率は、達成期限までに行動目的を達成する確率であるから「行動目的を達成するまでの所要時間が残り時間以下になる確率」と定義できる。 Then, evaluation value calculating means 50 calculates the success probability p (P is, m ijs) a according to equation (2) and (3). Since the success probability is the probability of achieving the action purpose by the achievement deadline, it can be defined as "the probability that the time required to achieve the action purpose is less than the remaining time".
s=1の場合、式(4)により算出した残り時間Tr(Pi1)がスカラであるから、式(3)が表す値Fs(Tr)も式(2)が表す成功確率p(Pi1,mij1)もスカラとなる。具体的には、評価値算出手段50は、所要時間分布fs(Td)が表す確率密度を所要時間Tdについて−∞から残り時間Trの範囲で積分して得られる積分値Fs(Tr)を成功確率p(Pi1,mij1)として算出する。
本実施形態においては、積分値Fs(Tr)は、所要時間分布fs(Td)が正規分布であるため、式(3)に示すように所要時間分布fs(Td)の平均値μと分散σ2と残り時間Tr(式(4)により算出したTr(Pi1))とから算出することができる。式(3)におけるerfは誤差関数である。そして、式(2)に示すように、式(3)で算出した積分値Fs(Tr)がそのまま成功確率p(Pi1,mij1)となる。
図10の(a)は、1番目の行動目的Pi1の達成に要する所要時間分布f1(Td)の一例を示し、図10の(b)は、所要時間分布f1(Td)の累積分布関数F1(Tr)を示す。図中のμ1は所要時間分布f1(Td)の平均値であり、所要時間がTr(Pi1)のときの累積分布関数F1(Tr)の値が成功確率p(Pi1,mij1)である。
When s = 1, since the remaining time Tr ( Pi1 ) calculated by the equation (4) is a scalar, the value F s ( Tr ) represented by the equation (3) is also the success probability p represented by the equation (2). (P i1, m ij1) also becomes a scalar. Specifically, the evaluation value calculating means 50 integrates the probability density represented by the required time distribution f s (T d ) with respect to the required time T d in the range of −∞ to the remaining time Tr , and is an integrated value F s. (T r) is calculated as the success probability p (P i1, m ij1) .
In the present embodiment, the integrated value F s (T r), since the required time distribution f s (T d) is a normal distribution, the time required as shown in equation (3) distribution f s of (T d) It can be calculated from the average value μ, the variance σ 2, and the remaining time Tr (Tr ( Pi1 ) calculated by the equation (4)). The erf in equation (3) is an error function. Then, as shown in equation (2), the equation (3) integral value calculated in F s (T r) is as success probability p (P i1, m ij1) .
FIG. 10 (a) shows an example of the required time distribution f 1 (
s>1の場合、式(4)により算出した残り時間Tr(Pis)は分布gs(Tr)になる。このため、成功確率p(Pis,mijs)は、式(2)に示すように、s−1番目までの行動目的を終えた時点での残り時間がTr(Pis)となる確率gs(Tr)に、残り時間Tr(Pis)でs番目の行動目的を達成できる確率Fs(Tr)を乗じて得られる確率を残り時間Trについて−∞から∞の範囲まで積分して得られる値となる。その際の確率Fs(Tr)は式(3)で算出される。 When s> 1, the remaining time Tr ( Pis ) calculated by the equation (4) becomes the distribution g s ( Tr ). Therefore, success probability p (P is, m ijs), as shown in equation (2), the probability that the remaining time at the End of behavioral interest to s-1 th is T r (P IS) The probability obtained by multiplying g s ( Tr ) by the probability F s ( Tr ) of achieving the sth action objective with the remaining time Tr ( Pis) is in the range of −∞ to ∞ for the remaining time Tr. It is a value obtained by integrating up to. The probability F s ( Tr ) at that time is calculated by the equation (3).
この数式は解析的に解くことができないため、第1実施形態の評価値算出手段50は、例えば以下に説明するように数値解析的に成功確率p(Pis,mijs)を算出する。具体的には、サンプリング法によって残り時間の確率密度分布gs(Tr)の標本を抽出し、サンプリングで得られた標本と、s番目の行動目的Pisの達成に要する所要時間分布fs(Td)とに基づいて、成功確率p(Pis,mijs)を算出する。
本実施形態においては、評価値算出手段50は、s番目(s=2、3、…)の行動目的Pisの達成期限までの残り時間分布gs(Tr)を、任意の時間間隔で離散化してヒストグラムを算出する。
This formula can not be solved analytically, evaluation value calculating means 50 of the first embodiment, for example, numerical analysis success probability p (P is, m ijs) as described below is calculated. Specifically, the probability density of the remaining time distribution by the sampling method g s (T r) specimens were extracted for the specimens obtained by the sampling, s-th action object P IS duration distribution f s required to achieve based on the (T d) and, success probability p (P is, m ijs) is calculated.
In the present embodiment, the evaluation value calculating means 50 calculates the remaining time distribution g s ( Tr ) until the achievement deadline of the s-th (s = 2, 3, ...) Action objective Pis at arbitrary time intervals. Discretize and calculate the histogram.
図11の(a)は、残り時間分布gs(Tr)の一例を示し、図11の(b)は、残り時間分布gs(Tr)のヒストグラムを示す。図11の(c)は、s番目の行動目的Pisの達成に要する所要時間分布fs(Td)の累積分布関数Fs(Tr)を示す。図中のμremは、残り時間分布gs(Tr)の平均値であり、μsは、所要時間分布fs(Td)の平均値である。
評価値算出手段50は、ヒストグラムの各ビン(各区間)b1〜b5の生起確率(度数)と、各ビンb1〜b5の代表値Tr1〜Tr5の累積分布関数値Fs(Tr1)〜Fs(Tr5)の積和を、成功確率p(Pis,mijs)として算出する。なお、ビンb1の生起確率は、ビンの幅をwとすると、残り時間分布gs(Tr)の−∞からビンb1の右端Tr1+w/2までの積分値から残り時間分布gs(Tr)の−∞からビンb1の左端Tr1−w/2までの積分値を減じることで算出できる。他のビンの生起確率も同様である。また、残り時間分布gs(Tr)が正規分布である本実施形態において、式(3)と同様、ビンの右端までの積分値は時刻gs(Tr)の平均値μおよび分散σ2とビンの右端の時刻とを誤差関数に適用して算出でき、ビンの左端までの積分値はgs(Tr)の平均値μおよび分散σ2とビンの左端の時刻とを誤差関数に適用して算出できる。
FIG. 11 (a) shows an example of the remaining time distribution g s ( Tr ), and FIG. 11 (b) shows a histogram of the remaining time distribution g s ( Tr). FIG. 11 (c) shows the cumulative distribution function F s ( Tr ) of the time distribution f s (T d ) required to achieve the s th action objective Pis. In the figure, μ rem is the average value of the remaining time distribution g s ( Tr ), and μ s is the average value of the required time distribution f s (T d ).
Evaluation value calculating means 50, the occurrence probability of each bin (each section) b1-b5 of the histogram (frequency) and the cumulative distribution function value F s of the representative value T r1 through T r5 of each bin b1-b5 (T r1) the sum of products ~F s (T r5), success probability p (P is, m ijs) is calculated as. Incidentally, the probability of occurrence of bin b1, when the width of the bins and w, the rest time distribution g s (T r) rightmost T -∞ from bins b1 of r1 + w / remaining time from the integration value of up to 2 distribution g s ( It can be calculated by subtracting the integrated value from −∞ of Tr ) to Tr1 −w / 2 at the left end of bin b1. The probability of occurrence of other bins is similar. Further, in the present embodiment in which the remaining time distribution g s ( Tr ) is a normal distribution, the integrated values up to the right end of the bin are the average value μ and the variance σ of the time g s ( Tr) as in the equation (3). It can be calculated by applying 2 and the time at the right end of the bin to the error function, and the integrated value up to the left end of the bin is the average value μ of g s ( Tr ) and the variance σ 2 and the time at the left end of the bin. Can be calculated by applying to.
なお、上記の2番目以降の行動目的Pisの成功確率p(Pis,mijs)の算出方法は、あくまでも例示であって本発明はこれに限定されるものではない。他のサンプリング法を利用して近似計算を行う等の数値解析的な手法によって、成功確率p(Pis,mijs)を算出してもよい。例えば、ボックス=ミュラー法(対象分布が正規分布の場合)や棄却サンプリング法,MCMC法等のサンプリング法を用いることができる。 The method of calculating the probability of success of the action object P IS 2 -th of the p (P is, m ijs), the present invention is not limited to this is merely illustrative. By numerical analytical approach, such as performing the approximation using other sampling methods, success probability p (P is, m ijs) may be calculated. For example, a sampling method such as the Box-Muller method (when the target distribution is a normal distribution), the rejection sampling method, or the MCMC method can be used.
式(2)〜式(4)についての説明をまとめると次のようになる。
評価値算出手段50は、行動パターンPiに対応する目的地パターンMij毎に、目的地パターンMijに属する目的地mijsで行動目的Pisを達成期限までに各々達成する確率p(Pis,mijs)の合計を、複数の行動目的Pisの各々を達成するのに要する所要時間Tdの確率密度分布fs(Td)に基づいて予測する。
また、評価値算出手段50は、複数の行動目的Pisのうち先に達成する行動目的の所要時間の確率密度分布f1(Td)〜fs−1(Td)と達成期限に応じて残り時間の確率密度分布gs(Tr)を決定し、残り時間の確率密度分布gs(Tr)に基づいて、後に達成する行動目的を達成期限までに達成する確率p(Pis,mijs)を予測する。
また、評価値算出手段50は、残り時間分布gs(Tr)のヒストグラムと、後に達成する行動目的を達成するのに要する所要時間分布fs(Td)の累積分布関数とに基づいて、ヒストグラムの各区間におけるヒストグラムの度数と累積分布関数の確率との積の合計を、確率p(Pis,mijs)として算出する。
また、評価値Eは、確率p(Pis,mijs)に応じて算出されるため、目的地での待ち時間が短いほど評価値Eは高くなる。
The explanations of equations (2) to (4) can be summarized as follows.
Evaluation
The evaluation
Further, the evaluation value calculating means 50 is based on a histogram of the remaining time distribution g s ( Tr ) and a cumulative distribution function of the time distribution f s (T d ) required to achieve the action purpose to be achieved later. , The sum of the products of the frequency of the histogram and the probability of the cumulative distribution function in each interval of the histogram is calculated as the probability p (Pis , mijs).
The evaluation value E is to be calculated according to the probability p (P is, m ijs) , the evaluation value E shorter the waiting time at the destination is high.
評価値算出手段50は、上記の評価値Eを、エージェントの行動を決定する所定のタイミング(以下「行動決定タイミング」と表記する)が到来した時点で算出する。
行動決定タイミングは、例えば、各エージェントの生成時刻、行動目的の達成時(但し最後の行動目的を除く)、予め定めた行動決定間隔(例えば10仮想時刻)のいずれかが到来したタイミングであってよい。
The evaluation value calculating means 50 calculates the above-mentioned evaluation value E when a predetermined timing for determining the action of the agent (hereinafter referred to as “action determination timing”) arrives.
The action decision timing is, for example, the timing at which one of the generation time of each agent, the achievement of the action purpose (excluding the last action purpose), and the predetermined action decision interval (for example, 10 virtual times) has arrived. good.
具体的には、評価値算出手段50は、エージェント情報120から対象空間に現存する「現存エージェント」を検出する。現存エージェントは、現在の仮想時刻(以下、現時刻)よりも前に生成され、且つ終端目的フラグが1であり、且つ達成フラグが0である行動目的IDが設定されているエージェントである。
評価値算出手段50は、エージェント情報122にて1時刻前の状況が「達成」であるエージェントを検出することにより、生成時刻の直後、行動目的を達成した直後の現存エージェントの行動決定タイミングが到来したことを判定する。
また、現時刻と生成時刻の差が行動決定間隔の倍数であることを以って、全ての現存エージェントに対して行動決定タイミングが到来したことを判定する。
Specifically, the evaluation value calculating means 50 detects the "existing agent" existing in the target space from the
The evaluation value calculation means 50 detects an agent whose status is "achieved" one time before in the
Further, since the difference between the current time and the generation time is a multiple of the action decision interval, it is determined that the action decision timing has arrived for all the existing agents.
図2を参照する。目的地選択手段51は、評価値算出手段50から入力された評価値情報に基づいてエージェント毎に目的地を選択し、選択した目的地をエージェントIDと対応付けてエージェント情報記憶手段42内のエージェント情報122に記憶する。
具体的には、例えばエージェント毎に評価値が最高の目的地パターンMijを選択し、選択した目的地パターンMijにおける1番目の目的地のIDを、エージェントIDおよび現時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。
現時刻が行動決定タイミングではない現存エージェントについては、1時刻前の目的地IDを、エージェントIDおよび現時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。
See FIG. The destination selection means 51 selects a destination for each agent based on the evaluation value information input from the evaluation value calculation means 50, associates the selected destination with the agent ID, and associates the selected destination with the agent ID, and the agent in the agent information storage means 42. Stored in
Specifically, for example, the destination pattern Mij having the highest evaluation value is selected for each agent, and the ID of the first destination in the selected destination pattern Mij is associated with the agent ID and the current time. Time data is newly generated and added to the
For an existing agent whose current time is not the action decision timing, the destination ID one time ago is newly generated with the agent ID and the current time data associated with the current time, and added to the
また例えば、各目的地パターンMijの評価値Eの高さに応じた確率で当選する抽選を行って、当選した目的地パターンを選択してもよい。
また例えば、各目的地パターンMijの評価値Eの順位に応じた確率で当選する抽選を行って、当選した目的地パターンを選択してもよい。この場合、順位と確率の関係は予め定めておく。
Further, for example, a lottery for winning may be performed with a probability according to the height of the evaluation value E of each destination pattern Mij, and the winning destination pattern may be selected.
Further, for example, a lottery for winning may be performed with a probability according to the rank of the evaluation value E of each destination pattern Mij, and the winning destination pattern may be selected. In this case, the relationship between the rank and the probability is determined in advance.
上記のように、評価値が最高の目的地を選択する方法は現実世界の個体が行う合理的な選択行動に相当する。一方で、ランダム抽選で目的地を選択する方法は現実世界の個体が行う直感的な選択行動に相当する。これら、2つの方法のいずれを用いるかをエージェント毎に抽選して当選した方法によって目的地を選択してもよい。また、これら2つの方法のいずれを用いるかをエージェント毎に割り当てておき割り当てられた方法によって目的地を選択してもよい。 As described above, the method of selecting the destination with the highest evaluation value corresponds to the rational selection action performed by the individual in the real world. On the other hand, the method of selecting a destination by a random lottery corresponds to an intuitive selection action performed by an individual in the real world. A destination may be selected by a method in which a lottery is drawn for each agent and which of these two methods is used. Further, which of these two methods may be used may be assigned to each agent and the destination may be selected according to the assigned method.
図2を参照する。行動模擬手段52は、各仮想時刻tにおいて、空間情報記憶手段41が記憶している空間情報111およびエージェント情報記憶手段42が記憶しているエージェント情報を参照する。行動模擬手段52は、これらの情報に基づいて、選択した目的地へ複数のエージェントの各々が移動して行動目的を達成する行動を模擬する。
行動模擬手段52は、生成時刻が到来したエージェントを現存エージェントとして生成する。
See FIG. The action simulating means 52 refers to the
The action simulating means 52 generates an agent whose generation time has arrived as an existing agent.
行動模擬手段52は、生成時刻が現時刻と一致するエージェントIDをエージェント情報120から読み出し、当該エージェントID、現時刻、初期位置及び状況「達成」を対応付けた現時刻データを生成して、エージェント情報122に追記する。
行動模擬手段52は、終端目的フラグが1である行動目的の達成フラグが1に更新されたエージェントを消去する。なお、第1実施形態のシミュレータ1では、エージェントを明示的に消去するのに代えて、次の仮想時刻以降のデータをエージェント情報122に追記しない。
The action simulating means 52 reads the agent ID whose generation time matches the current time from the
The action simulating means 52 deletes the agent whose end purpose flag is 1 and whose action purpose achievement flag is updated to 1. In the
行動模擬手段52は、エージェント情報122から、現時刻のデータが記憶されているエージェント(すなわち現存エージェント)の状態を更新する。上記のとおり、現存エージェントについては目的地選択手段51によって現時刻のデータが生成されている。
行動模擬手段52は、現存エージェントの1時刻前のデータと現時刻のデータを抽出する。
The action simulating means 52 updates the state of the agent (that is, the existing agent) in which the data at the current time is stored from the
The behavior simulating means 52 extracts the data of the existing agent one time before and the data of the current time.
1時刻前の状況が「移動中」または「達成」である場合、行動模擬手段52は、当該エージェントの移動速度を算出して位置を更新する。
具体的には、行動模擬手段52は現時刻におけるエージェントの移動速度と位置を決定する。まず、行動模擬手段52は、空間情報111から、該当する各エージェントの現時刻tにおける目的地の代表点と、移動可能領域と、経由点を読み出す。
When the situation one time ago is "moving" or "achieved", the action simulating means 52 calculates the moving speed of the agent and updates the position.
Specifically, the behavior simulating means 52 determines the moving speed and position of the agent at the current time. First, the action simulating means 52 reads out the representative point, the movable area, and the waypoint of the destination at the current time t of each corresponding agent from the
行動模擬手段52は、移動可能領域内において、該当するエージェントiの1時刻前の位置xi(t−1)と代表点を結ぶ経路、および任意の経由点を介して位置xi(t−1)と代表点を結ぶ経路のうちの最短経路を選択する。
次に、行動模擬手段52は、選択した最短経路上の経由点と代表点のうちの位置xi(t−1)から最も近い点に向かい、大きさがエージェント基本速さに等しいベクトルを、目的地に近付ける移動速度として算出する。
In the movable area, the action simulating means 52 connects the position xi (t-1) one time before the corresponding agent i to the representative point, and the position xi (t-1) via an arbitrary waypoint. Select the shortest route that connects with and the representative point.
Next, the action simulating means 52 aims at a vector whose magnitude is equal to the agent basic speed toward the closest point from the position xi (t-1) of the transit point and the representative point on the selected shortest path. Calculated as the moving speed to approach the ground.
次に、行動模擬手段52は、位置xi(t−1)に、算出した移動速度を加算することによってエージェントiの現時刻の位置xi(t)を求めてエージェント情報122を更新する。なお、このとき、処理対象のエージェントとその近傍の壁や他のエージェントにソーシャルフォース(Social Force)モデルやRVO(Reciprocal Velocity Obstacles)等の歩行モデルを適用して移動速度を調整した上で加算するのが好適である。
Next, the action simulating means 52 obtains the position xi (t) of the agent i at the current time by adding the calculated movement speed to the position xi (t-1), and updates the
そして、現時刻の位置が目的地の代表点と一致しないエージェントについては、エージェント情報122における現時刻の状況を「移動中」に更新する。
一方で、現時刻の位置が目的地の代表点と一致したエージェント(目的地に到達したエージェント)については、以下のとおり、目的地のキュー(目的地に滞在しているエージェントの待ち行列)と状況を更新する。
Then, for the agent whose current time position does not match the representative point of the destination, the current time status in the
On the other hand, for agents whose current time position matches the representative point of the destination (agents who have reached the destination), the destination queue (queue of agents staying at the destination) and Update the status.
まず、空間情報111から現時刻の目的地のキューとサービス窓口数を読み出す。読み出したキューに目的地に到達したエージェントのIDを追加して空間情報111を更新する。
このとき、追加後のキュー内のエージェント数がサービス窓口数以下であればエージェント情報122における現時刻の状況を「処理中」に更新する。
さらに、空間情報111から当該目的地に関するサービス時間分布を読み出し、読み出した正規分布にボックス=ミュラー法を適用して当該目的地におけるサービス時間を算出する。
First, the queue of the destination at the current time and the number of service counters are read from the
At this time, if the number of agents in the queue after addition is less than or equal to the number of service counters, the current time status in the
Further, the service time distribution related to the destination is read from the
すなわち、乱数を生成し、読み出した正規分布と乱数とを用いた抽選によって、当該正規分布に従った生起確率でランダムにサービス時間を決定する。
目的地に到達したエージェントのIDと、算出したサービス時間を現時刻に加算したサービス完了時刻の組をエージェント情報123に追記する。
一方で、追加後のキュー内のエージェント数がサービス窓口数より多ければエージェント情報122における現時刻の状況を「待機中」に更新する。
That is, a random number is generated, and the service time is randomly determined with a probability of occurrence according to the normal distribution by lottery using the read normal distribution and the random number.
The set of the ID of the agent that has reached the destination and the service completion time obtained by adding the calculated service time to the current time is added to the
On the other hand, if the number of agents in the queue after addition is larger than the number of service counters, the current time status in the
1時刻前の状況が「待機中」であるエージェント(待機中のエージェント)については、行動模擬手段52は、現時刻における移動速度を0とし、1時刻前の位置を維持する。
また、他のエージェントが処理されることによって、キュー内における待機中のエージェントの順序がサービス窓口数以下になった場合には、待機中であったエージェント状況は「処理中」に更新される。それ以外の場合には状況は「待機中」を維持する。
For the agent (waiting agent) whose situation one hour ago is "waiting", the action simulating means 52 sets the moving speed at the current time to 0 and maintains the position one hour ago.
Further, when the order of the waiting agents in the queue becomes less than or equal to the number of service counters due to the processing of other agents, the waiting agent status is updated to "processing". Otherwise, the situation remains "waiting".
1時刻前の状況が「処理中」であるエージェント(処理中のエージェント)については、行動模擬手段52は、エージェント情報123からサービス完了時刻を読み出す。
現時刻がサービス完了時刻に達した場合、行動模擬手段52は、エージェント情報122における現時刻の状況を「達成」に更新する。また、エージェント情報121および空間情報111を参照し、エージェント情報121における、サービス完了時刻に達したエージェントの、生成時刻が現時刻以下、且つ現時刻の目的地に対応する行動目的のうち、現時刻に最も近い行動目的の達成フラグを1に更新する。また、エージェント情報123から当該エージェントのサービス完了時刻のデータを削除する。
For the agent (processing agent) whose status one time ago is "processing", the action simulating means 52 reads out the service completion time from the
When the current time reaches the service completion time, the action simulating means 52 updates the current time status in the
現時刻がサービス完了時刻に達した場合、行動模擬手段52は、さらに、空間情報111の、サービス完了時刻に達したエージェントがサービスを受けている目的地のキューに対して当該エージェントよりも後の順序のエージェントの順序を1ずつ前にずらす更新を行うとともに、同キューから当該エージェントのエージェントIDを削除する。さらに、行動模擬手段52は、更新後の同キューにおいて順序がサービス窓口数と一致するエージェントに対して、サービス時間を算出して、エージェントIDとサービス完了時刻の組合せをエージェント情報123に追記するとともに、エージェント情報122における当該エージェントの現時刻の状況を「処理中」に更新する。
When the current time reaches the service completion time, the behavior simulation means 52 further indicates that the agent who has reached the service completion time of the
図2を参照する。統計情報更新手段53は、各目的地に係る所要時間の観測値に基づいて統計情報130(待ち数分布、サービス時間分布)及び統計情報131(移動速度分布)を更新する。
統計情報更新手段53は、各エージェントの統計情報130及び131を当該エージェントの所要時間に応じて更新してよい。つまり、エージェントが自身の所要時間を観測したものとみなす。
すなわち、複数のエージェントのうち処理対象のエージェント(対象エージェント)が行動目的を達成するのに要する所要時間の観測値に応じて、対象エージェントについて記憶された統計情報130及び131を更新してよい。
See FIG. The statistical information updating means 53 updates the statistical information 130 (waiting number distribution, service time distribution) and the statistical information 131 (moving speed distribution) based on the observed values of the required time related to each destination.
The statistical information updating means 53 may update the
That is, the
また、統計情報更新手段53は、各エージェントの統計情報130及び131を当該エージェントが当該エージェント以外のエージェント(以下、他のエージェント)の所要時間を観測した値に応じて更新してよい。
すなわち、対象エージェントの統計情報130及び131を、他のエージェントが行動目的を達成するのに要する所要時間に関する観測値に応じて更新してよい。
Further, the statistical information updating means 53 may update the
That is, the
統計情報更新手段53は、各エージェントの視認範囲内に存在する目的地や同範囲内に存在するエージェントについて観測値を取得する。そのために統計情報更新手段53は、各エージェントの視認範囲を設定する。視認範囲の角度範囲や視認距離は、各エージェントの状況に応じて変更させてよい。例えば、待機中または処理中の視認範囲を、移動中の視認範囲よりも広く設定してよい。視認範囲の角度範囲や視認距離を、各エージェントの移動速度に応じて変更させてもよい。また、空間情報111を参照し、壁等の障害物に阻まれる領域(死角)を除外して視認範囲を設定する。
具体的には、統計情報更新手段53は、移動中のエージェントについては移動方向の左右90度の範囲から死角を除いた領域を、待機中または処理中のエージェントについては当該エージェント位置を中心とした360度の範囲から死角を除いた領域を、視認範囲として設定する。
The statistical information updating means 53 acquires observation values for a destination existing within the visible range of each agent and agents existing within the same range. Therefore, the statistical information updating means 53 sets the viewing range of each agent. The angle range and the viewing distance of the viewing range may be changed according to the situation of each agent. For example, the visible range during standby or processing may be set wider than the visible range during movement. The angle range and the viewing distance of the viewing range may be changed according to the moving speed of each agent. Further, referring to the
Specifically, the statistical information updating means 53 centers on the area excluding the blind spot from the range of 90 degrees to the left and right of the moving direction for the moving agent, and the agent position for the waiting or processing agent. The area excluding the blind spot from the range of 360 degrees is set as the viewing range.
統計情報とそれを更新するための観測値及び観測タイミングは以下の通りである。
各エージェントの局所経路毎の知識として記憶される移動速度分布を更新するための観測値は、当該局所経路における当該エージェントの移動速度と他のエージェントの移動速度であり、所定の観測間隔(例えば10仮想時刻)で観測される。
本実施形態においては、全エージェントに共通した観測間隔が設定されるが、エージェント毎に異なる観測間隔を設定してもよい。
また、本実施形態においては、各エージェントの観測間隔の起点を当該エージェントの生成時刻とする。全エージェントに共通の起点としてもよい。
The statistical information, the observed values for updating it, and the observation timing are as follows.
The observed values for updating the movement speed distribution stored as knowledge for each local route of each agent are the movement speed of the agent and the movement speed of other agents in the local route, and are predetermined observation intervals (for example, 10). Observed at virtual time).
In the present embodiment, the observation interval common to all agents is set, but different observation intervals may be set for each agent.
Further, in the present embodiment, the starting point of the observation interval of each agent is set as the generation time of the agent. It may be a common starting point for all agents.
各エージェントの目的地毎の知識として記憶される待ち数分布を更新するための観測値は、当該目的地における待ち数であり、上記観測間隔でキューを参照することにより観測される。
各エージェントの目的地毎の知識として記憶されるサービス時間分布を更新するための観測値は、当該目的地にて当該エージェントがサービスを受けるのに要したサービス時間であり、当該エージェントが目的地での行動目的を達成した時点で観測される。
The observed value for updating the waiting number distribution stored as knowledge for each destination of each agent is the waiting number at the destination, and is observed by referring to the queue at the above observation interval.
The observed value for updating the service time distribution stored as knowledge for each destination of each agent is the service time required for the agent to receive the service at the destination, and the agent is at the destination. It is observed when the action purpose of is achieved.
または、当該エージェントが待機中に位置している目的地における他のエージェントのサービス時間を観測値としてもよい。この場合、当該目的地のキュー内のエージェントの順位が変化した時点に観測値を観測してよい。この場合には、例えば行動模擬手段52が、キューが変化したエージェントと目的地とを統計情報更新手段53に通知し、通知を受けた統計情報更新手段53が通知時刻を記憶部4に記憶させて、前回通知からの経過時間をサービス時間として求める。
Alternatively, the service time of another agent at the destination where the agent is waiting may be used as the observed value. In this case, the observed value may be observed when the rank of the agent in the queue of the destination changes. In this case, for example, the behavior simulating means 52 notifies the statistical information updating means 53 of the agent whose queue has changed and the destination, and the notified statistical information updating means 53 stores the notification time in the
また、統計情報更新手段53は、各個体が初見の目的地及び局所経路を知識に加える様子を模擬する。
すなわち統計情報更新手段53は、各エージェントの視認範囲内に存在するが、当該エージェントの統計情報130に含まれていない目的地及び当該エージェントの統計情報131に含まれていない局所経路の情報を統計情報130に追加する。
In addition, the statistical information updating means 53 simulates how each individual adds a destination and a local route for the first time to knowledge.
That is, the statistical information updating means 53 statistically collects information on destinations that are within the visible range of each agent but are not included in the
具体的には、統計情報更新手段53は、各エージェントの視認範囲内に当該エージェントの統計情報130に含まれていない目的地が存在する場合に、当該エージェントのエージェントIDと当該目的地の目的地IDとの組合せに、待ち数分布、サービス時間分布の同時確率分布のパラメータの初期値を対応付けたデータを統計情報130に追加する。この初期値は上述したように目的地毎の初期値として統計情報記憶手段43が記憶している。
また、統計情報更新手段53は、各エージェントの視認範囲内に当該エージェントの統計情報131に含まれていない局所経路が存在する場合に、当該エージェントのエージェントIDと当該局所経路の両端地点との組合せに、移動速度分布の同時確率分布のパラメータの初期値を対応付けたデータを統計情報131に追加する。この初期値は上述したように目的地毎の初期値として統計情報記憶手段43が記憶している。
Specifically, the statistical information updating means 53 sets the agent ID of the agent and the destination of the destination when there is a destination not included in the
Further, the statistical information updating means 53 is a combination of the agent ID of the agent and both end points of the local route when there is a local route not included in the
統計情報更新手段53による同時確率分布のパラメータ(平均値μ、自由度ν、仮説的標本数κ、尺度母数λ)の更新は、例えば次式(5)〜(8)で表されるベイズ推定法によって行われてよい。 The update of the parameters of the simultaneous probability distribution (mean value μ, degree of freedom ν, hypothetical sample number κ, scale parameter λ) by the statistical information updating means 53 is, for example, Bayes represented by the following equations (5) to (8). It may be done by an estimation method.
上式において、μ0、ν0、κ0、λ0は、統計情報記憶手段43に記憶されている同時確率分布のパラメータでありμ1、ν1、κ1、λ1は、更新後の当該同時確率分布パラメータである。また、Nは観測値数、xaは観測値の平均値である。 In the above equation, μ 0 , ν 0 , κ 0 , and λ 0 are parameters of the simultaneous probability distribution stored in the statistical information storage means 43, and μ 1 , ν 1 , κ 1 , and λ 1 are the updated parameters. This is the simultaneous probability distribution parameter. N is the number of observed values, and x a is the average value of the observed values.
次に図12の(a)及び図12の(b)を参照して、統計情報記憶手段43に記憶される確率分布が統計情報更新手段53によって更新されて、エージェント毎に違いが生じる様子を説明する。
確率分布140及び150は、エージェント#1と#59の売店2のサービス時間分布の初期値を示す。エージェント#1と#59の初期値はいずれもΝ(600, 2500)である。
Next, referring to (a) of FIG. 12 and (b) of FIG. 12, the probability distribution stored in the statistical information storage means 43 is updated by the statistical information updating means 53, and a state in which a difference occurs for each agent is observed. explain.
The
確率分布141及び151は、仮想時刻が経過して統計情報更新手段53により十分に更新された後のエージェント#1と#59の売店2のサービス時間分布を示す。エージェント#1のサービス時間分布141はΝ(480, 25700)となり、エージェント#59のサービス時間分布151はΝ(550, 17100)となっている。すなわち、サービス時間分布141よりもサービス時間分布151の方が平均値が大きく、分散が小さくなっている。
The
このことから、エージェント#1にとっての売店2は、エージェント#59にとっての売店2よりも、平均的には迅速だが、その平均よりも大幅に迅速であったり大幅に遅延したりすることも多い不安定な店舗であることが分かる。この結果、例えば、エージェント#1は、残り時間が少なく他の売店の方が平均的にサービス時間が短い場合には、いちかばちかで売店2を選択するようになる。
一方で、エージェント#59にとっての売店2は、エージェント#1にとっての売店2よりも、平均的にはやや遅いが、サービス時間は安定している店舗であることが分かる。この結果、例えば、エージェント#59は残り時間が550時刻以上ある場合に売店2を選択しやすくなる。
For this reason, the
On the other hand, it can be seen that the
このように、同一の目的地であってもエージェントによって、所要時間の情報に差が生じる。同様に、同一エージェントであっても同一行動目的を達成するための目的地間で所要時間の情報に差が生じる。
所要時間の情報に差が生じることによりエージェント間で行動に違いを生じさせることができ、現実世界において個体毎の経験知の差によって行動に違いが生じることを模擬できる。
In this way, even if the destination is the same, the information on the required time differs depending on the agent. Similarly, even for the same agent, there is a difference in the information on the required time between the destinations for achieving the same action purpose.
It is possible to make a difference in behavior between agents due to a difference in the information of the required time, and it is possible to simulate that a difference in behavior is caused by a difference in experience and knowledge of each individual in the real world.
図2を参照する。予測結果出力手段60は、シミュレーションの結果である予測結果を出力する。予測結果は、エージェント情報記憶手段42に記憶されている情報の一部または全部を少なくとも含み、好適には、さらに空間情報記憶手段41に記憶されている情報の一部または全部を含む。
予測結果出力手段60は、例えば、制御部5および表示部6が協働して実現され、記憶部4から読み出した予測結果を、表示部6に表示させる。また、予測結果出力手段60は、予測結果をデータファイルとして出力してもよいし、画像ファイルとして出力してもよいし、画像として表示してもよいし、これらのうちの1以上の形式で出力してもよい。
See FIG. The prediction result output means 60 outputs the prediction result which is the result of the simulation. The prediction result includes at least a part or all of the information stored in the agent information storage means 42, and preferably further includes a part or all of the information stored in the spatial information storage means 41.
The prediction result output means 60 is realized, for example, in collaboration with the
例えば、予測結果出力手段60は、対象空間の地図を画像化するとともに当該画像上の各エージェントの位置と対応する座標にエージェントを表す図形を重畳描画して予測結果の画像を生成し、生成した画像をファイルとして出力し、および/または表示部6に出力する。
予測結果の出力タイミングは、シミュレーションを終えた時点の他に、シミュレーションの途中を含んでもよい。つまり、シミュレーションの途中までに得られた上記情報の一部または全部を中間予測結果として出力してもよい。
For example, the prediction result output means 60 creates an image of the prediction result by imaging a map of the target space and superimposing and drawing a figure representing the agent on the coordinates corresponding to the position of each agent on the image. The image is output as a file and / or is output to the
The output timing of the prediction result may include the middle of the simulation in addition to the time when the simulation is completed. That is, a part or all of the above information obtained up to the middle of the simulation may be output as an intermediate prediction result.
(動作)
次に、第1実施形態のシミュレータ1によるシミュレーション方法について説明する。
図13は、第1実施形態のシミュレータ1によるシミュレーション方法の全体処理の一例のフローチャートである。
まず、ステップS1において利用者は、シミュレーション条件として模擬条件、空間情報、エージェント情報の初期値、及び統計情報の初期値を設定する。設定は条件設定手段20を通じて行われる。そして、ステップS2において仮想時刻tが0に初期化される。
(motion)
Next, a simulation method using the
FIG. 13 is a flowchart of an example of the overall processing of the simulation method by the
First, in step S1, the user sets simulated conditions, spatial information, initial values of agent information, and initial values of statistical information as simulation conditions. The setting is performed through the condition setting means 20. Then, in step S2, the virtual time t is initialized to 0.
ステップS3においては生成時刻を迎えたエージェントが生成される。具体的には、行動模擬手段52が、現時刻tと同じ生成時刻が設定されたエージェントをエージェント情報120内から探索する。該当するエージェントが検出された場合、当該エージェントのIDを初期位置とともにエージェント情報122に追加する。追加されたエージェントは現存エージェントとなる。
ステップS4において、現存エージェント(仮想時刻よりも前に生成され、且つ達成フラグが0である行動目的IDが設定されているエージェント)が存在するか否かを判定する。現存エージェントが存在する場合(ステップS4:Y)に処理はステップS5へ進む。現存エージェントが存在しない場合(ステップS4:N)に処理はステップS8へ進む。
In step S3, an agent whose generation time has been reached is generated. Specifically, the behavior simulating means 52 searches the
In step S4, it is determined whether or not there is an existing agent (an agent that is generated before the virtual time and has an action purpose ID whose achievement flag is 0). When the existing agent exists (step S4: Y), the process proceeds to step S5. If the existing agent does not exist (step S4: N), the process proceeds to step S8.
ステップS5では、統計情報更新処理が行われる。統計情報更新処理では、現存エージェントが観測した観測値に基づいて、統計情報記憶手段43に記憶されている統計情報130及び131が更新される。統計情報更新処理の詳細は後述する。
ステップS6では、行動決定処理が行われる。行動決定処理では、エージェント情報121に設定された行動目的と、統計情報130及び131に設定された確率分布に基づいて、エージェントが到達を目指す目的地を選択する。行動決定処理の詳細は後述する。
In step S5, the statistical information update process is performed. In the statistical information update process, the
In step S6, the action determination process is performed. In the action determination process, the destination to be reached by the agent is selected based on the action purpose set in the
ステップS7では、エージェント状態更新処理が行われる。エージェント状態更新処理では、ステップS6で決定した目的地に応じて現存エージェントの状態を更新する。エージェント状態更新処理の詳細は後述する。
ステップS8では、仮想時刻tを「1」だけ増加する。
ステップS9では、仮想時刻tが模擬条件記憶手段40に記憶されているシミュレーション終了時刻Tに到達したか否かを判定する。仮想時刻tが終了時刻Tに到達した場合(ステップS9:Y)に処理はステップS10へ進む。仮想時刻tが終了時刻Tに到達していない場合(ステップS9:N)に処理はステップS3に戻る。
ステップS10では、シミュレーションの結果である予測結果を出力して、処理終了となる。
In step S7, the agent state update process is performed. In the agent state update process, the state of the existing agent is updated according to the destination determined in step S6. Details of the agent status update process will be described later.
In step S8, the virtual time t is increased by "1".
In step S9, it is determined whether or not the virtual time t has reached the simulation end time T stored in the simulated condition storage means 40. When the virtual time t reaches the end time T (step S9: Y), the process proceeds to step S10. When the virtual time t has not reached the end time T (step S9: N), the process returns to step S3.
In step S10, the prediction result, which is the result of the simulation, is output, and the process ends.
次に、図14及び図15を参照して、ステップS5の統計情報更新処理について説明する。統計情報更新処理は、行動模擬手段52及び統計情報更新手段53によって実行される。
ステップS20において行動模擬手段52は、現存エージェントを順次選択し、処理対象の注目エージェントに設定する。
Next, the statistical information update process in step S5 will be described with reference to FIGS. 14 and 15. The statistical information update process is executed by the behavior simulation means 52 and the statistical information update means 53.
In step S20, the action simulating means 52 sequentially selects existing agents and sets them as the agents of interest to be processed.
ステップS21において行動模擬手段52は、注目エージェントに関して、統計情報130及び131を更新するための観測値の観測タイミングが到来したかを判定する。観測タイミングが到来した場合(ステップS21:Y)に処理はステップS22へ進む。観測タイミングが到来していない場合(ステップS21:N)に処理はステップS35へ進む。
ステップS22において統計情報更新手段53は、注目エージェントの視認範囲を設定する。統計情報更新手段53は、注目エージェントの統計情報130に含まれていない目的地が視認範囲内に存在するか否かを判定する。
In step S21, the behavior simulating means 52 determines whether or not the observation timing of the observed values for updating the
In step S22, the statistical information updating means 53 sets the viewing range of the agent of interest. The statistical information updating means 53 determines whether or not a destination not included in the
統計情報130に含まれていない目的地が視認範囲内に存在する場合(ステップS22:Y)に処理はステップS23へ進む。統計情報130に含まれていない目的地が視認範囲内に存在しない場合(ステップS22:N)に処理はステップS24へ進む。
ステップS23において統計情報更新手段53は、当該目的地のデータを注目エージェントの統計情報130に追加する。その後に処理はステップS24へ進む。
When the destination not included in the
In step S23, the statistical information updating means 53 adds the data of the destination to the
ステップS24において統計情報更新手段53は、注目エージェントの統計情報131に含まれていない局所経路が視認範囲内に存在するか否かを判定する。統計情報131に含まれていない局所経路が視認範囲内に存在する場合(ステップS24:Y)に処理はステップS25へ進む。統計情報131に含まれていない局所経路が視認範囲内に存在しない場合(ステップS24:N)に処理はステップS26へ進む。
ステップS25において統計情報更新手段53は、当該局所経路のデータを注目エージェントの統計情報131に追加する。その後に処理はステップS26へ進む。
In step S24, the statistical information updating means 53 determines whether or not a local route that is not included in the
In step S25, the statistical information updating means 53 adds the data of the local route to the
ステップS26において統計情報更新手段53は、注目エージェントの状況が「移動中」であるか否かを判定する。注目エージェントの状況が「移動中」である場合(ステップS26:Y)に処理はステップS27へ進む。注目エージェントの状況が「移動中」でない場合(ステップS26:N)に処理はステップS28へ進む。
ステップS27において統計情報更新手段53は、注目エージェントの移動速度と局所経路を取得し、当該局所経路における速さを算出する。その後に処理はステップS28へ進む。
In step S26, the statistical information updating means 53 determines whether or not the status of the agent of interest is “moving”. When the status of the attention agent is “moving” (step S26: Y), the process proceeds to step S27. If the status of the agent of interest is not "moving" (step S26: N), the process proceeds to step S28.
In step S27, the statistical information updating means 53 acquires the moving speed and the local route of the agent of interest, and calculates the speed in the local route. After that, the process proceeds to step S28.
ステップS28において統計情報更新手段53は、注目エージェントの視認範囲内に存在する他のエージェントの状況が「移動中」であるか否かを判定する。視認範囲内の他のエージェントの状況が「移動中」である場合(ステップS28:Y)に処理はステップS29へ進む。視認範囲内の他のエージェントの状況が「移動中」でない場合(ステップS28:N)に処理はステップS30へ進む。
ステップS29において統計情報更新手段53は、移動中であり且つ視認範囲内に存在する他のエージェントの移動速度と局所経路を取得し、当該局所経路における速さを算出する。その後に処理はステップS30へ進む。
In step S28, the statistical information updating means 53 determines whether or not the status of another agent existing within the visible range of the agent of interest is “moving”. When the status of the other agent within the viewing range is "moving" (step S28: Y), the process proceeds to step S29. If the status of the other agent within the viewing range is not "moving" (step S28: N), the process proceeds to step S30.
In step S29, the statistical information updating means 53 acquires the moving speed and the local route of another agent that is moving and exists within the visible range, and calculates the speed in the local route. After that, the process proceeds to step S30.
ステップS30において統計情報更新手段53は、ステップS27またはS29のいずれかで速さを算出したか否かを判定する。速さを算出した場合(ステップS30:Y)に処理はステップS31へ進む。速さを算出しない場合(ステップS30:N)に処理はステップS32へ進む。
ステップS31において統計情報更新手段53は、算出した速さを観測値として用いて、注目エージェントの統計情報131のうち速さを観測した局所経路の移動速度分布を更新する。その後に処理はステップS32へ進む。
In step S30, the statistical information updating means 53 determines whether or not the speed is calculated in either step S27 or S29. When the speed is calculated (step S30: Y), the process proceeds to step S31. If the speed is not calculated (step S30: N), the process proceeds to step S32.
In step S31, the statistical information updating means 53 uses the calculated speed as an observed value to update the moving speed distribution of the local route in which the speed is observed in the
ステップS32において統計情報更新手段53は、注目エージェントの視認範囲内に目的地いずれかが存在するか否かを判定する。視認範囲内に目的地が存在する場合(ステップS32:Y)に処理はステップS33へ進む。視認範囲内に目的地が存在しない場合(ステップS32:N)に処理はステップS35へ進む。
ステップS33において統計情報更新手段53は、視認範囲内に存在する目的地の待ち数を取得する。ステップS34において統計情報更新手段53は、取得した待ち数を観測値として用いて、注目エージェントの統計情報130のうち待ち数を観測した目的地の待ち数分布を更新する。その後に処理はステップS35へ進む。
In step S32, the statistical information updating means 53 determines whether or not any of the destinations exists within the visible range of the agent of interest. When the destination exists within the viewing range (step S32: Y), the process proceeds to step S33. If the destination does not exist within the viewing range (step S32: N), the process proceeds to step S35.
In step S33, the statistical information updating means 53 acquires the number of waits for the destination existing within the visible range. In step S34, the statistical information updating means 53 updates the waiting number distribution of the destination where the waiting number is observed in the
ステップS35において統計情報更新手段53は、注目エージェントのサービス完了時刻が到来したかを判定する。サービス完了時刻が到来した場合(ステップS35:Y)に処理はステップS36へ進む。サービス完了時刻が到来しない場合(ステップS35:N)に処理はステップS37へ進む。
ステップS36において統計情報更新手段53は、注目エージェントに要したサービス時間を算出する。その後に処理はステップS37へ進む。
In step S35, the statistical information updating means 53 determines whether or not the service completion time of the attention agent has arrived. When the service completion time arrives (step S35: Y), the process proceeds to step S36. If the service completion time does not arrive (step S35: N), the process proceeds to step S37.
In step S36, the statistical information updating means 53 calculates the service time required for the agent of interest. After that, the process proceeds to step S37.
ステップS37において統計情報更新手段53は、注目エージェントの状況が待機中であればそのキュー内の順序が更新されたか否かを判定する。順序が更新された場合(ステップS37:Y)に処理はステップS38へ進む。順序が更新されない場合(ステップS37:N)に処理はステップS39へ進む。
ステップS38において統計情報更新手段53は、注目エージェントのサービスを待っている目的地で、サービスが完了した他のエージェントに要したサービス時間を算出する。その後に処理はステップS39へ進む。
In step S37, the statistical information updating means 53 determines whether or not the order in the queue has been updated if the status of the agent of interest is waiting. When the order is updated (step S37: Y), the process proceeds to step S38. If the order is not updated (step S37: N), the process proceeds to step S39.
In step S38, the statistical information updating means 53 calculates the service time required for another agent whose service has been completed at the destination waiting for the service of the agent of interest. After that, the process proceeds to step S39.
ステップS39において統計情報更新手段53は、ステップS36またはS38のいずれかでサービス時間を算出したか否かを判定する。サービス時間を算出した場合(ステップS39:Y)に処理はステップS40へ進む。サービス時間を算出しない場合(ステップS39:N)に処理はステップS41へ進む。
ステップS40において統計情報更新手段53は、算出したサービス時間を観測値として用いて、注目エージェントの統計情報130のうちサービス時間を観測した目的地(すなわち注目エージェントがサービスを受ける目的地)のサービス時間分布を更新する。その後に処理はステップS41へ進む。
ステップS41において統計情報更新手段53は、全ての現存エージェントについてステップS21〜S40の処理を実行したか否かを判定する。全ての現存エージェントについて処理を実行した場合(ステップS41:Y)に、統計情報更新処理は終了する。未処理の現存エージェントが存在する場合(ステップS41:N)に処理はステップS20へ戻る。
In step S39, the statistical information updating means 53 determines whether or not the service time has been calculated in either step S36 or S38. When the service time is calculated (step S39: Y), the process proceeds to step S40. When the service time is not calculated (step S39: N), the process proceeds to step S41.
In step S40, the statistical information updating means 53 uses the calculated service time as an observed value, and uses the service time of the destination (that is, the destination where the attention agent receives the service) in which the service time is observed in the
In step S41, the statistical information updating means 53 determines whether or not the processes of steps S21 to S40 have been executed for all the existing agents. When the processing is executed for all the existing agents (step S41: Y), the statistical information update processing ends. If there is an unprocessed existing agent (step S41: N), the process returns to step S20.
次に、図16を参照して、ステップS6の行動決定処理について説明する。行動決定処理は、評価値算出手段50及び目的地選択手段51によって実行される。
ステップS50において評価値算出手段50は、現存エージェントを順次選択し、処理対象の注目エージェントに設定する。
ステップS51において評価値算出手段50は、注目エージェントの行動決定タイミングが到来したか否かを判定する。行動決定タイミングが到来した場合(ステップS51:Y)に処理はステップS52へ進む。行動決定タイミングが到来していない場合(ステップS51:N)に処理はステップS59へ進む。
Next, the action determination process in step S6 will be described with reference to FIG. The action determination process is executed by the evaluation value calculation means 50 and the destination selection means 51.
In step S50, the evaluation value calculating means 50 sequentially selects existing agents and sets them as the agents of interest to be processed.
In step S51, the evaluation value calculating means 50 determines whether or not the action determination timing of the attention agent has arrived. When the action determination timing has arrived (step S51: Y), the process proceeds to step S52. When the action determination timing has not arrived (step S51: N), the process proceeds to step S59.
ステップS52において評価値算出手段50は、1つ又は複数の行動パターンPiを生成する。
ステップS53において評価値算出手段50は、行動パターンPiの各々に対して1つ又は複数の目的地パターンMijを生成する。
ステップS54において評価値算出手段50は、目的地パターンMijを順次選択して、処理対象の注目パターンに設定する。
Evaluation value calculating means 50 in step S52 generates one or more behavioral patterns P i.
In step S53, the evaluation value calculating means 50 generates one or a plurality of destination patterns M ij for each of the action patterns P i.
In step S54, the evaluation value calculating means 50 sequentially selects the destination pattern Mij and sets it as the attention pattern to be processed.
ステップS55において評価値算出手段50は、評価値算出処理を行う。評価値算出処理では注目パターンについて評価値Eが算出される。評価値算出処理の詳細は後述する。
ステップS56において評価値算出手段50は、全ての目的地パターンMijが注目パターンに設定されたか否かを判定する。全ての目的地パターンMijが注目パターンに設定された場合(ステップS56:Y)に処理はステップS57へ進む。注目パターンに設定されていない目的地パターンMijが存在する場合(ステップS56:N)に処理はステップS54へ戻る。
In step S55, the evaluation value calculation means 50 performs the evaluation value calculation process. In the evaluation value calculation process, the evaluation value E is calculated for the pattern of interest. The details of the evaluation value calculation process will be described later.
In step S56, the evaluation value calculating means 50 determines whether or not all the destination patterns Mij are set as the attention patterns. When all the destination patterns Mij are set as the attention patterns (step S56: Y), the process proceeds to step S57. When the destination pattern Mij that is not set in the attention pattern exists (step S56: N), the process returns to step S54.
ステップS57において目的地選択手段51は、評価値に基づいていずれかの目的地パターンMijを選択する。
ステップS58において目的地選択手段51は、選択した目的地パターンMijにおける1番目の目的地のIDを、エージェントIDおよび現在の仮想時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。その後に処理はステップS60へ進む。
In step S57, the destination selection means 51 selects one of the destination patterns Mij based on the evaluation value.
In step S58, the destination selection means 51 newly generates current time data in which the ID of the first destination in the selected destination pattern Mij is associated with the agent ID and the current virtual time, and agent information. Add to 122. After that, the process proceeds to step S60.
一方で、ステップS59において目的地選択手段51は、1時刻前の目的地IDを、エージェントIDおよび現在の仮想時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。その後に処理はステップS60へ進む。
ステップS60において評価値算出手段50は、全ての現存エージェントについてステップS51〜S59の処理を実行したか否かを判定する。全ての現存エージェントについて処理を実行した場合(ステップS60:Y)に行動決定処理は終了する。未処理の現存エージェントが存在する場合(ステップS60:N)に処理はステップS50へ戻る。
On the other hand, in step S59, the destination selection means 51 newly generates current time data in which the destination ID one time ago is associated with the agent ID and the current virtual time, and adds it to the
In step S60, the evaluation value calculating means 50 determines whether or not the processes of steps S51 to S59 have been executed for all the existing agents. When the processes are executed for all the existing agents (step S60: Y), the action decision process ends. If there is an unprocessed existing agent (step S60: N), the process returns to step S50.
図17を参照して、ステップS55の評価値算出処理について説明する。評価値算出処理は、評価値算出手段50によって実行される。
ステップS70において評価値算出手段50は、注目パターンに含まれる目的地毎に、目的地で行動目的を達成する場合の所要時間の確率分布である所要時間分布を算出する。
ステップS71において評価値算出手段50は、注目パターンに含まれる目的地の順位を示す変数sを「1」に初期化する。以下のステップS73〜S77では、注目パターンに含まれるs番目の目的地で達成期限までに行動目的を達成する各々の成功確率を算出する。また、評価値算出手段50は、評価値Eを「0」に初期化する。
The evaluation value calculation process in step S55 will be described with reference to FIG. The evaluation value calculation process is executed by the evaluation value calculation means 50.
In step S70, the evaluation value calculating means 50 calculates the required time distribution, which is the probability distribution of the required time when the action purpose is achieved at the destination, for each destination included in the attention pattern.
In step S71, the evaluation value calculating means 50 initializes the variable s indicating the rank of the destination included in the attention pattern to “1”. In the following steps S73 to S77, the success probability of achieving the action purpose by the achievement deadline at the sth destination included in the attention pattern is calculated. Further, the evaluation value calculating means 50 initializes the evaluation value E to “0”.
ステップS72において評価値算出手段50は、変数sが「1」、すなわち1番目の目的地の成功確率を算出するか否かを判定する。変数sが「1」である場合(ステップS72:Y)に処理はステップS73へ進む。変数sが「1」でない場合(ステップS72:N)に処理はステップS75へ進む。
ステップS73において評価値算出手段50は、1番目の目的地で達成する行動目的の達成期限までの残り時間を算出する。
In step S72, the evaluation value calculating means 50 determines whether or not the variable s is "1", that is, whether or not to calculate the success probability of the first destination. When the variable s is "1" (step S72: Y), the process proceeds to step S73. If the variable s is not "1" (step S72: N), the process proceeds to step S75.
In step S73, the evaluation value calculating means 50 calculates the remaining time until the achievement deadline of the action purpose to be achieved at the first destination.
ステップS74において評価値算出手段50は、残り時間と、1番目の目的地で行動目的所要時間分布に基づいて、成功確率を算出する。その後に処理はステップS78へ進む。
一方で、ステップS75において評価値算出手段50は、1番目からs−1番目までの目的地で行動目的達成に要する所要時間分布の合計を算出する。
In step S74, the evaluation value calculating means 50 calculates the success probability based on the remaining time and the action purpose required time distribution at the first destination. After that, the process proceeds to step S78.
On the other hand, in step S75, the evaluation value calculating means 50 calculates the total time distribution required to achieve the action purpose at the first to s-1st destinations.
ステップS76において評価値算出手段50は、所要時間分布の合計に基づいて、s番目の目的地で達成する行動目的の達成期限までの残り時間分布を算出する。
ステップS77において評価値算出手段50は、残り時間分布と、s番目の目的地の所要時間分布に基づいて成功確率を算出する。その後に処理はステップS78へ進む。
ステップS78において評価値算出手段50は、ステップS74又はS77で算出した成功確率を希望達成度に乗じた積を評価値Eに加算する。
In step S76, the evaluation value calculating means 50 calculates the remaining time distribution until the achievement deadline of the action purpose to be achieved at the sth destination based on the total of the required time distributions.
In step S77, the evaluation value calculating means 50 calculates the success probability based on the remaining time distribution and the required time distribution of the sth destination. After that, the process proceeds to step S78.
In step S78, the evaluation value calculating means 50 adds the product obtained by multiplying the desired achievement degree by the success probability calculated in step S74 or S77 to the evaluation value E.
ステップS79において評価値算出手段50は、変数sを「1」だけ増加する。
ステップS80において評価値算出手段50は、注目パターンの中の全ての目的地について、ステップS72〜S79の処理を完了したか否かを判定する。全ての目的地について処理を完了した場合(ステップS80:Y)に処理はステップS81へ進む。未処理の目的地が存在する場合(ステップS80:N)に処理はステップS72へ戻る。
ステップS81において評価値算出手段50は、エージェントと注目パターンと評価値を対応付けた評価値情報を目的地選択手段51に出力する。その後に、評価値算出処理は終了する
In step S79, the evaluation value calculating means 50 increases the variable s by "1".
In step S80, the evaluation value calculating means 50 determines whether or not the processing of steps S72 to S79 has been completed for all the destinations in the pattern of interest. When the processing is completed for all the destinations (step S80: Y), the processing proceeds to step S81. If there is an unprocessed destination (step S80: N), the process returns to step S72.
In step S81, the evaluation value calculating means 50 outputs the evaluation value information in which the agent, the attention pattern, and the evaluation value are associated with each other to the destination selection means 51. After that, the evaluation value calculation process ends.
次に、図18を参照してステップS7のエージェント状態更新処理を説明する。エージェント状態更新処理は、目的地選択手段51と、行動模擬手段52によって実現される。
ステップS90において行動模擬手段52は、現存エージェントを順次選択し、処理対象の注目エージェントに設定する。
ステップS91において行動模擬手段52は、目的地選択手段51が注目エージェントの目的地パターンを新しく選択したか否かを判定する。目的地パターンを新しく選択した場合(ステップS91:Y)に処理はステップS92へ進む。目的地パターンを新しく選択しない場合(ステップS91:N)に処理はステップS93へ進む。
Next, the agent state update process in step S7 will be described with reference to FIG. The agent state update process is realized by the destination selection means 51 and the action simulation means 52.
In step S90, the action simulating means 52 sequentially selects existing agents and sets them as the agents of interest to be processed.
In step S91, the action simulating means 52 determines whether or not the destination selection means 51 newly selects the destination pattern of the agent of interest. When a new destination pattern is selected (step S91: Y), the process proceeds to step S92. When the destination pattern is not newly selected (step S91: N), the process proceeds to step S93.
ステップS92において目的地選択手段51は、エージェント情報122に行動パラメータとして記憶されている目的地IDを、新しく選択した目的地パターンの先頭にある目的地IDに更新する。その後に処理はステップS93へ進む。
ステップS93において行動模擬手段52は、注目エージェントの状況を更新する。
In step S92, the destination selection means 51 updates the destination ID stored as an action parameter in the
In step S93, the action simulating means 52 updates the status of the attention agent.
ステップS94において行動模擬手段52は、注目エージェントの状況が「移動中」又は「達成」であるか否かを判定する。状況が「移動中」又は「達成」である場合(ステップS94:Y)に処理はステップS95へ進む。状況が「移動中」又は「達成」でない場合(ステップS94:N)に処理はステップS96へ進む。
ステップS95において行動模擬手段52は、注目エージェントの移動速度を算出して位置を更新する。その後に処理はステップS96へ進む。
In step S94, the behavior simulating means 52 determines whether or not the status of the agent of interest is “moving” or “achieved”. When the situation is "moving" or "achieved" (step S94: Y), the process proceeds to step S95. If the situation is not "moving" or "achieved" (step S94: N), the process proceeds to step S96.
In step S95, the action simulating means 52 calculates the moving speed of the agent of interest and updates the position. After that, the process proceeds to step S96.
ステップS96において行動模擬手段52は、注目エージェントが全ての行動目的を達成したか(すなわち、終端目的フラグが1である行動目的を達成したか)否かを判定する。全ての行動目的を達成した場合(ステップS96:Y)に処理はステップS97へ進む。未達成の行動目的が存在する場合(ステップS96:N)に処理はステップS98へ進む。
ステップS97において行動模擬手段52は、注目エージェントを消去する。その後に処理はステップS98へ進む。
ステップS98において行動模擬手段52は、全ての現存エージェントについてステップS91〜S97の処理が完了したか否かを判定する。未処理の現存エージェントが存在する場合(ステップS98:N)に処理はステップS90へ戻る。全ての現存エージェントについて処理が完了した場合(ステップS98:Y)にエージェント状態更新処理は終了する。
In step S96, the action simulating means 52 determines whether or not the attention agent has achieved all the action objectives (that is, whether or not the action objective for which the terminal purpose flag is 1 has been achieved). When all the action objectives have been achieved (step S96: Y), the process proceeds to step S97. When there is an unachieved action purpose (step S96: N), the process proceeds to step S98.
In step S97, the behavior simulating means 52 erases the attention agent. After that, the process proceeds to step S98.
In step S98, the action simulating means 52 determines whether or not the processing of steps S91 to S97 has been completed for all the existing agents. If there is an unprocessed existing agent (step S98: N), the process returns to step S90. When the processing for all the existing agents is completed (step S98: Y), the agent status update processing ends.
(変形例)
(1)第1実施形態では、所要時間を、移動時間と、待ち時間と、サービス時間の和として定義した。
これに代えて、移動時間を所要時間としてもよい(すなわち待ち時間とサービス時間が0)。これにより、配達のように待ち時間とサービス時間が0とみなせる行動目的についてのシミュレーションを行うことができる。
(Modification example)
(1) In the first embodiment, the required time is defined as the sum of the travel time, the waiting time, and the service time.
Instead, the travel time may be the required time (ie, the waiting time and the service time are 0). This makes it possible to simulate an action purpose such as delivery in which the waiting time and the service time can be regarded as zero.
(2)第1実施形態では、行動目的と目的地との関係が1対1および1対多の関係である場合を例示した。行動目的と目的地との関係は、多対1または多対多の関係であってもよい。例えば、同じ目的地で異なるサービス間でサービス時間に差が生じるシチュエーションを模擬することができる。この場合には、行動目的と目的地の組合せ毎にサービス時間分布の統計情報を記憶又は更新することが望ましい。 (2) In the first embodiment, the case where the relationship between the action purpose and the destination is a one-to-one relationship and a one-to-many relationship is illustrated. The relationship between the purpose of action and the destination may be a many-to-one or many-to-many relationship. For example, it is possible to simulate a situation in which the service time differs between different services at the same destination. In this case, it is desirable to store or update the statistical information of the service time distribution for each combination of the action purpose and the destination.
(3)第1実施形態では、評価値算出手段50による評価値算出と目的地選択手段51による目的地選択を、行動決定間隔で繰り返す例を示して説明した。これに代えて、評価値算出と目的地選択を行動決定間隔で繰り返すことを省略してもよい。
この場合、例えば、目的地選択手段51が選択した目的地パターンをエージェント情報記憶手段42に記憶させ、行動模擬手段52は、各エージェントについて記憶されている目的地パターンの先頭の目的地から順次当該エージェントを移動させるように動作してよい。
(3) In the first embodiment, an example in which the evaluation value calculation by the evaluation value calculation means 50 and the destination selection by the destination selection means 51 are repeated at the action determination interval has been described. Instead of this, it may be omitted to repeat the evaluation value calculation and the destination selection at the action determination interval.
In this case, for example, the destination pattern selected by the destination selection means 51 is stored in the agent information storage means 42, and the action simulation means 52 sequentially corresponds to the first destination of the destination pattern stored for each agent. It may act to move the agent.
(4)第1実施形態では、行動目的毎に達成期限を設定する例を説明した。これに代えて又はこれに加えて、幕間毎かつエージェント毎に、単一の達成期限(すなわち複数の行動目的に共通の達成期限)を設定してもよい。例えば、幕間の終了時間を達成期限としてもよい。この場合、各幕間のエージェントそれぞれの全行動目的に対して同一の達成期限が設定されたものとして、上記実施形態と同様の処理を行えばよい。
さらには、幕間毎に全エージェントに共通の単一の達成期限を設定してもよい。
(4) In the first embodiment, an example of setting an achievement deadline for each action purpose has been described. Alternatively or additionally, a single achievement deadline (ie, a common achievement deadline for multiple action objectives) may be set for each inter-curtain and for each agent. For example, the end time between intermissions may be the deadline for achievement. In this case, it is assumed that the same achievement deadline is set for all the action objectives of the agents between the intermissions, and the same processing as in the above embodiment may be performed.
Furthermore, a single deadline common to all agents may be set for each inter-curtain.
(5)第1実施形態では、エージェントの視認範囲内に当該エージェントの統計情報130に含まれていない目的地が存在する場合に、当該目的地のデータを当該エージェントの統計情報130に追加する。これに代えて又はこれに加えて、目的地に関する情報をエージェントに知らせる看板等の情報源を対象空間内に設定してもよい。当該エージェントの統計情報130に含まれていない目的地を知らせる情報源がエージェントの視認範囲内の存在する場合に、当該目的地のデータを当該エージェントの統計情報130に追加してよい。同様に、目的地に関する情報を対象空間内に報知するアナウンスをシミュレートしてもよい。当該エージェントの統計情報130に含まれていない目的地を知らせるアナウンスが放送された場合に、当該目的地のデータを当該エージェントの統計情報130に追加してよい。
(5) In the first embodiment, when there is a destination that is not included in the
(第2実施形態)
第1実施形態の評価値算出手段50は、所要時間分布を算出する際に、統計情報130に記憶される目的地の待ち数分布に基づいて待ち時間を予測する。また、視認範囲内の目的地については待ち数の観測値から待ち時間を予測している。
しかしながら、目的地に向かう他のエージェントの動きを観測することによって、待ち時間の予測が変わることがある。
そこで、第2実施形態の評価値算出手段50は、処理対象のエージェントの目的地パターンを選択する際に、他のエージェントの行動に基づいて、目的地での待ち時間を予測する。例えば、他のエージェントの移動方向に基づいて目的地での待ち時間を予測する。
(Second Embodiment)
When calculating the required time distribution, the evaluation value calculating means 50 of the first embodiment predicts the waiting time based on the waiting number distribution of the destination stored in the
However, observing the movements of other agents towards their destination can change the wait time prediction.
Therefore, the evaluation value calculating means 50 of the second embodiment predicts the waiting time at the destination based on the actions of other agents when selecting the destination pattern of the agent to be processed. For example, the waiting time at the destination is predicted based on the moving direction of another agent.
図19を参照する。いま、参照符号200は、待ち数分布を算出する処理対象の注目エージェント(すなわち、図16の行動決定処理の注目エージェント)を示し、破線は、注目エージェント200の視認範囲を示す。
参照符号201a〜201cは、注目エージェント200の視認範囲内の他のエージェントを示し、参照符号202は、視認範囲外の他のエージェントを示す。
See FIG. Now, the
また、参照符号203a、204b、205aはそれぞれ目的地VI、VII、VIIIでサービスを受けているエージェントを示し、参照符号203b及び203cは目的地VIでサービスを待っているエージェント、参照符号204bは目的地VIIでサービスを待っているエージェント、参照符号205b及び205cは目的地VIIIでサービスを待っているエージェントを示す。
第2実施形態の評価値算出手段50は、視認範囲内の他のエージェント201a〜201cの移動方向に基づいて、目的地VI、VII及びVIIIの待ち数を予測する。
Further,
The evaluation value calculating means 50 of the second embodiment predicts the number of waits for the destinations VI, VII, and VIII based on the moving directions of the
第2実施形態の評価値算出手段50は、図20に示す待ち時間算出手段70を備える。待ち時間算出手段70は、エージェント選択手段71と、視認範囲設定手段72と、移動方向取得手段73と、到達数予測手段74と、待ち時間予測手段75を備える。
待ち時間算出手段70は、現存エージェントの中から、処理対象の注目エージェントを選択する。
The evaluation value calculation means 50 of the second embodiment includes the waiting time calculation means 70 shown in FIG. The waiting
The waiting time calculation means 70 selects the agent of interest to be processed from the existing agents.
視認範囲設定手段72は、注目エージェントの視認範囲を設定する。視認範囲の角度範囲や視認距離は、注目エージェントの状況に応じて変更させてよい。例えば、待機中または処理中の視認範囲を、移動中の視認範囲よりも広く設定してよい。
例えば、注目エージェントが移動中であれば移動方向の左右90度の範囲を、待機中または処理中であればエージェント位置を中心とした360度の範囲としてよい。
視認範囲の角度範囲や視認距離を、各エージェントの移動速度に応じて変更させてもよい。また、好適には、空間情報記憶手段41に記憶されている空間情報111を利用し、視認範囲内の壁等の障害物に阻まれる領域を除外して視認範囲を設定する。
The viewing range setting means 72 sets the viewing range of the agent of interest. The angle range and the viewing distance of the viewing range may be changed according to the situation of the agent of interest. For example, the visible range during standby or processing may be set wider than the visible range during movement.
For example, if the agent of interest is moving, the range of 90 degrees to the left and right of the moving direction may be set, and if the agent is waiting or processing, the range may be 360 degrees centered on the agent position.
The angle range and the viewing distance of the viewing range may be changed according to the moving speed of each agent. Further, preferably, the
移動方向取得手段73は、エージェント情報記憶手段42に記憶されているエージェント情報122から、視認範囲内にある他エージェントの移動速度を、他エージェントの移動方向として取得する。
到達数予測手段74は、視認範囲内にある他エージェントの移動方向と、空間情報111に記憶される目的地の代表点とに基づいて、注目エージェントの統計情報130に記憶されている目的地diへ他のエージェントが到達する到達数を予測する。例えば、到達数予測手段74は、次式(9)に基づいて他のエージェントが目的地へ到達する到達数Rdiを予測してよい。
The movement direction acquisition means 73 acquires the movement speed of another agent within the visible range as the movement direction of the other agent from the
The arrival number predicting means 74 is the destination d stored in the
式(9)において、aは統計情報130に記憶されている目的地diへ向かっていると判断される他エージェントである。例えば、到達数予測手段74は、図19に示すように他エージェント201bの移動方向左右の所定角度θ内に目的地diが存在している場合、他エージェント201bは、目的地diに向かっていると判断してよい。また、式(9)において、raは、注目エージェントの統計情報130に記憶されている目的地のうち他エージェントaの移動方向左右の所定角度θ以内にある全ての目的地数を表す。
In the formula (9), a is the other agents that are determined to be heading to the destination d i stored in the
待ち時間予測手段75は、注目エージェントの統計情報130に記憶されている目的地に対して、待ち時間分布を予測する。待ち時間分布は、目的地の将来待ち数をサービス窓口数で除した結果と、その目的地で行動目的を実行する際にかかるサービス時間分布の積とで算出する。
目的地が注目エージェントの視認範囲に存在する場合、待ち時間予測手段75は、目的地の待ち数に、目的地への到達数を加算した和を目的地の将来待ち数とする。すなわち、目的地に存在する他のエージェント数の観測結果と到達数に基づいて、待ち時間分布を予測する。
The waiting time prediction means 75 predicts the waiting time distribution for the destination stored in the
When the destination is within the visible range of the agent of interest, the waiting time prediction means 75 sets the sum of the waiting number of the destination and the arrival number of the destination as the future waiting number of the destination. That is, the waiting time distribution is predicted based on the observation result and the number of arrivals of the number of other agents existing at the destination.
目的地が注目エージェントの視認範囲に存在しない場合には、注目エージェントの統計情報130に記憶されている当該目的地の待ち人数分布より代表値をサンプリングし、目的地への到達数を代表値に加算した和を目的地の将来待ち数とする。
すなわち、目的地への到達数と、統計情報130に記憶されている目的地における待ち時間の統計情報とに基づいて、待ち時間分布を予測する。
When the destination is not within the visible range of the attention agent, the representative value is sampled from the waiting number distribution of the destination stored in the
That is, the waiting time distribution is predicted based on the number of arrivals at the destination and the statistical information of the waiting time at the destination stored in the
次に、図21を参照して、第2実施形態の評価値算出手段50による所要時間分布算出処理を説明する。
ステップS100において評価値算出手段50は、注目エージェントの統計情報131に記憶されている局所経路の移動速度分布に基づいて、注目パターン(目的地パターン)に含まれる各目的地までの移動に要する移動時間分布を算出する。
Next, with reference to FIG. 21, the required time distribution calculation process by the evaluation value calculation means 50 of the second embodiment will be described.
In step S100, the evaluation value calculating means 50 moves to each destination included in the attention pattern (destination pattern) based on the movement speed distribution of the local route stored in the
ステップS101において評価値算出手段50は、注目エージェントの統計情報130に記憶されている目的地でのサービス時間分布に基づいて、注目パターン(目的地パターン)に含まれる各目的地でのサービス時間分布を算出する。
ステップS102において到達数予測手段74は、注目エージェントの統計情報130に記憶されている目的地に向かう他のエージェントの到達数を予測する。
In step S101, the evaluation value calculating means 50 has a service time distribution at each destination included in the attention pattern (destination pattern) based on the service time distribution at the destination stored in the
In step S102, the arrival number predicting means 74 predicts the arrival number of other agents heading for the destination stored in the
ステップS103において待ち時間予測手段75は、目的地に向かうエージェントの到達数と目的地の待ち数の観測値、又は目的地に向かうエージェントの到達数と注目エージェントの統計情報130に記憶されている当該目的地の待ち人数分布の代表値に基づいて、目的地での将来待ち数を予測する。
In step S103, the waiting time prediction means 75 is stored in the observed value of the number of arrivals of the agent toward the destination and the number of waits at the destination, or the number of arrivals of the agent toward the destination and the
ステップS104において待ち時間予測手段75は、将来待ち数と、サービス窓口数と、サービス時間分布に基づいて目的地における待ち時間分布を算出する。
ステップS105において、評価値算出手段50は、移動時間分布と、サービス時間分布と、待ち時間分布の和を、所要時間として算出する。その後に所要時間分布算出処理は終了する。
In step S104, the waiting time predicting means 75 calculates the waiting time distribution at the destination based on the number of future waits, the number of service counters, and the service time distribution.
In step S105, the evaluation value calculating means 50 calculates the sum of the travel time distribution, the service time distribution, and the waiting time distribution as the required time. After that, the required time distribution calculation process ends.
なお、上記各実施形態においては、待ち数分布、サービス時間分布、移動速度分布やそれに付随する各分布を正規分布として保持する例を示したが、これらの分布をヒストグラムとして保持してもよい。その場合、分布同士の演算は対応するビン同士の演算となり、観測値による分布の更新はビンの値の更新となる。また、各分布を正規分布以外の定式化された分布として保持することもでき、その場合、分布に対する演算をサンプリング法により行うなど、採用する分布に適した演算方法、更新方法を用いればよい。 In each of the above embodiments, an example of holding the waiting number distribution, the service time distribution, the moving speed distribution, and each distribution associated therewith as a normal distribution is shown, but these distributions may be held as a histogram. In that case, the calculation between the distributions is the calculation between the corresponding bins, and the update of the distribution by the observed value is the update of the bin value. Further, each distribution can be held as a formalized distribution other than the normal distribution. In that case, an calculation method or an update method suitable for the distribution to be adopted may be used, such as performing an operation on the distribution by a sampling method.
(実施形態の効果)
(1)シミュレータ1は、複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて複数の行動目的をそれぞれ達成する行動を模擬する。
評価値算出手段50は、複数の目的地の中から複数の行動目的の各々を達成する目的地の組合せを複数選択し、目的地の組合せ毎に、組み合わせた目的地で複数の行動目的を達成期限までに各々達成する確率の合計を、複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、合計に応じて評価値を算出する。
(Effect of embodiment)
(1) The
The evaluation value calculation means 50 selects a plurality of combinations of destinations that achieve each of a plurality of action objectives from a plurality of destinations, and achieves a plurality of action objectives at the combined destinations for each combination of destinations. The total probability of achieving each by the deadline is predicted based on the probability density distribution of each time required to achieve a plurality of action objectives, and the evaluation value is calculated according to the total.
行動模擬手段52は、目的地の複数の組合せの中から評価値に基づいて選択した目的地の組合せを順次訪れるように移動するエージェントの行動を模擬する。
評価値算出手段50は、複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を達成期限までに達成する確率を、残り時間の確率密度分布に基づいて予測する。
The behavior simulating means 52 simulates the behavior of an agent moving so as to sequentially visit a combination of destinations selected based on an evaluation value from a plurality of combinations of destinations.
The evaluation value calculation means 50 determines the probability density distribution of the time required for the action purpose to be achieved first among the plurality of action objectives and the probability density distribution of the remaining time according to the achievement deadline, and achieves the action purpose to be achieved later. The probability to be achieved by is predicted based on the probability density distribution of the remaining time.
これにより、行動目的の所要時間に関する個々のエージェントの経験や知識の偏りを反映させて、エージェント自身が、行動目的の所要時間を判断して臨機応変に行動目的や目的地を変更する群集行動を模擬することができる。 As a result, the agent himself judges the required time for the action purpose and flexibly changes the action purpose and the destination by reflecting the bias of the experience and knowledge of each agent regarding the time required for the action purpose. Can be simulated.
(2)評価値算出手段は、所定のサンプリング法によって残り時間の確率密度分布の標本をサンプリングし、当該標本と、後に達成する行動目的を達成するのに要する所要時間の確率密度分布とに基づいて、後に達成する行動目的を達成期限までに達成する確率を算出してよい。
これにより、複数の行動目的のうち後に達成する行動目的のための残り時間が確率密度分布となり、後に達成する行動目的を達成する確率の算出式を解析的に解くことができなくても、数値解析的に確率を求めることができる。
(2) The evaluation value calculation means samples a sample of the probability density distribution of the remaining time by a predetermined sampling method, and is based on the sample and the probability density distribution of the time required to achieve the action purpose to be achieved later. Then, the probability of achieving the action purpose to be achieved later by the achievement deadline may be calculated.
As a result, the remaining time for the action purpose to be achieved later among a plurality of action purposes becomes a probability density distribution, and even if the calculation formula of the probability of achieving the action purpose to be achieved later cannot be analytically solved, it is a numerical value. The probability can be calculated analytically.
(3)評価値算出手段は、残り時間のヒストグラムと、後に達成する行動目的を達成するのに要する所要時間の累積分布関数とに基づいて、ヒストグラムの各区間におけるヒストグラムの度数と累積分布関数の確率との積の合計を、後に達成する行動目的を達成期限までに達成する確率として算出してよい。
これにより、複数の行動目的のうち後に達成する行動目的のための残り時間が確率密度分布となり、後に達成する行動目的を達成する確率の算出式を解析的に解くことができなくても、数値解析的に確率を求めることができる。
(3) The evaluation value calculation means is based on the histogram of the remaining time and the cumulative distribution function of the time required to achieve the action purpose to be achieved later, and the frequency and the cumulative distribution function of the histogram in each section of the histogram. The sum of the products with the probabilities may be calculated as the probability of achieving the action objective to be achieved later by the achievement deadline.
As a result, the remaining time for the action purpose to be achieved later among a plurality of action purposes becomes a probability density distribution, and even if the calculation formula of the probability of achieving the action purpose to be achieved later cannot be analytically solved, it is a numerical value. The probability can be calculated analytically.
(4)評価値算出手段50は、複数の行動目的の各々を達成する確率を複数の行動目的の効用で重み付けした確率の合計である評価値を算出してよい。
これにより、エージェント毎に異なる行動目的の優先度に応じて目的地を選択する行動を模擬することができる。
(4) The evaluation value calculating means 50 may calculate an evaluation value which is the sum of the probabilities of weighting the probabilities of achieving each of the plurality of action objectives by the utility of the plurality of action objectives.
As a result, it is possible to simulate an action of selecting a destination according to the priority of an action purpose different for each agent.
1…シミュレータ、2…操作入力部、3…ファイル入出力部、4…記憶部5…制御部、6…表示部、20…条件設定手段、40…模擬条件記憶手段、41…空間情報記憶手段、42…エージェント情報記憶手段、43…統計情報記憶手段、50…評価値算出手段、51…目的地選択手段、52…行動模擬手段、53…統計情報更新手段、60…予測結果出力手段、70…時間算出手段、71…エージェント選択手段、72…視認範囲設定手段、73…移動方向取得手段、74…到達数予測手段、75…時間予測手段、100…地図情報、110…行動目的情報、111…空間情報、120、121、122、123…エージェント情報、130、131…統計情報
1 ... Simulator, 2 ... Operation input unit, 3 ... File input / output unit, 4 ...
Claims (6)
前記複数の目的地の中から前記複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択手段と、
前記目的地の組合せ毎に、組み合わせた前記目的地で前記複数の行動目的を達成期限までに各々達成する確率の合計を、前記複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、前記合計に応じて評価値を算出する評価値算出手段と、
前記目的地の複数の組合せの中から前記評価値に基づいて選択した目的地の組合せを順次訪れるように移動する前記エージェントの行動を模擬する行動模擬手段と、を備え、
前記評価値算出手段は、前記複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と前記達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を前記達成期限までに達成する確率を、前記残り時間の確率密度分布に基づいて予測する、
ことを特徴とするシミュレータ。 A simulator that simulates an action in which an agent having a plurality of action objectives achieves the plurality of action objectives at a plurality of destinations in a predetermined space.
A combination selection means for selecting a plurality of combinations of destinations that achieve each of the plurality of action objectives from the plurality of destinations.
For each combination of the destinations, the sum of the probabilities of achieving the plurality of action objectives at the combined destinations by the achievement deadline is the probability density of each time required to achieve the plurality of action objectives. An evaluation value calculation means that makes a prediction based on the distribution and calculates an evaluation value according to the total.
It is provided with an action simulating means for simulating the behavior of the agent who moves so as to sequentially visit a combination of destinations selected based on the evaluation value from a plurality of combinations of the destinations.
The evaluation value calculating means determines the probability density distribution of the time required for the action purpose to be achieved first among the plurality of action purposes and the probability density distribution of the remaining time according to the achievement deadline, and determines the action purpose to be achieved later. The probability of achieving the achievement by the deadline is predicted based on the probability density distribution of the remaining time.
A simulator that features that.
ことを特徴とする請求項2に記載のシミュレータ。 The evaluation value calculation means is based on the histogram of the remaining time and the cumulative distribution function of the time required to achieve the action purpose to be achieved later, and the frequency of the histogram and the cumulative number in each section of the histogram. The sum of the products with the probabilities of the distribution function is calculated as the probability of achieving the action objective to be achieved after the above by the achievement deadline.
The simulator according to claim 2.
前記複数の目的地の中から前記複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択処理と、
前記目的地の組合せ毎に、組み合わせた前記目的地で前記複数の行動目的を達成期限までに各々達成する確率の合計を、前記複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、前記合計に応じて評価値を算出する評価値算出処理と、
前記目的地の複数の組合せの中から前記評価値に基づいて選択した目的地の組合せを順次訪れるように移動する前記エージェントの行動を模擬する行動模擬処理と、
をコンピュータが実行し、
前記評価値算出処理において、前記複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と前記達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を前記達成期限までに達成する確率を、前記残り時間の確率密度分布に基づいて予測することを特徴とするシミュレーション方法。 It is a simulation method that simulates an action in which an agent having a plurality of action objectives achieves the plurality of action objectives at a plurality of destinations in a predetermined space.
A combination selection process for selecting a plurality of combinations of destinations that achieve each of the plurality of action objectives from the plurality of destinations.
For each combination of the destinations, the sum of the probabilities of achieving the plurality of action objectives at the combined destinations by the achievement deadline is the probability density of each time required to achieve the plurality of action objectives. Evaluation value calculation processing that predicts based on the distribution and calculates the evaluation value according to the total,
An action simulation process that simulates the behavior of the agent who moves so as to sequentially visit a combination of destinations selected based on the evaluation value from a plurality of combinations of the destinations.
The computer runs,
In the evaluation value calculation process, the probability density distribution of the time required for the action purpose to be achieved first among the plurality of action purposes and the probability density distribution of the remaining time according to the achievement deadline are determined, and the action purpose to be achieved later is determined. A simulation method characterized in that the probability of achievement by the achievement deadline is predicted based on the probability density distribution of the remaining time.
前記複数の目的地の中から前記複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択処理と、
前記目的地の組合せ毎に、組み合わせた前記目的地で前記複数の行動目的を達成期限までに各々達成する確率の合計を、前記複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、前記合計に応じて評価値を算出する評価値算出処理と、
前記目的地の複数の組合せの中から前記評価値に基づいて選択した目的地の組合せを順次訪れるように移動する前記エージェントの行動を模擬する行動模擬処理と、
をコンピュータに実行させ、
前記評価値算出処理において、前記複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と前記達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を前記達成期限までに達成する確率を、前記残り時間の確率密度分布に基づいて予測することを特徴とするシミュレーションプログラム。 It is a simulation program that simulates an action in which an agent having a plurality of action objectives achieves the plurality of action objectives at a plurality of destinations in a predetermined space.
A combination selection process for selecting a plurality of combinations of destinations that achieve each of the plurality of action objectives from the plurality of destinations.
For each combination of the destinations, the sum of the probabilities of achieving the plurality of action objectives at the combined destinations by the achievement deadline is the probability density of each time required to achieve the plurality of action objectives. Evaluation value calculation processing that predicts based on the distribution and calculates the evaluation value according to the total,
An action simulation process that simulates the behavior of the agent who moves so as to sequentially visit a combination of destinations selected based on the evaluation value from a plurality of combinations of the destinations.
Let the computer run
In the evaluation value calculation process, the probability density distribution of the time required for the action purpose to be achieved first among the plurality of action purposes and the probability density distribution of the remaining time according to the achievement deadline are determined, and the action purpose to be achieved later is determined. A simulation program characterized in that the probability of achievement by the achievement deadline is predicted based on the probability density distribution of the remaining time.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020038113A JP7457536B2 (en) | 2020-03-05 | 2020-03-05 | Simulator, simulation method, and simulation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020038113A JP7457536B2 (en) | 2020-03-05 | 2020-03-05 | Simulator, simulation method, and simulation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021140490A true JP2021140490A (en) | 2021-09-16 |
JP7457536B2 JP7457536B2 (en) | 2024-03-28 |
Family
ID=77668672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020038113A Active JP7457536B2 (en) | 2020-03-05 | 2020-03-05 | Simulator, simulation method, and simulation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7457536B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7441080B2 (en) | 2020-03-05 | 2024-02-29 | セコム株式会社 | Simulator, simulation method and simulation program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100901082B1 (en) | 2007-05-22 | 2009-06-03 | 엔에이치엔(주) | Method and System for Analyzing Competition Result |
JP5949179B2 (en) | 2012-06-04 | 2016-07-06 | 富士通株式会社 | Prediction program, prediction device, and prediction method |
JP6436241B2 (en) | 2015-08-14 | 2018-12-12 | 富士通株式会社 | Simulation program, simulation method, and simulation apparatus |
JP2019125312A (en) | 2018-01-19 | 2019-07-25 | 富士通株式会社 | Simulation program, simulation method and simulation device |
JP7060460B2 (en) | 2018-06-19 | 2022-04-26 | セコム株式会社 | Simulator, simulation method and simulation program |
JP7074580B2 (en) | 2018-06-19 | 2022-05-24 | セコム株式会社 | Simulator, simulation method and simulation program |
-
2020
- 2020-03-05 JP JP2020038113A patent/JP7457536B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7441080B2 (en) | 2020-03-05 | 2024-02-29 | セコム株式会社 | Simulator, simulation method and simulation program |
Also Published As
Publication number | Publication date |
---|---|
JP7457536B2 (en) | 2024-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6761789B2 (en) | People flow forecasters, systems and programs | |
US7177851B2 (en) | Method and apparatus for dynamic, real-time market segmentation | |
JP6236448B2 (en) | Sensor arrangement determination device and sensor arrangement determination method | |
US11058957B2 (en) | Method, device and system for game difficulty assessment | |
JP2006221329A (en) | Behavior prediction device, behavior prediction method, and behavior prediction program | |
Haghani et al. | How perception of peer behaviour influences escape decision making: The role of individual differences | |
WO2014143729A1 (en) | Method and apparatus for interactive evolutionary optimization of concepts | |
Drakoulis et al. | A gamified flexible transportation service for on-demand public transport | |
JP7457536B2 (en) | Simulator, simulation method, and simulation program | |
JP2021140491A (en) | Simulator, simulation method and simulation program | |
JP7492840B2 (en) | Simulator, simulation method, and simulation program | |
AU2010245350A1 (en) | System for generating a housing price index | |
CN110276387A (en) | A kind of generation method and device of model | |
Agogino et al. | Learning indirect actions in complex domains: action suggestions for air traffic control | |
US11120386B2 (en) | Computer-readable recording medium, simulation method, and simulation apparatus | |
Chow | A crowdsourcing–geocomputational framework of mobile crowd simulation and estimation | |
JP7074580B2 (en) | Simulator, simulation method and simulation program | |
EP4104115A1 (en) | Eliciting preferences for passenger traffic group control | |
JP2000322402A (en) | Stream of people analyzing method | |
JP7060460B2 (en) | Simulator, simulation method and simulation program | |
CN106951581B (en) | Commercial complex simulator | |
JP7500504B2 (en) | Information processing device, information processing method, and program | |
JP2019185074A (en) | Simulator, simulation method and action determination device | |
Levinson | An evolutionary transportation planning model: Structure and application | |
WO2021235296A1 (en) | Mobile body movement prediction system and mobile body movement prediction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7457536 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |