JP7457536B2 - シミュレータ、シミュレーション方法及びシミュレーションプログラム - Google Patents
シミュレータ、シミュレーション方法及びシミュレーションプログラム Download PDFInfo
- Publication number
- JP7457536B2 JP7457536B2 JP2020038113A JP2020038113A JP7457536B2 JP 7457536 B2 JP7457536 B2 JP 7457536B2 JP 2020038113 A JP2020038113 A JP 2020038113A JP 2020038113 A JP2020038113 A JP 2020038113A JP 7457536 B2 JP7457536 B2 JP 7457536B2
- Authority
- JP
- Japan
- Prior art keywords
- agent
- time
- destination
- behavioral
- evaluation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 140
- 238000004088 simulation Methods 0.000 title claims description 66
- 238000009826 distribution Methods 0.000 claims description 255
- 230000003542 behavioural effect Effects 0.000 claims description 150
- 238000011156 evaluation Methods 0.000 claims description 143
- 238000004364 calculation method Methods 0.000 claims description 106
- 230000008569 process Effects 0.000 claims description 103
- 230000009471 action Effects 0.000 claims description 102
- 238000012545 processing Methods 0.000 claims description 39
- 230000001186 cumulative effect Effects 0.000 claims description 10
- 238000005315 distribution function Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 2
- 239000003795 chemical substances by application Substances 0.000 description 466
- 230000006399 behavior Effects 0.000 description 91
- 238000010586 diagram Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
一般に、大勢の人々が集まる空間には複数の目的(行動目的)に対してそれを達成できる場所(目的地)が存在し、マルチエージェントシミュレーションではエージェントそれぞれの行動目的と目的地を決定する必要がある。
例えば特許文献1にはT字路の通行者を模した個体それぞれに対してA駅への移動、B駅への移動、観客席への移動等の目的と西側連絡口、東側連絡口、南側連絡口等の移動目標位置とをシミュレータの利用者が予め設定することが記載されている。また、例えば特許文献2には属性がリーダーである個体の選択目的と選択目的に対応する選択エリアを避難・出口エリアと消火・燃焼エリアの中から抽選によって決定することが記載されている。
しかしながら、従来のシミュレータが行うマルチエージェントシミュレーションでは、各エージェントの行動目的や目的地をシミュレータの利用者が予め設定し、または各時点で抽選していた。このため、従来技術では、複数の行動目的を有するエージェントが時間制限の下で達成の可能性を考慮して行う順序決めと選択を反映した群集行動を模擬することが困難であった。
例えばシミュレータの利用者が予め設定する場合は個体と行動目的の組み合わせの数だけ設定しなければならない上、その一つひとつを先の行動目的と後の行動目的の達成可能性を考慮して設定しなければならない。また、例えば抽選による決定は複数の行動目的と目的地を決めるものではなく、先の行動目的と後の行動目的の達成可能性を考慮して決めるものでもなかった。
すなわち、本実施形態において、シミュレーションの対象となる空間(対象空間)は劇場であり、群集を構成する個体は人であり、各個体の行動目的は、劇場の座席への「着席」と、「用便」と、「買い物」である。以下、シミュレータにおける個体のデータを「エージェント」と表記する。
なお、本明細書において説明される劇場は、あくまで対象空間の一例であり、本発明の対象はこれに限定されるものではない。
(構成)
図1は、第1実施形態に係るシミュレータの一例の概略構成図である。
シミュレータ1は、操作入力部2、ファイル入出力部3、記憶部4、制御部5、および表示部6からなる。これらのうちのファイル入出力部3、記憶部4および制御部5はいわゆるコンピュータで実現でき、操作入力部2および表示部6は当該コンピュータの周辺機器として実現できる。
操作入力部2は、キーボード、マウス等のユーザーインターフェースであり、利用者に操作されてデータの入力等に用いられる。操作入力部2は、制御部5に接続され、利用者の操作を操作信号に変換して制御部5に出力する。
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、制御部5と接続されて制御部5との間でこれらの情報を入出力する。
表示部6は、液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、制御部5と接続され、制御部5による予測結果を表示する。利用者は表示された予測結果を視認して群集の行動に関する考察等を行う。
図2は、第1実施形態に係るシミュレータ1の一例の機能ブロック図である。
操作入力部2は、条件設定手段20の一部等として機能し、ファイル入出力部3は条件設定手段20の一部および予測結果出力手段60の一部等として機能する。
記憶部4は模擬条件記憶手段40、空間情報記憶手段41、エージェント情報記憶手段42および統計情報記憶手段43等として機能する。
条件設定手段20は、シミュレーションに必要な各種条件の入力を受け付け、入力された条件を模擬条件記憶手段40、空間情報記憶手段41、エージェント情報記憶手段42および統計情報記憶手段43に記憶させる。
条件設定手段20により入力されて模擬条件記憶手段40が記憶する条件は、例えば、仮想時刻の上限T、行動決定間隔、観測間隔、エージェント基本速さ(1時刻で進もうとする距離)の設定を含む。
仮想時刻は、実際の時間の経過を模擬したものであるが、シミュレータが1時刻分の演算を終えるたびに進められ、実際の時間の経過よりも高速に刻まれる。例えば、仮想時刻の1時刻を実際の0.1秒間に対応させ、仮想時刻を0から始まり1ずつ増加する整数で表す。
図3は地図情報100の一例の模式図であり、図4は、行動目的情報110及び目的地情報111の一例を示す図である。これらの空間情報は、目的地情報111に含まれる「キュー」を除いて、条件設定手段20を用いた利用者による入力操作により予め設定される。
またローマ数字I~Xは、各目的地に付与される目的地IDであり、図3の地図情報100において各目的地の場所を示している。
2重丸印Q1~Q10は、各目的地I~Xの位置を表す代表点の位置を示す。実際には領域である目的地I~Xの位置を、点情報として定義して取り扱いを容易にしている。
丸印Q11~Q21は、エージェントが壁を回避しながら移動可能領域を移動するために経由できる経由点を示す。移動可能領域でエージェントが移動する経路は、代表点同士、経由点同士、代表点と経由点を結ぶ局所的な経路(以下、「局所経路」と表記する)により定義される。
また、目的地情報111は、目的地ID(I~X)に対応付けて、各目的地の「目的地名」、「代表点」、「性別制限」、「サービス窓口数」、「達成可能な行動目的」、「サービス時間分布」及び「キュー」を含んでいる。
「代表点」は、上述した代表点Q1~Q10のXY座標値である。
「サービス窓口数」は、当該目的地を同時に利用可能なエージェントの最大数である。以下の説明において「サービス」とは、行動目的の達成のための目的地の利用を意味する。例えば、目的地が「トイレ」であればサービスは用便のための場所の提供であり、目的地が「売店」であればサービスは販売役務である。
「サービス時間分布」は、当該目的地におけるサービスの所要時間(以下「サービス時間」と表記する)を確率分布で表した統計情報である。例えば、サービス時間を正規分布で表したときの平均値と分散が記憶される。サービス時間分布は、当該目的地において各エージェントが行動目的を達成するのに要したサービス時間を決定するのに使用される。
キュー内の順序がサービス窓口数以下であるエージェントが、目的地においてサービスを受けているエージェントであり、キュー内の順序がサービス窓口数より大きなエージェントが、サービス待ちのエージェントである。また、サービス待ちのエージェントの数が待機数(待ち数)である。
図5、図6、図7及び図8に、それぞれエージェント情報120、121、122及び123の一例を示す。各図において数値の横にかぎ括弧で示した文字列は図の見易さを考慮して意味を付記したものである。
例えばエージェント情報120の初期位置において(4.55,14.00)「扉1」と表記した個所に実際に記憶されているのは値(4.55,14.00)であり、それは「扉1」の座標を意味する。なお、以下の説明では、値の表記を省略して代わりに意味で説明する場合もある。
図5の例は、女性のエージェント#1が、「幕間1」内の仮想時刻0に「扉1」の座標に生成されることを示している。また「幕間2」及び「幕間3」については説明を省略する。さらに「幕間4」内の仮想時刻99600に「扉3」の座標に生成されること等を示している。第1実施形態のシミュレーションの例では、同一エージェントが複数回生成されることに注意されたい。
「達成期限」は、各場面のエージェントの各行動目的に対する達成期限であり、当該エージェントの生成時刻以降の仮想時刻が指定される。
「希望達成度」は、各場面のエージェントの各行動目的の達成に対する優先度合いである。例えば、希望達成度は、行動目的を達成したことによってエージェントが得ることができる主観的な満足度合い(効用)であってよい。希望達成度が高い行動目的ほど優先度合いが高い。
「達成フラグ」は、各場面のエージェントの各行動目的が達成されたか否かを表すフラグである。達成フラグの初期値は「0」であり、値「0」は未達成、値「1」は達成済みを示す。
「目的地ID」は、仮想時刻が示す時点の各エージェントが移動の目標としている目的地のIDを示す。なお、第1実施形態のシミュレータ1の例では、生成時刻における目的地IDは空欄としている。
「局所経路」は、仮想時刻が示す時点の各エージェントが移動している局所経路を示す。なお、第1実施形態のシミュレータ1の例では、生成時刻および移動していない時刻における局所経路は空欄としている。
移動速度は、あくまで各エージェントが意図する移動量であって、必ずしも仮想時刻が示す時点にエージェントが移動する移動量と一致するとは限らない。例えば、エージェント間の物理的な制約等によって、現時刻の位置が前時刻の位置に現時刻の移動速度を加えた値にならない場合もある。
また、便宜上、生成時刻における移動速度と、目的地に到達してから当該目的地で達成可能な行動目的を達成するまでの移動速度は0ベクトルとする。
目的地に到達してから当該目的地で達成可能な行動目的を達成するまでは目的地の代表点の座標が設定される。
「移動中」は、目的地に未到達であり移動中であることを示す。
「待機中」は、目的地に到達したがサービス待ちであることを示す。
「処理中」は、目的地にてサービスを受けていることを示す。
「達成」は、目的地にてサービスを受け終わり行動目的を達成したことを示す。
第1実施形態のシミュレータ1の例では、便宜上、生成時刻における状況として「達成」を指定する。
例えば「幕間1」の「エージェント#1」が「女子トイレ1」「売店2」「客席」の順に移動して、時刻「2909」「2969」において「売店2」「客席」で行動目的を達成したことが、その間の各時刻の移動速度、位置および状況とともに記録されている
また、その過程において、時刻「1322」から「2686」まで「売店2」でサービス待ちであったこと、時刻「2687」から「2908」までサービスを受けたことが記録されている。
「サービス完了時刻」は、当該目的地にて当該エージェントがサービスを受け終わる時刻である。
図8のエージェント情報123には、図4の空間情報111に例示した売店1~5のキューの先頭のエージェント#9、#34、#76、#5、#36などに対してサービス完了時刻が保持されている。
エージェント情報121に含まれる行動目的、行動目的毎の達成期限、行動目的毎の希望達成度および行動目的毎の終端目的フラグ、並びに、エージェント情報122に含まれる目的地、局所経路および移動速度は、行動パラメータの一例である。行動パラメータは、エージェントの状態値に作用するパラメータである。
なお、図5~図8に示したエージェント情報120、121、122及び123は、あくまで一例であり、本発明のエージェント情報の構成はこれに限定されるものではない。
統計情報記憶手段43が記憶する情報は、各目的地において行動目的を達成するのに要する所要時間に関する統計情報である。かかる統計情報を、エージェント毎に記憶することにより、実世界の各個体が所要時間について有する知識の違いを模擬することができる。すなわち、統計情報記憶手段43は、エージェント毎に、複数の目的地で行動目的を達成するのに要する各々の所要時間に関する統計情報を記憶する。
目的地における待ち時間は、当該目的地における待ち数を当該目的地のサービス窓口数で除した結果と、サービス時間との積で算出されるとモデル化する。
このため、統計情報記憶手段43は、エージェント毎に、目的地毎の待ち数の確率分布(待ち数分布)、目的地毎のサービス時間の確率分布(サービス時間分布)、局所経路毎の移動速度の確率分布(移動速度分布)を統計情報として記憶している。
例えば待ち数分布、サービス時間分布、移動速度分布のそれぞれを正規分布でモデル化する。そして各分布を観測値で更新するために待ち数分布、サービス時間分布、移動速度分布のそれぞれの正規分布のパラメータの同時確率分布を用いる。統計情報記憶手段43は、待ち数分布、サービス時間分布、移動速度分布のそれぞれ同時確率分布のパラメータである平均値μ、自由度ν、仮説的標本数κ、尺度母数λの4パラメータを記憶する。同時確率分布をΝ・χ―2(μ,ν,κ,λ)と表記する。
また、エージェントと所要時間の組合せの一部を設定せず、当該組合せについて統計情報記憶手段43が記憶しない初期設定としてもよい。これにより、例えばエージェント#1が売店4の存在を知らないというような、実世界の個体における知識の欠落を模擬することができる。
本実施形態では、エージェント毎に各行動目的に対応する1以上の目的地に関する分布(待ち数分布、及びサービス時間分布)の初期値を記憶する初期設定とする。記憶される目的地は事前のランダム抽選により決定しておく。また、本実施形態では、局所経路に関してはエージェントと局所経路の全組合せについて局所経路に関する分布(移動速度分布)の初期値を記憶する初期設定とする。
また、本実施形態において統計情報記憶手段43は、エージェント毎の情報とは別に、目的地毎に当該目的地に関する分布の初期値を記憶する。この情報は各エージェントが目的地を初めて観測したときの初期値として利用される。
また、統計情報記憶手段43は、エージェントと所要時間の組合せのうちの記憶していない組合せについて(すなわち、エージェントが知らない目的地や局所経路について)、観測値が得られた時点で追加して記憶することで、実世界の個体における新たな知識の獲得を模擬してもよい。
統計情報130は、エージェントIDと目的地IDの組合せに対応付けられた「待ち数分布」と「サービス時間分布」を含む。
「待ち数分布」と「サービス時間分布」は、それぞれ当該エージェントが、当該目的地について記憶している「待ち数分布」と「サービス時間分布」の同時確率分布である。
図9の統計情報130の例では、エージェント#1について、客席、女子トイレ1、男子トイレ1、売店1、売店2および売店3の待ち数分布およびサービス時間分布が記憶され、女子トイレ2、男子トイレ2、売店4および売店5の分布は記憶されていない。
統計情報131は、エージェントIDと局所経路の組合せに対応付けられた「移動速度分布」を含む。「移動速度分布」は、当該エージェントが、当該局所経路について記憶している「移動速度分布」の同時確率分布である。
上記の通り、各場面においてエージェントが達成すべき行動目的が複数設定することがあるため、各場面において達成すべき行動目的は、複数設定された行動目的の順列(以下「行動パターン」と表記する)によって表現される。
また、同じ行動目的を達成できる複数の目的地が存在することがある。この場合には各々行動目的を達成する目的地には複数の選択肢がある。
評価値算出手段50は、各行動パターンに対して選択しうる目的地の選択肢毎に評価値を算出する。そして、エージェントと選択肢と評価値とを対応付けた評価値情報を目的地選択手段51に出力する。なお、行動パターンに対して選択しうる目的地の選択肢は目的地の順列となり、以下その順列を「目的地パターン」と表記する。
例えば、図6のエージェント情報121におけるエージェント#1であれば、仮想時刻が0の時の行動パターンは、P1={用便,買い物,着席}、P2={買い物,用便,着席}、P3={用便,着席}、P4={買い物,着席}、P5={着席}の5通りとなる。
例えば、図6のエージェント情報121における幕間1のエージェント#1の行動パターンP1={用便,買い物,着席}に対し、図4の空間情報111および図9の統計情報130を参照して生成される目的地パターンは、M11={女子トイレ1,売店1,客席}、M12={女子トイレ1,売店2,客席}、M13={女子トイレ1,売店3,客席}の3通りとなる。
Pisは、行動パターンPiの第s要素(すなわちs番目に実行する行動目的)を示す。
mijsは、目的地パターンMijの第s要素(すなわちs番目の目的地)を示す。
p(Pis,mijs)は、行動目的Pisの達成期限までに、行動目的Pisを目的地mijsで達成する確率である。以下、この確率を成功確率と称する。上記の通り、行動目的Pisの達成期限は、エージェント情報121として設定されており、図6に示すとおり、エージェント毎に、各場面で達成すべき行動目的の行動目的ID毎にそれぞれ達成期限が指定されている。成功確率p(Pis,mijs)の算出方法の詳細は後述する。
例えば、図6のエージェント情報121における幕間1のエージェント#1の行動パターンP1に対する希望達成度は、s=1のとき100、s=2のとき40、s=3のとき35である。
なお、別の実施形態として希望達成度による重み付けを省略することもできる。
また、さらに別の実施形態として、重み付け成功確率の総和、または成功確率の総和に代えて、重み付け成功確率の積、または成功確率の積など、成功確率が高いほど評価値が高くなる他の増加関数を定義して用いることもできる。
評価値算出手段50は、エージェント毎に、統計情報記憶手段43に記憶された統計情報に基づいて、行動目的Pisの達成期限までに複数の目的地mijsで行動目的Pisを達成する各々の成功確率p(Pis,mijs)を予測し、成功確率p(Pis,mijs)に応じて評価値Eを算出する。
このとき、複数の行動目的Pisを達成しようとするエージェントの目的地を選択するために、複数の目的地mijsの中から複数の行動目的Pisの各々を達成する目的地mijsの組合せである目的地パターンMijを複数選択して、目的地パターンMijに属する目的地mijsで複数の行動目的Pisをそれぞれ達成する確率p(Pis,mijs)に応じて評価値Eを算出する。
また、評価値算出手段50は、行動目的に対する優先度をエージェント毎に異ならせたことに関連して、エージェントによる優先度の違いに応じた目的地選択を可能とするために、複数の行動目的Pisの各々を達成する確率p(Pis,mijs)を複数の行動目的の希望達成度V(Pis)で重み付けて評価値Eを算出する。
はじめに、評価値算出手段50は、式(3)及び式(4)を利用するために、目的地パターンMijに含まれる各目的地(mij1,mij2,…)において、各行動目的(Pi1,Pi2,…)を実行する場合の所要時間Tdの確率分布である所要時間分布(f1(Td),f2(Td),…)を算出する。
また、同時確率分布のパラメータ(平均値μ、自由度ν、仮説的標本数κ、尺度母数λ)とそれが表す正規分布N(μ,σ2)の間には分散σ2=λ/(ν-2)の関係がある。
また、各分布を正規分布で表した場合、和の分布の平均値は元の分布の平均値同士の和となり、和の分布の分散は元の分布の分散同士の和となる。
そして、評価値算出手段50は、sごとの移動時間分布と待ち時間分布とサービス時間分布との和を当該sについての所要時間分布fs(Td)として算出する。
s=1のときの残り時間、すなわち、行動パターンPiの1番目の行動目的Pi1の達成期限Tlim(Pi1)までの残り時間Tr(Pi1)はスカラとなる。評価値算出手段50は、s=1の場合、達成期限Tlim(Pi1)から現在時刻tcを減じた差を残り時間Tr(Pi1)として算出する。
s>1のときの残り時間、すなわち、行動パターンPiの2番目以降の行動目的Pi2、Pi3、…の達成期限までの残り時間は確率分布となる。つまり、2番目以降の行動目的Pi2、Pi3、…を達成するために残された時間は、その行動目的よりも前に実行される行動目的の所要時間T1 d,…,Ts-1 dに左右され、行動目的の所要時間T1 d,…,Ts-1 dは各々所要時間分布f1(Td)~fs-1(Td)に従う確率変数として定義されるから、2番目以降の行動目的Pi2、Pi3、…の残り時間Trもまた確率分布に従う確率変数として算出される。この確率分布を残り時間分布gs(Tr)と定義する。なお、所要時間分布が正規分布である本実施形態においては、残り時間分布もまた正規分布となる。
評価値算出手段50は、s>1の場合、s番目の行動目的Pisの達成期限Tlim(Pis)と現在時刻tcとの差を求め、さらに1番目からs-1番目の行動目的Pi1~Pi(s-1)の達成にかかる所要時間分布f1(Td)~fs-1(Td)の総和を求める。求めた分布を総和分布と称する。そして、評価値算出手段50は、上記差から上記総和分布の平均値を減じた値と、上記総和分布の分散を用いて残り時間分布gs(Tr)を算出する。つまり、残り時間分布gs(Tr)の平均値は上記差から上記総和分布の平均値を減じた値であり、残り時間分布gs(Tr)の分散は上記総和分布の分散である。
本実施形態においては、積分値Fs(Tr)は、所要時間分布fs(Td)が正規分布であるため、式(3)に示すように所要時間分布fs(Td)の平均値μと分散σ2と残り時間Tr(式(4)により算出したTr(Pi1))とから算出することができる。式(3)におけるerfは誤差関数である。そして、式(2)に示すように、式(3)で算出した積分値Fs(Tr)がそのまま成功確率p(Pi1,mij1)となる。
図10の(a)は、1番目の行動目的Pi1の達成に要する所要時間分布f1(Td)の一例を示し、図10の(b)は、所要時間分布f1(Td)の累積分布関数F1(Tr)を示す。図中のμ1は所要時間分布f1(Td)の平均値であり、所要時間がTr(Pi1)のときの累積分布関数F1(Tr)の値が成功確率p(Pi1,mij1)である。
本実施形態においては、評価値算出手段50は、s番目(s=2、3、…)の行動目的Pisの達成期限までの残り時間分布gs(Tr)を、任意の時間間隔で離散化してヒストグラムを算出する。
評価値算出手段50は、ヒストグラムの各ビン(各区間)b1~b5の生起確率(度数)と、各ビンb1~b5の代表値Tr1~Tr5の累積分布関数値Fs(Tr1)~Fs(Tr5)の積和を、成功確率p(Pis,mijs)として算出する。なお、ビンb1の生起確率は、ビンの幅をwとすると、残り時間分布gs(Tr)の-∞からビンb1の右端Tr1+w/2までの積分値から残り時間分布gs(Tr)の-∞からビンb1の左端Tr1-w/2までの積分値を減じることで算出できる。他のビンの生起確率も同様である。また、残り時間分布gs(Tr)が正規分布である本実施形態において、式(3)と同様、ビンの右端までの積分値は時刻gs(Tr)の平均値μおよび分散σ2とビンの右端の時刻とを誤差関数に適用して算出でき、ビンの左端までの積分値はgs(Tr)の平均値μおよび分散σ2とビンの左端の時刻とを誤差関数に適用して算出できる。
評価値算出手段50は、行動パターンPiに対応する目的地パターンMij毎に、目的地パターンMijに属する目的地mijsで行動目的Pisを達成期限までに各々達成する確率p(Pis,mijs)の合計を、複数の行動目的Pisの各々を達成するのに要する所要時間Tdの確率密度分布fs(Td)に基づいて予測する。
また、評価値算出手段50は、複数の行動目的Pisのうち先に達成する行動目的の所要時間の確率密度分布f1(Td)~fs-1(Td)と達成期限に応じて残り時間の確率密度分布gs(Tr)を決定し、残り時間の確率密度分布gs(Tr)に基づいて、後に達成する行動目的を達成期限までに達成する確率p(Pis,mijs)を予測する。
また、評価値算出手段50は、残り時間分布gs(Tr)のヒストグラムと、後に達成する行動目的を達成するのに要する所要時間分布fs(Td)の累積分布関数とに基づいて、ヒストグラムの各区間におけるヒストグラムの度数と累積分布関数の確率との積の合計を、確率p(Pis,mijs)として算出する。
また、評価値Eは、確率p(Pis,mijs)に応じて算出されるため、目的地での待ち時間が短いほど評価値Eは高くなる。
行動決定タイミングは、例えば、各エージェントの生成時刻、行動目的の達成時(但し最後の行動目的を除く)、予め定めた行動決定間隔(例えば10仮想時刻)のいずれかが到来したタイミングであってよい。
評価値算出手段50は、エージェント情報122にて1時刻前の状況が「達成」であるエージェントを検出することにより、生成時刻の直後、行動目的を達成した直後の現存エージェントの行動決定タイミングが到来したことを判定する。
また、現時刻と生成時刻の差が行動決定間隔の倍数であることを以って、全ての現存エージェントに対して行動決定タイミングが到来したことを判定する。
具体的には、例えばエージェント毎に評価値が最高の目的地パターンMijを選択し、選択した目的地パターンMijにおける1番目の目的地のIDを、エージェントIDおよび現時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。
現時刻が行動決定タイミングではない現存エージェントについては、1時刻前の目的地IDを、エージェントIDおよび現時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。
また例えば、各目的地パターンMijの評価値Eの順位に応じた確率で当選する抽選を行って、当選した目的地パターンを選択してもよい。この場合、順位と確率の関係は予め定めておく。
行動模擬手段52は、生成時刻が到来したエージェントを現存エージェントとして生成する。
行動模擬手段52は、終端目的フラグが1である行動目的の達成フラグが1に更新されたエージェントを消去する。なお、第1実施形態のシミュレータ1では、エージェントを明示的に消去するのに代えて、次の仮想時刻以降のデータをエージェント情報122に追記しない。
行動模擬手段52は、現存エージェントの1時刻前のデータと現時刻のデータを抽出する。
具体的には、行動模擬手段52は現時刻におけるエージェントの移動速度と位置を決定する。まず、行動模擬手段52は、空間情報111から、該当する各エージェントの現時刻tにおける目的地の代表点と、移動可能領域と、経由点を読み出す。
次に、行動模擬手段52は、選択した最短経路上の経由点と代表点のうちの位置xi(t-1)から最も近い点に向かい、大きさがエージェント基本速さに等しいベクトルを、目的地に近付ける移動速度として算出する。
一方で、現時刻の位置が目的地の代表点と一致したエージェント(目的地に到達したエージェント)については、以下のとおり、目的地のキュー(目的地に滞在しているエージェントの待ち行列)と状況を更新する。
このとき、追加後のキュー内のエージェント数がサービス窓口数以下であればエージェント情報122における現時刻の状況を「処理中」に更新する。
さらに、空間情報111から当該目的地に関するサービス時間分布を読み出し、読み出した正規分布にボックス=ミュラー法を適用して当該目的地におけるサービス時間を算出する。
目的地に到達したエージェントのIDと、算出したサービス時間を現時刻に加算したサービス完了時刻の組をエージェント情報123に追記する。
一方で、追加後のキュー内のエージェント数がサービス窓口数より多ければエージェント情報122における現時刻の状況を「待機中」に更新する。
また、他のエージェントが処理されることによって、キュー内における待機中のエージェントの順序がサービス窓口数以下になった場合には、待機中であったエージェント状況は「処理中」に更新される。それ以外の場合には状況は「待機中」を維持する。
現時刻がサービス完了時刻に達した場合、行動模擬手段52は、エージェント情報122における現時刻の状況を「達成」に更新する。また、エージェント情報121および空間情報111を参照し、エージェント情報121における、サービス完了時刻に達したエージェントの、生成時刻が現時刻以下、且つ現時刻の目的地に対応する行動目的のうち、現時刻に最も近い行動目的の達成フラグを1に更新する。また、エージェント情報123から当該エージェントのサービス完了時刻のデータを削除する。
統計情報更新手段53は、各エージェントの統計情報130及び131を当該エージェントの所要時間に応じて更新してよい。つまり、エージェントが自身の所要時間を観測したものとみなす。
すなわち、複数のエージェントのうち処理対象のエージェント(対象エージェント)が行動目的を達成するのに要する所要時間の観測値に応じて、対象エージェントについて記憶された統計情報130及び131を更新してよい。
すなわち、対象エージェントの統計情報130及び131を、他のエージェントが行動目的を達成するのに要する所要時間に関する観測値に応じて更新してよい。
具体的には、統計情報更新手段53は、移動中のエージェントについては移動方向の左右90度の範囲から死角を除いた領域を、待機中または処理中のエージェントについては当該エージェント位置を中心とした360度の範囲から死角を除いた領域を、視認範囲として設定する。
各エージェントの局所経路毎の知識として記憶される移動速度分布を更新するための観測値は、当該局所経路における当該エージェントの移動速度と他のエージェントの移動速度であり、所定の観測間隔(例えば10仮想時刻)で観測される。
本実施形態においては、全エージェントに共通した観測間隔が設定されるが、エージェント毎に異なる観測間隔を設定してもよい。
また、本実施形態においては、各エージェントの観測間隔の起点を当該エージェントの生成時刻とする。全エージェントに共通の起点としてもよい。
各エージェントの目的地毎の知識として記憶されるサービス時間分布を更新するための観測値は、当該目的地にて当該エージェントがサービスを受けるのに要したサービス時間であり、当該エージェントが目的地での行動目的を達成した時点で観測される。
すなわち統計情報更新手段53は、各エージェントの視認範囲内に存在するが、当該エージェントの統計情報130に含まれていない目的地及び当該エージェントの統計情報131に含まれていない局所経路の情報を統計情報130に追加する。
また、統計情報更新手段53は、各エージェントの視認範囲内に当該エージェントの統計情報131に含まれていない局所経路が存在する場合に、当該エージェントのエージェントIDと当該局所経路の両端地点との組合せに、移動速度分布の同時確率分布のパラメータの初期値を対応付けたデータを統計情報131に追加する。この初期値は上述したように目的地毎の初期値として統計情報記憶手段43が記憶している。
確率分布140及び150は、エージェント#1と#59の売店2のサービス時間分布の初期値を示す。エージェント#1と#59の初期値はいずれもΝ(600, 2500)である。
一方で、エージェント#59にとっての売店2は、エージェント#1にとっての売店2よりも、平均的にはやや遅いが、サービス時間は安定している店舗であることが分かる。この結果、例えば、エージェント#59は残り時間が550時刻以上ある場合に売店2を選択しやすくなる。
所要時間の情報に差が生じることによりエージェント間で行動に違いを生じさせることができ、現実世界において個体毎の経験知の差によって行動に違いが生じることを模擬できる。
予測結果出力手段60は、例えば、制御部5および表示部6が協働して実現され、記憶部4から読み出した予測結果を、表示部6に表示させる。また、予測結果出力手段60は、予測結果をデータファイルとして出力してもよいし、画像ファイルとして出力してもよいし、画像として表示してもよいし、これらのうちの1以上の形式で出力してもよい。
予測結果の出力タイミングは、シミュレーションを終えた時点の他に、シミュレーションの途中を含んでもよい。つまり、シミュレーションの途中までに得られた上記情報の一部または全部を中間予測結果として出力してもよい。
次に、第1実施形態のシミュレータ1によるシミュレーション方法について説明する。
図13は、第1実施形態のシミュレータ1によるシミュレーション方法の全体処理の一例のフローチャートである。
まず、ステップS1において利用者は、シミュレーション条件として模擬条件、空間情報、エージェント情報の初期値、及び統計情報の初期値を設定する。設定は条件設定手段20を通じて行われる。そして、ステップS2において仮想時刻tが0に初期化される。
ステップS4において、現存エージェント(仮想時刻よりも前に生成され、且つ達成フラグが0である行動目的IDが設定されているエージェント)が存在するか否かを判定する。現存エージェントが存在する場合(ステップS4:Y)に処理はステップS5へ進む。現存エージェントが存在しない場合(ステップS4:N)に処理はステップS8へ進む。
ステップS6では、行動決定処理が行われる。行動決定処理では、エージェント情報121に設定された行動目的と、統計情報130及び131に設定された確率分布に基づいて、エージェントが到達を目指す目的地を選択する。行動決定処理の詳細は後述する。
ステップS8では、仮想時刻tを「1」だけ増加する。
ステップS9では、仮想時刻tが模擬条件記憶手段40に記憶されているシミュレーション終了時刻Tに到達したか否かを判定する。仮想時刻tが終了時刻Tに到達した場合(ステップS9:Y)に処理はステップS10へ進む。仮想時刻tが終了時刻Tに到達していない場合(ステップS9:N)に処理はステップS3に戻る。
ステップS10では、シミュレーションの結果である予測結果を出力して、処理終了となる。
ステップS20において行動模擬手段52は、現存エージェントを順次選択し、処理対象の注目エージェントに設定する。
ステップS22において統計情報更新手段53は、注目エージェントの視認範囲を設定する。統計情報更新手段53は、注目エージェントの統計情報130に含まれていない目的地が視認範囲内に存在するか否かを判定する。
ステップS23において統計情報更新手段53は、当該目的地のデータを注目エージェントの統計情報130に追加する。その後に処理はステップS24へ進む。
ステップS25において統計情報更新手段53は、当該局所経路のデータを注目エージェントの統計情報131に追加する。その後に処理はステップS26へ進む。
ステップS27において統計情報更新手段53は、注目エージェントの移動速度と局所経路を取得し、当該局所経路における速さを算出する。その後に処理はステップS28へ進む。
ステップS29において統計情報更新手段53は、移動中であり且つ視認範囲内に存在する他のエージェントの移動速度と局所経路を取得し、当該局所経路における速さを算出する。その後に処理はステップS30へ進む。
ステップS31において統計情報更新手段53は、算出した速さを観測値として用いて、注目エージェントの統計情報131のうち速さを観測した局所経路の移動速度分布を更新する。その後に処理はステップS32へ進む。
ステップS33において統計情報更新手段53は、視認範囲内に存在する目的地の待ち数を取得する。ステップS34において統計情報更新手段53は、取得した待ち数を観測値として用いて、注目エージェントの統計情報130のうち待ち数を観測した目的地の待ち数分布を更新する。その後に処理はステップS35へ進む。
ステップS36において統計情報更新手段53は、注目エージェントに要したサービス時間を算出する。その後に処理はステップS37へ進む。
ステップS38において統計情報更新手段53は、注目エージェントのサービスを待っている目的地で、サービスが完了した他のエージェントに要したサービス時間を算出する。その後に処理はステップS39へ進む。
ステップS40において統計情報更新手段53は、算出したサービス時間を観測値として用いて、注目エージェントの統計情報130のうちサービス時間を観測した目的地(すなわち注目エージェントがサービスを受ける目的地)のサービス時間分布を更新する。その後に処理はステップS41へ進む。
ステップS41において統計情報更新手段53は、全ての現存エージェントについてステップS21~S40の処理を実行したか否かを判定する。全ての現存エージェントについて処理を実行した場合(ステップS41:Y)に、統計情報更新処理は終了する。未処理の現存エージェントが存在する場合(ステップS41:N)に処理はステップS20へ戻る。
ステップS50において評価値算出手段50は、現存エージェントを順次選択し、処理対象の注目エージェントに設定する。
ステップS51において評価値算出手段50は、注目エージェントの行動決定タイミングが到来したか否かを判定する。行動決定タイミングが到来した場合(ステップS51:Y)に処理はステップS52へ進む。行動決定タイミングが到来していない場合(ステップS51:N)に処理はステップS59へ進む。
ステップS53において評価値算出手段50は、行動パターンPiの各々に対して1つ又は複数の目的地パターンMijを生成する。
ステップS54において評価値算出手段50は、目的地パターンMijを順次選択して、処理対象の注目パターンに設定する。
ステップS56において評価値算出手段50は、全ての目的地パターンMijが注目パターンに設定されたか否かを判定する。全ての目的地パターンMijが注目パターンに設定された場合(ステップS56:Y)に処理はステップS57へ進む。注目パターンに設定されていない目的地パターンMijが存在する場合(ステップS56:N)に処理はステップS54へ戻る。
ステップS58において目的地選択手段51は、選択した目的地パターンMijにおける1番目の目的地のIDを、エージェントIDおよび現在の仮想時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。その後に処理はステップS60へ進む。
ステップS60において評価値算出手段50は、全ての現存エージェントについてステップS51~S59の処理を実行したか否かを判定する。全ての現存エージェントについて処理を実行した場合(ステップS60:Y)に行動決定処理は終了する。未処理の現存エージェントが存在する場合(ステップS60:N)に処理はステップS50へ戻る。
ステップS70において評価値算出手段50は、注目パターンに含まれる目的地毎に、目的地で行動目的を達成する場合の所要時間の確率分布である所要時間分布を算出する。
ステップS71において評価値算出手段50は、注目パターンに含まれる目的地の順位を示す変数sを「1」に初期化する。以下のステップS73~S77では、注目パターンに含まれるs番目の目的地で達成期限までに行動目的を達成する各々の成功確率を算出する。また、評価値算出手段50は、評価値Eを「0」に初期化する。
ステップS73において評価値算出手段50は、1番目の目的地で達成する行動目的の達成期限までの残り時間を算出する。
一方で、ステップS75において評価値算出手段50は、1番目からs-1番目までの目的地で行動目的達成に要する所要時間分布の合計を算出する。
ステップS77において評価値算出手段50は、残り時間分布と、s番目の目的地の所要時間分布に基づいて成功確率を算出する。その後に処理はステップS78へ進む。
ステップS78において評価値算出手段50は、ステップS74又はS77で算出した成功確率を希望達成度に乗じた積を評価値Eに加算する。
ステップS80において評価値算出手段50は、注目パターンの中の全ての目的地について、ステップS72~S79の処理を完了したか否かを判定する。全ての目的地について処理を完了した場合(ステップS80:Y)に処理はステップS81へ進む。未処理の目的地が存在する場合(ステップS80:N)に処理はステップS72へ戻る。
ステップS81において評価値算出手段50は、エージェントと注目パターンと評価値を対応付けた評価値情報を目的地選択手段51に出力する。その後に、評価値算出処理は終了する
ステップS90において行動模擬手段52は、現存エージェントを順次選択し、処理対象の注目エージェントに設定する。
ステップS91において行動模擬手段52は、目的地選択手段51が注目エージェントの目的地パターンを新しく選択したか否かを判定する。目的地パターンを新しく選択した場合(ステップS91:Y)に処理はステップS92へ進む。目的地パターンを新しく選択しない場合(ステップS91:N)に処理はステップS93へ進む。
ステップS93において行動模擬手段52は、注目エージェントの状況を更新する。
ステップS95において行動模擬手段52は、注目エージェントの移動速度を算出して位置を更新する。その後に処理はステップS96へ進む。
ステップS97において行動模擬手段52は、注目エージェントを消去する。その後に処理はステップS98へ進む。
ステップS98において行動模擬手段52は、全ての現存エージェントについてステップS91~S97の処理が完了したか否かを判定する。未処理の現存エージェントが存在する場合(ステップS98:N)に処理はステップS90へ戻る。全ての現存エージェントについて処理が完了した場合(ステップS98:Y)にエージェント状態更新処理は終了する。
(1)第1実施形態では、所要時間を、移動時間と、待ち時間と、サービス時間の和として定義した。
これに代えて、移動時間を所要時間としてもよい(すなわち待ち時間とサービス時間が0)。これにより、配達のように待ち時間とサービス時間が0とみなせる行動目的についてのシミュレーションを行うことができる。
この場合、例えば、目的地選択手段51が選択した目的地パターンをエージェント情報記憶手段42に記憶させ、行動模擬手段52は、各エージェントについて記憶されている目的地パターンの先頭の目的地から順次当該エージェントを移動させるように動作してよい。
さらには、幕間毎に全エージェントに共通の単一の達成期限を設定してもよい。
第1実施形態の評価値算出手段50は、所要時間分布を算出する際に、統計情報130に記憶される目的地の待ち数分布に基づいて待ち時間を予測する。また、視認範囲内の目的地については待ち数の観測値から待ち時間を予測している。
しかしながら、目的地に向かう他のエージェントの動きを観測することによって、待ち時間の予測が変わることがある。
そこで、第2実施形態の評価値算出手段50は、処理対象のエージェントの目的地パターンを選択する際に、他のエージェントの行動に基づいて、目的地での待ち時間を予測する。例えば、他のエージェントの移動方向に基づいて目的地での待ち時間を予測する。
参照符号201a~201cは、注目エージェント200の視認範囲内の他のエージェントを示し、参照符号202は、視認範囲外の他のエージェントを示す。
第2実施形態の評価値算出手段50は、視認範囲内の他のエージェント201a~201cの移動方向に基づいて、目的地VI、VII及びVIIIの待ち数を予測する。
待ち時間算出手段70は、現存エージェントの中から、処理対象の注目エージェントを選択する。
例えば、注目エージェントが移動中であれば移動方向の左右90度の範囲を、待機中または処理中であればエージェント位置を中心とした360度の範囲としてよい。
視認範囲の角度範囲や視認距離を、各エージェントの移動速度に応じて変更させてもよい。また、好適には、空間情報記憶手段41に記憶されている空間情報111を利用し、視認範囲内の壁等の障害物に阻まれる領域を除外して視認範囲を設定する。
到達数予測手段74は、視認範囲内にある他エージェントの移動方向と、空間情報111に記憶される目的地の代表点とに基づいて、注目エージェントの統計情報130に記憶されている目的地diへ他のエージェントが到達する到達数を予測する。例えば、到達数予測手段74は、次式(9)に基づいて他のエージェントが目的地へ到達する到達数Rdiを予測してよい。
目的地が注目エージェントの視認範囲に存在する場合、待ち時間予測手段75は、目的地の待ち数に、目的地への到達数を加算した和を目的地の将来待ち数とする。すなわち、目的地に存在する他のエージェント数の観測結果と到達数に基づいて、待ち時間分布を予測する。
すなわち、目的地への到達数と、統計情報130に記憶されている目的地における待ち時間の統計情報とに基づいて、待ち時間分布を予測する。
ステップS100において評価値算出手段50は、注目エージェントの統計情報131に記憶されている局所経路の移動速度分布に基づいて、注目パターン(目的地パターン)に含まれる各目的地までの移動に要する移動時間分布を算出する。
ステップS102において到達数予測手段74は、注目エージェントの統計情報130に記憶されている目的地に向かう他のエージェントの到達数を予測する。
ステップS105において、評価値算出手段50は、移動時間分布と、サービス時間分布と、待ち時間分布の和を、所要時間として算出する。その後に所要時間分布算出処理は終了する。
(1)シミュレータ1は、複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて複数の行動目的をそれぞれ達成する行動を模擬する。
評価値算出手段50は、複数の目的地の中から複数の行動目的の各々を達成する目的地の組合せを複数選択し、目的地の組合せ毎に、組み合わせた目的地で複数の行動目的を達成期限までに各々達成する確率の合計を、複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、合計に応じて評価値を算出する。
評価値算出手段50は、複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を達成期限までに達成する確率を、残り時間の確率密度分布に基づいて予測する。
これにより、複数の行動目的のうち後に達成する行動目的のための残り時間が確率密度分布となり、後に達成する行動目的を達成する確率の算出式を解析的に解くことができなくても、数値解析的に確率を求めることができる。
これにより、複数の行動目的のうち後に達成する行動目的のための残り時間が確率密度分布となり、後に達成する行動目的を達成する確率の算出式を解析的に解くことができなくても、数値解析的に確率を求めることができる。
これにより、エージェント毎に異なる行動目的の優先度に応じて目的地を選択する行動を模擬することができる。
Claims (6)
- 複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて前記複数の行動目的を達成する行動を模擬するシミュレータであって、
前記複数の目的地の中から前記複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択手段と、
前記目的地の組合せ毎に、組み合わせた前記目的地で前記複数の行動目的を達成期限までに各々達成する確率の合計を、前記複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、前記合計に応じて評価値を算出する評価値算出手段と、
前記目的地の複数の組合せの中から前記評価値に基づいて選択した目的地の組合せを順次訪れるように移動する前記エージェントの行動を模擬する行動模擬手段と、を備え、
前記評価値算出手段は、前記複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と前記達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を前記達成期限までに達成する確率を、前記残り時間の確率密度分布に基づいて予測する、
ことを特徴とするシミュレータ。 - 前記評価値算出手段は、所定のサンプリング法によって前記残り時間の確率密度分布の標本を抽出し、当該標本と、前記後に達成する行動目的を達成するのに要する所要時間の確率密度分布とに基づいて、前記後に達成する行動目的を前記達成期限までに達成する確率を算出する、ことを特徴とする請求項1に記載のシミュレータ。
- 前記評価値算出手段は、前記残り時間のヒストグラムと、前記後に達成する行動目的を達成するのに要する所要時間の累積分布関数とに基づいて、前記ヒストグラムの各区間における前記ヒストグラムの度数と前記累積分布関数の確率との積の合計を、前記後に達成する行動目的を前記達成期限までに達成する確率として算出する、
ことを特徴とする請求項2に記載のシミュレータ。 - 前記評価値算出手段は、前記複数の行動目的の各々を達成する確率を前記複数の行動目的の効用で重み付けした確率の合計である前記評価値を算出することを特徴とする請求項1~3のいずれか一項に記載のシミュレータ。
- 複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて前記複数の行動目的をそれぞれ達成する行動を模擬するシミュレーション方法であって、
前記複数の目的地の中から前記複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択処理と、
前記目的地の組合せ毎に、組み合わせた前記目的地で前記複数の行動目的を達成期限までに各々達成する確率の合計を、前記複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、前記合計に応じて評価値を算出する評価値算出処理と、
前記目的地の複数の組合せの中から前記評価値に基づいて選択した目的地の組合せを順次訪れるように移動する前記エージェントの行動を模擬する行動模擬処理と、
をコンピュータが実行し、
前記評価値算出処理において、前記複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と前記達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を前記達成期限までに達成する確率を、前記残り時間の確率密度分布に基づいて予測することを特徴とするシミュレーション方法。 - 複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて前記複数の行動目的をそれぞれ達成する行動を模擬するシミュレーションプログラムであって、
前記複数の目的地の中から前記複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択処理と、
前記目的地の組合せ毎に、組み合わせた前記目的地で前記複数の行動目的を達成期限までに各々達成する確率の合計を、前記複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、前記合計に応じて評価値を算出する評価値算出処理と、
前記目的地の複数の組合せの中から前記評価値に基づいて選択した目的地の組合せを順次訪れるように移動する前記エージェントの行動を模擬する行動模擬処理と、
をコンピュータに実行させ、
前記評価値算出処理において、前記複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と前記達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を前記達成期限までに達成する確率を、前記残り時間の確率密度分布に基づいて予測することを特徴とするシミュレーションプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020038113A JP7457536B2 (ja) | 2020-03-05 | 2020-03-05 | シミュレータ、シミュレーション方法及びシミュレーションプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020038113A JP7457536B2 (ja) | 2020-03-05 | 2020-03-05 | シミュレータ、シミュレーション方法及びシミュレーションプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021140490A JP2021140490A (ja) | 2021-09-16 |
JP7457536B2 true JP7457536B2 (ja) | 2024-03-28 |
Family
ID=77668672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020038113A Active JP7457536B2 (ja) | 2020-03-05 | 2020-03-05 | シミュレータ、シミュレーション方法及びシミュレーションプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7457536B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7441080B2 (ja) | 2020-03-05 | 2024-02-29 | セコム株式会社 | シミュレータ、シミュレーション方法及びシミュレーションプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010531004A (ja) | 2007-05-22 | 2010-09-16 | エヌエイチエヌ コーポレーション | 競争結果分析方法およびシステム |
JP2013250941A (ja) | 2012-06-04 | 2013-12-12 | Fujitsu Ltd | 予測プログラム、予測装置、及び予測方法 |
WO2017029698A1 (ja) | 2015-08-14 | 2017-02-23 | 富士通株式会社 | シミュレーションプログラム、シミュレーション方法およびシミュレーション装置 |
JP2019125312A (ja) | 2018-01-19 | 2019-07-25 | 富士通株式会社 | シミュレーションプログラム、シミュレーション方法およびシミュレーション装置 |
JP2019219881A (ja) | 2018-06-19 | 2019-12-26 | セコム株式会社 | シミュレーター、シミュレーション方法及びシミュレーションプログラム |
JP2019219880A (ja) | 2018-06-19 | 2019-12-26 | セコム株式会社 | シミュレーター、シミュレーション方法及びシミュレーションプログラム |
-
2020
- 2020-03-05 JP JP2020038113A patent/JP7457536B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010531004A (ja) | 2007-05-22 | 2010-09-16 | エヌエイチエヌ コーポレーション | 競争結果分析方法およびシステム |
JP2013250941A (ja) | 2012-06-04 | 2013-12-12 | Fujitsu Ltd | 予測プログラム、予測装置、及び予測方法 |
WO2017029698A1 (ja) | 2015-08-14 | 2017-02-23 | 富士通株式会社 | シミュレーションプログラム、シミュレーション方法およびシミュレーション装置 |
JP2019125312A (ja) | 2018-01-19 | 2019-07-25 | 富士通株式会社 | シミュレーションプログラム、シミュレーション方法およびシミュレーション装置 |
JP2019219881A (ja) | 2018-06-19 | 2019-12-26 | セコム株式会社 | シミュレーター、シミュレーション方法及びシミュレーションプログラム |
JP2019219880A (ja) | 2018-06-19 | 2019-12-26 | セコム株式会社 | シミュレーター、シミュレーション方法及びシミュレーションプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021140490A (ja) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kuligowski | Computer evacuation models for buildings | |
JP2006221329A (ja) | 行動予測装置、行動予測方法および行動予測プログラム | |
US9824274B2 (en) | Information processing to simulate crowd | |
US20160005052A1 (en) | Information processing system and information processing method | |
JP7233889B2 (ja) | 歩行者シミュレーション装置 | |
JP6436241B2 (ja) | シミュレーションプログラム、シミュレーション方法およびシミュレーション装置 | |
Barnett et al. | Coordinated crowd simulation with topological scene analysis | |
CN113643170A (zh) | 一种大数据驱动的公共场所聚集人群疏散方法及装置 | |
US20220324675A1 (en) | Eliciting preferences for passenger traffic group control | |
JP7457536B2 (ja) | シミュレータ、シミュレーション方法及びシミュレーションプログラム | |
JP7441080B2 (ja) | シミュレータ、シミュレーション方法及びシミュレーションプログラム | |
JP7492840B2 (ja) | シミュレータ、シミュレーション方法及びシミュレーションプログラム | |
Juřík et al. | Analysis of the use of behavioral data from virtual reality for calibration of agent-based evacuation models | |
CN110276387A (zh) | 一种模型的生成方法及装置 | |
Agogino et al. | Learning indirect actions in complex domains: action suggestions for air traffic control | |
US11120386B2 (en) | Computer-readable recording medium, simulation method, and simulation apparatus | |
JP7074580B2 (ja) | シミュレーター、シミュレーション方法及びシミュレーションプログラム | |
JP2007299023A (ja) | 広告の認識評価システム及び方法 | |
JP2019219881A (ja) | シミュレーター、シミュレーション方法及びシミュレーションプログラム | |
Nishida et al. | Construction of a route choice model for application to a pedestrian flow simulation | |
CN106951581B (zh) | 商业综合体模拟器 | |
Murata et al. | Data assimilation approach for addressing imperfections in people flow measurement techniques using particle filter | |
JP2023027883A (ja) | レイアウトデータ表示システム及びレイアウトデータ表示方法 | |
Levinson | An evolutionary transportation planning model: Structure and application | |
JP6834722B2 (ja) | シミュレーションプログラム、シミュレーション方法およびシミュレーション装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7457536 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |