JP7492840B2 - シミュレータ、シミュレーション方法及びシミュレーションプログラム - Google Patents
シミュレータ、シミュレーション方法及びシミュレーションプログラム Download PDFInfo
- Publication number
- JP7492840B2 JP7492840B2 JP2020038112A JP2020038112A JP7492840B2 JP 7492840 B2 JP7492840 B2 JP 7492840B2 JP 2020038112 A JP2020038112 A JP 2020038112A JP 2020038112 A JP2020038112 A JP 2020038112A JP 7492840 B2 JP7492840 B2 JP 7492840B2
- Authority
- JP
- Japan
- Prior art keywords
- agent
- destination
- time
- agents
- statistical information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 135
- 238000004088 simulation Methods 0.000 title claims description 80
- 238000009826 distribution Methods 0.000 claims description 221
- 238000011156 evaluation Methods 0.000 claims description 139
- 230000006399 behavior Effects 0.000 claims description 134
- 230000003542 behavioural effect Effects 0.000 claims description 108
- 238000004364 calculation method Methods 0.000 claims description 102
- 230000008569 process Effects 0.000 claims description 101
- 230000009471 action Effects 0.000 claims description 92
- 230000000694 effects Effects 0.000 claims description 17
- 239000003795 chemical substances by application Substances 0.000 description 494
- 238000012545 processing Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 18
- 230000000007 visual effect Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 9
- 230000001186 cumulative effect Effects 0.000 description 6
- 238000005315 distribution function Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012384 transportation and delivery Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
一般に、大勢の人々が集まる空間には1つ1つの目的に対してそれを達成できる場所(目的地)が複数存在し、マルチエージェントシミュレーションではエージェントそれぞれの目的地を決定する必要がある。
例えば特許文献1には避難者を模した個体それぞれの目的地を当該個体の位置から最も近い出口に決定することが記載されている。また、例えば特許文献2にはT字路の通行者を模した個体それぞれの移動目標位置をシミュレータの利用者が予め設定することが記載されている。また、例えば特許文献3には(目的1つに対して目的地が複数ではないものの)属性がリーダーである個体の選択エリアを避難のための出口エリアと消火のための燃焼エリアの中から抽選によって決定することが記載されている。この抽選の確率は各個体の反応閾値や認知閾値に応じて決まり、これらの閾値はシミュレータの利用者が予め設定する。
しかしながら、従来のシミュレータが行うマルチエージェントシミュレーションでは、特定の行動目的の達成が可能な目的地が複数通り存在する場合、各エージェントの目的地を目的地までの距離や予めの設定や乱数によって決定していた。このため、群集を構成する個々のエージェントの経験や知識の偏りを反映した群集行動を模擬することが困難であった。換言すると、訪れた回数や経路等に応じて蓄積される情報に個体差を生じさせた群集行動を模擬することが困難であった。
例えば、上述した距離により決定する従来技術では各個体の初期位置を、移動目標位置を予め設定する従来技術では各個体の移動目標位置を、抽選により決定する従来技術では各個体の反応閾値や認知閾値を、シミュレーションを繰り返しながら個体の数だけ設定変更しなければならない上、それが経験や知識が偏る様子を的確に模擬できたか確認することが困難である。
すなわち、本実施形態において、シミュレーションの対象となる空間(対象空間)は劇場であり、群集を構成する個体は人であり、各個体の行動目的は、劇場の座席への「着席」と、「用便」と、「買い物」である。以下、シミュレータにおける個体のデータを「エージェント」と表記する。
なお、本明細書において説明される劇場は、あくまで対象空間の一例であり、本発明の対象はこれに限定されるものではない。
(構成)
図1は、第1実施形態に係るシミュレータの一例の概略構成図である。
シミュレータ1は、操作入力部2、ファイル入出力部3、記憶部4、制御部5、および表示部6からなる。これらのうちのファイル入出力部3、記憶部4および制御部5はいわゆるコンピュータで実現でき、操作入力部2および表示部6は当該コンピュータの周辺機器として実現できる。
操作入力部2は、キーボード、マウス等のユーザーインターフェースであり、利用者に操作されてデータの入力等に用いられる。操作入力部2は、制御部5に接続され、利用者の操作を操作信号に変換して制御部5に出力する。
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、制御部5と接続されて制御部5との間でこれらの情報を入出力する。
表示部6は、液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、制御部5と接続され、制御部5による予測結果を表示する。利用者は表示された予測結果を視認して群集の行動に関する考察等を行う。
図2は、第1実施形態に係るシミュレータ1の一例の機能ブロック図である。
操作入力部2は、条件設定手段20の一部等として機能し、ファイル入出力部3は条件設定手段20の一部および予測結果出力手段60の一部等として機能する。
記憶部4は模擬条件記憶手段40、空間情報記憶手段41、エージェント情報記憶手段42および統計情報記憶手段43等として機能する。
条件設定手段20は、シミュレーションに必要な各種条件の入力を受け付け、入力された条件を模擬条件記憶手段40、空間情報記憶手段41、エージェント情報記憶手段42および統計情報記憶手段43に記憶させる。
条件設定手段20により入力されて模擬条件記憶手段40が記憶する条件は、例えば、仮想時刻の上限T、行動決定間隔、観測間隔、エージェント基本速さ(1時刻で進もうとする距離)の設定を含む。
仮想時刻は、実際の時間の経過を模擬したものであるが、シミュレータが1時刻分の演算を終えるたびに進められ、実際の時間の経過よりも高速に刻まれる。例えば、仮想時刻の1時刻を実際の0.1秒間に対応させ、仮想時刻を0から始まり1ずつ増加する整数で表す。
図3は地図情報100の一例の模式図であり、図4は、行動目的情報110及び目的地情報111の一例を示す図である。これらの空間情報は、目的地情報111に含まれる「キュー」を除いて、条件設定手段20を用いた利用者による入力操作により予め設定される。
またローマ数字I~Xは、各目的地に付与される目的地IDであり、図3の地図情報100において各目的地の場所を示している。
2重丸印Q1~Q10は、各目的地I~Xの位置を表す代表点の位置を示す。実際には領域である目的地I~Xの位置を、点情報として定義して取り扱いを容易にしている。
丸印Q11~Q21は、エージェントが壁を回避しながら移動可能領域を移動するために経由できる経由点を示す。移動可能領域でエージェントが移動する経路は、代表点同士、経由点同士、代表点と経由点を結ぶ局所的な経路(以下、「局所経路」と表記する)により定義される。
また、目的地情報111は、目的地ID(I~X)に対応付けて、各目的地の「目的地名」、「代表点」、「性別制限」、「サービス窓口数」、「達成可能な行動目的」、「サービス時間分布」及び「キュー」を含んでいる。
「代表点」は、上述した代表点Q1~Q10のXY座標値である。
「サービス窓口数」は、当該目的地を同時に利用可能なエージェントの最大数である。以下の説明において「サービス」とは、行動目的の達成のための目的地の利用を意味する。例えば、目的地が「トイレ」であればサービスは用便のための場所の提供であり、目的地が「売店」であればサービスは販売役務である。
「サービス時間分布」は、当該目的地におけるサービスの所要時間(以下「サービス時間」と表記する)を確率分布で表した統計情報である。例えば、サービス時間を正規分布で表したときの平均値と分散が記憶される。サービス時間分布は、当該目的地において各エージェントが行動目的を達成するのに要したサービス時間を決定するのに使用される。
キュー内の順序がサービス窓口数以下であるエージェントが、目的地においてサービスを受けているエージェントであり、キュー内の順序がサービス窓口数より大きなエージェントが、サービス待ちのエージェントである。また、サービス待ちのエージェントの数が待機数(待ち数)である。
図5、図6、図7及び図8に、それぞれエージェント情報120、121、122及び123の一例を示す。各図において数値の横にかぎ括弧で示した文字列は図の見易さを考慮して意味を付記したものである。
例えばエージェント情報120の初期位置において(4.55,14.00)「扉1」と表記した個所に実際に記憶されているのは値(4.55,14.00)であり、それは「扉1」の座標を意味する。なお、以下の説明では、値の表記を省略して代わりに意味で説明する場合もある。
図5の例は、女性のエージェント#1が、「幕間1」内の仮想時刻0に「扉1」の座標に生成されることを示している。また「幕間2」及び「幕間3」については説明を省略する。さらに「幕間4」内の仮想時刻99600に「扉3」の座標に生成されること等を示している。第1実施形態のシミュレーションの例では、同一エージェントが複数回生成されることに注意されたい。
「達成期限」は、各場面のエージェントの各行動目的に対する達成期限であり、当該エージェントの生成時刻以降の仮想時刻が指定される。
「希望達成度」は、各場面のエージェントの各行動目的の達成に対する優先度合いである。例えば、希望達成度は、行動目的を達成したことによってエージェントが得ることができる主観的な満足度合い(効用)であってよい。希望達成度が高い行動目的ほど優先度合いが高い。
「達成フラグ」は、各場面のエージェントの各行動目的が達成されたか否かを表すフラグである。達成フラグの初期値は「0」であり、値「0」は未達成、値「1」は達成済みを示す。
「目的地ID」は、仮想時刻が示す時点の各エージェントが移動の目標としている目的地のIDを示す。なお、第1実施形態のシミュレータ1の例では、生成時刻における目的地IDは空欄としている。
「局所経路」は、仮想時刻が示す時点の各エージェントが移動している局所経路を示す。なお、第1実施形態のシミュレータ1の例では、生成時刻および移動していない時刻における局所経路は空欄としている。
移動速度は、あくまで各エージェントが意図する移動量であって、必ずしも仮想時刻が示す時点にエージェントが移動する移動量と一致するとは限らない。例えば、エージェント間の物理的な制約等によって、現時刻の位置が前時刻の位置に現時刻の移動速度を加えた値にならない場合もある。
また、便宜上、生成時刻における移動速度と、目的地に到達してから当該目的地で達成可能な行動目的を達成するまでの移動速度は0ベクトルとする。
目的地に到達してから当該目的地で達成可能な行動目的を達成するまでは目的地の代表点の座標が設定される。
「移動中」は、目的地に未到達であり移動中であることを示す。
「待機中」は、目的地に到達したがサービス待ちであることを示す。
「処理中」は、目的地にてサービスを受けていることを示す。
「達成」は、目的地にてサービスを受け終わり行動目的を達成したことを示す。
第1実施形態のシミュレータ1の例では、便宜上、生成時刻における状況として「達成」を指定する。
例えば「幕間1」の「エージェント#1」が「女子トイレ1」「売店2」「客席」の順に移動して、時刻「2909」「2969」において「売店2」「客席」で行動目的を達成したことが、その間の各時刻の移動速度、位置および状況とともに記録されている
また、その過程において、時刻「1322」から「2686」まで「売店2」でサービス待ちであったこと、時刻「2687」から「2908」までサービスを受けたことが記録されている。
「サービス完了時刻」は、当該目的地にて当該エージェントがサービスを受け終わる時刻である。
図8のエージェント情報123には、図4の空間情報111に例示した売店1~5のキューの先頭のエージェント#9、#34、#76、#5、#36などに対してサービス完了時刻が保持されている。
エージェント情報121に含まれる行動目的、行動目的毎の達成期限、行動目的毎の希望達成度および行動目的毎の終端目的フラグ、並びに、エージェント情報122に含まれる目的地、局所経路および移動速度は、行動パラメータの一例である。行動パラメータは、エージェントの状態値に作用するパラメータである。
なお、図5~図8に示したエージェント情報120、121、122及び123は、あくまで一例であり、本発明のエージェント情報の構成はこれに限定されるものではない。
統計情報記憶手段43が記憶する情報は、各目的地において行動目的を達成するのに要する所要時間に関する統計情報である。かかる統計情報を、エージェント毎に記憶することにより、実世界の各個体が所要時間について有する知識の違いを模擬することができる。すなわち、統計情報記憶手段43は、エージェント毎に、複数の目的地で行動目的を達成するのに要する各々の所要時間に関する統計情報を記憶する。
目的地における待ち時間は、当該目的地における待ち数を当該目的地のサービス窓口数で除した結果と、サービス時間との積で算出されるとモデル化する。
このため、統計情報記憶手段43は、エージェント毎に、目的地毎の待ち数の確率分布(待ち数分布)、目的地毎のサービス時間の確率分布(サービス時間分布)、局所経路毎の移動速度の確率分布(移動速度分布)を統計情報として記憶している。
例えば待ち数分布、サービス時間分布、移動速度分布のそれぞれを正規分布でモデル化する。そして各分布を観測値で更新するために待ち数分布、サービス時間分布、移動速度分布のそれぞれの正規分布のパラメータの同時確率分布を用いる。統計情報記憶手段43は、待ち数分布、サービス時間分布、移動速度分布のそれぞれ同時確率分布のパラメータである平均値μ、自由度ν、仮説的標本数κ、尺度母数λの4パラメータを記憶する。同時確率分布をΝ・χ―2(μ,ν,κ,λ)と表記する。
また、エージェントと所要時間の組合せの一部を設定せず、当該組合せについて統計情報記憶手段43が記憶しない初期設定としてもよい。これにより、例えばエージェント#1が売店4の存在を知らないというような、実世界の個体における知識の欠落を模擬することができる。
本実施形態では、エージェント毎に各行動目的に対応する1以上の目的地に関する分布(待ち数分布、及びサービス時間分布)の初期値を記憶する初期設定とする。記憶される目的地は事前のランダム抽選により決定しておく。また、本実施形態では、局所経路に関してはエージェントと局所経路の全組合せについて局所経路に関する分布(移動速度分布)の初期値を記憶する初期設定とする。
また、本実施形態において統計情報記憶手段43は、エージェント毎の情報とは別に、目的地毎に当該目的地に関する分布の初期値を記憶する。この情報は各エージェントが目的地を初めて観測したときの初期値として利用される。
また、統計情報記憶手段43は、エージェントと所要時間の組合せのうちの記憶していない組合せについて(すなわち、エージェントが知らない目的地や局所経路について)、観測値が得られた時点で追加して記憶することで、実世界の個体における新たな知識の獲得を模擬してもよい。
統計情報130は、エージェントIDと目的地IDの組合せに対応付けられた「待ち数分布」と「サービス時間分布」を含む。
「待ち数分布」と「サービス時間分布」は、それぞれ当該エージェントが、当該目的地について記憶している「待ち数分布」と「サービス時間分布」の同時確率分布である。
図9の統計情報130の例では、エージェント#1について、客席、女子トイレ1、男子トイレ1、売店1、売店2および売店3の待ち数分布およびサービス時間分布が記憶され、女子トイレ2、男子トイレ2、売店4および売店5の分布は記憶されていない。
統計情報131は、エージェントIDと局所経路の組合せに対応付けられた「移動速度分布」を含む。「移動速度分布」は、当該エージェントが、当該局所経路について記憶している「移動速度分布」の同時確率分布である。
上記の通り、各場面においてエージェントが達成すべき行動目的が複数設定することがあるため、各場面において達成すべき行動目的は、複数設定された行動目的の順列(以下「行動パターン」と表記する)によって表現される。
また、同じ行動目的を達成できる複数の目的地が存在することがある。この場合には各々行動目的を達成する目的地には複数の選択肢がある。
評価値算出手段50は、各行動パターンに対して選択しうる目的地の選択肢毎に評価値を算出する。そして、エージェントと選択肢と評価値とを対応付けた評価値情報を目的地選択手段51に出力する。なお、行動パターンに対して選択しうる目的地の選択肢は目的地の順列となり、以下その順列を「目的地パターン」と表記する。
例えば、図6のエージェント情報121におけるエージェント#1であれば、仮想時刻が0の時の行動パターンは、P1={用便,買い物,着席}、P2={買い物,用便,着席}、P3={用便,着席}、P4={買い物,着席}、P5={着席}の5通りとなる。
例えば、図6のエージェント情報121における幕間1のエージェント#1の行動パターンP1={用便,買い物,着席}に対し、図4の空間情報111および図9の統計情報130を参照して生成される目的地パターンは、M11={女子トイレ1,売店1,客席}、M12={女子トイレ1,売店2,客席}、M13={女子トイレ1,売店3,客席}の3通りとなる。
Pisは、行動パターンPiの第s要素(すなわちs番目に実行する行動目的)を示す。
mijsは、目的地パターンMijの第s要素(すなわちs番目の目的地)を示す。
p(Pis,mijs)は、行動目的Pisの達成期限までに、行動目的Pisを目的地mijsで達成する確率である。以下、この確率を成功確率と称する。上記の通り、行動目的Pisの達成期限は、エージェント情報121として設定されており、図6に示すとおり、エージェント毎に、各場面で達成すべき行動目的の行動目的ID毎にそれぞれ達成期限が指定されている。成功確率p(Pis,mijs)の算出方法の詳細は後述する。
例えば、図6のエージェント情報121における幕間1のエージェント#1の行動パターンP1に対する希望達成度は、s=1のとき100、s=2のとき40、s=3のとき35である。
なお、別の実施形態として希望達成度による重み付けを省略することもできる。
また、さらに別の実施形態として、重み付け成功確率の総和、または成功確率の総和に代えて、重み付け成功確率の積、または成功確率の積など、成功確率が高いほど評価値が高くなる他の増加関数を定義して用いることもできる。
評価値算出手段50は、エージェント毎に、統計情報記憶手段43に記憶された統計情報に基づいて、行動目的Pisの達成期限までに複数の目的地mijsで行動目的Pisを達成する各々の成功確率p(Pis,mijs)を予測し、成功確率p(Pis,mijs)に応じて評価値Eを算出する。
このとき、複数の行動目的Pisを達成しようとするエージェントの目的地を選択するために、複数の目的地mijsの中から複数の行動目的Pisの各々を達成する目的地mijsの組合せである目的地パターンMijを複数選択して、目的地パターンMijに属する目的地mijsで複数の行動目的Pisをそれぞれ達成する確率p(Pis,mijs)に応じて評価値Eを算出する。
また、評価値算出手段50は、行動目的に対する優先度をエージェント毎に異ならせたことに関連して、エージェントによる優先度の違いに応じた目的地選択を可能とするために、複数の行動目的Pisの各々を達成する確率p(Pis,mijs)を複数の行動目的の希望達成度V(Pis)で重み付けて評価値Eを算出する。
はじめに、評価値算出手段50は、式(3)及び式(4)を利用するために、目的地パターンMijに含まれる各目的地(mij1,mij2,…)において、各行動目的(Pi1,Pi2,…)を実行する場合の所要時間Tdの確率分布である所要時間分布(f1(Td),f2(Td),…)を算出する。
また、同時確率分布のパラメータ(平均値μ、自由度ν、仮説的標本数κ、尺度母数λ)とそれが表す正規分布N(μ,σ2)の間には分散σ2=λ/(ν-2)の関係がある。
また、各分布を正規分布で表した場合、和の分布の平均値は元の分布の平均値同士の和となり、和の分布の分散は元の分布の分散同士の和となる。
そして、評価値算出手段50は、sごとの移動時間分布と待ち時間分布とサービス時間分布との和を当該sについての所要時間分布fs(Td)として算出する。
s=1のときの残り時間、すなわち、行動パターンPiの1番目の行動目的Pi1の達成期限Tlim(Pi1)までの残り時間Tr(Pi1)はスカラとなる。評価値算出手段50は、s=1の場合、達成期限Tlim(Pi1)から現在時刻tcを減じた差を残り時間Tr(Pi1)として算出する。
s>1のときの残り時間、すなわち、行動パターンPiの2番目以降の行動目的Pi2、Pi3、…の達成期限までの残り時間は確率分布となる。つまり、2番目以降の行動目的Pi2、Pi3、…を達成するために残された時間は、その行動目的よりも前に実行される行動目的の所要時間T1 d,…,Ts-1 dに左右され、行動目的の所要時間T1 d,…,Ts-1 dは各々所要時間分布f1(Td)~fs-1(Td)に従う確率変数として定義されるから、2番目以降の行動目的Pi2、Pi3、…の残り時間Trもまた確率分布に従う確率変数として算出される。この確率分布を残り時間分布gs(Tr)と定義する。なお、所要時間分布が正規分布である本実施形態においては、残り時間分布もまた正規分布となる。
評価値算出手段50は、s>1の場合、s番目の行動目的Pisの達成期限Tlim(Pis)と現在時刻tcとの差を求め、さらに1番目からs-1番目の行動目的Pi1~Pi(s-1)の達成にかかる所要時間分布f1(Td)~fs-1(Td)の総和を求める。求めた分布を総和分布と称する。そして、評価値算出手段50は、上記差から上記総和分布の平均値を減じた値と、上記総和分布の分散を用いて残り時間分布gs(Tr)を算出する。つまり、残り時間分布gs(Tr)の平均値は上記差から上記総和分布の平均値を減じた値であり、残り時間分布gs(Tr)の分散は上記総和分布の分散である。
本実施形態においては、積分値Fs(Tr)は、所要時間分布fs(Td)が正規分布であるため、式(3)に示すように所要時間分布fs(Td)の平均値μと分散σ2と残り時間Tr(式(4)により算出したTr(Pi1))とから算出することができる。式(3)におけるerfは誤差関数である。そして、式(2)に示すように、式(3)で算出した積分値Fs(Tr)がそのまま成功確率p(Pi1,mij1)となる。
図10の(a)は、1番目の行動目的Pi1の達成に要する所要時間分布f1(Td)の一例を示し、図10の(b)は、所要時間分布f1(Td)の累積分布関数F1(Tr)を示す。図中のμ1は所要時間分布f1(Td)の平均値であり、所要時間がTr(Pi1)のときの累積分布関数F1(Tr)の値が成功確率p(Pi1,mij1)である。
本実施形態においては、評価値算出手段50は、s番目(s=2、3、…)の行動目的Pisの達成期限までの残り時間分布gs(Tr)を、任意の時間間隔で離散化してヒストグラムを算出する。
評価値算出手段50は、ヒストグラムの各ビン(各区間)b1~b5の生起確率(度数)と、各ビンb1~b5の代表値Tr1~Tr5の累積分布関数値Fs(Tr1)~Fs(Tr5)の積和を、成功確率p(Pis,mijs)として算出する。なお、ビンb1の生起確率は、ビンの幅をwとすると、残り時間分布gs(Tr)の-∞からビンb1の右端Tr1+w/2までの積分値から残り時間分布gs(Tr)の-∞からビンb1の左端Tr1-w/2までの積分値を減じることで算出できる。他のビンの生起確率も同様である。また、残り時間分布gs(Tr)が正規分布である本実施形態において、式(3)と同様、ビンの右端までの積分値は時刻gs(Tr)の平均値μおよび分散σ2とビンの右端の時刻とを誤差関数に適用して算出でき、ビンの左端までの積分値はgs(Tr)の平均値μおよび分散σ2とビンの左端の時刻とを誤差関数に適用して算出できる。
評価値算出手段50は、行動パターンPiに対応する目的地パターンMij毎に、目的地パターンMijに属する目的地mijsで行動目的Pisを達成期限までに各々達成する確率p(Pis,mijs)の合計を、複数の行動目的Pisの各々を達成するのに要する所要時間Tdの確率密度分布fs(Td)に基づいて予測する。
また、評価値算出手段50は、複数の行動目的Pisのうち先に達成する行動目的の所要時間の確率密度分布f1(Td)~fs-1(Td)と達成期限に応じて残り時間の確率密度分布gs(Tr)を決定し、残り時間の確率密度分布gs(Tr)に基づいて、後に達成する行動目的を達成期限までに達成する確率p(Pis,mijs)を予測する。
また、評価値算出手段50は、残り時間分布gs(Tr)のヒストグラムと、後に達成する行動目的を達成するのに要する所要時間分布fs(Td)の累積分布関数とに基づいて、ヒストグラムの各区間におけるヒストグラムの度数と累積分布関数の確率との積の合計を、確率p(Pis,mijs)として算出する。
また、評価値Eは、確率p(Pis,mijs)に応じて算出されるため、目的地での待ち時間が短いほど評価値Eは高くなる。
行動決定タイミングは、例えば、各エージェントの生成時刻、行動目的の達成時(但し最後の行動目的を除く)、予め定めた行動決定間隔(例えば10仮想時刻)のいずれかが到来したタイミングであってよい。
評価値算出手段50は、エージェント情報122にて1時刻前の状況が「達成」であるエージェントを検出することにより、生成時刻の直後、行動目的を達成した直後の現存エージェントの行動決定タイミングが到来したことを判定する。
また、現時刻と生成時刻の差が行動決定間隔の倍数であることを以って、全ての現存エージェントに対して行動決定タイミングが到来したことを判定する。
具体的には、例えばエージェント毎に評価値が最高の目的地パターンMijを選択し、選択した目的地パターンMijにおける1番目の目的地のIDを、エージェントIDおよび現時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。
現時刻が行動決定タイミングではない現存エージェントについては、1時刻前の目的地IDを、エージェントIDおよび現時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。
また例えば、各目的地パターンMijの評価値Eの順位に応じた確率で当選する抽選を行って、当選した目的地パターンを選択してもよい。この場合、順位と確率の関係は予め定めておく。
行動模擬手段52は、生成時刻が到来したエージェントを現存エージェントとして生成する。
行動模擬手段52は、終端目的フラグが1である行動目的の達成フラグが1に更新されたエージェントを消去する。なお、第1実施形態のシミュレータ1では、エージェントを明示的に消去するのに代えて、次の仮想時刻以降のデータをエージェント情報122に追記しない。
行動模擬手段52は、現存エージェントの1時刻前のデータと現時刻のデータを抽出する。
具体的には、行動模擬手段52は現時刻におけるエージェントの移動速度と位置を決定する。まず、行動模擬手段52は、空間情報111から、該当する各エージェントの現時刻tにおける目的地の代表点と、移動可能領域と、経由点を読み出す。
次に、行動模擬手段52は、選択した最短経路上の経由点と代表点のうちの位置xi(t-1)から最も近い点に向かい、大きさがエージェント基本速さに等しいベクトルを、目的地に近付ける移動速度として算出する。
一方で、現時刻の位置が目的地の代表点と一致したエージェント(目的地に到達したエージェント)については、以下のとおり、目的地のキュー(目的地に滞在しているエージェントの待ち行列)と状況を更新する。
このとき、追加後のキュー内のエージェント数がサービス窓口数以下であればエージェント情報122における現時刻の状況を「処理中」に更新する。
さらに、空間情報111から当該目的地に関するサービス時間分布を読み出し、読み出した正規分布にボックス=ミュラー法を適用して当該目的地におけるサービス時間を算出する。
目的地に到達したエージェントのIDと、算出したサービス時間を現時刻に加算したサービス完了時刻の組をエージェント情報123に追記する。
一方で、追加後のキュー内のエージェント数がサービス窓口数より多ければエージェント情報122における現時刻の状況を「待機中」に更新する。
また、他のエージェントが処理されることによって、キュー内における待機中のエージェントの順序がサービス窓口数以下になった場合には、待機中であったエージェント状況は「処理中」に更新される。それ以外の場合には状況は「待機中」を維持する。
現時刻がサービス完了時刻に達した場合、行動模擬手段52は、エージェント情報122における現時刻の状況を「達成」に更新する。また、エージェント情報121および空間情報111を参照し、エージェント情報121における、サービス完了時刻に達したエージェントの、生成時刻が現時刻以下、且つ現時刻の目的地に対応する行動目的のうち、現時刻に最も近い行動目的の達成フラグを1に更新する。また、エージェント情報123から当該エージェントのサービス完了時刻のデータを削除する。
統計情報更新手段53は、各エージェントの統計情報130及び131を当該エージェントの所要時間に応じて更新してよい。つまり、エージェントが自身の所要時間を観測したものとみなす。
すなわち、複数のエージェントのうち処理対象のエージェント(対象エージェント)が行動目的を達成するのに要する所要時間の観測値に応じて、対象エージェントについて記憶された統計情報130及び131を更新してよい。
すなわち、対象エージェントの統計情報130及び131を、他のエージェントが行動目的を達成するのに要する所要時間に関する観測値に応じて更新してよい。
具体的には、統計情報更新手段53は、移動中のエージェントについては移動方向の左右90度の範囲から死角を除いた領域を、待機中または処理中のエージェントについては当該エージェント位置を中心とした360度の範囲から死角を除いた領域を、視認範囲として設定する。
各エージェントの局所経路毎の知識として記憶される移動速度分布を更新するための観測値は、当該局所経路における当該エージェントの移動速度と他のエージェントの移動速度であり、所定の観測間隔(例えば10仮想時刻)で観測される。
本実施形態においては、全エージェントに共通した観測間隔が設定されるが、エージェント毎に異なる観測間隔を設定してもよい。
また、本実施形態においては、各エージェントの観測間隔の起点を当該エージェントの生成時刻とする。全エージェントに共通の起点としてもよい。
各エージェントの目的地毎の知識として記憶されるサービス時間分布を更新するための観測値は、当該目的地にて当該エージェントがサービスを受けるのに要したサービス時間であり、当該エージェントが目的地での行動目的を達成した時点で観測される。
すなわち統計情報更新手段53は、各エージェントの視認範囲内に存在するが、当該エージェントの統計情報130に含まれていない目的地及び当該エージェントの統計情報131に含まれていない局所経路の情報を統計情報130に追加する。
また、統計情報更新手段53は、各エージェントの視認範囲内に当該エージェントの統計情報131に含まれていない局所経路が存在する場合に、当該エージェントのエージェントIDと当該局所経路の両端地点との組合せに、移動速度分布の同時確率分布のパラメータの初期値を対応付けたデータを統計情報131に追加する。この初期値は上述したように目的地毎の初期値として統計情報記憶手段43が記憶している。
確率分布140及び150は、エージェント#1と#59の売店2のサービス時間分布の初期値を示す。エージェント#1と#59の初期値はいずれもΝ(600, 2500)である。
一方で、エージェント#59にとっての売店2は、エージェント#1にとっての売店2よりも、平均的にはやや遅いが、サービス時間は安定している店舗であることが分かる。この結果、例えば、エージェント#59は残り時間が550時刻以上ある場合に売店2を選択しやすくなる。
所要時間の情報に差が生じることによりエージェント間で行動に違いを生じさせることができ、現実世界において個体毎の経験知の差によって行動に違いが生じることを模擬できる。
予測結果出力手段60は、例えば、制御部5および表示部6が協働して実現され、記憶部4から読み出した予測結果を、表示部6に表示させる。また、予測結果出力手段60は、予測結果をデータファイルとして出力してもよいし、画像ファイルとして出力してもよいし、画像として表示してもよいし、これらのうちの1以上の形式で出力してもよい。
予測結果の出力タイミングは、シミュレーションを終えた時点の他に、シミュレーションの途中を含んでもよい。つまり、シミュレーションの途中までに得られた上記情報の一部または全部を中間予測結果として出力してもよい。
次に、第1実施形態のシミュレータ1によるシミュレーション方法について説明する。
図13は、第1実施形態のシミュレータ1によるシミュレーション方法の全体処理の一例のフローチャートである。
まず、ステップS1において利用者は、シミュレーション条件として模擬条件、空間情報、エージェント情報の初期値、及び統計情報の初期値を設定する。設定は条件設定手段20を通じて行われる。そして、ステップS2において仮想時刻tが0に初期化される。
ステップS4において、現存エージェント(仮想時刻よりも前に生成され、且つ達成フラグが0である行動目的IDが設定されているエージェント)が存在するか否かを判定する。現存エージェントが存在する場合(ステップS4:Y)に処理はステップS5へ進む。現存エージェントが存在しない場合(ステップS4:N)に処理はステップS8へ進む。
ステップS6では、行動決定処理が行われる。行動決定処理では、エージェント情報121に設定された行動目的と、統計情報130及び131に設定された確率分布に基づいて、エージェントが到達を目指す目的地を選択する。行動決定処理の詳細は後述する。
ステップS8では、仮想時刻tを「1」だけ増加する。
ステップS9では、仮想時刻tが模擬条件記憶手段40に記憶されているシミュレーション終了時刻Tに到達したか否かを判定する。仮想時刻tが終了時刻Tに到達した場合(ステップS9:Y)に処理はステップS10へ進む。仮想時刻tが終了時刻Tに到達していない場合(ステップS9:N)に処理はステップS3に戻る。
ステップS10では、シミュレーションの結果である予測結果を出力して、処理終了となる。
ステップS20において行動模擬手段52は、現存エージェントを順次選択し、処理対象の注目エージェントに設定する。
ステップS22において統計情報更新手段53は、注目エージェントの視認範囲を設定する。統計情報更新手段53は、注目エージェントの統計情報130に含まれていない目的地が視認範囲内に存在するか否かを判定する。
ステップS23において統計情報更新手段53は、当該目的地のデータを注目エージェントの統計情報130に追加する。その後に処理はステップS24へ進む。
ステップS25において統計情報更新手段53は、当該局所経路のデータを注目エージェントの統計情報131に追加する。その後に処理はステップS26へ進む。
ステップS27において統計情報更新手段53は、注目エージェントの移動速度と局所経路を取得し、当該局所経路における速さを算出する。その後に処理はステップS28へ進む。
ステップS29において統計情報更新手段53は、移動中であり且つ視認範囲内に存在する他のエージェントの移動速度と局所経路を取得し、当該局所経路における速さを算出する。その後に処理はステップS30へ進む。
ステップS31において統計情報更新手段53は、算出した速さを観測値として用いて、注目エージェントの統計情報131のうち速さを観測した局所経路の移動速度分布を更新する。その後に処理はステップS32へ進む。
ステップS33において統計情報更新手段53は、視認範囲内に存在する目的地の待ち数を取得する。ステップS34において統計情報更新手段53は、取得した待ち数を観測値として用いて、注目エージェントの統計情報130のうち待ち数を観測した目的地の待ち数分布を更新する。その後に処理はステップS35へ進む。
ステップS36において統計情報更新手段53は、注目エージェントに要したサービス時間を算出する。その後に処理はステップS37へ進む。
ステップS38において統計情報更新手段53は、注目エージェントのサービスを待っている目的地で、サービスが完了した他のエージェントに要したサービス時間を算出する。その後に処理はステップS39へ進む。
ステップS40において統計情報更新手段53は、算出したサービス時間を観測値として用いて、注目エージェントの統計情報130のうちサービス時間を観測した目的地(すなわち注目エージェントがサービスを受ける目的地)のサービス時間分布を更新する。その後に処理はステップS41へ進む。
ステップS41において統計情報更新手段53は、全ての現存エージェントについてステップS21~S40の処理を実行したか否かを判定する。全ての現存エージェントについて処理を実行した場合(ステップS41:Y)に、統計情報更新処理は終了する。未処理の現存エージェントが存在する場合(ステップS41:N)に処理はステップS20へ戻る。
ステップS50において評価値算出手段50は、現存エージェントを順次選択し、処理対象の注目エージェントに設定する。
ステップS51において評価値算出手段50は、注目エージェントの行動決定タイミングが到来したか否かを判定する。行動決定タイミングが到来した場合(ステップS51:Y)に処理はステップS52へ進む。行動決定タイミングが到来していない場合(ステップS51:N)に処理はステップS59へ進む。
ステップS53において評価値算出手段50は、行動パターンPiの各々に対して1つ又は複数の目的地パターンMijを生成する。
ステップS54において評価値算出手段50は、目的地パターンMijを順次選択して、処理対象の注目パターンに設定する。
ステップS56において評価値算出手段50は、全ての目的地パターンMijが注目パターンに設定されたか否かを判定する。全ての目的地パターンMijが注目パターンに設定された場合(ステップS56:Y)に処理はステップS57へ進む。注目パターンに設定されていない目的地パターンMijが存在する場合(ステップS56:N)に処理はステップS54へ戻る。
ステップS58において目的地選択手段51は、選択した目的地パターンMijにおける1番目の目的地のIDを、エージェントIDおよび現在の仮想時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。その後に処理はステップS60へ進む。
ステップS60において評価値算出手段50は、全ての現存エージェントについてステップS51~S59の処理を実行したか否かを判定する。全ての現存エージェントについて処理を実行した場合(ステップS60:Y)に行動決定処理は終了する。未処理の現存エージェントが存在する場合(ステップS60:N)に処理はステップS50へ戻る。
ステップS70において評価値算出手段50は、注目パターンに含まれる目的地毎に、目的地で行動目的を達成する場合の所要時間の確率分布である所要時間分布を算出する。
ステップS71において評価値算出手段50は、注目パターンに含まれる目的地の順位を示す変数sを「1」に初期化する。以下のステップS73~S77では、注目パターンに含まれるs番目の目的地で達成期限までに行動目的を達成する各々の成功確率を算出する。また、評価値算出手段50は、評価値Eを「0」に初期化する。
ステップS73において評価値算出手段50は、1番目の目的地で達成する行動目的の達成期限までの残り時間を算出する。
一方で、ステップS75において評価値算出手段50は、1番目からs-1番目までの目的地で行動目的達成に要する所要時間分布の合計を算出する。
ステップS77において評価値算出手段50は、残り時間分布と、s番目の目的地の所要時間分布に基づいて成功確率を算出する。その後に処理はステップS78へ進む。
ステップS78において評価値算出手段50は、ステップS74又はS77で算出した成功確率を希望達成度に乗じた積を評価値Eに加算する。
ステップS80において評価値算出手段50は、注目パターンの中の全ての目的地について、ステップS72~S79の処理を完了したか否かを判定する。全ての目的地について処理を完了した場合(ステップS80:Y)に処理はステップS81へ進む。未処理の目的地が存在する場合(ステップS80:N)に処理はステップS72へ戻る。
ステップS81において評価値算出手段50は、エージェントと注目パターンと評価値を対応付けた評価値情報を目的地選択手段51に出力する。その後に、評価値算出処理は終了する
ステップS90において行動模擬手段52は、現存エージェントを順次選択し、処理対象の注目エージェントに設定する。
ステップS91において行動模擬手段52は、目的地選択手段51が注目エージェントの目的地パターンを新しく選択したか否かを判定する。目的地パターンを新しく選択した場合(ステップS91:Y)に処理はステップS92へ進む。目的地パターンを新しく選択しない場合(ステップS91:N)に処理はステップS93へ進む。
ステップS93において行動模擬手段52は、注目エージェントの状況を更新する。
ステップS95において行動模擬手段52は、注目エージェントの移動速度を算出して位置を更新する。その後に処理はステップS96へ進む。
ステップS97において行動模擬手段52は、注目エージェントを消去する。その後に処理はステップS98へ進む。
ステップS98において行動模擬手段52は、全ての現存エージェントについてステップS91~S97の処理が完了したか否かを判定する。未処理の現存エージェントが存在する場合(ステップS98:N)に処理はステップS90へ戻る。全ての現存エージェントについて処理が完了した場合(ステップS98:Y)にエージェント状態更新処理は終了する。
(1)第1実施形態では、所要時間を、移動時間と、待ち時間と、サービス時間の和として定義した。
これに代えて、移動時間を所要時間としてもよい(すなわち待ち時間とサービス時間が0)。これにより、配達のように待ち時間とサービス時間が0とみなせる行動目的についてのシミュレーションを行うことができる。
この場合、例えば、目的地選択手段51が選択した目的地パターンをエージェント情報記憶手段42に記憶させ、行動模擬手段52は、各エージェントについて記憶されている目的地パターンの先頭の目的地から順次当該エージェントを移動させるように動作してよい。
さらには、幕間毎に全エージェントに共通の単一の達成期限を設定してもよい。
第1実施形態の評価値算出手段50は、所要時間分布を算出する際に、統計情報130に記憶される目的地の待ち数分布に基づいて待ち時間を予測する。また、視認範囲内の目的地については待ち数の観測値から待ち時間を予測している。
しかしながら、目的地に向かう他のエージェントの動きを観測することによって、待ち時間の予測が変わることがある。
そこで、第2実施形態の評価値算出手段50は、処理対象のエージェントの目的地パターンを選択する際に、他のエージェントの行動に基づいて、目的地での待ち時間を予測する。例えば、他のエージェントの移動方向に基づいて目的地での待ち時間を予測する。
参照符号201a~201cは、注目エージェント200の視認範囲内の他のエージェントを示し、参照符号202は、視認範囲外の他のエージェントを示す。
第2実施形態の評価値算出手段50は、視認範囲内の他のエージェント201a~201cの移動方向に基づいて、目的地VI、VII及びVIIIの待ち数を予測する。
待ち時間算出手段70は、現存エージェントの中から、処理対象の注目エージェントを選択する。
例えば、注目エージェントが移動中であれば移動方向の左右90度の範囲を、待機中または処理中であればエージェント位置を中心とした360度の範囲としてよい。
視認範囲の角度範囲や視認距離を、各エージェントの移動速度に応じて変更させてもよい。また、好適には、空間情報記憶手段41に記憶されている空間情報111を利用し、視認範囲内の壁等の障害物に阻まれる領域を除外して視認範囲を設定する。
到達数予測手段74は、視認範囲内にある他エージェントの移動方向と、空間情報111に記憶される目的地の代表点とに基づいて、注目エージェントの統計情報130に記憶されている目的地diへ他のエージェントが到達する到達数を予測する。例えば、到達数予測手段74は、次式(9)に基づいて他のエージェントが目的地へ到達する到達数Rdiを予測してよい。
目的地が注目エージェントの視認範囲に存在する場合、待ち時間予測手段75は、目的地の待ち数に、目的地への到達数を加算した和を目的地の将来待ち数とする。すなわち、目的地に存在する他のエージェント数の観測結果と到達数に基づいて、待ち時間分布を予測する。
すなわち、目的地への到達数と、統計情報130に記憶されている目的地における待ち時間の統計情報とに基づいて、待ち時間分布を予測する。
ステップS100において評価値算出手段50は、注目エージェントの統計情報131に記憶されている局所経路の移動速度分布に基づいて、注目パターン(目的地パターン)に含まれる各目的地までの移動に要する移動時間分布を算出する。
ステップS102において到達数予測手段74は、注目エージェントの統計情報130に記憶されている目的地に向かう他のエージェントの到達数を予測する。
ステップS105において、評価値算出手段50は、移動時間分布と、サービス時間分布と、待ち時間分布の和を、所要時間として算出する。その後に所要時間分布算出処理は終了する。
(1)シミュレータ1は、行動目的を有する複数のエージェントが、所定の空間において複数の目的地のいずれかで行動目的を達成する行動を模擬する。
統計情報記憶手段43は、エージェント毎に、複数の目的地で行動目的を達成するのに要する各々の所要時間に関する統計情報を記憶する。評価値算出手段50は、エージェント毎に、統計情報に基づいて、行動目的の達成期限までに複数の目的地で行動目的を達成する各々の確率を予測し、確率に応じて評価値を算出する。目的地選択手段51は、エージェント毎に、評価値に基づいて複数の目的地のいずれかを選択する。行動模擬手段52は、選択した目的地において複数のエージェントの各々が行動目的を達成する行動を模擬する。統計情報更新手段53は、選択した目的地で行動目的を達成するまでに観測した所要時間に関する観測値に基づいて統計情報を更新する。
また、所要時間の観測値に基づいて統計情報を更新することにより、時間経過に従って経験により変化するエージェントの行動を模擬することができる。
これにより、自己の経験に基づくエージェントの行動変化を模擬することができる。
これにより、他エージェントの経験の観測に基づくエージェントの行動変化を模擬することができる。
これにより、複数の行動目的を有するエージェントが、各々の行動目的を達成する目的地を選択する行動を模擬することができる。
これにより、複数の行動目的を達成するエージェントが行動目的の順序を入れ替えて目的地を選択する行動を模擬することができる。
これにより、エージェント毎に異なる行動目的の優先度に応じて目的地を選択する硬度を模擬することができる。
これにより、例えば配達のような目的地で現地所要時間を無視できる行動目的の模擬、または、対象空間をレジのエリアに限定して行う模擬のような移動所要時間を無視した模擬をすることができる。
(8)上記の所要時間は、エージェントが目的地まで移動するのに要する移動所要時間と目的地において要する現地所要時間の和であってもよい。
これにより、目的地である程度の所要時間を要する行動目的を模擬することができる。
Claims (10)
- 行動目的を有する複数のエージェントが、所定の空間において複数の目的地のいずれかで前記行動目的を達成する行動を模擬するシミュレータであって、
前記エージェント毎に、前記複数の目的地で前記行動目的を達成するのに要する各々の所要時間の確率分布に関する統計情報を記憶する統計情報記憶手段と、
前記エージェント毎に、前記所要時間の確率分布と前記行動目的の達成期限までの残り時間とに基づいて、前記行動目的の達成期限までに前記複数の目的地で前記行動目的を達成する各々の確率を予測し、前記確率が高いほどより高い値を有する評価値を算出する評価値算出手段と、
前記エージェント毎に、前記評価値に基づいて前記複数の目的地のいずれかを選択する目的地選択手段と、
選択した前記目的地において前記複数のエージェントの各々が前記行動目的を達成する行動を模擬する行動模擬手段と、
前記選択した目的地で前記行動目的を達成するまでに観測した所要時間に関する観測値に基づいて前記統計情報を更新する統計情報更新手段と、
を備えることを特徴とするシミュレータ。 - 前記統計情報更新手段は、前記複数のエージェントのうち処理対象の対象エージェントが前記行動目的を達成するのに要する所要時間に関する前記観測値に応じて、前記対象エージェントの前記統計情報を更新することを特徴とする請求項1に記載のシミュレータ。
- 前記統計情報更新手段は、前記複数のエージェントのうち処理対象の対象エージェントの前記統計情報を、前記複数のエージェントのうち他のエージェントが前記行動目的を達成するのに要する所要時間に関する前記観測値に応じて更新することを特徴とする請求項1又は2に記載のシミュレータ。
- 前記評価値算出手段は、複数の前記行動目的を有する前記エージェントについて、前記複数の目的地の中から前記複数の行動目的の各々を達成する目的地の組合せを複数選択して、前記目的地の組合せで前記複数の行動目的を前記達成期限までに達成する確率に応じて前記評価値を算出し、
前記目的地選択手段は、前記評価値に基づいて前記複数の組合せのいずれかを選択する、
ことを特徴とする請求項1~3のいずれか一項に記載のシミュレータ。 - 前記評価値算出手段は、前記複数の行動目的を異なる順序で達成する場合の評価値を各々算出し、
前記行動模擬手段は、前記評価値に基づいて選択した順序で前記行動目的を達成する行動を模擬する、
ことを特徴とする請求項4に記載のシミュレータ。 - 前記評価値算出手段は、前記複数の行動目的の各々を達成する確率を前記複数の行動目的の効用で重み付けした確率の合計である前記評価値を算出することを特徴とする請求項4又は5に記載のシミュレータ。
- 前記所要時間は、前記エージェントが前記目的地まで移動するのに要する移動所要時間または前記目的地において要する現地所要時間であることを特徴とする請求項1~6のいずれか一項に記載のシミュレータ。
- 前記所要時間は、前記エージェントが前記目的地まで移動するのに要する移動所要時間と前記目的地において要する現地所要時間の和であることを特徴とする請求項1~6のいずれか一項に記載のシミュレータ。
- 行動目的を有する複数のエージェントが、所定の空間において複数の目的地のいずれかで前記行動目的を達成する行動を模擬するシミュレーション方法であって、
所定の記憶装置に前記エージェント毎に記憶された、前記複数の目的地で前記行動目的を達成するのに要する各々の所要時間の確率分布に関する統計情報を読み込む処理と、
前記エージェント毎に、前記所要時間の確率分布と前記行動目的の達成期限までの残り時間とに基づいて、前記行動目的の達成期限までに前記複数の目的地で前記行動目的を達成する各々の確率を予測し、前記確率が高いほどより高い値を有する評価値を算出する処理と、
前記エージェント毎に、前記評価値に基づいて前記複数の目的地のいずれかを選択する処理と、
選択した前記目的地において前記複数のエージェントの各々が前記行動目的を達成する行動を模擬する処理と、
前記選択した目的地で前記行動目的を達成する際に観測した所要時間に関する観測値に基づいて前記統計情報を更新する処理と、
をコンピュータが実行することを特徴とするシミュレーション方法。 - 行動目的を有する複数のエージェントが、所定の空間において複数の目的地のいずれかで前記行動目的を達成する行動を模擬するシミュレーションプログラムであって、
所定の記憶装置に前記エージェント毎に記憶された、前記複数の目的地で前記行動目的を達成するのに要する各々の所要時間の確率分布に関する統計情報を読み込む処理と、
前記エージェント毎に、前記所要時間の確率分布と前記行動目的の達成期限までの残り時間とに基づいて、前記行動目的の達成期限までに前記複数の目的地で前記行動目的を達成する各々の確率を予測し、前記確率が高いほどより高い値を有する評価値を算出する処理と、
前記エージェント毎に、前記評価値に基づいて前記複数の目的地のいずれかを選択する処理と、
選択した前記目的地において前記複数のエージェントの各々が前記行動目的を達成する行動を模擬する処理と、
前記選択した目的地で前記行動目的を達成する際に観測した所要時間に関する観測値に基づいて前記統計情報を更新する処理と、
をコンピュータに実行させることを特徴とするシミュレーションプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020038112A JP7492840B2 (ja) | 2020-03-05 | 2020-03-05 | シミュレータ、シミュレーション方法及びシミュレーションプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020038112A JP7492840B2 (ja) | 2020-03-05 | 2020-03-05 | シミュレータ、シミュレーション方法及びシミュレーションプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021140489A JP2021140489A (ja) | 2021-09-16 |
JP7492840B2 true JP7492840B2 (ja) | 2024-05-30 |
Family
ID=77668683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020038112A Active JP7492840B2 (ja) | 2020-03-05 | 2020-03-05 | シミュレータ、シミュレーション方法及びシミュレーションプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7492840B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7441080B2 (ja) | 2020-03-05 | 2024-02-29 | セコム株式会社 | シミュレータ、シミュレーション方法及びシミュレーションプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002197150A (ja) | 2000-10-18 | 2002-07-12 | Seiko Epson Corp | 旅行スケジュール提供システム |
JP2003279364A (ja) | 2002-03-25 | 2003-10-02 | Ricoh Co Ltd | 情報収集・情報更新・目的地までの所要時間予測方法、装置及びネットワークシステム |
JP2018097726A (ja) | 2016-12-15 | 2018-06-21 | ヤフー株式会社 | 決定装置、決定方法、決定プログラム、生成装置、生成方法、及び生成プログラム |
-
2020
- 2020-03-05 JP JP2020038112A patent/JP7492840B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002197150A (ja) | 2000-10-18 | 2002-07-12 | Seiko Epson Corp | 旅行スケジュール提供システム |
JP2003279364A (ja) | 2002-03-25 | 2003-10-02 | Ricoh Co Ltd | 情報収集・情報更新・目的地までの所要時間予測方法、装置及びネットワークシステム |
JP2018097726A (ja) | 2016-12-15 | 2018-06-21 | ヤフー株式会社 | 決定装置、決定方法、決定プログラム、生成装置、生成方法、及び生成プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021140489A (ja) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Modelling and interpreting pre-evacuation decision-making using machine learning | |
Kuligowski | Computer evacuation models for buildings | |
JP2006221329A (ja) | 行動予測装置、行動予測方法および行動予測プログラム | |
JP7233889B2 (ja) | 歩行者シミュレーション装置 | |
Barnett et al. | Coordinated crowd simulation with topological scene analysis | |
CN113643170A (zh) | 一种大数据驱动的公共场所聚集人群疏散方法及装置 | |
JP7492840B2 (ja) | シミュレータ、シミュレーション方法及びシミュレーションプログラム | |
US20220324675A1 (en) | Eliciting preferences for passenger traffic group control | |
JP7457536B2 (ja) | シミュレータ、シミュレーション方法及びシミュレーションプログラム | |
JP7441080B2 (ja) | シミュレータ、シミュレーション方法及びシミュレーションプログラム | |
Juřík et al. | Analysis of the use of behavioral data from virtual reality for calibration of agent-based evacuation models | |
JP7074580B2 (ja) | シミュレーター、シミュレーション方法及びシミュレーションプログラム | |
US20190228354A1 (en) | Computer-readable recording medium, simulation method, and simulation apparatus | |
JP7060460B2 (ja) | シミュレーター、シミュレーション方法及びシミュレーションプログラム | |
CN106951581B (zh) | 商业综合体模拟器 | |
WO2021241239A1 (ja) | 予測システム、予測方法、および予測プログラム | |
Schaumann et al. | Modeling social and spatial behavior in built environments: Current methods and future directions | |
Murata et al. | Data assimilation approach for addressing imperfections in people flow measurement techniques using particle filter | |
Levinson | An evolutionary transportation planning model: Structure and application | |
JP2023027883A (ja) | レイアウトデータ表示システム及びレイアウトデータ表示方法 | |
JP7449982B2 (ja) | 施策策定支援システム、施策策定支援方法、および、施策策定支援プログラム | |
JP7526589B2 (ja) | 移動体移動予測システム及び移動体移動予測方法 | |
Nishida et al. | Crowd simulation incorporating a route choice model and similarity evaluation using real large-scale data | |
WO2023228498A1 (ja) | 人流予測装置、人流予測プログラム、および、人流予測方法 | |
JP7507579B2 (ja) | 行動特性数値化装置、シミュレータ装置、設計支援装置、行動特性数値化方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240520 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7492840 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |