JP2021140490A - Simulator, simulation method, and simulation program - Google Patents

Simulator, simulation method, and simulation program Download PDF

Info

Publication number
JP2021140490A
JP2021140490A JP2020038113A JP2020038113A JP2021140490A JP 2021140490 A JP2021140490 A JP 2021140490A JP 2020038113 A JP2020038113 A JP 2020038113A JP 2020038113 A JP2020038113 A JP 2020038113A JP 2021140490 A JP2021140490 A JP 2021140490A
Authority
JP
Japan
Prior art keywords
action
agent
destination
evaluation value
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020038113A
Other languages
Japanese (ja)
Other versions
JP7457536B2 (en
Inventor
あゆみ 古河
Ayumi Furukawa
あゆみ 古河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2020038113A priority Critical patent/JP7457536B2/en
Publication of JP2021140490A publication Critical patent/JP2021140490A/en
Application granted granted Critical
Publication of JP7457536B2 publication Critical patent/JP7457536B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To simulate a crowd action that reflects a sequence determination and selection performed by an agent having a plurality of action purpose in consideration of a possibility of accomplishment under a time limit.SOLUTION: A simulator, which simulates a behavior that an agent having a plurality of action purposes accomplishes the plurality of action purposes respectively at a plurality of destinations, comprises: combination selection means 50 that selects a plurality of combinations of destinations accomplishing each of the plurality of action purposes; evaluation value calculation means 50 that predicts a total of probabilities of accomplishing the action purposes at the destination by an accomplishment term on the basis of a probability density distribution of required time, and calculates an evaluation value; and action simulation means 52 that simulates an action sequentially visiting the destinations selected based on the evaluation value. The evaluation value calculation means 50 is configured to: determine a probability density distribution of remaining time in accordance with the probability density distribution of the required time of the action purpose to be firstly accomplished and the accomplishment term; and predict a probability of later accomplishing the action purpose by the accomplishment term on the basis of the probability density distribution of the remaining time.SELECTED DRAWING: Figure 2

Description

本発明は、群集の行動を予測するシミュレータ、シミュレーション方法及びシミュレーションプログラムに関する。 The present invention relates to a simulator, a simulation method and a simulation program for predicting the behavior of a crowd.

近年、大勢の人々が集まる空間について、空間設計やその改善の効果、運用施策の導入やその改善等の効果を予測するために、群集の行動を予測するシミュレータが用いられている。また、そのようなシミュレータで用いる方法の一つとして、群集を構成する個体それぞれをエージェントと呼ばれるデータで表すマルチエージェントシミュレーションが知られている。
一般に、大勢の人々が集まる空間には複数の目的(行動目的)に対してそれを達成できる場所(目的地)が存在し、マルチエージェントシミュレーションではエージェントそれぞれの行動目的と目的地を決定する必要がある。
例えば特許文献1にはT字路の通行者を模した個体それぞれに対してA駅への移動、B駅への移動、観客席への移動等の目的と西側連絡口、東側連絡口、南側連絡口等の移動目標位置とをシミュレータの利用者が予め設定することが記載されている。また、例えば特許文献2には属性がリーダーである個体の選択目的と選択目的に対応する選択エリアを避難・出口エリアと消火・燃焼エリアの中から抽選によって決定することが記載されている。
In recent years, in a space where a large number of people gather, a simulator for predicting the behavior of a crowd has been used in order to predict the effect of space design and its improvement, and the effect of introducing operational measures and their improvement. Further, as one of the methods used in such a simulator, a multi-agent simulation is known in which each individual constituting the community is represented by data called an agent.
In general, in a space where a large number of people gather, there are places (destination) that can achieve multiple purposes (action purposes), and in multi-agent simulation, it is necessary to determine the action purpose and destination of each agent. be.
For example, in Patent Document 1, for each individual imitating a T-junction passerby, the purpose of moving to A station, moving to B station, moving to the audience seats, etc., and the west side contact port, east side contact port, and south side It is described that the user of the simulator sets the movement target position of the contact port or the like in advance. Further, for example, Patent Document 2 describes that the selection purpose of an individual whose attribute is a leader and the selection area corresponding to the selection purpose are determined by lottery from the evacuation / exit area and the fire extinguishing / combustion area.

特開2019−219880号公報Japanese Unexamined Patent Publication No. 2019-21980 特開2019−185073号公報Japanese Unexamined Patent Publication No. 2019-185073

ここで、設計や施策等の試行錯誤を減ずるためにシミュレータには予測精度が要求され、予測精度を左右する要因のひとつに複数の行動目的を持った個体が時間制限の下で達成の可能性を考慮して行う選択(意思決定)がある。例えば、現実世界の劇場の15分休憩において、観客の一人は休憩時間内に確実にグッズを入手すべく買い物を優先してまず売店に向かい、その後用便のための時間が余る可能性が高ければトイレへの移動を予定し、時間が余る可能性が低ければ用便はあきらめるというように、先の行動目的を達成した場合に後の行動目的を達成できる可能性の高低を考えて優先順位決めや取捨選択をして目的地を選ぶ。
しかしながら、従来のシミュレータが行うマルチエージェントシミュレーションでは、各エージェントの行動目的や目的地をシミュレータの利用者が予め設定し、または各時点で抽選していた。このため、従来技術では、複数の行動目的を有するエージェントが時間制限の下で達成の可能性を考慮して行う順序決めと選択を反映した群集行動を模擬することが困難であった。
例えばシミュレータの利用者が予め設定する場合は個体と行動目的の組み合わせの数だけ設定しなければならない上、その一つひとつを先の行動目的と後の行動目的の達成可能性を考慮して設定しなければならない。また、例えば抽選による決定は複数の行動目的と目的地を決めるものではなく、先の行動目的と後の行動目的の達成可能性を考慮して決めるものでもなかった。
Here, prediction accuracy is required for the simulator in order to reduce trial and error in design and measures, and one of the factors that influences prediction accuracy is the possibility that individuals with multiple behavioral objectives can achieve it under a time limit. There is a choice (decision-making) to be made in consideration of. For example, during a 15-minute break in a real-world theater, one of the spectators is likely to prioritize shopping and then head to the store to ensure that goods are available during the break, followed by extra time for the toilet. For example, if you plan to move to the toilet and give up the stool if there is little chance of surplus time, prioritize the possibility of achieving the later action purpose if you achieve the earlier action purpose. Select a destination by making decisions and selections.
However, in the multi-agent simulation performed by the conventional simulator, the user of the simulator sets the action purpose and destination of each agent in advance, or the lottery is performed at each time point. For this reason, in the prior art, it has been difficult to simulate a crowd behavior that reflects the ordering and selection performed by agents having a plurality of behavioral objectives in consideration of the possibility of achievement under a time limit.
For example, when the simulator user sets in advance, the number of combinations of individual and action purpose must be set, and each of them must be set in consideration of the achievability of the first action purpose and the second action purpose. Must be. Further, for example, the decision by lottery does not determine a plurality of action objectives and destinations, nor does it determine the achievability of the earlier action objectives and the later action objectives.

本発明は、上記の問題点を鑑みてなされたものであり、複数の行動目的を有するエージェントが時間制限の下で達成の可能性を考慮して行う順序決めと選択を反映した群集行動を模擬するシミュレータ、シミュレーション方法及びシミュレーションプログラムを目的とする。 The present invention has been made in view of the above problems, and simulates a crowd behavior that reflects the ordering and selection performed by agents having a plurality of behavioral objectives in consideration of the possibility of achievement under a time limit. The purpose is a simulator, a simulation method, and a simulation program.

本発明の一形態によれば、複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて複数の行動目的をそれぞれ達成する行動を模擬するシミュレータが与えられる。シミュレータは、複数の目的地の中から複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択手段と、目的地の組合せ毎に、組み合わせた目的地で複数の行動目的を達成期限までに各々達成する確率の合計を、複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、合計に応じて評価値を算出する評価値算出手段と、目的地の複数の組合せの中から評価値に基づいて選択した目的地の組合せを順次訪れるように移動するエージェントの行動を模擬する行動模擬手段と、を備える。評価値算出手段は、複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を達成期限までに達成する確率を、残り時間の確率密度分布に基づいて予測する。 According to one embodiment of the present invention, an agent having a plurality of action objectives is provided with a simulator that simulates an action in which an agent having a plurality of action objectives achieves a plurality of action objectives at a plurality of destinations in a predetermined space. The simulator achieves a plurality of action objectives at a combination of a combination selection means for selecting a plurality of destination combinations that achieve each of a plurality of action objectives from a plurality of destinations and a combination of destinations. An evaluation value calculation means that predicts the total probability of achieving each by the deadline based on the probability density distribution of each time required to achieve a plurality of action objectives, and calculates the evaluation value according to the total. It is provided with an action simulating means for simulating the behavior of an agent moving so as to sequentially visit a combination of destinations selected based on an evaluation value from a plurality of combinations of destinations. The evaluation value calculation means determines the probability density distribution of the time required for the action purpose to be achieved first among the plurality of action objectives and the probability density distribution of the remaining time according to the achievement deadline, and the action objective to be achieved later is reached until the achievement deadline. Is predicted based on the probability density distribution of the remaining time.

本発明の他の形態によれば、複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて複数の行動目的をそれぞれ達成する行動を模擬するシミュレーション方法が与えられる。シミュレーション方法では、複数の目的地の中から複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択処理と、目的地の組合せ毎に、組み合わせた目的地で複数の行動目的を達成期限までに各々達成する確率の合計を、複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、合計に応じて評価値を算出する評価値算出処理と、目的地の複数の組合せの中から評価値に基づいて選択した目的地の組合せを順次訪れるように移動するエージェントの行動を模擬する行動模擬処理と、をコンピュータが実行する。評価値算出処理において、複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を達成期限までに達成する確率を、残り時間の確率密度分布に基づいて予測する。 According to another aspect of the present invention, a simulation method is provided in which an agent having a plurality of action objectives simulates an action in which an agent having a plurality of action objectives achieves a plurality of action objectives at a plurality of destinations in a predetermined space. In the simulation method, a combination selection process for selecting a plurality of combinations of destinations that achieve each of a plurality of action objectives from a plurality of destinations, and for each combination of destinations, a plurality of action objectives are selected at the combined destinations. Evaluation value calculation processing that predicts the total of the probabilities to be achieved by the achievement deadline based on the probability density distribution of each time required to achieve multiple action objectives, and calculates the evaluation value according to the total. , The computer executes a behavior simulation process that simulates the behavior of an agent who moves so as to sequentially visit a combination of destinations selected based on an evaluation value from a plurality of combinations of destinations. In the evaluation value calculation process, the probability density distribution of the time required for the action purpose to be achieved first among multiple action objectives and the probability density distribution of the remaining time according to the achievement deadline are determined, and the action objective to be achieved later is reached until the achievement deadline. Is predicted based on the probability density distribution of the remaining time.

本発明の更なる他の形態によれば、複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて複数の行動目的をそれぞれ達成する行動を模擬するシミュレーションプログラムが与えられる。シミュレーションプログラムは、複数の目的地の中から複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択処理と、目的地の組合せ毎に、組み合わせた目的地で複数の行動目的を達成期限までに各々達成する確率の合計を、複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、合計に応じて評価値を算出する評価値算出処理と、目的地の複数の組合せの中から評価値に基づいて選択した目的地の組合せを順次訪れるように移動するエージェントの行動を模擬する行動模擬処理と、をコンピュータに実行させる。評価値算出処理において、複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を達成期限までに達成する確率を、残り時間の確率密度分布に基づいて予測する。 According to still another aspect of the present invention, an agent having a plurality of behavioral objectives is provided with a simulation program that simulates an behavior in which an agent having a plurality of behavioral objectives achieves a plurality of behavioral objectives at a plurality of destinations in a predetermined space. The simulation program performs a combination selection process that selects a plurality of combinations of destinations that achieve each of a plurality of action objectives from a plurality of destinations, and multiple action objectives at the combined destinations for each combination of destinations. Evaluation value calculation processing that predicts the total of the probabilities to be achieved by the achievement deadline based on the probability density distribution of each time required to achieve multiple action objectives, and calculates the evaluation value according to the total. , The computer is made to execute an action simulation process that simulates the behavior of an agent that moves so as to sequentially visit a combination of destinations selected based on an evaluation value from a plurality of combinations of destinations. In the evaluation value calculation process, the probability density distribution of the time required for the action purpose to be achieved first among multiple action objectives and the probability density distribution of the remaining time according to the achievement deadline are determined, and the action objective to be achieved later is reached until the achievement deadline. Is predicted based on the probability density distribution of the remaining time.

本発明によれば、複数の行動目的を有するエージェントが時間制限の下で達成の可能性を考慮して行う順序決めと選択を反映した群集行動を模擬することができる。 According to the present invention, it is possible to simulate a crowd behavior that reflects the ordering and selection performed by agents having a plurality of behavioral objectives in consideration of the possibility of achievement under a time limit.

実施形態に係るシミュレータの一例の概略構成図である。It is a schematic block diagram of an example of the simulator which concerns on embodiment. 実施形態に係るシミュレータの一例の機能ブロック図である。It is a functional block diagram of an example of the simulator which concerns on embodiment. 空間情報記憶手段に記憶される対象空間の地図情報の一例の模式図である。It is a schematic diagram of an example of the map information of the target space stored in the spatial information storage means. 空間情報記憶手段に記憶される空間情報(行動目的情報及び目的地情報)の一例を示す図である。It is a figure which shows an example of the spatial information (behavior purpose information and destination information) stored in a spatial information storage means. エージェント情報記憶手段に記憶される第1のエージェント情報の一例を示す図である。It is a figure which shows an example of the 1st agent information stored in the agent information storage means. エージェント情報記憶手段に記憶される第2のエージェント情報の一例を示す図である。It is a figure which shows an example of the 2nd agent information stored in the agent information storage means. エージェント情報記憶手段に記憶される第3のエージェント情報の一例を示す図である。It is a figure which shows an example of the 3rd agent information stored in the agent information storage means. エージェント情報記憶手段に記憶される第4のエージェント情報の一例を示す図である。It is a figure which shows an example of the 4th agent information stored in the agent information storage means. 統計情報記憶手段に記憶される統計情報の一例を示す図である。It is a figure which shows an example of the statistical information stored in the statistical information storage means. (a)及び(b)は1番目の行動目的を達成する成功確率の算出方法の一例の説明図である。(A) and (b) are explanatory diagrams of an example of the calculation method of the success probability of achieving the first action purpose. (a)〜(c)は2番目以降の行動目的を達成する成功確率の算出方法の一例の説明図である。(A) to (c) are explanatory diagrams of an example of the calculation method of the success probability of achieving the second and subsequent action objectives. (a)及び(b)は、統計情報記憶手段に記憶される確率分布が統計情報更新手段によって更新されて、エージェント毎に違いが生じる様子を説明する図である。(A) and (b) are diagrams for explaining how the probability distribution stored in the statistical information storage means is updated by the statistical information updating means, and a difference occurs for each agent. 第1実施形態のシミュレーション方法の全体処理の一例のフローチャートである。It is a flowchart of an example of the whole processing of the simulation method of 1st Embodiment. 統計情報更新処理の一例のフローチャートである。It is a flowchart of an example of a statistical information update process. 統計情報更新処理の一例のフローチャートである。It is a flowchart of an example of a statistical information update process. 行動決定処理の一例のフローチャートである。It is a flowchart of an example of an action decision process. 評価値算出処理の一例のフローチャートである。It is a flowchart of an example of an evaluation value calculation process. エージェント状態更新処理の一例のフローチャートである。It is a flowchart of an example of agent state update processing. 第2実施形態における目的地へのエージェントの到達数の予測方法の説明図である。It is explanatory drawing of the method of predicting the number of arrivals of an agent to a destination in 2nd Embodiment. 第2実施形態における待ち時間算出手段の一例の機能ブロック図である。It is a functional block diagram of an example of the waiting time calculation means in the 2nd Embodiment. 第2実施形態における所要時間分布算出処理の一例のフローチャートである。It is a flowchart of an example of the required time distribution calculation process in 2nd Embodiment.

以下において、図面を参照して本発明の実施形態を説明する。なお、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments of the present invention shown below exemplify devices and methods for embodying the technical idea of the present invention, and the technical idea of the present invention includes the structure, arrangement, and the like of components. Is not specified as the following. The technical idea of the present invention may be modified in various ways within the technical scope specified by the claims stated in the claims.

本発明の実施形態として、客席、トイレおよび売店を有する劇場において複数の人が客席、トイレおよび売店を利用する行動を予測するシミュレータの例を示す。
すなわち、本実施形態において、シミュレーションの対象となる空間(対象空間)は劇場であり、群集を構成する個体は人であり、各個体の行動目的は、劇場の座席への「着席」と、「用便」と、「買い物」である。以下、シミュレータにおける個体のデータを「エージェント」と表記する。
As an embodiment of the present invention, an example of a simulator that predicts the behavior of a plurality of people using the audience seats, toilets and shops in a theater having audience seats, toilets and shops is shown.
That is, in the present embodiment, the space (target space) to be simulated is a theater, the individuals constituting the crowd are people, and the action objectives of each individual are "seating" in the theater seat and "sit". "Usage" and "shopping". Hereinafter, individual data in the simulator will be referred to as "agent".

また、この実施形態においては、シミュレーションの実施者(以下「利用者」と表記する)が、シミュレータを用いて幕間時間の群集の行動を予測する例について説明する。また、複数回の幕間時間を経て群集の行動の予測が変化する例について説明する。ちなみに、簡単化のために、幕前、幕後は省略するものとする。
なお、本明細書において説明される劇場は、あくまで対象空間の一例であり、本発明の対象はこれに限定されるものではない。
Further, in this embodiment, an example in which a simulation performer (hereinafter referred to as “user”) predicts the behavior of a crowd during the inter-curricular time using a simulator will be described. In addition, an example in which the prediction of crowd behavior changes after multiple intermission times will be described. By the way, for the sake of simplicity, the pre-curtain and post-curtain are omitted.
The theater described in the present specification is merely an example of the target space, and the subject of the present invention is not limited to this.

(第1実施形態)
(構成)
図1は、第1実施形態に係るシミュレータの一例の概略構成図である。
シミュレータ1は、操作入力部2、ファイル入出力部3、記憶部4、制御部5、および表示部6からなる。これらのうちのファイル入出力部3、記憶部4および制御部5はいわゆるコンピュータで実現でき、操作入力部2および表示部6は当該コンピュータの周辺機器として実現できる。
操作入力部2は、キーボード、マウス等のユーザーインターフェースであり、利用者に操作されてデータの入力等に用いられる。操作入力部2は、制御部5に接続され、利用者の操作を操作信号に変換して制御部5に出力する。
(First Embodiment)
(composition)
FIG. 1 is a schematic configuration diagram of an example of a simulator according to the first embodiment.
The simulator 1 includes an operation input unit 2, a file input / output unit 3, a storage unit 4, a control unit 5, and a display unit 6. Of these, the file input / output unit 3, the storage unit 4, and the control unit 5 can be realized by a so-called computer, and the operation input unit 2 and the display unit 6 can be realized as peripheral devices of the computer.
The operation input unit 2 is a user interface such as a keyboard and a mouse, and is operated by a user to be used for data input and the like. The operation input unit 2 is connected to the control unit 5, converts the user's operation into an operation signal, and outputs the operation signal to the control unit 5.

ファイル入出力部3は、DVD(Digital Versatile Disc)ドライブ、USB(Universal Serial Bus)インターフェース、ネットワークインターフェース等であり、一方が不図示の外部機器、記録メディア、ネットワーク等に接続され、他方が制御部5に接続され、データをファイルとして制御部5に入力し、およびデータをファイルとして制御部5から出力する。
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、制御部5と接続されて制御部5との間でこれらの情報を入出力する。
The file input / output unit 3 is a DVD (Digital Versatile Disc) drive, a USB (Universal Serial Bus) interface, a network interface, etc., one of which is connected to an external device (not shown), a recording medium, a network, or the like, and the other is a control unit. It is connected to 5, the data is input to the control unit 5 as a file, and the data is output from the control unit 5 as a file.
The storage unit 4 is a memory device such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and stores various programs and various data. The storage unit 4 is connected to the control unit 5 and inputs / outputs these information to and from the control unit 5.

制御部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。制御部5は、記憶部4と接続され、記憶部4からプログラムを読み出して実行することにより各種処理部として動作し、各種データを記憶部4に記憶させ、読み出す。また、制御部5は、操作入力部2、ファイル入出力部3および表示部6とも接続され、利用者が操作入力部2を操作して入力されたデータを取得し、ファイル入出力部3を介して外部からファイルとしてデータを取得および出力し、所得したデータに基づいたシミュレーションを行って群集の行動を予測し、予測結果のデータをファイルとしてファイル入出力部3から出力させ、および/または予測結果のデータを画像化して表示部6に表示させる。
表示部6は、液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、制御部5と接続され、制御部5による予測結果を表示する。利用者は表示された予測結果を視認して群集の行動に関する考察等を行う。
The control unit 5 is composed of arithmetic units such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and an MCU (Micro Control Unit). The control unit 5 is connected to the storage unit 4 and operates as various processing units by reading and executing a program from the storage unit 4, and stores and reads various data in the storage unit 4. Further, the control unit 5 is also connected to the operation input unit 2, the file input / output unit 3, and the display unit 6, and the user operates the operation input unit 2 to acquire the input data, and the file input / output unit 3 is used. Data is acquired and output as a file from the outside via the file, simulation is performed based on the income data to predict the behavior of the crowd, and the prediction result data is output as a file from the file input / output unit 3 and / or predicted. The resulting data is imaged and displayed on the display unit 6.
The display unit 6 is a display device such as a liquid crystal display or a CRT (Cathode Ray Tube) display, is connected to the control unit 5, and displays a prediction result by the control unit 5. The user visually recognizes the displayed prediction result and considers the behavior of the crowd.

(シミュレータ1の機能)
図2は、第1実施形態に係るシミュレータ1の一例の機能ブロック図である。
操作入力部2は、条件設定手段20の一部等として機能し、ファイル入出力部3は条件設定手段20の一部および予測結果出力手段60の一部等として機能する。
記憶部4は模擬条件記憶手段40、空間情報記憶手段41、エージェント情報記憶手段42および統計情報記憶手段43等として機能する。
(Function of simulator 1)
FIG. 2 is a functional block diagram of an example of the simulator 1 according to the first embodiment.
The operation input unit 2 functions as a part of the condition setting means 20, and the file input / output unit 3 functions as a part of the condition setting means 20 and a part of the prediction result output means 60.
The storage unit 4 functions as a simulated condition storage means 40, a spatial information storage means 41, an agent information storage means 42, a statistical information storage means 43, and the like.

制御部5は、CPU、DSP、MCU等の演算装置によって記憶部4に格納されたコンピュータプログラムを実行することにより、評価値算出手段50、目的地選択手段51、行動模擬手段52および統計情報更新手段53等として機能する。
条件設定手段20は、シミュレーションに必要な各種条件の入力を受け付け、入力された条件を模擬条件記憶手段40、空間情報記憶手段41、エージェント情報記憶手段42および統計情報記憶手段43に記憶させる。
The control unit 5 executes a computer program stored in the storage unit 4 by an arithmetic unit such as a CPU, DSP, or MCU to update the evaluation value calculation means 50, the destination selection means 51, the action simulation means 52, and the statistical information. It functions as means 53 and the like.
The condition setting means 20 receives input of various conditions necessary for the simulation, and stores the input conditions in the simulated condition storage means 40, the spatial information storage means 41, the agent information storage means 42, and the statistical information storage means 43.

条件設定手段20は、例えば、操作入力部2および制御部5が協働して実現され、利用者が操作入力部2を操作して入力した値を、制御部5が記憶部4に記憶させる。条件設定手段20は、条件の一部または全部が記されたファイルを入力するファイル入出力部3を含んでもよく、利用者が操作入力部2を操作して指定したファイルを制御部5がファイル入出力部3を介して取得して当該ファイルに記された値を記憶部4に記憶させる。
条件設定手段20により入力されて模擬条件記憶手段40が記憶する条件は、例えば、仮想時刻の上限T、行動決定間隔、観測間隔、エージェント基本速さ(1時刻で進もうとする距離)の設定を含む。
The condition setting means 20 is realized, for example, in collaboration with the operation input unit 2 and the control unit 5, and the control unit 5 stores the value input by the user by operating the operation input unit 2 in the storage unit 4. .. The condition setting means 20 may include a file input / output unit 3 for inputting a file in which a part or all of the conditions are described, and the control unit 5 files a file specified by the user by operating the operation input unit 2. The value acquired through the input / output unit 3 and recorded in the file is stored in the storage unit 4.
The conditions input by the condition setting means 20 and stored by the simulated condition storage means 40 are, for example, the setting of the upper limit T of the virtual time, the action determination interval, the observation interval, and the agent basic speed (distance to advance in one time). including.

第1実施形態のシミュレーションは、仮想時刻を進めながら行われる。例えば、仮想時刻が(T−1)に達するまで仮想時刻を0から1ずつ増加させながら仮想時刻毎にエージェントの情報を更新する処理が繰り返される。操作入力部2にて利用者による終了指示の入力を受け付け、終了指示が入力された時点で強制終了する処理を加えてもよい。
仮想時刻は、実際の時間の経過を模擬したものであるが、シミュレータが1時刻分の演算を終えるたびに進められ、実際の時間の経過よりも高速に刻まれる。例えば、仮想時刻の1時刻を実際の0.1秒間に対応させ、仮想時刻を0から始まり1ずつ増加する整数で表す。
The simulation of the first embodiment is performed while advancing the virtual time. For example, the process of updating the agent information for each virtual time is repeated while increasing the virtual time from 0 to 1 until the virtual time reaches (T-1). The operation input unit 2 may accept the input of the end instruction by the user, and may add a process of forcibly terminating when the end instruction is input.
The virtual time simulates the passage of the actual time, but it is advanced every time the simulator finishes the calculation for one hour, and is ticked at a higher speed than the passage of the actual time. For example, one time of virtual time corresponds to an actual 0.1 second, and the virtual time is represented by an integer starting from 0 and increasing by 1.

空間情報記憶手段41は、対象空間を表す地図情報と、対象空間において達成可能な行動目的を定義する行動目的情報と、対象空間内において行動目的を達成可能な場所である目的地に関する目的地情報を含んだ空間情報を記憶する。なお、対象空間には、少なくとも1つの行動目的に対して、この行動目的を達成できる複数の目的地が存在している。
図3は地図情報100の一例の模式図であり、図4は、行動目的情報110及び目的地情報111の一例を示す図である。これらの空間情報は、目的地情報111に含まれる「キュー」を除いて、条件設定手段20を用いた利用者による入力操作により予め設定される。
The spatial information storage means 41 includes map information representing the target space, action purpose information that defines an action purpose that can be achieved in the target space, and destination information regarding a destination that is a place where the action purpose can be achieved in the target space. Stores spatial information including. In the target space, there are a plurality of destinations capable of achieving this action purpose for at least one action purpose.
FIG. 3 is a schematic diagram of an example of map information 100, and FIG. 4 is a diagram showing an example of action purpose information 110 and destination information 111. These spatial information are preset by an input operation by the user using the condition setting means 20, except for the "queue" included in the destination information 111.

図3に示す地図情報100において線分は壁を表しており、線分以外の領域が、エージェントが移動可能な移動可能領域である。
またローマ数字I〜Xは、各目的地に付与される目的地IDであり、図3の地図情報100において各目的地の場所を示している。
2重丸印Q1〜Q10は、各目的地I〜Xの位置を表す代表点の位置を示す。実際には領域である目的地I〜Xの位置を、点情報として定義して取り扱いを容易にしている。
丸印Q11〜Q21は、エージェントが壁を回避しながら移動可能領域を移動するために経由できる経由点を示す。移動可能領域でエージェントが移動する経路は、代表点同士、経由点同士、代表点と経由点を結ぶ局所的な経路(以下、「局所経路」と表記する)により定義される。
In the map information 100 shown in FIG. 3, the line segment represents a wall, and the area other than the line segment is a movable area in which the agent can move.
The Roman numerals I to X are destination IDs given to each destination, and indicate the location of each destination in the map information 100 of FIG.
Double circles Q1 to Q10 indicate the positions of representative points representing the positions of the destinations I to X. The positions of destinations I to X, which are actually areas, are defined as point information to facilitate handling.
The circles Q11 to Q21 indicate the waypoints that the agent can pass through to move in the movable area while avoiding the wall. The route on which the agent moves in the movable area is defined by a local route connecting representative points, transit points, and representative points and transit points (hereinafter, referred to as "local route").

図4を参照する。行動目的情報110は、行動目的ID(1〜3)に対応付けて、各行動目的の「行動目的名」を含んでいる。
また、目的地情報111は、目的地ID(I〜X)に対応付けて、各目的地の「目的地名」、「代表点」、「性別制限」、「サービス窓口数」、「達成可能な行動目的」、「サービス時間分布」及び「キュー」を含んでいる。
See FIG. The action purpose information 110 includes an "action purpose name" of each action purpose in association with the action purpose IDs (1 to 3).
Further, the destination information 111 is associated with the destination IDs (IX), and is associated with the "destination name", "representative point", "gender restriction", "number of service counters", and "achievable" of each destination. Includes "purpose of action", "service time distribution" and "queue".

「目的地名」は、当該目的地の名称である。例えば、目的地Iは「客席」であり、目的地IIは「女子トイレ1」であり、目的地IIIは「女子トイレ2」であり、目的地IVは「男子トイレ1」であり、目的地Vは「男子トイレ2」であり、目的地VI〜Xは「売店1」〜「売店5」である。
「代表点」は、上述した代表点Q1〜Q10のXY座標値である。
The "destination name" is the name of the destination. For example, the destination I is the "audience seat", the destination II is the "women's toilet 1", the destination III is the "women's toilet 2", the destination IV is the "men's toilet 1", and the destination V is "men's toilet 2", and destinations VI to X are "store 1" to "store 5".
The "representative point" is the XY coordinate value of the above-mentioned representative points Q1 to Q10.

「性別制限」は、当該目的地を利用可能なエージェントの属性制限の一つであり、当該目的地を利用可能なエージェントの性別である。
「サービス窓口数」は、当該目的地を同時に利用可能なエージェントの最大数である。以下の説明において「サービス」とは、行動目的の達成のための目的地の利用を意味する。例えば、目的地が「トイレ」であればサービスは用便のための場所の提供であり、目的地が「売店」であればサービスは販売役務である。
"Gender restriction" is one of the attribute restrictions of the agent who can use the destination, and is the gender of the agent who can use the destination.
The "number of service counters" is the maximum number of agents who can use the destination at the same time. In the following description, "service" means the use of a destination to achieve an action purpose. For example, if the destination is a "toilet", the service is to provide a place for stool, and if the destination is a "stand", the service is a sales service.

「達成可能な行動目的」は、当該目的地で達成可能な行動目的である。
「サービス時間分布」は、当該目的地におけるサービスの所要時間(以下「サービス時間」と表記する)を確率分布で表した統計情報である。例えば、サービス時間を正規分布で表したときの平均値と分散が記憶される。サービス時間分布は、当該目的地において各エージェントが行動目的を達成するのに要したサービス時間を決定するのに使用される。
An "achievable purpose of action" is an action purpose that can be achieved at the destination.
The "service time distribution" is statistical information representing the time required for a service at the destination (hereinafter referred to as "service time") as a probability distribution. For example, the mean value and variance when the service time is expressed by a normal distribution are stored. The service time distribution is used to determine the service time required for each agent to achieve its behavioral objective at the destination.

「キュー」は、当該目的地に滞在しているエージェントのエージェントIDを当該目的地への到達順に並べたバッファである。キューは、行動模擬手段52によって逐次更新される。
キュー内の順序がサービス窓口数以下であるエージェントが、目的地においてサービスを受けているエージェントであり、キュー内の順序がサービス窓口数より大きなエージェントが、サービス待ちのエージェントである。また、サービス待ちのエージェントの数が待機数(待ち数)である。
The "queue" is a buffer in which the agent IDs of the agents staying at the destination are arranged in the order of arrival at the destination. The queue is sequentially updated by the behavior simulating means 52.
An agent whose order in the queue is less than or equal to the number of service counters is an agent receiving service at the destination, and an agent whose order in the queue is larger than the number of service counters is an agent waiting for service. The number of agents waiting for service is the number of waits (waiting number).

図4の空間情報111の例では、売店1には4つのエージェント#9、#63、#39、#83が到達しており、サービス窓口数が1であることからキューの先頭のエージェント#9のみがサービスを受けている(例えば、レジで精算している)ことを示す。また、残りのエージェント#63、#39、#83はサービス待ちであり(商品を選んでいるかレジ待ち)、待機数は3であることを示す。 In the example of the spatial information 111 of FIG. 4, four agents # 9, # 63, # 39, and # 83 have arrived at the shop 1, and since the number of service counters is 1, the agent # 9 at the head of the queue. Indicates that only are receiving service (eg, paying at the kiosk). Further, the remaining agents # 63, # 39, and # 83 are waiting for service (whether they are selecting a product or waiting for a cash register), and the number of waits is 3.

図2を参照する。エージェント情報記憶手段42は、統計情報記憶手段43とともに群集を構成する複数のエージェントのそれぞれに関する情報を記憶する。以下、エージェント情報記憶手段42が記憶する情報を「エージェント情報」と表記する。
図5、図6、図7及び図8に、それぞれエージェント情報120、121、122及び123の一例を示す。各図において数値の横にかぎ括弧で示した文字列は図の見易さを考慮して意味を付記したものである。
例えばエージェント情報120の初期位置において(4.55,14.00)「扉1」と表記した個所に実際に記憶されているのは値(4.55,14.00)であり、それは「扉1」の座標を意味する。なお、以下の説明では、値の表記を省略して代わりに意味で説明する場合もある。
See FIG. The agent information storage means 42 stores information about each of a plurality of agents constituting the crowd together with the statistical information storage means 43. Hereinafter, the information stored in the agent information storage means 42 is referred to as "agent information".
5, FIG. 6, FIG. 7 and FIG. 8 show an example of agent information 120, 121, 122 and 123, respectively. The character strings shown in brackets next to the numerical values in each figure have meanings added in consideration of the legibility of the figure.
For example, at the initial position of the agent information 120 (4.55, 14.00), the value (4.55, 14.00) is actually stored in the place described as "door 1", which is the "door". It means the coordinates of "1". In the following description, the notation of the value may be omitted and the meaning may be explained instead.

図5のエージェント情報120は、条件設定手段20を用いた利用者による入力操作により設定される情報の一部である。エージェント情報120としてエージェントID、生成時刻、初期位置及び性別の組合せが記憶される。初期位置は、エージェントの位置の初期値であり、生成時刻にエージェントを生成する位置を示す。
図5の例は、女性のエージェント#1が、「幕間1」内の仮想時刻0に「扉1」の座標に生成されることを示している。また「幕間2」及び「幕間3」については説明を省略する。さらに「幕間4」内の仮想時刻99600に「扉3」の座標に生成されること等を示している。第1実施形態のシミュレーションの例では、同一エージェントが複数回生成されることに注意されたい。
The agent information 120 in FIG. 5 is a part of the information set by the input operation by the user using the condition setting means 20. The agent ID, generation time, initial position, and gender combination are stored as the agent information 120. The initial position is the initial value of the position of the agent, and indicates the position where the agent is generated at the generation time.
The example of FIG. 5 shows that female agent # 1 is generated at the coordinates of "door 1" at virtual time 0 in "between curtains 1". Further, the description of "intermission 2" and "intermission 3" will be omitted. Furthermore, it is shown that it is generated at the coordinates of "door 3" at the virtual time 99600 in "intermission 4". Note that in the simulation example of the first embodiment, the same agent is generated multiple times.

図6のエージェント情報121も、条件設定手段20を用いた利用者により入力操作によって設定される。エージェント情報121は、エージェントIDと生成時刻の組合せに対応付けて、「行動目的ID」、「達成期限」、「希望達成度」、「終端目的フラグ」、「達成フラグ」の組合せを含んでいる。ただし、これらの情報のうち、達成フラグは行動模擬手段52によって適宜更新される。 The agent information 121 of FIG. 6 is also set by an input operation by the user using the condition setting means 20. The agent information 121 includes a combination of "action purpose ID", "achievement deadline", "desired achievement degree", "termination purpose flag", and "achievement flag" in association with the combination of the agent ID and the generation time. .. However, among these information, the achievement flag is appropriately updated by the action simulating means 52.

「行動目的ID」は、各場面(幕間)においてエージェントが対象空間で行動する目的(行動目的)のIDである。各場面において各エージェントに対して複数の行動目的を設定できる。
「達成期限」は、各場面のエージェントの各行動目的に対する達成期限であり、当該エージェントの生成時刻以降の仮想時刻が指定される。
「希望達成度」は、各場面のエージェントの各行動目的の達成に対する優先度合いである。例えば、希望達成度は、行動目的を達成したことによってエージェントが得ることができる主観的な満足度合い(効用)であってよい。希望達成度が高い行動目的ほど優先度合いが高い。
The "action purpose ID" is an ID of the purpose (action purpose) in which the agent acts in the target space in each scene (between the curtains). Multiple action objectives can be set for each agent in each scene.
The "achievement deadline" is the achievement deadline for each action purpose of the agent in each scene, and a virtual time after the generation time of the agent is specified.
The "desired achievement level" is the priority level for the achievement of each action purpose of the agent in each scene. For example, the desired achievement level may be the subjective satisfaction level (utility) that the agent can obtain by achieving the action purpose. The higher the degree of achievement of hope, the higher the priority.

「終端目的フラグ」は、各場面での行動の最後に必ず達成すべき行動目的を示すフラグである。終端目的フラグに値「1」が設定された行動目的は、その達成順序が最後の行動目的であると制約される。一方で、終端目的フラグに値「0」が設定された行動目的は、達成の順序は任意であり且つ達成するか否かは任意である。
「達成フラグ」は、各場面のエージェントの各行動目的が達成されたか否かを表すフラグである。達成フラグの初期値は「0」であり、値「0」は未達成、値「1」は達成済みを示す。
The "termination purpose flag" is a flag indicating the action purpose that must be achieved at the end of the action in each scene. The action purpose for which the value "1" is set in the terminal purpose flag is constrained that the achievement order is the last action purpose. On the other hand, for the action purpose for which the value "0" is set in the terminal purpose flag, the order of achievement is arbitrary and whether or not it is achieved is arbitrary.
The "achievement flag" is a flag indicating whether or not each action purpose of the agent in each scene has been achieved. The initial value of the achievement flag is "0", the value "0" indicates unachieved, and the value "1" indicates achieved.

図6の例は、「幕間1」の「エージェント#1」は、最後に「着席」を達成することを必達条件として、「用便」を「3分後」までに達成し、且つ「着席」と「買い物」を「10分後」までに達成することを目標としており、「着席」「用便」「買い物」の希望達成度はそれぞれ「35」「100」「40」であり、いずれの行動目的も未達成であること等を示している。 In the example of FIG. 6, "Agent # 1" of "Makuma 1" achieves "stool" by "3 minutes later" and "seats" on the condition that "seating" is finally achieved. The goal is to achieve "" and "shopping" by "10 minutes later", and the desired achievement levels of "seating", "feces", and "shopping" are "35", "100", and "40", respectively. It also shows that the purpose of action of is not achieved.

図7のエージェント情報122は時刻毎に生成される情報である。エージェント情報122は、エージェントIDと仮想時刻との組合せに対応付けて、「目的地ID」、「局所経路」、「移動速度」、「位置」および「状況」の組合せを含む。
「目的地ID」は、仮想時刻が示す時点の各エージェントが移動の目標としている目的地のIDを示す。なお、第1実施形態のシミュレータ1の例では、生成時刻における目的地IDは空欄としている。
「局所経路」は、仮想時刻が示す時点の各エージェントが移動している局所経路を示す。なお、第1実施形態のシミュレータ1の例では、生成時刻および移動していない時刻における局所経路は空欄としている。
The agent information 122 in FIG. 7 is information generated for each time. The agent information 122 includes a combination of "destination ID", "local route", "movement speed", "position", and "situation" in association with the combination of the agent ID and the virtual time.
The "destination ID" indicates the ID of the destination that each agent at the time indicated by the virtual time is the target of the movement. In the example of the simulator 1 of the first embodiment, the destination ID at the generation time is left blank.
“Local route” indicates the local route to which each agent is moving at the time indicated by the virtual time. In the example of the simulator 1 of the first embodiment, the local route at the generation time and the non-moving time is left blank.

「移動速度」は、仮想時刻が示す時点の各エージェントが単位時間(1仮想時刻)で移動しようとする移動量を示す。図7のエージェント情報122の例では移動速度をベクトルで表現している。
移動速度は、あくまで各エージェントが意図する移動量であって、必ずしも仮想時刻が示す時点にエージェントが移動する移動量と一致するとは限らない。例えば、エージェント間の物理的な制約等によって、現時刻の位置が前時刻の位置に現時刻の移動速度を加えた値にならない場合もある。
また、便宜上、生成時刻における移動速度と、目的地に到達してから当該目的地で達成可能な行動目的を達成するまでの移動速度は0ベクトルとする。
The "movement speed" indicates the amount of movement that each agent at the time indicated by the virtual time tries to move in a unit time (1 virtual time). In the example of the agent information 122 of FIG. 7, the moving speed is represented by a vector.
The movement speed is just the amount of movement intended by each agent, and does not necessarily match the amount of movement that the agent moves at the time indicated by the virtual time. For example, due to physical restrictions between agents, the current time position may not be the value obtained by adding the current time movement speed to the previous time position.
Further, for convenience, the moving speed at the generation time and the moving speed from reaching the destination to achieving the action purpose achievable at the destination are set to 0 vectors.

「位置」は、仮想時刻が示す時点の各エージェントの対象空間における位置である。各エージェントの位置の初期値は、上述したエージェント情報120を参照して当該エージェントの生成時刻に設定された初期位置である。
目的地に到達してから当該目的地で達成可能な行動目的を達成するまでは目的地の代表点の座標が設定される。
The "position" is the position in the target space of each agent at the time indicated by the virtual time. The initial value of the position of each agent is the initial position set at the generation time of the agent with reference to the agent information 120 described above.
The coordinates of the representative point of the destination are set from the time when the destination is reached until the action purpose that can be achieved at the destination is achieved.

「状況」は、仮想時刻が示す時点の各エージェントの状況であり、取り得る値は「移動中」「待機中」「処理中」「達成」である。
「移動中」は、目的地に未到達であり移動中であることを示す。
「待機中」は、目的地に到達したがサービス待ちであることを示す。
「処理中」は、目的地にてサービスを受けていることを示す。
「達成」は、目的地にてサービスを受け終わり行動目的を達成したことを示す。
第1実施形態のシミュレータ1の例では、便宜上、生成時刻における状況として「達成」を指定する。
The "status" is the status of each agent at the time indicated by the virtual time, and the possible values are "moving", "waiting", "processing", and "achieved".
"Moving" indicates that the destination has not been reached and is moving.
"Waiting" indicates that the destination has been reached but is waiting for service.
"Processing" indicates that the service is being received at the destination.
"Achievement" indicates that the service has been received at the destination and the action purpose has been achieved.
In the example of the simulator 1 of the first embodiment, "achievement" is designated as the situation at the generation time for convenience.

図7の例は、シミュレーション終了時点のエージェント情報122を例示している。
例えば「幕間1」の「エージェント#1」が「女子トイレ1」「売店2」「客席」の順に移動して、時刻「2909」「2969」において「売店2」「客席」で行動目的を達成したことが、その間の各時刻の移動速度、位置および状況とともに記録されている
また、その過程において、時刻「1322」から「2686」まで「売店2」でサービス待ちであったこと、時刻「2687」から「2908」までサービスを受けたことが記録されている。
The example of FIG. 7 illustrates the agent information 122 at the end of the simulation.
For example, "Agent # 1" of "Makuma 1" moves in the order of "Women's Toilet 1", "Shop 2", and "Audience Seat", and achieves the action purpose at "Store 2" and "Audience Seat" at times "2909" and "2969". What was done is recorded along with the movement speed, position and situation of each time during that time. In the process, the service was awaited at "Kiosk 2" from time "1322" to "2686", time "2687". It is recorded that the service was received from "2908".

図8のエージェント情報123はサービスを受け終わったか否かを判定するために、行動模擬手段52により必要に応じて生成される。エージェント情報123は、エージェントIDに対応付けて、サービス完了時刻を含んでいる。エージェント情報123に含まれている情報は、該当するエージェントが現時刻の目的地でサービスを受けている間、保持され、サービスが完了すると消去される。 The agent information 123 of FIG. 8 is generated as necessary by the behavior simulating means 52 in order to determine whether or not the service has been received. The agent information 123 includes the service completion time in association with the agent ID. The information contained in the agent information 123 is retained while the corresponding agent is receiving the service at the destination at the current time, and is deleted when the service is completed.

「エージェントID」は、目的地でサービスを受けているエージェント(つまり状況が「処理中」のエージェント)を示す。サービスを受けている目的地はエージェント情報122により特定できる。
「サービス完了時刻」は、当該目的地にて当該エージェントがサービスを受け終わる時刻である。
図8のエージェント情報123には、図4の空間情報111に例示した売店1〜5のキューの先頭のエージェント#9、#34、#76、#5、#36などに対してサービス完了時刻が保持されている。
The "agent ID" indicates an agent receiving service at the destination (that is, an agent whose status is "in process"). The destination receiving the service can be specified by the agent information 122.
The "service completion time" is the time when the agent finishes receiving the service at the destination.
In the agent information 123 of FIG. 8, the service completion time is set for the agents # 9, # 34, # 76, # 5, # 36, etc. at the head of the queue of the shops 1 to 5 illustrated in the spatial information 111 of FIG. It is being held.

エージェント情報121に含まれる達成フラグ、並びに、エージェント情報122に含まれる位置および状況は、状態値の一例であり、エージェントの状態を表す。
エージェント情報121に含まれる行動目的、行動目的毎の達成期限、行動目的毎の希望達成度および行動目的毎の終端目的フラグ、並びに、エージェント情報122に含まれる目的地、局所経路および移動速度は、行動パラメータの一例である。行動パラメータは、エージェントの状態値に作用するパラメータである。
なお、図5〜図8に示したエージェント情報120、121、122及び123は、あくまで一例であり、本発明のエージェント情報の構成はこれに限定されるものではない。
The achievement flag included in the agent information 121 and the position and status included in the agent information 122 are examples of state values and represent the state of the agent.
The action purpose included in the agent information 121, the achievement deadline for each action purpose, the desired achievement degree for each action purpose, the termination purpose flag for each action purpose, and the destination, local route, and movement speed included in the agent information 122 are described. This is an example of behavioral parameters. The behavior parameter is a parameter that affects the state value of the agent.
The agent information 120, 121, 122 and 123 shown in FIGS. 5 to 8 are merely examples, and the structure of the agent information of the present invention is not limited thereto.

図2を参照する。統計情報記憶手段43はエージェント情報記憶手段42とともに、群集を構成する複数のエージェントのそれぞれに関する情報を記憶する。
統計情報記憶手段43が記憶する情報は、各目的地において行動目的を達成するのに要する所要時間に関する統計情報である。かかる統計情報を、エージェント毎に記憶することにより、実世界の各個体が所要時間について有する知識の違いを模擬することができる。すなわち、統計情報記憶手段43は、エージェント毎に、複数の目的地で行動目的を達成するのに要する各々の所要時間に関する統計情報を記憶する。
See FIG. The statistical information storage means 43, together with the agent information storage means 42, stores information about each of the plurality of agents constituting the crowd.
The information stored in the statistical information storage means 43 is statistical information regarding the time required to achieve the action purpose at each destination. By storing such statistical information for each agent, it is possible to simulate the difference in knowledge that each individual in the real world has about the required time. That is, the statistical information storage means 43 stores statistical information regarding each required time required to achieve the action purpose at a plurality of destinations for each agent.

行動目的毎の所要時間は、目的地に至る移動時間と、目的地における待ち時間と、目的地におけるサービス時間の和であると定義する。
目的地における待ち時間は、当該目的地における待ち数を当該目的地のサービス窓口数で除した結果と、サービス時間との積で算出されるとモデル化する。
The time required for each action purpose is defined as the sum of the travel time to the destination, the waiting time at the destination, and the service time at the destination.
The waiting time at the destination is modeled as being calculated by dividing the number of waits at the destination by the number of service counters at the destination and the product of the service time.

また、目的地に至る移動時間は、目的地に至る各局所経路の経路長を当該局所経路の移動速度で除した結果を総和することによって算出されるとモデル化される。
このため、統計情報記憶手段43は、エージェント毎に、目的地毎の待ち数の確率分布(待ち数分布)、目的地毎のサービス時間の確率分布(サービス時間分布)、局所経路毎の移動速度の確率分布(移動速度分布)を統計情報として記憶している。
例えば待ち数分布、サービス時間分布、移動速度分布のそれぞれを正規分布でモデル化する。そして各分布を観測値で更新するために待ち数分布、サービス時間分布、移動速度分布のそれぞれの正規分布のパラメータの同時確率分布を用いる。統計情報記憶手段43は、待ち数分布、サービス時間分布、移動速度分布のそれぞれ同時確率分布のパラメータである平均値μ、自由度ν、仮説的標本数κ、尺度母数λの4パラメータを記憶する。同時確率分布をΝ・χ―2(μ,ν,κ,λ)と表記する。
Further, the travel time to the destination is modeled as being calculated by summing up the results obtained by dividing the route length of each local route to the destination by the travel speed of the local route.
Therefore, the statistical information storage means 43 has a probability distribution of the number of waits for each destination (wait number distribution), a probability distribution of service time for each destination (service time distribution), and a movement speed for each local route for each agent. The probability distribution (movement speed distribution) of is stored as statistical information.
For example, each of the waiting number distribution, the service time distribution, and the moving speed distribution is modeled by a normal distribution. Then, in order to update each distribution with the observed value, the joint probability distribution of the parameters of each normal distribution of the waiting number distribution, the service time distribution, and the moving speed distribution is used. The statistical information storage means 43 stores four parameters of the mean value μ, the degree of freedom ν, the hypothetical sample number κ, and the scale parameter λ, which are the parameters of the simultaneous probability distribution of the waiting number distribution, the service time distribution, and the moving speed distribution. do. The joint probability distribution is expressed as Ν ・ χ- 2 (μ, ν, κ, λ).

これら待ち数分布、サービス時間分布および移動速度分布の初期値は、条件設定手段20を介して予め設定される。初期値は、経験や一般常識、実測した統計情報などを基に作成してよい。全エージェントに共通の初期値としてもよいし、エージェント毎に異なる初期値としてもよい。
また、エージェントと所要時間の組合せの一部を設定せず、当該組合せについて統計情報記憶手段43が記憶しない初期設定としてもよい。これにより、例えばエージェント#1が売店4の存在を知らないというような、実世界の個体における知識の欠落を模擬することができる。
本実施形態では、エージェント毎に各行動目的に対応する1以上の目的地に関する分布(待ち数分布、及びサービス時間分布)の初期値を記憶する初期設定とする。記憶される目的地は事前のランダム抽選により決定しておく。また、本実施形態では、局所経路に関してはエージェントと局所経路の全組合せについて局所経路に関する分布(移動速度分布)の初期値を記憶する初期設定とする。
また、本実施形態において統計情報記憶手段43は、エージェント毎の情報とは別に、目的地毎に当該目的地に関する分布の初期値を記憶する。この情報は各エージェントが目的地を初めて観測したときの初期値として利用される。
The initial values of the waiting number distribution, the service time distribution, and the moving speed distribution are preset by the condition setting means 20. The initial value may be created based on experience, common sense, actually measured statistical information, and the like. The initial value may be common to all agents, or may be different for each agent.
Further, a part of the combination of the agent and the required time may not be set, and the initial setting may be set so that the statistical information storage means 43 does not store the combination. This makes it possible to simulate the lack of knowledge in a real-world individual, for example, agent # 1 does not know the existence of shop 4.
In the present embodiment, the initial setting is set to store the initial value of the distribution (waiting number distribution and service time distribution) related to one or more destinations corresponding to each action purpose for each agent. The destination to be stored is determined by a random lottery in advance. Further, in the present embodiment, for the local route, the initial setting for storing the initial value of the distribution (movement speed distribution) for the local route is set for all combinations of the agent and the local route.
Further, in the present embodiment, the statistical information storage means 43 stores the initial value of the distribution related to the destination for each destination, separately from the information for each agent. This information is used as an initial value when each agent first observes the destination.

後述するように、各エージェントの統計情報は、当該エージェントの行動に伴って得られる観測値によって個々に更新及び参照される。これにより、実世界において個体の経験知が個々に異なるがごとく、仮想時間が経過するに従って互いに異なるものとなる。
また、統計情報記憶手段43は、エージェントと所要時間の組合せのうちの記憶していない組合せについて(すなわち、エージェントが知らない目的地や局所経路について)、観測値が得られた時点で追加して記憶することで、実世界の個体における新たな知識の獲得を模擬してもよい。
As will be described later, the statistical information of each agent is individually updated and referred to by the observation values obtained with the behavior of the agent. As a result, just as the empirical knowledge of individuals differs from one another in the real world, they become different from each other as the virtual time elapses.
Further, the statistical information storage means 43 adds the unmemorized combination of the agent and the required time combination (that is, the destination or local route that the agent does not know) when the observed value is obtained. By memorizing, the acquisition of new knowledge in an individual in the real world may be simulated.

図9に、統計情報記憶手段43に記憶される統計情報130及び131の一例を示す。
統計情報130は、エージェントIDと目的地IDの組合せに対応付けられた「待ち数分布」と「サービス時間分布」を含む。
「待ち数分布」と「サービス時間分布」は、それぞれ当該エージェントが、当該目的地について記憶している「待ち数分布」と「サービス時間分布」の同時確率分布である。
図9の統計情報130の例では、エージェント#1について、客席、女子トイレ1、男子トイレ1、売店1、売店2および売店3の待ち数分布およびサービス時間分布が記憶され、女子トイレ2、男子トイレ2、売店4および売店5の分布は記憶されていない。
統計情報131は、エージェントIDと局所経路の組合せに対応付けられた「移動速度分布」を含む。「移動速度分布」は、当該エージェントが、当該局所経路について記憶している「移動速度分布」の同時確率分布である。
FIG. 9 shows an example of statistical information 130 and 131 stored in the statistical information storage means 43.
The statistical information 130 includes a "waiting number distribution" and a "service time distribution" associated with a combination of an agent ID and a destination ID.
The "waiting number distribution" and the "service time distribution" are joint probability distributions of the "waiting number distribution" and the "service time distribution" that the agent stores for the destination, respectively.
In the example of the statistical information 130 of FIG. 9, the waiting number distribution and the service time distribution of the audience seat, the women's toilet 1, the men's toilet 1, the shop 1, the shop 2 and the shop 3 are stored for the agent # 1, and the women's toilet 2 and the boys are stored. The distribution of the toilet 2, the shop 4, and the shop 5 is not remembered.
Statistical information 131 includes a "movement velocity distribution" associated with a combination of agent ID and local route. The "movement speed distribution" is a joint probability distribution of the "movement speed distribution" that the agent remembers for the local route.

図2を参照する。評価値算出手段50は、各場面(幕間)において各エージェントが行動目的を達成する目的地を選択するにあたって選択の基準とする評価値を算出する。
上記の通り、各場面においてエージェントが達成すべき行動目的が複数設定することがあるため、各場面において達成すべき行動目的は、複数設定された行動目的の順列(以下「行動パターン」と表記する)によって表現される。
また、同じ行動目的を達成できる複数の目的地が存在することがある。この場合には各々行動目的を達成する目的地には複数の選択肢がある。
評価値算出手段50は、各行動パターンに対して選択しうる目的地の選択肢毎に評価値を算出する。そして、エージェントと選択肢と評価値とを対応付けた評価値情報を目的地選択手段51に出力する。なお、行動パターンに対して選択しうる目的地の選択肢は目的地の順列となり、以下その順列を「目的地パターン」と表記する。
See FIG. The evaluation value calculation means 50 calculates an evaluation value as a criterion for selection when each agent selects a destination that achieves an action purpose in each scene (between curtains).
As described above, since a plurality of action objectives to be achieved by an agent may be set in each scene, the action objectives to be achieved in each scene are expressed as a permutation of a plurality of set action objectives (hereinafter referred to as "action pattern"). ).
In addition, there may be multiple destinations that can achieve the same purpose of action. In this case, there are multiple options for the destination to achieve each action purpose.
The evaluation value calculation means 50 calculates an evaluation value for each destination option that can be selected for each action pattern. Then, the evaluation value information in which the agent, the option, and the evaluation value are associated with each other is output to the destination selection means 51. The destination options that can be selected for the behavior pattern are permutations of destinations, and the permutations are hereinafter referred to as "destination patterns".

そのために、まず、評価値算出手段50は行動パターンの情報を生成する。具体的には、評価値算出手段50は、エージェント情報121に記憶されているエージェントIDと生成時刻(各場面)の組合せのうち達成フラグが0である行動目的IDを有する各組合せについて、当該組合せに対応付けられた行動目的IDの中から達成フラグが0である行動目的IDを順に並べた順列を生成する。ただし、評価値算出手段50は、終端目的フラグが設定された行動目的を順列の最後に設定する。
例えば、図6のエージェント情報121におけるエージェント#1であれば、仮想時刻が0の時の行動パターンは、P={用便,買い物,着席}、P={買い物,用便,着席}、P={用便,着席}、P={買い物,着席}、P={着席}の5通りとなる。
Therefore, first, the evaluation value calculating means 50 generates information on the behavior pattern. Specifically, the evaluation value calculation means 50 uses the combination of the agent ID and the generation time (each scene) stored in the agent information 121 for each combination having the action purpose ID in which the achievement flag is 0. A permutation is generated in which the action purpose IDs having the achievement flag of 0 are arranged in order from the action purpose IDs associated with. However, the evaluation value calculating means 50 sets the action purpose for which the terminal purpose flag is set at the end of the permutation.
For example, in the case of agent # 1 in the agent information 121 of FIG. 6, the action pattern when the virtual time is 0 is P 1 = {shopping, shopping, sitting}, P 2 = {shopping, shopping, sitting}. , P 3 = {stool, seated}, P 4 = {shopping, seated}, P 5 = {seat}.

次に、評価値算出手段50は目的地パターンの情報を生成する。具体的には、評価値算出手段50は、各行動パターンについて、空間情報111において「達成可能な行動目的」が当該行動パターンの各要素と合致し、性別制限を満たし、当該行動パターンが生成されたエージェントの統計情報130に記憶されている目的地IDを、当該行動パターンの各要素に対する目的地IDの選択肢とする。そして、評価値算出手段50は、各行動パターンについて、当該行動パターンの各要素に対して取得した選択肢から目的地IDを1つずつ選択し、選択された目的地IDを当該行動パターンの各要素の順で並べた目的地IDの順列を目的地パターンとして生成する。評価値算出手段50は、特許請求の範囲に記載の「組合せ選択手段」の一例である。
例えば、図6のエージェント情報121における幕間1のエージェント#1の行動パターンP={用便,買い物,着席}に対し、図4の空間情報111および図9の統計情報130を参照して生成される目的地パターンは、M11={女子トイレ1,売店1,客席}、M12={女子トイレ1,売店2,客席}、M13={女子トイレ1,売店3,客席}の3通りとなる。
Next, the evaluation value calculating means 50 generates information on the destination pattern. Specifically, in the evaluation value calculating means 50, for each behavior pattern, the "achievable behavioral purpose" in the spatial information 111 matches each element of the behavioral pattern, satisfies the gender restriction, and the behavioral pattern is generated. The destination ID stored in the statistical information 130 of the agent is used as a destination ID option for each element of the behavior pattern. Then, the evaluation value calculating means 50 selects one destination ID from the options acquired for each element of the action pattern for each action pattern, and selects the selected destination ID for each element of the action pattern. A permutation of destination IDs arranged in the order of is generated as a destination pattern. The evaluation value calculating means 50 is an example of the “combination selection means” described in the claims.
For example, for the action pattern P 1 = {toilet, shop, seating} of the agent # 1 in the inter-curtain 1 in the agent information 121 of FIG. 6, it is generated with reference to the spatial information 111 of FIG. 4 and the statistical information 130 of FIG. The destination patterns are M 11 = {women's toilet 1, shop 1, audience seats}, M 12 = {women's toilet 1, shop 2, audience seats}, M 13 = {women's toilet 1, shop 3, audience seats} 3 It becomes a street.

そして、評価値算出手段50は、目的地パターン毎の評価値Eを次式(1)〜(4)に従って算出する。

Figure 2021140490
Figure 2021140490
Figure 2021140490
Figure 2021140490
Then, the evaluation value calculating means 50 calculates the evaluation value E for each destination pattern according to the following equations (1) to (4).
Figure 2021140490
Figure 2021140490
Figure 2021140490
Figure 2021140490

式(1)において、Pは評価値を算出する対象のエージェントの各場面での行動パターンのうちi番目の行動パターンであり、Mijは行動パターンPに対応する目的地パターンのうちのj番目の目的地パターンであり、Nは行動パターンPに含まれる行動目的数である。
isは、行動パターンPの第s要素(すなわちs番目に実行する行動目的)を示す。
ijsは、目的地パターンMijの第s要素(すなわちs番目の目的地)を示す。
p(Pis,mijs)は、行動目的Pisの達成期限までに、行動目的Pisを目的地mijsで達成する確率である。以下、この確率を成功確率と称する。上記の通り、行動目的Pisの達成期限は、エージェント情報121として設定されており、図6に示すとおり、エージェント毎に、各場面で達成すべき行動目的の行動目的ID毎にそれぞれ達成期限が指定されている。成功確率p(Pis,mijs)の算出方法の詳細は後述する。
In the formula (1), P i is the i-th action patterns of behavior patterns in each scene of the target agent to calculate the evaluation value, M ij is one of the destinations pattern corresponding to the action pattern P i it is the j-th destination pattern, N i is the number of action purposes is included in the behavior pattern P i.
P IS shows a first s elements of behavior pattern P i (i.e. behavioral purpose of performing the s th).
mijs indicates the s element (that is, the sth destination) of the destination pattern M ij.
p (P is, m ijs) is, until the deadline for achieving behavior purpose P is, is the probability to achieve at the destination m ijs the action purpose P is. Hereinafter, this probability is referred to as a success probability. As described above, the achievement deadline of the action purpose Pis is set as the agent information 121, and as shown in FIG. 6, the achievement deadline is set for each agent and each action purpose ID of the action purpose to be achieved in each scene. It is specified. Success probability p (P is, m ijs) for details of the calculation method of which will be described later.

式(1)においてV(Pis)は、行動目的Pisの希望達成度である。上記の通り、希望達成度V(Pis)は、エージェント情報121として設定されており、図6に示すとおり、エージェント毎に、各場面で達成すべき行動目的の行動目的ID毎にそれぞれ希望達成度V(Pis)が指定されている。
例えば、図6のエージェント情報121における幕間1のエージェント#1の行動パターンP1に対する希望達成度は、s=1のとき100、s=2のとき40、s=3のとき35である。
In the formula (1), V ( Pis ) is the desired achievement degree of the action purpose Pis. As described above, the desired achievement level V ( Pis ) is set as the agent information 121, and as shown in FIG. 6, the desired achievement is achieved for each agent and for each action purpose ID of the action purpose to be achieved in each scene. Degree V ( Pis ) is specified.
For example, in the agent information 121 of FIG. 6, the desired achievement degree of the agent # 1 in the inter-curtain 1 with respect to the action pattern P1 is 100 when s = 1, 40 when s = 2, and 35 when s = 3.

つまり、評価値は達成しようとする複数の行動目的に対応した各目的地の成功確率を当該目的地に対応する行動目的の希望達成度で重み付けて総和して算出できる。
なお、別の実施形態として希望達成度による重み付けを省略することもできる。
また、さらに別の実施形態として、重み付け成功確率の総和、または成功確率の総和に代えて、重み付け成功確率の積、または成功確率の積など、成功確率が高いほど評価値が高くなる他の増加関数を定義して用いることもできる。
That is, the evaluation value can be calculated by weighting the success probability of each destination corresponding to a plurality of action objectives to be achieved by the desired achievement degree of the action objective corresponding to the destination and summing them up.
As another embodiment, weighting based on the desired achievement level can be omitted.
Further, as yet another embodiment, the evaluation value becomes higher as the success probability is higher, such as the product of the weighted success probabilities or the product of the success probabilities instead of the sum of the weighted success probabilities or the sum of the success probabilities. Functions can also be defined and used.

式(1)についての上記説明をまとめると次のようになる。
評価値算出手段50は、エージェント毎に、統計情報記憶手段43に記憶された統計情報に基づいて、行動目的Pisの達成期限までに複数の目的地mijsで行動目的Pisを達成する各々の成功確率p(Pis,mijs)を予測し、成功確率p(Pis,mijs)に応じて評価値Eを算出する。
このとき、複数の行動目的Pisを達成しようとするエージェントの目的地を選択するために、複数の目的地mijsの中から複数の行動目的Pisの各々を達成する目的地mijsの組合せである目的地パターンMijを複数選択して、目的地パターンMijに属する目的地mijsで複数の行動目的Pisをそれぞれ達成する確率p(Pis,mijs)に応じて評価値Eを算出する。
また、評価値算出手段50は、行動目的に対する優先度をエージェント毎に異ならせたことに関連して、エージェントによる優先度の違いに応じた目的地選択を可能とするために、複数の行動目的Pisの各々を達成する確率p(Pis,mijs)を複数の行動目的の希望達成度V(Pis)で重み付けて評価値Eを算出する。
The above description of equation (1) can be summarized as follows.
Evaluation value calculating means 50, for each agent, based on the statistical information stored in the statistical information storage section 43, to achieve the action object P IS before deadlines behavior object P IS in multiple destinations m ijs each the success probability p (P is, m ijs) to predict the success probability p (P is, m ijs) calculates an evaluation value E in accordance with the.
In this case, in order to select the destination of the agent to try to achieve a plurality of behavior purpose P is, the combination of the destination m ijs to achieve each of the plurality of behavior purpose P is from among a plurality of destination m ijs the destination pattern M ij is to select multiple, probability p (P is, m ijs) to achieve a plurality of actions the object P iS destinations m ijs belonging to the destination pattern M ij evaluation value according to E Is calculated.
Further, the evaluation value calculating means 50 has a plurality of action objectives in order to enable the agent to select a destination according to the difference in priority in relation to different priorities for the action objectives for each agent. probability p (P is, m ijs) to achieve each of the P iS calculates an evaluation value E by weighted in the plurality of action object desired achievement V (P is).

以下、式(2)〜(4)が示す成功確率p(Pis,mijs)の算出方法について一例を説明する。
はじめに、評価値算出手段50は、式(3)及び式(4)を利用するために、目的地パターンMijに含まれる各目的地(mij1,mij2,…)において、各行動目的(Pi1,Pi2,…)を実行する場合の所要時間Tの確率分布である所要時間分布(f(T),f(T),…)を算出する。
Hereinafter, formula (2) to (4) of success probability p (P is, m ijs) illustrating a method of calculating the illustrating an example.
First, evaluation value calculation unit 50, equations (3) and in order to use (4), each destination included in the destination pattern M ij (m ij1, m ij2 , ...) in each action object ( The required time distribution (f 1 (T d ), f 2 (T d ), ...), Which is the probability distribution of the required time T d when executing Pi 1 , Pi 2, ...) Is calculated.

ここで、所要時間分布f(T)は、s−1番目の目的地mij(s−1)からs番目の目的地mijsまで移動する際の移動時間分布と、目的地mijsでの待ち時間分布と、目的地mijsでの行動目的の達成に係るサービス時間分布の和で定義される。ただし、mij0はエージェントの現在位置である。
また、同時確率分布のパラメータ(平均値μ、自由度ν、仮説的標本数κ、尺度母数λ)とそれが表す正規分布N(μ,σ)の間には分散σ=λ/(ν−2)の関係がある。
また、各分布を正規分布で表した場合、和の分布の平均値は元の分布の平均値同士の和となり、和の分布の分散は元の分布の分散同士の和となる。
Here, the required time distribution f s (T d ) is the movement time distribution when moving from the s -1st destination mij (s-1) to the sth destination mijs, and the destination mijs. It is defined by the sum of the waiting time distribution at the destination and the service time distribution related to the achievement of the action purpose at the destination mijs. However, mij0 is the current position of the agent.
In addition, the variance σ 2 = λ / between the parameters of the simultaneous probability distribution (mean value μ, degree of freedom ν, hypothetical sample number κ, scale population λ) and the normal distribution N (μ, σ 2) represented by it. There is a relationship of (ν-2).
When each distribution is represented by a normal distribution, the average value of the sum distribution is the sum of the mean values of the original distribution, and the variance of the sum distribution is the sum of the variances of the original distribution.

(T)の算出のために評価値算出手段50は移動時間分布を算出する。評価値算出手段50は、目的地mij(s−1)から目的地mijsまでに経由する局所経路の移動速度分布の同時確率分布のパラメータを統計情報記憶手段43が記憶している処理対象のエージェントの統計情報131の中から読み出し、読み出したパラメータから各局所経路の移動速度分布を表す正規分布を導出する。評価値算出手段50は、各局所経路の移動速度分布における速度軸を当該局所経路の距離との除算で時間軸に変換することにより各局所経路の移動時間分布を得、これら局所経路の移動時間分布を総和して目的地までの移動時間分布を算出する。 The evaluation value calculating means 50 calculates the travel time distribution for the calculation of f s (T d). The evaluation value calculation means 50 is a processing target in which the statistical information storage means 43 stores the parameters of the joint probability distribution of the movement speed distribution of the local route passing from the destination mij (s-1) to the destination mijs. It is read from the statistical information 131 of the agent of the above, and a normal distribution representing the movement speed distribution of each local route is derived from the read parameters. The evaluation value calculation means 50 obtains the movement time distribution of each local route by converting the speed axis in the movement speed distribution of each local route into a time axis by dividing by the distance of the local route, and obtains the movement time distribution of each local route. Calculate the travel time distribution to the destination by summing the distributions.

(T)の算出のために評価値算出手段50は待ち時間分布も算出する。評価値算出手段50は、目的地mijsの待ち数分布とサービス時間分布の同時確率分布のパラメータを統計情報記憶手段43が記憶している処理対象のエージェントの統計情報130の中から読み出すとともに目的地mijsのサービス窓口数を読み出す。評価値算出手段50は、読み出したパラメータから待ち数分布とサービス時間分布を表す正規分布を導出する。評価値算出手段50は、待ち数分布の平均値(これが待ち数となる)を読み出したサービス窓口数で除した結果にサービス時間分布を乗じて待ち時間分布を算出する。なお、平均値に代えて最頻値を用いてもよく、或いは待ち数分布が示す確率で当選するランダム抽選により決定した値を用いてもよい。また、目的地の待ち数は、処理対象のエージェントが現時刻に観測した値とすることもできる(該当する観測値が得られている場合に限る)。また、数時刻の間、目的地の待ち数の観測値を記憶部4に保持し、保持している値を利用してもよい。 The evaluation value calculating means 50 also calculates the waiting time distribution for the calculation of f s (T d). The evaluation value calculation means 50 reads out the parameters of the joint probability distribution of the waiting number distribution and the service time distribution of the destination mijs from the statistical information 130 of the agent to be processed stored in the statistical information storage means 43, and also aims. Read out the number of service counters for the local parameters. The evaluation value calculating means 50 derives a normal distribution representing a waiting number distribution and a service time distribution from the read parameters. The evaluation value calculating means 50 calculates the waiting time distribution by multiplying the result of dividing the average value of the waiting number distribution (which is the waiting number) by the number of service counters read out by the service time distribution. The mode may be used instead of the average value, or a value determined by a random lottery that wins with the probability indicated by the waiting number distribution may be used. In addition, the number of waits for the destination can be the value observed by the agent to be processed at the current time (only when the corresponding observed value is obtained). Further, the observed value of the waiting number of the destination may be held in the storage unit 4 for several hours, and the held value may be used.

(T)の算出のために評価値算出手段50はサービス時間分布も算出する。評価値算出手段50は、目的地mijsのサービス時間分布の同時確率分布のパラメータを統計情報記憶手段43が記憶している処理対象のエージェントの統計情報130の中から読み出し、読み出したパラメータからサービス時間分布を表す正規分布を導出する。
そして、評価値算出手段50は、sごとの移動時間分布と待ち時間分布とサービス時間分布との和を当該sについての所要時間分布f(T)として算出する。
The evaluation value calculating means 50 also calculates the service time distribution for the calculation of f s (T d). The evaluation value calculation means 50 reads out the parameters of the joint probability distribution of the service time distribution of the destination mijs from the statistical information 130 of the agent to be processed stored in the statistical information storage means 43, and services from the read parameters. Derivate a normal distribution that represents the time distribution.
Then, the evaluation value calculating means 50 calculates the sum of the travel time distribution, the waiting time distribution, and the service time distribution for each s as the required time distribution f s (T d ) for the s.

次に、評価値算出手段50は、式(4)に従って行動目的Pisの達成期限Tlim(PiS)までの残り時間T(Pis)を算出する。
s=1のときの残り時間、すなわち、行動パターンPの1番目の行動目的Pi1の達成期限Tlim(Pi1)までの残り時間T(Pi1)はスカラとなる。評価値算出手段50は、s=1の場合、達成期限Tlim(Pi1)から現在時刻tを減じた差を残り時間T(Pi1)として算出する。
s>1のときの残り時間、すなわち、行動パターンPの2番目以降の行動目的Pi2、i3、…の達成期限までの残り時間は確率分布となる。つまり、2番目以降の行動目的Pi2、i3、…を達成するために残された時間は、その行動目的よりも前に実行される行動目的の所要時間T ,…,Ts−1 に左右され、行動目的の所要時間T ,…,Ts−1 は各々所要時間分布f(T)〜fs−1(T)に従う確率変数として定義されるから、2番目以降の行動目的Pi2、i3、…の残り時間Tもまた確率分布に従う確率変数として算出される。この確率分布を残り時間分布g(T)と定義する。なお、所要時間分布が正規分布である本実施形態においては、残り時間分布もまた正規分布となる。
評価値算出手段50は、s>1の場合、s番目の行動目的Pisの達成期限Tlim(Pis)と現在時刻tとの差を求め、さらに1番目からs−1番目の行動目的Pi1〜Pi(s−1)の達成にかかる所要時間分布f(T)〜fs−1(T)の総和を求める。求めた分布を総和分布と称する。そして、評価値算出手段50は、上記差から上記総和分布の平均値を減じた値と、上記総和分布の分散を用いて残り時間分布g(T)を算出する。つまり、残り時間分布g(T)の平均値は上記差から上記総和分布の平均値を減じた値であり、残り時間分布g(T)の分散は上記総和分布の分散である。
Then, evaluation value calculation unit 50 calculates the remaining time T r (P IS) action to the target P IS of deadlines T lim (P iS) according to equation (4).
The remaining time in the case of s = 1, ie, the deadline for achieving T lim (P i1) remaining up to the time T r (P i1) of the first action purpose P i1 of behavior patterns P i is a scalar. When s = 1, the evaluation value calculating means 50 calculates the difference obtained by subtracting the current time t c from the achievement deadline Trim ( Pi 1 ) as the remaining time Tr (P i 1 ).
s> remaining time of the time of 1, ie, the second and subsequent behavior purpose of behavior pattern P i P i2, P i3, ... time remaining until the deadline for achieving is the probability distribution of. That is, the time left to achieve the second and subsequent action objectives Pi2, Pi3, ... Is the time required for the action objective executed before the action objective T 1 d , ..., T s-. Because it depends on 1 d , the required time T 1 d , ..., T s-1 d for the action purpose are defined as random variables according to the required time distributions f 1 (T d ) to f s-1 (T d), respectively. The remaining time Tr of the second and subsequent action objectives Pi2, Pi3, ... Is also calculated as a random variable according to the probability distribution. This probability distribution is defined as the remaining time distribution g s ( Tr). In the present embodiment in which the required time distribution is a normal distribution, the remaining time distribution is also a normal distribution.
Evaluation value calculating means 50, s> case 1, s-th action object P IS of deadlines T lim and (P IS) obtains the difference between the current time t c, further s-1 th action from the first The sum of the time distributions f 1 (T d ) to f s-1 (T d ) required to achieve the objectives Pi 1 to Pi (s-1) is calculated. The obtained distribution is called the sum distribution. Then, the evaluation value calculating means 50 calculates the remaining time distribution g s ( Tr ) using the value obtained by subtracting the average value of the total distribution from the above difference and the variance of the total distribution. That is, the average value of the remaining time distribution g s ( Tr ) is the value obtained by subtracting the average value of the total distribution from the above difference, and the variance of the remaining time distribution g s ( Tr ) is the variance of the total distribution. ..

次に、評価値算出手段50は、式(2)及び式(3)に従って成功確率p(Pis,mijs)を算出する。成功確率は、達成期限までに行動目的を達成する確率であるから「行動目的を達成するまでの所要時間が残り時間以下になる確率」と定義できる。 Then, evaluation value calculating means 50 calculates the success probability p (P is, m ijs) a according to equation (2) and (3). Since the success probability is the probability of achieving the action purpose by the achievement deadline, it can be defined as "the probability that the time required to achieve the action purpose is less than the remaining time".

s=1の場合、式(4)により算出した残り時間T(Pi1)がスカラであるから、式(3)が表す値F(T)も式(2)が表す成功確率p(Pi1,mij1)もスカラとなる。具体的には、評価値算出手段50は、所要時間分布f(T)が表す確率密度を所要時間Tについて−∞から残り時間Tの範囲で積分して得られる積分値F(T)を成功確率p(Pi1,mij1)として算出する。
本実施形態においては、積分値F(T)は、所要時間分布f(T)が正規分布であるため、式(3)に示すように所要時間分布f(T)の平均値μと分散σと残り時間T(式(4)により算出したT(Pi1))とから算出することができる。式(3)におけるerfは誤差関数である。そして、式(2)に示すように、式(3)で算出した積分値F(T)がそのまま成功確率p(Pi1,mij1)となる。
図10の(a)は、1番目の行動目的Pi1の達成に要する所要時間分布f(T)の一例を示し、図10の(b)は、所要時間分布f(T)の累積分布関数F(T)を示す。図中のμは所要時間分布f(T)の平均値であり、所要時間がT(Pi1)のときの累積分布関数F(T)の値が成功確率p(Pi1,mij1)である。
When s = 1, since the remaining time Tr ( Pi1 ) calculated by the equation (4) is a scalar, the value F s ( Tr ) represented by the equation (3) is also the success probability p represented by the equation (2). (P i1, m ij1) also becomes a scalar. Specifically, the evaluation value calculating means 50 integrates the probability density represented by the required time distribution f s (T d ) with respect to the required time T d in the range of −∞ to the remaining time Tr , and is an integrated value F s. (T r) is calculated as the success probability p (P i1, m ij1) .
In the present embodiment, the integrated value F s (T r), since the required time distribution f s (T d) is a normal distribution, the time required as shown in equation (3) distribution f s of (T d) It can be calculated from the average value μ, the variance σ 2, and the remaining time Tr (Tr ( Pi1 ) calculated by the equation (4)). The erf in equation (3) is an error function. Then, as shown in equation (2), the equation (3) integral value calculated in F s (T r) is as success probability p (P i1, m ij1) .
FIG. 10 (a) shows an example of the required time distribution f 1 (T d ) required to achieve the first action purpose Pi 1, and FIG. 10 (b) shows the required time distribution f 1 (T d ). The cumulative distribution function F 1 ( Tr ) of is shown. In the figure, μ 1 is the average value of the required time distribution f 1 (T d ), and the value of the cumulative distribution function F 1 (T r ) when the required time is Tr (P i 1 ) is the success probability p (P). i1 , mij1 ).

s>1の場合、式(4)により算出した残り時間T(Pis)は分布g(T)になる。このため、成功確率p(Pis,mijs)は、式(2)に示すように、s−1番目までの行動目的を終えた時点での残り時間がT(Pis)となる確率g(T)に、残り時間T(Pis)でs番目の行動目的を達成できる確率F(T)を乗じて得られる確率を残り時間Tについて−∞から∞の範囲まで積分して得られる値となる。その際の確率F(T)は式(3)で算出される。 When s> 1, the remaining time Tr ( Pis ) calculated by the equation (4) becomes the distribution g s ( Tr ). Therefore, success probability p (P is, m ijs), as shown in equation (2), the probability that the remaining time at the End of behavioral interest to s-1 th is T r (P IS) The probability obtained by multiplying g s ( Tr ) by the probability F s ( Tr ) of achieving the sth action objective with the remaining time Tr ( Pis) is in the range of −∞ to ∞ for the remaining time Tr. It is a value obtained by integrating up to. The probability F s ( Tr ) at that time is calculated by the equation (3).

この数式は解析的に解くことができないため、第1実施形態の評価値算出手段50は、例えば以下に説明するように数値解析的に成功確率p(Pis,mijs)を算出する。具体的には、サンプリング法によって残り時間の確率密度分布g(T)の標本を抽出し、サンプリングで得られた標本と、s番目の行動目的Pisの達成に要する所要時間分布f(T)とに基づいて、成功確率p(Pis,mijs)を算出する。
本実施形態においては、評価値算出手段50は、s番目(s=2、3、…)の行動目的Pisの達成期限までの残り時間分布g(T)を、任意の時間間隔で離散化してヒストグラムを算出する。
This formula can not be solved analytically, evaluation value calculating means 50 of the first embodiment, for example, numerical analysis success probability p (P is, m ijs) as described below is calculated. Specifically, the probability density of the remaining time distribution by the sampling method g s (T r) specimens were extracted for the specimens obtained by the sampling, s-th action object P IS duration distribution f s required to achieve based on the (T d) and, success probability p (P is, m ijs) is calculated.
In the present embodiment, the evaluation value calculating means 50 calculates the remaining time distribution g s ( Tr ) until the achievement deadline of the s-th (s = 2, 3, ...) Action objective Pis at arbitrary time intervals. Discretize and calculate the histogram.

図11の(a)は、残り時間分布g(T)の一例を示し、図11の(b)は、残り時間分布g(T)のヒストグラムを示す。図11の(c)は、s番目の行動目的Pisの達成に要する所要時間分布f(T)の累積分布関数F(T)を示す。図中のμremは、残り時間分布g(T)の平均値であり、μは、所要時間分布f(T)の平均値である。
評価値算出手段50は、ヒストグラムの各ビン(各区間)b1〜b5の生起確率(度数)と、各ビンb1〜b5の代表値Tr1〜Tr5の累積分布関数値F(Tr1)〜F(Tr5)の積和を、成功確率p(Pis,mijs)として算出する。なお、ビンb1の生起確率は、ビンの幅をwとすると、残り時間分布g(T)の−∞からビンb1の右端Tr1+w/2までの積分値から残り時間分布g(T)の−∞からビンb1の左端Tr1−w/2までの積分値を減じることで算出できる。他のビンの生起確率も同様である。また、残り時間分布g(T)が正規分布である本実施形態において、式(3)と同様、ビンの右端までの積分値は時刻g(T)の平均値μおよび分散σとビンの右端の時刻とを誤差関数に適用して算出でき、ビンの左端までの積分値はg(T)の平均値μおよび分散σとビンの左端の時刻とを誤差関数に適用して算出できる。
FIG. 11 (a) shows an example of the remaining time distribution g s ( Tr ), and FIG. 11 (b) shows a histogram of the remaining time distribution g s ( Tr). FIG. 11 (c) shows the cumulative distribution function F s ( Tr ) of the time distribution f s (T d ) required to achieve the s th action objective Pis. In the figure, μ rem is the average value of the remaining time distribution g s ( Tr ), and μ s is the average value of the required time distribution f s (T d ).
Evaluation value calculating means 50, the occurrence probability of each bin (each section) b1-b5 of the histogram (frequency) and the cumulative distribution function value F s of the representative value T r1 through T r5 of each bin b1-b5 (T r1) the sum of products ~F s (T r5), success probability p (P is, m ijs) is calculated as. Incidentally, the probability of occurrence of bin b1, when the width of the bins and w, the rest time distribution g s (T r) rightmost T -∞ from bins b1 of r1 + w / remaining time from the integration value of up to 2 distribution g s ( It can be calculated by subtracting the integrated value from −∞ of Tr ) to Tr1 −w / 2 at the left end of bin b1. The probability of occurrence of other bins is similar. Further, in the present embodiment in which the remaining time distribution g s ( Tr ) is a normal distribution, the integrated values up to the right end of the bin are the average value μ and the variance σ of the time g s ( Tr) as in the equation (3). It can be calculated by applying 2 and the time at the right end of the bin to the error function, and the integrated value up to the left end of the bin is the average value μ of g s ( Tr ) and the variance σ 2 and the time at the left end of the bin. Can be calculated by applying to.

なお、上記の2番目以降の行動目的Pisの成功確率p(Pis,mijs)の算出方法は、あくまでも例示であって本発明はこれに限定されるものではない。他のサンプリング法を利用して近似計算を行う等の数値解析的な手法によって、成功確率p(Pis,mijs)を算出してもよい。例えば、ボックス=ミュラー法(対象分布が正規分布の場合)や棄却サンプリング法,MCMC法等のサンプリング法を用いることができる。 The method of calculating the probability of success of the action object P IS 2 -th of the p (P is, m ijs), the present invention is not limited to this is merely illustrative. By numerical analytical approach, such as performing the approximation using other sampling methods, success probability p (P is, m ijs) may be calculated. For example, a sampling method such as the Box-Muller method (when the target distribution is a normal distribution), the rejection sampling method, or the MCMC method can be used.

式(2)〜式(4)についての説明をまとめると次のようになる。
評価値算出手段50は、行動パターンPに対応する目的地パターンMij毎に、目的地パターンMijに属する目的地mijsで行動目的Pisを達成期限までに各々達成する確率p(Pis,mijs)の合計を、複数の行動目的Pisの各々を達成するのに要する所要時間Tの確率密度分布f(T)に基づいて予測する。
また、評価値算出手段50は、複数の行動目的Pisのうち先に達成する行動目的の所要時間の確率密度分布f(T)〜fs−1(T)と達成期限に応じて残り時間の確率密度分布g(T)を決定し、残り時間の確率密度分布g(T)に基づいて、後に達成する行動目的を達成期限までに達成する確率p(Pis,mijs)を予測する。
また、評価値算出手段50は、残り時間分布g(T)のヒストグラムと、後に達成する行動目的を達成するのに要する所要時間分布f(T)の累積分布関数とに基づいて、ヒストグラムの各区間におけるヒストグラムの度数と累積分布関数の確率との積の合計を、確率p(Pis,mijs)として算出する。
また、評価値Eは、確率p(Pis,mijs)に応じて算出されるため、目的地での待ち時間が短いほど評価値Eは高くなる。
The explanations of equations (2) to (4) can be summarized as follows.
Evaluation value calculation unit 50, behavior patterns P for each destination pattern M ij corresponding to the i, the probability p (P for each achieved until the deadline for achieving the action purpose P is at the destination m ijs belonging to the destination pattern M ij The sum of is , mijs ) is predicted based on the probability density distribution f s (T d ) of the time T d required to achieve each of the plurality of action objectives Pis.
The evaluation value calculation unit 50, in response to a plurality of action object P IS behavior object of required time to achieve the out destination of the probability density distribution f 1 (T d) ~f s -1 (T d) and deadlines Te to determine the remaining time of the probability density distribution g s (T r), based on the remaining time of the probability density distribution g s (T r), the probability p (P is to achieve the achievement to act purpose to achieve the deadline after , Mijs ).
Further, the evaluation value calculating means 50 is based on a histogram of the remaining time distribution g s ( Tr ) and a cumulative distribution function of the time distribution f s (T d ) required to achieve the action purpose to be achieved later. , The sum of the products of the frequency of the histogram and the probability of the cumulative distribution function in each interval of the histogram is calculated as the probability p (Pis , mijs).
The evaluation value E is to be calculated according to the probability p (P is, m ijs) , the evaluation value E shorter the waiting time at the destination is high.

評価値算出手段50は、上記の評価値Eを、エージェントの行動を決定する所定のタイミング(以下「行動決定タイミング」と表記する)が到来した時点で算出する。
行動決定タイミングは、例えば、各エージェントの生成時刻、行動目的の達成時(但し最後の行動目的を除く)、予め定めた行動決定間隔(例えば10仮想時刻)のいずれかが到来したタイミングであってよい。
The evaluation value calculating means 50 calculates the above-mentioned evaluation value E when a predetermined timing for determining the action of the agent (hereinafter referred to as “action determination timing”) arrives.
The action decision timing is, for example, the timing at which one of the generation time of each agent, the achievement of the action purpose (excluding the last action purpose), and the predetermined action decision interval (for example, 10 virtual times) has arrived. good.

具体的には、評価値算出手段50は、エージェント情報120から対象空間に現存する「現存エージェント」を検出する。現存エージェントは、現在の仮想時刻(以下、現時刻)よりも前に生成され、且つ終端目的フラグが1であり、且つ達成フラグが0である行動目的IDが設定されているエージェントである。
評価値算出手段50は、エージェント情報122にて1時刻前の状況が「達成」であるエージェントを検出することにより、生成時刻の直後、行動目的を達成した直後の現存エージェントの行動決定タイミングが到来したことを判定する。
また、現時刻と生成時刻の差が行動決定間隔の倍数であることを以って、全ての現存エージェントに対して行動決定タイミングが到来したことを判定する。
Specifically, the evaluation value calculating means 50 detects the "existing agent" existing in the target space from the agent information 120. The existing agent is an agent that is generated before the current virtual time (hereinafter referred to as the current time), has an action purpose ID with a terminal purpose flag of 1, and an achievement flag of 0.
The evaluation value calculation means 50 detects an agent whose status is "achieved" one time before in the agent information 122, so that the action determination timing of the existing agent immediately after the generation time and immediately after the action purpose is achieved arrives. Determine what you have done.
Further, since the difference between the current time and the generation time is a multiple of the action decision interval, it is determined that the action decision timing has arrived for all the existing agents.

図2を参照する。目的地選択手段51は、評価値算出手段50から入力された評価値情報に基づいてエージェント毎に目的地を選択し、選択した目的地をエージェントIDと対応付けてエージェント情報記憶手段42内のエージェント情報122に記憶する。
具体的には、例えばエージェント毎に評価値が最高の目的地パターンMijを選択し、選択した目的地パターンMijにおける1番目の目的地のIDを、エージェントIDおよび現時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。
現時刻が行動決定タイミングではない現存エージェントについては、1時刻前の目的地IDを、エージェントIDおよび現時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。
See FIG. The destination selection means 51 selects a destination for each agent based on the evaluation value information input from the evaluation value calculation means 50, associates the selected destination with the agent ID, and associates the selected destination with the agent ID, and the agent in the agent information storage means 42. Stored in information 122.
Specifically, for example, the destination pattern Mij having the highest evaluation value is selected for each agent, and the ID of the first destination in the selected destination pattern Mij is associated with the agent ID and the current time. Time data is newly generated and added to the agent information 122.
For an existing agent whose current time is not the action decision timing, the destination ID one time ago is newly generated with the agent ID and the current time data associated with the current time, and added to the agent information 122.

また例えば、各目的地パターンMijの評価値Eの高さに応じた確率で当選する抽選を行って、当選した目的地パターンを選択してもよい。
また例えば、各目的地パターンMijの評価値Eの順位に応じた確率で当選する抽選を行って、当選した目的地パターンを選択してもよい。この場合、順位と確率の関係は予め定めておく。
Further, for example, a lottery for winning may be performed with a probability according to the height of the evaluation value E of each destination pattern Mij, and the winning destination pattern may be selected.
Further, for example, a lottery for winning may be performed with a probability according to the rank of the evaluation value E of each destination pattern Mij, and the winning destination pattern may be selected. In this case, the relationship between the rank and the probability is determined in advance.

上記のように、評価値が最高の目的地を選択する方法は現実世界の個体が行う合理的な選択行動に相当する。一方で、ランダム抽選で目的地を選択する方法は現実世界の個体が行う直感的な選択行動に相当する。これら、2つの方法のいずれを用いるかをエージェント毎に抽選して当選した方法によって目的地を選択してもよい。また、これら2つの方法のいずれを用いるかをエージェント毎に割り当てておき割り当てられた方法によって目的地を選択してもよい。 As described above, the method of selecting the destination with the highest evaluation value corresponds to the rational selection action performed by the individual in the real world. On the other hand, the method of selecting a destination by a random lottery corresponds to an intuitive selection action performed by an individual in the real world. A destination may be selected by a method in which a lottery is drawn for each agent and which of these two methods is used. Further, which of these two methods may be used may be assigned to each agent and the destination may be selected according to the assigned method.

図2を参照する。行動模擬手段52は、各仮想時刻tにおいて、空間情報記憶手段41が記憶している空間情報111およびエージェント情報記憶手段42が記憶しているエージェント情報を参照する。行動模擬手段52は、これらの情報に基づいて、選択した目的地へ複数のエージェントの各々が移動して行動目的を達成する行動を模擬する。
行動模擬手段52は、生成時刻が到来したエージェントを現存エージェントとして生成する。
See FIG. The action simulating means 52 refers to the spatial information 111 stored in the spatial information storage means 41 and the agent information stored in the agent information storage means 42 at each virtual time t. Based on this information, the behavior simulating means 52 simulates the behavior in which each of the plurality of agents moves to the selected destination and achieves the behavioral purpose.
The action simulating means 52 generates an agent whose generation time has arrived as an existing agent.

行動模擬手段52は、生成時刻が現時刻と一致するエージェントIDをエージェント情報120から読み出し、当該エージェントID、現時刻、初期位置及び状況「達成」を対応付けた現時刻データを生成して、エージェント情報122に追記する。
行動模擬手段52は、終端目的フラグが1である行動目的の達成フラグが1に更新されたエージェントを消去する。なお、第1実施形態のシミュレータ1では、エージェントを明示的に消去するのに代えて、次の仮想時刻以降のデータをエージェント情報122に追記しない。
The action simulating means 52 reads the agent ID whose generation time matches the current time from the agent information 120, generates the current time data associated with the agent ID, the current time, the initial position, and the status "achievement", and generates the agent. Add to information 122.
The action simulating means 52 deletes the agent whose end purpose flag is 1 and whose action purpose achievement flag is updated to 1. In the simulator 1 of the first embodiment, instead of explicitly deleting the agent, the data after the next virtual time is not added to the agent information 122.

行動模擬手段52は、エージェント情報122から、現時刻のデータが記憶されているエージェント(すなわち現存エージェント)の状態を更新する。上記のとおり、現存エージェントについては目的地選択手段51によって現時刻のデータが生成されている。
行動模擬手段52は、現存エージェントの1時刻前のデータと現時刻のデータを抽出する。
The action simulating means 52 updates the state of the agent (that is, the existing agent) in which the data at the current time is stored from the agent information 122. As described above, for the existing agent, the data at the current time is generated by the destination selection means 51.
The behavior simulating means 52 extracts the data of the existing agent one time before and the data of the current time.

1時刻前の状況が「移動中」または「達成」である場合、行動模擬手段52は、当該エージェントの移動速度を算出して位置を更新する。
具体的には、行動模擬手段52は現時刻におけるエージェントの移動速度と位置を決定する。まず、行動模擬手段52は、空間情報111から、該当する各エージェントの現時刻tにおける目的地の代表点と、移動可能領域と、経由点を読み出す。
When the situation one time ago is "moving" or "achieved", the action simulating means 52 calculates the moving speed of the agent and updates the position.
Specifically, the behavior simulating means 52 determines the moving speed and position of the agent at the current time. First, the action simulating means 52 reads out the representative point, the movable area, and the waypoint of the destination at the current time t of each corresponding agent from the spatial information 111.

行動模擬手段52は、移動可能領域内において、該当するエージェントiの1時刻前の位置xi(t−1)と代表点を結ぶ経路、および任意の経由点を介して位置xi(t−1)と代表点を結ぶ経路のうちの最短経路を選択する。
次に、行動模擬手段52は、選択した最短経路上の経由点と代表点のうちの位置xi(t−1)から最も近い点に向かい、大きさがエージェント基本速さに等しいベクトルを、目的地に近付ける移動速度として算出する。
In the movable area, the action simulating means 52 connects the position xi (t-1) one time before the corresponding agent i to the representative point, and the position xi (t-1) via an arbitrary waypoint. Select the shortest route that connects with and the representative point.
Next, the action simulating means 52 aims at a vector whose magnitude is equal to the agent basic speed toward the closest point from the position xi (t-1) of the transit point and the representative point on the selected shortest path. Calculated as the moving speed to approach the ground.

次に、行動模擬手段52は、位置xi(t−1)に、算出した移動速度を加算することによってエージェントiの現時刻の位置xi(t)を求めてエージェント情報122を更新する。なお、このとき、処理対象のエージェントとその近傍の壁や他のエージェントにソーシャルフォース(Social Force)モデルやRVO(Reciprocal Velocity Obstacles)等の歩行モデルを適用して移動速度を調整した上で加算するのが好適である。 Next, the action simulating means 52 obtains the position xi (t) of the agent i at the current time by adding the calculated movement speed to the position xi (t-1), and updates the agent information 122. At this time, a walking model such as a social force model or RVO (Reciprocal Velocity Obstacles) is applied to the agent to be processed, a wall in the vicinity thereof, or another agent to adjust the movement speed before adding. Is preferable.

そして、現時刻の位置が目的地の代表点と一致しないエージェントについては、エージェント情報122における現時刻の状況を「移動中」に更新する。
一方で、現時刻の位置が目的地の代表点と一致したエージェント(目的地に到達したエージェント)については、以下のとおり、目的地のキュー(目的地に滞在しているエージェントの待ち行列)と状況を更新する。
Then, for the agent whose current time position does not match the representative point of the destination, the current time status in the agent information 122 is updated to "moving".
On the other hand, for agents whose current time position matches the representative point of the destination (agents who have reached the destination), the destination queue (queue of agents staying at the destination) and Update the status.

まず、空間情報111から現時刻の目的地のキューとサービス窓口数を読み出す。読み出したキューに目的地に到達したエージェントのIDを追加して空間情報111を更新する。
このとき、追加後のキュー内のエージェント数がサービス窓口数以下であればエージェント情報122における現時刻の状況を「処理中」に更新する。
さらに、空間情報111から当該目的地に関するサービス時間分布を読み出し、読み出した正規分布にボックス=ミュラー法を適用して当該目的地におけるサービス時間を算出する。
First, the queue of the destination at the current time and the number of service counters are read from the spatial information 111. The spatial information 111 is updated by adding the ID of the agent that has reached the destination to the read queue.
At this time, if the number of agents in the queue after addition is less than or equal to the number of service counters, the current time status in the agent information 122 is updated to "processing".
Further, the service time distribution related to the destination is read from the spatial information 111, and the box-Muller method is applied to the read normal distribution to calculate the service time at the destination.

すなわち、乱数を生成し、読み出した正規分布と乱数とを用いた抽選によって、当該正規分布に従った生起確率でランダムにサービス時間を決定する。
目的地に到達したエージェントのIDと、算出したサービス時間を現時刻に加算したサービス完了時刻の組をエージェント情報123に追記する。
一方で、追加後のキュー内のエージェント数がサービス窓口数より多ければエージェント情報122における現時刻の状況を「待機中」に更新する。
That is, a random number is generated, and the service time is randomly determined with a probability of occurrence according to the normal distribution by lottery using the read normal distribution and the random number.
The set of the ID of the agent that has reached the destination and the service completion time obtained by adding the calculated service time to the current time is added to the agent information 123.
On the other hand, if the number of agents in the queue after addition is larger than the number of service counters, the current time status in the agent information 122 is updated to "waiting".

1時刻前の状況が「待機中」であるエージェント(待機中のエージェント)については、行動模擬手段52は、現時刻における移動速度を0とし、1時刻前の位置を維持する。
また、他のエージェントが処理されることによって、キュー内における待機中のエージェントの順序がサービス窓口数以下になった場合には、待機中であったエージェント状況は「処理中」に更新される。それ以外の場合には状況は「待機中」を維持する。
For the agent (waiting agent) whose situation one hour ago is "waiting", the action simulating means 52 sets the moving speed at the current time to 0 and maintains the position one hour ago.
Further, when the order of the waiting agents in the queue becomes less than or equal to the number of service counters due to the processing of other agents, the waiting agent status is updated to "processing". Otherwise, the situation remains "waiting".

1時刻前の状況が「処理中」であるエージェント(処理中のエージェント)については、行動模擬手段52は、エージェント情報123からサービス完了時刻を読み出す。
現時刻がサービス完了時刻に達した場合、行動模擬手段52は、エージェント情報122における現時刻の状況を「達成」に更新する。また、エージェント情報121および空間情報111を参照し、エージェント情報121における、サービス完了時刻に達したエージェントの、生成時刻が現時刻以下、且つ現時刻の目的地に対応する行動目的のうち、現時刻に最も近い行動目的の達成フラグを1に更新する。また、エージェント情報123から当該エージェントのサービス完了時刻のデータを削除する。
For the agent (processing agent) whose status one time ago is "processing", the action simulating means 52 reads out the service completion time from the agent information 123.
When the current time reaches the service completion time, the action simulating means 52 updates the current time status in the agent information 122 to "achieved". Further, referring to the agent information 121 and the spatial information 111, the current time among the action purposes corresponding to the destination of the current time when the generation time of the agent who has reached the service completion time in the agent information 121 is equal to or less than the current time. Update the achievement flag of the action purpose closest to to 1. In addition, the data of the service completion time of the agent is deleted from the agent information 123.

現時刻がサービス完了時刻に達した場合、行動模擬手段52は、さらに、空間情報111の、サービス完了時刻に達したエージェントがサービスを受けている目的地のキューに対して当該エージェントよりも後の順序のエージェントの順序を1ずつ前にずらす更新を行うとともに、同キューから当該エージェントのエージェントIDを削除する。さらに、行動模擬手段52は、更新後の同キューにおいて順序がサービス窓口数と一致するエージェントに対して、サービス時間を算出して、エージェントIDとサービス完了時刻の組合せをエージェント情報123に追記するとともに、エージェント情報122における当該エージェントの現時刻の状況を「処理中」に更新する。 When the current time reaches the service completion time, the behavior simulation means 52 further indicates that the agent who has reached the service completion time of the spatial information 111 is later than the agent in the queue of the destination to which the service is being serviced. Updates are performed to shift the order of agents in the order forward by one, and the agent ID of the agent is deleted from the same queue. Further, the action simulating means 52 calculates the service time for the agent whose order matches the number of service counters in the updated queue, and adds the combination of the agent ID and the service completion time to the agent information 123. , Update the current time status of the agent in the agent information 122 to "processing".

図2を参照する。統計情報更新手段53は、各目的地に係る所要時間の観測値に基づいて統計情報130(待ち数分布、サービス時間分布)及び統計情報131(移動速度分布)を更新する。
統計情報更新手段53は、各エージェントの統計情報130及び131を当該エージェントの所要時間に応じて更新してよい。つまり、エージェントが自身の所要時間を観測したものとみなす。
すなわち、複数のエージェントのうち処理対象のエージェント(対象エージェント)が行動目的を達成するのに要する所要時間の観測値に応じて、対象エージェントについて記憶された統計情報130及び131を更新してよい。
See FIG. The statistical information updating means 53 updates the statistical information 130 (waiting number distribution, service time distribution) and the statistical information 131 (moving speed distribution) based on the observed values of the required time related to each destination.
The statistical information updating means 53 may update the statistical information 130 and 131 of each agent according to the required time of the agent. In other words, it is considered that the agent has observed its own required time.
That is, the statistical information 130 and 131 stored for the target agent may be updated according to the observed value of the time required for the agent to be processed (target agent) among the plurality of agents to achieve the action purpose.

また、統計情報更新手段53は、各エージェントの統計情報130及び131を当該エージェントが当該エージェント以外のエージェント(以下、他のエージェント)の所要時間を観測した値に応じて更新してよい。
すなわち、対象エージェントの統計情報130及び131を、他のエージェントが行動目的を達成するのに要する所要時間に関する観測値に応じて更新してよい。
Further, the statistical information updating means 53 may update the statistical information 130 and 131 of each agent according to the value obtained by the agent observing the required time of an agent other than the agent (hereinafter, another agent).
That is, the statistical information 130 and 131 of the target agent may be updated according to the observed value regarding the time required for the other agent to achieve the action purpose.

統計情報更新手段53は、各エージェントの視認範囲内に存在する目的地や同範囲内に存在するエージェントについて観測値を取得する。そのために統計情報更新手段53は、各エージェントの視認範囲を設定する。視認範囲の角度範囲や視認距離は、各エージェントの状況に応じて変更させてよい。例えば、待機中または処理中の視認範囲を、移動中の視認範囲よりも広く設定してよい。視認範囲の角度範囲や視認距離を、各エージェントの移動速度に応じて変更させてもよい。また、空間情報111を参照し、壁等の障害物に阻まれる領域(死角)を除外して視認範囲を設定する。
具体的には、統計情報更新手段53は、移動中のエージェントについては移動方向の左右90度の範囲から死角を除いた領域を、待機中または処理中のエージェントについては当該エージェント位置を中心とした360度の範囲から死角を除いた領域を、視認範囲として設定する。
The statistical information updating means 53 acquires observation values for a destination existing within the visible range of each agent and agents existing within the same range. Therefore, the statistical information updating means 53 sets the viewing range of each agent. The angle range and the viewing distance of the viewing range may be changed according to the situation of each agent. For example, the visible range during standby or processing may be set wider than the visible range during movement. The angle range and the viewing distance of the viewing range may be changed according to the moving speed of each agent. Further, referring to the spatial information 111, the viewing range is set by excluding the area (blind spot) blocked by obstacles such as walls.
Specifically, the statistical information updating means 53 centers on the area excluding the blind spot from the range of 90 degrees to the left and right of the moving direction for the moving agent, and the agent position for the waiting or processing agent. The area excluding the blind spot from the range of 360 degrees is set as the viewing range.

統計情報とそれを更新するための観測値及び観測タイミングは以下の通りである。
各エージェントの局所経路毎の知識として記憶される移動速度分布を更新するための観測値は、当該局所経路における当該エージェントの移動速度と他のエージェントの移動速度であり、所定の観測間隔(例えば10仮想時刻)で観測される。
本実施形態においては、全エージェントに共通した観測間隔が設定されるが、エージェント毎に異なる観測間隔を設定してもよい。
また、本実施形態においては、各エージェントの観測間隔の起点を当該エージェントの生成時刻とする。全エージェントに共通の起点としてもよい。
The statistical information, the observed values for updating it, and the observation timing are as follows.
The observed values for updating the movement speed distribution stored as knowledge for each local route of each agent are the movement speed of the agent and the movement speed of other agents in the local route, and are predetermined observation intervals (for example, 10). Observed at virtual time).
In the present embodiment, the observation interval common to all agents is set, but different observation intervals may be set for each agent.
Further, in the present embodiment, the starting point of the observation interval of each agent is set as the generation time of the agent. It may be a common starting point for all agents.

各エージェントの目的地毎の知識として記憶される待ち数分布を更新するための観測値は、当該目的地における待ち数であり、上記観測間隔でキューを参照することにより観測される。
各エージェントの目的地毎の知識として記憶されるサービス時間分布を更新するための観測値は、当該目的地にて当該エージェントがサービスを受けるのに要したサービス時間であり、当該エージェントが目的地での行動目的を達成した時点で観測される。
The observed value for updating the waiting number distribution stored as knowledge for each destination of each agent is the waiting number at the destination, and is observed by referring to the queue at the above observation interval.
The observed value for updating the service time distribution stored as knowledge for each destination of each agent is the service time required for the agent to receive the service at the destination, and the agent is at the destination. It is observed when the action purpose of is achieved.

または、当該エージェントが待機中に位置している目的地における他のエージェントのサービス時間を観測値としてもよい。この場合、当該目的地のキュー内のエージェントの順位が変化した時点に観測値を観測してよい。この場合には、例えば行動模擬手段52が、キューが変化したエージェントと目的地とを統計情報更新手段53に通知し、通知を受けた統計情報更新手段53が通知時刻を記憶部4に記憶させて、前回通知からの経過時間をサービス時間として求める。 Alternatively, the service time of another agent at the destination where the agent is waiting may be used as the observed value. In this case, the observed value may be observed when the rank of the agent in the queue of the destination changes. In this case, for example, the behavior simulating means 52 notifies the statistical information updating means 53 of the agent whose queue has changed and the destination, and the notified statistical information updating means 53 stores the notification time in the storage unit 4. Then, the elapsed time from the previous notification is calculated as the service time.

また、統計情報更新手段53は、各個体が初見の目的地及び局所経路を知識に加える様子を模擬する。
すなわち統計情報更新手段53は、各エージェントの視認範囲内に存在するが、当該エージェントの統計情報130に含まれていない目的地及び当該エージェントの統計情報131に含まれていない局所経路の情報を統計情報130に追加する。
In addition, the statistical information updating means 53 simulates how each individual adds a destination and a local route for the first time to knowledge.
That is, the statistical information updating means 53 statistically collects information on destinations that are within the visible range of each agent but are not included in the statistical information 130 of the agent and information on local routes that are not included in the statistical information 131 of the agent. Add to information 130.

具体的には、統計情報更新手段53は、各エージェントの視認範囲内に当該エージェントの統計情報130に含まれていない目的地が存在する場合に、当該エージェントのエージェントIDと当該目的地の目的地IDとの組合せに、待ち数分布、サービス時間分布の同時確率分布のパラメータの初期値を対応付けたデータを統計情報130に追加する。この初期値は上述したように目的地毎の初期値として統計情報記憶手段43が記憶している。
また、統計情報更新手段53は、各エージェントの視認範囲内に当該エージェントの統計情報131に含まれていない局所経路が存在する場合に、当該エージェントのエージェントIDと当該局所経路の両端地点との組合せに、移動速度分布の同時確率分布のパラメータの初期値を対応付けたデータを統計情報131に追加する。この初期値は上述したように目的地毎の初期値として統計情報記憶手段43が記憶している。
Specifically, the statistical information updating means 53 sets the agent ID of the agent and the destination of the destination when there is a destination not included in the statistical information 130 of the agent within the visible range of each agent. Data in which the initial values of the parameters of the joint probability distribution of the waiting number distribution and the service time distribution are associated with the combination with the ID is added to the statistical information 130. As described above, this initial value is stored in the statistical information storage means 43 as an initial value for each destination.
Further, the statistical information updating means 53 is a combination of the agent ID of the agent and both end points of the local route when there is a local route not included in the statistical information 131 of the agent within the visible range of each agent. The data associated with the initial values of the parameters of the joint probability distribution of the moving speed distribution is added to the statistical information 131. As described above, this initial value is stored in the statistical information storage means 43 as an initial value for each destination.

統計情報更新手段53による同時確率分布のパラメータ(平均値μ、自由度ν、仮説的標本数κ、尺度母数λ)の更新は、例えば次式(5)〜(8)で表されるベイズ推定法によって行われてよい。 The update of the parameters of the simultaneous probability distribution (mean value μ, degree of freedom ν, hypothetical sample number κ, scale parameter λ) by the statistical information updating means 53 is, for example, Bayes represented by the following equations (5) to (8). It may be done by an estimation method.

Figure 2021140490
Figure 2021140490

Figure 2021140490
Figure 2021140490

Figure 2021140490
Figure 2021140490

Figure 2021140490
Figure 2021140490

上式において、μ、ν、κ、λは、統計情報記憶手段43に記憶されている同時確率分布のパラメータでありμ、ν、κ、λは、更新後の当該同時確率分布パラメータである。また、Nは観測値数、xは観測値の平均値である。 In the above equation, μ 0 , ν 0 , κ 0 , and λ 0 are parameters of the simultaneous probability distribution stored in the statistical information storage means 43, and μ 1 , ν 1 , κ 1 , and λ 1 are the updated parameters. This is the simultaneous probability distribution parameter. N is the number of observed values, and x a is the average value of the observed values.

次に図12の(a)及び図12の(b)を参照して、統計情報記憶手段43に記憶される確率分布が統計情報更新手段53によって更新されて、エージェント毎に違いが生じる様子を説明する。
確率分布140及び150は、エージェント#1と#59の売店2のサービス時間分布の初期値を示す。エージェント#1と#59の初期値はいずれもΝ(600, 2500)である。
Next, referring to (a) of FIG. 12 and (b) of FIG. 12, the probability distribution stored in the statistical information storage means 43 is updated by the statistical information updating means 53, and a state in which a difference occurs for each agent is observed. explain.
The probability distributions 140 and 150 indicate the initial values of the service time distributions of the shop 2 of the agents # 1 and # 59. The initial values of agents # 1 and # 59 are both Ν (600, 2500).

確率分布141及び151は、仮想時刻が経過して統計情報更新手段53により十分に更新された後のエージェント#1と#59の売店2のサービス時間分布を示す。エージェント#1のサービス時間分布141はΝ(480, 25700)となり、エージェント#59のサービス時間分布151はΝ(550, 17100)となっている。すなわち、サービス時間分布141よりもサービス時間分布151の方が平均値が大きく、分散が小さくなっている。 The probability distributions 141 and 151 show the service time distributions of the shop 2 of the agents # 1 and # 59 after the virtual time has elapsed and the statistical information update means 53 has sufficiently updated the probability distributions 141 and 151. The service time distribution 141 of agent # 1 is Ν (480, 25700), and the service time distribution 151 of agent # 59 is Ν (550, 17100). That is, the service time distribution 151 has a larger average value and a smaller variance than the service time distribution 141.

このことから、エージェント#1にとっての売店2は、エージェント#59にとっての売店2よりも、平均的には迅速だが、その平均よりも大幅に迅速であったり大幅に遅延したりすることも多い不安定な店舗であることが分かる。この結果、例えば、エージェント#1は、残り時間が少なく他の売店の方が平均的にサービス時間が短い場合には、いちかばちかで売店2を選択するようになる。
一方で、エージェント#59にとっての売店2は、エージェント#1にとっての売店2よりも、平均的にはやや遅いが、サービス時間は安定している店舗であることが分かる。この結果、例えば、エージェント#59は残り時間が550時刻以上ある場合に売店2を選択しやすくなる。
For this reason, the kiosk 2 for agent # 1 is, on average, faster than the kiosk 2 for agent # 59, but is often significantly faster or significantly delayed than that average. It turns out that it is a stable store. As a result, for example, when the remaining time is short and the service time of the other shop is shorter on average, the agent # 1 will select the shop 2 in the first place.
On the other hand, it can be seen that the shop 2 for agent # 59 is a shop that is slightly slower on average than the shop 2 for agent # 1, but the service time is stable. As a result, for example, agent # 59 can easily select the shop 2 when the remaining time is 550 hours or more.

このように、同一の目的地であってもエージェントによって、所要時間の情報に差が生じる。同様に、同一エージェントであっても同一行動目的を達成するための目的地間で所要時間の情報に差が生じる。
所要時間の情報に差が生じることによりエージェント間で行動に違いを生じさせることができ、現実世界において個体毎の経験知の差によって行動に違いが生じることを模擬できる。
In this way, even if the destination is the same, the information on the required time differs depending on the agent. Similarly, even for the same agent, there is a difference in the information on the required time between the destinations for achieving the same action purpose.
It is possible to make a difference in behavior between agents due to a difference in the information of the required time, and it is possible to simulate that a difference in behavior is caused by a difference in experience and knowledge of each individual in the real world.

図2を参照する。予測結果出力手段60は、シミュレーションの結果である予測結果を出力する。予測結果は、エージェント情報記憶手段42に記憶されている情報の一部または全部を少なくとも含み、好適には、さらに空間情報記憶手段41に記憶されている情報の一部または全部を含む。
予測結果出力手段60は、例えば、制御部5および表示部6が協働して実現され、記憶部4から読み出した予測結果を、表示部6に表示させる。また、予測結果出力手段60は、予測結果をデータファイルとして出力してもよいし、画像ファイルとして出力してもよいし、画像として表示してもよいし、これらのうちの1以上の形式で出力してもよい。
See FIG. The prediction result output means 60 outputs the prediction result which is the result of the simulation. The prediction result includes at least a part or all of the information stored in the agent information storage means 42, and preferably further includes a part or all of the information stored in the spatial information storage means 41.
The prediction result output means 60 is realized, for example, in collaboration with the control unit 5 and the display unit 6, and causes the display unit 6 to display the prediction result read from the storage unit 4. Further, the prediction result output means 60 may output the prediction result as a data file, may be output as an image file, may be displayed as an image, and may be displayed in one or more of these formats. You may output it.

例えば、予測結果出力手段60は、対象空間の地図を画像化するとともに当該画像上の各エージェントの位置と対応する座標にエージェントを表す図形を重畳描画して予測結果の画像を生成し、生成した画像をファイルとして出力し、および/または表示部6に出力する。
予測結果の出力タイミングは、シミュレーションを終えた時点の他に、シミュレーションの途中を含んでもよい。つまり、シミュレーションの途中までに得られた上記情報の一部または全部を中間予測結果として出力してもよい。
For example, the prediction result output means 60 creates an image of the prediction result by imaging a map of the target space and superimposing and drawing a figure representing the agent on the coordinates corresponding to the position of each agent on the image. The image is output as a file and / or is output to the display unit 6.
The output timing of the prediction result may include the middle of the simulation in addition to the time when the simulation is completed. That is, a part or all of the above information obtained up to the middle of the simulation may be output as an intermediate prediction result.

(動作)
次に、第1実施形態のシミュレータ1によるシミュレーション方法について説明する。
図13は、第1実施形態のシミュレータ1によるシミュレーション方法の全体処理の一例のフローチャートである。
まず、ステップS1において利用者は、シミュレーション条件として模擬条件、空間情報、エージェント情報の初期値、及び統計情報の初期値を設定する。設定は条件設定手段20を通じて行われる。そして、ステップS2において仮想時刻tが0に初期化される。
(motion)
Next, a simulation method using the simulator 1 of the first embodiment will be described.
FIG. 13 is a flowchart of an example of the overall processing of the simulation method by the simulator 1 of the first embodiment.
First, in step S1, the user sets simulated conditions, spatial information, initial values of agent information, and initial values of statistical information as simulation conditions. The setting is performed through the condition setting means 20. Then, in step S2, the virtual time t is initialized to 0.

ステップS3においては生成時刻を迎えたエージェントが生成される。具体的には、行動模擬手段52が、現時刻tと同じ生成時刻が設定されたエージェントをエージェント情報120内から探索する。該当するエージェントが検出された場合、当該エージェントのIDを初期位置とともにエージェント情報122に追加する。追加されたエージェントは現存エージェントとなる。
ステップS4において、現存エージェント(仮想時刻よりも前に生成され、且つ達成フラグが0である行動目的IDが設定されているエージェント)が存在するか否かを判定する。現存エージェントが存在する場合(ステップS4:Y)に処理はステップS5へ進む。現存エージェントが存在しない場合(ステップS4:N)に処理はステップS8へ進む。
In step S3, an agent whose generation time has been reached is generated. Specifically, the behavior simulating means 52 searches the agent information 120 for an agent for which the same generation time as the current time t is set. When the corresponding agent is detected, the ID of the agent is added to the agent information 122 together with the initial position. The added agent becomes an existing agent.
In step S4, it is determined whether or not there is an existing agent (an agent that is generated before the virtual time and has an action purpose ID whose achievement flag is 0). When the existing agent exists (step S4: Y), the process proceeds to step S5. If the existing agent does not exist (step S4: N), the process proceeds to step S8.

ステップS5では、統計情報更新処理が行われる。統計情報更新処理では、現存エージェントが観測した観測値に基づいて、統計情報記憶手段43に記憶されている統計情報130及び131が更新される。統計情報更新処理の詳細は後述する。
ステップS6では、行動決定処理が行われる。行動決定処理では、エージェント情報121に設定された行動目的と、統計情報130及び131に設定された確率分布に基づいて、エージェントが到達を目指す目的地を選択する。行動決定処理の詳細は後述する。
In step S5, the statistical information update process is performed. In the statistical information update process, the statistical information 130 and 131 stored in the statistical information storage means 43 are updated based on the observed values observed by the existing agent. The details of the statistical information update process will be described later.
In step S6, the action determination process is performed. In the action determination process, the destination to be reached by the agent is selected based on the action purpose set in the agent information 121 and the probability distribution set in the statistical information 130 and 131. The details of the action decision process will be described later.

ステップS7では、エージェント状態更新処理が行われる。エージェント状態更新処理では、ステップS6で決定した目的地に応じて現存エージェントの状態を更新する。エージェント状態更新処理の詳細は後述する。
ステップS8では、仮想時刻tを「1」だけ増加する。
ステップS9では、仮想時刻tが模擬条件記憶手段40に記憶されているシミュレーション終了時刻Tに到達したか否かを判定する。仮想時刻tが終了時刻Tに到達した場合(ステップS9:Y)に処理はステップS10へ進む。仮想時刻tが終了時刻Tに到達していない場合(ステップS9:N)に処理はステップS3に戻る。
ステップS10では、シミュレーションの結果である予測結果を出力して、処理終了となる。
In step S7, the agent state update process is performed. In the agent state update process, the state of the existing agent is updated according to the destination determined in step S6. Details of the agent status update process will be described later.
In step S8, the virtual time t is increased by "1".
In step S9, it is determined whether or not the virtual time t has reached the simulation end time T stored in the simulated condition storage means 40. When the virtual time t reaches the end time T (step S9: Y), the process proceeds to step S10. When the virtual time t has not reached the end time T (step S9: N), the process returns to step S3.
In step S10, the prediction result, which is the result of the simulation, is output, and the process ends.

次に、図14及び図15を参照して、ステップS5の統計情報更新処理について説明する。統計情報更新処理は、行動模擬手段52及び統計情報更新手段53によって実行される。
ステップS20において行動模擬手段52は、現存エージェントを順次選択し、処理対象の注目エージェントに設定する。
Next, the statistical information update process in step S5 will be described with reference to FIGS. 14 and 15. The statistical information update process is executed by the behavior simulation means 52 and the statistical information update means 53.
In step S20, the action simulating means 52 sequentially selects existing agents and sets them as the agents of interest to be processed.

ステップS21において行動模擬手段52は、注目エージェントに関して、統計情報130及び131を更新するための観測値の観測タイミングが到来したかを判定する。観測タイミングが到来した場合(ステップS21:Y)に処理はステップS22へ進む。観測タイミングが到来していない場合(ステップS21:N)に処理はステップS35へ進む。
ステップS22において統計情報更新手段53は、注目エージェントの視認範囲を設定する。統計情報更新手段53は、注目エージェントの統計情報130に含まれていない目的地が視認範囲内に存在するか否かを判定する。
In step S21, the behavior simulating means 52 determines whether or not the observation timing of the observed values for updating the statistical information 130 and 131 has arrived with respect to the agent of interest. When the observation timing arrives (step S21: Y), the process proceeds to step S22. When the observation timing has not arrived (step S21: N), the process proceeds to step S35.
In step S22, the statistical information updating means 53 sets the viewing range of the agent of interest. The statistical information updating means 53 determines whether or not a destination not included in the statistical information 130 of the agent of interest exists within the visible range.

統計情報130に含まれていない目的地が視認範囲内に存在する場合(ステップS22:Y)に処理はステップS23へ進む。統計情報130に含まれていない目的地が視認範囲内に存在しない場合(ステップS22:N)に処理はステップS24へ進む。
ステップS23において統計情報更新手段53は、当該目的地のデータを注目エージェントの統計情報130に追加する。その後に処理はステップS24へ進む。
When the destination not included in the statistical information 130 exists within the visible range (step S22: Y), the process proceeds to step S23. When the destination not included in the statistical information 130 does not exist within the visible range (step S22: N), the process proceeds to step S24.
In step S23, the statistical information updating means 53 adds the data of the destination to the statistical information 130 of the agent of interest. After that, the process proceeds to step S24.

ステップS24において統計情報更新手段53は、注目エージェントの統計情報131に含まれていない局所経路が視認範囲内に存在するか否かを判定する。統計情報131に含まれていない局所経路が視認範囲内に存在する場合(ステップS24:Y)に処理はステップS25へ進む。統計情報131に含まれていない局所経路が視認範囲内に存在しない場合(ステップS24:N)に処理はステップS26へ進む。
ステップS25において統計情報更新手段53は、当該局所経路のデータを注目エージェントの統計情報131に追加する。その後に処理はステップS26へ進む。
In step S24, the statistical information updating means 53 determines whether or not a local route that is not included in the statistical information 131 of the agent of interest exists within the visible range. When the local route not included in the statistical information 131 exists within the visible range (step S24: Y), the process proceeds to step S25. When the local route not included in the statistical information 131 does not exist within the visible range (step S24: N), the process proceeds to step S26.
In step S25, the statistical information updating means 53 adds the data of the local route to the statistical information 131 of the agent of interest. After that, the process proceeds to step S26.

ステップS26において統計情報更新手段53は、注目エージェントの状況が「移動中」であるか否かを判定する。注目エージェントの状況が「移動中」である場合(ステップS26:Y)に処理はステップS27へ進む。注目エージェントの状況が「移動中」でない場合(ステップS26:N)に処理はステップS28へ進む。
ステップS27において統計情報更新手段53は、注目エージェントの移動速度と局所経路を取得し、当該局所経路における速さを算出する。その後に処理はステップS28へ進む。
In step S26, the statistical information updating means 53 determines whether or not the status of the agent of interest is “moving”. When the status of the attention agent is “moving” (step S26: Y), the process proceeds to step S27. If the status of the agent of interest is not "moving" (step S26: N), the process proceeds to step S28.
In step S27, the statistical information updating means 53 acquires the moving speed and the local route of the agent of interest, and calculates the speed in the local route. After that, the process proceeds to step S28.

ステップS28において統計情報更新手段53は、注目エージェントの視認範囲内に存在する他のエージェントの状況が「移動中」であるか否かを判定する。視認範囲内の他のエージェントの状況が「移動中」である場合(ステップS28:Y)に処理はステップS29へ進む。視認範囲内の他のエージェントの状況が「移動中」でない場合(ステップS28:N)に処理はステップS30へ進む。
ステップS29において統計情報更新手段53は、移動中であり且つ視認範囲内に存在する他のエージェントの移動速度と局所経路を取得し、当該局所経路における速さを算出する。その後に処理はステップS30へ進む。
In step S28, the statistical information updating means 53 determines whether or not the status of another agent existing within the visible range of the agent of interest is “moving”. When the status of the other agent within the viewing range is "moving" (step S28: Y), the process proceeds to step S29. If the status of the other agent within the viewing range is not "moving" (step S28: N), the process proceeds to step S30.
In step S29, the statistical information updating means 53 acquires the moving speed and the local route of another agent that is moving and exists within the visible range, and calculates the speed in the local route. After that, the process proceeds to step S30.

ステップS30において統計情報更新手段53は、ステップS27またはS29のいずれかで速さを算出したか否かを判定する。速さを算出した場合(ステップS30:Y)に処理はステップS31へ進む。速さを算出しない場合(ステップS30:N)に処理はステップS32へ進む。
ステップS31において統計情報更新手段53は、算出した速さを観測値として用いて、注目エージェントの統計情報131のうち速さを観測した局所経路の移動速度分布を更新する。その後に処理はステップS32へ進む。
In step S30, the statistical information updating means 53 determines whether or not the speed is calculated in either step S27 or S29. When the speed is calculated (step S30: Y), the process proceeds to step S31. If the speed is not calculated (step S30: N), the process proceeds to step S32.
In step S31, the statistical information updating means 53 uses the calculated speed as an observed value to update the moving speed distribution of the local route in which the speed is observed in the statistical information 131 of the agent of interest. After that, the process proceeds to step S32.

ステップS32において統計情報更新手段53は、注目エージェントの視認範囲内に目的地いずれかが存在するか否かを判定する。視認範囲内に目的地が存在する場合(ステップS32:Y)に処理はステップS33へ進む。視認範囲内に目的地が存在しない場合(ステップS32:N)に処理はステップS35へ進む。
ステップS33において統計情報更新手段53は、視認範囲内に存在する目的地の待ち数を取得する。ステップS34において統計情報更新手段53は、取得した待ち数を観測値として用いて、注目エージェントの統計情報130のうち待ち数を観測した目的地の待ち数分布を更新する。その後に処理はステップS35へ進む。
In step S32, the statistical information updating means 53 determines whether or not any of the destinations exists within the visible range of the agent of interest. When the destination exists within the viewing range (step S32: Y), the process proceeds to step S33. If the destination does not exist within the viewing range (step S32: N), the process proceeds to step S35.
In step S33, the statistical information updating means 53 acquires the number of waits for the destination existing within the visible range. In step S34, the statistical information updating means 53 updates the waiting number distribution of the destination where the waiting number is observed in the statistical information 130 of the attention agent by using the acquired waiting number as an observed value. After that, the process proceeds to step S35.

ステップS35において統計情報更新手段53は、注目エージェントのサービス完了時刻が到来したかを判定する。サービス完了時刻が到来した場合(ステップS35:Y)に処理はステップS36へ進む。サービス完了時刻が到来しない場合(ステップS35:N)に処理はステップS37へ進む。
ステップS36において統計情報更新手段53は、注目エージェントに要したサービス時間を算出する。その後に処理はステップS37へ進む。
In step S35, the statistical information updating means 53 determines whether or not the service completion time of the attention agent has arrived. When the service completion time arrives (step S35: Y), the process proceeds to step S36. If the service completion time does not arrive (step S35: N), the process proceeds to step S37.
In step S36, the statistical information updating means 53 calculates the service time required for the agent of interest. After that, the process proceeds to step S37.

ステップS37において統計情報更新手段53は、注目エージェントの状況が待機中であればそのキュー内の順序が更新されたか否かを判定する。順序が更新された場合(ステップS37:Y)に処理はステップS38へ進む。順序が更新されない場合(ステップS37:N)に処理はステップS39へ進む。
ステップS38において統計情報更新手段53は、注目エージェントのサービスを待っている目的地で、サービスが完了した他のエージェントに要したサービス時間を算出する。その後に処理はステップS39へ進む。
In step S37, the statistical information updating means 53 determines whether or not the order in the queue has been updated if the status of the agent of interest is waiting. When the order is updated (step S37: Y), the process proceeds to step S38. If the order is not updated (step S37: N), the process proceeds to step S39.
In step S38, the statistical information updating means 53 calculates the service time required for another agent whose service has been completed at the destination waiting for the service of the agent of interest. After that, the process proceeds to step S39.

ステップS39において統計情報更新手段53は、ステップS36またはS38のいずれかでサービス時間を算出したか否かを判定する。サービス時間を算出した場合(ステップS39:Y)に処理はステップS40へ進む。サービス時間を算出しない場合(ステップS39:N)に処理はステップS41へ進む。
ステップS40において統計情報更新手段53は、算出したサービス時間を観測値として用いて、注目エージェントの統計情報130のうちサービス時間を観測した目的地(すなわち注目エージェントがサービスを受ける目的地)のサービス時間分布を更新する。その後に処理はステップS41へ進む。
ステップS41において統計情報更新手段53は、全ての現存エージェントについてステップS21〜S40の処理を実行したか否かを判定する。全ての現存エージェントについて処理を実行した場合(ステップS41:Y)に、統計情報更新処理は終了する。未処理の現存エージェントが存在する場合(ステップS41:N)に処理はステップS20へ戻る。
In step S39, the statistical information updating means 53 determines whether or not the service time has been calculated in either step S36 or S38. When the service time is calculated (step S39: Y), the process proceeds to step S40. When the service time is not calculated (step S39: N), the process proceeds to step S41.
In step S40, the statistical information updating means 53 uses the calculated service time as an observed value, and uses the service time of the destination (that is, the destination where the attention agent receives the service) in which the service time is observed in the statistical information 130 of the attention agent. Update the distribution. After that, the process proceeds to step S41.
In step S41, the statistical information updating means 53 determines whether or not the processes of steps S21 to S40 have been executed for all the existing agents. When the processing is executed for all the existing agents (step S41: Y), the statistical information update processing ends. If there is an unprocessed existing agent (step S41: N), the process returns to step S20.

次に、図16を参照して、ステップS6の行動決定処理について説明する。行動決定処理は、評価値算出手段50及び目的地選択手段51によって実行される。
ステップS50において評価値算出手段50は、現存エージェントを順次選択し、処理対象の注目エージェントに設定する。
ステップS51において評価値算出手段50は、注目エージェントの行動決定タイミングが到来したか否かを判定する。行動決定タイミングが到来した場合(ステップS51:Y)に処理はステップS52へ進む。行動決定タイミングが到来していない場合(ステップS51:N)に処理はステップS59へ進む。
Next, the action determination process in step S6 will be described with reference to FIG. The action determination process is executed by the evaluation value calculation means 50 and the destination selection means 51.
In step S50, the evaluation value calculating means 50 sequentially selects existing agents and sets them as the agents of interest to be processed.
In step S51, the evaluation value calculating means 50 determines whether or not the action determination timing of the attention agent has arrived. When the action determination timing has arrived (step S51: Y), the process proceeds to step S52. When the action determination timing has not arrived (step S51: N), the process proceeds to step S59.

ステップS52において評価値算出手段50は、1つ又は複数の行動パターンPを生成する。
ステップS53において評価値算出手段50は、行動パターンPの各々に対して1つ又は複数の目的地パターンMijを生成する。
ステップS54において評価値算出手段50は、目的地パターンMijを順次選択して、処理対象の注目パターンに設定する。
Evaluation value calculating means 50 in step S52 generates one or more behavioral patterns P i.
In step S53, the evaluation value calculating means 50 generates one or a plurality of destination patterns M ij for each of the action patterns P i.
In step S54, the evaluation value calculating means 50 sequentially selects the destination pattern Mij and sets it as the attention pattern to be processed.

ステップS55において評価値算出手段50は、評価値算出処理を行う。評価値算出処理では注目パターンについて評価値Eが算出される。評価値算出処理の詳細は後述する。
ステップS56において評価値算出手段50は、全ての目的地パターンMijが注目パターンに設定されたか否かを判定する。全ての目的地パターンMijが注目パターンに設定された場合(ステップS56:Y)に処理はステップS57へ進む。注目パターンに設定されていない目的地パターンMijが存在する場合(ステップS56:N)に処理はステップS54へ戻る。
In step S55, the evaluation value calculation means 50 performs the evaluation value calculation process. In the evaluation value calculation process, the evaluation value E is calculated for the pattern of interest. The details of the evaluation value calculation process will be described later.
In step S56, the evaluation value calculating means 50 determines whether or not all the destination patterns Mij are set as the attention patterns. When all the destination patterns Mij are set as the attention patterns (step S56: Y), the process proceeds to step S57. When the destination pattern Mij that is not set in the attention pattern exists (step S56: N), the process returns to step S54.

ステップS57において目的地選択手段51は、評価値に基づいていずれかの目的地パターンMijを選択する。
ステップS58において目的地選択手段51は、選択した目的地パターンMijにおける1番目の目的地のIDを、エージェントIDおよび現在の仮想時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。その後に処理はステップS60へ進む。
In step S57, the destination selection means 51 selects one of the destination patterns Mij based on the evaluation value.
In step S58, the destination selection means 51 newly generates current time data in which the ID of the first destination in the selected destination pattern Mij is associated with the agent ID and the current virtual time, and agent information. Add to 122. After that, the process proceeds to step S60.

一方で、ステップS59において目的地選択手段51は、1時刻前の目的地IDを、エージェントIDおよび現在の仮想時刻と対応付けた現時刻データを新たに生成して、エージェント情報122に追記する。その後に処理はステップS60へ進む。
ステップS60において評価値算出手段50は、全ての現存エージェントについてステップS51〜S59の処理を実行したか否かを判定する。全ての現存エージェントについて処理を実行した場合(ステップS60:Y)に行動決定処理は終了する。未処理の現存エージェントが存在する場合(ステップS60:N)に処理はステップS50へ戻る。
On the other hand, in step S59, the destination selection means 51 newly generates current time data in which the destination ID one time ago is associated with the agent ID and the current virtual time, and adds it to the agent information 122. After that, the process proceeds to step S60.
In step S60, the evaluation value calculating means 50 determines whether or not the processes of steps S51 to S59 have been executed for all the existing agents. When the processes are executed for all the existing agents (step S60: Y), the action decision process ends. If there is an unprocessed existing agent (step S60: N), the process returns to step S50.

図17を参照して、ステップS55の評価値算出処理について説明する。評価値算出処理は、評価値算出手段50によって実行される。
ステップS70において評価値算出手段50は、注目パターンに含まれる目的地毎に、目的地で行動目的を達成する場合の所要時間の確率分布である所要時間分布を算出する。
ステップS71において評価値算出手段50は、注目パターンに含まれる目的地の順位を示す変数sを「1」に初期化する。以下のステップS73〜S77では、注目パターンに含まれるs番目の目的地で達成期限までに行動目的を達成する各々の成功確率を算出する。また、評価値算出手段50は、評価値Eを「0」に初期化する。
The evaluation value calculation process in step S55 will be described with reference to FIG. The evaluation value calculation process is executed by the evaluation value calculation means 50.
In step S70, the evaluation value calculating means 50 calculates the required time distribution, which is the probability distribution of the required time when the action purpose is achieved at the destination, for each destination included in the attention pattern.
In step S71, the evaluation value calculating means 50 initializes the variable s indicating the rank of the destination included in the attention pattern to “1”. In the following steps S73 to S77, the success probability of achieving the action purpose by the achievement deadline at the sth destination included in the attention pattern is calculated. Further, the evaluation value calculating means 50 initializes the evaluation value E to “0”.

ステップS72において評価値算出手段50は、変数sが「1」、すなわち1番目の目的地の成功確率を算出するか否かを判定する。変数sが「1」である場合(ステップS72:Y)に処理はステップS73へ進む。変数sが「1」でない場合(ステップS72:N)に処理はステップS75へ進む。
ステップS73において評価値算出手段50は、1番目の目的地で達成する行動目的の達成期限までの残り時間を算出する。
In step S72, the evaluation value calculating means 50 determines whether or not the variable s is "1", that is, whether or not to calculate the success probability of the first destination. When the variable s is "1" (step S72: Y), the process proceeds to step S73. If the variable s is not "1" (step S72: N), the process proceeds to step S75.
In step S73, the evaluation value calculating means 50 calculates the remaining time until the achievement deadline of the action purpose to be achieved at the first destination.

ステップS74において評価値算出手段50は、残り時間と、1番目の目的地で行動目的所要時間分布に基づいて、成功確率を算出する。その後に処理はステップS78へ進む。
一方で、ステップS75において評価値算出手段50は、1番目からs−1番目までの目的地で行動目的達成に要する所要時間分布の合計を算出する。
In step S74, the evaluation value calculating means 50 calculates the success probability based on the remaining time and the action purpose required time distribution at the first destination. After that, the process proceeds to step S78.
On the other hand, in step S75, the evaluation value calculating means 50 calculates the total time distribution required to achieve the action purpose at the first to s-1st destinations.

ステップS76において評価値算出手段50は、所要時間分布の合計に基づいて、s番目の目的地で達成する行動目的の達成期限までの残り時間分布を算出する。
ステップS77において評価値算出手段50は、残り時間分布と、s番目の目的地の所要時間分布に基づいて成功確率を算出する。その後に処理はステップS78へ進む。
ステップS78において評価値算出手段50は、ステップS74又はS77で算出した成功確率を希望達成度に乗じた積を評価値Eに加算する。
In step S76, the evaluation value calculating means 50 calculates the remaining time distribution until the achievement deadline of the action purpose to be achieved at the sth destination based on the total of the required time distributions.
In step S77, the evaluation value calculating means 50 calculates the success probability based on the remaining time distribution and the required time distribution of the sth destination. After that, the process proceeds to step S78.
In step S78, the evaluation value calculating means 50 adds the product obtained by multiplying the desired achievement degree by the success probability calculated in step S74 or S77 to the evaluation value E.

ステップS79において評価値算出手段50は、変数sを「1」だけ増加する。
ステップS80において評価値算出手段50は、注目パターンの中の全ての目的地について、ステップS72〜S79の処理を完了したか否かを判定する。全ての目的地について処理を完了した場合(ステップS80:Y)に処理はステップS81へ進む。未処理の目的地が存在する場合(ステップS80:N)に処理はステップS72へ戻る。
ステップS81において評価値算出手段50は、エージェントと注目パターンと評価値を対応付けた評価値情報を目的地選択手段51に出力する。その後に、評価値算出処理は終了する
In step S79, the evaluation value calculating means 50 increases the variable s by "1".
In step S80, the evaluation value calculating means 50 determines whether or not the processing of steps S72 to S79 has been completed for all the destinations in the pattern of interest. When the processing is completed for all the destinations (step S80: Y), the processing proceeds to step S81. If there is an unprocessed destination (step S80: N), the process returns to step S72.
In step S81, the evaluation value calculating means 50 outputs the evaluation value information in which the agent, the attention pattern, and the evaluation value are associated with each other to the destination selection means 51. After that, the evaluation value calculation process ends.

次に、図18を参照してステップS7のエージェント状態更新処理を説明する。エージェント状態更新処理は、目的地選択手段51と、行動模擬手段52によって実現される。
ステップS90において行動模擬手段52は、現存エージェントを順次選択し、処理対象の注目エージェントに設定する。
ステップS91において行動模擬手段52は、目的地選択手段51が注目エージェントの目的地パターンを新しく選択したか否かを判定する。目的地パターンを新しく選択した場合(ステップS91:Y)に処理はステップS92へ進む。目的地パターンを新しく選択しない場合(ステップS91:N)に処理はステップS93へ進む。
Next, the agent state update process in step S7 will be described with reference to FIG. The agent state update process is realized by the destination selection means 51 and the action simulation means 52.
In step S90, the action simulating means 52 sequentially selects existing agents and sets them as the agents of interest to be processed.
In step S91, the action simulating means 52 determines whether or not the destination selection means 51 newly selects the destination pattern of the agent of interest. When a new destination pattern is selected (step S91: Y), the process proceeds to step S92. When the destination pattern is not newly selected (step S91: N), the process proceeds to step S93.

ステップS92において目的地選択手段51は、エージェント情報122に行動パラメータとして記憶されている目的地IDを、新しく選択した目的地パターンの先頭にある目的地IDに更新する。その後に処理はステップS93へ進む。
ステップS93において行動模擬手段52は、注目エージェントの状況を更新する。
In step S92, the destination selection means 51 updates the destination ID stored as an action parameter in the agent information 122 to the destination ID at the head of the newly selected destination pattern. After that, the process proceeds to step S93.
In step S93, the action simulating means 52 updates the status of the attention agent.

ステップS94において行動模擬手段52は、注目エージェントの状況が「移動中」又は「達成」であるか否かを判定する。状況が「移動中」又は「達成」である場合(ステップS94:Y)に処理はステップS95へ進む。状況が「移動中」又は「達成」でない場合(ステップS94:N)に処理はステップS96へ進む。
ステップS95において行動模擬手段52は、注目エージェントの移動速度を算出して位置を更新する。その後に処理はステップS96へ進む。
In step S94, the behavior simulating means 52 determines whether or not the status of the agent of interest is “moving” or “achieved”. When the situation is "moving" or "achieved" (step S94: Y), the process proceeds to step S95. If the situation is not "moving" or "achieved" (step S94: N), the process proceeds to step S96.
In step S95, the action simulating means 52 calculates the moving speed of the agent of interest and updates the position. After that, the process proceeds to step S96.

ステップS96において行動模擬手段52は、注目エージェントが全ての行動目的を達成したか(すなわち、終端目的フラグが1である行動目的を達成したか)否かを判定する。全ての行動目的を達成した場合(ステップS96:Y)に処理はステップS97へ進む。未達成の行動目的が存在する場合(ステップS96:N)に処理はステップS98へ進む。
ステップS97において行動模擬手段52は、注目エージェントを消去する。その後に処理はステップS98へ進む。
ステップS98において行動模擬手段52は、全ての現存エージェントについてステップS91〜S97の処理が完了したか否かを判定する。未処理の現存エージェントが存在する場合(ステップS98:N)に処理はステップS90へ戻る。全ての現存エージェントについて処理が完了した場合(ステップS98:Y)にエージェント状態更新処理は終了する。
In step S96, the action simulating means 52 determines whether or not the attention agent has achieved all the action objectives (that is, whether or not the action objective for which the terminal purpose flag is 1 has been achieved). When all the action objectives have been achieved (step S96: Y), the process proceeds to step S97. When there is an unachieved action purpose (step S96: N), the process proceeds to step S98.
In step S97, the behavior simulating means 52 erases the attention agent. After that, the process proceeds to step S98.
In step S98, the action simulating means 52 determines whether or not the processing of steps S91 to S97 has been completed for all the existing agents. If there is an unprocessed existing agent (step S98: N), the process returns to step S90. When the processing for all the existing agents is completed (step S98: Y), the agent status update processing ends.

(変形例)
(1)第1実施形態では、所要時間を、移動時間と、待ち時間と、サービス時間の和として定義した。
これに代えて、移動時間を所要時間としてもよい(すなわち待ち時間とサービス時間が0)。これにより、配達のように待ち時間とサービス時間が0とみなせる行動目的についてのシミュレーションを行うことができる。
(Modification example)
(1) In the first embodiment, the required time is defined as the sum of the travel time, the waiting time, and the service time.
Instead, the travel time may be the required time (ie, the waiting time and the service time are 0). This makes it possible to simulate an action purpose such as delivery in which the waiting time and the service time can be regarded as zero.

(2)第1実施形態では、行動目的と目的地との関係が1対1および1対多の関係である場合を例示した。行動目的と目的地との関係は、多対1または多対多の関係であってもよい。例えば、同じ目的地で異なるサービス間でサービス時間に差が生じるシチュエーションを模擬することができる。この場合には、行動目的と目的地の組合せ毎にサービス時間分布の統計情報を記憶又は更新することが望ましい。 (2) In the first embodiment, the case where the relationship between the action purpose and the destination is a one-to-one relationship and a one-to-many relationship is illustrated. The relationship between the purpose of action and the destination may be a many-to-one or many-to-many relationship. For example, it is possible to simulate a situation in which the service time differs between different services at the same destination. In this case, it is desirable to store or update the statistical information of the service time distribution for each combination of the action purpose and the destination.

(3)第1実施形態では、評価値算出手段50による評価値算出と目的地選択手段51による目的地選択を、行動決定間隔で繰り返す例を示して説明した。これに代えて、評価値算出と目的地選択を行動決定間隔で繰り返すことを省略してもよい。
この場合、例えば、目的地選択手段51が選択した目的地パターンをエージェント情報記憶手段42に記憶させ、行動模擬手段52は、各エージェントについて記憶されている目的地パターンの先頭の目的地から順次当該エージェントを移動させるように動作してよい。
(3) In the first embodiment, an example in which the evaluation value calculation by the evaluation value calculation means 50 and the destination selection by the destination selection means 51 are repeated at the action determination interval has been described. Instead of this, it may be omitted to repeat the evaluation value calculation and the destination selection at the action determination interval.
In this case, for example, the destination pattern selected by the destination selection means 51 is stored in the agent information storage means 42, and the action simulation means 52 sequentially corresponds to the first destination of the destination pattern stored for each agent. It may act to move the agent.

(4)第1実施形態では、行動目的毎に達成期限を設定する例を説明した。これに代えて又はこれに加えて、幕間毎かつエージェント毎に、単一の達成期限(すなわち複数の行動目的に共通の達成期限)を設定してもよい。例えば、幕間の終了時間を達成期限としてもよい。この場合、各幕間のエージェントそれぞれの全行動目的に対して同一の達成期限が設定されたものとして、上記実施形態と同様の処理を行えばよい。
さらには、幕間毎に全エージェントに共通の単一の達成期限を設定してもよい。
(4) In the first embodiment, an example of setting an achievement deadline for each action purpose has been described. Alternatively or additionally, a single achievement deadline (ie, a common achievement deadline for multiple action objectives) may be set for each inter-curtain and for each agent. For example, the end time between intermissions may be the deadline for achievement. In this case, it is assumed that the same achievement deadline is set for all the action objectives of the agents between the intermissions, and the same processing as in the above embodiment may be performed.
Furthermore, a single deadline common to all agents may be set for each inter-curtain.

(5)第1実施形態では、エージェントの視認範囲内に当該エージェントの統計情報130に含まれていない目的地が存在する場合に、当該目的地のデータを当該エージェントの統計情報130に追加する。これに代えて又はこれに加えて、目的地に関する情報をエージェントに知らせる看板等の情報源を対象空間内に設定してもよい。当該エージェントの統計情報130に含まれていない目的地を知らせる情報源がエージェントの視認範囲内の存在する場合に、当該目的地のデータを当該エージェントの統計情報130に追加してよい。同様に、目的地に関する情報を対象空間内に報知するアナウンスをシミュレートしてもよい。当該エージェントの統計情報130に含まれていない目的地を知らせるアナウンスが放送された場合に、当該目的地のデータを当該エージェントの統計情報130に追加してよい。 (5) In the first embodiment, when there is a destination that is not included in the statistical information 130 of the agent within the visible range of the agent, the data of the destination is added to the statistical information 130 of the agent. Alternatively or additionally, an information source such as a signboard that informs the agent of information about the destination may be set in the target space. If there is an information source that informs the destination that is not included in the statistical information 130 of the agent within the visible range of the agent, the data of the destination may be added to the statistical information 130 of the agent. Similarly, an announcement that broadcasts information about the destination in the target space may be simulated. When an announcement is broadcast that informs a destination that is not included in the agent's statistical information 130, the data of the destination may be added to the agent's statistical information 130.

(第2実施形態)
第1実施形態の評価値算出手段50は、所要時間分布を算出する際に、統計情報130に記憶される目的地の待ち数分布に基づいて待ち時間を予測する。また、視認範囲内の目的地については待ち数の観測値から待ち時間を予測している。
しかしながら、目的地に向かう他のエージェントの動きを観測することによって、待ち時間の予測が変わることがある。
そこで、第2実施形態の評価値算出手段50は、処理対象のエージェントの目的地パターンを選択する際に、他のエージェントの行動に基づいて、目的地での待ち時間を予測する。例えば、他のエージェントの移動方向に基づいて目的地での待ち時間を予測する。
(Second Embodiment)
When calculating the required time distribution, the evaluation value calculating means 50 of the first embodiment predicts the waiting time based on the waiting number distribution of the destination stored in the statistical information 130. For destinations within the visible range, the waiting time is predicted from the observed values of the number of waits.
However, observing the movements of other agents towards their destination can change the wait time prediction.
Therefore, the evaluation value calculating means 50 of the second embodiment predicts the waiting time at the destination based on the actions of other agents when selecting the destination pattern of the agent to be processed. For example, the waiting time at the destination is predicted based on the moving direction of another agent.

図19を参照する。いま、参照符号200は、待ち数分布を算出する処理対象の注目エージェント(すなわち、図16の行動決定処理の注目エージェント)を示し、破線は、注目エージェント200の視認範囲を示す。
参照符号201a〜201cは、注目エージェント200の視認範囲内の他のエージェントを示し、参照符号202は、視認範囲外の他のエージェントを示す。
See FIG. Now, the reference code 200 indicates the attention agent of the processing target for calculating the waiting number distribution (that is, the attention agent of the action determination processing of FIG. 16), and the broken line indicates the visual range of the attention agent 200.
Reference numerals 201a to 201c indicate other agents within the visible range of the agent of interest 200, and reference numeral 202 indicates other agents outside the visible range.

また、参照符号203a、204b、205aはそれぞれ目的地VI、VII、VIIIでサービスを受けているエージェントを示し、参照符号203b及び203cは目的地VIでサービスを待っているエージェント、参照符号204bは目的地VIIでサービスを待っているエージェント、参照符号205b及び205cは目的地VIIIでサービスを待っているエージェントを示す。
第2実施形態の評価値算出手段50は、視認範囲内の他のエージェント201a〜201cの移動方向に基づいて、目的地VI、VII及びVIIIの待ち数を予測する。
Further, reference numerals 203a, 204b, and 205a indicate agents receiving services at the destinations VI, VII, and VIII, respectively, reference numerals 203b and 203c indicate agents waiting for services at the destination VI, and reference numerals 204b are objects. Agents waiting for service at destination VII, reference numerals 205b and 205c indicate agents waiting for service at destination VIII.
The evaluation value calculating means 50 of the second embodiment predicts the number of waits for the destinations VI, VII, and VIII based on the moving directions of the other agents 201a to 201c within the visible range.

第2実施形態の評価値算出手段50は、図20に示す待ち時間算出手段70を備える。待ち時間算出手段70は、エージェント選択手段71と、視認範囲設定手段72と、移動方向取得手段73と、到達数予測手段74と、待ち時間予測手段75を備える。
待ち時間算出手段70は、現存エージェントの中から、処理対象の注目エージェントを選択する。
The evaluation value calculation means 50 of the second embodiment includes the waiting time calculation means 70 shown in FIG. The waiting time calculating means 70 includes an agent selecting means 71, a viewing range setting means 72, a moving direction acquisition means 73, a arrival number predicting means 74, and a waiting time predicting means 75.
The waiting time calculation means 70 selects the agent of interest to be processed from the existing agents.

視認範囲設定手段72は、注目エージェントの視認範囲を設定する。視認範囲の角度範囲や視認距離は、注目エージェントの状況に応じて変更させてよい。例えば、待機中または処理中の視認範囲を、移動中の視認範囲よりも広く設定してよい。
例えば、注目エージェントが移動中であれば移動方向の左右90度の範囲を、待機中または処理中であればエージェント位置を中心とした360度の範囲としてよい。
視認範囲の角度範囲や視認距離を、各エージェントの移動速度に応じて変更させてもよい。また、好適には、空間情報記憶手段41に記憶されている空間情報111を利用し、視認範囲内の壁等の障害物に阻まれる領域を除外して視認範囲を設定する。
The viewing range setting means 72 sets the viewing range of the agent of interest. The angle range and the viewing distance of the viewing range may be changed according to the situation of the agent of interest. For example, the visible range during standby or processing may be set wider than the visible range during movement.
For example, if the agent of interest is moving, the range of 90 degrees to the left and right of the moving direction may be set, and if the agent is waiting or processing, the range may be 360 degrees centered on the agent position.
The angle range and the viewing distance of the viewing range may be changed according to the moving speed of each agent. Further, preferably, the spatial information 111 stored in the spatial information storage means 41 is used, and the visible range is set by excluding the area blocked by obstacles such as walls within the visible range.

移動方向取得手段73は、エージェント情報記憶手段42に記憶されているエージェント情報122から、視認範囲内にある他エージェントの移動速度を、他エージェントの移動方向として取得する。
到達数予測手段74は、視認範囲内にある他エージェントの移動方向と、空間情報111に記憶される目的地の代表点とに基づいて、注目エージェントの統計情報130に記憶されている目的地dへ他のエージェントが到達する到達数を予測する。例えば、到達数予測手段74は、次式(9)に基づいて他のエージェントが目的地へ到達する到達数Rdiを予測してよい。
The movement direction acquisition means 73 acquires the movement speed of another agent within the visible range as the movement direction of the other agent from the agent information 122 stored in the agent information storage means 42.
The arrival number predicting means 74 is the destination d stored in the statistical information 130 of the agent of interest based on the moving direction of the other agent within the visible range and the representative point of the destination stored in the spatial information 111. Predict the number of arrivals that other agents will reach i. For example, the arrival number predicting means 74 may predict the arrival number R di that another agent arrives at the destination based on the following equation (9).

Figure 2021140490
Figure 2021140490

式(9)において、aは統計情報130に記憶されている目的地dへ向かっていると判断される他エージェントである。例えば、到達数予測手段74は、図19に示すように他エージェント201bの移動方向左右の所定角度θ内に目的地dが存在している場合、他エージェント201bは、目的地dに向かっていると判断してよい。また、式(9)において、rは、注目エージェントの統計情報130に記憶されている目的地のうち他エージェントaの移動方向左右の所定角度θ以内にある全ての目的地数を表す。 In the formula (9), a is the other agents that are determined to be heading to the destination d i stored in the statistical information 130. For example, the arrival number prediction means 74, if the destination d i is present in within the predetermined angle θ of the moving direction left and right other agents 201b as shown in FIG. 19, the other agents 201b is towards the destination d i You may judge that it is. Further, in the equation (9), r a denotes the number of all destinations within a predetermined angle θ of the moving direction lateral of another agent a of the destinations of the stored statistics 130 target agent.

待ち時間予測手段75は、注目エージェントの統計情報130に記憶されている目的地に対して、待ち時間分布を予測する。待ち時間分布は、目的地の将来待ち数をサービス窓口数で除した結果と、その目的地で行動目的を実行する際にかかるサービス時間分布の積とで算出する。
目的地が注目エージェントの視認範囲に存在する場合、待ち時間予測手段75は、目的地の待ち数に、目的地への到達数を加算した和を目的地の将来待ち数とする。すなわち、目的地に存在する他のエージェント数の観測結果と到達数に基づいて、待ち時間分布を予測する。
The waiting time prediction means 75 predicts the waiting time distribution for the destination stored in the statistical information 130 of the agent of interest. The waiting time distribution is calculated by dividing the number of future waits at the destination by the number of service counters and the product of the service time distribution required to execute the action purpose at the destination.
When the destination is within the visible range of the agent of interest, the waiting time prediction means 75 sets the sum of the waiting number of the destination and the arrival number of the destination as the future waiting number of the destination. That is, the waiting time distribution is predicted based on the observation result and the number of arrivals of the number of other agents existing at the destination.

目的地が注目エージェントの視認範囲に存在しない場合には、注目エージェントの統計情報130に記憶されている当該目的地の待ち人数分布より代表値をサンプリングし、目的地への到達数を代表値に加算した和を目的地の将来待ち数とする。
すなわち、目的地への到達数と、統計情報130に記憶されている目的地における待ち時間の統計情報とに基づいて、待ち時間分布を予測する。
When the destination is not within the visible range of the attention agent, the representative value is sampled from the waiting number distribution of the destination stored in the statistical information 130 of the attention agent, and the number of arrivals at the destination is used as the representative value. The sum of the sums is used as the number of future waits for the destination.
That is, the waiting time distribution is predicted based on the number of arrivals at the destination and the statistical information of the waiting time at the destination stored in the statistical information 130.

次に、図21を参照して、第2実施形態の評価値算出手段50による所要時間分布算出処理を説明する。
ステップS100において評価値算出手段50は、注目エージェントの統計情報131に記憶されている局所経路の移動速度分布に基づいて、注目パターン(目的地パターン)に含まれる各目的地までの移動に要する移動時間分布を算出する。
Next, with reference to FIG. 21, the required time distribution calculation process by the evaluation value calculation means 50 of the second embodiment will be described.
In step S100, the evaluation value calculating means 50 moves to each destination included in the attention pattern (destination pattern) based on the movement speed distribution of the local route stored in the statistical information 131 of the attention agent. Calculate the time distribution.

ステップS101において評価値算出手段50は、注目エージェントの統計情報130に記憶されている目的地でのサービス時間分布に基づいて、注目パターン(目的地パターン)に含まれる各目的地でのサービス時間分布を算出する。
ステップS102において到達数予測手段74は、注目エージェントの統計情報130に記憶されている目的地に向かう他のエージェントの到達数を予測する。
In step S101, the evaluation value calculating means 50 has a service time distribution at each destination included in the attention pattern (destination pattern) based on the service time distribution at the destination stored in the statistical information 130 of the attention agent. Is calculated.
In step S102, the arrival number predicting means 74 predicts the arrival number of other agents heading for the destination stored in the statistical information 130 of the agent of interest.

ステップS103において待ち時間予測手段75は、目的地に向かうエージェントの到達数と目的地の待ち数の観測値、又は目的地に向かうエージェントの到達数と注目エージェントの統計情報130に記憶されている当該目的地の待ち人数分布の代表値に基づいて、目的地での将来待ち数を予測する。 In step S103, the waiting time prediction means 75 is stored in the observed value of the number of arrivals of the agent toward the destination and the number of waits at the destination, or the number of arrivals of the agent toward the destination and the statistical information 130 of the agent of interest. Predict the number of future waits at the destination based on the representative value of the number of people waiting at the destination.

ステップS104において待ち時間予測手段75は、将来待ち数と、サービス窓口数と、サービス時間分布に基づいて目的地における待ち時間分布を算出する。
ステップS105において、評価値算出手段50は、移動時間分布と、サービス時間分布と、待ち時間分布の和を、所要時間として算出する。その後に所要時間分布算出処理は終了する。
In step S104, the waiting time predicting means 75 calculates the waiting time distribution at the destination based on the number of future waits, the number of service counters, and the service time distribution.
In step S105, the evaluation value calculating means 50 calculates the sum of the travel time distribution, the service time distribution, and the waiting time distribution as the required time. After that, the required time distribution calculation process ends.

なお、上記各実施形態においては、待ち数分布、サービス時間分布、移動速度分布やそれに付随する各分布を正規分布として保持する例を示したが、これらの分布をヒストグラムとして保持してもよい。その場合、分布同士の演算は対応するビン同士の演算となり、観測値による分布の更新はビンの値の更新となる。また、各分布を正規分布以外の定式化された分布として保持することもでき、その場合、分布に対する演算をサンプリング法により行うなど、採用する分布に適した演算方法、更新方法を用いればよい。 In each of the above embodiments, an example of holding the waiting number distribution, the service time distribution, the moving speed distribution, and each distribution associated therewith as a normal distribution is shown, but these distributions may be held as a histogram. In that case, the calculation between the distributions is the calculation between the corresponding bins, and the update of the distribution by the observed value is the update of the bin value. Further, each distribution can be held as a formalized distribution other than the normal distribution. In that case, an calculation method or an update method suitable for the distribution to be adopted may be used, such as performing an operation on the distribution by a sampling method.

(実施形態の効果)
(1)シミュレータ1は、複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて複数の行動目的をそれぞれ達成する行動を模擬する。
評価値算出手段50は、複数の目的地の中から複数の行動目的の各々を達成する目的地の組合せを複数選択し、目的地の組合せ毎に、組み合わせた目的地で複数の行動目的を達成期限までに各々達成する確率の合計を、複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、合計に応じて評価値を算出する。
(Effect of embodiment)
(1) The simulator 1 simulates an action in which an agent having a plurality of action objectives achieves a plurality of action objectives at a plurality of destinations in a predetermined space.
The evaluation value calculation means 50 selects a plurality of combinations of destinations that achieve each of a plurality of action objectives from a plurality of destinations, and achieves a plurality of action objectives at the combined destinations for each combination of destinations. The total probability of achieving each by the deadline is predicted based on the probability density distribution of each time required to achieve a plurality of action objectives, and the evaluation value is calculated according to the total.

行動模擬手段52は、目的地の複数の組合せの中から評価値に基づいて選択した目的地の組合せを順次訪れるように移動するエージェントの行動を模擬する。
評価値算出手段50は、複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を達成期限までに達成する確率を、残り時間の確率密度分布に基づいて予測する。
The behavior simulating means 52 simulates the behavior of an agent moving so as to sequentially visit a combination of destinations selected based on an evaluation value from a plurality of combinations of destinations.
The evaluation value calculation means 50 determines the probability density distribution of the time required for the action purpose to be achieved first among the plurality of action objectives and the probability density distribution of the remaining time according to the achievement deadline, and achieves the action purpose to be achieved later. The probability to be achieved by is predicted based on the probability density distribution of the remaining time.

これにより、行動目的の所要時間に関する個々のエージェントの経験や知識の偏りを反映させて、エージェント自身が、行動目的の所要時間を判断して臨機応変に行動目的や目的地を変更する群集行動を模擬することができる。 As a result, the agent himself judges the required time for the action purpose and flexibly changes the action purpose and the destination by reflecting the bias of the experience and knowledge of each agent regarding the time required for the action purpose. Can be simulated.

(2)評価値算出手段は、所定のサンプリング法によって残り時間の確率密度分布の標本をサンプリングし、当該標本と、後に達成する行動目的を達成するのに要する所要時間の確率密度分布とに基づいて、後に達成する行動目的を達成期限までに達成する確率を算出してよい。
これにより、複数の行動目的のうち後に達成する行動目的のための残り時間が確率密度分布となり、後に達成する行動目的を達成する確率の算出式を解析的に解くことができなくても、数値解析的に確率を求めることができる。
(2) The evaluation value calculation means samples a sample of the probability density distribution of the remaining time by a predetermined sampling method, and is based on the sample and the probability density distribution of the time required to achieve the action purpose to be achieved later. Then, the probability of achieving the action purpose to be achieved later by the achievement deadline may be calculated.
As a result, the remaining time for the action purpose to be achieved later among a plurality of action purposes becomes a probability density distribution, and even if the calculation formula of the probability of achieving the action purpose to be achieved later cannot be analytically solved, it is a numerical value. The probability can be calculated analytically.

(3)評価値算出手段は、残り時間のヒストグラムと、後に達成する行動目的を達成するのに要する所要時間の累積分布関数とに基づいて、ヒストグラムの各区間におけるヒストグラムの度数と累積分布関数の確率との積の合計を、後に達成する行動目的を達成期限までに達成する確率として算出してよい。
これにより、複数の行動目的のうち後に達成する行動目的のための残り時間が確率密度分布となり、後に達成する行動目的を達成する確率の算出式を解析的に解くことができなくても、数値解析的に確率を求めることができる。
(3) The evaluation value calculation means is based on the histogram of the remaining time and the cumulative distribution function of the time required to achieve the action purpose to be achieved later, and the frequency and the cumulative distribution function of the histogram in each section of the histogram. The sum of the products with the probabilities may be calculated as the probability of achieving the action objective to be achieved later by the achievement deadline.
As a result, the remaining time for the action purpose to be achieved later among a plurality of action purposes becomes a probability density distribution, and even if the calculation formula of the probability of achieving the action purpose to be achieved later cannot be analytically solved, it is a numerical value. The probability can be calculated analytically.

(4)評価値算出手段50は、複数の行動目的の各々を達成する確率を複数の行動目的の効用で重み付けした確率の合計である評価値を算出してよい。
これにより、エージェント毎に異なる行動目的の優先度に応じて目的地を選択する行動を模擬することができる。
(4) The evaluation value calculating means 50 may calculate an evaluation value which is the sum of the probabilities of weighting the probabilities of achieving each of the plurality of action objectives by the utility of the plurality of action objectives.
As a result, it is possible to simulate an action of selecting a destination according to the priority of an action purpose different for each agent.

1…シミュレータ、2…操作入力部、3…ファイル入出力部、4…記憶部5…制御部、6…表示部、20…条件設定手段、40…模擬条件記憶手段、41…空間情報記憶手段、42…エージェント情報記憶手段、43…統計情報記憶手段、50…評価値算出手段、51…目的地選択手段、52…行動模擬手段、53…統計情報更新手段、60…予測結果出力手段、70…時間算出手段、71…エージェント選択手段、72…視認範囲設定手段、73…移動方向取得手段、74…到達数予測手段、75…時間予測手段、100…地図情報、110…行動目的情報、111…空間情報、120、121、122、123…エージェント情報、130、131…統計情報 1 ... Simulator, 2 ... Operation input unit, 3 ... File input / output unit, 4 ... Storage unit 5 ... Control unit, 6 ... Display unit, 20 ... Condition setting means, 40 ... Simulated condition storage means, 41 ... Spatial information storage means , 42 ... Agent information storage means, 43 ... Statistical information storage means, 50 ... Evaluation value calculation means, 51 ... Destination selection means, 52 ... Behavior simulation means, 53 ... Statistical information update means, 60 ... Prediction result output means, 70 ... Time calculation means, 71 ... Agent selection means, 72 ... Visual range setting means, 73 ... Movement direction acquisition means, 74 ... Arrival number prediction means, 75 ... Time prediction means, 100 ... Map information, 110 ... Action purpose information, 111 ... Spatial information, 120, 121, 122, 123 ... Agent information, 130, 131 ... Statistical information

Claims (6)

複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて前記複数の行動目的を達成する行動を模擬するシミュレータであって、
前記複数の目的地の中から前記複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択手段と、
前記目的地の組合せ毎に、組み合わせた前記目的地で前記複数の行動目的を達成期限までに各々達成する確率の合計を、前記複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、前記合計に応じて評価値を算出する評価値算出手段と、
前記目的地の複数の組合せの中から前記評価値に基づいて選択した目的地の組合せを順次訪れるように移動する前記エージェントの行動を模擬する行動模擬手段と、を備え、
前記評価値算出手段は、前記複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と前記達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を前記達成期限までに達成する確率を、前記残り時間の確率密度分布に基づいて予測する、
ことを特徴とするシミュレータ。
A simulator that simulates an action in which an agent having a plurality of action objectives achieves the plurality of action objectives at a plurality of destinations in a predetermined space.
A combination selection means for selecting a plurality of combinations of destinations that achieve each of the plurality of action objectives from the plurality of destinations.
For each combination of the destinations, the sum of the probabilities of achieving the plurality of action objectives at the combined destinations by the achievement deadline is the probability density of each time required to achieve the plurality of action objectives. An evaluation value calculation means that makes a prediction based on the distribution and calculates an evaluation value according to the total.
It is provided with an action simulating means for simulating the behavior of the agent who moves so as to sequentially visit a combination of destinations selected based on the evaluation value from a plurality of combinations of the destinations.
The evaluation value calculating means determines the probability density distribution of the time required for the action purpose to be achieved first among the plurality of action purposes and the probability density distribution of the remaining time according to the achievement deadline, and determines the action purpose to be achieved later. The probability of achieving the achievement by the deadline is predicted based on the probability density distribution of the remaining time.
A simulator that features that.
前記評価値算出手段は、所定のサンプリング法によって前記残り時間の確率密度分布の標本を抽出し、当該標本と、前記後に達成する行動目的を達成するのに要する所要時間の確率密度分布とに基づいて、前記後に達成する行動目的を前記達成期限までに達成する確率を算出する、ことを特徴とする請求項1に記載のシミュレータ。 The evaluation value calculating means extracts a sample of the probability density distribution of the remaining time by a predetermined sampling method, and is based on the sample and the probability density distribution of the time required to achieve the action purpose to be achieved later. The simulator according to claim 1, wherein the probability of achieving the action purpose to be achieved later by the achievement deadline is calculated. 前記評価値算出手段は、前記残り時間のヒストグラムと、前記後に達成する行動目的を達成するのに要する所要時間の累積分布関数とに基づいて、前記ヒストグラムの各区間における前記ヒストグラムの度数と前記累積分布関数の確率との積の合計を、前記後に達成する行動目的を前記達成期限までに達成する確率として算出する、
ことを特徴とする請求項2に記載のシミュレータ。
The evaluation value calculation means is based on the histogram of the remaining time and the cumulative distribution function of the time required to achieve the action purpose to be achieved later, and the frequency of the histogram and the cumulative number in each section of the histogram. The sum of the products with the probabilities of the distribution function is calculated as the probability of achieving the action objective to be achieved after the above by the achievement deadline.
The simulator according to claim 2.
前記評価値算出手段は、前記複数の行動目的の各々を達成する確率を前記複数の行動目的の効用で重み付けした確率の合計である前記評価値を算出することを特徴とする請求項1〜3のいずれか一項に記載のシミュレータ。 Claims 1 to 3 characterized in that the evaluation value calculating means calculates the evaluation value which is the sum of the probabilities of weighting the probabilities of achieving each of the plurality of action objectives by the utility of the plurality of action objectives. The simulator described in any one of the above. 複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて前記複数の行動目的をそれぞれ達成する行動を模擬するシミュレーション方法であって、
前記複数の目的地の中から前記複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択処理と、
前記目的地の組合せ毎に、組み合わせた前記目的地で前記複数の行動目的を達成期限までに各々達成する確率の合計を、前記複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、前記合計に応じて評価値を算出する評価値算出処理と、
前記目的地の複数の組合せの中から前記評価値に基づいて選択した目的地の組合せを順次訪れるように移動する前記エージェントの行動を模擬する行動模擬処理と、
をコンピュータが実行し、
前記評価値算出処理において、前記複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と前記達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を前記達成期限までに達成する確率を、前記残り時間の確率密度分布に基づいて予測することを特徴とするシミュレーション方法。
It is a simulation method that simulates an action in which an agent having a plurality of action objectives achieves the plurality of action objectives at a plurality of destinations in a predetermined space.
A combination selection process for selecting a plurality of combinations of destinations that achieve each of the plurality of action objectives from the plurality of destinations.
For each combination of the destinations, the sum of the probabilities of achieving the plurality of action objectives at the combined destinations by the achievement deadline is the probability density of each time required to achieve the plurality of action objectives. Evaluation value calculation processing that predicts based on the distribution and calculates the evaluation value according to the total,
An action simulation process that simulates the behavior of the agent who moves so as to sequentially visit a combination of destinations selected based on the evaluation value from a plurality of combinations of the destinations.
The computer runs,
In the evaluation value calculation process, the probability density distribution of the time required for the action purpose to be achieved first among the plurality of action purposes and the probability density distribution of the remaining time according to the achievement deadline are determined, and the action purpose to be achieved later is determined. A simulation method characterized in that the probability of achievement by the achievement deadline is predicted based on the probability density distribution of the remaining time.
複数の行動目的を有するエージェントが、所定の空間において複数の目的地にて前記複数の行動目的をそれぞれ達成する行動を模擬するシミュレーションプログラムであって、
前記複数の目的地の中から前記複数の行動目的の各々を達成する目的地の組合せを複数選択する組合せ選択処理と、
前記目的地の組合せ毎に、組み合わせた前記目的地で前記複数の行動目的を達成期限までに各々達成する確率の合計を、前記複数の行動目的を達成するのに要する各々の所要時間の確率密度分布に基づいて予測し、前記合計に応じて評価値を算出する評価値算出処理と、
前記目的地の複数の組合せの中から前記評価値に基づいて選択した目的地の組合せを順次訪れるように移動する前記エージェントの行動を模擬する行動模擬処理と、
をコンピュータに実行させ、
前記評価値算出処理において、前記複数の行動目的のうち先に達成する行動目的の所要時間の確率密度分布と前記達成期限に応じて残り時間の確率密度分布を決定し、後に達成する行動目的を前記達成期限までに達成する確率を、前記残り時間の確率密度分布に基づいて予測することを特徴とするシミュレーションプログラム。
It is a simulation program that simulates an action in which an agent having a plurality of action objectives achieves the plurality of action objectives at a plurality of destinations in a predetermined space.
A combination selection process for selecting a plurality of combinations of destinations that achieve each of the plurality of action objectives from the plurality of destinations.
For each combination of the destinations, the sum of the probabilities of achieving the plurality of action objectives at the combined destinations by the achievement deadline is the probability density of each time required to achieve the plurality of action objectives. Evaluation value calculation processing that predicts based on the distribution and calculates the evaluation value according to the total,
An action simulation process that simulates the behavior of the agent who moves so as to sequentially visit a combination of destinations selected based on the evaluation value from a plurality of combinations of the destinations.
Let the computer run
In the evaluation value calculation process, the probability density distribution of the time required for the action purpose to be achieved first among the plurality of action purposes and the probability density distribution of the remaining time according to the achievement deadline are determined, and the action purpose to be achieved later is determined. A simulation program characterized in that the probability of achievement by the achievement deadline is predicted based on the probability density distribution of the remaining time.
JP2020038113A 2020-03-05 2020-03-05 Simulator, simulation method, and simulation program Active JP7457536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020038113A JP7457536B2 (en) 2020-03-05 2020-03-05 Simulator, simulation method, and simulation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020038113A JP7457536B2 (en) 2020-03-05 2020-03-05 Simulator, simulation method, and simulation program

Publications (2)

Publication Number Publication Date
JP2021140490A true JP2021140490A (en) 2021-09-16
JP7457536B2 JP7457536B2 (en) 2024-03-28

Family

ID=77668672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020038113A Active JP7457536B2 (en) 2020-03-05 2020-03-05 Simulator, simulation method, and simulation program

Country Status (1)

Country Link
JP (1) JP7457536B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7441080B2 (en) 2020-03-05 2024-02-29 セコム株式会社 Simulator, simulation method and simulation program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100901082B1 (en) 2007-05-22 2009-06-03 엔에이치엔(주) Method and System for Analyzing Competition Result
JP5949179B2 (en) 2012-06-04 2016-07-06 富士通株式会社 Prediction program, prediction device, and prediction method
JP6436241B2 (en) 2015-08-14 2018-12-12 富士通株式会社 Simulation program, simulation method, and simulation apparatus
JP2019125312A (en) 2018-01-19 2019-07-25 富士通株式会社 Simulation program, simulation method and simulation device
JP7060460B2 (en) 2018-06-19 2022-04-26 セコム株式会社 Simulator, simulation method and simulation program
JP7074580B2 (en) 2018-06-19 2022-05-24 セコム株式会社 Simulator, simulation method and simulation program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7441080B2 (en) 2020-03-05 2024-02-29 セコム株式会社 Simulator, simulation method and simulation program

Also Published As

Publication number Publication date
JP7457536B2 (en) 2024-03-28

Similar Documents

Publication Publication Date Title
JP6761789B2 (en) People flow forecasters, systems and programs
US7177851B2 (en) Method and apparatus for dynamic, real-time market segmentation
JP6236448B2 (en) Sensor arrangement determination device and sensor arrangement determination method
US11058957B2 (en) Method, device and system for game difficulty assessment
JP2006221329A (en) Behavior prediction device, behavior prediction method, and behavior prediction program
Haghani et al. How perception of peer behaviour influences escape decision making: The role of individual differences
WO2014143729A1 (en) Method and apparatus for interactive evolutionary optimization of concepts
Drakoulis et al. A gamified flexible transportation service for on-demand public transport
JP7457536B2 (en) Simulator, simulation method, and simulation program
JP2021140491A (en) Simulator, simulation method and simulation program
JP7492840B2 (en) Simulator, simulation method, and simulation program
AU2010245350A1 (en) System for generating a housing price index
CN110276387A (en) A kind of generation method and device of model
Agogino et al. Learning indirect actions in complex domains: action suggestions for air traffic control
US11120386B2 (en) Computer-readable recording medium, simulation method, and simulation apparatus
Chow A crowdsourcing–geocomputational framework of mobile crowd simulation and estimation
JP7074580B2 (en) Simulator, simulation method and simulation program
EP4104115A1 (en) Eliciting preferences for passenger traffic group control
JP2000322402A (en) Stream of people analyzing method
JP7060460B2 (en) Simulator, simulation method and simulation program
CN106951581B (en) Commercial complex simulator
JP7500504B2 (en) Information processing device, information processing method, and program
JP2019185074A (en) Simulator, simulation method and action determination device
Levinson An evolutionary transportation planning model: Structure and application
WO2021235296A1 (en) Mobile body movement prediction system and mobile body movement prediction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240315

R150 Certificate of patent or registration of utility model

Ref document number: 7457536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150