JP2019212239A - シミュレーションプログラム、シミュレーション方法およびシミュレーション装置 - Google Patents

シミュレーションプログラム、シミュレーション方法およびシミュレーション装置 Download PDF

Info

Publication number
JP2019212239A
JP2019212239A JP2018110652A JP2018110652A JP2019212239A JP 2019212239 A JP2019212239 A JP 2019212239A JP 2018110652 A JP2018110652 A JP 2018110652A JP 2018110652 A JP2018110652 A JP 2018110652A JP 2019212239 A JP2019212239 A JP 2019212239A
Authority
JP
Japan
Prior art keywords
value
expected
simulation
agent
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018110652A
Other languages
English (en)
Other versions
JP7031503B2 (ja
Inventor
広明 山田
Hiroaki Yamada
広明 山田
耕太郎 大堀
Kotaro Ohori
耕太郎 大堀
昇平 山根
Shohei Yamane
昇平 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018110652A priority Critical patent/JP7031503B2/ja
Priority to US16/434,278 priority patent/US20190378063A1/en
Publication of JP2019212239A publication Critical patent/JP2019212239A/ja
Application granted granted Critical
Publication of JP7031503B2 publication Critical patent/JP7031503B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/067Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Abstract

【課題】利用者の経験に応じた探索行動を再現することができるシミュレーションプログラム、シミュレーション方法およびシミュレーション装置を提供する。【解決手段】シミュレーションプログラムは、エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーションをコンピュータに実行させる。また、シミュレーションプログラムは、エージェントに設定された経験スコアと、複数の選択候補それぞれの期待値とに基づき、エージェントに対する複数の選択候補それぞれの偏向期待値を算出する処理をコンピュータに実行させる。シミュレーションプログラムは、エージェントの選択候補の確認ごとに、未確認の選択候補の偏向期待値、および、既確認の選択候補の評価値に基づき、確認行動の継続判断を行う処理をコンピュータに実行させる。【選択図】図1

Description

本発明は、シミュレーションプログラム、シミュレーション方法およびシミュレーション装置に関する。
百貨店やショッピングモール等の施設におけるテナント(以下、小施設ともいう。)のレイアウト設計を行う場合に、人間の情報探索行動(以下、探索行動ともいう。)のシミュレーションが活用されている。このシミュレーションでは、百貨店やショッピングモール等の施設に対応する仮想空間に、各テナントと、利用者を模した利用者エージェント(以下、エージェントともいう。)とを配置する。エージェントが各テナントをどの順番で訪れるかをシミュレーションすることで、百貨店やショッピングモールにおける利用者の流れを模擬している。
一方、現実世界においては、ある施設に複数のテナントが入居する場合、当該施設に初めて訪れた人は目に付いた数店舗で購買判断を行い、リピータは当該施設を十分探索してから購買判断することが知られている。すなわち、施設の利用に対する知識量(経験値)によって購買前の情報探索行動が変化することが知られている。
特表2017−502401号公報 特開2016−004353号公報 特開2006−221329号公報 特開2016−164750号公報 特開2004−258762号公報 特開2008−123487号公報
Bettman,J.R., & Park,C.W.," Effects of Prior Knowledge and Experience and Phase of the Choice Process on Consumer Decision Processes: A Protocol Analysis.",Journal of Consumer Research,(1980),7-234-248. Johnson,E.J., & Russo,J.E.,"Product Familiarity and Learning New Information.",Journal of Consumer Research,(1984),11-542-550.
しかしながら、上述のシミュレーションにおける利用者の流れの模擬では、利用者が施設に初めて訪れた人であるか、リピータであるかが考慮されていない。このため、利用者の当該施設の利用経験に応じた探索行動を再現することが難しい。
一つの側面では、利用者の経験に応じた探索行動を再現することができるシミュレーションプログラム、シミュレーション方法およびシミュレーション装置を提供することにある。
一つの態様では、シミュレーションプログラムは、エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーションをコンピュータに実行させる。また、シミュレーションプログラムは、前記エージェントに設定された経験スコアと、前記複数の選択候補それぞれの期待値とに基づき、前記エージェントに対する前記複数の選択候補それぞれの偏向期待値を算出する処理をコンピュータに実行させる。シミュレーションプログラムは、前記エージェントの選択候補の確認ごとに、未確認の選択候補の偏向期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行う処理をコンピュータに実行させる。
利用者の経験に応じた探索行動を再現することができる。
図1は、実施例1におけるシミュレーション装置の機能構成の一例を示すブロック図である。 図2は、期待値と実評価値を用いた探索行動のシミュレーションの一例を示す図である。 図3は、シミュレーションにおける探索行動の分類の一例を示す図である。 図4は、期待値の分散を操作して探索行動を表現した場合の一例を示す図である。 図5は、未探索施設の評価の違いによる探索行動の違いの一例を示す図である。 図6は、期待値平均と偏向期待値の一例を示す図である。 図7は、選択候補情報の一例を示す図である。 図8は、経験情報の一例を示す図である。 図9は、レイアウト情報の一例を示す図である。 図10は、偏向期待値と実評価値を用いた探索行動の一例を示す図である。 図11は、偏向期待値をエキスパートとした場合の探索行動の一例を示す図である。 図12は、偏向期待値をノービスとした場合の探索行動の一例を示す図である。 図13は、偏向期待値をミドルとした場合の探索行動の一例を示す図である。 図14は、実施例1の判定処理の一例を示すフローチャートである。 図15は、実施例2におけるシミュレーション装置の機能構成の一例を示すブロック図である。 図16は、繰り返し利用により偏向期待値を変化させる場合の一例を示す図である。 図17は、繰り返し利用により偏向期待値を変化させる場合の他の一例を示す図である。 図18は、実施例2の判定処理の一例を示すフローチャートである。 図19は、実施例3におけるシミュレーション装置の機能構成の一例を示すブロック図である。 図20は、実施例3の判定処理の一例を示すフローチャートである。 図21は、実施例4におけるシミュレーション装置の機能構成の一例を示すブロック図である。 図22は、満足度と満足度格差の算出の一例を示す図である。 図23は、レイアウト設計の評価の一例を示す図である。 図24は、利用者シナリオの比較の一例を示す図である。 図25は、各実施例にかかるシミュレーション装置のハードウェア構成の一例を示すブロック図である。
以下、図面に基づいて、本願の開示するシミュレーションプログラム、シミュレーション方法およびシミュレーション装置の実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。
図1は、実施例1におけるシミュレーション装置の機能構成の一例を示すブロック図である。図1に示すシミュレーション装置1は、例えばPC(パーソナルコンピュータ)等の情報処理装置である。シミュレーション装置1は、エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行う。また、シミュレーション装置1は、エージェントに設定された経験スコアと、複数の選択候補それぞれの期待値とに基づき、エージェントに対する複数の選択候補それぞれの偏向期待値を算出する。シミュレーション装置1は、エージェントの選択候補の確認ごとに、未確認の選択候補の偏向期待値、および、既確認の選択候補の評価値に基づき、確認行動の継続判断を行う。これにより、シミュレーション装置1は、利用者の経験に応じた探索行動を再現することができる。
まず、図2から図6を用いて、期待値と実評価値を用いた探索行動、および、偏向期待値について説明する。図2は、期待値と実評価値を用いた探索行動のシミュレーションの一例を示す図である。図2に示すように、探索行動のシミュレーションでは、ある施設における各小施設の期待値を入力する(ステップS1)。期待値は、小施設における商品への予想満足度であり、平均と分散を持つ値である。次に、シミュレーションでは、各小施設への選好や時間制約から訪問先を決定する。また、決定した訪問先を訪れて実評価値を算出する(ステップS2)。次に、シミュレーションでは、算出した実評価値が全ての未探索小施設の期待値および他の実評価値より高ければ(ステップS3:上図)、探索を終了し、当該小施設で商品を購入する(ステップS4)。算出した実評価値が全ての未探索小施設の期待値および他の実評価値より高くなければ(ステップS3:下図)、ステップS2に戻り、次の訪問先を決定する。なお、ステップS3において、全ての候補小施設を探索する場合には、全ての実評価値を比較し、最も値が高い小施設に戻って商品を購入するようにしてもよい(ステップS4)。
図2の探索行動のシミュレーションでは、施設の利用経験が多く、効率的に探索をして購入判断を行うエキスパートを表すことができる。しかしながら、図2の例では、後述するノービスやミドルは表現できず、利用者の施設の利用経験に応じた探索行動を再現することは難しい。
図3は、シミュレーションにおける探索行動の分類の一例を示す図である。この分類は、現実世界における人間の分類に対応させて、仮想空間におけるエージェントを分類したものである。図3に示すように、利用者の施設の利用経験に応じた探索行動は、ノービス、ミドルおよびエキスパートの3つに分類することができる。図3では、簡単のために、期待値と実評価値とを同じ値とし、期待値を用いて説明する。
ノービスは、施設の利用経験が少なく、手近な数施設の探索で購買判断を行う。換言すれば、ノービスは、施設の利用に対する経験値が小さい人間に対応するエージェントである。図3の例では、小施設の訪問順に、期待値が「7」、「10」と続くと、期待値「10」の施設で購入を判断してしまい、その後の小施設は訪れない。つまり、ノービスは、情報探索軌跡が少ないといえる。
ミドルは、施設の利用経験が中程度であり、広く探索をして購入判断を行う。換言すれば、ミドルは、施設の利用に対する経験値が中程度の人間に対応するエージェントである。図3の例では、小施設の訪問順に、期待値が「7」、「10」、「16」、「5」、「15」と広く探索を行い、期待値「16」の施設に戻って購入を判断する。つまり、ミドルは、情報探索軌跡が多いといえる。
エキスパートは、施設の利用経験が多く、効率的に探索をして購入判断を行う。換言すれば、エキスパートは、施設の利用に対する経験値が大きい人間に対応するエージェントである。図3の例では、小施設の訪問順に、期待値が「7」、「10」、「16」と続くと、期待値「16」の施設で購入を判断し、その後の小施設は訪れない。つまり、エキスパートは、情報探索軌跡が少ないといえる。
図2の探索行動のシミュレーションにおいて、ノービス、ミドルおよびエキスパートの利用者を表すエージェントを作り分けようとする場合、例えば、期待値の分散を操作すること、および、エージェントタイプに応じた処理を行うことが考えられる。なお、エージェントタイプに応じた処理とは、ノービス、ミドルおよびエキスパートについて、個別モデリングを行うことである。
図4は、期待値の分散を操作して探索行動を表現した場合の一例を示す図である。図4は、期待値の分散を操作することで、ノービスやミドルの不正確な購入判断を表現しようとした場合である。この場合、エキスパートは、分散「0」で表現でき、ノービスおよびミドルは、どちらも分散「100」で表現できる。つまり、図4の例では、情報探索軌跡の多さが異なる利用者を生成することができる。ところが、ノービスおよびミドルは、どちらも分散「100」であるので、これらを作り分けることができない。
一方、エージェントタイプに応じた処理を行う場合、シミュレーション中にエージェントタイプを判定する箇所が増加する。このため、エージェント数やシミュレーション空間や時間を増加させた場合、求められる計算リソースが急増することになる。
そこで、期待値と実評価値との比較に基づいた探索行動という判定の枠組みの中で、探索行動を変化させることを考える。図5は、未探索施設の評価の違いによる探索行動の違いの一例を示す図である。図5に示すように、ノービスは、未探索の小施設を過小評価しているため、訪問順の先頭側の小施設で購入を判断し探索を終了していると捉えることができる。また、ミドルは、未探索の小施設を過大評価しているため、途中の小施設での購入を見送って探索を継続し、全ての小施設を訪問してから、最も実評価値が高い小施設に戻ると捉えることができる。すなわち、ノービスとミドルでは、未探索施設に対して想定している評価値が異なっているといえる。
従って、期待値に対して、ノービスとミドルで想定している評価値が異なっている点を反映するようにすればよい。つまり、期待値と利用者の経験とに基づいて算出する偏向期待値(Biased Expected Value)を導入することで、ノービス、ミドルおよびエキスパートの購入判断の違いを表現する。
図6は、期待値平均と偏向期待値の一例を示す図である。図6に示すように、図2の探索行動のシミュレーションでは、未探索施設の期待値71は、範囲72の期待値であることを暗に仮定している。これに対し、未探索施設の期待値を、過去の利用経験により歪められた期待値であると考えた偏向期待値は、ノービスの場合、範囲72の期待値よりも低い偏向期待値73とする。ミドルの場合、範囲72の期待値よりも高い偏向期待値74とする。エキスパートの場合、偏向期待値75を範囲72の期待値と等しいとする。本実施例では、このように、偏向期待値を算出することで、ノービス、ミドルおよびエキスパートを表現する。すなわち、通常のシミュレーションでは未探索施設の期待値を用いるのに対し、本実施例では期待値を操作(修正)した偏向期待値を期待値の代わりに用いることにより、ノービス、ミドルおよびエキスパートを表現する。
続いて、シミュレーション装置1の構成について説明する。図1に示すように、シミュレーション装置1は、入力部10、入力情報格納部20、シミュレーション管理部30、シミュレーション実行部40、シミュレーション結果出力部50およびエージェント情報格納部60を有する。
入力部10は、例えばマウスやキーボードなどの入力装置より、選択候補情報11、経験情報12およびレイアウト情報13等のシミュレーションにかかる入力情報を受け付ける。
入力情報格納部20は、入力部10より入力された選択候補情報11、経験情報12およびレイアウト情報13等の入力情報をRAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶装置に格納する。
選択候補情報11は、施設における小施設に対応する選択候補と、各小施設の期待値とを対応付けた情報である。図7は、選択候補情報の一例を示す図である。入力部10は、図7に示すような、選択候補集合と、各選択候補に対する期待値とを対応付けた情報の入力を受け付ける。選択候補集合は、小施設をF1、F2といったID(Identifier)を用いて表している。期待値は、商品への予想満足度を表し、平均と分散を持つ。なお、図7の例では、簡単のために分散0の場合における期待値を表している。
経験情報12は、施設における小施設に対応する選択候補と、各小施設に対するノービス、ミドルおよびエキスパートの経験スコアとを対応付けた情報である。経験スコアは、施設の利用に対する経験値を数値化した指標であり、エージェントごとに設定される。図8は、経験情報の一例を示す図である。入力部10は、図8に示すような、選択候補集合と、各選択候補に対する、ノービス、ミドルおよびエキスパートの経験スコアとを対応付けた情報の入力を受け付ける。ここで、経験スコアNは、ノービスの経験スコアを示す。経験スコアMは、ミドルの経験スコアを示す。経験スコアEは、エキスパートの経験スコアを示す。
レイアウト情報13は、施設における小施設のレイアウト、つまりエージェントの訪問順を示す情報である。図9は、レイアウト情報の一例を示す図である。入力部10は、図9に示すように、例えば、レイアウトL1として、小施設F1、F2、F3、F4、F5といった順番の情報の入力を受け付ける。つまり、レイアウトL1では、エージェントが小施設F1から順に、小施設F5に向かって訪問することを表す。なお、図9のレイアウト情報13は、レイアウトL1〜L4の4つのレイアウトを受け付けた場合のレイアウト情報である。
シミュレーション管理部30は、シミュレーション実行部40が実行する、施設の利用者の探索行動をシミュレーションする処理を管理する。すなわち、シミュレーション管理部30、および、シミュレーション実行部40は、エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーションを実行する。
シミュレーション管理部30は、シミュレーション実行部40が行うシミュレーションの進行に応じて、入力情報格納部20に格納された入力情報と、エージェント情報格納部60に格納されたシミュレーションの途中経過(各店舗に対する偏向期待値および実評価値)とを読み出す。また、シミュレーション管理部30は、読み出した内容をシミュレーション実行部40へ出力する。さらに、シミュレーション管理部30は、シミュレーション実行部40が利用者の行動を逐次シミュレーションした結果を、シミュレーション結果出力部50へ出力する。
また、シミュレーション管理部30は、シミュレーションの進行に応じて、選択候補集合から未確認の選択候補(小施設)をひとつ抽出し、シミュレーション実行部40に対して出力する。シミュレーション管理部30は、例えば、レイアウト情報13を参照し、施設のレイアウト、利用者の各小施設への選好や時間制約から訪問先を決定する。シミュレーション管理部30は、決定した訪問先である未確認の選択候補を抽出し、シミュレーション実行部40に対して出力する。
シミュレーション管理部30は、選択部43によって、決定した選択候補がエージェント情報格納部60に格納されると、エージェントを決定した選択候補に移動させ、当該選択候補の小施設での購入を決定する。シミュレーション管理部30は、エージェントの移動および購入結果を、シミュレーション結果出力部50に出力する。
シミュレーション実行部40は、施設の利用者が、実際に各小施設を訪問した際の評価値を逐次シミュレーションする。さらに、シミュレーション実行部40は、偏向期待値と実評価値とに基づいて、利用者が次にとるべき行動を判定する。具体的には、シミュレーション実行部40は、未確認の小施設を確認するか、または、既確認の小施設の中からひとつの小施設を選択するかを判定する。シミュレーション実行部40は、シミュレーションした結果をシミュレーション管理部30へ出力する。
シミュレーション実行部40は、算出部41と、判定部42と、選択部43とを有する。
算出部41は、利用者(エージェント)に対する小施設それぞれの偏向期待値および実評価値を算出する。算出部41は、選択候補情報11および経験情報12を参照し、経験情報12に基づいて、各選択候補に対する偏向期待値を算出する。算出部41は、経験スコアが小さい場合、偏向期待値<期待値平均となるように偏向期待値を算出する。算出部41は、例えば、経験スコアが0の小施設については、偏向期待値を0とする。
算出部41は、経験スコアが中程度の場合、偏向期待値>期待値平均となるように偏向期待値を算出する。算出部41は、例えば、経験スコアが0より大きくかつ5未満の小施設については、期待値に対して+5とした値を偏向期待値とする。算出部41は、経験スコアが大きい場合、偏向期待値=期待値平均となるように偏向期待値を算出する。算出部41は、例えば、経験スコアが5以上の小施設については、選択候補情報11の期待値をそのまま偏向期待値とする。なお、偏向期待値は、期待値が分散を持つ場合、対応する分散の値を持つ。算出部41は、シミュレーション管理部30を介して、算出した偏向期待値をシミュレーション結果出力部50に出力する。
なお、偏向期待値は、時間帯により、利用者の情報探索行動が変化する場合を再現するようにしてもよい。例えば、昼間は、全エージェントの偏向期待値を大きく、つまり情報探索軌跡を長くし、夕食時間帯を経過すると、全エージェントの偏向期待値を小さく、つまり情報探索軌跡を短くするようにしてもよい。これにより、時間帯による情報探索行動の変化を再現できる。
さらに、偏向期待値は、利用経験以外の属性により、利用者の情報探索行動が変化する場合を再現するようにしてもよい。例えば、共に行動する人々(グループ)の人数が少ないほど、偏向期待値を大きく、つまり情報探索軌跡を長くし、グループの人数が多いほど偏向期待値を小さく、つまり情報探索軌跡を短くするようにしてもよい。同様に、例えば、一人客は、偏向期待値を大きく、つまり情報探索軌跡を長くし、家族連れ客は、偏向期待値を小さく、つまり情報探索軌跡を短くするようにしてもよい。これにより、グループ構成による情報探索行動の違いを再現できる。
また、算出部41は、シミュレーション管理部30から入力された選択候補に対して、実評価値を算出する。算出部41は、例えば、期待値が正規分布であるとし、期待値の平均および分散に基づいて、実評価値を確率的に算出する。算出部41は、算出した実評価値をシミュレーション結果出力部50に出力する。
言い換えると、算出部41は、エージェントに設定された経験スコアと、複数の選択候補それぞれの期待値とに基づき、エージェントに対する複数の選択候補それぞれの偏向期待値を算出する。また、複数の選択候補それぞれの偏向期待値は、エージェントに設定されたグループ構成に応じて算出される。また、複数の選択候補それぞれの偏向期待値は、時間帯に基づき設定される。また、算出部41は、エージェントに設定された経験スコアが相対的に小さい場合、複数の選択候補それぞれについて期待値よりも小さい値を偏向期待値として算出する。また、算出部41は、エージェントに設定された経験スコアが相対的に中程度である場合、複数の選択候補それぞれについて期待値より大きい値を偏向期待値として算出する。また、算出部41は、エージェントに設定された経験スコアが相対的に大きい場合、複数の選択候補それぞれについて期待値を偏向期待値として算出する。
判定部42は、全ての選択候補(小施設)を確認したか否かを判定する。判定部42は、全ての選択候補を確認していないと判定した場合には、実評価値および偏向期待値に基づいて、確認行動の継続判断を行う。つまり、判定部42は、実評価値および偏向期待値に基づいて、小施設の探索を終了するか否かを判定する。判定部42は、当該判定において、抽出された選択候補の実評価値が全ての偏向期待値、および、他の全ての実評価値より高ければ、小施設の探索を終了すると判定する。判定部42は、抽出された選択候補の実評価値以上の偏向期待値があれば、小施設の探索を継続する。判定部42は、小施設の探索を終了しないと判定した場合には、シミュレーション管理部30に対して、次の未確認の選択候補の抽出を指示する。
判定部42は、小施設の探索を終了すると判定した場合には、選択指示を選択部43に出力する。また、判定部42は、全ての選択候補を確認したと判定した場合にも、選択指示を選択部43に出力する。
言い換えると、判定部42は、エージェントの選択候補の確認ごとに、未確認の選択候補の偏向期待値、および、既確認の選択候補の評価値に基づき、確認行動の継続判断を行う。また、判定部42は、既確認の選択候補の評価値の最大値が未確認の選択候補の期待値の最大値よりも大きい場合に、確認行動を終了するものと判断する。また、判定部42は、既確認の選択候補の評価値の最大値が未確認の選択候補の期待値の最大値よりも小さい場合に、確認行動を継続するものと判断する。
選択部43は、判定部42から選択指示が入力されると、エージェント情報格納部60を参照し、実評価値に基づいて、選択候補を決定する。選択部43は、決定した選択候補をシミュレーション結果出力部50に出力する。
シミュレーション結果出力部50は、偏向期待値、実評価値、決定した選択候補、ならびに、エージェントの移動および購入結果を、エージェント情報格納部60に格納する。また、シミュレーション結果出力部50は、偏向期待値、実評価値、決定した選択候補、ならびに、エージェントの移動および購入結果を、モニタ等の表示装置やプリンタ等に表示する。なお、シミュレーション結果出力部50は、逐次シミュレーションした結果を逐次出力してもよい。また、シミュレーション結果出力部50は、所定時間にわたってシミュレーションした結果の集計結果を出力してもよい。
エージェント情報格納部60は、シミュレーションによって得た偏向期待値、実評価値、決定した選択候補、ならびに、エージェントの移動および購入結果等をRAM、HDD等の記憶装置に格納する。
ここで、図10から図13を用いて偏向期待値を用いた探索行動について説明する。図10は、偏向期待値と実評価値を用いた探索行動の一例を示す図である。図10に示すように、シミュレーション装置1は、選択候補情報11および経験情報12に基づいて、各小施設に置かれた商品の偏向期待値を設定する(ステップS11)。
シミュレーション装置1は、レイアウト情報13を参照し、施設のレイアウト、利用者の各小施設への選好や時間制約から訪問先を決定する。シミュレーション管理部30は、決定した訪問先である未確認の選択候補を抽出し、実評価値を算出する(ステップS12)。
シミュレーション装置1は、抽出された選択候補の実評価値以上の偏向期待値があれば、ステップS12に戻り、小施設の探索を継続する。一方、シミュレーション装置1は、抽出された選択候補の実評価値が全ての偏向期待値、および、他の全ての実評価値より高ければ、小施設の探索を終了すると判定する(ステップS13)。
シミュレーション装置1は、実評価値に基づいて、選択候補を決定する。シミュレーション装置1は、エージェントを決定した選択候補に移動させ、当該選択候補の小施設での購入を決定する(ステップS14)。これにより、シミュレーション装置1は、偏向期待値に基づいて決定した小施設で利用者が商品を購入する動きをシミュレーションできる。
図11は、偏向期待値をエキスパートとした場合の探索行動の一例を示す図である。図11では、複数の小施設を有する施設80に対して、エージェントであるエキスパート81が偏向期待値に基づいて行動する場合を説明する。エキスパート81の偏向期待値は、期待値平均であるとする。なお、ここでは、期待値が定数(分散0)の場合について説明する。
図11では、施設80の小施設80a〜80eの順に、期待値が「7」、「10」、「17」、「5」、「15」である。また、同様に、エキスパート81の偏向期待値が「7」、「10」、「17」、「5」、「15」である。エキスパート81は、小施設80a〜80eの順に訪問する場合、小施設80a,80bでは、探索を継続すると判定し、小施設80cで購入を決定する。すなわち、エキスパート81は、効率的に探索をして購入判断を行い、情報探索軌跡が少ないことを再現することができる。
図12は、偏向期待値をノービスとした場合の探索行動の一例を示す図である。図12では、複数の小施設を有する施設80に対して、エージェントであるノービス82が偏向期待値に基づいて行動する場合を説明する。ノービス82の偏向期待値は、小施設の利用経験がない場合は「0」とする。なお、ここでは、期待値が定数(分散0)の場合について説明する。
図12では、施設80の小施設80a〜80eの順に、期待値が「7」、「10」、「17」、「5」、「15」である。また、小施設80a〜80eの順に、ノービス82の偏向期待値が「7」、「10」、「0」、「0」、「0」である。ノービス82は、小施設80a〜80eの順に訪問する場合、小施設80aでは、探索を継続すると判定し、小施設80bで購入を決定する。すなわち、ノービス82は、手近な数施設の探索で購入判断を行い、情報探索軌跡が少ないことを再現することができる。
図13は、偏向期待値をミドルとした場合の探索行動の一例を示す図である。図13では、複数の小施設を有する施設80に対して、エージェントであるミドル83が偏向期待値に基づいて行動する場合を説明する。ミドル83の偏向期待値は、期待値平均より大きいものとする。なお、ここでは、期待値が定数(分散0)の場合について説明する。
図13では、施設80の小施設80a〜80eの順に、期待値が「7」、「10」、「17」、「5」、「15」である。また、小施設80a〜80eの順に、ミドル83の偏向期待値が「12」、「15」、「22」、「10」、「20」である。ミドル83は、小施設80a〜80eの順に訪問する場合、小施設80a〜80dでは、探索を継続すると判定し、小施設80eまで探索した後で小施設80cに戻り、小施設80cで購入を決定する。すなわち、ミドル83は、広く探索をして購入判断を行い、情報探索軌跡が多いことを再現することができる。
次に、実施例1のシミュレーション装置1の動作について説明する。図14は、実施例1の判定処理の一例を示すフローチャートである。
シミュレーション装置1の入力部10は、処理が開始されると、選択候補情報11、つまり選択候補集合の入力と、各選択候補に対する期待値の入力とを受け付ける(ステップS21,S22)。また、入力部10は、経験情報12およびレイアウト情報13の入力を受け付け、選択候補情報11とともに、入力情報格納部20へ格納する。
算出部41は、選択候補情報11および経験情報12を参照し、経験情報12に基づいて、ノービス、ミドルおよびエキスパートについて、各選択候補に対する偏向期待値を算出する(ステップS23)。算出部41は、シミュレーション管理部30を介して、算出した偏向期待値をシミュレーション結果出力部50に出力する。
シミュレーション管理部30は、シミュレーションの進行に応じて、選択候補集合から未確認の選択候補をひとつ抽出し、シミュレーション実行部40に対して出力する(ステップS24)。
算出部41は、シミュレーション管理部30から入力された選択候補、つまり抽出した選択候補に対してエージェントを移動させ、実評価値を算出する(ステップS25)。算出部41は、算出した実評価値をシミュレーション結果出力部50に出力する。
判定部42は、全ての選択候補を確認したか否かを判定する(ステップS26)。判定部42は、全ての選択候補を確認していないと判定した場合には(ステップS26:否定)、実評価値および偏向期待値に基づいて、小施設の探索を終了するか否かを判定する(ステップS27)。判定部42は、小施設の探索を終了しないと判定した場合には(ステップS27:否定)、シミュレーション管理部30に対して、次の未確認の選択候補の抽出を指示し、ステップS24に戻る。
判定部42は、全ての選択候補を確認したと判定した場合(ステップS26肯定)、または、小施設の探索を終了したと判定した場合(ステップS27:肯定)には、選択指示を選択部43に出力する。
選択部43は、判定部42から選択指示が入力されると、エージェント情報格納部60を参照し、実評価値に基づいて、選択候補を決定する(ステップS28)。選択部43は、決定した選択候補をシミュレーション結果出力部50に出力する。
シミュレーション管理部30は、エージェントを決定した選択候補に移動させる(ステップS29)。シミュレーション管理部30は、当該選択候補の小施設での購入を決定し、エージェントの移動および購入結果を、シミュレーション結果出力部50に出力する(ステップS30)。これにより、シミュレーション装置1は、利用者の経験に応じた探索行動を再現することができる。また、シミュレーション装置1は、図2に示す探索行動のシミュレーションと同等の計算リソースで、利用者の経験に応じた情報探索行動を再現することができる。
このように、シミュレーション装置1は、エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行う。また、シミュレーション装置1は、エージェントに設定された経験スコアと、複数の選択候補それぞれの期待値とに基づき、エージェントに対する複数の選択候補それぞれの偏向期待値を算出する。また、シミュレーション装置1は、エージェントの選択候補の確認ごとに、未確認の選択候補の偏向期待値、および、既確認の選択候補の評価値に基づき、確認行動の継続判断を行う。その結果、シミュレーション装置1は、利用者の経験に応じた探索行動を再現することができる。
また、シミュレーション装置1では、複数の選択候補それぞれの偏向期待値は、エージェントに設定されたグループ構成に応じて算出される。その結果、シミュレーション装置1は、グループ構成による情報探索行動の違いを再現できる。
また、シミュレーション装置1では、複数の選択候補それぞれの偏向期待値は、時間帯に基づき設定される。その結果、シミュレーション装置1は、時間帯による情報探索行動の変化を再現できる。
また、シミュレーション装置1では、エージェントに設定された経験スコアが相対的に小さい場合、複数の選択候補それぞれについて期待値よりも小さい値が偏向期待値として算出される。また、シミュレーション装置1では、エージェントに設定された経験スコアが相対的に中程度である場合、複数の選択候補それぞれについて期待値より大きい値が偏向期待値として算出される。また、シミュレーション装置1は、エージェントに設定された経験スコアが相対的に大きい場合、複数の選択候補それぞれについて期待値を偏向期待値として算出する。その結果、シミュレーション装置1は、利用者の経験に応じた探索行動を再現することができる。
また、シミュレーション装置1は、既確認の選択候補の評価値の最大値が未確認の選択候補の期待値の最大値よりも大きい場合に、確認行動を終了するものと判断する。また、シミュレーション装置1は、既確認の選択候補の評価値の最大値が未確認の選択候補の期待値の最大値よりも小さい場合に、確認行動を継続するものと判断する。その結果、シミュレーション装置1は、利用者の経験に応じた探索行動を再現することができる。
上記実施例1では、施設に対する1回の訪問経験のシミュレーションについて説明したが、複数回の訪問経験についてシミュレーションしてもよく、この場合の実施の形態につき、実施例2として説明する。なお、実施例1のシミュレーション装置1と同一の構成には同一符号を付すことで、その重複する構成および動作の説明については省略する。
図15は、実施例2におけるシミュレーション装置の機能構成の一例を示すブロック図である。図15に示すシミュレーション装置1aは、実施例1のシミュレーション装置1と比較して、シミュレーション管理部30およびシミュレーション実行部40に代えてシミュレーション管理部30aおよびシミュレーション実行部40aを有する。また、シミュレーション実行部40aは、実施例1のシミュレーション実行部40と比較して、算出部41に代えて、算出部41aを有する。
シミュレーション管理部30aは、実施例1のシミュレーション管理部30に対し、さらに、シミュレーションの結果に基づいて、入力情報格納部20に格納された経験情報12を更新する。シミュレーション管理部30aは、エージェントの移動および購入結果を、シミュレーション結果出力部50に出力した後に、施設の利用回数が1回増加したことを経験情報12の各経験スコアに反映する。シミュレーション管理部30aは、例えば、小施設80a〜80eを有する施設80において、小施設80a〜80eのうち、いずれかにおける購入が確定すると、小施設80a〜80eのそれぞれの経験スコアを「1」増加させる。なお、経験スコアの更新は、利用者に対応する経験スコアを設け、利用者の経験スコアを更新するようにしてもよい。シミュレーション管理部30aは、経験情報12の更新が終了すると、算出部41aに対して、偏向期待値の算出を指示する。
算出部41aは、算出部41に対し、さらに、更新された経験スコアに基づいて、偏向期待値を更新することで、施設を繰り返し利用することを再現する。算出部41aは、選択候補情報11および経験情報12を参照し、選択候補情報11の期待値および経験情報12に基づいて、ノービス、ミドルおよびエキスパートのそれぞれについて、各選択候補に対する偏向期待値を算出する。このとき、算出部41aは、2回目以降の偏向期待値の算出では、更新された経験スコアを含む経験情報12を参照することになる。なお、偏向期待値の算出は、実施例1の偏向期待値の算出と同様であるので、その説明を省略する。
ここで、図16および図17を用いて、偏向期待値を変化させる場合について説明する。図16は、繰り返し利用により偏向期待値を変化させる場合の一例を示す図である。図16では、小施設80a〜80eそれぞれの経験スコアを利用回数に応じて更新する場合を表す。まず、利用者は、施設80の利用経験が少ないノービス85aであるとする。
図16では、小施設80a〜80eの順に、期待値が「7」、「10」、「17」、「5」、「15」である。また、小施設80a〜80eの順に、ノービス85aの経験スコアが「5」、「5」、「0」、「0」、「0」である。さらに、小施設80a〜80eの順に、ノービス85aの偏向期待値が「7」、「10」、「0」、「0」、「0」である。すなわち、ノービス85aは、未利用施設の偏向期待値はゼロである。この場合、ノービス85aは、実施例1のノービス82と同様に、小施設80bで購入を決定する。つまり、ノービス85aは、情報探索軌跡が少ないことを再現することができる。
その後、ノービス85aは、利用経験、施設内のサイネージや店頭広告の情報等に基づいて、過大評価された偏向期待値を形成し、ミドル85bに変化する。ミドル85bは、施設80の利用回数が中程度であるとする。ここで、施設内のサイネージや店頭広告の情報は、エージェントに提示された選択候補に関する案内情報の一例である。
ミドル85bの経験スコアは、小施設80a〜80eの順に「6」、「6」、「1」、「1」、「1」である。ミドル85bの偏向期待値は、小施設80a〜80eの順に「7」、「10」、「22」、「10」、「20」である。すなわち、ミドル85bは、利用経験が少ない施設は、過大評価されたままである。この場合、ミドル85bは、実施例1のミドル83と同様に、小施設80a〜80eの順に訪問した後で小施設80cに戻り、小施設80cで購入を決定する。つまり、ミドル85bは、情報探索軌跡が多いことを再現することができる。
さらに、ミドル85bは、利用経験が増すほど、偏向期待値が期待値平均からの乖離が小さくなり、最終的に期待値平均と一致する偏向期待値を形成し、エキスパート85cに変化する。エキスパート85cは、施設80の利用回数が多いとする。
エキスパート85cの経験スコアは、小施設80a〜80eの順に「10」、「10」、「5」、「5」、「5」である。エキスパート85cの偏向期待値は、小施設80a〜80eの順に「7」、「10」、「17」、「5」、「15」である。この場合、エキスパート85cは、実施例1のエキスパート81と同様に、小施設80cで購入を決定する。つまり、エキスパート85cは、情報探索軌跡が少ないことを再現することができる。
このように、図16の例では、複数の選択候補それぞれの偏向期待値は、エージェントの選択候補それぞれに対する訪問回数に基づき設定される。また、複数の選択候補それぞれの偏向期待値は、シミュレーションにおいてエージェントに提示された当該選択候補に関する案内情報に基づき設定される。
図17は、繰り返し利用により偏向期待値を変化させる場合の他の一例を示す図である。図17では、小施設80a〜80eを含む施設80全体の経験スコアを利用回数に応じて更新する場合を表す。図17は、ある施設に熟知すると、未探索小施設を含む施設全体をよく探索できるようになる状況を再現する場合の例である。つまり、図17では、利用者の熟練度により偏向期待値を決定する。まず、利用者は、施設80の利用経験が少ないノービス86aであるとする。
図17では、小施設80a〜80eの順に、期待値が「7」、「10」、「17」、「5」、「15」である。また、ノービス86aの施設80全体に対する経験スコアは「0」である。この場合の経験スコアは、例えば、小施設80a〜80eの合計利用回数とすることができる。また、経験スコアの値が大きいほど、小施設80a〜80eの偏向期待値が期待値平均に近づくものとする。さらに、小施設80a〜80eの順に、ノービス86aの偏向期待値が「7」、「10」、「0」、「0」、「0」である。この場合、ノービス86aは、実施例1のノービス82と同様に、小施設80bで購入を決定する。つまり、ノービス86aは、情報探索軌跡が少ないことを再現することができる。
その後、ノービス86aは、小施設80a〜80eの合計利用回数の増加に基づいて、過大評価された偏向期待値を形成し、ミドル86bに変化する。ミドル86bは、施設80の利用回数が中程度であるとする。
ミドル86bの経験スコアは、「1」である。ミドル86bの偏向期待値は、小施設80a〜80eの順に「7」、「10」、「22」、「10」、「20」である。この場合、ミドル86bは、実施例1のミドル83と同様に、小施設80a〜80eの順に訪問した後で小施設80cに戻り、小施設80cで購入を決定する。つまり、ミドル86bは、情報探索軌跡が多いことを再現することができる。
さらに、ミドル86bは、小施設80a〜80eの合計利用回数の増加に基づいて、偏向期待値が期待値平均からの乖離が小さくなり、最終的に期待値平均と一致する偏向期待値を形成し、エキスパート86cに変化する。エキスパート86cは、施設80の利用回数が多いとする。
エキスパート86cの経験スコアは「5」である。エキスパート86cの偏向期待値は、小施設80a〜80eの順に「7」、「10」、「17」、「5」、「15」である。この場合、エキスパート86cは、実施例1のエキスパート81と同様に、小施設80cで購入を決定する。つまり、エキスパート86cは、情報探索軌跡が少ないことを再現することができる。ここで、図17の例では、小施設80dの訪問回数が1回、小施設80a〜80c,80eの訪問回数が5回であったとしても、小施設80dの偏向期待値を小施設80a〜80c,80eと同程度の正確さで生成することができる。つまり、図17の例では、施設80全体に熟知することで、訪問経験が少ない小施設80dも含めてよく探索できるようになる状況を再現できる。
このように、図17の例では、複数の選択候補それぞれの偏向期待値は、エージェントに設定された熟練度に応じて算出される。
次に、実施例2のシミュレーション装置1aの動作について説明する。図18は、実施例2の判定処理の一例を示すフローチャートである。以下の説明では、判定処理のステップS21,S22,S24〜S30の処理は、実施例1と同様であるので、その説明を省略する。
シミュレーション装置1の入力部10は、処理が開始されると、経験情報12の入力を受け付ける(ステップS41)。入力部10は、受け付けた経験情報12を入力情報格納部20へ格納し、ステップS21に進む。
算出部41aは、ステップS22に続いて、下記の処理を実行する。算出部41aは、選択候補情報11および経験情報12を参照し、選択候補情報11の期待値および経験情報12に基づいて、ノービス、ミドルおよびエキスパートのそれぞれについて、各選択候補に対する偏向期待値を算出する(ステップS42)。算出部41aは、シミュレーション管理部30を介して、算出した偏向期待値をシミュレーション結果出力部50に出力し、ステップS24に進む。
シミュレーション管理部30aは、ステップS30に続いて、下記の処理を実行する。シミュレーション管理部30aは、施設の利用回数が1回増加したことを経験情報12の各経験スコアに反映し、経験情報12を更新する(ステップS43)。シミュレーション管理部30aは、経験情報12の更新が終了すると、算出部41aに対して、偏向期待値の算出を指示し、ステップS43に戻る。これにより、シミュレーション装置1aは、利用者の繰り返し利用による経験に応じた探索行動を再現することができる。
このように、シミュレーション装置1aでは、複数の選択候補それぞれの偏向期待値は、エージェントの選択候補それぞれに対する訪問回数に基づき設定される。その結果、シミュレーション装置1aは、利用者の小施設の利用回数に応じた探索行動を再現することができる。
また、シミュレーション装置1aでは、複数の選択候補それぞれの偏向期待値は、エージェントに設定された熟練度に応じて算出される。その結果、シミュレーション装置1aは、利用者の施設全体の利用回数に応じた探索行動を再現することができる。
また、シミュレーション装置1aでは、複数の選択候補それぞれの偏向期待値は、シミュレーションにおいてエージェントに提示された当該選択候補に関する案内情報に基づき設定される。その結果、シミュレーション装置1aは、施設内のサイネージや店頭広告の情報を反映した探索行動を再現することができる。
上記実施例2では、施設に対する複数回の訪問経験のシミュレーションについて説明したが、1回の訪問経験中に偏向期待値が変化する場合についてシミュレーションしてもよく、この場合の実施の形態につき、実施例3として説明する。なお、実施例1のシミュレーション装置1と同一の構成には同一符号を付すことで、その重複する構成および動作の説明については省略する。
図19は、実施例3におけるシミュレーション装置の機能構成の一例を示すブロック図である。図19に示すシミュレーション装置1bは、実施例1のシミュレーション装置1と比較して、シミュレーション管理部30およびシミュレーション実行部40に代えてシミュレーション管理部30bおよびシミュレーション実行部40bを有する。また、シミュレーション実行部40bは、実施例1のシミュレーション実行部40と比較して、算出部41に代えて、算出部41bを有する。
シミュレーション管理部30bは、実施例1のシミュレーション管理部30に対し、さらに、利用者が施設を回遊中に経験スコアが変化した場合に、偏向期待値を更新する。シミュレーション管理部30bは、選択候補集合から抽出した未確認の選択候補をシミュレーション実行部40に対して出力した後に、利用者が施設を回遊中に入力情報格納部20に格納された経験情報12の経験スコアが変化したか否かを判定する。シミュレーション管理部30bは、経験スコアが変化したと判定した場合には、算出部41bに対して偏向期待値の算出を指示する。
また、シミュレーション管理部30bは、利用者が施設を回遊中の経験スコアをシミュレーションの条件に応じて変化させる。シミュレーション管理部30bは、変化させた経験スコアに基づいて、入力情報格納部20に格納された経験情報12を更新する。
ここで、利用者が施設を回遊中に経験スコアが変化する場合について説明する。まず、情報を取得すると、情報探索が変化する場合がある。この場合、例えば、店頭でサイネージ等に表示された案内情報を視認した場合に、当該案内情報が正確であると、当該小施設の偏向期待値を期待値平均に近づける。また、当該案内情報が誇大広告であった場合、当該小施設の偏向期待値を大きくする。これにより、情報提示の効果を再現する。
次に、残り時間に応じて、情報探索軌跡が変化する場合がある。例えば、残り時間が多いほど、全小施設の偏向期待値を大きくし、情報探索が深くなることを再現する。また、例えば、残り時間が少なくなるほど、全小施設の偏向期待値を小さくし、情報探索が浅くなることを再現する。また、例えば、残り時間がゼロになったら、全小施設の偏向期待値をゼロとし、情報探索の打ち切りを再現する。これにより、残り時間の変化による情報探索行動の変化を再現する。
さらに、利用者の疲労具合に応じて、情報探索軌跡が変化する場合がある。例えば、合計探索距離が短いほど、全小施設の偏向期待値を大きくし、情報探索が深くなることを再現する。また、例えば、合計探索距離が長くなるほど、全小施設の偏向期待値を小さくし、情報探索が浅くなることを再現する。また、例えば、合計探索距離がある閾値、例えば疲労を我慢できる限界値を超えたら、全小施設の偏向期待値をゼロとし、情報探索の打ち切りを再現する。これにより、疲労による情報探索行動の変化を再現する。
算出部41bは、算出部41に対し、さらに、更新された経験スコアに基づいて、偏向期待値を更新することで、情報提示、残り時間および疲労等による情報探索行動の変化を再現する。算出部41bは、シミュレーション管理部30bから偏向期待値の算出を指示されると、選択候補情報11および経験情報12を参照し、選択候補情報11の期待値および経験情報12に基づいて、各選択候補に対する偏向期待値を算出する。なお、偏向期待値は、ノービス、ミドルおよびエキスパートのそれぞれについて算出される。このとき、算出部41bは、2回目以降の偏向期待値の算出では、更新された経験スコアを含む経験情報12を参照することになる。なお、偏向期待値の算出は、実施例1の偏向期待値の算出と同様であるので、その説明を省略する。
次に、実施例3のシミュレーション装置1bの動作について説明する。図20は、実施例3の判定処理の一例を示すフローチャートである。以下の説明では、判定処理のステップS21〜S24,S25〜S30の処理は、実施例1と同様であるので、その説明を省略する。
シミュレーション管理部30bは、ステップS24に続いて、下記の処理を実行する。シミュレーション管理部30bは、経験スコアが変化したか否かを判定する(ステップS51)。シミュレーション管理部30bは、経験スコアが変化したと判定した場合には(ステップS51:肯定)、算出部41bに対して偏向期待値の算出を指示する。
算出部41bは、シミュレーション管理部30bから偏向期待値の算出を指示されると、選択候補情報11の期待値と経験情報12の更新された経験スコアから偏向期待値を算出し(ステップS52)、ステップS25に進む。
一方、シミュレーション管理部30bは、経験スコアが変化していないと判定した場合には(ステップS51:否定)、偏向期待値を算出せずにステップS25に進む。これにより、シミュレーション装置1bは、1回の訪問経験中に偏向期待値が変化する場合における探索行動を再現することができる。
上記実施例1では、施設に対する1回の訪問経験のシミュレーションについて説明したが、さらにレイアウト設計の評価を行ってもよく、この場合の実施の形態につき、実施例4として説明する。なお、実施例1のシミュレーション装置1と同一の構成には同一符号を付すことで、その重複する構成および動作の説明については省略する。
図21は、実施例4におけるシミュレーション装置の機能構成の一例を示すブロック図である。図21に示すシミュレーション装置1cは、実施例1のシミュレーション装置1と比較して、シミュレーション実行部40に代えてシミュレーション実行部40cを有する。また、シミュレーション実行部40cは、実施例1のシミュレーション実行部40と比較して、さらに評価部44を有する。なお、シミュレーション装置1cでは、レイアウト情報13の全てのレイアウトL1〜L4について、シミュレーションを実行するものとする。
評価部44は、シミュレーション管理部30を介して、エージェント情報格納部60から、レイアウトL1〜L4について、各小施設における各エージェント(ノービス、ミドルおよびエキスパート)の偏向期待値と実評価値とを取得する。また、評価部44は、シミュレーション管理部30を介して、入力情報格納部20に格納された選択候補情報11の期待値を取得する。
評価部44は、小施設のIDと期待値(EV)、および、各エージェントの偏向期待値(BEV)と実評価値(V)に基づいて、選択小施設の質(q)、探索コスト(c)を求める。また、評価部44は、選択小施設の質(q)、および、探索コスト(c)に基づいて、満足度(s)を求める。
ここで、選択小施設の質(q)は、各エージェントにおいて購入判断をした小施設の実評価値(V)に対応する。探索コスト(c)は、各エージェントにおいて探索を行った小施設の数にマイナス符号を付与したものである。満足度(s)は、下記の式(1)を用いて算出する。
満足度(s)= w1×q + w2×c ・・・(1)
ここで、w1およびw2は、選択小施設の質(q)と探索コスト(c)との相対的な重み係数を示し、エージェントの性質や小施設の性質によって変更する。なお、以下の説明では、w1=1、w2=1として満足度(s)を算出している。
評価部44は、満足度(s)を算出すると、満足度格差を、ジニ係数を用いて算出する。ここで、利用者集合Uを考えると、利用者i∈Uの満足度をsi、利用者j∈Uの満足度をsjとする。なお、i≠jである。また、利用者集合Uの平均満足度を^sとすると、満足度格差は、下記の式(2)を用いて算出できる。
Figure 2019212239
なお、Gは、「0」〜「1」の実数であり、「0」に近いほど格差が小さく、「1」に近いほど格差が大きい。
ここで、図22を用いて、満足度と満足度格差の算出について説明する。図22は、満足度と満足度格差の算出の一例を示す図である。図2の表90に示すように、小施設F1、F2、F3、F4、F5の期待値(EV)が、それぞれ「7」、「10」、「17」、「5」、「15」であった場合、ノービスは、小施設F2を選択するので選択小施設の質(q)は「10」となる。また、探索コスト(c)は、「−2」となる。ミドルは、小施設F3を選択するので選択小施設の質(q)は「17」となり、探索コスト(c)は、「−6」となる。エキスパートは、小施設F3を選択するので選択小施設の質(q)は「17」となり、探索コスト(c)は、「−3」となる。従って、満足度(s)は、ノービスが「8」、ミドルが「11」、エキスパートが「14」となり、満足度格差(G)は、「0.1818」となる。このように、評価部44は、多様な利用者の満足度と満足度格差を評価する。
次に、図23を用いて、レイアウト設計の評価について説明する。図23は、レイアウト設計の評価の一例を示す図である。図23の表91は、小施設をF1、F2、F3、F4、F5の順に、入口側から奥側へ向けて並べたベースライン設計の場合における満足度および満足度格差を示す。表92は、小施設をF3、F5、F2、F1、F4の順に、評価が高い施設を入口側から奥側へと配置した場合における満足度および満足度格差を示す。表93は、小施設をF4、F1、F2、F5、F3の順に、評価が高い施設を奥側から入口側へと配置した場合における満足度および満足度格差を示す。表94は、小施設をF5、F4、F3、F2、F1の順に、ベースライン設計を左右反転させて配置した場合における満足度および満足度格差を示す。表91〜表94に示すように、評価部44は、ベースライン設計を左右反転した場合が、満足度格差が最も小さいレイアウトであると評価する。
続いて、図24を用いて、利用者シナリオの比較について説明する。図24は、利用者シナリオの比較の一例を示す図である。図24は、利用者シナリオとして、ベースラインシナリオと、ノービスが多いシナリオとについて、満足度格差および平均満足度について比較したものである。ベースラインシナリオは、例えば、通常の休日を想定したシナリオであり、ノービスが10人、ミドルが15人、エキスパートが20人であるとする。また、ノービスが多いシナリオは、例えば、大型連休や年末年始のバーゲンシーズンを想定したシナリオであり、ノービスが100人、ミドルが0人、エキスパートが10人であるとする。
レイアウトは、図23のベースライン設計、評価が高い施設を入口に配置、評価が高い施設を奥に配置、および、ベースライン設計を左右反転の4つのレイアウトを用いる。なお、図24では、各レイアウトを、それぞれ、ベースライン設計、評価高は入口付近、評価高は奥、および、ベースライン反転として表している。
図24の表95は、満足度格差について、ベースラインシナリオと、ノービスが多いシナリオとを比較したものである。表95では、ベースラインシナリオのベースライン反転と、ノービスが多いシナリオの評価高は入口付近およびベースライン反転とが、満足度格差「0.0000」で最も満足度格差が小さい。評価部44は、この場合、ベースラインシナリオでは、満足度格差が最も小さいベースライン反転レイアウトがよいと評価できる。一方、評価部44は、ノービスが多いシナリオでは、評価高は入口付近レイアウトか、ベースライン反転レイアウトか、どちらのレイアウトがよいか評価できない。
このため、ノービスが多いシナリオについて、表96に示すように、平均満足度を比較する。すると、ノービスが多いシナリオの評価高は入口付近レイアウトは、平均満足度が「16」であり、ベースライン反転レイアウトは、平均満足度が「14」である。従って、評価部44は、ノービスが多いシナリオでは、評価高は入口付近レイアウトがよいと評価できる。このように、評価部44は、シナリオごとのレイアウト施策の善し悪しを評価することができる。
すなわち、シミュレーション装置1cは、レイアウト設計において、様々な利用経験の利用者が、よい商品を無駄な情報探索なく選択できたかを評価することができる。また、シミュレーション装置1cは、多様な利用者の満足度を下げないレイアウト設計であるかを評価することができる。
このように、シミュレーション装置1cは、確認行動の継続判断の結果を用いて、複数の選択候補の複数のレイアウトの評価を行う。その結果、シミュレーション装置1cは、施設内の小施設のレイアウトを評価することができる。
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、判定部42と選択部43とを統合してもよい。また、図示した各処理は、上記の順番に限定されるものでなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。
なお、上記の各実施例におけるシミュレーション装置1,1a,1b,1cで行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。
ところで、上記の各実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の各実施例と同様の機能を有するプログラムを実行するコンピュータ(ハードウェア)の一例を説明する。図25は、各実施例にかかるシミュレーション装置のハードウェア構成の一例を示すブロック図である。なお、図25では、シミュレーション装置1を一例として説明するが、シミュレーション装置1a,1b,1cについても同様である。
図25に示すように、シミュレーション装置1は、各種演算処理を実行するCPU101と、データ入力を受け付ける入力装置102と、モニタ103と、スピーカ104とを有する。また、シミュレーション装置1は、記憶媒体からプログラム等を読み取る媒体読取装置105と、各種装置と接続するためのインタフェース装置106と、有線または無線により外部機器と通信接続するための通信装置107とを有する。また、シミュレーション装置1は、各種情報を一時記憶するRAM108と、ハードディスク装置109とを有する。また、シミュレーション装置1内の各部(101〜109)は、バス110に接続される。
ハードディスク装置109には、上記の各実施例で説明した各種の処理を実行するためのプログラム111が記憶される。また、ハードディスク装置109には、プログラム111が参照する各種データ112が記憶される。入力装置102は、例えば、シミュレーション装置1の操作者から操作情報の入力を受け付ける。モニタ103は、例えば、操作者が操作する各種画面を表示する。インタフェース装置106は、例えば印刷装置等が接続される。通信装置107は、LAN(Local Area Network)等の通信ネットワークと接続され、通信ネットワークを介した外部機器との間で各種情報をやりとりする。
CPU101は、ハードディスク装置109に記憶されたプログラム111を読み出して、RAM108に展開して実行することで、各種の処理を行う。なお、プログラム111は、ハードディスク装置109に記憶されていなくてもよい。例えば、シミュレーション装置1が読み取り可能な記憶媒体に記憶されたプログラム111を、シミュレーション装置1が読み出して実行するようにしてもよい。シミュレーション装置1が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラムを記憶させておき、シミュレーション装置1がこれらからプログラムを読み出して実行するようにしてもよい。
1,1a,1b,1c シミュレーション装置
10 入力部
11 選択候補情報
12 経験情報
13 レイアウト情報
20 入力情報格納部
30,30a,30b シミュレーション管理部
40,40a,40b,40c シミュレーション実行部
41,41a,41b 算出部
42 判定部
43 選択部
44 評価部
50 シミュレーション結果出力部
60 エージェント情報格納部

Claims (11)

  1. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーションプログラムであって、
    前記エージェントに設定された経験スコアと、前記複数の選択候補それぞれの期待値とに基づき、前記エージェントに対する前記複数の選択候補それぞれの偏向期待値を算出し、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の偏向期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行う、
    処理をコンピュータに実行させるシミュレーションプログラム。
  2. 前記複数の選択候補それぞれの偏向期待値は、前記エージェントの選択候補それぞれに対する訪問回数に基づき設定される、
    請求項1に記載のシミュレーションプログラム。
  3. 前記複数の選択候補それぞれの偏向期待値は、前記エージェントに設定された熟練度に応じて算出される、
    請求項1または2に記載のシミュレーションプログラム。
  4. 前記複数の選択候補それぞれの偏向期待値は、シミュレーションにおいて前記エージェントに提示された当該選択候補に関する案内情報に基づき設定される、
    請求項1〜3のいずれか1つに記載のシミュレーションプログラム。
  5. 前記複数の選択候補それぞれの偏向期待値は、前記エージェントに設定されたグループ構成に応じて算出される、
    請求項1〜4のいずれか1つに記載のシミュレーションプログラム。
  6. 前記複数の選択候補それぞれの偏向期待値は、時間帯に基づき設定される、
    請求項1〜5のいずれか1つに記載のシミュレーションプログラム。
  7. 前記確認行動の継続判断の結果を用いて、前記複数の選択候補の複数のレイアウトの評価を行う処理を前記コンピュータに実行させる、
    請求項1〜6のいずれか1つに記載のシミュレーションプログラム。
  8. 前記エージェントに設定された前記経験スコアが相対的に小さい場合、前記複数の選択候補それぞれについて前記期待値よりも小さい値が前記偏向期待値として算出され、前記エージェントに設定された前記経験スコアが相対的に中程度である場合、前記複数の選択候補それぞれについて前記期待値より大きい値が前記偏向期待値として算出され、前記エージェントに設定された前記経験スコアが相対的に大きい場合、前記複数の選択候補それぞれについて前記期待値を前記偏向期待値として算出する、
    請求項1〜7のいずれか1つに記載のシミュレーションプログラム。
  9. 前記継続判断においては、前記既確認の選択候補の評価値の最大値が前記未確認の選択候補の期待値の最大値よりも大きい場合に、前記確認行動を終了するものと判断し、前記既確認の選択候補の評価値の最大値が前記未確認の選択候補の期待値の最大値よりも小さい場合に、前記確認行動を継続するものと判断する、
    請求項1〜8のいずれか1つに記載のシミュレーションプログラム。
  10. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーション方法であって、
    前記エージェントに設定された経験スコアと、前記複数の選択候補それぞれの期待値とに基づき、前記エージェントに対する前記複数の選択候補それぞれの偏向期待値を算出し、
    前記エージェントは選択候補の確認ごとに、未確認の選択候補の偏向期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行う、
    処理をコンピュータが実行するシミュレーション方法。
  11. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーション装置であって、
    前記エージェントに設定された経験スコアと、前記複数の選択候補それぞれの期待値とに基づき、前記エージェントに対する前記複数の選択候補それぞれの偏向期待値を算出する算出部と、
    前記エージェントは選択候補の確認ごとに、未確認の選択候補の偏向期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行う判定部と、
    を有するシミュレーション装置。
JP2018110652A 2018-06-08 2018-06-08 シミュレーションプログラム、シミュレーション方法およびシミュレーション装置 Active JP7031503B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018110652A JP7031503B2 (ja) 2018-06-08 2018-06-08 シミュレーションプログラム、シミュレーション方法およびシミュレーション装置
US16/434,278 US20190378063A1 (en) 2018-06-08 2019-06-07 Simulation of information searching action in accordance with use experience of a user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018110652A JP7031503B2 (ja) 2018-06-08 2018-06-08 シミュレーションプログラム、シミュレーション方法およびシミュレーション装置

Publications (2)

Publication Number Publication Date
JP2019212239A true JP2019212239A (ja) 2019-12-12
JP7031503B2 JP7031503B2 (ja) 2022-03-08

Family

ID=68765078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018110652A Active JP7031503B2 (ja) 2018-06-08 2018-06-08 シミュレーションプログラム、シミュレーション方法およびシミュレーション装置

Country Status (2)

Country Link
US (1) US20190378063A1 (ja)
JP (1) JP7031503B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115005A (ja) * 2014-12-11 2016-06-23 株式会社Nttファシリティーズ シミュレーションシステム、シミュレーション方法、及びプログラム
WO2018008203A1 (ja) * 2016-07-05 2018-01-11 パナソニックIpマネジメント株式会社 シミュレーション装置、シミュレーションシステム、及びシミュレーション方法
JP2018041189A (ja) * 2016-09-06 2018-03-15 株式会社Nttドコモ 通信端末、サーバ装置、店舗推奨方法、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115005A (ja) * 2014-12-11 2016-06-23 株式会社Nttファシリティーズ シミュレーションシステム、シミュレーション方法、及びプログラム
WO2018008203A1 (ja) * 2016-07-05 2018-01-11 パナソニックIpマネジメント株式会社 シミュレーション装置、シミュレーションシステム、及びシミュレーション方法
JP2018041189A (ja) * 2016-09-06 2018-03-15 株式会社Nttドコモ 通信端末、サーバ装置、店舗推奨方法、プログラム

Also Published As

Publication number Publication date
JP7031503B2 (ja) 2022-03-08
US20190378063A1 (en) 2019-12-12

Similar Documents

Publication Publication Date Title
JP4956425B2 (ja) 調査候補者のリアルタイム選択
JP5366173B2 (ja) 操作支援サーバ装置、操作支援方法およびコンピュータ・プログラム
JP5676112B2 (ja) ディストラクションの影響を測定するための方法、コンピュータ化された試験システム、ディストラクションの影響を測定するためのシステム、ヒトの被験者の行動を測定するための方法、および刺激の影響を測定するためのシステム
EP3336796A1 (en) Simulation program, simulation method, and simulation device
CN107657043B (zh) 一种基于内容的混合图模型图像推荐方法
KR102132714B1 (ko) 몰입형 가상피팅 연계 서비스 제공 시스템 및 몰입형 가상피팅 연계 서비스 제공 방법
Guss et al. The MineRL 2019 competition on sample efficient reinforcement learning using human priors
JP6572691B2 (ja) 検索方法、検索プログラムおよび検索装置
JP4776325B2 (ja) アンケート作成システム
Zhan et al. A model for collective behaviour propagation: a case study of video game industry
US11120386B2 (en) Computer-readable recording medium, simulation method, and simulation apparatus
JP2016192013A (ja) 営業担当者候補抽出システム
JP7031503B2 (ja) シミュレーションプログラム、シミュレーション方法およびシミュレーション装置
EP3579177A1 (en) Simulation program, simulation method, and simulation apparatus
JP2018195031A (ja) シミュレーションプログラム、シミュレーション方法及びシミュレーション装置
US20110225103A1 (en) Efficiency of computer modeling and analysis of complex processes
US11507795B2 (en) Recording medium recording simulation program, simulation method, and information processing device for people flow in sign system
US20220058671A1 (en) Systems and methods for assessing implicit associations
JP7070121B2 (ja) シミュレーションプログラム、シミュレーション方法およびシミュレーション装置
Suen et al. A system framework design for virtual reality game using gameplay big data technology
Trapitsin et al. The Relationship between the Functionality and Consumer Properties of Online Courses: Evaluation by Users (Students)
Ovilius et al. AI-Assisted Authorship
Gibbs et al. Web Portal Usability Tests for the Nevada Climate Change Portal
Samah et al. Aspect-Based Classification and Visualization of Twitter Sentiment Analysis Towards Online Food Delivery Services in Malaysia
Ortega Arranz Supporting Teachers in the Gamification Process of Learning Situations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220121

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220207

R150 Certificate of patent or registration of utility model

Ref document number: 7031503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150