JP7070121B2 - シミュレーションプログラム、シミュレーション方法およびシミュレーション装置 - Google Patents

シミュレーションプログラム、シミュレーション方法およびシミュレーション装置 Download PDF

Info

Publication number
JP7070121B2
JP7070121B2 JP2018110653A JP2018110653A JP7070121B2 JP 7070121 B2 JP7070121 B2 JP 7070121B2 JP 2018110653 A JP2018110653 A JP 2018110653A JP 2018110653 A JP2018110653 A JP 2018110653A JP 7070121 B2 JP7070121 B2 JP 7070121B2
Authority
JP
Japan
Prior art keywords
agent
value
selection candidate
selection
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018110653A
Other languages
English (en)
Other versions
JP2019212240A (ja
Inventor
広明 山田
耕太郎 大堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018110653A priority Critical patent/JP7070121B2/ja
Priority to US16/433,040 priority patent/US20190378062A1/en
Publication of JP2019212240A publication Critical patent/JP2019212240A/ja
Application granted granted Critical
Publication of JP7070121B2 publication Critical patent/JP7070121B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0637Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
    • G06Q10/06375Prediction of business process outcome or impact based on a proposed change
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/067Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0202Market predictions or forecasting for commercial activities

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Finance (AREA)
  • Educational Administration (AREA)
  • Accounting & Taxation (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Data Mining & Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Description

本発明は、シミュレーションプログラム、シミュレーション方法およびシミュレーション装置に関する。
百貨店やショッピングモール等の施設におけるテナント(以下、小施設ともいう。)のレイアウト設計を行う場合に、人間の情報探索行動(以下、探索行動ともいう。)のシミュレーションが活用されている。このシミュレーションでは、百貨店やショッピングモール等の施設に対応する仮想空間に、各テナントと、利用者を模した利用者エージェント(以下、エージェントともいう。)とを配置する。エージェントが各テナントをどの順番で訪れるかをシミュレーションすることで、百貨店やショッピングモールにおける利用者の流れを模擬している。
また、人は初期の提示数値により、その後の定量判断を変える(係留・調整ヒューリスティクス)ことが知られている。
特開2016-218950号公報 特開2004-258762号公報 特開平8-22498号公報
Tversky,A., & Kahneman,D.,"Judgment under Uncertainty: Heuristics and Biases.",Science,(1974),185(4157), pp.1124-1131.
しかしながら、上述のシミュレーションでは、利用者が印象的なイベントにより探索行動が変化することを考慮することなく、利用者の流れを模擬している。このため、印象的なイベントによる探索行動の変化を再現することが難しい。
一つの側面では、印象的なイベントによる探索行動の変化を再現できるシミュレーションプログラム、シミュレーション方法およびシミュレーション装置を提供することにある。
一つの態様では、シミュレーションプログラムは、エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーションをコンピュータに実行させる。また、シミュレーションプログラムは、前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出する処理をコンピュータに実行させる。シミュレーションプログラムは、前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行う処理をコンピュータに実行させる。シミュレーションプログラムは、前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後に、未確認の選択候補の期待値を、前記選択候補の評価値に基づき修正する処理をコンピュータに実行させる。
印象的なイベントによる探索行動の変化を再現できる。
図1は、実施例におけるシミュレーション装置の機能構成の一例を示すブロック図である。 図2は、期待値と実評価値を用いた探索行動の一例を示す図である。 図3は、現実世界において想定される探索行動の変化の一例を示す図である。 図4は、期待値と実評価値を用いた探索行動のシミュレーションにおける印象的な小施設を訪問した場合の行動の一例を示す図である。 図5は、シミュレーションにおいてアンカーを用いて探索行動を変化させる場合の行動の一例を示す図である。 図6は、シミュレーションにおいてアンカーを用いて探索行動を変化させる場合の行動の一例を示す図である。 図7は、アンカーイベントに基づいて期待値を修正する場合の一例を示す図である。 図8は、選択候補情報の一例を示す図である。 図9は、アンカーイベントに基づいて期待値を修正する探索行動の一例を示す図である。 図10は、期待値の修正の一例を示す図である。 図11は、係留・調整ヒューリスティクスの再現の一例を示す図である。 図12は、合理的買い回り行動の再現の一例を示す図である。 図13は、店頭プロモーションの波及効果を評価する場合の一例を示す図である。 図14は、店頭プロモーションの費用対効果を評価する場合の一例を示す図である。 図15は、実施例の判定処理の一例を示すフローチャートである。 図16は、実施例にかかるシミュレーション装置のハードウェア構成の一例を示すブロック図である。
以下、図面に基づいて、本願の開示するシミュレーションプログラム、シミュレーション方法およびシミュレーション装置の実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。
図1は、実施例におけるシミュレーション装置の機能構成の一例を示すブロック図である。図1に示すシミュレーション装置1は、例えばPC(パーソナルコンピュータ)等の情報処理装置である。シミュレーション装置1は、エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行う。また、シミュレーション装置1は、エージェントが選択候補を確認するごとに、選択候補についてのエージェントに対する評価値を算出する。シミュレーション装置1は、エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、確認行動の継続判断を行う。シミュレーション装置1は、エージェントによる、少なくとも複数の選択候補のいずれかの確認の終了後に、未確認の選択候補の期待値を、選択候補の評価値に基づき修正する。これにより、シミュレーション装置1は、印象的なイベントによる探索行動の変化を再現できる。
まず、図2から図7を用いて、期待値と実評価値を用いた探索行動のシミュレーション、および、アンカーイベントについて説明する。図2は、期待値と実評価値を用いた探索行動の一例を示す図である。図2に示すように、探索行動のシミュレーションでは、ある施設における各小施設の期待値を入力する(ステップS1)。期待値は、小施設における商品への予想満足度であり、平均と分散を持つ値である。次に、シミュレーションでは、各小施設への選好や時間制約から訪問先を決定する。また、決定した訪問先を訪れて実評価値を算出する(ステップS2)。次に、シミュレーションでは、算出した実評価値が全ての未探索小施設の期待値および他の実評価値より高ければ、探索を終了し(ステップS3)、当該小施設で商品を購入する(ステップS4)。算出した実評価値が全ての未探索小施設の期待値および他の実評価値より高くなければ、ステップS2に戻り、次の訪問先を決定する。なお、ステップS3において、全ての候補小施設を探索する場合には、全ての実評価値を比較し、最も値が高い小施設に戻って商品を購入するようにしてもよい。
図3は、現実世界において想定される探索行動の変化の一例を示す図である。図3に示すように、利用者の探索行動は、印象的な小施設の訪問による購入判断行動の変化によって変化する。例えば、利用者は、1店舗目に実評価値「15」の質が高い印象的な小施設を訪問すると、探索に執着し、優良な小施設が残っていないにも関わらず探索を継続する。つまり、利用者は、評価済みの小施設の質が高い場合、他の小施設の質も高いだろうと推論して長く回遊する。また、利用者は、1店舗目に実評価値「10」の印象的でない小施設を訪問すると、最も評価値が高い施設を探索する通常の探索を行う。さらに、利用者は、1店舗目に実評価値「5」の質が低い印象的な小施設を訪問すると、探索を妥協し、優良な小施設が残っているにも関わらず探索を中断する。つまり、利用者は、評価済みの小施設の質が低い場合、他の小施設の質も低いだろうと推論して短く回遊する。このように、利用者は、最初に訪れた小施設の質が高ければ回遊が長く変化し、反対に質が低ければ回遊が短く変化する。つまり、利用者の購入判断行動が変化することで、探索行動も変化する。すなわち、図3に示す探索行動の変化は、利用者が初期の提示数値により、その後の定量判断を変える係留・調整ヒューリスティクスに対応する。
図4は、期待値と実評価値を用いた探索行動のシミュレーションにおける印象的な小施設を訪問した場合の行動の一例を示す図である。図4に示すように、図2の探索行動のシミュレーションにおいて、図3に示すような印象的な小施設の訪問を設定しても、探索行動の変化は起こらない。図4の例では、利用者は、1店舗目に実評価値「15」の質が高い印象的な小施設を訪問すると、1店舗目の実評価値が「15」、2、3店舗目の期待値がそれぞれ「10」、「5」であるので、1店舗目で探索を終了し、執着が再現されないこととなる。
利用者は、1店舗目に実評価値「10」の印象的でない小施設を訪問すると、1店舗目の実評価値が「10」、2店舗目の期待値が「15」であるので、2店舗目まで探索する。利用者は、2店舗目の実評価値が「15」、3店舗目の期待値が「5」であるので、2店舗目で探索を終了する。つまり、1店舗目に印象的でない小施設を訪問した場合には、最も評価値が高い施設を探索する合理的買い回り行動が再現される。
利用者は、1店舗目に実評価値「5」の質が低い印象的な小施設を訪問すると、1店舗目の実評価値が「5」、2店舗目の期待値が「10」であるので、まず、2店舗目まで探索する。次に、利用者は、2店舗目の実評価値が「10」、3店舗目の期待値が「15」であるので、3店舗目まで探索し、妥協が再現されないこととなる。すなわち、図4に示すような期待値と実評価値を用いた探索行動では、印象的なイベントにより購入判断行動の変化および探索行動の変化が起こらないこととなる。
一方、係留・調整ヒューリスティクスでは、印象的なイベントに対応する数値をアンカーとし、アンカーから最善値を推定することが提案されている。この場合、推定最善値を用いて判断を行うため、アンカーと連動して判断行動が変化する。ここで印象的なイベントとは、例えば、1店舗目を訪れることであったり、質が高い商品を扱う店舗を訪れることであったり、キャンペーンやイベント中の店舗を訪れることである。
図5および図6は、シミュレーションにおいてアンカーを用いて探索行動を変化させる場合の行動の一例を示す図である。図5に示すように、1店舗目の実評価値をアンカーとし、推定最善値をアンカーから「+5」とする場合、1店舗目の実評価値が「15」と高く印象的であった場合には、推定最善値が「20」となる。利用者は、2店舗目の実評価値「10」と推定最善値「20」とを比較し、実評価値が推定最善値未満であるので、3店舗目の探索を行う。同様に、利用者は、3店舗目の実評価値「5」と推定最善値「20」とを比較し、実評価値が推定最善値未満であるので、実評価値が一番高かった1店舗目に戻る。つまり、アンカーを用いると、1店舗目の実評価値が高く印象的であった場合の執着が再現できる。
また、1店舗目の実評価値が「5」と低く印象的であった場合には、推定最善値が「10」となる。利用者は、2店舗目の実評価値「10」と推定最善値「10」とを比較し、実評価値が推定最善値以上であるので、2店舗目で探索を終了する。つまり、アンカーを用いると、1店舗目の実評価値が低く印象的であった場合の妥協が再現できる。
一方、図6に示すように、1店舗目の実評価値が中程度である場合を考える。「対比例1」では、1店舗目の実評価値が「10」と中程度であり印象的でなかった場合、推定最善値をアンカーから「+5」とすると、推定最善値は「15」となる。利用者は、2店舗目の実評価値「15」と推定最善値「15」とを比較し、実評価値が推定最善値以上であるので、2店舗目で探索を終了する。ところが、4店舗目には、実評価値が「17」の店舗がある。従って、この場合、最も高い実評価値の施設を見つけようとする合理的買い回り行動が再現されないこととなる。
また、推定最善値の距離(図6の「対比例1」では「+5」)を調整することで、合理的買い回り行動を再現することも考えられる。推定最善値の距離の調整では、距離を大きくすれば探索範囲が広くなり、距離を小さくすれば探索範囲が狭くなる。従って、例えば、推定最善値の距離を「+6」と調整することで、「対比例1」において、最も高い実評価値の施設を見つけさせることができる。しかしながら、このような推定最善値の距離の調整では、小施設の期待値によっては、上手く合理的買い回り行動が再現されないパターンが発生することになる。
例えば、図6の「対比例2」に示すように、4店舗目の実評価値が「14」であると、推定最善値の距離を「+6」とした場合では、5店舗目まで探索してしまう。このように、「対比例2」では、実評価値が「15」である2店舗目で探索を終了するという合理的買い回り行動が再現されないこととなる。従って、推定最善値の距離を「+6」と調整することでは、「対比例1」における合理的買い回り行動を再現できたとしても、「対比例2」における合理的買い回り行動が失われる。
このように、図4に示すような期待値と実評価値を用いた探索行動は、全比較であるため、最も評価値が高い施設を探索する合理的な買い回り行動が起こる。しかしながら、期待値と実評価値を用いた探索行動は、印象的なイベントによる判断行動の変化は起こらない。一方、図5および図6に示すようなアンカーを用いて探索行動を変化させる方法は、一対ごとの比較であるため、印象的なイベントと連動して推定値が変化することで、購入判断の変化を再現できる。しかしながら、アンカーを用いて探索行動を変化させる方法は、全比較を行わないため、合理的な買い回り行動は起こらない。
そこで、期待値と実評価値との比較に基づいた探索行動という全比較の枠組みの中で、購入判断行動を変化させることを考える。図7は、アンカーイベントに基づいて期待値を修正する場合の一例を示す図である。図7に示すように、1店舗目において、実評価値「15」となるアンカーイベントが発生したとする。アンカーイベントの購入判断行動への影響は、例えば、最良の選択肢がアンカーイベントの実評価値の少し上にあると考えることができる。つまり、アンカーイベントの実評価値と推定最善値の付近に、残る未探索小施設の実評価値が散らばっていると期待できる。すなわち、アンカーイベントの影響を期待値に転換できる。
図7の例では、シミュレーションにおいて未探索小施設の期待値「5」、「10」に対して、それぞれ「+10」する期待値修正を行うことで、アンカーイベントの影響を表現できる。つまり、再計算された期待値「15」、「20」は、アンカーイベントの影響を表現していることになる。
続いて、シミュレーション装置1の構成について説明する。図1に示すように、シミュレーション装置1は、入力部10、入力情報格納部20、シミュレーション管理部30、シミュレーション実行部40、シミュレーション結果出力部50およびエージェント情報格納部60を有する。
入力部10は、例えばマウスやキーボードなどの入力装置より、選択候補情報11等のシミュレーションにかかる入力情報を受け付ける。
入力情報格納部20は、入力部10より入力された選択候補情報11等の入力情報をRAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶装置に格納する。
選択候補情報11は、施設における小施設に対応する選択候補と、各小施設の期待値とを対応付けた情報である。図8は、選択候補情報の一例を示す図である。入力部10は、図8に示すような、選択候補集合と、各選択候補に対する期待値とを対応付けた情報の入力を受け付ける。選択候補集合は、小施設をF1、F2といったID(Identifier)を用いて表している。期待値は、商品への予想満足度を表し、平均と分散を持つ。なお、図8の例では、簡単のために分散0の場合における期待値を表している。
シミュレーション管理部30は、シミュレーション実行部40が実行する、施設の利用者の探索行動をシミュレーションする処理を管理する。すなわち、シミュレーション管理部30、および、シミュレーション実行部40は、エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する行動を行うシミュレーションを実行する。
シミュレーション管理部30は、シミュレーション実行部40が行うシミュレーションの進行に応じて、入力情報格納部20に格納された入力情報と、エージェント情報格納部60に格納されたシミュレーションの途中経過(各店舗に対する実評価値および修正された期待値)とを読み出す。また、シミュレーション管理部30は、読み出した内容をシミュレーション実行部40へ出力する。さらに、シミュレーション管理部30は、シミュレーション実行部40が利用者の行動を逐次シミュレーションした結果を、シミュレーション結果出力部50へ出力する。
また、シミュレーション管理部30は、シミュレーションの進行に応じて、選択候補集合から未確認の選択候補(小施設)をひとつ抽出し、シミュレーション実行部40に対して出力する。シミュレーション管理部30は、例えば、施設のレイアウト、利用者の各小施設への選好や時間制約から訪問先を決定する。シミュレーション管理部30は、決定した訪問先である未確認の選択候補を抽出し、シミュレーション実行部40に対して出力する。
シミュレーション管理部30は、後述する選択部44によって、決定した選択候補がエージェント情報格納部60に格納されると、エージェントを決定した選択候補に移動させ、当該選択候補の小施設での購入を決定する。シミュレーション管理部30は、エージェントの移動および購入結果を、シミュレーション結果出力部50に出力する。
シミュレーション実行部40は、施設の利用者が、実際に各小施設を訪問した際の評価値を逐次シミュレーションする。さらに、シミュレーション実行部40は、アンカーイベントが発生した場合に期待値を修正するとともに、修正された期待値と実評価値とに基づいて、利用者が次にとるべき行動を判定する。具体的には、シミュレーション実行部40は、未確認の小施設を確認するか、または、既確認の小施設の中からひとつの小施設を選択するかを判定する。シミュレーション実行部40は、シミュレーションした結果をシミュレーション管理部30へ出力する。
シミュレーション実行部40は、算出部41と、判定部42と、修正部43と、選択部44と、評価部45とを有する。
算出部41は、シミュレーション管理部30から入力された選択候補に対して、実評価値を算出する。算出部41は、例えば、期待値が正規分布であるとし、期待値の平均および分散に基づいて、実評価値を確率的に算出する。算出部41は、算出した実評価値をシミュレーション結果出力部50に出力する。すなわち、算出部41は、エージェント(利用者)が選択候補(小施設)を確認するごとに、選択候補についてのエージェントに対する評価値を算出する。
判定部42は、全ての選択候補(小施設)を確認したか否かを判定する。判定部42は、全ての選択候補を確認していないと判定した場合には、実評価値および期待値に基づいて、確認行動の継続判断を行う。つまり、判定部42は、実評価値および期待値に基づいて、小施設の探索を終了するか否かを判定する。判定部42は、当該判定において、抽出された選択候補の実評価値が全ての期待値、および、他の全ての実評価値より高ければ、小施設の探索を終了すると判定する。判定部42は、抽出された選択候補の実評価値以上の期待値または他の実評価値があれば、小施設の探索を継続すると判定し、修正部43に対してアンカーイベントの判定を指示する。
判定部42は、小施設の探索を終了すると判定した場合には、選択指示を選択部44に出力する。また、判定部42は、全ての選択候補を確認したと判定した場合にも、選択指示を選択部44に出力する。
言い換えると、判定部42は、エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、確認行動の継続判断を行う。また、判定部42は、既確認の選択候補の評価値の最大値が未確認の選択候補の期待値の最大値よりも大きい場合に、確認行動を終了するものと判断する。また、判定部42は、既確認の選択候補の評価値の最大値が未確認の選択候補の期待値の最大値よりも小さい場合に、確認行動を継続するものと判断する。
修正部43は、判定部42からアンカーイベントの判定を指示されると、アンカーイベントがあるか否かを判定する。アンカーイベントは、例えば、一番目の選択候補の確認、店頭キャンペーン、既確認の選択候補の数、複数の選択候補を有する施設に滞在できる時間、エージェントの回遊距離、または、所定時間の経過、あるいは、これらの組み合わせである。修正部43は、アンカーイベントがあると判定した場合には、未確認の選択候補の期待値、つまり、未探索小施設の期待値を、選択候補の実評価値に基づいて修正する。修正部43は、修正した期待値をシミュレーション結果出力部50に出力する。修正部43は、アンカーイベントがないと判定した場合には、未確認の選択候補の期待値の修正は行わない。修正部43は、アンカーイベントの判定後、シミュレーション管理部30に対して、次の未確認の選択候補の抽出を指示する。
言い換えると、修正部43は、エージェントによる、少なくとも複数の選択候補のいずれかの確認の終了後に、未確認の選択候補の期待値を、選択候補の評価値に基づき修正する。また、修正部43は、エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、未確認の選択候補の期待値を、選択候補の評価値に基づき修正する。また、修正部43は、未確認の選択候補の期待値分布よりも選択候補の評価値が相対的に大きいほど、未確認の選択候補のそれぞれに対して相対的に大きな値を加算するように修正する。また、修正部43は、未確認の選択候補の期待値分布よりも選択候補の評価値が相対的に小さいほど、未確認の選択候補のそれぞれに対して相対的に大きな値を減算するように修正する。
選択部44は、判定部42から選択指示が入力されると、エージェント情報格納部60を参照し、実評価値に基づいて、選択候補を決定する。選択部44は、決定した選択候補をシミュレーション結果出力部50に出力する。
評価部45は、シミュレーション管理部30を介して、エージェント情報格納部60から、各小施設におけるエージェントの期待値(修正された期待値を含む。)と実評価値とを取得する。ここで取得する期待値および実評価値は、アンカーイベントに対応する評価値を変化させた場合における複数パターンの期待値および実評価値である。
評価部45は、複数パターンの期待値および実評価値に基づいて、回遊促進の増加を表す波及効果を評価する。また、評価部45は、波及効果、および、アンカーイベントの費用に基づいて、費用対効果や各小施設のリベートを求める。評価部45は、波及効果、費用対効果およびリベート等の評価結果を、シミュレーション管理部30を介して、シミュレーション結果出力部50に出力する。言い換えると、評価部45は、確認行動の継続判断の結果を用いて、アンカーイベントの波及効果の評価を行う。
シミュレーション結果出力部50は、期待値(修正された期待値を含む。)、実評価値、決定した選択候補、エージェントの移動および購入結果、ならびに、評価結果を、エージェント情報格納部60に格納する。また、シミュレーション結果出力部50は、期待値(修正された期待値を含む。)、実評価値、決定した選択候補、エージェントの移動および購入結果、ならびに、評価結果を、モニタ等の表示装置やプリンタ等に表示する。なお、シミュレーション結果出力部50は、逐次シミュレーションした結果を逐次出力してもよい。また、シミュレーション結果出力部50は、所定時間にわたってシミュレーションした結果の集計結果を出力してもよい。
エージェント情報格納部60は、シミュレーションによって得た期待値(修正された期待値を含む。)、実評価値、決定した選択候補、エージェントの移動および購入結果、ならびに、評価結果等をRAM、HDD等の記憶装置に格納する。
ここで、図9から図12を用いてアンカーイベントに基づく期待値の修正について説明する。図9は、アンカーイベントに基づいて期待値を修正する探索行動の一例を示す図である。図9に示すように、シミュレーション装置1は、選択候補情報11に基づいて、各小施設に置かれた商品の期待値を設定する(ステップS11)。
シミュレーション装置1は、予め設定された施設のレイアウト、利用者の各小施設への選好や時間制約から訪問先を決定する。シミュレーション管理部30は、決定した訪問先である未確認の選択候補を抽出し、実評価値を算出する(ステップS12)。
シミュレーション装置1は、抽出された選択候補の実評価値以上の期待値または他の実評価値があれば、ステップS14に進み、アンカーイベントに基づく期待値の修正を行う。一方、シミュレーション装置1は、抽出された選択候補の実評価値が全ての期待値、および、他の全ての実評価値より高ければ、小施設の探索を終了すると判定し(ステップS13)、ステップS15に進む。
シミュレーション装置1は、ステップS13において、抽出された選択候補の実評価値以上の期待値または他の実評価値があると判定した場合、アンカーイベントがあるか否かを判定する(ステップS14)。シミュレーション装置1は、アンカーイベントがあると判定した場合、抽出された選択候補の実評価値に基づいて、残りの小施設の期待値を修正してステップS12に戻り、小施設の探索を継続する。一方、シミュレーション装置1は、アンカーイベントがないと判定した場合、残りの小施設の期待値を修正せずにステップS12に戻り、小施設の探索を継続する。
シミュレーション装置1は、ステップS13において小施設の探索を終了すると判定した場合、実評価値に基づいて、選択候補を決定する。シミュレーション装置1は、エージェントを決定した選択候補に移動させ、当該選択候補の小施設での購入を決定する(ステップS15)。これにより、シミュレーション装置1は、印象的なイベントによって修正された期待値に基づいて決定した小施設で利用者が商品を購入する動きをシミュレーションできる。
図10は、期待値の修正の一例を示す図である。図10に示すように、期待値の修正方法としては、例えば、アンカーイベントに対応する実評価値が推定最善値であると想定した修正を行うことができる。この場合、修正部43は、期待値の修正として、アンカーイベントに対応する実評価値と、残りの未探索小施設の期待値分布の平均とが一致するように修正する。
図10では、小施設80a~80cの順に、修正前の期待値が「15」、「10」、「5」である。ここで、アンカーイベントが1店舗目である小施設80aの訪問である場合、修正部43は、未探索小施設である小施設80b,80cの期待値に、「小施設80aの実評価値-未探索小施設の期待値の平均」を加算して修正する。つまり、加算値は、15-(10+5)/2=7.5となる。従って、修正後の期待値は、小施設80b,80cの順に、「17.5」、「12.5」となる。修正部43は、このように期待値を修正することで、係留・調整ヒューリスティクスの再現と、合理的買い回り行動の再現とを両立することができる。
図11は、係留・調整ヒューリスティクスの再現の一例を示す図である。図11では、アンカーイベントが1店舗目の訪問であるとする。まず、1店舗目の実評価値が高い場合について説明する。このとき、エージェント81は、小施設80a~80cの順に訪問するとし、1店舗目の小施設80aの実評価値が「15」、小施設80b,80cの修正前の期待値がそれぞれ「10」、「5」であるとする。修正部43は、エージェント81の小施設80aの実評価値「15」に基づいて、小施設80b,80cの期待値を図10と同様に修正すると、小施設80bは期待値が「17.5」、小施設80cは期待値が「12.5」となる。すると、エージェント81は、小施設80aの実評価値「15」よりも修正後の期待値が大きい小施設80bまで訪問することになり、探索の執着を再現することができる。
次に、1店舗目の実評価値が低い場合について、小施設82a~82cを用いて説明する。このとき、エージェント83は、小施設82a~82cの順に訪問するとし、1店舗目の小施設82aの実評価値が「5」、小施設82b,82cの修正前の期待値がそれぞれ「10」、「15」であるとする。修正部43は、エージェント83の小施設82aの実評価値「5」と、小施設82b,82cの期待値分布の平均とが一致するように、小施設82b,82cの期待値を修正する。修正部43は、小施設82b,82cの期待値分布の平均が「12.5」であるので、小施設82aの実評価値「5」との差分「7.5」を、小施設82b,82cの期待値から減算する。その結果、小施設82bは期待値が「2.5」、小施設82cは期待値が「7.5」となる。すると、エージェント83は、小施設82aの実評価値「5」よりも修正後の期待値が大きい小施設82cがあるため、次の小施設82bに訪問する。エージェント83は、小施設82bの実評価値が「10」、小施設82cの修正後の期待値が「7.5」であることから、小施設82bでの購入を決断することになり、探索の妥協を再現することができる。
続いて、1店舗目の実評価値が平均的である場合について、図12を用いて説明する。図12は、合理的買い回り行動の再現の一例を示す図である。図12では、アンカーイベントが1店舗目の訪問であるとする。図12の「場合1」では、小施設84a~84eを用いて説明する。このとき、エージェント85は、小施設84a~84eの順に訪問するとし、1店舗目の小施設84aの実評価値が「10」、小施設84b~84eの修正前の期待値がそれぞれ「15」、「5」、「17」、「7」であるとする。修正部43は、エージェント85の小施設84aの実評価値「10」と、小施設84b~84eの期待値分布の平均とが一致するように、小施設84b~84eの期待値を修正する。修正部43は、小施設84b~84eの期待値分布の平均が「11」であるので、小施設84aの実評価値「10」との差分「1」を、小施設84b~84eの期待値から減算する。その結果、小施設84b~84eの修正後の期待値は、それぞれ「14」、「4」、「16」、「6」となる。すると、エージェント85は、小施設84aから順に、実評価値と修正後の期待値とを比較して、最も値が高い小施設84dまで訪問し、小施設84dでの購入を決断することになり、合理的買い回り行動を再現することができる。
図12の「場合2」では、小施設86a~86eを用いて説明する。このとき、エージェント87は、小施設86a~86eの順に訪問するとし、1店舗目の小施設86aの実評価値が「10」、小施設86b~86eの修正前の期待値がそれぞれ「15」、「5」、「14」、「10」であるとする。修正部43は、エージェント87の小施設86aの実評価値「10」と、小施設86b~86eの期待値分布の平均とが一致するように、小施設86b~86eの期待値を修正する。修正部43は、小施設86b~86eの期待値分布の平均が「11」であるので、小施設86aの実評価値「10」との差分「1」を、小施設86b~86eの期待値から減算する。その結果、小施設86b~86eの修正後の期待値は、それぞれ「14」、「4」、「13」、「9」となる。すると、エージェント87は、小施設86aから順に、実評価値と修正後の期待値とを比較して、最も値が高い小施設86bまで訪問し、小施設86bでの購入を決断することになり、合理的買い回り行動を再現することができる。
なお、図10から図12では、修正部43は、未確認の選択候補の期待値分布の平均値を、選択候補の評価値と等しくなるように修正したが、これに限定されない。例えば、修正部43は、選択候補の評価値に基づき推定最善値を算出し、未確認の選択候補の期待値分布の平均値を、算出した推定最善値と等しくなるように修正するようにしてもよい。また、例えば、修正部43は、未確認の選択候補の期待値分布の中央値または最頻値を、選択候補の評価値と等しくなるように修正するようにしてもよい。さらに、例えば、修正部43は、選択候補の評価値に基づき推定最善値を算出し、未確認の選択候補の期待値分布の平均値を、選択候補の評価値と、算出した推定最善値との中間値となるように修正するようにしてもよい。
次に、図13および図14を用いて、アンカーイベントの一例である店頭プロモーションの効果について説明する。図13は、店頭プロモーションの波及効果を評価する場合の一例を示す図である。図13では、例えば、ある施設の複数の小施設F1~F5のうち、入口側の小施設F1において、アンカーイベントである複数段階(弱、中、強)の店頭プロモーションを実施した場合における波及効果を評価部45が評価する場合を示す。なお、図13では、エージェントの修正前の期待値は、評価値(EV)と同一であるとする。
まず、ベースラインは、プロモーションなしの場合とする。この場合、小施設F1~F5の評価値(EV)は、それぞれ「1」、「7」、「10」、「15」、「17」とする。ここで、エージェントが小施設F1を訪問すると、修正部43は、小施設F1の評価値「1」と、小施設F2~F5の期待値分布の平均とが一致するように、小施設F2~F5の期待値を修正する。修正部43は、小施設F2~F5の期待値分布の平均が「12.25」であるので、小施設F1の実評価値「1」との差分「11.25」を、小施設F2~F5の期待値から減算する。その結果、小施設F2~F5の修正後の期待値は、それぞれ「-4.25」、「-1.25」、「3.75」、「5.75」となる。エージェントは、小施設F1から順に、評価値(EV)と修正後の期待値とを比較すると、小施設F2の評価値(EV)が小施設F3~F5の修正後の期待値よりも大きいため、小施設F2まで訪問することになる。
弱プロモーションは、小施設F1の評価値を「+2」とした場合とする。この場合、ベースラインと比較して、小施設F1の評価値(EV)が「3」となり、小施設F2~F5の評価値(EV)はベースラインと同様となる。ここで、エージェントが小施設F1を訪問すると、修正部43は、小施設F1の評価値「3」と、小施設F2~F5の期待値分布の平均とが一致するように、小施設F2~F5の期待値を修正する。修正部43は、小施設F2~F5の期待値分布の平均が「12.25」であるので、小施設F1の実評価値「3」との差分「9.25」を、小施設F2~F5の期待値から減算する。その結果、小施設F2~F5の修正後の期待値は、それぞれ「-2.25」、「0.75」、「5.75」、「7.75」となる。エージェントは、小施設F1から順に、評価値(EV)と修正後の期待値とを比較すると、小施設F3の評価値(EV)が小施設F4,F5の修正後の期待値よりも大きいため、小施設F3まで訪問することになる。すなわち、弱プロモーションでは、ベースラインと比較して、回遊促進を「1」増加させる波及効果があるといえる。
中プロモーションは、小施設F1の評価値を「+5」とした場合とする。この場合、ベースラインと比較して、小施設F1の評価値(EV)が「6」となり、小施設F2~F5の評価値(EV)はベースラインと同様となる。ここで、エージェントが小施設F1を訪問すると、修正部43は、小施設F1の評価値「6」と、小施設F2~F5の期待値分布の平均とが一致するように、小施設F2~F5の期待値を修正する。修正部43は、小施設F2~F5の期待値分布の平均が「12.25」であるので、小施設F1の実評価値「6」との差分「6.25」を、小施設F2~F5の期待値から減算する。その結果、小施設F2~F5の修正後の期待値は、それぞれ「0.75」、「3.75」、「8.75」、「10.75」となる。エージェントは、小施設F1から順に、評価値(EV)と修正後の期待値とを比較すると、小施設F4の評価値(EV)が小施設F5の修正後の期待値よりも大きいため、小施設F4まで訪問することになる。すなわち、中プロモーションでは、ベースラインと比較して、回遊促進を「2」増加させる波及効果があるといえる。
強プロモーションは、小施設F1の評価値を「+10」とした場合とする。この場合、ベースラインと比較して、小施設F1の評価値(EV)が「11」となり、小施設F2~F5の評価値(EV)はベースラインと同様となる。ここで、エージェントが小施設F1を訪問すると、修正部43は、小施設F1の評価値「11」と、小施設F2~F5の期待値分布の平均とが一致するように、小施設F2~F5の期待値を修正する。修正部43は、小施設F2~F5の期待値分布の平均は「12.25」であるので、小施設F1の実評価値「11」との差分「1.25」を、小施設F2~F5の期待値から減算する。その結果、小施設F2~F5の修正後の期待値は、それぞれ「5.75」、「8.75」、「13.75」、「15.75」となる。エージェントは、小施設F1から順に、評価値(EV)と修正後の期待値とを比較すると、小施設F4の評価値(EV)が小施設F5の修正後の期待値よりも小さいため、小施設F5まで訪問することになる。すなわち、強プロモーションでは、ベースラインと比較して、回遊促進を「3」増加させる波及効果があるといえる。
図14は、店頭プロモーションの費用対効果を評価する場合の一例を示す図である。図14では、図13の例における費用対効果とリベートの計算例を示す。図14では、例えば、費用として、小施設F1の評価値(EV)を「1」増加させるのに費用が「コスト1」であるとすると、弱プロモーションは「コスト2」、中プロモーションは「コスト5」、強プロモーションは「コスト10」となる。1回遊(小施設1つ増加分)あたりの費用は、波及効果と費用とに基づいて、弱プロモーションは「2.00」、中プロモーションは「2.50」、強プロモーションは「3.33」となる。
また、1施設あたりの負担費用であるリベートの計算は、費用と、店頭プロモーションの恩恵を被る施設の数とに基づいて、弱プロモーションは「0.66」、中プロモーションは「1.25」、強プロモーションは「2.00」となる。このように、評価部45は、店頭プロモーションの波及効果、費用対効果やリベート額を求める。すなわち、評価部45では、アンカーイベントの開催施策(例えば、店頭プロモーション。)が、複合施設全体の回遊に及ぼす影響を評価することができる。また、評価部45は、各小施設が個別に行う個別施策の波及効果を評価したり、小施設の費用対効果や施策を行った小施設が得るリベートを計算することができる。
次に、実施例のシミュレーション装置1の動作について説明する。図15は、実施例の判定処理の一例を示すフローチャートである。
シミュレーション装置1の入力部10は、処理が開始されると、選択候補情報11、つまり選択候補集合の入力と、各選択候補に対する期待値の入力とを受け付ける(ステップS21,S22)。また、入力部10は、受け付けた選択候補情報11を入力情報格納部20へ格納する。
シミュレーション管理部30は、シミュレーションの進行に応じて、選択候補集合から未確認の選択候補をひとつ抽出し、シミュレーション実行部40に対して出力する(ステップS23)。
算出部41は、シミュレーション管理部30から入力された選択候補、つまり抽出した選択候補に対して、実評価値を算出する(ステップS24)。算出部41は、算出した実評価値をシミュレーション結果出力部50に出力する。
判定部42は、全ての選択候補を確認したか否かを判定する(ステップS25)。判定部42は、全ての選択候補を確認していないと判定した場合には(ステップS25:否定)、実評価値および期待値に基づいて、小施設の探索を終了するか否かを判定する(ステップS26)。判定部42は、小施設の探索を終了しないと判定した場合には(ステップS26:否定)、修正部43に対してアンカーイベントの判定を指示する。
修正部43は、判定部42からアンカーイベントの判定を指示されると、アンカーイベントがあるか否かを判定する(ステップS27)。修正部43は、アンカーイベントがあると判定した場合には(ステップS27:肯定)、未確認の選択候補の期待値を、選択候補の実評価値に基づいて修正する(ステップS28)。修正部43は、修正した期待値をシミュレーション結果出力部50に出力する。修正部43は、シミュレーション管理部30に対して、次の未確認の選択候補の抽出を指示し、ステップS23に戻る。
修正部43は、アンカーイベントがないと判定した場合には(ステップS27:否定)、未確認の選択候補の期待値の修正は行わず、シミュレーション管理部30に対して、次の未確認の選択候補の抽出を指示し、ステップS23に戻る。
判定部42は、全ての選択候補を確認したと判定した場合(ステップS25:肯定)、または、小施設の探索を終了したと判定した場合(ステップS26:肯定)には、選択指示を選択部44に出力する。
選択部44は、判定部42から選択指示が入力されると、エージェント情報格納部60を参照し、実評価値に基づいて、選択候補を決定する(ステップS29)。選択部44は、決定した選択候補をシミュレーション結果出力部50に出力する。
シミュレーション管理部30は、エージェントを決定した選択候補に移動させる(ステップS30)。シミュレーション管理部30は、当該選択候補の小施設での購入を決定し、エージェントの移動および購入結果を、シミュレーション結果出力部50に出力する(ステップS31)。これにより、シミュレーション装置1は、印象的なイベントによる探索行動の変化を再現できる。すなわち、シミュレーション装置1は、最も評価値が高い施設を探索する行動を再現する全比較の枠組みを維持しつつ、アンカーイベントを契機に変化する購入判断行動を再現することができる。
このように、シミュレーション装置1は、エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行う。また、シミュレーション装置1は、エージェントが選択候補を確認するごとに、選択候補についてのエージェントに対する評価値を算出する。また、シミュレーション装置1は、エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、確認行動の継続判断を行う。また、シミュレーション装置1は、エージェントによる、少なくとも複数の選択候補のいずれかの確認の終了後に、未確認の選択候補の期待値を、選択候補の評価値に基づき修正する。その結果、シミュレーション装置1は、印象的なイベントによる探索行動の変化を再現できる。
また、シミュレーション装置1は、エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、未確認の選択候補の期待値を、選択候補の評価値に基づき修正する。その結果、シミュレーション装置1は、印象的なイベントの発生に伴う探索行動の変化を再現できる。
また、シミュレーション装置1では、アンカーイベントは、一番目の選択候補の確認、店頭キャンペーン、既確認の選択候補の数、複数の選択候補を有する施設に滞在できる時間、エージェントの回遊距離、または、所定時間の経過、あるいは、これらの組み合わせである。その結果、シミュレーション装置1は、様々なイベントに応じて未確認の選択候補の期待値を修正できる。
また、シミュレーション装置1は、確認行動の継続判断の結果を用いて、アンカーイベントの波及効果の評価を行う。その結果、シミュレーション装置1は、アンカーイベントの開催施策が、複合施設全体の回遊に及ぼす影響を評価することができる。
また、シミュレーション装置1は、未確認の選択候補の期待値分布の平均値を、選択候補の評価値と等しくなるように修正する。その結果、シミュレーション装置1は、選択候補の評価値の近傍に、未確認の選択候補の期待値分布を設定できる。
また、シミュレーション装置1は、選択候補の評価値に基づき推定最善値を算出し、未確認の選択候補の期待値分布の平均値を、算出した推定最善値と等しくなるように修正する。その結果、シミュレーション装置1は、推定最善値の近傍に、未確認の選択候補の期待値分布を設定できる。
また、シミュレーション装置1は、未確認の選択候補の期待値分布の中央値または最頻値を、選択候補の評価値と等しくなるように修正する。その結果、シミュレーション装置1は、未確認の選択候補の期待値分布に偏りがある場合でも、適切に未確認の選択候補の期待値を設定できる。
また、シミュレーション装置1は、選択候補の評価値に基づき推定最善値を算出し、未確認の選択候補の期待値分布の平均値を、選択候補の評価値と、算出した推定最善値との中間値となるように修正する。その結果、シミュレーション装置1は、選択候補の評価値と推定最善値とに基づいて、未確認の選択候補の期待値分布を設定できる。
また、シミュレーション装置1は、未確認の選択候補の期待値分布よりも選択候補の評価値が相対的に大きいほど、未確認の選択候補のそれぞれに対して相対的に大きな値を加算するように修正する。また、シミュレーション装置1は、未確認の選択候補の期待値分布よりも選択候補の評価値が相対的に小さいほど、未確認の選択候補のそれぞれに対して相対的に大きな値を減算するように修正する。その結果、シミュレーション装置1は、印象的なイベントによる探索行動の変化を再現できる。
また、シミュレーション装置1は、既確認の選択候補の評価値の最大値が未確認の選択候補の期待値の最大値よりも大きい場合に、確認行動を終了するものと判断する。また、シミュレーション装置1は、既確認の選択候補の評価値の最大値が未確認の選択候補の期待値の最大値よりも小さい場合に、確認行動を継続するものと判断する。その結果、シミュレーション装置1は、印象的なイベントによる探索行動の変化を再現できる。
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、判定部42と選択部44とを統合してもよい。また、図示した各処理は、上記の順番に限定されるものでなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。
なお、上記の実施例におけるシミュレーション装置1で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。
ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータ(ハードウェア)の一例を説明する。図16は、実施例にかかるシミュレーション装置のハードウェア構成の一例を示すブロック図である。
図16に示すように、シミュレーション装置1は、各種演算処理を実行するCPU101と、データ入力を受け付ける入力装置102と、モニタ103と、スピーカ104とを有する。また、シミュレーション装置1は、記憶媒体からプログラム等を読み取る媒体読取装置105と、各種装置と接続するためのインタフェース装置106と、有線または無線により外部機器と通信接続するための通信装置107とを有する。また、シミュレーション装置1は、各種情報を一時記憶するRAM108と、ハードディスク装置109とを有する。また、シミュレーション装置1内の各部(101~109)は、バス110に接続される。
ハードディスク装置109には、上記の実施例で説明した各種の処理を実行するためのプログラム111が記憶される。また、ハードディスク装置109には、プログラム111が参照する各種データ112が記憶される。入力装置102は、例えば、シミュレーション装置1の操作者から操作情報の入力を受け付ける。モニタ103は、例えば、操作者が操作する各種画面を表示する。インタフェース装置106は、例えば印刷装置等が接続される。通信装置107は、LAN(Local Area Network)等の通信ネットワークと接続され、通信ネットワークを介した外部機器との間で各種情報をやりとりする。
CPU101は、ハードディスク装置109に記憶されたプログラム111を読み出して、RAM108に展開して実行することで、各種の処理を行う。なお、プログラム111は、ハードディスク装置109に記憶されていなくてもよい。例えば、シミュレーション装置1が読み取り可能な記憶媒体に記憶されたプログラム111を、シミュレーション装置1が読み出して実行するようにしてもよい。シミュレーション装置1が読み取り可能な記憶媒体は、例えば、CD-ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラムを記憶させておき、シミュレーション装置1がこれらからプログラムを読み出して実行するようにしてもよい。
1 シミュレーション装置
10 入力部
11 選択候補情報
20 入力情報格納部
30 シミュレーション管理部
40 シミュレーション実行部
41 算出部
42 判定部
43 修正部
44 選択部
45 評価部
50 シミュレーション結果出力部
60 エージェント情報格納部

Claims (18)

  1. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーションプログラムであって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出し、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行い、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、未確認の選択候補の期待値分布の平均値を、前記選択候補の評価値と等しくなるように修正する、
    処理をコンピュータに実行させるシミュレーションプログラム。
  2. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーションプログラムであって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出し、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行い、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、前記選択候補の評価値に基づき推定最善値を算出し、未確認の選択候補の期待値分布の平均値を、算出した前記推定最善値と等しくなるように修正する、
    処理をコンピュータに実行させるシミュレーションプログラム。
  3. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーションプログラムであって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出し、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行い、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、未確認の選択候補の期待値分布の中央値または最頻値を、前記選択候補の評価値と等しくなるように修正する、
    処理をコンピュータに実行させるシミュレーションプログラム。
  4. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーションプログラムであって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出し、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行い、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、前記選択候補の評価値に基づき推定最善値を算出し、未確認の選択候補の期待値分布の平均値を、前記選択候補の評価値と、算出した前記推定最善値との中間値となるように修正する、
    処理をコンピュータに実行させるシミュレーションプログラム。
  5. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーションプログラムであって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出し、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行い、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、前記未確認の選択候補の期待値分布よりも前記選択候補の評価値が相対的に大きいほど、前記未確認の選択候補の期待値それぞれに対して相対的に大きな値を加算するように修正し、前記未確認の選択候補の期待値分布よりも前記選択候補の評価値が相対的に小さいほど、前記未確認の選択候補の期待値それぞれに対して相対的に大きな値を減算するように修正する、
    処理をコンピュータに実行させるシミュレーションプログラム。
  6. 前記アンカーイベントは、一番目の選択候補の確認、店頭キャンペーン、前記既確認の選択候補の数、前記複数の選択候補を有する施設に滞在できる時間、前記エージェントの回遊距離、または、所定時間の経過、あるいは、これらの組み合わせである、
    請求項1~5のいずれか1つに記載のシミュレーションプログラム。
  7. 前記確認行動の継続判断の結果を用いて、前記アンカーイベントの波及効果の評価を行う処理を前記コンピュータに実行させる、
    請求項1~6のいずれか1つに記載のシミュレーションプログラム。
  8. 前記継続判断においては、前記既確認の選択候補の評価値の最大値が前記未確認の選択候補の期待値の最大値よりも大きい場合に、前記確認行動を終了するものと判断し、前記既確認の選択候補の評価値の最大値が前記未確認の選択候補の期待値の最大値よりも小さい場合に、前記確認行動を継続するものと判断する、
    請求項1~のいずれか1つに記載のシミュレーションプログラム。
  9. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーション方法であって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出し、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行い、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、未確認の選択候補の期待値分布の平均値を、前記選択候補の評価値と等しくなるように修正する、
    処理をコンピュータが実行するシミュレーション方法。
  10. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーション方法であって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出し、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行い、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、前記選択候補の評価値に基づき推定最善値を算出し、未確認の選択候補の期待値分布の平均値を、算出した前記推定最善値と等しくなるように修正する、
    処理をコンピュータが実行するシミュレーション方法。
  11. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーション方法であって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出し、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行い、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、未確認の選択候補の期待値分布の中央値または最頻値を、前記選択候補の評価値と等しくなるように修正する、
    処理をコンピュータが実行するシミュレーション方法。
  12. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーション方法であって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出し、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行い、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、前記選択候補の評価値に基づき推定最善値を算出し、未確認の選択候補の期待値分布の平均値を、前記選択候補の評価値と、算出した前記推定最善値との中間値となるように修正する、
    処理をコンピュータが実行するシミュレーション方法。
  13. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーション方法であって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出し、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行い、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、前記未確認の選択候補の期待値分布よりも前記選択候補の評価値が相対的に大きいほど、前記未確認の選択候補の期待値それぞれに対して相対的に大きな値を加算するように修正し、前記未確認の選択候補の期待値分布よりも前記選択候補の評価値が相対的に小さいほど、前記未確認の選択候補の期待値それぞれに対して相対的に大きな値を減算するように修正する、
    処理をコンピュータが実行するシミュレーション方法。
  14. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーション装置であって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出する算出部と、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行う判定部と、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、未確認の選択候補の期待値分布の平均値を、前記選択候補の評価値と等しくなるように修正する修正部と、
    を有するシミュレーション装置。
  15. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーション装置であって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出する算出部と、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行う判定部と、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、前記選択候補の評価値に基づき推定最善値を算出し、未確認の選択候補の期待値分布の平均値を、算出した前記推定最善値と等しくなるように修正する修正部と、
    を有するシミュレーション装置。
  16. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーション装置であって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出する算出部と、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行う判定部と、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に未確認の選択候補の期待値分布の中央値または最頻値を、前記選択候補の評価値と等しくなるように修正する修正部と、
    を有するシミュレーション装置。
  17. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーション装置であって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出する算出部と、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行う判定部と、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、前記選択候補の評価値に基づき推定最善値を算出し、未確認の選択候補の期待値分布の平均値を、前記選択候補の評価値と、算出した前記推定最善値との中間値となるように修正する修正部と、
    を有するシミュレーション装置。
  18. エージェントが、それぞれ期待値が設定された複数の選択候補を順に確認する確認行動を行うシミュレーション装置であって、
    前記エージェントが選択候補を確認するごとに、前記選択候補についての前記エージェントに対する評価値を算出する算出部と、
    前記エージェントの選択候補の確認ごとに、未確認の選択候補の期待値、および、既確認の選択候補の評価値に基づき、前記確認行動の継続判断を行う判定部と、
    前記エージェントによる、少なくとも前記複数の選択候補のいずれかの確認の終了後であって、前記エージェントにとって印象的なイベントであるアンカーイベントが発生した場合に、前記未確認の選択候補の期待値分布よりも前記選択候補の評価値が相対的に大きいほど、前記未確認の選択候補の期待値それぞれに対して相対的に大きな値を加算するように修正し、前記未確認の選択候補の期待値分布よりも前記選択候補の評価値が相対的に小さいほど、前記未確認の選択候補の期待値それぞれに対して相対的に大きな値を減算するように修正する修正部と、
    を有するシミュレーション装置。
JP2018110653A 2018-06-08 2018-06-08 シミュレーションプログラム、シミュレーション方法およびシミュレーション装置 Active JP7070121B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018110653A JP7070121B2 (ja) 2018-06-08 2018-06-08 シミュレーションプログラム、シミュレーション方法およびシミュレーション装置
US16/433,040 US20190378062A1 (en) 2018-06-08 2019-06-06 Simulation of information searching action changed with an anchor event

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018110653A JP7070121B2 (ja) 2018-06-08 2018-06-08 シミュレーションプログラム、シミュレーション方法およびシミュレーション装置

Publications (2)

Publication Number Publication Date
JP2019212240A JP2019212240A (ja) 2019-12-12
JP7070121B2 true JP7070121B2 (ja) 2022-05-18

Family

ID=68765039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018110653A Active JP7070121B2 (ja) 2018-06-08 2018-06-08 シミュレーションプログラム、シミュレーション方法およびシミュレーション装置

Country Status (2)

Country Link
US (1) US20190378062A1 (ja)
JP (1) JP7070121B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070005479A1 (en) 2005-07-04 2007-01-04 Hitachi, Ltd. Enterprise portfolio simulation system
JP2007323315A (ja) 2006-05-31 2007-12-13 Nippon Telegr & Teleph Corp <Ntt> 協調フィルタリング方法、協調フィルタリング装置、および協調フィルタリングプログラムならびにそのプログラムを記録した記録媒体
JP2013109653A (ja) 2011-11-22 2013-06-06 Six Apart Ltd インターネット経由で試用されるアプリケーションソフトウェアのトライアル環境システムおよび営業支援システム
JP2015011690A (ja) 2013-07-02 2015-01-19 ニフティ株式会社 効果測定プログラム、方法及び装置
JP2015011216A (ja) 2013-06-28 2015-01-19 キヤノン株式会社 撮像装置、その制御方法および制御プログラム
JP2016115005A (ja) 2014-12-11 2016-06-23 株式会社Nttファシリティーズ シミュレーションシステム、シミュレーション方法、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070005479A1 (en) 2005-07-04 2007-01-04 Hitachi, Ltd. Enterprise portfolio simulation system
JP2007011990A (ja) 2005-07-04 2007-01-18 Hitachi Ltd 事業ポートフォリオシミュレーションシステム
JP2007323315A (ja) 2006-05-31 2007-12-13 Nippon Telegr & Teleph Corp <Ntt> 協調フィルタリング方法、協調フィルタリング装置、および協調フィルタリングプログラムならびにそのプログラムを記録した記録媒体
JP2013109653A (ja) 2011-11-22 2013-06-06 Six Apart Ltd インターネット経由で試用されるアプリケーションソフトウェアのトライアル環境システムおよび営業支援システム
JP2015011216A (ja) 2013-06-28 2015-01-19 キヤノン株式会社 撮像装置、その制御方法および制御プログラム
JP2015011690A (ja) 2013-07-02 2015-01-19 ニフティ株式会社 効果測定プログラム、方法及び装置
JP2016115005A (ja) 2014-12-11 2016-06-23 株式会社Nttファシリティーズ シミュレーションシステム、シミュレーション方法、及びプログラム

Also Published As

Publication number Publication date
JP2019212240A (ja) 2019-12-12
US20190378062A1 (en) 2019-12-12

Similar Documents

Publication Publication Date Title
Rajendran et al. Scheduling to minimize the sum of weighted flowtime and weighted tardiness of jobs in a flowshop with sequence-dependent setup times
JP2005524913A5 (ja)
JP2013225192A (ja) 報酬関数推定装置、報酬関数推定方法、およびプログラム
US20180173828A1 (en) Computer-readable recording medium, simulation method and simulation apparatus
Debyser et al. Efficient analog circuit synthesis with simultaneous yield and robustness optimization
JP7054668B2 (ja) 動的生産計画システムおよび動的生産計画装置
JPWO2018173108A1 (ja) 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム
JP4405520B2 (ja) プロジェクトの進行スケジュールを調整するためのコンピュータプログラム、コンピュータ装置及び方法
JP2022519283A (ja) 強化学習を利用する3d環境リスク識別
US9524481B2 (en) Time series technique for analyzing performance in an online professional network
JP2019128610A (ja) 学習プログラム、学習方法および学習装置
US20130041643A1 (en) Method and system for generating occupant schedules
JP7070121B2 (ja) シミュレーションプログラム、シミュレーション方法およびシミュレーション装置
JP4776325B2 (ja) アンケート作成システム
Bowey et al. Those are not the stories you are looking for: Using text prototypes to evaluate game narratives early
US11120386B2 (en) Computer-readable recording medium, simulation method, and simulation apparatus
JPWO2009116172A1 (ja) 対策選択プログラム、対策選択装置および対策選択方法
CN110347916B (zh) 跨场景的项目推荐方法、装置、电子设备及存储介质
JP7031503B2 (ja) シミュレーションプログラム、シミュレーション方法およびシミュレーション装置
US20200082306A1 (en) Recording medium recording simulation program, simulation method, and information processing apparatus
CN113225435A (zh) 预估电话接通概率的方法、装置和可读存储介质
CN105786789A (zh) 一种文本相似度的计算方法和装置
JP2019125260A (ja) データ作成装置、誘導モデル学習装置、誘導推定装置、データ作成方法、誘導モデル学習方法、誘導推定方法及びプログラム
WO2023073837A1 (ja) データ修正プログラム、装置、及び方法
JP2019021071A (ja) 調整係数推定装置、モデル学習装置、及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220418

R150 Certificate of patent or registration of utility model

Ref document number: 7070121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150