JP6795090B2 - 行動選択学習装置、行動選択学習プログラム、行動選択学習方法及び行動選択学習システム - Google Patents

行動選択学習装置、行動選択学習プログラム、行動選択学習方法及び行動選択学習システム Download PDF

Info

Publication number
JP6795090B2
JP6795090B2 JP2019515027A JP2019515027A JP6795090B2 JP 6795090 B2 JP6795090 B2 JP 6795090B2 JP 2019515027 A JP2019515027 A JP 2019515027A JP 2019515027 A JP2019515027 A JP 2019515027A JP 6795090 B2 JP6795090 B2 JP 6795090B2
Authority
JP
Japan
Prior art keywords
action
selection
option
user
model parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019515027A
Other languages
English (en)
Other versions
JPWO2018198323A1 (ja
Inventor
拓郎 池田
拓郎 池田
阿南 泰三
泰三 阿南
北川 英志
英志 北川
ヴィシャル シャーマ
ヴィシャル シャーマ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2018198323A1 publication Critical patent/JPWO2018198323A1/ja
Application granted granted Critical
Publication of JP6795090B2 publication Critical patent/JP6795090B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、行動選択学習装置、行動選択学習プログラム、行動選択学習方法及び行動選択学習システムに関する。
近年では、インターネット等の発達により、様々な情報提供サービスが普及しており、情報提供サービスの利用者が、提供される情報を参照して行動する場面が増えつつある。
例えば、従来では、情報提供サービスとして、公共の交通機関の乗換案内や運行状況、混雑状況等を示す情報を提供するサービスが知られている。また、従来では、利用者が滞在している場所の周辺にある飲食店のメニューや混雑状況等を示す情報を提供するサービスが知られている。
さらに、従来では、利用者に提示される交通機関の組み合わせの選択に際し、利益又は効用の期待値に基づいて、利益の期待値又は効用の期待値が最大化される組み合わせを提示する技術が知られている。
特開2001−337967号公報 特開2014−104764号公報 特開2016−85734号公報
上述した従来のサービスは、画一的な情報を不特定多数の利用者に提供するものであり、個々の利用者における選択肢の受け容れ易さ等については考慮されていない。
また、要因に対する利益及び効用の期待値に基づき選択肢を提示する場合において、個々の利用者に対する選択肢の受け容れ易さを考慮するためには、要因に対する利益の期待値又は効用の期待値等を利用者毎にモデル化する必要がある。しかしながら、利用者毎にモデルを用意するためには、各利用者に対して様々な行動の選択肢を提示して選択させ、その結果に基づきパラメータを調整するという、膨大な時間と手間がかかる工程が必要であり、実現することは困難を極める。
開示の技術は、利用者が受け容れ易い行動の選択肢を提示することを目的としている。
開示の技術は、行動選択肢の選択に影響を与える要因毎の影響度を示すモデルパラメータベクトルの集合である参照モデルを生成する参照モデル生成部と、前記モデルパラメータベクトルのそれぞれについて、行動選択肢毎の選択確率を算出する選択確率算出部と、前記行動選択肢毎の選択確率と、利用者による前記行動選択肢の選択履歴と、に基づき、前記参照モデルから抽出されたモデルパラメータベクトルの部分集合を用いて、前記利用者毎のモデルパラメータベクトルを算出するモデルパラメータベクトル算出部と、前記利用者毎のモデルパラメータベクトルに基づき、前記行動選択肢を生成して端末装置に送信する選択肢生成部と、を有する行動選択学習装置である。
上記各部は、上記各部を実現する各処理を手順としてコンピュータにより実行させる方法、プログラムを記憶したコンピュータ読み取り可能な記録媒体とすることもできる。
利用者が受け容れ易い行動の選択肢を提示できる。
第一の実施形態の行動選択学習システムによる行動選択肢の提示について説明する図である。 第一の実施形態の行動選択学習システムのシステム構成の一例を示す図である。 第一の実施形態のハードウェア構成の一例を示す図である。 第一の実施形態の利用者データベースの一例を示す図である。 第一の実施形態の選択履歴データベースの一例を示す図である。 第一の実施形態の位置情報データベースの一例を示す図である。 第一の実施形態の行動選択学習システムの有する各装置の機能について説明する図である。 第一の実施形態の参照モデルを説明する図である。 第一の実施形態の行動選択学習処理部による処理の概略を説明する図である。 第一の実施形態の端末装置の処理を説明するフローチャートである。 第一の実施形態の行動選択学習装置の処理を説明する第一のフローチャートである。 第一の実施形態の行動選択学習装置の処理を説明する第二のフローチャートである。 第一の実施形態の行動選択学習処理部の処理を説明する第一の図である。 第一の実施形態の行動選択学習処理部の処理を説明する第二の図である。 第一の実施形態の行動選択学習処理部の処理を説明する第三の図である。 第一の実施形態の端末装置に行動選択肢が表示された画面の例を示す図である。 第二の実施形態のクラスタリングについて説明する図である。 第二の実施形態の行動選択学習装置の処理を説明するフローチャートである。 第三の実施形態の行動選択学習システムの有する各装置の機能について説明する図である。 第三の実施形態の行動選択学習装置の処理を説明するフローチャートである。
(第一の実施形態)
以下に図面を参照して第一の実施形態について説明する。図1は、第一の実施形態の行動選択学習システムによる行動選択肢の提示について説明する図である。
本実施形態の行動選択学習システム100は、行動選択学習装置200と、端末装置300とを有する。
本実施形態の行動選択学習装置200は、端末装置300から行動選択肢の提示要求を受け付けると、端末装置300の周辺の情報が蓄積されたデータベースを参照し、行動選択肢の候補を生成して端末装置300に表示させる。
また、本実施形態の行動選択学習装置200では、端末装置300における行動選択肢の選択の履歴を用いて、利用者の行動の選択により得られる満足度に影響を与える要因と、その影響度とを示すモデルパラメータベクトルを、利用者毎に生成する。そして、本実施形態の行動選択学習装置200は、端末装置300において、行動選択肢の選択を受け付ける度に、モデルパラメータベクトルを更新していく。
より具体的には、本実施形態では、行動の選択により得られる満足度に影響を与える要因と、その影響度とを示す様々なパラメータを含む多数の参照モデルを生成し、利用者が行動選択肢を選択する度に、選択された行動選択肢に基づき参照モデルをクラスタリング(分割)していく。
そして、本実施形態では、クラスタリングした後のパラメータ群に変化がなくなったとき、このパラメータ群に基づき、この利用者の行動の選択により得られる満足度に影響を与える要因と、その影響度とを示すモデルパラメータベクトルを算出する。
したがって、本実施形態によれば、利用者に対して様々な行動の選択肢を提示して選択させるといった煩雑な手順が不要となり、簡素な手順で利用者毎のモデルパラメータベクトルを生成できる。
さらに、本実施形態の行動選択学習装置200は、行動選択肢の提示要求を受け付けると、提示要求を行った利用者のモデルパラメータベクトルに基づき、行動選択肢を生成するため、端末装置300の利用者にとって、受け容れ易い行動選択肢を提示できる。
図1の例では、地点Aに端末装置300−1の利用者が滞在し、地点Bに端末装置300−2の利用者が滞在している。この場合、行動選択学習装置200は、端末装置300−1の現在地を示す位置情報から、端末装置300−1、300−2の周辺にある商業施設や公共の交通機関に関する情報を取得している。
また、行動選択学習装置200は、端末装置300−1の利用者が行動選択肢の提示要求を行った場合、端末装置300−1の利用者と対応したモデルパラメータベクトルと端末装置300−1の周辺の情報から、行動選択肢を生成し、端末装置300−1に表示させる。図1の例では、端末装置300−1には、行動選択肢の1つとして、ショッピングセンタのタイムセールのクーポンが提示されている。
これは、端末装置300−1の利用者のモデルパラメータベクトルによって、この利用者は、速く帰宅することに対する満足度よりも、クーポン券を使って買い物をすることに対する満足度の方が大きいことが示されたからである。
したがって、この行動選択肢は、端末装置300−1の利用者にとって、受け容れ易い行動選択肢と言える。言い換えれば、端末装置300−1に提示された行動選択肢は、端末装置300−1の利用者に選択される可能性が高い行動選択肢と言える。
また、本実施形態の行動選択学習装置200では、端末装置300−1において、「ショッピングセンタのタイムセールに向かう」という行動選択肢が選択されると、この選択結果を用いて、端末装置300−1の利用者のモデルパラメータベクトルを更新する。
また、行動選択学習装置200は、端末装置300−2の利用者が、行動選択肢の提示要求を行った場合、端末装置300−2の利用者のモデルパラメータベクトルと端末装置300−2の周辺の情報から、行動選択肢を抽出し、端末装置300−2に表示させる。図1では、端末装置300−2には、行動選択肢の1つとして、待ち時間が5分未満であるタクシーに乗車して移動することが提示されている。
これは、端末装置300−2の利用者のモデルパラメータベクトルによって、この利用者は、例えば、運賃が安い交通手段を利用することに対する満足度よりも、待ち時間が少なく速やかに移動することに対する満足度の方が大きいことが示されたからである。
したがって、この行動選択肢は、端末装置300−2の利用者にとって、受け容れ易く、選択される可能性が高い行動選択肢と言える。
本実施形態の行動選択学習装置200では、端末装置300−2において、「待ち時間が5分未満であるタクシーに乗車して移動する」という行動選択肢が選択されると、この選択結果を用いて、端末装置300−2の利用者のモデルパラメータベクトルを更新する。
このように、本実施形態では、利用者が行動選択肢を選択する度に更新されるモデルパラメータベクトルに基づき、利用者に対して行動選択肢を提示するため、利用者が行動選択肢を選択する度に、提示した行動選択肢が利用者に選択される可能性を高めることができる。
本実施形態では、このようなモデルパラメータベクトルを利用者毎に生成し、利用者毎のモデルパラメータベクトルを用いて利用者に行動選択肢を提示するため、利用者の行動を変化させる確率を高めることが可能となる。このため、本実施形態によれば、例えば、イベントの終了直後等のように、特定のエリアで混雑が発生した場合等においても、利用者の行動を変化させる確率を高めることができ、混雑の緩和に貢献することができる。
以下に、本実施形態の行動選択学習システム100について説明する。図2は、第一の実施形態の行動選択学習システムのシステム構成の一例を示す図である。
本実施形態の行動選択学習システム100は、行動選択学習装置200と、端末装置300と、を有する。行動選択学習システム100において、行動選択学習装置200と、端末装置300とは、ネットワークを介して接続されている。
本実施形態の行動選択学習装置200は、利用者データベース210、選択履歴データベース220、位置情報データベース230、交通運行データベース240、イベントデータベース250、店舗データベース260、行動選択学習処理部270を有する。
本実施形態の利用者データベース210は、利用者による行動選択肢毎の効用を算出する際に用いられる利用者毎のパラメータが格納されている。本実施形態では、後述する行動選択学習処理部270の処理により、利用者データベース210に格納されたパラメータを用いて、利用者毎の行動選択肢の効用が算出される。
行動選択肢の効用とは、ミクロ経済学の分野で用いられる概念であり、行動選択肢を選択することで利用者が得られる満足度の水準を表す。利用者データベース210と、効用の算出の詳細は後述する。
本実施形態の選択履歴データベース220は、行動選択学習処理部270が端末装置300から行動選択肢の提示要求を受けて、端末装置300に表示させた行動選択肢と、端末装置300において選択された選択結果の行動選択肢とが対応付けられて格納される。本実施形態の選択履歴データベース220は、行動選択学習処理部270による参照モデルのクラスタリングの際に参照される。選択履歴データベース220の詳細は後述する。
本実施形態の位置情報データベース230は、端末装置300の位置を示す位置情報が、位置情報を取得した日時と対応付けられて格納される。位置情報データベース230の詳細は後述する。
本実施形態の交通運行データベース240は、交通手段毎の運行に関する情報が格納されている。交通手段毎の運行に関する情報は、例えば、駅やバス停など乗降地点の位置、乗降地点を結ぶ路線の情報、路線間の乗換に関する情報を含む。また、交通手段毎の運行に関する情報は、運賃等の料金の関する情報や、各車両がどの乗降地点に何時に発着するかという時刻表情報、車両の乗車定員等を含む。
本実施形態のイベントデータベース250は、各地域において開催されるイベントに関する情報が格納されている。イベントに関する情報とは、例えば、イベントの種類、イベントの開催日時と開催場所等である。尚、地域とは、例えば、端末装置300から取得される位置情報が示す位置の周辺の地域である。
本実施形態の店舗データベース260は、各地域の店舗に関する情報が格納されている。店舗に関する情報とは、例えば、店舗の種類、営業時間、所在地等である。店舗の種類とは、例えば、飲食店、宝飾店、雑貨店、書店等であって良い。地域とは、例えば、端末装置300から取得される位置情報が示す位置の周辺の地域である。
尚、図2の例では、各データベースが行動選択学習装置200に設けられるものとしたが、これに限定されない。特に、本実施形態の交通運行データベース240、イベントデータベース250、店舗データベース260等は、行動選択学習装置200の外部の記憶装置に設けられていても良い。
本実施形態の行動選択学習処理部270は、端末装置300の利用者毎に、行動の選択により得られる満足度に影響を与える要因と、その影響度とを示すモデルパラメータベクトルを生成する。また、本実施形態の行動選択学習処理部270は、端末装置300から行動選択肢の提示要求を受けると、端末装置300の利用者と対応するモデルパラメータベクトルに基づき、端末装置300に表示させる行動選択肢を生成する。行動選択学習処理部270の詳細は後述する。
次に、図3を参照して、本実施形態の行動選択学習装置200のハードウェア構成について説明する。図3は、第一の実施形態のハードウェア構成の一例を示す図である。
本実施形態の行動選択学習装置200は、それぞれバスBで相互に接続されている入力装置21、出力装置22、ドライブ装置23、補助記憶装置24、メモリ装置25、演算処理装置26及びインターフェース装置27を有する。
入力装置21は、各種信号の入力と各種情報の表示をするために用いられる装置であり、例えばマウスやキーボード等である。出力装置22は、各種の情報を出力するために用いられる装置であり、例えばディスプレイ等である。
インターフェース装置27は、モデム,LANカード等を含み、ネットワークに接続する為に用いられる。
行動選択学習プログラムは、行動選択学習装置200を制御する各種プログラムの少なくとも一部である。行動選択学習プログラムは例えば記録媒体28の配布やネットワークからのダウンロードなどによって提供される。行動選択学習プログラムを記録した記録媒体28は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的あるいは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
また、行動選択学習プログラムを記録した記録媒体28がドライブ装置23にセットされると、行動選択学習プログラムは記録媒体28からドライブ装置23を介して補助記憶装置24にインストールされる。ネットワークからダウンロードされた行動選択学習プログラムは、インターフェース装置27を介して補助記憶装置24にインストールされる。
補助記憶装置24は、インストールされた行動選択学習プログラムを格納すると共に、必要なファイル、データ等を格納する。メモリ装置25は、コンピュータの起動時に補助記憶装置24から行動選択学習プログラムを読み出して格納する。そして、演算処理装置26はメモリ装置25に格納された行動選択学習プログラムに従って、後述するような各種処理を実現している。
尚、本実施形態の端末装置300は、一般的なタブレット型コンピュータや、スマートフォン等であり、そのハードウェア構成は、入力装置と出力装置の代わりに、表示操作装置を有する点以外は混雑マネジメント装置と同様であるため、説明を省略する。尚、端末装置300は、タブレット型コンピュータやスマートフォン以外の端末装置であっても良い。具体的には、端末装置300は、例えばノート型のコンピュータであっても良いし、一般的なデスクトップ型のコンピュータであっても良い。
次に、本実施形態の行動選択学習装置200の有する各データベースについて説明する。
図4は、第一の実施形態の利用者データベースの一例を示す図である。本実施形態の利用者データベース210は、情報の項目として、利用者ID、ASCRAIL、ASCBUS、ASCTAXI、β、βTT、βDT、βCG、βWTを有する。
本実施形態の利用者データベース210において、項目「利用者ID」と、その他の項目の値とは対応付けられており、項目「利用者ID」と、その他の項目の値とを含む情報を、利用者情報と呼ぶ。また、本実施形態では、利用者情報において、利用者IDと対応付けられた各パラメータを、モデルパラメータベクトルと呼ぶ。
尚、図4の利用者データベース210では、項目「利用者ID」と各パラメータと対応付けられるものとしたが、これに限定されない。利用者データベース210では、利用者IDに、各パラメータに加えて、利用者の氏名、年齢、性別等が対応付けられていても良い。
項目「利用者ID」の値は、利用者を特定する識別情報である。尚、本実施形態の項目「利用者ID」の値は、例えば端末装置300が特定の利用者にのみ利用される場合等には、端末装置300を特定するための識別情報を利用者IDとしても良い。
項目「ASCRAIL」の値は、鉄道Rを選択することによる、利用者の満足度の水準を示す。項目「ASCBUS」の値は、バスBを選択することによる、利用者の満足度の水準を示す。項目「ASCTAXI」の値は、タクシーTを選択することによる、利用者の満足度の水準を示す。
項目「ASCRAIL」、「ASCBUS」、「ASCTAXI」それぞれの値は、行動選択肢毎に、固有に決められた定数である。
項目「β」の値は、行動選択肢を選択したことにより発生する料金に対する重みを示す。言い換えれば、項目「β」の値は、利用者が行動選択肢を選択した際の満足度に対し、料金が寄与する程度を示す。
項目「βTT」の値は、移動時間に対する重みを示す。言い換えれば、項目「βTT」の値は、利用者が行動選択肢を選択した際の満足度に対し、移動時間が寄与する程度を示す。
項目「βDT」の値は、出発延長時間に対する重みを示す。出発延長時間とは、出発予定の時刻から、実際に移動を開始する時刻までの時間である。項目「βDT」の値は、言い換えれば、利用者が行動選択肢を選択した際の満足度に対し、出発予定の時刻から実際の出発が延長された延長時間が寄与する程度を示す。
項目「βCG」の値は、選択した行動選択肢と対応する行動に対する混雑度に対する重みを示す。項目「βCG」の値は、利用者が行動選択肢を選択した際の満足度に対し、混雑度が寄与する程度を示す。混雑度とは、例えば選択した行動選択肢と対応する行動が、移動であった場合には、行動選択肢の混雑度を示す。また、混雑度とは、例えば選択した行動選択肢と対応する行動が、ショッピングであった場合には、ショッピングを行う店舗の混雑度を示す。つまり、本実施形態の混雑度は、行動選択肢と対応する行動を行った場合に遭遇する混雑度を示す。
項目「βWT」の値は、待ち時間に対する重みを示す。待ち時間とは、行動の待ち状態になった時刻から、行動を開始する時刻までの時間である。また、待ち時間とは、例えば、行動選択肢がタクシーでの移動だった場合、待ち行列に並んでからタクシーに乗車するまでの時間である。もしくは、待ち時間とは、行動選択肢がレストランでの食事だった場合、待ち行列に並んでから入店するまでの時刻である。
項目「βWT」の値は、言い換えれば、利用者が行動選択肢を選択した際の満足度に対し、行動を行うまでの待ち時間が寄与する程度を示す。具体的には、例えば、項目「βWT」の値は、移動を開始するまでの待ち時間に対する重みや、目的とする買い物を始めるまでの待ち時間に対する重み等を示す。
図4では、利用者ID「001」の利用者は、重みを示す各項目のうち、項目「βCG」の値が最も小さい「−2」である。このことから、利用者ID「001」の利用者は、混雑を嫌う傾向がある利用者であることがわかる。
尚、図4の例では、利用者IDと対応付けられたパラメータを、交通機関に関連するパラメータとして説明したが、これに限定されない。また、本実施形態では、例えば、行動選択肢毎に、固有に決められた定数として、例えば、店舗の種類(カテゴリ)毎の項目「ASC」を含んでいても良い。具体的には、例えば、飲食店については、店舗の料理の種類等に応じて、項目「ASC」の値が決められていても良い。また、例えば、店舗の種類(飲食店、家電店、書店等)に応じて、項目「ASC」の値が決められていても良い。
このように、本実施形態では、モデルパラメータベクトルによって重みが付与される事柄を、利用者の行動の選択により得られる満足度に影響を与える要因とする。したがって、本実施形態では、利用者毎に、行動選択肢を選択することによる満足度に与える影響の度合いを、要因毎に示した値が、利用者のモデルパラメータベクトルである。つまり、図4の例では、利用者情報に含まれるモデルパラメータベクトルによって重みが付与される要因は、行動を選択したことにより発生する料金、移動時間、出発延長時間、混雑度、待ち時間を含む。
次に、図5を参照して、本実施形態の選択履歴データベース220について説明する。図5は、第一の実施形態の選択履歴データベースの一例を示す図である。
本実施形態の選択履歴データベース220では、端末装置300に提示された行動選択肢と、端末装置300において選択された行動選択肢とが対応付けられている。また、本実施形態の選択履歴データベース220は、利用者ID毎に設けられていても良い。
図5では、利用者ID「001」の利用者の端末装置300に提示された行動選択肢と、利用者ID「001」の利用者の端末装置300において選択された行動選択肢とが対応付けられた例を示している。
本実施形態の選択履歴データベース220は、情報の項目として、日時、行動選択肢、選択結果を有する。以下の説明では、選択履歴データベース220において、各項目の値を含む情報を、選択履歴情報と呼ぶ。
項目「日時」の値は、行動選択肢が端末装置300から、選択結果を受信した日時を示す。項目「行動選択肢」は、端末装置300に提示された複数の行動選択肢を示す複数の項目「選択肢1」〜「選択肢3」を含む。項目「選択結果」の値は、項目「行動選択肢」に含まれる項目「選択肢1」〜「選択肢3」から、端末装置300において選択された行動選択肢を示す。
図5の例では、利用者ID「001」の利用者は、2017/2/20の17:30に、端末装置300において提示された「バス/移動時間10分/座れる」、「鉄道/ラッシュ/遅延なし」、「タクシー/待ち時間5分未満」の3つの行動選択肢から、3つ目の行動選択肢「タクシー/待ち時間5分未満」を選択したことがわかる。
尚、図5の例では、利用者ID「001」の利用者に対して提示された行動選択肢は、3つとしているが、これに限定されない。利用者に対して提示される行動選択肢の数は、任意の数であって良い。
また、図5の例では、交通機関に関する選択肢が示されているが、本実施形態では、交通機関に関する行動選択肢以外にも、イベントデータベース250や店舗データベース260等に基づき様々な行動選択肢が提示される。
次に、図6を参照して、位置情報データベース230について説明する。図6は、第一の実施形態の位置情報データベースの一例を示す図である。
本実施形態の位置情報データベース230は、選択履歴データベース220と同様に、利用者ID毎に設けられる。図6では、利用者ID「001」の利用者の位置情報データベース230を示している。
本実施形態の位置情報データベース230は、情報の項目として、日付、時刻、緯度、経度を含む。項目「日付」、「時刻」の値は、位置情報を取得した日付と時刻を示す。項目「緯度」、「経度」の値は、端末装置300の緯度と経度を示す。以下の説明では、項目「日付」、「時刻」、「緯度」、「経度」の値を含む情報を、位置情報と呼ぶ。
次に、図7を参照して、本実施形態の行動選択学習システム100の有する各装置の機能について説明する。図7は、第一の実施形態の行動選択学習システムの有する各装置の機能について説明する図である。
はじめに、行動選択学習装置200の機能について説明する。本実施形態の行動選択学習システム100において、行動選択学習装置200は、行動選択学習処理部270を有する。本実施形態の行動選択学習処理部270は、行動選択学習装置200の演算処理装置26が、行動選択学習装置200にインストールされた行動選択学習プログラムを実行することにより実現される。
本実施形態の行動選択学習処理部270は、要求受付部271、選択肢生成部272、選択肢取得部273、参照モデル生成部274、参照モデル記憶部275、選択確率算出部276、参照モデル選択決定部277、クラスタリング部278、モデルパラメータベクトル算出部279、妥当性判定部280、位置情報受信部281を有する。
本実施形態の要求受付部271は、端末装置300から送信される提示要求等を受信する。提示要求には、利用者ID、行動日、希望する行動開始時刻又は希望する行動終了時刻、行動開始場所等の条件の指定を含む。また、本実施形態では、要求された行動選択肢が、例えば、交通機関による移動の仕方を示す行動選択肢である場合には、提示要求には、利用者ID、交通機関の利用日、希望する出発時刻又は希望する到着予定時刻、出発地及び目的地が含まれても良い。
選択肢生成部272は、行動選択肢の提示要求を行った端末装置300と対応する利用者IDのモデルパラメータベクトルを用いて、行動選択肢を生成し、提示要求を行った端末装置300へ生成した行動選択肢を送信する。本実施形態の行動選択肢は、例えば、利用可能な交通手段などの移動行動、帰宅前に立ち寄れる周辺の店舗の情報などの購買行動の選択肢等が含まれる。
選択肢取得部273は、端末装置300において提示された行動選択肢の中から、端末装置300において利用者により選択された行動選択肢を受信し、取得する。
参照モデル生成部274は、モデルパラメータベクトルの集合である参照モデルを生成する。参照モデルの詳細は後述する。参照モデル記憶部275は、参照モデル生成部274が生成した参照モデルを記憶する。また、参照モデル記憶部275は、クラスタリング部278によりクラスタリング後の抽出参照モデルを記憶する。
選択確率算出部276は、モデルパラメータベクトルに基づき、各行動選択肢の選択確率を算出する。より具体的には、選択確率算出部276は、参照モデルに含まれるモデルパラメータベクトル毎に、端末装置300に提示された各行動選択肢の選択確率を算出する。選択確率の算出の詳細は後述する。
参照モデル選択決定部277は、モデルパラメータベクトル毎に、算出された各行動選択肢の選択確率に基づき、端末装置300に提示された行動選択肢の中から選択する行動選択肢を決定する。具体的には、参照モデル選択決定部277は、行動選択肢のうち、算出された選択確率が最も高い行動選択肢を、モデルパラメータベクトルにおいて選択される行動選択肢に決定する。
クラスタリング部278は、参照モデル選択決定部277が選択した行動選択肢が、端末装置300の利用者が、端末装置300において選択した行動選択肢と一致するモデルパラメータベクトルを参照モデルから抽出し、抽出参照モデルを生成する。本実施形態では、抽出参照モデルは、参照モデルの一部(部分集合)であり、モデルパラメータベクトルの集合である。
モデルパラメータベクトル算出部279は、抽出参照モデルから、端末装置300の利用者のモデルパラメータベクトルを算出し、算出したモデルパラメータベクトルを利用者情報として、利用者データベース210に格納する。本実施形態のモデルパラメータベクトルの算出の詳細は後述する。
妥当性判定部280は、モデルパラメータベクトル算出部279により算出されたモデルパラメータベクトルが、妥当であるか否かの判定を行う。具体的には、妥当性判定部280は、算出されたモデルパラメータベクトルを用いて、端末装置300に提示された行動選択肢から最も選択確率が高くなる行動選択肢を算出する。そして、妥当性判定部280は、最も選択確率が高くなる行動選択肢が、端末装置300において利用者が選択した行動選択肢と一致した場合に、算出されたモデルパラメータベクトルを妥当と判定する。
位置情報受信部281は、端末装置300から、端末装置300の位置情報を受信し、端末装置300毎に位置情報データベース230に格納する。
次に、端末装置300の機能について説明する。本実施形態の端末装置300は、提示処理部310を有する。
本実施形態の提示処理部310は、入力制御部311、出力制御部312、提示要求部313、提示受信部314、選択送信部315、GPS(Global Positioning System)部316を有する。これら各部は、端末装置300にインストールされたプログラムが、端末装置300の演算処理装置により実行されることで実現される。
本実施形態の入力制御部311は、各種の情報の入力を受け付ける。出力制御部312は、各種の情報を出力する。具体的には、出力制御部312は、提示受信部314により受信した行動選択肢を表示操作装置等に表示させる。
提示要求部313は、行動選択学習装置200に対して、行動選択肢の提示要求を行う。本実施形態の提示要求部313は、提示要求と共に、利用者ID、行動日、希望する行動開始時刻又は希望する行動終了時刻、行動開始場所等の条件を行動選択学習装置200に送信する。
提示受信部314は、提示要求部313によって送信された提示要求に対する応答を受信する。具体的には、提示受信部314は、行動選択学習装置200から送信される行動選択肢を示す情報を受信する。
選択送信部315は、提示受信部314によって受信された行動選択肢が、出力制御部312により表示操作装置に表示され、端末装置300の利用者により行動選択肢が選択されると、選択された行動選択肢を行動選択学習装置200へ送信する。具体的には、選択送信部315は、選択された行動選択肢を特定する情報を行動選択学習装置200へ送信しても良いし、選択された行動選択肢そのものを示す情報を行動選択学習装置200へ送信しても良い。
GPS部316は、端末装置300が受信するGPS信号に基づいて、端末装置300の現在位置を示す位置情報を取得する。また、GPS部316は、取得した位置情報を行動選択学習装置200へ送信する。
本実施形態の端末装置300では、要求送信部320において、出発地の代わりに、GPS部316により取得した位置情報を提示要求と共に行動選択学習装置200に送信しても良い。
次に、本実施形態の選択確率算出部276による選択確率の算出の仕方について説明する。
実施形態では、利用者による行動選択肢の選択は、以下の式(1)に示すような、多項ロジットモデル(Multinomial Logit Model, MNL)を用いて計算することができる。
Figure 0006795090
上記の式において、Probは、ある行動選択肢の集合Aを提示した場合の、行動選択肢iの選択確率である。ここで、Viは、行動選択肢iの効用である。効用Viは、行動選択肢を選択することで得られる満足度の水準を表す。
効用Viは、例えば、以下の式(2)で算出することができる。式中の各変数xは、効用に影響を与える要因であり、βは与える影響の度合いを表すモデルパラメータである。本実施形態では、複数のモデルパラメータを含むベクトルβを、モデルパラメータベクトルと呼ぶ。
Figure 0006795090
例えば、行動選択肢のうち、移動する行動に関する効用Viは、以下の式(3)で算出することができる。
Figure 0006795090
式(3)では、効用Viに影響を与える要因として、料金、旅行時間、出発延長時間、待ち時間、交通手段の混雑度が変数として含まれている。また、式(3)に示す効用Viには、交通手段に関する選択肢固有定数を含む。
つまり、本実施形態では、要因毎に、行動選択肢を選択することで得られる満足度に対する影響の度合いを示したものが、モデルパラメータベクトルβである。
本実施形態の利用者データベース210に格納された利用者毎の利用者情報において、利用者IDと対応付けられた各パラメータは、利用者毎のモデルパラメータベクトルβを示したものである(図4参照)。
次に、図8を参照して、本実施形態の参照モデルについて説明する。図8は、第一の実施形態の参照モデルを説明する図である。
本実施形態の参照モデル80は、モデルパラメータベクトルβに含まれる各パラメータの値を離散的に値に設定し、取り得る全ての組み合わせを求めたモデルパラメータベクトルβの集合である。
図8に示す参照モデル80では、式(2)に示すβ、β、・・・、βを、β、βTT、βDT、βCG、βWTとし、各パラメータの値を変化させて、生成した例である。
図8に示す参照モデル80では、例えば、モデルIDと、モデルパラメータベクトルβとが対応付けられていても良く、モデルIDと対応する1つのレコードが、1つのモデルパラメータベクトルβとなる。尚、図8には示していないが、選択肢固有定数ASCもモデルパラメータベクトルに含めても良い。
次に、本実施形態の行動選択学習装置200及び端末装置300の処理の説明に先立ち、本実施形態の行動選択学習処理部270による処理の概略について説明する。
図9は、第一の実施形態の行動選択学習処理部による処理の概略を説明する図である。尚、図9では、参照モデル80は既に生成された状態であるものとした。尚、図9に示す人形は、それぞれが異なるモデルパラメータベクトルを示している。
図9において、行動選択学習処理部270は、端末装置300からの提示要求を受けると、この提示要求に基づき行動選択肢を生成し、端末装置300に送信する(ステップS901)。ここで送信された行動選択肢は、選択肢1〜3の行動選択肢とした。
端末装置300では、選択肢1〜3が表示される。図9では、端末装置300の利用者Aにより、選択肢3が選択されたものとする。この場合、端末装置300は、選択肢3が選択されたことを行動選択学習処理部270へ通知する(ステップS902)。
すると、行動選択学習処理部270は、参照モデル80に対し、選択肢1〜3と選択結果を含む選択履歴情報を与え、参照モデル80に含まれるモデルパラメータベクトルβ毎に、選択肢1〜3に対する選択確率を算出する(ステップS903)。
そして、行動選択学習処理部270は、選択履歴情報に含まれる選択結果である選択肢3の選択確率が最も高くなるモデルパラメータベクトルβのクラスタ(集合)91を抽出する(ステップS904)。つまり、クラスタ91は、参照モデル80において、利用者Aと同じ選択肢を選択する確率が最も高くなるモデルパラメータベクトルβの集合である。
また、行動選択学習処理部270は、選択肢1の選択確率が最も高くなるモデルパラメータベクトルβの集合と、選択肢2の選択確率が最も高くなるモデルパラメータベクトルβの集合と、を、利用者Aとは異なる選択を行うモデルとして分類する(ステップS905、906)。
次に、行動選択学習処理部270は、クラスタ91に含まれるモデルパラメータベクトルβから、端末装置300の利用者Aのモデルパラメータベクトルを算出し、利用者データベース210の利用者Aと対応する利用者情報を更新する(ステップS907)。
次に、行動選択学習処理部270は、次に端末装置300から行動選択肢の提示要求を受けると、ステップS907で更新した利用者情報(モデルパラメータベクトル)に基づき、行動選択肢(選択肢1〜3)を生成し、端末装置300へ送信する(ステップS908)。
ここで、端末装置300では、利用者Aにより、選択肢2が選択されたものとする。よって、端末装置300は、選択肢2が選択されたことを行動選択学習処理部270へ通知する(ステップS909)。
行動選択学習処理部270は、前回の選択でクラスタリングされたクラスタ91に対し、選択肢1〜3と選択結果を含む選択履歴情報を与え、クラスタ91に含まれるモデルパラメータベクトルβ毎に、選択肢1〜3に対する選択確率を算出する(ステップS910)。
そして、行動選択学習処理部270は、クラスタ91から、選択結果である選択肢2の選択確率が最も高くなるモデルパラメータベクトルβのクラスタ92を抽出する(ステップS911)。クラスタ92は、クラスタ91において、利用者Aと同じ選択肢を選択する確率が最も高くなるモデルパラメータベクトルβの集合である。
また、行動選択学習処理部270は、選択肢1の選択確率が最も高くなるモデルパラメータベクトルβの集合と、選択肢3の選択確率が最も高くなるモデルパラメータベクトルβの集合とを、利用者Aとは異なる選択を行うモデルとして分類する(ステップS912、913)。
次に、行動選択学習処理部270は、において、クラスタ92に含まれるモデルパラメータベクトルβから、端末装置300の利用者Aのモデルパラメータベクトルを算出し、利用者データベース210の利用者Aと対応する利用者情報を更新する(ステップS914)。
本実施形態では、このようにして、参照モデル80から、選択確率が、利用者Aによる選択結果と一致するモデルパラメータベクトルβの集合を抽出する処理を繰り返す。そして、本実施形態では、選択履歴情報を与える前のクラスタと、選択履歴情報を与えた後のクラスタと、が一致したとき、このクラスタにより算出された利用者Aのモデルパラメータベクトルβを確定させる。つまり、利用者Aに対する、要因に対する利益の期待値又は効用の期待値のモデル化が完了する。
以下に、図10乃至図12を参照して、本実施形態の行動選択学習システム100の各装置の処理を説明する。はじめに、図10を参照して、端末装置300の処理について説明する。
図10は、第一の実施形態の端末装置の処理を説明するフローチャートである。本実施形態の端末装置300は、入力制御部311により、端末装置300の利用者からの行動選択肢の提示要求の入力を受け付ける(ステップS1001)。尚、このとき、入力制御部311は、提示要求と共に、利用者ID、交通機関の利用日、希望する出発時刻又は希望する到着予定時刻、出発地及び目的地等の入力を受け付けても良い。
続いて、端末装置300は、提示要求部313により、入力された提示要求を行動選択学習装置200へ送信する(ステップS1002)。
次に、端末装置300は、提示受信部314により、行動選択学習装置200から行動選択肢を受信し、出力制御部312により、行動選択肢を端末装置300の表示操作装置に表示させる(ステップS1003)。
続いて、端末装置300は、入力制御部311により、行動選択肢に対する選択を受け付けると、選択送信部315により、選択された行動選択肢を行動選択学習装置200に送信し(ステップS1004)、処理を終了する。尚、選択送信部315は、選択された行動選択肢を示す情報を行動選択学習装置200に送信しても良いし、選択された行動選択肢を特定する識別子等の情報を行動選択学習装置200に送信しても良い。
次に、図11を参照して、本実施形態の行動選択学習装置200の処理を説明する。図11は、第一の実施形態の行動選択学習装置の処理を説明する第一のフローチャートである。
本実施形態の行動選択学習装置200の行動選択学習処理部270は、要求受付部271により、端末装置300からの行動選択肢の提示要求を受け付ける(ステップS1201)。
続いて、行動選択学習処理部270は、選択肢生成部272により、行動選択肢を生成する(ステップS1102)。具体的には、選択肢生成部272は、提示要求と共に受け付けた交通機関の利用日、希望する出発時刻又は希望する到着予定時刻、出発地及び目的地等に基づき、利用者データベース210の利用者情報と、交通運行データベース240、イベントデータベース250、店舗データベース260等を参照して、行動選択肢を生成しても良い。
次に、行動選択学習処理部270は、選択肢生成部272により、生成した行動選択肢を端末装置300に送信する(ステップS1103)。尚、ここで生成した行動選択肢は、提示要求を行った端末装置300の利用者IDと対応付けられた選択履歴情報として、選択履歴データベース220に格納される。
続いて、行動選択学習処理部270は、選択肢取得部273により、端末装置300において選択された行動選択肢を受信する。そして、選択肢取得部273は、受信した行動選択肢を、ステップS1103で送信した行動選択肢に対する選択結果として、この行動選択肢と対応付けて選択履歴データベース220に格納する(ステップS1104)。
次に、行動選択学習処理部270は、利用者のモデルパラメータベクトルの更新処理を行い(ステップS1105)、処理を終了する。
次に、図12を参照して、利用者のモデルパラメータベクトルの更新処理について説明する。図12は、第一の実施形態の行動選択学習装置の処理を説明する第二のフローチャートである。図12では、図11のステップS1105に示す利用者のモデルパラメータベクトルの更新処理の詳細を示している。
本実施形態の行動選択学習処理部270は、利用者のモデルパラメータベクトルの更新が必要か否かを判定する(ステップS1201)。具体的には、行動選択学習処理部270は、前回の行動選択肢の提示の際に、利用者のモデルパラメータベクトルの更新が行われていない場合には、モデルパラメータベクトルの更新が不要であると判定しても良い。
尚、モデルパラメータベクトルが更新されたか否かを示す情報は、例えば、利用者データベース210や、選択履歴データベース220等において保持されていても良い。
ステップS1201において、モデルパラメータベクトルの更新が不要と判定された場合、行動選択学習処理部270は、処理を終了する。
ステップS1201において、モデルパラメータベクトルの更新が必要と判定された場合、行動選択学習処理部270は、参照モデル記憶部275に参照モデルが記憶されているか否かを判定する(ステップS1202)。
本実施形態において、参照モデル記憶部275に参照モデルが記憶されていない場合とは、行動選択学習装置200が端末装置300において選択された行動選択肢を受信した回数をiとした場合に、i=1の場合である。言い換えれば、参照モデルが記憶されていない場合とは、行動選択学習装置200が初めて、端末装置300から、端末装置300において選択された行動選択肢を受信したときである。
ステップS1202において、参照モデルが記憶されていない場合、参照モデル生成部274は、クラスタC(参照モデル)を生成し、参照モデル記憶部275に記憶させる(ステップS1203)。
ステップS1202において、参照モデルが記憶されている場合、行動選択学習処理部270は、選択確率算出部276により、前回生成された参照モデル(クラスタCi−1)に含まれるモデルパラメータベクトルβ毎に、行動選択肢毎の選択確率を算出する(ステップS1204)。
ここで、選択確率が算出される行動選択肢とは、ステップS1103において選択履歴データベース220に格納された行動選択肢である。言い換えれば、選択確率が算出される行動選択肢とは、端末装置300に提示された全ての行動選択肢である。また、このとき、参照モデル記憶部275に記憶されている参照モデルは、前回の行動選択肢の提示の際においてクラスタリング部278によるクラスタリングされた抽出参照モデルである。
続いて、行動選択学習処理部270は、参照モデル選択決定部277により、モデルパラメータベクトルβ毎に、行動選択肢において、最も選択確率の高い行動選択肢を、選択する行動選択肢に決定する(ステップS1205)。
続いて、行動選択学習処理部270は、クラスタリング部278により、端末装置300において利用者が選択した行動選択肢の選択確率が最も高いモデルパラメータベクトルβを抽出する(ステップS1206)。言い換えれば、クラスタリング部278は、参照モデル選択決定部277により決定された行動選択肢が、端末装置300から受信した選択結果の行動選択肢と一致するモデルパラメータベクトルβを抽出する。
続いて、行動選択学習処理部270は、参照モデル記憶部275により、クラスタリング部278により抽出されたモデルパラメータベクトルβの集合を、クラスタC(参照モデル)として保持する(ステップS1207)。クラスタCは、クラスタCに含まれる部分集合である。
次に、行動選択学習処理部270は、クラスタリング部278により、ステップS1206で抽出したクラスタCと、クラスタCi−1とが一致するか否かを判定する(ステップS1208)。
ステップS1208において、両者が一致する場合、クラスタCは、端末装置300の利用者のモデルパラメータベクトルβと類似していることを示すため、行動選択学習処理部270は、処理を終了する。
ステップS1208において、両者が一致しない場合、行動選択学習処理部270は、モデルパラメータベクトル算出部279により、クラスタCに基づき、利用者のモデルパラメータベクトルβを算出する(ステップS1209)。尚、モデルパラメータベクトル算出部279による利用者のモデルパラメータベクトルβの算出の詳細は後述する。
続いて、行動選択学習処理部270は、妥当性判定部280により、ステップS1209で算出した利用者のモデルパラメータベクトルβが妥当であるか否かを判定する(ステップS1210)。
具体的には、妥当性判定部280は、算出された利用者のモデルパラメータベクトルβを用いて、端末装置300に提示した行動選択肢毎の選択確率を算出し、選択確率が最も高い行動選択肢が、選択結果の行動選択肢と一致するか否かを判定している。
行動選択学習処理部270は、妥当性判定部280により、算出されたモデルパラメータベクトルβが妥当でないと判定された場合(ステップS1211)、つまり、選択確率が最も高い行動選択肢が、選択結果の行動選択肢と一致しない場合、そのまま処理を終了する。
また、行動選択学習処理部270は、ステップS1211において、算出されたモデルパラメータベクトルβが妥当と判定された場合、つまり、選択確率が最も高い行動選択肢が、選択結果の行動選択肢と一致する場合、利用者のモデルパラメータベクトルを更新すし(ステップS1212)、処理を終了する。具体的には、行動選択学習処理部270は、利用者データベース210における端末装置300の利用者IDと対応する各パラメータの値を、算出されたモデルパラメータベクトルβに含まれる各パラメータの値に書き換える。
以下に、図13乃至図15を参照して、本実施形態の行動選択学習処理部270の処理について、さらに説明する。
尚、図13乃至図15では、説明の便宜上、モデルパラメータベクトルβに含まれるパラメータをβ、βの2つとして説明する。
図13は、第一の実施形態の行動選択学習処理部の処理を説明する第一の図である。図14は、第一の実施形態の行動選択学習処理部の処理を説明する第二の図である。図13の例では、行動選択学習処理部270が初めて端末装置300から選択結果の行動選択肢を受信した場合と、2回目に端末装置300から選択結果を受信した場合と、を示している。図14の例では、行動選択学習処理部270が3回目の選択結果を受信した結果、利用者のモデルパラメータベクトルの更新が不要となった場合を示している。
行動選択学習処理部270は、初めて端末装置300から選択結果を受信した場合は、参照モデルとして、クラスタCを生成する。そして、行動選択学習処理部270は、クラスタCに、1回目の選択履歴情報を与える。
ここでは、端末装置300の利用者Aは、提示された行動選択肢の中から、選択肢1を選択したものとして説明する。
この場合、行動選択学習処理部270は、クラスタCに含まれる各モデルパラメータベクトルβについて、選択肢1の選択確率が最も高くなるモデルパラメータベクトルβの集合を抽出し、クラスタCとする。図13の例では、利用者データベース210に格納されている利用者Aのモデルパラメータベクトルβ (0)を含むクラスタCが生成される。このクラスタCは、参照モデル記憶部275により記憶される。
また、このとき、クラスタCとクラスタCとは、一致しないため、行動選択学習処理部270は、モデルパラメータベクトル算出部279により、モデルパラメータベクトルβ (0)を、クラスタCに基づき算出されたモデルパラメータベクトルβ (1)に更新する。
ここで、本実施形態のモデルパラメータベクトル算出部279による、利用者Aのモデルパラメータベクトルβの算出について説明する。
本実施形態のモデルパラメータベクトル算出部279は、以下の式(4)により、利用者Aのモデルパラメータベクトルβを算出する。ここで算出される利用者Aのモデルパラメータベクトルβは、クラスタCに含まれるモデルパラメータベクトルβの各パラメータの平均を、選択確率に基づき重み付けをした値である。
Figure 0006795090
尚、式(4)において、利用者Aのモデルパラメータベクトルβに含まれるパラメータは、β1、A、β2、Aである。また、式(4)において、Cは、クラスタである。
また、式(4)において、piは、参照モデル又は抽出参照モデルに含まれるi番目のモデルパラメータベクトルβに基づき算出された、利用者と同じ行動選択肢の選択確率のうち、最も高い選択確率の値を示す。
次に、行動選択学習処理部270は、端末装置300から、提示された行動選択肢のうちの選択肢4を選択結果として受信する。
この場合、行動選択学習処理部270は、選択結果である選択肢4と、提示された行動選択肢と、を含む2回目の選択履歴情報をクラスタCに与える。
すると、行動選択学習処理部270は、クラスタCに含まれる各モデルパラメータベクトルβについて、選択肢4の選択確率が最も高くなるモデルパラメータベクトルβの集合を抽出し、クラスタCとする。図13の例では、利用者Aのモデルパラメータベクトルβ (1)を含むクラスタCが生成される。このクラスタCは、参照モデル記憶部275により記憶される。
また、このとき、クラスタCとクラスタCとは一致しないため、行動選択学習処理部270は、モデルパラメータベクトル算出部279により、モデルパラメータベクトルβ (1)をクラスタCに基づき算出されたモデルパラメータベクトルβ (2)に更新する。
次に、図14を参照する。
行動選択学習処理部270は、3回目の行動選択肢の提示において、端末装置300から、提示された行動選択肢のうちの選択肢10を選択結果として受信する。
この場合、行動選択学習処理部270は、選択結果である選択肢10と、提示された行動選択肢と、を含む3回目の選択履歴情報をクラスタCに与える。
すると、行動選択学習処理部270は、クラスタCに含まれる各モデルパラメータベクトルβについて、選択肢10の選択確率が最も高くなるモデルパラメータベクトルβの集合を抽出し、クラスタCとする。図14の例では、利用者Aのモデルパラメータベクトルβ (2)を含むクラスタCが生成される。このクラスタCは、参照モデル記憶部275により記憶される。
ここで、図14の例では、クラスタCとクラスタCとは一致する。したがって、行動選択学習処理部270は、モデルパラメータベクトルβ (2)を更新せず、このモデルパラメータベクトルβ (2)に含まれる各パラメータの値を、利用者データベース210に格納する。
図15は、第一の実施形態の行動選択学習処理部の処理を説明する第三の図である。図15では、妥当性判定部280による判定により、モデルパラメータベクトル算出部279により算出された利用者Aのモデルパラメータベクトルβが、妥当ではない、判定される場合について示している。
図15において、初めて端末装置300から選択結果を受信した場合は、参照モデルとして、クラスタCを生成する。そして、行動選択学習処理部270は、クラスタCに、1回目の選択履歴情報を与える。この選択履歴情報に含まれる選択結果は選択肢3である。
この場合、行動選択学習処理部270は、クラスタCに含まれる各モデルパラメータベクトルβについて、選択肢3の選択確率が最も高くなるモデルパラメータベクトルβを抽出し、クラスタC1Aとする。また、行動選択学習処理部270は、クラスタC1Aを用いて、利用者Aのモデルパラメータベクトルβ (3)が算出される。
このとき、本実施形態では、モデルパラメータベクトルβ (3)に基づき、クラスタCに与えた選択履歴情報に含まれる行動選択肢のうち、選択確率が最も高くなる選択肢を求め、利用者Aの選択結果と、一致するか否かを判定する。図15の場合、両者が一致しないため、行動選択学習処理部270は、利用者データベース210をモデルパラメータベクトルβ (3)により更新せずに、処理を終了する。
本実施形態では、以上のようにして、端末装置300の利用者毎に、利用者による行動選択肢の選択履歴に基づきの利用者の行動の選択により得られる満足度に影響を与える要因と、その影響度とを示すモデルパラメータベクトルを生成する。そして、本実施形態では、利用者毎のモデルパラメータベクトルに基づき、行動選択肢を生成し、利用者に提示する。したがって、本実施形態によれば、簡素な手順で利用者が受け容れ易い行動の選択肢を提示することができる。
尚、本実施形態の選択肢生成部272は、端末装置300から行動選択肢の提示要求を受け付けると、交通運行データベース240、イベントデータベース250、店舗データベース260等から取り得る行動選択肢を生成する。そして、選択肢生成部272は、生成された行動選択肢について、利用者のモデルパラメータベクトルβに基づき選択確率を算出し、選択確率が高い順に、利用者に提示する行動選択肢を選択し、端末装置300へ送信しても良い、
本実施形態では、このとき参照されるモデルパラメータベクトルβが、利用者個々のものであるため、利用者に取って受け容れ易い行動選択肢を提示することができ、個々の利用者の行動を変化させる可能性を高めることができる。
次に、図16を参照して、行動選択肢が端末装置300に表示された例について説明する。図16は、第一の実施形態の端末装置に行動選択肢が表示された画面の例を示す図である。
図16に示す画面301は、表示欄304と表示欄305を有し、行動選択肢として、時間帯毎の移動手段と店舗の組合せが表示されている。
画面301では、表示欄304には、行動選択肢として、移動手段nと時間帯lの組合せが表示される。また、画面301では、表示欄305には、行動選択肢として、移動手段nと時間帯lの組合せに対応付けられた店舗の情報が表示されている。
図16の例では、表示欄304において、「乗り場Aから、タクシーTで17:30〜17:44に移動」という組合せが利用者により選択された場合を示している。この場合、表示欄305には、この組合せと対応付けられた店舗の店舗情報307が表示される。
店舗情報307は、例えば店舗データベース260において、該当する店舗のクーポン有無が「有」の場合は、クーポンが表示される画面のURL(Uniform Resource Locator)が含まれても良い。また、店舗情報307には、該当する店舗のホームページのURLが表示されていても良い。
図16の例では、店舗情報307において、クーポンボタン307aが操作されると、クーポンが画面301に表示されても良い。また、図16の例では、店舗情報307において、詳細ボタン307bが操作されると、店舗Kのホームページが画面301に表示されても良い。
尚、図16の例では、移動手段の混雑状況を示す情報が表示され、店舗の混雑状況を示す情報については表示されないものとしたが、これに限定されない。例えば立ち寄り先が映画館や飲食店等の座席数に制限がある施設である場合には、店舗データベース260に格納された施設毎の混雑度レベルに応じた混雑状況を示す情報を表示させても良い。
(第二の実施形態)
以下に図面を参照して、第二の実施形態について説明する。第二の実施形態は、行動選択学習処理部270におけるクラスタリングの方法が第一の実施形態と相違する。よって、以下の第二の実施形態の説明では、第一の実施形態との相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
本実施形態では、利用者による一連の行動選択肢の選択において、選択確率が最も高くなる選択肢が、利用者の選択した選択肢と一致する割合が一定以上であるモデルパラメータベクトルβを、利用者と類似した行動を示すモデルパラメータベクトルと見なす。
以下に、図17を参照して、本実施形態のクラスタリング部278によるクラスタリングについて説明する。図17は、第二の実施形態のクラスタリングについて説明する図である。
尚、図17では、利用者による一連の行動選択肢の選択を3回とし、選択確率が最も高くなる選択肢が、利用者の選択した選択肢と一致する割合が6割以上のモデルパラメータベクトルβからクラスタを生成する例を示す。
図17において、1回目の行動選択肢の提示において、利用者が行動選択肢のうち、選択肢1が選択され、2回目の行動選択肢の提示において、利用者が行動選択肢のうち、選択肢2が選択され、3回目の行動選択肢の提示において、利用者が行動選択肢のうち、選択肢3が選択されたとする。
この場合、行動選択学習処理部270は、選択確率が最も高くなる選択肢が、利用者の選択した選択肢と2回以上一致するモデルパラメータベクトルβの集合を抽出し、クラスタを生成する。
例えば、行動選択学習処理部270は、参照モデル(クラスタC)を生成する。そして、クラスタCに含まれるモデルパラメータベクトルβから、1回目の選択において、選択肢1の選択確率が最も高くなるモデルパラメータベクトルβの集合をクラスタCとして抽出する。
次に、行動選択学習処理部270は、クラスタCに含まれるモデルパラメータベクトルβから、2回目の選択の行動選択肢において、選択肢2の選択確率が最も高くなるモデルパラメータベクトルβの集合をクラスタCとして抽出する。
同様にして、行動選択学習処理部270は、クラスタCに含まれるモデルパラメータベクトルβから、3回目の選択の行動選択肢において、選択肢3の選択確率が最も高くなるモデルパラメータベクトルβの集合をクラスタCとして抽出する。
そして、行動選択学習処理部270は、抽出されたクラスタC、クラスタC、クラスタCにおいて、選択確率が最も高くなる選択肢が、利用者の選択した選択肢と2回以上一致するモデルパラメータベクトルβの集合を抽出参照モデル(クラスタ)として抽出し、抽出参照モデルに基づき、モデルパラメータベクトルβを算出する。
本実施形態では、このようにして、利用者のモデルパラメータベクトルβの算出の元となるクラスタを生成することで、利用者のモデルパラメータベクトルβと類似したモデルパラメータベクトルを含めて、利用者のモデルパラメータベクトルβを更新できる。
尚、上述した方法により、利用者のモデルパラメータベクトルβと類似したモデルパラメータベクトルを抽出する場合、例えば、過去に遡る選択の回数が予め指定されているものとした。例えば、過去10回の選択について遡る場合には、過去10回の選択において、利用者の選択結果と、各選択における行動選択肢のうち、選択確率が最も高くなる選択肢とが一致する回数が6回以上となるモデルパラメータベクトルを抽出し、クラスタを生成すれば良い。
以下に、図18を参照して、本実施形態における行動選択学習処理部270の処理について説明する。図18は、第二の実施形態の行動選択学習装置の処理を説明するフローチャートである。図18では、本実施形態における利用者のモデルパラメータベクトルの更新処理の詳細を示している。
本実施形態の行動選択学習処理部270は、参照モデル生成部274により、参照モデルを生成し、参照モデル記憶部275に記憶させる(ステップS1801)。
続いて、行動選択学習処理部270は、所定回数分の選択履歴情報において、各行動選択肢について、参照モデルに含まれるモデルパラメータベクトルβ毎に、選択確率を算出する(ステップS1802)。
続いて、行動選択学習処理部270は、クラスタリング部278により、所定回数分の選択履歴情報において、選択確率が最も高くなる選択肢が、選択結果と一致する割合が、所定の値以上であるモデルパラメータベクトルβを抽出する(ステップS1803)。このときの所定の値は、例えば、9割程度であっても良く、予め設定されていても良い。
続いて、行動選択学習処理部270は、クラスタリング部278により、抽出したモデルパラメータベクトルβの集合を、抽出参照モデル(クラスタ)として参照モデル記憶部275に記憶させね(ステップS1804)。
次に、行動選択学習処理部270は、抽出参照モデルに含まれるモデルパラメータベクトルβに基づき、利用者のモデルパラメータベクトルβを算出し(ステップS1805)、ステップS1806へ進む。
ステップS1806からステップS1808の処理は、図12のステップS1210からステップS1212の処理と同様であるから、説明を省略する。
尚、本実施形態では、行動選択肢における選択結果と、選択確率が最も高くなる選択肢とが一致する割合が一定以上のモデルパラメータベクトルβの集合を抽出参照モデルとするものとしたが、これに限定されない。
本実施形態では、例えば、過去N回の利用者による行動選択肢の選択結果と、選択確率が最も高くなる選択肢と、が一致する確率が閾値以上のモデルパラメータベクトルβの集合を、抽出参照モデルとしても良い。
ここで、例えば、利用者が過去k回目の選択において選択しただ選択肢をiであった場合、選択肢iの選択確率をProbikとする。この場合、過去N回連続で利用者と同じ選択肢を選択する確率が、以下の式(5)に示す条件を満たすモデルパラメータベクトルβから、抽出参照モデルを生成し、利用者のモデルパラメータベクトルを更新すれば良い。尚、Pは閾値である。
Figure 0006795090
(第三の実施形態)
以下に図面を参照して、第三の実施形態について説明する。第三の実施形態では、行動選択肢が提示された際に、利用者が提示された行動選択肢を閲覧するのみで、選択する操作を行わない場合を考慮した点が、第一の実施形態と相違する。よって、以下の第三の実施形態の説明では、第一の実施形態との相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
図19は、第三の実施形態の行動選択学習システムの有する各装置の機能について説明する図である。
本実施形態の行動選択学習システム100Aは、行動選択学習装置200Aと、端末装置300と、有する。本実施形態の行動選択学習装置200Aは、行動選択学習処理部270Aを有する。
本実施形態の行動選択学習処理部270Aは、第一の実施形態の行動選択学習処理部270の有する各部に加え、選択行動推定部282を有する。
本実施形態の選択行動推定部282は、位置情報受信部281が端末装置300から受信する位置情報に基づき、端末装置300の利用者が選択した行動選択肢を推定する。例えば、行動選択学習処理部270Aは、端末装置300に対して、バスを用いる行動選択肢、鉄道を用いる行動選択肢、タクシーを用いる行動選択肢の3つを提示した場合について考える。この場合、行動選択学習処理部270は、選択結果を受信しなくても、端末装置300の位置情報が示す場所がバス停の近辺である場合には、行動選択肢が選択されたものと推定できる。
以下に、図20を参照して、本実施形態の行動選択学習装置200Aの処理について説明する。図20は、第三の実施形態の行動選択学習装置の処理を説明するフローチャートである。
図20のステップS2001からステップS2003の処理は、図11のステップS1101からステップS1103までの処理と同様であるから、説明を省略する。
行動選択学習処理部270Aの選択肢取得部273は、行動選択肢を送信してから、所定時間内に選択結果を受信したか否かを判定する(ステップS2004)。
ステップS2004において、所定時間内に選択結果を受信しない場合、行動選択学習処理部270は、位置情報受信部281が受信した位置情報に基づき、選択行動推定部282により、端末装置300において選択された行動を推定する(ステップS2005)。このとき、本実施形態の選択行動推定部282は、推定した結果の行動選択肢を、選択履歴データベース220の選択結果に格納しても良い。
ステップS2004において、所定時間内に選択結果を受信した場合、行動選択学習処理部270Aは、ステップS2006へ進む。ステップS2006の処理は、図11のステップS1105の処理と同様であるから、説明を省略する。
以上のように、本実施形態によれば、端末装置300において、利用者が行動選択肢を選択する操作を行わなくても、端末装置300の利用者が選択した行動を推定することができる。したがって、本実施形態によれば、端末装置300の利用者が、提示された行動選択肢を参照して行動を選択した場合であっても、利用者毎のモデルパラメータベクトルβにその行動を反映させることができる。
本発明は、具体的に開示された実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
100、100A 行動選択学習システム
200、200A 行動選択学習装置
210 利用者データベース
220 選択履歴データベース
230 位置情報データベース
240 交通運行データベース
250 イベントデータベース
260 店舗データベース
270、270A 行動選択学習処理部
271 要求受付部
272 選択肢生成部
273 選択肢取得部
274 参照モデル生成部
275 参照モデル記憶部
276 選択確率算出部
277 参照モデル選択決定部
278 クラスタリング部
279 モデルパラメータベクトル算出部
280 妥当性判定部
281 位置情報受信部
282 選択行動推定部
300 端末装置
310 提示処理部

Claims (13)

  1. 行動選択肢の選択に影響を与える要因毎の影響度を示すモデルパラメータベクトルの集合である参照モデルを生成する参照モデル生成部と、
    前記モデルパラメータベクトルのそれぞれについて、行動選択肢毎の選択確率を算出する選択確率算出部と、
    前記行動選択肢毎の選択確率と、利用者による前記行動選択肢の選択履歴と、に基づき、前記参照モデルから抽出されたモデルパラメータベクトルの部分集合を用いて、前記利用者毎のモデルパラメータベクトルを算出するモデルパラメータベクトル算出部と、
    前記利用者毎のモデルパラメータベクトルに基づき、前記行動選択肢を生成して端末装置に送信する選択肢生成部と、を有する行動選択学習装置。
  2. 前記行動選択肢毎の選択確率が最も高い行動選択肢を、前記モデルパラメータベクトルにおいて選択される行動選択肢とする選択決定部を有する請求項1記載の行動選択学習装置。
  3. 前記参照モデルから前記部分集合を抽出するクラスタリング部を有し、
    前記クラスタリング部は、
    前記行動選択肢毎の選択確率が最も高い行動選択肢が、前記利用者により選択された行動選択肢と一致する前記モデルパラメータベクトルを抽出する、請求項2記載の行動選択学習装置。
  4. 前記クラスタリング部は、
    前記行動選択肢毎の選択確率が最も高い行動選択肢が、前記利用者により選択された行動選択肢と一致した割合が、所定の割合以上の前記モデルパラメータベクトルを抽出する、請求項3記載の行動選択学習装置。
  5. 前記クラスタリング部は、
    前記行動選択肢毎の選択確率が最も高い行動選択肢が、前記利用者により選択された行動選択肢と一致する確率が、所定の確率以上の前記モデルパラメータベクトルを抽出する、請求項3又は4記載の行動選択学習装置。
  6. 前記モデルパラメータベクトル算出部は、
    前記部分集合に含まれるモデルパラメータベクトルそれぞれについて算出された、行動選択肢毎の選択確率に基づき算出される、請求項1乃至5の何れか一項に記載の行動選択学習装置。
  7. 前記端末装置において選択された行動選択肢を取得する選択肢取得部と、
    前記選択肢生成部により生成された行動選択肢と、前記選択肢取得部により取得された行動選択肢と、を対応付けた選択履歴情報を格納する選択履歴記憶部と、を有する請求項1乃至6の何れか一項に記載の行動選択学習装置。
  8. 前記端末装置の位置情報を受信する位置情報受信部と、
    前記位置情報に基づき、前記端末装置の利用者が選択した行動選択肢を推定する選択行動推定部と、を有し、
    前記選択行動推定部により推定された行動選択肢が、前記選択肢生成部により生成された行動選択肢と対応付けられて前記選択履歴記憶部に格納される、請求項7記載の行動選択学習装置。
  9. 前記利用者毎のモデルパラメータベクトルが格納された利用者情報記憶部と、
    前記利用者情報記憶部に格納された前記利用者毎のモデルパラメータベクトルを、前記モデルパラメータベクトル算出部により算出された利用者毎のモデルパラメータベクトルに更新するか否かを判定する妥当性判定部と、を有し、
    前記妥当性判定部は、
    前記モデルパラメータベクトル算出部により算出された利用者毎のモデルパラメータベクトルについて算出された行動選択肢毎の選択確率のうち、最も選択確率が高い行動選択肢と、前記選択履歴が示す行動選択肢とが一致する場合に、前記利用者情報記憶部に格納された前記利用者毎のモデルパラメータベクトルを更新する、と判定する、請求項1乃至8の何れか一項に記載の行動選択学習装置。
  10. 前記行動選択肢の選択に影響を与える要因は、利用者が行動選択肢の選択により得られる満足度に影響を与える要因である、請求項1乃至9の何れか一項に記載の行動選択学習装置。
  11. 行動選択肢の選択に影響を与える要因毎の影響度を示すモデルパラメータベクトルの集合である参照モデルを生成する処理と、
    前記モデルパラメータベクトルのそれぞれについて、行動選択肢毎の選択確率を算出する処理と、
    前記行動選択肢毎の選択確率と、利用者による前記行動選択肢の選択履歴と、に基づき、前記参照モデルから抽出されたモデルパラメータベクトルの部分集合を用いて、前記利用者毎のモデルパラメータベクトルを算出する処理と、
    前記利用者毎のモデルパラメータベクトルに基づき、前記行動選択肢を生成して端末装置に送信する処理と、をコンピュータに実行させる行動選択学習プログラム。
  12. コンピュータによる行動選択学習方法であって、該コンピュータが、
    行動選択肢の選択に影響を与える要因毎の影響度を示すモデルパラメータベクトルの集合である参照モデルを生成し、
    前記モデルパラメータベクトルのそれぞれについて、行動選択肢毎の選択確率を算出し、
    前記行動選択肢毎の選択確率と、利用者による前記行動選択肢の選択履歴と、に基づき、前記参照モデルから抽出されたモデルパラメータベクトルの部分集合を用いて、前記利用者毎のモデルパラメータベクトルを算出し、
    前記利用者毎のモデルパラメータベクトルに基づき、前記行動選択肢を生成して端末装置に送信する、行動選択学習方法。
  13. 端末装置と、行動選択学習装置とを有する行動選択学習システムであって、
    前記行動選択学習装置、
    行動選択肢の選択に影響を与える要因毎の影響度を示すモデルパラメータベクトルの集合である参照モデルを生成する参照モデル生成部と、
    前記モデルパラメータベクトルのそれぞれについて、行動選択肢毎の選択確率を算出する選択確率算出部と、
    前記行動選択肢毎の選択確率と、利用者による前記行動選択肢の選択履歴と、に基づき、前記参照モデルから抽出されたモデルパラメータベクトルの部分集合を用いて、前記利用者毎のモデルパラメータベクトルを算出するモデルパラメータベクトル算出部と、
    前記利用者毎のモデルパラメータベクトルに基づき、前記行動選択肢を生成して端末装置に送信する選択肢生成部と、を有する行動選択学習システム。
JP2019515027A 2017-04-28 2017-04-28 行動選択学習装置、行動選択学習プログラム、行動選択学習方法及び行動選択学習システム Active JP6795090B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/016948 WO2018198323A1 (ja) 2017-04-28 2017-04-28 行動選択学習装置、行動選択学習プログラム、行動選択学習方法及び行動選択学習システム

Publications (2)

Publication Number Publication Date
JPWO2018198323A1 JPWO2018198323A1 (ja) 2020-03-05
JP6795090B2 true JP6795090B2 (ja) 2020-12-02

Family

ID=63918105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019515027A Active JP6795090B2 (ja) 2017-04-28 2017-04-28 行動選択学習装置、行動選択学習プログラム、行動選択学習方法及び行動選択学習システム

Country Status (3)

Country Link
US (1) US11449770B2 (ja)
JP (1) JP6795090B2 (ja)
WO (1) WO2018198323A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7079445B2 (ja) * 2018-09-25 2022-06-02 本田技研工業株式会社 モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法
JP6770154B1 (ja) * 2019-08-28 2020-10-14 和則 藤沢 配車用ユーザ端末および配車システム並びにこれらで実行されるプログラム
JPWO2022201435A1 (ja) * 2021-03-25 2022-09-29
US12014310B2 (en) 2021-06-28 2024-06-18 Oracle International Corporation Artificial intelligence based hotel demand model
US20230376861A1 (en) * 2022-05-17 2023-11-23 Oracle International Corporation Artificial Intelligence Based Upsell Model
JP2023174235A (ja) * 2022-05-27 2023-12-07 富士通株式会社 価値算出モデルの学習方法及びプログラム、並びに選択確率推定方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001337967A (ja) 2000-05-25 2001-12-07 Hitachi Ltd 交通機関の情報提示システム
JP5520886B2 (ja) 2011-05-27 2014-06-11 日本電信電話株式会社 行動モデル学習装置、方法、及びプログラム
JP5879899B2 (ja) 2011-10-12 2016-03-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9219668B2 (en) * 2012-10-19 2015-12-22 Facebook, Inc. Predicting the future state of a mobile device user
JP2014104764A (ja) 2012-11-22 2014-06-09 Toshiba Corp 列車混雑緩和支援装置及び列車混雑緩和支援方法
JP2014106661A (ja) 2012-11-27 2014-06-09 Nippon Telegr & Teleph Corp <Ntt> ユーザ状態予測装置及び方法及びプログラム
JP5813052B2 (ja) * 2013-05-14 2015-11-17 Necパーソナルコンピュータ株式会社 情報処理装置、方法及びプログラム
US20140365250A1 (en) * 2013-06-05 2014-12-11 Fujitsu Limited Transportation service reservation method and apparatus
JP5865297B2 (ja) * 2013-06-17 2016-02-17 新日鉄住金ソリューションズ株式会社 候補提示装置、候補提示方法及びプログラム
JP2015097036A (ja) * 2013-11-15 2015-05-21 日本電信電話株式会社 推薦画像提示装置及びプログラム
US10628758B2 (en) * 2014-10-28 2020-04-21 Fujitsu Limited Transportation service reservation method, transportation service reservation apparatus, and computer-readable storage medium
US10274330B2 (en) * 2014-12-30 2019-04-30 Here Global B.V. Method and apparatus for providing a navigation route
US10527437B2 (en) * 2017-03-27 2020-01-07 International Business Machines Corporation Cognitive journey companion system

Also Published As

Publication number Publication date
US11449770B2 (en) 2022-09-20
JPWO2018198323A1 (ja) 2020-03-05
WO2018198323A1 (ja) 2018-11-01
US20200012956A1 (en) 2020-01-09

Similar Documents

Publication Publication Date Title
JP6795090B2 (ja) 行動選択学習装置、行動選択学習プログラム、行動選択学習方法及び行動選択学習システム
Gurumurthy et al. Analyzing the dynamic ride-sharing potential for shared autonomous vehicle fleets using cellphone data from Orlando, Florida
Moreno et al. Shared Autonomous Vehicles Effect on Vehicle‐Km Traveled and Average Trip Duration
Gavalas et al. The eCOMPASS multimodal tourist tour planner
US7085726B1 (en) Robustness and notifications in travel planning system
JP6557662B2 (ja) 運賃利用可能性、たとえば航空運賃利用可能性を提供するための方法及びサーバ
US20180172458A1 (en) Travel planning system, travel planning method, and program
Nuzzolo et al. Individual utility‐based path suggestions in transit trip planners
JP6058139B2 (ja) 公共輸送機関ナビゲータ
JP7285583B2 (ja) 情報処理システム
JP6473158B2 (ja) 見積もり価格、たとえば航空運賃価格見積もりの組を提供するための方法及びサーバ
CN104756143A (zh) 获得事件评论
JP5356100B2 (ja) 情報処理システム及び方法
JP2016091546A (ja) 旅行プランナーのための旅行再ランキング
JP6631695B2 (ja) 混雑マネジメント装置、混雑マネジメントプログラム及び混雑マネジメント方法
JP2014203272A (ja) 新規出店候補地分析装置及び方法及びプログラム
US20160131491A1 (en) Interactively Scheduling an Itinerary
WO2020228626A1 (en) Method and system for recommending multi-modal itineraries
Gavalas et al. A personalized multimodal tourist tour planner
WO2018172906A1 (ja) 行動管理方法、行動管理装置、並びに決済補助コンピュータ
JP2014190952A (ja) ナビゲーションシステム、ナビゲーション方法、及びナビゲーションプログラム
JP6745925B2 (ja) データ処理装置、データ処理方法およびプログラム
JP7510458B2 (ja) 周辺情報表示装置、その方法及びプログラム
JP6048196B2 (ja) ナビゲーションシステム、ナビゲーション方法、及びナビゲーションプログラム
JP7335121B2 (ja) 提案装置、提案方法及び提案プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201026

R150 Certificate of patent or registration of utility model

Ref document number: 6795090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150