JP6352357B2 - モデル生成装置、モデル生成方法、及びモデル生成プログラム - Google Patents

モデル生成装置、モデル生成方法、及びモデル生成プログラム Download PDF

Info

Publication number
JP6352357B2
JP6352357B2 JP2016197333A JP2016197333A JP6352357B2 JP 6352357 B2 JP6352357 B2 JP 6352357B2 JP 2016197333 A JP2016197333 A JP 2016197333A JP 2016197333 A JP2016197333 A JP 2016197333A JP 6352357 B2 JP6352357 B2 JP 6352357B2
Authority
JP
Japan
Prior art keywords
user
data
emotion
occasion
model generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016197333A
Other languages
English (en)
Other versions
JP2017027614A (ja
Inventor
慎一郎 岡本
慎一郎 岡本
明 宮田
明 宮田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016197333A priority Critical patent/JP6352357B2/ja
Publication of JP2017027614A publication Critical patent/JP2017027614A/ja
Application granted granted Critical
Publication of JP6352357B2 publication Critical patent/JP6352357B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、モデル生成装置、モデル生成方法、及びモデル生成プログラムに関する。
従来、ユーザの置かれている状況に対する当該ユーザの欲求を予測する装置が知られている(例えば、特許文献1参照)。
特許文献1に記載の装置は、ユーザ行動履歴データベース、ユーザプロファイルデータベース、コンテキスト−欲求組み合わせ確率データベース、及びコンテキスト−欲求データベースを備えている。ここで、ユーザ行動履歴データベースは、各ユーザに対するユーザが選択したアイテムと、そのアイテムを選択することで満たされる基本的欲求の種別とを記録する。ユーザプロファイルデータベースは、各ユーザに対して当該ユーザが日常的にどの程度の欲求を持っているかを示した欲求度を記録する。コンテキスト−欲求組み合わせ確率データベースは、各コンテキスト(ユーザの置かれている状況)に対して、当該コンテキスト状況下で欲求が満足される確率を記録する。コンテキスト−欲求データベースは、各アイテムに対して、ユーザが当該アイテムを選択した際に満足される欲求、及びアイテムを選択するのに適したコンテキストが記録される。
そして、この特許文献1の装置は、ユーザ行動履歴データベース、及びユーザプロファイルデータベースにより、ユーザの現在の基本的欲求の強さを算出する。また、日時や温度等に基づいてユーザが現在置かれている状況(コンテキスト)を判定する。そして、コンテキスト−欲求組み合わせ確率データベースを用いて、コンテキストとアイテムが満たすべき欲求との組み合わせを決定する。この後、コンテキスト−欲求データベースを用いて、最適な組み合わせに対するコンテキストに対するアイテムを決定する。
特開2012−256183号公報
ところで、近年、スマートフォン等の携帯端末の普及やインターネット網の発達に伴い、より良いサービスを提供するために、ユーザから提供されたデータに基づいてユーザの行動予測を行うことで、サービスの質を向上させることが望まれている。
上記特許文献1のような装置を用いて、ユーザ行動を予測する場合、ユーザのコンテキストに対する欲求予測を行い、その欲求に対してユーザの行動を予測することが考えられる。しかしながら、コンテキストに対するユーザの欲求は、個々のユーザによって異なるものであり、当該欲求に対してユーザが起こす行動もそれぞれ異なる。また、個々のユーザに対して、同じコンテキスト下で毎回同じ行動を起こすとも限られない。従って、上記のような画一的なデータベースを用いたユーザの欲求予測を用いた行動予測には限界があり、その精度が低下するとの課題があった。
本発明は、ユーザの行動予測の精度を向上させるモデル生成装置、モデル生成方法、及びモデル生成プログラムを提供することを目的とする。
本発明のモデル生成装置は、少なくともユーザ行動に基づく行動データを含むユーザデータ、及び時系列で変化するユーザの動きに基づいたモーションデータを取得するデータ取得手段と、前記ユーザデータに基づいて、前記ユーザのオケージョンを推定するオケージョン推定手段と、前記モーションデータに基づいて、前記ユーザの感情を推定する感情推定手段と、前記オケージョン推定手段により推定された前記オケージョン、及び前記感情推定手段により推定された前記感情の推移に基づいて、体験モデルデータを生成する体験モデル処理手段と、を備えたことを特徴とする。
本発明は、ユーザの動きであるモーションデータに基づいて、当該ユーザの動作状況に対する感情を推定する。また、行動データを少なくとも含むユーザデータに基づいてオケージョン(ユーザの置かれたシチュエーション等)を推定する。なお、行動データとしては、例えば、ユーザの現在位置や、Webの閲覧履歴、操作ログ、生活時間情報、平日休日情報等が含まれる。そして、体験モデル処理手段は、これらのオケージョンに対応する感情の推移から体験モデルデータを生成する。このため、ユーザのオケージョンや当該オケージョンにおける動作状況毎の感情の推移をモデル化でき、高精度な行動予測を行える。
本実施形態におけるユーザの行動予測処理の概略を示す図。 本実施形態の行動予測システムの概略構成を示すブロック図。 サーバ装置の概略構成を示すブロック図。 本実施形態における感情推定処理を示すフローチャート。 HMM(隠れマルコフモデル;Hidden Markov Model)を用いた動作状況の推定メカニズムを示す図。 モーションデータからSOM(自己組織化マップ;Self-Organizing Maps)への写像の一例を示す図。 SOMの一例であり、(A)は、感情Aを感じている場合のSOMの特徴部の例であり、(B)は、感情Bを感じている場合のSOMの特徴部の例を示す図。 本実施形態の行動予測システムにおける体験モデル生成処理を示すフローチャート。 体験モデル生成手段による体験モデル生成処理の概略を示す図。 本実施形態の行動予測システムにおける行動予測処理を示すフローチャート。
以下、本発明に係る一実施形態の行動予測システムについて、図面に基づいて説明する。
[本実施形態の行動予測システムの概要]
本実施形態における行動予測システムは、人間の行動メカニズム(ニューロサイエンスの知見によるメカニズム)を考慮に入れながら、人間の行動を正確に分析することを目的として本願発明者が考案したものである。
図1は、本実施形態におけるユーザの行動予測処理の概略を示す図である。
本実施形態では、人間の行動メカニズムを参考にしたメカニズムを用いて、ユーザの行動を高度に予測するものであり、図1に示すような処理を実施することでこれを実現する。
すなわち、本実施形態の行動予測システムは、ユーザが保有するユーザ端末から入力された各種入力データを受信する(入力処理)と、その受信した入力データに基づいて、ユーザの置かれた状況(シチュエーション等)を推定する(オケージョン推定処理)。また、同時に、入力データに基づいて、状況に対するユーザが抱く感情や情動を推定する(感情推定処理)。そして、これらのオケージョン処理結果、感情推定処理結果からその特徴部分を抽出し(特徴抽出処理)、体験モデルデータを生成して(体験モデル生成処理)、記憶部に記憶する(体験モデル記憶処理)。さらに、記憶部に記憶された体験モデルデータを参照し(体験モデル参照処理)、この体験モデルデータ、オケージョン処理結果、及び感情推定処理結果に基づいて、ユーザの行動を予測し(行動予測処理)、出力する(出力処理)。
[行動予測システムの構成]
次に、上記のような処理を実現する行動予測システムの具体的な構成について説明する。
図2は、本発明の行動予測システムの概略構成を示すブロック図である。
図2に示すように、本実施形態の行動予測システム1は、ユーザ端末10と、本発明の行動予測装置としても機能するサーバ装置20と、を備え、これらのユーザ端末10及びサーバ装置20がネットワーク(例えばインターネット等のWAN(Wide Area Network))を介して通信可能に接続されている。
行動予測システム1では、サーバ装置20は、ユーザ端末10から受信した各種データを用い、図1における各種処理を実施することで、ユーザ端末10を所持するユーザの行動を予測する。
[ユーザ端末の構成]
ユーザ端末10は、例えばスマートフォンやタブレット端末等の携帯型端末装置(コンピューター)であり、複数のモバイルセンサー11と、位置検出部12と、表示部13と、入力操作部14と、端末通信部15と、端末記憶部16と、端末制御部17と、を含んで構成される。
モバイルセンサー11は、携帯型端末装置に標準装備される各種センサーであり、加速度センサー、ジャイロセンサー、地磁気センサー等を含む。また、これらの各センサーの検出値を用いたセンサーを含めてもよい。このようなセンサーとしては、例えばユーザ端末10の姿勢を検出するモーションセンサー等が挙げられる。
そして、モバイルセンサー11は、ユーザ端末10を所持したユーザが身体を動かすことで、身体の動きを検出し、モーションデータとして出力する。例えば加速度センサーから出力されるモーションデータは、X軸方向に沿った加速度、Y軸方向に沿った加速度、Z軸方向に沿った加速度となる。
位置検出部12は、例えばGPS(Global Positioning System)装置等により構成され、ユーザ端末10の現在位置を測位する。
表示部13は、例えば液晶ディスプレイ等により構成され、端末制御部17の制御の下、所定の画像を表示させる。
入力操作部14は、表示部13と一体に設けられたタッチパネルにより構成されており、ユーザ操作による操作信号を端末制御部17に出力する。なお、タッチパネルの例を示すが、キーボードやマウス等の入力装置が接続可能な構成とし、当該入力装置を入力操作部14として用いてもよい。
端末通信部15は、例えば携帯電話回線(例えば3G回線等)等を用いて、サーバ装置20やネットワーク上の所定の装置と通信する。
端末記憶部16は、例えばメモリ、ハードディスク等のデータ記録装置により構成されている。端末記憶部16には、例えば、行動予測システムにおける行動予測処理を実施するための各種プログラム(アプリケーション等)や各種データが記録される。
また、端末記憶部16には、例えば、ユーザ端末10のユーザに関するデモグラフィックデータ(例えば、性別、年齢、居所等)、ユーザ端末10の操作ログやインターネット接続のアクセスログ等のログデータを記録する。また、ユーザ端末10の使用時間等によって判定される、ユーザの生活時間を示した生活時間帯データや平日休日データ等が記録されている。
さらに、端末記憶部16には、その他、ユーザ端末10を制御するための各種プログラム等が記憶される。
端末制御部17は、CPU(Central Processing Unit)等の演算回路、RAM(Random Access Memory)等の記憶回路により構成され、ユーザ端末10の各部を制御する。端末制御部17は、端末記憶部16等に記憶されているプログラム(ソフトウェア)をRAMに展開し、RAMに展開されたプログラムとの協働で、各種処理を実行する。具体的には、端末制御部17は、上記プログラムを読み込み実行することで、ユーザの入力操作部14の操作に応じて、モバイルセンサー11を起動させ、各センサーからの出力値(モーションデータ)を検出したり、位置検出部12により現在位置を検出させたりする。また、端末制御部17は、ユーザの入力操作部14の操作に応じて、ユーザにより選択された各種ユーザデータ(ログデータや、デモグラフィックデータ、生活時間帯データや平日休日データ、位置データ等)や、モーションデータ等をサーバ装置20に送信する。
[サーバ装置の構成]
図3は、本実施形態のサーバ装置20を示すブロック図である。
本実施形態のサーバ装置20は、コンピュータであり、通信部21と、記憶部22(記憶手段)と、制御部23と、等を含んで構成されている。
通信部21は、例えばLAN等を介してネットワークに接続されており、ネットワークを介してユーザ端末10と通信する。
記憶部22は、例えばメモリ、ハードディスク等により構成されたデータ記録装置である。
この記憶部22には、行動予測システムにおける行動予測処理を実施するための感情推定プログラムや行動予測プログラム等の各種プログラムや各種データが記録される。
記憶部22に記録される各種データとして、オケージョン処理を実施するためのオケージョン処理用データが記録される。オケージョン処理用データは、例えばユーザを識別するユーザID毎に設けられ、それぞれ、ユーザ端末10から送信された各種ユーザデータが蓄積記憶されている。各種ユーザデータとしては、例えば、ユーザ端末10の位置検出部12により検出されたユーザが滞在するエリア、当該エリアに滞在した日時、デモグラフィックデータ、ログデータ、平日休日データ、生活時間帯データ等であり、ユーザにより指定(生成)されたデータとなる。
また、記憶部22には、各種データとして、体験モデルデータが記録される。体験モデルデータは、オケージョン推定処理の処理結果、感情推定処理の処理結果に基づいて生成され、記憶部22に記録されている。なお、体験モデルデータの詳細については、後述する。
制御部23は、CPU等の演算回路、RAM等の記憶回路により構成され、記憶部22等に記憶されているプログラム(ソフトウェア)をRAMに展開し、RAMに展開されたプログラムとの協働で、各種処理を実行する。そして、制御部23は、上記各種処理を実行することで、図3に示すように、データ取得手段231、オケージョン推定手段232、動作状況推定手段233、感情推定手段234、特徴抽出手段235、体験モデル生成手段236(体験モデル処理手段)、行動予測手段237、及び出力手段238等として機能する。
データ取得手段231は、図1における入力処理を実施し、ユーザ端末10から入力されたモーションデータや、各種ユーザデータを取得する。
オケージョン推定手段232は、記憶部22に記憶された各種ユーザデータに基づいて、オケージョン推定処理を実施する。
動作状況推定手段233は、モーションデータに基づいて、ユーザの運動状況(例えば、歩いている、走っている、立っている、座っている等の具体的なユーザの動き;Action)、ユーザの行動状況(例えば、買い物中、運転中、バス移動中等のユーザの行動内容;Activity)、及びユーザ端末10の所持位置(例えば、ズボンのポケットに所持、シャツの胸ポケットに所持、手に所持、手提げ鞄に所持等)の組み合わせを推定する。なお、本発明において運動状況、行動状況、及びユーザ端末10の所持位置の組み合わせを動作状況と称する。
感情推定手段234は、モーションデータに基づいて、感情推定処理を実施する。
特徴抽出手段235は、特徴抽出処理を実施し、オケージョン推定処理の処理結果、及び感情推定処理の処理結果を受け、これらの処理結果から特徴部分を抽出する。
体験モデル生成手段236は、体験モデル生成処理を実施し、抽出された特徴部分に基づいた体験モデルデータを生成する。また、体験モデル記憶処理を実施し、生成した体験モデルデータを記憶部22に記憶する。
行動予測手段237は、体験モデル参照処理及び行動予測処理を実施し、記憶部22に記憶された体験モデルデータを参照して、オケージョン推定処理及び感情推定処理により推定されたオケージョンデータ(シチュエーション)及びユーザの感情又は情動等に基づいて、ユーザの行動を予測する。
出力手段238は、予測された行動を出力する。なお、出力された行動に基づいて、各種サービスを提供してもよい。例えば、予測された行動が、「買い物に出かける」場合に、店舗広告を送信する等の処理を行ってもよい。
[行動予測システムの動作]
次に、上記のような行動予測システム1のサーバ装置20の動作について、図面に基づいて説明する。
[感情推定処理]
図4は、本実施形態の行動予測システム1における、感情推定処理を示すフローチャートである。
本実施形態の行動予測システム1における感情推定処理では、まず、サーバ装置20のデータ取得手段231は、ユーザ端末10から入力される所定期間における時系列のモーションデータを取得する(ステップS1)。
取得するモーションデータとしては、例えば、ユーザが指定した開始タイミングから、終了タイミングの期間のモーションデータであってもよく、ユーザの指定した開始タイミングから予め設定した期間のモーションデータをモバイルセンサー11(検出センサー)から検出し、検出した当該期間のモーションデータを受信してもよい。また端末制御部17の制御により定期的に予め設定された期間に取得されたモーションデータを取得してもよい。
この後、動作状況推定手段233は、取得したモーションデータに基づいて、ユーザの動作状況を推定する(ステップS2)。
図5は、HMM(隠れマルコフモデル;Hidden Markov Model)を用いた動作状況の推定メカニズムを示す図である。
このステップS2では、図5に示すように、動作状況推定手段233は、取得したモーションデータに基づいて、HMMを用いて、ユーザの運動状況を推定し、推定された運動状況の時系列に沿った変化に基づいて、ユーザの行動状況を推定する。
例えば、モーションデータとして、3軸(X,Y,Z軸)方向に沿った加速度の時系列に沿った変化(遷移状態)を示すデータが得られた場合、当該3軸方向の加速度の値から、ユーザの運動状況が歩いているか、走っているか、立ち止まっているか、上がっているか、下がっているか等の動きを推定することができる。
また、これらの動きの時系列に沿う遷移状態から、ユーザが今何をしているかを推定することができる。例えば、上下の振動を伴い、かつ時速60キロメートルで走っている場合では、電車に乗っている等である。HMMを用いることで、モーションデータにおける3軸方向の加速度等から、ユーザの運動状況や、行動状況を高精度に推定することが可能となる。
次に、感情推定手段234は、取得したモーションデータに基づいて、各動作状況下における感情又は情動を推定する。具体的には、感情推定手段234は、まず、推定した動作状況毎のモーションデータを、自己組織化マップ(SOM;Self-Organizing Maps)に写像する(ステップS3)。
モーションデータは、複数のモバイルセンサー11の出力値であり、高次データとなる。ステップS3では、このような高次データを、より低次のSOMに写像することで、その特徴を検出しやすくできる。
図6は、モーションデータからSOMへの写像の一例を示す図である。
図7は、SOMの一例であり、(A)は、感情Aを感じている場合のSOMの特徴部の例であり、(B)は、感情Bを感じている場合のSOMの特徴部の一例である。
このようなSOMを時系列に取得すると、図7に示すように、SOMの一部にユーザの感情を示す特徴部Pが現れる。図7に示すようなSOMにおける特徴部Pの現れる位置を判定することで、ユーザの感情又は情動を推定することが可能となる。すなわち、ユーザの感情や情動は、ユーザの微小な動きの変化として現れる。モーションデータを写像したSOMは、モーションデータの傾向を示すものであり、これは、ユーザの感情や情動を示すデータとなる。
ステップS3の後、感情推定手段234は、上記のようなSOMに現れる特徴部Pに基づいて、ユーザの感情を推定する(ステップS4)。具体的には、推定した動作状況毎のSOMを特徴部Pが現れる位置毎にグーピングし、各グループの代表SOM(例えば各SOMの平均データや中央データ)を設定する。そして、例えば新たなモーションデータに基づいたSOMが取得された際に、当該SOMに対し所定以上の類似度を有する代表SOMのグループを選択することで、当該新たなSOMが属するグループを分類する。これらのグループは、動作状況毎の典型的な感情や情動を示す感情(情動)グループとなり、このグループに基づく分類により、推定結果であるユーザの感情が特定される。このような感情推定では、例えばモーションデータ毎に「怒り」、「喜び」等といった感情毎の属性ラベルを付すための教師データや、教師データによるラベリング処理が不要となり、高精度な感情推定と、処理の簡略化との双方を図ることができる。
ところで、SOMは、上記のように、個人差があり、その分布は、単純な二項分布等に従わない。このような個人差をなくした精度の高い感情推定を実施するために、本実施形態では、階層ベイズモデルを用いた感情推定を実施する。
この階層ベイズモデルは、過去に取得されて記憶部22に記憶され、同一の動作状況に対応した同一の感情(情動)グループに属するSOMの分布に基づいて生成される。また、感情推定処理により用いられるSOMは、順次記憶部22に蓄積されることで、階層ベイズモデルを用いた感情推定の精度が向上する。
[体験モデル生成処理]
次に、本実施形態の行動予測システム1における体験モデル生成処理について説明する。
図8は、本実施形態の行動予測システム1における、体験モデル生成処理を示すフローチャートである。
本実施形態の行動予測システム1における体験モデル生成処理では、まず、本実施形態のサーバ装置20のデータ取得手段231は、ユーザ端末10から入力される所定期間における時系列のモーションデータ、及び各種ユーザデータを取得する(ステップS11)。
次に、オケージョン推定手段232は、ステップS11において取得したユーザデータに基づいて、オケージョン推定処理を実施する(ステップS12)。
このステップS12では、オケージョン推定手段232は、位置データ及び当該位置データが取得された日時、休日平日データ、生活時間帯データ、及びログデータに基づいて、ユーザのオケージョンを推定する。ここで、オケージョンとは、ユーザの活動が関係する諸々の情報で、存在するエリア(自宅、職場、移動手段など)、環境情報(季節、天候、混雑など)、行動パターン・活動サイクル(起床、在宅中、帰宅など)、Web閲覧情報(カテゴリ、閲覧履歴など)などを含む。例えば、時系列に沿った単一データ(例えば、所定時刻における位置データ)に基づいて、ユーザの現在の存在エリアを推定することができ、さらに、同時に送信された平日休日データ、生活時間帯データ、ログデータ等に基づいて、ユーザの行動(例えば在宅中、勉強中、仕事中、就寝中等)を推定することができる。
また、時系列に沿った系列データ(例えば、所定の期間における位置データ)を取得することで、ユーザのエリア移動を推定することができる。また、系列データからも同様に、ユーザの行動を推定することができる。
さらに、ユーザデータを長期蓄積することで、ユーザの通勤経路や、エリア訪問頻度、よく行う行動、プロファイル等を推定することもできる。
次に、動作状況推定手段233及び感情推定手段234は、取得したモーションデータに基づいて、各動作状況下における感情又は情動を推定する(ステップS13)。このステップS13は、上述した感情推定処理(ステップS1〜ステップS4)と同様であるので、ここでの説明は省略する。
そして、特徴抽出手段235は、ステップS12において推定されたオケージョン毎に、ステップS13で推定された動作状況に対応する感情の特徴を抽出する(ステップS14)。この感情の特徴は、上記感情推定処理において特徴部Pを特定可能なSOMである。すなわち、特徴部Pを有するSOMを、時系列に沿って順次抽出することで、ユーザの感情の推移が抽出されることになる。
この後、体験モデル生成手段236は、抽出された時系列に沿ったSOMに基づいて、体験モデルデータを生成する(ステップS15)。
図9は、体験モデル生成手段236による体験モデル生成処理の概略を示す図である。
体験モデル生成手段236は、ステップS14で抽出されたSOM(時系列SOM)を蓄積し、蓄積された時系列SOMを用いて、既に記憶部22に記憶されている体験モデルデータをより高精度なモデルにする学習処理を実施し、更新する。
学習処理としては、図9に示すように、スコア計算処理、勝者ノード決定処理、重み決定処理、学習データ更新処理、及びモデル学習処理を順に実施する。
スコア計算処理は、入力された時系列SOMのスコアを算出する。すなわち、記憶部22に記憶された体験モデルデータにおけるSOMの遷移状態と比較し、時系列SOMと体験モデルデータとの類似度を算出する。体験モデルデータにおける類似度が高い部分が、更新対象となる。
勝者ノード決定処理は、体験モデルデータにおいて、時系列SOMと同じ遷移状態のSOMを決定する。つまり、図9に示すように、体験モデルデータは、1つのSOMから複数のSOMに対して遷移するモデルを記録し、取得した時系列SOMと同じSOMに遷移したノードを勝者ノードとして決定する。
重み決定処理は、勝者ノード決定処理において決定した勝者ノードを介した遷移スコア(重み)を大きくし、勝者ノード以外の遷移スコアを小さくするように、各遷移スコアを決定する。
学習データ更新処理は、決定した遷移スコアを体験モデルデータにおける各ノードに記録して更新する。
モデル学習処理は、時系列SOMに対応した遷移状態がない場合に、体験モデルデータに新たなモデルとして取得した時系列SOMのSOM遷移経路を追加する。
[行動予測処理]
次に、本実施形態の行動予測システム1における行動予測処理(行動予測方法)について説明する。
図10は、本実施形態の行動予測システム1における、行動予測処理を示すフローチャートである。
行動予測処理では、サーバ装置20のデータ取得手段231は、ステップS11と同様、ユーザ端末10から入力される所定期間における時系列のモーションデータ、及び各種ユーザデータを取得する。
この後、オケージョン推定手段232は、ステップS12と同様にオケージョン推定処理を実施し、また、動作状況推定手段233及び感情推定手段234は、ステップS13(ステップS1〜S4)と同様に、感情推定処理を実施する。
この後、行動予測手段237は、記憶部22から体験モデルデータを読み出す(ステップS21)。
そして、行動予測手段237は、体験モデルデータから、ステップS12により推定されたオケージョン及びステップS13のステップS2により推定された動作状況に対応したSOMの遷移パターンと、同一パターンで遷移するパターンを抽出する。
なお、完全に同一パターンとなっていなくてもよく、例えば、ステップS3で取得されるSOMの遷移パターンとの類似度が所定閾値以内である一部を抽出すればよい。
そして、行動予測手段237は、体験モデルデータの抽出したパターンの遷移スコアに基づいて、次の遷移パターンとなるSOM、及び当該SOMに関連付けられたオケージョンや動作状況を取得、すなわち、行動予測を行う。
この後、出力手段238は、予測されたSOMに対応するオケージョン及び動作状況を行動予測結果として出力する(ステップS22)。
行動予測結果の出力先は、例えばユーザ端末10であってもよいが、ユーザ端末10に対してサービスを提供するサービスサーバ等が好ましい。サービスサーバとしては、例えばユーザ端末10に対して広告データを提供する広告サーバ等が挙げられ、行動予測に基づいた最適な広告をユーザ端末10に提供することができる。
なお、ステップS22において、SOMの遷移パターンに対して、類似度が高いパターンがない場合は、上述した体験モデル生成処理を実施し、SOMの遷移パターンに基づいた体験モデルデータが更新される。この場合、ステップS23では、類似パターンが見当たらない旨を出力すればよい。
[本実施形態の作用効果]
上述したような行動予測システム1では、サーバ装置20が本発明の行動予測装置として機能し、データ取得手段231により、ユーザ端末10から送信された、位置データやログデータ、平日休日データ、生活時間帯データ等の行動データを含むユーザデータ、及び時系列に沿ったモーションデータを取得する。オケージョン推定手段232は、取得されたユーザデータに基づいて、ユーザが置かれているシチュエーション等を示すオケージョンを推定する。また、動作状況推定手段233及び感情推定手段234は、モーションデータに基づいて、ユーザの動作状況や当該動作状況における感情や情動を推定する。そして、行動予測手段237は、記憶部22に記憶された体験モデルデータと、推定されたオケージョンと、推定された感情や情動とに基づいて、ユーザ行動を予測する。
ここで、体験モデルデータには、時系列に沿ったSOMの遷移パターンがモデル化されたものであり、すなわち、所定のオケージョンにおいて、所定の動作を行っている人の感情の推移が記録されている。言い換えれば、推定されたユーザのオケージョン及び動作状況における感情の推移が、体験モデルデータのモデルと同じような推移状態である場合、これに続く当該ユーザの感情も体験モデルデータと同様に推移する可能性が高く、この際、ユーザの動作状況やオケージョンも体験モデルデータと同じように遷移する可能性が高い。したがって、行動予測手段237は、このような体験モデルデータ、推定されたオケージョン、動作状況、感情や情動を用いて行動予測を実施することで、ユーザの行動を高精度に予測することができる。
また、本実施形態では、感情推定処理において、ユーザ端末10から送信されるモーションデータを用いる。したがって、ユーザの心境の変化に応じて現れるユーザの実際の動きの変化に基づいた感情推定を実施するものであり、例えば画一的なデータベースに基づいて感情推定を実施する場合に比べて、感情推定の精度を向上させることができる。したがって、このような感情推定結果に基づいた行動推定においてもその精度を向上させることができる。
本実施形態では、モーションデータとして、ユーザ端末10のモバイルセンサー11により検出されたデータを用いている。このようにモバイルセンサー11で検出された検出値により、ユーザの実際の動きを忠実に再現することができ、感情推定を精度よく実施できる。また、ユーザ端末10に設けられたモバイルセンサー11からの出力値をそのまま利用することができ、ユーザのデータ入力操作等が不要となる。
本実施形態では、オケージョン推定処理により推定されたオケージョンと、感情推定処理により推定された動作状況単位のSOMの遷移を抽出して時系列SOMとして取得し、時系列SOMを用いて、体験モデルデータを生成する。また、得られた時系列SOMにより、学習処理を実施して記憶部22に記憶された体験モデルデータを更新する。
これにより、体験モデルデータとして、ユーザのオケージョンや当該オケージョンにおける動作状況毎の感情の推移をモデル化でき、高精度な行動予測を行える。また、複数のユーザから得られたオケージョン推定結果や感情推定結果に基づいて、体験モデルデータを生成することで、複数のユーザにおける、各オケージョンの各動作状況に対する平均的な感情の推移状態を求めることができる。このような体験モデルデータにより、複数のユーザが、所定のシチュエーションに遭遇した際に共通して感じる感情や、共通する行動内容等を把握でき、ユーザのニーズ分析を高精度に行うことができる。したがって、当該ニーズに基づいた質の高いサービスを提供することができる。
本実施形態では、感情推定手段234は、モーションデータの傾向を見るために、取得したモーションデータをSOMに写像し、当該SOMの特徴部Pに基づいて、感情を推定する。
このため、複数のセンサーを用いた高次の検出結果(モーションデータ)が入力された場合でも、低次のSOMに落とし込むことで、特徴部Pの判定が容易となり、感情推定の精度を向上させることができる。
また、体験モデル生成手段236により、体験モデルデータを生成する際にも、これらのSOMの時系列の推移(時系列SOM)を用いて、体験モデルデータを生成する。このため、体験モデルデータを用いた行動予測においても、モーションデータに基づいて生成されるSOMとの比較により容易にユーザの行動を予測することができる。
[変形例]
なお、本発明は、上述した実施形態に限定されるものではなく、本発明の目的を達成できる範囲で、以下に示される変形をも含むものである。
[変形例1]
上記実施形態では、ステップS2の動作状況の推定において、HMMを使用してモーションデータから運動状況及び行動状況を推定したが、これに限定されない。例えば、動作状況の推定方法として、確率モデル、統計的回帰モデル、及びニューラルネットワークのいずれかを用いて動作状況を推定することができ、例えばロジスティック回帰や、多層パーセプトロン(Multi Layer Perceptron)等を用いることができる。
[変形例2]
上記実施形態では、ステップS3において、モーションデータをSOMに写像する例を示したが、これに限定されない。モーションデータの傾向を判別するためには、例えば、モーションデータを複数のデータに分割してこれらの分割データの分布に基づいて、感情又は情動を推定する手法を用いてもよい。当該方法としては、例えば、「Construction of effective free energy landscape from single-molecule time series,Akinori Babaand Tamiki Komatsuzaki,PNAS,Dec 4,2007,Vol.104,no.49,19297-19302a」等に
紹介される技術を用いることができる。
[変形例3]
上記実施形態において、SOMの個人差をなくした高精度な感情推定を実施するために、階層ベイズモデルを用いる例を示したが、これに限定されない。
例えば、階層構造を考慮したカーネル法を用いてもよい。すなわち、記憶部22に蓄積されたSOMを、写像関数を用いてある空間に写像してクラスタリング処理を実施することで、各感情に対応した感情グループを設定し、これらの感情グループに基づいて感情を推定する。
このような手法しては、例えば、SVC(Support Vector Machine)、LDA(Linear Discriminant Analysis)、PCA(Principal Component Analysis)、ディープラーニング等を挙げることができる。
[変形例4]
上記実施形態において、ステップS15の体験モデル生成処理として、時系列SOMを用いて、遷移SOMに対する遷移スコアを変更する学習処理を実施して記憶部22に記憶されている体験モデルデータを更新する例を示したが、これに限定されない。
例えば、体験モデル生成手段236は、時系列SOMから、時系列階層SOMモデル(参考文献:Probabilistic reasoning in intelligent systems: networks of plausible inference,Judea Pearl,1988)を用いて体験モデリング生成を行ってもよい。また、Growing Hierarchical Self-Organizing Map(参考文献:The Growing Hierarchical Self-Organizing Map: Exploratory Analysis of High-Dimensional Data (2002),Andreas Rauber , Dieter Merkl , Michael Dittenbach)を用いた体験モデル生成を行ってもよい。
[変形例5]
上記実施形態では、行動予測システム1を例示し、ユーザ端末10からデータを取得したサーバ装置20を本発明の感情予測装置として機能させる例を示したがこれに限定されない。
例えば、ユーザ端末10を本発明の感情予測装置として機能させてもよい。この場合、端末制御部17が、端末記憶部16に記憶されたプログラムを読み出し実行することで、上記オケージョン推定手段232、動作状況推定手段233、感情推定手段234、特徴抽出手段235、体験モデル生成手段236、及び行動予測手段237として機能させる。また、このような構成では、ユーザ端末10自身で常時モーションデータを監視することで、常にユーザの感情、情動、シチュエーション、動作状況に応じた最適な処理を実施できる。例えば、感情推定処理によりユーザの感情や情動を推定し、その感情や情動に応じた音楽を再生させたり、ユーザの感情に対して最適なアプリケーションを紹介する画面を表示させたりすることができる。また、行動予測処理により、例えばユーザが公共交通機関で移動すると判定した場合に、音声出力を自動的にオフにする(いわゆるマナーモードに設定する)等の処理をしてもよい。ユーザの感情や行動予測に応じた処理であるため、これらの処理が煩わしいと感じられる可能性が低く、適正なサービスを提供できる。
その他、本発明の実施の際の具体的な構造及び手順は、本発明の目的を達成できる範囲で他の構造などに適宜変更できる。
1…行動予測システム、10…ユーザ端末、11…モバイルセンサー(検出センサー)、20…サーバ装置(行動予測装置)、22…記憶部、23…制御部、231…データ取得手段、232…オケージョン推定手段、233…動作状況推定手段、234…感情推定手段、235…特徴抽出手段、236…体験モデル生成手段、237…行動予測手段。

Claims (8)

  1. 少なくともユーザ行動に基づく行動データを含むユーザデータ、及び時系列で変化するユーザの動きに基づいたモーションデータを取得するデータ取得手段と、
    前記ユーザデータに基づいて、前記ユーザのオケージョンを推定するオケージョン推定手段と、
    前記モーションデータに基づいて、前記ユーザの感情を推定する感情推定手段と、
    前記オケージョン推定手段により推定された前記オケージョン、及び前記感情推定手段により推定された前記感情の推移に基づいて、体験モデルデータを生成する体験モデル処理手段と、
    を備えたことを特徴とするモデル生成装置。
  2. 請求項1に記載のモデル生成装置において、
    前記体験モデル処理手段は、前記オケージョン推定手段により推定された前記オケージョン、及び前記感情推定手段により推定された前記感情の推移に基づいて、前記体験モデルデータを更新する
    ことを特徴とするモデル生成装置。
  3. 請求項2に記載のモデル生成装置において
    前記体験モデルデータは、前記オケージョンに対する少なくとも1以上の前記感情の推移と、前記少なくとも1以上の前記感情の推移のそれぞれに関連付けられ、前記オケージョンにおける前記感情の推移確率を示す遷移スコアとを含み、
    前記体験モデル処理手段は、既に生成されている前記体験モデルデータから、新たに推定した前記オケージョンに対応する前記少なくとも1以上の前記感情の推移を抽出し、新たに推定された前記感情の推移に対応する前記遷移スコアを大きくする
    ことを特徴とするモデル生成装置。
  4. 請求項1から請求項3のいずれか1項に記載のモデル生成装置において、
    前記感情推定手段は、階層構造を考慮した統計的手法又はクラスタリング手法を用い、前記モーションデータの傾向を示す感情グループを設定し、前記取得したモーションデータが属する感情グループから前記感情を推定する
    ことを特徴とするモデル生成装置。
  5. 請求項1から請求項4のいずれか1項に記載のモデル生成装置において、
    前記感情推定手段は、前記モーションデータを自己組織化マップに写像し、当該自己組織化マップに基づいて感情を推定する
    ことを特徴とするモデル生成装置。
  6. 請求項1から請求項5のいずれか1項に記載のモデル生成装置において、
    前記データ取得手段は、前記ユーザの動きを検出する検出センサーから出力される前記モーションデータを取得する
    ことを特徴とするモデル生成装置。
  7. コンピュータにより、体験モデルデータを生成するモデル生成方法であって、
    前記コンピュータは、
    少なくともユーザ行動に基づく行動情報を含むユーザデータ、及び時系列で変化するユーザの動きに基づいたモーションデータを取得し、
    前記ユーザデータに基づいて、前記ユーザのオケージョンを推定し、
    前記モーションデータに基づいて前記ユーザの感情を推定し、
    前記オケージョン推定手段により推定された前記オケージョン、及び前記感情推定手段により推定された前記感情の推移に基づいて、体験モデルデータを生成する
    ことを特徴とするモデル生成方法。
  8. コンピュータにより読み込み実行されるモデル生成プログラムであって、
    前記コンピュータを、請求項1から請求項6のいずれか1項に記載のモデル生成装置として機能させる
    ことを特徴とするモデル生成プログラム。
JP2016197333A 2016-10-05 2016-10-05 モデル生成装置、モデル生成方法、及びモデル生成プログラム Active JP6352357B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016197333A JP6352357B2 (ja) 2016-10-05 2016-10-05 モデル生成装置、モデル生成方法、及びモデル生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016197333A JP6352357B2 (ja) 2016-10-05 2016-10-05 モデル生成装置、モデル生成方法、及びモデル生成プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014058467A Division JP6022499B2 (ja) 2014-03-20 2014-03-20 行動予測装置、行動予測方法、及び行動予測プログラム

Publications (2)

Publication Number Publication Date
JP2017027614A JP2017027614A (ja) 2017-02-02
JP6352357B2 true JP6352357B2 (ja) 2018-07-04

Family

ID=57950528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016197333A Active JP6352357B2 (ja) 2016-10-05 2016-10-05 モデル生成装置、モデル生成方法、及びモデル生成プログラム

Country Status (1)

Country Link
JP (1) JP6352357B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6885858B2 (ja) * 2017-12-15 2021-06-16 ヤフー株式会社 推定装置、推定方法、及び推定プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073634A (ja) * 2000-09-05 2002-03-12 Alpine Electronics Inc 行動パターン処理装置
JP4581446B2 (ja) * 2004-03-22 2010-11-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2009087074A (ja) * 2007-09-28 2009-04-23 Panasonic Electric Works Co Ltd 機器制御システム
JP5904021B2 (ja) * 2012-06-07 2016-04-13 ソニー株式会社 情報処理装置、電子機器、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2017027614A (ja) 2017-02-02

Similar Documents

Publication Publication Date Title
JP6022499B2 (ja) 行動予測装置、行動予測方法、及び行動予測プログラム
JP6054902B2 (ja) 感情推定装置、感情推定方法、及び感情推定プログラム
JP6777201B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9750433B2 (en) Using health monitor data to detect macro and micro habits with a behavioral model
JP5935516B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5904021B2 (ja) 情報処理装置、電子機器、情報処理方法、及びプログラム
JP5895716B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20180132068A1 (en) Portable resource management systems and methods
Ilarri et al. A review of the role of sensors in mobile context-aware recommendation systems
WO2018053133A1 (en) Venue detection
CN105556547A (zh) 用于传感器数据的带注释捕获以及活动的群建模的方法、设备和系统
Hu et al. Less annotation on personalized activity recognition using context data
Wang et al. Three-year review of the 2018–2020 SHL challenge on transportation and locomotion mode recognition from mobile sensors
JP6183489B2 (ja) 情報処理システム、情報処理方法、及びプログラム
JP2014160420A (ja) 活動状況処理装置及び活動状況処理方法
US11468270B2 (en) Electronic device and feedback information acquisition method therefor
JP6352357B2 (ja) モデル生成装置、モデル生成方法、及びモデル生成プログラム
US11347805B2 (en) Electronic apparatus, method for controlling the same, and non-transitory computer readable recording medium
Guthier et al. The affect-aware city
Bayındır A survey of people-centric sensing studies utilizing mobile phone sensors
Cui et al. Generating a synthetic probabilistic daily activity-location schedule using large-scale, long-term and low-frequency smartphone GPS data with limited activity information
CN111797289A (zh) 模型处理方法、装置、存储介质和电子设备
Choujaa et al. Activity recognition from mobile phone data: State of the art, prospects and open problems
JP2018045532A (ja) 情報処理装置、情報処理方法、および、情報処理プログラム
KR20230081584A (ko) 자동 및 멀티 모달리티 정보 입력을 활용하는 일상 추적 시스템을 위한 인공지능 기반의 상황 추론 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180606

R150 Certificate of patent or registration of utility model

Ref document number: 6352357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250