JP6352357B2 - モデル生成装置、モデル生成方法、及びモデル生成プログラム - Google Patents
モデル生成装置、モデル生成方法、及びモデル生成プログラム Download PDFInfo
- Publication number
- JP6352357B2 JP6352357B2 JP2016197333A JP2016197333A JP6352357B2 JP 6352357 B2 JP6352357 B2 JP 6352357B2 JP 2016197333 A JP2016197333 A JP 2016197333A JP 2016197333 A JP2016197333 A JP 2016197333A JP 6352357 B2 JP6352357 B2 JP 6352357B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- data
- emotion
- occasion
- model generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 66
- 230000008451 emotion Effects 0.000 claims description 121
- 238000012545 processing Methods 0.000 claims description 49
- 230000007704 transition Effects 0.000 claims description 42
- 238000001514 detection method Methods 0.000 claims description 8
- 230000002996 emotional effect Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 238000007619 statistical method Methods 0.000 claims 1
- 230000006399 behavior Effects 0.000 description 80
- 230000008569 process Effects 0.000 description 53
- 238000003860 storage Methods 0.000 description 34
- 230000009471 action Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 101100126625 Caenorhabditis elegans itr-1 gene Proteins 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011985 exploratory data analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Description
特許文献1に記載の装置は、ユーザ行動履歴データベース、ユーザプロファイルデータベース、コンテキスト−欲求組み合わせ確率データベース、及びコンテキスト−欲求データベースを備えている。ここで、ユーザ行動履歴データベースは、各ユーザに対するユーザが選択したアイテムと、そのアイテムを選択することで満たされる基本的欲求の種別とを記録する。ユーザプロファイルデータベースは、各ユーザに対して当該ユーザが日常的にどの程度の欲求を持っているかを示した欲求度を記録する。コンテキスト−欲求組み合わせ確率データベースは、各コンテキスト(ユーザの置かれている状況)に対して、当該コンテキスト状況下で欲求が満足される確率を記録する。コンテキスト−欲求データベースは、各アイテムに対して、ユーザが当該アイテムを選択した際に満足される欲求、及びアイテムを選択するのに適したコンテキストが記録される。
上記特許文献1のような装置を用いて、ユーザ行動を予測する場合、ユーザのコンテキストに対する欲求予測を行い、その欲求に対してユーザの行動を予測することが考えられる。しかしながら、コンテキストに対するユーザの欲求は、個々のユーザによって異なるものであり、当該欲求に対してユーザが起こす行動もそれぞれ異なる。また、個々のユーザに対して、同じコンテキスト下で毎回同じ行動を起こすとも限られない。従って、上記のような画一的なデータベースを用いたユーザの欲求予測を用いた行動予測には限界があり、その精度が低下するとの課題があった。
[本実施形態の行動予測システムの概要]
本実施形態における行動予測システムは、人間の行動メカニズム(ニューロサイエンスの知見によるメカニズム)を考慮に入れながら、人間の行動を正確に分析することを目的として本願発明者が考案したものである。
図1は、本実施形態におけるユーザの行動予測処理の概略を示す図である。
本実施形態では、人間の行動メカニズムを参考にしたメカニズムを用いて、ユーザの行動を高度に予測するものであり、図1に示すような処理を実施することでこれを実現する。
すなわち、本実施形態の行動予測システムは、ユーザが保有するユーザ端末から入力された各種入力データを受信する(入力処理)と、その受信した入力データに基づいて、ユーザの置かれた状況(シチュエーション等)を推定する(オケージョン推定処理)。また、同時に、入力データに基づいて、状況に対するユーザが抱く感情や情動を推定する(感情推定処理)。そして、これらのオケージョン処理結果、感情推定処理結果からその特徴部分を抽出し(特徴抽出処理)、体験モデルデータを生成して(体験モデル生成処理)、記憶部に記憶する(体験モデル記憶処理)。さらに、記憶部に記憶された体験モデルデータを参照し(体験モデル参照処理)、この体験モデルデータ、オケージョン処理結果、及び感情推定処理結果に基づいて、ユーザの行動を予測し(行動予測処理)、出力する(出力処理)。
次に、上記のような処理を実現する行動予測システムの具体的な構成について説明する。
図2は、本発明の行動予測システムの概略構成を示すブロック図である。
図2に示すように、本実施形態の行動予測システム1は、ユーザ端末10と、本発明の行動予測装置としても機能するサーバ装置20と、を備え、これらのユーザ端末10及びサーバ装置20がネットワーク(例えばインターネット等のWAN(Wide Area Network))を介して通信可能に接続されている。
行動予測システム1では、サーバ装置20は、ユーザ端末10から受信した各種データを用い、図1における各種処理を実施することで、ユーザ端末10を所持するユーザの行動を予測する。
ユーザ端末10は、例えばスマートフォンやタブレット端末等の携帯型端末装置(コンピューター)であり、複数のモバイルセンサー11と、位置検出部12と、表示部13と、入力操作部14と、端末通信部15と、端末記憶部16と、端末制御部17と、を含んで構成される。
そして、モバイルセンサー11は、ユーザ端末10を所持したユーザが身体を動かすことで、身体の動きを検出し、モーションデータとして出力する。例えば加速度センサーから出力されるモーションデータは、X軸方向に沿った加速度、Y軸方向に沿った加速度、Z軸方向に沿った加速度となる。
表示部13は、例えば液晶ディスプレイ等により構成され、端末制御部17の制御の下、所定の画像を表示させる。
入力操作部14は、表示部13と一体に設けられたタッチパネルにより構成されており、ユーザ操作による操作信号を端末制御部17に出力する。なお、タッチパネルの例を示すが、キーボードやマウス等の入力装置が接続可能な構成とし、当該入力装置を入力操作部14として用いてもよい。
端末通信部15は、例えば携帯電話回線(例えば3G回線等)等を用いて、サーバ装置20やネットワーク上の所定の装置と通信する。
また、端末記憶部16には、例えば、ユーザ端末10のユーザに関するデモグラフィックデータ(例えば、性別、年齢、居所等)、ユーザ端末10の操作ログやインターネット接続のアクセスログ等のログデータを記録する。また、ユーザ端末10の使用時間等によって判定される、ユーザの生活時間を示した生活時間帯データや平日休日データ等が記録されている。
さらに、端末記憶部16には、その他、ユーザ端末10を制御するための各種プログラム等が記憶される。
図3は、本実施形態のサーバ装置20を示すブロック図である。
本実施形態のサーバ装置20は、コンピュータであり、通信部21と、記憶部22(記憶手段)と、制御部23と、等を含んで構成されている。
通信部21は、例えばLAN等を介してネットワークに接続されており、ネットワークを介してユーザ端末10と通信する。
この記憶部22には、行動予測システムにおける行動予測処理を実施するための感情推定プログラムや行動予測プログラム等の各種プログラムや各種データが記録される。
記憶部22に記録される各種データとして、オケージョン処理を実施するためのオケージョン処理用データが記録される。オケージョン処理用データは、例えばユーザを識別するユーザID毎に設けられ、それぞれ、ユーザ端末10から送信された各種ユーザデータが蓄積記憶されている。各種ユーザデータとしては、例えば、ユーザ端末10の位置検出部12により検出されたユーザが滞在するエリア、当該エリアに滞在した日時、デモグラフィックデータ、ログデータ、平日休日データ、生活時間帯データ等であり、ユーザにより指定(生成)されたデータとなる。
データ取得手段231は、図1における入力処理を実施し、ユーザ端末10から入力されたモーションデータや、各種ユーザデータを取得する。
オケージョン推定手段232は、記憶部22に記憶された各種ユーザデータに基づいて、オケージョン推定処理を実施する。
感情推定手段234は、モーションデータに基づいて、感情推定処理を実施する。
特徴抽出手段235は、特徴抽出処理を実施し、オケージョン推定処理の処理結果、及び感情推定処理の処理結果を受け、これらの処理結果から特徴部分を抽出する。
体験モデル生成手段236は、体験モデル生成処理を実施し、抽出された特徴部分に基づいた体験モデルデータを生成する。また、体験モデル記憶処理を実施し、生成した体験モデルデータを記憶部22に記憶する。
行動予測手段237は、体験モデル参照処理及び行動予測処理を実施し、記憶部22に記憶された体験モデルデータを参照して、オケージョン推定処理及び感情推定処理により推定されたオケージョンデータ(シチュエーション)及びユーザの感情又は情動等に基づいて、ユーザの行動を予測する。
出力手段238は、予測された行動を出力する。なお、出力された行動に基づいて、各種サービスを提供してもよい。例えば、予測された行動が、「買い物に出かける」場合に、店舗広告を送信する等の処理を行ってもよい。
次に、上記のような行動予測システム1のサーバ装置20の動作について、図面に基づいて説明する。
[感情推定処理]
図4は、本実施形態の行動予測システム1における、感情推定処理を示すフローチャートである。
本実施形態の行動予測システム1における感情推定処理では、まず、サーバ装置20のデータ取得手段231は、ユーザ端末10から入力される所定期間における時系列のモーションデータを取得する(ステップS1)。
取得するモーションデータとしては、例えば、ユーザが指定した開始タイミングから、終了タイミングの期間のモーションデータであってもよく、ユーザの指定した開始タイミングから予め設定した期間のモーションデータをモバイルセンサー11(検出センサー)から検出し、検出した当該期間のモーションデータを受信してもよい。また端末制御部17の制御により定期的に予め設定された期間に取得されたモーションデータを取得してもよい。
図5は、HMM(隠れマルコフモデル;Hidden Markov Model)を用いた動作状況の推定メカニズムを示す図である。
このステップS2では、図5に示すように、動作状況推定手段233は、取得したモーションデータに基づいて、HMMを用いて、ユーザの運動状況を推定し、推定された運動状況の時系列に沿った変化に基づいて、ユーザの行動状況を推定する。
例えば、モーションデータとして、3軸(X,Y,Z軸)方向に沿った加速度の時系列に沿った変化(遷移状態)を示すデータが得られた場合、当該3軸方向の加速度の値から、ユーザの運動状況が歩いているか、走っているか、立ち止まっているか、上がっているか、下がっているか等の動きを推定することができる。
また、これらの動きの時系列に沿う遷移状態から、ユーザが今何をしているかを推定することができる。例えば、上下の振動を伴い、かつ時速60キロメートルで走っている場合では、電車に乗っている等である。HMMを用いることで、モーションデータにおける3軸方向の加速度等から、ユーザの運動状況や、行動状況を高精度に推定することが可能となる。
モーションデータは、複数のモバイルセンサー11の出力値であり、高次データとなる。ステップS3では、このような高次データを、より低次のSOMに写像することで、その特徴を検出しやすくできる。
図6は、モーションデータからSOMへの写像の一例を示す図である。
図7は、SOMの一例であり、(A)は、感情Aを感じている場合のSOMの特徴部の例であり、(B)は、感情Bを感じている場合のSOMの特徴部の一例である。
このようなSOMを時系列に取得すると、図7に示すように、SOMの一部にユーザの感情を示す特徴部Pが現れる。図7に示すようなSOMにおける特徴部Pの現れる位置を判定することで、ユーザの感情又は情動を推定することが可能となる。すなわち、ユーザの感情や情動は、ユーザの微小な動きの変化として現れる。モーションデータを写像したSOMは、モーションデータの傾向を示すものであり、これは、ユーザの感情や情動を示すデータとなる。
ところで、SOMは、上記のように、個人差があり、その分布は、単純な二項分布等に従わない。このような個人差をなくした精度の高い感情推定を実施するために、本実施形態では、階層ベイズモデルを用いた感情推定を実施する。
この階層ベイズモデルは、過去に取得されて記憶部22に記憶され、同一の動作状況に対応した同一の感情(情動)グループに属するSOMの分布に基づいて生成される。また、感情推定処理により用いられるSOMは、順次記憶部22に蓄積されることで、階層ベイズモデルを用いた感情推定の精度が向上する。
次に、本実施形態の行動予測システム1における体験モデル生成処理について説明する。
図8は、本実施形態の行動予測システム1における、体験モデル生成処理を示すフローチャートである。
本実施形態の行動予測システム1における体験モデル生成処理では、まず、本実施形態のサーバ装置20のデータ取得手段231は、ユーザ端末10から入力される所定期間における時系列のモーションデータ、及び各種ユーザデータを取得する(ステップS11)。
このステップS12では、オケージョン推定手段232は、位置データ及び当該位置データが取得された日時、休日平日データ、生活時間帯データ、及びログデータに基づいて、ユーザのオケージョンを推定する。ここで、オケージョンとは、ユーザの活動が関係する諸々の情報で、存在するエリア(自宅、職場、移動手段など)、環境情報(季節、天候、混雑など)、行動パターン・活動サイクル(起床、在宅中、帰宅など)、Web閲覧情報(カテゴリ、閲覧履歴など)などを含む。例えば、時系列に沿った単一データ(例えば、所定時刻における位置データ)に基づいて、ユーザの現在の存在エリアを推定することができ、さらに、同時に送信された平日休日データ、生活時間帯データ、ログデータ等に基づいて、ユーザの行動(例えば在宅中、勉強中、仕事中、就寝中等)を推定することができる。
また、時系列に沿った系列データ(例えば、所定の期間における位置データ)を取得することで、ユーザのエリア移動を推定することができる。また、系列データからも同様に、ユーザの行動を推定することができる。
さらに、ユーザデータを長期蓄積することで、ユーザの通勤経路や、エリア訪問頻度、よく行う行動、プロファイル等を推定することもできる。
図9は、体験モデル生成手段236による体験モデル生成処理の概略を示す図である。
体験モデル生成手段236は、ステップS14で抽出されたSOM(時系列SOM)を蓄積し、蓄積された時系列SOMを用いて、既に記憶部22に記憶されている体験モデルデータをより高精度なモデルにする学習処理を実施し、更新する。
学習処理としては、図9に示すように、スコア計算処理、勝者ノード決定処理、重み決定処理、学習データ更新処理、及びモデル学習処理を順に実施する。
重み決定処理は、勝者ノード決定処理において決定した勝者ノードを介した遷移スコア(重み)を大きくし、勝者ノード以外の遷移スコアを小さくするように、各遷移スコアを決定する。
学習データ更新処理は、決定した遷移スコアを体験モデルデータにおける各ノードに記録して更新する。
モデル学習処理は、時系列SOMに対応した遷移状態がない場合に、体験モデルデータに新たなモデルとして取得した時系列SOMのSOM遷移経路を追加する。
次に、本実施形態の行動予測システム1における行動予測処理(行動予測方法)について説明する。
図10は、本実施形態の行動予測システム1における、行動予測処理を示すフローチャートである。
行動予測処理では、サーバ装置20のデータ取得手段231は、ステップS11と同様、ユーザ端末10から入力される所定期間における時系列のモーションデータ、及び各種ユーザデータを取得する。
この後、オケージョン推定手段232は、ステップS12と同様にオケージョン推定処理を実施し、また、動作状況推定手段233及び感情推定手段234は、ステップS13(ステップS1〜S4)と同様に、感情推定処理を実施する。
そして、行動予測手段237は、体験モデルデータから、ステップS12により推定されたオケージョン及びステップS13のステップS2により推定された動作状況に対応したSOMの遷移パターンと、同一パターンで遷移するパターンを抽出する。
なお、完全に同一パターンとなっていなくてもよく、例えば、ステップS3で取得されるSOMの遷移パターンとの類似度が所定閾値以内である一部を抽出すればよい。
そして、行動予測手段237は、体験モデルデータの抽出したパターンの遷移スコアに基づいて、次の遷移パターンとなるSOM、及び当該SOMに関連付けられたオケージョンや動作状況を取得、すなわち、行動予測を行う。
行動予測結果の出力先は、例えばユーザ端末10であってもよいが、ユーザ端末10に対してサービスを提供するサービスサーバ等が好ましい。サービスサーバとしては、例えばユーザ端末10に対して広告データを提供する広告サーバ等が挙げられ、行動予測に基づいた最適な広告をユーザ端末10に提供することができる。
なお、ステップS22において、SOMの遷移パターンに対して、類似度が高いパターンがない場合は、上述した体験モデル生成処理を実施し、SOMの遷移パターンに基づいた体験モデルデータが更新される。この場合、ステップS23では、類似パターンが見当たらない旨を出力すればよい。
上述したような行動予測システム1では、サーバ装置20が本発明の行動予測装置として機能し、データ取得手段231により、ユーザ端末10から送信された、位置データやログデータ、平日休日データ、生活時間帯データ等の行動データを含むユーザデータ、及び時系列に沿ったモーションデータを取得する。オケージョン推定手段232は、取得されたユーザデータに基づいて、ユーザが置かれているシチュエーション等を示すオケージョンを推定する。また、動作状況推定手段233及び感情推定手段234は、モーションデータに基づいて、ユーザの動作状況や当該動作状況における感情や情動を推定する。そして、行動予測手段237は、記憶部22に記憶された体験モデルデータと、推定されたオケージョンと、推定された感情や情動とに基づいて、ユーザ行動を予測する。
ここで、体験モデルデータには、時系列に沿ったSOMの遷移パターンがモデル化されたものであり、すなわち、所定のオケージョンにおいて、所定の動作を行っている人の感情の推移が記録されている。言い換えれば、推定されたユーザのオケージョン及び動作状況における感情の推移が、体験モデルデータのモデルと同じような推移状態である場合、これに続く当該ユーザの感情も体験モデルデータと同様に推移する可能性が高く、この際、ユーザの動作状況やオケージョンも体験モデルデータと同じように遷移する可能性が高い。したがって、行動予測手段237は、このような体験モデルデータ、推定されたオケージョン、動作状況、感情や情動を用いて行動予測を実施することで、ユーザの行動を高精度に予測することができる。
また、本実施形態では、感情推定処理において、ユーザ端末10から送信されるモーションデータを用いる。したがって、ユーザの心境の変化に応じて現れるユーザの実際の動きの変化に基づいた感情推定を実施するものであり、例えば画一的なデータベースに基づいて感情推定を実施する場合に比べて、感情推定の精度を向上させることができる。したがって、このような感情推定結果に基づいた行動推定においてもその精度を向上させることができる。
これにより、体験モデルデータとして、ユーザのオケージョンや当該オケージョンにおける動作状況毎の感情の推移をモデル化でき、高精度な行動予測を行える。また、複数のユーザから得られたオケージョン推定結果や感情推定結果に基づいて、体験モデルデータを生成することで、複数のユーザにおける、各オケージョンの各動作状況に対する平均的な感情の推移状態を求めることができる。このような体験モデルデータにより、複数のユーザが、所定のシチュエーションに遭遇した際に共通して感じる感情や、共通する行動内容等を把握でき、ユーザのニーズ分析を高精度に行うことができる。したがって、当該ニーズに基づいた質の高いサービスを提供することができる。
このため、複数のセンサーを用いた高次の検出結果(モーションデータ)が入力された場合でも、低次のSOMに落とし込むことで、特徴部Pの判定が容易となり、感情推定の精度を向上させることができる。
また、体験モデル生成手段236により、体験モデルデータを生成する際にも、これらのSOMの時系列の推移(時系列SOM)を用いて、体験モデルデータを生成する。このため、体験モデルデータを用いた行動予測においても、モーションデータに基づいて生成されるSOMとの比較により容易にユーザの行動を予測することができる。
なお、本発明は、上述した実施形態に限定されるものではなく、本発明の目的を達成できる範囲で、以下に示される変形をも含むものである。
上記実施形態では、ステップS2の動作状況の推定において、HMMを使用してモーションデータから運動状況及び行動状況を推定したが、これに限定されない。例えば、動作状況の推定方法として、確率モデル、統計的回帰モデル、及びニューラルネットワークのいずれかを用いて動作状況を推定することができ、例えばロジスティック回帰や、多層パーセプトロン(Multi Layer Perceptron)等を用いることができる。
上記実施形態では、ステップS3において、モーションデータをSOMに写像する例を示したが、これに限定されない。モーションデータの傾向を判別するためには、例えば、モーションデータを複数のデータに分割してこれらの分割データの分布に基づいて、感情又は情動を推定する手法を用いてもよい。当該方法としては、例えば、「Construction of effective free energy landscape from single-molecule time series,Akinori Babaand Tamiki Komatsuzaki,PNAS,Dec 4,2007,Vol.104,no.49,19297-19302a」等に
紹介される技術を用いることができる。
上記実施形態において、SOMの個人差をなくした高精度な感情推定を実施するために、階層ベイズモデルを用いる例を示したが、これに限定されない。
例えば、階層構造を考慮したカーネル法を用いてもよい。すなわち、記憶部22に蓄積されたSOMを、写像関数を用いてある空間に写像してクラスタリング処理を実施することで、各感情に対応した感情グループを設定し、これらの感情グループに基づいて感情を推定する。
このような手法しては、例えば、SVC(Support Vector Machine)、LDA(Linear Discriminant Analysis)、PCA(Principal Component Analysis)、ディープラーニング等を挙げることができる。
上記実施形態において、ステップS15の体験モデル生成処理として、時系列SOMを用いて、遷移SOMに対する遷移スコアを変更する学習処理を実施して記憶部22に記憶されている体験モデルデータを更新する例を示したが、これに限定されない。
例えば、体験モデル生成手段236は、時系列SOMから、時系列階層SOMモデル(参考文献:Probabilistic reasoning in intelligent systems: networks of plausible inference,Judea Pearl,1988)を用いて体験モデリング生成を行ってもよい。また、Growing Hierarchical Self-Organizing Map(参考文献:The Growing Hierarchical Self-Organizing Map: Exploratory Analysis of High-Dimensional Data (2002),Andreas Rauber , Dieter Merkl , Michael Dittenbach)を用いた体験モデル生成を行ってもよい。
上記実施形態では、行動予測システム1を例示し、ユーザ端末10からデータを取得したサーバ装置20を本発明の感情予測装置として機能させる例を示したがこれに限定されない。
例えば、ユーザ端末10を本発明の感情予測装置として機能させてもよい。この場合、端末制御部17が、端末記憶部16に記憶されたプログラムを読み出し実行することで、上記オケージョン推定手段232、動作状況推定手段233、感情推定手段234、特徴抽出手段235、体験モデル生成手段236、及び行動予測手段237として機能させる。また、このような構成では、ユーザ端末10自身で常時モーションデータを監視することで、常にユーザの感情、情動、シチュエーション、動作状況に応じた最適な処理を実施できる。例えば、感情推定処理によりユーザの感情や情動を推定し、その感情や情動に応じた音楽を再生させたり、ユーザの感情に対して最適なアプリケーションを紹介する画面を表示させたりすることができる。また、行動予測処理により、例えばユーザが公共交通機関で移動すると判定した場合に、音声出力を自動的にオフにする(いわゆるマナーモードに設定する)等の処理をしてもよい。ユーザの感情や行動予測に応じた処理であるため、これらの処理が煩わしいと感じられる可能性が低く、適正なサービスを提供できる。
Claims (8)
- 少なくともユーザ行動に基づく行動データを含むユーザデータ、及び時系列で変化するユーザの動きに基づいたモーションデータを取得するデータ取得手段と、
前記ユーザデータに基づいて、前記ユーザのオケージョンを推定するオケージョン推定手段と、
前記モーションデータに基づいて、前記ユーザの感情を推定する感情推定手段と、
前記オケージョン推定手段により推定された前記オケージョン、及び前記感情推定手段により推定された前記感情の推移に基づいて、体験モデルデータを生成する体験モデル処理手段と、
を備えたことを特徴とするモデル生成装置。 - 請求項1に記載のモデル生成装置において、
前記体験モデル処理手段は、前記オケージョン推定手段により推定された前記オケージョン、及び前記感情推定手段により推定された前記感情の推移に基づいて、前記体験モデルデータを更新する
ことを特徴とするモデル生成装置。 - 請求項2に記載のモデル生成装置において
前記体験モデルデータは、前記オケージョンに対する少なくとも1以上の前記感情の推移と、前記少なくとも1以上の前記感情の推移のそれぞれに関連付けられ、前記オケージョンにおける前記感情の推移確率を示す遷移スコアとを含み、
前記体験モデル処理手段は、既に生成されている前記体験モデルデータから、新たに推定した前記オケージョンに対応する前記少なくとも1以上の前記感情の推移を抽出し、新たに推定された前記感情の推移に対応する前記遷移スコアを大きくする
ことを特徴とするモデル生成装置。 - 請求項1から請求項3のいずれか1項に記載のモデル生成装置において、
前記感情推定手段は、階層構造を考慮した統計的手法又はクラスタリング手法を用い、前記モーションデータの傾向を示す感情グループを設定し、前記取得したモーションデータが属する感情グループから前記感情を推定する
ことを特徴とするモデル生成装置。 - 請求項1から請求項4のいずれか1項に記載のモデル生成装置において、
前記感情推定手段は、前記モーションデータを自己組織化マップに写像し、当該自己組織化マップに基づいて感情を推定する
ことを特徴とするモデル生成装置。 - 請求項1から請求項5のいずれか1項に記載のモデル生成装置において、
前記データ取得手段は、前記ユーザの動きを検出する検出センサーから出力される前記モーションデータを取得する
ことを特徴とするモデル生成装置。 - コンピュータにより、体験モデルデータを生成するモデル生成方法であって、
前記コンピュータは、
少なくともユーザ行動に基づく行動情報を含むユーザデータ、及び時系列で変化するユーザの動きに基づいたモーションデータを取得し、
前記ユーザデータに基づいて、前記ユーザのオケージョンを推定し、
前記モーションデータに基づいて前記ユーザの感情を推定し、
前記オケージョン推定手段により推定された前記オケージョン、及び前記感情推定手段により推定された前記感情の推移に基づいて、体験モデルデータを生成する
ことを特徴とするモデル生成方法。 - コンピュータにより読み込み実行されるモデル生成プログラムであって、
前記コンピュータを、請求項1から請求項6のいずれか1項に記載のモデル生成装置として機能させる
ことを特徴とするモデル生成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016197333A JP6352357B2 (ja) | 2016-10-05 | 2016-10-05 | モデル生成装置、モデル生成方法、及びモデル生成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016197333A JP6352357B2 (ja) | 2016-10-05 | 2016-10-05 | モデル生成装置、モデル生成方法、及びモデル生成プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014058467A Division JP6022499B2 (ja) | 2014-03-20 | 2014-03-20 | 行動予測装置、行動予測方法、及び行動予測プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017027614A JP2017027614A (ja) | 2017-02-02 |
JP6352357B2 true JP6352357B2 (ja) | 2018-07-04 |
Family
ID=57950528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016197333A Active JP6352357B2 (ja) | 2016-10-05 | 2016-10-05 | モデル生成装置、モデル生成方法、及びモデル生成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6352357B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6885858B2 (ja) * | 2017-12-15 | 2021-06-16 | ヤフー株式会社 | 推定装置、推定方法、及び推定プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002073634A (ja) * | 2000-09-05 | 2002-03-12 | Alpine Electronics Inc | 行動パターン処理装置 |
JP4581446B2 (ja) * | 2004-03-22 | 2010-11-17 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2009087074A (ja) * | 2007-09-28 | 2009-04-23 | Panasonic Electric Works Co Ltd | 機器制御システム |
JP5904021B2 (ja) * | 2012-06-07 | 2016-04-13 | ソニー株式会社 | 情報処理装置、電子機器、情報処理方法、及びプログラム |
-
2016
- 2016-10-05 JP JP2016197333A patent/JP6352357B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017027614A (ja) | 2017-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6022499B2 (ja) | 行動予測装置、行動予測方法、及び行動予測プログラム | |
JP6054902B2 (ja) | 感情推定装置、感情推定方法、及び感情推定プログラム | |
JP6777201B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US9750433B2 (en) | Using health monitor data to detect macro and micro habits with a behavioral model | |
JP5935516B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5904021B2 (ja) | 情報処理装置、電子機器、情報処理方法、及びプログラム | |
JP5895716B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20180132068A1 (en) | Portable resource management systems and methods | |
Ilarri et al. | A review of the role of sensors in mobile context-aware recommendation systems | |
WO2018053133A1 (en) | Venue detection | |
CN105556547A (zh) | 用于传感器数据的带注释捕获以及活动的群建模的方法、设备和系统 | |
Hu et al. | Less annotation on personalized activity recognition using context data | |
Wang et al. | Three-year review of the 2018–2020 SHL challenge on transportation and locomotion mode recognition from mobile sensors | |
JP6183489B2 (ja) | 情報処理システム、情報処理方法、及びプログラム | |
JP2014160420A (ja) | 活動状況処理装置及び活動状況処理方法 | |
US11468270B2 (en) | Electronic device and feedback information acquisition method therefor | |
JP6352357B2 (ja) | モデル生成装置、モデル生成方法、及びモデル生成プログラム | |
US11347805B2 (en) | Electronic apparatus, method for controlling the same, and non-transitory computer readable recording medium | |
Guthier et al. | The affect-aware city | |
Bayındır | A survey of people-centric sensing studies utilizing mobile phone sensors | |
Cui et al. | Generating a synthetic probabilistic daily activity-location schedule using large-scale, long-term and low-frequency smartphone GPS data with limited activity information | |
CN111797289A (zh) | 模型处理方法、装置、存储介质和电子设备 | |
Choujaa et al. | Activity recognition from mobile phone data: State of the art, prospects and open problems | |
JP2018045532A (ja) | 情報処理装置、情報処理方法、および、情報処理プログラム | |
KR20230081584A (ko) | 자동 및 멀티 모달리티 정보 입력을 활용하는 일상 추적 시스템을 위한 인공지능 기반의 상황 추론 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180508 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6352357 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |