JP5520886B2 - 行動モデル学習装置、方法、及びプログラム - Google Patents

行動モデル学習装置、方法、及びプログラム Download PDF

Info

Publication number
JP5520886B2
JP5520886B2 JP2011119529A JP2011119529A JP5520886B2 JP 5520886 B2 JP5520886 B2 JP 5520886B2 JP 2011119529 A JP2011119529 A JP 2011119529A JP 2011119529 A JP2011119529 A JP 2011119529A JP 5520886 B2 JP5520886 B2 JP 5520886B2
Authority
JP
Japan
Prior art keywords
user
sensor data
similarity
behavior
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011119529A
Other languages
English (en)
Other versions
JP2012248017A (ja
Inventor
卓也 前川
晋治 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011119529A priority Critical patent/JP5520886B2/ja
Publication of JP2012248017A publication Critical patent/JP2012248017A/ja
Application granted granted Critical
Publication of JP5520886B2 publication Critical patent/JP5520886B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、行動モデル学習装置、方法、及びプログラムに係り、特に、身体に装着したセンサから得られるデータに基づいて、行動を推定する際に用いられる行動モデルを学習する行動モデル学習装置、方法、及びプログラムに関する。
現在、センシングデバイスを用いて、日常行動を推定する研究が盛んに行われている。例えば、ユーザの手首や腰などに装着した加速度センサで計測した波形から、”歩く”、”テレビを見る”、”歯を磨く”などの20種類のユーザの行動を認識する手法が提案されている(例えば、非特許文献1参照)。このような研究では、教師あり機械学習のアプローチを用いて行動を認識することが多い。つまり、予めユーザの行動のセンサデータに対してラベリングを行い、ラベルありセンサデータを用いて行動モデルの学習を行う。ここで、ラベルとは、行動の種類とその行動の開始及び終了時間の情報である。非特許文献1の手法では、あるユーザの行動モデルを、そのユーザの行動のラベルありセンサデータを用いて学習し、高い精度を達成している。
しかし、行動認識を行う対象のユーザ(以下、「目標ユーザ」という)毎にラベルありセンサデータを用意することはコストの面で困難である。そこで、センサデータを用意するコストや、ラベルを付けるコストを低減するための研究が多く提案されている。例えば、MLLR(最尤線形回帰)やMAP(最大事後確率)適応技術を用いて、学習用のセンサデータを取得するためのユーザ(以下、「元ユーザ」という)のラベルありセンサデータから学習した行動モデルを目標ユーザに適応させている(例えば、非特許文献2〜4参照)。非特許文献2の技術では、目標ユーザのセンサデータを用いて行動モデルの適応を行っている。
また、脳からの信号(目標ユーザのセンサデータ)を用いて、認識ミスを発見し、その情報をラベルありトレーニングデータとして用いて、ジェスチャー認識モデルを再学習するジェスチャー認識システムが提案されている(例えば、非特許文献5参照)。
また、アクティブ学習を用いて、少ない学習データでも高精度での認識を実現する手法が提案されている(例えば、非特許文献6参照)。非特許文献6の手法では、認識が困難と思われる行動について、目標ユーザに正解の入力を要求し、入力された正解に基づいて目標ユーザに関するモデルの再学習を行う。
また、同じ性別の元ユーザのセンサデータを用いて、目標ユーザの行動モデルを学習する手法が提案されている(例えば、非特許文献7参照)。
L. Bao and S. S. Intille, "Activity recognition from user-annotated acceleration data," Proc. PERVASIVE 2004, pp. 1--17, 2004. 橋田尚幸、大村廉、今井倫太:加速度センサを用いた日常行動識別における個人適応のための検討、第70回情報処理学会全国大会講演論文集、No.3, pp.335-336, 2008. C. Leggetter and P. Woodland. Maximum likelihood linear regression for speaker adaptation of continuous density hidden Markov models. Computer Speech & Language, 9(2):171-185, 1995. J. Gauvain and C. Lee. Maximum a posteriori estimation for multivariate gaussian mixture observations of markov chains. IEEE Trans. on Speech and Audio Processing, 2(2):291--298, 2002. K. Forster, A. Biasiucci, R. Chavarriaga, J. del R. Millan, D. Roggen、 and G. Troster. On the use of brain decoded signals for online user adaptive gesture recognition systems. In Pervasive 2010, pages 427-444, 2010. M. Stikic, K. Van Laerhoven, and B. Schiele. Exploring semi-supervised and active learning for activity recognition. In Int’l Symp. on Wearable Computers, pages 81-88, 2008. G. Krassnig、 D. Tantinger, C. Hofmann, T. Wittenberg, and M. Struck. User-friendly system for recognition of activities with an accelerometer. In PervasiveHealth 2010, pages 1-8, 2010.
しかしながら、非特許文献2〜5の技術は、目標ユーザの行動モデルの学習にあたり、目標ユーザについてのセンサデータが必要となる。特にラベルありのセンサデータを目標ユーザが用意することは、コストの面で困難である、という問題がある。また、非特許文献6の技術では、目標ユーザが正解の入力を行わなければならないため、こちらもコストの面で問題がある。また、非特許文献7の技術は、目標ユーザの行動モデルの学習に使用する元ユーザに関する学習データを、性別だけで判断するため、得られる目標ユーザの行動モデルの精度が低くなってしまう、という問題がある。
本発明は上記問題点に鑑みてなされたものであり、目標ユーザのセンサデータを必要とすることなく、精度の高い行動モデルを学習することができる行動モデル学習装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の行動モデル学習装置は、目標ユーザの身体的特徴を示す身体特徴情報を取得する取得手段と、前記目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び前記複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ前記元ユーザ間の身体特徴情報に対するセンサデータの類似度を、前記行動の種類毎に学習したユーザ類似モデルと、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記目標ユーザとセンサデータが類似する元ユーザを、前記行動の種類毎に推定する推定手段と、前記推定手段により行動の種類毎に推定された元ユーザの前記センサデータを用いて、前記目標ユーザのセンサデータが取得された際に、該センサデータが表す行動の種類を認識するための行動モデルを学習する行動モデル学習手段と、を含んで構成されている。
本発明の行動モデル学習装置によれば、取得手段が、目標ユーザの身体的特徴を示す身体特徴情報を取得する。また、目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ元ユーザ間の身体特徴情報に対するセンサデータの類似度を、行動の種類毎に学習したユーザ類似モデルが予め用意されている。そして、推定手段が、ユーザ類似モデルと、取得手段により取得した目標ユーザの身体特徴情報と、予め用意された複数の元ユーザの身体特徴情報と、目標ユーザの身体特徴情報とに基づいて、目標ユーザとセンサデータが類似する元ユーザを、行動の種類毎に推定する。そして、行動モデル学習手段が、推定手段により行動の種類毎に推定された元ユーザのセンサデータを用いて、目標ユーザのセンサデータが取得された際に、目標ユーザのセンサデータが表す行動の種類を認識するための行動モデルを学習する。
このように、元ユーザ間の身体特徴情報に対するセンサデータの類似度を学習したユーザ類似モデルに基づいて、センサデータが目標ユーザと類似すると推定された元ユーザのセンサデータを用いて行動モデルを学習するため、目標ユーザのセンサデータを必要とすることなく、精度の高い行動モデルを学習することができる。
また、前記ユーザ類似モデルは、前記元ユーザの身体特徴情報、及び前記行動の種類が対応付けられたセンサデータで構成された学習データを用いて、元ユーザのペアを複数生成し、該ペアに含まれる元ユーザ各々の身体特徴情報を用いて属性情報を算出し、該ペアに含まれる元ユーザ各々の行動の種類毎のセンサデータの類似度を算出し、前記属性情報が入力された際に前記類似度を出力するように、算出された前記属性情報及び前記類似度を学習することにより構築され、前記推定手段は、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記属性情報を算出し、算出した属性情報を前記ユーザ類似モデルに入力して得られる類似度が所定値以上となる前記元ユーザを、前記目標ユーザとセンサデータが類似する元ユーザとして推定することができる。類似度が所定値以上となる元ユーザとは、予め定めた固定の所定値以上となる元ユーザとしてもよいし、類似度の上位n番目の値を所定値として設定し、その所定値以上となる場合、すなわち、類似度が上位n番目までの元ユーザとしてもよい。
また、本発明の行動モデル学習装置は、前記ユーザ類似モデルを学習するユーザ類似モデル学習手段を更に含んで構成することができる。
また、本発明の行動モデル学習方法は、取得手段と、推定手段と、行動モデル学習手段とを含む行動モデル学習装置における行動モデル学習方法であって、前記取得手段は、目標ユーザの身体的特徴を示す身体特徴情報を取得し、前記推定手段は、前記目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び前記複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ前記元ユーザ間の身体特徴情報に対するセンサデータの類似度を、前記行動の種類毎に定めたユーザ類似モデルと、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記目標ユーザとセンサデータが類似する元ユーザを、前記行動の種類毎に推定し、前記行動モデル学習手段は、前記推定手段により行動の種類毎に推定された元ユーザの前記センサデータを用いて、前記目標ユーザのセンサデータが取得された際に、該センサデータが表す行動の種類を認識するための行動モデルを学習する方法である。
また、本発明の行動モデル学習装置は、ユーザ類似モデル学習手段を更に含んで構成された前記行動モデル学習装置における行動モデル学習方法とすることができ、前記ユーザ類似モデル学習手段は、前記ユーザ類似モデルを学習することができる。
また、本発明の行動モデル学習プログラムは、コンピュータを、上記の行動モデル学習装置を構成する各手段として機能させるためのプログラムである。
以上説明したように、本発明の行動モデル学習装置、方法、及びプログラムによれば、元ユーザ間の身体特徴情報に対するセンサデータの類似度を学習したユーザ類似モデルに基づいて、センサデータが目標ユーザと類似すると推定された元ユーザのセンサデータを用いて行動モデルを学習するため、目標ユーザのセンサデータを必要とすることなく、精度の高い行動モデルを学習することができる、という効果が得られる。
本実施の形態の行動モデル学習装置及びユーザ類似モデル学習装置の機能的構成を示すブロック図である。 元ユーザのペアの身体特徴情報及びセンサデータから計算された属性情報及び類似度の一例を示す図である。 本実施の形態のユーザ類似モデル学習装置におけるユーザ類似モデル学習処理ルーチンの内容を示すフローチャートである。 本実施の形態の行動モデル学習装置における行動モデル学習処理ルーチンの内容を示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
本実施の形態に係る行動モデル学習装置10は、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、後述する行動モデル学習処理ルーチンを実行するためのプログラムを記憶したROM(Read Only Memory)とを備えたコンピュータで構成されている。このコンピュータは、機能的には、図1に示すように、身体特徴情報取得部12、類似ユーザ推定部14、行動モデル学習部16、及び記憶部20を含んだ構成で表すことができる。記憶部20には、学習データ30、ユーザ類似モデル32、及び行動モデル34が記憶される。
まず、ここで、類似ユーザ推定部14で用いられるユーザ類似モデル32の構築について説明する。ユーザ類似モデル32は、ユーザ類似モデル学習装置50により構築される。
ユーザ類似モデル学習装置50はCPUと、RAMと、後述するユーザ類似モデル学習処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成されている。このコンピュータは、機能的には、図1に示すように、ユーザペア生成部52、属性情報計算部54、類似度計算部56、ユーザ類似モデル学習部58、及び記憶部20を含んだ構成で表すことができる。記憶部20には、学習データ30及びユーザ類似モデル32が記憶される。
記憶部20に記憶されている学習データ30は、元ユーザに装着された加速度センサから取得した行動を表すセンサデータと、元ユーザの身体的な特徴を示す身体特徴情報とで構成されている。記憶部20には、複数の元ユーザに関する学習データが記憶されている。センサデータには、予めラベルが付与されている。ここで、「ラベル」とは、センサデータが表す行動の種類(例えば、“歩く行動”や“走る行動”など)を示すラベルを意味し、対応する行動の種類と、その行動の開始及び終了時刻の情報を含む。
ユーザペア生成部52は、学習データ30に含まれる元ユーザの集合の中から、2名の元ユーザを選択することにより、元ユーザのペアを複数生成する。
属性情報計算部54は、ユーザペア生成部52で生成した元ユーザのペア毎に、ペア内の元ユーザの身体特徴情報から、属性情報を計算する。
身体特徴情報には、身長や体重、性別といった基本的な情報から、認識したい行動に関する情報などが含まれる。例えば、歯を磨く行動の場合、その行動の利き手の情報などを含むことができる。身体的特徴情報が取りうる値には、数値の情報及びクラスの情報がある。例えば、身長や体重は数値の情報であり、性別の情報はクラスの情報(男性か女性のクラス)である。
属性情報の計算は、具体的には、ある元ユーザのペア内の元ユーザを、ユーザA及びユーザBとした場合、まず、ユーザAをベースユーザ、ユーザBをオブジェクトユーザとして定める。数値の身体特徴情報(例えば、年齢など)からは、ベースユーザの値、オブジェクトユーザの値、オブジェクトユーザの値とベースユーザの値との差、及びオブジェクトユーザの値とベースユーザの値との比の4つの属性が計算される。図2に計算された属性の一例を示す。1行目は、ユーザA及びBの属性の計算例である。この例では、ユーザA及びBの年齢はそれぞれ29及び32となっている。そのため、差は3、比は1.1となる。クラスの身体特徴情報(例えば、性別など)からは、ベースユーザの値、オブジェクトユーザの値、及びオブジェクトユーザの値とベースユーザの値との差の3つの属性が計算される。差は、ここでは、クラスの値が異なるときは1、同一の場合は0とした。図2の1行目の例では、ユーザA及びBの性別は共に男である。そのため、差は0となる。このようにして、属性情報計算部54は、ユーザペア生成部52で生成された全ての元ユーザのペアについて、全ての身体特徴情報から属性情報を計算する。
類似度計算部56は、各ペア内の2人の元ユーザの行動の類似度を行動の種類毎に計算する。2人の元ユーザの行動の類似度は、学習データ30に含まれる元ユーザに関するラベルありセンサデータから計算される。
具体的には、まず時系列のセンサデータから特徴抽出を行う。特徴抽出は、基本的にそれぞれのタイムウインドウ(窓)を用いて行う。例えば、1秒毎のスライディング窓を設定し、その窓毎に、その窓内のセンサデータから特徴を抽出する。ここで用いられるセンサデータは、加速度センサにより計測されたデータであり、その値の大きさ及び周期的な変化に特徴があるため、それらを捉えて特徴抽出を行う。値の大きさを捉えるためには、センサデータの窓内の値の平均をそのまま特徴として用いることができる。センサデータの周期的な変化を示す特徴は、窓内のデータ系列をフーリエ解析することにより抽出することができる。例えば、データ系列に対して高速フーリエ変換を適用し、それぞれのフーリエ係数を特徴としてそのまま用いることができる。例えば、非特許文献1の技術のように、フーリエ係数からエネルギやエントロピを計算し、それらを特徴として用いることができる。このような特徴抽出の処理を、身体に装着している加速度センサの軸毎に行う。
以上のようにして抽出した特徴のセット(ベクトルで表現した特徴ベクトルとして扱うことができる。)を用いて類似度の計算を行う。あるタイムウインドウの特徴ベクトルは、全てのセンサの全ての軸のその窓内のデータから抽出された特徴から構成される。この処理を、タイムウインドウをスライドさせて行っていくことで、特徴ベクトルの系列が得られる。
次に、あるユーザA及びBのラベルありセンサデータから計算された特徴ベクトル群から、行動の種類毎の類似度を計算する方法について述べる。このとき、ユーザAをベースユーザ、Bをオブジェクトユーザとする。類似度の計算には混合ガウスモデル(GMM)を用いることができる。ユーザAのある行動の種類に対応したセンサデータから抽出された特徴ベクトル群を用いて、GMMを学習する。そして、ユーザBのその行動の種類に対応したセンサデータから抽出された特徴ベクトルのGMMに対する尤度を求める。ユーザBのその行動に対応する全ての特徴ベクトルの尤度の平均を、その行動についてのユーザBのユーザAに対する類似度とする。GMMの学習には非特許文献8(A. Dempster, N. Laird, D. Rubin, et al. Maximum likelihood from incomplete data via the em algorithm. Journal of the Royal Statistical Society. Series B (Methodological), 39(1):1-38, 1977.)などの手法を用いることができる。なお、特徴抽出及び類似度の計算は、上記の手法に限定されるものではなく、従来既知の手法を用いることができる。
これにより、例えば、図2に示すように、ユーザペア生成部52で生成した元ユーザのペア毎に、属性情報及び類似度が得られる。なお、図2のbaseは「ベースユーザ」、ojbectは「オブジェクトユーザ」を意味する。
ユーザ類似モデル学習部58は、元ユーザのペア毎に求めた属性情報及び類似度を用いて、ユーザ類似モデル32を学習する。ユーザ類似モデル32は行動の種類毎に学習する。つまり、行動の種類毎(ラベルありセンサデータのラベル毎)に、元ユーザのペアについて計算された属性情報を入力したときに、その元ユーザのペアに対して計算された類似度を出力することができるように、ユーザ類似モデル32のパラメータを学習していく。学習には、回帰モデルやニューラルネットワークなどの、数値を出力可能なモデルを用いることができる。構築されたユーザ類似モデル32は記憶部20に記憶される。
次に、行動モデル学習装置10の各部について詳細に説明する。
身体特徴情報取得部12は、図示しない入力装置により入力された目標ユーザの身体特徴情報を取得する。
類似ユーザ推定部14は、ユーザ類似モデル学習装置50により学習されたユーザ類似モデル32を用いて、身体特徴情報取得部12により取得した目標ユーザの身体情報特徴を用いて、行動の種類毎にセンサデータが類似すると推定される元ユーザを推定する。
具体的には、目標ユーザと学習データ30に含まれる各元ユーザとから、目標ユーザと元ユーザとのペアを複数生成する。そして、各ペアについて、上記属性情報計算部54と同様の処理により、各ペア内の目標ユーザ及び元ユーザの身体特徴情報を用いて、属性情報を計算する。そして、計算されたペア毎の属性情報をユーザ類似モデル32に入力し、類似度を取得する。このとき、各ペアについて取得された類似度のうち、上位所定数(n個)となるペア内の元ユーザを、目標ユーザに類似する類似元ユーザとして抽出する。なお、類似度が所定値以上となるペア内の元ユーザを、類似元ユーザとして抽出してもよい。また、ユーザ類似モデル32は行動の種類毎に作成されているので、行動の種類毎に類似元ユーザが抽出される。
行動モデル学習部16は、類似ユーザ推定部14で推定した行動の種類毎のn人の類似元ユーザのラベルありセンサデータを記憶部20に記憶された学習データ30から取得し、センサデータから特徴ベクトル系列を抽出し、抽出した特徴ベクトル系列を用いて、行動の種類毎に行動モデル34を学習する。行動モデル34の学習には、周知のラベルありセンサデータを用いた行動モデルの学習方法を用いる。例えば、時系列データのモデリングに使われる隠れマルコフモデルなどを用いることができる(例えば、非特許文献9「L. Rabiner. A tutorial on hiddenMarkov models and selected applications in speech recognition. Proceedings of the IEEE, 77(2):257-286, 1989.」参照)。
次に、図3を参照して、ユーザ類似モデル学習装置50におけるユーザ類似モデル学習処理ルーチンについて説明する。本ルーチンは、記憶部20に、複数の元ユーザに関する学習データ30が記憶されている状態でスタートする。
ステップ100で、学習データ30に含まれる元ユーザの集合の中から、2名の元ユーザを選択することにより、元ユーザのペアを複数生成する。
次に、ステップ102で、上記ステップ100で生成した元ユーザのペア毎に、ペア内の元ユーザの身体特徴情報から、例えば、図2に示すような属性情報を計算する。
次に、ステップ104で、上記ステップ102で生成した各ペア内の2人の元ユーザの学習データ30に含まれる元ユーザに関するラベルありセンサデータから特徴ベクトルを抽出し、抽出した特徴ベクトルを用いて、2人の元ユーザの行動の類似度を、行動の種類毎に計算する。
次に、ステップ106で、上記ステップ102で計算したペア毎の属性情報、及び上記ステップ104で計算したペア毎の類似度を用いて、行動の種類毎に、元ユーザのペアについて計算された属性情報を入力したときに、その元ユーザのペアに対して計算された類似度を出力することができるように、ユーザ類似モデル32のパラメータを学習する。学習されたユーザ類似モデル32を記憶部20に記憶して、処理を終了する。
次に、図4を参照して、行動モデル学習装置10における行動モデル学習処理ルーチンについて説明する。本ルーチンは、記憶部20に、複数の元ユーザに関する学習データ30、及びユーザ類似モデル学習装置50により学習されたユーザ類似モデル32が記憶されている状態でスタートする。
ステップ150で、入力された目標ユーザの身体特徴情報を取得する。次に、ステップ152で、目標ユーザと学習データ30に含まれる各元ユーザとから、目標ユーザと元ユーザとのペアを複数生成する。
次に、ステップ154で、上記ステップ152で生成した各ペアについて、上記ユーザ類似モデル学習処理のステップ102と同様の処理により、各ペア内の目標ユーザ及び元ユーザの身体特徴情報を用いて、属性情報を計算する。
次に、ステップ156で、記憶部20に記憶されたユーザ類似モデル32を呼び出し、上記ステップ154で計算されたペア毎の属性情報をユーザ類似モデル32に入力し、類似度を取得する。そして、各ペアについて取得された類似度のうち、上位n個となるペア内の元ユーザを、目標ユーザに類似する類似元ユーザとして抽出する。この処理を、行動の種類毎に生成されたユーザ類似モデル32に対して行って、行動の種類毎に類似元ユーザを推定する。
次に、ステップ158で、上記ステップ156で推定した行動の種類毎のn人の類似元ユーザのラベルありセンサデータを記憶部20に記憶された学習データ30から取得し、センサデータから特徴ベクトル系列を抽出し、抽出した特徴ベクトル系列を用いて、行動の種類毎に行動モデル34を学習する。学習された行動モデル34を記憶部20に記憶して、処理を終了する。
以上説明したように、本実施の形態の行動モデル学習装置によれば、身体的な特徴が類似しているユーザ同士は、そのセンサデータも類似しているであろうという考えに基づいて、元ユーザのペアの身体特徴情報から計算された属性情報の入力に対して、ペア内の元ユーザの行動の類似度を出力するユーザ類似モデルを用いる。このユーザ類似モデルに、目標ユーザと元ユーザとのペアの身体特徴情報から計算された属性情報を入力して取得される類似度に基づいて、目標ユーザと行動(センサデータ)が類似する類似元ユーザを推定し、推定された類似元ユーザのラベルありセンサデータを用いて、行動の種類毎の行動モデルを学習する。このため、目標ユーザは、身体特徴情報を入力するのみで、目標ユーザのセンサデータを必要とすることなく、精度の高い行動モデルを学習することができる。
なお、上記の実施の形態では、記憶部20を共通の構成として、行動モデル学習装置10と、ユーザ類似モデル学習装置50とを別々のコンピュータで構成する場合について説明したが、1つのコンピュータで構成するようにしてもよい。
また、本発明は、上記実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
また、上述の行動モデル学習装置及びユーザ類似モデル学習装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
10 行動モデル学習装置
12 身体特徴情報取得部
14 類似ユーザ推定部
16 行動モデル学習部
20 記憶部
30 学習データ
32 ユーザ類似モデル
34 行動モデル
50 ユーザ類似モデル学習装置
52 ユーザペア生成部
54 属性情報計算部
56 類似度計算部
58 ユーザ類似モデル学習部

Claims (6)

  1. 目標ユーザの身体的特徴を示す身体特徴情報を取得する取得手段と、
    前記目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び前記複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ前記元ユーザ間の身体特徴情報に対するセンサデータの類似度を、前記行動の種類毎に学習したユーザ類似モデルと、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記目標ユーザとセンサデータが類似する元ユーザを、前記行動の種類毎に推定する推定手段と、
    前記推定手段により行動の種類毎に推定された元ユーザの前記センサデータを用いて、前記目標ユーザのセンサデータが取得された際に、該センサデータが表す行動の種類を認識するための行動モデルを学習する行動モデル学習手段と、
    を含む行動モデル学習装置。
  2. 前記ユーザ類似モデルは、前記元ユーザの身体特徴情報、及び前記行動の種類が対応付けられたセンサデータで構成された学習データを用いて、元ユーザのペアを複数生成し、該ペアに含まれる元ユーザ各々の身体特徴情報を用いて属性情報を算出し、該ペアに含まれる元ユーザ各々の行動の種類毎のセンサデータの類似度を算出し、前記属性情報が入力された際に前記類似度を出力するように、算出された前記属性情報及び前記類似度を学習することにより構築され、
    前記推定手段は、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記属性情報を算出し、算出した属性情報を前記ユーザ類似モデルに入力して得られる類似度が所定値以上となる前記元ユーザを、前記目標ユーザとセンサデータが類似する元ユーザとして推定する
    請求項1記載の行動モデル学習装置。
  3. 前記ユーザ類似モデルを学習するユーザ類似モデル学習手段を更に含む請求項1または請求項2記載の行動モデル学習装置。
  4. 取得手段と、推定手段と、行動モデル学習手段とを含む行動モデル学習装置における行動モデル学習方法であって、
    前記取得手段は、目標ユーザの身体的特徴を示す身体特徴情報を取得し、
    前記推定手段は、前記目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び前記複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ前記元ユーザ間の身体特徴情報に対するセンサデータの類似度を、前記行動の種類毎に学習したユーザ類似モデルと、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記目標ユーザとセンサデータが類似する元ユーザを、前記行動の種類毎に推定し、
    前記行動モデル学習手段は、前記推定手段により行動の種類毎に推定された元ユーザの前記センサデータを用いて、前記目標ユーザのセンサデータが取得された際に、該センサデータが表す行動の種類を認識するための行動モデルを学習する
    行動モデル学習方法。
  5. 前記行動モデル学習装置は、ユーザ類似モデル学習手段を更に含み、
    前記ユーザ類似モデル学習手段は、前記ユーザ類似モデルを学習する
    請求項4記載の行動モデル学習方法。
  6. コンピュータを、請求項1〜請求項3のいずれか1項記載の行動モデル学習装置を構成する各手段として機能させるための行動モデル学習プログラム。
JP2011119529A 2011-05-27 2011-05-27 行動モデル学習装置、方法、及びプログラム Active JP5520886B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011119529A JP5520886B2 (ja) 2011-05-27 2011-05-27 行動モデル学習装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011119529A JP5520886B2 (ja) 2011-05-27 2011-05-27 行動モデル学習装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2012248017A JP2012248017A (ja) 2012-12-13
JP5520886B2 true JP5520886B2 (ja) 2014-06-11

Family

ID=47468400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011119529A Active JP5520886B2 (ja) 2011-05-27 2011-05-27 行動モデル学習装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5520886B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016002133A1 (ja) * 2014-06-30 2017-05-25 日本電気株式会社 予測システムおよび予測方法
CN106155298B (zh) * 2015-04-21 2019-11-08 阿里巴巴集团控股有限公司 人机识别方法及装置、行为特征数据的采集方法及装置
JP6794692B2 (ja) * 2016-07-19 2020-12-02 富士通株式会社 センサデータ学習方法、センサデータ学習プログラム、及びセンサデータ学習装置
JP6642401B2 (ja) * 2016-12-09 2020-02-05 トヨタ自動車株式会社 情報提供システム
JP6795090B2 (ja) 2017-04-28 2020-12-02 富士通株式会社 行動選択学習装置、行動選択学習プログラム、行動選択学習方法及び行動選択学習システム
CN111797871A (zh) * 2019-04-09 2020-10-20 Oppo广东移动通信有限公司 信息处理方法、装置、存储介质及电子设备
JP7400449B2 (ja) 2019-12-24 2023-12-19 オムロン株式会社 解析装置、解析方法、及び解析プログラム
JP7297712B2 (ja) * 2020-03-27 2023-06-26 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
WO2022113274A1 (ja) * 2020-11-27 2022-06-02 日本電信電話株式会社 時系列データ分析装置、時系列データ分析方法、及び時系列データ分析プログラム
WO2023162958A1 (ja) * 2022-02-25 2023-08-31 株式会社Preferred Networks 情報処理装置、方法、およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000227918A (ja) * 1999-02-05 2000-08-15 Nec Corp 情報フィルタリング方法及びその装置並びに情報フィルタリングプログラムを記録した記録媒体
JP2004294264A (ja) * 2003-03-27 2004-10-21 Mazda Motor Corp ナビゲーションシステム
JP4821328B2 (ja) * 2006-01-12 2011-11-24 富士通株式会社 補完単語語句提案方法、プログラムおよび補完単語語句提案装置
JP2010146276A (ja) * 2008-12-18 2010-07-01 Nec Corp 行動予測システム、行動予測方法および行動予測用プログラム

Also Published As

Publication number Publication date
JP2012248017A (ja) 2012-12-13

Similar Documents

Publication Publication Date Title
JP5520886B2 (ja) 行動モデル学習装置、方法、及びプログラム
KR102071582B1 (ko) 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치
Minnen et al. Discovering characteristic actions from on-body sensor data
Pei et al. Modeling time series similarity with siamese recurrent networks
Dewi et al. Human activity recognition based on evolution of features selection and random Forest
Lo Presti et al. Gesture modeling by hanklet-based hidden markov model
Norgaard et al. Synthetic sensor data generation for health applications: A supervised deep learning approach
CN110312471A (zh) 从神经肌肉活动测量中导出控制信号的自适应系统
JP6977901B2 (ja) 学習材推薦方法、学習材推薦装置および学習材推薦プログラム
Presti et al. Hankelet-based dynamical systems modeling for 3D action recognition
Santhalingam et al. Sign language recognition analysis using multimodal data
CN109472290B (zh) 基于有限状态机的情绪波动模型分析方法
Samadani et al. Discriminative functional analysis of human movements
JP2021189892A (ja) 行動区間推定モデル構築装置、行動区間推定モデル構築方法及び行動区間推定モデル構築プログラム
CN105354532A (zh) 一种基于手部运动帧数据的手势识别方法
Sharma et al. Trbaggboost: An ensemble-based transfer learning method applied to Indian Sign Language recognition
Spaulding et al. Frustratingly easy personalization for real-time affect interpretation of facial expression
Arabacı et al. Multi-modal egocentric activity recognition using multi-kernel learning
CN110991294A (zh) 一种快速构建的人脸动作单元识别方法及系统
Schuller Deep learning our everyday emotions: a short overview
CN114757310A (zh) 情感识别模型及其训练方法、装置、设备及可读存储介质
Malek et al. Facial age estimation using Zernike moments and multi-layer perceptron
Maekawa et al. Training data selection with user’s physical characteristics data for acceleration-based activity modeling
CN113643283A (zh) 一种人体衰老状况的检测方法、装置、设备及存储介质
Ayoub Multimodal Affective Computing Using Temporal Convolutional Neural Network and Deep Convolutional Neural Networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140407

R150 Certificate of patent or registration of utility model

Ref document number: 5520886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150