JP2012248017A - Action model learning device, method, and program - Google Patents
Action model learning device, method, and program Download PDFInfo
- Publication number
- JP2012248017A JP2012248017A JP2011119529A JP2011119529A JP2012248017A JP 2012248017 A JP2012248017 A JP 2012248017A JP 2011119529 A JP2011119529 A JP 2011119529A JP 2011119529 A JP2011119529 A JP 2011119529A JP 2012248017 A JP2012248017 A JP 2012248017A
- Authority
- JP
- Japan
- Prior art keywords
- user
- sensor data
- similarity
- action
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、行動モデル学習装置、方法、及びプログラムに係り、特に、身体に装着したセンサから得られるデータに基づいて、行動を推定する際に用いられる行動モデルを学習する行動モデル学習装置、方法、及びプログラムに関する。 The present invention relates to a behavior model learning device, method, and program, and in particular, a behavior model learning device and method for learning a behavior model used when estimating behavior based on data obtained from a sensor attached to the body. And the program.
現在、センシングデバイスを用いて、日常行動を推定する研究が盛んに行われている。例えば、ユーザの手首や腰などに装着した加速度センサで計測した波形から、”歩く”、”テレビを見る”、”歯を磨く”などの20種類のユーザの行動を認識する手法が提案されている(例えば、非特許文献1参照)。このような研究では、教師あり機械学習のアプローチを用いて行動を認識することが多い。つまり、予めユーザの行動のセンサデータに対してラベリングを行い、ラベルありセンサデータを用いて行動モデルの学習を行う。ここで、ラベルとは、行動の種類とその行動の開始及び終了時間の情報である。非特許文献1の手法では、あるユーザの行動モデルを、そのユーザの行動のラベルありセンサデータを用いて学習し、高い精度を達成している。
Currently, research on estimating daily behavior using a sensing device is actively conducted. For example, a method for recognizing 20 types of user actions such as “walking”, “watching TV”, and “brushing teeth” from a waveform measured by an acceleration sensor worn on the wrist or waist of the user has been proposed. (For example, refer nonpatent literature 1). Such studies often recognize behavior using a supervised machine learning approach. In other words, the sensor data of the user's behavior is labeled in advance, and the behavior model is learned using the labeled sensor data. Here, the label is information on the type of action and the start and end times of the action. In the method of Non-Patent
しかし、行動認識を行う対象のユーザ(以下、「目標ユーザ」という)毎にラベルありセンサデータを用意することはコストの面で困難である。そこで、センサデータを用意するコストや、ラベルを付けるコストを低減するための研究が多く提案されている。例えば、MLLR(最尤線形回帰)やMAP(最大事後確率)適応技術を用いて、学習用のセンサデータを取得するためのユーザ(以下、「元ユーザ」という)のラベルありセンサデータから学習した行動モデルを目標ユーザに適応させている(例えば、非特許文献2〜4参照)。非特許文献2の技術では、目標ユーザのセンサデータを用いて行動モデルの適応を行っている。 However, it is difficult in terms of cost to prepare sensor data with a label for each user who performs action recognition (hereinafter referred to as “target user”). Therefore, many studies have been proposed to reduce the cost of preparing sensor data and the cost of labeling. For example, using MLLR (maximum likelihood linear regression) or MAP (maximum posterior probability) adaptation technology, learning is performed from sensor data with a label of a user (hereinafter referred to as “original user”) for acquiring sensor data for learning. The behavior model is adapted to the target user (see, for example, non-patent documents 2 to 4). In the technique of Non-Patent Document 2, the behavior model is adapted using the sensor data of the target user.
また、脳からの信号(目標ユーザのセンサデータ)を用いて、認識ミスを発見し、その情報をラベルありトレーニングデータとして用いて、ジェスチャー認識モデルを再学習するジェスチャー認識システムが提案されている(例えば、非特許文献5参照)。 There has also been proposed a gesture recognition system that uses a signal from the brain (sensor data of a target user) to find a recognition error and uses that information as labeled training data to relearn a gesture recognition model ( For example, refer nonpatent literature 5).
また、アクティブ学習を用いて、少ない学習データでも高精度での認識を実現する手法が提案されている(例えば、非特許文献6参照)。非特許文献6の手法では、認識が困難と思われる行動について、目標ユーザに正解の入力を要求し、入力された正解に基づいて目標ユーザに関するモデルの再学習を行う。 Also, a method has been proposed that uses active learning to realize high-accuracy recognition even with a small amount of learning data (see Non-Patent Document 6, for example). In the method of Non-Patent Document 6, for a behavior that is considered difficult to recognize, the target user is requested to input a correct answer, and the model related to the target user is relearned based on the input correct answer.
また、同じ性別の元ユーザのセンサデータを用いて、目標ユーザの行動モデルを学習する手法が提案されている(例えば、非特許文献7参照)。 In addition, a method for learning a behavior model of a target user using sensor data of an original user with the same gender has been proposed (for example, see Non-Patent Document 7).
しかしながら、非特許文献2〜5の技術は、目標ユーザの行動モデルの学習にあたり、目標ユーザについてのセンサデータが必要となる。特にラベルありのセンサデータを目標ユーザが用意することは、コストの面で困難である、という問題がある。また、非特許文献6の技術では、目標ユーザが正解の入力を行わなければならないため、こちらもコストの面で問題がある。また、非特許文献7の技術は、目標ユーザの行動モデルの学習に使用する元ユーザに関する学習データを、性別だけで判断するため、得られる目標ユーザの行動モデルの精度が低くなってしまう、という問題がある。 However, the technologies of Non-Patent Documents 2 to 5 require sensor data about the target user when learning the behavior model of the target user. In particular, there is a problem that it is difficult in terms of cost for the target user to prepare sensor data with a label. Further, in the technique of Non-Patent Document 6, since the target user has to input a correct answer, this also has a problem in terms of cost. Moreover, since the technique of nonpatent literature 7 judges the learning data regarding the original user used for learning of a target user's behavior model only by sex, the accuracy of the obtained target user's behavior model will be low. There's a problem.
本発明は上記問題点に鑑みてなされたものであり、目標ユーザのセンサデータを必要とすることなく、精度の高い行動モデルを学習することができる行動モデル学習装置、方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and provides a behavior model learning apparatus, method, and program capable of learning a behavior model with high accuracy without requiring sensor data of a target user. For the purpose.
上記目的を達成するために、本発明の行動モデル学習装置は、目標ユーザの身体的特徴を示す身体特徴情報を取得する取得手段と、前記目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び前記複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ前記元ユーザ間の身体特徴情報に対するセンサデータの類似度を、前記行動の種類毎に学習したユーザ類似モデルと、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記目標ユーザとセンサデータが類似する元ユーザを、前記行動の種類毎に推定する推定手段と、前記推定手段により行動の種類毎に推定された元ユーザの前記センサデータを用いて、前記目標ユーザのセンサデータが取得された際に、該センサデータが表す行動の種類を認識するための行動モデルを学習する行動モデル学習手段と、を含んで構成されている。 In order to achieve the above object, the behavior model learning device of the present invention includes an acquisition unit that acquires physical characteristic information indicating a physical characteristic of a target user, and physical characteristic information of each of a plurality of former users different from the target user. And a user similarity model constructed based on sensor data representing the behavior of each of the plurality of former users, and learning the similarity of sensor data with respect to physical feature information between the former users for each type of behavior, Based on the body feature information of the target user acquired by the acquisition means and the body feature information of the plurality of former users prepared in advance, the former user whose sensor data is similar to the target user is determined as the type of action. Using the estimation unit for each estimation and the sensor data of the original user estimated for each type of action by the estimation unit, There upon being acquired, and is configured to include a behavior model learning means for learning a behavior model for recognizing the type of action that the sensor data represents, a.
本発明の行動モデル学習装置によれば、取得手段が、目標ユーザの身体的特徴を示す身体特徴情報を取得する。また、目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ元ユーザ間の身体特徴情報に対するセンサデータの類似度を、行動の種類毎に学習したユーザ類似モデルが予め用意されている。そして、推定手段が、ユーザ類似モデルと、取得手段により取得した目標ユーザの身体特徴情報と、予め用意された複数の元ユーザの身体特徴情報と、目標ユーザの身体特徴情報とに基づいて、目標ユーザとセンサデータが類似する元ユーザを、行動の種類毎に推定する。そして、行動モデル学習手段が、推定手段により行動の種類毎に推定された元ユーザのセンサデータを用いて、目標ユーザのセンサデータが取得された際に、目標ユーザのセンサデータが表す行動の種類を認識するための行動モデルを学習する。 According to the behavior model learning device of the present invention, the acquisition unit acquires the body feature information indicating the physical feature of the target user. Further, it is constructed based on the body feature information of each of the plurality of former users different from the target user and the sensor data representing the behavior of each of the plurality of former users, and the similarity of the sensor data to the body feature information between the former users is determined. A user similarity model learned for each type of action is prepared in advance. Then, the estimation means uses the target similarity model, the body characteristic information of the target user acquired by the acquisition means, the body feature information of a plurality of former users prepared in advance, and the body feature information of the target user. An original user whose sensor data is similar to the user is estimated for each type of action. Then, when the behavior model learning unit acquires the sensor data of the target user using the sensor data of the original user estimated for each type of behavior by the estimation unit, the type of behavior represented by the sensor data of the target user Learning behavioral models for recognizing
このように、元ユーザ間の身体特徴情報に対するセンサデータの類似度を学習したユーザ類似モデルに基づいて、センサデータが目標ユーザと類似すると推定された元ユーザのセンサデータを用いて行動モデルを学習するため、目標ユーザのセンサデータを必要とすることなく、精度の高い行動モデルを学習することができる。 In this way, based on the user similarity model in which the sensor data similarity to the body feature information between the original users is learned, the behavior model is learned using the sensor data of the original user estimated that the sensor data is similar to the target user. Therefore, a highly accurate behavior model can be learned without requiring sensor data of the target user.
また、前記ユーザ類似モデルは、前記元ユーザの身体特徴情報、及び前記行動の種類が対応付けられたセンサデータで構成された学習データを用いて、元ユーザのペアを複数生成し、該ペアに含まれる元ユーザ各々の身体特徴情報を用いて属性情報を算出し、該ペアに含まれる元ユーザ各々の行動の種類毎のセンサデータの類似度を算出し、前記属性情報が入力された際に前記類似度を出力するように、算出された前記属性情報及び前記類似度を学習することにより構築され、前記推定手段は、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記属性情報を算出し、算出した属性情報を前記ユーザ類似モデルに入力して得られる類似度が所定値以上となる前記元ユーザを、前記目標ユーザとセンサデータが類似する元ユーザとして推定することができる。類似度が所定値以上となる元ユーザとは、予め定めた固定の所定値以上となる元ユーザとしてもよいし、類似度の上位n番目の値を所定値として設定し、その所定値以上となる場合、すなわち、類似度が上位n番目までの元ユーザとしてもよい。 In addition, the user similarity model generates a plurality of pairs of original users by using learning data composed of sensor data in which the body feature information of the former user and the type of action are associated with each other. When attribute information is calculated using the body feature information of each included original user, the similarity of sensor data for each type of behavior of each original user included in the pair is calculated, and when the attribute information is input It is constructed by learning the calculated attribute information and the similarity so as to output the similarity, and the estimation means is prepared in advance with the body feature information of the target user acquired by the acquisition means. Before the attribute information is calculated based on the body feature information of the plurality of former users, and the similarity obtained by inputting the calculated attribute information to the user similarity model is equal to or greater than a predetermined value. The source user, the target user and the sensor data can be estimated as a source user similar. The former user whose similarity is equal to or greater than a predetermined value may be an original user whose predetermined value is equal to or greater than a predetermined fixed value, or the top nth value of similarity is set as a predetermined value, In other words, it may be an original user with the highest n-th similarity.
また、本発明の行動モデル学習装置は、前記ユーザ類似モデルを学習するユーザ類似モデル学習手段を更に含んで構成することができる。 The behavior model learning device of the present invention can further include a user similarity model learning means for learning the user similarity model.
また、本発明の行動モデル学習方法は、取得手段と、推定手段と、行動モデル学習手段とを含む行動モデル学習装置における行動モデル学習方法であって、前記取得手段は、目標ユーザの身体的特徴を示す身体特徴情報を取得し、前記推定手段は、前記目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び前記複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ前記元ユーザ間の身体特徴情報に対するセンサデータの類似度を、前記行動の種類毎に定めたユーザ類似モデルと、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記目標ユーザとセンサデータが類似する元ユーザを、前記行動の種類毎に推定し、前記行動モデル学習手段は、前記推定手段により行動の種類毎に推定された元ユーザの前記センサデータを用いて、前記目標ユーザのセンサデータが取得された際に、該センサデータが表す行動の種類を認識するための行動モデルを学習する方法である。 The behavior model learning method of the present invention is a behavior model learning method in a behavior model learning device including an acquisition unit, an estimation unit, and a behavior model learning unit, wherein the acquisition unit includes physical characteristics of a target user. And the estimation means is constructed based on the body feature information of each of a plurality of former users different from the target user, and sensor data representing the behavior of each of the plurality of former users, and The similarity of sensor data with respect to body feature information between the former users, a user similarity model determined for each type of action, the body feature information of the target user acquired by the acquisition means, and the plurality of prepared in advance Based on the body feature information of the former user, the former user whose sensor data is similar to the target user is estimated for each kind of behavior, and the behavior model The learning means recognizes the type of action represented by the sensor data when the sensor data of the target user is acquired using the sensor data of the original user estimated for each kind of action by the estimating means. It is a method of learning an action model for the purpose.
また、本発明の行動モデル学習装置は、ユーザ類似モデル学習手段を更に含んで構成された前記行動モデル学習装置における行動モデル学習方法とすることができ、前記ユーザ類似モデル学習手段は、前記ユーザ類似モデルを学習することができる。 Further, the behavior model learning device of the present invention can be a behavior model learning method in the behavior model learning device configured to further include a user similarity model learning unit, and the user similarity model learning unit includes the user similarity model. You can learn the model.
また、本発明の行動モデル学習プログラムは、コンピュータを、上記の行動モデル学習装置を構成する各手段として機能させるためのプログラムである。 The behavior model learning program of the present invention is a program for causing a computer to function as each means constituting the behavior model learning device.
以上説明したように、本発明の行動モデル学習装置、方法、及びプログラムによれば、元ユーザ間の身体特徴情報に対するセンサデータの類似度を学習したユーザ類似モデルに基づいて、センサデータが目標ユーザと類似すると推定された元ユーザのセンサデータを用いて行動モデルを学習するため、目標ユーザのセンサデータを必要とすることなく、精度の高い行動モデルを学習することができる、という効果が得られる。 As described above, according to the behavior model learning device, method, and program of the present invention, the sensor data is obtained from the target user based on the user similarity model in which the similarity of the sensor data to the body feature information between the original users is learned. Since the behavioral model is learned using the sensor data of the former user estimated to be similar to the sensor data, it is possible to learn the behavioral model with high accuracy without requiring the sensor data of the target user. .
以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
本実施の形態に係る行動モデル学習装置10は、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、後述する行動モデル学習処理ルーチンを実行するためのプログラムを記憶したROM(Read Only Memory)とを備えたコンピュータで構成されている。このコンピュータは、機能的には、図1に示すように、身体特徴情報取得部12、類似ユーザ推定部14、行動モデル学習部16、及び記憶部20を含んだ構成で表すことができる。記憶部20には、学習データ30、ユーザ類似モデル32、及び行動モデル34が記憶される。
The behavior
まず、ここで、類似ユーザ推定部14で用いられるユーザ類似モデル32の構築について説明する。ユーザ類似モデル32は、ユーザ類似モデル学習装置50により構築される。
First, the construction of the
ユーザ類似モデル学習装置50はCPUと、RAMと、後述するユーザ類似モデル学習処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成されている。このコンピュータは、機能的には、図1に示すように、ユーザペア生成部52、属性情報計算部54、類似度計算部56、ユーザ類似モデル学習部58、及び記憶部20を含んだ構成で表すことができる。記憶部20には、学習データ30及びユーザ類似モデル32が記憶される。
The user similar
記憶部20に記憶されている学習データ30は、元ユーザに装着された加速度センサから取得した行動を表すセンサデータと、元ユーザの身体的な特徴を示す身体特徴情報とで構成されている。記憶部20には、複数の元ユーザに関する学習データが記憶されている。センサデータには、予めラベルが付与されている。ここで、「ラベル」とは、センサデータが表す行動の種類(例えば、“歩く行動”や“走る行動”など)を示すラベルを意味し、対応する行動の種類と、その行動の開始及び終了時刻の情報を含む。
The learning
ユーザペア生成部52は、学習データ30に含まれる元ユーザの集合の中から、2名の元ユーザを選択することにより、元ユーザのペアを複数生成する。
The user
属性情報計算部54は、ユーザペア生成部52で生成した元ユーザのペア毎に、ペア内の元ユーザの身体特徴情報から、属性情報を計算する。
The attribute information calculation unit 54 calculates attribute information for each pair of original users generated by the user
身体特徴情報には、身長や体重、性別といった基本的な情報から、認識したい行動に関する情報などが含まれる。例えば、歯を磨く行動の場合、その行動の利き手の情報などを含むことができる。身体的特徴情報が取りうる値には、数値の情報及びクラスの情報がある。例えば、身長や体重は数値の情報であり、性別の情報はクラスの情報(男性か女性のクラス)である。 The body feature information includes basic information such as height, weight, and gender, and information related to an action to be recognized. For example, in the case of an action of brushing teeth, information on the dominant hand of the action can be included. Values that can be taken by physical feature information include numerical information and class information. For example, height and weight are numerical information, and sex information is class information (male or female class).
属性情報の計算は、具体的には、ある元ユーザのペア内の元ユーザを、ユーザA及びユーザBとした場合、まず、ユーザAをベースユーザ、ユーザBをオブジェクトユーザとして定める。数値の身体特徴情報(例えば、年齢など)からは、ベースユーザの値、オブジェクトユーザの値、オブジェクトユーザの値とベースユーザの値との差、及びオブジェクトユーザの値とベースユーザの値との比の4つの属性が計算される。図2に計算された属性の一例を示す。1行目は、ユーザA及びBの属性の計算例である。この例では、ユーザA及びBの年齢はそれぞれ29及び32となっている。そのため、差は3、比は1.1となる。クラスの身体特徴情報(例えば、性別など)からは、ベースユーザの値、オブジェクトユーザの値、及びオブジェクトユーザの値とベースユーザの値との差の3つの属性が計算される。差は、ここでは、クラスの値が異なるときは1、同一の場合は0とした。図2の1行目の例では、ユーザA及びBの性別は共に男である。そのため、差は0となる。このようにして、属性情報計算部54は、ユーザペア生成部52で生成された全ての元ユーザのペアについて、全ての身体特徴情報から属性情報を計算する。
Specifically, in the calculation of the attribute information, when the original user in a certain original user pair is the user A and the user B, first, the user A is defined as the base user and the user B is defined as the object user. From the numerical body feature information (for example, age), the base user value, the object user value, the difference between the object user value and the base user value, and the ratio between the object user value and the base user value Are calculated. FIG. 2 shows an example of the calculated attribute. The first line is an example of calculating the attributes of users A and B. In this example, the ages of users A and B are 29 and 32, respectively. Therefore, the difference is 3, and the ratio is 1.1. From the class physical feature information (e.g., gender, etc.), three attributes are calculated: the base user value, the object user value, and the difference between the object user value and the base user value. Here, the difference is 1 when the values of the classes are different, and 0 when the values are the same. In the example of the first line in FIG. 2, the sexes of the users A and B are both men. Therefore, the difference is zero. In this way, the attribute information calculation unit 54 calculates attribute information from all body feature information for all pairs of original users generated by the user
類似度計算部56は、各ペア内の2人の元ユーザの行動の類似度を行動の種類毎に計算する。2人の元ユーザの行動の類似度は、学習データ30に含まれる元ユーザに関するラベルありセンサデータから計算される。
The similarity calculation unit 56 calculates the similarity of the behavior of the two former users in each pair for each type of behavior. The similarity between the behaviors of the two former users is calculated from sensor data with a label related to the former users included in the learning
具体的には、まず時系列のセンサデータから特徴抽出を行う。特徴抽出は、基本的にそれぞれのタイムウインドウ(窓)を用いて行う。例えば、1秒毎のスライディング窓を設定し、その窓毎に、その窓内のセンサデータから特徴を抽出する。ここで用いられるセンサデータは、加速度センサにより計測されたデータであり、その値の大きさ及び周期的な変化に特徴があるため、それらを捉えて特徴抽出を行う。値の大きさを捉えるためには、センサデータの窓内の値の平均をそのまま特徴として用いることができる。センサデータの周期的な変化を示す特徴は、窓内のデータ系列をフーリエ解析することにより抽出することができる。例えば、データ系列に対して高速フーリエ変換を適用し、それぞれのフーリエ係数を特徴としてそのまま用いることができる。例えば、非特許文献1の技術のように、フーリエ係数からエネルギやエントロピを計算し、それらを特徴として用いることができる。このような特徴抽出の処理を、身体に装着している加速度センサの軸毎に行う。
Specifically, first, feature extraction is performed from time-series sensor data. Feature extraction is basically performed using each time window (window). For example, a sliding window is set every second, and features are extracted from the sensor data in the window for each window. The sensor data used here is data measured by an acceleration sensor and has characteristics in the magnitude and periodic change of the value. To capture the magnitude of the value, the average of the values in the sensor data window can be used as a feature as it is. The feature indicating the periodic change of the sensor data can be extracted by performing a Fourier analysis on the data series in the window. For example, fast Fourier transform can be applied to a data series, and each Fourier coefficient can be used as a feature as it is. For example, as in the technique of
以上のようにして抽出した特徴のセット(ベクトルで表現した特徴ベクトルとして扱うことができる。)を用いて類似度の計算を行う。あるタイムウインドウの特徴ベクトルは、全てのセンサの全ての軸のその窓内のデータから抽出された特徴から構成される。この処理を、タイムウインドウをスライドさせて行っていくことで、特徴ベクトルの系列が得られる。 The similarity is calculated using the feature set extracted as described above (can be treated as a feature vector expressed by a vector). A feature vector for a time window consists of features extracted from the data in that window for all axes of all sensors. A series of feature vectors can be obtained by performing this process by sliding the time window.
次に、あるユーザA及びBのラベルありセンサデータから計算された特徴ベクトル群から、行動の種類毎の類似度を計算する方法について述べる。このとき、ユーザAをベースユーザ、Bをオブジェクトユーザとする。類似度の計算には混合ガウスモデル(GMM)を用いることができる。ユーザAのある行動の種類に対応したセンサデータから抽出された特徴ベクトル群を用いて、GMMを学習する。そして、ユーザBのその行動の種類に対応したセンサデータから抽出された特徴ベクトルのGMMに対する尤度を求める。ユーザBのその行動に対応する全ての特徴ベクトルの尤度の平均を、その行動についてのユーザBのユーザAに対する類似度とする。GMMの学習には非特許文献8(A. Dempster, N. Laird, D. Rubin, et al. Maximum likelihood from incomplete data via the em algorithm. Journal of the Royal Statistical Society. Series B (Methodological), 39(1):1-38, 1977.)などの手法を用いることができる。なお、特徴抽出及び類似度の計算は、上記の手法に限定されるものではなく、従来既知の手法を用いることができる。 Next, a method of calculating the similarity for each type of action from the feature vector group calculated from sensor data with labels of certain users A and B will be described. At this time, user A is a base user and B is an object user. A mixed Gaussian model (GMM) can be used to calculate the similarity. GMM is learned using a feature vector group extracted from sensor data corresponding to a certain type of action of user A. And the likelihood with respect to GMM of the feature vector extracted from the sensor data corresponding to the kind of the action of the user B is calculated | required. Let the average of the likelihood of all the feature vectors corresponding to the action of the user B be the similarity of the user B to the user A for the action. Non-Patent Document 8 (A. Dempster, N. Laird, D. Rubin, et al. Maximum likelihood from incomplete data via the em algorithm. Journal of the Royal Statistical Society. Series B (Methodological), 39 ( 1): 1-38, 1977.) can be used. Note that feature extraction and similarity calculation are not limited to the above method, and a conventionally known method can be used.
これにより、例えば、図2に示すように、ユーザペア生成部52で生成した元ユーザのペア毎に、属性情報及び類似度が得られる。なお、図2のbaseは「ベースユーザ」、ojbectは「オブジェクトユーザ」を意味する。
Thereby, for example, as shown in FIG. 2, attribute information and similarity are obtained for each pair of original users generated by the user
ユーザ類似モデル学習部58は、元ユーザのペア毎に求めた属性情報及び類似度を用いて、ユーザ類似モデル32を学習する。ユーザ類似モデル32は行動の種類毎に学習する。つまり、行動の種類毎(ラベルありセンサデータのラベル毎)に、元ユーザのペアについて計算された属性情報を入力したときに、その元ユーザのペアに対して計算された類似度を出力することができるように、ユーザ類似モデル32のパラメータを学習していく。学習には、回帰モデルやニューラルネットワークなどの、数値を出力可能なモデルを用いることができる。構築されたユーザ類似モデル32は記憶部20に記憶される。
The user similarity model learning unit 58 learns the
次に、行動モデル学習装置10の各部について詳細に説明する。
Next, each part of the behavior
身体特徴情報取得部12は、図示しない入力装置により入力された目標ユーザの身体特徴情報を取得する。 The body feature information acquisition unit 12 acquires the body feature information of the target user input by an input device (not shown).
類似ユーザ推定部14は、ユーザ類似モデル学習装置50により学習されたユーザ類似モデル32を用いて、身体特徴情報取得部12により取得した目標ユーザの身体情報特徴を用いて、行動の種類毎にセンサデータが類似すると推定される元ユーザを推定する。
The similar user estimation unit 14 uses the
具体的には、目標ユーザと学習データ30に含まれる各元ユーザとから、目標ユーザと元ユーザとのペアを複数生成する。そして、各ペアについて、上記属性情報計算部54と同様の処理により、各ペア内の目標ユーザ及び元ユーザの身体特徴情報を用いて、属性情報を計算する。そして、計算されたペア毎の属性情報をユーザ類似モデル32に入力し、類似度を取得する。このとき、各ペアについて取得された類似度のうち、上位所定数(n個)となるペア内の元ユーザを、目標ユーザに類似する類似元ユーザとして抽出する。なお、類似度が所定値以上となるペア内の元ユーザを、類似元ユーザとして抽出してもよい。また、ユーザ類似モデル32は行動の種類毎に作成されているので、行動の種類毎に類似元ユーザが抽出される。
Specifically, a plurality of pairs of the target user and the original user are generated from the target user and each original user included in the learning
行動モデル学習部16は、類似ユーザ推定部14で推定した行動の種類毎のn人の類似元ユーザのラベルありセンサデータを記憶部20に記憶された学習データ30から取得し、センサデータから特徴ベクトル系列を抽出し、抽出した特徴ベクトル系列を用いて、行動の種類毎に行動モデル34を学習する。行動モデル34の学習には、周知のラベルありセンサデータを用いた行動モデルの学習方法を用いる。例えば、時系列データのモデリングに使われる隠れマルコフモデルなどを用いることができる(例えば、非特許文献9「L. Rabiner. A tutorial on hiddenMarkov models and selected applications in speech recognition. Proceedings of the IEEE, 77(2):257-286, 1989.」参照)。
The behavior
次に、図3を参照して、ユーザ類似モデル学習装置50におけるユーザ類似モデル学習処理ルーチンについて説明する。本ルーチンは、記憶部20に、複数の元ユーザに関する学習データ30が記憶されている状態でスタートする。
Next, a user similarity model learning process routine in the user similarity
ステップ100で、学習データ30に含まれる元ユーザの集合の中から、2名の元ユーザを選択することにより、元ユーザのペアを複数生成する。
In
次に、ステップ102で、上記ステップ100で生成した元ユーザのペア毎に、ペア内の元ユーザの身体特徴情報から、例えば、図2に示すような属性情報を計算する。
Next, in
次に、ステップ104で、上記ステップ102で生成した各ペア内の2人の元ユーザの学習データ30に含まれる元ユーザに関するラベルありセンサデータから特徴ベクトルを抽出し、抽出した特徴ベクトルを用いて、2人の元ユーザの行動の類似度を、行動の種類毎に計算する。
Next, in
次に、ステップ106で、上記ステップ102で計算したペア毎の属性情報、及び上記ステップ104で計算したペア毎の類似度を用いて、行動の種類毎に、元ユーザのペアについて計算された属性情報を入力したときに、その元ユーザのペアに対して計算された類似度を出力することができるように、ユーザ類似モデル32のパラメータを学習する。学習されたユーザ類似モデル32を記憶部20に記憶して、処理を終了する。
Next, in
次に、図4を参照して、行動モデル学習装置10における行動モデル学習処理ルーチンについて説明する。本ルーチンは、記憶部20に、複数の元ユーザに関する学習データ30、及びユーザ類似モデル学習装置50により学習されたユーザ類似モデル32が記憶されている状態でスタートする。
Next, a behavior model learning process routine in the behavior
ステップ150で、入力された目標ユーザの身体特徴情報を取得する。次に、ステップ152で、目標ユーザと学習データ30に含まれる各元ユーザとから、目標ユーザと元ユーザとのペアを複数生成する。
In
次に、ステップ154で、上記ステップ152で生成した各ペアについて、上記ユーザ類似モデル学習処理のステップ102と同様の処理により、各ペア内の目標ユーザ及び元ユーザの身体特徴情報を用いて、属性情報を計算する。
Next, in step 154, for each pair generated in
次に、ステップ156で、記憶部20に記憶されたユーザ類似モデル32を呼び出し、上記ステップ154で計算されたペア毎の属性情報をユーザ類似モデル32に入力し、類似度を取得する。そして、各ペアについて取得された類似度のうち、上位n個となるペア内の元ユーザを、目標ユーザに類似する類似元ユーザとして抽出する。この処理を、行動の種類毎に生成されたユーザ類似モデル32に対して行って、行動の種類毎に類似元ユーザを推定する。
Next, in
次に、ステップ158で、上記ステップ156で推定した行動の種類毎のn人の類似元ユーザのラベルありセンサデータを記憶部20に記憶された学習データ30から取得し、センサデータから特徴ベクトル系列を抽出し、抽出した特徴ベクトル系列を用いて、行動の種類毎に行動モデル34を学習する。学習された行動モデル34を記憶部20に記憶して、処理を終了する。
Next, in step 158, sensor data with labels of n similar-source users for each type of action estimated in
以上説明したように、本実施の形態の行動モデル学習装置によれば、身体的な特徴が類似しているユーザ同士は、そのセンサデータも類似しているであろうという考えに基づいて、元ユーザのペアの身体特徴情報から計算された属性情報の入力に対して、ペア内の元ユーザの行動の類似度を出力するユーザ類似モデルを用いる。このユーザ類似モデルに、目標ユーザと元ユーザとのペアの身体特徴情報から計算された属性情報を入力して取得される類似度に基づいて、目標ユーザと行動(センサデータ)が類似する類似元ユーザを推定し、推定された類似元ユーザのラベルありセンサデータを用いて、行動の種類毎の行動モデルを学習する。このため、目標ユーザは、身体特徴情報を入力するのみで、目標ユーザのセンサデータを必要とすることなく、精度の高い行動モデルを学習することができる。 As described above, according to the behavior model learning device of the present embodiment, based on the idea that users with similar physical characteristics will also have similar sensor data. For the input of attribute information calculated from the body feature information of the pair of users, a user similarity model that outputs the similarity of the behavior of the original user in the pair is used. Based on the similarity obtained by inputting attribute information calculated from the body feature information of the pair of the target user and the original user to the user similarity model, the similarity source in which the target user and the action (sensor data) are similar A user is estimated, and a behavior model for each type of behavior is learned using the estimated sensor data with label of the similar source user. For this reason, the target user can learn a highly accurate behavior model only by inputting body feature information and without requiring sensor data of the target user.
なお、上記の実施の形態では、記憶部20を共通の構成として、行動モデル学習装置10と、ユーザ類似モデル学習装置50とを別々のコンピュータで構成する場合について説明したが、1つのコンピュータで構成するようにしてもよい。
In the above embodiment, the case where the behavior
また、本発明は、上記実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 The present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.
また、上述の行動モデル学習装置及びユーザ類似モデル学習装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。 Moreover, although the above-described behavior model learning device and user-similar model learning device have a computer system inside, if the “computer system” uses a WWW system, a homepage providing environment (or Display environment).
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。 In the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium.
10 行動モデル学習装置
12 身体特徴情報取得部
14 類似ユーザ推定部
16 行動モデル学習部
20 記憶部
30 学習データ
32 ユーザ類似モデル
34 行動モデル
50 ユーザ類似モデル学習装置
52 ユーザペア生成部
54 属性情報計算部
56 類似度計算部
58 ユーザ類似モデル学習部
DESCRIPTION OF
Claims (6)
前記目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び前記複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ前記元ユーザ間の身体特徴情報に対するセンサデータの類似度を、前記行動の種類毎に学習したユーザ類似モデルと、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記目標ユーザとセンサデータが類似する元ユーザを、前記行動の種類毎に推定する推定手段と、
前記推定手段により行動の種類毎に推定された元ユーザの前記センサデータを用いて、前記目標ユーザのセンサデータが取得された際に、該センサデータが表す行動の種類を認識するための行動モデルを学習する行動モデル学習手段と、
を含む行動モデル学習装置。 Acquisition means for acquiring physical feature information indicating physical characteristics of the target user;
The degree of similarity of sensor data with respect to body feature information of each of a plurality of former users different from the target user, and sensor data representing the behavior of each of the plurality of former users. Based on the user similarity model learned for each type of action, the body feature information of the target user acquired by the acquisition means, and the body feature information of the plurality of former users prepared in advance. Estimating means for estimating the former user whose sensor data is similar to that of the user for each type of action,
An action model for recognizing the kind of action represented by the sensor data when the sensor data of the target user is acquired using the sensor data of the original user estimated for each kind of action by the estimating means An action model learning means for learning
A behavior model learning apparatus including:
前記推定手段は、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記属性情報を算出し、算出した属性情報を前記ユーザ類似モデルに入力して得られる類似度が所定値以上となる前記元ユーザを、前記目標ユーザとセンサデータが類似する元ユーザとして推定する
請求項1記載の行動モデル学習装置。 The user similarity model generates a plurality of pairs of original users using learning data composed of sensor data in which the body feature information of the former user and the type of action are associated, and is included in the pair Attribute information is calculated using body feature information of each original user, the similarity of sensor data for each type of behavior of each original user included in the pair is calculated, and the similarity is obtained when the attribute information is input. Constructed by learning the calculated attribute information and the similarity so as to output the degree,
The estimation unit calculates the attribute information based on the body feature information of the target user acquired by the acquisition unit and the body feature information of the plurality of former users prepared in advance, and calculates the calculated attribute information. The behavior model learning device according to claim 1, wherein the former user whose similarity obtained by inputting to the user similarity model is equal to or greater than a predetermined value is estimated as an former user whose sensor data is similar to the target user.
前記取得手段は、目標ユーザの身体的特徴を示す身体特徴情報を取得し、
前記推定手段は、前記目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び前記複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ前記元ユーザ間の身体特徴情報に対するセンサデータの類似度を、前記行動の種類毎に学習したユーザ類似モデルと、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記目標ユーザとセンサデータが類似する元ユーザを、前記行動の種類毎に推定し、
前記行動モデル学習手段は、前記推定手段により行動の種類毎に推定された元ユーザの前記センサデータを用いて、前記目標ユーザのセンサデータが取得された際に、該センサデータが表す行動の種類を認識するための行動モデルを学習する
行動モデル学習方法。 An action model learning method in an action model learning device including an acquisition means, an estimation means, and an action model learning means,
The acquisition means acquires physical feature information indicating the physical features of the target user,
The estimation means is constructed based on body feature information of each of a plurality of former users different from the target user, and sensor data representing each of the plurality of former users, and for body feature information between the former users The similarity degree of sensor data is learned for each type of action, the user similarity model, the body feature information of the target user acquired by the acquisition means, and the body feature information of the plurality of former users prepared in advance On the basis of the original user whose sensor data is similar to the target user for each type of action,
The behavior model learning unit uses the sensor data of the original user estimated for each type of behavior by the estimation unit, and when the sensor data of the target user is acquired, the type of behavior represented by the sensor data A behavior model learning method for learning a behavior model for recognizing an object.
前記ユーザ類似モデル学習手段は、前記ユーザ類似モデルを学習する
請求項4記載の行動モデル学習方法。 The behavior model learning device further includes a user similarity model learning means,
The behavior model learning method according to claim 4, wherein the user similarity model learning unit learns the user similarity model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011119529A JP5520886B2 (en) | 2011-05-27 | 2011-05-27 | Behavior model learning apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011119529A JP5520886B2 (en) | 2011-05-27 | 2011-05-27 | Behavior model learning apparatus, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012248017A true JP2012248017A (en) | 2012-12-13 |
JP5520886B2 JP5520886B2 (en) | 2014-06-11 |
Family
ID=47468400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011119529A Active JP5520886B2 (en) | 2011-05-27 | 2011-05-27 | Behavior model learning apparatus, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5520886B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2016002133A1 (en) * | 2014-06-30 | 2017-05-25 | 日本電気株式会社 | Prediction system and prediction method |
JP2018013857A (en) * | 2016-07-19 | 2018-01-25 | 富士通株式会社 | Sensor data learning method, sensor data learning program, and sensor data learning apparatus |
JP2018097474A (en) * | 2016-12-09 | 2018-06-21 | トヨタ自動車株式会社 | Information service system |
JP2018520397A (en) * | 2015-04-21 | 2018-07-26 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Method and system for identifying human or machine |
CN111797871A (en) * | 2019-04-09 | 2020-10-20 | Oppo广东移动通信有限公司 | Information processing method, information processing apparatus, storage medium, and electronic device |
WO2021131446A1 (en) | 2019-12-24 | 2021-07-01 | オムロン株式会社 | Analysis device, analysis method, and analysis program |
JP2021157544A (en) * | 2020-03-27 | 2021-10-07 | Kddi株式会社 | Information processing device, information processing method, and program |
WO2022113274A1 (en) * | 2020-11-27 | 2022-06-02 | 日本電信電話株式会社 | Time-series data analysis device, time-series data analysis method, and time-series data analysis program |
US11449770B2 (en) | 2017-04-28 | 2022-09-20 | Fujitsu Limited | Action selection learning device, action selection learning method, and storage medium |
WO2023162958A1 (en) * | 2022-02-25 | 2023-08-31 | 株式会社Preferred Networks | Information processing device, method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000227918A (en) * | 1999-02-05 | 2000-08-15 | Nec Corp | Method and device for filtering information, and recording medium recording information filtering program |
JP2004294264A (en) * | 2003-03-27 | 2004-10-21 | Mazda Motor Corp | Navigation system |
JP2007188199A (en) * | 2006-01-12 | 2007-07-26 | Fujitsu Ltd | Method, information processing program, device, and system for presenting complement word/phrase and terminal device for device presenting complement word/phrase |
JP2010146276A (en) * | 2008-12-18 | 2010-07-01 | Nec Corp | System, method and program for action prediction |
-
2011
- 2011-05-27 JP JP2011119529A patent/JP5520886B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000227918A (en) * | 1999-02-05 | 2000-08-15 | Nec Corp | Method and device for filtering information, and recording medium recording information filtering program |
JP2004294264A (en) * | 2003-03-27 | 2004-10-21 | Mazda Motor Corp | Navigation system |
JP2007188199A (en) * | 2006-01-12 | 2007-07-26 | Fujitsu Ltd | Method, information processing program, device, and system for presenting complement word/phrase and terminal device for device presenting complement word/phrase |
JP2010146276A (en) * | 2008-12-18 | 2010-07-01 | Nec Corp | System, method and program for action prediction |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2016002133A1 (en) * | 2014-06-30 | 2017-05-25 | 日本電気株式会社 | Prediction system and prediction method |
JP2018520397A (en) * | 2015-04-21 | 2018-07-26 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Method and system for identifying human or machine |
JP2018013857A (en) * | 2016-07-19 | 2018-01-25 | 富士通株式会社 | Sensor data learning method, sensor data learning program, and sensor data learning apparatus |
JP2018097474A (en) * | 2016-12-09 | 2018-06-21 | トヨタ自動車株式会社 | Information service system |
US11449770B2 (en) | 2017-04-28 | 2022-09-20 | Fujitsu Limited | Action selection learning device, action selection learning method, and storage medium |
CN111797871A (en) * | 2019-04-09 | 2020-10-20 | Oppo广东移动通信有限公司 | Information processing method, information processing apparatus, storage medium, and electronic device |
WO2021131446A1 (en) | 2019-12-24 | 2021-07-01 | オムロン株式会社 | Analysis device, analysis method, and analysis program |
JP2021157544A (en) * | 2020-03-27 | 2021-10-07 | Kddi株式会社 | Information processing device, information processing method, and program |
JP7297712B2 (en) | 2020-03-27 | 2023-06-26 | Kddi株式会社 | Information processing device, information processing method, and program |
WO2022113274A1 (en) * | 2020-11-27 | 2022-06-02 | 日本電信電話株式会社 | Time-series data analysis device, time-series data analysis method, and time-series data analysis program |
WO2023162958A1 (en) * | 2022-02-25 | 2023-08-31 | 株式会社Preferred Networks | Information processing device, method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5520886B2 (en) | 2014-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5520886B2 (en) | Behavior model learning apparatus, method, and program | |
Minnen et al. | Discovering characteristic actions from on-body sensor data | |
US9875445B2 (en) | Dynamic hybrid models for multimodal analysis | |
Pei et al. | Modeling time series similarity with siamese recurrent networks | |
Norgaard et al. | Synthetic sensor data generation for health applications: A supervised deep learning approach | |
Dewi et al. | Human activity recognition based on evolution of features selection and random Forest | |
Li et al. | Recognition system for home-service-related sign language using entropy-based $ K $-means algorithm and ABC-based HMM | |
CN110312471A (en) | The Adaptable System of export control signal from neuron-muscular activity measurement | |
JP6977901B2 (en) | Learning material recommendation method, learning material recommendation device and learning material recommendation program | |
Presti et al. | Hankelet-based dynamical systems modeling for 3D action recognition | |
Santhalingam et al. | Sign language recognition analysis using multimodal data | |
CN109472290B (en) | Emotion fluctuation model analysis method based on finite-state machine | |
Samadani et al. | Discriminative functional analysis of human movements | |
Sharma et al. | Trbaggboost: An ensemble-based transfer learning method applied to Indian Sign Language recognition | |
CN105354532A (en) | Hand motion frame data based gesture identification method | |
Spaulding et al. | Frustratingly easy personalization for real-time affect interpretation of facial expression | |
JP2021189892A (en) | Device for forming action interval estimation model, method for forming action interval estimation model and program for forming action interval estimation model | |
CN117158923A (en) | Remote home-care monitoring method based on meta universe | |
CN110991294A (en) | Method and system for identifying rapidly-constructed human face action unit | |
Schuller | Deep learning our everyday emotions: a short overview | |
Gerych et al. | Gan for generating user-specific human activity data from an incomplete training corpus | |
CN114757310A (en) | Emotion recognition model, and training method, device, equipment and readable storage medium thereof | |
Bennet et al. | Modeling of upper limb and prediction of various yoga postures using artificial neural networks | |
Maekawa et al. | Training data selection with user’s physical characteristics data for acceleration-based activity modeling | |
Malek et al. | Facial age estimation using Zernike moments and multi-layer perceptron |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140401 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140407 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5520886 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |