JP2012248017A - Action model learning device, method, and program - Google Patents

Action model learning device, method, and program Download PDF

Info

Publication number
JP2012248017A
JP2012248017A JP2011119529A JP2011119529A JP2012248017A JP 2012248017 A JP2012248017 A JP 2012248017A JP 2011119529 A JP2011119529 A JP 2011119529A JP 2011119529 A JP2011119529 A JP 2011119529A JP 2012248017 A JP2012248017 A JP 2012248017A
Authority
JP
Japan
Prior art keywords
user
sensor data
similarity
action
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011119529A
Other languages
Japanese (ja)
Other versions
JP5520886B2 (en
Inventor
Takuya Maekawa
卓也 前川
Shinji Watabe
晋治 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011119529A priority Critical patent/JP5520886B2/en
Publication of JP2012248017A publication Critical patent/JP2012248017A/en
Application granted granted Critical
Publication of JP5520886B2 publication Critical patent/JP5520886B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an action model learning device, method, and program for learning a highly accurate action model without requiring sensor data on a target user.SOLUTION: In a user similar model learning device 50, attribute information is calculated from physical characteristic information on each pair of source users by using learning data 30, a characteristic vector is extracted from sensor data with a label to calculate similarity, and a parameter of a user similar model 32 for each type of action is learned so as to output the similarity in response to an input of the attribute information. A physical characteristic information acquiring unit 12 of an action model learning device 10 acquires physical characteristic information on a target user, a similar user presuming unit 14 inputs attribute information calculated from physical characteristic information on a pair of the target user and source user to a user similar model 32 for each type of action to presume a similar source user having similar sensor data as that of the target user on the basis of the acquired similarity. An action model learning unit 16 learns an action model by using the sensor data on the similar source user presumed for each type of action.

Description

本発明は、行動モデル学習装置、方法、及びプログラムに係り、特に、身体に装着したセンサから得られるデータに基づいて、行動を推定する際に用いられる行動モデルを学習する行動モデル学習装置、方法、及びプログラムに関する。   The present invention relates to a behavior model learning device, method, and program, and in particular, a behavior model learning device and method for learning a behavior model used when estimating behavior based on data obtained from a sensor attached to the body. And the program.

現在、センシングデバイスを用いて、日常行動を推定する研究が盛んに行われている。例えば、ユーザの手首や腰などに装着した加速度センサで計測した波形から、”歩く”、”テレビを見る”、”歯を磨く”などの20種類のユーザの行動を認識する手法が提案されている(例えば、非特許文献1参照)。このような研究では、教師あり機械学習のアプローチを用いて行動を認識することが多い。つまり、予めユーザの行動のセンサデータに対してラベリングを行い、ラベルありセンサデータを用いて行動モデルの学習を行う。ここで、ラベルとは、行動の種類とその行動の開始及び終了時間の情報である。非特許文献1の手法では、あるユーザの行動モデルを、そのユーザの行動のラベルありセンサデータを用いて学習し、高い精度を達成している。   Currently, research on estimating daily behavior using a sensing device is actively conducted. For example, a method for recognizing 20 types of user actions such as “walking”, “watching TV”, and “brushing teeth” from a waveform measured by an acceleration sensor worn on the wrist or waist of the user has been proposed. (For example, refer nonpatent literature 1). Such studies often recognize behavior using a supervised machine learning approach. In other words, the sensor data of the user's behavior is labeled in advance, and the behavior model is learned using the labeled sensor data. Here, the label is information on the type of action and the start and end times of the action. In the method of Non-Patent Document 1, a user's behavior model is learned using sensor data with a label of the user's behavior, and high accuracy is achieved.

しかし、行動認識を行う対象のユーザ(以下、「目標ユーザ」という)毎にラベルありセンサデータを用意することはコストの面で困難である。そこで、センサデータを用意するコストや、ラベルを付けるコストを低減するための研究が多く提案されている。例えば、MLLR(最尤線形回帰)やMAP(最大事後確率)適応技術を用いて、学習用のセンサデータを取得するためのユーザ(以下、「元ユーザ」という)のラベルありセンサデータから学習した行動モデルを目標ユーザに適応させている(例えば、非特許文献2〜4参照)。非特許文献2の技術では、目標ユーザのセンサデータを用いて行動モデルの適応を行っている。   However, it is difficult in terms of cost to prepare sensor data with a label for each user who performs action recognition (hereinafter referred to as “target user”). Therefore, many studies have been proposed to reduce the cost of preparing sensor data and the cost of labeling. For example, using MLLR (maximum likelihood linear regression) or MAP (maximum posterior probability) adaptation technology, learning is performed from sensor data with a label of a user (hereinafter referred to as “original user”) for acquiring sensor data for learning. The behavior model is adapted to the target user (see, for example, non-patent documents 2 to 4). In the technique of Non-Patent Document 2, the behavior model is adapted using the sensor data of the target user.

また、脳からの信号(目標ユーザのセンサデータ)を用いて、認識ミスを発見し、その情報をラベルありトレーニングデータとして用いて、ジェスチャー認識モデルを再学習するジェスチャー認識システムが提案されている(例えば、非特許文献5参照)。   There has also been proposed a gesture recognition system that uses a signal from the brain (sensor data of a target user) to find a recognition error and uses that information as labeled training data to relearn a gesture recognition model ( For example, refer nonpatent literature 5).

また、アクティブ学習を用いて、少ない学習データでも高精度での認識を実現する手法が提案されている(例えば、非特許文献6参照)。非特許文献6の手法では、認識が困難と思われる行動について、目標ユーザに正解の入力を要求し、入力された正解に基づいて目標ユーザに関するモデルの再学習を行う。   Also, a method has been proposed that uses active learning to realize high-accuracy recognition even with a small amount of learning data (see Non-Patent Document 6, for example). In the method of Non-Patent Document 6, for a behavior that is considered difficult to recognize, the target user is requested to input a correct answer, and the model related to the target user is relearned based on the input correct answer.

また、同じ性別の元ユーザのセンサデータを用いて、目標ユーザの行動モデルを学習する手法が提案されている(例えば、非特許文献7参照)。   In addition, a method for learning a behavior model of a target user using sensor data of an original user with the same gender has been proposed (for example, see Non-Patent Document 7).

L. Bao and S. S. Intille, "Activity recognition from user-annotated acceleration data," Proc. PERVASIVE 2004, pp. 1--17, 2004.L. Bao and S. S. Intille, "Activity recognition from user-annotated acceleration data," Proc. PERVASIVE 2004, pp. 1--17, 2004. 橋田尚幸、大村廉、今井倫太:加速度センサを用いた日常行動識別における個人適応のための検討、第70回情報処理学会全国大会講演論文集、No.3, pp.335-336, 2008.Naoyuki Hashida, Ren Omura, Ryota Imai: Examination for personal adaptation in daily behavior identification using accelerometer, No.3, pp.335-336, 2008. C. Leggetter and P. Woodland. Maximum likelihood linear regression for speaker adaptation of continuous density hidden Markov models. Computer Speech & Language, 9(2):171-185, 1995.C. Leggetter and P. Woodland.Maximum likelihood linear regression for speaker adaptation of continuous density hidden Markov models.Computer Speech & Language, 9 (2): 171-185, 1995. J. Gauvain and C. Lee. Maximum a posteriori estimation for multivariate gaussian mixture observations of markov chains. IEEE Trans. on Speech and Audio Processing, 2(2):291--298, 2002.J. Gauvain and C. Lee. Maximum a posteriori estimation for multivariate gaussian mixture observations of markov chains.IEEE Trans. On Speech and Audio Processing, 2 (2): 291--298, 2002. K. Forster, A. Biasiucci, R. Chavarriaga, J. del R. Millan, D. Roggen、 and G. Troster. On the use of brain decoded signals for online user adaptive gesture recognition systems. In Pervasive 2010, pages 427-444, 2010.K. Forster, A. Biasiucci, R. Chavarriaga, J. del R. Millan, D. Roggen, and G. Troster.On the use of brain decoded signals for online user adaptive gesture recognition systems.In Pervasive 2010, pages 427- 444, 2010. M. Stikic, K. Van Laerhoven, and B. Schiele. Exploring semi-supervised and active learning for activity recognition. In Int’l Symp. on Wearable Computers, pages 81-88, 2008.M. Stikic, K. Van Laerhoven, and B. Schiele.Exploring semi-supervised and active learning for activity recognition.In Int’l Symp.on Wearable Computers, pages 81-88, 2008. G. Krassnig、 D. Tantinger, C. Hofmann, T. Wittenberg, and M. Struck. User-friendly system for recognition of activities with an accelerometer. In PervasiveHealth 2010, pages 1-8, 2010.G. Krassnig, D. Tantinger, C. Hofmann, T. Wittenberg, and M. Struck.User-friendly system for recognition of activities with an accelerometer. In PervasiveHealth 2010, pages 1-8, 2010.

しかしながら、非特許文献2〜5の技術は、目標ユーザの行動モデルの学習にあたり、目標ユーザについてのセンサデータが必要となる。特にラベルありのセンサデータを目標ユーザが用意することは、コストの面で困難である、という問題がある。また、非特許文献6の技術では、目標ユーザが正解の入力を行わなければならないため、こちらもコストの面で問題がある。また、非特許文献7の技術は、目標ユーザの行動モデルの学習に使用する元ユーザに関する学習データを、性別だけで判断するため、得られる目標ユーザの行動モデルの精度が低くなってしまう、という問題がある。   However, the technologies of Non-Patent Documents 2 to 5 require sensor data about the target user when learning the behavior model of the target user. In particular, there is a problem that it is difficult in terms of cost for the target user to prepare sensor data with a label. Further, in the technique of Non-Patent Document 6, since the target user has to input a correct answer, this also has a problem in terms of cost. Moreover, since the technique of nonpatent literature 7 judges the learning data regarding the original user used for learning of a target user's behavior model only by sex, the accuracy of the obtained target user's behavior model will be low. There's a problem.

本発明は上記問題点に鑑みてなされたものであり、目標ユーザのセンサデータを必要とすることなく、精度の高い行動モデルを学習することができる行動モデル学習装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and provides a behavior model learning apparatus, method, and program capable of learning a behavior model with high accuracy without requiring sensor data of a target user. For the purpose.

上記目的を達成するために、本発明の行動モデル学習装置は、目標ユーザの身体的特徴を示す身体特徴情報を取得する取得手段と、前記目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び前記複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ前記元ユーザ間の身体特徴情報に対するセンサデータの類似度を、前記行動の種類毎に学習したユーザ類似モデルと、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記目標ユーザとセンサデータが類似する元ユーザを、前記行動の種類毎に推定する推定手段と、前記推定手段により行動の種類毎に推定された元ユーザの前記センサデータを用いて、前記目標ユーザのセンサデータが取得された際に、該センサデータが表す行動の種類を認識するための行動モデルを学習する行動モデル学習手段と、を含んで構成されている。   In order to achieve the above object, the behavior model learning device of the present invention includes an acquisition unit that acquires physical characteristic information indicating a physical characteristic of a target user, and physical characteristic information of each of a plurality of former users different from the target user. And a user similarity model constructed based on sensor data representing the behavior of each of the plurality of former users, and learning the similarity of sensor data with respect to physical feature information between the former users for each type of behavior, Based on the body feature information of the target user acquired by the acquisition means and the body feature information of the plurality of former users prepared in advance, the former user whose sensor data is similar to the target user is determined as the type of action. Using the estimation unit for each estimation and the sensor data of the original user estimated for each type of action by the estimation unit, There upon being acquired, and is configured to include a behavior model learning means for learning a behavior model for recognizing the type of action that the sensor data represents, a.

本発明の行動モデル学習装置によれば、取得手段が、目標ユーザの身体的特徴を示す身体特徴情報を取得する。また、目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ元ユーザ間の身体特徴情報に対するセンサデータの類似度を、行動の種類毎に学習したユーザ類似モデルが予め用意されている。そして、推定手段が、ユーザ類似モデルと、取得手段により取得した目標ユーザの身体特徴情報と、予め用意された複数の元ユーザの身体特徴情報と、目標ユーザの身体特徴情報とに基づいて、目標ユーザとセンサデータが類似する元ユーザを、行動の種類毎に推定する。そして、行動モデル学習手段が、推定手段により行動の種類毎に推定された元ユーザのセンサデータを用いて、目標ユーザのセンサデータが取得された際に、目標ユーザのセンサデータが表す行動の種類を認識するための行動モデルを学習する。   According to the behavior model learning device of the present invention, the acquisition unit acquires the body feature information indicating the physical feature of the target user. Further, it is constructed based on the body feature information of each of the plurality of former users different from the target user and the sensor data representing the behavior of each of the plurality of former users, and the similarity of the sensor data to the body feature information between the former users is determined. A user similarity model learned for each type of action is prepared in advance. Then, the estimation means uses the target similarity model, the body characteristic information of the target user acquired by the acquisition means, the body feature information of a plurality of former users prepared in advance, and the body feature information of the target user. An original user whose sensor data is similar to the user is estimated for each type of action. Then, when the behavior model learning unit acquires the sensor data of the target user using the sensor data of the original user estimated for each type of behavior by the estimation unit, the type of behavior represented by the sensor data of the target user Learning behavioral models for recognizing

このように、元ユーザ間の身体特徴情報に対するセンサデータの類似度を学習したユーザ類似モデルに基づいて、センサデータが目標ユーザと類似すると推定された元ユーザのセンサデータを用いて行動モデルを学習するため、目標ユーザのセンサデータを必要とすることなく、精度の高い行動モデルを学習することができる。   In this way, based on the user similarity model in which the sensor data similarity to the body feature information between the original users is learned, the behavior model is learned using the sensor data of the original user estimated that the sensor data is similar to the target user. Therefore, a highly accurate behavior model can be learned without requiring sensor data of the target user.

また、前記ユーザ類似モデルは、前記元ユーザの身体特徴情報、及び前記行動の種類が対応付けられたセンサデータで構成された学習データを用いて、元ユーザのペアを複数生成し、該ペアに含まれる元ユーザ各々の身体特徴情報を用いて属性情報を算出し、該ペアに含まれる元ユーザ各々の行動の種類毎のセンサデータの類似度を算出し、前記属性情報が入力された際に前記類似度を出力するように、算出された前記属性情報及び前記類似度を学習することにより構築され、前記推定手段は、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記属性情報を算出し、算出した属性情報を前記ユーザ類似モデルに入力して得られる類似度が所定値以上となる前記元ユーザを、前記目標ユーザとセンサデータが類似する元ユーザとして推定することができる。類似度が所定値以上となる元ユーザとは、予め定めた固定の所定値以上となる元ユーザとしてもよいし、類似度の上位n番目の値を所定値として設定し、その所定値以上となる場合、すなわち、類似度が上位n番目までの元ユーザとしてもよい。   In addition, the user similarity model generates a plurality of pairs of original users by using learning data composed of sensor data in which the body feature information of the former user and the type of action are associated with each other. When attribute information is calculated using the body feature information of each included original user, the similarity of sensor data for each type of behavior of each original user included in the pair is calculated, and when the attribute information is input It is constructed by learning the calculated attribute information and the similarity so as to output the similarity, and the estimation means is prepared in advance with the body feature information of the target user acquired by the acquisition means. Before the attribute information is calculated based on the body feature information of the plurality of former users, and the similarity obtained by inputting the calculated attribute information to the user similarity model is equal to or greater than a predetermined value. The source user, the target user and the sensor data can be estimated as a source user similar. The former user whose similarity is equal to or greater than a predetermined value may be an original user whose predetermined value is equal to or greater than a predetermined fixed value, or the top nth value of similarity is set as a predetermined value, In other words, it may be an original user with the highest n-th similarity.

また、本発明の行動モデル学習装置は、前記ユーザ類似モデルを学習するユーザ類似モデル学習手段を更に含んで構成することができる。   The behavior model learning device of the present invention can further include a user similarity model learning means for learning the user similarity model.

また、本発明の行動モデル学習方法は、取得手段と、推定手段と、行動モデル学習手段とを含む行動モデル学習装置における行動モデル学習方法であって、前記取得手段は、目標ユーザの身体的特徴を示す身体特徴情報を取得し、前記推定手段は、前記目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び前記複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ前記元ユーザ間の身体特徴情報に対するセンサデータの類似度を、前記行動の種類毎に定めたユーザ類似モデルと、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記目標ユーザとセンサデータが類似する元ユーザを、前記行動の種類毎に推定し、前記行動モデル学習手段は、前記推定手段により行動の種類毎に推定された元ユーザの前記センサデータを用いて、前記目標ユーザのセンサデータが取得された際に、該センサデータが表す行動の種類を認識するための行動モデルを学習する方法である。   The behavior model learning method of the present invention is a behavior model learning method in a behavior model learning device including an acquisition unit, an estimation unit, and a behavior model learning unit, wherein the acquisition unit includes physical characteristics of a target user. And the estimation means is constructed based on the body feature information of each of a plurality of former users different from the target user, and sensor data representing the behavior of each of the plurality of former users, and The similarity of sensor data with respect to body feature information between the former users, a user similarity model determined for each type of action, the body feature information of the target user acquired by the acquisition means, and the plurality of prepared in advance Based on the body feature information of the former user, the former user whose sensor data is similar to the target user is estimated for each kind of behavior, and the behavior model The learning means recognizes the type of action represented by the sensor data when the sensor data of the target user is acquired using the sensor data of the original user estimated for each kind of action by the estimating means. It is a method of learning an action model for the purpose.

また、本発明の行動モデル学習装置は、ユーザ類似モデル学習手段を更に含んで構成された前記行動モデル学習装置における行動モデル学習方法とすることができ、前記ユーザ類似モデル学習手段は、前記ユーザ類似モデルを学習することができる。   Further, the behavior model learning device of the present invention can be a behavior model learning method in the behavior model learning device configured to further include a user similarity model learning unit, and the user similarity model learning unit includes the user similarity model. You can learn the model.

また、本発明の行動モデル学習プログラムは、コンピュータを、上記の行動モデル学習装置を構成する各手段として機能させるためのプログラムである。   The behavior model learning program of the present invention is a program for causing a computer to function as each means constituting the behavior model learning device.

以上説明したように、本発明の行動モデル学習装置、方法、及びプログラムによれば、元ユーザ間の身体特徴情報に対するセンサデータの類似度を学習したユーザ類似モデルに基づいて、センサデータが目標ユーザと類似すると推定された元ユーザのセンサデータを用いて行動モデルを学習するため、目標ユーザのセンサデータを必要とすることなく、精度の高い行動モデルを学習することができる、という効果が得られる。   As described above, according to the behavior model learning device, method, and program of the present invention, the sensor data is obtained from the target user based on the user similarity model in which the similarity of the sensor data to the body feature information between the original users is learned. Since the behavioral model is learned using the sensor data of the former user estimated to be similar to the sensor data, it is possible to learn the behavioral model with high accuracy without requiring the sensor data of the target user. .

本実施の形態の行動モデル学習装置及びユーザ類似モデル学習装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the action model learning apparatus and user similar model learning apparatus of this Embodiment. 元ユーザのペアの身体特徴情報及びセンサデータから計算された属性情報及び類似度の一例を示す図である。It is a figure which shows an example of the attribute information calculated from the body feature information and sensor data of a pair of former users, and a similarity. 本実施の形態のユーザ類似モデル学習装置におけるユーザ類似モデル学習処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the user similarity model learning process routine in the user similarity model learning apparatus of this Embodiment. 本実施の形態の行動モデル学習装置における行動モデル学習処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the action model learning process routine in the action model learning apparatus of this Embodiment.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本実施の形態に係る行動モデル学習装置10は、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、後述する行動モデル学習処理ルーチンを実行するためのプログラムを記憶したROM(Read Only Memory)とを備えたコンピュータで構成されている。このコンピュータは、機能的には、図1に示すように、身体特徴情報取得部12、類似ユーザ推定部14、行動モデル学習部16、及び記憶部20を含んだ構成で表すことができる。記憶部20には、学習データ30、ユーザ類似モデル32、及び行動モデル34が記憶される。   The behavior model learning apparatus 10 according to the present embodiment includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory) that stores a program for executing a behavior model learning processing routine described later. ). As shown in FIG. 1, this computer can be functionally represented by a configuration including a body feature information acquisition unit 12, a similar user estimation unit 14, a behavior model learning unit 16, and a storage unit 20. The storage unit 20 stores learning data 30, a user similarity model 32, and a behavior model 34.

まず、ここで、類似ユーザ推定部14で用いられるユーザ類似モデル32の構築について説明する。ユーザ類似モデル32は、ユーザ類似モデル学習装置50により構築される。   First, the construction of the user similarity model 32 used in the similar user estimation unit 14 will be described here. The user similarity model 32 is constructed by the user similarity model learning device 50.

ユーザ類似モデル学習装置50はCPUと、RAMと、後述するユーザ類似モデル学習処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成されている。このコンピュータは、機能的には、図1に示すように、ユーザペア生成部52、属性情報計算部54、類似度計算部56、ユーザ類似モデル学習部58、及び記憶部20を含んだ構成で表すことができる。記憶部20には、学習データ30及びユーザ類似モデル32が記憶される。   The user similar model learning device 50 is configured by a computer including a CPU, a RAM, and a ROM that stores a program for executing a user similar model learning processing routine described later. As shown in FIG. 1, this computer functionally includes a user pair generation unit 52, an attribute information calculation unit 54, a similarity calculation unit 56, a user similarity model learning unit 58, and a storage unit 20. Can be represented. The storage unit 20 stores learning data 30 and a user similarity model 32.

記憶部20に記憶されている学習データ30は、元ユーザに装着された加速度センサから取得した行動を表すセンサデータと、元ユーザの身体的な特徴を示す身体特徴情報とで構成されている。記憶部20には、複数の元ユーザに関する学習データが記憶されている。センサデータには、予めラベルが付与されている。ここで、「ラベル」とは、センサデータが表す行動の種類(例えば、“歩く行動”や“走る行動”など)を示すラベルを意味し、対応する行動の種類と、その行動の開始及び終了時刻の情報を含む。   The learning data 30 stored in the storage unit 20 includes sensor data representing behavior acquired from an acceleration sensor worn by the former user and body feature information indicating the physical characteristics of the former user. The storage unit 20 stores learning data regarding a plurality of former users. A label is assigned to the sensor data in advance. Here, the “label” means a label indicating the type of action represented by the sensor data (for example, “walking action” or “running action”), and the corresponding action type and the start and end of the action Contains time information.

ユーザペア生成部52は、学習データ30に含まれる元ユーザの集合の中から、2名の元ユーザを選択することにより、元ユーザのペアを複数生成する。   The user pair generation unit 52 generates a plurality of pairs of original users by selecting two original users from the set of original users included in the learning data 30.

属性情報計算部54は、ユーザペア生成部52で生成した元ユーザのペア毎に、ペア内の元ユーザの身体特徴情報から、属性情報を計算する。   The attribute information calculation unit 54 calculates attribute information for each pair of original users generated by the user pair generation unit 52 from the body feature information of the original users in the pair.

身体特徴情報には、身長や体重、性別といった基本的な情報から、認識したい行動に関する情報などが含まれる。例えば、歯を磨く行動の場合、その行動の利き手の情報などを含むことができる。身体的特徴情報が取りうる値には、数値の情報及びクラスの情報がある。例えば、身長や体重は数値の情報であり、性別の情報はクラスの情報(男性か女性のクラス)である。   The body feature information includes basic information such as height, weight, and gender, and information related to an action to be recognized. For example, in the case of an action of brushing teeth, information on the dominant hand of the action can be included. Values that can be taken by physical feature information include numerical information and class information. For example, height and weight are numerical information, and sex information is class information (male or female class).

属性情報の計算は、具体的には、ある元ユーザのペア内の元ユーザを、ユーザA及びユーザBとした場合、まず、ユーザAをベースユーザ、ユーザBをオブジェクトユーザとして定める。数値の身体特徴情報(例えば、年齢など)からは、ベースユーザの値、オブジェクトユーザの値、オブジェクトユーザの値とベースユーザの値との差、及びオブジェクトユーザの値とベースユーザの値との比の4つの属性が計算される。図2に計算された属性の一例を示す。1行目は、ユーザA及びBの属性の計算例である。この例では、ユーザA及びBの年齢はそれぞれ29及び32となっている。そのため、差は3、比は1.1となる。クラスの身体特徴情報(例えば、性別など)からは、ベースユーザの値、オブジェクトユーザの値、及びオブジェクトユーザの値とベースユーザの値との差の3つの属性が計算される。差は、ここでは、クラスの値が異なるときは1、同一の場合は0とした。図2の1行目の例では、ユーザA及びBの性別は共に男である。そのため、差は0となる。このようにして、属性情報計算部54は、ユーザペア生成部52で生成された全ての元ユーザのペアについて、全ての身体特徴情報から属性情報を計算する。   Specifically, in the calculation of the attribute information, when the original user in a certain original user pair is the user A and the user B, first, the user A is defined as the base user and the user B is defined as the object user. From the numerical body feature information (for example, age), the base user value, the object user value, the difference between the object user value and the base user value, and the ratio between the object user value and the base user value Are calculated. FIG. 2 shows an example of the calculated attribute. The first line is an example of calculating the attributes of users A and B. In this example, the ages of users A and B are 29 and 32, respectively. Therefore, the difference is 3, and the ratio is 1.1. From the class physical feature information (e.g., gender, etc.), three attributes are calculated: the base user value, the object user value, and the difference between the object user value and the base user value. Here, the difference is 1 when the values of the classes are different, and 0 when the values are the same. In the example of the first line in FIG. 2, the sexes of the users A and B are both men. Therefore, the difference is zero. In this way, the attribute information calculation unit 54 calculates attribute information from all body feature information for all pairs of original users generated by the user pair generation unit 52.

類似度計算部56は、各ペア内の2人の元ユーザの行動の類似度を行動の種類毎に計算する。2人の元ユーザの行動の類似度は、学習データ30に含まれる元ユーザに関するラベルありセンサデータから計算される。   The similarity calculation unit 56 calculates the similarity of the behavior of the two former users in each pair for each type of behavior. The similarity between the behaviors of the two former users is calculated from sensor data with a label related to the former users included in the learning data 30.

具体的には、まず時系列のセンサデータから特徴抽出を行う。特徴抽出は、基本的にそれぞれのタイムウインドウ(窓)を用いて行う。例えば、1秒毎のスライディング窓を設定し、その窓毎に、その窓内のセンサデータから特徴を抽出する。ここで用いられるセンサデータは、加速度センサにより計測されたデータであり、その値の大きさ及び周期的な変化に特徴があるため、それらを捉えて特徴抽出を行う。値の大きさを捉えるためには、センサデータの窓内の値の平均をそのまま特徴として用いることができる。センサデータの周期的な変化を示す特徴は、窓内のデータ系列をフーリエ解析することにより抽出することができる。例えば、データ系列に対して高速フーリエ変換を適用し、それぞれのフーリエ係数を特徴としてそのまま用いることができる。例えば、非特許文献1の技術のように、フーリエ係数からエネルギやエントロピを計算し、それらを特徴として用いることができる。このような特徴抽出の処理を、身体に装着している加速度センサの軸毎に行う。   Specifically, first, feature extraction is performed from time-series sensor data. Feature extraction is basically performed using each time window (window). For example, a sliding window is set every second, and features are extracted from the sensor data in the window for each window. The sensor data used here is data measured by an acceleration sensor and has characteristics in the magnitude and periodic change of the value. To capture the magnitude of the value, the average of the values in the sensor data window can be used as a feature as it is. The feature indicating the periodic change of the sensor data can be extracted by performing a Fourier analysis on the data series in the window. For example, fast Fourier transform can be applied to a data series, and each Fourier coefficient can be used as a feature as it is. For example, as in the technique of Non-Patent Document 1, energy and entropy can be calculated from Fourier coefficients and used as features. Such feature extraction processing is performed for each axis of the acceleration sensor attached to the body.

以上のようにして抽出した特徴のセット(ベクトルで表現した特徴ベクトルとして扱うことができる。)を用いて類似度の計算を行う。あるタイムウインドウの特徴ベクトルは、全てのセンサの全ての軸のその窓内のデータから抽出された特徴から構成される。この処理を、タイムウインドウをスライドさせて行っていくことで、特徴ベクトルの系列が得られる。   The similarity is calculated using the feature set extracted as described above (can be treated as a feature vector expressed by a vector). A feature vector for a time window consists of features extracted from the data in that window for all axes of all sensors. A series of feature vectors can be obtained by performing this process by sliding the time window.

次に、あるユーザA及びBのラベルありセンサデータから計算された特徴ベクトル群から、行動の種類毎の類似度を計算する方法について述べる。このとき、ユーザAをベースユーザ、Bをオブジェクトユーザとする。類似度の計算には混合ガウスモデル(GMM)を用いることができる。ユーザAのある行動の種類に対応したセンサデータから抽出された特徴ベクトル群を用いて、GMMを学習する。そして、ユーザBのその行動の種類に対応したセンサデータから抽出された特徴ベクトルのGMMに対する尤度を求める。ユーザBのその行動に対応する全ての特徴ベクトルの尤度の平均を、その行動についてのユーザBのユーザAに対する類似度とする。GMMの学習には非特許文献8(A. Dempster, N. Laird, D. Rubin, et al. Maximum likelihood from incomplete data via the em algorithm. Journal of the Royal Statistical Society. Series B (Methodological), 39(1):1-38, 1977.)などの手法を用いることができる。なお、特徴抽出及び類似度の計算は、上記の手法に限定されるものではなく、従来既知の手法を用いることができる。   Next, a method of calculating the similarity for each type of action from the feature vector group calculated from sensor data with labels of certain users A and B will be described. At this time, user A is a base user and B is an object user. A mixed Gaussian model (GMM) can be used to calculate the similarity. GMM is learned using a feature vector group extracted from sensor data corresponding to a certain type of action of user A. And the likelihood with respect to GMM of the feature vector extracted from the sensor data corresponding to the kind of the action of the user B is calculated | required. Let the average of the likelihood of all the feature vectors corresponding to the action of the user B be the similarity of the user B to the user A for the action. Non-Patent Document 8 (A. Dempster, N. Laird, D. Rubin, et al. Maximum likelihood from incomplete data via the em algorithm. Journal of the Royal Statistical Society. Series B (Methodological), 39 ( 1): 1-38, 1977.) can be used. Note that feature extraction and similarity calculation are not limited to the above method, and a conventionally known method can be used.

これにより、例えば、図2に示すように、ユーザペア生成部52で生成した元ユーザのペア毎に、属性情報及び類似度が得られる。なお、図2のbaseは「ベースユーザ」、ojbectは「オブジェクトユーザ」を意味する。   Thereby, for example, as shown in FIG. 2, attribute information and similarity are obtained for each pair of original users generated by the user pair generation unit 52. In FIG. 2, “base” means “base user”, and “obj” means “object user”.

ユーザ類似モデル学習部58は、元ユーザのペア毎に求めた属性情報及び類似度を用いて、ユーザ類似モデル32を学習する。ユーザ類似モデル32は行動の種類毎に学習する。つまり、行動の種類毎(ラベルありセンサデータのラベル毎)に、元ユーザのペアについて計算された属性情報を入力したときに、その元ユーザのペアに対して計算された類似度を出力することができるように、ユーザ類似モデル32のパラメータを学習していく。学習には、回帰モデルやニューラルネットワークなどの、数値を出力可能なモデルを用いることができる。構築されたユーザ類似モデル32は記憶部20に記憶される。   The user similarity model learning unit 58 learns the user similarity model 32 using the attribute information and the degree of similarity obtained for each pair of original users. The user similarity model 32 learns for each type of action. That is, when the attribute information calculated for the original user pair is input for each type of action (for each label of the sensor data with label), the similarity calculated for the original user pair is output. Thus, the parameters of the user similarity model 32 are learned. For the learning, a model capable of outputting a numerical value such as a regression model or a neural network can be used. The constructed user similarity model 32 is stored in the storage unit 20.

次に、行動モデル学習装置10の各部について詳細に説明する。   Next, each part of the behavior model learning device 10 will be described in detail.

身体特徴情報取得部12は、図示しない入力装置により入力された目標ユーザの身体特徴情報を取得する。   The body feature information acquisition unit 12 acquires the body feature information of the target user input by an input device (not shown).

類似ユーザ推定部14は、ユーザ類似モデル学習装置50により学習されたユーザ類似モデル32を用いて、身体特徴情報取得部12により取得した目標ユーザの身体情報特徴を用いて、行動の種類毎にセンサデータが類似すると推定される元ユーザを推定する。   The similar user estimation unit 14 uses the user similarity model 32 learned by the user similarity model learning device 50 and uses the physical information feature of the target user acquired by the physical feature information acquisition unit 12 to perform sensor for each type of action. Estimate the original user whose data is estimated to be similar.

具体的には、目標ユーザと学習データ30に含まれる各元ユーザとから、目標ユーザと元ユーザとのペアを複数生成する。そして、各ペアについて、上記属性情報計算部54と同様の処理により、各ペア内の目標ユーザ及び元ユーザの身体特徴情報を用いて、属性情報を計算する。そして、計算されたペア毎の属性情報をユーザ類似モデル32に入力し、類似度を取得する。このとき、各ペアについて取得された類似度のうち、上位所定数(n個)となるペア内の元ユーザを、目標ユーザに類似する類似元ユーザとして抽出する。なお、類似度が所定値以上となるペア内の元ユーザを、類似元ユーザとして抽出してもよい。また、ユーザ類似モデル32は行動の種類毎に作成されているので、行動の種類毎に類似元ユーザが抽出される。   Specifically, a plurality of pairs of the target user and the original user are generated from the target user and each original user included in the learning data 30. And about each pair, attribute information is calculated by the same process as the said attribute information calculation part 54 using the body feature information of the target user and former user in each pair. Then, the calculated attribute information for each pair is input to the user similarity model 32, and the similarity is acquired. At this time, among the similarities acquired for each pair, the original user in the pair that is the upper predetermined number (n) is extracted as a similar original user similar to the target user. In addition, you may extract the former user in the pair whose similarity becomes more than a predetermined value as a similar former user. Further, since the user similarity model 32 is created for each type of action, a similar source user is extracted for each type of action.

行動モデル学習部16は、類似ユーザ推定部14で推定した行動の種類毎のn人の類似元ユーザのラベルありセンサデータを記憶部20に記憶された学習データ30から取得し、センサデータから特徴ベクトル系列を抽出し、抽出した特徴ベクトル系列を用いて、行動の種類毎に行動モデル34を学習する。行動モデル34の学習には、周知のラベルありセンサデータを用いた行動モデルの学習方法を用いる。例えば、時系列データのモデリングに使われる隠れマルコフモデルなどを用いることができる(例えば、非特許文献9「L. Rabiner. A tutorial on hiddenMarkov models and selected applications in speech recognition. Proceedings of the IEEE, 77(2):257-286, 1989.」参照)。   The behavior model learning unit 16 acquires sensor data with labels of n similar source users for each type of behavior estimated by the similar user estimation unit 14 from the learning data 30 stored in the storage unit 20, and features from the sensor data. A vector series is extracted, and the behavior model 34 is learned for each type of action using the extracted feature vector series. The learning of the behavior model 34 uses a well-known learning method of the behavior model using sensor data with a label. For example, a hidden Markov model used for modeling time-series data can be used (for example, Non-Patent Document 9 “L. Rabiner. A tutorial on hiddenMarkov models and selected applications in speech recognition. Proceedings of the IEEE, 77 ( 2): 257-286, 1989 ").

次に、図3を参照して、ユーザ類似モデル学習装置50におけるユーザ類似モデル学習処理ルーチンについて説明する。本ルーチンは、記憶部20に、複数の元ユーザに関する学習データ30が記憶されている状態でスタートする。   Next, a user similarity model learning process routine in the user similarity model learning device 50 will be described with reference to FIG. This routine starts in a state in which learning data 30 relating to a plurality of former users is stored in the storage unit 20.

ステップ100で、学習データ30に含まれる元ユーザの集合の中から、2名の元ユーザを選択することにより、元ユーザのペアを複数生成する。   In step 100, by selecting two former users from the set of former users included in the learning data 30, a plurality of pairs of former users are generated.

次に、ステップ102で、上記ステップ100で生成した元ユーザのペア毎に、ペア内の元ユーザの身体特徴情報から、例えば、図2に示すような属性情報を計算する。   Next, in step 102, for each pair of original users generated in step 100, for example, attribute information as shown in FIG. 2 is calculated from the body feature information of the original users in the pair.

次に、ステップ104で、上記ステップ102で生成した各ペア内の2人の元ユーザの学習データ30に含まれる元ユーザに関するラベルありセンサデータから特徴ベクトルを抽出し、抽出した特徴ベクトルを用いて、2人の元ユーザの行動の類似度を、行動の種類毎に計算する。   Next, in step 104, a feature vector is extracted from the labeled sensor data regarding the original user included in the learning data 30 of the two original users in each pair generated in step 102, and the extracted feature vector is used. The similarity of the behavior of two former users is calculated for each type of behavior.

次に、ステップ106で、上記ステップ102で計算したペア毎の属性情報、及び上記ステップ104で計算したペア毎の類似度を用いて、行動の種類毎に、元ユーザのペアについて計算された属性情報を入力したときに、その元ユーザのペアに対して計算された類似度を出力することができるように、ユーザ類似モデル32のパラメータを学習する。学習されたユーザ類似モデル32を記憶部20に記憶して、処理を終了する。   Next, in step 106, the attribute calculated for the pair of the original user for each type of action using the attribute information for each pair calculated in step 102 and the similarity for each pair calculated in step 104. When the information is input, the parameters of the user similarity model 32 are learned so that the similarity calculated for the original user pair can be output. The learned user similarity model 32 is stored in the storage unit 20, and the process is terminated.

次に、図4を参照して、行動モデル学習装置10における行動モデル学習処理ルーチンについて説明する。本ルーチンは、記憶部20に、複数の元ユーザに関する学習データ30、及びユーザ類似モデル学習装置50により学習されたユーザ類似モデル32が記憶されている状態でスタートする。   Next, a behavior model learning process routine in the behavior model learning device 10 will be described with reference to FIG. This routine starts in a state where the storage unit 20 stores learning data 30 regarding a plurality of former users and a user similarity model 32 learned by the user similarity model learning device 50.

ステップ150で、入力された目標ユーザの身体特徴情報を取得する。次に、ステップ152で、目標ユーザと学習データ30に含まれる各元ユーザとから、目標ユーザと元ユーザとのペアを複数生成する。   In step 150, the inputted body feature information of the target user is acquired. Next, in step 152, a plurality of pairs of the target user and the original user are generated from the target user and each of the original users included in the learning data 30.

次に、ステップ154で、上記ステップ152で生成した各ペアについて、上記ユーザ類似モデル学習処理のステップ102と同様の処理により、各ペア内の目標ユーザ及び元ユーザの身体特徴情報を用いて、属性情報を計算する。   Next, in step 154, for each pair generated in step 152, the attributes similar to those in step 102 of the user similarity model learning process are used, using the physical feature information of the target user and the original user in each pair. Calculate information.

次に、ステップ156で、記憶部20に記憶されたユーザ類似モデル32を呼び出し、上記ステップ154で計算されたペア毎の属性情報をユーザ類似モデル32に入力し、類似度を取得する。そして、各ペアについて取得された類似度のうち、上位n個となるペア内の元ユーザを、目標ユーザに類似する類似元ユーザとして抽出する。この処理を、行動の種類毎に生成されたユーザ類似モデル32に対して行って、行動の種類毎に類似元ユーザを推定する。   Next, in step 156, the user similarity model 32 stored in the storage unit 20 is called, and the attribute information for each pair calculated in step 154 is input to the user similarity model 32, and the similarity is acquired. Then, among the similarities acquired for each pair, the original user in the top n pairs is extracted as a similar original user similar to the target user. This process is performed on the user similarity model 32 generated for each type of action, and a similar source user is estimated for each type of action.

次に、ステップ158で、上記ステップ156で推定した行動の種類毎のn人の類似元ユーザのラベルありセンサデータを記憶部20に記憶された学習データ30から取得し、センサデータから特徴ベクトル系列を抽出し、抽出した特徴ベクトル系列を用いて、行動の種類毎に行動モデル34を学習する。学習された行動モデル34を記憶部20に記憶して、処理を終了する。   Next, in step 158, sensor data with labels of n similar-source users for each type of action estimated in step 156 is acquired from the learning data 30 stored in the storage unit 20, and the feature vector series is obtained from the sensor data. And the behavior model 34 is learned for each type of behavior using the extracted feature vector series. The learned behavior model 34 is stored in the storage unit 20, and the process is terminated.

以上説明したように、本実施の形態の行動モデル学習装置によれば、身体的な特徴が類似しているユーザ同士は、そのセンサデータも類似しているであろうという考えに基づいて、元ユーザのペアの身体特徴情報から計算された属性情報の入力に対して、ペア内の元ユーザの行動の類似度を出力するユーザ類似モデルを用いる。このユーザ類似モデルに、目標ユーザと元ユーザとのペアの身体特徴情報から計算された属性情報を入力して取得される類似度に基づいて、目標ユーザと行動(センサデータ)が類似する類似元ユーザを推定し、推定された類似元ユーザのラベルありセンサデータを用いて、行動の種類毎の行動モデルを学習する。このため、目標ユーザは、身体特徴情報を入力するのみで、目標ユーザのセンサデータを必要とすることなく、精度の高い行動モデルを学習することができる。   As described above, according to the behavior model learning device of the present embodiment, based on the idea that users with similar physical characteristics will also have similar sensor data. For the input of attribute information calculated from the body feature information of the pair of users, a user similarity model that outputs the similarity of the behavior of the original user in the pair is used. Based on the similarity obtained by inputting attribute information calculated from the body feature information of the pair of the target user and the original user to the user similarity model, the similarity source in which the target user and the action (sensor data) are similar A user is estimated, and a behavior model for each type of behavior is learned using the estimated sensor data with label of the similar source user. For this reason, the target user can learn a highly accurate behavior model only by inputting body feature information and without requiring sensor data of the target user.

なお、上記の実施の形態では、記憶部20を共通の構成として、行動モデル学習装置10と、ユーザ類似モデル学習装置50とを別々のコンピュータで構成する場合について説明したが、1つのコンピュータで構成するようにしてもよい。   In the above embodiment, the case where the behavior model learning device 10 and the user similarity model learning device 50 are configured as separate computers with the storage unit 20 as a common configuration has been described. You may make it do.

また、本発明は、上記実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

また、上述の行動モデル学習装置及びユーザ類似モデル学習装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   Moreover, although the above-described behavior model learning device and user-similar model learning device have a computer system inside, if the “computer system” uses a WWW system, a homepage providing environment (or Display environment).

また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。   In the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium.

10 行動モデル学習装置
12 身体特徴情報取得部
14 類似ユーザ推定部
16 行動モデル学習部
20 記憶部
30 学習データ
32 ユーザ類似モデル
34 行動モデル
50 ユーザ類似モデル学習装置
52 ユーザペア生成部
54 属性情報計算部
56 類似度計算部
58 ユーザ類似モデル学習部
DESCRIPTION OF SYMBOLS 10 Behavior model learning apparatus 12 Body feature information acquisition part 14 Similar user estimation part 16 Behavior model learning part 20 Storage part 30 Learning data 32 User similarity model 34 Action model 50 User similarity model learning apparatus 52 User pair production | generation part 54 Attribute information calculation part 56 Similarity Calculation Unit 58 User Similarity Model Learning Unit

Claims (6)

目標ユーザの身体的特徴を示す身体特徴情報を取得する取得手段と、
前記目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び前記複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ前記元ユーザ間の身体特徴情報に対するセンサデータの類似度を、前記行動の種類毎に学習したユーザ類似モデルと、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記目標ユーザとセンサデータが類似する元ユーザを、前記行動の種類毎に推定する推定手段と、
前記推定手段により行動の種類毎に推定された元ユーザの前記センサデータを用いて、前記目標ユーザのセンサデータが取得された際に、該センサデータが表す行動の種類を認識するための行動モデルを学習する行動モデル学習手段と、
を含む行動モデル学習装置。
Acquisition means for acquiring physical feature information indicating physical characteristics of the target user;
The degree of similarity of sensor data with respect to body feature information of each of a plurality of former users different from the target user, and sensor data representing the behavior of each of the plurality of former users. Based on the user similarity model learned for each type of action, the body feature information of the target user acquired by the acquisition means, and the body feature information of the plurality of former users prepared in advance. Estimating means for estimating the former user whose sensor data is similar to that of the user for each type of action,
An action model for recognizing the kind of action represented by the sensor data when the sensor data of the target user is acquired using the sensor data of the original user estimated for each kind of action by the estimating means An action model learning means for learning
A behavior model learning apparatus including:
前記ユーザ類似モデルは、前記元ユーザの身体特徴情報、及び前記行動の種類が対応付けられたセンサデータで構成された学習データを用いて、元ユーザのペアを複数生成し、該ペアに含まれる元ユーザ各々の身体特徴情報を用いて属性情報を算出し、該ペアに含まれる元ユーザ各々の行動の種類毎のセンサデータの類似度を算出し、前記属性情報が入力された際に前記類似度を出力するように、算出された前記属性情報及び前記類似度を学習することにより構築され、
前記推定手段は、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記属性情報を算出し、算出した属性情報を前記ユーザ類似モデルに入力して得られる類似度が所定値以上となる前記元ユーザを、前記目標ユーザとセンサデータが類似する元ユーザとして推定する
請求項1記載の行動モデル学習装置。
The user similarity model generates a plurality of pairs of original users using learning data composed of sensor data in which the body feature information of the former user and the type of action are associated, and is included in the pair Attribute information is calculated using body feature information of each original user, the similarity of sensor data for each type of behavior of each original user included in the pair is calculated, and the similarity is obtained when the attribute information is input. Constructed by learning the calculated attribute information and the similarity so as to output the degree,
The estimation unit calculates the attribute information based on the body feature information of the target user acquired by the acquisition unit and the body feature information of the plurality of former users prepared in advance, and calculates the calculated attribute information. The behavior model learning device according to claim 1, wherein the former user whose similarity obtained by inputting to the user similarity model is equal to or greater than a predetermined value is estimated as an former user whose sensor data is similar to the target user.
前記ユーザ類似モデルを学習するユーザ類似モデル学習手段を更に含む請求項1または請求項2記載の行動モデル学習装置。   The behavior model learning device according to claim 1, further comprising user similarity model learning means for learning the user similarity model. 取得手段と、推定手段と、行動モデル学習手段とを含む行動モデル学習装置における行動モデル学習方法であって、
前記取得手段は、目標ユーザの身体的特徴を示す身体特徴情報を取得し、
前記推定手段は、前記目標ユーザとは異なる複数の元ユーザ各々の身体特徴情報、及び前記複数の元ユーザ各々の行動を表すセンサデータに基づいて構築され、かつ前記元ユーザ間の身体特徴情報に対するセンサデータの類似度を、前記行動の種類毎に学習したユーザ類似モデルと、前記取得手段により取得した前記目標ユーザの身体特徴情報と、予め用意された前記複数の元ユーザの身体特徴情報とに基づいて、前記目標ユーザとセンサデータが類似する元ユーザを、前記行動の種類毎に推定し、
前記行動モデル学習手段は、前記推定手段により行動の種類毎に推定された元ユーザの前記センサデータを用いて、前記目標ユーザのセンサデータが取得された際に、該センサデータが表す行動の種類を認識するための行動モデルを学習する
行動モデル学習方法。
An action model learning method in an action model learning device including an acquisition means, an estimation means, and an action model learning means,
The acquisition means acquires physical feature information indicating the physical features of the target user,
The estimation means is constructed based on body feature information of each of a plurality of former users different from the target user, and sensor data representing each of the plurality of former users, and for body feature information between the former users The similarity degree of sensor data is learned for each type of action, the user similarity model, the body feature information of the target user acquired by the acquisition means, and the body feature information of the plurality of former users prepared in advance On the basis of the original user whose sensor data is similar to the target user for each type of action,
The behavior model learning unit uses the sensor data of the original user estimated for each type of behavior by the estimation unit, and when the sensor data of the target user is acquired, the type of behavior represented by the sensor data A behavior model learning method for learning a behavior model for recognizing an object.
前記行動モデル学習装置は、ユーザ類似モデル学習手段を更に含み、
前記ユーザ類似モデル学習手段は、前記ユーザ類似モデルを学習する
請求項4記載の行動モデル学習方法。
The behavior model learning device further includes a user similarity model learning means,
The behavior model learning method according to claim 4, wherein the user similarity model learning unit learns the user similarity model.
コンピュータを、請求項1〜請求項3のいずれか1項記載の行動モデル学習装置を構成する各手段として機能させるための行動モデル学習プログラム。   The behavior model learning program for functioning a computer as each means which comprises the behavior model learning apparatus of any one of Claims 1-3.
JP2011119529A 2011-05-27 2011-05-27 Behavior model learning apparatus, method, and program Active JP5520886B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011119529A JP5520886B2 (en) 2011-05-27 2011-05-27 Behavior model learning apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011119529A JP5520886B2 (en) 2011-05-27 2011-05-27 Behavior model learning apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2012248017A true JP2012248017A (en) 2012-12-13
JP5520886B2 JP5520886B2 (en) 2014-06-11

Family

ID=47468400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011119529A Active JP5520886B2 (en) 2011-05-27 2011-05-27 Behavior model learning apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5520886B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016002133A1 (en) * 2014-06-30 2017-05-25 日本電気株式会社 Prediction system and prediction method
JP2018013857A (en) * 2016-07-19 2018-01-25 富士通株式会社 Sensor data learning method, sensor data learning program, and sensor data learning apparatus
JP2018097474A (en) * 2016-12-09 2018-06-21 トヨタ自動車株式会社 Information service system
JP2018520397A (en) * 2015-04-21 2018-07-26 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method and system for identifying human or machine
CN111797871A (en) * 2019-04-09 2020-10-20 Oppo广东移动通信有限公司 Information processing method, information processing apparatus, storage medium, and electronic device
WO2021131446A1 (en) 2019-12-24 2021-07-01 オムロン株式会社 Analysis device, analysis method, and analysis program
JP2021157544A (en) * 2020-03-27 2021-10-07 Kddi株式会社 Information processing device, information processing method, and program
WO2022113274A1 (en) * 2020-11-27 2022-06-02 日本電信電話株式会社 Time-series data analysis device, time-series data analysis method, and time-series data analysis program
US11449770B2 (en) 2017-04-28 2022-09-20 Fujitsu Limited Action selection learning device, action selection learning method, and storage medium
WO2023162958A1 (en) * 2022-02-25 2023-08-31 株式会社Preferred Networks Information processing device, method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000227918A (en) * 1999-02-05 2000-08-15 Nec Corp Method and device for filtering information, and recording medium recording information filtering program
JP2004294264A (en) * 2003-03-27 2004-10-21 Mazda Motor Corp Navigation system
JP2007188199A (en) * 2006-01-12 2007-07-26 Fujitsu Ltd Method, information processing program, device, and system for presenting complement word/phrase and terminal device for device presenting complement word/phrase
JP2010146276A (en) * 2008-12-18 2010-07-01 Nec Corp System, method and program for action prediction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000227918A (en) * 1999-02-05 2000-08-15 Nec Corp Method and device for filtering information, and recording medium recording information filtering program
JP2004294264A (en) * 2003-03-27 2004-10-21 Mazda Motor Corp Navigation system
JP2007188199A (en) * 2006-01-12 2007-07-26 Fujitsu Ltd Method, information processing program, device, and system for presenting complement word/phrase and terminal device for device presenting complement word/phrase
JP2010146276A (en) * 2008-12-18 2010-07-01 Nec Corp System, method and program for action prediction

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016002133A1 (en) * 2014-06-30 2017-05-25 日本電気株式会社 Prediction system and prediction method
JP2018520397A (en) * 2015-04-21 2018-07-26 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method and system for identifying human or machine
JP2018013857A (en) * 2016-07-19 2018-01-25 富士通株式会社 Sensor data learning method, sensor data learning program, and sensor data learning apparatus
JP2018097474A (en) * 2016-12-09 2018-06-21 トヨタ自動車株式会社 Information service system
US11449770B2 (en) 2017-04-28 2022-09-20 Fujitsu Limited Action selection learning device, action selection learning method, and storage medium
CN111797871A (en) * 2019-04-09 2020-10-20 Oppo广东移动通信有限公司 Information processing method, information processing apparatus, storage medium, and electronic device
WO2021131446A1 (en) 2019-12-24 2021-07-01 オムロン株式会社 Analysis device, analysis method, and analysis program
JP2021157544A (en) * 2020-03-27 2021-10-07 Kddi株式会社 Information processing device, information processing method, and program
JP7297712B2 (en) 2020-03-27 2023-06-26 Kddi株式会社 Information processing device, information processing method, and program
WO2022113274A1 (en) * 2020-11-27 2022-06-02 日本電信電話株式会社 Time-series data analysis device, time-series data analysis method, and time-series data analysis program
WO2023162958A1 (en) * 2022-02-25 2023-08-31 株式会社Preferred Networks Information processing device, method, and program

Also Published As

Publication number Publication date
JP5520886B2 (en) 2014-06-11

Similar Documents

Publication Publication Date Title
JP5520886B2 (en) Behavior model learning apparatus, method, and program
Minnen et al. Discovering characteristic actions from on-body sensor data
US9875445B2 (en) Dynamic hybrid models for multimodal analysis
Pei et al. Modeling time series similarity with siamese recurrent networks
Norgaard et al. Synthetic sensor data generation for health applications: A supervised deep learning approach
Dewi et al. Human activity recognition based on evolution of features selection and random Forest
Li et al. Recognition system for home-service-related sign language using entropy-based $ K $-means algorithm and ABC-based HMM
CN110312471A (en) The Adaptable System of export control signal from neuron-muscular activity measurement
JP6977901B2 (en) Learning material recommendation method, learning material recommendation device and learning material recommendation program
Presti et al. Hankelet-based dynamical systems modeling for 3D action recognition
Santhalingam et al. Sign language recognition analysis using multimodal data
CN109472290B (en) Emotion fluctuation model analysis method based on finite-state machine
Samadani et al. Discriminative functional analysis of human movements
Sharma et al. Trbaggboost: An ensemble-based transfer learning method applied to Indian Sign Language recognition
CN105354532A (en) Hand motion frame data based gesture identification method
Spaulding et al. Frustratingly easy personalization for real-time affect interpretation of facial expression
JP2021189892A (en) Device for forming action interval estimation model, method for forming action interval estimation model and program for forming action interval estimation model
CN117158923A (en) Remote home-care monitoring method based on meta universe
CN110991294A (en) Method and system for identifying rapidly-constructed human face action unit
Schuller Deep learning our everyday emotions: a short overview
Gerych et al. Gan for generating user-specific human activity data from an incomplete training corpus
CN114757310A (en) Emotion recognition model, and training method, device, equipment and readable storage medium thereof
Bennet et al. Modeling of upper limb and prediction of various yoga postures using artificial neural networks
Maekawa et al. Training data selection with user’s physical characteristics data for acceleration-based activity modeling
Malek et al. Facial age estimation using Zernike moments and multi-layer perceptron

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140407

R150 Certificate of patent or registration of utility model

Ref document number: 5520886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150