JP2007187555A - Motion recognition system and method - Google Patents

Motion recognition system and method Download PDF

Info

Publication number
JP2007187555A
JP2007187555A JP2006005819A JP2006005819A JP2007187555A JP 2007187555 A JP2007187555 A JP 2007187555A JP 2006005819 A JP2006005819 A JP 2006005819A JP 2006005819 A JP2006005819 A JP 2006005819A JP 2007187555 A JP2007187555 A JP 2007187555A
Authority
JP
Japan
Prior art keywords
motion
data
sample
partial
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006005819A
Other languages
Japanese (ja)
Other versions
JP4690203B2 (en
Inventor
Kaoru Hiramatsu
薫 平松
Masatsugu Hattori
正嗣 服部
Tatsumi Yamada
辰美 山田
Takeshi Okatome
剛 岡留
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006005819A priority Critical patent/JP4690203B2/en
Publication of JP2007187555A publication Critical patent/JP2007187555A/en
Application granted granted Critical
Publication of JP4690203B2 publication Critical patent/JP4690203B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To properly recognize motion in an environment based on information from a plurality of acceleration sensors. <P>SOLUTION: Actual observation characteristic data are acquired at each prescribed time width (for example, one second) from acceleration data from sensor nodes 1-1 to 1-4, and a label of a partial operation of sample observation having high similarity is applied to the actual observation characteristic data. Every time when the label of the partial operation having high similarity is applied to the actual observation characteristic data, matching is performed between a label row applied to the actual observation characteristic data until then and a label row of the partial operation in an operation dictionary 24A, and thereby a sample operation having high likelihood in the operation dictionary 24A is recognized as a movement in the environment at that time. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、複数の加速度センサからの情報に基づいてその加速度センサが設置された環境における動きを認識する動き認識システムおよび動き認識方法に関するものである。   The present invention relates to a motion recognition system and a motion recognition method for recognizing motion in an environment in which the acceleration sensors are installed based on information from a plurality of acceleration sensors.

環境の状況は、屋内、屋外に関わらず、そこに存在する人間もしくはその他の要因により、時々刻々と変化していく。この環境の状況(環境全体もしくは一部の状況変化)は、環境に複数のセンサを分散設置し、これらセンサからの情報をネットワークを介して集約することにより把握することが可能である。なお、ここでいうセンサは、周辺の物理量や信号を検知するデバイスを指す。   Environmental conditions, both indoors and outdoors, change from moment to moment depending on the people present or other factors. The environmental status (whole environment or partial status change) can be grasped by distributing a plurality of sensors in the environment and collecting information from these sensors via a network. The sensor here refers to a device that detects a physical quantity or signal in the vicinity.

この状況変化が把握可能となれば、過去の状況との比較に基づき、類似状況の検索や次に発生する確率の高い状況の予測が可能となる。また、この予測により、状況の一部として、もし、その場にいるユーザが行う動作を予測することができれば、ユーザの危険状況を察知して警告を出して回避を促したり、ユーザが行う動作をシステムが代わりに実施することができる。実際、自動ドアやHVACシステム(冷暖房空調システム)は、センサとアクチュエータの組を使って、後者の代行動作をシンプルに設定したものと考えることもできる。   If this situation change can be grasped, it becomes possible to search for a similar situation and predict a situation with a high probability of occurring next based on a comparison with a past situation. In addition, as a part of the situation, if the user can predict the action to be performed by this prediction, the user's danger situation is detected and a warning is issued to avoid the situation, or the action performed by the user Can be implemented by the system instead. In fact, automatic doors and HVAC systems (air-conditioning and air-conditioning systems) can be thought of as a simple alternative to the latter, using a combination of sensors and actuators.

また、ユビキタスコンピューティングに関連し、家電ネットワークやセンサネットワークに関する研究成果も数多く発表されており、すでに防犯や医療現場、車載機器への応用利用が始まっている。これらの成果は、コンピュータの性能向上、新たなネットワーク標準の出現、電池・電源・センサデバイスの小型化に起因するところが大きい。   In addition, many research results on home appliance networks and sensor networks have been announced in relation to ubiquitous computing, and applications for crime prevention, medical sites, and in-vehicle devices have already begun. These achievements are largely due to improved computer performance, the emergence of new network standards, and the miniaturization of batteries, power supplies, and sensor devices.

これに伴い、従来、環境で発生する状況変化の認識も、壁面・天井等に固定されたカメラを利用した画像認識や観測対象が固定されたセンサに頼る設置状況への依存度が大きい方法だけでなく、環境にセンサを多数設置して、そこで収集された情報の集約により、状況認識をボトムアップに行う方法も可能になってきた(例えば、非特許文献1参照)。   As a result, conventional methods for recognizing situation changes that occur in the environment are only methods that rely heavily on image recognition using cameras fixed to walls, ceilings, etc., and on installation conditions that rely on sensors with fixed observation targets. In addition, it has become possible to install a large number of sensors in the environment and collect information collected there to perform situation recognition from the bottom up (see, for example, Non-Patent Document 1).

例えば、非特許文献2に示された「Smart Dustプロジェクト」では、超小型センサノードを塗料に混ぜて壁に塗りつけ、周囲の状況認識を実現するようにしている。また、「Smart-ITS プロジェクト」では、センサノード間の近接関係から、激しい反応を起こす薬品を隣に置かないように警告を出すような薬品管理システムを構築している。   For example, in the “Smart Dust project” shown in Non-Patent Document 2, an ultra-small sensor node is mixed with paint and applied to a wall to realize surrounding situation recognition. In the "Smart-ITS Project", a chemical management system that issues warnings to prevent chemicals that cause severe reactions from being placed next to each other due to the proximity relationship between sensor nodes is being constructed.

Y.Nakauchi, K.Noguchi, P.Somwong, T.Matsubara, A.Namatame: Vivid Room: Human intention Detection and Activity Support Environment for Ubiquitous Autonomy,Proc. of the 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS2003), pp.773〜778,2003.Y. Nakauchi, K. Noguchi, P. Somwong, T. Matsubara, A. Namamame: Vivid Room: Human intention Detection and Activity Support Environment for Ubiquitous Autonomy, Proc. Of the 2003 IEEE / RSJ International Conference on Intelligent Robots and Systems ( IROS2003), pp.773-778, 2003. J.M. Kahn, R.H. Katz, K.S.J. Pister, Next century challenges: Mobile Networking for 'smart dust', Proc. MOBICOM, 1999,271-278.J.M.Kahn, R.H.Katz, K.S.J.Pister, Next century challenges: Mobile Networking for 'smart dust', Proc.MOBICOM, 1999,271-278. Needleman, S. B. and Wunsch, C. D."A general method applicable to the search for similarities in the amino acid sequence of two proteins," Journal of Molecular Biology, vol.48, pp.443-453, 1970.Needleman, S. B. and Wunsch, C. D. "A general method applicable to the search for similarities in the amino acid sequence of two proteins," Journal of Molecular Biology, vol.48, pp.443-453, 1970. 石岡 恒憲: クラスター数を自動決定するk-meansアルゴリズムの拡張について、応用統計学、 Vol.29, No.3, 141-149 (2000).Tsunenori Ishioka: Applied statistics, Vol.29, No.3, 141-149 (2000) on the extension of the k-means algorithm that automatically determines the number of clusters. 平松 薫,服部 正嗣,山田 辰美,岡留 剛: Pervasive Association: ユビキタス環境における意味統合(2)−センサネットワークを利用した実世界の関係情報の収集 −マルチメディア,分散,協調とモバイル(DICOMO2005)シンポジウム論文集,pp.169-172, 2005.Satoshi Hiramatsu, Masami Hattori, Atsumi Yamada, Tsuyoshi Okadome: Pervasive Association: Semantic Integration in Ubiquitous Environment (2) -Collecting Real World Relation Information Using Sensor Networks -Multimedia, Distributed, Collaboration and Mobile (DICOMO2005) Symposium Paper Pp.169-172, 2005. 古井貞熙, ディジタル音声処理, 8.5.1 DPマッチング, pp.162-164, 東海大学出版会, 1985.Furui Sadaaki, Digital Speech Processing, 8.5.1 DP Matching, pp. 162-164, Tokai University Press, 1985.

従来手法のうち、自動ドアやHVACシステムに類するような、センサからのデータに閾値を直接指定して動作を決定するようなシステムでは、システムを設置した環境が変化すると、センサが出力するデータの意味する内容が変化し、「ドアを開けるべき状況」などを正しく認識できなくなる可能性がある。この課題は、「Smart Dust 」や「Smart-ITS」においても解決されておらず、システムを設置した環境における動きを適切に認識できるシステムの実現が望まれている。   Among conventional methods, such as automatic doors and HVAC systems, in which the operation is determined by directly specifying the threshold value for the data from the sensor, the data output by the sensor changes when the environment in which the system is installed changes. There is a possibility that the meaning changes and it may become impossible to correctly recognize the “situation where the door should be opened”. This problem has not been solved by “Smart Dust” and “Smart-ITS”, and it is desired to realize a system that can appropriately recognize the movement in the environment where the system is installed.

本発明は、このような課題を解決するためになされたもので、その目的とするところは、複数のセンサからの情報に基づいて、環境における動きを適切に認識することが可能な動き認識システムおよび動き認識方法を提供することにある。   The present invention has been made to solve such a problem, and the object of the present invention is to provide a motion recognition system capable of appropriately recognizing a motion in the environment based on information from a plurality of sensors. And providing a motion recognition method.

このような目的を達成するために本発明は、環境に設置された複数の加速度センサと、これら加速度センサからの情報に基づいて環境における動きを認識する動き認識装置とを備えた動き認識システムとし、動き認識装置に、環境において認識する動きの候補としてサンプル動作を発生させた際に観測される加速度センサからの情報より所定の時間幅毎にデータを切り出し、予め用意されている複数の標準変化パターンとの間でマッチングを行って各標準変化パターンとの類似度を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルをサンプル観測の特徴データとし、このサンプル観測の特徴データの列からサンプル動作に含まれる部分動作を抽出する部分動作抽出手段と、サンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ、およびサンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を書き込んだ動作辞書を作成する動作辞書作成手段と、環境において実際に観測される加速度センサからの情報よりサンプル観測と同じ所定の時間幅毎にデータを切り出し、予め用意されている複数の標準変化パターンとの間でマッチングを行って各標準変化パターンとの類似度を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルを実観測の特徴データとし、その実観測の特徴データと動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータとの類似度を求め、類似度の高い代表データに付与されているラベルをその実観測の特徴データに付与するラベル付与手段と、実観測の特徴データにラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と動作辞書中の部分動作のラベル列との間でマッチングを行って、動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識する動き認識手段とを設けたものである。なお、本発明は、動き認識システムとしてではなく、動き認識方法としても実現することが可能である。   In order to achieve such an object, the present invention provides a motion recognition system including a plurality of acceleration sensors installed in an environment and a motion recognition device that recognizes movement in the environment based on information from the acceleration sensors. A plurality of standard changes prepared in advance by cutting out data at predetermined time intervals from information from the acceleration sensor observed when the motion recognition device generates a sample motion as a motion candidate to be recognized in the environment. A feature vector whose elements are the similarity to each standard change pattern is obtained by matching with the pattern, and a vector obtained by synthesizing the feature vector at the same time of each acceleration sensor is used as the feature data of sample observation. Partial motion extraction means for extracting partial motions included in the sample motion from the sample observation feature data string, and from the sample motion A label corresponding to the partial motion is attached to the feature data of the sample observation belonging to the issued partial motion, and the label string given to the feature data of the sample observation belonging to the partial motion, the feature of the sample observation belonging to the partial motion Data representing data, motion dictionary creating means for creating a motion dictionary in which partial motions included in the sample motion and the order relation between the partial motions are written for each sample motion, and an acceleration sensor actually observed in the environment The data is extracted from the information from each of the same time intervals as the sample observation, and is matched with a plurality of standard change patterns prepared in advance, and the feature quantity is based on the similarity to each standard change pattern Find the vector and combine the feature vectors at the same time of each acceleration sensor into the actual observation feature data Then, the similarity between the feature data of the actual observation and the data representing the feature data of the sample observation belonging to the partial motion in the motion dictionary is obtained, and the label attached to the representative data having a high similarity is used as the feature data of the actual observation. Each time a label is assigned to the actual observation feature data, and between the label sequence assigned to the actual observation feature data and the partial motion label sequence in the motion dictionary Motion recognition means is provided for performing matching and recognizing a sample operation with a high likelihood in the motion dictionary as a motion in the environment at that time. Note that the present invention can be realized not as a motion recognition system but also as a motion recognition method.

この発明によれば、環境において認識する動きの候補としてサンプル動作を発生させると、環境に設置されている加速度センサからの情報より所定の時間幅毎にデータが切り出され、予め用意されている複数の標準変化パターンとの間でマッチングを行って各標準変化パターンとの類似度を要素とする特徴量ベクトルが求められ、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルがサンプル観測の特徴データとされる。例えば、1秒毎に、加速度センサのセンサデータから特徴量ベクトルが求められ、各加速度センサの特徴量ベクトルを合成したベクトルがその時のサンプル観測の特徴データとされる。なお、X,Y,Zの3軸の加速度データを出力する加速度センサなどについては、その3軸の加速度データから1秒の幅のデータを0.5秒ずつ重複するように切り出すなどして、センサデータとする。   According to the present invention, when a sample motion is generated as a motion candidate to be recognized in the environment, data is cut out for each predetermined time width from information from an acceleration sensor installed in the environment, and a plurality of pre-prepared A feature vector whose elements are the degree of similarity with each standard change pattern is obtained by matching with the standard change pattern, and the vector obtained by combining the feature vectors at the same time of each acceleration sensor is the feature of the sample observation Data. For example, a feature vector is obtained from the sensor data of the acceleration sensor every second, and a vector obtained by synthesizing the feature vector of each acceleration sensor is used as the feature data of the sample observation at that time. For an acceleration sensor that outputs triaxial acceleration data of X, Y, Z, etc., by cutting out the data of 1 second from the triaxial acceleration data so as to overlap each other by 0.5 seconds, Let it be sensor data.

そして、この各サンプル観測の特徴データからサンプル動作に含まれる部分動作が抽出され、このサンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルが付与され、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ(標準動作特徴ベクトル)、およびサンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係が動作辞書に記述される。   Then, the partial motion included in the sample motion is extracted from the feature data of each sample observation, and the label corresponding to the partial motion is assigned to the feature data of the sample observation belonging to the partial motion extracted from the sample motion, Label sequence attached to feature data of sample observation belonging to partial motion, data representative of feature data of sample observation belonging to that partial motion (standard motion feature vector), and partial motion included in the sample motion for each sample motion The order relation between the partial actions is described in the action dictionary.

例えば、サンプル動作を「椅子への着席」とした場合、部分動作として「移動」と「着席」が抽出され、「移動」に属するサンプル観測の特徴データに「移動1」という自然言語のラベルが付与され、「着席」に属するサンプル観測の特徴データに「着席1」という自然言語のラベルが付与され、このサンプル観測の特徴データに付与されたラベル列(「移動1」のラベル列、「着席1」のラベル列)が動作辞書に記述される。
サンプル動作を「椅子からの離席」とした場合、部分動作として「離席」と「移動」が抽出され、「離席」に属するサンプル観測の特徴データに「離席1」という自然言語のラベルが付与され、「移動」に属するサンプル観測の特徴データに「移動2」という自然言語のラベルが付与され、このサンプル観測の特徴データに付与されたラベル列(「離席1」のラベル列、「移動2」のラベル列)が動作辞書に記述される。
そして、「椅子への着席」に対応するサンプル動作に含まれる部分動作として「移動1」と「着席1」が「移動1」,「着席1」の順で動作辞書に記述される。また、「椅子からの離席」に対応するサンプル動作に含まれる部分動作として「離席1」と「移動2」が「離席1」,「移動2」の順で動作辞書に記述される。
For example, if the sample action is “sitting in a chair”, “moving” and “sitting” are extracted as partial actions, and the natural language label “moving 1” is added to the feature data of the sample observation belonging to “moving”. The natural language label “seat 1” is assigned to the feature data of the sample observation belonging to “sitting”, and the label column (“moving 1” label row, “sitting” is assigned to the feature data of this sample observation. 1 ”) is described in the action dictionary.
When the sample action is “seating from the chair”, “seating” and “moving” are extracted as partial actions, and the characteristic data of the sample observation belonging to “seating” is the natural language “seating 1”. A label is assigned, and a natural language label “Move 2” is assigned to the feature data of the sample observation belonging to “Move”, and a label row (label row “Seating 1” is assigned to the feature data of this sample observation. , “Movement 2” label sequence) is described in the action dictionary.
Then, “moving 1” and “sitting 1” are described in the motion dictionary in the order of “moving 1” and “sitting 1” as partial motions included in the sample motion corresponding to “sitting in a chair”. In addition, as the partial motions included in the sample motion corresponding to “seating from the chair”, “seating 1” and “moving 2” are described in the motion dictionary in the order of “seating 1” and “moving 2”. .

なお、本発明では、環境においてサンプル動作を実際に発生させなくても、動作辞書中の部分動作を組み合わせることによって、新たなサンプル動作を定義することが可能である。例えば、「移動1」、「着席1」、「離席1」、「移動2」を部分動作とし、「移動1」、「着席1」、「離席1」、「移動2」の順で動作辞書に記述することにより、実際には環境において発生させていない、「椅子への着席」と「椅子からの離席」とを組み合わせた「椅子の利用」をサンプル動作として定義することができる。   In the present invention, a new sample operation can be defined by combining partial operations in the operation dictionary without actually generating a sample operation in the environment. For example, “movement 1”, “seating 1”, “seating 1”, and “movement 2” are partial movements, and “movement 1”, “seating 1”, “seating 1”, and “movement 2” are performed in this order. By describing it in the action dictionary, it is possible to define “use of a chair” as a sample action that combines “sitting in a chair” and “seating from a chair” that is not actually generated in the environment. .

この発明において、実際の観測時には、環境に設置されている加速度センサからの情報よりサンプル動作の観測時と同じ所定の時間幅毎にデータが切り出され、予め用意されている複数の標準変化パターンとの間でマッチングを行って各標準変化パターンとの類似度を要素とする特徴量ベクトルが求められ、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルが実観測の特徴データとされる。実観測の特徴データが求められると、この実観測の特徴データと動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータ(標準動作特徴ベクトル)との類似度が求められ、類似度の高い代表データに付与されているラベルがその実観測の特徴データに付与される。例えば、部分動作として「移動1」のラベルが付与されているデータと実観測の特徴データが類似していれば、その実観測の特徴データに「移動1」のラベルが付与される。   In this invention, at the time of actual observation, data is cut out from the information from the acceleration sensor installed in the environment at the same predetermined time width as at the time of observation of the sample operation, and a plurality of standard change patterns prepared in advance are used. The feature amount vector having the similarity with each standard change pattern as an element is obtained by performing matching between the two, and a vector obtained by synthesizing the feature amount vectors at the same time of each acceleration sensor is used as feature data of actual observation. When the actual observation feature data is obtained, the similarity between the actual observation feature data and the data representative of the sample observation feature data belonging to the partial motion in the motion dictionary (standard motion feature vector) is obtained. The label attached to the representative data having a high value is attached to the feature data of the actual observation. For example, if the data assigned with the label “Move 1” as a partial operation is similar to the actual observation feature data, the “Move 1” label is assigned to the actual observation feature data.

実観測の特徴データにラベルが付与されると、それまでの実観測の特徴データに付与されたラベル列と動作辞書中の部分動作のラベル列との間でマッチングが行われ、動作辞書中の尤度の高いサンプル動作がその時の環境における動きとして認識される。例えば、実観測の特徴データに「移動1」のラベル列と「着席1」のラベル列があり、この「移動1」のラベル列と「着席1」のラベル列が動作辞書中の「移動1」のラベル列と「着席1」のラベル列と一致し、その順序が「移動1」,「着席1」の順であれば、尤度の高いサンプル動作として「椅子への着席」が抽出され、その時の環境における動きとして認識される。これにより、所定の時間幅毎に、より抽象度の高い動き認識が可能となる。この際、あらかじめ十分なサンプル動作を記録し、その部分動作を十分に吟味した動作辞書を準備しておけば、より精度の高い動き認識が可能となる。   When a label is assigned to the actual observation feature data, matching is performed between the label sequence assigned to the actual observation feature data and the partial motion label sequence in the motion dictionary. A sample operation with a high likelihood is recognized as a movement in the current environment. For example, the feature data of actual observation includes a label column of “Move 1” and a label column of “Seat 1”, and the label column of “Move 1” and the label column of “Seat 1” are “Move 1” in the motion dictionary. ”And the“ Seating 1 ”label sequence, and the order is“ Move 1 ”,“ Sitting 1 ”, then“ Sitting on a chair ”is extracted as a sample operation with high likelihood. , Recognized as movement in the environment at that time. Accordingly, motion recognition with a higher abstraction level can be performed for each predetermined time width. At this time, if sufficient sample motions are recorded in advance and a motion dictionary in which the partial motions are thoroughly examined is prepared, motion recognition with higher accuracy becomes possible.

なお、本発明では、実観測の特徴データに付与されたラベル列と動作辞書中の部分動作のラベル列との間でマッチングを行って、動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識するが、最も尤度が高いサンプル動作をその時の環境における動きとして認識するようにしてもよいし、上位N個のサンプル動作をその時の環境における動きとして認識するようにしてもよい。
例えば、実観測の特徴データに「移動1」、「着席1」、「離席1」、「移動2」のラベル列があり、この「移動1」、「着席1」、「離席1」、「移動2」のラベル列が動作辞書中の「移動1」、「着席1」、「離席1」、「移動2」のラベル列と一致し、その順序が「移動1」、「着席1」、「離席1」、「移動2」の順であれば、尤度の高い順として、「椅子の利用」、「椅子への着席」、「椅子からの離席」をその時の環境における動きとして認識する。
In the present invention, matching is performed between the label sequence given to the actual observation feature data and the label sequence of the partial motion in the motion dictionary, and the sample operation with a high likelihood in the motion dictionary is changed to the environment at that time. However, the sample operation with the highest likelihood may be recognized as the motion in the environment at that time, or the top N sample operations may be recognized as the motion in the environment at that time. .
For example, there is a label column of “movement 1”, “seating 1”, “seating 1”, “movement 2” in the feature data of actual observation, and this “movement 1”, “seating 1”, “seating 1”. , “Move 2” label sequence matches “Move 1”, “Seat 1”, “Leave 1”, “Move 2” in the motion dictionary, and the order is “Move 1”, “Seat If “1”, “seating 1”, and “moving 2” are in order, “usage of chair”, “sitting in chair”, “seating from chair” are given as the descending order of likelihood. Recognize as movement.

また、本発明において、切り出したデータと予め用意されている複数の標準変化パターンとの間のマッチングは、非特許文献6に示されるようなDPマッチングにより行うとよい。また、実観測の特徴データに付与されたラベル列と動作辞書中の部分動作のラベル列との間のマッチングは、非特許文献3に示されるような記号的なDPマッチング(動的計画法による文字列類似度計算)により行うとよい。また、本発明において、サンプル動作に含まれる部分動作の抽出は、非特許文献4に示されるようなクラスタリングによって行うとよい。   In the present invention, matching between the cut-out data and a plurality of standard change patterns prepared in advance may be performed by DP matching as shown in Non-Patent Document 6. Also, the matching between the label sequence assigned to the actual observation feature data and the partial motion label sequence in the motion dictionary is symbolic DP matching (by dynamic programming) as shown in Non-Patent Document 3. (Character string similarity calculation). In the present invention, the extraction of the partial motion included in the sample motion may be performed by clustering as shown in Non-Patent Document 4.

また、環境において認識する動きの候補としてサンプル動作を発生させた際に観測される加速度センサからの情報より所定の時間幅毎にデータを切り出し、この切り出したデータの高速フーリエ変換を行って得られる周波数成分を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルをサンプル観測の特徴データとし、このサンプル観測の特徴データの列からサンプル動作に含まれる部分動作を抽出する部分動作抽出手段と、サンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ、およびサンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を書き込んだ動作辞書を作成する動作辞書作成手段と、環境において実際に観測される加速度センサからの情報よりサンプル観測と同じ所定の時間幅毎にデータを切り出し、この切り出したデータの高速フーリエ変換を行って得られる周波数成分を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルを実観測の特徴データとし、その実観測の特徴データと動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータとの類似度を求め、類似度の高い代表データに付与されているラベルをその実観測の特徴データに付与するラベル付与手段と、実観測の特徴データにラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と動作辞書中の部分動作のラベル列との間でマッチングを行って、動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識する動き認識手段とを設けるようにしてもよい。   Also, it is obtained by extracting data at predetermined time intervals from information from an acceleration sensor observed when a sample motion is generated as a motion candidate to be recognized in the environment, and performing fast Fourier transform on the extracted data A feature vector whose elements are frequency components is obtained, and a vector obtained by synthesizing the feature vector at the same time of each acceleration sensor is used as sample observation feature data, and the partial operation included in the sample operation from this sample observation feature data column A partial motion extracting means for extracting the sample motion, and a label corresponding to the partial motion is attached to the feature data of the sample observation belonging to the partial motion extracted from the sample motion, and the feature data of the sample observation belonging to the partial motion is attached. Label string, data representative of sample observation feature data belonging to the partial motion, and support A motion dictionary creating means for creating a motion dictionary in which partial motions included in the sample motion and an order relation between the partial motions are written for each pull motion, and sample observation from information from an acceleration sensor actually observed in the environment A vector obtained by cutting out data at the same predetermined time width, obtaining a feature vector whose elements are frequency components obtained by performing fast Fourier transform of the cut-out data, and synthesizing feature vectors at the same time of each acceleration sensor Is the actual observation feature data, and the similarity between the actual observation feature data and the data representative of the sample observation feature data belonging to the partial motion in the motion dictionary is obtained, and the label is given to the representative data with high similarity Each time a label is attached to the actual observation feature data, Matching is performed between the label sequence given to the actual observation feature data and the partial sequence label in the motion dictionary, and the sample motion with high likelihood in the motion dictionary is used as the motion in the environment at that time. You may make it provide the motion recognition means to recognize.

また、環境において認識する動きの候補としてサンプル動作を発生させた際に観測される加速度センサからの情報より所定の時間幅毎にデータを切り出し、この切り出したデータのウェブレット変換を行って得られるウェブレット係数を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルをサンプル観測の特徴データとし、このサンプル観測の特徴データの列からサンプル動作に含まれる部分動作を抽出する部分動作抽出手段と、サンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ、およびサンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を書き込んだ動作辞書を作成する動作辞書作成手段と、環境において実際に観測される加速度センサからの情報よりサンプル観測と同じ所定の時間幅毎にデータを切り出し、この切り出したデータのウェブレット変換を行って得られるウェブレット係数を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルを実観測の特徴データとし、その実観測の特徴データと動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータとの類似度を求め、類似度の高い代表データに付与されているラベルをその実観測の特徴データに付与するラベル付与手段と、実観測の特徴データにラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と動作辞書中の部分動作のラベル列との間でマッチングを行って、動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識する動き認識手段とを設けるようにしてもよい。   Also, it is obtained by extracting data every predetermined time width from information from an acceleration sensor observed when a sample motion is generated as a motion candidate to be recognized in the environment, and performing weblet conversion of the extracted data A feature vector whose elements are weblet coefficients is obtained, and a vector obtained by combining feature vectors at the same time of each acceleration sensor is used as feature data for sample observation. A partial motion extraction means for extracting a motion, and a label corresponding to the partial motion is attached to the feature data of the sample observation belonging to the partial motion extracted from the sample motion, and is attached to the feature data of the sample observation belonging to the partial motion. Data representing the characteristic data of sample observations belonging to the And a motion dictionary creation means for creating a motion dictionary in which the partial motions included in the sample motion and the order relation between the partial motions are written for each sample motion, and sample observation from information from an acceleration sensor actually observed in the environment Cut out the data at the same predetermined time width as, and obtain a feature vector whose elements are weblet coefficients obtained by performing weblet conversion of the cut out data, and synthesize the feature vector at the same time of each acceleration sensor The obtained vector is used as the actual observation feature data, and the similarity between the actual observation feature data and the data representative of the sample observation feature data belonging to the partial motion in the motion dictionary is obtained. Labeling means for assigning existing labels to actual observation feature data, and labels to actual observation feature data Each time, a matching is performed between the label sequence given to the actual observation feature data and the label sequence of the partial motion in the motion dictionary, and the sample operation with high likelihood in the motion dictionary is You may make it provide the movement recognition means recognized as a movement in an environment.

また、環境において認識する動きの候補としてサンプル動作を発生させた際に観測される加速度センサからの情報より所定の時間幅毎にデータを切り出し、この切り出したデータの自己回帰モデルを推定して得られる自己回帰係数を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルをサンプル観測の特徴データとし、このサンプル観測の特徴データの列からサンプル動作に含まれる部分動作を抽出する部分動作抽出手段と、サンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ、およびサンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を書き込んだ動作辞書を作成する動作辞書作成手段と、環境において実際に観測される加速度センサからの情報よりサンプル観測と同じ所定の時間幅毎にデータを切り出し、この切り出したデータの自己回帰モデルを推定して得られる自己回帰係数を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルを実観測の特徴データとし、その実観測の特徴データと動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータとの類似度を求め、類似度の高い代表データに付与されているラベルをその実観測の特徴データに付与するラベル付与手段と、実観測の特徴データにラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と動作辞書中の部分動作のラベル列との間でマッチングを行って、動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識する動き認識手段とを設けるようにしてもよい。   In addition, data is extracted every predetermined time width from information from the acceleration sensor observed when a sample motion is generated as a motion candidate to be recognized in the environment, and an autoregressive model of the extracted data is estimated. A feature vector that has an autoregressive coefficient as an element is obtained, and a vector obtained by synthesizing feature vectors at the same time of each acceleration sensor is used as sample observation feature data, and is included in the sample operation from this sample observation feature data column A partial motion extracting means for extracting a partial motion, and a label corresponding to the partial motion is attached to the feature data of the sample observation belonging to the partial motion extracted from the sample motion, and is attached to the feature data of the sample observation belonging to the partial motion. Labeled data, data representative of sample observation feature data belonging to the partial motion, and For each sample motion, a motion dictionary creating means for creating a motion dictionary in which partial motions included in the sample motion and the order relation between the partial motions are written, and sample observation from information from an acceleration sensor actually observed in the environment Data is cut out at the same predetermined time width, and a feature vector whose elements are autoregressive coefficients obtained by estimating the autoregressive model of the cut out data is obtained, and the feature vector at the same time of each acceleration sensor is synthesized. The obtained vector is used as the actual observation feature data, and the similarity between the actual observation feature data and the data representative of the sample observation feature data belonging to the partial motion in the motion dictionary is obtained. Labeling means for assigning a label to the actual observation feature data, and each time a label is attached to the actual observation feature data , Matching is performed between the label sequence given to the actual observation feature data and the partial sequence label sequence in the motion dictionary, and the sample motion with high likelihood in the motion dictionary is moved in the environment at that time. Motion recognition means for recognizing as follows may be provided.

本発明によれば、環境に設置された複数の加速度センサからの情報より所定の時間幅毎に実観測の特徴データが求められ、この実観測の特徴データに類似度の高いサンプル観測の部分動作のラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と動作辞書中の部分動作のラベル列との間でマッチングを行って、動作辞書中の尤度の高いサンプル動作がその時の環境における動きとして認識されるものとなり、複数の加速度センサからの情報に基づいて、環境における動きを適切に認識することが可能となる。   According to the present invention, actual observation feature data is obtained for each predetermined time width from information from a plurality of acceleration sensors installed in the environment, and sample observation partial operations having high similarity to the actual observation feature data Each time a label is assigned, matching is performed between the label sequence assigned to the actual observation feature data and the partial motion label sequence in the motion dictionary, and the likelihood in the motion dictionary is high. The sample operation is recognized as the movement in the environment at that time, and the movement in the environment can be appropriately recognized based on information from the plurality of acceleration sensors.

以下、本発明を図面に基づいて詳細に説明する。
図1はこの発明に係る動き認識システムの一実施の形態の概略を示す図である。同図において、1(1−1〜1−4)は室内に設置されたセンサノードであり、センサノード1−1はドアDに、センサノード1−2は椅子Aに、センサノード1−3は机Bに、センサノード1−4は椅子Cに取り付けられている。
Hereinafter, the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing an outline of an embodiment of a motion recognition system according to the present invention. In the figure, reference numerals 1 (1-1 to 1-4) denote sensor nodes installed indoors. The sensor node 1-1 is on the door D, the sensor node 1-2 is on the chair A, and the sensor node 1-3. Is attached to the desk B, and the sensor node 1-4 is attached to the chair C.

なお、この例では、センサノード1として、非特許文献5にあるセンサノードを利用する。ここで扱うセンサノード1は、3軸(XYZ方向)の加速度データ、温度、湿度、照度、人間の近接の有無などを出力する。   In this example, the sensor node in Non-Patent Document 5 is used as the sensor node 1. The sensor node 1 handled here outputs three-axis (XYZ direction) acceleration data, temperature, humidity, illuminance, presence / absence of human proximity, and the like.

図2(a),(b),(c),(d)にセンサノード1−1,1−2,1−3,1−4から出力される3軸の加速度データS1,S2,S3,S4を示す。本実施の形態では、このセンサノード1−1,1−2,1−3,1−4から出力される3軸の加速度データS1,S2,S3,S4をネットワーク3を介して動き認識装置2へ与え、センサノード1−1,1−2,1−3,1−4からの加速度データS1,S2,S3,S4に基づいて室内における物体の動きを認識する。この場合、センサノード1−1,1−2,1−3,1−4が、本発明で言う加速度センサに対応する。   2A, 2B, 2C, and 3D, triaxial acceleration data S1, S2, S3 output from the sensor nodes 1-1, 1-2, 1-3, and 1-4. S4 is shown. In the present embodiment, the 3-axis acceleration data S1, S2, S3, and S4 output from the sensor nodes 1-1, 1-2, 1-3, and 1-4 are transferred to the motion recognition device 2 via the network 3. Based on the acceleration data S1, S2, S3, S4 from the sensor nodes 1-1, 1-2, 1-3, 1-4. In this case, the sensor nodes 1-1, 1-2, 1-3, and 1-4 correspond to the acceleration sensor referred to in the present invention.

動き認識装置2は、プロセッサや記憶装置からなるハードウェアと、これらのハードウェアと協働して各種機能を実現させるプログラムとによって実現され、本実施の形態特有の機能として動き認識機能を有している。以下、図3に示す機能ブロック図を参照して、動き認識装置2が有する動き認識機能について説明する。   The motion recognition device 2 is realized by hardware including a processor and a storage device, and a program that realizes various functions in cooperation with these hardware, and has a motion recognition function as a function unique to the present embodiment. ing. Hereinafter, the motion recognition function of the motion recognition apparatus 2 will be described with reference to the functional block diagram shown in FIG.

〔動作辞書の作成〕
先ず、室内において、認識する動きの候補としてサンプル動作を発生させる。例えば、サンプル動作として、「椅子への着席」、「椅子からの離席」を発生させる。なお、ここでは、単純な例として、「椅子Aへの着席」、「椅子Aからの離席」を個々に発生させた場合を例にとって説明する。
[Create a motion dictionary]
First, a sample operation is generated in the room as a motion candidate to be recognized. For example, as a sample operation, “sitting in a chair” and “seating from a chair” are generated. Here, as a simple example, a case where “seating on chair A” and “seating from chair A” are individually generated will be described as an example.

室内において、「椅子Aへの着席」、「椅子Aからの離席」を発生させると、センサノード1−2からの加速度データS2が変化する。図4(a)に「椅子Aへの着席」を発生させた場合のセンサノード1−2からの加速度データS2の変化を示す。図4(b)に「椅子Aからの離席」を発生させた場合のセンサノード1−2からの加速度データS2の変化を示す。   When “sitting in chair A” and “seating from chair A” are generated in the room, acceleration data S2 from sensor node 1-2 changes. FIG. 4A shows a change in the acceleration data S2 from the sensor node 1-2 when “sitting in the chair A” is generated. FIG. 4B shows a change in the acceleration data S2 from the sensor node 1-2 when “seating from the chair A” is generated.

椅子Aへ着席した場合の加速度データS2の変化αは、その人が座るためのスペースを確保するために椅子Aを移動させたときの変化α1と、その人が座面に腰を降ろしたときの変化α2とから構成される。椅子Aから離席した場合の加速度データS2の変化βは、その人が座面から立ち上がったときの変化β1と、その人が元の位置に戻すために椅子Aを移動させたときの変化β2とから構成される。   The change α of the acceleration data S2 when seated on the chair A is the change α1 when the chair A is moved to secure a space for the person to sit, and when the person sits down on the seat Change α2. The change β of the acceleration data S2 when the person leaves the chair A includes a change β1 when the person stands up from the seat and a change β2 when the person moves the chair A to return to the original position. It consists of.

サンプル動作を発生させたときのセンサノード1−1〜1−4からの加速度データS1〜S4(複数の加速度センサからの情報)は動き認識装置2の情報入力部2Aに与えられる。情報入力部2Aは、加速度特徴量検出モジュール21−1〜21−4を備えており、加速度特徴量検出モジュール21−1〜21−4にセンサノード1−1〜1−4からの加速度データ(3軸の加速度データ)S1〜S4が与えられる。   The acceleration data S1 to S4 (information from a plurality of acceleration sensors) from the sensor nodes 1-1 to 1-4 when the sample operation is generated are given to the information input unit 2A of the motion recognition device 2. The information input unit 2A includes acceleration feature quantity detection modules 21-1 to 21-4. The acceleration feature quantity detection modules 21-1 to 21-4 receive acceleration data (from sensor nodes 1-1 to 1-4). Triaxial acceleration data) S1 to S4 are given.

加速度特徴量検出モジュール21(21−1〜21−4)は、センサノード1(1−1〜1−4)から送られてくる3軸の加速度データS(S1〜S4)から1秒の幅のデータを0.5秒ずつ重複するように切り出して(図5参照)、センサノード1(1−1〜1−4)からのセンサデータとする。そして、このセンサデータから1秒毎にデータを切り出し、予め用意されている11個の標準変化パターン(図6に示すパターンP1〜P11)との間でマッチングを行って各標準変化パターンとの類似度を計算し、この各標準変化パターンとの類似度を要素とする特徴量ベクトルを求め、動き認識部2Bへ送る。   The acceleration feature quantity detection module 21 (21-1 to 21-4) has a width of 1 second from the triaxial acceleration data S (S1 to S4) sent from the sensor node 1 (1-1 to 1-4). Is cut out so as to overlap each other by 0.5 seconds (see FIG. 5), and used as sensor data from the sensor node 1 (1-1 to 1-4). Then, data is cut out from the sensor data every second, and matching is performed with 11 standard change patterns (patterns P1 to P11 shown in FIG. 6) prepared in advance, and similar to each standard change pattern. The degree is calculated, a feature quantity vector having the similarity to each standard change pattern as an element is obtained and sent to the motion recognition unit 2B.

なお、この例では、3軸の加速度データから切り出すデータの時間幅を1秒、重複幅を0.5秒としているが、この時間幅と重複幅はセンサノード(加速度センサ)の性能、センサノードを取り付ける物体の特性、センサネットワークを設置した環境の特徴に応じて調整するものとする。また、本実施の形態において、標準変化パターンとの間のマッチングは、非特許文献6に示されているようなDPマッチングによって行う。   In this example, the time width of the data extracted from the triaxial acceleration data is 1 second, and the overlap width is 0.5 seconds. This time width and overlap width are the sensor node (acceleration sensor) performance, sensor node It shall be adjusted according to the characteristics of the object to be mounted and the characteristics of the environment where the sensor network is installed. In this embodiment, matching with the standard change pattern is performed by DP matching as shown in Non-Patent Document 6.

動き認識部2Bは、特徴量ベクトル収集モジュール22と、サンプル動作データベース(サンプル動作DB)23と、動作辞書作成部24と、最尤部分動作決定モジュール25と、記号的DPマッチング処理モジュール26とを備えており、加速度特徴量検出モジュール21−1〜21−4からの特徴量ベクトルは特徴量ベクトル収集モジュール22へ与えられる。   The motion recognition unit 2B includes a feature vector collection module 22, a sample motion database (sample motion DB) 23, a motion dictionary creation unit 24, a maximum likelihood partial motion determination module 25, and a symbolic DP matching processing module 26. The feature quantity vectors from the acceleration feature quantity detection modules 21-1 to 21-4 are given to the feature quantity vector collection module 22.

特徴量ベクトル収集モジュール22は、加速度特徴量検出モジュール21−1〜21−4からの特徴量ベクトルを1秒毎に合成し、その合成したベクトルを各時刻のサンプル観測の特徴データとしてサンプル動作DB23に格納する。   The feature quantity vector collection module 22 synthesizes the feature quantity vectors from the acceleration feature quantity detection modules 21-1 to 21-4 every second, and uses the synthesized vector as sample feature data at each time sample operation DB 23. To store.

動作辞書作成部24は、サンプル動作DB23に格納されたサンプル観測の特徴データの列からサンプル動作に含まれる部分動作を抽出し、このサンプル動作から抽出した部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、この部分動作に属するサンプル観測の特徴データに付与したラベル列を動作辞書24Aに記述する。また、その部分動作に属するサンプル観測の特徴データを代表するデータ(標準動作特徴ベクトル)を抽出し、動作辞書24Aに記述する。また、サンプル動作毎に対応するラベルを付与するとともに、そのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を動作辞書24Aに記述する。   The motion dictionary creation unit 24 extracts partial motions included in the sample motion from the sample observation feature data sequence stored in the sample motion DB 23, and extracts the partial motion included in the sample motion from the sample motion. A label corresponding to the partial motion is given, and a label string given to the sample observation feature data belonging to the partial motion is described in the motion dictionary 24A. Further, data representative of sample observation feature data (standard motion feature vector) belonging to the partial motion is extracted and described in the motion dictionary 24A. In addition, a label corresponding to each sample operation is given, and the partial operations included in the sample operation and the order relationship between the partial operations are described in the operation dictionary 24A.

本実施の形態において、サンプル動作に含まれる部分動作の抽出は、非特許文献4に示されているようなクラスタリングによって行う。この場合、サンプル動作DB23に格納されたサンプル観測の特徴データの列に対して、「xmeans」アルゴリズムを適用し、特徴データ間のベクトル距離に従ってクラスタリングを行い、これによって分類された部分動作に対応するクラスタにラベルを付与するとともに、そのクラスタの代表ベクトルをその部分動作に対応する標準動作特徴ベクトルとする。   In the present embodiment, the extraction of the partial motion included in the sample motion is performed by clustering as shown in Non-Patent Document 4. In this case, the “xmeans” algorithm is applied to the sample observation feature data sequence stored in the sample operation DB 23, clustering is performed according to the vector distance between the feature data, and this corresponds to the classified partial operations. A label is assigned to the cluster, and the representative vector of the cluster is set as a standard motion feature vector corresponding to the partial motion.

なお、「xmeans」アルゴリズムは非階層的クラスタリングによって分類されるアルゴリズムであり、「k-means 」アルゴリズムの逐次繰り返しとBICによる分割停止基準を用いることで、情報理論的に最適と考えられるクラスタ数を自動的に決定することができる。   Note that the “xmeans” algorithm is an algorithm classified by non-hierarchical clustering. By using the sequential repetition of the “k-means” algorithm and the division stop criterion by BIC, the number of clusters considered to be optimal in terms of information theory can be obtained. Can be determined automatically.

例えば、サンプル動作を「椅子Aへの着席」とした場合、そのサンプル動作に含まれる部分動作として、加速度データS2の変化α1に対応する「移動」とα2に対応する「着席」とが抽出される。この場合、動作辞書作成部24は、「椅子Aへの着席」から抽出した「移動」に属するサンプル観測のデータに「移動1」という自然言語のラベルを付与し、そのラベル列を動作辞書24Aに記述する。また、「椅子Aへの着席」から抽出した「着席」に属するサンプル観測のデータに「着席1」という自然言語のラベルを付与し、そのラベル列を動作辞書24Aに記述する。また、「椅子Aへの着席」に対応するサンプル動作に「椅子Aへの着席」という自然言語のラベルを付与し、「移動1」と「着席1」を「椅子Aへの着席」に含まれる部分動作として、「移動1」,「着席1」の順で動作辞書24Aに記述する。   For example, if the sample motion is “sitting in chair A”, “movement” corresponding to the change α1 of acceleration data S2 and “seat” corresponding to α2 are extracted as partial motions included in the sample motion. The In this case, the motion dictionary creation unit 24 assigns a natural language label of “movement 1” to the sample observation data belonging to “movement” extracted from “sitting in chair A”, and the label string is assigned to the action dictionary 24A. Describe in. Further, a natural language label of “seat 1” is assigned to the sample observation data belonging to “seat” extracted from “seat on chair A”, and the label string is described in the motion dictionary 24A. In addition, a natural language label of “sitting in chair A” is assigned to the sample action corresponding to “sitting in chair A”, and “moving 1” and “sitting 1” are included in “sitting in chair A”. As the partial actions to be performed, “movement 1” and “sitting 1” are described in the action dictionary 24A in this order.

例えば、サンプル動作を「椅子Aからの離席」とした場合、そのサンプル動作に含まれる部分動作として、加速度データS2の変化β1に対応する「離席」とβ2に対応する「移動」とが抽出される。この場合、動作辞書作成部24は、「椅子Aからの離席」から抽出した「離席」に属するサンプル観測のデータに「離席1」という自然言語のラベルを付与し、そのラベル列を動作辞書24Aに記述する。また、「椅子Aからの離席」から抽出した「移動」に属するサンプル観測のデータに「移動2」という自然言語のラベルを付与し、そのラベル列を動作辞書24Aに記述する。また、「椅子Aからの離席」に対応するサンプル動作に「椅子Aからの離席」という自然言語のラベルを付与し、「離席1」と「移動2」を「椅子Aからの離席」に含まれる部分動作として、「離席1」,「移動2」の順で動作辞書24Aに記述する。   For example, when the sample operation is “seating from chair A”, “partition” corresponding to change β1 of acceleration data S2 and “movement” corresponding to β2 are included as partial operations included in the sample operation. Extracted. In this case, the motion dictionary creation unit 24 assigns a natural language label “seating 1” to the sample observation data belonging to “seating” extracted from “seating from chair A”, and the label string is given. Described in the action dictionary 24A. Further, a natural language label of “move 2” is assigned to the sample observation data belonging to “move” extracted from “seating from chair A”, and the label string is described in the action dictionary 24A. In addition, a natural language label “seating from chair A” is assigned to the sample action corresponding to “seating from chair A”, and “seating 1” and “movement 2” are separated from “chair A”. The partial motions included in the “seat” are described in the motion dictionary 24A in the order of “seating 1” and “moving 2”.

また、本実施の形態では、必要に応じて、実際には環境において発生させていない、「椅子Aへの着席」と「椅子Aからの離席」とを組み合わせた「椅子Aの利用」をサンプル動作として定義する(図7参照)。すなわち、「移動1」、「着席1」、「離席1」、「移動2」を部分動作とし、「移動1」、「着席1」、「離席1」、「移動2」の順で動作辞書24Aに記述することにより、実際には室内において発生させていない、「椅子Aへの着席」と「椅子Aからの離席」とを組み合わせた「椅子Aの利用」をサンプル動作として定義する。   In the present embodiment, “use of chair A” that combines “sitting in chair A” and “seating from chair A”, which is not actually generated in the environment, as necessary. It is defined as a sample operation (see FIG. 7). That is, “movement 1”, “seating 1”, “seating 1”, and “movement 2” are partial motions, and “movement 1”, “seating 1”, “seating 1”, and “movement 2” are performed in this order. By describing in the motion dictionary 24A, “use of chair A” that combines “sitting in chair A” and “seating from chair A” that is not actually generated in the room is defined as a sample motion. To do.

このように、本実施の形態では、室内においてサンプル動作を実際に発生させなくても、動作辞書24A中の部分動作を組み合わせることによって、新たなサンプル動作を定義することが可能である。また、ここで付与するラベルは、必要に応じて自由に生成してもよいし、シソーラス(類語)に基づいて利用できる語彙を制限してもよい。   As described above, in this embodiment, a new sample operation can be defined by combining partial operations in the operation dictionary 24A without actually generating a sample operation in the room. Moreover, the label provided here may be freely generated as necessary, or the vocabulary that can be used based on a thesaurus (synonyms) may be limited.

〔実観測時の動き認識〕
この動き認識システムにおいて、動き認識装置2は、上述した動作辞書24Aを利用し、次のようにして室内における動きを認識する。実観測時、センサノード1−1〜1−4からの加速度データ(3軸の加速度データ)S1〜S4は、動き認識装置2の加速度特徴量検出モジュール21−1〜21−4に与えられる。
[Motion recognition during actual observation]
In this motion recognition system, the motion recognition device 2 recognizes the motion in the room using the motion dictionary 24A described above as follows. During actual observation, acceleration data (triaxial acceleration data) S1 to S4 from the sensor nodes 1-1 to 1-4 are given to the acceleration feature amount detection modules 21-1 to 21-4 of the motion recognition device 2.

加速度特徴量検出モジュール21(21−1〜21−4)は、サンプル観測時と同様、センサノード1(1−1〜1−4)から送られてくる3軸の加速度データS(S1〜S4)から1秒の幅のデータを0.5秒ずつ重複するように切り出して、センサノード1(1−1〜1−4)からのセンサデータとする。そして、このセンサデータから1秒毎にデータを切り出し、予め用意されている11個の標準変化パターン(図4に示すパターンP1〜P11)との間でマッチングを行って各標準変化パターンとの類似度を計算し、この各標準変化パターンとの類似度を要素とする特徴量ベクトルを求める。   The acceleration feature quantity detection module 21 (21-1 to 21-4), as in the case of sample observation, transmits triaxial acceleration data S (S1 to S4) sent from the sensor node 1 (1-1 to 1-4). ), The data having a width of 1 second are cut out so as to overlap each other by 0.5 seconds, and used as sensor data from the sensor node 1 (1-1 to 1-4). Then, data is cut out from the sensor data every second, and matching is performed with 11 standard change patterns (patterns P1 to P11 shown in FIG. 4) prepared in advance, and similar to each standard change pattern. The degree is calculated, and a feature quantity vector having the similarity to each standard change pattern as an element is obtained.

加速度特徴量検出モジュール21−1〜21−4において検出された特徴量ベクトルは特徴量ベクトル収集モジュール22へ与えられる。特徴量ベクトル収集モジュール22は、加速度特徴量検出モジュール21−1〜21−4からの特徴量ベクトルを1秒毎に合成し、その合成したベクトルを実観測のデータとして最尤部分動作決定モジュール25へ送る。   The feature quantity vectors detected by the acceleration feature quantity detection modules 21-1 to 21-4 are given to the feature quantity vector collection module 22. The feature quantity vector collection module 22 synthesizes the feature quantity vectors from the acceleration feature quantity detection modules 21-1 to 21-4 every second, and uses the synthesized vector as actual observation data to obtain the maximum likelihood partial motion determination module 25. Send to.

最尤部分動作決定モジュール25は、特徴量ベクトル収集モジュール22からの実観測のデータと動作辞書24中の部分動作に属するサンプル観測の特徴データを代表する標準動作特徴ベクトルとの類似度を求め、類似度の高い標準動作特徴ベクトルに付与されているラベルをその実観測のデータに付与する。例えば、部分動作として「移動1」のラベルが付与されている標準動作特徴ベクトルに実観測のデータが類似していれば、その実観測のデータに「移動1」のラベルを付与する。   The maximum likelihood partial motion determination module 25 obtains the similarity between the actual observation data from the feature vector collection module 22 and the standard motion feature vector representing the sample observation feature data belonging to the partial motion in the motion dictionary 24, A label attached to a standard motion feature vector having a high degree of similarity is attached to the actual observation data. For example, if the actual observation data is similar to the standard motion feature vector to which the label “movement 1” is assigned as a partial action, the label “movement 1” is assigned to the actual observation data.

記号的DPマッチング処理部26は、最尤部分動作決定モジュール25によって実観測のデータにラベルが付与されると、それまでの実観測のデータに付与されたラベル列と動作辞書24A中の部分動作のラベル列との間で記号的DPマッチングを行い、動作辞書24A中の尤度の高いサンプル動作をその時の室内における動きとして認識する。なお、記号的DPマッチングについては、非特許文献3に示されているので、ここでの説明は省略する。   When a label is assigned to the actual observation data by the maximum likelihood partial action determination module 25, the symbolic DP matching processing unit 26 and the partial sequence in the action dictionary 24A and the label sequence assigned to the actual observation data so far. Symbolic DP matching is performed with the label sequence of the two, and a sample operation with a high likelihood in the motion dictionary 24A is recognized as a motion in the room at that time. Since symbolic DP matching is described in Non-Patent Document 3, description thereof is omitted here.

この例では、動作辞書24A中の部分動作のラベル列との間で記号的DPマッチングを行い、その尤度が閾値を超えた部分動作の系列に対応するサンプル動作のラベル(含まれる部分動作とその順序が同じサンプル動作のラベル)をその時に観測した室内における動きとして尤度の高い順に出力する。   In this example, symbolic DP matching is performed with the partial action label sequence in the action dictionary 24A, and the label of the sample action corresponding to the series of partial actions whose likelihood exceeds the threshold (included partial actions and Labels of sample operations having the same order) are output in descending order of likelihood as indoor movements observed at that time.

例えば、実観測のデータに「移動1」のラベル列と「着席1」のラベル列があり、この「移動1」のラベル列と「着席1」のラベル列が動作辞書24A中の「移動1」のラベル列と「着席1」のラベル列と一致し、その順序が「移動1」,「着席1」の順であれば、尤度の高いサンプル動作として「椅子Aへの着席」のラベルが出力される。   For example, in the actual observation data, there are a label column of “Movement 1” and a label column of “Seating 1”, and the label column of “Movement 1” and the label column of “Seating 1” are “Movement 1” in the motion dictionary 24A. ”And the“ seat 1 ”label sequence, and the order is“ moving 1 ”and“ seat 1 ”, the label“ sitting on chair A ”is the sample operation with high likelihood. Is output.

また、実観測のデータに「離席1」のラベル列と「移動2」のラベル列があり、この「離席1」のラベル列と「移動2」のラベル列が動作辞書24A中の「離席1」のラベル列と「移動2」のラベル列と一致し、その順序が「離席1」,「移動2」の順であれば、尤度の高いサンプル動作として「椅子Aからの離席」のラベルが出力される。   Further, the actual observation data includes a label column of “seating 1” and a label column of “moving 2”. The label column of “seating 1” and the label column of “moving 2” are “ If the label sequence of “seating 1” matches the label sequence of “moving 2”, and the order is “seating 1” and “moving 2”, then the sample operation from “chair A” has a high likelihood. The label “Away” is output.

また、実観測のデータに「移動1」、「着席1」、「離席1」、「移動2」のラベル列があり、この「移動1」、「着席1」、「離席1」、「移動2」のラベル列が動作辞書24A中の「移動1」、「着席1」、「離席1」、「移動2」のラベル列と一致し、その順序が「移動1」、「着席1」、「離席1」、「移動2」の順であれば、尤度の高い順として、「椅子Aの利用」、「椅子Aへの着席」、「椅子Aからの離席」のラベルが出力される。   In addition, the actual observation data includes label columns of “movement 1”, “seating 1”, “seating 1”, and “movement 2”, and this “movement 1”, “seating 1”, “seating 1”, The label column of “Movement 2” matches the label sequence of “Movement 1”, “Seating 1”, “Leave 1”, “Movement 2” in the motion dictionary 24A, and the order is “Movement 1”, “Seating” If “1”, “seating 1”, and “moving 2” are in order, “usage of chair A”, “sitting in chair A”, “seating from chair A” are given in descending order of likelihood. A label is output.

なお、上述した実施の形態では、説明を分かり易くするするためにサンプル動作を「椅子Aへの着席」や「椅子Aからの離席」としたが、椅子A,机B,椅子C,ドアDを組み合わせて、種々のサンプル動作を発生させるようにすることは言うまでもない。   In the above-described embodiment, the sample operation is “sitting in chair A” or “seating from chair A” to make the explanation easy to understand, but chair A, desk B, chair C, door Needless to say, D is combined to generate various sample operations.

また、上述した実施の形態では、加速度特徴量検出モジュール21(21−1〜21−4)において、センサノード1(1−1〜1−4)からのセンサデータから1秒毎にデータを切り出し、予め用意されている複数の標準変化パターンとの間でマッチングを行って各標準変化パターンとの類似度を計算し、この各標準変化パターンとの類似度を要素とする特徴量ベクトルを求めるようにしたが、加速度特徴量検出モジュール21(21−1〜21−4)において、センサノード1(1−1〜1−4)からのセンサデータから1秒毎にデータを切り出し、この切り出したデータの高速フーリエ変換を行って得られる周波数成分を要素とする特徴量ベクトルを求めるようにするようにしてもよい。   In the embodiment described above, in the acceleration feature quantity detection module 21 (21-1 to 21-4), data is cut out from the sensor data from the sensor node 1 (1-1 to 1-4) every second. , Matching between a plurality of standard change patterns prepared in advance to calculate the similarity to each standard change pattern, and to obtain a feature vector having the similarity to each standard change pattern as an element However, in the acceleration feature quantity detection module 21 (21-1 to 21-4), data is cut out from the sensor data from the sensor node 1 (1-1 to 1-4) every second, and the cut out data It is also possible to obtain a feature quantity vector having frequency components obtained by performing the fast Fourier transform as described above.

また、切り出したデータの高速フーリエ変換を行って得られる周波数成分を要素とする特徴量ベクトルを求めるのに代えて、切り出したデータのウェブレット変換を行って得られるウェブレット係数を要素とする特徴量ベクトルを求めたり、切り出したデータの自己回帰モデルを推定して得られる自己回帰係数を要素とする特徴量ベクトルを求めたりするようにしてもよい。   Also, instead of obtaining a feature quantity vector whose element is a frequency component obtained by performing fast Fourier transform of the cut-out data, a feature having a weblet coefficient obtained by performing a weblet transform of the cut-out data as an element A quantity vector may be obtained, or a feature quantity vector having an autoregressive coefficient obtained by estimating an autoregressive model of the cut out data as an element may be obtained.

本発明に係る動き認識システムの一実施の形態の概略を示す図である。It is a figure which shows the outline of one Embodiment of the motion recognition system which concerns on this invention. センサノードからの加速度データを例示する図である。It is a figure which illustrates the acceleration data from a sensor node. 本発明に係る動き認識システムにおける動き認識装置の機能ブロック図である。It is a functional block diagram of the motion recognition apparatus in the motion recognition system which concerns on this invention. サンプル動作として「椅子Aへの着席」を発生させた場合および「椅子Aからの離席」を発生させた場合のセンサノードからの3軸の加速度データの変化を示す図である。It is a figure which shows the change of the acceleration data of 3 axes | shafts from a sensor node at the time of generating "seating from chair A" and generating "seating from chair A" as sample operation | movement. 3軸の加速度データからの時間幅と重複幅に従う切り出しを説明する図である。It is a figure explaining the extraction according to the time width and overlap width from triaxial acceleration data. 動き認識装置の加速度特徴量検出モジュールで使用する標準変化パターンを例示する図である。It is a figure which illustrates the standard change pattern used with the acceleration feature-value detection module of a motion recognition apparatus. 「椅子への着席」と「椅子からの離席」とを組み合わせた「椅子の利用」をサンプル動作として定義する例を説明する図である。It is a figure explaining the example which defines "use of a chair" which combined "sitting in a chair" and "seating from a chair" as a sample operation | movement.

符号の説明Explanation of symbols

1(1−1〜1−4)…センサノード、2…動き認識装置、2A…情報入力部、2B…動き認識部、3…ネットワーク、21(21−1〜24)…加速度特徴量検出モジュール、22…特徴量ベクトル収集モジュール、23…サンプル動作DB、24…動作辞書作成部、24A…動作辞書、25…最尤部分動作決定モジュール、26…記号的DPマッチング処理モジュール、S(S1〜S4)…加速度データ、P1〜P11…標準変化パターン、A,C…椅子、B…机、D…ドア。   DESCRIPTION OF SYMBOLS 1 (1-1 to 1-4) ... Sensor node, 2 ... Motion recognition apparatus, 2A ... Information input part, 2B ... Motion recognition part, 3 ... Network, 21 (21-1-24) ... Acceleration feature-value detection module , 22 ... feature vector collection module, 23 ... sample motion DB, 24 ... motion dictionary creation unit, 24A ... motion dictionary, 25 ... maximum likelihood partial motion determination module, 26 ... symbolic DP matching processing module, S (S1-S4) ) ... acceleration data, P1-P11 ... standard change pattern, A, C ... chair, B ... desk, D ... door.

Claims (8)

環境に設置された複数の加速度センサと、これら加速度センサからの情報に基づいて前記環境における動きを認識する動き認識装置とを備えた動き認識システムであって、
前記動き認識装置は、
前記環境において認識する動きの候補としてサンプル動作を発生させた際に観測される前記加速度センサからの情報より所定の時間幅毎にデータを切り出し、予め用意されている複数の標準変化パターンとの間でマッチングを行って各標準変化パターンとの類似度を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルをサンプル観測の特徴データとし、このサンプル観測の特徴データの列から前記サンプル動作に含まれる部分動作を抽出する部分動作抽出手段と、
前記サンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ、および前記サンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を記述した動作辞書を作成する動作辞書作成手段と、
前記環境において実際に観測される前記加速度センサからの情報より前記サンプル観測と同じ所定の時間幅毎にデータを切り出し、予め用意されている複数の標準変化パターンとの間でマッチングを行って各標準変化パターンとの類似度を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルを実観測の特徴データとし、その実観測の特徴データと前記動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータとの類似度を求め、類似度の高い代表データに付与されているラベルをその実観測の特徴データに付与するラベル付与手段と、
前記実観測の特徴データにラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と前記動作辞書中の部分動作のラベル列との間でマッチングを行って、前記動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識する動き認識手段と
を備えることを特徴とする動き認識システム。
A motion recognition system comprising a plurality of acceleration sensors installed in an environment and a motion recognition device that recognizes movement in the environment based on information from these acceleration sensors,
The motion recognition device includes:
Data is extracted every predetermined time interval from information from the acceleration sensor observed when a sample motion is generated as a motion candidate to be recognized in the environment, and between a plurality of standard change patterns prepared in advance. Is used to obtain a feature vector whose elements are the similarity to each standard change pattern, and the vector obtained by combining the feature vectors at the same time of each acceleration sensor is used as the feature data of the sample observation. Partial motion extraction means for extracting a partial motion included in the sample motion from a sequence of data;
A label corresponding to the partial motion is assigned to the feature data of the sample observation belonging to the partial motion extracted from the sample motion, and the label string attached to the feature data of the sample observation belonging to the partial motion belongs to the partial motion. Action dictionary creating means for creating data representing the characteristic data of sample observation, and an action dictionary describing the partial actions included in the sample action and the order relation between the partial actions for each sample action;
Data is cut out from the information from the acceleration sensor actually observed in the environment at the same predetermined time width as the sample observation, and each standard is matched with a plurality of standard change patterns prepared in advance. A feature vector whose element is a similarity to the change pattern is obtained, and a vector obtained by synthesizing feature vectors at the same time of each acceleration sensor is used as actual observation feature data, and the actual observation feature data and a part in the motion dictionary A label attaching means for obtaining a similarity with data representing the feature data of sample observation belonging to the operation, and attaching a label attached to the representative data with high similarity to the feature data of the actual observation;
Each time a label is assigned to the actual observation feature data, matching is performed between the label sequence assigned to the actual observation feature data and the partial motion label sequence in the motion dictionary, A motion recognition system comprising: motion recognition means for recognizing a sample operation with a high likelihood in the motion dictionary as a motion in the environment at that time.
環境に設置された複数の加速度センサと、これら加速度センサからの情報に基づいて前記環境における動きを認識する動き認識装置とを備えた動き認識システムであって、
前記動き認識装置は、
前記環境において認識する動きの候補としてサンプル動作を発生させた際に観測される前記加速度センサからの情報より所定の時間幅毎にデータを切り出し、この切り出したデータの高速フーリエ変換を行って得られる周波数成分を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルをサンプル観測の特徴データとし、このサンプル観測の特徴データの列からサンプル動作に含まれる部分動作を抽出する部分動作抽出手段と、
前記サンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ、および前記サンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を記述した動作辞書を作成する動作辞書作成手段と、
前記環境において実際に観測される前記加速度センサからの情報より前記サンプル観測と同じ所定の時間幅毎にデータを切り出し、この切り出したデータの高速フーリエ変換を行って得られる周波数成分を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルを実観測の特徴データとし、その実観測の特徴データと前記動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータとの類似度を求め、類似度の高い代表データに付与されているラベルをその実観測の特徴データに付与するラベル付与手段と、
前記実観測の特徴データにラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と前記動作辞書中の部分動作のラベル列との間でマッチングを行って、前記動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識する動き認識手段と
を備えることを特徴とする動き認識システム。
A motion recognition system comprising a plurality of acceleration sensors installed in an environment and a motion recognition device that recognizes movement in the environment based on information from these acceleration sensors,
The motion recognition device includes:
It is obtained by extracting data every predetermined time width from information from the acceleration sensor observed when a sample motion is generated as a motion candidate recognized in the environment, and performing fast Fourier transform of the extracted data A feature vector whose elements are frequency components is obtained, and a vector obtained by synthesizing the feature vector at the same time of each acceleration sensor is used as sample observation feature data, and the partial operation included in the sample operation from this sample observation feature data column Partial motion extraction means for extracting
A label corresponding to the partial motion is assigned to the feature data of the sample observation belonging to the partial motion extracted from the sample motion, and the label string attached to the feature data of the sample observation belonging to the partial motion belongs to the partial motion. Action dictionary creating means for creating data representing the characteristic data of sample observation, and an action dictionary describing the partial actions included in the sample action and the order relation between the partial actions for each sample action;
The data is cut out from the information from the acceleration sensor actually observed in the environment at the same predetermined time width as the sample observation, and the frequency component obtained by performing the fast Fourier transform of the cut out data is an element. The vector obtained by obtaining the quantity vector and combining the feature quantity vectors at the same time of each acceleration sensor is used as the actual observation feature data, and the actual observation feature data and the sample observation feature data belonging to the partial motion in the motion dictionary are represented. A label attaching means for obtaining a similarity to the data and assigning a label attached to the representative data having a high similarity to the feature data of the actual observation;
Each time a label is assigned to the actual observation feature data, matching is performed between the label sequence assigned to the actual observation feature data and the partial motion label sequence in the motion dictionary, A motion recognition system comprising: motion recognition means for recognizing a sample operation with a high likelihood in the motion dictionary as a motion in the environment at that time.
環境に設置された複数の加速度センサと、これら加速度センサからの情報に基づいて前記環境における動きを認識する動き認識装置とを備えた動き認識システムであって、
前記動き認識装置は、
前記環境において認識する動きの候補としてサンプル動作を発生させた際に観測される前記加速度センサからの情報より所定の時間幅毎にデータを切り出し、この切り出したデータのウェブレット変換を行って得られるウェブレット係数を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルをサンプル観測の特徴データとし、このサンプル観測の特徴データの列からサンプル動作に含まれる部分動作を抽出する部分動作抽出手段と、
前記サンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ、および前記サンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を記述した動作辞書を作成する動作辞書作成手段と、
前記環境において実際に観測される前記加速度センサからの情報より前記サンプル観測と同じ所定の時間幅毎にデータを切り出し、この切り出したデータのウェブレット変換を行って得られるウェブレット係数を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルを実観測の特徴データとし、その実観測の特徴データと前記動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータとの類似度を求め、類似度の高い代表データに付与されているラベルをその実観測の特徴データに付与するラベル付与手段と、
前記実観測の特徴データにラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と前記動作辞書中の部分動作のラベル列との間でマッチングを行って、前記動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識する動き認識手段と
を備えることを特徴とする動き認識システム。
A motion recognition system comprising a plurality of acceleration sensors installed in an environment and a motion recognition device that recognizes movement in the environment based on information from these acceleration sensors,
The motion recognition device includes:
It is obtained by cutting out data at predetermined time intervals from information from the acceleration sensor observed when a sample motion is generated as a motion candidate recognized in the environment, and performing weblet conversion of the cut out data A feature vector whose elements are weblet coefficients is obtained, and a vector obtained by combining feature vectors at the same time of each acceleration sensor is used as feature data for sample observation. Partial motion extraction means for extracting motion;
A label corresponding to the partial motion is assigned to the feature data of the sample observation belonging to the partial motion extracted from the sample motion, and the label string attached to the feature data of the sample observation belonging to the partial motion belongs to the partial motion. Action dictionary creating means for creating data representing the characteristic data of sample observation, and an action dictionary describing the partial actions included in the sample action and the order relation between the partial actions for each sample action;
Data is extracted from the information from the acceleration sensor actually observed in the environment at the same predetermined time width as the sample observation, and a weblet coefficient obtained by performing weblet conversion of the extracted data is used as an element. The feature vector is obtained, and the vector obtained by combining the feature vectors at the same time of each acceleration sensor is used as the feature data of the actual observation, and the feature data of the actual observation and the feature data of the sample observation belonging to the partial motion in the motion dictionary are represented. A label attaching means for obtaining a similarity to the data to be obtained, and attaching a label attached to representative data having a high similarity to the feature data of the actual observation;
Each time a label is assigned to the actual observation feature data, matching is performed between the label sequence assigned to the actual observation feature data and the partial motion label sequence in the motion dictionary, A motion recognition system comprising: motion recognition means for recognizing a sample operation with a high likelihood in the motion dictionary as a motion in the environment at that time.
環境に設置された複数の加速度センサと、これら加速度センサからの情報に基づいて前記環境における動きを認識する動き認識装置とを備えた動き認識システムであって、
前記動き認識装置は、
前記環境において認識する動きの候補としてサンプル動作を発生させた際に観測される前記加速度センサからの情報より所定の時間幅毎にデータを切り出し、この切り出したデータの自己回帰モデルを推定して得られる自己回帰係数を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルをサンプル観測の特徴データとし、このサンプル観測の特徴データの列からサンプル動作に含まれる部分動作を抽出する部分動作抽出手段と、
前記サンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ、および前記サンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を記述した動作辞書を作成する動作辞書作成手段と、
前記環境において実際に観測される前記加速度センサからの情報より前記サンプル観測と同じ所定の時間幅毎にデータを切り出し、この切り出したデータの自己回帰モデルを推定して得られる自己回帰係数を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルを実観測の特徴データとし、その実観測の特徴データと前記動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータとの類似度を求め、類似度の高い代表データに付与されているラベルをその実観測の特徴データに付与するラベル付与手段と、
前記実観測の特徴データにラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と前記動作辞書中の部分動作のラベル列との間でマッチングを行って、前記動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識する動き認識手段と
を備えることを特徴とする動き認識システム。
A motion recognition system comprising a plurality of acceleration sensors installed in an environment and a motion recognition device that recognizes movement in the environment based on information from these acceleration sensors,
The motion recognition device includes:
It is obtained by cutting out data every predetermined time width from information from the acceleration sensor observed when a sample motion is generated as a motion candidate recognized in the environment, and estimating an autoregressive model of the cut out data. A feature vector that has an autoregressive coefficient as an element is obtained, and a vector obtained by synthesizing feature vectors at the same time of each acceleration sensor is used as sample observation feature data, and is included in the sample operation from this sample observation feature data column Partial motion extraction means for extracting the partial motion;
A label corresponding to the partial motion is assigned to the feature data of the sample observation belonging to the partial motion extracted from the sample motion, and the label string attached to the feature data of the sample observation belonging to the partial motion belongs to the partial motion. Action dictionary creating means for creating data representing the characteristic data of sample observation, and an action dictionary describing the partial actions included in the sample action and the order relation between the partial actions for each sample action;
Data is cut out from the information from the acceleration sensor actually observed in the environment at the same predetermined time width as the sample observation, and an autoregressive coefficient obtained by estimating an autoregressive model of the cut out data is used as an element. A vector obtained by synthesizing the feature vector at the same time of each acceleration sensor as the feature data of the actual observation, and the feature data of the actual observation and the feature data of the sample observation belonging to the partial motion in the motion dictionary A label assigning means for obtaining a similarity with representative data and assigning a label attached to representative data with a high similarity to the feature data of the actual observation;
Each time a label is assigned to the actual observation feature data, matching is performed between the label sequence assigned to the actual observation feature data and the partial motion label sequence in the motion dictionary, A motion recognition system comprising: motion recognition means for recognizing a sample operation with a high likelihood in the motion dictionary as a motion in the environment at that time.
環境に設置された複数の加速度センサと、これら加速度センサからの情報に基づいて前記環境における動きを認識する動き認識装置とを備えたシステムにおいて、
前記環境において認識する動きの候補としてサンプル動作を発生させた際に観測される前記加速度センサからの情報より所定の時間幅毎にデータを切り出し、予め用意されている複数の標準変化パターンとの間でマッチングを行って各標準変化パターンとの類似度を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルをサンプル観測の特徴データとし、このサンプル観測の特徴データの列から前記サンプル動作に含まれる部分動作を抽出するステップと、
前記サンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ、および前記サンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を記述した動作辞書を作成する動作辞書作成手段と、
前記環境において実際に観測される前記加速度センサからの情報より前記サンプル観測と同じ所定の時間幅毎にデータを切り出し、予め用意されている複数の標準変化パターンとの間でマッチングを行って各標準変化パターンとの類似度を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルを実観測の特徴データとし、その実観測の特徴データと前記動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータとの類似度を求め、類似度の高い代表データに付与されているラベルをその実観測の特徴データに付与するステップと、
前記実観測の特徴データにラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と前記動作辞書中の部分動作のラベル列との間でマッチングを行って、前記動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識するステップと
を備えることを特徴とする動き認識方法。
In a system comprising a plurality of acceleration sensors installed in an environment and a motion recognition device that recognizes movement in the environment based on information from these acceleration sensors,
Data is extracted every predetermined time interval from information from the acceleration sensor observed when a sample motion is generated as a motion candidate to be recognized in the environment, and between a plurality of standard change patterns prepared in advance. Is used to obtain a feature vector whose elements are the similarity to each standard change pattern, and the vector obtained by combining the feature vectors at the same time of each acceleration sensor is used as the feature data of the sample observation. Extracting a partial motion included in the sample motion from a sequence of data;
A label corresponding to the partial motion is assigned to the feature data of the sample observation belonging to the partial motion extracted from the sample motion, and the label string attached to the feature data of the sample observation belonging to the partial motion belongs to the partial motion. Action dictionary creating means for creating data representing the characteristic data of sample observation, and an action dictionary describing the partial actions included in the sample action and the order relation between the partial actions for each sample action;
Data is cut out from the information from the acceleration sensor actually observed in the environment at the same predetermined time width as the sample observation, and each standard is matched with a plurality of standard change patterns prepared in advance. A feature vector whose element is a similarity to the change pattern is obtained, and a vector obtained by synthesizing feature vectors at the same time of each acceleration sensor is used as actual observation feature data, and the actual observation feature data and a part in the motion dictionary Obtaining a similarity to the data representing the feature data of the sample observation belonging to the operation, and assigning a label attached to the representative data having a high similarity to the feature data of the actual observation;
Each time a label is assigned to the actual observation feature data, matching is performed between the label sequence assigned to the actual observation feature data and the partial motion label sequence in the motion dictionary, And recognizing a sample operation with a high likelihood in the motion dictionary as a motion in the environment at that time.
環境に設置された複数の加速度センサと、これら加速度センサからの情報に基づいて前記環境における動きを認識する動き認識装置とを備えたシステムにおいて、
前記環境において認識する動きの候補としてサンプル動作を発生させた際に観測される前記加速度センサからの情報より所定の時間幅毎にデータを切り出し、この切り出したデータの高速フーリエ変換を行って得られる周波数成分を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルをサンプル観測の特徴データとし、このサンプル観測の特徴データの列からサンプル動作に含まれる部分動作を抽出するステップと、
前記サンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ、および前記サンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を記述した動作辞書を作成するステップと、
前記環境において実際に観測される前記加速度センサからの情報より前記サンプル観測と同じ所定の時間幅毎にデータを切り出し、この切り出したデータの高速フーリエ変換を行って得られる周波数成分を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルを実観測の特徴データとし、その実観測の特徴データと前記動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータとの類似度を求め、類似度の高い代表データに付与されているラベルをその実観測の特徴データに付与するステップと、
前記実観測の特徴データにラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と前記動作辞書中の部分動作のラベル列との間でマッチングを行って、前記動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識するステップと
を備えることを特徴とする動き認識方法。
In a system comprising a plurality of acceleration sensors installed in an environment and a motion recognition device that recognizes movement in the environment based on information from these acceleration sensors,
It is obtained by extracting data every predetermined time width from information from the acceleration sensor observed when a sample motion is generated as a motion candidate recognized in the environment, and performing fast Fourier transform of the extracted data A feature vector whose elements are frequency components is obtained, and a vector obtained by synthesizing the feature vector at the same time of each acceleration sensor is used as sample observation feature data, and the partial operation included in the sample operation from this sample observation feature data column Extracting the
A label corresponding to the partial motion is assigned to the feature data of the sample observation belonging to the partial motion extracted from the sample motion, and the label string attached to the feature data of the sample observation belonging to the partial motion belongs to the partial motion. Creating data representing the characteristic data of sample observation, and a motion dictionary describing the partial motions included in the sample motion and the order relationship between the partial motions for each sample motion;
The data is cut out from the information from the acceleration sensor actually observed in the environment at the same predetermined time width as the sample observation, and the frequency component obtained by performing the fast Fourier transform of the cut out data is an element. The vector obtained by obtaining the quantity vector and combining the feature quantity vectors at the same time of each acceleration sensor is used as the actual observation feature data, and the actual observation feature data and the sample observation feature data belonging to the partial motion in the motion dictionary are represented. Obtaining a similarity to the data, and attaching a label attached to representative data having a high similarity to the feature data of the actual observation;
Each time a label is assigned to the actual observation feature data, matching is performed between the label sequence assigned to the actual observation feature data and the partial motion label sequence in the motion dictionary, And recognizing a sample operation with a high likelihood in the motion dictionary as a motion in the environment at that time.
環境に設置された複数の加速度センサと、これら加速度センサからの情報に基づいて前記環境における動きを認識する動き認識装置とを備えたシステムにおいて、
前記環境において認識する動きの候補としてサンプル動作を発生させた際に観測される前記加速度センサからの情報より所定の時間幅毎にデータを切り出し、この切り出したデータのウェブレット変換を行って得られるウェブレット係数を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルをサンプル観測の特徴データとし、このサンプル観測の特徴データの列からサンプル動作に含まれる部分動作を抽出するステップと、
前記サンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ、および前記サンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を記述した動作辞書を作成するステップと、
前記環境において実際に観測される前記加速度センサからの情報より前記サンプル観測と同じ所定の時間幅毎にデータを切り出し、この切り出したデータのウェブレット変換を行って得られるウェブレット係数を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルを実観測の特徴データとし、その実観測の特徴データと前記動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータとの類似度を求め、類似度の高い代表データに付与されているラベルをその実観測の特徴データに付与するラベル付与ステップと、
前記実観測の特徴データにラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と前記動作辞書中の部分動作のラベル列との間でマッチングを行って、前記動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識するステップと
を備えることを特徴とする動き認識方法。
In a system comprising a plurality of acceleration sensors installed in an environment and a motion recognition device that recognizes movement in the environment based on information from these acceleration sensors,
It is obtained by cutting out data at predetermined time intervals from information from the acceleration sensor observed when a sample motion is generated as a motion candidate recognized in the environment, and performing weblet conversion of the cut out data A feature vector whose elements are weblet coefficients is obtained, and a vector obtained by combining feature vectors at the same time of each acceleration sensor is used as feature data for sample observation. Extracting the motion;
A label corresponding to the partial motion is assigned to the feature data of the sample observation belonging to the partial motion extracted from the sample motion, and the label string attached to the feature data of the sample observation belonging to the partial motion belongs to the partial motion. Creating data representing the characteristic data of sample observation, and a motion dictionary describing the partial motions included in the sample motion and the order relationship between the partial motions for each sample motion;
Data is extracted from the information from the acceleration sensor actually observed in the environment at the same predetermined time width as the sample observation, and a weblet coefficient obtained by performing weblet conversion of the extracted data is used as an element. The feature vector is obtained, and the vector obtained by combining the feature vectors at the same time of each acceleration sensor is used as the feature data of the actual observation, and the feature data of the actual observation and the feature data of the sample observation belonging to the partial motion in the motion dictionary are represented. A labeling step for determining the similarity to the data to be performed, and giving the label given to the representative data with high similarity to the feature data of the actual observation,
Each time a label is assigned to the actual observation feature data, matching is performed between the label sequence assigned to the actual observation feature data and the partial motion label sequence in the motion dictionary, And recognizing a sample operation with a high likelihood in the motion dictionary as a motion in the environment at that time.
環境に設置された複数の加速度センサと、これら加速度センサからの情報に基づいて前記環境における動きを認識する動き認識装置とを備えたシステムにおいて、
前記環境において認識する動きの候補としてサンプル動作を発生させた際に観測される前記加速度センサからの情報より所定の時間幅毎にデータを切り出し、この切り出したデータの自己回帰モデルを推定して得られる自己回帰係数を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルをサンプル観測の特徴データとし、このサンプル観測の特徴データの列からサンプル動作に含まれる部分動作を抽出するステップと、
前記サンプル動作から抽出された部分動作に属するサンプル観測の特徴データにその部分動作に対応するラベルを付与し、その部分動作に属するサンプル観測の特徴データに付与されたラベル列、その部分動作に属するサンプル観測の特徴データを代表するデータ、および前記サンプル動作毎にそのサンプル動作に含まれる部分動作およびその部分動作間の順序関係を記述した動作辞書を作成するステップと、
前記環境において実際に観測される前記加速度センサからの情報より前記サンプル観測と同じ所定の時間幅毎にデータを切り出し、この切り出したデータの自己回帰モデルを推定して得られる自己回帰係数を要素とする特徴量ベクトルを求め、各加速度センサの同一時刻の特徴量ベクトルを合成したベクトルを実観測の特徴データとし、その実観測の特徴データと前記動作辞書中の部分動作に属するサンプル観測の特徴データを代表するデータとの類似度を求め、類似度の高い代表データに付与されているラベルをその実観測の特徴データに付与するステップと、
前記実観測の特徴データにラベルが付与される毎に、それまでの実観測の特徴データに付与されたラベル列と前記動作辞書中の部分動作のラベル列との間でマッチングを行って、前記動作辞書中の尤度の高いサンプル動作をその時の環境における動きとして認識するステップと
を備えることを特徴とする動き認識方法。
In a system comprising a plurality of acceleration sensors installed in an environment and a motion recognition device that recognizes movement in the environment based on information from these acceleration sensors,
It is obtained by cutting out data every predetermined time width from information from the acceleration sensor observed when a sample motion is generated as a motion candidate recognized in the environment, and estimating an autoregressive model of the cut out data. A feature vector that has an autoregressive coefficient as an element is obtained, and a vector obtained by synthesizing feature vectors at the same time of each acceleration sensor is used as sample observation feature data, and is included in the sample operation from this sample observation feature data column Extracting partial motions;
A label corresponding to the partial motion is assigned to the feature data of the sample observation belonging to the partial motion extracted from the sample motion, and the label string attached to the feature data of the sample observation belonging to the partial motion belongs to the partial motion. Creating data representing the characteristic data of sample observation, and a motion dictionary describing the partial motions included in the sample motion and the order relationship between the partial motions for each sample motion;
Data is cut out from the information from the acceleration sensor actually observed in the environment at the same predetermined time width as the sample observation, and an autoregressive coefficient obtained by estimating an autoregressive model of the cut out data is used as an element. A vector obtained by synthesizing the feature vector at the same time of each acceleration sensor as the feature data of the actual observation, and the feature data of the actual observation and the feature data of the sample observation belonging to the partial motion in the motion dictionary Obtaining a similarity to the representative data, and attaching a label attached to the representative data having a high similarity to the feature data of the actual observation;
Each time a label is assigned to the actual observation feature data, matching is performed between the label sequence assigned to the actual observation feature data and the partial motion label sequence in the motion dictionary, And recognizing a sample operation with a high likelihood in the motion dictionary as a motion in the environment at that time.
JP2006005819A 2006-01-13 2006-01-13 Motion recognition system and motion recognition method Active JP4690203B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006005819A JP4690203B2 (en) 2006-01-13 2006-01-13 Motion recognition system and motion recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006005819A JP4690203B2 (en) 2006-01-13 2006-01-13 Motion recognition system and motion recognition method

Publications (2)

Publication Number Publication Date
JP2007187555A true JP2007187555A (en) 2007-07-26
JP4690203B2 JP4690203B2 (en) 2011-06-01

Family

ID=38342819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006005819A Active JP4690203B2 (en) 2006-01-13 2006-01-13 Motion recognition system and motion recognition method

Country Status (1)

Country Link
JP (1) JP4690203B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010137325A1 (en) * 2009-05-27 2010-12-02 パナソニック株式会社 Behavior recognition device
US8570291B2 (en) 2009-05-21 2013-10-29 Panasonic Corporation Tactile processing device
WO2022113764A1 (en) 2020-11-25 2022-06-02 日立建機株式会社 Motion recognition system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10113343A (en) * 1996-07-03 1998-05-06 Hitachi Ltd Method, device and system for recognizing action and behavior
JP2005157942A (en) * 2003-11-28 2005-06-16 National Institute Of Advanced Industrial & Technology Moving body motion data segmentation processor
JP2005327134A (en) * 2004-05-14 2005-11-24 Matsushita Electric Ind Co Ltd Abnormality detecting apparatus and abnormality detecting method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10113343A (en) * 1996-07-03 1998-05-06 Hitachi Ltd Method, device and system for recognizing action and behavior
JP2005157942A (en) * 2003-11-28 2005-06-16 National Institute Of Advanced Industrial & Technology Moving body motion data segmentation processor
JP2005327134A (en) * 2004-05-14 2005-11-24 Matsushita Electric Ind Co Ltd Abnormality detecting apparatus and abnormality detecting method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8570291B2 (en) 2009-05-21 2013-10-29 Panasonic Corporation Tactile processing device
WO2010137325A1 (en) * 2009-05-27 2010-12-02 パナソニック株式会社 Behavior recognition device
JP4679677B2 (en) * 2009-05-27 2011-04-27 パナソニック株式会社 Action recognition device
CN102227616A (en) * 2009-05-27 2011-10-26 松下电器产业株式会社 Behavior recognition device
US8682608B2 (en) 2009-05-27 2014-03-25 Panasonic Corporation Behavior recognition apparatus
WO2022113764A1 (en) 2020-11-25 2022-06-02 日立建機株式会社 Motion recognition system

Also Published As

Publication number Publication date
JP4690203B2 (en) 2011-06-01

Similar Documents

Publication Publication Date Title
JP5724125B2 (en) Sound source localization device
Bastianelli et al. On-line semantic mapping
EP2008200A2 (en) Framework of hierarchical sensory grammars for inferring behaviors using distributed sensors
Guo et al. Localising speech, footsteps and other sounds using resource-constrained devices
CN109196583A (en) Dynamic voice identifies data assessment
US11531789B1 (en) Floor plan generation for device visualization and use
Gupta et al. Let the blind see: an AIIoT-based device for real-time object recognition with the voice conversion
JP4690203B2 (en) Motion recognition system and motion recognition method
Xia et al. Frame-wise dynamic threshold based polyphonic acoustic event detection
Fagerlund et al. New parametric representations of bird sounds for automatic classification
US11335359B2 (en) Methods and devices for obtaining an event designation based on audio data
WO2022198161A1 (en) System to determine non-stationary objects in a physical space
Shaukat et al. Daily sound recognition for elderly people using ensemble methods
JP4347852B2 (en) Situation recognition system and situation recognition method
Zhang et al. Development of a voice-control smart home environment
US11260536B1 (en) Simulation of emotional state of an interactive device
Swee et al. Malay sign language gesture recognition system
Crandall et al. Behaviometrics for identifying smart home residents
JP4813964B2 (en) Event search apparatus, method, and program
Gavril et al. Towards a modular framework for human-robot interaction and collaboration
JP2005196020A (en) Speech processing apparatus, method, and program
JP2005534065A (en) Man-machine interface unit operation and / or control method
Hegde et al. On the design and prototype implementation of a multimodal situation aware system
JP2006088251A (en) User behavior inducing system and method thereof
AU2021104454B4 (en) The Radar-based Fall Detection System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110217

R151 Written notification of patent or utility model registration

Ref document number: 4690203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350