JP5874963B2 - Moving body motion classification method and moving body motion classification system - Google Patents
Moving body motion classification method and moving body motion classification system Download PDFInfo
- Publication number
- JP5874963B2 JP5874963B2 JP2011235809A JP2011235809A JP5874963B2 JP 5874963 B2 JP5874963 B2 JP 5874963B2 JP 2011235809 A JP2011235809 A JP 2011235809A JP 2011235809 A JP2011235809 A JP 2011235809A JP 5874963 B2 JP5874963 B2 JP 5874963B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- movement
- moving body
- classification
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
本発明は、移動体の動き分類方法及び移動体の動き分類システムに関するものである。 The present invention relates to a moving body motion classification method and a moving body motion classification system.
人間、動物或いは機械などの移動体の動きに伴う状態変化を計測する計測手段を移動体に取り付け、計測手段による計測結果に基づいて移動体の動きを分類する分類方法として、特許文献1に記載されたものが知られている。ここで、移動体の動きを分類するとは、データベース化した動きの種類の中からどの動きの種類かを特定することを意味する。この特許文献1の分類方法では、計測手段としての例えば加速度センサを移動体に取り付け、この加速度センサから得られた動き変化データである加速度データを例えば時間周波数解析(ウェーブレット解析)などの周波数解析を行って解析データであるウェーブレット係数に変換する。そして、このウェーブレット係数を正規化する。移動体の動きの種類ごとに時間周波数特性が異なるため、正規化された周波数スペクトルは動きの種類に応じて異なる。その正規化されたウェーブレット係数に基づいて移動体の動きの特徴量が算出される。そして、算出された特徴量と、予め計測されデータベース化された移動体の動きの種類に対応する分類用特徴量とを比較し当該分類用特徴量に類似する移動体の各動きから計測対象の移動体の動きを分類している。
しかしながら、上記特許文献1の分類方法において、データベース化された移動体の動きの種類としては、移動体が例えば人間である場合、歩く、走る、といった繰返しの多い周期的な動作は認識率が高い動きである。加えて、繰り返しのない動作の場合でも、動きが大きい動作、つまり単位時間あたりの動きの変化量が大きい動作の場合も、認識率が高い動きである。ところが、移動体が人間であれば、歩く、走る、という認識率が高い移動体の動き以外に、周期的な動きでなかったり、動きそのものがちいさかったり、といった認識率が低くなる傾向がある移動体の動きがある。上記特許文献1の分類方法におけるウェーブレット係数を正規化する処理では、ウェーブレット係数の平均を求めた平均値を用いて正規化している、例えば平均値を閾値としその閾値より大きいウェーブレット係数を残す閾値処理を行って正規化している。このため、ウェーブレット係数が当該閾値より小さい値である認識率が低くなる傾向がある移動体の動きは分類されにくい。
However, in the classification method of the above-mentioned
本発明は以上の問題点に鑑みなされたものであり、その目的は、認識率が低くなる傾向がある移動体の動きを分類され易くする、移動体の動き分類方法及び移動体の動き分類システムを提供することである。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a moving body motion classification method and a moving body motion classification system that make it easy to classify the movement of a moving body that tends to have a low recognition rate. Is to provide.
上記目的を達成するために、請求項1の発明は、センサを装着する移動体の動きに伴う動き変化データを計測する計測部と、前記計測部で計測された動き変化データを処理する情報処理部とを備え、移動体の動きを分類する移動体の動き分類方法において、前記情報処理部によって、前記計測部で得られた動き変化データから解析データを生成する解析データ生成工程と、前記解析データの平均値から正規化データを生成する正規化データ生成工程と、前記正規化データから前記移動体の動きの特徴量を算出する特徴量算出工程と、前記特徴量と、予め計測した移動体の各動きに対する各分類用特徴量とを比較して、所定の特徴量に類似する移動体の動きに分類する分類処理工程と、を有し、前記分類処理工程で、分類されなかった移動体の動きに対する前記解析データについて、前記正規化データ生成工程によりあらためて前記解析データの平均値から正規化データを生成し、前記特徴量算出工程により、当該正規化データから特徴量を算出し、前記分類処理工程により当該特徴量に基づいて、前記移動体の動きを分類する一連の工程を複数回繰り返すことを特徴とするものである。
In order to achieve the above object, the invention of
本発明においては、計測部で得られた動き変化データから解析データを生成する。この解析データの平均値を求め、少なくとも当該平均値を用いて解析データを正規化する。この正規化処理を行うことで解析データの中で解析値が高いものは、ノイズが低減され、予め計測した移動体の各動きに対する各分類用特徴量と比較して所定の特徴量に類似すると判断できるだけの解析値が残り、分類することが可能となる。このときの抽出した解析データに対応する正規化データから算出した特徴量は解析の対象となるデータの中では大きな値となる。このような処理を行うことで移動体の動きの認識率を上がることができ分類することが可能となる。正規化処理では解析データの平均値を用いて解析データを正規化しているため、解析値が小さい値の解析データは解析値の大きい値にまるめこまれ、解析値が小さくなり、予め計測した移動体の各動きに対する各分類用特徴量と比較して所定の特徴量に類似すると判断できるだけの解析値がなく、分類されない。分類されなかった移動体の動きに対する解析データだけに対してあらためて正規化する。分類されなかった移動体の動きに対する解析データだけの平均値は、分類されなかった移動体の動きに対する解析データの解析値が小さい値であるので、全時間領域における解析データの平均値より低い値となる。その低い値となった平均値を用いてあらためて正規化することで、解析値が小さい解析データであって上記分類されなかった移動体の動きでも分類されるようになる。このような分類されなかった移動体の動きに対する解析データに行う正規化工程、特徴量算出工程及び分類処理工程の一連の工程を複数回繰り返す。これにより、認識率が低くなる傾向がある移動体の動きが分類できる。 In the present invention, analysis data is generated from motion change data obtained by the measurement unit. An average value of the analysis data is obtained, and the analysis data is normalized using at least the average value. By performing this normalization process, analysis data having a high analysis value is reduced in noise and is similar to a predetermined feature amount compared to each classification feature amount for each motion of a moving body measured in advance. Analytical values that can be judged remain and can be classified. The feature amount calculated from the normalized data corresponding to the extracted analysis data at this time is a large value in the data to be analyzed. By performing such processing, the recognition rate of the movement of the moving object can be increased and classification can be performed. In the normalization process, the analysis data is normalized using the average value of the analysis data, so the analysis data with a small analysis value is rounded up to a large analysis value, the analysis value becomes small, and the movement measured in advance There is no analysis value that can be judged to be similar to a predetermined feature amount compared to each classification feature amount for each movement of the body, and the body is not classified. Normalization is performed again for only the analysis data for the movement of the moving object that has not been classified. The average value of only the analysis data for the unclassified movement of the moving body is lower than the average value of the analysis data in the entire time domain because the analysis value of the analysis data for the movement of the unclassified moving body is small. It becomes. By normalizing again using the average value that has become a low value, it is possible to classify even the movement of a moving body that is analysis data having a small analysis value and is not classified. A series of steps such as a normalization step, a feature amount calculation step, and a classification processing step performed on the analysis data for the movement of the unclassified moving body is repeated a plurality of times. Thereby, the movement of the mobile body in which the recognition rate tends to be low can be classified.
以上、本発明によれば、認識率が低くなる傾向がある移動体の動きを分類され易くするという効果が得られる。 As described above, according to the present invention, it is possible to obtain an effect of facilitating classification of the movement of a moving object that tends to have a low recognition rate.
以下、本発明を適用した移動体の動き分類システムの一実施形態について図面を参照して詳細に説明する。
図1は本実施形態の移動体の動き分類システムの構成を示すブロック図である。同図に示す移動体の動き分類システムは認識フェーズにおける動き分類システム構成であり、計測部100、情報処理部200及び通信部300を含んで構成されている。計測部100は人間、動物あるいは機械などの移動体の動作又は行動の動きに伴う状態変化を計測し、波形取得部101、センサ102及び移動体103を含んで構成されている。情報処理部200は計測部100で計測した移動体の行動に伴う状態変化のデータを通信部300を介して受信して処理し、波形記録部201、解析データ生成部202、正規化処理部203、特徴量算出部204、分類処理部205、分類結果判定部206及び分類結果記録部207を含んで構成されている。通信部300は計測部100と情報処理部200の間でデータを送受信する。
Hereinafter, an embodiment of a moving body motion classification system to which the present invention is applied will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a moving body motion classification system of this embodiment. The moving body motion classification system shown in the figure has a motion classification system configuration in the recognition phase, and includes a
そして、計測部100において、波形取得部101はセンサ102で検出された波形データのセンサ信号を取得する。センサ102は移動体の動作又は行動の動きを検出し、具体的には加速度センサや角速度センサである。移動体103は計測する対象物又は対象の人間である。また、情報処理部200において、波形記録部201には解析データ生成部202のデータや波形取得部101で得られ通信部300を介して送られてきたデータを記録される。解析データ生成部202は、波形取得部101で得られ、通信部300を介して送られてきた波形データをAD変換したデータを生成し、必要があれば解析が必要な箇所がわかるようなフラグや変換をさらに行う。正規化処理部203は、解析データ生成部202で生成されたデータを解析処理に合わせて変形する処理を行う。特徴量算出部204は、正規化処理部203のデータから移動体の動きの特徴を抽出する処理を行う。分類処理部205は、特徴量算出部204で抽出された移動体の動きの特徴から、学習フェーズで得られる教師データとの類似度を算出し、作業または動作の動きの分類の処理を行う。ここで分類とは、特徴量算出部204で抽出された移動体の動きの特徴から、学習フェーズで得られる学習データとの類似度を算出し、類似度が最も高い作業または動作などの動きの種類を特定することをいう。ここで学習データは教師データとも呼ばれ、学習フェーズで使用されるデータをさし、学習フェーズでは学習データから分類器を生成する。分類結果判定部206は、分類処理部205で得られた類似度が予め定められた閾値により分類の結果を採用するか否かを判定する。分類結果記録部207は、分類結果判定部206で判定された分類結果208を記録しておく記録装置である。自動分類システムは、計測部101に含まれる。また、自動分類システムは、図1に示す認識フェーズと図2に示す学習フェーズの2つのフェーズを持っている。
In the
このような構成を有する本実施形態の移動体の動き分類システムによれば、計測部100において波形取得部101は、移動体103に装着された加速度センサや角速度センサのセンサ102からのセンサ信号を取得する。そして、取得したセンサ信号のデータは通信部300を使用して情報処理部200に転送される。情報処理部200に転送されたデータは、解析データ生成部202にて解析され、解析データ生成部202で生成されたデータは波形記録部201に一時格納される。ここで生成されるデータは、情報処理部200に転送されたデータをAD変換したものである。生成されたデータは、AD変換されたそのものの場合もあれば、AD変換の後解析に必要な部分を表すフラグを付与する場合や、解析に必要でない部分に0を代入する処理を行う場合もある。そして、生成されたデータは、正規化処理部203にて正規化処理される。正規化処理の具体的な方法の詳細は後述する。正規化処理部203で正規化処理されたデータから移動体103の動きの特徴が特徴量算出部204で抽出され、特徴量算出部204で抽出された移動体の動きの特徴について分類処理部205で作業または動作の動きの分類が行われる。具体的な方法は後述する。そして、分類処理部205で分類された作業または動作の動きの分類について、分類結果判定部206にて分類の可否が判定され、分類結果判定部206での判定結果が分類結果記録部207に格納される。分類結果判定部206にて分類が全て終了した場合、分類結果208が出力される。一方、分類結果判定部206にて分類が全て終了していない場合、分類結果記録部207に記録された情報をもって、再び解析データ生成部202にて上記手順を繰り返すことで、分類結果208が出力される。
According to the moving body motion classification system of the present embodiment having such a configuration, in the
次に、学習フェーズにおける作業ならびに動作の自動分類システムの概要について図2を用いて説明する。
図2は本実施形態の移動体の動き分類システムの構成を示すブロック図である。同図において、図1と同じ参照符号は同じ構成要素を示す。同図に示す本実施形態の学習フェーズにおける動き分類システムにおいて、図1に示す認識フェーズにおける動き分類システムと異なる構成要素としては付帯情報記録部209及び分類器210である。付帯情報記録部209はデータに付帯した情報を記録する。付帯した情報とは、例えば動作を表すラベルである。分類器210は予め定められた閾値以上の精度を持つ分類器を出力するものである。そして、同図に示す分類処理部205は、特徴量算出部204で抽出された特徴と、付帯情報記録部209に記録されている情報を用いて作業または動作の動きの分類のための学習の処理を行う。分類結果判定部206は、分類処理部205で生成された分類器を、予め定められた閾値により分類器の可否の判定を行う。分類器210は予め定められた閾値以上の精度をもつ分類器である。ここで学習とは分類を行う機械学習のことである。例えば、サポートベクターマシンを用いて、作業または動作の識別関数を決めることで分類を行うことができる。
Next, an outline of an automatic classification system for work and actions in the learning phase will be described with reference to FIG.
FIG. 2 is a block diagram showing the configuration of the moving body motion classification system of this embodiment. In the figure, the same reference numerals as those in FIG. 1 denote the same components. In the motion classification system in the learning phase of the present embodiment shown in the figure, the constituent elements different from the motion classification system in the recognition phase shown in FIG. The incidental
具体的な処理方法は、例えば、入力データxi=(xi1,xi2,xi3,・・・,xin)tと作業または動作を表すラベルyi∈{+1,-1}の組を持つn組(nは正の整数)のデータ(x1 t,y1),(x2 t,y2),・・・,(xn t,yn)が与えられとする。 As a specific processing method, for example, input data x i = (x i1 , x i2 , x i3 ,..., X in ) t and a label y i ∈ {+ 1, −1} representing work or action Assume that data (x 1 t , y 1 ), (x 2 t , y 2 ),..., (X n t , y n ) of n sets (n is a positive integer) are provided.
2つのクラスに分類するための識別関数は、下記の式(1)で算出され、n組のデータから式(2)を満たすように一意に決定される。ここで、2つのクラスに分類することは1つのクラスとそのクラス以外のクラスとに分類することなどを意味し、クラスのとりうる数が2である2クラス分類、3以上である多クラス分類で区別している。 The discriminant function for classifying into two classes is calculated by the following formula (1), and is uniquely determined so as to satisfy formula (2) from n sets of data. Here, classifying into two classes means classifying into one class and a class other than that class, and the number of classes that can be taken is 2 class classification, multi-class classification with 3 or more It is distinguished by.
識別関数yi(xi tβ+b)≧1−ξi (1) Discriminant function y i (x i t β + b) ≧ 1−ξ i (1)
なお、bはしきい値、βは未知パラメータ、ξiはスラック変数とする。 Note that b is a threshold value, β is an unknown parameter, and ξ i is a slack variable.
制約条件 ξi≧0,yi(xi tβ+b)≧1−ξi,i=1,2,・・・,n
δは調整パラメータである。
Constraints ξ i ≧ 0, y i (x i t β + b) ≧ 1−ξ i , i = 1, 2,..., N
δ is an adjustment parameter.
なお、学習の手法は、線形判別やニューラルネットワークなどがあり、サポートベクターマシンに限るものではない。 Note that learning methods include linear discrimination and neural networks, and are not limited to support vector machines.
分類結果判定部206にて分類の学習の可否が判定され、分類結果記録部207に分類結果、例えば作業または動作の動き毎に、学習の可否並びにそれらの時間領域が格納される。そして、分類結果判定部206にて分類の学習がすべて終了した場合、分類器210が出力される。
The classification
一方、分類結果判定部206にて分類の学習が全て終了していない場合、分類結果記録部207に格納された情報をもって、再び解析データ生成部1202にて上記手順を繰り返すことで、分類器210が出力される。
On the other hand, if the classification
図3は学習フェーズと認識フェーズとの関係を示す図である。
図1及び図2は異なるフェーズにおけるシステムの概要を示すものであった場合、学習フェーズ400と認識フェーズ500の関係は先に学習フェーズ400を行い、学習フェーズ400が終了した後に認識フェーズ500へと移行する。
FIG. 3 is a diagram illustrating the relationship between the learning phase and the recognition phase.
1 and 2 show the outline of the system in different phases, the relationship between the
図4は学習フェーズと認識フェーズの入出力の概略を示す図である。同図において、学習フェーズ400は、センサ波形並びにセンサ波形に関係する付帯情報401が入力で、上記入力を図1の学習フェーズの分類システムにて、分析の対象としている作業または動作を分類することが可能な分類器402が出力となる。一方、認識フェーズ500は、センサ波形並びに学習フェーズの出力である分類器501が入力で、上記入力を図2の認識フェーズの分類システムにて、分類器を用いて分析の対象としている作業または動作の動きの特定と、その時間領域が分類結果502として出力される。
FIG. 4 is a diagram showing an outline of input and output in the learning phase and the recognition phase. In the same figure, a
図5は認識フェーズにおける作業ならびに動作の動きを分類する処理を示すフローチャートである。説明を容易にするため、分類を試みる作業ならびに動作の動きの種類が複数あり、移動体に取り付けられたセンサから、分類の対象とする全データが、通信手段によりホストPCに転送されている状態を想定する。また、予め決められた時間領域を「窓」とする。図5のフローチャートの処理を行う前に、窓のサイズと移動量ならびに正規化処理や特徴量算出の際に用いるパラメータを設定しておくこととする。 FIG. 5 is a flowchart showing a process of classifying work and movement of actions in the recognition phase. For ease of explanation, there are multiple types of work and motions that attempt classification, and all data to be classified is transferred from the sensor attached to the moving body to the host PC by communication means Is assumed. In addition, a predetermined time region is referred to as a “window”. Before performing the processing of the flowchart of FIG. 5, it is assumed that the window size and movement amount, and parameters used for normalization processing and feature amount calculation are set.
はじめに、波形取得部101から得られたデータ、例えば加速度データが通信部300を介して解析データ生成部202へ入力されると、作業ならびに動作の動きを分類する処理が開始され、ループが開始される(ステップS101)。波形取得部101から得られたデータ、例えば加速度のセンサ信号とその波形に対応するタイムスタンプを用いて、解析データ生成部202で入力されたデータを読み込む処理が行わる(ステップS102)。そして、解析データ生成部202で読み込まれたデータを用いて解析データ生成部202で記録する処理が行われ、波形記録部201に読み込まれたデータが格納される(ステップS103)。次に、解析データ生成部202で解析データを生成する処理が行われる(ステップS104)。そして、生成された解析データを用いて正規化処理部203で解析データを正規化する処理が行われる(ステップS105)。正規化された解析データを用いて、特徴量算出部204で特徴量、例えば各々の窓のサイズにおける平均や分散、周波数特性などが算出される処理が行われる(ステップS106)。次に、この特徴量を用いて分類処理部205で分類器210を用いて、作業または動作の動きの認識の処理が行われ、窓ごとに作業ならびに動作の動きの認識結果が出力される(ステップS107)。具体的には、窓ごとに作業ならびに動作の動きを行っていたと認識されるか否かが判定される。次に、窓ごとに判定された作業ならび動作の動きを用いて、分類結果判定部206で認識の結果の精度を示す値が下記の式(3)で算出される処理が行われ、算出された精度と予め設定された閾値との比較が行われ、算出された精度が閾値以上のときにフラグ1を、算出された精度が閾値未満のときにフラグの0が出力される。なお、上記出力は分類結果判定部206でフラグと時間を表すタイムスタンプと関連付けて分類結果記録部207に格納される(ステップS108)。
First, when data obtained from the
(精度)=(時間分解能)×(誤判定の個数) (3) (Accuracy) = (Time resolution) x (Number of misjudgments) (3)
分類結果判定部206から出力されたフラグを用いて、分類結果判定部206で分類の結果の状況、つまり分類の結果が予め設定された閾値以上の精度で解析の対象としている作業または動作が全て分類されたか否かが判定され、全ての時間領域に対してフラグの値が全て1のときは処理を終了する。全ての時間領域に対してフラグの値が全て1ではないときは分類結果判定部206で、分類したい作業または動作以外のデータが混入しているか否かが判定され、フラグの値が1である時間領域において、分類器で認識可能な作業または動作の動きが全て含まれているときは処理を終了する。分類器の認識可能な作業または動作の動きが全て含まれていないときはステップS101の処理へ移る。
By using the flag output from the classification
ステップS109からステップS101に移行された場合、ステップS101では解析データ生成部202にて波形記録部201ならびに分類結果記録部207に格納されているデータを読み込み、すでに分類が終了している時間領域に対して、センサ信号が加工される。センサ信号の加工とは、例えばフラグを用いて分類が終了していない時間領域だけをデータとして受け渡すことや、例えば分類が修了している時間領域に他のデータに影響がないような値、例えば0を代入することなどがある。
When the process proceeds from step S109 to step S101, in step S101, the analysis
ステップS108またはステップS109の出力結果、処理を終了するという結果を用いて分類結果判定部206で、作業または動作の動きを分類する処理が終了し、分類結果208、つまり予め定められた閾値以上の精度で分類された作業または動作の存在と、その時間領域が出力される。
The classification
図6は学習フェーズにおける作業ならびに動作の動きを分類する処理を示すフローチャートである。処理の概略は、認識フェーズにおける作業ならびに動作を分類する処理(ステップS201〜S204)である図5の処理フロー(ステップS101〜S104)と同様であるが、特徴量の算出を行うステップ205以降の処理が一部異なる。特徴量が抽出されると、分類処理部205にて付帯情報記録部208に格納されているデータが読み込まれる。そして、付帯情報が読み込まれると、分類処理部205にて付帯情報と抽出された特徴量を用いて分類器の生成が行われる(ステップS205、S206)。認識が行われると、分類結果判定部206にて分類器の性能を示す値、例えば下記の式(4)で算出されるF値が算出される。
FIG. 6 is a flowchart showing a process of classifying work and movement of actions in the learning phase. The outline of the process is the same as the process flow (steps S101 to S104) in FIG. 5 which is a process (steps S201 to S204) for classifying work and actions in the recognition phase. Processing is partially different. When the feature amount is extracted, the
算出された性能は、予め設定された閾値、例えばF値が0.8以上か未満かを判定し、閾値以上の場合はフラグに1を、閾値未満の場合はフラグに0が付与される。フラグが付与されると、分類結果記録部207にて算出されたフラグの結果が格納される。
The calculated performance is determined whether a preset threshold value, for example, an F value is 0.8 or less, and if it is equal to or greater than the threshold value, 1 is given to the flag, and 0 is given to the flag if it is less than the threshold value. When the flag is given, the result of the flag calculated by the classification
F値=2precision×recall/(precision)+(recall) (4)
ただし、precision=TP/(TP+FP) recall=TP/(TP+FN)
ここで、precisionとは、適合率のことである。recallとは、再現率のことである。TPとはTrue Positiveの略であり、真であるものを真と判定した数である。FPとはFalse Positiveの略であり、であるものを真と判断した数である。FNとはFalse Negativeの略であり、であるものを偽と判断した数である。
F value = 2precision × recall / (precision) + (recall) (4)
However, precision = TP / (TP + FP) recall = TP / (TP + FN)
Here, precision is the precision. Recall is a recall rate. TP is an abbreviation for True Positive, and is the number that is determined to be true. FP is an abbreviation for False Positive, and is a number that is determined to be true. FN is an abbreviation for False Negative, and is the number that is determined to be false.
上記(4)には含まれないが、同様のものでTNもあり、True Negativeの略で、真であるものを偽と判断した数である。
図6のステップS211において、解析の対象としているデータに対して、全てのフラグに1が付与されると、図2の分類器210が出力され、処理が終了される。
Although not included in the above (4), there is also the same TN, which is an abbreviation for True Negative.
In step S211 in FIG. 6, when 1 is assigned to all the flags for the data to be analyzed, the
図7は波形記録部に格納されるデータの一例を示す図である。同図において、格納されるデータは時刻ならびにセンサ信号である。そして、センサ信号は、加速度(図7の(a))や角速度(図7の(b))、あるいは加速度と角速度(図7の(c))であり、もしくは画像や音など他の情報を付加してもかまわない。例えば、移動体の動きに係る検出点にマーカーを付してそのマーカーを撮影することでマーカーの位置変化を検出し移動体の動きデータを取得する。取得した動きデータを本実施形態での分類処理の分類判定に利用して分類確率を上げることが可能となる。また、音データも同様に、動きにおける特有の音を計測して時系列における音データを本実施形態での分類処理の分類判定に利用して分類確率を上げることが可能となる。 FIG. 7 is a diagram illustrating an example of data stored in the waveform recording unit. In the figure, the data stored are time and sensor signals. The sensor signal is acceleration (FIG. 7 (a)) and angular velocity (FIG. 7 (b)), acceleration and angular velocity (FIG. 7 (c)), or other information such as images and sounds. It does not matter if it is added. For example, a marker is attached to a detection point related to the movement of the moving body and the marker is photographed to detect a change in the position of the marker and acquire movement data of the moving body. It is possible to increase the classification probability by using the acquired motion data for classification determination of the classification processing in the present embodiment. Similarly, for sound data, it is possible to measure sound peculiar to movement and use the sound data in time series for classification determination of the classification processing in this embodiment to increase the classification probability.
図8はフラグを用いて波形記録部に格納されるデータを更新したときデータを示す図である。図5に示す認識フェーズにおける作業並び動作の動きの分類の処理において、図8の(a)は図5のステップS101、S102での処理、つまり処理開始から波形データを読み込んだ後の格納されるデータを示し、図8の(b)は図5のステップS109で全ての時間領域に対してフラグの値が全て1ではないときの格納されるデータを示す。そして、この両図を比べると、図8の(a)に示すデータからは、未だ一度も作業または動作の動きの分類を実施していない状況であることがわかる。つまり、認識ができたことを示すフラグ1がどの時間領域でも格納されていない。一方、図8の(b)に示すデータからは、図5のステップS109の処理により一度分類を実施した状態である。つまり、認識できた作業または動作の動きの時間領域においてフラグ1が格納されている。このように、図5のステップS109の処理を通して既に分類された時間領域の情報はフラグを用いて更新されている。
FIG. 8 is a diagram showing data when the data stored in the waveform recording unit is updated using a flag. In the work classification operation classification process in the recognition phase shown in FIG. 5, (a) in FIG. 8 is stored after the processing in steps S101 and S102 in FIG. FIG. 8B shows data stored when the flag values are not all 1 for all time regions in step S109 of FIG. Then, comparing these two figures, it can be seen from the data shown in FIG. 8A that the classification of the movement of the work or action has not yet been performed. That is, the
図9は波形記録部に格納されるデータを更新するために値を代入する方法を用いたときのデータを示す図である。図8に示すデータと異なる点は、既に認識された時間領域の情報がフラグではなく、予め決められた値を代入する方法を用いている点である。図9の(a)は図5のステップS101、S102での処理、つまり処理開始から波形データを読み込んだ後の格納されるデータを示し、図9の(b)は図5のステップS109で全ての時間領域に対してフラグの値が全て1ではないときの格納されるデータを示す。そして、この両図を比べると、図9の(a)に示すデータからは、未だ一度も作業または動作の動きの分類を実施していない状況であることがわかる。つまり、加速度データの値には計測された値が格納されている。一方、図9の(b)に示すデータからは、図5のステップS109の処理により一度分類を実施した状態である。つまり、すでに認識が完了した時間領域における加速度の値は、予め決められた値、例えば0が入力されている。この入力される値は、認識が完了していない時間領域の値に影響がでないような値であれば0でなくてもよく、むしろセンサの値と照らし合わせて検討することが望ましい。 FIG. 9 is a diagram showing data when a method of substituting values for updating the data stored in the waveform recording unit. The difference from the data shown in FIG. 8 is that the time domain information that has already been recognized is not a flag but a method of substituting a predetermined value. 9A shows the data stored after the waveform data is read from the start of the processing in steps S101 and S102 in FIG. 5, that is, FIG. 9B is the entire data in step S109 in FIG. The stored data when the flag values are not all 1 in the time domain of FIG. Then, comparing these two figures, it can be seen from the data shown in FIG. 9A that the classification of the movement of the work or action has not yet been performed. That is, the measured value is stored in the acceleration data value. On the other hand, the data shown in (b) of FIG. 9 is in a state where classification is performed once by the process of step S109 of FIG. That is, a predetermined value, for example, 0 is input as the acceleration value in the time domain in which recognition has already been completed. The input value does not have to be 0 as long as it does not affect the value in the time domain in which recognition is not completed, but it is desirable to examine it against the sensor value.
図10は分類結果記録部に格納されるデータを示す図である。同図において、ここでは説明のため、4つの動作(A、B、C、D)について分類を行う場合を考える。全ての動作の分類を行うためには図5の処理を何度か繰り返し行う必要がある。ここでは、2回繰り返しで全ての動作の分類が完了した場合を考える。1度目の処理で分類できる動作は動作Cと動作D、2度目の処理で分類が完了する動作は動作Aと動作Bとする。図10の(a)は1度目の処理が行われた際の図1の分類結果記録部207に格納されたデータを表したものである。1度目の処理では、動作Cと動作Dが認識され、動作Aと動作Bは認識されていない状況である。この場合、分類結果記憶部207に格納されるデータは、動作Cと動作Dについて、その動作が行われた時間領域にフラグ1を格納したものになる。一方、図10の(b)は2度目の処理が行われた際の図1の分類結果記録部207に格納されたデータを表したものである。2度目の処理では、1度目の処理で既に認識された動作Cと動作Dについては分類を行わず、まだ分類されていない動作Aと動作Bについてのみ分類を行う。2度目の処理において動作Aと動作Bについて分類を試みた結果両動作の認識が完了した場合、分類結果記録部207は1度目の処理の結果に対して両動作が認識された時間領域にフラグ1が格納し、データの更新が行われる。
FIG. 10 is a diagram showing data stored in the classification result recording unit. In the figure, for the sake of explanation, consider a case where classification is performed for four operations (A, B, C, D). In order to classify all the operations, it is necessary to repeat the process of FIG. 5 several times. Here, consider a case where the classification of all the operations is completed by repeating twice. The operations that can be classified by the first process are operations C and D, and the operations that are classified by the second process are operations A and B. FIG. 10A shows the data stored in the classification
図11は付帯情報記録部に格納されるデータのフェーズによる違いについて説明する図である。付帯情報記録部に格納されるデータには、時刻及びフラグ、並びに動作または作業の種類を示すラベルが付される。これにより、格納されたデータが時系列における変化する動作または作業のどの種類かがわかるようになる。 FIG. 11 is a diagram for explaining a difference depending on a phase of data stored in the incidental information recording unit. Data stored in the incidental information recording unit is attached with a time and flag, and a label indicating the type of operation or work. As a result, it becomes possible to know which kind of operation or work the stored data changes in time series.
図12は具体的な正規化処理のセンサ信号の波形図である。図5のステップS101〜S103の処理を行った後にステップS104で正規化処理を行う様子について説明する。ここでは、分析の対象を動作A、B、C、Dの4動作とし、その正規化処理から動作分類までの処理の流れを説明する。なお、動作A、動作B、動作C、動作Dは、連続して行われる動作であり、動作が行われる順は、A→B→C→Dである。また、動作C、Dは動作A、Bに比べて、大きな動きを伴う動作であるとする。用いたセンサ信号は加速度とする。図12の(a)は図5のステップS102へ移行した後の生成される解析データのステップS103の時に得られるセンサ信号である。図12中の太い実線は、動作または作業の変化点を表している。この例では、分析の対象となる作業または動作は全部で4つある。説明のため、左から動作A、動作B、動作C、動作Dとする。4つの動作を比較すると、動作Cと動作Dは動作Aと動作Bに比べて加速度センサ信号の変化量が大きいため、移動体は比較的大きな動きをしていると考えられる。一方、動作Aと動作Bは加速度センサ信号の変化量が動作Cと動作Dに比べて小さいため、移動体は比較的小さな動きをしていると考えられる。図12の(b)は、図12の(a)を正規化したステップS104の処理で得られるセンサ信号である。説明のためにここでは加速度センサ信号を1軸だけ取り出した場合を考える。ここでの正規化処理は、ローパスフィルタを通した後、全時間領域でのセンサ信号の絶対値の最大値を基準として加速度センサ信号を算出したものである。上記の正規化処理されたデータは、時刻tのときのセンサの値をxtとすると下記の式(5)で算出される。 FIG. 12 is a waveform diagram of a sensor signal for a specific normalization process. A state in which the normalization process is performed in step S104 after the processes of steps S101 to S103 in FIG. 5 are performed will be described. Here, the analysis target is four actions A, B, C, and D, and the flow of processing from the normalization process to the action classification will be described. The operation A, the operation B, the operation C, and the operation D are operations performed continuously, and the order in which the operations are performed is A → B → C → D. Further, it is assumed that the operations C and D are operations accompanied by a large movement compared to the operations A and B. The sensor signal used is acceleration. (A) of FIG. 12 is a sensor signal obtained at the time of step S103 of the analysis data generated after moving to step S102 of FIG. A thick solid line in FIG. 12 represents a change point of operation or work. In this example, there are a total of four tasks or operations to be analyzed. For the sake of explanation, it is assumed that operation A, operation B, operation C, and operation D are performed from the left. Comparing the four operations, since the change amount of the acceleration sensor signal is larger in the operation C and the operation D than in the operation A and the operation B, it is considered that the moving body is relatively moving. On the other hand, since the change amount of the acceleration sensor signal is smaller in the motion A and the motion B than in the motion C and the motion D, it is considered that the moving body moves relatively little. (B) in FIG. 12 is a sensor signal obtained by the process of step S104 obtained by normalizing (a) in FIG. For the sake of explanation, consider the case where only one axis of the acceleration sensor signal is extracted. In this normalization process, after passing through a low-pass filter, the acceleration sensor signal is calculated with reference to the maximum absolute value of the sensor signal in the entire time domain. The normalized data is calculated by the following equation (5), where x t is the sensor value at time t.
なお、正規化の方法はさまざまである。上記式(5)の他には波形記録部201に格納されるデータの更新が図9のように値を代入する場合には、下記に示す方法を用いることも可能である。正規化処理されたデータは、全時間領域におけるセンサの値の平均をμ、標準偏差をσとし、時刻tにおける正規化された値xt’を下記の式(6)で算出される。
There are various normalization methods. In addition to the above equation (5), when the data stored in the
xt’=(xt−μ)/σ (6) xt ′ = (xt−μ) / σ (6)
図12の(b)からわかることは、動作Cと動作Dは正規化前の波形に現れるセンサ信号の変化量を捕らえているが、動作Aと動作Bは動作Cと動作Dに比べてセンサ信号の変化量が相対的に小さいために、センサ信号の値がほぼ横ばいとなり、特徴が消えてしまっている時間領域が存在することである。よって、図12の(b)のセンサ信号を用いて図5のステップS106以降の処理を行うと、動作Cと動作Dは動作の認識率が閾値より高い値をとるため、動作の分類を行うことができるが、動作Aと動作Bは動作の認識率が閾値より低い値をとるため、動作の分類を行うことができない。 As can be seen from FIG. 12B, the motion C and motion D capture the amount of change in the sensor signal that appears in the waveform before normalization, but the motion A and motion B are sensors compared to the motion C and motion D. Since the change amount of the signal is relatively small, there is a time region in which the value of the sensor signal becomes almost flat and the feature disappears. Therefore, when the processing after step S106 in FIG. 5 is performed using the sensor signal of FIG. 12B, the motion C and the motion D have a motion recognition rate higher than the threshold value, and therefore the motion is classified. However, since the motion recognition rate of the motion A and motion B is lower than the threshold value, the motion classification cannot be performed.
図13は全作業/動作のフラグ判断後の波形データの読み込み後に正規化処理を行う様子をについて説明する図である。図13の(a)は図5のステップS109からステップS101へ移行した後に、ステップS103で生成されるセンサ信号である。図13の(b)は図5のステップS109からステップS101へ移行した後に、ステップS104で正規化処理を行った後のセンサ信号である。図13の(a)では、図5のステップS103で生成される解析データが、既に分類されている時間領域、つまり動作Cと動作Dの時間領域はセンサ信号の値に0が代入される様子を示している。ここでは、既に分類されている時間領域にセンサ信号の値を0としているが、センサ信号に0を代入せずに、分類済みの領域についてフラグを用いて判断し、後術の処理において、処理を行う領域と行わない領域を用意する形でもよい。 FIG. 13 is a diagram illustrating a state in which normalization processing is performed after waveform data is read after determination of all work / operation flags. FIG. 13A shows a sensor signal generated in step S103 after the process proceeds from step S109 to step S101 in FIG. FIG. 13B shows a sensor signal after the normalization process is performed in step S104 after the process proceeds from step S109 to step S101 in FIG. In FIG. 13A, in the time domain in which the analysis data generated in step S103 in FIG. 5 has already been classified, that is, the time domain of operation C and operation D, 0 is substituted for the value of the sensor signal. Is shown. Here, the value of the sensor signal is set to 0 in the already classified time domain. However, without substituting 0 for the sensor signal, the classified area is determined using a flag, It is also possible to prepare a region for performing and a region for not performing.
図13の(b)では、図5のステップS103で生成される解析データをSステップS104で正規化処理を行ったセンサ信号の様子を示している。ここでの正規化処理は、図12にて用いた正規化処理の式を用いて正規化した。図13の(b)と図12の(b)を比較すると、図12の(b)では相対的に大きな動作である動作Cと動作Dによってかき消されていた動作Aと動作Bのセンサ信号の特徴が、図13の(b)では相対的に大きな動作である動作Cと動作Dの時間領域にセンサ信号を0としたために、相対的に小さな値でも特徴が残っていることがわかる。 FIG. 13B shows the state of the sensor signal obtained by normalizing the analysis data generated in step S103 in FIG. 5 in step S104. The normalization processing here is normalized using the normalization processing formula used in FIG. 13 (b) and FIG. 12 (b) are compared. In FIG. 12 (b), the sensor signals of the operation A and the operation B that have been drowned out by the operations C and D, which are relatively large operations, are compared. In FIG. 13B, since the sensor signal is set to 0 in the time domain of operations C and D, which are relatively large operations in FIG. 13B, it can be seen that the features remain even with relatively small values.
よって、図13の(b)のセンサ信号を用いて図5の処理を行うと、認識率が閾値より低い値をとるために動作の分類が行えなかった動作Aと動作Bも、閾値よりも高い認識率を算出することができ、分類が可能となる。このように、相対的に小さな動きは、正規化と認識の処理を1度しか行わない場合は、認識率が低くなることから動作ならびに作業の分類を行うことはできないが、領域を分けて正規化と認識の処理を複数回繰り返すことで、認識率が低くなりがちな動作ならびに作業についても精度よく、分類することが可能となる。 Therefore, when the processing of FIG. 5 is performed using the sensor signal of FIG. 13B, the operation A and the operation B in which the operation classification cannot be performed because the recognition rate is lower than the threshold are also lower than the threshold. A high recognition rate can be calculated, and classification becomes possible. In this way, relatively small movements cannot be classified into actions and tasks because the recognition rate is low if normalization and recognition processing are performed only once, but normalization is performed by dividing the area. By repeating the process of recognition and recognition a plurality of times, it becomes possible to accurately classify operations and operations that tend to have a low recognition rate.
以上に説明したものは一例であり、本発明は、次の態様毎に特有の効果を奏する。
(態様A)
正規化データ生成工程により正規化データを生成し、当該正規化データから移動体の動きの特徴量を特徴量算出工程により算出する。そして、算出された特徴量と予め計測した移動体の各動きに対する各分類用特徴量とを比較して所定の特徴量に類似する移動体の動きに分類処理工程を行う。そして、分類されなかった移動体の動きに対する解析データについて正規化データ生成工程によりあらためて解析データの平均値から正規化データを生成する。正規化データから特徴量を特徴量算出工程により算出し、当該特徴量に基づいて分類処理工程を行う。これらの一連の工程を複数回繰り返す。これによれば、上記実施形態について説明したように、認識率が低くなる傾向がある移動体の動きを分類され易くする。
(態様B)
(態様A)において、正規化データ生成工程における正規化データの生成は、線形変換を用いている。これによれば、上記実施形態について説明したように、認識率が低くなる傾向がある移動体の動きを分類できる。
(態様C)
(態様A)において、正規化データ生成工程では全時間領域でのセンサのセンサ信号の絶対値の最大値を基準としてセンサ信号を正規化する。これによれば、上記実施形態について説明したように、認識率が低くなる傾向がある移動体の動きを分類され易くする。
(態様D)
(態様A)において、正規化データ生成工程では全時間領域におけるセンサの値の分散を用いて正規化する。これによれば、上記実施形態について説明したように、認識率が低くなる傾向がある移動体の動きを分類され易くする。
(態様E)
(態様A)において、正規化データ生成工程では全時間領域におけるセンサの値の平均を用いて正規化する。これによれば、上記実施形態について説明したように、認識率が低くなる傾向がある移動体の動きを分類され易くする。
(態様F)
(態様A)において、計測部から得られるデータは移動体の特徴を表すデータである。そのデータは加速度、角速度、又は加速度と角速度の両方を用いている。これによれば、上記実施形態について説明したように、認識率が低くなる傾向がある移動体の動きを分類され易くする。
(態様G)
特徴量算出部で算出された特徴量を時間領域ごとに分類し、分類結果で時間領域に分類されなかった特徴量に対して再び正規化データ生成部で正規化データを生成する。そして、特徴量算出部は正規化データ生成部によって生成された正規化データから特徴量を算出し、分類処理部で当該特徴量と予め計測した移動体の各動きに対する各分類用特徴量とを比較して移動体の動きを分類することを、複数回繰り返す。これによれば、上記実施形態について説明したように、認識率が低くなる傾向がある移動体の動きを分類され易くする。
What has been described above is merely an example, and the present invention has a specific effect for each of the following modes.
(Aspect A)
Normalized data is generated by the normalized data generating step, and the feature quantity of the moving body is calculated from the normalized data by the feature quantity calculating step. Then, the classification process step is performed on the movement of the moving body similar to the predetermined feature amount by comparing the calculated feature amount with the classification feature amount for each movement of the moving body measured in advance. Then, normalized data is generated from the average value of the analysis data again by the normalized data generation step for the analysis data for the movement of the moving object that has not been classified. A feature amount is calculated from the normalized data by a feature amount calculation step, and a classification process step is performed based on the feature amount. These series of steps are repeated a plurality of times. According to this, as described in the above embodiment, the movement of a moving body that tends to have a low recognition rate is easily classified.
(Aspect B)
(Aspect A), generates normalized data in the normalized data generating step uses a linear conversion. According to this, as described in the above embodiment, it is possible to classify the movement of a moving body that tends to have a low recognition rate.
(Aspect C)
In (Aspect A), in the normalized data generation step, the sensor signal is normalized based on the maximum absolute value of the sensor signal of the sensor in the entire time domain. According to this, as described in the above embodiment, the movement of a moving body that tends to have a low recognition rate is easily classified.
(Aspect D)
In (Aspect A), in the normalized data generation step, normalization is performed using the variance of sensor values in the entire time domain. According to this, as described in the above embodiment, the movement of a moving body that tends to have a low recognition rate is easily classified.
(Aspect E)
In (Aspect A), in the normalized data generation step, normalization is performed using an average of sensor values in the entire time region. According to this, as described in the above embodiment, the movement of a moving body that tends to have a low recognition rate is easily classified.
(Aspect F)
In (Aspect A), the data obtained from the measurement unit is data representing the characteristics of the moving object. The data uses acceleration, angular velocity, or both acceleration and angular velocity. According to this, as described in the above embodiment, the movement of a moving body that tends to have a low recognition rate is easily classified.
(Aspect G)
The feature amounts calculated by the feature amount calculation unit are classified for each time domain, and normalized data is generated again by the normalized data generation unit for the feature amounts that are not classified into the time region by the classification result. Then, the feature amount calculation unit calculates the feature amount from the normalized data generated by the normalized data generation unit, and the classification processing unit calculates the feature amount and each classification feature amount for each movement of the moving body measured in advance. The comparison of classifying the movement of the moving object is repeated a plurality of times. According to this, as described in the above embodiment, the movement of a moving body that tends to have a low recognition rate is easily classified.
100 計測部
101 波形取得部
102 センサ
103 移動体
200 情報処理部
201 波形記録部
202 解析データ生成部
203 正規化処理部
204 特徴量算出部
205 分類処理部
206 分類結果判定部
207 分類結果記憶部
208 分類結果
209 付帯情報記録部
210 分類器
300 通信部
400 学習フェーズ
500 認識フェーズ
DESCRIPTION OF
Claims (10)
前記情報処理部によって、
前記計測部で得られた動き変化データから解析データを生成する解析データ生成工程と、
前記解析データの平均値から正規化データを生成する正規化データ生成工程と、
前記正規化データから前記移動体の動きの特徴量を算出する特徴量算出工程と、
前記特徴量と、予め計測した移動体の各動きに対する各分類用特徴量とを比較して、所定の特徴量に類似する移動体の動きに分類する分類処理工程と、を有し、
前記分類処理工程で、分類されなかった移動体の動きに対する前記解析データについて、前記正規化データ生成工程によりあらためて前記解析データの平均値から正規化データを生成し、前記特徴量算出工程により、当該正規化データから特徴量を算出し、前記分類処理工程により当該特徴量に基づいて、前記移動体の動きを分類する一連の工程を複数回繰り返すことを特徴とする移動体の動き分類方法。 A mobile unit that classifies movements of the mobile body, comprising: a measurement unit that measures motion change data associated with the movement of the mobile body to which the sensor is attached; and an information processing unit that processes the motion change data measured by the measurement unit. In the motion classification method,
By the information processing unit,
An analysis data generation step of generating analysis data from the motion change data obtained by the measurement unit;
A normalized data generation step of generating normalized data from the average value of the analysis data;
A feature amount calculating step of calculating a feature amount of the movement of the moving object from the normalized data;
A classification processing step of comparing the feature quantity with each classification feature quantity for each movement of the mobile body measured in advance and classifying the movement quantity of the mobile body similar to the predetermined feature quantity,
In the classification processing step, for the analysis data for the movement of the moving body that has not been classified, the normalized data generation step regenerates normalized data from the average value of the analysis data, and the feature amount calculation step A moving body motion classification method characterized in that a feature amount is calculated from normalized data, and a series of steps of classifying the movement of the moving body based on the feature amount in the classification processing step is repeated a plurality of times.
前記正規化データ生成工程における正規化データの生成は、線形変換を用いることを特徴とする移動体の動き分類方法。 The method for classifying a moving body according to claim 1,
Generating normalized data in the normalized data generation step, the motion classification method of the moving object, which comprises using a linear conversion.
前記正規化データ生成工程では、全時間領域での前記センサのセンサ信号の絶対値の最大値を基準としてセンサ信号を正規化することを特徴とする移動体の動き分類方法。 The method for classifying a moving body according to claim 1,
In the normalized data generation step, the sensor signal is normalized on the basis of the maximum absolute value of the sensor signal of the sensor in the entire time domain, and the moving object motion classification method is characterized.
前記正規化データ生成工程では、全時間領域における前記センサの値の分散を用いて正規化することを特徴とする移動体の動き分類方法。 The method for classifying a moving body according to claim 1,
In the normalized data generation step, normalization is performed using variance of the sensor values in the entire time domain, and the moving object motion classification method is characterized in that:
前記正規化データ生成工程では、全時間領域における前記センサの値の平均を用いて正規化することを特徴とする移動体の動き分類方法。 The method for classifying a moving body according to claim 1,
In the normalized data generation step, normalization is performed using an average of the sensor values in the entire time domain, and the moving object motion classification method is characterized in that:
前記計測部から得られるデータは、移動体の特徴を表すデータであることを特徴とする移動体の動き分類方法。 The method for classifying a moving body according to claim 1,
The data obtained from the measurement unit is data representing the characteristics of a moving object.
前記計測部から得られるデータは、加速度を用いていることを特徴とする移動体の動き分類方法。 The method of classifying a moving body according to claim 6,
The data obtained from the measurement unit uses acceleration, and is a moving body motion classification method.
前記計測部から得られるデータは、角速度を用いていることを特徴とする移動体の動き分類方法。 The method of classifying a moving body according to claim 6,
The data obtained from the measurement unit uses an angular velocity, and is a moving body motion classification method.
前記計測部から得られるデータは、加速度と角速度の両方を用いていることを特徴とする移動体の動き分類方法。 The method of classifying a moving body according to claim 6,
The data obtained from the measurement unit uses both acceleration and angular velocity, and is a moving body motion classification method.
前記情報処理部は、
前記計測部で得られ前記通信部を介して受信した動き変化データから解析データを生成する解析データ生成部と、
前記動き変化データを記録する波形記録部と、
前記解析データの平均値から正規化データを生成する正規化データ生成部と、
前記正規化データから前記移動体の動きの特徴量を所定の時間領域毎に算出する特徴量算出部と、
前記特徴量と、予め計測した移動体の各動きに対する各分類用特徴量とを比較して、所定の特徴量に類似する移動体の動きに分類する分類処理部と、を備え、
前記分類処理部で、分類されなかった移動体の動きに対する前記解析データについて、前記正規化データ生成部によりあらためて前記解析データの平均値から正規化データを生成し、前記特徴量算出部により、当該正規化データから特徴量を算出し、前記分類処理部により当該特徴量に基づいて、前記移動体の動きを分類する一連の工程を複数回繰り返すことを特徴とする移動体の動き分類システム。 Between a measurement unit that measures movement change data associated with the movement of a moving body to which a sensor is attached, an information processing unit that processes movement change data measured by the measurement unit, and between the measurement unit and the information processing unit A mobile body movement classification system for classifying the movement of a mobile body, including a communication unit that transmits and receives data;
The information processing unit
An analysis data generation unit that generates analysis data from motion change data obtained by the measurement unit and received via the communication unit;
A waveform recording unit for recording the movement change data;
A normalized data generation unit that generates normalized data from the average value of the analysis data;
A feature amount calculating unit that calculates a feature amount of the movement of the moving object for each predetermined time region from the normalized data;
A classification processing unit that compares the feature amount with each classification feature amount for each movement of the moving body measured in advance and classifies the movement amount of the moving body similar to the predetermined feature amount;
For the analysis data for the movement of the moving object that has not been classified by the classification processing unit, the normalized data generation unit regenerates normalized data from the average value of the analysis data, and the feature amount calculation unit A moving body motion classification system, wherein a feature amount is calculated from normalized data, and a series of steps of classifying the movement of the moving body based on the feature amount by the classification processing unit is repeated a plurality of times.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011235809A JP5874963B2 (en) | 2011-07-07 | 2011-10-27 | Moving body motion classification method and moving body motion classification system |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011150806 | 2011-07-07 | ||
JP2011150806 | 2011-07-07 | ||
JP2011235809A JP5874963B2 (en) | 2011-07-07 | 2011-10-27 | Moving body motion classification method and moving body motion classification system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013031625A JP2013031625A (en) | 2013-02-14 |
JP5874963B2 true JP5874963B2 (en) | 2016-03-02 |
Family
ID=47788036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011235809A Expired - Fee Related JP5874963B2 (en) | 2011-07-07 | 2011-10-27 | Moving body motion classification method and moving body motion classification system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5874963B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101417719B1 (en) | 2014-04-15 | 2014-07-09 | 인하대학교 산학협력단 | Method and apparatus for analyzing motion context |
JP6975952B2 (en) * | 2016-07-08 | 2021-12-01 | 国立大学法人岩手大学 | Living body motion identification system and living body motion identification method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4404838B2 (en) * | 2005-10-27 | 2010-01-27 | 財団法人くまもとテクノ産業財団 | Condition analysis device |
JP4992043B2 (en) * | 2007-08-13 | 2012-08-08 | 株式会社国際電気通信基礎技術研究所 | Action identification device, action identification system, and action identification method |
JP2010207488A (en) * | 2009-03-12 | 2010-09-24 | Gifu Univ | Behavior analyzing device and program |
JP5534163B2 (en) * | 2009-12-09 | 2014-06-25 | 日本電気株式会社 | Action determination device, action determination system, action determination method, and program |
-
2011
- 2011-10-27 JP JP2011235809A patent/JP5874963B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013031625A (en) | 2013-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020194497A1 (en) | Information processing device, personal identification device, information processing method, and storage medium | |
JP6570786B2 (en) | Motion learning device, skill discrimination device, and skill discrimination system | |
JP6688962B2 (en) | Judgment device, judgment method, and judgment program | |
JP6848546B2 (en) | Change point detection device and change point detection method | |
CN110533166B (en) | Indoor positioning method based on time-space fusion characteristics | |
JP2016191975A (en) | Machine learning apparatus | |
Mokhtari et al. | Fall detection in smart home environments using UWB sensors and unsupervised change detection | |
US11380133B2 (en) | Domain adaptation-based object recognition apparatus and method | |
KR102314824B1 (en) | Acoustic event detection method based on deep learning | |
JP5776694B2 (en) | Learning apparatus, learning system, learning method, and learning program for object identification | |
JP6812076B2 (en) | Gesture recognition device and gesture recognition program | |
US9177215B2 (en) | Sparse representation for dynamic sensor networks | |
JP5874963B2 (en) | Moving body motion classification method and moving body motion classification system | |
JP2007280219A (en) | Motion pattern recognition device, motion pattern recognition method, and motion pattern recognition program | |
CN117104377B (en) | Intelligent management system and method for electric bicycle | |
JP6935655B2 (en) | Signal analysis systems, methods and programs | |
JP7072765B2 (en) | Image processing device, image recognition device, image processing program, and image recognition program | |
JP2016224821A (en) | Learning device, control method of learning device, and program | |
Biradar et al. | Fingerprint ridge orientation extraction: a review of state of the art techniques | |
KR20200124887A (en) | Method and Apparatus for Creating Labeling Model with Data Programming | |
WO2022049704A1 (en) | Information processing system, information processing method, and computer program | |
KR20210031444A (en) | Method and Apparatus for Creating Labeling Model with Data Programming | |
JP2024519620A (en) | Dementia patient tracking device and method | |
KR101094433B1 (en) | Method for identifying image face and system thereof | |
Kwak et al. | Human action classification and unusual action recognition algorithm for intelligent surveillance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141003 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150814 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151002 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160107 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5874963 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |