JP2009245176A - Motion recognition device - Google Patents

Motion recognition device Download PDF

Info

Publication number
JP2009245176A
JP2009245176A JP2008091236A JP2008091236A JP2009245176A JP 2009245176 A JP2009245176 A JP 2009245176A JP 2008091236 A JP2008091236 A JP 2008091236A JP 2008091236 A JP2008091236 A JP 2008091236A JP 2009245176 A JP2009245176 A JP 2009245176A
Authority
JP
Japan
Prior art keywords
motion
detection unit
axial direction
acceleration
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008091236A
Other languages
Japanese (ja)
Inventor
Shogo Yoneyama
昇吾 米山
Hiroyasu Miyahara
景泰 宮原
Hiroyuki Washino
浩之 鷲野
Takenori Kawamata
武典 川又
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2008091236A priority Critical patent/JP2009245176A/en
Publication of JP2009245176A publication Critical patent/JP2009245176A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately recognize motion without falsely recognizing vibration and the like due to carrying of a recognition object device as motion even when motion of small movement is a recognition object. <P>SOLUTION: A motion recognition device is provided with an axial direction detection unit 3 for detecting an axial direction in which a user is likely to be moving along his intended operation based on a feature point of acceleration in each axial direction, and a feature amount detection unit 4 for detecting a feature amount of axial acceleration detected with the axial direction detection unit 3. A motion verification unit 5 analyzes the feature amount detected with the feature amount detection unit 4 and verifies whether or not the axial movement detected with the axial direction detection unit 3 is the movement along the operation intended by the user. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、ユーザが意図する操作に伴う動き(モーション)を認識するモーション認識装置に関するものである。   The present invention relates to a motion recognition apparatus that recognizes a motion (motion) associated with an operation intended by a user.

従来のモーション認識装置では、ユーザが意図する操作に伴う動きであるのか、持ち運びによる振動などに起因する動きであるのかを判定するために、識別対象装置(例えば、携帯電話機)の加速度を測定し、その加速度を所定の閾値と比較するようにしている。
モーション認識装置は、加速度が所定の閾値を上回る場合、ユーザが意図する操作に伴う動きが発生していると判断する(例えば、特許文献1を参照)。
In a conventional motion recognition device, the acceleration of an identification target device (for example, a mobile phone) is measured in order to determine whether the motion is due to an operation intended by the user or due to vibration caused by carrying. The acceleration is compared with a predetermined threshold value.
When the acceleration exceeds a predetermined threshold value, the motion recognition device determines that a motion associated with an operation intended by the user is occurring (see, for example, Patent Document 1).

特開2005−149190号公報(段落番号[0002]、図2)Japanese Patent Laying-Open No. 2005-149190 (paragraph number [0002], FIG. 2)

従来のモーション認識装置は以上のように構成されているので、識別対象装置の加速度が所定の閾値を上回る場合には、ユーザが意図する操作に伴う動きが発生していると判断する。しかし、動きが小さいモーションを認識対象とする場合、閾値を低く設定しなければならず、識別対象装置の持ち運びによる振動などを誤ってモーションとして認識してしまうことがあるなどの課題があった。   Since the conventional motion recognition apparatus is configured as described above, when the acceleration of the identification target apparatus exceeds a predetermined threshold, it is determined that a movement associated with an operation intended by the user has occurred. However, when a motion with small motion is set as a recognition target, there is a problem that a threshold value must be set low, and vibrations caused by carrying the identification target device may be erroneously recognized as motion.

この発明は上記のような課題を解決するためになされたもので、動きが小さいモーションを認識対象とする場合でも、識別対象装置の持ち運びによる振動などをモーションと誤認識することなく、正確にモーションを認識することができるモーション認識装置を得ることを目的とする。   The present invention has been made to solve the above-described problems. Even when a motion with a small motion is a recognition target, the motion is accurately detected without erroneously recognizing vibration caused by carrying the identification target device as a motion. An object of the present invention is to obtain a motion recognition device capable of recognizing.

この発明に係るモーション認識装置は、加速度検出手段により検出された各軸方向の加速度の特徴点を検出する特徴点検出手段と、特徴点検出手段により検出された特徴点に基づいて、ユーザが意図する操作に伴って動いている可能性がある軸方向を検出する軸方向検出手段と、軸方向検出手段により検出された軸方向の加速度の特徴量を検出する特徴量検出手段とを設け、検証手段が特徴量検出手段により検出された特徴量を解析して、軸方向検出手段により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証するようにしたものである。   The motion recognition apparatus according to the present invention includes a feature point detection unit that detects a feature point of acceleration in each axis direction detected by the acceleration detection unit, and a user's intention based on the feature point detected by the feature point detection unit. An axial direction detecting means for detecting an axial direction that may move in accordance with an operation to be performed, and a feature amount detecting means for detecting the feature quantity of the axial acceleration detected by the axial direction detecting means are provided for verification. The means analyzes the feature quantity detected by the feature quantity detection means, and verifies whether or not the axial movement detected by the axial direction detection means is a movement accompanying an operation intended by the user. Is.

この発明によれば、加速度検出手段により検出された各軸方向の加速度の特徴点を検出する特徴点検出手段と、特徴点検出手段により検出された特徴点に基づいて、ユーザが意図する操作に伴って動いている可能性がある軸方向を検出する軸方向検出手段と、軸方向検出手段により検出された軸方向の加速度の特徴量を検出する特徴量検出手段とを設け、検証手段が特徴量検出手段により検出された特徴量を解析して、軸方向検出手段により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証するように構成したので、動きが小さいモーションを認識対象とする場合でも、識別対象装置の持ち運びによる振動などをモーションと誤認識することなく、正確にモーションを認識することができる効果がある。   According to the present invention, the feature point detecting means for detecting the feature point of the acceleration in each axial direction detected by the acceleration detecting means, and the operation intended by the user based on the feature point detected by the feature point detecting means. A verification unit is provided with an axial direction detection unit that detects an axial direction that may be moving along with the feature amount detection unit that detects a feature amount of the axial acceleration detected by the axial direction detection unit. Since the feature amount detected by the amount detection unit is analyzed, the axial movement detected by the axial direction detection unit is configured to verify whether or not the movement accompanying the operation intended by the user is verified. Even when a motion with small motion is set as a recognition target, there is an effect that the motion can be accurately recognized without erroneously recognizing vibration caused by carrying the identification target device as motion.

実施の形態1.
図1はこの発明の実施の形態1によるモーション認識装置を示す構成図であり、図において、加速度検出部1は例えば3軸加速度センサを用いて構成されており、動作を識別する識別対象装置(例えば、携帯電話機、モバイルPC)の軸毎に、3次元空間で発生する軸方向の加速度を検出する処理を実施する。なお、加速度検出部1は加速度検出手段を構成している。
特徴点検出部2は加速度検出部1により検出された各軸方向の加速度の時間的変化を解析して、各軸方向の加速度の特徴点である極大点及び極小点を検出する処理を実施する。
なお、特徴点検出部2は特徴点検出手段を構成している。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a motion recognition apparatus according to Embodiment 1 of the present invention. In the figure, an acceleration detection unit 1 is configured by using, for example, a three-axis acceleration sensor, and an identification target apparatus ( For example, for each axis of a mobile phone or a mobile PC, processing for detecting an axial acceleration generated in a three-dimensional space is performed. The acceleration detector 1 constitutes an acceleration detection means.
The feature point detection unit 2 analyzes the temporal change of the acceleration in each axis direction detected by the acceleration detection unit 1, and performs processing for detecting the maximum point and the minimum point that are the feature points of the acceleration in each axis direction. .
The feature point detection unit 2 constitutes feature point detection means.

軸方向検出部3は特徴点検出部2により検出された特徴点に基づいて、ユーザが意図する操作に伴って動いている可能性がある軸方向を検出する処理を実施する。なお、軸方向検出部3は軸方向検出手段を構成している。
特徴量検出部4は軸方向検出部3により検出された軸方向の加速度の時間的変化を解し、その加速度の変化量などを特徴量として検出する処理を実施する。なお、特徴量検出部4は特徴量検出手段を構成している。
Based on the feature points detected by the feature point detection unit 2, the axial direction detection unit 3 performs processing for detecting an axial direction that may be moving in accordance with an operation intended by the user. The axial direction detector 3 constitutes an axial direction detector.
The feature amount detection unit 4 solves the temporal change in the axial acceleration detected by the axial direction detection unit 3 and performs a process of detecting the change amount of the acceleration as a feature amount. The feature quantity detection unit 4 constitutes a feature quantity detection unit.

モーション検定部5は特徴量検出部4により検出された特徴量を解析して、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証する処理を実施する。
即ち、モーション検定部5は特徴量検出部4により検出された特徴量と、認識対象モーション及び非認識対象モーションにおける加速度の特徴量とを照合して、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証する処理を実施する。なお、モーション検定部5は検証手段を構成している。
The motion verification unit 5 analyzes the feature amount detected by the feature amount detection unit 4 and determines whether or not the axial motion detected by the axial direction detection unit 3 is a motion associated with an operation intended by the user. Perform the verification process.
That is, the motion verification unit 5 compares the feature amount detected by the feature amount detection unit 4 with the feature amount of acceleration in the recognition target motion and the non-recognition target motion, and detects the axial direction detected by the axial direction detection unit 3. The process of verifying whether or not the movement is a movement accompanying an operation intended by the user is performed. The motion verification unit 5 constitutes verification means.

図1の例では、モーション認識装置の構成要素である特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5がそれぞれ専用のハードウェア(例えば、CPUを実装している半導体集積回路基板)で構成されているものを想定しているが、モーション認識装置がコンピュータで構成される場合、軸方向検出部3、特徴量検出部4及びモーション検定部5の処理内容が記述されているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。
図2はこの発明の実施の形態1によるモーション認識装置の処理内容を示すフローチャートである。
In the example of FIG. 1, the feature point detection unit 2, the axial direction detection unit 3, the feature amount detection unit 4, and the motion verification unit 5, which are components of the motion recognition device, each have dedicated hardware (for example, a CPU installed). However, when the motion recognition device is configured by a computer, the processing contents of the axial direction detection unit 3, the feature amount detection unit 4, and the motion verification unit 5 are as follows. The described program may be stored in a memory of a computer, and the CPU of the computer may execute the program stored in the memory.
FIG. 2 is a flowchart showing the processing contents of the motion recognition apparatus according to Embodiment 1 of the present invention.

次に動作について説明する。
この実施の形態1では、ユーザが識別対象装置を2度叩く操作が、ユーザが意図する操作であるとして説明する。
加速度検出部1は、動作を識別する識別対象装置の軸毎に、軸方向の加速度を検出する(ステップST1)。
Next, the operation will be described.
In the first embodiment, the operation in which the user strikes the identification target device twice is assumed to be the operation intended by the user.
The acceleration detector 1 detects the acceleration in the axial direction for each axis of the identification target device for identifying the operation (step ST1).

ここでは、識別対象装置におけるL個の軸を加速度の検出対象として、加速度検出部1が、所定の時間間隔で、L個の軸の加速度をN回連続して検出し、一度にL×N個の加速度(連続N回分の加速度検出結果)を加速度データとして出力するものとする。
図3は加速度検出部1から出力された加速度データのうち、j番目の軸の加速度データの一例を示す説明図である。
図3では、加速度の検出順序を変数iで示し、i番目の加速度をAXji(2≦j≦L,1≦i≦N)で表現している。
Here, assuming that L axes in the identification target apparatus are acceleration detection targets, the acceleration detection unit 1 continuously detects the acceleration of the L axes N times at a predetermined time interval, and L × N at a time. It is assumed that accelerations (results of acceleration detection for N consecutive times) are output as acceleration data.
FIG. 3 is an explanatory diagram showing an example of the acceleration data of the j-th axis among the acceleration data output from the acceleration detection unit 1.
In FIG. 3, the acceleration detection order is indicated by a variable i, and the i-th acceleration is expressed by AX ji (2 ≦ j ≦ L, 1 ≦ i ≦ N).

特徴点検出部2は、加速度検出部1から加速度データを受けると、各軸方向の加速度の時間的変化を解析して、各軸方向の加速度の特徴点である極大点と極小点を検出する(ステップST2)。
図4は図3の加速度データから検出された特徴点の一例を示す説明図である。
図4では、“×”印のある点が特徴点であり、j番目の軸におけるi番目の特徴点の加速度をAX_Fjiで表わしている。
ただし、2≦j≦L、1≦i≦M1であり、M1は図3の加速度データから検出された特徴点の総数である。
When the feature point detector 2 receives the acceleration data from the acceleration detector 1, the feature point detector 2 analyzes the temporal change in the acceleration in each axis direction and detects the maximum point and the minimum point that are the feature points of the acceleration in each axis direction. (Step ST2).
FIG. 4 is an explanatory diagram showing an example of feature points detected from the acceleration data of FIG.
In FIG. 4, points with “x” marks are feature points, and the acceleration of the i-th feature point on the j-th axis is represented by AX_F ji .
However, 2 ≦ j ≦ L and 1 ≦ i ≦ M1, and M1 is the total number of feature points detected from the acceleration data of FIG.

軸方向検出部3は、特徴点検出部2が各軸方向の加速度の特徴点を検出すると、各特徴点の位置関係や大きさを基準にして、ユーザが意図する操作に伴って動いている可能性がある軸方向を検出する(ステップST3)。
以下、軸方向検出部3の処理内容を具体的に説明する。
When the feature point detection unit 2 detects a feature point of acceleration in each axial direction, the axial direction detection unit 3 moves in accordance with an operation intended by the user on the basis of the positional relationship and size of each feature point. A possible axial direction is detected (step ST3).
Hereinafter, the processing content of the axial direction detection part 3 is demonstrated concretely.

まず、軸方向検出部3は、特徴点検出部2により検出された各軸方向の加速度の特徴点AX_Fjiを下記の評価式(1)(2)に代入し、評価式(1)(2)が成立する特徴点AX_Fjiをピーク点として検出する。
|AX_Fji−AX_Fji-1|>TH1 (1)
|AX_Fji−AX_Fji+1|>TH1 (2)
ただし、1≦i≦M1−1であり、TH1はピーク点を決定するための閾値である。
First, the axial direction detection unit 3 substitutes the feature points AX_F ji of acceleration in the axial directions detected by the feature point detection unit 2 into the following evaluation formulas (1) and (2), and the evaluation formulas (1) and (2) ) is detected as a peak point of the feature point AX_F ji which satisfies.
| AX_F ji -AX_F ji-1 |> TH 1 (1)
| AX_F ji -AX_F ji + 1 |> TH 1 (2)
However, 1 ≦ i ≦ M1-1, and TH 1 is a threshold value for determining the peak point.

図5は図4の特徴点から検出されたピーク点の一例を示す説明図である。
図5では、“×”印のある点がピーク点であり、j番目の軸におけるi番目のピーク点をAX_Tjiで表わしている。
ただし、2≦j≦L、1≦i≦M2であり、M2は図4の特徴点から検出されたピーク点の総数である。
FIG. 5 is an explanatory diagram showing an example of peak points detected from the feature points of FIG.
In FIG. 5, a point with an “x” mark is a peak point, and the i-th peak point on the j-th axis is represented by AX_T ji .
However, 2 ≦ j ≦ L, 1 ≦ i ≦ M2, and M2 is the total number of peak points detected from the feature points in FIG.

軸方向検出部3は、加速度の特徴点からピーク点AX_Tjiを検出すると、そのピーク点AX_Tjiを下記の評価式(3)(4)に代入し、評価式(3)(4)が成立するピーク点の組み合わせをモーション候補点(ユーザが意図する操作に伴う動き(モーション)の可能性がある候補)として検出する。
(AX_Tjp−AX_Fjp-1)・(AX_Tjq−AX_Fjq-1)>0
(3)
|p−q|>TH2 (4)
ただし、2≦p≦M2−1、p+1≦q≦M2であり、TH2はピーク点からモーション候補点を決定するための2点間の間隔に関する閾値である。
When detecting the peak point AX_T ji from the acceleration feature point, the axial direction detection unit 3 substitutes the peak point AX_T ji into the following evaluation expressions (3) and (4), and the evaluation expressions (3) and (4) are established. The combination of peak points to be detected is detected as a motion candidate point (a candidate for a motion (motion) associated with an operation intended by the user).
(AX_T jp -AX_F jp-1) · (AX_T jq -AX_F jq-1)> 0
(3)
| Pq |> TH 2 (4)
However, 2 ≦ p ≦ M2-1 and p + 1 ≦ q ≦ M2, and TH 2 is a threshold value regarding an interval between two points for determining a motion candidate point from a peak point.

図6は図5のピーク点から検出されたモーション候補点の一例を示す説明図である。
図6では、“×”印及び“○”印が検出されたモーション候補点の組み合わせを示しており、j番目の軸におけるi番目のモーション候補点の組み合わせをAX_Cji_1、AX_Cji_2で表わしている。
ただし、2≦j≦L、1≦i≦M3であり、M3は図5のピーク点からから検出されたモーション候補点の組み合わせ総数である。
FIG. 6 is an explanatory diagram showing an example of motion candidate points detected from the peak points in FIG.
FIG. 6 shows combinations of motion candidate points where “x” marks and “◯” marks are detected, and combinations of i-th motion candidate points on the j-th axis are represented by AX_C ji_1 and AX_C ji_2 . .
However, 2 ≦ j ≦ L and 1 ≦ i ≦ M3, and M3 is the total number of combinations of motion candidate points detected from the peak points in FIG.

軸方向検出部3は、複数のモーション候補点を検出した場合、加速度検出部1による加速度の検出順序が早い方のモーション候補点をモーション操作点として残し、加速度の検出順序が遅い方のモーション候補点を削除する。
図7は図6のモーション候補点から検出されたモーション操作点の一例を示す説明図である。
図7では、“×”が検出されたモーション操作点であり、j番目の軸におけるモーション操作点をAX_Mj_1、AX_Mj_2で表わしている。
When detecting a plurality of motion candidate points, the axial direction detection unit 3 leaves the motion candidate point with the earlier acceleration detection order by the acceleration detection unit 1 as the motion operation point, and the motion candidate with the later acceleration detection order. Delete the point.
FIG. 7 is an explanatory diagram showing an example of motion operation points detected from the motion candidate points of FIG.
In FIG. 7, “×” is the detected motion operation point, and the motion operation points on the j-th axis are represented by AX_M j_1 and AX_M j_2 .

軸方向検出部3は、モーション操作点を検出すると、そのモーション操作点を検出している識別対象装置の軸方向を、ユーザが意図する操作に伴って動いている可能性がある軸方向として特徴量検出部4に出力する。
なお、軸方向検出部3によりモーション操作点が検出されない場合、ステップST1の処理に戻り、加速度検出部1が新たに加速度を検出する。
When detecting the motion operation point, the axial direction detection unit 3 is characterized in that the axial direction of the identification target device that detects the motion operation point is an axis direction that may move in accordance with an operation intended by the user. It outputs to the quantity detection part 4.
If no motion operation point is detected by the axial direction detection unit 3, the process returns to step ST1, and the acceleration detection unit 1 newly detects acceleration.

特徴量検出部4は、軸方向検出部3からモーション操作点を検出している識別対象装置の軸方向を受けると、その軸方向におけるモーション操作点近傍の加速度の時間的変化を解析し、その加速度の変化量などを特徴量として検出する(ステップST4)。
例えば、モーション操作点近傍の加速度AXji+k,AXji-1+kを下記の式(5)に代入して、j番目の軸における加速度の特徴量fj(k)を検出する。
j(k)=AXji+k−AXji-1+k
(5)
When the feature amount detection unit 4 receives the axial direction of the identification target device that detects the motion operation point from the axial direction detection unit 3, the feature amount detection unit 4 analyzes the temporal change in the acceleration in the vicinity of the motion operation point in the axial direction. An amount of change in acceleration or the like is detected as a feature amount (step ST4).
For example, accelerations AX ji + k and AX ji-1 + k in the vicinity of the motion operation point are substituted into the following equation (5) to detect the acceleration feature quantity f j (k) on the j-th axis.
f j (k) = AX ji + k −AX ji−1 + k
(5)

図8は図7のモーション操作点を基準にして、特徴量の検出処理を実施する範囲を示す説明図である。
図8では、モーション操作点AX_Mj_1、AX_Mj_2を中心として、±P番目までの加速度から特徴量を検出することを示している。
FIG. 8 is an explanatory diagram showing a range in which the feature amount detection process is performed based on the motion operation point of FIG.
FIG. 8 shows that feature amounts are detected from the accelerations up to ± Pth around the motion operation points AX_M j_1 and AX_M j_2 .

モーション検定部5は、特徴量検出部4が加速度の特徴量fj(k)を検出すると、その特徴量fj(k)を解析して、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証する(ステップST5)。
即ち、モーション検定部5は、例えば、特徴量検出部4により検出された特徴量fj(k)と、予め保持しているC個(C≧1)の認識対象モーション(例えば、ユーザが識別対象装置を2度叩く操作に伴う動作)及びD個(D≧1)の非認識対象モーション(例えば、持ち運びによる振動などに起因する動き)における加速度の特徴量gj m(k)とを下記の式(6)に代入して、相違度Dm(値が小さいほど類似性が高いことを示す評価値)を算出する。ただし、gj m(k)はm番目の加速度データのj番目の軸の特徴量を示すものである。

Figure 2009245176
When the feature amount detection unit 4 detects the acceleration feature amount f j (k), the motion verification unit 5 analyzes the feature amount f j (k) and detects the axial direction detected by the axial direction detection unit 3. It is verified whether or not the movement is a movement accompanying an operation intended by the user (step ST5).
That is, for example, the motion verification unit 5 identifies the feature quantity f j (k) detected by the feature quantity detection unit 4 and C recognition target motions (C ≧ 1) held in advance (for example, the user identifies (According to the operation of tapping the target device twice) and D non-recognized target motions (D ≧ 1) (for example, movements caused by vibrations caused by carrying) and the acceleration feature amount g j m (k) The degree of difference Dm (an evaluation value indicating that the smaller the value, the higher the similarity) is calculated. Here, g j m (k) represents the feature quantity of the j th axis of the m th acceleration data.
Figure 2009245176

そして、モーション検定部5は、相違度Dmを与える特徴量gj m(k)を有する認識対象モーション又は非認識対象モーション、即ち、特徴量検出部4により検出された特徴量fj(k)との差異が最も少ない特徴量gj m(k)を有する認識対象モーション又は非認識対象モーションを特定する。
モーション検定部5は、特定結果が非認識対象モーションであれば、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きではないと認識する。
Then, the motion verification unit 5 recognizes a motion to be recognized or a non-recognition target motion having a feature quantity g j m (k) that gives the degree of difference Dm, that is, a feature quantity f j (k) detected by the feature quantity detection unit 4. The recognition target motion or the non-recognition target motion having the feature quantity g j m (k) with the least difference from the above is specified.
If the specific result is a non-recognition target motion, the motion verification unit 5 recognizes that the axial movement detected by the axial direction detection unit 3 is not a movement associated with an operation intended by the user.

モーション検定部5は、特定結果が何れかの認識対象モーションである場合、その認識対象モーションが軸方向検出部3により検出された軸方向に対応する認識対象モーションであれば、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであると認識する。
特定した認識対象モーションが軸方向検出部3により検出された軸方向に対応する認識対象モーションでなければ、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きではないと認識する。
When the identification result is any recognition target motion, the motion verification unit 5 determines that the recognition target motion is a recognition target motion corresponding to the axial direction detected by the axial direction detection unit 3. It is recognized that the movement in the axial direction detected by is the movement accompanying the operation intended by the user.
If the identified recognition target motion is not a recognition target motion corresponding to the axial direction detected by the axial direction detection unit 3, the movement in the axial direction detected by the axial direction detection unit 3 is a movement associated with the operation intended by the user. Recognize it is not.

ここでは、モーション検定部5が、式(6)を用いて、各モーションに対する相違度Dmを評価するものについて示したが、これに限るものではなく、その他の方法を用いて評価するようにしてもよい。
例えば、以下の非特許文献1に開示されているSVM(Support Vector Machine)を実施して、特徴量検出部4により検出された各軸方向の加速度の特徴量とモーション検定部5に記憶されている各軸方向の加速度の特徴量を照合し、モーションであるか否かを判定するようにしてもよい。
・非特許文献1
「津田宏治、“サポートベクターマシンと何か“、電子情報通信学会誌, No.83, Vol.6, pp. 460-466, 2000」
Here, although the motion verification unit 5 has shown what evaluates the degree of difference Dm for each motion using Equation (6), it is not limited to this, and other methods can be used for evaluation. Also good.
For example, the SVM (Support Vector Machine) disclosed in the following Non-Patent Document 1 is implemented, and the feature values of the acceleration in each axis direction detected by the feature amount detection unit 4 and the motion verification unit 5 are stored. The feature quantity of the acceleration in each axial direction may be collated to determine whether the motion is present.
Non-patent document 1
“Koji Tsuda,“ What is Support Vector Machine ”, IEICE Journal, No.83, Vol.6, pp. 460-466, 2000”

以上で明らかなように、この実施の形態1によれば、加速度検出部1により検出された各軸方向の加速度の特徴点を検出する特徴点検出部2と、特徴点検出部2により検出された特徴点に基づいて、ユーザが意図する操作に伴って動いている可能性がある軸方向を検出する軸方向検出部3と、軸方向検出部3により検出された軸方向の加速度の特徴量を検出する特徴量検出部4とを設け、モーション検定部5が特徴量検出部4により検出された特徴量を解析して、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証するように構成したので、動きが小さいモーションを認識対象とする場合でも、識別対象装置の持ち運びによる振動などをモーションと誤認識することなく、正確にモーションを認識することができる効果を奏する。   As apparent from the above, according to the first embodiment, the feature point detection unit 2 that detects the feature point of the acceleration in each axial direction detected by the acceleration detection unit 1 and the feature point detection unit 2 detect the feature point. An axial direction detection unit 3 that detects an axial direction that may be moving in accordance with an operation intended by the user based on the feature points that have been detected, and an axial acceleration feature amount detected by the axial direction detection unit 3 And a motion verification unit 5 analyzes the feature amount detected by the feature amount detection unit 4, and the user detects the movement in the axial direction detected by the axial direction detection unit 3 by the user. Since it is configured to verify whether or not the movement is due to the intended operation, even when a motion with small movement is targeted for recognition, it is accurate without erroneously recognizing vibration caused by carrying the identification target device as motion. Mosho An effect that can be recognized.

また、この実施の形態1によれば、モーション検定部5が特徴量検出部4により検出された特徴量と、認識対象モーション及び非認識対象モーションにおける加速度の特徴量とを照合して、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証するように構成したので、ユーザが意図する操作に伴う動きであるか否かを高精度に検証することができる効果を奏する。   Further, according to the first embodiment, the motion verification unit 5 compares the feature amount detected by the feature amount detection unit 4 with the feature amount of the acceleration in the recognition target motion and the non-recognition target motion, and the axial direction Since it is configured to verify whether or not the axial movement detected by the detection unit 3 is a movement associated with an operation intended by the user, it is possible to determine whether or not the movement associated with the operation intended by the user is high. There is an effect that can be verified with accuracy.

この実施の形態1によれば、識別対象装置の入力操作を行うプログラムを認識対象モーションと対応付けるようにすれば、ユーザが意図する操作に伴う動きを検出して、入力操作を行うことができる。   According to the first embodiment, by associating a program for performing an input operation of the identification target device with a recognition target motion, it is possible to detect a motion associated with an operation intended by the user and perform the input operation.

この実施の形態1では、特徴点検出部2が特徴点として極大点と極小点を検出するものについて示したが、これに限るものではなく、例えば、特徴点として、加速度の極点、変化量、変曲点、曲率、あるいは、予め設定された基準値を超える点を検出するようにしてもよい。また、これらを組み合わせて用いるようにしてもよい。   In the first embodiment, the feature point detection unit 2 has shown what detects the maximum point and the minimum point as the feature points. However, the present invention is not limited to this. For example, the feature points include acceleration extreme points, change amounts, An inflection point, a curvature, or a point exceeding a preset reference value may be detected. Moreover, you may make it use combining these.

また、この実施の形態1では、特徴量検出部4がモーション操作点AX_Mj_1、AX_Mj_2を中心として、±P番目の範囲を特徴量の検出領域とするものについて示したが、図9に示すように、モーション操作点AX_Mj_1、AX_Mj_2の中点を中心として、±P番目の範囲を特徴量の検出領域とするようにしてもよい。 In the first embodiment, the feature amount detection unit 4 uses the motion operation points AX_M j_1 and AX_M j_2 as the center and uses the ± Pth range as the feature amount detection region. As described above, the ± P-th range may be used as the feature amount detection region around the midpoint of the motion operation points AX_M j_1 and AX_M j_2 .

実施の形態2.
図10はこの発明の実施の形態2によるモーション認識装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
開閉状態検出部6は識別対象装置が閉状態であるか、開状態であるかを検出する処理を実施する。なお、開閉状態検出部6は開閉状態検出手段を構成している。
認識アルゴリズム決定部7は開閉状態検出部6の検出結果に応じて特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5における処理手順(例えば、認識アルゴリズム、閾値など)を制御する処理を実施する。なお、認識アルゴリズム決定部7は処理手順制御手段を構成している。
図11はこの発明の実施の形態2によるモーション認識装置の処理内容を示すフローチャートである。
Embodiment 2. FIG.
FIG. 10 is a block diagram showing a motion recognition apparatus according to Embodiment 2 of the present invention. In the figure, the same reference numerals as those in FIG.
The open / close state detection unit 6 performs processing for detecting whether the identification target device is in a closed state or an open state. The open / close state detector 6 constitutes an open / close state detector.
The recognition algorithm determination unit 7 performs processing procedures (for example, a recognition algorithm, a threshold value, etc.) in the feature point detection unit 2, the axial direction detection unit 3, the feature amount detection unit 4, and the motion verification unit 5 according to the detection result of the open / close state detection unit 6. ) Is executed. Note that the recognition algorithm determination unit 7 constitutes processing procedure control means.
FIG. 11 is a flowchart showing the processing contents of the motion recognition apparatus according to Embodiment 2 of the present invention.

次に動作について説明する。
加速度検出部1は、上記実施の形態1と同様に、動作を識別する識別対象装置の軸毎に、軸方向の加速度を検出する(ステップST1)。
Next, the operation will be described.
Similar to the first embodiment, the acceleration detection unit 1 detects the axial acceleration for each axis of the identification target device for identifying the operation (step ST1).

開閉状態検出部6は、例えば、開閉センサを使用して、識別対象装置が閉状態であるか、開状態であるかを検出する(ステップST11)。
開閉センサは、例えば、識別対象装置のディスプレイ側に取り付けられたホールセンサと、識別対象装置のキー側に取り付けられた磁石とから構成されており、ホールセンサと磁石が近接して、ホールセンサが磁石の磁力を検知すると、識別対象装置の閉状態を検出する。
一方、ホールセンサと磁石が遠隔に位置し、ホールセンサが磁石の磁力を検知しなければ、識別対象装置の開状態を検出する。
The open / close state detection unit 6 uses an open / close sensor, for example, to detect whether the identification target device is in a closed state or an open state (step ST11).
The open / close sensor includes, for example, a hall sensor attached to the display side of the identification target device and a magnet attached to the key side of the identification target device. When the magnetic force of the magnet is detected, the closed state of the identification target device is detected.
On the other hand, if the Hall sensor and the magnet are located remotely and the Hall sensor does not detect the magnetic force of the magnet, the open state of the identification target device is detected.

認識アルゴリズム決定部7は、開閉状態検出部6の検出結果に応じて、特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5が処理する際に使用する認識アルゴリズムや閾値などを決定する(ステップST12)。
例えば、識別対象装置が開状態であれば、ユーザが意図的に使用している可能性が高いため、軸方向検出部3がピーク点を検出する際に使用している評価式(1)(2)の閾値TH1を、識別対象装置が閉状態である場合よりも低い値に設定する。
また、例えば、軸方向検出部3がピーク点を検出する際、識別対象装置が閉状態であれば、評価式(1)(2)の双方が成立する場合に特徴点をピーク点として検出する認識アルゴリズムを使用し、識別対象装置が開状態であれば、評価式(1)(2)の何れか一方が成立する場合に特徴点をピーク点として検出する認識アルゴリズムを使用するようにする。
The recognition algorithm determination unit 7 is a recognition algorithm used when the feature point detection unit 2, the axial direction detection unit 3, the feature amount detection unit 4, and the motion verification unit 5 process according to the detection result of the open / close state detection unit 6. And a threshold value are determined (step ST12).
For example, if the identification target device is in an open state, there is a high possibility that the user is intentionally using it. Therefore, the evaluation formula (1) used when the axial direction detection unit 3 detects the peak point (1) ( the threshold value TH 1 of 2), identifying the target device is set to a value lower than when it is closed.
Further, for example, when the axial direction detection unit 3 detects the peak point, if the identification target device is in the closed state, the feature point is detected as the peak point when both of the evaluation formulas (1) and (2) are satisfied. If a recognition algorithm is used and the identification target device is in an open state, a recognition algorithm that detects a feature point as a peak point when any one of the evaluation formulas (1) and (2) is satisfied is used.

また、識別対象装置が閉状態から閉状態になると、例えば、軸方向検出部3がモーシン候補点を検出する際に使用している評価式(3)(4)を下記の評価式(6)に変更することで、2つのピーク点の方向が異なる場合でも、モーシン候補点を検出することが可能な認識アルゴリズムに切り替えるようにする。
|p−q|>TH2 (6)
ただし、2≦p≦M3−1、p+1≦q≦M3であり、TH2はピーク点からモーション候補点を決定するための2点間の間隔に関する閾値である。
Further, when the identification target device is changed from the closed state to the closed state, for example, the evaluation formulas (3) and (4) used when the axial direction detection unit 3 detects the morsin candidate point are changed to the following evaluation formula (6). Is changed to a recognition algorithm capable of detecting a morsin candidate point even when the directions of the two peak points are different.
| Pq |> TH 2 (6)
However, 2 ≦ p ≦ M3-1 and p + 1 ≦ q ≦ M3, and TH 2 is a threshold value regarding the interval between two points for determining a motion candidate point from the peak point.

特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5は、認識アルゴリズム決定部7により決定された認識アルゴリズムにしたがって各種の処理を実行する。
特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5の処理内容は、上記実施の形態1と同様であるため説明を省略する。
The feature point detection unit 2, the axial direction detection unit 3, the feature amount detection unit 4, and the motion verification unit 5 execute various processes according to the recognition algorithm determined by the recognition algorithm determination unit 7.
Since the processing contents of the feature point detection unit 2, the axial direction detection unit 3, the feature amount detection unit 4, and the motion verification unit 5 are the same as those in the first embodiment, description thereof is omitted.

以上で明らかなように、この実施の形態2によれば、識別対象装置の開閉状態を検出する開閉状態検出部6を設け、認識アルゴリズム決定部7が開閉状態検出部6の検出結果に応じて特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5における処理手順(例えば、認識アルゴリズム、閾値など)を制御するように構成したので、上記実施の形態1よりもモーションの認識精度を高めることができる効果を奏する。   As is apparent from the above, according to the second embodiment, the open / close state detection unit 6 for detecting the open / close state of the identification target device is provided, and the recognition algorithm determination unit 7 responds to the detection result of the open / close state detection unit 6. Since the processing procedure (for example, recognition algorithm, threshold value, etc.) in the feature point detection unit 2, the axial direction detection unit 3, the feature amount detection unit 4 and the motion verification unit 5 is controlled, it is more than the first embodiment. The effect which can raise the recognition accuracy of motion is produced.

実施の形態3.
図12はこの発明の実施の形態3によるモーション認識装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
利用状態検出部8は識別対象装置の利用状態を検出する処理を実施する。なお、利用状態検出部8は利用状態検出手段を構成している。
認識アルゴリズム決定部9は利用状態検出部8の検出結果に応じて特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5における処理手順(例えば、認識アルゴリズム、閾値など)を制御する処理を実施する。なお、認識アルゴリズム決定部9は処理手順制御手段を構成している。
図13はこの発明の実施の形態3によるモーション認識装置の処理内容を示すフローチャートである。
Embodiment 3 FIG.
12 is a block diagram showing a motion recognition apparatus according to Embodiment 3 of the present invention. In the figure, the same reference numerals as those in FIG.
The usage state detection unit 8 performs a process of detecting the usage state of the identification target device. The usage state detection unit 8 constitutes usage state detection means.
The recognition algorithm determination unit 9 performs processing procedures (for example, recognition algorithm, threshold value, etc.) in the feature point detection unit 2, the axial direction detection unit 3, the feature amount detection unit 4, and the motion test unit 5 according to the detection result of the usage state detection unit 8. ) Is executed. Note that the recognition algorithm determination unit 9 constitutes a processing procedure control unit.
FIG. 13 is a flowchart showing the processing contents of the motion recognition apparatus according to Embodiment 3 of the present invention.

次に動作について説明する。
加速度検出部1は、上記実施の形態1と同様に、動作を識別する識別対象装置の軸毎に、軸方向の加速度を検出する(ステップST1)。
Next, the operation will be described.
Similar to the first embodiment, the acceleration detection unit 1 detects the axial acceleration for each axis of the identification target device for identifying the operation (step ST1).

利用状態検出部8は、識別対象装置の利用状態を検出する(ステップST21)。
例えば、利用状態検出部8は、識別対象装置の利用状態が横向きの状態であるか、縦向きの状態であるかを検出する。
縦横の傾きを検出するには、例えば、3軸の加速度センサから得られる重力加速度の方向を検出することで実現することができる。
また、利用状態検出部8は、識別対象装置の利用状態を検出することで、現在、ユーザにより起動されているアプリケーションの種類などの情報を検出する。
The usage state detection unit 8 detects the usage state of the identification target device (step ST21).
For example, the usage state detection unit 8 detects whether the usage state of the identification target device is in a horizontal state or a vertical state.
Detection of the vertical and horizontal inclinations can be realized, for example, by detecting the direction of gravitational acceleration obtained from a triaxial acceleration sensor.
Further, the usage state detection unit 8 detects information such as the type of application currently activated by the user by detecting the usage state of the identification target device.

認識アルゴリズム決定部9は、利用状態検出部8の検出結果(傾き状態、現在起動されているアプリケーション)に応じて、特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5が処理する際に使用する認識アルゴリズムや閾値などを決定する(ステップST22)。
例えば、識別対象装置が横向き状態であり、かつ、ワンセグなどのアプリケーションが起動されている場合、ユーザが持ち運びなどではなく、識別対象装置を利用している可能性が高いため、軸方向検出部3がピーク点を検出する際に使用している評価式(1)(2)の閾値TH1を、識別対象装置が利用されていない場合よりも低い値に設定する。
また、例えば、軸方向検出部3がピーク点を検出する際、識別対象装置が特定の利用状態であれば、評価式(1)(2)の双方が成立する場合に特徴点をピーク点として検出する認識アルゴリズムを使用し、識別対象装置が他の特定の利用状態であれば、評価式(1)(2)の何れか一方が成立する場合に特徴点をピーク点として検出する認識アルゴリズムを使用するようにする。
The recognition algorithm determination unit 9 determines the feature point detection unit 2, the axial direction detection unit 3, the feature amount detection unit 4, and the motion test according to the detection result (tilt state, currently activated application) of the usage state detection unit 8. A recognition algorithm and a threshold value used when the unit 5 performs processing are determined (step ST22).
For example, when the identification target device is in the horizontal state and an application such as one seg is activated, the user is more likely to use the identification target device instead of carrying it, so the axial direction detection unit 3 Sets the threshold TH 1 of the evaluation formulas (1) and (2) used when detecting the peak point to a value lower than that when the identification target device is not used.
For example, when the axial direction detection unit 3 detects a peak point, if the identification target device is in a specific usage state, the characteristic point is set as the peak point when both of the evaluation formulas (1) and (2) are satisfied. If a recognition algorithm to be detected is used and the identification target device is in another specific usage state, a recognition algorithm for detecting a feature point as a peak point when either one of the evaluation formulas (1) and (2) is satisfied. Try to use it.

また、識別対象装置が特定の利用状態になると、例えば、軸方向検出部3がモーシン候補点を検出する際に使用している評価式(3)(4)を評価式(6)に変更することで、2つのピーク点の方向が異なる場合でも、モーシン候補点を検出することが可能な認識アルゴリズムに切り替えるようにする。   Further, when the identification target device enters a specific use state, for example, the evaluation formulas (3) and (4) used when the axial direction detection unit 3 detects the morsin candidate points are changed to the evaluation formula (6). Thus, even when the directions of the two peak points are different, the recognition algorithm is switched to be able to detect the mosin candidate point.

特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5は、認識アルゴリズム決定部9により決定された認識アルゴリズムにしたがって各種の処理を実行する。
特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5の処理内容は、上記実施の形態1と同様であるため説明を省略する。
The feature point detection unit 2, the axial direction detection unit 3, the feature amount detection unit 4, and the motion verification unit 5 execute various processes according to the recognition algorithm determined by the recognition algorithm determination unit 9.
Since the processing contents of the feature point detection unit 2, the axial direction detection unit 3, the feature amount detection unit 4, and the motion verification unit 5 are the same as those in the first embodiment, description thereof is omitted.

以上で明らかなように、この実施の形態3によれば、識別対象装置の利用状態を検出する利用状態検出部8を設け、認識アルゴリズム決定部9が利用状態検出部8の検出結果に応じて特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5における処理手順(例えば、認識アルゴリズム、閾値など)を制御するように構成したので、上記実施の形態1よりもモーションの認識精度を高めることができる効果を奏する。   As is apparent from the above, according to the third embodiment, the usage state detection unit 8 that detects the usage state of the identification target device is provided, and the recognition algorithm determination unit 9 responds to the detection result of the usage state detection unit 8. Since the processing procedure (for example, recognition algorithm, threshold value, etc.) in the feature point detection unit 2, the axial direction detection unit 3, the feature amount detection unit 4 and the motion verification unit 5 is controlled, it is more than the first embodiment. The effect which can raise the recognition accuracy of motion is produced.

この発明の実施の形態1によるモーション認識装置を示す構成図である。It is a block diagram which shows the motion recognition apparatus by Embodiment 1 of this invention. この発明の実施の形態1によるモーション認識装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the motion recognition apparatus by Embodiment 1 of this invention. 加速度検出部1から出力された加速度データのうち、j番目の軸の加速度データの一例を示す説明図である。It is explanatory drawing which shows an example of the acceleration data of a jth axis | shaft among the acceleration data output from the acceleration detection part. 図3の加速度データから検出された特徴点の一例を示す説明図である。It is explanatory drawing which shows an example of the feature point detected from the acceleration data of FIG. 図4の特徴点から検出されたピーク点の一例を示す説明図である。It is explanatory drawing which shows an example of the peak point detected from the feature point of FIG. 図5のピーク点から検出されたモーション候補点の一例を示す説明図である。It is explanatory drawing which shows an example of the motion candidate point detected from the peak point of FIG. 図6のモーション候補点から検出されたモーション操作点の一例を示す説明図である。It is explanatory drawing which shows an example of the motion operation point detected from the motion candidate point of FIG. 図7のモーション操作点を基準にして、特徴量の検出処理を実施する範囲を示す説明図である。FIG. 8 is an explanatory diagram illustrating a range in which a feature amount detection process is performed based on the motion operation point in FIG. 7. 図7のモーション操作点を基準にして、特徴量の検出処理を実施する範囲を示す説明図である。FIG. 8 is an explanatory diagram illustrating a range in which a feature amount detection process is performed based on the motion operation point in FIG. 7. この発明の実施の形態2によるモーション認識装置を示す構成図である。It is a block diagram which shows the motion recognition apparatus by Embodiment 2 of this invention. この発明の実施の形態2によるモーション認識装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the motion recognition apparatus by Embodiment 2 of this invention. この発明の実施の形態3によるモーション認識装置を示す構成図である。It is a block diagram which shows the motion recognition apparatus by Embodiment 3 of this invention. この発明の実施の形態3によるモーション認識装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the motion recognition apparatus by Embodiment 3 of this invention.

符号の説明Explanation of symbols

1 加速度検出部(加速度検出手段)、2 特徴点検出部(特徴点検出手段)、3 軸方向検出部(軸方向検出手段)、4 特徴量検出部(特徴量検出手段)、5 モーション検定部(検証手段)、6 開閉状態検出部(開閉状態検出手段)、7 認識アルゴリズム決定部(処理手順制御手段)、8 利用状態検出部(利用状態検出手段)、9 認識アルゴリズム決定部(処理手順制御手段)。   DESCRIPTION OF SYMBOLS 1 Acceleration detection part (acceleration detection means), 2 Feature point detection part (feature point detection means), 3 Axial direction detection part (axial direction detection means), 4 Feature quantity detection part (feature quantity detection means), 5 Motion verification part (Verification means), 6 Open / close state detection section (open / close state detection means), 7 Recognition algorithm determination section (processing procedure control means), 8 Usage state detection section (use state detection means), 9 Recognition algorithm determination section (processing procedure control) means).

Claims (5)

動作を識別する識別対象装置の軸毎に、軸方向の加速度を検出する加速度検出手段と、上記加速度検出手段により検出された各軸方向の加速度の特徴点を検出する特徴点検出手段と、上記特徴点検出手段により検出された特徴点に基づいて、ユーザが意図する操作に伴って動いている可能性がある軸方向を検出する軸方向検出手段と、上記軸方向検出手段により検出された軸方向の加速度の特徴量を検出する特徴量検出手段と、上記特徴量検出手段により検出された特徴量を解析して、上記軸方向検出手段により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証する検証手段とを備えたモーション認識装置。   Acceleration detecting means for detecting an axial acceleration for each axis of the identification target device for identifying the operation, a feature point detecting means for detecting a feature point of the acceleration in each axial direction detected by the acceleration detecting means, Based on the feature points detected by the feature point detection means, an axial direction detection means for detecting an axial direction that may be moving in accordance with an operation intended by the user, and an axis detected by the axial direction detection means The feature amount detecting means for detecting the feature amount of the acceleration in the direction and the feature amount detected by the feature amount detecting means are analyzed, and the movement in the axial direction detected by the axial direction detecting means is intended by the user. A motion recognition apparatus comprising verification means for verifying whether or not the movement is associated with an operation. 検証手段は、特徴量検出手段により検出された特徴量と、認識対象モーション及び非認識対象モーションにおける加速度の特徴量とを照合して、軸方向検出手段により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証することを特徴とする請求項1記載のモーション認識装置。   The verification unit collates the feature amount detected by the feature amount detection unit with the feature amount of acceleration in the recognition target motion and the non-recognition target motion, and the axial motion detected by the axial direction detection unit is 2. The motion recognition apparatus according to claim 1, wherein it is verified whether or not the movement is associated with an intended operation. 特徴量検出手段は、軸方向検出手段により検出された軸方向の加速度の時間的変化を解して、上記加速度の特徴量を検出することを特徴とする請求項1または請求項2記載のモーション認識装置。   3. The motion according to claim 1, wherein the feature amount detecting means detects the feature amount of the acceleration by solving the temporal change of the axial acceleration detected by the axial direction detecting means. Recognition device. 識別対象装置の開閉状態を検出する開閉状態検出手段と、上記開閉状態検出手段の検出結果に応じて特徴点検出手段、軸方向検出手段、特徴量検出手段及び検証手段における処理手順を制御する処理手順制御手段とを設けたことを特徴とする請求項1から請求項3のうちのいずれか1項記載のモーション認識装置。   Opening / closing state detecting means for detecting the opening / closing state of the identification target device, and processing for controlling processing procedures in the feature point detecting means, the axial direction detecting means, the feature amount detecting means, and the verifying means according to the detection result of the opening / closing state detecting means The motion recognition apparatus according to claim 1, further comprising a procedure control unit. 識別対象装置の利用状態を検出する利用状態検出手段と、上記利用状態検出手段の検出結果に応じて特徴点検出手段、軸方向検出手段、特徴量検出手段及び検証手段における処理手順を制御する処理手順制御手段とを設けたことを特徴とする請求項1から請求項3のうちのいずれか1項記載のモーション認識装置。   A usage state detection unit that detects a usage state of the identification target device, and a process that controls processing procedures in the feature point detection unit, the axial direction detection unit, the feature amount detection unit, and the verification unit according to the detection result of the usage state detection unit. The motion recognition apparatus according to claim 1, further comprising a procedure control unit.
JP2008091236A 2008-03-31 2008-03-31 Motion recognition device Pending JP2009245176A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008091236A JP2009245176A (en) 2008-03-31 2008-03-31 Motion recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008091236A JP2009245176A (en) 2008-03-31 2008-03-31 Motion recognition device

Publications (1)

Publication Number Publication Date
JP2009245176A true JP2009245176A (en) 2009-10-22

Family

ID=41306981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008091236A Pending JP2009245176A (en) 2008-03-31 2008-03-31 Motion recognition device

Country Status (1)

Country Link
JP (1) JP2009245176A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011197992A (en) * 2010-03-19 2011-10-06 Fujitsu Ltd Device and method for determining motion, and computer program
JP2011242832A (en) * 2010-05-14 2011-12-01 Sony Corp Information processor and operation method for information processor
JP2012098254A (en) * 2010-11-05 2012-05-24 Lapis Semiconductor Co Ltd Motion detecting device, electronic apparatus, method for detecting motion, and program
JP2013074546A (en) * 2011-09-28 2013-04-22 Kyocera Corp Device, method, and program
JP2013222449A (en) * 2012-04-19 2013-10-28 Fujitsu Ltd Operation motion detecting device, operation motion detecting method, and program
KR101748181B1 (en) * 2010-11-22 2017-06-16 주식회사 케이티 Portable electronic apparatus and control method thereof

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011197992A (en) * 2010-03-19 2011-10-06 Fujitsu Ltd Device and method for determining motion, and computer program
US8615375B2 (en) 2010-03-19 2013-12-24 Fujitsu Limited Motion determination apparatus and motion determination method
JP2011242832A (en) * 2010-05-14 2011-12-01 Sony Corp Information processor and operation method for information processor
US10809807B2 (en) 2010-05-14 2020-10-20 Sony Corporation Information processing apparatus and associated methodology for performing functions based on gestures
JP2012098254A (en) * 2010-11-05 2012-05-24 Lapis Semiconductor Co Ltd Motion detecting device, electronic apparatus, method for detecting motion, and program
US8942950B2 (en) 2010-11-05 2015-01-27 Lapis Semiconductor Co., Ltd. Motion detection device, electronic device, motion detection method, and program storage medium
US9417705B2 (en) 2010-11-05 2016-08-16 Lapis Semiconductor Co., Ltd. Motion detection device, electronic device, motion detection method, and program storage medium
KR101748181B1 (en) * 2010-11-22 2017-06-16 주식회사 케이티 Portable electronic apparatus and control method thereof
JP2013074546A (en) * 2011-09-28 2013-04-22 Kyocera Corp Device, method, and program
JP2013222449A (en) * 2012-04-19 2013-10-28 Fujitsu Ltd Operation motion detecting device, operation motion detecting method, and program

Similar Documents

Publication Publication Date Title
KR101939683B1 (en) Apparatus and method for recognizing user activity
JP4856197B2 (en) Image processing apparatus and image processing method
JP6007682B2 (en) Image processing apparatus, image processing method, and program
US20110158476A1 (en) Robot and method for recognizing human faces and gestures thereof
JP2009245176A (en) Motion recognition device
US20130279756A1 (en) Computer vision based hand identification
Vu et al. Smartwatch-based early gesture detection 8 trajectory tracking for interactive gesture-driven applications
KR20130141657A (en) System and method for gesture recognition
WO2012143603A2 (en) Methods and apparatuses for facilitating gesture recognition
ATE407409T1 (en) AUTOMATIC GESTURE DETECTION
US8396263B2 (en) Method, apparatus and computer program product for providing face pose estimation
CN103793926A (en) Target tracking method based on sample reselecting
US20170017303A1 (en) Operation recognition device and operation recognition method
KR101417433B1 (en) User identification apparatus using movement of pupil and method thereof
US20170017856A1 (en) Information processing apparatus and information processing method
JP2017117211A (en) Detection device, method, and program
JP2012118683A (en) Pedestrian recognition device
US20160335916A1 (en) Portable device and control method using plurality of cameras
JP2017191426A (en) Input device, input control method, computer program, and storage medium
EP2831706B1 (en) A multimodal system and method facilitating gesture creation through scalar and vector data
Neto et al. Real-time head pose estimation for mobile devices
JP5829155B2 (en) Pedestrian detection device and program
KR101703690B1 (en) Apparatus for recognizing iris and operating method thereof
US9761009B2 (en) Motion tracking device control systems and methods
US20170192521A1 (en) Context aware movement recognition system