JP2009245176A - Motion recognition device - Google Patents
Motion recognition device Download PDFInfo
- Publication number
- JP2009245176A JP2009245176A JP2008091236A JP2008091236A JP2009245176A JP 2009245176 A JP2009245176 A JP 2009245176A JP 2008091236 A JP2008091236 A JP 2008091236A JP 2008091236 A JP2008091236 A JP 2008091236A JP 2009245176 A JP2009245176 A JP 2009245176A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- detection unit
- axial direction
- acceleration
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
この発明は、ユーザが意図する操作に伴う動き(モーション)を認識するモーション認識装置に関するものである。 The present invention relates to a motion recognition apparatus that recognizes a motion (motion) associated with an operation intended by a user.
従来のモーション認識装置では、ユーザが意図する操作に伴う動きであるのか、持ち運びによる振動などに起因する動きであるのかを判定するために、識別対象装置(例えば、携帯電話機)の加速度を測定し、その加速度を所定の閾値と比較するようにしている。
モーション認識装置は、加速度が所定の閾値を上回る場合、ユーザが意図する操作に伴う動きが発生していると判断する(例えば、特許文献1を参照)。
In a conventional motion recognition device, the acceleration of an identification target device (for example, a mobile phone) is measured in order to determine whether the motion is due to an operation intended by the user or due to vibration caused by carrying. The acceleration is compared with a predetermined threshold value.
When the acceleration exceeds a predetermined threshold value, the motion recognition device determines that a motion associated with an operation intended by the user is occurring (see, for example, Patent Document 1).
従来のモーション認識装置は以上のように構成されているので、識別対象装置の加速度が所定の閾値を上回る場合には、ユーザが意図する操作に伴う動きが発生していると判断する。しかし、動きが小さいモーションを認識対象とする場合、閾値を低く設定しなければならず、識別対象装置の持ち運びによる振動などを誤ってモーションとして認識してしまうことがあるなどの課題があった。 Since the conventional motion recognition apparatus is configured as described above, when the acceleration of the identification target apparatus exceeds a predetermined threshold, it is determined that a movement associated with an operation intended by the user has occurred. However, when a motion with small motion is set as a recognition target, there is a problem that a threshold value must be set low, and vibrations caused by carrying the identification target device may be erroneously recognized as motion.
この発明は上記のような課題を解決するためになされたもので、動きが小さいモーションを認識対象とする場合でも、識別対象装置の持ち運びによる振動などをモーションと誤認識することなく、正確にモーションを認識することができるモーション認識装置を得ることを目的とする。 The present invention has been made to solve the above-described problems. Even when a motion with a small motion is a recognition target, the motion is accurately detected without erroneously recognizing vibration caused by carrying the identification target device as a motion. An object of the present invention is to obtain a motion recognition device capable of recognizing.
この発明に係るモーション認識装置は、加速度検出手段により検出された各軸方向の加速度の特徴点を検出する特徴点検出手段と、特徴点検出手段により検出された特徴点に基づいて、ユーザが意図する操作に伴って動いている可能性がある軸方向を検出する軸方向検出手段と、軸方向検出手段により検出された軸方向の加速度の特徴量を検出する特徴量検出手段とを設け、検証手段が特徴量検出手段により検出された特徴量を解析して、軸方向検出手段により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証するようにしたものである。 The motion recognition apparatus according to the present invention includes a feature point detection unit that detects a feature point of acceleration in each axis direction detected by the acceleration detection unit, and a user's intention based on the feature point detected by the feature point detection unit. An axial direction detecting means for detecting an axial direction that may move in accordance with an operation to be performed, and a feature amount detecting means for detecting the feature quantity of the axial acceleration detected by the axial direction detecting means are provided for verification. The means analyzes the feature quantity detected by the feature quantity detection means, and verifies whether or not the axial movement detected by the axial direction detection means is a movement accompanying an operation intended by the user. Is.
この発明によれば、加速度検出手段により検出された各軸方向の加速度の特徴点を検出する特徴点検出手段と、特徴点検出手段により検出された特徴点に基づいて、ユーザが意図する操作に伴って動いている可能性がある軸方向を検出する軸方向検出手段と、軸方向検出手段により検出された軸方向の加速度の特徴量を検出する特徴量検出手段とを設け、検証手段が特徴量検出手段により検出された特徴量を解析して、軸方向検出手段により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証するように構成したので、動きが小さいモーションを認識対象とする場合でも、識別対象装置の持ち運びによる振動などをモーションと誤認識することなく、正確にモーションを認識することができる効果がある。 According to the present invention, the feature point detecting means for detecting the feature point of the acceleration in each axial direction detected by the acceleration detecting means, and the operation intended by the user based on the feature point detected by the feature point detecting means. A verification unit is provided with an axial direction detection unit that detects an axial direction that may be moving along with the feature amount detection unit that detects a feature amount of the axial acceleration detected by the axial direction detection unit. Since the feature amount detected by the amount detection unit is analyzed, the axial movement detected by the axial direction detection unit is configured to verify whether or not the movement accompanying the operation intended by the user is verified. Even when a motion with small motion is set as a recognition target, there is an effect that the motion can be accurately recognized without erroneously recognizing vibration caused by carrying the identification target device as motion.
実施の形態1.
図1はこの発明の実施の形態1によるモーション認識装置を示す構成図であり、図において、加速度検出部1は例えば3軸加速度センサを用いて構成されており、動作を識別する識別対象装置(例えば、携帯電話機、モバイルPC)の軸毎に、3次元空間で発生する軸方向の加速度を検出する処理を実施する。なお、加速度検出部1は加速度検出手段を構成している。
特徴点検出部2は加速度検出部1により検出された各軸方向の加速度の時間的変化を解析して、各軸方向の加速度の特徴点である極大点及び極小点を検出する処理を実施する。
なお、特徴点検出部2は特徴点検出手段を構成している。
FIG. 1 is a block diagram showing a motion recognition apparatus according to
The feature
The feature
軸方向検出部3は特徴点検出部2により検出された特徴点に基づいて、ユーザが意図する操作に伴って動いている可能性がある軸方向を検出する処理を実施する。なお、軸方向検出部3は軸方向検出手段を構成している。
特徴量検出部4は軸方向検出部3により検出された軸方向の加速度の時間的変化を解し、その加速度の変化量などを特徴量として検出する処理を実施する。なお、特徴量検出部4は特徴量検出手段を構成している。
Based on the feature points detected by the feature
The feature
モーション検定部5は特徴量検出部4により検出された特徴量を解析して、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証する処理を実施する。
即ち、モーション検定部5は特徴量検出部4により検出された特徴量と、認識対象モーション及び非認識対象モーションにおける加速度の特徴量とを照合して、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証する処理を実施する。なお、モーション検定部5は検証手段を構成している。
The
That is, the
図1の例では、モーション認識装置の構成要素である特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5がそれぞれ専用のハードウェア(例えば、CPUを実装している半導体集積回路基板)で構成されているものを想定しているが、モーション認識装置がコンピュータで構成される場合、軸方向検出部3、特徴量検出部4及びモーション検定部5の処理内容が記述されているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。
図2はこの発明の実施の形態1によるモーション認識装置の処理内容を示すフローチャートである。
In the example of FIG. 1, the feature
FIG. 2 is a flowchart showing the processing contents of the motion recognition apparatus according to
次に動作について説明する。
この実施の形態1では、ユーザが識別対象装置を2度叩く操作が、ユーザが意図する操作であるとして説明する。
加速度検出部1は、動作を識別する識別対象装置の軸毎に、軸方向の加速度を検出する(ステップST1)。
Next, the operation will be described.
In the first embodiment, the operation in which the user strikes the identification target device twice is assumed to be the operation intended by the user.
The
ここでは、識別対象装置におけるL個の軸を加速度の検出対象として、加速度検出部1が、所定の時間間隔で、L個の軸の加速度をN回連続して検出し、一度にL×N個の加速度(連続N回分の加速度検出結果)を加速度データとして出力するものとする。
図3は加速度検出部1から出力された加速度データのうち、j番目の軸の加速度データの一例を示す説明図である。
図3では、加速度の検出順序を変数iで示し、i番目の加速度をAXji(2≦j≦L,1≦i≦N)で表現している。
Here, assuming that L axes in the identification target apparatus are acceleration detection targets, the
FIG. 3 is an explanatory diagram showing an example of the acceleration data of the j-th axis among the acceleration data output from the
In FIG. 3, the acceleration detection order is indicated by a variable i, and the i-th acceleration is expressed by AX ji (2 ≦ j ≦ L, 1 ≦ i ≦ N).
特徴点検出部2は、加速度検出部1から加速度データを受けると、各軸方向の加速度の時間的変化を解析して、各軸方向の加速度の特徴点である極大点と極小点を検出する(ステップST2)。
図4は図3の加速度データから検出された特徴点の一例を示す説明図である。
図4では、“×”印のある点が特徴点であり、j番目の軸におけるi番目の特徴点の加速度をAX_Fjiで表わしている。
ただし、2≦j≦L、1≦i≦M1であり、M1は図3の加速度データから検出された特徴点の総数である。
When the
FIG. 4 is an explanatory diagram showing an example of feature points detected from the acceleration data of FIG.
In FIG. 4, points with “x” marks are feature points, and the acceleration of the i-th feature point on the j-th axis is represented by AX_F ji .
However, 2 ≦ j ≦ L and 1 ≦ i ≦ M1, and M1 is the total number of feature points detected from the acceleration data of FIG.
軸方向検出部3は、特徴点検出部2が各軸方向の加速度の特徴点を検出すると、各特徴点の位置関係や大きさを基準にして、ユーザが意図する操作に伴って動いている可能性がある軸方向を検出する(ステップST3)。
以下、軸方向検出部3の処理内容を具体的に説明する。
When the feature
Hereinafter, the processing content of the axial
まず、軸方向検出部3は、特徴点検出部2により検出された各軸方向の加速度の特徴点AX_Fjiを下記の評価式(1)(2)に代入し、評価式(1)(2)が成立する特徴点AX_Fjiをピーク点として検出する。
|AX_Fji−AX_Fji-1|>TH1 (1)
|AX_Fji−AX_Fji+1|>TH1 (2)
ただし、1≦i≦M1−1であり、TH1はピーク点を決定するための閾値である。
First, the axial
| AX_F ji -AX_F ji-1 |> TH 1 (1)
| AX_F ji -AX_F ji + 1 |> TH 1 (2)
However, 1 ≦ i ≦ M1-1, and TH 1 is a threshold value for determining the peak point.
図5は図4の特徴点から検出されたピーク点の一例を示す説明図である。
図5では、“×”印のある点がピーク点であり、j番目の軸におけるi番目のピーク点をAX_Tjiで表わしている。
ただし、2≦j≦L、1≦i≦M2であり、M2は図4の特徴点から検出されたピーク点の総数である。
FIG. 5 is an explanatory diagram showing an example of peak points detected from the feature points of FIG.
In FIG. 5, a point with an “x” mark is a peak point, and the i-th peak point on the j-th axis is represented by AX_T ji .
However, 2 ≦ j ≦ L, 1 ≦ i ≦ M2, and M2 is the total number of peak points detected from the feature points in FIG.
軸方向検出部3は、加速度の特徴点からピーク点AX_Tjiを検出すると、そのピーク点AX_Tjiを下記の評価式(3)(4)に代入し、評価式(3)(4)が成立するピーク点の組み合わせをモーション候補点(ユーザが意図する操作に伴う動き(モーション)の可能性がある候補)として検出する。
(AX_Tjp−AX_Fjp-1)・(AX_Tjq−AX_Fjq-1)>0
(3)
|p−q|>TH2 (4)
ただし、2≦p≦M2−1、p+1≦q≦M2であり、TH2はピーク点からモーション候補点を決定するための2点間の間隔に関する閾値である。
When detecting the peak point AX_T ji from the acceleration feature point, the axial
(AX_T jp -AX_F jp-1) · (AX_T jq -AX_F jq-1)> 0
(3)
| Pq |> TH 2 (4)
However, 2 ≦ p ≦ M2-1 and p + 1 ≦ q ≦ M2, and TH 2 is a threshold value regarding an interval between two points for determining a motion candidate point from a peak point.
図6は図5のピーク点から検出されたモーション候補点の一例を示す説明図である。
図6では、“×”印及び“○”印が検出されたモーション候補点の組み合わせを示しており、j番目の軸におけるi番目のモーション候補点の組み合わせをAX_Cji_1、AX_Cji_2で表わしている。
ただし、2≦j≦L、1≦i≦M3であり、M3は図5のピーク点からから検出されたモーション候補点の組み合わせ総数である。
FIG. 6 is an explanatory diagram showing an example of motion candidate points detected from the peak points in FIG.
FIG. 6 shows combinations of motion candidate points where “x” marks and “◯” marks are detected, and combinations of i-th motion candidate points on the j-th axis are represented by AX_C ji_1 and AX_C ji_2 . .
However, 2 ≦ j ≦ L and 1 ≦ i ≦ M3, and M3 is the total number of combinations of motion candidate points detected from the peak points in FIG.
軸方向検出部3は、複数のモーション候補点を検出した場合、加速度検出部1による加速度の検出順序が早い方のモーション候補点をモーション操作点として残し、加速度の検出順序が遅い方のモーション候補点を削除する。
図7は図6のモーション候補点から検出されたモーション操作点の一例を示す説明図である。
図7では、“×”が検出されたモーション操作点であり、j番目の軸におけるモーション操作点をAX_Mj_1、AX_Mj_2で表わしている。
When detecting a plurality of motion candidate points, the axial
FIG. 7 is an explanatory diagram showing an example of motion operation points detected from the motion candidate points of FIG.
In FIG. 7, “×” is the detected motion operation point, and the motion operation points on the j-th axis are represented by AX_M j_1 and AX_M j_2 .
軸方向検出部3は、モーション操作点を検出すると、そのモーション操作点を検出している識別対象装置の軸方向を、ユーザが意図する操作に伴って動いている可能性がある軸方向として特徴量検出部4に出力する。
なお、軸方向検出部3によりモーション操作点が検出されない場合、ステップST1の処理に戻り、加速度検出部1が新たに加速度を検出する。
When detecting the motion operation point, the axial
If no motion operation point is detected by the axial
特徴量検出部4は、軸方向検出部3からモーション操作点を検出している識別対象装置の軸方向を受けると、その軸方向におけるモーション操作点近傍の加速度の時間的変化を解析し、その加速度の変化量などを特徴量として検出する(ステップST4)。
例えば、モーション操作点近傍の加速度AXji+k,AXji-1+kを下記の式(5)に代入して、j番目の軸における加速度の特徴量fj(k)を検出する。
fj(k)=AXji+k−AXji-1+k
(5)
When the feature
For example, accelerations AX ji + k and AX ji-1 + k in the vicinity of the motion operation point are substituted into the following equation (5) to detect the acceleration feature quantity f j (k) on the j-th axis.
f j (k) = AX ji + k −AX ji−1 + k
(5)
図8は図7のモーション操作点を基準にして、特徴量の検出処理を実施する範囲を示す説明図である。
図8では、モーション操作点AX_Mj_1、AX_Mj_2を中心として、±P番目までの加速度から特徴量を検出することを示している。
FIG. 8 is an explanatory diagram showing a range in which the feature amount detection process is performed based on the motion operation point of FIG.
FIG. 8 shows that feature amounts are detected from the accelerations up to ± Pth around the motion operation points AX_M j_1 and AX_M j_2 .
モーション検定部5は、特徴量検出部4が加速度の特徴量fj(k)を検出すると、その特徴量fj(k)を解析して、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証する(ステップST5)。
即ち、モーション検定部5は、例えば、特徴量検出部4により検出された特徴量fj(k)と、予め保持しているC個(C≧1)の認識対象モーション(例えば、ユーザが識別対象装置を2度叩く操作に伴う動作)及びD個(D≧1)の非認識対象モーション(例えば、持ち運びによる振動などに起因する動き)における加速度の特徴量gj m(k)とを下記の式(6)に代入して、相違度Dm(値が小さいほど類似性が高いことを示す評価値)を算出する。ただし、gj m(k)はm番目の加速度データのj番目の軸の特徴量を示すものである。
That is, for example, the
そして、モーション検定部5は、相違度Dmを与える特徴量gj m(k)を有する認識対象モーション又は非認識対象モーション、即ち、特徴量検出部4により検出された特徴量fj(k)との差異が最も少ない特徴量gj m(k)を有する認識対象モーション又は非認識対象モーションを特定する。
モーション検定部5は、特定結果が非認識対象モーションであれば、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きではないと認識する。
Then, the
If the specific result is a non-recognition target motion, the
モーション検定部5は、特定結果が何れかの認識対象モーションである場合、その認識対象モーションが軸方向検出部3により検出された軸方向に対応する認識対象モーションであれば、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであると認識する。
特定した認識対象モーションが軸方向検出部3により検出された軸方向に対応する認識対象モーションでなければ、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きではないと認識する。
When the identification result is any recognition target motion, the
If the identified recognition target motion is not a recognition target motion corresponding to the axial direction detected by the axial
ここでは、モーション検定部5が、式(6)を用いて、各モーションに対する相違度Dmを評価するものについて示したが、これに限るものではなく、その他の方法を用いて評価するようにしてもよい。
例えば、以下の非特許文献1に開示されているSVM(Support Vector Machine)を実施して、特徴量検出部4により検出された各軸方向の加速度の特徴量とモーション検定部5に記憶されている各軸方向の加速度の特徴量を照合し、モーションであるか否かを判定するようにしてもよい。
・非特許文献1
「津田宏治、“サポートベクターマシンと何か“、電子情報通信学会誌, No.83, Vol.6, pp. 460-466, 2000」
Here, although the
For example, the SVM (Support Vector Machine) disclosed in the following
・
“Koji Tsuda,“ What is Support Vector Machine ”, IEICE Journal, No.83, Vol.6, pp. 460-466, 2000”
以上で明らかなように、この実施の形態1によれば、加速度検出部1により検出された各軸方向の加速度の特徴点を検出する特徴点検出部2と、特徴点検出部2により検出された特徴点に基づいて、ユーザが意図する操作に伴って動いている可能性がある軸方向を検出する軸方向検出部3と、軸方向検出部3により検出された軸方向の加速度の特徴量を検出する特徴量検出部4とを設け、モーション検定部5が特徴量検出部4により検出された特徴量を解析して、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証するように構成したので、動きが小さいモーションを認識対象とする場合でも、識別対象装置の持ち運びによる振動などをモーションと誤認識することなく、正確にモーションを認識することができる効果を奏する。
As apparent from the above, according to the first embodiment, the feature
また、この実施の形態1によれば、モーション検定部5が特徴量検出部4により検出された特徴量と、認識対象モーション及び非認識対象モーションにおける加速度の特徴量とを照合して、軸方向検出部3により検出された軸方向の動きが、ユーザが意図する操作に伴う動きであるか否かを検証するように構成したので、ユーザが意図する操作に伴う動きであるか否かを高精度に検証することができる効果を奏する。
Further, according to the first embodiment, the
この実施の形態1によれば、識別対象装置の入力操作を行うプログラムを認識対象モーションと対応付けるようにすれば、ユーザが意図する操作に伴う動きを検出して、入力操作を行うことができる。 According to the first embodiment, by associating a program for performing an input operation of the identification target device with a recognition target motion, it is possible to detect a motion associated with an operation intended by the user and perform the input operation.
この実施の形態1では、特徴点検出部2が特徴点として極大点と極小点を検出するものについて示したが、これに限るものではなく、例えば、特徴点として、加速度の極点、変化量、変曲点、曲率、あるいは、予め設定された基準値を超える点を検出するようにしてもよい。また、これらを組み合わせて用いるようにしてもよい。
In the first embodiment, the feature
また、この実施の形態1では、特徴量検出部4がモーション操作点AX_Mj_1、AX_Mj_2を中心として、±P番目の範囲を特徴量の検出領域とするものについて示したが、図9に示すように、モーション操作点AX_Mj_1、AX_Mj_2の中点を中心として、±P番目の範囲を特徴量の検出領域とするようにしてもよい。
In the first embodiment, the feature
実施の形態2.
図10はこの発明の実施の形態2によるモーション認識装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
開閉状態検出部6は識別対象装置が閉状態であるか、開状態であるかを検出する処理を実施する。なお、開閉状態検出部6は開閉状態検出手段を構成している。
認識アルゴリズム決定部7は開閉状態検出部6の検出結果に応じて特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5における処理手順(例えば、認識アルゴリズム、閾値など)を制御する処理を実施する。なお、認識アルゴリズム決定部7は処理手順制御手段を構成している。
図11はこの発明の実施の形態2によるモーション認識装置の処理内容を示すフローチャートである。
FIG. 10 is a block diagram showing a motion recognition apparatus according to
The open / close
The recognition
FIG. 11 is a flowchart showing the processing contents of the motion recognition apparatus according to
次に動作について説明する。
加速度検出部1は、上記実施の形態1と同様に、動作を識別する識別対象装置の軸毎に、軸方向の加速度を検出する(ステップST1)。
Next, the operation will be described.
Similar to the first embodiment, the
開閉状態検出部6は、例えば、開閉センサを使用して、識別対象装置が閉状態であるか、開状態であるかを検出する(ステップST11)。
開閉センサは、例えば、識別対象装置のディスプレイ側に取り付けられたホールセンサと、識別対象装置のキー側に取り付けられた磁石とから構成されており、ホールセンサと磁石が近接して、ホールセンサが磁石の磁力を検知すると、識別対象装置の閉状態を検出する。
一方、ホールセンサと磁石が遠隔に位置し、ホールセンサが磁石の磁力を検知しなければ、識別対象装置の開状態を検出する。
The open / close
The open / close sensor includes, for example, a hall sensor attached to the display side of the identification target device and a magnet attached to the key side of the identification target device. When the magnetic force of the magnet is detected, the closed state of the identification target device is detected.
On the other hand, if the Hall sensor and the magnet are located remotely and the Hall sensor does not detect the magnetic force of the magnet, the open state of the identification target device is detected.
認識アルゴリズム決定部7は、開閉状態検出部6の検出結果に応じて、特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5が処理する際に使用する認識アルゴリズムや閾値などを決定する(ステップST12)。
例えば、識別対象装置が開状態であれば、ユーザが意図的に使用している可能性が高いため、軸方向検出部3がピーク点を検出する際に使用している評価式(1)(2)の閾値TH1を、識別対象装置が閉状態である場合よりも低い値に設定する。
また、例えば、軸方向検出部3がピーク点を検出する際、識別対象装置が閉状態であれば、評価式(1)(2)の双方が成立する場合に特徴点をピーク点として検出する認識アルゴリズムを使用し、識別対象装置が開状態であれば、評価式(1)(2)の何れか一方が成立する場合に特徴点をピーク点として検出する認識アルゴリズムを使用するようにする。
The recognition
For example, if the identification target device is in an open state, there is a high possibility that the user is intentionally using it. Therefore, the evaluation formula (1) used when the axial
Further, for example, when the axial
また、識別対象装置が閉状態から閉状態になると、例えば、軸方向検出部3がモーシン候補点を検出する際に使用している評価式(3)(4)を下記の評価式(6)に変更することで、2つのピーク点の方向が異なる場合でも、モーシン候補点を検出することが可能な認識アルゴリズムに切り替えるようにする。
|p−q|>TH2 (6)
ただし、2≦p≦M3−1、p+1≦q≦M3であり、TH2はピーク点からモーション候補点を決定するための2点間の間隔に関する閾値である。
Further, when the identification target device is changed from the closed state to the closed state, for example, the evaluation formulas (3) and (4) used when the axial
| Pq |> TH 2 (6)
However, 2 ≦ p ≦ M3-1 and p + 1 ≦ q ≦ M3, and TH 2 is a threshold value regarding the interval between two points for determining a motion candidate point from the peak point.
特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5は、認識アルゴリズム決定部7により決定された認識アルゴリズムにしたがって各種の処理を実行する。
特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5の処理内容は、上記実施の形態1と同様であるため説明を省略する。
The feature
Since the processing contents of the feature
以上で明らかなように、この実施の形態2によれば、識別対象装置の開閉状態を検出する開閉状態検出部6を設け、認識アルゴリズム決定部7が開閉状態検出部6の検出結果に応じて特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5における処理手順(例えば、認識アルゴリズム、閾値など)を制御するように構成したので、上記実施の形態1よりもモーションの認識精度を高めることができる効果を奏する。
As is apparent from the above, according to the second embodiment, the open / close
実施の形態3.
図12はこの発明の実施の形態3によるモーション認識装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
利用状態検出部8は識別対象装置の利用状態を検出する処理を実施する。なお、利用状態検出部8は利用状態検出手段を構成している。
認識アルゴリズム決定部9は利用状態検出部8の検出結果に応じて特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5における処理手順(例えば、認識アルゴリズム、閾値など)を制御する処理を実施する。なお、認識アルゴリズム決定部9は処理手順制御手段を構成している。
図13はこの発明の実施の形態3によるモーション認識装置の処理内容を示すフローチャートである。
12 is a block diagram showing a motion recognition apparatus according to
The usage
The recognition
FIG. 13 is a flowchart showing the processing contents of the motion recognition apparatus according to
次に動作について説明する。
加速度検出部1は、上記実施の形態1と同様に、動作を識別する識別対象装置の軸毎に、軸方向の加速度を検出する(ステップST1)。
Next, the operation will be described.
Similar to the first embodiment, the
利用状態検出部8は、識別対象装置の利用状態を検出する(ステップST21)。
例えば、利用状態検出部8は、識別対象装置の利用状態が横向きの状態であるか、縦向きの状態であるかを検出する。
縦横の傾きを検出するには、例えば、3軸の加速度センサから得られる重力加速度の方向を検出することで実現することができる。
また、利用状態検出部8は、識別対象装置の利用状態を検出することで、現在、ユーザにより起動されているアプリケーションの種類などの情報を検出する。
The usage
For example, the usage
Detection of the vertical and horizontal inclinations can be realized, for example, by detecting the direction of gravitational acceleration obtained from a triaxial acceleration sensor.
Further, the usage
認識アルゴリズム決定部9は、利用状態検出部8の検出結果(傾き状態、現在起動されているアプリケーション)に応じて、特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5が処理する際に使用する認識アルゴリズムや閾値などを決定する(ステップST22)。
例えば、識別対象装置が横向き状態であり、かつ、ワンセグなどのアプリケーションが起動されている場合、ユーザが持ち運びなどではなく、識別対象装置を利用している可能性が高いため、軸方向検出部3がピーク点を検出する際に使用している評価式(1)(2)の閾値TH1を、識別対象装置が利用されていない場合よりも低い値に設定する。
また、例えば、軸方向検出部3がピーク点を検出する際、識別対象装置が特定の利用状態であれば、評価式(1)(2)の双方が成立する場合に特徴点をピーク点として検出する認識アルゴリズムを使用し、識別対象装置が他の特定の利用状態であれば、評価式(1)(2)の何れか一方が成立する場合に特徴点をピーク点として検出する認識アルゴリズムを使用するようにする。
The recognition
For example, when the identification target device is in the horizontal state and an application such as one seg is activated, the user is more likely to use the identification target device instead of carrying it, so the axial
For example, when the axial
また、識別対象装置が特定の利用状態になると、例えば、軸方向検出部3がモーシン候補点を検出する際に使用している評価式(3)(4)を評価式(6)に変更することで、2つのピーク点の方向が異なる場合でも、モーシン候補点を検出することが可能な認識アルゴリズムに切り替えるようにする。
Further, when the identification target device enters a specific use state, for example, the evaluation formulas (3) and (4) used when the axial
特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5は、認識アルゴリズム決定部9により決定された認識アルゴリズムにしたがって各種の処理を実行する。
特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5の処理内容は、上記実施の形態1と同様であるため説明を省略する。
The feature
Since the processing contents of the feature
以上で明らかなように、この実施の形態3によれば、識別対象装置の利用状態を検出する利用状態検出部8を設け、認識アルゴリズム決定部9が利用状態検出部8の検出結果に応じて特徴点検出部2、軸方向検出部3、特徴量検出部4及びモーション検定部5における処理手順(例えば、認識アルゴリズム、閾値など)を制御するように構成したので、上記実施の形態1よりもモーションの認識精度を高めることができる効果を奏する。
As is apparent from the above, according to the third embodiment, the usage
1 加速度検出部(加速度検出手段)、2 特徴点検出部(特徴点検出手段)、3 軸方向検出部(軸方向検出手段)、4 特徴量検出部(特徴量検出手段)、5 モーション検定部(検証手段)、6 開閉状態検出部(開閉状態検出手段)、7 認識アルゴリズム決定部(処理手順制御手段)、8 利用状態検出部(利用状態検出手段)、9 認識アルゴリズム決定部(処理手順制御手段)。
DESCRIPTION OF
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008091236A JP2009245176A (en) | 2008-03-31 | 2008-03-31 | Motion recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008091236A JP2009245176A (en) | 2008-03-31 | 2008-03-31 | Motion recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009245176A true JP2009245176A (en) | 2009-10-22 |
Family
ID=41306981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008091236A Pending JP2009245176A (en) | 2008-03-31 | 2008-03-31 | Motion recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009245176A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011197992A (en) * | 2010-03-19 | 2011-10-06 | Fujitsu Ltd | Device and method for determining motion, and computer program |
JP2011242832A (en) * | 2010-05-14 | 2011-12-01 | Sony Corp | Information processor and operation method for information processor |
JP2012098254A (en) * | 2010-11-05 | 2012-05-24 | Lapis Semiconductor Co Ltd | Motion detecting device, electronic apparatus, method for detecting motion, and program |
JP2013074546A (en) * | 2011-09-28 | 2013-04-22 | Kyocera Corp | Device, method, and program |
JP2013222449A (en) * | 2012-04-19 | 2013-10-28 | Fujitsu Ltd | Operation motion detecting device, operation motion detecting method, and program |
KR101748181B1 (en) * | 2010-11-22 | 2017-06-16 | 주식회사 케이티 | Portable electronic apparatus and control method thereof |
-
2008
- 2008-03-31 JP JP2008091236A patent/JP2009245176A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011197992A (en) * | 2010-03-19 | 2011-10-06 | Fujitsu Ltd | Device and method for determining motion, and computer program |
US8615375B2 (en) | 2010-03-19 | 2013-12-24 | Fujitsu Limited | Motion determination apparatus and motion determination method |
JP2011242832A (en) * | 2010-05-14 | 2011-12-01 | Sony Corp | Information processor and operation method for information processor |
US10809807B2 (en) | 2010-05-14 | 2020-10-20 | Sony Corporation | Information processing apparatus and associated methodology for performing functions based on gestures |
JP2012098254A (en) * | 2010-11-05 | 2012-05-24 | Lapis Semiconductor Co Ltd | Motion detecting device, electronic apparatus, method for detecting motion, and program |
US8942950B2 (en) | 2010-11-05 | 2015-01-27 | Lapis Semiconductor Co., Ltd. | Motion detection device, electronic device, motion detection method, and program storage medium |
US9417705B2 (en) | 2010-11-05 | 2016-08-16 | Lapis Semiconductor Co., Ltd. | Motion detection device, electronic device, motion detection method, and program storage medium |
KR101748181B1 (en) * | 2010-11-22 | 2017-06-16 | 주식회사 케이티 | Portable electronic apparatus and control method thereof |
JP2013074546A (en) * | 2011-09-28 | 2013-04-22 | Kyocera Corp | Device, method, and program |
JP2013222449A (en) * | 2012-04-19 | 2013-10-28 | Fujitsu Ltd | Operation motion detecting device, operation motion detecting method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101939683B1 (en) | Apparatus and method for recognizing user activity | |
JP4856197B2 (en) | Image processing apparatus and image processing method | |
JP6007682B2 (en) | Image processing apparatus, image processing method, and program | |
US20110158476A1 (en) | Robot and method for recognizing human faces and gestures thereof | |
JP2009245176A (en) | Motion recognition device | |
US20130279756A1 (en) | Computer vision based hand identification | |
Vu et al. | Smartwatch-based early gesture detection 8 trajectory tracking for interactive gesture-driven applications | |
KR20130141657A (en) | System and method for gesture recognition | |
WO2012143603A2 (en) | Methods and apparatuses for facilitating gesture recognition | |
ATE407409T1 (en) | AUTOMATIC GESTURE DETECTION | |
US8396263B2 (en) | Method, apparatus and computer program product for providing face pose estimation | |
CN103793926A (en) | Target tracking method based on sample reselecting | |
US20170017303A1 (en) | Operation recognition device and operation recognition method | |
KR101417433B1 (en) | User identification apparatus using movement of pupil and method thereof | |
US20170017856A1 (en) | Information processing apparatus and information processing method | |
JP2017117211A (en) | Detection device, method, and program | |
JP2012118683A (en) | Pedestrian recognition device | |
US20160335916A1 (en) | Portable device and control method using plurality of cameras | |
JP2017191426A (en) | Input device, input control method, computer program, and storage medium | |
EP2831706B1 (en) | A multimodal system and method facilitating gesture creation through scalar and vector data | |
Neto et al. | Real-time head pose estimation for mobile devices | |
JP5829155B2 (en) | Pedestrian detection device and program | |
KR101703690B1 (en) | Apparatus for recognizing iris and operating method thereof | |
US9761009B2 (en) | Motion tracking device control systems and methods | |
US20170192521A1 (en) | Context aware movement recognition system |