JP2017142736A - Gesture recognition device, method and program - Google Patents

Gesture recognition device, method and program Download PDF

Info

Publication number
JP2017142736A
JP2017142736A JP2016025005A JP2016025005A JP2017142736A JP 2017142736 A JP2017142736 A JP 2017142736A JP 2016025005 A JP2016025005 A JP 2016025005A JP 2016025005 A JP2016025005 A JP 2016025005A JP 2017142736 A JP2017142736 A JP 2017142736A
Authority
JP
Japan
Prior art keywords
gesture
value
maximum value
average value
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016025005A
Other languages
Japanese (ja)
Inventor
篤彦 前田
Atsuhiko Maeda
篤彦 前田
仁史 川崎
Hitoshi Kawasaki
仁史 川崎
章博 筒井
Akihiro Tsutsui
章博 筒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016025005A priority Critical patent/JP2017142736A/en
Publication of JP2017142736A publication Critical patent/JP2017142736A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to recognize a gesture of a hand with high accuracy even when a wrist band is re-worn to a wrist or a direction of the wrist is changed.SOLUTION: In a learning mode, a gesture recognition device is configured to: detect an average value and maximum value among three pieces of pressure sensors 31, 32 and 33 of detection values to be obtained by the three sensors when performing an input operation of a gesture of a recognition object; and store a time average of the time-wise detection as an amount of characteristic. In a usage mode, the gesture recognition device is configured to: firstly perform the input operation of a reference gesture; detect an average value and maximum value among the pressure sensors 31, 32 and 33 at a peak time of the detection values of the pressure sensors; obtain a difference between corresponding amounts of characteristic and these values as a correction value; subsequently detect an average value and maximum value among the pressure sensors 31, 32 and 33 at a peak time of the detection values of the pressure sensors when the input operation of an arbitrary gesture is performed; correct the average value and maximum value by the correction value; and recognize the gesture on the basis of post-corrected values.SELECTED DRAWING: Figure 2

Description

この発明は、手によるジェスチャを認識するためのジェスチャ認識装置、方法およびプログラムに関する。   The present invention relates to a gesture recognition apparatus, method, and program for recognizing hand gestures.

ウェアラブルデバイスやエアコン、テレビジョン受信機等の身の回りの機器を操作する手段として、一般に専用のリモートコントローラや、スマートフォン等の携帯端末等が使用される。しかし、ジョギング中や料理の最中、もしくは混雑した街中を歩いているときなど、主たる行為から僅かな時間しか意識を離すことができない状況下では、リモートコントローラや携帯端末を取り出して、操作パネルを視認しながらボタン操作またはタッチ操作することが困難な場合が多い。   In general, a dedicated remote controller, a portable terminal such as a smartphone, and the like are used as means for operating personal devices such as a wearable device, an air conditioner, and a television receiver. However, in situations where you can only take a few moments away from the main activities, such as jogging, cooking, or walking in a crowded city, take out the remote controller or mobile device and open the operation panel. In many cases, it is difficult to perform a button operation or a touch operation while visually recognizing.

そこで、最近では手首にリストバンド型のデバイスを装着して手のジェスチャを認識することにより、ウェアラブルデバイスや身の回りの機器を操作する試みが数多く行われている。この種のデバイスを使用すると、主たる行為を一時中断することなく、操作対象を操作することが可能となり大変便利である。   Therefore, recently, many attempts have been made to operate wearable devices and personal devices by attaching wristband devices to the wrist and recognizing hand gestures. When this type of device is used, it is possible to operate the operation target without temporarily interrupting the main action, which is very convenient.

手のジェスチャを認識するための技術としては、コンピュータビジョンを使う手法や表面筋電位を計測する手法など、これまで様々な手法が提案されてきたが、近年、指の動作により生じる手首の形状変化を複数の圧力センサを用いて検出する手法が新たに提案されている(例えば非特許文献1を参照)。   Various techniques have been proposed for recognizing hand gestures, such as using computer vision and measuring surface myoelectric potential. In recent years, wrist shape changes caused by finger movements have been proposed. A new method has been proposed for detecting the above using a plurality of pressure sensors (see Non-Patent Document 1, for example).

指を動かす筋肉の多くは前腕部にあるため、指の動作により前腕の筋肉と指を繋ぐ腱が動き、その結果手首の形状が変化する。この変化を、リストバンドに装備した複数の圧力センサを用いて、リストバンドが受ける圧力分散として検出する。この手法は、センサ自体が低消費電力で安価であり、精度を向上させるには導電ペーストが必要となる筋電センサなどに比べて手軽に装着できることなどから、きわめて有望である。   Since most of the muscles that move the fingers are in the forearm, the tendon that moves the forearm muscles and the fingers moves by the movement of the fingers, and as a result, the shape of the wrist changes. This change is detected as pressure dispersion received by the wristband using a plurality of pressure sensors provided in the wristband. This method is very promising because the sensor itself is low in power consumption and inexpensive, and can be easily attached compared to a myoelectric sensor that requires a conductive paste to improve accuracy.

Dementyev, A. and Paradiso, J. A.: WristFlex: Low- Power Gesture Input with Wrist-Worn Pressure Sensors、 In Proceeding of User Interface Software and Tchnology 2014, pp.161-166, ACM (2014).Dementyev, A. and Paradiso, J. A .: WristFlex: Low-Power Gesture Input with Wrist-Worn Pressure Sensors, In Proceeding of User Interface Software and Tchnology 2014, pp.161-166, ACM (2014).

ところが、リストバンドに装備した複数の圧力センサを用いて、手首の形状変化をリストバンドが受ける圧力分散として検出する手法には、リストバンドを手首に装着し直した場合や腕の向きを変えた場合に、認識性能が大きく低下するという課題が報告されている。これは、リストバンドを装着し直すことにより装着位置やバンドの締め付け具合が変わってしまったり、腕の向きを変えたときに手首の形状が変化してしまうことによる。   However, the method of detecting the wrist shape change as the pressure dispersion received by the wristband using multiple pressure sensors equipped on the wristband is when the wristband is remounted on the wrist or the direction of the arm is changed. In some cases, the problem that the recognition performance is greatly reduced has been reported. This is because the wearing position and the tightening condition of the band change by re-mounting the wrist band, or the wrist shape changes when the direction of the arm is changed.

この発明は上記事情に着目してなされたもので、その目的とするところは、リストバンドを手首に装着し直したり手首の向きを変えた場合でも、手のジェスチャを精度良く認識できるようにしたジェスチャ認識装置、方法およびプログラムを提供することにある。   The present invention has been made paying attention to the above circumstances, and its purpose is to recognize a hand gesture with high accuracy even when the wristband is re-attached to the wrist or the direction of the wrist is changed. To provide a gesture recognition apparatus, method, and program.

上記課題を解決するためにこの発明の第1の態様は、リストバンドに配置された複数の圧力センサからそれぞれ圧力の検出値を示す時系列データを受信する手段を有し、基準となるジェスチャの入力動作が行われている第1の期間に、前記複数の圧力センサからそれぞれ受信した時系列データからピーク値を検出し、当該ピーク値の検出時点における前記時系列データ間の平均値および最大値の少なくとも一方を検出し、当該検出された平均値および最大値の少なくとも一方をもとに補正値を生成する。そして、前記第1の期間に続く、任意のジェスチャの入力動作が行われている第2の期間に、前記複数の圧力センサからそれぞれ受信した時系列データ間の平均値および最大値の少なくとも一方を検出して、当該検出した平均値および最大値の少なくとも一方を前記補正値をもとに補正し、この補正された平均値および最大値の少なくとも一方に基づいて前記任意のジェスチャを認識するようにしたものである。   In order to solve the above-described problem, a first aspect of the present invention includes means for receiving time-series data indicating detected pressure values from a plurality of pressure sensors arranged in a wristband, and provides a reference gesture. A peak value is detected from time-series data received from each of the plurality of pressure sensors during a first period during which an input operation is performed, and an average value and a maximum value between the time-series data at the time of detection of the peak value Is detected, and a correction value is generated based on at least one of the detected average value and maximum value. Then, in a second period in which an arbitrary gesture input operation is performed following the first period, at least one of an average value and a maximum value between the time series data respectively received from the plurality of pressure sensors is obtained. Detecting, correcting at least one of the detected average value and maximum value based on the correction value, and recognizing the arbitrary gesture based on at least one of the corrected average value and maximum value. It is a thing.

この発明の第2の態様は、認識対象となる複数のジェスチャの各々に対応する特徴量を記憶した記憶部をさらに具備する。そして、前記ピーク値の検出時点における前記時系列データ間の平均値および最大値の少なくとも一方と、前記記憶部に記憶された前記基準となるジェスチャに対応する特徴量とをもとに、前記補正値を生成するようにしたものである。   The second aspect of the present invention further includes a storage unit that stores feature amounts corresponding to each of a plurality of gestures to be recognized. Then, the correction is performed based on at least one of an average value and a maximum value between the time-series data at the time of detection of the peak value and a feature amount corresponding to the reference gesture stored in the storage unit. A value is generated.

この発明の第3の態様は、ジェスチャの特徴量を登録するための学習手段をさらに具備する。そして、この学習手段により、前記認識対象となる複数のジェスチャの各々について、その入力動作期間に前記複数の圧力センサからそれぞれ受信した時系列データ間の平均値および最大値の少なくとも一方を検出して、当該検出された平均値および最大値の少なくとも一方について前記入力動作期間における平均を算出し、当該算出された平均を前記対応するジェスチャに対応する特徴量として前記記憶手段に記憶させるようにしたものである。   The third aspect of the present invention further includes learning means for registering the feature amount of the gesture. Then, by this learning means, for each of the plurality of gestures to be recognized, at least one of an average value and a maximum value between the time series data received from the plurality of pressure sensors during the input operation period is detected. , Calculating an average in the input operation period for at least one of the detected average value and maximum value, and storing the calculated average in the storage means as a feature amount corresponding to the corresponding gesture It is.

この発明の第4の態様は、前記ジェスチャを認識する手段により認識された任意のジェスチャに対応する操作コマンド情報を生成し、当該生成された操作コマンド情報を操作対象の機器へ送出する手段を、さらに具備するようにしたものである。   According to a fourth aspect of the present invention, there is provided means for generating operation command information corresponding to an arbitrary gesture recognized by the means for recognizing the gesture, and sending the generated operation command information to a device to be operated. Further, it is provided.

この発明の第1の態様によれば、複数の圧力センサにより得られる時系列データ間の平均値又は最大値が用いられ、かつ基準ジェスチャによる得られる平均値又は最大値に基づいて、それに続いて入力された任意のジェスチャによる平均値又は最大値が補正され、この補正後の値をもとに上記任意のジェスチャの認識が行われる。このため、リストバンドを手首に装着し直したり腕の向きを変えた場合でも、手のジェスチャを精度良く認識する可能となり、これによりいつでもまたどこででも利用可能なジェスチャ認識装置を提供することができる。   According to the first aspect of the present invention, an average value or maximum value between time-series data obtained by a plurality of pressure sensors is used, and subsequently, based on the average value or maximum value obtained by the reference gesture. The average value or maximum value of the input arbitrary gesture is corrected, and the arbitrary gesture is recognized based on the corrected value. For this reason, even when the wristband is remounted on the wrist or the direction of the arm is changed, it is possible to accurately recognize the hand gesture, and thereby it is possible to provide a gesture recognition device that can be used anytime and anywhere. .

この発明の第2の態様によれば、認識対象となる複数のジェスチャの各々に対応する特徴量を予め記憶しておき、基準ジェスチャの入力動作期間に得られた時系列データ間の平均値および最大値の少なくとも一方と、上記記憶された基準ジェスチャに対応する特徴量とをもとに補正値が生成される。従って、正確な補正値を生成することが可能となる。   According to the second aspect of the present invention, the feature amount corresponding to each of the plurality of gestures to be recognized is stored in advance, and the average value between the time series data obtained during the input operation period of the reference gesture and A correction value is generated based on at least one of the maximum values and the feature amount corresponding to the stored reference gesture. Accordingly, it is possible to generate an accurate correction value.

この発明の第3の態様によれば、学習モードによりジェスチャごとの特徴量が生成されて記憶される。このため、ジェスチャごとの特徴量をユーザごとに正確に設定することができ、これにより補正の精度延いてはジェスチャの認識精度を高めることが可能となる。   According to the third aspect of the present invention, the feature quantity for each gesture is generated and stored in the learning mode. For this reason, the feature amount for each gesture can be accurately set for each user, and thus the accuracy of correction and the recognition accuracy of the gesture can be increased.

この発明の第4の態様によれば、ジェスチャの認識結果に応じて操作コマンド情報が生成され、当該生成された操作コマンド情報が操作対象の機器へ送出される。このため、ジェスチャ認識装置から操作対象の機器を直接操作制御することが可能となる。   According to the fourth aspect of the present invention, the operation command information is generated according to the gesture recognition result, and the generated operation command information is sent to the operation target device. For this reason, it becomes possible to directly control the operation target device from the gesture recognition device.

すなわちこの発明によれば、リストバンドを手首に装着し直したり手首の向きを変えた場合でも、手のジェスチャを精度良く認識できるようにしたジェスチャ認識装置、方法およびプログラムを提供することができる。   That is, according to the present invention, it is possible to provide a gesture recognition device, method, and program capable of accurately recognizing a hand gesture even when the wristband is remounted on the wrist or the direction of the wrist is changed.

この発明の一実施形態に係るジェスチャ認識装置を手首に装着した状態を示す断面図。Sectional drawing which shows the state which mounted | wore the wrist with the gesture recognition apparatus which concerns on one Embodiment of this invention. この発明の一実施形態に係るジェスチャ認識装置の機能構成を示すブロック図。The block diagram which shows the function structure of the gesture recognition apparatus which concerns on one Embodiment of this invention. 図2に示したジェスチャ認識装置による認識処理手順と処理内容を示すフローチャート。The flowchart which shows the recognition processing procedure and processing content by the gesture recognition apparatus shown in FIG. 手によるジェスチャの種類の一例を示す図。The figure which shows an example of the kind of gesture by hand. 図4に示したジェスチャに対応するセンサデータの特徴量の一例を示す図。The figure which shows an example of the feature-value of the sensor data corresponding to the gesture shown in FIG. 手によりジェスチャを行ったときのセンサ検出電圧の変化の一例を示す図。The figure which shows an example of the change of the sensor detection voltage when performing gesture by hand. ジェスチャ認識装置を異なる3種類の条件で手首に装着したときの、3個のセンサの検出電圧値の変化を、ジェスチャの種類別に示した図。The figure which showed the change of the detection voltage value of three sensors according to the kind of gesture when a gesture recognition apparatus is mounted | worn with a wrist on three different conditions. 図7に示した3種類の条件をパラメータとしたときの、3個のセンサ間の検出電圧平均値の時系列方向におけるピーク値を、ジェスチャの種類別に示した図。The figure which showed the peak value in the time-sequential direction of the detection voltage average value between three sensors when the three types of conditions shown in FIG. 7 were used as parameters, according to the type of gesture. 図7に示した3種類の条件をパラメータとしたときの、3個のセンサ間の検出電圧最大値の時系列方向におけるピーク値を、ジェスチャの種類別に示した図。The figure which showed the peak value in the time-sequential direction of the detection voltage maximum value between three sensors when the three types of conditions shown in FIG. 7 were used as a parameter according to the kind of gesture. ジェスチャ認識装置を手首に3回装着し直したときの、3個のセンサの検出電圧値の変化を、ジェスチャの種類別に示した図。The figure which showed the change of the detected voltage value of three sensors according to the kind of gesture when a gesture recognition apparatus is mounted | worn again to the wrist 3 times. 図10に示した3回の装着し直しをパラメータとしたときの、3個のセンサ間の検出電圧平均値の時系列方向におけるピーク値を、ジェスチャの種類別に示した図。The figure which showed the peak value in the time-sequential direction of the detection voltage average value between three sensors when the reattachment of 3 times shown in FIG. 10 was made into the parameter, according to the kind of gesture. 図10に示した3回の装着し直しをパラメータとしたときの、3個のセンサ間の検出電圧最大値の時系列方向におけるピーク値を、ジェスチャの種類別に示した図。The figure which showed the peak value in the time-sequential direction of the detection voltage maximum value between three sensors when the reattachment of 3 times shown in FIG. 10 was made into the parameter, according to the kind of gesture. 3個のセンサの検出電圧をそのまま特徴量としてジェスチャを認識する従来の手法による認識正解率と、3個のセンサの平均値/最大値の時系列方向のピーク値を特徴量としこの特徴量を補正してジェスチャを認識する一実施形態の手法による認識正解率との比較結果の一例を示す図。The recognition accuracy rate according to the conventional method for recognizing a gesture using the detected voltages of the three sensors as they are and the peak value in the time series direction of the average value / maximum value of the three sensors as a feature value. The figure which shows an example of the comparison result with the recognition correct rate by the method of one Embodiment which correct | amends and recognize a gesture.

以下、図面を参照してこの発明に係わる実施形態を説明する。
[一実施形態]
(構成)
図1は、この発明の一実施形態に係るジェスチャ認識装置を手首に装着したときの手首の断面図である。
ジェスチャ認識装置1は、装置本体10をリストバンド20に装着したもので、リストバンド20によりユーザの手首に着脱可能に装着される。リストバンド20の、上記装置本体10の装着位置とは反対側となる部位には、センサアレイ30が配設されている。センサアレイ30は、3個の圧力センサ31,32,33をリストバンドの周方向に配置したものである。圧力センサ31,32,33の各々は、例えば一種の可変抵抗であり、抵抗分圧回路を構成する。そして、ユーザの手首付近に存在する複数の腱41の動きに伴い加えられる圧力を検出して、アナログ値からなる検出信号を時系列的に出力する。なお、図42は尺骨を、また43は橈骨をそれぞれ示している。
Embodiments according to the present invention will be described below with reference to the drawings.
[One Embodiment]
(Constitution)
FIG. 1 is a cross-sectional view of a wrist when a gesture recognition device according to an embodiment of the present invention is attached to the wrist.
The gesture recognition device 1 is a device in which the device main body 10 is attached to a wristband 20 and is detachably attached to a user's wrist by the wristband 20. A sensor array 30 is disposed on a portion of the wristband 20 that is opposite to the mounting position of the apparatus main body 10. The sensor array 30 has three pressure sensors 31, 32, 33 arranged in the circumferential direction of the wristband. Each of the pressure sensors 31, 32, and 33 is, for example, a kind of variable resistor, and constitutes a resistance voltage dividing circuit. And the pressure added with the motion of the some tendon 41 which exists in the user's wrist vicinity is detected, and the detection signal which consists of an analog value is output in time series. FIG. 42 shows the ulna and 43 shows the radius.

図2は、装置本体10の機能構成を示すブロック図である。装置本体10は、例えば時計機能や音楽再生機能、ウェブアクセスやメール送受信のための無線通信インタフェース等を備えるウェアラブル端末からなり、上面部には操作キーが配置されている。操作キーの一部または全部は、教師データ入力部14として用いられる。教師データ入力部14は、学習モードにおいて認識対象のジェスチャの種類を指定入力するために使用されるもので、例えば9個の操作キーに対し「0」から「8」までの番号が振られている。   FIG. 2 is a block diagram illustrating a functional configuration of the apparatus main body 10. The apparatus body 10 is composed of a wearable terminal having a clock function, a music playback function, a wireless communication interface for web access and mail transmission / reception, for example, and operation keys are arranged on the upper surface. Part or all of the operation keys are used as the teacher data input unit 14. The teacher data input unit 14 is used to designate and input the type of gesture to be recognized in the learning mode. For example, numbers from “0” to “8” are assigned to nine operation keys. Yes.

装置本体10は、本実施形態を実現するための機能として、上記教師データ入力部14のほかに、制御ユニット11と、A/D変換部12と、特徴量記憶部13とを備えている。A/D変換部12は、上記センサアレイ30の3個の圧力センサ31,32,33から出力された検出信号を、それぞれ所定のサンプリング周期(例えば500Hz)でサンプリングしてデジタル値に変換し、圧力検出値を表す時系列データを出力する。特徴量記憶部13は、NAND型のフラッシュメモリからなり、学習モードにおいて設定されるジェスチャごとのセンサ検出値の特徴量を記憶するために使用される。   The apparatus main body 10 includes a control unit 11, an A / D conversion unit 12, and a feature amount storage unit 13 in addition to the teacher data input unit 14 as functions for realizing the present embodiment. The A / D converter 12 samples the detection signals output from the three pressure sensors 31, 32, and 33 of the sensor array 30 at predetermined sampling periods (for example, 500 Hz) and converts them into digital values, Outputs time-series data representing the pressure detection value. The feature amount storage unit 13 includes a NAND flash memory, and is used to store the feature amount of the sensor detection value for each gesture set in the learning mode.

制御ユニット11は、中央制御ユニット(CPU)を有し、その機能として制御部111と、最大値抽出部112と、平均値算出部113と、ピーク検出部114と、操作コマンド生成部115とを有している。これらの機能部は、いずれも図示しないプログラムメモリに格納されたプログラムを、上記CPUに実行させることにより実現される。   The control unit 11 includes a central control unit (CPU), and includes a control unit 111, a maximum value extraction unit 112, an average value calculation unit 113, a peak detection unit 114, and an operation command generation unit 115 as functions thereof. Have. These functional units are realized by causing the CPU to execute a program stored in a program memory (not shown).

制御部111は、制御ユニット11内の動作を統括的に制御する。最大値抽出部112は、上記3個の圧力センサ31,32,33から出力された検出信号のデジタル値を上記サンプリング周期ごとに比較して、最大値を抽出する。平均値算出部113は、上記サンプリング周期ごとに、上記3個の圧力センサ31,32,33間で、その検出信号のデジタル値の平均値を算出する。ピーク検出部114は、上記最大値抽出部112により抽出された最大値と、上記平均値算出部113により算出された平均値のそれぞれについて、所定期間における時系列上のピーク値を検出する。   The control unit 111 comprehensively controls the operation in the control unit 11. The maximum value extraction unit 112 extracts the maximum value by comparing the digital values of the detection signals output from the three pressure sensors 31, 32, and 33 for each sampling period. The average value calculation unit 113 calculates the average value of the digital values of the detection signals between the three pressure sensors 31, 32, and 33 for each sampling period. The peak detection unit 114 detects a peak value on a time series in a predetermined period for each of the maximum value extracted by the maximum value extraction unit 112 and the average value calculated by the average value calculation unit 113.

操作コマンド生成部115は、認識対象となるジェスチャのIDと当該ジェスチャに対応する操作コマンドとを関連付けて記憶したメモリテーブルを備え、利用モードにおいて制御部111によりジェスチャ認識されたとき、そのIDをもとに上記メモリテーブルから対応する操作コマンドを読み出して出力する。   The operation command generation unit 115 includes a memory table in which an ID of a gesture to be recognized and an operation command corresponding to the gesture are stored in association with each other. When the gesture is recognized by the control unit 111 in the use mode, the operation command generation unit 115 also stores the ID. The corresponding operation command is read from the memory table and output.

(動作)
次に、以上のように構成されたジェスチャ認識装置1の動作を説明する。図3は制御ユニット11による処理手順と処理内容を示すフローチャートである。
(Operation)
Next, the operation of the gesture recognition device 1 configured as described above will be described. FIG. 3 is a flowchart showing a processing procedure and processing contents by the control unit 11.

(1)学習モード
利用モードに先立ち、ジェスチャ認識装置1に認識対象のジェスチャを機械学習させておく必要があり、この学習動作は以下のように行われる。なお、機械学習には最近傍法やサポートベクターマシーンなど様々な方法があり、どのような方法を用いても学習が可能であるが、ここでは説明の簡単のため最も単純な最近傍法を用いた場合を例にとって説明する。
(1) Learning Mode Prior to the use mode, it is necessary for the gesture recognition device 1 to perform machine learning on a gesture to be recognized, and this learning operation is performed as follows. There are various methods for machine learning, such as the nearest neighbor method and support vector machine, and any method can be used for learning, but the simplest nearest neighbor method is used here for ease of explanation. An example will be described.

ジェスチャの学習は、リストバンド20を手首に装着し、教師データ入力部14において認識対象のジェスチャに対応するキーを押下した状態で、そのジェスチャ動作を一定時間行うことでなされる。例えば、いま認識対象のジェスチャが図4に示す「0」から「8」までの9種類だったとし、このうちの「1」のジェスチャを学習させる場合には、教師データ入力部14において「1」のキーを押下したまま、図4の「1」に示すジェスチャ動作を1秒間行う。   The gesture learning is performed by wearing the wristband 20 on the wrist and performing the gesture operation for a predetermined time in a state where the key corresponding to the gesture to be recognized is pressed in the teacher data input unit 14. For example, assuming that there are nine types of gestures from “0” to “8” shown in FIG. 4 and the “1” gesture among them is to be learned, the teacher data input unit 14 uses “1”. The gesture operation indicated by “1” in FIG. 4 is performed for one second while the “” key is pressed.

学習モードが設定された状態で制御部111は、ステップS10において教師データ入力部14によるキーの押下操作を検出すると、ステップS11に移行して以後学習モードによる特徴量登録処理を以下のように実行する。   When the learning mode is set and the control unit 111 detects a key pressing operation by the teacher data input unit 14 in step S10, the control unit 111 proceeds to step S11 and subsequently executes the feature amount registration processing in the learning mode as follows. To do.

すなわち、3個の圧力センサ31,32,33から出力された検出信号のデジタル値(以後検出電圧と称する)をA/D変換部12からそのサンプリングタイミングごとに取り込み、平均値算出部113および最大値抽出部112へそれぞれ与える。平均値算出部113は、上記サンプリングタイミングが同じもの同士で、上記3個の圧力センサ31,32,33の検出電圧の平均値を算出し、算出した平均値を制御部111へ返す。最大値抽出部112は、上記サンプリングタイミングが同じもの同士で、上記3個の圧力センサ31,32,33の検出電圧の中で最も大きいものを抽出し、抽出した最大値を制御部111へ返す。   That is, digital values (hereinafter referred to as detection voltages) of detection signals output from the three pressure sensors 31, 32, and 33 are fetched from the A / D conversion unit 12 at each sampling timing, and the average value calculation unit 113 and the maximum value are calculated. Each value is given to the value extraction unit 112. The average value calculation unit 113 calculates the average value of the detection voltages of the three pressure sensors 31, 32, 33 with the same sampling timing, and returns the calculated average value to the control unit 111. The maximum value extraction unit 112 extracts the largest one of the detected voltages of the three pressure sensors 31, 32, 33 among the same sampling timing, and returns the extracted maximum value to the control unit 111. .

制御部111は、教師データ入力部14の「1」キーが押下されている期間に上記平均値算出部113および最大値抽出部112により求められたセンサ間の平均値および最大値を、制御部111内のバッファメモリに保存する。この結果、例えば上記「1」キーが1秒間押下されたとすれば、サンプリングレートが500Hzなので、バッファメモリにはセンサ間の平均値および最大値がそれぞれ500個保存されることになる。   The control unit 111 calculates the average value and the maximum value between the sensors obtained by the average value calculation unit 113 and the maximum value extraction unit 112 during the period when the “1” key of the teacher data input unit 14 is pressed. The data is stored in the buffer memory in 111. As a result, if the “1” key is pressed for 1 second, for example, since the sampling rate is 500 Hz, the buffer memory stores 500 average values and maximum values between the sensors.

上記「1」キーの押下が解放されると、制御部111は上記バッファメモリに保存された1秒間分(500個)のセンサ間の平均値および最大値の平均、つまり時間方向の平均をそれぞれ算出する。そして、この算出されたセンサ間の平均値および最大値の時間方向の平均を、ジェスチャ「1」に対応する特徴量として、特徴量記憶部13に記憶させる。   When the pressing of the “1” key is released, the control unit 111 calculates the average value between the sensors for one second (500 pieces) stored in the buffer memory and the average of the maximum values, that is, the average in the time direction. calculate. Then, the calculated average value between the sensors and the average of the maximum values in the time direction are stored in the feature amount storage unit 13 as the feature amount corresponding to the gesture “1”.

また、教師データ入力部14において「2」キーが1秒間押下され、それに対応する図4に示すジェスチャ「2」の動作が行われた場合には、この期間に算出された500個のセンサ間平均値の平均と500個の最大値の平均が、ジェスチャ「2」に対応する特徴量として特徴量記憶部13に記憶される。   When the “2” key is pressed for 1 second in the teacher data input unit 14 and the corresponding operation of the gesture “2” shown in FIG. 4 is performed, between the 500 sensors calculated during this period. The average of the average value and the average of the 500 maximum values are stored in the feature amount storage unit 13 as the feature amount corresponding to the gesture “2”.

同様に、他のジェスチャについても、それぞれ1秒間に算出された500個のセンサ間平均値の平均と500個のセンサ間最大値の平均が、それぞれのジェスチャに対応する特徴量として特徴量記憶部13に記憶される。図5は、以上のようにして特徴量記憶部13に記憶された、各ジェスチャの特徴量の一例を示すものである。   Similarly, with respect to other gestures, an average of 500 average values between sensors and an average of 500 maximum values between sensors calculated for one second are used as feature amounts corresponding to the respective gestures. 13 is stored. FIG. 5 shows an example of the feature amount of each gesture stored in the feature amount storage unit 13 as described above.

(2)利用モード
特徴量記憶部13に認識対象のジェスチャに対応する特徴量が記憶されると、以後ジェスチャの認識処理が可能となる。
(2) Usage Mode When the feature quantity corresponding to the gesture to be recognized is stored in the feature quantity storage unit 13, the gesture recognition process can be performed thereafter.

(2−1)基準ジェスチャによる補正値の算出
利用モードにおいてユーザは、先ず基準となるジェスチャの入力動作を行う。制御部111は、上記基準ジェスチャの入力動作により圧力センサ31,32,33から出力される検出信号のデジタル値(検出電圧)をA/D変換部12から取り込む。このとき、教師データ入力部14ではキー操作が行われていないので、制御部111はステップS10からステップS12に移行し、上記取り込まれた圧力センサ31,32,33の検出電圧をピーク検出部114に渡す。
(2-1) Calculation of Correction Value Using Reference Gesture In the use mode, the user first performs a reference gesture input operation. The control unit 111 takes in the digital value (detection voltage) of the detection signal output from the pressure sensors 31, 32, 33 by the input operation of the reference gesture from the A / D conversion unit 12. At this time, since no key operation is performed on the teacher data input unit 14, the control unit 111 proceeds from step S10 to step S12, and the detected voltages of the pressure sensors 31, 32, and 33 taken in are detected by the peak detection unit 114. To pass.

ピーク検出部114は、上記圧力センサ31,32,33の検出電圧の何れか1つのピーク値を検出する。なお、上記3個の圧力センサ31,32,33の検出電圧を平均値算出部113または最大値抽出部112に入力してセンサ間の平均値又は最大値を求め、このセンサ間の平均値又は最大値をもとにピーク値を検出するようにしてもよい。   The peak detector 114 detects any one peak value of the detection voltages of the pressure sensors 31, 32, and 33. The detection voltages of the three pressure sensors 31, 32, 33 are input to the average value calculation unit 113 or the maximum value extraction unit 112 to obtain an average value or maximum value between the sensors, The peak value may be detected based on the maximum value.

例えば、いま基準ジェスチャの入力動作により図6に示すようなセンサ検出電圧が得られたとする。なお、図6では3個の圧力センサ31,32,33間の平均値を示している。ピーク検出部114は、上記基準ジェスチャの入力動作により得られたセンサ間平均値を時系列に従いバッファメモリ(不図示)に順次保存する。そして、この保存されたセンサ間平均値をサンプリングタイミングが隣接するもの同士で順次比較し、当該センサ間平均値のピーク値を検出する。ピーク検出とは、センサ間平均値が一定時間連続して増加したあと一定時間連続して減少する現象を検出する処理のことである。ここでは、0.2秒以上連続して増加した後、0.15秒以上連続して減少したとすれば、この増加から減少に転ずるタイミングにおけるセンサ間平均値と、同タイミングにおけるセンサ間最大値を、それぞれピーク平均値およびピーク最大値として検出し、制御部111に返す。   For example, assume that a sensor detection voltage as shown in FIG. 6 is obtained by the input operation of the reference gesture. FIG. 6 shows an average value among the three pressure sensors 31, 32, 33. The peak detector 114 sequentially stores the average value between sensors obtained by the input operation of the reference gesture in a buffer memory (not shown) in time series. Then, the stored average values between sensors are sequentially compared between adjacent sampling timings, and the peak value of the average value between the sensors is detected. Peak detection is a process of detecting a phenomenon in which the average value between sensors increases continuously for a certain period of time and then decreases continuously for a certain period of time. Here, if it increases continuously for 0.2 seconds or more and then decreases continuously for 0.15 seconds or more, the average value between sensors at the timing when the increase starts to decrease and the maximum value between sensors at the same timing. Are detected as a peak average value and a peak maximum value, respectively, and returned to the control unit 111.

制御部111は、ピーク検出部114から上記ピーク平均値と前記ピーク最大値を受け取ると、基準ジェスチャに対応する特徴量を示す平均値および最大値を特徴量記憶部13から読み出す。そしてステップS13において、上記ピーク平均値と上記特徴量を示す平均値との差分を求める。同様に、上記ピーク最大値と上記特徴量を示す最大値との差分を求める。そして、これらの差分値を制御部111内のバッファメモリに保存する。   When the control unit 111 receives the peak average value and the peak maximum value from the peak detection unit 114, the control unit 111 reads the average value and the maximum value indicating the feature amount corresponding to the reference gesture from the feature amount storage unit 13. In step S13, a difference between the peak average value and the average value indicating the feature amount is obtained. Similarly, the difference between the peak maximum value and the maximum value indicating the feature amount is obtained. Then, these difference values are stored in the buffer memory in the control unit 111.

例えば、いま基準ジェスチャが「4」で、ピーク検出部114により検出されたピーク平均値が1.8、ピーク最大値が2.5だったとする。そして、特徴量記憶部13に記憶されたジェスチャ「4」の特徴量を示す平均値および最大値が、図5に示したように平均値1.65、最大値2.2だったとすると、制御部111はピーク検出値と平均値との差分を0.15、ピーク最大値と最大値との差分を0.3として算出し、バッファメモリに保存する。   For example, it is assumed that the reference gesture is “4”, the peak average value detected by the peak detection unit 114 is 1.8, and the peak maximum value is 2.5. If the average value and the maximum value indicating the feature value of the gesture “4” stored in the feature value storage unit 13 are the average value 1.65 and the maximum value 2.2 as shown in FIG. The unit 111 calculates the difference between the peak detection value and the average value as 0.15 and the difference between the peak maximum value and the maximum value as 0.3, and stores the difference in the buffer memory.

(2−2)認識対象となるジェスチャの認識
上記基準ジェスチャの入力動作の終了後、ユーザは一旦手をリラックスした状態に戻した後、認識対象となる所望のジェスチャを所定時間以上連続して入力動作する。制御部111は、上記基準ジェスチャの入力動作により圧力センサ31,32,33から出力される検出信号のデジタル値(検出電圧)をA/D変換部12から取り込む。そして、平均値算出部113および最大値抽出部112において、上記3個の圧力センサ31,32,33の検出電圧のセンサ間の平均値および最大値を検出する。
(2-2) Recognition of Gesture to be Recognized After the input operation of the reference gesture is completed, the user once returns the hand to a relaxed state and then continuously inputs a desired gesture to be recognized for a predetermined time or more. Operate. The control unit 111 takes in the digital value (detection voltage) of the detection signal output from the pressure sensors 31, 32, 33 by the input operation of the reference gesture from the A / D conversion unit 12. Then, the average value calculation unit 113 and the maximum value extraction unit 112 detect the average value and the maximum value between the detected voltages of the three pressure sensors 31, 32, and 33.

続いて制御部111は、ステップS13において、上記認識対象となるジェスチャの入力動作により検出されたセンサ間平均値および最大値を、上記基準ジェスチャの入力動作において算出し保存した差分値をもとに補正する。例えば、いま上記認識対象となるジェスチャの入力動作により検出されたセンサ間平均値および最大値がそれぞれ1.6、1.9だったとすると、これらの値から上記差分値を減算すると、補正後のセンサ間平均値は1.45、最大値は1.6となる。   Subsequently, in step S13, the control unit 111 calculates the average value and the maximum value between the sensors detected by the input operation of the gesture to be recognized based on the difference value calculated and stored in the input operation of the reference gesture. to correct. For example, if the average value between sensors and the maximum value detected by the input operation of the gesture to be recognized are 1.6 and 1.9, respectively, and the difference value is subtracted from these values, The average value between sensors is 1.45, and the maximum value is 1.6.

次に制御部111は、ステップS14において、上記補正後の平均値および最大値の組を、特徴量記憶部13に記憶された各ジェスチャの平均値および最大値の組とそれぞれ比較する。そして、上記補正後の平均値および最大値に最も近い特徴量を持つジェスチャのIDを上記特徴量記憶部13から1つ選択する。例えば、上記補正後の平均値および最大値と、上記特徴量記憶部13に記憶された各ジェスチャの平均値および最大値との間のユークリッド距離を算出する。この結果、図5に示した特徴量の記憶データの例では、ジェスチャ「2」に対応する特徴量との距離が最も近くなり、ユーザが入力動作を行ったジェスチャは、ジェスチャ「2」であると認識される。   Next, in step S <b> 14, the control unit 111 compares the corrected average value and maximum value group with the average value and maximum value group of each gesture stored in the feature amount storage unit 13. Then, one ID of the gesture having the feature quantity closest to the corrected average value and maximum value is selected from the feature quantity storage unit 13. For example, the Euclidean distance between the corrected average value and maximum value and the average value and maximum value of each gesture stored in the feature amount storage unit 13 is calculated. As a result, in the example of the feature amount storage data illustrated in FIG. 5, the distance from the feature amount corresponding to the gesture “2” is the shortest, and the gesture in which the user performs the input operation is the gesture “2”. It is recognized.

最後にステップS15において、操作コマンド生成部15が、上記認識されたジェスチャ「2」に対応する操作コマンドをメモリテーブルから読み出し、この操作コマンドを出力する。例えば、操作対象の機能が例えば本実施形態のジェスチャ認識装置の機能を備えたウェアラブル端末が有する音楽再生機能であれば、上記操作コマンドを音楽再生機能へ出力して、例えば「再生」動作を行わせる。また、操作対象がエアコンやテレビジョン受信機であれば、上記操作コマンドを上記エアコンまたはテレビジョン受信機に向けて無線または赤外線により送信し、例えば「冷房」動作または「チャネル切替」動作を行わせる。   Finally, in step S15, the operation command generator 15 reads the operation command corresponding to the recognized gesture “2” from the memory table, and outputs this operation command. For example, if the function to be operated is a music playback function of a wearable terminal having the function of the gesture recognition device of the present embodiment, for example, the operation command is output to the music playback function and, for example, a “play” operation is performed. Make it. If the operation target is an air conditioner or a television receiver, the operation command is transmitted to the air conditioner or the television receiver by radio or infrared, for example, to perform a “cooling” operation or a “channel switching” operation. .

(実施形態の効果)
以上詳述したように一実施形態では、学習モードにおいて、認識対象のジェスチャを入力動作したときに3個の圧力センサ31,32,33により得られる検出値のセンサ間平均値および最大値を検出して、その時間平均を上記ジェスチャに対応する特徴量として特徴量記憶部13に記憶させる。一方利用モードでは、先ず基準ジェスチャの入力動作を行ってこのときの上記圧力センサ31,32,33により得られる検出値のピーク時におけるセンサ間平均値および最大値を検出し、このセンサ間平均値および最大値と上記対応する特徴量との差分値を求めてこれを補正値とする。続いて、任意のジェスチャが入力動作されたときの上記圧力センサ31,32,33の検出値のピーク時におけるセンサ間平均値および最大値を検出してこれを上記補正値により補正し、この補正後のセンサ間平均値および最大値に近い特徴量を持つジェスチャを上記特徴量記憶部13から選択するようにしている。
従って、リストバンドを手首に装着し直したり腕の向きを変えた場合でも、手のジェスチャを精度良く認識する可能となり、これにより人はもとより、時や場所を選ばず使用可能なジェスチャ認識装置を提供することができる。
(Effect of embodiment)
As described above in detail, in the embodiment, in the learning mode, when the gesture to be recognized is input, the average value and the maximum value of the detection values obtained by the three pressure sensors 31, 32, and 33 are detected. Then, the time average is stored in the feature amount storage unit 13 as a feature amount corresponding to the gesture. On the other hand, in the use mode, first, a reference gesture is input, and the average value between sensors and the maximum value at the peak of the detection values obtained by the pressure sensors 31, 32, 33 at this time are detected. A difference value between the maximum value and the corresponding feature value is obtained and used as a correction value. Subsequently, the average value and the maximum value between the sensors at the peak of the detection values of the pressure sensors 31, 32, and 33 when an arbitrary gesture is input are detected and corrected by the correction value. A gesture having a feature amount close to the later average value and maximum value between sensors is selected from the feature amount storage unit 13.
Therefore, even when the wristband is re-mounted on the wrist or the direction of the arm is changed, it becomes possible to accurately recognize hand gestures, which makes it possible to use a gesture recognition device that can be used regardless of time or place. Can be provided.

また、学習モードを備え、この学習モードにおいて認識対象となる各ジェスチャに対応するセンサ検出値の特徴量を算出して記憶部に記憶させるようにしたので、ユーザごとにその手の構造や動きに対応する最適な特徴量を登録することができ、これによりユーザごとに最適な補正を行うことができる。   In addition, a learning mode is provided, and the feature value of the sensor detection value corresponding to each gesture to be recognized in this learning mode is calculated and stored in the storage unit. Corresponding optimum feature amounts can be registered, whereby optimum correction can be performed for each user.

(評価結果)
図7(a)〜(c)は、それぞれ被験者1名が3個の圧力センサ31,32,33を備えたリストバンド20を左手首に装着し、腕を下向き(Down)、前向き(Forward)、右向き(Right)に配置した状態で、図4に示したジェスチャを1回ずつ行ったときの上記3個の圧力センサ31,32,33により得られる検出値を記録したものである。図8は、上記3個の圧力センサ31,32,33の検出値のセンサ間平均値を腕の方向ごとに計算した結果を、また図9は上記3個の圧力センサ31,32,33のセンサ間最大値を腕の方向ごとに計算した結果をそれぞれ示している。
(Evaluation results)
7 (a) to 7 (c), each of one subject wears a wristband 20 having three pressure sensors 31, 32, and 33 on his left wrist, and his arms are directed downward (Down) and forward (Forward). The detection values obtained by the three pressure sensors 31, 32, 33 when the gesture shown in FIG. 4 is performed once in a state of being arranged rightward (Right) are recorded. FIG. 8 shows the result of calculating the average value of the detected values of the three pressure sensors 31, 32, 33 for each arm direction, and FIG. 9 shows the result of the three pressure sensors 31, 32, 33. The results of calculating the maximum value between sensors for each arm direction are shown.

図7に示すように、腕の方向が異なるときの同一ジェスチャによる検出値を比較すると、大きく変動していることがわかる。例えば、ジェスチャ「5」を入力動作した場合において、腕が下方向(Down)のとき圧力センサ31〜33の値はそれぞれ2.1、2.6、2.4付近であるが、腕が前方向(Forward)のときには2.2、2.0、2.5付近、腕が右方向(Right)のときには1.6、2.3、1.4付近となり、センサの検出値の大小関係がすべて異なってしまっている。これに対し、図8に示すように腕の方向毎のセンサ間平均値を示したグラフでは平行に近い関係となっている。同様に、図9に示すセンサ間最大値の結果もほぼ一致するか平行に近い関係となっている。   As shown in FIG. 7, it can be seen that when the detection values by the same gesture when the directions of the arms are different are compared, there is a large fluctuation. For example, when the gesture “5” is input, the values of the pressure sensors 31 to 33 are close to 2.1, 2.6, and 2.4 when the arm is in the downward direction (Down). When the direction is (Forward), it is around 2.2, 2.0, 2.5, and when the arm is in the right direction (Right), it is around 1.6, 2.3, 1.4. Everything is different. On the other hand, as shown in FIG. 8, the graph showing the average value between the sensors for each arm direction has a parallel relationship. Similarly, the result of the maximum value between sensors shown in FIG. 9 is also substantially coincident or close to parallel.

一方、図10(a),(b),(c)はリストバンドの付け替えを行った場合のジェスチャの種類毎の個々のセンサの検出値を示したもので、腕の方向はすべて下方向(Down)である。図11は3個の圧力センサ31〜33の検出値のセンサ間平均値をリストバンド20の付け替え毎に計算した結果を、図12は3個の圧力センサ31〜33のセンサ間最大値をリストバンドの付け替え毎に計算した結果をそれぞれ示している。   On the other hand, FIGS. 10A, 10 </ b> B, and 10 </ b> C show detection values of individual sensors for each type of gesture when wristband replacement is performed, and arm directions are all downward ( Down). FIG. 11 shows the result of calculating the average value between the detected values of the three pressure sensors 31 to 33 every time the wristband 20 is replaced, and FIG. 12 lists the maximum value between the sensors of the three pressure sensors 31 to 33. The results calculated for each band change are shown.

図10に示すように、リストバンド20の付け替え毎の同一ジェスチャによる値を比較すると、大きく変動していることがわかる。例えば、ジェスチャ「6」の圧力センサの検出値は、1回目ではそれぞれ2.7、2.8、2.9付近であるが、2回目は2.3、1.6、2.7となり、3回目は2.6、2.5、2.9となっている。すなわち、図7(a),(b),(c)の場合と同様に、圧力センサ31〜33の検出値には大小関係の入れ替わりが発生している。一方、図11のセンサ間平均値のグラフでは、ほぼ平行する関係となっている。図12のセンサ間最大値のグラフも平行に近い結果となっている。   As shown in FIG. 10, it can be seen that the values of the same gesture for each replacement of the wristband 20 are greatly changed. For example, the detected value of the pressure sensor of the gesture “6” is around 2.7, 2.8, and 2.9 at the first time, but becomes 2.3, 1.6, and 2.7 at the second time. The third time is 2.6, 2.5, and 2.9. That is, as in the case of FIGS. 7A, 7B, and 7C, the magnitudes of the detected values of the pressure sensors 31 to 33 are switched. On the other hand, in the graph of the average value between sensors of FIG. 11, it has a substantially parallel relationship. The graph of the maximum value between the sensors in FIG.

以上の結果から、センサ間平均値とセンサ間最大値の各時間平均値を特徴量として記憶し、所望のジェスチャを入力する前に基準ジェスチャを入力動作してこのときの圧力センサ31〜33による検出値のセンサ間平均および最大値をもとに補正値を求め、続いて上記所望のジェスチャが入力動作されたときのセンサ間平均値および最大値を上記補正値により補正すれば、センサを装着し直したり腕の向きを変えたとしても、ジェスチャの認識精度を維持することができる。   From the above results, each time average value of the inter-sensor average value and the inter-sensor maximum value is stored as a feature amount, and the reference gesture is input before inputting the desired gesture, and the pressure sensors 31 to 33 at this time are operated. A correction value is calculated based on the average value and maximum value of the detected values between sensors, and then the sensor is mounted if the average value and maximum value between sensors when the desired gesture is input is corrected with the correction value. Even if it is changed again or the direction of the arm is changed, the recognition accuracy of the gesture can be maintained.

図13は、従来通り3個の圧力センサから取得した検出値をそのまま特徴量として用いる方法(3センサ独立型の検出方法)と、本実施形態による認識方法をそれぞれ用い、実際にリストバンドを装着し直したり腕の向きを変えることで、ジェスチャの認識正解率を被験者5名の平均で比較した図である。   FIG. 13 shows a method of using the detection values acquired from three pressure sensors as feature values as they are as before (three-sensor independent detection method) and the recognition method according to the present embodiment, and actually attaching a wristband. It is the figure which compared the recognition correct answer rate of gesture by the average of five test subjects by redoing or changing the direction of an arm.

図13から明らかなように、従来の方法ではリストバンドを再装着したり腕の方向を変えると正解率が50%に低下するが、本実施形態の「センサ間平均/最大値を用いて補正する方法」では、どのような条件でも常に80%以上の正解率を示した。この結果から、リストバンドを再装着したり腕の方向を変えてジェスチャを入力動作することが多い現実に近い使用状況において、本実施形態の方法によれば高い認識率を得ることができ、実用上大きな期待が持てる。   As is apparent from FIG. 13, in the conventional method, when the wristband is remounted or the direction of the arm is changed, the accuracy rate is reduced to 50%. In the “method to do”, the correct answer rate was always 80% or higher under any conditions. From this result, it is possible to obtain a high recognition rate according to the method of the present embodiment in practical use situations in which the wristband is remounted or the gesture direction is input by changing the direction of the arm. I have great expectations.

なお、従来の方法における「リストバンドを取り外さず、腕は同一方向」の条件下での正解率は90.7%と高いが、現実的にはリストバンドを取り外さずに使うことは考え難いため、実際の使用を反映した数値ではない。   Note that the accuracy rate in the conventional method under the condition that “the wristband is not removed and the arms are in the same direction” is as high as 90.7%. It is not a number that reflects actual use.

[他の実施形態]
前記一実施形態では、センサ間平均値とセンサ間最大値の両方を用いて認識を行うようにしたが、センサ間平均値とセンサ間最大値とのいずれか一方をもとに認識をするようにしてもよい。
[Other Embodiments]
In the embodiment, the recognition is performed using both the average value between sensors and the maximum value between sensors. However, the recognition is performed based on one of the average value between sensors and the maximum value between sensors. It may be.

前記一実施形態では、ジェスチャの認識結果をもとに操作コマンドを生成し出力するようにしたが、ジェスチャの認識結果を表す情報をそのまま出力し、操作対象の機能を有するデバイスや電気機器が上記認識結果を表す情報を受信して、操作コマンドを生成して機能を操作制御するようにしてもよい。   In the embodiment, the operation command is generated and output based on the gesture recognition result. However, the information indicating the gesture recognition result is output as it is, and the device or the electric device having the function to be operated is Information representing the recognition result may be received, and an operation command may be generated to control the function.

また、圧力センサの数は3個以外に2個或いは4個以上でもよく、またリストバンドにおける圧力センサの配置位置についても、腱の動きを検出可能な範囲で適宜設定できる。その他、装置の構成や認識処理手順と処理内容等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。   The number of pressure sensors may be two or four or more in addition to three, and the position of the pressure sensor in the wristband can be set as appropriate within a range in which tendon movement can be detected. In addition, the configuration of the apparatus, the recognition processing procedure, the processing content, and the like can be variously modified and implemented without departing from the gist of the present invention.

要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

1…ジェスチャ認識装置、10…装置本体、20…リストバンド、30…センサアレイ、31,32,33…圧力センサ、41…腱、42…尺骨、43…橈骨、11…処理ユニット、12…A/D変換部、13…特徴量記憶部、14…教師データ入力部、111…制御部、112…最大値抽出部、113…平均値算出部、114…ピーク値検出部、115…操作コマンド生成部。   DESCRIPTION OF SYMBOLS 1 ... Gesture recognition apparatus, 10 ... Main body, 20 ... Wristband, 30 ... Sensor array, 31, 32, 33 ... Pressure sensor, 41 ... Tendon, 42 ... Ulna, 43 ... Rib, 11 ... Processing unit, 12 ... A / D conversion unit, 13 ... feature quantity storage unit, 14 ... teacher data input unit, 111 ... control unit, 112 ... maximum value extraction unit, 113 ... average value calculation unit, 114 ... peak value detection unit, 115 ... operation command generation Department.

Claims (8)

リストバンドに配置された複数の圧力センサからそれぞれ圧力の検出値を示す時系列データを受信する手段と、
基準となるジェスチャの入力動作が行われている第1の期間に、前記複数の圧力センサからそれぞれ受信した時系列データからピーク値を検出し、当該ピーク値の検出時点における前記時系列データの間の平均値および最大値の少なくとも一方を検出し、当該検出された平均値および最大値の少なくとも一方をもとに補正値を生成する手段と、
前記第1の期間に続く、任意のジェスチャの入力動作が行われている第2の期間に、前記複数の圧力センサからそれぞれ受信した時系列データ間の平均値および最大値の少なくとも一方を検出し、当該検出した平均値および最大値の少なくとも一方を、前記補正値をもとに補正する手段と、
前記補正された平均値および最大値の少なくとも一方に基づいて、前記任意のジェスチャを認識する手段と
を具備することを特徴とするジェスチャ認識装置。
Means for receiving time-series data indicating detected pressure values from a plurality of pressure sensors arranged in a wristband;
During a first period in which an input operation of a reference gesture is performed, a peak value is detected from time series data received from each of the plurality of pressure sensors, and the time series data at the time of detection of the peak value is detected. Means for detecting at least one of an average value and a maximum value of and generating a correction value based on at least one of the detected average value and maximum value;
Detecting at least one of an average value and a maximum value between the time series data respectively received from the plurality of pressure sensors in a second period in which an arbitrary gesture input operation is performed following the first period. Means for correcting at least one of the detected average value and maximum value based on the correction value;
A gesture recognition device comprising: means for recognizing the arbitrary gesture based on at least one of the corrected average value and maximum value.
認識対象となる複数のジェスチャの各々に対応する特徴量を記憶した記憶部を、さらに具備し、
前記補正値を生成する手段は、前記ピーク値の検出時点における前記時系列データ間の平均値および最大値の少なくとも一方と、前記記憶部に記憶された前記基準となるジェスチャに対応する特徴量とをもとに、前記補正値を生成することを特徴とする請求項1記載のジェスチャ認識装置。
A storage unit storing feature amounts corresponding to each of the plurality of gestures to be recognized;
The means for generating the correction value includes at least one of an average value and a maximum value between the time-series data at the time of detection of the peak value, and a feature amount corresponding to the reference gesture stored in the storage unit. The gesture recognition apparatus according to claim 1, wherein the correction value is generated based on:
前記認識対象となる複数のジェスチャの各々について、その入力動作期間に前記複数の圧力センサからそれぞれ受信した時系列データ間の平均値および最大値の少なくとも一方を検出して、当該検出された平均値および最大値の少なくとも一方について前記入力動作期間における平均を算出し、当該算出された平均を前記対応するジェスチャに対応する特徴量として前記記憶部に記憶させる学習手段を、さらに具備することを特徴とする請求項2記載のジェスチャ認識装置。   For each of the plurality of gestures to be recognized, at least one of the average value and the maximum value between the time series data received from the plurality of pressure sensors during the input operation period is detected, and the detected average value And learning means for calculating an average during the input operation period for at least one of the maximum value and storing the calculated average as a feature amount corresponding to the corresponding gesture in the storage unit. The gesture recognition device according to claim 2. 前記ジェスチャを認識する手段により認識された任意のジェスチャに対応する操作コマンド情報を生成し、当該生成された操作コマンド情報を操作対象の機器へ送出する手段を、さらに具備することを特徴とする請求項1乃至3のいずれかに記載のジェスチャ認識装置。   The apparatus further comprises means for generating operation command information corresponding to an arbitrary gesture recognized by the means for recognizing the gesture, and sending the generated operation command information to a target device. The gesture recognition device according to any one of Items 1 to 3. リストバンドに配置された複数の圧力センサを利用して手の動きにより表されるジェスチャを認識する装置が実行するジェスチャ認識方法であって、
基準となるジェスチャの入力動作が行われている第1の期間に、前記複数の圧力センサから圧力の検出値を示す時系列データをそれぞれ受信する過程と、
前記受信された時系列データからピーク値を検出し、当該ピーク値の検出時点における前記時系列データ間の平均値および最大値の少なくとも一方を検出し、当該検出された平均値および最大値の少なくとも一方をもとに補正値を生成する過程と、
前記第1の期間に続く、任意のジェスチャの入力動作が行われている第2の期間に、前記複数の圧力センサから圧力の検出値を示す時系列データをそれぞれ受信する過程と、
前記第2の期間に受信された複数の時系列データ間の平均値および最大値の少なくとも一方を検出し、当該検出した平均値および最大値の少なくとも一方を、前記補正値をもとに補正する過程と、
前記補正された平均値および最大値の少なくとも一方に基づいて前記任意のジェスチャを認識する過程と
を具備することを特徴とするジェスチャ認識方法。
A gesture recognition method executed by a device for recognizing a gesture represented by a hand movement using a plurality of pressure sensors arranged in a wristband,
A process of receiving time-series data indicating detected pressure values from the plurality of pressure sensors in a first period in which a reference gesture input operation is performed;
A peak value is detected from the received time series data, and at least one of an average value and a maximum value between the time series data at the time of detection of the peak value is detected, and at least one of the detected average value and maximum value is detected. The process of generating correction values based on one side,
A process of receiving time-series data indicating detected pressure values from the plurality of pressure sensors in a second period in which an input operation of an arbitrary gesture is performed following the first period;
Detecting at least one of an average value and a maximum value between a plurality of time-series data received in the second period, and correcting at least one of the detected average value and maximum value based on the correction value; Process,
And a step of recognizing the arbitrary gesture based on at least one of the corrected average value and the maximum value.
認識対象となる複数のジェスチャの各々に対応する特徴量を記憶部に記憶させる過程を、さらに具備し、
前記補正値を生成する過程は、前記ピーク値の検出時点における前記時系列データ間の平均値および最大値の少なくとも一方と、前記記憶部に記憶された前記基準となるジェスチャに対応する特徴量とをもとに、前記補正値を生成することを特徴とする請求項5記載のジェスチャ認識方法。
Further comprising storing a feature amount corresponding to each of the plurality of gestures to be recognized in the storage unit,
The process of generating the correction value includes at least one of an average value and a maximum value between the time-series data at the time of detection of the peak value, and a feature amount corresponding to the reference gesture stored in the storage unit. The gesture recognition method according to claim 5, wherein the correction value is generated based on:
前記特徴量を記憶部に記憶させる過程は、前記認識対象となる複数のジェスチャの各々について、その入力動作期間に前記複数の圧力センサからそれぞれ受信した時系列データ間の平均値および最大値の少なくとも一方を検出して、当該検出された平均値および最大値の少なくとも一方について前記入力動作期間における平均を算出し、当該算出された平均を前記対応するジェスチャに対応する特徴量として前記記憶部に記憶させることを特徴とする請求項6記載のジェスチャ認識方法。   The process of storing the feature amount in the storage unit includes, for each of the plurality of gestures to be recognized, at least an average value and a maximum value between time series data respectively received from the plurality of pressure sensors during the input operation period. One is detected, an average in the input operation period is calculated for at least one of the detected average value and maximum value, and the calculated average is stored in the storage unit as a feature amount corresponding to the corresponding gesture The gesture recognition method according to claim 6, wherein: 請求項1乃至4のいずれかに記載のジェスチャ認識装置が具備する手段による処理を、前記ジェスチャ認識装置が備えるプロセッサに実行させるプログラム。   The program which makes the processor with which the said gesture recognition apparatus performs the process by the means with which the gesture recognition apparatus in any one of Claims 1 thru | or 4 is provided is performed.
JP2016025005A 2016-02-12 2016-02-12 Gesture recognition device, method and program Pending JP2017142736A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016025005A JP2017142736A (en) 2016-02-12 2016-02-12 Gesture recognition device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016025005A JP2017142736A (en) 2016-02-12 2016-02-12 Gesture recognition device, method and program

Publications (1)

Publication Number Publication Date
JP2017142736A true JP2017142736A (en) 2017-08-17

Family

ID=59628548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016025005A Pending JP2017142736A (en) 2016-02-12 2016-02-12 Gesture recognition device, method and program

Country Status (1)

Country Link
JP (1) JP2017142736A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020122272A1 (en) * 2018-12-11 2020-06-18 상명대학교 산학협력단 Wearable device and gesture recognition method thereof
WO2021040287A1 (en) * 2019-08-30 2021-03-04 연세대학교 산학협력단 Person re-identification device and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020122272A1 (en) * 2018-12-11 2020-06-18 상명대학교 산학협력단 Wearable device and gesture recognition method thereof
WO2021040287A1 (en) * 2019-08-30 2021-03-04 연세대학교 산학협력단 Person re-identification device and method
KR102225613B1 (en) * 2019-08-30 2021-03-08 연세대학교 산학협력단 Person re-identification apparatus and method

Similar Documents

Publication Publication Date Title
CN106774818B (en) Gesture recognition method, gesture recognition device and wearable device
US11771147B2 (en) Apparel with pressure sensor control
US9965044B2 (en) Information processing method, apparatus, and device
US9772684B2 (en) Electronic system with wearable interface mechanism and method of operation thereof
KR101875350B1 (en) Method, device, and system for processing touch interaction
US20160051157A1 (en) Frequency domain projection algorithm
KR100995130B1 (en) The system for recogniging of user touch pattern using touch sensor and accelerometer sensor
KR101549353B1 (en) smart watch with recognition function of bio sound source
US20150109202A1 (en) Systems, articles, and methods for gesture identification in wearable electromyography devices
US20150054630A1 (en) Remote Controller and Information Processing Method and System
US8547352B2 (en) Method, apparatus for sensing moved touch and computer readable record-medium on which program for executing method thereof
US9619024B2 (en) Virtual input device and virtual input method
RU2010132212A (en) PORTABLE DEVICE AND METHOD OF OPERATION WITH TOUCH USER INTERFACE WITH ONE INDEX
Chen et al. Vitype: A cost efficient on-body typing system through vibration
JP6402820B2 (en) Input detection method, input detection program and device
US10013069B2 (en) Methods and apparatus to detect vibration inducing hand gestures
JP2017142736A (en) Gesture recognition device, method and program
CN109828672B (en) Method and equipment for determining man-machine interaction information of intelligent equipment
CN103631368A (en) Detection device, detection method and electronic equipment
JPWO2016009644A1 (en) Input device, biosensor, program, computer-readable medium, and mode setting method
CN109284783B (en) Machine learning-based worship counting method and device, user equipment and medium
JP2015228115A (en) Input device
KR102094751B1 (en) Method and apparatus for providing user interface
CN111176422B (en) Intelligent wearable device, operation method thereof and computer readable storage medium
JP2018036903A (en) Input device, terminal device, and input control program