JP2014126879A - Gesture recognition device - Google Patents

Gesture recognition device Download PDF

Info

Publication number
JP2014126879A
JP2014126879A JP2012280596A JP2012280596A JP2014126879A JP 2014126879 A JP2014126879 A JP 2014126879A JP 2012280596 A JP2012280596 A JP 2012280596A JP 2012280596 A JP2012280596 A JP 2012280596A JP 2014126879 A JP2014126879 A JP 2014126879A
Authority
JP
Japan
Prior art keywords
gesture recognition
gesture
movable object
hand
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012280596A
Other languages
Japanese (ja)
Other versions
JP5988161B2 (en
Inventor
Kijuro Obata
喜重郎 小幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2012280596A priority Critical patent/JP5988161B2/en
Publication of JP2014126879A publication Critical patent/JP2014126879A/en
Application granted granted Critical
Publication of JP5988161B2 publication Critical patent/JP5988161B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a gesture recognition device capable of conveniently, quickly and surely avoiding an action of moving a movable object being falsely recognized as a gesture.SOLUTION: A gesture recognition device includes: imaging means 2 for imaging an operation object and a predetermined movable object which is movable by action of external force; position specification means 5 for specifying the positions of both objects based on picked-up images of the operation object and the movable object; synchronous movement determination means 6 for determining whether the specified positions of both objects moved synchronously or not; and gesture recognition control means 7 for nullifying the recognition result of the gesture based on the picked-up image of the operation object when an affirmative determination result is acquired.

Description

本発明は、ジェスチャ認識装置に係り、特に、操作物体のジェスチャを認識するのに好適なジェスチャ認識装置に関する。   The present invention relates to a gesture recognition apparatus, and more particularly to a gesture recognition apparatus suitable for recognizing a gesture of an operation object.

近年、家電機器、PC、ゲーム機器等を中心として、ユーザのジェスチャを認識して認識結果に応じたコマンド入力を行うことが可能とされた機器が普及してきており、このような傾向は車載機器にも及びつつある(例えば、特許文献1参照)。   In recent years, mainly home appliances, PCs, game machines, etc., devices that can recognize user gestures and input commands according to the recognition result have become widespread. (See, for example, Patent Document 1).

この種の機器においては、ユーザの手を使ったジェスチャによって入力できるコマンドの種類をあまり多くすることは、ユーザに手の動きを覚えるための過度の負担を強いることになるので、上下、左右等の簡単な手の動きのみが使われることが多かった。   In this type of device, too many types of commands that can be entered by gestures using the user's hand impose an excessive burden on the user to learn the movement of the hand. Only simple hand movements were often used.

特開2006−298003号公報JP 2006-298003 A

しかしながら、制約された手の動きは、外力の作用によって移動可能とされた可動物体を移動させる際の手の動きに似る場合があり、この場合には、可動物体を移動させる手の動きがジェスチャであると誤認識されてしまうことがあった。   However, the restricted hand movement may resemble the movement of the hand when moving a movable object that is made movable by the action of an external force. In this case, the movement of the hand that moves the movable object is the gesture. Sometimes it was mistakenly recognized.

例えば、車載機器向けに運転者が使用するジェスチャ認識を考えた場合に、運転者がハンドルから手を離さずに行ったハンドル周辺での手の動きが、ジェスチャとして認識されて対応するコマンド入力が行われることが望ましいが、この場合には、ジェスチャのための手の動きなのか、ウインカ操作やワイパ操作などのスイッチ操作なのかを判別することが困難な場合があった。   For example, when considering the gesture recognition used by the driver for in-vehicle devices, the movement of the hand around the handle that the driver performed without removing the hand from the handle is recognized as a gesture and the corresponding command input is However, in this case, it may be difficult to determine whether the movement is a hand movement for a gesture or a switch operation such as a winker operation or a wiper operation.

具体的には、図4に示すように、ハンドルに親指をかけたまま上向きに手を動かす操作を行った場合には、これがオーディオ機器に対する音量UPを示すジェスチャコマンドなのか、ウインカ操作なのかを判別することが困難であった。このような場合に、スイッチ操作の結果を電気的に検知して判別することもできるが、検知タイミングが遅いため、ジェスチャ認識の操作性が損なわれしまう。   Specifically, as shown in FIG. 4, when an operation of moving the hand upward with a thumb on the handle is performed, it is determined whether this is a gesture command indicating a volume increase for an audio device or a winker operation. It was difficult to distinguish. In such a case, the switch operation result can be detected and discriminated electrically. However, since the detection timing is late, the operability of gesture recognition is impaired.

なお、特許文献1においては、ジェスチャの誤認識を回避する技術が提案されているが、この技術では、操舵時に握られないスポークのみにジェスチャの検出領域が設定されているため、ユーザがジェスチャの度にスポークを握らなければならず、煩雑な操作を強いられる結果となっていた。   In Patent Document 1, a technique for avoiding erroneous recognition of a gesture is proposed. However, in this technique, a gesture detection area is set only for a spoke that is not gripped at the time of steering. It was necessary to grasp the spokes every time, resulting in complicated operations.

そこで、本発明は、このような点に鑑みなされたものであり、可動物体を移動させる動作がジェスチャと誤認識されることを簡便、迅速かつ確実に回避することができるジェスチャ認識装置を提供することを目的とするものである。   Therefore, the present invention has been made in view of the above points, and provides a gesture recognition device that can easily, quickly and surely avoid an operation of moving a movable object being erroneously recognized as a gesture. It is for the purpose.

前述した目的を達成するため、本発明に係るジェスチャ認識装置は、所定の操作物体のジェスチャを認識するジェスチャ認識装置であって、前記操作物体と、外力の作用によって移動可能とされた所定の可動物体とを撮像する撮像手段と、この撮像手段による前記操作物体および前記可動物体の撮像画像に基づいて、当該両物体の位置を特定する位置特定手段と、この位置特定手段によって特定された前記両物体の位置が同期して動いたか否かの判定を行う同期移動判定手段と、この同期移動判定手段によって肯定的な判定結果が得られた場合に、前記操作物体の撮像画像に基づくジェスチャの認識結果を無効にするジェスチャ認識制御手段とを備えたことを特徴としている。   In order to achieve the above-described object, a gesture recognition apparatus according to the present invention is a gesture recognition apparatus that recognizes a gesture of a predetermined operation object, and is a predetermined movable object that is movable by the action of the operation object and an external force. Imaging means for imaging an object, position specifying means for specifying the positions of both objects based on the captured images of the operation object and the movable object by the imaging means, and the both specified by the position specifying means Synchronous movement determination means for determining whether or not the position of the object has moved synchronously, and gesture recognition based on the captured image of the operation object when a positive determination result is obtained by the synchronous movement determination means It is characterized by comprising gesture recognition control means for invalidating the result.

そして、このような構成によれば、操作物体および可動物体の位置を、撮像画像に基づいて特定した上で、両物体の位置が同期して動く場合には、この動きに対応するジェスチャの認識結果をキャンセルすることができるので、可動物体を移動させる動作がジェスチャと誤認識されることを簡便、迅速かつ確実に回避することができる。   According to such a configuration, when the positions of the operation object and the movable object are specified based on the captured image and the positions of both objects move in synchronization, the gesture corresponding to the movement is recognized. Since the result can be canceled, it is possible to simply, quickly and surely avoid the erroneous recognition of the movement of the movable object as a gesture.

また、前記判定は、前記両物体の位置が互いに所定距離以内の位置関係において同期して動いたか否かの判定であってもよい。   Further, the determination may be a determination as to whether or not the positions of the two objects have moved in a positional relationship within a predetermined distance.

そして、このような構成によれば、可動物体を移動させる動作であることの確証性が高い場合にジェスチャの認識結果をキャンセルすることができるので、ジェスチャ認識装置の処理の信頼性を向上させることができる。   And according to such a structure, since the recognition result of a gesture can be canceled when the certainty that it is an operation of moving a movable object is high, the reliability of the processing of the gesture recognition device can be improved. Can do.

さらに、前記撮像手段は、前記操作物体と前記可動物体とを同時に撮像し、前記位置特定手段は、前記両物体の位置を同時に特定してもよい。   Furthermore, the imaging unit may simultaneously capture the operation object and the movable object, and the position specifying unit may simultaneously specify the positions of the both objects.

そして、このような構成によれば、可動物体を移動させる際における誤認識を更に迅速かつ効率的に回避することができる。   And according to such a structure, the misrecognition at the time of moving a movable object can be avoided still more rapidly and efficiently.

さらにまた、前記可動物体には、この物体の特徴点を示す特徴点マークが形成されており、前記位置特定手段は、前記可動物体の撮像画像中の前記特徴点マークに基づいて、前記可動物体の位置を特定してもよい。   Furthermore, a feature point mark indicating a feature point of the object is formed on the movable object, and the position specifying unit is configured to determine the position of the movable object based on the feature point mark in the captured image of the movable object. The position of may be specified.

そして、このような構成によれば、可動物体の位置を簡便に特定することができる。   According to such a configuration, the position of the movable object can be easily specified.

また、前記操作物体は、ユーザの手であってもよい。   The operation object may be a user's hand.

そして、このような構成によれば、ユーザが手を使って可動物体を移動させる動作がジェスチャと誤認識されることを簡便、迅速かつ確実に回避することができる。   And according to such a structure, it can avoid simply that the operation | movement which a user moves a movable object using a hand is mistakenly recognized as a gesture simply, quickly.

さらに、ジェスチャ認識装置は、車両に搭載されていてもよい。   Furthermore, the gesture recognition device may be mounted on a vehicle.

そして、このような構成によれば、ユーザが車内で手を使って可動物体を移動させる動作が車載機器を操作対象としたジェスチャと誤認識されることを簡便、迅速かつ確実に回避することができる。   According to such a configuration, it is possible to simply, quickly and surely avoid that a user's operation of moving a movable object using a hand in a vehicle is erroneously recognized as a gesture for operating an in-vehicle device. it can.

さらにまた、前記可動物体は、前記車両の制御スイッチであってもよい。   Furthermore, the movable object may be a control switch of the vehicle.

そして、このような構成によれば、ユーザが車内で手を使って制御スイッチを移動させる動作が車載機器を操作対象としたジェスチャと誤認識されることを簡便、迅速かつ確実に回避することができる。   According to such a configuration, it is possible to simply, quickly and surely avoid that the operation of the user moving the control switch using the hand in the vehicle is mistakenly recognized as a gesture for operating the in-vehicle device. it can.

また、前記制御スイッチは、前記車両のハンドルの近傍に配設されていてもよい。   The control switch may be disposed in the vicinity of the vehicle handle.

そして、このような構成によれば、ユーザが車内でハンドル周辺の制御スイッチを移動させる動作がハンドルを握りながら行うジェスチャと誤認識されることを簡便、迅速かつ確実に回避することができる。   According to such a configuration, it is possible to simply, quickly and surely avoid that the operation of moving the control switch around the steering wheel in the vehicle is erroneously recognized as a gesture performed while grasping the steering wheel.

本発明によれば、可動物体を移動させる動作がジェスチャと誤認識されることを簡便、迅速かつ確実に回避することができる。   ADVANTAGE OF THE INVENTION According to this invention, it can avoid simply and quickly and reliably that the operation | movement which moves a movable object is misrecognized as a gesture.

本発明に係るジェスチャ認識装置の実施形態を示すブロック図The block diagram which shows embodiment of the gesture recognition apparatus which concerns on this invention 制御スイッチの一例としてのウインカ/ワイパレバーに形成された特徴点マークを示す模式図The schematic diagram which shows the feature point mark formed in the turn signal / wiper lever as an example of a control switch ジェスチャ認識装置の実施形態を示すフローチャートA flowchart showing an embodiment of a gesture recognition device 従来の問題点を説明するための説明図Explanatory diagram for explaining conventional problems

以下、本発明に係るジャスチャ認識装置の実施形態について、図1乃至図3を参照して説明する。   Hereinafter, an embodiment of a gesture recognition device according to the present invention will be described with reference to FIGS. 1 to 3.

図1は、本実施形態におけるジェスチャ認識装置1を示すブロック図である。図1に示すように、ジェスチャ認識装置1は、撮像手段としての車両に搭載された撮像装置2を有しており、この撮像装置2は、操作物体としての運転者(ユーザ)の手と、外力の作用によって移動可能とされた所定の可動物体としての車両の制御スイッチとを同時に撮像可能とされている。この制御スイッチは、車両のハンドルの近傍(周辺)に配設されたウインカ/ワイパレバー8(図2参照)であってもよい。また、撮像装置2は、CCDやCMOS等の固体撮像素子を備えるとともに、手および制御スイッチを同時に捕捉する所定の撮像領域を所定のフレームレートで連続的に撮像するデジタルカメラであってもよい。さらに、撮像装置2は、車両のインストルメントパネル等に、車室内を向くように設置されたものであってもよい。   FIG. 1 is a block diagram showing a gesture recognition device 1 in the present embodiment. As shown in FIG. 1, the gesture recognition device 1 has an imaging device 2 mounted on a vehicle as imaging means. The imaging device 2 includes a driver (user) hand as an operation object, A vehicle control switch as a predetermined movable object that can be moved by the action of an external force can be simultaneously imaged. This control switch may be a winker / wiper lever 8 (see FIG. 2) disposed in the vicinity (periphery) of the steering wheel of the vehicle. Further, the imaging device 2 may be a digital camera that includes a solid-state imaging device such as a CCD or a CMOS, and continuously captures a predetermined imaging area in which a hand and a control switch are simultaneously captured at a predetermined frame rate. Furthermore, the imaging device 2 may be installed on a vehicle instrument panel or the like so as to face the vehicle interior.

また、図1に示すように、ジェスチャ認識装置1は、手特徴認識部3を有しており、この手特徴認識部3には、撮像装置2の撮像画像が、撮像の度毎に逐次入力されるようになっている。そして、手特徴認識部3は、入力された撮像画像に対して、予め手特徴認識部3に保有されている手の特徴データ(形状等)D1に基づいて、手の特徴の認識処理を行うようになっている。この認識処理は、撮像画像毎に行うようにしてもよく、または、一連の複数フレーム分の撮像画像群に基づいて行うようにしてもよい。そして、手特徴認識処理部3は、認識された手の特徴を、ジェスチャの認識結果としての手の動き情報として、認識の度毎に逐次出力するようになっている。この手特徴認識部3は、これの機能を実現するためのプログラムをCPU等の演算処理装置が実行することによって具現化してもよい。演算処理装置が実行すべきプログラムについては、ROM等のプログラム記憶部に格納しておき、手の特徴データD1については、ROMやハードディスクドライブ等のデータ記憶部に格納しておき、演算処理装置の処理には、RAM等の作業領域を利用してもよい。   As shown in FIG. 1, the gesture recognition device 1 includes a hand feature recognition unit 3, and the captured image of the imaging device 2 is sequentially input to the hand feature recognition unit 3 every time it is captured. It has come to be. Then, the hand feature recognition unit 3 performs hand feature recognition processing on the input captured image based on hand feature data (shape, etc.) D1 held in advance in the hand feature recognition unit 3. It is like that. This recognition processing may be performed for each captured image, or may be performed based on a series of captured image groups for a plurality of frames. The hand feature recognition processing unit 3 sequentially outputs the recognized hand features as hand movement information as a gesture recognition result for each recognition. The hand feature recognition unit 3 may be embodied by executing a program for realizing this function by an arithmetic processing unit such as a CPU. A program to be executed by the arithmetic processing unit is stored in a program storage unit such as a ROM, and hand feature data D1 is stored in a data storage unit such as a ROM or a hard disk drive. A work area such as a RAM may be used for the processing.

さらに、図1に示すように、ジェスチャ認識装置1は、スイッチ特徴認識部4を有しており、このスイッチ特徴認識部4には、撮像装置2の撮像画像が、撮像の度毎に逐次入力されるようになっている。そして、スイッチ特徴認識部4は、入力された撮像画像に対して、予めスイッチ特徴認識部4に保有されている制御スイッチの特徴データ(形状や特徴点位置情報等)D2に基づいて、制御スイッチの特徴の認識処理を行うようになっている。この認識処理は、撮像画像毎に行うようにしてもよく、または、一連の複数フレーム分の撮像画像群に基づいて行うようにしてもよい。そして、スイッチ特徴認識部4は、認識された制御スイッチの特徴を、制御スイッチの動き情報として、認識の度毎に逐次出力するようになっている。このスイッチ特徴認識部4は、これの機能を実現するためのプログラムを演算処理装置が実行することによって具現化してもよい。   Further, as shown in FIG. 1, the gesture recognition device 1 has a switch feature recognition unit 4, and the switch feature recognition unit 4 sequentially inputs the captured image of the imaging device 2 for each imaging. It has come to be. Then, the switch feature recognition unit 4 controls the control switch based on the feature data (shape, feature point position information, etc.) D2 of the control switch previously held in the switch feature recognition unit 4 with respect to the input captured image. The feature recognition process is performed. This recognition processing may be performed for each captured image, or may be performed based on a series of captured image groups for a plurality of frames. The switch feature recognition unit 4 sequentially outputs the recognized feature of the control switch as the movement information of the control switch for each recognition. The switch feature recognizing unit 4 may be embodied by executing a program for realizing this function by an arithmetic processing unit.

さらにまた、図1に示すように、ジェスチャ認識装置1は、位置特定手段としての位置特定部5を有している。この位置特定部5には、手特徴認識部3から出力された手の動き情報およびスイッチ特徴認識部4から出力された制御スイッチの動き情報がそれぞれ入力されるようになっている。そして、位置特定部5は、入力された各情報に基づいて、手の位置および制御スイッチの位置の特定処理を同時に行うようになっている。このとき、位置特定部5は、手/制御スイッチの位置を、撮像装置2の画素に対応付けられた座標(複数次元であってもよい)として特定してもよい。また、位置特定部5は、手/制御スイッチの位置を、手/制御スイッチの中心座標として特定してもよい。あるいは、位置特定部5は、図2に示すように、制御スイッチ(ウインカ/ワイパレバー8)にこのスイッチの特徴点を示す特徴点マークMを印刷等によって形成する場合には、このマークMの位置を制御スイッチの位置として特定してもよい。なお、図2に例示するマークMは、4つの黒丸を格子状に配列したものであり、マークMの移動および傾きの検出が容易なものである。そして、位置特定部5は、手/制御スイッチの位置の特定結果を、手/制御スイッチの位置情報として出力するようになっている。なお、位置特定部5は、これの機能を実現するためのプログラムを演算処理装置が実行することによって具現化してもよい。   Furthermore, as shown in FIG. 1, the gesture recognition device 1 has a position specifying unit 5 as position specifying means. The position specifying unit 5 receives hand movement information output from the hand feature recognition unit 3 and control switch movement information output from the switch feature recognition unit 4. Then, the position specifying unit 5 performs the specifying process of the position of the hand and the position of the control switch simultaneously based on each input information. At this time, the position specifying unit 5 may specify the position of the hand / control switch as coordinates (may be multi-dimensional) associated with the pixels of the imaging device 2. The position specifying unit 5 may specify the position of the hand / control switch as the center coordinates of the hand / control switch. Alternatively, as shown in FIG. 2, when the position specifying unit 5 forms the feature point mark M indicating the feature point of the switch on the control switch (the blinker / wiper lever 8) by printing or the like, the position of the mark M is displayed. May be specified as the position of the control switch. Note that the mark M illustrated in FIG. 2 has four black circles arranged in a lattice pattern, so that the movement and inclination of the mark M can be easily detected. The position specifying unit 5 outputs the result of specifying the position of the hand / control switch as position information of the hand / control switch. Note that the position specifying unit 5 may be embodied by causing the arithmetic processing device to execute a program for realizing this function.

また、図1に示すように、ジェスチャ認識装置1は、同期移動判定手段としての同期移動判定部6を有している。この同期移動判定部6には、位置特定部5から出力された手/制御スイッチの位置情報が入力されるようになっている。そして、同期移動判定部6は、入力された位置情報に基づいて、手および制御スイッチの位置が同期して(換言すれば、同時に)動いたか否かの判定を行うようになっている。この判定は、手および制御スイッチの位置が互いに所定距離以内の位置関係において同期して動いたか否かの判定であってもよい。この場合に、所定距離は、手が制御スイッチに触れているとみなすことができる距離であればよく、ゼロであってもよい。このような同期移動判定部6による判定結果は、同期/非同期判定情報として出力されるようになっている。なお、同期移動判定部6は、これの機能を実現するためのプログラムを演算処理装置が実行することによって具現化してもよい。   Moreover, as shown in FIG. 1, the gesture recognition apparatus 1 has the synchronous movement determination part 6 as a synchronous movement determination means. The position information of the hand / control switch output from the position specifying unit 5 is input to the synchronous movement determining unit 6. The synchronous movement determination unit 6 determines whether or not the positions of the hand and the control switch have moved synchronously (in other words, simultaneously) based on the input position information. This determination may be a determination as to whether or not the positions of the hand and the control switch have moved synchronously in a positional relationship within a predetermined distance. In this case, the predetermined distance may be a distance that can be regarded as a hand touching the control switch, and may be zero. The determination result by the synchronous movement determination unit 6 is output as synchronous / asynchronous determination information. Note that the synchronous movement determination unit 6 may be embodied by causing the arithmetic processing device to execute a program for realizing this function.

さらに、図1に示すように、ジェスチャ認識装置1は、ジェスチャ認識制御手段としてのジェスチャコマンド認識部7を有している。このジェスチャコマンド認識部7には、手特徴認識部3から出力された手の動き情報と、同期移動判定部6から出力された当該手の動き情報に対応する同期/非同期判定情報とがそれぞれ入力されるようになっている。そして、ジェスチャコマンド認識部7は、入力された手の動き情報と、予めジェスチャコマンド認識部7に保有されているコマンドデータ(動きパターン情報等)D3とに基づいて、ジェスチャの認識結果に応じた操作処理としてのコマンド発行を行うようになっている。ただし、このとき、ジェスチャコマンド認識部7は、ジェスチャの認識結果に対応する同期/非同期判定情報が肯定的な判定結果を示すものである場合には、ジェスチャの認識結果を無効にして、コマンド発行を禁止するようになっている。なお、ジェスチャコマンド認識部7は、これの機能を実現するためのプログラムを演算処理装置が実行することによって具現化してもよい。コマンドデータD3については、ROMやハードディスクドライブ等のデータ記憶部に格納しておいてもよい。   Further, as shown in FIG. 1, the gesture recognition device 1 has a gesture command recognition unit 7 as a gesture recognition control unit. The gesture command recognition unit 7 receives hand movement information output from the hand feature recognition unit 3 and synchronous / asynchronous determination information corresponding to the hand movement information output from the synchronous movement determination unit 6. It has come to be. Then, the gesture command recognition unit 7 responds to the gesture recognition result based on the input hand movement information and the command data (movement pattern information, etc.) D3 previously stored in the gesture command recognition unit 7. A command is issued as an operation process. However, at this time, when the synchronous / asynchronous determination information corresponding to the gesture recognition result indicates a positive determination result, the gesture command recognition unit 7 invalidates the gesture recognition result and issues a command. Is to be prohibited. Note that the gesture command recognition unit 7 may be embodied by causing the arithmetic processing unit to execute a program for realizing this function. The command data D3 may be stored in a data storage unit such as a ROM or a hard disk drive.

ジェスチャコマンド認識部7からコマンドが出力された場合には、このコマンドが操作対象機器(例えば、オーディオ機器等)に入力され、入力されたコマンドに応じた処理が当該機器において実行されるようになっている。   When a command is output from the gesture command recognition unit 7, this command is input to an operation target device (for example, an audio device), and processing corresponding to the input command is executed in the device. ing.

このような構成によれば、手および制御スイッチの位置を、撮像画像に基づいて特定した上で、両物体の位置が同期して動く場合には、この動きに対応するジェスチャの認識結果をキャンセルすることができるので、制御スイッチを移動させる動作がジェスチャと誤認識されることを簡便、迅速かつ確実に回避することができる。   According to such a configuration, after the positions of the hand and the control switch are specified based on the captured image and the positions of both objects move in synchronization, the recognition result of the gesture corresponding to this movement is canceled. Therefore, it is possible to simply, quickly and surely avoid an operation of moving the control switch being erroneously recognized as a gesture.

次に、本実施形態の作用について説明する。   Next, the operation of this embodiment will be described.

本実施形態においては、まず、図3のステップ1(ST1)において、撮像装置2による撮像を開始する。この撮像の開始は、ジェスチャ入力の所定のトリガ(例えば、ジェスチャ入力をオンにする操作)の発生を待って行うようにしてもよい。   In the present embodiment, first, in step 1 (ST1) of FIG. 3, imaging by the imaging device 2 is started. The imaging may be started after a predetermined trigger for gesture input (for example, an operation for turning on the gesture input) is generated.

次いで、ステップ2−1(ST2−1)において、手特徴認識部3により、ステップ1(ST1)において撮像された撮像画像に基づいて、手の特徴を認識し、認識結果を手の動き情報として位置特定部5およびジェスチャコマンド認識部7に出力する。   Next, in step 2-1 (ST 2-1), the hand feature recognition unit 3 recognizes hand features based on the captured image captured in step 1 (ST 1), and the recognition result is used as hand movement information. The information is output to the position specifying unit 5 and the gesture command recognition unit 7.

また、このとき、ステップ2−2(ST2−2)において、スイッチ特徴認識部4により、ステップ1(ST1)において撮像された撮像画像に基づいて、制御スイッチの特徴を認識し、認識結果を制御スイッチの動き情報として位置特定部5に出力する。   At this time, in step 2-2 (ST2-2), the switch feature recognition unit 4 recognizes the feature of the control switch based on the captured image captured in step 1 (ST1), and controls the recognition result. The information is output to the position specifying unit 5 as switch movement information.

次いで、ステップ3(ST3)において、位置特定部5により、ステップ2−1(ST2−1)において出力された手の動き情報と、ステップ2−2(ST2−2)において出力された制御スイッチの動き情報とに基づいて、手および制御スイッチの位置を同時に特定し、特定結果を手/制御スイッチの位置情報として同期移動判定部6に出力する。   Next, in step 3 (ST3), the position specifying unit 5 causes the hand movement information output in step 2-1 (ST2-1) and the control switch output in step 2-2 (ST2-2). Based on the movement information, the positions of the hand and the control switch are simultaneously specified, and the specified result is output to the synchronous movement determination unit 6 as the position information of the hand / control switch.

次いで、ステップ4(ST4)において、同期移動判定部6により、ステップ3(ST3)において出力された手/制御スイッチの位置情報に基づいて、手および制御スイッチが同期して動いたか否かの判定(同期移動判定)を行い、判定結果に応じた同期/非同期判定情報をジェスチャコマンド認識部7に出力する。   Next, in step 4 (ST4), the synchronous movement determination unit 6 determines whether or not the hand and the control switch have moved in synchronization based on the position information of the hand / control switch output in step 3 (ST3). (Synchronous movement determination) is performed, and synchronous / asynchronous determination information corresponding to the determination result is output to the gesture command recognition unit 7.

次いで、ステップ5(ST5)において、ジェスチャコマンド認識部7により、ステップ2−1(ST2−1)において出力された手の動き情報に基づいてジェスチャ認識を行う。   Next, in step 5 (ST5), the gesture command recognition unit 7 performs gesture recognition based on the hand movement information output in step 2-1 (ST2-1).

次いで、ステップ6(ST6)において、ジェスチャコマンド認識部7により、ステップ4(ST4)において出力された同期/非同期判定情報が肯定的な判定結果を示すものであるか否かを判定する。そして、ステップ6(ST6)において肯定的な判定結果が得られた場合には、ステップ7(ST7)に進み、否定的な判定結果が得られた場合には、ステップ8(ST8)に進む。   Next, in step 6 (ST6), the gesture command recognition unit 7 determines whether or not the synchronous / asynchronous determination information output in step 4 (ST4) indicates a positive determination result. If a positive determination result is obtained in step 6 (ST6), the process proceeds to step 7 (ST7). If a negative determination result is obtained, the process proceeds to step 8 (ST8).

ここで、ステップ7(ST7)に進んだ場合には、ジェスチャコマンド認識部7により、ステップ5(ST5)におけるジェスチャ認識の結果を無効にして、コマンドの発行を行わずに処理を終了する。   If the process proceeds to step 7 (ST7), the gesture command recognition unit 7 invalidates the result of gesture recognition in step 5 (ST5), and the process ends without issuing a command.

一方、ステップ8(ST8)に進んだ場合には、ジェスチャコマンド認識部7により、ステップ5(ST5)におけるジェスチャ認識の結果に対応するコマンドを発行して処理を終了する。   On the other hand, when the process proceeds to step 8 (ST8), the gesture command recognition unit 7 issues a command corresponding to the result of the gesture recognition in step 5 (ST5) and ends the process.

なお、本発明は、前述した実施の形態に限定されるものではなく、本発明の特徴を損なわない限度において種々変更してもよい。   In addition, this invention is not limited to embodiment mentioned above, You may change variously in the limit which does not impair the characteristic of this invention.

例えば、本発明は、車室内以外の空間におけるジェスチャ入力に適用してもよい。   For example, the present invention may be applied to gesture input in a space other than the vehicle interior.

1 ジェスチャ認識装置
2 撮像装置
5 位置特定部
6 同期移動判定部
7 ジェスチャコマンド認識部
DESCRIPTION OF SYMBOLS 1 Gesture recognition apparatus 2 Imaging device 5 Position specific part 6 Synchronous movement determination part 7 Gesture command recognition part

Claims (8)

所定の操作物体のジェスチャを認識するジェスチャ認識装置であって、
前記操作物体と、外力の作用によって移動可能とされた所定の可動物体とを撮像する撮像手段と、
この撮像手段による前記操作物体および前記可動物体の撮像画像に基づいて、当該両物体の位置を特定する位置特定手段と、
この位置特定手段によって特定された前記両物体の位置が同期して動いたか否かの判定を行う同期移動判定手段と、
この同期移動判定手段によって肯定的な判定結果が得られた場合に、前記操作物体の撮像画像に基づくジェスチャの認識結果を無効にするジェスチャ認識制御手段と
を備えたことを特徴とするジェスチャ認識装置。
A gesture recognition device for recognizing a gesture of a predetermined operation object,
Imaging means for imaging the operation object and a predetermined movable object that is movable by the action of an external force;
Position specifying means for specifying the positions of the two objects based on the captured images of the operation object and the movable object by the imaging means;
Synchronous movement determining means for determining whether or not the positions of the two objects specified by the position specifying means have moved synchronously;
A gesture recognition apparatus comprising: a gesture recognition control unit that invalidates a gesture recognition result based on a captured image of the operation object when a positive determination result is obtained by the synchronous movement determination unit. .
前記判定は、前記両物体の位置が互いに所定距離以内の位置関係において同期して動いたか否かの判定であること
を特徴とする請求項1に記載のジェスチャ認識装置。
The gesture recognition apparatus according to claim 1, wherein the determination is a determination as to whether or not the positions of the two objects have moved in a positional relationship within a predetermined distance.
前記撮像手段は、前記操作物体と前記可動物体とを同時に撮像し、
前記位置特定手段は、前記両物体の位置を同時に特定すること
を特徴とする請求項1または請求項2に記載のジェスチャ認識装置。
The imaging means images the operation object and the movable object simultaneously,
The gesture recognition apparatus according to claim 1, wherein the position specifying unit specifies the positions of the two objects at the same time.
前記可動物体には、この物体の特徴点を示す特徴点マークが形成されており、
前記位置特定手段は、前記可動物体の撮像画像中の前記特徴点マークに基づいて、前記可動物体の位置を特定すること
を特徴とする請求項1乃至請求項3のいずれか1項に記載のジェスチャ認識装置。
A feature point mark indicating the feature point of the object is formed on the movable object,
The said position specific | specification part specifies the position of the said movable object based on the said feature point mark in the picked-up image of the said movable object. The one of the Claims 1 thru | or 3 characterized by the above-mentioned. Gesture recognition device.
前記操作物体は、ユーザの手であること
を特徴とする請求項1乃至請求項4のいずれか1項に記載のジェスチャ認識装置。
The gesture recognition apparatus according to claim 1, wherein the operation object is a user's hand.
車両に搭載されること
を特徴とする請求項5に記載のジェスチャ認識装置。
The gesture recognition device according to claim 5, wherein the gesture recognition device is mounted on a vehicle.
前記可動物体は、前記車両の制御スイッチであること
を特徴とする請求項6に記載のジェスチャ認識装置。
The gesture recognition apparatus according to claim 6, wherein the movable object is a control switch of the vehicle.
前記制御スイッチは、前記車両のハンドルの近傍に配設されていること
を特徴とする請求項7に記載のジェスチャ認識装置。
The gesture recognition device according to claim 7, wherein the control switch is disposed in the vicinity of a handle of the vehicle.
JP2012280596A 2012-12-25 2012-12-25 Gesture recognition device Active JP5988161B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012280596A JP5988161B2 (en) 2012-12-25 2012-12-25 Gesture recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012280596A JP5988161B2 (en) 2012-12-25 2012-12-25 Gesture recognition device

Publications (2)

Publication Number Publication Date
JP2014126879A true JP2014126879A (en) 2014-07-07
JP5988161B2 JP5988161B2 (en) 2016-09-07

Family

ID=51406355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012280596A Active JP5988161B2 (en) 2012-12-25 2012-12-25 Gesture recognition device

Country Status (1)

Country Link
JP (1) JP5988161B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016091528A (en) * 2014-11-05 2016-05-23 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Image segmentation method and image segmentation device
WO2016203715A1 (en) * 2015-06-17 2016-12-22 株式会社デンソー Vehicle information processing device, vehicle information processing system, and vehicle information processing program
JP2019074465A (en) * 2017-10-18 2019-05-16 アルパイン株式会社 Detection system and determination method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006298003A (en) * 2005-04-15 2006-11-02 Nissan Motor Co Ltd Command input device
JP2013218391A (en) * 2012-04-05 2013-10-24 Pioneer Electronic Corp Operation input device, operation input method and operation input program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006298003A (en) * 2005-04-15 2006-11-02 Nissan Motor Co Ltd Command input device
JP2013218391A (en) * 2012-04-05 2013-10-24 Pioneer Electronic Corp Operation input device, operation input method and operation input program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
五十嵐 弘也: "単眼カメラを用いたインストゥルメンタルパネル操作用ハンドシェープスイッチの構築", 電気学会論文誌C, vol. 第124巻 第9号, JPN6016028349, 1 September 2004 (2004-09-01), JP, pages 1820 - 1826, ISSN: 0003364176 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016091528A (en) * 2014-11-05 2016-05-23 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Image segmentation method and image segmentation device
WO2016203715A1 (en) * 2015-06-17 2016-12-22 株式会社デンソー Vehicle information processing device, vehicle information processing system, and vehicle information processing program
JP2017007409A (en) * 2015-06-17 2017-01-12 株式会社日本自動車部品総合研究所 Vehicular information processing device, vehicular information processing system and vehicular information processing program
JP2019074465A (en) * 2017-10-18 2019-05-16 アルパイン株式会社 Detection system and determination method

Also Published As

Publication number Publication date
JP5988161B2 (en) 2016-09-07

Similar Documents

Publication Publication Date Title
JP6202810B2 (en) Gesture recognition apparatus and method, and program
US8339359B2 (en) Method and system for operating electric apparatus
US20110158476A1 (en) Robot and method for recognizing human faces and gestures thereof
JP6349800B2 (en) Gesture recognition device and method for controlling gesture recognition device
EP3040252B1 (en) Steering wheel control system
JP2011138237A5 (en)
JP5988161B2 (en) Gesture recognition device
JP6141108B2 (en) Information processing apparatus and method
JP2015225374A5 (en)
JP6341343B2 (en) Information processing system, information processing apparatus, control method, and program
JP2006312347A (en) Command input device
JP6342874B2 (en) Image recognition device
WO2018061603A1 (en) Gestural manipulation system, gestural manipulation method, and program
US20130229348A1 (en) Driving method of virtual mouse
WO2017168989A1 (en) Program and image processing apparatus
JP2006298003A (en) Command input device
JP2006282145A (en) Command input device
JP2017097607A (en) Image recognition device
JP2006312346A (en) Command input device
JP5912177B2 (en) Operation input device, operation input method, and operation input program
WO2011027397A1 (en) User interface device
JP2008015771A5 (en)
KR101860138B1 (en) Apparatus for sharing data and providing reward in accordance with shared data
JP6413645B2 (en) Operation input device
JP6922686B2 (en) Operating device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160728

R150 Certificate of patent or registration of utility model

Ref document number: 5988161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150