JP2017227966A - Gesture recognition device - Google Patents

Gesture recognition device Download PDF

Info

Publication number
JP2017227966A
JP2017227966A JP2016121774A JP2016121774A JP2017227966A JP 2017227966 A JP2017227966 A JP 2017227966A JP 2016121774 A JP2016121774 A JP 2016121774A JP 2016121774 A JP2016121774 A JP 2016121774A JP 2017227966 A JP2017227966 A JP 2017227966A
Authority
JP
Japan
Prior art keywords
gesture
main
image
hand
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016121774A
Other languages
Japanese (ja)
Inventor
佑記 名和
Yuki Nawa
佑記 名和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2016121774A priority Critical patent/JP2017227966A/en
Publication of JP2017227966A publication Critical patent/JP2017227966A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a gesture recognition device with a reduced processing load.SOLUTION: As shown in the figures 1(a) and 1(b), a gesture recognition device comprises; a main image capturing unit 3 for capturing an image of a main imaging range 30; a sub image capturing unit 4 for capturing an image of a sub imaging range 40 that partially overlaps with the main imaging region 30; and a control unit 6 configured to use a sub image 41 captured by the sub image capturing unit 4 as well as a main image 31 captured by the main image capturing unit 3 to identify a gesture when the gesture cannot be identified from the main image 31.SELECTED DRAWING: Figure 1

Description

本発明は、ジェスチャ判定装置に関する。   The present invention relates to a gesture determination device.

従来の技術として、ジェスチャを行う被写体からカメラまでの距離と、2つのカメラの結像面内での被写体の移動トレースの特徴と、の関数として、ジェスチャがプッシュ又はプルであるかを決定するジェスチャを認識する装置が知られている(例えば、特許文献1参照。)。   As a conventional technique, a gesture for determining whether a gesture is push or pull as a function of the distance from the subject to be gestured to the camera and the feature of the movement trace of the subject in the imaging plane of the two cameras. Is known (see, for example, Patent Document 1).

特表2013−525909号公報Special table 2013-525909 gazette

しかし従来のジェスチャを認識する装置は、2つのカメラで撮像した画像を処理するので、処理負荷が大きい問題がある。   However, a conventional device for recognizing a gesture processes images captured by two cameras, and thus has a problem of a large processing load.

従って本発明の目的は、処理負荷を低減することができるジェスチャ判定装置を提供することにある。   Accordingly, an object of the present invention is to provide a gesture determination apparatus that can reduce the processing load.

本発明の一態様は、主撮像領域を撮像する主撮像部と、主撮像領域と一部が共通する従撮像領域を撮像する少なくとも1つの従撮像部と、主撮像部が撮像した主画像に基づいてジェスチャが判定できない場合、少なくとも1つの従撮像部が撮像した少なくとも1つの従画像、及び主画像を用いてジェスチャを判定する判定部と、を備えたジェスチャ判定装置を提供する。   According to one aspect of the present invention, a main imaging unit that images a main imaging region, at least one slave imaging unit that images a slave imaging region that is partially in common with the main imaging region, and a main image captured by the main imaging unit When a gesture cannot be determined based on the above, a gesture determination device is provided that includes at least one sub-image captured by at least one sub-imaging unit and a determination unit that determines a gesture using the main image.

本発明によれば、処理負荷を低減することができる。   According to the present invention, the processing load can be reduced.

図1(a)は、実施の形態に係るジェスチャ判定装置の一例が配置された車両内部の概略図であり、図1(b)は、ジェスチャ判定装置の一例を示すブロック図であり、図1(c)は、ジェスチャ判定装置が接続された車両通信システムの一例を示すブロック図である。1A is a schematic diagram of the inside of a vehicle in which an example of a gesture determination device according to an embodiment is arranged, and FIG. 1B is a block diagram illustrating an example of a gesture determination device. (C) is a block diagram showing an example of a vehicle communication system to which a gesture determination device is connected. 図2は、実施の形態に係るジェスチャ判定装置のカメラ配置とその撮像領域の一例を示す概略図である。FIG. 2 is a schematic diagram illustrating an example of a camera arrangement and an imaging region of the gesture determination device according to the embodiment. 図3は、実施の形態に係るジェスチャ判定装置の動作の一例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of the operation of the gesture determination device according to the embodiment.

(実施の形態の要約)
実施の形態に係るジェスチャ判定装置は、主撮像領域を撮像する主撮像部と、主撮像領域と一部が共通する従撮像領域を撮像する少なくとも1つの従撮像部と、主撮像部が撮像した主画像に基づいてジェスチャが判定できない場合、少なくとも1つの従撮像部が撮像した少なくとも1つの従画像、及び主画像を用いてジェスチャを判定する判定部と、を備えて概略構成されている。
(Summary of embodiment)
The gesture determination apparatus according to the embodiment images a main imaging unit that images a main imaging region, at least one slave imaging unit that images a slave imaging region that is partly in common with the main imaging region, and the main imaging unit. When it is not possible to determine a gesture based on a main image, at least one sub image captured by at least one sub image capturing unit and a determination unit that determines a gesture using the main image are schematically configured.

このジェスチャ判定装置は、主画像に基づいてジェスチャを判定できない場合にのみ、主画像を補完するように、主撮像部とは異なる少なくとも1つの従撮像部によって撮像された少なくとも1つの従画像を用いてジェスチャの判定を行うので、常に複数の撮像部が撮像した画像に基づいて判定を行う場合と比べて、処理負荷を低減することができる。   This gesture determination apparatus uses at least one sub-image captured by at least one sub-imaging unit different from the main imaging unit so that the main image is complemented only when the gesture cannot be determined based on the main image. Therefore, the processing load can be reduced as compared with the case where the determination is always performed based on the images captured by the plurality of imaging units.

[実施の形態]
(ジェスチャ判定装置1の概要)
図1(a)は、実施の形態に係るジェスチャ判定装置の一例が配置された車両内部の概略図であり、図1(b)は、ジェスチャ判定装置の一例を示すブロック図であり、図1(c)は、ジェスチャ判定装置が接続された車両通信システムの一例を示すブロック図である。図2は、実施の形態に係るジェスチャ判定装置のカメラ配置とその撮像領域の一例を示す概略図である。なお、以下に記載する実施の形態に係る各図において、図形間の比率は、実際の比率とは異なる場合がある。また図1(b)及び図1(c)では、主な情報の流れを矢印で示している。
[Embodiment]
(Outline of gesture determination device 1)
1A is a schematic diagram of the inside of a vehicle in which an example of a gesture determination device according to an embodiment is arranged, and FIG. 1B is a block diagram illustrating an example of a gesture determination device. (C) is a block diagram showing an example of a vehicle communication system to which a gesture determination device is connected. FIG. 2 is a schematic diagram illustrating an example of a camera arrangement and an imaging region of the gesture determination device according to the embodiment. Note that, in each drawing according to the embodiment described below, the ratio between figures may be different from the actual ratio. Moreover, in FIG.1 (b) and FIG.1 (c), the flow of main information is shown by the arrow.

ジェスチャ判定装置1は、例えば、検出対象によってなされたジェスチャに基づいて車両8に搭載された電子機器の操作を可能とするものである。操作者は、予め定められたジェスチャを行うことでジェスチャに対応する電子機器の機能を操作することができる。この電子機器は、一例として、図1(c)に示すナビゲーション装置84、音楽及び映像再生装置85などである。ジェスチャ判定装置1及び電子機器は、一例として、図1(c)に示すように、車両通信システム81を構成している。なお本実施の形態では、操作者の手9を検出対象とする。   The gesture determination device 1 enables, for example, an operation of an electronic device mounted on the vehicle 8 based on a gesture made by a detection target. The operator can operate the function of the electronic device corresponding to the gesture by performing a predetermined gesture. This electronic device is, for example, the navigation device 84, the music and video playback device 85 shown in FIG. As an example, the gesture determination device 1 and the electronic device constitute a vehicle communication system 81 as shown in FIG. In the present embodiment, the operator's hand 9 is a detection target.

ジェスチャ判定装置1は、図1(a)〜図2に示すように、主撮像領域30を撮像する主撮像部3と、主撮像領域30と一部が共通する従撮像領域を撮像する少なくとも1つの従撮像部と、主撮像部3が撮像した主画像31に基づいてジェスチャが判定できない場合、少なくとも1つの従撮像部が撮像した少なくとも1つの従画像、及び主画像31を用いてジェスチャを判定する判定部としての制御部6と、を備えて概略構成されている。   As shown in FIG. 1A to FIG. 2, the gesture determination device 1 captures at least one main imaging unit 3 that images the main imaging region 30, and at least one sub-imaging region that is partially shared by the main imaging region 30. When a gesture cannot be determined based on one sub imaging unit and the main image 31 captured by the main imaging unit 3, the gesture is determined using at least one sub image captured by at least one sub imaging unit and the main image 31. And a control unit 6 as a determination unit.

この制御部6は、主画像31に基づいてジェスチャを行う手9の検出、及び手9の移動の追跡を行うように構成されている。また制御部6は、手9の形状に関するジェスチャの前提条件を有し、主画像31によって手9の形状と前提条件とが一致しない場合、主画像31と共に少なくとも1つの従画像を用いて手9の形状と前提条件とが一致するか確認するように構成されている。この前提条件は、後述する前提条件情報61として制御部6が有している。   The control unit 6 is configured to detect the hand 9 performing a gesture based on the main image 31 and to track the movement of the hand 9. In addition, the control unit 6 has a precondition for the gesture related to the shape of the hand 9, and when the shape of the hand 9 does not match the precondition by the main image 31, the control unit 6 uses at least one sub-image together with the main image 31. It is configured to check whether or not the shape and the precondition match. This precondition is included in the control unit 6 as precondition information 61 described later.

本実施の形態の少なくとも1つの従撮像部は、一例として、従撮像部4である。この従撮像部4は、例えば、図2に示すように、従撮像領域40を撮像して従画像41を生成する。主撮像領域30と従撮像領域40の共通の領域は、一例として、図2に示す共通領域5である。この共通領域5は、主撮像領域30と従撮像領域40が交わる領域であり、表示装置87の正面に形成される。   The at least one slave imaging unit of the present embodiment is the slave imaging unit 4 as an example. For example, as shown in FIG. 2, the slave imaging unit 4 captures a slave imaging region 40 and generates a slave image 41. The common area of the main imaging area 30 and the secondary imaging area 40 is, for example, the common area 5 shown in FIG. The common area 5 is an area where the main imaging area 30 and the secondary imaging area 40 intersect, and is formed on the front surface of the display device 87.

なお従撮像部が複数である場合、従撮像部は、一例として、主撮像部3の左右に少なくとも1つずつ配置されても良いし、上下に少なくとも1つずつ配置されても良いし、上下左右に少なくとも1つずつ配置されても良い。   When there are a plurality of slave imaging units, as an example, the slave imaging units may be arranged at least one each on the left and right sides of the main imaging unit 3, may be arranged at least one above and below, You may arrange | position at least 1 each on either side.

(主撮像部3及び従撮像部4の構成)
主撮像部3及び従撮像部4は、例えば、CCDイメージセンサ(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの半導体素子を用いた撮像装置である。
(Configuration of the main imaging unit 3 and the secondary imaging unit 4)
The main imaging unit 3 and the secondary imaging unit 4 are imaging apparatuses using semiconductor elements such as a CCD image sensor (Charge Coupled Device) and a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

主撮像部3及び従撮像部4は、一例として、図1(a)に示すように、車両8のセンターコンソール80に配置された表示装置87の上に並んで配置されている。また主撮像部3及び従撮像部4は、例えば、近赤外線をそれぞれの撮像領域方向に照射して撮像するように構成されている。   As an example, the main imaging unit 3 and the secondary imaging unit 4 are arranged side by side on a display device 87 arranged on the center console 80 of the vehicle 8 as shown in FIG. The main imaging unit 3 and the secondary imaging unit 4 are configured to irradiate near infrared rays in the respective imaging region directions, for example.

主撮像部3は、表示装置87の正面で行われたジェスチャが主撮像領域30内に収まるように配置される。また従撮像部4は、表示装置87の正面で行われたジェスチャが従撮像領域40内に収まるように配置される。   The main imaging unit 3 is arranged so that a gesture performed on the front surface of the display device 87 is within the main imaging region 30. The slave imaging unit 4 is arranged so that a gesture performed on the front surface of the display device 87 is within the slave imaging region 40.

主撮像部3は、周期的に主撮像領域30を撮像し、撮像した主画像31の情報として画像情報Sを生成して制御部6に出力する。また従撮像部4は、制御部6の制御によって必要とされたときに従撮像領域40を撮像し、撮像した従画像41の情報として画像情報Sを生成して制御部6に出力する。 The main imaging unit 3 periodically images the main imaging region 30, generates image information S 1 as information of the captured main image 31, and outputs the image information S 1 to the control unit 6. The slave imaging unit 4 captures the slave imaging region 40 when required by the control of the controller 6, generates image information S 2 as information of the captured slave image 41, and outputs the image information S 2 to the controller 6.

(制御部6の構成)
制御部6は、例えば、記憶されたプログラムに従って、取得したデータに演算、加工などを行うCPU(Central Processing Unit)、半導体メモリであるRAM(Random Access Memory)及びROM(Read Only Memory)などから構成されるマイクロコンピュータである。このROMには、例えば、制御部6が動作するためのプログラムが格納されている。RAMは、例えば、一時的に演算結果などを格納する記憶領域として用いられる。
(Configuration of control unit 6)
The control unit 6 includes, for example, a CPU (Central Processing Unit) that performs operations and processes on acquired data according to a stored program, a RAM (Random Access Memory) that is a semiconductor memory, a ROM (Read Only Memory), and the like. Microcomputer. In this ROM, for example, a program for operating the control unit 6 is stored. For example, the RAM is used as a storage area for temporarily storing calculation results and the like.

制御部6は、例えば、図1(b)に示すように、手形状情報60、前提条件情報61、及びジェスチャ情報62をROM又はRAMに有している。また制御部6は、主撮像部3及び従撮像部4と電気的に接続されている。   For example, as shown in FIG. 1B, the control unit 6 has hand shape information 60, precondition information 61, and gesture information 62 in a ROM or RAM. The control unit 6 is electrically connected to the main imaging unit 3 and the sub imaging unit 4.

手形状情報60は、手の形状に関する情報である。制御部6は、例えば、主画像31と手形状情報60に基づいたパターンマッチング法に基づいて手の形状を判定する。   The hand shape information 60 is information regarding the shape of the hand. For example, the control unit 6 determines the shape of the hand based on the pattern matching method based on the main image 31 and the hand shape information 60.

前提条件情報61は、ジェスチャの判定の前提条件に関する情報である。この前提条件の判定は、例えば、パターンマッチング法によって行われる。手を払うジェスチャは、例えば、手を開き、かつ親指を上にして手を立てた手の形状が検出されることが前提条件である。手によって円を描くジェスチャは、例えば、手を握った状態で人差指を表示装置87に向けた手の形状が検出されることが前提条件である。手を上下に移動させるジェスチャは、例えば、図2に示すように、手の掌を下に向けた手の形状が検出されることが前提条件である。   The precondition information 61 is information regarding preconditions for determining a gesture. The determination of the precondition is performed by, for example, a pattern matching method. For example, it is a precondition for the gesture of releasing the hand to detect the shape of the hand with the hand open and the thumb up. A gesture for drawing a circle with a hand is precondition that, for example, the shape of the hand with the index finger pointing toward the display device 87 is detected while the hand is held. The gesture for moving the hand up and down is, for example, a precondition that the shape of the hand with the palm of the hand facing down is detected as shown in FIG.

ジェスチャ情報62は、例えば、ジェスチャに関する情報である。手9によって行われるジェスチャは、例えば、上述のように、手9を払うジェスチャ、手9によって円を描くように行われるジェスチャ、手9の掌を下に向けて上下に移動させるジェスチャなどである。制御部6は、例えば、パターンマッチング法に基づいて手9の移動とジェスチャ情報62とを比較してジェスチャの判定を行う。   The gesture information 62 is information related to a gesture, for example. The gesture performed by the hand 9 is, for example, a gesture for paying the hand 9, a gesture performed to draw a circle by the hand 9, a gesture for moving the palm of the hand 9 up and down as described above, and the like. . For example, the control unit 6 determines the gesture by comparing the movement of the hand 9 with the gesture information 62 based on the pattern matching method.

具体的には制御部6は、例えば、まず手9が主撮像領域30において検出されたか否かを確認する。次に制御部6は、手9が検出されると手形状情報60に基づいて手9の形状を判定する。次に制御部6は、判定した手9の形状が前提条件と一致するか前提条件情報61に基づいて判定する。そして制御部6は、手9の形状が前提条件と一致すると、周期的に取得する複数の主画像31に基づいて手9の移動を追跡し、手9の移動がジェスチャであるかジェスチャ情報62に基づいて判定する。   Specifically, for example, the control unit 6 first confirms whether or not the hand 9 is detected in the main imaging region 30. Next, when the hand 9 is detected, the control unit 6 determines the shape of the hand 9 based on the hand shape information 60. Next, the control unit 6 determines whether the determined shape of the hand 9 matches the precondition based on the precondition information 61. Then, when the shape of the hand 9 matches the precondition, the control unit 6 tracks the movement of the hand 9 based on a plurality of main images 31 acquired periodically, and gesture information 62 determines whether the movement of the hand 9 is a gesture. Determine based on.

制御部6は、判定したジェスチャに関する情報として操作情報Sを生成して出力する。操作対象の電子機器は、例えば、車両通信システム81の後述する車両LAN(Local Area Network)82を介して取得した操作情報Sに基づいてジェスチャに応じた動作を行う。 Control unit 6 generates and outputs the operation information S 3 as the information about the determined gesture. Operation target electronic device, for example, performs an operation corresponding to the gesture based on the vehicle LAN (Local Area Network) 82 operation information S 3 obtained through the described later in the vehicle communication system 81.

ここで制御部6は、単眼でジェスチャを判定するモード(単眼モード)と、複眼でジェスチャを判定するモード(複眼モード)と、を備えている。   Here, the control unit 6 includes a mode for determining a gesture with a single eye (monocular mode) and a mode for determining a gesture with a compound eye (compound eye mode).

本実施の形態における単眼モードでは、主撮像部3が撮像した主画像31に基づいてジェスチャを判定する。この単眼モードでは、従撮像部4による従画像41の撮像は停止している。   In the monocular mode in the present embodiment, the gesture is determined based on the main image 31 captured by the main imaging unit 3. In the monocular mode, imaging of the slave image 41 by the slave imaging unit 4 is stopped.

また本実施の形態における複眼モードでは、主撮像部3及び従撮像部4が撮像した主画像31及び従画像41に基づいてジェスチャを判定する。つまり複眼モードは、主撮像部3が撮像した主画像31に基づいてジェスチャが判定できない場合、従撮像部4が撮像した従画像41も用いてジェスチャを判定するモードである。   In the compound eye mode in the present embodiment, the gesture is determined based on the main image 31 and the sub image 41 captured by the main image capturing unit 3 and the sub image capturing unit 4. In other words, the compound eye mode is a mode in which a gesture is also determined using the slave image 41 captured by the slave imaging unit 4 when the gesture cannot be determined based on the master image 31 captured by the master imaging unit 3.

図2に示すように、手9の掌を下にしてジェスチャが行われる場合、例えば、手9を斜め方向から撮像した主画像31が得られる。この主画像31は、図2に示すように、主に主撮像範囲35が撮像された画像である。従って主撮像範囲35に含まれる親指、人差指、中指などは撮像されるが、他の指に隠れるなどによって薬指及び小指が撮像されない場合がある。このように手9の指の一部が撮像されない場合、例えば、手9の形状の判定や前提条件の判定が困難となる可能性がある。   As shown in FIG. 2, when a gesture is performed with the palm of the hand 9 down, for example, a main image 31 obtained by imaging the hand 9 from an oblique direction is obtained. As shown in FIG. 2, the main image 31 is an image in which the main imaging range 35 is mainly imaged. Therefore, although the thumb, index finger, middle finger, and the like included in the main imaging range 35 are imaged, the ring finger and the little finger may not be imaged due to being hidden by other fingers. Thus, when a part of the finger of the hand 9 is not imaged, for example, it may be difficult to determine the shape of the hand 9 or to determine the precondition.

そこで制御部6は、単眼モードから複眼モードに移行し、主撮像範囲35を補完する従撮像範囲45が含まれる従画像41と、主撮像範囲35が含まれる主画像31と、の互いに補い合う2つの画像を用いてジェスチャの判定を行う。この主撮像範囲35と従撮像範囲45とによって手9の指の全ての画像が揃い、手9の形状の判定や前提条件の判定が可能となる。   Therefore, the control unit 6 shifts from the monocular mode to the compound eye mode, and the sub image 41 including the sub image capturing range 45 that complements the main image capturing range 35 and the main image 31 including the main image capturing range 35 complement each other. Gesture determination is performed using two images. With the main imaging range 35 and the secondary imaging range 45, all the images of the finger of the hand 9 are prepared, and the shape of the hand 9 and the precondition can be determined.

(車両通信システム81の構成)
車両通信システム81は、一例として、CAN(Controller Area Network)などの規格を用いた通信システムである。車両通信システム81は、例えば、車両LAN(Local Area Network)82を介してジェスチャ判定装置1やナビゲーション装置84などが相互に通信を行う。
(Configuration of vehicle communication system 81)
The vehicle communication system 81 is a communication system using a standard such as CAN (Controller Area Network) as an example. In the vehicle communication system 81, for example, the gesture determination device 1 and the navigation device 84 communicate with each other via a vehicle LAN (Local Area Network) 82.

この車両通信システム81は、一例として、図1(c)に示すように、ジェスチャ判定装置1、車両制御部83、ナビゲーション装置84、音楽及び映像再生装置85、空調装置86及び表示装置87などが相互に通信できるように構成されている。車両制御部83は、例えば、この車両通信システム81を制御するマイクロコンピュータである。   As an example, the vehicle communication system 81 includes a gesture determination device 1, a vehicle control unit 83, a navigation device 84, a music and video playback device 85, an air conditioner 86, and a display device 87 as shown in FIG. It is configured to communicate with each other. The vehicle control unit 83 is, for example, a microcomputer that controls the vehicle communication system 81.

ナビゲーション装置84が操作対象である場合、ジェスチャ判定装置1から出力された操作情報Sは、車両LAN82を介してナビゲーション装置84に入力する。ナビゲーション装置84は、入力した操作情報Sに基づいて動作を行う。 If navigation device 84 is to be operated, the operation information S 3 output from the gesture determination apparatus 1 is input to the navigation device 84 via the vehicle LAN82. The navigation device 84 performs an operation based on the operation information S 3 entered.

以下に、本実施の形態のジェスチャ判定装置1のジェスチャの判定に関する動作の一例について図3のフローチャートに従って説明する。   Below, an example of the operation | movement regarding determination of the gesture of the gesture determination apparatus 1 of this Embodiment is demonstrated according to the flowchart of FIG.

(動作)
ジェスチャ判定装置1の制御部6は、車両8の電源が投入されると、モードを単眼モードとして主撮像部3を制御し、主撮像領域30を撮像した画像情報Sを周期的に取得する(Step1)。
(Operation)
Control unit 6 of the gesture determination apparatus 1, when the power supply of the vehicle 8 is turned on, controls the main image pickup unit 3 modes as monocular mode, acquires image information S 1 of the captured primary imaging region 30 periodically (Step 1).

制御部6は、取得した画像情報Sに基づいて手9が撮像されているか、つまり手9が検出されているか確認する。制御部6は、手9が検出されている場合(Step2:Yes)、主画像31と手形状情報60に基づいて手9の形状を判定する(Step3)。 Control unit 6, or by hand 9 based on the image information S 1 acquired is captured, that is to check whether the hand 9 is detected. When the hand 9 is detected (Step 2: Yes), the control unit 6 determines the shape of the hand 9 based on the main image 31 and the hand shape information 60 (Step 3).

制御部6は、手9の形状が確定した場合(Step4:Yes)、手9の形状がジェスチャの前提条件と一致するか否かを前提条件情報61に基づいて判定する。制御部6は、前提条件が一致する場合(Step5:Yes)、ジェスチャの判定を開始する(Step6)と共に、モードを単眼モードとする(Step7)。そして制御部6は、取得した主画像31とジェスチャ情報62とに基づいてジェスチャの判定を行う。   When the shape of the hand 9 is determined (Step 4: Yes), the control unit 6 determines whether or not the shape of the hand 9 matches the precondition of the gesture based on the precondition information 61. When the preconditions match (Step 5: Yes), the control unit 6 starts the gesture determination (Step 6) and sets the mode to the monocular mode (Step 7). Then, the control unit 6 determines a gesture based on the acquired main image 31 and the gesture information 62.

制御部6は、ジェスチャの判定が完了すると(Step8:Yes)、ジェスチャが完了するか、手9が撮像されなくなる(手9がフレームアウトする)まで、取得した複数の主画像31に基づいて手9の移動を追跡する。制御部6は、ステップ9の「Yes」が成立する、つまりジェスチャが完了するか手9がフレームアウトした場合(Step9:Yes)、ジェスチャの判定結果を示す操作情報Sを生成して出力し(Step10)、次のジェスチャを検出するため、処理をステップ1に進める。 When the determination of the gesture is completed (Step 8: Yes), the control unit 6 performs the hand operation based on the acquired plurality of main images 31 until the gesture is completed or the hand 9 is not captured (the hand 9 is out of frame). Track 9 moves. Control unit 6, "Yes" is established in step 9, that is, if either hands 9 gesture is completed and frame-out (Step9: Yes), generates and outputs operation information S 3 indicating the determination result of the gesture (Step 10) The process proceeds to Step 1 in order to detect the next gesture.

ここでステップ2において制御部6は、手9が検出されなかった場合(Step2:No)、ステップ1に処理を進める。   Here, in Step 2, when the hand 9 is not detected (Step 2: No), the control unit 6 advances the process to Step 1.

またステップ4において制御部6は、主画像31によって手9の形状が確定できなかった場合(Step4:No)、モードを複眼モードとし(Step11)、従撮像部4を制御して従撮像領域40を撮像させて従画像41を取得する。制御部6は、主画像31及び従画像41に基づいて手9の形状を判定し(Step12)、ステップ5に処理を進める。   In step 4, if the shape of the hand 9 cannot be determined by the main image 31 (Step 4: No), the control unit 6 sets the mode to the compound eye mode (Step 11), and controls the sub imaging unit 4 to control the sub imaging region 40. To obtain the sub image 41. The control unit 6 determines the shape of the hand 9 based on the main image 31 and the sub image 41 (Step 12), and proceeds to step 5.

さらにステップ5において制御部6は、前提条件が一致しない場合(Step5:No)、ステップ1に処理を進める。なお前提条件が一致する前に手9の動作が終了する、又はフレームアウトした場合、ステップ1に処理を進める。   Furthermore, in step 5, the control part 6 advances a process to step 1, when a precondition does not correspond (Step5: No). If the operation of the hand 9 is completed or the frame is out before the preconditions match, the process proceeds to step 1.

またさらにステップ8において制御部6は、ジェスチャの判定が完了しない場合(Step8:No)、手9がフレームアウトしているか確認する。制御部6は、手9がフレームアウトしていない場合(Step13:No)、ステップ8に処理を進めてジェスチャの判定を行う。また制御部6は、手9がフレームアウトした場合(Step13:Yes)、ジェスチャの判定ができなかったとする操作情報S、つまりジェスチャなしとする操作情報Sをジェスチャの判定結果として出力する(Step10)。 Furthermore, in step 8, when the gesture determination is not completed (Step 8: No), the control unit 6 confirms whether the hand 9 is out of frame. When the hand 9 is not out of frame (Step 13: No), the control unit 6 proceeds to Step 8 to determine a gesture. The control unit 6, when the hand 9 is out of frame (Step13: Yes), the operation information S 3 to could not be determined gesture, that outputs operation information S 3 to no gesture as a determination result of the gesture ( Step 10).

(実施の形態の効果)
本実施の形態に係るジェスチャ判定装置1は、処理負荷を低減することができる。このジェスチャ判定装置1は、主画像31に基づいてジェスチャを判定できない場合にのみ、主画像31を補完するように、主撮像部3とは異なる従撮像部4によって撮像された従画像41を用いてジェスチャの判定を行うので、常に複数の撮像部が撮像した画像に基づいて判定を行う場合と比べて、消費電力を抑制すると共に処理負荷を低減することができる。
(Effect of embodiment)
The gesture determination apparatus 1 according to the present embodiment can reduce the processing load. The gesture determination device 1 uses a sub image 41 captured by a sub image capturing unit 4 different from the main image capturing unit 3 so that the main image 31 is complemented only when a gesture cannot be determined based on the main image 31. Therefore, it is possible to suppress power consumption and reduce processing load as compared to a case where determination is always performed based on images captured by a plurality of imaging units.

ジェスチャ判定装置1は、主撮像部3によって撮像できない部分を補うように従撮像部4が配置されるので、この構成を採用しない場合と比べて、ジェスチャの判定精度が向上する。   In the gesture determination apparatus 1, the image capturing unit 4 is arranged so as to compensate for a portion that cannot be captured by the main image capturing unit 3, so that the gesture determination accuracy is improved as compared with a case where this configuration is not adopted.

ジェスチャ判定装置1は、単眼モードと複眼モードを使い分けるので、常に複眼でジェスチャを判定する場合と比べて、複眼で撮像された複数の画像を常に処理せずジェスチャの判定速度が向上する。   Since the gesture determination apparatus 1 uses the monocular mode and the compound eye mode properly, the gesture determination speed is improved without always processing a plurality of images captured with the compound eye as compared with the case where the gesture is always determined with the compound eye.

上述の実施の形態及び変形例に係るジェスチャ判定装置1は、例えば、用途に応じて、その一部が、コンピュータが実行するプログラム、ASIC(Application Specific Integrated Circuit)及びFPGA(Field Programmable Gate Array)などによって実現されても良い。   The gesture determination apparatus 1 according to the above-described embodiment and modification is, for example, a program executed by a computer, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like, depending on applications. It may be realized by.

以上、本発明のいくつかの実施の形態及び変形例を説明したが、これらの実施の形態及び変形例は、一例に過ぎず、特許請求の範囲に係る発明を限定するものではない。これら新規な実施の形態及び変形例は、その他の様々な形態で実施されることが可能であり、本発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更などを行うことができる。また、これら実施の形態及び変形例の中で説明した特徴の組合せの全てが発明の課題を解決するための手段に必須であるとは限らない。さらに、これら実施の形態及び変形例は、発明の範囲及び要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although some embodiment and modification of this invention were demonstrated, these embodiment and modification are only examples, and do not limit the invention based on a claim. These novel embodiments and modifications can be implemented in various other forms, and various omissions, replacements, changes, and the like can be made without departing from the scope of the present invention. In addition, not all combinations of features described in these embodiments and modifications are necessarily essential to the means for solving the problems of the invention. Further, these embodiments and modifications are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…ジェスチャ判定装置、3…主撮像部、4…従撮像部、5…共通領域、6…制御部、8…車両、9…手、30…主撮像領域、31…主画像、35…主撮像範囲、40…従撮像領域、41…従画像、45…従撮像範囲、60…手形状情報、61…前提条件情報、62…ジェスチャ情報、80…センターコンソール、81…車両通信システム、82…車両LAN、83…車両制御部、84…ナビゲーション装置、85…映像再生装置、86…空調装置、87…表示装置 DESCRIPTION OF SYMBOLS 1 ... Gesture determination apparatus, 3 ... Main imaging part, 4 ... Sub imaging part, 5 ... Common area, 6 ... Control part, 8 ... Vehicle, 9 ... Hand, 30 ... Main imaging area, 31 ... Main image, 35 ... Main Imaging range, 40 ... subordinate imaging region, 41 ... subordinate image, 45 ... subordinate imaging range, 60 ... hand shape information, 61 ... precondition information, 62 ... gesture information, 80 ... center console, 81 ... vehicle communication system, 82 ... Vehicle LAN, 83 ... Vehicle control unit, 84 ... Navigation device, 85 ... Video playback device, 86 ... Air conditioning device, 87 ... Display device

Claims (3)

主撮像領域を撮像する主撮像部と、
前記主撮像領域と一部が共通する従撮像領域を撮像する少なくとも1つの従撮像部と、
前記主撮像部が撮像した主画像に基づいてジェスチャが判定できない場合、前記少なくとも1つの従撮像部が撮像した少なくとも1つの従画像、及び前記主画像を用いて前記ジェスチャを判定する判定部と、
を備えたジェスチャ判定装置。
A main imaging unit that images the main imaging region;
At least one slave imaging unit that images a slave imaging region that is partly in common with the main imaging region;
A determination unit that determines the gesture using at least one sub-image captured by the at least one sub-imaging unit and the main image when a gesture cannot be determined based on the main image captured by the main imaging unit;
Gesture determination device comprising:
前記判定部は、前記主画像に基づいて前記ジェスチャを行う検出対象の検出、及び前記検出対象の移動の追跡を行う、
請求項1に記載のジェスチャ判定装置。
The determination unit performs detection of a detection target that performs the gesture based on the main image, and tracks movement of the detection target.
The gesture determination apparatus according to claim 1.
前記判定部は、前記検出対象の形状に関する前記ジェスチャの前提条件を有し、前記主画像によって前記検出対象の形状と前記前提条件とが一致しない場合、前記主画像と共に前記少なくとも1つの従画像を用いて前記検出対象の形状と前記前提条件とが一致するか確認する、
請求項2に記載のジェスチャ判定装置。
The determination unit has a precondition of the gesture related to the shape of the detection target, and when the shape of the detection target and the precondition are not matched by the main image, the at least one sub image is displayed together with the main image. Use to check if the shape of the detection target and the precondition match,
The gesture determination apparatus according to claim 2.
JP2016121774A 2016-06-20 2016-06-20 Gesture recognition device Pending JP2017227966A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016121774A JP2017227966A (en) 2016-06-20 2016-06-20 Gesture recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016121774A JP2017227966A (en) 2016-06-20 2016-06-20 Gesture recognition device

Publications (1)

Publication Number Publication Date
JP2017227966A true JP2017227966A (en) 2017-12-28

Family

ID=60891713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016121774A Pending JP2017227966A (en) 2016-06-20 2016-06-20 Gesture recognition device

Country Status (1)

Country Link
JP (1) JP2017227966A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0499012U (en) * 1991-01-31 1992-08-27
JP2007263657A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2012175282A (en) * 2011-02-18 2012-09-10 Sharp Corp Manipulation apparatus, playback device and television receiver

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0499012U (en) * 1991-01-31 1992-08-27
JP2007263657A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2012175282A (en) * 2011-02-18 2012-09-10 Sharp Corp Manipulation apparatus, playback device and television receiver

Similar Documents

Publication Publication Date Title
KR102472156B1 (en) Electronic Device and the Method for Generating Depth Information thereof
JP6306735B2 (en) Stereo camera device and vehicle equipped with stereo camera device
US20160093053A1 (en) Detection method and detection apparatus for detecting three-dimensional position of object
JP2017191496A (en) Gesture determination device
JP2015069369A (en) Operation input device, operation input method, and program
JP6657024B2 (en) Gesture judgment device
JP2018151830A (en) Image processing device, image processing method and program
JP2019129482A (en) Image processing device
KR20150027608A (en) Remote control system based on gesture and method thereof
JP2017227966A (en) Gesture recognition device
JP2017194767A (en) Gesture discrimination device
JP6413647B2 (en) Operation input device
KR101860138B1 (en) Apparatus for sharing data and providing reward in accordance with shared data
JP6413645B2 (en) Operation input device
JP6528445B2 (en) Control system for autonomous mobile unit and autonomous mobile unit
WO2017145270A1 (en) Image processing apparatus, image processing method, and endoscope
JP2017211302A (en) Image recognition device
JP2017224162A (en) Gesture determination device
TWI520100B (en) Free space orientation and position determining method and system
JP2018092507A (en) Image processing apparatus, image processing method, and program
JP2018132986A (en) Image recognition apparatus
JP2016055789A (en) Vehicular authentication apparatus
JP2016155407A (en) Gesture determination device
JP2018010539A (en) Image recognition device
JP2017204183A (en) Image recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190619

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200121