JP2017224162A - Gesture determination device - Google Patents

Gesture determination device Download PDF

Info

Publication number
JP2017224162A
JP2017224162A JP2016119220A JP2016119220A JP2017224162A JP 2017224162 A JP2017224162 A JP 2017224162A JP 2016119220 A JP2016119220 A JP 2016119220A JP 2016119220 A JP2016119220 A JP 2016119220A JP 2017224162 A JP2017224162 A JP 2017224162A
Authority
JP
Japan
Prior art keywords
gesture
image
recognition
hand
gesture determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016119220A
Other languages
Japanese (ja)
Inventor
靖典 塚原
Yasunori Tsukahara
靖典 塚原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2016119220A priority Critical patent/JP2017224162A/en
Publication of JP2017224162A publication Critical patent/JP2017224162A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a gesture determination device capable of reducing processing load in association with determination of a gesture.SOLUTION: A gesture determination device 1 is configured by comprising a control unit 5 that: determines a gesture performed by a hand 9 on the basis of a plurality of images 35 captured by an imaging unit 3; and sets, when unable to recognize the hand 9 in one of the images 35, a recognition area 50 for recognizing an object including the hand 9 in a frame 36 of another one of the images 35 obtained after the one image 35.SELECTED DRAWING: Figure 2

Description

本発明は、ジェスチャ判定装置に関する。   The present invention relates to a gesture determination device.

従来の技術として、操作物体と、外力の作用によって移動可能とされた所定の可動物体とを撮像する撮像手段と、撮像手段による操作物体及び可動物体の撮像画像に基づいて、当該両物体の位置を特定する位置特定手段と、位置特定手段によって特定された両物体の位置が同期して動いたか否かの判定を行う同期移動判定手段と、同期移動判定手段によって肯定的な判定結果が得られた場合に、操作物体の撮像画像に基づくジェスチャの認識結果を無効にするジェスチャ認識制御手段と、を備えたジェスチャ認識装置が知られている(例えば、特許文献1参照。)。   As conventional techniques, an imaging unit that images an operation object and a predetermined movable object that can be moved by the action of an external force, and the positions of both objects based on the operation object and the captured image of the movable object by the imaging unit A positive determination result is obtained by the position specifying means for specifying the position, the synchronous movement determining means for determining whether or not the positions of the two objects specified by the position specifying means have moved in synchronization, and the synchronous movement determining means. In this case, there is known a gesture recognition device including a gesture recognition control unit that invalidates a gesture recognition result based on a captured image of an operation object (see, for example, Patent Document 1).

このジェスチャ認識装置は、可動物体を移動させる動作がジェスチャと誤認識されることを回避することができる。   This gesture recognizing device can avoid erroneously recognizing an operation of moving a movable object as a gesture.

特開2014−126879号公報JP 2014-126879 A

しかし従来のようなジェスチャ認識装置は、撮像された領域全体に対して認識処理を行うので処理負荷が大きい。   However, since the conventional gesture recognition apparatus performs recognition processing on the entire imaged region, the processing load is large.

従って本発明の目的は、ジェスチャの判定に伴う処理負荷を抑制することができるジェスチャ判定装置を提供することにある。   Accordingly, an object of the present invention is to provide a gesture determination device that can suppress a processing load associated with gesture determination.

本発明の一態様は、撮像部によって撮像された複数の画像に基づいて認識対象によってなされたジェスチャを判定すると共に認識対象を一の画像において認識できない場合、当該一の画像の後に取得した画像の縁に認識対象を含む物体を認識するための認識領域を設定するジェスチャ判定部を備えたジェスチャ判定装置を提供する。   One aspect of the present invention is to determine a gesture made by a recognition target based on a plurality of images captured by an imaging unit, and when the recognition target cannot be recognized in one image, the image acquired after the one image Provided is a gesture determination device including a gesture determination unit that sets a recognition region for recognizing an object including a recognition target at an edge.

本発明によれば、ジェスチャの判定に伴う処理負荷を抑制することができる。   According to the present invention, it is possible to suppress a processing load associated with gesture determination.

図1(a)は、実施の形態に係るジェスチャ判定装置が搭載された車両内部の一例を示す概略図であり、図1(b)は、ジェスチャ判定装置の一例を示すブロック図であり、図1(c)は、ジェスチャ判定装置が接続された車両通信システムの一例を示すブロック図である。FIG. 1A is a schematic diagram illustrating an example of the inside of a vehicle on which the gesture determination device according to the embodiment is mounted, and FIG. 1B is a block diagram illustrating an example of the gesture determination device. 1 (c) is a block diagram illustrating an example of a vehicle communication system to which a gesture determination device is connected. 図2(a)は、実施の形態に係るジェスチャ判定装置が生成する画像の一例を示す概略図であり、図2(b)は、認識領域の一例を示す概略図であり、図2(c)は、判定領域の一例を示す概略図であり、図2(d)は、変形例に係る認識領域の一例を示す概略図である。FIG. 2A is a schematic diagram illustrating an example of an image generated by the gesture determination device according to the embodiment, and FIG. 2B is a schematic diagram illustrating an example of a recognition area, and FIG. ) Is a schematic diagram illustrating an example of a determination region, and FIG. 2D is a schematic diagram illustrating an example of a recognition region according to a modification. 図3は、実施の形態に係るジェスチャ判定装置の動作の一例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of the operation of the gesture determination device according to the embodiment.

(実施の形態の要約)
実施の形態に係るジェスチャ判定装置は、撮像部によって撮像された複数の画像に基づいて認識対象によってなされたジェスチャを判定すると共に認識対象を一の画像において認識できない場合、当該一の画像の後に取得した画像の縁に認識対象を含む物体を認識するための認識領域を設定するジェスチャ判定部を備えて概略構成されている。
(Summary of embodiment)
The gesture determination device according to the embodiment determines a gesture made by a recognition target based on a plurality of images captured by the imaging unit and acquires the recognition target after the one image when the recognition target cannot be recognized in the one image. A gesture determination unit that sets a recognition area for recognizing an object including a recognition target at the edge of the image is schematically configured.

このジェスチャ判定装置は、画像の全体を対象として認識対象の認識処理を行わず、画像の縁に認識対象を含む物体を認識するための認識領域を設定する。従ってジェスチャ判定装置は、画像の全体に認識処理を行う場合と比べて、ジェスチャの判定に伴う処理負荷を抑制することができる。   This gesture determination apparatus sets a recognition area for recognizing an object including the recognition target at the edge of the image without performing recognition processing of the recognition target for the entire image. Therefore, the gesture determination device can suppress the processing load associated with the determination of the gesture as compared with the case where the recognition process is performed on the entire image.

[実施の形態]
(ジェスチャ判定装置1の概要)
図1(a)は、実施の形態に係るジェスチャ判定装置が搭載された車両内部の一例を示す概略図であり、図1(b)は、ジェスチャ判定装置の一例を示すブロック図であり、図1(c)は、ジェスチャ判定装置が接続された車両通信システムの一例を示すブロック図である。図2(a)は、実施の形態に係るジェスチャ判定装置が生成する画像の一例を示す概略図であり、図2(b)は、認識領域の一例を示す概略図であり、図2(c)は、判定領域の一例を示す概略図であり、図2(d)は、変形例に係る認識領域の一例を示す概略図である。なお、以下に記載する実施の形態に係る各図において、図形間の比率は、実際の比率とは異なる場合がある。また図1(b)及び図1(c)では、主な情報の流れを矢印で示している。さらに数値範囲を示す「A〜B」は、A以上B以下の意味で用いるものとする。
[Embodiment]
(Outline of gesture determination device 1)
FIG. 1A is a schematic diagram illustrating an example of the inside of a vehicle on which the gesture determination device according to the embodiment is mounted, and FIG. 1B is a block diagram illustrating an example of the gesture determination device. 1 (c) is a block diagram illustrating an example of a vehicle communication system to which a gesture determination device is connected. FIG. 2A is a schematic diagram illustrating an example of an image generated by the gesture determination device according to the embodiment, and FIG. 2B is a schematic diagram illustrating an example of a recognition area, and FIG. ) Is a schematic diagram illustrating an example of a determination region, and FIG. 2D is a schematic diagram illustrating an example of a recognition region according to a modification. Note that, in each drawing according to the embodiment described below, the ratio between figures may be different from the actual ratio. Moreover, in FIG.1 (b) and FIG.1 (c), the flow of main information is shown by the arrow. Furthermore, “A to B” indicating a numerical range is used in the meaning of A or more and B or less.

ジェスチャ判定装置1は、例えば、なされたジェスチャに基づいて車両8に搭載された電子機器の操作を可能とするものである。操作者は、予め定められたジェスチャを行うことでジェスチャに対応する電子機器の機能を操作することができる。この電子機器は、一例として、図1(c)に示すナビゲーション装置84及び音楽及び映像再生装置85などである。ジェスチャ判定装置1及び電子機器は、一例として、図1(c)に示すように、車両通信システム81を構成している。   The gesture determination device 1 enables, for example, operation of an electronic device mounted on the vehicle 8 based on a gesture made. The operator can operate the function of the electronic device corresponding to the gesture by performing a predetermined gesture. This electronic device is, for example, the navigation device 84 and the music and video playback device 85 shown in FIG. As an example, the gesture determination device 1 and the electronic device constitute a vehicle communication system 81 as shown in FIG.

なお本実施の形態では、認識対象としての操作者の手9によってなされるジェスチャについて説明するがこれに限定されず、手9以外の操作者の体の一部やペンなどの物によるジェスチャであっても良い。   In the present embodiment, a gesture made by the operator's hand 9 as a recognition target will be described. However, the present invention is not limited to this, and is a gesture by a part of the operator's body other than the hand 9 or an object such as a pen. May be.

ジェスチャ判定装置1は、図1(a)〜図2(c)に示すように、撮像部3によって撮像された複数の画像35に基づいて手9によってなされたジェスチャを判定すると共に手9を一の画像35において認識できない場合、当該一の画像35の後に取得した画像35の縁36に手9を含む物体を認識するための認識領域50を設定するジェスチャ判定部としての制御部5と、を備えて概略構成されている。   As shown in FIG. 1A to FIG. 2C, the gesture determination device 1 determines a gesture made by the hand 9 based on a plurality of images 35 captured by the imaging unit 3 and controls the hand 9. If the image 35 cannot be recognized, the control unit 5 serving as a gesture determination unit that sets a recognition area 50 for recognizing an object including the hand 9 on the edge 36 of the image 35 acquired after the one image 35 is obtained. In general, it is structured.

(撮像部3の構成)
撮像部3は、例えば、CCDイメージセンサ(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの半導体素子を用いた撮像装置である。
(Configuration of the imaging unit 3)
The imaging unit 3 is an imaging device using a semiconductor element such as a CCD image sensor (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

この撮像部3は、一例として、図1(a)に示すように、車両8の運転席と助手席の間のフロアコンソール80aに配置されたタッチパッド88の近傍に配置されている。従って撮像領域30は、タッチパッド88の上方の領域である。撮像部3は、例えば、タッチパッド88の上方において行われたジェスチャを撮像する。また、この撮像部3は、例えば、近赤外線を撮像領域30方向に照射して撮像するように構成されている。   As an example, the imaging unit 3 is disposed in the vicinity of a touch pad 88 disposed on a floor console 80a between a driver seat and a passenger seat of the vehicle 8, as shown in FIG. Therefore, the imaging area 30 is an area above the touch pad 88. The imaging unit 3 images, for example, a gesture performed above the touch pad 88. Moreover, this imaging part 3 is comprised so that near infrared rays may be irradiated to the imaging region 30 direction, for example, and it may image.

なお撮像部3の配置は、フロアコンソール80aに限定されず、例えば、表示装置87の正面においてなされたジェスチャを撮像できるようにセンターコンソール80bなどであっても良い。   The arrangement of the imaging unit 3 is not limited to the floor console 80a. For example, the center console 80b may be used so that a gesture made on the front surface of the display device 87 can be captured.

撮像部3は、周期的に撮像領域30を撮像し、撮像した画像の情報として画像情報Sを生成して制御部5に出力する。この撮像領域30を撮像した画像は、一例として、図2(a)〜図2(d)に示す画像35である。 The imaging unit 3 periodically images the imaging region 30, generates image information S 1 as information on the captured image, and outputs the image information S 1 to the control unit 5. An image obtained by imaging the imaging region 30 is an image 35 shown in FIGS. 2A to 2D as an example.

(制御部5の構成)
制御部5は、例えば、記憶されたプログラムに従って、取得したデータに演算、加工などを行うCPU(Central Processing Unit)、半導体メモリであるRAM(Random Access Memory)及びROM(Read Only Memory)などから構成されるマイクロコンピュータである。このROMには、例えば、制御部5が動作するためのプログラムと、ジェスチャ情報55と、が格納されている。RAMは、例えば、一時的に演算結果などを格納する記憶領域として用いられる。
(Configuration of control unit 5)
The control unit 5 includes, for example, a CPU (Central Processing Unit) that performs operations and processes on acquired data according to a stored program, a RAM (Random Access Memory) that is a semiconductor memory, a ROM (Read Only Memory), and the like. Microcomputer. For example, a program for operating the control unit 5 and gesture information 55 are stored in the ROM. For example, the RAM is used as a storage area for temporarily storing calculation results and the like.

制御部5は、一例として、手9が含まれない画像35(背景画像)と、手9が含まれる画像35と、の差分から手9を抽出し、抽出された手9とジェスチャ情報55に基づくパターンマッチング法によってジェスチャを判定するように構成されている。なお手9の判定やジェスチャの判定は、パターンマッチング法以外の方法が用いられても良い。また背景画像は、例えば、ジェスチャ判定装置1が起動して最初に撮像した画像であっても良いし、予め設定された画像であっても良いし、走行中などに定期的に更新される画像であっても良い。   For example, the control unit 5 extracts the hand 9 from the difference between the image 35 (background image) that does not include the hand 9 and the image 35 that includes the hand 9, and extracts the hand 9 and the gesture information 55. It is configured to determine a gesture by a pattern matching method based on it. Note that a method other than the pattern matching method may be used for the determination of the hand 9 and the determination of the gesture. The background image may be, for example, an image captured first after the gesture determination device 1 is activated, or may be a preset image, or an image that is regularly updated during traveling or the like. It may be.

ジェスチャ情報55は、例えば、手9によって行われるジェスチャに関する情報である。この手9によって行われるジェスチャは、例えば、手9を上下又は左右に移動させるジェスチャ、手9によって円を描くように行われるジェスチャなどである。なお上下左右は、特に断らない限り車両8の上下左右が基準となっている。   The gesture information 55 is information regarding a gesture performed by the hand 9, for example. The gesture performed by the hand 9 is, for example, a gesture for moving the hand 9 up and down or left and right, a gesture performed by the hand 9 so as to draw a circle, and the like. Note that the vertical and horizontal directions of the vehicle 8 are based on the vertical and horizontal directions unless otherwise specified.

手9を上下又は左右に移動させるジェスチャは、一例として、図2(c)に示すように、手9を広げて、かつ掌を撮像部3に向けて、つまりタッチパッド88に手9をかざすように行われる。このジェスチャは、一例として、ナビゲーション装置84が表示装置87に表示させている地図画像を手9の移動方向にスクロールさせるジェスチャである。ナビゲーション装置84は、例えば、操作情報Sに基づいて手9の移動方向に地図画像をスクロールさせる。 For example, as shown in FIG. 2C, the gesture for moving the hand 9 up and down or left and right extends the hand 9 and faces the palm toward the imaging unit 3, that is, the hand 9 is held on the touch pad 88. To be done. As an example, this gesture is a gesture for scrolling the map image displayed on the display device 87 by the navigation device 84 in the moving direction of the hand 9. The navigation device 84, for example, to scroll the map image in the moving direction of the hand 9 based on the operation information S 2.

手9によって円を描くように行われるジェスチャは、一例として、指を立てた状態で行われるジェスチャである。このジェスチャは、例えば、ナビゲーション装置84の音声ガイドの音量、音楽及び映像再生装置85の音量などを調整するジェスチャである。例えば、操作者が指を立てて撮像部3に対して時計回りに円を描くジェスチャを行うと、音量が上がり、反時計回りに円を描くジェスチャを行うと、音量が下がる。また空調装置86の場合は、例えば、操作情報Sに基づいて設定温度や風量が変化する。 The gesture performed so as to draw a circle with the hand 9 is, for example, a gesture performed with a finger raised. This gesture is, for example, a gesture for adjusting the volume of the voice guide of the navigation device 84, the volume of the music and the video playback device 85, and the like. For example, when the operator raises his finger and performs a gesture for drawing a circle in the clockwise direction on the imaging unit 3, the volume increases, and when the gesture for drawing a circle in a counterclockwise direction is performed, the volume decreases. In the case of the air conditioner 86, for example, the set temperature and the air volume is changed based on the operation information S 2.

制御部5は、図2(a)に示すように、画像35内に手9が認識できない場合、画像35の縁36に認識領域50を設定し、この認識領域50のみに認識処理を行う。つまり制御部5は、画像35の全体を認識領域として認識処理を行うのではなく、画像35の縁36に限定的に設定された認識領域50のみで認識処理を行う。言い換えるなら認識領域50は、画像35の中央領域51の周囲に形成される。   As shown in FIG. 2A, when the hand 9 cannot be recognized in the image 35, the control unit 5 sets a recognition area 50 on the edge 36 of the image 35 and performs a recognition process only on the recognition area 50. That is, the control unit 5 does not perform the recognition process using the entire image 35 as a recognition area, but performs the recognition process using only the recognition area 50 that is set in a limited manner at the edge 36 of the image 35. In other words, the recognition area 50 is formed around the central area 51 of the image 35.

手9が画像35として撮像されるためには、撮像領域30内に手9が侵入していなければならない。撮像された一の画像35に手9が含まれてない場合、一の画像35の次に撮像された画像35の中央に手9が認識される可能性よりは、画像35の縁36の近傍で認識される可能性の方が高い。これは、運転席又は助手席に着座する操作者がタッチパッド88の上方に手9をかざす場合、例えば、図2(b)に示すように、撮像領域30の左右方向からタッチパッド88の上方に手9を移動させる、つまり手9が画像35内に写り込む方向が撮像領域30の左右方向に予め定まるからである。   In order for the hand 9 to be captured as the image 35, the hand 9 must have entered the imaging region 30. When the captured image 35 does not include the hand 9, the vicinity of the edge 36 of the image 35 is more likely than the possibility that the hand 9 is recognized at the center of the captured image 35 next to the captured image 35. Is more likely to be recognized. This is because, for example, as shown in FIG. 2B, the operator sitting in the driver seat or the passenger seat holds the hand 9 over the touch pad 88 from above the left and right directions of the imaging region 30. This is because the direction in which the hand 9 appears in the image 35 is determined in advance in the left-right direction of the imaging region 30.

従って制御部5は、画像35の中央領域51に対して認識処理を行うよりも縁36の認識領域50に対して認識処理を行う方が手9を認識する可能性が高く、また認識処理における負荷が低減される。   Therefore, the control unit 5 is more likely to recognize the hand 9 when performing the recognition process on the recognition region 50 of the edge 36 than performing the recognition process on the central region 51 of the image 35. The load is reduced.

この認識領域50の幅は、物体の認識が可能な幅であれば良く、一例として、画像35の縦の辺(短辺)の1/10〜1/4程度である。この幅は、画像35の縦の辺と横の辺とで幅が異なっても良い。また縦の辺が横の辺よりも幅が広くても良い。   The width of the recognition area 50 may be any width that allows an object to be recognized, and is about 1/10 to 1/4 of the vertical side (short side) of the image 35 as an example. This width may be different between the vertical side and the horizontal side of the image 35. The vertical side may be wider than the horizontal side.

制御部5は、手9を含む物体を画像35の縁36に設定した認識領域50において認識した場合、ジェスチャを判定するための判定領域52を画像35の全体に設定するように構成されている。つまり制御部5は、認識領域50における物体としての手9の認識は勿論のこと、認識領域50における輝度の変化などによる物体の認識がなされた場合、ジェスチャを判定するため、認識領域50を解除して画像35の全体を判定領域52に設定する。   When the object including the hand 9 is recognized in the recognition area 50 set on the edge 36 of the image 35, the control unit 5 is configured to set a determination area 52 for determining a gesture on the entire image 35. . In other words, the control unit 5 cancels the recognition area 50 in order to determine a gesture when not only the hand 9 as an object in the recognition area 50 is recognized but also the recognition of the object due to a change in luminance in the recognition area 50 or the like. Thus, the entire image 35 is set in the determination area 52.

また変形例として制御部5は、手9が画像35内に写り込む方向が予め定まる場合、写り込む方向に対応する当該画像35の縁36に部分的に認識領域50を設定する。具体的には、制御部5は、図2(d)に示すように、手9が撮像領域30に写り込む際に経由する可能性の高い縦の辺のみに認識領域50を設定する。この変形例の認識領域50は、図2(d)の紙面左側の第1の認識領域50a及び第2の認識領域50bである。この変形例によれば、ジェスチャ判定装置1は、認識領域50a及び認識領域50bが上述の認識領域50よりも小さいので、より処理負荷を低減することができる。   As a modification, when the direction in which the hand 9 is reflected in the image 35 is determined in advance, the control unit 5 partially sets the recognition area 50 on the edge 36 of the image 35 corresponding to the direction in which the hand 9 is reflected. Specifically, as illustrated in FIG. 2D, the control unit 5 sets the recognition area 50 only on the vertical side that is likely to pass when the hand 9 is reflected in the imaging area 30. The recognition area 50 of this modification is a first recognition area 50a and a second recognition area 50b on the left side of the drawing in FIG. According to this modification, since the recognition area 50a and the recognition area 50b are smaller than the above-described recognition area 50, the gesture determination device 1 can further reduce the processing load.

また変形例として制御部5は、自身が起動した後に取得する最初の画像35の縁36に認識領域50を設定するように構成されても良い。この変形例では、最初の画像35から連続的に認識領域50が設定される。この変形例は、手9が撮像領域30内に位置しないことが条件となる。   As a modification, the control unit 5 may be configured to set the recognition region 50 at the edge 36 of the first image 35 acquired after the control unit 5 is activated. In this modification, the recognition area 50 is set continuously from the first image 35. In this modification, the condition is that the hand 9 is not located in the imaging region 30.

当該条件は、一例として、車両通信システム81の車両制御部83から取得する車両情報に基づいて、ドアの開閉から助手席に乗員が着座していない場合においてステアリングが把持されている、左手で操作される操作装置(イグニッションスイッチやレバーなど)が操作されているなどである。   The condition is, for example, based on vehicle information acquired from the vehicle control unit 83 of the vehicle communication system 81 and operated with the left hand when the passenger is not seated in the front passenger seat from the opening and closing of the door. The operating device to be operated (such as an ignition switch or a lever) is being operated.

(車両通信システム81の構成)
車両通信システム81は、一例として、CAN(Controller Area Network)などの規格を用いた通信システムである。車両通信システム81は、例えば、車両LAN(Local Area Network)82を介してジェスチャ判定装置1やナビゲーション装置84などが通信を行う。
(Configuration of vehicle communication system 81)
The vehicle communication system 81 is a communication system using a standard such as CAN (Controller Area Network) as an example. In the vehicle communication system 81, for example, the gesture determination device 1 and the navigation device 84 communicate with each other via a vehicle LAN (Local Area Network) 82.

この車両通信システム81は、一例として、図1(c)に示すように、ジェスチャ判定装置1、車両制御部83、ナビゲーション装置84、音楽及び映像再生装置85、空調装置86、表示装置87及びタッチパッド88などが通信できるように構成されている。車両制御部83は、例えば、この車両通信システム81を制御するマイクロコンピュータである。   For example, the vehicle communication system 81 includes a gesture determination device 1, a vehicle control unit 83, a navigation device 84, a music and video playback device 85, an air conditioner 86, a display device 87, and a touch as shown in FIG. The pad 88 and the like are configured to be able to communicate. The vehicle control unit 83 is, for example, a microcomputer that controls the vehicle communication system 81.

ジェスチャ判定装置1がナビゲーション装置84を操作する場合、ジェスチャ判定装置1から出力された操作情報Sは、車両LAN82を介してナビゲーション装置84に入力する。ナビゲーション装置84は、入力した操作情報Sに基づいて動作を行う。 When the gesture determination device 1 operates the navigation device 84, the operation information S 2 output from the gesture determination device 1 is input to the navigation device 84 via the vehicle LAN 82. The navigation device 84 performs an operation based on the operation information S 2 input.

以下に、本実施の形態のジェスチャ判定装置1の動作の一例について図3のフローチャートに従って説明する。   Below, an example of operation | movement of the gesture determination apparatus 1 of this Embodiment is demonstrated according to the flowchart of FIG.

(動作)
車両8の電源が投入されると、ジェスチャ判定装置1の撮像部3は、撮像した撮像領域30の画像35の情報である画像情報Sを周期的に出力する。制御部5は、画像情報Sに基づいて画像35を取得する(Step1)。
(Operation)
When the power of the vehicle 8 is turned on, the imaging unit 3 of the gesture determination device 1 periodically outputs image information S 1 that is information of the captured image 35 of the imaging region 30. Control unit 5 acquires the image 35 on the basis of image information S 1 (Step1).

制御部5は、画像35に基づいて認識対象である手9が認識されるか確認する。制御部5は、手9が認識されない場合(Step2:No)、以降に取得される画像35に認識領域50を設定する(Step3)。   The control unit 5 confirms whether the hand 9 that is the recognition target is recognized based on the image 35. When the hand 9 is not recognized (Step 2: No), the control unit 5 sets the recognition area 50 in the image 35 acquired thereafter (Step 3).

制御部5は、取得した画像35ごとに認識領域50を設定し、認識領域50で物体が認識されるか確認する。制御部5は、ステップ4の「Yes」が成立する、つまり認識領域50において物体が認識されると(Step4:Yes)、画像35の全体を判定領域52に設定し(Step5)、ジェスチャの判定処理を行う(Step6)。   The control unit 5 sets a recognition area 50 for each acquired image 35 and checks whether an object is recognized in the recognition area 50. When “Yes” in Step 4 is established, that is, when an object is recognized in the recognition area 50 (Step 4: Yes), the control unit 5 sets the entire image 35 in the determination area 52 (Step 5), and determines the gesture. Processing is performed (Step 6).

制御部5は、ジェスチャの判定処理が終了すると、判定結果に基づいて操作情報Sを生成して接続された電子機器に出力し(Step7)、ジェスチャの判定処理を終了する。この操作情報Sは、一例として、ジェスチャが判定されなかった場合も出力される。 Control unit 5, the determination processing of the gesture is completed, and outputs to the electronic device connected generated by the operation information S 2 based on the determination result (Step7), and ends the determination process of the gesture. The operation information S 2, as an example, is also output when the gesture is not determined.

ここでステップ2において制御部5は、手9が認識された場合(Step2:Yes)、ステップ6に処理を進めてジェスチャの判定処理を行う。   Here, when the hand 9 is recognized in Step 2 (Step 2: Yes), the control unit 5 advances the process to Step 6 and performs a gesture determination process.

なお制御部5は、手9が認識された後に画像35から消える、つまりフレームアウトなどにより画像35から手9が抽出できなくなった場合、ジェスチャの判定処理を中止する。   If the hand 9 is recognized and disappears from the image 35, that is, if the hand 9 cannot be extracted from the image 35 due to a frame-out or the like, the control unit 5 stops the gesture determination process.

(実施の形態の効果)
本実施の形態に係るジェスチャ判定装置1は、ジェスチャの判定に伴う処理負荷を抑制することができる。具体的には、ジェスチャ判定装置1は、画像35の全体を対象として認識対象の認識処理を行わず、画像35の縁36に限定的に認識領域50を設定する。従ってジェスチャ判定装置1は、画像の全体に認識処理を行う場合と比べて、ジェスチャの判定に伴う処理負荷を抑制することができる。
(Effect of embodiment)
The gesture determination apparatus 1 according to the present embodiment can suppress the processing load associated with gesture determination. Specifically, the gesture determination device 1 does not perform recognition processing for the recognition target for the entire image 35, and sets the recognition region 50 limited to the edge 36 of the image 35. Therefore, the gesture determination device 1 can suppress the processing load associated with the determination of the gesture as compared with the case where the recognition process is performed on the entire image.

ジェスチャ判定装置1は、タッチパッド88に手9をかざすようにジェスチャを行って操作対象を操作することができるので、タッチパッドによってのみ操作する場合と比べて、視線移動を抑制して操作負荷を低減することができる。   Since the gesture determination device 1 can operate the operation target by performing a gesture so that the hand 9 is held over the touch pad 88, the movement of the line of sight is suppressed and the operation load is reduced as compared with the case of operating only with the touch pad. Can be reduced.

なお上述のジェスチャ判定装置1は、タッチパッド88の上方で行われたジェスチャを検出するように構成されていたがこれに限定されず、ステアリングやセンターコンソール80bなどの近傍で行われたジェスチャを検出するように構成されても良い。   The gesture determination device 1 described above is configured to detect a gesture performed above the touch pad 88, but is not limited thereto, and detects a gesture performed near the steering, the center console 80b, or the like. It may be configured to.

上述の実施の形態及び変形例に係るジェスチャ判定装置1は、例えば、用途に応じて、その一部が、コンピュータが実行するプログラム、ASIC(Application Specific Integrated Circuit)及びFPGA(Field Programmable Gate Array)などによって実現されても良い。   The gesture determination apparatus 1 according to the above-described embodiment and modification is, for example, a program executed by a computer, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like, depending on applications. It may be realized by.

以上、本発明のいくつかの実施の形態及び変形例を説明したが、これらの実施の形態及び変形例は、一例に過ぎず、特許請求の範囲に係る発明を限定するものではない。これら新規な実施の形態及び変形例は、その他の様々な形態で実施されることが可能であり、本発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更などを行うことができる。また、これら実施の形態及び変形例の中で説明した特徴の組合せの全てが発明の課題を解決するための手段に必須であるとは限らない。さらに、これら実施の形態及び変形例は、発明の範囲及び要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although some embodiment and modification of this invention were demonstrated, these embodiment and modification are only examples, and do not limit the invention based on a claim. These novel embodiments and modifications can be implemented in various other forms, and various omissions, replacements, changes, and the like can be made without departing from the scope of the present invention. In addition, not all combinations of features described in these embodiments and modifications are necessarily essential to the means for solving the problems of the invention. Further, these embodiments and modifications are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…ジェスチャ判定装置、3…撮像部、5…制御部、8…車両、9…手、30…撮像領域、35…画像、36…縁、50…認識領域、50a…第1の認識領域、50b…第2の認識領域、51…中央領域、52…判定領域、55…ジェスチャ情報、80a…フロアコンソール、80b…センターコンソール、81…車両通信システム、82…車両LAN、83…車両制御部、84…ナビゲーション装置、85…映像再生装置、86…空調装置、87…表示装置、88…タッチパッド DESCRIPTION OF SYMBOLS 1 ... Gesture determination apparatus, 3 ... Imaging part, 5 ... Control part, 8 ... Vehicle, 9 ... Hand, 30 ... Imaging area, 35 ... Image, 36 ... Edge, 50 ... Recognition area, 50a ... 1st recognition area, 50b ... 2nd recognition area, 51 ... Center area, 52 ... Determination area, 55 ... Gesture information, 80a ... Floor console, 80b ... Center console, 81 ... Vehicle communication system, 82 ... Vehicle LAN, 83 ... Vehicle control part, 84 ... Navigation device, 85 ... Video playback device, 86 ... Air conditioner, 87 ... Display device, 88 ... Touchpad

Claims (4)

撮像部によって撮像された複数の画像に基づいて認識対象によってなされたジェスチャを判定すると共に前記認識対象を一の画像において認識できない場合、当該一の画像の後に取得した画像の縁に前記認識対象を含む物体を認識するための認識領域を設定するジェスチャ判定部を備えたジェスチャ判定装置。   When the gesture made by the recognition target is determined based on a plurality of images captured by the imaging unit and the recognition target cannot be recognized in one image, the recognition target is placed on the edge of the image acquired after the one image. A gesture determination apparatus including a gesture determination unit that sets a recognition region for recognizing an object including the object. 前記ジェスチャ判定部は、自身が起動した後に取得する最初の画像の縁に前記認識領域を設定する、
請求項1に記載のジェスチャ判定装置。
The gesture determination unit sets the recognition region at the edge of the first image acquired after the gesture determination unit starts.
The gesture determination apparatus according to claim 1.
前記ジェスチャ判定部は、前記認識対象が画像内に写り込む方向が予め定まる場合、前記写り込む方向に対応する当該画像の縁に部分的に前記認識領域を設定する、
請求項1又は2に記載のジェスチャ判定装置。
The gesture determination unit, when a direction in which the recognition target is reflected in an image is determined in advance, partially sets the recognition area at an edge of the image corresponding to the reflection direction;
The gesture determination apparatus according to claim 1 or 2.
前記ジェスチャ判定部は、前記認識対象を含む物体を画像の縁に設定した前記認識領域において認識した場合、前記ジェスチャを判定するための判定領域を画像の全体に設定する、
請求項1乃至3のいずれか1項に記載のジェスチャ判定装置。
The gesture determination unit sets a determination region for determining the gesture in the entire image when the object including the recognition target is recognized in the recognition region set as an edge of the image.
The gesture determination apparatus according to any one of claims 1 to 3.
JP2016119220A 2016-06-15 2016-06-15 Gesture determination device Pending JP2017224162A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016119220A JP2017224162A (en) 2016-06-15 2016-06-15 Gesture determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016119220A JP2017224162A (en) 2016-06-15 2016-06-15 Gesture determination device

Publications (1)

Publication Number Publication Date
JP2017224162A true JP2017224162A (en) 2017-12-21

Family

ID=60687020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016119220A Pending JP2017224162A (en) 2016-06-15 2016-06-15 Gesture determination device

Country Status (1)

Country Link
JP (1) JP2017224162A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299743A (en) * 2018-10-18 2019-02-01 京东方科技集团股份有限公司 Gesture identification method and device, terminal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299743A (en) * 2018-10-18 2019-02-01 京东方科技集团股份有限公司 Gesture identification method and device, terminal
CN109299743B (en) * 2018-10-18 2021-08-10 京东方科技集团股份有限公司 Gesture recognition method and device and terminal

Similar Documents

Publication Publication Date Title
JP6515028B2 (en) Vehicle control device
US20170108988A1 (en) Method and apparatus for recognizing a touch drag gesture on a curved screen
US20140079285A1 (en) Movement prediction device and input apparatus using the same
CN105739679B (en) Steering wheel control system
JP2017191496A (en) Gesture determination device
US10780781B2 (en) Display device for vehicle
WO2018061603A1 (en) Gestural manipulation system, gestural manipulation method, and program
US20170083777A1 (en) Determination apparatus, determination method, and non-transitory recording medium
JP2017211884A (en) Motion detection system
JP2016141246A (en) Mirror control device and mirror control system
JP6188998B2 (en) Touch panel control device and in-vehicle information device
WO2018061413A1 (en) Gesture detection device
JP4858206B2 (en) In-vehicle device operation support device and operation support method
JP6657024B2 (en) Gesture judgment device
JP2019101826A (en) Gesture determination device and program
JP2014021748A (en) Operation input device and on-vehicle equipment using the same
JP2017224162A (en) Gesture determination device
JP6551941B2 (en) Gesture determination device
JP2018501998A (en) System and method for controlling automotive equipment
KR20170117342A (en) User interface, transport means and method for recognizing a hand of a user
KR20150027608A (en) Remote control system based on gesture and method thereof
JP2016110269A (en) Manipulation input device
KR20150067679A (en) System and method for gesture recognition of vehicle
JP6315443B2 (en) Input device, input detection method for multi-touch operation, and input detection program
JP2016157457A (en) Operation input device, operation input method and operation input program