JP2017224162A - Gesture determination device - Google Patents
Gesture determination device Download PDFInfo
- Publication number
- JP2017224162A JP2017224162A JP2016119220A JP2016119220A JP2017224162A JP 2017224162 A JP2017224162 A JP 2017224162A JP 2016119220 A JP2016119220 A JP 2016119220A JP 2016119220 A JP2016119220 A JP 2016119220A JP 2017224162 A JP2017224162 A JP 2017224162A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- image
- recognition
- hand
- gesture determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ジェスチャ判定装置に関する。 The present invention relates to a gesture determination device.
従来の技術として、操作物体と、外力の作用によって移動可能とされた所定の可動物体とを撮像する撮像手段と、撮像手段による操作物体及び可動物体の撮像画像に基づいて、当該両物体の位置を特定する位置特定手段と、位置特定手段によって特定された両物体の位置が同期して動いたか否かの判定を行う同期移動判定手段と、同期移動判定手段によって肯定的な判定結果が得られた場合に、操作物体の撮像画像に基づくジェスチャの認識結果を無効にするジェスチャ認識制御手段と、を備えたジェスチャ認識装置が知られている(例えば、特許文献1参照。)。 As conventional techniques, an imaging unit that images an operation object and a predetermined movable object that can be moved by the action of an external force, and the positions of both objects based on the operation object and the captured image of the movable object by the imaging unit A positive determination result is obtained by the position specifying means for specifying the position, the synchronous movement determining means for determining whether or not the positions of the two objects specified by the position specifying means have moved in synchronization, and the synchronous movement determining means. In this case, there is known a gesture recognition device including a gesture recognition control unit that invalidates a gesture recognition result based on a captured image of an operation object (see, for example, Patent Document 1).
このジェスチャ認識装置は、可動物体を移動させる動作がジェスチャと誤認識されることを回避することができる。 This gesture recognizing device can avoid erroneously recognizing an operation of moving a movable object as a gesture.
しかし従来のようなジェスチャ認識装置は、撮像された領域全体に対して認識処理を行うので処理負荷が大きい。 However, since the conventional gesture recognition apparatus performs recognition processing on the entire imaged region, the processing load is large.
従って本発明の目的は、ジェスチャの判定に伴う処理負荷を抑制することができるジェスチャ判定装置を提供することにある。 Accordingly, an object of the present invention is to provide a gesture determination device that can suppress a processing load associated with gesture determination.
本発明の一態様は、撮像部によって撮像された複数の画像に基づいて認識対象によってなされたジェスチャを判定すると共に認識対象を一の画像において認識できない場合、当該一の画像の後に取得した画像の縁に認識対象を含む物体を認識するための認識領域を設定するジェスチャ判定部を備えたジェスチャ判定装置を提供する。 One aspect of the present invention is to determine a gesture made by a recognition target based on a plurality of images captured by an imaging unit, and when the recognition target cannot be recognized in one image, the image acquired after the one image Provided is a gesture determination device including a gesture determination unit that sets a recognition region for recognizing an object including a recognition target at an edge.
本発明によれば、ジェスチャの判定に伴う処理負荷を抑制することができる。 According to the present invention, it is possible to suppress a processing load associated with gesture determination.
(実施の形態の要約)
実施の形態に係るジェスチャ判定装置は、撮像部によって撮像された複数の画像に基づいて認識対象によってなされたジェスチャを判定すると共に認識対象を一の画像において認識できない場合、当該一の画像の後に取得した画像の縁に認識対象を含む物体を認識するための認識領域を設定するジェスチャ判定部を備えて概略構成されている。
(Summary of embodiment)
The gesture determination device according to the embodiment determines a gesture made by a recognition target based on a plurality of images captured by the imaging unit and acquires the recognition target after the one image when the recognition target cannot be recognized in the one image. A gesture determination unit that sets a recognition area for recognizing an object including a recognition target at the edge of the image is schematically configured.
このジェスチャ判定装置は、画像の全体を対象として認識対象の認識処理を行わず、画像の縁に認識対象を含む物体を認識するための認識領域を設定する。従ってジェスチャ判定装置は、画像の全体に認識処理を行う場合と比べて、ジェスチャの判定に伴う処理負荷を抑制することができる。 This gesture determination apparatus sets a recognition area for recognizing an object including the recognition target at the edge of the image without performing recognition processing of the recognition target for the entire image. Therefore, the gesture determination device can suppress the processing load associated with the determination of the gesture as compared with the case where the recognition process is performed on the entire image.
[実施の形態]
(ジェスチャ判定装置1の概要)
図1(a)は、実施の形態に係るジェスチャ判定装置が搭載された車両内部の一例を示す概略図であり、図1(b)は、ジェスチャ判定装置の一例を示すブロック図であり、図1(c)は、ジェスチャ判定装置が接続された車両通信システムの一例を示すブロック図である。図2(a)は、実施の形態に係るジェスチャ判定装置が生成する画像の一例を示す概略図であり、図2(b)は、認識領域の一例を示す概略図であり、図2(c)は、判定領域の一例を示す概略図であり、図2(d)は、変形例に係る認識領域の一例を示す概略図である。なお、以下に記載する実施の形態に係る各図において、図形間の比率は、実際の比率とは異なる場合がある。また図1(b)及び図1(c)では、主な情報の流れを矢印で示している。さらに数値範囲を示す「A〜B」は、A以上B以下の意味で用いるものとする。
[Embodiment]
(Outline of gesture determination device 1)
FIG. 1A is a schematic diagram illustrating an example of the inside of a vehicle on which the gesture determination device according to the embodiment is mounted, and FIG. 1B is a block diagram illustrating an example of the gesture determination device. 1 (c) is a block diagram illustrating an example of a vehicle communication system to which a gesture determination device is connected. FIG. 2A is a schematic diagram illustrating an example of an image generated by the gesture determination device according to the embodiment, and FIG. 2B is a schematic diagram illustrating an example of a recognition area, and FIG. ) Is a schematic diagram illustrating an example of a determination region, and FIG. 2D is a schematic diagram illustrating an example of a recognition region according to a modification. Note that, in each drawing according to the embodiment described below, the ratio between figures may be different from the actual ratio. Moreover, in FIG.1 (b) and FIG.1 (c), the flow of main information is shown by the arrow. Furthermore, “A to B” indicating a numerical range is used in the meaning of A or more and B or less.
ジェスチャ判定装置1は、例えば、なされたジェスチャに基づいて車両8に搭載された電子機器の操作を可能とするものである。操作者は、予め定められたジェスチャを行うことでジェスチャに対応する電子機器の機能を操作することができる。この電子機器は、一例として、図1(c)に示すナビゲーション装置84及び音楽及び映像再生装置85などである。ジェスチャ判定装置1及び電子機器は、一例として、図1(c)に示すように、車両通信システム81を構成している。
The gesture determination device 1 enables, for example, operation of an electronic device mounted on the vehicle 8 based on a gesture made. The operator can operate the function of the electronic device corresponding to the gesture by performing a predetermined gesture. This electronic device is, for example, the
なお本実施の形態では、認識対象としての操作者の手9によってなされるジェスチャについて説明するがこれに限定されず、手9以外の操作者の体の一部やペンなどの物によるジェスチャであっても良い。
In the present embodiment, a gesture made by the operator's
ジェスチャ判定装置1は、図1(a)〜図2(c)に示すように、撮像部3によって撮像された複数の画像35に基づいて手9によってなされたジェスチャを判定すると共に手9を一の画像35において認識できない場合、当該一の画像35の後に取得した画像35の縁36に手9を含む物体を認識するための認識領域50を設定するジェスチャ判定部としての制御部5と、を備えて概略構成されている。
As shown in FIG. 1A to FIG. 2C, the gesture determination device 1 determines a gesture made by the
(撮像部3の構成)
撮像部3は、例えば、CCDイメージセンサ(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの半導体素子を用いた撮像装置である。
(Configuration of the imaging unit 3)
The
この撮像部3は、一例として、図1(a)に示すように、車両8の運転席と助手席の間のフロアコンソール80aに配置されたタッチパッド88の近傍に配置されている。従って撮像領域30は、タッチパッド88の上方の領域である。撮像部3は、例えば、タッチパッド88の上方において行われたジェスチャを撮像する。また、この撮像部3は、例えば、近赤外線を撮像領域30方向に照射して撮像するように構成されている。
As an example, the
なお撮像部3の配置は、フロアコンソール80aに限定されず、例えば、表示装置87の正面においてなされたジェスチャを撮像できるようにセンターコンソール80bなどであっても良い。
The arrangement of the
撮像部3は、周期的に撮像領域30を撮像し、撮像した画像の情報として画像情報S1を生成して制御部5に出力する。この撮像領域30を撮像した画像は、一例として、図2(a)〜図2(d)に示す画像35である。
The
(制御部5の構成)
制御部5は、例えば、記憶されたプログラムに従って、取得したデータに演算、加工などを行うCPU(Central Processing Unit)、半導体メモリであるRAM(Random Access Memory)及びROM(Read Only Memory)などから構成されるマイクロコンピュータである。このROMには、例えば、制御部5が動作するためのプログラムと、ジェスチャ情報55と、が格納されている。RAMは、例えば、一時的に演算結果などを格納する記憶領域として用いられる。
(Configuration of control unit 5)
The
制御部5は、一例として、手9が含まれない画像35(背景画像)と、手9が含まれる画像35と、の差分から手9を抽出し、抽出された手9とジェスチャ情報55に基づくパターンマッチング法によってジェスチャを判定するように構成されている。なお手9の判定やジェスチャの判定は、パターンマッチング法以外の方法が用いられても良い。また背景画像は、例えば、ジェスチャ判定装置1が起動して最初に撮像した画像であっても良いし、予め設定された画像であっても良いし、走行中などに定期的に更新される画像であっても良い。
For example, the
ジェスチャ情報55は、例えば、手9によって行われるジェスチャに関する情報である。この手9によって行われるジェスチャは、例えば、手9を上下又は左右に移動させるジェスチャ、手9によって円を描くように行われるジェスチャなどである。なお上下左右は、特に断らない限り車両8の上下左右が基準となっている。
The gesture information 55 is information regarding a gesture performed by the
手9を上下又は左右に移動させるジェスチャは、一例として、図2(c)に示すように、手9を広げて、かつ掌を撮像部3に向けて、つまりタッチパッド88に手9をかざすように行われる。このジェスチャは、一例として、ナビゲーション装置84が表示装置87に表示させている地図画像を手9の移動方向にスクロールさせるジェスチャである。ナビゲーション装置84は、例えば、操作情報S2に基づいて手9の移動方向に地図画像をスクロールさせる。
For example, as shown in FIG. 2C, the gesture for moving the
手9によって円を描くように行われるジェスチャは、一例として、指を立てた状態で行われるジェスチャである。このジェスチャは、例えば、ナビゲーション装置84の音声ガイドの音量、音楽及び映像再生装置85の音量などを調整するジェスチャである。例えば、操作者が指を立てて撮像部3に対して時計回りに円を描くジェスチャを行うと、音量が上がり、反時計回りに円を描くジェスチャを行うと、音量が下がる。また空調装置86の場合は、例えば、操作情報S2に基づいて設定温度や風量が変化する。
The gesture performed so as to draw a circle with the
制御部5は、図2(a)に示すように、画像35内に手9が認識できない場合、画像35の縁36に認識領域50を設定し、この認識領域50のみに認識処理を行う。つまり制御部5は、画像35の全体を認識領域として認識処理を行うのではなく、画像35の縁36に限定的に設定された認識領域50のみで認識処理を行う。言い換えるなら認識領域50は、画像35の中央領域51の周囲に形成される。
As shown in FIG. 2A, when the
手9が画像35として撮像されるためには、撮像領域30内に手9が侵入していなければならない。撮像された一の画像35に手9が含まれてない場合、一の画像35の次に撮像された画像35の中央に手9が認識される可能性よりは、画像35の縁36の近傍で認識される可能性の方が高い。これは、運転席又は助手席に着座する操作者がタッチパッド88の上方に手9をかざす場合、例えば、図2(b)に示すように、撮像領域30の左右方向からタッチパッド88の上方に手9を移動させる、つまり手9が画像35内に写り込む方向が撮像領域30の左右方向に予め定まるからである。
In order for the
従って制御部5は、画像35の中央領域51に対して認識処理を行うよりも縁36の認識領域50に対して認識処理を行う方が手9を認識する可能性が高く、また認識処理における負荷が低減される。
Therefore, the
この認識領域50の幅は、物体の認識が可能な幅であれば良く、一例として、画像35の縦の辺(短辺)の1/10〜1/4程度である。この幅は、画像35の縦の辺と横の辺とで幅が異なっても良い。また縦の辺が横の辺よりも幅が広くても良い。
The width of the recognition area 50 may be any width that allows an object to be recognized, and is about 1/10 to 1/4 of the vertical side (short side) of the
制御部5は、手9を含む物体を画像35の縁36に設定した認識領域50において認識した場合、ジェスチャを判定するための判定領域52を画像35の全体に設定するように構成されている。つまり制御部5は、認識領域50における物体としての手9の認識は勿論のこと、認識領域50における輝度の変化などによる物体の認識がなされた場合、ジェスチャを判定するため、認識領域50を解除して画像35の全体を判定領域52に設定する。
When the object including the
また変形例として制御部5は、手9が画像35内に写り込む方向が予め定まる場合、写り込む方向に対応する当該画像35の縁36に部分的に認識領域50を設定する。具体的には、制御部5は、図2(d)に示すように、手9が撮像領域30に写り込む際に経由する可能性の高い縦の辺のみに認識領域50を設定する。この変形例の認識領域50は、図2(d)の紙面左側の第1の認識領域50a及び第2の認識領域50bである。この変形例によれば、ジェスチャ判定装置1は、認識領域50a及び認識領域50bが上述の認識領域50よりも小さいので、より処理負荷を低減することができる。
As a modification, when the direction in which the
また変形例として制御部5は、自身が起動した後に取得する最初の画像35の縁36に認識領域50を設定するように構成されても良い。この変形例では、最初の画像35から連続的に認識領域50が設定される。この変形例は、手9が撮像領域30内に位置しないことが条件となる。
As a modification, the
当該条件は、一例として、車両通信システム81の車両制御部83から取得する車両情報に基づいて、ドアの開閉から助手席に乗員が着座していない場合においてステアリングが把持されている、左手で操作される操作装置(イグニッションスイッチやレバーなど)が操作されているなどである。
The condition is, for example, based on vehicle information acquired from the
(車両通信システム81の構成)
車両通信システム81は、一例として、CAN(Controller Area Network)などの規格を用いた通信システムである。車両通信システム81は、例えば、車両LAN(Local Area Network)82を介してジェスチャ判定装置1やナビゲーション装置84などが通信を行う。
(Configuration of vehicle communication system 81)
The vehicle communication system 81 is a communication system using a standard such as CAN (Controller Area Network) as an example. In the vehicle communication system 81, for example, the gesture determination device 1 and the
この車両通信システム81は、一例として、図1(c)に示すように、ジェスチャ判定装置1、車両制御部83、ナビゲーション装置84、音楽及び映像再生装置85、空調装置86、表示装置87及びタッチパッド88などが通信できるように構成されている。車両制御部83は、例えば、この車両通信システム81を制御するマイクロコンピュータである。
For example, the vehicle communication system 81 includes a gesture determination device 1, a
ジェスチャ判定装置1がナビゲーション装置84を操作する場合、ジェスチャ判定装置1から出力された操作情報S2は、車両LAN82を介してナビゲーション装置84に入力する。ナビゲーション装置84は、入力した操作情報S2に基づいて動作を行う。
When the gesture determination device 1 operates the
以下に、本実施の形態のジェスチャ判定装置1の動作の一例について図3のフローチャートに従って説明する。 Below, an example of operation | movement of the gesture determination apparatus 1 of this Embodiment is demonstrated according to the flowchart of FIG.
(動作)
車両8の電源が投入されると、ジェスチャ判定装置1の撮像部3は、撮像した撮像領域30の画像35の情報である画像情報S1を周期的に出力する。制御部5は、画像情報S1に基づいて画像35を取得する(Step1)。
(Operation)
When the power of the vehicle 8 is turned on, the
制御部5は、画像35に基づいて認識対象である手9が認識されるか確認する。制御部5は、手9が認識されない場合(Step2:No)、以降に取得される画像35に認識領域50を設定する(Step3)。
The
制御部5は、取得した画像35ごとに認識領域50を設定し、認識領域50で物体が認識されるか確認する。制御部5は、ステップ4の「Yes」が成立する、つまり認識領域50において物体が認識されると(Step4:Yes)、画像35の全体を判定領域52に設定し(Step5)、ジェスチャの判定処理を行う(Step6)。
The
制御部5は、ジェスチャの判定処理が終了すると、判定結果に基づいて操作情報S2を生成して接続された電子機器に出力し(Step7)、ジェスチャの判定処理を終了する。この操作情報S2は、一例として、ジェスチャが判定されなかった場合も出力される。
ここでステップ2において制御部5は、手9が認識された場合(Step2:Yes)、ステップ6に処理を進めてジェスチャの判定処理を行う。
Here, when the
なお制御部5は、手9が認識された後に画像35から消える、つまりフレームアウトなどにより画像35から手9が抽出できなくなった場合、ジェスチャの判定処理を中止する。
If the
(実施の形態の効果)
本実施の形態に係るジェスチャ判定装置1は、ジェスチャの判定に伴う処理負荷を抑制することができる。具体的には、ジェスチャ判定装置1は、画像35の全体を対象として認識対象の認識処理を行わず、画像35の縁36に限定的に認識領域50を設定する。従ってジェスチャ判定装置1は、画像の全体に認識処理を行う場合と比べて、ジェスチャの判定に伴う処理負荷を抑制することができる。
(Effect of embodiment)
The gesture determination apparatus 1 according to the present embodiment can suppress the processing load associated with gesture determination. Specifically, the gesture determination device 1 does not perform recognition processing for the recognition target for the
ジェスチャ判定装置1は、タッチパッド88に手9をかざすようにジェスチャを行って操作対象を操作することができるので、タッチパッドによってのみ操作する場合と比べて、視線移動を抑制して操作負荷を低減することができる。
Since the gesture determination device 1 can operate the operation target by performing a gesture so that the
なお上述のジェスチャ判定装置1は、タッチパッド88の上方で行われたジェスチャを検出するように構成されていたがこれに限定されず、ステアリングやセンターコンソール80bなどの近傍で行われたジェスチャを検出するように構成されても良い。
The gesture determination device 1 described above is configured to detect a gesture performed above the
上述の実施の形態及び変形例に係るジェスチャ判定装置1は、例えば、用途に応じて、その一部が、コンピュータが実行するプログラム、ASIC(Application Specific Integrated Circuit)及びFPGA(Field Programmable Gate Array)などによって実現されても良い。 The gesture determination apparatus 1 according to the above-described embodiment and modification is, for example, a program executed by a computer, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like, depending on applications. It may be realized by.
以上、本発明のいくつかの実施の形態及び変形例を説明したが、これらの実施の形態及び変形例は、一例に過ぎず、特許請求の範囲に係る発明を限定するものではない。これら新規な実施の形態及び変形例は、その他の様々な形態で実施されることが可能であり、本発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更などを行うことができる。また、これら実施の形態及び変形例の中で説明した特徴の組合せの全てが発明の課題を解決するための手段に必須であるとは限らない。さらに、これら実施の形態及び変形例は、発明の範囲及び要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although some embodiment and modification of this invention were demonstrated, these embodiment and modification are only examples, and do not limit the invention based on a claim. These novel embodiments and modifications can be implemented in various other forms, and various omissions, replacements, changes, and the like can be made without departing from the scope of the present invention. In addition, not all combinations of features described in these embodiments and modifications are necessarily essential to the means for solving the problems of the invention. Further, these embodiments and modifications are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
1…ジェスチャ判定装置、3…撮像部、5…制御部、8…車両、9…手、30…撮像領域、35…画像、36…縁、50…認識領域、50a…第1の認識領域、50b…第2の認識領域、51…中央領域、52…判定領域、55…ジェスチャ情報、80a…フロアコンソール、80b…センターコンソール、81…車両通信システム、82…車両LAN、83…車両制御部、84…ナビゲーション装置、85…映像再生装置、86…空調装置、87…表示装置、88…タッチパッド DESCRIPTION OF SYMBOLS 1 ... Gesture determination apparatus, 3 ... Imaging part, 5 ... Control part, 8 ... Vehicle, 9 ... Hand, 30 ... Imaging area, 35 ... Image, 36 ... Edge, 50 ... Recognition area, 50a ... 1st recognition area, 50b ... 2nd recognition area, 51 ... Center area, 52 ... Determination area, 55 ... Gesture information, 80a ... Floor console, 80b ... Center console, 81 ... Vehicle communication system, 82 ... Vehicle LAN, 83 ... Vehicle control part, 84 ... Navigation device, 85 ... Video playback device, 86 ... Air conditioner, 87 ... Display device, 88 ... Touchpad
Claims (4)
請求項1に記載のジェスチャ判定装置。 The gesture determination unit sets the recognition region at the edge of the first image acquired after the gesture determination unit starts.
The gesture determination apparatus according to claim 1.
請求項1又は2に記載のジェスチャ判定装置。 The gesture determination unit, when a direction in which the recognition target is reflected in an image is determined in advance, partially sets the recognition area at an edge of the image corresponding to the reflection direction;
The gesture determination apparatus according to claim 1 or 2.
請求項1乃至3のいずれか1項に記載のジェスチャ判定装置。 The gesture determination unit sets a determination region for determining the gesture in the entire image when the object including the recognition target is recognized in the recognition region set as an edge of the image.
The gesture determination apparatus according to any one of claims 1 to 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016119220A JP2017224162A (en) | 2016-06-15 | 2016-06-15 | Gesture determination device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016119220A JP2017224162A (en) | 2016-06-15 | 2016-06-15 | Gesture determination device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017224162A true JP2017224162A (en) | 2017-12-21 |
Family
ID=60687020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016119220A Pending JP2017224162A (en) | 2016-06-15 | 2016-06-15 | Gesture determination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017224162A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299743A (en) * | 2018-10-18 | 2019-02-01 | 京东方科技集团股份有限公司 | Gesture identification method and device, terminal |
-
2016
- 2016-06-15 JP JP2016119220A patent/JP2017224162A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299743A (en) * | 2018-10-18 | 2019-02-01 | 京东方科技集团股份有限公司 | Gesture identification method and device, terminal |
CN109299743B (en) * | 2018-10-18 | 2021-08-10 | 京东方科技集团股份有限公司 | Gesture recognition method and device and terminal |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6515028B2 (en) | Vehicle control device | |
US20170108988A1 (en) | Method and apparatus for recognizing a touch drag gesture on a curved screen | |
US20140079285A1 (en) | Movement prediction device and input apparatus using the same | |
CN105739679B (en) | Steering wheel control system | |
JP2017191496A (en) | Gesture determination device | |
US10780781B2 (en) | Display device for vehicle | |
WO2018061603A1 (en) | Gestural manipulation system, gestural manipulation method, and program | |
US20170083777A1 (en) | Determination apparatus, determination method, and non-transitory recording medium | |
JP2017211884A (en) | Motion detection system | |
JP2016141246A (en) | Mirror control device and mirror control system | |
JP6188998B2 (en) | Touch panel control device and in-vehicle information device | |
WO2018061413A1 (en) | Gesture detection device | |
JP4858206B2 (en) | In-vehicle device operation support device and operation support method | |
JP6657024B2 (en) | Gesture judgment device | |
JP2019101826A (en) | Gesture determination device and program | |
JP2014021748A (en) | Operation input device and on-vehicle equipment using the same | |
JP2017224162A (en) | Gesture determination device | |
JP6551941B2 (en) | Gesture determination device | |
JP2018501998A (en) | System and method for controlling automotive equipment | |
KR20170117342A (en) | User interface, transport means and method for recognizing a hand of a user | |
KR20150027608A (en) | Remote control system based on gesture and method thereof | |
JP2016110269A (en) | Manipulation input device | |
KR20150067679A (en) | System and method for gesture recognition of vehicle | |
JP6315443B2 (en) | Input device, input detection method for multi-touch operation, and input detection program | |
JP2016157457A (en) | Operation input device, operation input method and operation input program |