JP2009301302A - Gesture determination device - Google Patents

Gesture determination device Download PDF

Info

Publication number
JP2009301302A
JP2009301302A JP2008154722A JP2008154722A JP2009301302A JP 2009301302 A JP2009301302 A JP 2009301302A JP 2008154722 A JP2008154722 A JP 2008154722A JP 2008154722 A JP2008154722 A JP 2008154722A JP 2009301302 A JP2009301302 A JP 2009301302A
Authority
JP
Japan
Prior art keywords
gesture
touch
coordinates
determination
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008154722A
Other languages
Japanese (ja)
Inventor
Tomomasa Shimizu
智巨 清水
Haruhiko Hashimoto
治彦 橋本
Tsuneyuki Yamamoto
恒行 山本
Naoki Kamiya
直城 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2008154722A priority Critical patent/JP2009301302A/en
Publication of JP2009301302A publication Critical patent/JP2009301302A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a gesture determination device accurately determining a gesture in spite of a simple structure. <P>SOLUTION: This gesture determination device 3 mainly includes: right, left, right-rear, and left-rear touch pads 30a-30d configured by a plurality of touch sensors 31; a calculation part 32; and a determination part 33. The determination part 33 calculates, based on "a point of a touch coordinate group 341" and "a point constituting a gesture pattern registered in a gesture dictionary", correspondence between points respectively closest to the points about each of the gesture patterns registered in the gesture dictionary 340, selects the gesture pattern wherein an average distance between the closest points is shortest as a "candidate gesture", and makes a vehicle ECU (Electronic Control Unit) 100 execute a command based on the "candidate gesture". <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ジェスチャ判定装置に関する。   The present invention relates to a gesture determination device.

従来の技術として、入力パッドの裏面に配列され、接触圧力を検出する3個の圧力スイッチと、この3個の圧力スイッチの開閉情報を入力し、接触点が移動する方向、速度、移動量を解析するイベント制御部と、入力パッドを操作する操作パターンを記憶し、イベント制御部によって解析された操作と操作パターンとを比較してジェスチャを認識するジェスチャ認識部と、ジェスチャ認識部によるジェスチャの認識結果に基づいて電子機器への動作を指示する制御部と、を備えた入力デバイスが知られている(例えば、特許文献1参照)。   As a conventional technique, three pressure switches arranged on the back surface of the input pad and detecting contact pressure and opening / closing information of the three pressure switches are input, and the direction, speed, and amount of movement of the contact point are determined. An event control unit to analyze, an operation pattern for operating the input pad, a gesture recognition unit that recognizes a gesture by comparing the operation pattern analyzed by the event control unit and the operation pattern, and gesture recognition by the gesture recognition unit There is known an input device including a control unit that instructs an operation to an electronic device based on a result (see, for example, Patent Document 1).

イベント制御部は、同時に2つの圧力スイッチが押されたとき、より強く押された方の圧力スイッチが操作されていると判断するものとしている。   The event control unit determines that the pressure switch that is pressed more strongly is being operated when two pressure switches are pressed simultaneously.

よってこの入力デバイスは、接触点が移動する方向、速度、移動量を解析し、操作内容、すなわちジェスチャを認識することができるので、電子機器に対する多様な指示が可能になる。
特開2005−323048号公報
Therefore, the input device can analyze the direction, speed, and amount of movement of the contact point and recognize the operation content, that is, the gesture, so that various instructions can be given to the electronic device.
JP 2005-323048 A

しかし、従来の入力デバイスによると、同時に2つの圧力スイッチが押されたとき、より強く押された方の圧力スイッチが操作されていると判断するので、接触点の検出の分解能が低く、ジェスチャの正確な認識が困難であった。   However, according to the conventional input device, when two pressure switches are pressed at the same time, it is determined that the pressure switch that is pressed more strongly is operated, so that the resolution of detecting the contact point is low, and the gesture Accurate recognition was difficult.

従って本発明の目的は、構造が簡単でありながらジェスチャの正確な判定を行うことができるジェスチャ判定装置を提供することにある。   Accordingly, an object of the present invention is to provide a gesture determination apparatus that can accurately determine a gesture while having a simple structure.

(1)本発明は上記目的を達成するため、ジェスチャ操作に基づく接触に応じて静電容量が変化する複数のタッチセンサと、前記複数のタッチセンサによって形成される座標系における前記接触に応じたタッチ座標を所定の周期毎に算出する算出部と、前記ジェスチャ操作に基づく複数の前記タッチ座標をタッチ座標群として記憶し、また、前記座標系における複数の点によって構成されたジェスチャパターンが登録されたジェスチャ辞書を記憶する記憶部と、前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点とを所定の条件に基づいて所定の順番で比較することによって前記ジェスチャ操作を判定する判定部と、を備えたことを特徴とするジェスチャ判定装置を提供する。 (1) In order to achieve the above-mentioned object, the present invention responds to the contact in a coordinate system formed by a plurality of touch sensors whose capacitance changes according to the contact based on the gesture operation and the plurality of touch sensors. A calculation unit that calculates touch coordinates every predetermined period, a plurality of touch coordinates based on the gesture operation are stored as a touch coordinate group, and a gesture pattern configured by a plurality of points in the coordinate system is registered. The gesture operation is determined by comparing a storage unit that stores the gesture dictionary and the touch coordinates that constitute the touch coordinate group and the points that constitute the gesture pattern in a predetermined order based on a predetermined condition. And a determination unit that performs the gesture determination.

(2)本発明は上記目的を達成するため、前記所定の条件は、前記所定の順番に基づいて前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点との距離が所定のしきい値を越えないことであることを特徴とする前記(1)に記載のジェスチャ判定装置を提供する。 (2) In order to achieve the above object, the predetermined condition is that the distance between the touch coordinates constituting the touch coordinate group and the point constituting the gesture pattern is predetermined based on the predetermined order. The gesture determination apparatus according to (1) is characterized in that it does not exceed the threshold value.

(3)本発明は上記目的を達成するため、ジェスチャ操作に基づく接触に応じて静電容量が変化する複数のタッチセンサと、前記複数のタッチセンサによって形成される座標系における前記接触に応じたタッチ座標を所定の周期毎に算出する算出部と、前記ジェスチャ操作に基づく複数の前記タッチ座標をタッチ座標群として記憶し、また、前記座標系における複数の点によって構成されたジェスチャパターンが登録されたジェスチャ辞書を記憶する記憶部と、前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点とを所定の条件に基づいて所定の順番で比較することによって前記ジェスチャ操作を判定する判定部と、判定された前記ジェスチャ操作に基づいて被制御装置を制御する制御部と、を備えたことを特徴とするジェスチャ判定装置を提供する。 (3) In order to achieve the above object, the present invention responds to the contact in a coordinate system formed by a plurality of touch sensors whose capacitance changes according to the contact based on the gesture operation and the plurality of touch sensors. A calculation unit that calculates touch coordinates every predetermined period, a plurality of touch coordinates based on the gesture operation are stored as a touch coordinate group, and a gesture pattern configured by a plurality of points in the coordinate system is registered. The gesture operation is determined by comparing a storage unit that stores the gesture dictionary and the touch coordinates that constitute the touch coordinate group and the points that constitute the gesture pattern in a predetermined order based on a predetermined condition. And a control unit that controls the controlled device based on the determined gesture operation. Providing a gesture determination apparatus according to claim.

(4)本発明は上記目的を達成するため、前記所定の条件は、前記所定の順番に基づいて前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点との距離が所定のしきい値を越えないことであることを特徴とする前記(3)に記載のジェスチャ判定装置を提供する。 (4) In order to achieve the above object, the predetermined condition is that the distance between the touch coordinates constituting the touch coordinate group and the points constituting the gesture pattern is predetermined based on the predetermined order. The gesture determining apparatus according to (3) is characterized in that the threshold value of (3) is not exceeded.

(5)本発明は上記目的を達成するため、前記ジェスチャ操作は、前記タッチセンサを上又は下方向に撫でることであり、前記被制御装置は、車両のウインドウであり、前記制御部は、前記ジェスチャ操作に基づいて前記車両の前記ウインドウの開閉制御を行うことを特徴とする前記(3)に記載のジェスチャ判定装置を提供する。 (5) In order to achieve the above object, the gesture operation includes stroking the touch sensor upward or downward, the controlled device is a vehicle window, and the control unit The gesture determination device according to (3), wherein the opening / closing control of the window of the vehicle is performed based on a gesture operation.

(6)本発明は上記目的を達成するため、前記ジェスチャ操作は、複数の前記タッチセンサを覆うことであり、前記被制御装置は、車両のカーテン又はサンシェードであり、前記制御部は、前記ジェスチャ操作に基づいて前記車両の前記カーテン又は前記サンシェードの制御を行うことを特徴とする前記(3)に記載のジェスチャ判定装置を提供する。 (6) In order to achieve the above object, the gesture operation includes covering a plurality of the touch sensors, the controlled device is a curtain or a sunshade of the vehicle, and the control unit includes the gesture The gesture determination device according to (3) is provided that controls the curtain or the sunshade of the vehicle based on an operation.

このような発明によれば、構造が簡単でありながらジェスチャの正確な判定を行うことができる。   According to such an invention, it is possible to accurately determine a gesture while having a simple structure.

以下に、本発明のジェスチャ判定装置の実施の形態を図面を参考にして詳細に説明する。   Embodiments of a gesture determination apparatus according to the present invention will be described below in detail with reference to the drawings.

[実施の形態]
(車両の構成)
図1は、本発明の実施の形態に係るジェスチャ判定装置が搭載された車両内部の概略図であり、図2は、本発明の実施の形態に係る車両後方の斜視図である。本発明のジェスチャ判定装置を車両に搭載した場合について説明する。
[Embodiment]
(Vehicle configuration)
FIG. 1 is a schematic diagram of the interior of a vehicle equipped with a gesture determination device according to an embodiment of the present invention, and FIG. 2 is a rear perspective view of the vehicle according to the embodiment of the present invention. The case where the gesture determination apparatus of this invention is mounted in a vehicle is demonstrated.

この車両1は、図1に示すように、操舵装置の一部であり、左右に回転操作することによって車両1の進行方向を変更することができるステアリング2と、ステアリング2の本体部20の運転者側(表側)に設けられたジェスチャ判定装置3の入力部としての右及び左タッチパッド30a、30bと、本体部20の裏側に設けられ、ジェスチャ判定装置3の入力部としての後述する右裏及び左裏タッチパッドと、画像を表示する表示装置4と、を備えて概略構成されている。   As shown in FIG. 1, the vehicle 1 is a part of a steering device, and a steering 2 that can change the traveling direction of the vehicle 1 by rotating left and right, and the operation of the main body 20 of the steering 2. The right and left touchpads 30a and 30b as input units of the gesture determination device 3 provided on the person side (front side) and the right back as described later as the input unit of the gesture determination device 3 provided on the back side of the main body unit 20. And a left back touchpad and a display device 4 for displaying an image.

ステアリング2は、図示しないステアリングシャフトと接続され、各種スイッチ類が配置された本体部20と、運転者が把握する部分であり、リング形状を有するステアリングホイール21と、を備えて概略構成されている。   The steering 2 is connected to a steering shaft (not shown) and includes a main body 20 on which various switches are disposed, and a steering wheel 21 having a ring shape, which is a part grasped by the driver. .

また車両1は、図2に示すように、車両1の後方に電動で開閉を行うことができるカーテン6と、車両1の前方右側の窓ガラスであるFRウインドウ50と、後方右側の窓ガラスであるRRウインドウ51と、を備えており、さらに後述する前方左側の窓ガラスであるFLウインドウ、及び後方左側の窓ガラスであるRLウインドウを備えて概略構成されている。   As shown in FIG. 2, the vehicle 1 includes a curtain 6 that can be electrically opened and closed behind the vehicle 1, an FR window 50 that is a window glass on the front right side of the vehicle 1, and a window glass on the rear right side. And an RR window 51, and further includes an FL window that is a front left window glass and an RL window that is a rear left window glass, which will be described later.

(ジェスチャ判定装置の構成)
図3は、本発明の実施の形態に係るステアリング裏の概略図であり、図4は、本発明の実施の形態に係るジェスチャ判定装置に関するブロック図である。
(Configuration of gesture determination device)
FIG. 3 is a schematic view of the back of the steering according to the embodiment of the present invention, and FIG. 4 is a block diagram relating to the gesture determination device according to the embodiment of the present invention.

ジェスチャ判定装置3は、主に、右及び左タッチパッド30a、30bと、図3に示す右裏及び左裏タッチパッド30c、30dと、算出部32と、判定部33と、を備えて概略構成されている。   The gesture determination device 3 mainly includes right and left touch pads 30a and 30b, right and left back touch pads 30c and 30d shown in FIG. 3, a calculation unit 32, and a determination unit 33. Has been.

またジェスチャ判定装置3は、図4に示すように、ジェスチャ辞書340及び後述するタッチ座標群341を記憶する記憶部34を備えており、判定部33は、車両1を総合的に制御する車両ECU(Electronic Control Unit;制御部)100に接続されている。   As shown in FIG. 4, the gesture determination device 3 includes a storage unit 34 that stores a gesture dictionary 340 and a touch coordinate group 341 described later. The determination unit 33 is a vehicle ECU that comprehensively controls the vehicle 1. (Electronic Control Unit; control unit) 100 is connected.

車両ECU100は、被制御装置の一例としての表示装置4、カーテン6、FR及びRRウインドウ50、51、車両1の前方左側の窓ガラスであるFLウインドウ52、及び車両1の後方左側の窓ガラスであるRLウインドウ53に接続されている。   The vehicle ECU 100 includes a display device 4 as an example of a controlled device, curtains 6, FR and RR windows 50 and 51, an FL window 52 that is a window glass on the left front side of the vehicle 1, and a window glass on the left rear side of the vehicle 1. It is connected to a certain RL window 53.

FR及びRRウインドウ50、51の開閉制御は、右及び右裏タッチパッド30a、30cによって行われ、FL及びRLウインドウ52、53の開閉制御は、左及び左裏タッチパッド30b、30dによって行われるものとする。   The opening and closing control of the FR and RR windows 50 and 51 is performed by the right and right back touch pads 30a and 30c, and the opening and closing control of the FL and RL windows 52 and 53 is performed by the left and left back touch pads 30b and 30d. And

表示装置4は、一例として、カーナビゲーション装置の表示部であるものとし、表示装置4には、選択可能な各種メニューが表示される。   As an example, the display device 4 is a display unit of a car navigation device, and various menus that can be selected are displayed on the display device 4.

(タッチセンサについて)
図5は、本発明の実施の形態に係るタッチセンサの断面図である。なお、同図は、右タッチパッド30aを示すが、他のタッチパッド30b〜30dも右タッチパッド30aと同様に構成されている。
(About touch sensor)
FIG. 5 is a cross-sectional view of the touch sensor according to the embodiment of the present invention. Although the figure shows the right touch pad 30a, the other touch pads 30b to 30d are configured in the same manner as the right touch pad 30a.

タッチセンサ31は、一例として、手指によるジェスチャ操作(以下ジェスチャとする)に応じた静電容量の変化に基づいてオン・オフ状態を判断し、オン状態の時は「1」を、オフ状態の時は「0」を示す信号を外部に出力するようにIC(Integrated Circuit)化されているものとする。なお、算出部32によって各電極311の静電容量を直接読み出すように構成されても良い。 As an example, the touch sensor 31 determines an on / off state based on a change in capacitance according to a gesture operation with a finger (hereinafter referred to as a gesture). When the touch sensor 31 is on, “1” is displayed. It is assumed that the IC is an integrated circuit (IC) so that a signal indicating “0” is output to the outside. Note that the calculation unit 32 may directly read the capacitance of each electrode 311.

右、左、右裏及び左裏タッチパッド30a〜30dは、樹脂等の絶縁部材によって形成された本体310と、銅等の導電体によって本体310上に形成された電極311と、電極311を保護するため、本体310上に形成された保護膜としての塗装膜312と、を備え、一例として、電極311を8行8列として格子状に並べて本体310上に形成したものである。なお、本体310は、プリント配線基板でも良い。   The right, left, right back and left back touch pads 30a to 30d protect the main body 310 formed of an insulating member such as resin, the electrode 311 formed on the main body 310 by a conductor such as copper, and the electrode 311. Therefore, a coating film 312 as a protective film formed on the main body 310 is provided, and as an example, the electrodes 311 are arranged on the main body 310 in 8 rows and 8 columns in a grid pattern. The main body 310 may be a printed wiring board.

電極311は、一例として、算出部32が有するアナログスイッチであるマルチプレクサにそれぞれが接続され、算出部32は、マルチプレクサを介して所定の周期でオン・オフ状態の読み出しを行っている。   As an example, each of the electrodes 311 is connected to a multiplexer that is an analog switch included in the calculation unit 32, and the calculation unit 32 reads out the on / off state at a predetermined cycle via the multiplexer.

運転者は、この右、左、右裏及び左裏タッチパッド30a〜30dに対してジェスチャを行うことによって被制御装置に割り当てられた所定のコマンドを入力することができるものとする。   It is assumed that the driver can input a predetermined command assigned to the controlled apparatus by performing a gesture on the right, left, right back and left back touch pads 30a to 30d.

なお、ジェスチャとは、この右、左、右裏及び左裏タッチパッド30a〜30dに直接接触する操作のことを指すが、タッチセンサ31の静電容量が、接触有りと判断するに十分な変化を行う場合もジェスチャに含めるものとする。   Note that the gesture refers to an operation of directly touching the right, left, right back and left back touch pads 30a to 30d, but the capacitance of the touch sensor 31 is sufficient to determine that there is contact. The gesture is also included in the gesture.

右、左、右裏及び左裏タッチパッド30a〜30dは、一例として図4に示すように、左上を原点とするx−y座標が設定され、左から右をx軸の正とし、上から下をy軸の正とする。   As shown in FIG. 4, as an example, the right, left, right back and left back touch pads 30a to 30d are set with xy coordinates with the upper left as the origin, the left to the right are positive on the x axis, and from the top Below is the positive y-axis.

また以下においては、左上のタッチセンサ31を座標(1、1)で表すものとし、x軸方向に1つ隣のタッチセンサ31を座標(2、1)、y軸方向に1つ隣のタッチセンサ31を座標(1、2)と表し、以下同様に任意のタッチセンサ31を座標(x、y)で表すものとする。   In the following, the touch sensor 31 at the upper left is represented by coordinates (1, 1), the touch sensor 31 adjacent in the x-axis direction is touched by coordinates (2, 1), and the touch next by one in the y-axis direction. The sensor 31 is represented by coordinates (1, 2), and the arbitrary touch sensor 31 is represented by coordinates (x, y).

(算出部について)
算出部32は、一例として、座標(1、1)から座標(8、1)のタッチセンサ31のオン・オフ状態を、マルチプレクサを切り替えることによって読み出し、続いて座標(1、2)から座標(8、2)、座標(1、3)から座標(8、3)・・・座標(1、8)から座標(8、8)と、左上から順番に走査してオン・オフ状態を読み出す。
(About the calculation unit)
As an example, the calculation unit 32 reads the on / off state of the touch sensor 31 from the coordinates (1, 1) to the coordinates (8, 1) by switching the multiplexer, and then, from the coordinates (1, 2) to the coordinates ( 8, 2), coordinates (1, 3) to coordinates (8, 3)... Coordinates (1, 8) to coordinates (8, 8), and sequentially scanning from the upper left to read the on / off state.

算出部32は、一例として、右、左、右裏及び左裏タッチパッド30a〜30dそれぞれのオン・オフ状態の読み出しを所定の周期として16ms単位(以下1周期と呼ぶ)で行う。   As an example, the calculation unit 32 reads out the on / off states of the right, left, right back, and left back touchpads 30a to 30d in a unit of 16 ms (hereinafter referred to as one cycle) as a predetermined cycle.

また算出部32は、一例として、加重平均処理によって加重平均座標としてのタッチ座標(X、Y)を算出する。タッチ座標(X、Y)は、各タッチセンサ31に付されたカウンタ値(重み関数)をC(x、y)とすると、以下の式によって算出される。

Figure 2009301302
Figure 2009301302
(ただし、Σはx、yそれぞれについて和を取るものとする) For example, the calculation unit 32 calculates touch coordinates (X t , Y t ) as weighted average coordinates by weighted average processing. The touch coordinates (X t , Y t ) are calculated by the following formula, where C (x, y) is a counter value (weight function) attached to each touch sensor 31.
Figure 2009301302
Figure 2009301302
(Note that Σ is the sum of x and y)

カウンタ値C(x、y)は、一例として、0から255の値を保持することができる関数であり、本実施の形態においては、オン判定されたタッチセンサ31にはカウンタ値C(x、y)として+30が、オフ判定されたタッチセンサ31にはカウンタ値C(x、y)として−20が割り付けられるものとする。なお、ある座標のカウンタ値C(x、y)の合計が負であるとき、カウンタ値C(x、y)をゼロとする。   The counter value C (x, y) is, for example, a function that can hold a value from 0 to 255. In the present embodiment, the counter value C (x, y) It is assumed that +30 is assigned as y) and −20 is assigned as the counter value C (x, y) to the touch sensor 31 determined to be off. When the sum of the counter values C (x, y) at a certain coordinate is negative, the counter value C (x, y) is set to zero.

なお、割り付けるカウンタ値C(x、y)はこれに限定されず、用途に応じて自由に変更可能である。例えば、オン判定を強くするため、オン判定時に加算するカウンタ値C(x、y)を相対的に大きくしたり、オフ判定を弱くするため、オフ判定時に加算されるカウンタ値C(x、y)を相対的に小さくしたりすることができる。これは、カウンタ値C(x、y)を大きくすることによって、タッチパッド30を外れてジェスチャの入力を行った場合においても、ジェスチャを検出する可能性が高まることに相当し、また、小さくすることによって、より正確なジェスチャの軌跡を得ることができることに相当する。   Note that the counter value C (x, y) to be assigned is not limited to this, and can be freely changed according to the application. For example, the counter value C (x, y) that is added at the time of the on determination is relatively large or the counter value C (x, y) that is added at the time of the off determination is weakened to weaken the off determination. ) Can be made relatively small. This is equivalent to increasing the counter value C (x, y), and increasing the possibility of detecting a gesture even when the touch pad 30 is removed and a gesture is input. This corresponds to obtaining a more accurate gesture trajectory.

またカウンタ値C(x、y)は、その値が次の読み出し周期において保持され、オン・オフ判定に基づいて1周期毎に+30又は−20が加算される。   The counter value C (x, y) is held in the next reading cycle, and +30 or −20 is added for each cycle based on the on / off determination.

算出部32は、タッチ座標(X、Y)の算出を1周期毎に行うものとし、所定の期間におけるタッチ座標(X、Y)の軌跡(以下タッチ座標群341と呼ぶ)を記憶部34に記憶するものとする。 The calculation unit 32 calculates the touch coordinates (X t , Y t ) for each cycle, and the locus of the touch coordinates (X t , Y t ) in a predetermined period (hereinafter referred to as a touch coordinate group 341). It is assumed to be stored in the storage unit 34.

なお、所定の期間は、例えば、全てのタッチセンサ31の中で初めてオン判定が検出されてから全てがオフ判定となるまでの期間であっても良く、しきい値を設け、そのしきい値内の期間としても良く、これに限定されない。   The predetermined period may be, for example, a period from when the on determination is detected for the first time among all the touch sensors 31 until all are determined to be off. The period may be within, but is not limited thereto.

(判定部について)
図6は、本発明の実施の形態に係るジェスチャ辞書に記載された座標と算出されたタッチ座標との対応を示した概略図である。図6は、反時計回りに円を描くジェスチャに関する図であり、図6に示す丸は、ジェスチャ辞書340に記載される判定のために定義された点であり、図6に示す三角は、実際に算出されたタッチ座標である。また、丸に記された数字は、参照する順番を表し、三角に記された数字は、算出された順番を表している。
(About judgment part)
FIG. 6 is a schematic diagram showing the correspondence between the coordinates described in the gesture dictionary and the calculated touch coordinates according to the embodiment of the present invention. FIG. 6 is a diagram relating to a gesture for drawing a circle in a counterclockwise direction, and the circles shown in FIG. 6 are points defined for the determination described in the gesture dictionary 340, and the triangles shown in FIG. The touch coordinates calculated in the above. Also, the numbers written in circles indicate the order of reference, and the numbers written in triangles indicate the calculated order.

判定部33は、算出部32によって算出されたタッチ座標群341に基づいて記憶部34に記憶されたジェスチャ辞書340を参照し、入力されたジェスチャの判定を行う。   The determination unit 33 refers to the gesture dictionary 340 stored in the storage unit 34 based on the touch coordinate group 341 calculated by the calculation unit 32 and determines the input gesture.

ジェスチャ辞書340は、所定のジェスチャに対応するジェスチャパターンを所定の間隔で分割した点列が、順番(所定の順番)と共に登録されている。   In the gesture dictionary 340, a point sequence obtained by dividing a gesture pattern corresponding to a predetermined gesture at a predetermined interval is registered together with an order (predetermined order).

判定部33は、運転者のジェスチャに基づいて算出されたタッチ座標と、順番が合致する点との距離を算出し、一例として図6に示す距離L1〜L12が、所定の距離(所定のしきい値)以内であるとき、このジェスチャを「反時計回りに円を描くジェスチャ」と判定する。   The determination unit 33 calculates the distance between the touch coordinates calculated based on the driver's gesture and the point where the order matches, and as an example, the distances L1 to L12 illustrated in FIG. If it is within the threshold value), this gesture is determined as “a gesture for drawing a circle counterclockwise”.

(動作)
以下に、本実施の形態におけるジェスチャ判定装置の動作を各図を参照し、図11A及び11Bのフローチャートに従って詳細に説明する。
(Operation)
Hereinafter, the operation of the gesture determination apparatus according to the present embodiment will be described in detail according to the flowcharts of FIGS. 11A and 11B with reference to the drawings.

(ジェスチャの判定動作)
図7(a)及び(b)は、本発明の実施の形態に係るジェスチャ時の概略図であり、図7(c)は、本発明の実施の形態に係る入力されたジェスチャの概略図であり、図8、9及び図10は、本発明の実施の形態に係るカウンタ値の算出に関する模式図である。右タッチパッド30aを例に取って説明するが、左、右裏及び左裏タッチパッド30b、30c、30dにおいても同様である。
(Gesture judgment operation)
7A and 7B are schematic diagrams at the time of a gesture according to the embodiment of the present invention, and FIG. 7C is a schematic diagram of the input gesture according to the embodiment of the present invention. FIG. 8, FIG. 9 and FIG. 10 are schematic diagrams relating to the calculation of the counter value according to the embodiment of the present invention. The right touch pad 30a will be described as an example, but the same applies to the left, right back and left back touch pads 30b, 30c, and 30d.

また、図7(b)における黒塗りのタッチセンサ35は、現在の読み出し周期でオン判定されたタッチセンサを示しており、右肩上がりの斜線のタッチセンサ36は、現在の読み出し周期以前にオン判定されたタッチセンサを示しており、左肩上がりの斜線のタッチセンサ37は、さらに前の読み出し周期以前にオン判定されたタッチセンサを示している。図8は、手指5が、右タッチパッド30aに対してジェスチャを開始した読み出し周期における各座標のカウンタ値C(x、y)を示している。以下の各図において、ゼロとなるカウンタ値C(x、y)は図中に記載しないものとする。   Further, the black touch sensor 35 in FIG. 7B indicates a touch sensor determined to be ON in the current readout cycle, and the diagonally touched touch sensor 36 is turned on before the current readout cycle. The touch sensor 37 that has been determined is shown, and the touch sensor 37 that is a slanting line that rises to the left indicates a touch sensor that has been determined to be ON before the previous read cycle. FIG. 8 shows the counter value C (x, y) of each coordinate in the readout cycle when the finger 5 starts a gesture on the right touch pad 30a. In the following figures, the counter value C (x, y) that is zero is not shown in the figure.

運転者は、ステアリングホイール21を把握したまま、手指5によって右タッチパッド30aを下から上へ反時計回りに円を描くようになぞり、図7(c)に示す曲線的なジェスチャ300を入力する。   While grasping the steering wheel 21, the driver traces the right touch pad 30a with the fingers 5 in a counterclockwise direction from the bottom to the top, and inputs a curvilinear gesture 300 shown in FIG. 7C. .

算出部32は、右、左、右裏及び左裏タッチパッド30a〜30dの各電極311を走査し、電極311のオン・オフ状態を取得する(S1)。   The calculation unit 32 scans each electrode 311 of the right, left, right back, and left back touchpads 30a to 30d, and acquires the on / off state of the electrode 311 (S1).

算出部32は電極311毎にフィルタ処理を行い(S2)、反応している電極311があるとき(S3;Yes)、以下に示すタッチ座標を算出する(S4)。   The calculation unit 32 performs the filtering process for each electrode 311 (S2), and when there is a reacting electrode 311 (S3; Yes), the following touch coordinates are calculated (S4).

例えば、図8に示す座標(4、7)、(5、7)、(4、8)、(5、8)のタッチセンサ31がオン状態にあるとき、図8に示すように、座標(4、7)、(5、7)、(4、8)、(5、8)のカウンタ値C(x、y)を+30と設定し、(数1)及び(数2)に基づいてタッチ座標(4.5、7.5)を算出する。   For example, when the touch sensor 31 of coordinates (4, 7), (5, 7), (4, 8), (5, 8) shown in FIG. 8 is in an on state, as shown in FIG. 4, 7), (5, 7), (4, 8), (5, 8) counter value C (x, y) is set to +30, and touched based on (Equation 1) and (Equation 2) Coordinates (4.5, 7.5) are calculated.

続いて算出部32は、所定の期間同じ位置、すなわち前回オン状態にあるタッチセンサ31が、所定の期間以上オン状態にないとき(S6;No)、算出したタッチ座標(4.5、7.5)をタッチ座標群341として記憶部34に記憶させ(S7)、ステップ1に戻って再び電極311の走査を行う。   Subsequently, the calculation unit 32 calculates the touch coordinates (4.5, 7...) When the touch sensor 31 that has been in the on state for the predetermined period, that is, the touch sensor 31 in the previous on state has not been in the on state for a predetermined period (S6; No). 5) is stored in the storage unit 34 as the touch coordinate group 341 (S7), and the process returns to step 1 to scan the electrode 311 again.

このとき算出されたタッチ座標(4.5、7.5)は、図6に示す三角(1)として記憶部34に記憶される。   The touch coordinates (4.5, 7.5) calculated at this time are stored in the storage unit 34 as a triangle (1) shown in FIG.

また、算出部32は、ステップ6において「Yes」が成立するまでの期間、タッチ座標を算出する。例えば、図9に示す黒塗りのタッチセンサ36がオン判定であるとき、座標(5、6)、(6、6)、(5、7)、(6、7)のカウンタ値C(x、y)を+30と設定し、前回オン判定であった右上斜線の座標(4、7)、(5、7)、(4、8)、(5、8)には、保持していたカウンタ値C(x、y)に−20を加算して、(数1)及び(数2)に基づいてタッチ座標を(5.2、6.8)と算出する。なお、前回と今回、オン判定であった座標(5、7)のカウンタ値C(x、y)は、+30+30で、計+60として計算している。   In addition, the calculation unit 32 calculates the touch coordinates for the period until “Yes” is established in Step 6. For example, when the black touch sensor 36 shown in FIG. 9 is on, the counter values C (x, x) of the coordinates (5, 6), (6, 6), (5, 7), (6, 7) are displayed. y) is set to +30, and the coordinates (4, 7), (5, 7), (4, 8), and (5, 8) of the upper right diagonal line that were previously determined to be on are stored counter values. -20 is added to C (x, y), and the touch coordinates are calculated as (5.2, 6.8) based on (Equation 1) and (Equation 2). Note that the counter value C (x, y) of the coordinates (5, 7) that was determined to be on the previous time and this time is + 30 + 30, and is calculated as a total of +60.

また、算出部32は、図10に示す黒塗りのタッチセンサ36がオン判定であるとき、座標(6、5)、(7、5)、(6、6)、(7、6)のカウンタ値C(x、y)を+30と設定し、前回オン判定であった座標(5、6)、(6、6)、(5、7)、(6、7)、及び前々回オン判定であった座標(4、7)、(5、7)、(4、8)、(5、8)には、保持していたカウンタ値C(x、y)に−20を加算して、(数1)及び(数2)に基づいてタッチ座標を(6.0、6.6)と算出する。   In addition, when the black touch sensor 36 illustrated in FIG. 10 is determined to be ON, the calculation unit 32 counters the coordinates (6, 5), (7, 5), (6, 6), and (7, 6). The value C (x, y) is set to +30, and the coordinates (5, 6), (6, 6), (5, 7), (6, 7), which were previously determined to be on, For the coordinates (4, 7), (5, 7), (4, 8), (5, 8), add −20 to the held counter value C (x, y), and (number The touch coordinates are calculated as (6.0, 6.6) based on 1) and (Equation 2).

算出部32は、上記の処理をステップ6において「Yes」が成立するまで、繰り返し行い、順番とタッチ座標を含むタッチ座標群341を生成する。   The calculation unit 32 repeats the above processing until “Yes” is established in Step 6 to generate a touch coordinate group 341 including the order and touch coordinates.

判定部33は、上記した「タッチ座標群341の座標(点)」と「ジェスチャ辞書に登録されたジェスチャパターンを構成する点」に基づいてそれぞれに一番近い点の対応をジェスチャ辞書340に登録されたジェスチャパターンそれぞれについて算出する(S8)。なお、判定部33は、この処理を行うとき、タッチ座標群341を座標系の中央にオフセットし、オフセットされた座標(点)と、ジェスチャパターンを構成する点とを比較するようにしても良い。   The determination unit 33 registers, in the gesture dictionary 340, the correspondence between the points closest to each other based on the “coordinates (points) of the touch coordinate group 341” and “the points constituting the gesture pattern registered in the gesture dictionary”. The calculated gesture pattern is calculated (S8). When performing this processing, the determination unit 33 may offset the touch coordinate group 341 to the center of the coordinate system, and compare the offset coordinates (points) with the points constituting the gesture pattern. .

判定部33は、一例として、近い点同士の平均距離が一番近いジェスチャパターンを「候補ジェスチャ」として選択する(S9)。   For example, the determination unit 33 selects a gesture pattern having the closest average distance between close points as a “candidate gesture” (S9).

判定部33は、ジェスチャ辞書340から選択した「候補ジェスチャ」とタッチ座標群341との最大距離が、第1のしきい値より小さく(S10;Yes)、かつ、「候補ジェスチャ」の点に対応するタッチ座標群341の点の数が第2のしきい値以上であるとき(S11;Yes)、「候補ジェスチャ」に対応付けされたコマンドを実行する(S12)。車両ECU100は、実行されたコマンドによって、被制御装置に対応する処理、例えば、表示装置4に表示された画像を拡大させる。   The determination unit 33 corresponds to a point of “candidate gesture” in which the maximum distance between the “candidate gesture” selected from the gesture dictionary 340 and the touch coordinate group 341 is smaller than the first threshold (S10; Yes). When the number of points of the touch coordinate group 341 to be performed is equal to or greater than the second threshold (S11; Yes), the command associated with the “candidate gesture” is executed (S12). The vehicle ECU 100 enlarges a process corresponding to the controlled device, for example, an image displayed on the display device 4 by the executed command.

判定部33は、コマンドを実行した後、記憶部34に記憶させていたタッチ座標群341をクリアし(S13)、ステップ1から再び処理を行う。   After executing the command, the determination unit 33 clears the touch coordinate group 341 stored in the storage unit 34 (S13), and performs the processing from Step 1 again.

ここでステップ3において、反応する電極311が無く(S3;No)、また、記憶部34に蓄積されたタッチ座標群341があるとき(S5;Yes)、判定部33は、運転者によるジェスチャが終了したとみなし、ステップ8に処理を進め、ジェスチャの判定を行う。   Here, in Step 3, when there is no electrode 311 that reacts (S3; No) and there is a touch coordinate group 341 stored in the storage unit 34 (S5; Yes), the determination unit 33 makes a gesture by the driver. Assuming that the processing has been completed, the process proceeds to step 8 to determine a gesture.

また、ステップ5において、記憶部34に蓄積されたタッチ座標群341がないとき(S5;No)、判定部33は、ステップ1に処理を進める。   In Step 5, when there is no touch coordinate group 341 stored in the storage unit 34 (S5; No), the determination unit 33 advances the process to Step 1.

(FR、RR、FL及びRLウインドウ50〜53の制御について)
図12(a)及び(b)は、本発明の実施の形態に係るジェスチャ時の概略図であり、図12(c)は、本発明の実施の形態に係る入力されたジェスチャの概略図である。上記では、反時計回りに円を描くジェスチャ300の判定について説明したが、以下では、ジェスチャの判定を利用したFR、RR、FL及びRLウインドウ50〜53の開閉制御について説明する。
(Control of FR, RR, FL and RL windows 50-53)
12A and 12B are schematic diagrams at the time of the gesture according to the embodiment of the present invention, and FIG. 12C is a schematic diagram of the input gesture according to the embodiment of the present invention. is there. In the above description, the determination of the gesture 300 that draws a circle in the counterclockwise direction has been described. Hereinafter, the opening / closing control of the FR, RR, FL, and RL windows 50 to 53 using the determination of the gesture will be described.

運転者は、図12(a)及び(b)に示すように、右タッチパッド30aに対して図12(c)に示すジェスチャ301に基づくジェスチャを入力する。   As shown in FIGS. 12A and 12B, the driver inputs a gesture based on the gesture 301 shown in FIG. 12C to the right touch pad 30a.

ジェスチャ判定装置3は、上記した処理を行って入力したジェスチャに対応した「候補ジェスチャ」を判定する。続いてジェスチャ判定装置3は、「候補ジェスチャ」(ジェスチャ301)に対応付けされたコマンドを車両ECU100に送信する。   The gesture determination device 3 determines “candidate gesture” corresponding to the input gesture by performing the above-described processing. Subsequently, the gesture determination device 3 transmits a command associated with the “candidate gesture” (gesture 301) to the vehicle ECU 100.

車両ECU100は、右タッチパッド30aに対してジェスチャ301が入力されたことを示すコマンドを受信したので、車両1のFRウインドウ50を制御して、FRウインドウ50を閉める。ジェスチャ301は、下から上に向かうジェスチャであるから、ウインドウを閉める操作と類似しており、直感的に操作がし易い。   The vehicle ECU 100 receives the command indicating that the gesture 301 has been input to the right touch pad 30a, and thus controls the FR window 50 of the vehicle 1 to close the FR window 50. Since the gesture 301 is a gesture from the bottom to the top, it is similar to the operation of closing the window and is easy to operate intuitively.

同様に運転者が、左タッチパッド30bに対してジェスチャ301が入力されたとき、車両ECU100は、FLウインドウ52を閉め、右裏タッチパッド30cに対してジェスチャ301が入力されたとき、車両ECU100は、RRウインドウ51を閉め、左裏タッチパッド30dに対してジェスチャ301が入力されたとき、車両ECU100は、RLウインドウ53を閉めるよう制御する。   Similarly, when the driver inputs a gesture 301 to the left touch pad 30b, the vehicle ECU 100 closes the FL window 52, and when the driver 301 inputs a gesture 301 to the right back touch pad 30c, the vehicle ECU 100 When the RR window 51 is closed and the gesture 301 is input to the left back touch pad 30d, the vehicle ECU 100 controls to close the RL window 53.

また運転者が、右、左、右裏及び左裏タッチパッド30a〜30dを摘みながら下から上へとジェスチャ301を入力すると、車両ECU100は、FR、RR、FL及びRLウインドウ50〜53を一度に閉めるように制御し、右、左、右裏及び左裏タッチパッド30a〜30dを摘みながら上から下へとジェスチャ301の反対方向の操作を行うとき、車両ECU100は、FR、RR、FL及びRLウインドウ50〜53を一度に開けるように制御する。   When the driver inputs the gesture 301 from the bottom to the top while grasping the right, left, right back and left back touch pads 30a to 30d, the vehicle ECU 100 once opens the FR, RR, FL, and RL windows 50 to 53. The vehicle ECU 100 performs the operation in the opposite direction of the gesture 301 from top to bottom while picking the right, left, right back and left back touchpads 30a to 30d. Control to open the RL windows 50 to 53 at a time.

(カーテン6の制御について)
図13は、本発明の実施の形態に係る覆う動作に関する概略図である。以下では、右又は左タッチパッド30a、30bを運転者の手7によって覆われたときの動作について説明する。なお、覆うとは、右又は左タッチパッド30a、30bの全体を手7によって触ることである。
(Control of curtain 6)
FIG. 13 is a schematic diagram relating to the covering operation according to the embodiment of the present invention. Hereinafter, an operation when the right or left touchpad 30a, 30b is covered with the driver's hand 7 will be described. Note that covering means touching the entire right or left touch pad 30 a, 30 b with the hand 7.

運転者は、図13に示すように、手7によって右タッチパッド30aの全体を覆う。   As shown in FIG. 13, the driver covers the entire right touch pad 30 a with the hand 7.

このとき、判定部33は、ステップ3において、設定された数以上の電極311が反応し、かつ、ステップ6において、所定の期間以上継続して同じ状況が続くとき、右タッチパッド30a全体が手7によって覆われる「候補ジェスチャ」をジェスチャ辞書340に基づいて判定する。   At this time, when the determination unit 33 reacts with the set number of electrodes 311 or more in Step 3 and continues the same situation in Step 6 for a predetermined period or longer, the entire right touchpad 30a is manually operated. The “candidate gesture” covered by 7 is determined based on the gesture dictionary 340.

判定部33は、判定された「候補ジェスチャ」に対応付けされたコマンドを車両ECU100に送信する。   Determination unit 33 transmits a command associated with the determined “candidate gesture” to vehicle ECU 100.

車両ECU100は、「候補ジェスチャ」が右タッチパッド30aを覆うジェスチャであることから、このジェスチャに割り付けられたカーテン6の開閉制御を行う。開閉制御とは、カーテン6が開いているときは、これを閉じ、閉じているときは、これを開ける制御のことである。なお、覆うジェスチャによって車両1のサンシェードを機能させても良い。   Since the “candidate gesture” is a gesture that covers the right touchpad 30a, the vehicle ECU 100 performs opening / closing control of the curtain 6 assigned to the gesture. The open / close control is control for closing the curtain 6 when it is open and opening it when it is closed. In addition, you may make the sunshade of the vehicle 1 function by the gesture to cover.

上記した例は、ジェスチャを幾つかの被制御装置の制御方法として利用したものであるが、これに限定されず、いろいろな変形が可能であることは言うまでも無い。   In the above example, the gesture is used as a control method for several controlled devices. However, the present invention is not limited to this, and it goes without saying that various modifications are possible.

なお、上記においては、右タッチパッド30aを覆うことによって開閉制御が行われたが、これに限定されず、左、右裏又は左裏タッチパッド30b、30c、30dに対してジェスチャが入力されても良い。   In the above description, the opening / closing control is performed by covering the right touch pad 30a. However, the present invention is not limited to this, and a gesture is input to the left, right back, or left back touch pads 30b, 30c, 30d. Also good.

(効果)
(1)上記した実施の形態におけるジェスチャ判定装置3によれば、構造が簡単でありながらジェスチャの正確な判定を行うことができる。
(effect)
(1) According to the gesture determination device 3 in the above-described embodiment, it is possible to accurately determine a gesture while having a simple structure.

(2)上記した実施の形態におけるジェスチャ判定装置3によれば、ジェスチャを入力する位置が制限されないので、運転者の視線移動を抑えて被制御装置を操作することができる。 (2) According to the gesture determination device 3 in the above-described embodiment, since the position where the gesture is input is not limited, the controlled device can be operated while suppressing the movement of the driver's line of sight.

(3)上記した実施の形態におけるジェスチャ判定装置3によれば、右、左、右裏及び左裏タッチパッド30a〜30dを上方向に撫でることによって、FR、RR、FL及びRLウインドウ50〜53を閉めることができ、また、下方向に撫でることによって、FR、RR、FL及びRLウインドウ50〜53を開けることができるので、直感的で分かりやすい操作を行うことができる。 (3) According to the gesture determination device 3 in the above-described embodiment, the FR, RR, FL, and RL windows 50 to 53 are obtained by stroking the right, left, right back and left back touch pads 30a to 30d upward. Since the FR, RR, FL and RL windows 50 to 53 can be opened by stroking downward, intuitive and easy-to-understand operations can be performed.

(4)上記した実施の形態におけるジェスチャ判定装置3によれば、右、左、右裏及び左裏タッチパッド30a〜30dは、車両1内に自由に配置することができるので、被制御装置に基づいた配置を行うことができ、さらに直感的な被制御装置の操作を行うことができる。 (4) According to the gesture determination device 3 in the above-described embodiment, the right, left, right back, and left back touchpads 30a to 30d can be freely arranged in the vehicle 1, so that the controlled device Based on this, it is possible to perform an intuitive operation of the controlled device.

(5)上記した実施の形態におけるジェスチャ判定装置3によれば、右、左、右裏及び左裏タッチパッド30a〜30dの少なくとも1つを覆うことによって、対象となる操作を素早く行うことができる。 (5) According to the gesture determination device 3 in the above-described embodiment, a target operation can be quickly performed by covering at least one of the right, left, right back, and left back touchpads 30a to 30d. .

(6)上記した実施の形態におけるジェスチャ判定装置3によれば、ジェスチャを正確に判定することができるので、直感的な被制御装置の操作が可能となり、操作性が向上する。 (6) According to the gesture determination device 3 in the above-described embodiment, since a gesture can be accurately determined, an intuitive operation of the controlled device is possible, and operability is improved.

(他の実施の形態について)
(1)上記した実施の形態におけるジェスチャ判定装置3は、8行8列として格子状に並べたタッチセンサ31によってタッチパッド30を構成したが、タッチセンサ31の数は、用途に応じて自由に変更することができる。
(About other embodiments)
(1) The gesture determination device 3 in the above-described embodiment includes the touch pad 30 by the touch sensors 31 arranged in a grid pattern with 8 rows and 8 columns. However, the number of touch sensors 31 can be freely determined according to the application. Can be changed.

(2)上記した実施の形態におけるジェスチャ判定装置3は、8行8列として格子状に並べたタッチセンサ31によってタッチパッド30を構成したが、分解能が高いので、少ないタッチセンサ31によってジェスチャを判定することができる。 (2) Although the gesture determination device 3 in the above-described embodiment includes the touch pad 30 by the touch sensors 31 arranged in a grid of 8 rows and 8 columns, since the resolution is high, the gesture is determined by the few touch sensors 31. can do.

(3)上記した実施の形態におけるジェスチャ判定装置3は、被制御装置としてカーナビゲーション装置を例にとったが、車両1に搭載されるエアコン装置、及びオーディオ装置等の電子機器の制御に用いられても良い。 (3) Although the gesture determination device 3 in the above-described embodiment has been exemplified by a car navigation device as a controlled device, it is used for controlling an electronic device such as an air conditioner device and an audio device mounted on the vehicle 1. May be.

なお、本発明は、上記した実施の形態に限定されず、本発明の技術思想を逸脱あるいは変更しない範囲内で種々の変形が可能である。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from or changing the technical idea of the present invention.

本発明の実施の形態に係るジェスチャ判定装置が搭載された車両内部の概略図である。It is the schematic inside the vehicle by which the gesture determination apparatus which concerns on embodiment of this invention is mounted. 本発明の実施の形態に係る車両後方の斜視図である。It is a perspective view of the back of vehicles concerning an embodiment of the invention. 本発明の実施の形態に係るステアリング裏の概略図である。It is the schematic of the steering back based on embodiment of this invention. 本発明の実施の形態に係るジェスチャ判定装置に関するブロック図である。It is a block diagram regarding the gesture determination apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係るタッチセンサの断面図である。It is sectional drawing of the touch sensor which concerns on embodiment of this invention. 本発明の実施の形態に係るジェスチャ辞書に記載された座標と算出されたタッチ座標との対応を示した概略図である。It is the schematic which showed the response | compatibility with the coordinate described in the gesture dictionary which concerns on embodiment of this invention, and the calculated touch coordinate. (a)及び(b)は、本発明の実施の形態に係るジェスチャ時の概略図であり、(c)は、本発明の実施の形態に係る入力されたジェスチャの概略図である。(A) And (b) is the schematic at the time of the gesture which concerns on embodiment of this invention, (c) is the schematic of the input gesture which concerns on embodiment of this invention. 本発明の実施の形態に係るカウンタ値の算出に関する模式図である。It is a schematic diagram regarding calculation of the counter value which concerns on embodiment of this invention. 本発明の実施の形態に係るカウンタ値の算出に関する模式図である。It is a schematic diagram regarding calculation of the counter value which concerns on embodiment of this invention. 本発明の実施の形態に係るカウンタ値の算出に関する模式図である。It is a schematic diagram regarding calculation of the counter value which concerns on embodiment of this invention. 本発明の実施の形態に係るフローチャートである。It is a flowchart which concerns on embodiment of this invention. 本発明の実施の形態に係るフローチャートである。It is a flowchart which concerns on embodiment of this invention. (a)及び(b)は、本発明の実施の形態に係るジェスチャ時の概略図であり、(c)は、本発明の実施の形態に係る入力されたジェスチャの概略図である。(A) And (b) is the schematic at the time of the gesture which concerns on embodiment of this invention, (c) is the schematic of the input gesture which concerns on embodiment of this invention. 本発明の実施の形態に係る覆う動作に関する概略図である。It is the schematic regarding the operation | movement which covers based on embodiment of this invention.

符号の説明Explanation of symbols

1…車両、2…ステアリング、3…ジェスチャ判定装置、4…表示装置、5…手指、6…カーテン、7…手、20…本体部、21…ステアリングホイール、30a〜30d…右、左、右裏及び左裏タッチパッド、31…タッチセンサ、32…算出部、33…判定部、34…記憶部、35〜37…タッチセンサ、100…車両ECU、300…ジェスチャ、301…ジェスチャ、310…本体、311…電極、312…塗装膜、340…ジェスチャ辞書、341…タッチ座標群 DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Steering, 3 ... Gesture determination apparatus, 4 ... Display apparatus, 5 ... Finger, 6 ... Curtain, 7 ... Hand, 20 ... Main-body part, 21 ... Steering wheel, 30a-30d ... Right, left, right Back and left back touch pads, 31 ... touch sensor, 32 ... calculation unit, 33 ... determination unit, 34 ... storage unit, 35-37 ... touch sensor, 100 ... vehicle ECU, 300 ... gesture, 301 ... gesture, 310 ... main body 311 ... Electrode, 312 ... Paint film, 340 ... Gesture dictionary, 341 ... Touch coordinate group

Claims (6)

ジェスチャ操作に基づく接触に応じて静電容量が変化する複数のタッチセンサと、
前記複数のタッチセンサによって形成される座標系における前記接触に応じたタッチ座標を所定の周期毎に算出する算出部と、
前記ジェスチャ操作に基づく複数の前記タッチ座標をタッチ座標群として記憶し、また、前記座標系における複数の点によって構成されたジェスチャパターンが登録されたジェスチャ辞書を記憶する記憶部と、
前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点とを所定の条件に基づいて所定の順番で比較することによって前記ジェスチャ操作を判定する判定部と、
を備えたことを特徴とするジェスチャ判定装置。
A plurality of touch sensors whose capacitance changes in response to contact based on a gesture operation;
A calculation unit that calculates touch coordinates corresponding to the contact in a coordinate system formed by the plurality of touch sensors for each predetermined period;
A storage unit that stores a plurality of touch coordinates based on the gesture operation as a touch coordinate group, and stores a gesture dictionary in which a gesture pattern configured by a plurality of points in the coordinate system is registered;
A determination unit that determines the gesture operation by comparing the touch coordinates constituting the touch coordinate group and the points constituting the gesture pattern in a predetermined order based on a predetermined condition;
A gesture determination device characterized by comprising:
前記所定の条件は、前記所定の順番に基づいて前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点との距離が所定のしきい値を越えないことであることを特徴とする請求項1に記載のジェスチャ判定装置。   The predetermined condition is that a distance between the touch coordinates constituting the touch coordinate group and the points constituting the gesture pattern does not exceed a predetermined threshold based on the predetermined order. The gesture determination apparatus according to claim 1. ジェスチャ操作に基づく接触に応じて静電容量が変化する複数のタッチセンサと、
前記複数のタッチセンサによって形成される座標系における前記接触に応じたタッチ座標を所定の周期毎に算出する算出部と、
前記ジェスチャ操作に基づく複数の前記タッチ座標をタッチ座標群として記憶し、また、前記座標系における複数の点によって構成されたジェスチャパターンが登録されたジェスチャ辞書を記憶する記憶部と、
前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点とを所定の条件に基づいて所定の順番で比較することによって前記ジェスチャ操作を判定する判定部と、
判定された前記ジェスチャ操作に基づいて被制御装置を制御する制御部と、
を備えたことを特徴とするジェスチャ判定装置。
A plurality of touch sensors whose capacitance changes in response to contact based on a gesture operation;
A calculation unit that calculates touch coordinates corresponding to the contact in a coordinate system formed by the plurality of touch sensors for each predetermined period;
A storage unit that stores a plurality of touch coordinates based on the gesture operation as a touch coordinate group, and stores a gesture dictionary in which a gesture pattern configured by a plurality of points in the coordinate system is registered;
A determination unit that determines the gesture operation by comparing the touch coordinates constituting the touch coordinate group and the points constituting the gesture pattern in a predetermined order based on a predetermined condition;
A control unit that controls the controlled device based on the determined gesture operation;
A gesture determination device characterized by comprising:
前記所定の条件は、前記所定の順番に基づいて前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点との距離が所定のしきい値を越えないことであることを特徴とする請求項3に記載のジェスチャ判定装置。   The predetermined condition is that a distance between the touch coordinates constituting the touch coordinate group and the points constituting the gesture pattern does not exceed a predetermined threshold based on the predetermined order. The gesture determination device according to claim 3. 前記ジェスチャ操作は、前記タッチセンサを上又は下方向に撫でることであり、
前記被制御装置は、車両のウインドウであり、
前記制御部は、前記ジェスチャ操作に基づいて前記車両の前記ウインドウの開閉制御を行うことを特徴とする請求項3に記載のジェスチャ判定装置。
The gesture operation is stroking the touch sensor upward or downward,
The controlled device is a vehicle window;
The gesture determination apparatus according to claim 3, wherein the control unit performs opening / closing control of the window of the vehicle based on the gesture operation.
前記ジェスチャ操作は、複数の前記タッチセンサを覆うことであり、
前記被制御装置は、車両のカーテン又はサンシェードであり、
前記制御部は、前記ジェスチャ操作に基づいて前記車両の前記カーテン又は前記サンシェードの制御を行うことを特徴とする請求項3に記載のジェスチャ判定装置。
The gesture operation is to cover a plurality of the touch sensors,
The controlled device is a curtain or sunshade of a vehicle,
The gesture determination device according to claim 3, wherein the control unit controls the curtain or the sunshade of the vehicle based on the gesture operation.
JP2008154722A 2008-06-12 2008-06-12 Gesture determination device Pending JP2009301302A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008154722A JP2009301302A (en) 2008-06-12 2008-06-12 Gesture determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008154722A JP2009301302A (en) 2008-06-12 2008-06-12 Gesture determination device

Publications (1)

Publication Number Publication Date
JP2009301302A true JP2009301302A (en) 2009-12-24

Family

ID=41548126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008154722A Pending JP2009301302A (en) 2008-06-12 2008-06-12 Gesture determination device

Country Status (1)

Country Link
JP (1) JP2009301302A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123448A (en) * 2010-12-06 2012-06-28 Clarion Co Ltd Touch panel device and on-vehicle device
JP5529357B1 (en) * 2013-02-20 2014-06-25 パナソニック株式会社 Control method and program for portable information terminal
KR101457193B1 (en) * 2014-02-07 2014-10-31 (주)케이넷피 Apparatus for providing user interface based on gesture recognition and method thereof
JP2015505100A (en) * 2011-12-21 2015-02-16 ノキア コーポレイション User gesture recognition
CN105027066A (en) * 2013-03-06 2015-11-04 索尼公司 Apparatus and method for operating a user interface of a device
US9213435B2 (en) 2013-03-27 2015-12-15 Hyundai Motor Company Method and system for selecting items using touchscreen
JP2015536501A (en) * 2012-10-26 2015-12-21 クゥアルコム・インコーポレイテッドQualcomm Incorporated System and method for providing infrared gesture instructions on a display
JP2018022318A (en) * 2016-08-03 2018-02-08 株式会社東海理化電機製作所 Operation input device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06131110A (en) * 1992-10-21 1994-05-13 Sharp Corp Information processor
JPH08147077A (en) * 1994-11-18 1996-06-07 Wacom Co Ltd Method and device for controlling plural position input devices
JPH09231393A (en) * 1996-02-23 1997-09-05 Fuji Xerox Co Ltd Instruction input device
JP2001022891A (en) * 1999-07-06 2001-01-26 Hitachi Ltd Recognizing device and storage medium for recognition
JP2002513969A (en) * 1998-05-07 2002-05-14 エイアールティー−アドヴァンスト・レコグニション・テクノロジーズ・リミテッド Handwriting and voice control of vehicle components
JP2006268582A (en) * 2005-03-24 2006-10-05 Fuji Xerox Co Ltd Method and system for controlling information appliance based on gesture
JP2009523267A (en) * 2005-09-15 2009-06-18 アップル インコーポレイテッド System and method for processing raw data of a trackpad device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06131110A (en) * 1992-10-21 1994-05-13 Sharp Corp Information processor
JPH08147077A (en) * 1994-11-18 1996-06-07 Wacom Co Ltd Method and device for controlling plural position input devices
JPH09231393A (en) * 1996-02-23 1997-09-05 Fuji Xerox Co Ltd Instruction input device
JP2002513969A (en) * 1998-05-07 2002-05-14 エイアールティー−アドヴァンスト・レコグニション・テクノロジーズ・リミテッド Handwriting and voice control of vehicle components
JP2001022891A (en) * 1999-07-06 2001-01-26 Hitachi Ltd Recognizing device and storage medium for recognition
JP2006268582A (en) * 2005-03-24 2006-10-05 Fuji Xerox Co Ltd Method and system for controlling information appliance based on gesture
JP2009523267A (en) * 2005-09-15 2009-06-18 アップル インコーポレイテッド System and method for processing raw data of a trackpad device

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123448A (en) * 2010-12-06 2012-06-28 Clarion Co Ltd Touch panel device and on-vehicle device
JP2015505100A (en) * 2011-12-21 2015-02-16 ノキア コーポレイション User gesture recognition
JP2015536501A (en) * 2012-10-26 2015-12-21 クゥアルコム・インコーポレイテッドQualcomm Incorporated System and method for providing infrared gesture instructions on a display
US20140359468A1 (en) 2013-02-20 2014-12-04 Panasonic Intellectual Property Corporation Of America Method for controlling information apparatus and computer-readable recording medium
US9354798B2 (en) 2013-02-20 2016-05-31 Panasonic Intellectual Property Corporation Of America Information apparatus having an interface for a remote control
US10802694B2 (en) 2013-02-20 2020-10-13 Panasonic Intellectual Property Corporation Of America Information apparatus having an interface for a remote control
WO2014128792A1 (en) * 2013-02-20 2014-08-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Program and method for controlling portable information terminal
WO2014129138A1 (en) * 2013-02-20 2014-08-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Program and method for controlling information terminal
JP5719481B2 (en) * 2013-02-20 2015-05-20 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Control method and program for portable information terminal
JP5719484B2 (en) * 2013-02-20 2015-05-20 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Information terminal control method and program
US10466881B2 (en) 2013-02-20 2019-11-05 Panasonic Intellectual Property Corporation Of America Information apparatus having an interface for performing a remote operation
US10387022B2 (en) 2013-02-20 2019-08-20 Panasonic Intellectual Property Corporation America Method for controlling information apparatus
JP5529357B1 (en) * 2013-02-20 2014-06-25 パナソニック株式会社 Control method and program for portable information terminal
US10140006B2 (en) 2013-02-20 2018-11-27 Panasonic Intellectual Property Corporation Of America Method for controlling information apparatus
WO2014128775A1 (en) * 2013-02-20 2014-08-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Program and method for controlling portable information terminal
US9569081B2 (en) 2013-02-20 2017-02-14 Panasonic Intellectual Property Corporation Of America Control method for information apparatus and computer-readable recording medium
US9507425B2 (en) 2013-03-06 2016-11-29 Sony Corporation Apparatus and method for operating a user interface of a device
CN105027066B (en) * 2013-03-06 2018-09-25 索尼公司 Device and method for the user interface for operating an equipment
JP2016512637A (en) * 2013-03-06 2016-04-28 ソニー株式会社 Apparatus and method for operating a user interface of a device
CN105027066A (en) * 2013-03-06 2015-11-04 索尼公司 Apparatus and method for operating a user interface of a device
US9213435B2 (en) 2013-03-27 2015-12-15 Hyundai Motor Company Method and system for selecting items using touchscreen
KR101457193B1 (en) * 2014-02-07 2014-10-31 (주)케이넷피 Apparatus for providing user interface based on gesture recognition and method thereof
JP2018022318A (en) * 2016-08-03 2018-02-08 株式会社東海理化電機製作所 Operation input device
WO2018025507A1 (en) * 2016-08-03 2018-02-08 株式会社東海理化電機製作所 Operation input device

Similar Documents

Publication Publication Date Title
CN106502570B (en) Gesture recognition method and device and vehicle-mounted system
JP2009301302A (en) Gesture determination device
JP2009298285A (en) Input device
JP5617783B2 (en) Operation input device and control system for vehicle
US8284168B2 (en) User interface device
JP5563698B1 (en) Touch input device
EP2786902B1 (en) Vehicle operating device
JP6310787B2 (en) Vehicle input device and vehicle cockpit module
JP5640486B2 (en) Information display device
JP5905434B2 (en) Operating device
CN108399044B (en) User interface, vehicle and method for distinguishing users
JP2006285370A (en) Hand pattern switch device and hand pattern operation method
CN108733283A (en) Context vehicle user interface
US20200094864A1 (en) Operation input device
CN110869882B (en) Method for operating a display device for a motor vehicle and motor vehicle
JP2009301300A (en) Input device
CN107615219A (en) Touch panel control device and in-vehicle information apparatus
US10318118B2 (en) Vehicular display apparatus
CN112203889A (en) Control system for vehicle
CN105759955B (en) Input device
US9367169B2 (en) Method, circuit, and system for hover and gesture detection with a touch screen
EP3352058A1 (en) Operation detection device
JP2009301301A (en) Input device and input method
JP5062898B2 (en) User interface device
KR101422060B1 (en) Information display apparatus and method for vehicle using touch-pad, and information input module thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120417