JP2009301302A - Gesture determination device - Google Patents
Gesture determination device Download PDFInfo
- Publication number
- JP2009301302A JP2009301302A JP2008154722A JP2008154722A JP2009301302A JP 2009301302 A JP2009301302 A JP 2009301302A JP 2008154722 A JP2008154722 A JP 2008154722A JP 2008154722 A JP2008154722 A JP 2008154722A JP 2009301302 A JP2009301302 A JP 2009301302A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- touch
- coordinates
- determination
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ジェスチャ判定装置に関する。 The present invention relates to a gesture determination device.
従来の技術として、入力パッドの裏面に配列され、接触圧力を検出する3個の圧力スイッチと、この3個の圧力スイッチの開閉情報を入力し、接触点が移動する方向、速度、移動量を解析するイベント制御部と、入力パッドを操作する操作パターンを記憶し、イベント制御部によって解析された操作と操作パターンとを比較してジェスチャを認識するジェスチャ認識部と、ジェスチャ認識部によるジェスチャの認識結果に基づいて電子機器への動作を指示する制御部と、を備えた入力デバイスが知られている(例えば、特許文献1参照)。 As a conventional technique, three pressure switches arranged on the back surface of the input pad and detecting contact pressure and opening / closing information of the three pressure switches are input, and the direction, speed, and amount of movement of the contact point are determined. An event control unit to analyze, an operation pattern for operating the input pad, a gesture recognition unit that recognizes a gesture by comparing the operation pattern analyzed by the event control unit and the operation pattern, and gesture recognition by the gesture recognition unit There is known an input device including a control unit that instructs an operation to an electronic device based on a result (see, for example, Patent Document 1).
イベント制御部は、同時に2つの圧力スイッチが押されたとき、より強く押された方の圧力スイッチが操作されていると判断するものとしている。 The event control unit determines that the pressure switch that is pressed more strongly is being operated when two pressure switches are pressed simultaneously.
よってこの入力デバイスは、接触点が移動する方向、速度、移動量を解析し、操作内容、すなわちジェスチャを認識することができるので、電子機器に対する多様な指示が可能になる。
しかし、従来の入力デバイスによると、同時に2つの圧力スイッチが押されたとき、より強く押された方の圧力スイッチが操作されていると判断するので、接触点の検出の分解能が低く、ジェスチャの正確な認識が困難であった。 However, according to the conventional input device, when two pressure switches are pressed at the same time, it is determined that the pressure switch that is pressed more strongly is operated, so that the resolution of detecting the contact point is low, and the gesture Accurate recognition was difficult.
従って本発明の目的は、構造が簡単でありながらジェスチャの正確な判定を行うことができるジェスチャ判定装置を提供することにある。 Accordingly, an object of the present invention is to provide a gesture determination apparatus that can accurately determine a gesture while having a simple structure.
(1)本発明は上記目的を達成するため、ジェスチャ操作に基づく接触に応じて静電容量が変化する複数のタッチセンサと、前記複数のタッチセンサによって形成される座標系における前記接触に応じたタッチ座標を所定の周期毎に算出する算出部と、前記ジェスチャ操作に基づく複数の前記タッチ座標をタッチ座標群として記憶し、また、前記座標系における複数の点によって構成されたジェスチャパターンが登録されたジェスチャ辞書を記憶する記憶部と、前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点とを所定の条件に基づいて所定の順番で比較することによって前記ジェスチャ操作を判定する判定部と、を備えたことを特徴とするジェスチャ判定装置を提供する。 (1) In order to achieve the above-mentioned object, the present invention responds to the contact in a coordinate system formed by a plurality of touch sensors whose capacitance changes according to the contact based on the gesture operation and the plurality of touch sensors. A calculation unit that calculates touch coordinates every predetermined period, a plurality of touch coordinates based on the gesture operation are stored as a touch coordinate group, and a gesture pattern configured by a plurality of points in the coordinate system is registered. The gesture operation is determined by comparing a storage unit that stores the gesture dictionary and the touch coordinates that constitute the touch coordinate group and the points that constitute the gesture pattern in a predetermined order based on a predetermined condition. And a determination unit that performs the gesture determination.
(2)本発明は上記目的を達成するため、前記所定の条件は、前記所定の順番に基づいて前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点との距離が所定のしきい値を越えないことであることを特徴とする前記(1)に記載のジェスチャ判定装置を提供する。 (2) In order to achieve the above object, the predetermined condition is that the distance between the touch coordinates constituting the touch coordinate group and the point constituting the gesture pattern is predetermined based on the predetermined order. The gesture determination apparatus according to (1) is characterized in that it does not exceed the threshold value.
(3)本発明は上記目的を達成するため、ジェスチャ操作に基づく接触に応じて静電容量が変化する複数のタッチセンサと、前記複数のタッチセンサによって形成される座標系における前記接触に応じたタッチ座標を所定の周期毎に算出する算出部と、前記ジェスチャ操作に基づく複数の前記タッチ座標をタッチ座標群として記憶し、また、前記座標系における複数の点によって構成されたジェスチャパターンが登録されたジェスチャ辞書を記憶する記憶部と、前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点とを所定の条件に基づいて所定の順番で比較することによって前記ジェスチャ操作を判定する判定部と、判定された前記ジェスチャ操作に基づいて被制御装置を制御する制御部と、を備えたことを特徴とするジェスチャ判定装置を提供する。 (3) In order to achieve the above object, the present invention responds to the contact in a coordinate system formed by a plurality of touch sensors whose capacitance changes according to the contact based on the gesture operation and the plurality of touch sensors. A calculation unit that calculates touch coordinates every predetermined period, a plurality of touch coordinates based on the gesture operation are stored as a touch coordinate group, and a gesture pattern configured by a plurality of points in the coordinate system is registered. The gesture operation is determined by comparing a storage unit that stores the gesture dictionary and the touch coordinates that constitute the touch coordinate group and the points that constitute the gesture pattern in a predetermined order based on a predetermined condition. And a control unit that controls the controlled device based on the determined gesture operation. Providing a gesture determination apparatus according to claim.
(4)本発明は上記目的を達成するため、前記所定の条件は、前記所定の順番に基づいて前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点との距離が所定のしきい値を越えないことであることを特徴とする前記(3)に記載のジェスチャ判定装置を提供する。 (4) In order to achieve the above object, the predetermined condition is that the distance between the touch coordinates constituting the touch coordinate group and the points constituting the gesture pattern is predetermined based on the predetermined order. The gesture determining apparatus according to (3) is characterized in that the threshold value of (3) is not exceeded.
(5)本発明は上記目的を達成するため、前記ジェスチャ操作は、前記タッチセンサを上又は下方向に撫でることであり、前記被制御装置は、車両のウインドウであり、前記制御部は、前記ジェスチャ操作に基づいて前記車両の前記ウインドウの開閉制御を行うことを特徴とする前記(3)に記載のジェスチャ判定装置を提供する。 (5) In order to achieve the above object, the gesture operation includes stroking the touch sensor upward or downward, the controlled device is a vehicle window, and the control unit The gesture determination device according to (3), wherein the opening / closing control of the window of the vehicle is performed based on a gesture operation.
(6)本発明は上記目的を達成するため、前記ジェスチャ操作は、複数の前記タッチセンサを覆うことであり、前記被制御装置は、車両のカーテン又はサンシェードであり、前記制御部は、前記ジェスチャ操作に基づいて前記車両の前記カーテン又は前記サンシェードの制御を行うことを特徴とする前記(3)に記載のジェスチャ判定装置を提供する。 (6) In order to achieve the above object, the gesture operation includes covering a plurality of the touch sensors, the controlled device is a curtain or a sunshade of the vehicle, and the control unit includes the gesture The gesture determination device according to (3) is provided that controls the curtain or the sunshade of the vehicle based on an operation.
このような発明によれば、構造が簡単でありながらジェスチャの正確な判定を行うことができる。 According to such an invention, it is possible to accurately determine a gesture while having a simple structure.
以下に、本発明のジェスチャ判定装置の実施の形態を図面を参考にして詳細に説明する。 Embodiments of a gesture determination apparatus according to the present invention will be described below in detail with reference to the drawings.
[実施の形態]
(車両の構成)
図1は、本発明の実施の形態に係るジェスチャ判定装置が搭載された車両内部の概略図であり、図2は、本発明の実施の形態に係る車両後方の斜視図である。本発明のジェスチャ判定装置を車両に搭載した場合について説明する。
[Embodiment]
(Vehicle configuration)
FIG. 1 is a schematic diagram of the interior of a vehicle equipped with a gesture determination device according to an embodiment of the present invention, and FIG. 2 is a rear perspective view of the vehicle according to the embodiment of the present invention. The case where the gesture determination apparatus of this invention is mounted in a vehicle is demonstrated.
この車両1は、図1に示すように、操舵装置の一部であり、左右に回転操作することによって車両1の進行方向を変更することができるステアリング2と、ステアリング2の本体部20の運転者側(表側)に設けられたジェスチャ判定装置3の入力部としての右及び左タッチパッド30a、30bと、本体部20の裏側に設けられ、ジェスチャ判定装置3の入力部としての後述する右裏及び左裏タッチパッドと、画像を表示する表示装置4と、を備えて概略構成されている。
As shown in FIG. 1, the
ステアリング2は、図示しないステアリングシャフトと接続され、各種スイッチ類が配置された本体部20と、運転者が把握する部分であり、リング形状を有するステアリングホイール21と、を備えて概略構成されている。
The
また車両1は、図2に示すように、車両1の後方に電動で開閉を行うことができるカーテン6と、車両1の前方右側の窓ガラスであるFRウインドウ50と、後方右側の窓ガラスであるRRウインドウ51と、を備えており、さらに後述する前方左側の窓ガラスであるFLウインドウ、及び後方左側の窓ガラスであるRLウインドウを備えて概略構成されている。
As shown in FIG. 2, the
(ジェスチャ判定装置の構成)
図3は、本発明の実施の形態に係るステアリング裏の概略図であり、図4は、本発明の実施の形態に係るジェスチャ判定装置に関するブロック図である。
(Configuration of gesture determination device)
FIG. 3 is a schematic view of the back of the steering according to the embodiment of the present invention, and FIG. 4 is a block diagram relating to the gesture determination device according to the embodiment of the present invention.
ジェスチャ判定装置3は、主に、右及び左タッチパッド30a、30bと、図3に示す右裏及び左裏タッチパッド30c、30dと、算出部32と、判定部33と、を備えて概略構成されている。
The
またジェスチャ判定装置3は、図4に示すように、ジェスチャ辞書340及び後述するタッチ座標群341を記憶する記憶部34を備えており、判定部33は、車両1を総合的に制御する車両ECU(Electronic Control Unit;制御部)100に接続されている。
As shown in FIG. 4, the
車両ECU100は、被制御装置の一例としての表示装置4、カーテン6、FR及びRRウインドウ50、51、車両1の前方左側の窓ガラスであるFLウインドウ52、及び車両1の後方左側の窓ガラスであるRLウインドウ53に接続されている。
The vehicle ECU 100 includes a
FR及びRRウインドウ50、51の開閉制御は、右及び右裏タッチパッド30a、30cによって行われ、FL及びRLウインドウ52、53の開閉制御は、左及び左裏タッチパッド30b、30dによって行われるものとする。
The opening and closing control of the FR and RR windows 50 and 51 is performed by the right and right
表示装置4は、一例として、カーナビゲーション装置の表示部であるものとし、表示装置4には、選択可能な各種メニューが表示される。
As an example, the
(タッチセンサについて)
図5は、本発明の実施の形態に係るタッチセンサの断面図である。なお、同図は、右タッチパッド30aを示すが、他のタッチパッド30b〜30dも右タッチパッド30aと同様に構成されている。
(About touch sensor)
FIG. 5 is a cross-sectional view of the touch sensor according to the embodiment of the present invention. Although the figure shows the
タッチセンサ31は、一例として、手指によるジェスチャ操作(以下ジェスチャとする)に応じた静電容量の変化に基づいてオン・オフ状態を判断し、オン状態の時は「1」を、オフ状態の時は「0」を示す信号を外部に出力するようにIC(Integrated Circuit)化されているものとする。なお、算出部32によって各電極311の静電容量を直接読み出すように構成されても良い。
As an example, the
右、左、右裏及び左裏タッチパッド30a〜30dは、樹脂等の絶縁部材によって形成された本体310と、銅等の導電体によって本体310上に形成された電極311と、電極311を保護するため、本体310上に形成された保護膜としての塗装膜312と、を備え、一例として、電極311を8行8列として格子状に並べて本体310上に形成したものである。なお、本体310は、プリント配線基板でも良い。
The right, left, right back and left
電極311は、一例として、算出部32が有するアナログスイッチであるマルチプレクサにそれぞれが接続され、算出部32は、マルチプレクサを介して所定の周期でオン・オフ状態の読み出しを行っている。
As an example, each of the electrodes 311 is connected to a multiplexer that is an analog switch included in the
運転者は、この右、左、右裏及び左裏タッチパッド30a〜30dに対してジェスチャを行うことによって被制御装置に割り当てられた所定のコマンドを入力することができるものとする。
It is assumed that the driver can input a predetermined command assigned to the controlled apparatus by performing a gesture on the right, left, right back and left back
なお、ジェスチャとは、この右、左、右裏及び左裏タッチパッド30a〜30dに直接接触する操作のことを指すが、タッチセンサ31の静電容量が、接触有りと判断するに十分な変化を行う場合もジェスチャに含めるものとする。
Note that the gesture refers to an operation of directly touching the right, left, right back and left
右、左、右裏及び左裏タッチパッド30a〜30dは、一例として図4に示すように、左上を原点とするx−y座標が設定され、左から右をx軸の正とし、上から下をy軸の正とする。
As shown in FIG. 4, as an example, the right, left, right back and left
また以下においては、左上のタッチセンサ31を座標(1、1)で表すものとし、x軸方向に1つ隣のタッチセンサ31を座標(2、1)、y軸方向に1つ隣のタッチセンサ31を座標(1、2)と表し、以下同様に任意のタッチセンサ31を座標(x、y)で表すものとする。
In the following, the
(算出部について)
算出部32は、一例として、座標(1、1)から座標(8、1)のタッチセンサ31のオン・オフ状態を、マルチプレクサを切り替えることによって読み出し、続いて座標(1、2)から座標(8、2)、座標(1、3)から座標(8、3)・・・座標(1、8)から座標(8、8)と、左上から順番に走査してオン・オフ状態を読み出す。
(About the calculation unit)
As an example, the
算出部32は、一例として、右、左、右裏及び左裏タッチパッド30a〜30dそれぞれのオン・オフ状態の読み出しを所定の周期として16ms単位(以下1周期と呼ぶ)で行う。
As an example, the
また算出部32は、一例として、加重平均処理によって加重平均座標としてのタッチ座標(Xt、Yt)を算出する。タッチ座標(Xt、Yt)は、各タッチセンサ31に付されたカウンタ値(重み関数)をC(x、y)とすると、以下の式によって算出される。
カウンタ値C(x、y)は、一例として、0から255の値を保持することができる関数であり、本実施の形態においては、オン判定されたタッチセンサ31にはカウンタ値C(x、y)として+30が、オフ判定されたタッチセンサ31にはカウンタ値C(x、y)として−20が割り付けられるものとする。なお、ある座標のカウンタ値C(x、y)の合計が負であるとき、カウンタ値C(x、y)をゼロとする。
The counter value C (x, y) is, for example, a function that can hold a value from 0 to 255. In the present embodiment, the counter value C (x, y) It is assumed that +30 is assigned as y) and −20 is assigned as the counter value C (x, y) to the
なお、割り付けるカウンタ値C(x、y)はこれに限定されず、用途に応じて自由に変更可能である。例えば、オン判定を強くするため、オン判定時に加算するカウンタ値C(x、y)を相対的に大きくしたり、オフ判定を弱くするため、オフ判定時に加算されるカウンタ値C(x、y)を相対的に小さくしたりすることができる。これは、カウンタ値C(x、y)を大きくすることによって、タッチパッド30を外れてジェスチャの入力を行った場合においても、ジェスチャを検出する可能性が高まることに相当し、また、小さくすることによって、より正確なジェスチャの軌跡を得ることができることに相当する。
Note that the counter value C (x, y) to be assigned is not limited to this, and can be freely changed according to the application. For example, the counter value C (x, y) that is added at the time of the on determination is relatively large or the counter value C (x, y) that is added at the time of the off determination is weakened to weaken the off determination. ) Can be made relatively small. This is equivalent to increasing the counter value C (x, y), and increasing the possibility of detecting a gesture even when the
またカウンタ値C(x、y)は、その値が次の読み出し周期において保持され、オン・オフ判定に基づいて1周期毎に+30又は−20が加算される。 The counter value C (x, y) is held in the next reading cycle, and +30 or −20 is added for each cycle based on the on / off determination.
算出部32は、タッチ座標(Xt、Yt)の算出を1周期毎に行うものとし、所定の期間におけるタッチ座標(Xt、Yt)の軌跡(以下タッチ座標群341と呼ぶ)を記憶部34に記憶するものとする。
The
なお、所定の期間は、例えば、全てのタッチセンサ31の中で初めてオン判定が検出されてから全てがオフ判定となるまでの期間であっても良く、しきい値を設け、そのしきい値内の期間としても良く、これに限定されない。
The predetermined period may be, for example, a period from when the on determination is detected for the first time among all the
(判定部について)
図6は、本発明の実施の形態に係るジェスチャ辞書に記載された座標と算出されたタッチ座標との対応を示した概略図である。図6は、反時計回りに円を描くジェスチャに関する図であり、図6に示す丸は、ジェスチャ辞書340に記載される判定のために定義された点であり、図6に示す三角は、実際に算出されたタッチ座標である。また、丸に記された数字は、参照する順番を表し、三角に記された数字は、算出された順番を表している。
(About judgment part)
FIG. 6 is a schematic diagram showing the correspondence between the coordinates described in the gesture dictionary and the calculated touch coordinates according to the embodiment of the present invention. FIG. 6 is a diagram relating to a gesture for drawing a circle in a counterclockwise direction, and the circles shown in FIG. 6 are points defined for the determination described in the gesture dictionary 340, and the triangles shown in FIG. The touch coordinates calculated in the above. Also, the numbers written in circles indicate the order of reference, and the numbers written in triangles indicate the calculated order.
判定部33は、算出部32によって算出されたタッチ座標群341に基づいて記憶部34に記憶されたジェスチャ辞書340を参照し、入力されたジェスチャの判定を行う。
The
ジェスチャ辞書340は、所定のジェスチャに対応するジェスチャパターンを所定の間隔で分割した点列が、順番(所定の順番)と共に登録されている。 In the gesture dictionary 340, a point sequence obtained by dividing a gesture pattern corresponding to a predetermined gesture at a predetermined interval is registered together with an order (predetermined order).
判定部33は、運転者のジェスチャに基づいて算出されたタッチ座標と、順番が合致する点との距離を算出し、一例として図6に示す距離L1〜L12が、所定の距離(所定のしきい値)以内であるとき、このジェスチャを「反時計回りに円を描くジェスチャ」と判定する。
The
(動作)
以下に、本実施の形態におけるジェスチャ判定装置の動作を各図を参照し、図11A及び11Bのフローチャートに従って詳細に説明する。
(Operation)
Hereinafter, the operation of the gesture determination apparatus according to the present embodiment will be described in detail according to the flowcharts of FIGS. 11A and 11B with reference to the drawings.
(ジェスチャの判定動作)
図7(a)及び(b)は、本発明の実施の形態に係るジェスチャ時の概略図であり、図7(c)は、本発明の実施の形態に係る入力されたジェスチャの概略図であり、図8、9及び図10は、本発明の実施の形態に係るカウンタ値の算出に関する模式図である。右タッチパッド30aを例に取って説明するが、左、右裏及び左裏タッチパッド30b、30c、30dにおいても同様である。
(Gesture judgment operation)
7A and 7B are schematic diagrams at the time of a gesture according to the embodiment of the present invention, and FIG. 7C is a schematic diagram of the input gesture according to the embodiment of the present invention. FIG. 8, FIG. 9 and FIG. 10 are schematic diagrams relating to the calculation of the counter value according to the embodiment of the present invention. The
また、図7(b)における黒塗りのタッチセンサ35は、現在の読み出し周期でオン判定されたタッチセンサを示しており、右肩上がりの斜線のタッチセンサ36は、現在の読み出し周期以前にオン判定されたタッチセンサを示しており、左肩上がりの斜線のタッチセンサ37は、さらに前の読み出し周期以前にオン判定されたタッチセンサを示している。図8は、手指5が、右タッチパッド30aに対してジェスチャを開始した読み出し周期における各座標のカウンタ値C(x、y)を示している。以下の各図において、ゼロとなるカウンタ値C(x、y)は図中に記載しないものとする。
Further, the
運転者は、ステアリングホイール21を把握したまま、手指5によって右タッチパッド30aを下から上へ反時計回りに円を描くようになぞり、図7(c)に示す曲線的なジェスチャ300を入力する。
While grasping the steering wheel 21, the driver traces the
算出部32は、右、左、右裏及び左裏タッチパッド30a〜30dの各電極311を走査し、電極311のオン・オフ状態を取得する(S1)。
The
算出部32は電極311毎にフィルタ処理を行い(S2)、反応している電極311があるとき(S3;Yes)、以下に示すタッチ座標を算出する(S4)。
The
例えば、図8に示す座標(4、7)、(5、7)、(4、8)、(5、8)のタッチセンサ31がオン状態にあるとき、図8に示すように、座標(4、7)、(5、7)、(4、8)、(5、8)のカウンタ値C(x、y)を+30と設定し、(数1)及び(数2)に基づいてタッチ座標(4.5、7.5)を算出する。
For example, when the
続いて算出部32は、所定の期間同じ位置、すなわち前回オン状態にあるタッチセンサ31が、所定の期間以上オン状態にないとき(S6;No)、算出したタッチ座標(4.5、7.5)をタッチ座標群341として記憶部34に記憶させ(S7)、ステップ1に戻って再び電極311の走査を行う。
Subsequently, the
このとき算出されたタッチ座標(4.5、7.5)は、図6に示す三角(1)として記憶部34に記憶される。
The touch coordinates (4.5, 7.5) calculated at this time are stored in the
また、算出部32は、ステップ6において「Yes」が成立するまでの期間、タッチ座標を算出する。例えば、図9に示す黒塗りのタッチセンサ36がオン判定であるとき、座標(5、6)、(6、6)、(5、7)、(6、7)のカウンタ値C(x、y)を+30と設定し、前回オン判定であった右上斜線の座標(4、7)、(5、7)、(4、8)、(5、8)には、保持していたカウンタ値C(x、y)に−20を加算して、(数1)及び(数2)に基づいてタッチ座標を(5.2、6.8)と算出する。なお、前回と今回、オン判定であった座標(5、7)のカウンタ値C(x、y)は、+30+30で、計+60として計算している。
In addition, the
また、算出部32は、図10に示す黒塗りのタッチセンサ36がオン判定であるとき、座標(6、5)、(7、5)、(6、6)、(7、6)のカウンタ値C(x、y)を+30と設定し、前回オン判定であった座標(5、6)、(6、6)、(5、7)、(6、7)、及び前々回オン判定であった座標(4、7)、(5、7)、(4、8)、(5、8)には、保持していたカウンタ値C(x、y)に−20を加算して、(数1)及び(数2)に基づいてタッチ座標を(6.0、6.6)と算出する。
In addition, when the
算出部32は、上記の処理をステップ6において「Yes」が成立するまで、繰り返し行い、順番とタッチ座標を含むタッチ座標群341を生成する。
The
判定部33は、上記した「タッチ座標群341の座標(点)」と「ジェスチャ辞書に登録されたジェスチャパターンを構成する点」に基づいてそれぞれに一番近い点の対応をジェスチャ辞書340に登録されたジェスチャパターンそれぞれについて算出する(S8)。なお、判定部33は、この処理を行うとき、タッチ座標群341を座標系の中央にオフセットし、オフセットされた座標(点)と、ジェスチャパターンを構成する点とを比較するようにしても良い。
The
判定部33は、一例として、近い点同士の平均距離が一番近いジェスチャパターンを「候補ジェスチャ」として選択する(S9)。
For example, the
判定部33は、ジェスチャ辞書340から選択した「候補ジェスチャ」とタッチ座標群341との最大距離が、第1のしきい値より小さく(S10;Yes)、かつ、「候補ジェスチャ」の点に対応するタッチ座標群341の点の数が第2のしきい値以上であるとき(S11;Yes)、「候補ジェスチャ」に対応付けされたコマンドを実行する(S12)。車両ECU100は、実行されたコマンドによって、被制御装置に対応する処理、例えば、表示装置4に表示された画像を拡大させる。
The
判定部33は、コマンドを実行した後、記憶部34に記憶させていたタッチ座標群341をクリアし(S13)、ステップ1から再び処理を行う。
After executing the command, the
ここでステップ3において、反応する電極311が無く(S3;No)、また、記憶部34に蓄積されたタッチ座標群341があるとき(S5;Yes)、判定部33は、運転者によるジェスチャが終了したとみなし、ステップ8に処理を進め、ジェスチャの判定を行う。
Here, in
また、ステップ5において、記憶部34に蓄積されたタッチ座標群341がないとき(S5;No)、判定部33は、ステップ1に処理を進める。
In
(FR、RR、FL及びRLウインドウ50〜53の制御について)
図12(a)及び(b)は、本発明の実施の形態に係るジェスチャ時の概略図であり、図12(c)は、本発明の実施の形態に係る入力されたジェスチャの概略図である。上記では、反時計回りに円を描くジェスチャ300の判定について説明したが、以下では、ジェスチャの判定を利用したFR、RR、FL及びRLウインドウ50〜53の開閉制御について説明する。
(Control of FR, RR, FL and RL windows 50-53)
12A and 12B are schematic diagrams at the time of the gesture according to the embodiment of the present invention, and FIG. 12C is a schematic diagram of the input gesture according to the embodiment of the present invention. is there. In the above description, the determination of the gesture 300 that draws a circle in the counterclockwise direction has been described. Hereinafter, the opening / closing control of the FR, RR, FL, and RL windows 50 to 53 using the determination of the gesture will be described.
運転者は、図12(a)及び(b)に示すように、右タッチパッド30aに対して図12(c)に示すジェスチャ301に基づくジェスチャを入力する。
As shown in FIGS. 12A and 12B, the driver inputs a gesture based on the gesture 301 shown in FIG. 12C to the
ジェスチャ判定装置3は、上記した処理を行って入力したジェスチャに対応した「候補ジェスチャ」を判定する。続いてジェスチャ判定装置3は、「候補ジェスチャ」(ジェスチャ301)に対応付けされたコマンドを車両ECU100に送信する。
The
車両ECU100は、右タッチパッド30aに対してジェスチャ301が入力されたことを示すコマンドを受信したので、車両1のFRウインドウ50を制御して、FRウインドウ50を閉める。ジェスチャ301は、下から上に向かうジェスチャであるから、ウインドウを閉める操作と類似しており、直感的に操作がし易い。
The
同様に運転者が、左タッチパッド30bに対してジェスチャ301が入力されたとき、車両ECU100は、FLウインドウ52を閉め、右裏タッチパッド30cに対してジェスチャ301が入力されたとき、車両ECU100は、RRウインドウ51を閉め、左裏タッチパッド30dに対してジェスチャ301が入力されたとき、車両ECU100は、RLウインドウ53を閉めるよう制御する。
Similarly, when the driver inputs a gesture 301 to the left touch pad 30b, the
また運転者が、右、左、右裏及び左裏タッチパッド30a〜30dを摘みながら下から上へとジェスチャ301を入力すると、車両ECU100は、FR、RR、FL及びRLウインドウ50〜53を一度に閉めるように制御し、右、左、右裏及び左裏タッチパッド30a〜30dを摘みながら上から下へとジェスチャ301の反対方向の操作を行うとき、車両ECU100は、FR、RR、FL及びRLウインドウ50〜53を一度に開けるように制御する。
When the driver inputs the gesture 301 from the bottom to the top while grasping the right, left, right back and left back
(カーテン6の制御について)
図13は、本発明の実施の形態に係る覆う動作に関する概略図である。以下では、右又は左タッチパッド30a、30bを運転者の手7によって覆われたときの動作について説明する。なお、覆うとは、右又は左タッチパッド30a、30bの全体を手7によって触ることである。
(Control of curtain 6)
FIG. 13 is a schematic diagram relating to the covering operation according to the embodiment of the present invention. Hereinafter, an operation when the right or left
運転者は、図13に示すように、手7によって右タッチパッド30aの全体を覆う。
As shown in FIG. 13, the driver covers the entire
このとき、判定部33は、ステップ3において、設定された数以上の電極311が反応し、かつ、ステップ6において、所定の期間以上継続して同じ状況が続くとき、右タッチパッド30a全体が手7によって覆われる「候補ジェスチャ」をジェスチャ辞書340に基づいて判定する。
At this time, when the
判定部33は、判定された「候補ジェスチャ」に対応付けされたコマンドを車両ECU100に送信する。
車両ECU100は、「候補ジェスチャ」が右タッチパッド30aを覆うジェスチャであることから、このジェスチャに割り付けられたカーテン6の開閉制御を行う。開閉制御とは、カーテン6が開いているときは、これを閉じ、閉じているときは、これを開ける制御のことである。なお、覆うジェスチャによって車両1のサンシェードを機能させても良い。
Since the “candidate gesture” is a gesture that covers the
上記した例は、ジェスチャを幾つかの被制御装置の制御方法として利用したものであるが、これに限定されず、いろいろな変形が可能であることは言うまでも無い。 In the above example, the gesture is used as a control method for several controlled devices. However, the present invention is not limited to this, and it goes without saying that various modifications are possible.
なお、上記においては、右タッチパッド30aを覆うことによって開閉制御が行われたが、これに限定されず、左、右裏又は左裏タッチパッド30b、30c、30dに対してジェスチャが入力されても良い。
In the above description, the opening / closing control is performed by covering the
(効果)
(1)上記した実施の形態におけるジェスチャ判定装置3によれば、構造が簡単でありながらジェスチャの正確な判定を行うことができる。
(effect)
(1) According to the
(2)上記した実施の形態におけるジェスチャ判定装置3によれば、ジェスチャを入力する位置が制限されないので、運転者の視線移動を抑えて被制御装置を操作することができる。
(2) According to the
(3)上記した実施の形態におけるジェスチャ判定装置3によれば、右、左、右裏及び左裏タッチパッド30a〜30dを上方向に撫でることによって、FR、RR、FL及びRLウインドウ50〜53を閉めることができ、また、下方向に撫でることによって、FR、RR、FL及びRLウインドウ50〜53を開けることができるので、直感的で分かりやすい操作を行うことができる。
(3) According to the
(4)上記した実施の形態におけるジェスチャ判定装置3によれば、右、左、右裏及び左裏タッチパッド30a〜30dは、車両1内に自由に配置することができるので、被制御装置に基づいた配置を行うことができ、さらに直感的な被制御装置の操作を行うことができる。
(4) According to the
(5)上記した実施の形態におけるジェスチャ判定装置3によれば、右、左、右裏及び左裏タッチパッド30a〜30dの少なくとも1つを覆うことによって、対象となる操作を素早く行うことができる。
(5) According to the
(6)上記した実施の形態におけるジェスチャ判定装置3によれば、ジェスチャを正確に判定することができるので、直感的な被制御装置の操作が可能となり、操作性が向上する。
(6) According to the
(他の実施の形態について)
(1)上記した実施の形態におけるジェスチャ判定装置3は、8行8列として格子状に並べたタッチセンサ31によってタッチパッド30を構成したが、タッチセンサ31の数は、用途に応じて自由に変更することができる。
(About other embodiments)
(1) The
(2)上記した実施の形態におけるジェスチャ判定装置3は、8行8列として格子状に並べたタッチセンサ31によってタッチパッド30を構成したが、分解能が高いので、少ないタッチセンサ31によってジェスチャを判定することができる。
(2) Although the
(3)上記した実施の形態におけるジェスチャ判定装置3は、被制御装置としてカーナビゲーション装置を例にとったが、車両1に搭載されるエアコン装置、及びオーディオ装置等の電子機器の制御に用いられても良い。
(3) Although the
なお、本発明は、上記した実施の形態に限定されず、本発明の技術思想を逸脱あるいは変更しない範囲内で種々の変形が可能である。 The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from or changing the technical idea of the present invention.
1…車両、2…ステアリング、3…ジェスチャ判定装置、4…表示装置、5…手指、6…カーテン、7…手、20…本体部、21…ステアリングホイール、30a〜30d…右、左、右裏及び左裏タッチパッド、31…タッチセンサ、32…算出部、33…判定部、34…記憶部、35〜37…タッチセンサ、100…車両ECU、300…ジェスチャ、301…ジェスチャ、310…本体、311…電極、312…塗装膜、340…ジェスチャ辞書、341…タッチ座標群
DESCRIPTION OF
Claims (6)
前記複数のタッチセンサによって形成される座標系における前記接触に応じたタッチ座標を所定の周期毎に算出する算出部と、
前記ジェスチャ操作に基づく複数の前記タッチ座標をタッチ座標群として記憶し、また、前記座標系における複数の点によって構成されたジェスチャパターンが登録されたジェスチャ辞書を記憶する記憶部と、
前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点とを所定の条件に基づいて所定の順番で比較することによって前記ジェスチャ操作を判定する判定部と、
を備えたことを特徴とするジェスチャ判定装置。 A plurality of touch sensors whose capacitance changes in response to contact based on a gesture operation;
A calculation unit that calculates touch coordinates corresponding to the contact in a coordinate system formed by the plurality of touch sensors for each predetermined period;
A storage unit that stores a plurality of touch coordinates based on the gesture operation as a touch coordinate group, and stores a gesture dictionary in which a gesture pattern configured by a plurality of points in the coordinate system is registered;
A determination unit that determines the gesture operation by comparing the touch coordinates constituting the touch coordinate group and the points constituting the gesture pattern in a predetermined order based on a predetermined condition;
A gesture determination device characterized by comprising:
前記複数のタッチセンサによって形成される座標系における前記接触に応じたタッチ座標を所定の周期毎に算出する算出部と、
前記ジェスチャ操作に基づく複数の前記タッチ座標をタッチ座標群として記憶し、また、前記座標系における複数の点によって構成されたジェスチャパターンが登録されたジェスチャ辞書を記憶する記憶部と、
前記タッチ座標群を構成する前記タッチ座標と前記ジェスチャパターンを構成する前記点とを所定の条件に基づいて所定の順番で比較することによって前記ジェスチャ操作を判定する判定部と、
判定された前記ジェスチャ操作に基づいて被制御装置を制御する制御部と、
を備えたことを特徴とするジェスチャ判定装置。 A plurality of touch sensors whose capacitance changes in response to contact based on a gesture operation;
A calculation unit that calculates touch coordinates corresponding to the contact in a coordinate system formed by the plurality of touch sensors for each predetermined period;
A storage unit that stores a plurality of touch coordinates based on the gesture operation as a touch coordinate group, and stores a gesture dictionary in which a gesture pattern configured by a plurality of points in the coordinate system is registered;
A determination unit that determines the gesture operation by comparing the touch coordinates constituting the touch coordinate group and the points constituting the gesture pattern in a predetermined order based on a predetermined condition;
A control unit that controls the controlled device based on the determined gesture operation;
A gesture determination device characterized by comprising:
前記被制御装置は、車両のウインドウであり、
前記制御部は、前記ジェスチャ操作に基づいて前記車両の前記ウインドウの開閉制御を行うことを特徴とする請求項3に記載のジェスチャ判定装置。 The gesture operation is stroking the touch sensor upward or downward,
The controlled device is a vehicle window;
The gesture determination apparatus according to claim 3, wherein the control unit performs opening / closing control of the window of the vehicle based on the gesture operation.
前記被制御装置は、車両のカーテン又はサンシェードであり、
前記制御部は、前記ジェスチャ操作に基づいて前記車両の前記カーテン又は前記サンシェードの制御を行うことを特徴とする請求項3に記載のジェスチャ判定装置。 The gesture operation is to cover a plurality of the touch sensors,
The controlled device is a curtain or sunshade of a vehicle,
The gesture determination device according to claim 3, wherein the control unit controls the curtain or the sunshade of the vehicle based on the gesture operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008154722A JP2009301302A (en) | 2008-06-12 | 2008-06-12 | Gesture determination device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008154722A JP2009301302A (en) | 2008-06-12 | 2008-06-12 | Gesture determination device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009301302A true JP2009301302A (en) | 2009-12-24 |
Family
ID=41548126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008154722A Pending JP2009301302A (en) | 2008-06-12 | 2008-06-12 | Gesture determination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009301302A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012123448A (en) * | 2010-12-06 | 2012-06-28 | Clarion Co Ltd | Touch panel device and on-vehicle device |
JP5529357B1 (en) * | 2013-02-20 | 2014-06-25 | パナソニック株式会社 | Control method and program for portable information terminal |
KR101457193B1 (en) * | 2014-02-07 | 2014-10-31 | (주)케이넷피 | Apparatus for providing user interface based on gesture recognition and method thereof |
JP2015505100A (en) * | 2011-12-21 | 2015-02-16 | ノキア コーポレイション | User gesture recognition |
CN105027066A (en) * | 2013-03-06 | 2015-11-04 | 索尼公司 | Apparatus and method for operating a user interface of a device |
US9213435B2 (en) | 2013-03-27 | 2015-12-15 | Hyundai Motor Company | Method and system for selecting items using touchscreen |
JP2015536501A (en) * | 2012-10-26 | 2015-12-21 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | System and method for providing infrared gesture instructions on a display |
JP2018022318A (en) * | 2016-08-03 | 2018-02-08 | 株式会社東海理化電機製作所 | Operation input device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06131110A (en) * | 1992-10-21 | 1994-05-13 | Sharp Corp | Information processor |
JPH08147077A (en) * | 1994-11-18 | 1996-06-07 | Wacom Co Ltd | Method and device for controlling plural position input devices |
JPH09231393A (en) * | 1996-02-23 | 1997-09-05 | Fuji Xerox Co Ltd | Instruction input device |
JP2001022891A (en) * | 1999-07-06 | 2001-01-26 | Hitachi Ltd | Recognizing device and storage medium for recognition |
JP2002513969A (en) * | 1998-05-07 | 2002-05-14 | エイアールティー−アドヴァンスト・レコグニション・テクノロジーズ・リミテッド | Handwriting and voice control of vehicle components |
JP2006268582A (en) * | 2005-03-24 | 2006-10-05 | Fuji Xerox Co Ltd | Method and system for controlling information appliance based on gesture |
JP2009523267A (en) * | 2005-09-15 | 2009-06-18 | アップル インコーポレイテッド | System and method for processing raw data of a trackpad device |
-
2008
- 2008-06-12 JP JP2008154722A patent/JP2009301302A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06131110A (en) * | 1992-10-21 | 1994-05-13 | Sharp Corp | Information processor |
JPH08147077A (en) * | 1994-11-18 | 1996-06-07 | Wacom Co Ltd | Method and device for controlling plural position input devices |
JPH09231393A (en) * | 1996-02-23 | 1997-09-05 | Fuji Xerox Co Ltd | Instruction input device |
JP2002513969A (en) * | 1998-05-07 | 2002-05-14 | エイアールティー−アドヴァンスト・レコグニション・テクノロジーズ・リミテッド | Handwriting and voice control of vehicle components |
JP2001022891A (en) * | 1999-07-06 | 2001-01-26 | Hitachi Ltd | Recognizing device and storage medium for recognition |
JP2006268582A (en) * | 2005-03-24 | 2006-10-05 | Fuji Xerox Co Ltd | Method and system for controlling information appliance based on gesture |
JP2009523267A (en) * | 2005-09-15 | 2009-06-18 | アップル インコーポレイテッド | System and method for processing raw data of a trackpad device |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012123448A (en) * | 2010-12-06 | 2012-06-28 | Clarion Co Ltd | Touch panel device and on-vehicle device |
JP2015505100A (en) * | 2011-12-21 | 2015-02-16 | ノキア コーポレイション | User gesture recognition |
JP2015536501A (en) * | 2012-10-26 | 2015-12-21 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | System and method for providing infrared gesture instructions on a display |
US20140359468A1 (en) | 2013-02-20 | 2014-12-04 | Panasonic Intellectual Property Corporation Of America | Method for controlling information apparatus and computer-readable recording medium |
US9354798B2 (en) | 2013-02-20 | 2016-05-31 | Panasonic Intellectual Property Corporation Of America | Information apparatus having an interface for a remote control |
US10802694B2 (en) | 2013-02-20 | 2020-10-13 | Panasonic Intellectual Property Corporation Of America | Information apparatus having an interface for a remote control |
WO2014128792A1 (en) * | 2013-02-20 | 2014-08-28 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Program and method for controlling portable information terminal |
WO2014129138A1 (en) * | 2013-02-20 | 2014-08-28 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Program and method for controlling information terminal |
JP5719481B2 (en) * | 2013-02-20 | 2015-05-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Control method and program for portable information terminal |
JP5719484B2 (en) * | 2013-02-20 | 2015-05-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Information terminal control method and program |
US10466881B2 (en) | 2013-02-20 | 2019-11-05 | Panasonic Intellectual Property Corporation Of America | Information apparatus having an interface for performing a remote operation |
US10387022B2 (en) | 2013-02-20 | 2019-08-20 | Panasonic Intellectual Property Corporation America | Method for controlling information apparatus |
JP5529357B1 (en) * | 2013-02-20 | 2014-06-25 | パナソニック株式会社 | Control method and program for portable information terminal |
US10140006B2 (en) | 2013-02-20 | 2018-11-27 | Panasonic Intellectual Property Corporation Of America | Method for controlling information apparatus |
WO2014128775A1 (en) * | 2013-02-20 | 2014-08-28 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Program and method for controlling portable information terminal |
US9569081B2 (en) | 2013-02-20 | 2017-02-14 | Panasonic Intellectual Property Corporation Of America | Control method for information apparatus and computer-readable recording medium |
US9507425B2 (en) | 2013-03-06 | 2016-11-29 | Sony Corporation | Apparatus and method for operating a user interface of a device |
CN105027066B (en) * | 2013-03-06 | 2018-09-25 | 索尼公司 | Device and method for the user interface for operating an equipment |
JP2016512637A (en) * | 2013-03-06 | 2016-04-28 | ソニー株式会社 | Apparatus and method for operating a user interface of a device |
CN105027066A (en) * | 2013-03-06 | 2015-11-04 | 索尼公司 | Apparatus and method for operating a user interface of a device |
US9213435B2 (en) | 2013-03-27 | 2015-12-15 | Hyundai Motor Company | Method and system for selecting items using touchscreen |
KR101457193B1 (en) * | 2014-02-07 | 2014-10-31 | (주)케이넷피 | Apparatus for providing user interface based on gesture recognition and method thereof |
JP2018022318A (en) * | 2016-08-03 | 2018-02-08 | 株式会社東海理化電機製作所 | Operation input device |
WO2018025507A1 (en) * | 2016-08-03 | 2018-02-08 | 株式会社東海理化電機製作所 | Operation input device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106502570B (en) | Gesture recognition method and device and vehicle-mounted system | |
JP2009301302A (en) | Gesture determination device | |
JP2009298285A (en) | Input device | |
JP5617783B2 (en) | Operation input device and control system for vehicle | |
US8284168B2 (en) | User interface device | |
JP5563698B1 (en) | Touch input device | |
EP2786902B1 (en) | Vehicle operating device | |
JP6310787B2 (en) | Vehicle input device and vehicle cockpit module | |
JP5640486B2 (en) | Information display device | |
JP5905434B2 (en) | Operating device | |
CN108399044B (en) | User interface, vehicle and method for distinguishing users | |
JP2006285370A (en) | Hand pattern switch device and hand pattern operation method | |
CN108733283A (en) | Context vehicle user interface | |
US20200094864A1 (en) | Operation input device | |
CN110869882B (en) | Method for operating a display device for a motor vehicle and motor vehicle | |
JP2009301300A (en) | Input device | |
CN107615219A (en) | Touch panel control device and in-vehicle information apparatus | |
US10318118B2 (en) | Vehicular display apparatus | |
CN112203889A (en) | Control system for vehicle | |
CN105759955B (en) | Input device | |
US9367169B2 (en) | Method, circuit, and system for hover and gesture detection with a touch screen | |
EP3352058A1 (en) | Operation detection device | |
JP2009301301A (en) | Input device and input method | |
JP5062898B2 (en) | User interface device | |
KR101422060B1 (en) | Information display apparatus and method for vehicle using touch-pad, and information input module thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120417 |