JP2009298285A - Input device - Google Patents
Input device Download PDFInfo
- Publication number
- JP2009298285A JP2009298285A JP2008154719A JP2008154719A JP2009298285A JP 2009298285 A JP2009298285 A JP 2009298285A JP 2008154719 A JP2008154719 A JP 2008154719A JP 2008154719 A JP2008154719 A JP 2008154719A JP 2009298285 A JP2009298285 A JP 2009298285A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- touch
- input
- touchpad
- combination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、入力装置に関する。 The present invention relates to an input device.
従来の技術として、車両のステアリングホイールのスポーク部に配置された操作リングを備えたスイッチ装置が知られている(例えば、特許文献1参照)。 As a conventional technique, a switch device including an operation ring disposed in a spoke portion of a steering wheel of a vehicle is known (for example, see Patent Document 1).
このスイッチ装置は、スポーク部の軸まわりに回転可能な操作リングを有し、操作リングは、操作者の回転操作を補助するための2つの操作部を有している。 This switch device has an operation ring that can rotate around the axis of the spoke part, and the operation ring has two operation parts for assisting the rotation operation of the operator.
操作者は、操作部を介して操作リングに対して回転操作を行うことによって、車両に搭載される電子機器の操作を行うことができる。
しかし、従来のスイッチ装置によると、回転操作では入力する情報の数に限界があった。 However, according to the conventional switch device, there is a limit to the number of information to be input in the rotation operation.
従って本発明の目的は、車両のステアリングを把持した状態で多くの情報を入力することができる入力装置を提供することにある。 Accordingly, an object of the present invention is to provide an input device capable of inputting a large amount of information while gripping the steering of a vehicle.
(1)本発明は上記目的を達成するため、車両のステアリングを把持した状態で操作可能な位置に設けられ、それぞれが複数のタッチセンサからなる複数のタッチパッドと、前記複数のタッチパッドに入力されたタッチ操作を検出する検出部と検出された前記タッチ操作に基づいて入力されたジェスチャを判定する判定部と、判定された前記ジェスチャの組合せに基づいて被制御装置を制御する制御部と、を備えたことを特徴とする入力装置を提供する。 (1) In order to achieve the above object, the present invention is provided at a position where it can be operated while gripping the steering wheel of a vehicle, and a plurality of touch pads each composed of a plurality of touch sensors, and inputs to the plurality of touch pads. A detection unit that detects the touch operation that is performed, a determination unit that determines a gesture input based on the detected touch operation, a control unit that controls the controlled device based on the determined combination of gestures, An input device is provided.
(2)本発明は上記目的を達成するため、前記制御部は、前記組合せに基づいて前記被制御装置の表示部に表示される画像の拡大、縮小、及び所定の回転軸に対する回転を行うことを特徴とする前記(1)に記載の入力装置を提供する。 (2) In order to achieve the above object, the control unit performs enlargement / reduction of an image displayed on the display unit of the controlled device and rotation with respect to a predetermined rotation axis based on the combination. An input device according to (1) is provided.
(3)本発明は上記目的を達成するため、前記複数のタッチパッドは、前記ステアリングの表側と裏側に配置され、前記表側と前記裏側に配置された前記タッチパッドに対して同時かつ同方向にスライド操作を行うことによって前記被制御装置の表示部に表示される画像の拡大及び縮小を行うことを特徴とする前記(1)に記載の入力装置を提供する。 (3) In order to achieve the above object, the plurality of touch pads are arranged on the front side and the back side of the steering, and simultaneously and in the same direction with respect to the touch pads arranged on the front side and the back side. The input device according to (1), wherein the image displayed on the display unit of the controlled device is enlarged and reduced by performing a slide operation.
このような発明によれば、車両のステアリングを把持した状態で多くの情報を入力することができる。 According to such an invention, it is possible to input a lot of information while holding the steering of the vehicle.
以下に、本発明の入力装置の実施の形態を図面を参考にして詳細に説明する。 Embodiments of an input device according to the present invention will be described below in detail with reference to the drawings.
[実施の形態]
(車両の構成)
図1は、本発明の実施の形態に係る入力装置が搭載された車両内部の概略図であり、図2は、本発明の実施の形態に係るステアリング裏の概略図である。本発明の入力装置を車両に搭載した場合について説明する。なお、以下に説明する入力装置3は、右、左、右裏及び左裏タッチパッド30a〜30dを有しているが、少なくとも2つのタッチパッドの組合せであっても良い。
[Embodiment]
(Vehicle configuration)
FIG. 1 is a schematic diagram of the inside of a vehicle on which an input device according to an embodiment of the present invention is mounted, and FIG. 2 is a schematic diagram of the back of a steering wheel according to the embodiment of the present invention. A case where the input device of the present invention is mounted on a vehicle will be described. The input device 3 described below includes the right, left, right back, and left back touch pads 30a to 30d, but may be a combination of at least two touch pads.
車両1は、図1に示すように、操舵装置の一部であり、左右に回転操作することによって車両1の進行方向を変更することができるステアリング2と、ステアリング2の本体部20の運転者側(表側)に設けられた右及び左タッチパッド30a、30bと、図2に示す本体部20の裏側に設けられた右裏及び左裏タッチパッド30c、30dと、カーナビゲーション装置(被制御装置)4と、を備えて概略構成されている。 As shown in FIG. 1, the vehicle 1 is a part of a steering device, and a steering wheel 2 that can change the traveling direction of the vehicle 1 by rotating left and right, and a driver of a main body 20 of the steering wheel 2. Right and left touchpads 30a and 30b provided on the side (front side), right and left touchpads 30c and 30d provided on the back side of the main body 20 shown in FIG. 2, car navigation device (controlled device) ) 4.
ステアリング2は、図示しないステアリングシャフトと接続され、各種スイッチ類が配置された本体部20と、運転者が把持する部分であり、リング形状を有するステアリングホイール21と、を備えて概略構成されている。 The steering 2 is connected to a steering shaft (not shown) and includes a main body 20 on which various switches are arranged, and a steering wheel 21 having a ring shape, which is a portion that is gripped by the driver. .
(入力装置の構成)
図3は、本発明の実施の形態に係る入力装置に関するブロック図である。この入力装置3は、主に、右及び左タッチパッド30a、30bと、右裏及び左裏タッチパッド30c、30dと、検出部32と、判定部33と、制御部としての車両ECU(Electronic Control Unit)100と、を備えて概略構成されている。
(Configuration of input device)
FIG. 3 is a block diagram relating to the input device according to the embodiment of the present invention. The input device 3 mainly includes right and left touch pads 30a and 30b, right and left back touch pads 30c and 30d, a
また入力装置3は、図3に示すように、ジェスチャ辞書340と、タッチ座標群341と、組合せ情報342と、を記憶する記憶部34を備えている。
Further, as illustrated in FIG. 3, the input device 3 includes a
車両ECU100は、被制御装置の一例としてのカーナビゲーション装置4に接続されている。 The vehicle ECU 100 is connected to a car navigation device 4 as an example of a controlled device.
カーナビゲーション装置4は、表示部としての表示画面40を有し、表示画面40には、選択可能な各種メニューや地図等の画像が表示される。
The car navigation device 4 has a
(検出部について)
検出部32は、図3に示すように、一例として、各右、左、右裏及び左裏タッチパッド30a〜30dの左上から右へと順番にタッチセンサ31を走査してオン・オフ状態の読出しを所定の周期(一例として16ms)によって行うものとする。なお、右、左、右裏及び左裏タッチパッド30a〜30dは、オン・オフ状態の読出しは、左上から開始するが、表示画面40との対応から、図3に示すように、左下を原点とし、水平方向をX軸、垂直方向をY軸としたX−Y座標系が設定されるものとする。
(About the detector)
As illustrated in FIG. 3, the
検出部32は、後述するタッチ座標の算出を1周期毎に行うものとし、所定の期間におけるタッチ座標の軌跡(以下タッチ座標群341と呼ぶ)を記憶部34に記憶するものとする。
It is assumed that the
ここでタッチ座標とは、ある周期において、オン判定されたタッチセンサ31に基づいて算出される座標のことであり、例えば、タッチセンサ31に座標を割り当て、オン判定されたタッチセンサ31の座標の平均をとってタッチ座標とする方法や、オン判定されたタッチセンサ31に重み関数を持たせ、タッチセンサ31の数以上の分解能を持たせた方法等による公知の方法によって算出される。一例として、このタッチ座標を所定の期間記憶し、タッチ座標群341を生成することによってタッチ座標の軌跡が得られ、その軌跡に基づいてジェスチャが判定される。
Here, the touch coordinates are coordinates calculated based on the
なお、所定の期間は、例えば、全てのタッチセンサ31の中で初めてオン判定が検出されてから全てがオフ判定となるまでの期間であっても良く、しきい値を設け、そのしきい値内の期間としても良く、これに限定されない。
The predetermined period may be, for example, a period from when the on determination is detected for the first time among all the
(判定部について) (About judgment part)
判定部33は、一例として、検出部32によって算出されたタッチ座標群341に基づいて記憶部34に記憶されたジェスチャ辞書340を参照し、入力されたジェスチャの判定を行う。
As an example, the determination unit 33 refers to the gesture dictionary 340 stored in the
ジェスチャ辞書340は、一例として、所定のジェスチャに対応するジェスチャパターンを所定の間隔で分割した点列が、順番(所定の順番)と共に登録されている。 In the gesture dictionary 340, for example, a point sequence obtained by dividing a gesture pattern corresponding to a predetermined gesture at a predetermined interval is registered together with an order (predetermined order).
判定部33は、一例として、運転者のジェスチャに基づいて算出されたタッチ座標と、順番が合致するジェスチャパターンの点との距離に基づいてジェスチャを判定する。 For example, the determination unit 33 determines the gesture based on the distance between the touch coordinates calculated based on the driver's gesture and the point of the gesture pattern that matches the order.
なお、ジェスチャの判定方法は、上記に限定されず、パターンマッチング等の公知の形状認識方法によって判定しても良い。 The gesture determination method is not limited to the above, and may be determined by a known shape recognition method such as pattern matching.
(タッチセンサ31について)
図4は、本発明の実施の形態に係るタッチセンサの断面図である。なお、同図は、右タッチパッド30aを示すが、他のタッチパッド30b〜30dも右タッチパッド30aと同様に構成されている。
(About touch sensor 31)
FIG. 4 is a cross-sectional view of the touch sensor according to the embodiment of the present invention. Although the figure shows the right touch pad 30a, the other touch pads 30b to 30d are configured in the same manner as the right touch pad 30a.
タッチセンサ31は、一例として、手指によるタッチ操作に応じた静電容量の変化に基づいてオン・オフ状態を判断し、オン状態の時は「1」を、オフ状態の時は「0」を示す信号を外部に出力するようにIC(Integrated Circuit)化されているものとする。なお、検出部32によって各電極311の静電容量を直接読み出すように構成されても良い。
As an example, the
右、左、右裏及び左裏タッチパッド30a〜30dは、樹脂等の絶縁部材によって形成された本体310と、銅等の導電体によって本体310上に形成された電極311と、電極311を保護するため、本体310上に形成された保護膜としての塗装膜312と、を備え、一例として、電極311を8行8列として格子状に並べて本体310上に形成したものである。 The right, left, right back and left back touch pads 30a to 30d protect the main body 310 formed of an insulating member such as resin, the electrode 311 formed on the main body 310 by a conductor such as copper, and the electrode 311. Therefore, a coating film 312 as a protective film formed on the main body 310 is provided, and as an example, the electrodes 311 are arranged on the main body 310 in 8 rows and 8 columns in a grid pattern.
電極311は、一例として、検出部32が有するアナログスイッチであるマルチプレクサにそれぞれが接続され、検出部32は、マルチプレクサを介して所定の周期でオン・オフ状態の読み出しを行っている。
As an example, each of the electrodes 311 is connected to a multiplexer that is an analog switch included in the
運転者は、この右、左、右裏及び左裏タッチパッド30a〜30dに対してタッチ操作に基づくジェスチャの入力を行うことによって被制御装置に割り当てられた所定のコマンドを入力することができるものとする。 A driver can input a predetermined command assigned to the controlled device by inputting a gesture based on a touch operation to the right, left, right back and left back touch pads 30a to 30d. And
なお、タッチ操作は、この右、左、右裏及び左裏タッチパッド30a〜30dに直接接触する操作のことを指すが、タッチセンサ31の静電容量が、接触有りと判断されるに十分な変化を行う場合もタッチ操作に含めるものとする。
The touch operation refers to an operation of directly touching the right, left, right back, and left back touch pads 30a to 30d, but the capacitance of the
(カーナビゲーション装置の構成)
図5は、本発明の実施の形態に係る表示画面の構成を示す概略図である。カーナビゲーション装置4は、表示部としての表示画面40を有し、表示画面40には、画像41が表示される。
(Configuration of car navigation system)
FIG. 5 is a schematic diagram showing the configuration of the display screen according to the embodiment of the present invention. The car navigation device 4 has a
このカーナビゲーション装置4は、図5に示すように、地図を鳥瞰図として表示する機能を有しており、図5に示す、X軸(所定の回転軸)回りの回転を示す「ピッチ」、Y軸(所定の回転軸)回りの回転を示す[ロール]、Z軸(所定の回転軸)回りの回転を示す「ヨー」に基づいて地図が回転表示されるものとする。 As shown in FIG. 5, the car navigation device 4 has a function of displaying a map as a bird's eye view. As shown in FIG. 5, a “pitch” indicating rotation around the X axis (predetermined rotation axis), Y It is assumed that the map is rotated and displayed based on [roll] indicating rotation around the axis (predetermined rotation axis) and “yaw” indicating rotation around the Z axis (predetermined rotation axis).
(動作)
以下に、本実施の形態における入力装置の動作を各図を参照して詳細に説明する。
(Operation)
Hereinafter, the operation of the input device according to the present embodiment will be described in detail with reference to the drawings.
(スライド操作について)
図6(a)は、本発明の実施の形態に係るスライド操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、図6(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。以下において、ステアリング2の右側の表側と裏側に設けられた右及び右裏タッチセンサ30a、30cに対するジェスチャの入力について説明するが、タッチパッドの組合せはこれに限定されず、右、左、右裏及び左裏タッチパッド30a〜30dの少なくとも2つを組み合わせて用いても良い。
(About slide operation)
FIG. 6A is a schematic diagram illustrating a gesture input to the right touchpad during a slide operation according to the embodiment of the present invention, and FIG. 6B illustrates a gesture input to the right back touchpad. FIG. In the following, input of gestures to the right and right back touch sensors 30a, 30c provided on the right front side and the back side of the steering wheel 2 will be described. Further, at least two of the left back touch pads 30a to 30d may be used in combination.
また、図6〜図11に示す右裏タッチパッド30cは、図2に示す方向から見た図である。 Moreover, the right back touchpad 30c shown in FIGS. 6-11 is the figure seen from the direction shown in FIG.
運転者は、ステアリングホイール21を把持し、一例として右手親指によって図6(a)に示す右上ジェスチャ50を右タッチパッド30aに入力する。このとき、右手の他の指は、図6(b)に示すように右裏タッチパッド30cに触れていないものとする。 The driver holds the steering wheel 21, and inputs the upper right gesture 50 shown in FIG. 6A to the right touch pad 30a with the right thumb as an example. At this time, it is assumed that the other finger of the right hand does not touch the right back touchpad 30c as shown in FIG.
検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。
The
判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、右タッチパッド30aに、図6(a)に示す右上ジェスチャ50が入力されたと判定する。
The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the
続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右及び右裏タッチパッド30a、30cに入力されたジェスチャの組合せによるコマンドを選択する。
Subsequently, based on the combination information 342 stored in the
判定部33は、右タッチパッド30aが右上ジェスチャ50、右裏タッチパッド30cがジェスチャなしの組合せであることから、スライド操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41をジェスチャの方向にスライドさせる。
The determination unit 33 determines that the right touchpad 30a is a combination of the upper right gesture 50 and the right back touchpad 30c does not have a gesture, and thus determines that the operation is a slide operation. The
なお、ジェスチャの方向は、図6(a)に示す右上ジェスチャ50に限定されず、右裏タッチパッド30cに指が触れていないときは、車両ECU100は、カーナビゲーション装置4を制御し、ジェスチャの方向に従って画像41をスライドさせるものとする。
Note that the direction of the gesture is not limited to the upper right gesture 50 shown in FIG. 6A. When the finger is not touching the right back touch pad 30c, the
(拡大操作について)
図7(a)は、本発明の実施の形態に係る拡大操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、図7(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。
(About enlargement operation)
FIG. 7A is a schematic diagram illustrating a gesture input to the right touchpad during an enlargement operation according to the embodiment of the present invention, and FIG. 7B illustrates a gesture input to the right back touchpad. FIG.
運転者は、ステアリングホイール21を把持し、一例として右手親指によって図7(a)に示す押下ジェスチャ51を右タッチパッド30aに入力する。このとき、右手の他の指は、図7(b)に示すように右裏タッチパッド30cに触れていないものとする。 The driver grips the steering wheel 21 and inputs a press gesture 51 shown in FIG. 7A to the right touch pad 30a with the right thumb as an example. At this time, it is assumed that the other finger of the right hand does not touch the right back touchpad 30c as shown in FIG.
なお、押下ジェスチャ51とは、例えば、右タッチパッド30aに対する接触位置が、所定の期間変化しないジェスチャを指すものとする。 Note that the press gesture 51 is, for example, a gesture in which the position of contact with the right touchpad 30a does not change for a predetermined period.
検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。
The
判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、右タッチパッド30aに、図7(a)に示す押下ジェスチャ51が入力されたと判定する。
The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the
続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右及び右裏タッチパッド30a、30cに入力されたジェスチャの組合せによるコマンドを選択する。
Subsequently, based on the combination information 342 stored in the
判定部33は、右タッチパッド30aが押下ジェスチャ51、右裏タッチパッド30cがジェスチャなしの組合せであることから、拡大操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41を拡大表示させる。
The determination unit 33 determines that the right touchpad 30a is a combination of pressing gesture 51 and the right back touchpad 30c has no gesture, and therefore determines that the operation is an enlargement operation. The
(縮小操作について)
図8(a)は、本発明の実施の形態に係る縮小操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、図8(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。
(About reduction operation)
FIG. 8A is a schematic diagram illustrating a gesture input to the right touchpad during the reduction operation according to the embodiment of the present invention, and FIG. 8B illustrates a gesture input to the right back touchpad. FIG.
運転者は、ステアリングホイール21を把持し、一例として右手人差し指等によって図8(b)に示す押下ジェスチャ51を右裏タッチパッド30cに入力する。このとき、右手の親指は、図8(a)に示すように右タッチパッド30aに触れていないものとする。 The driver grips the steering wheel 21 and inputs a pressing gesture 51 shown in FIG. 8B to the right back touchpad 30c with a right index finger or the like as an example. At this time, it is assumed that the thumb of the right hand does not touch the right touch pad 30a as shown in FIG.
検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。
The
判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、右裏タッチパッド30cに、図8(b)に示す押下ジェスチャ51が入力されたと判定する。
The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the
続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右及び右裏タッチパッド30a、30cに入力されたジェスチャの組合せによるコマンドを選択する。
Subsequently, based on the combination information 342 stored in the
判定部33は、右タッチパッド30aがジェスチャなし、右裏タッチパッド30cが押下ジェスチャ51の組合せであることから、縮小操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41を縮小表示させる。
The determination unit 33 determines that the right touchpad 30a has no gesture and the right back touchpad 30c is a combination of the press gesture 51, so that the reduction operation is determined. The
(ピッチ操作について)
図9(a)は、本発明の実施の形態に係るピッチ操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、図9(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。
(About pitch operation)
FIG. 9A is a schematic diagram illustrating a gesture input to the right touchpad during pitch operation according to the embodiment of the present invention, and FIG. 9B illustrates a gesture input to the right back touchpad. FIG.
運転者は、ステアリングホイール21を把持し、一例として、右手親指によって図9(a)に示す上ジェスチャ52を右タッチパッド30aに、右手他の指によって図9(b)に示す下ジェスチャ53を右裏タッチパッド30cに同時に入力する。この2つのジェスチャは、2つの指によって物を掴んで捻る動作を模している。
The driver holds the steering wheel 21, and as an example, the
検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。
The
判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、右タッチパッド30aに、図9(a)に示す上ジェスチャ52が、右裏タッチパッド30cに、図9(b)に示す下ジェスチャ53が入力されたと判定する。
The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the
続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右及び右裏タッチパッド30a、30cに入力されたジェスチャの組合せによるコマンドを選択する。
Subsequently, based on the combination information 342 stored in the
判定部33は、右タッチパッド30aが上ジェスチャ52、右裏タッチパッド30cが下ジェスチャ53の組合せであることから、ピッチ操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41をX軸回りに矢印A方向に回転表示させる。
The determination unit 33 determines the pitch operation because the right touchpad 30a is a combination of the
また運転者が、図9(a)及び(b)に示すように、右タッチパッド30aに下ジェスチャ53を、右裏タッチパッド30cに上ジェスチャ52を入力したときは、上記のジェスチャの反対であることから、車両ECU100は、カーナビゲーション装置4を制御して図5に示す矢印A方向とは反対方向に回転表示させる。
9A and 9B, when the driver inputs the
(ロール操作について)
図10(a)は、本発明の実施の形態に係るロール操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、図10(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。
(About roll operation)
FIG. 10A is a schematic diagram illustrating a gesture input to the right touchpad during a roll operation according to the embodiment of the present invention, and FIG. 10B illustrates a gesture input to the right back touchpad. FIG.
運転者は、ステアリングホイール21を把持し、一例として、右手親指によって図10(a)に示す左ジェスチャ54を右タッチパッド30aに、右手他の指によって図10(b)に示す右ジェスチャ55を右裏タッチパッド30cに同時に入力する。この2つのジェスチャは、2つの指によって物を掴んで捻る動作を模している。
The driver holds the steering wheel 21, and as an example, the
検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。
The
判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、右タッチパッド30aに、図10(a)に示す左ジェスチャ54が、右裏タッチパッド30cに、図10(b)に示す右ジェスチャ55が入力されたと判定する。
The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the
続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右及び右裏タッチパッド30a、30cに入力されたジェスチャの組合せによるコマンドを選択する。
Subsequently, based on the combination information 342 stored in the
判定部33は、右タッチパッド30aが左ジェスチャ54、右裏タッチパッド30cが右ジェスチャ55の組合せであることから、ロール操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41をY軸回りに矢印B方向に回転表示させる。
Since the right touchpad 30a is a combination of the
また運転者が、図10(a)及び(b)に示すように、右タッチパッド30aに右ジェスチャ55を、右裏タッチパッド30cに左ジェスチャ54を入力したときは、上記のジェスチャの反対であることから、車両ECU100は、カーナビゲーション装置4を制御して図5に示す矢印B方向とは反対方向に回転表示させる。
When the driver inputs the
(ヨー操作について)
図11(a)は、本発明の実施の形態に係るヨー操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、図11(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。
(About yaw operation)
FIG. 11A is a schematic diagram illustrating a gesture input to the right touchpad during a yaw operation according to the embodiment of the present invention, and FIG. 11B illustrates a gesture input to the right back touchpad. FIG.
運転者は、ステアリングホイール21を把持し、一例として、右手親指によって図11(a)に示す左回転ジェスチャ56を右タッチパッド30aに、右手他の指によって図11(b)に示す押下ジェスチャ51を右裏タッチパッド30cに同時に入力する。 The driver holds the steering wheel 21, and as an example, the left rotation gesture 56 shown in FIG. 11 (a) is applied to the right touchpad 30a by the right thumb and the press gesture 51 shown in FIG. 11 (b) by the other finger of the right hand. Are simultaneously input to the right back touchpad 30c.
検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。
The
判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、右タッチパッド30aに、図11(a)に示す左回転ジェスチャ56が、右裏タッチパッド30cに、図11(b)に示す押下ジェスチャ51が入力されたと判定する。
The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the
続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右及び右裏タッチパッド30a、30cに入力されたジェスチャの組合せによるコマンドを選択する。
Subsequently, based on the combination information 342 stored in the
判定部33は、右タッチパッド30aが左回転ジェスチャ56、右裏タッチパッド30cが押下ジェスチャ51の組合せであることから、ヨー操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41をZ軸回りに矢印C方向に回転表示させる。
The determination unit 33 determines the yaw operation because the right touchpad 30a is a combination of the left rotation gesture 56 and the right back touchpad 30c is the press gesture 51, and the
また運転者が、図11(a)及び(b)に示すように、右タッチパッド30aに右回転ジェスチャ57を、右裏タッチパッド30cに押下ジェスチャ51を入力したときは、上記のジェスチャの反対であることから、車両ECU100は、カーナビゲーション装置4を制御して図5に示す矢印C方向とは反対方向に画像41を回転表示させる。
11A and 11B, when the driver inputs the right rotation gesture 57 to the right touch pad 30a and the press gesture 51 to the right back touch pad 30c, the opposite of the above gesture. Therefore, the
(他の拡大・縮小操作方法について)
図12は、本発明の実施の形態に係る拡大・縮小ジェスチャに関する概略図であり、図13(a)は、本発明の実施の形態に係る図5に示す画像の拡大画像の概略図であり、図13(b)は、図5に示す画像の縮小画像の概略図である。運転者が、両手によって右、左、右裏及び左裏タッチパッド30a〜30dに対してジェスチャを入力する場合について説明する。
(Other enlargement / reduction operation methods)
12 is a schematic diagram relating to an enlargement / reduction gesture according to the embodiment of the present invention, and FIG. 13A is a schematic diagram of an enlarged image of the image shown in FIG. 5 according to the embodiment of the present invention. FIG. 13B is a schematic diagram of a reduced image of the image shown in FIG. A case where the driver inputs a gesture to the right, left, right back and left back touch pads 30a to 30d with both hands will be described.
運転者は、ステアリングホイール21を把持し、一例として右手親指によって図12に示す右ジェスチャ55を右タッチパッド30aに、左手親指によって左ジェスチャ54を左タッチパッド30bに、右手の他の指によって左ジェスチャ54を右裏タッチパッド30cに、左手の他の指によって右ジェスチャ55を左裏タッチパッド30dに同時に入力する。
The driver grasps the steering wheel 21 and, as an example, the
この動作は、右、左、右裏及び左裏タッチパッド30a〜30dを両手で摘んで、ステアリング2の外方向にスライドさせる動作であるが、地図を両手で持ち、良く見るために地図を顔に近づける動作に近い動作となっている。 This operation is an operation of picking the right, left, right back and left back touchpads 30a-30d with both hands and sliding them outward of the steering wheel 2. Hold the map with both hands and face the map to see it well. The operation is close to the operation of approaching.
検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。
The
判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、上記したジェスチャが入力されたと判定する。
The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the
続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右、左、右裏及び左裏タッチパッド30a〜30dに入力されたジェスチャの組合せによるコマンドを選択する。
Subsequently, based on the combination information 342 stored in the
判定部33は、上記した組合せであることから、拡大操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41を図13(a)に示す拡大画像42として表示画面40に表示させる。
The determination unit 33 determines that the operation is an enlargement operation because of the above-described combination, and the
また運転者は、ステアリングホイール21を把持し、一例として右手親指によって図12に示す左ジェスチャ54を右タッチパッド30aに、左手親指によって右ジェスチャ55を左タッチパッド30bに、右手の他の指によって右ジェスチャ55を右裏タッチパッド30cに、左手の他の指によって左ジェスチャ54を左裏タッチパッド30dに同時に入力する。
Further, the driver holds the steering wheel 21, and by way of example, the
この動作は、右、左、右裏及び左裏タッチパッド30a〜30dを両手で摘んで、ステアリング2の内方向にスライドさせる動作であるが、地図を両手で持ち、地図全体を良く見るために地図を顔から遠ざける動作に近い動作となっている。 This operation is an operation in which the right, left, right back and left back touch pads 30a to 30d are picked with both hands and slid inward of the steering wheel 2. In order to hold the map with both hands and to see the entire map well The operation is close to moving the map away from the face.
検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。
The
判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、上記したジェスチャが入力されたと判定する。
The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the
続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右、左、右裏及び左裏タッチパッド30a〜30dに入力されたジェスチャの組合せによるコマンドを選択する。
Subsequently, based on the combination information 342 stored in the
判定部33は、上記した組合せであることから、縮小操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41を図13(b)に示す縮小画像43として表示画面40に表示させる。
The determination unit 33 determines that the operation is a reduction operation because of the above combination, and the
(効果)
(1)上記した実施の形態における入力装置3によれば、被制御装置の操作を2つのタッチパッドに入力されたジェスチャの組合せによって行うことができるので、車両のステアリングを把持した状態で多くの情報を入力することができる。
(effect)
(1) According to the input device 3 in the above-described embodiment, the controlled device can be operated by a combination of gestures input to the two touchpads. Information can be entered.
(2)上記した実施の形態における入力装置3によれば、被制御装置の操作を2つのタッチパッドに入力されたジェスチャの組合せによって行うことができるので、複数のスイッチを必要とせず、操作時の視線移動を抑えることができる。 (2) According to the input device 3 in the above-described embodiment, the controlled device can be operated by a combination of gestures input to the two touchpads. Can be suppressed.
(3)上記した実施の形態における入力装置3によれば、被制御装置に表示された地図の拡大・縮小のみならず、ピッチ操作、ロール操作及びヨー操作といった操作を2つのタッチパッドに入力されたジェスチャの組合せによって行うことができる。 (3) According to the input device 3 in the above-described embodiment, not only enlargement / reduction of the map displayed on the controlled device but also operations such as pitch operation, roll operation, and yaw operation are input to the two touch pads. Can be done by a combination of gestures.
(4)上記した実施の形態における入力装置3によれば、被制御装置に表示された地図の拡大・縮小の操作を右、左、右裏及び左裏タッチパッド30a〜30dを同時に摘んで外又は内方向にスライドさせることによって行うことができるので、直感的で操作性が向上する。 (4) According to the input device 3 in the above-described embodiment, the operation of enlarging / reducing the map displayed on the controlled device is performed by simultaneously grasping the right, left, right back and left back touchpads 30a to 30d. Alternatively, since it can be performed by sliding inward, it is intuitive and operability is improved.
(他の実施の形態について)
(1)上記した実施の形態における入力装置3は、2つのタッチパッドの組合せでジェスチャに基づいた操作を選択したが、4つのタッチパッドを2つの組に分け、それぞれに入力されたジェスチャに基づいて2つの操作、例えば、拡大操作とロール操作を同時に行うようにしても良い。
(About other embodiments)
(1) Although the input device 3 in the above-described embodiment has selected the operation based on the gesture with the combination of the two touchpads, the four touchpads are divided into two sets, and each is based on the input gesture. Two operations, for example, an enlargement operation and a roll operation may be performed simultaneously.
(2)上記した実施の形態における入力装置3は、2つのタッチパッドの組合せでジェスチャに基づいた操作を選択したが、2つ以上のタッチパッドを組合せても良い。 (2) Although the input device 3 in the above-described embodiment has selected an operation based on a gesture by combining two touch pads, two or more touch pads may be combined.
(3)上記した実施の形態における入力装置3は、図6〜図11に示すジェスチャの組合せに基づいて操作を選択したが、ジェスチャの組合せは、他の組合せでも良い。 (3) Although the input device 3 in the above-described embodiment selects an operation based on the combination of gestures illustrated in FIGS. 6 to 11, other combinations may be used as the combination of gestures.
(4)上記した実施の形態における入力装置3は、右、左、右裏及び左裏タッチパッド30a〜30dを構成するタッチセンサ31が8行8列に並べられていたが、これに限定されず、用途に応じて変更可能である。
(4) In the input device 3 in the above-described embodiment, the
(5)上記した実施の形態における入力装置3は、被制御装置としてカーナビゲーション装置4を例にとったが、車両1に搭載されるエアコン装置、及びオーディオ装置等の電子機器の制御に用いられても良い。 (5) Although the input device 3 in the above-described embodiment takes the car navigation device 4 as an example of a controlled device, it is used for controlling electronic devices such as an air conditioner device and an audio device mounted on the vehicle 1. May be.
なお、本発明は、上記した実施の形態に限定されず、本発明の技術思想を逸脱あるいは変更しない範囲内で種々の変形が可能である。 The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from or changing the technical idea of the present invention.
1…車両、2…ステアリング、3…入力装置、4…カーナビゲーション装置、20…本体部、21…ステアリングホイール、30a…右タッチパッド、30b…左タッチパッド、30c…右裏タッチパッド、30d…左裏タッチパッド、31…タッチセンサ、32…検出部、33…判定部、34…記憶部、40…表示画面、41…画像、42…拡大画像、43…縮小画像、50…右上ジェスチャ、51…押下ジェスチャ、52…上ジェスチャ、53…下ジェスチャ、54…左ジェスチャ、55…右ジェスチャ、56…左回転ジェスチャ、57…右回転ジェスチャ、310…本体、311…電極、312…塗装膜、340…ジェスチャ辞書、341…タッチ座標群、342…組合せ情報、100…車両ECU DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Steering, 3 ... Input device, 4 ... Car navigation apparatus, 20 ... Main part, 21 ... Steering wheel, 30a ... Right touch pad, 30b ... Left touch pad, 30c ... Right back touch pad, 30d ... Left back touchpad, 31 ... touch sensor, 32 ... detection unit, 33 ... determination unit, 34 ... storage unit, 40 ... display screen, 41 ... image, 42 ... enlarged image, 43 ... reduced image, 50 ... upper right gesture, 51 ... press gesture, 52 ... up gesture, 53 ... lower gesture, 54 ... left gesture, 55 ... right gesture, 56 ... left rotation gesture, 57 ... right rotation gesture, 310 ... main body, 311 ... electrode, 312 ... paint film, 340 ... Gesture dictionary, 341 ... Touch coordinate group, 342 ... Combination information, 100 ... Vehicle ECU
Claims (3)
前記複数のタッチパッドに入力されたタッチ操作を検出する検出部と、
検出された前記タッチ操作に基づいて入力されたジェスチャを判定する判定部と、
判定された前記ジェスチャの組合せに基づいて被制御装置を制御する制御部と、
を備えたことを特徴とする入力装置。 A plurality of touchpads provided at positions where the vehicle steering can be operated, each of which includes a plurality of touch sensors;
A detection unit for detecting a touch operation input to the plurality of touch pads;
A determination unit that determines an input gesture based on the detected touch operation;
A control unit that controls the controlled device based on the determined combination of gestures;
An input device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008154719A JP2009298285A (en) | 2008-06-12 | 2008-06-12 | Input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008154719A JP2009298285A (en) | 2008-06-12 | 2008-06-12 | Input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009298285A true JP2009298285A (en) | 2009-12-24 |
Family
ID=41545643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008154719A Pending JP2009298285A (en) | 2008-06-12 | 2008-06-12 | Input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009298285A (en) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011186622A (en) * | 2010-03-05 | 2011-09-22 | Denso Corp | Awakening support device |
WO2012029558A1 (en) | 2010-08-31 | 2012-03-08 | 日本精機株式会社 | Input device |
JP2012114884A (en) * | 2010-11-29 | 2012-06-14 | Yuhshin Co Ltd | Antenna unit and door handle device equipped with same |
JP2012173965A (en) * | 2011-02-21 | 2012-09-10 | Denso It Laboratory Inc | Character input device, character input method, and program |
DE102012204921A1 (en) | 2011-03-30 | 2012-10-04 | Honda Motor Co., Ltd. | Vessel control apparatus |
CN102866803A (en) * | 2012-08-30 | 2013-01-09 | 浙江大学 | Method and device for operating and controlling virtual center console of Blind-operation-supported automobile by gestures |
EP2586642A1 (en) | 2011-10-31 | 2013-05-01 | Honda Motor Co., Ltd. | Vehicle input apparatus |
WO2013080774A1 (en) | 2011-11-29 | 2013-06-06 | 日本精機株式会社 | Vehicle operating device |
CN103287346A (en) * | 2012-02-22 | 2013-09-11 | 株式会社电装 | Vehicular input apparatus |
JP2013186858A (en) * | 2012-03-12 | 2013-09-19 | Pioneer Electronic Corp | Input device, setting method for input device, program for input device, and recording medium |
JP2013222224A (en) * | 2012-04-12 | 2013-10-28 | Denso Corp | Control device and program |
GB2501585A (en) * | 2012-02-29 | 2013-10-30 | Denso Corp | A method for compensating a manipulation on a touch pad |
JP2013235359A (en) * | 2012-05-08 | 2013-11-21 | Tokai Rika Co Ltd | Information processor and input device |
JP2014019442A (en) * | 2012-07-20 | 2014-02-03 | Robert Bosch Gmbh | Motorcycle handlebar device including grip monitor |
JP2014029576A (en) * | 2012-07-31 | 2014-02-13 | Nippon Seiki Co Ltd | Touch panel input operation device |
JP2014516873A (en) * | 2011-06-22 | 2014-07-17 | ティーケー ホールディングス インク. | Sensor system for a vehicle steering wheel |
JP2014211690A (en) * | 2013-04-17 | 2014-11-13 | ポリマテック・ジャパン株式会社 | Touch input method and touch input apparatus |
CN104345983A (en) * | 2013-08-09 | 2015-02-11 | 本田技研工业株式会社 | Input device |
EP2835722A1 (en) | 2013-08-09 | 2015-02-11 | Honda Motor Co., Ltd. | Input device |
DE102014217439A1 (en) | 2013-09-02 | 2015-03-05 | Honda Motor Co., Ltd. | switch system |
JP2015071364A (en) * | 2013-10-03 | 2015-04-16 | スズキ株式会社 | Handlebar switch device |
JP2015156096A (en) * | 2014-02-20 | 2015-08-27 | トヨタ自動車株式会社 | input device and input acquisition method |
US9153234B2 (en) | 2012-03-21 | 2015-10-06 | Denso Corporation | Speech recognition apparatus, method of recognizing speech, and computer readable medium for the same |
US20160034171A1 (en) * | 2014-08-04 | 2016-02-04 | Flextronics Ap, Llc | Multi-touch gesture recognition using multiple single-touch touch pads |
JP2016147667A (en) * | 2016-03-09 | 2016-08-18 | パイオニア株式会社 | Input unit, setting method for input unit, program for input unit, and recording medium |
JP2016192221A (en) * | 2016-06-16 | 2016-11-10 | パイオニア株式会社 | Setting device, setting method of setting device, and program for setting device |
JP2020027349A (en) * | 2018-08-09 | 2020-02-20 | キヤノン株式会社 | Display control device, display control method, program and storage medium |
US11433937B2 (en) | 2014-10-03 | 2022-09-06 | Kyocera Corporation | Vehicle and steering unit |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003067128A (en) * | 2001-08-30 | 2003-03-07 | Sharp Corp | Information processor with pad type pointing device |
JP2008077651A (en) * | 2007-09-11 | 2008-04-03 | Sony Corp | Information processing system, remote control device and recording medium |
JP2009132248A (en) * | 2007-11-29 | 2009-06-18 | Denso It Laboratory Inc | On-vehicle equipment operating device |
-
2008
- 2008-06-12 JP JP2008154719A patent/JP2009298285A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003067128A (en) * | 2001-08-30 | 2003-03-07 | Sharp Corp | Information processor with pad type pointing device |
JP2008077651A (en) * | 2007-09-11 | 2008-04-03 | Sony Corp | Information processing system, remote control device and recording medium |
JP2009132248A (en) * | 2007-11-29 | 2009-06-18 | Denso It Laboratory Inc | On-vehicle equipment operating device |
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011186622A (en) * | 2010-03-05 | 2011-09-22 | Denso Corp | Awakening support device |
WO2012029558A1 (en) | 2010-08-31 | 2012-03-08 | 日本精機株式会社 | Input device |
JP2012053592A (en) * | 2010-08-31 | 2012-03-15 | Nippon Seiki Co Ltd | Input device |
CN103069368A (en) * | 2010-08-31 | 2013-04-24 | 日本精机株式会社 | Input device |
JP2012114884A (en) * | 2010-11-29 | 2012-06-14 | Yuhshin Co Ltd | Antenna unit and door handle device equipped with same |
JP2012173965A (en) * | 2011-02-21 | 2012-09-10 | Denso It Laboratory Inc | Character input device, character input method, and program |
DE102012204921A1 (en) | 2011-03-30 | 2012-10-04 | Honda Motor Co., Ltd. | Vessel control apparatus |
US8773394B2 (en) | 2011-03-30 | 2014-07-08 | Honda Motor Co., Ltd. | Vehicular operating device |
JP2014516873A (en) * | 2011-06-22 | 2014-07-17 | ティーケー ホールディングス インク. | Sensor system for a vehicle steering wheel |
CN103092402B (en) * | 2011-10-31 | 2016-04-06 | 本田技研工业株式会社 | Vehicle input media |
JP2013097513A (en) * | 2011-10-31 | 2013-05-20 | Honda Motor Co Ltd | Input device for vehicle |
US9186994B2 (en) | 2011-10-31 | 2015-11-17 | Honda Motor Co., Ltd. | Vehicle input apparatus |
CN103092402A (en) * | 2011-10-31 | 2013-05-08 | 本田技研工业株式会社 | Vehicle input apparatus |
EP2586642A1 (en) | 2011-10-31 | 2013-05-01 | Honda Motor Co., Ltd. | Vehicle input apparatus |
CN103958282A (en) * | 2011-11-29 | 2014-07-30 | 日本精机株式会社 | Vehicle operating device |
EP2786902A4 (en) * | 2011-11-29 | 2015-08-19 | Nippon Seiki Co Ltd | Vehicle operating device |
US9207856B2 (en) | 2011-11-29 | 2015-12-08 | Nippon Seiki Co., Ltd. | Vehicula touch input device with determination of straight line gesture |
WO2013080774A1 (en) | 2011-11-29 | 2013-06-06 | 日本精機株式会社 | Vehicle operating device |
EP2786902A1 (en) * | 2011-11-29 | 2014-10-08 | Nippon Seiki Co., Ltd. | Vehicle operating device |
JP2013112207A (en) * | 2011-11-29 | 2013-06-10 | Nippon Seiki Co Ltd | Operation device for vehicle |
CN103287346A (en) * | 2012-02-22 | 2013-09-11 | 株式会社电装 | Vehicular input apparatus |
US9162698B2 (en) | 2012-02-22 | 2015-10-20 | Denso Corporation | Vehicular input apparatus |
GB2501585A (en) * | 2012-02-29 | 2013-10-30 | Denso Corp | A method for compensating a manipulation on a touch pad |
JP2013186858A (en) * | 2012-03-12 | 2013-09-19 | Pioneer Electronic Corp | Input device, setting method for input device, program for input device, and recording medium |
US9153234B2 (en) | 2012-03-21 | 2015-10-06 | Denso Corporation | Speech recognition apparatus, method of recognizing speech, and computer readable medium for the same |
US9298306B2 (en) | 2012-04-12 | 2016-03-29 | Denso Corporation | Control apparatus and computer program product for processing touchpad signals |
JP2013222224A (en) * | 2012-04-12 | 2013-10-28 | Denso Corp | Control device and program |
JP2013235359A (en) * | 2012-05-08 | 2013-11-21 | Tokai Rika Co Ltd | Information processor and input device |
JP2014019442A (en) * | 2012-07-20 | 2014-02-03 | Robert Bosch Gmbh | Motorcycle handlebar device including grip monitor |
JP2014029576A (en) * | 2012-07-31 | 2014-02-13 | Nippon Seiki Co Ltd | Touch panel input operation device |
CN102866803A (en) * | 2012-08-30 | 2013-01-09 | 浙江大学 | Method and device for operating and controlling virtual center console of Blind-operation-supported automobile by gestures |
CN102866803B (en) * | 2012-08-30 | 2016-02-17 | 浙江大学 | A kind ofly support the virtual console gesture control method of the automobile of blind operation and device |
JP2014211690A (en) * | 2013-04-17 | 2014-11-13 | ポリマテック・ジャパン株式会社 | Touch input method and touch input apparatus |
EP2835721A1 (en) | 2013-08-09 | 2015-02-11 | Honda Motor Co., Ltd. | Input device |
US9355805B2 (en) | 2013-08-09 | 2016-05-31 | Honda Motor Co., Ltd. | Input device |
JP2015035136A (en) * | 2013-08-09 | 2015-02-19 | 本田技研工業株式会社 | Input device |
EP2835722A1 (en) | 2013-08-09 | 2015-02-11 | Honda Motor Co., Ltd. | Input device |
CN104345983A (en) * | 2013-08-09 | 2015-02-11 | 本田技研工业株式会社 | Input device |
DE102014217439A1 (en) | 2013-09-02 | 2015-03-05 | Honda Motor Co., Ltd. | switch system |
JP2015071364A (en) * | 2013-10-03 | 2015-04-16 | スズキ株式会社 | Handlebar switch device |
JP2015156096A (en) * | 2014-02-20 | 2015-08-27 | トヨタ自動車株式会社 | input device and input acquisition method |
US20160034171A1 (en) * | 2014-08-04 | 2016-02-04 | Flextronics Ap, Llc | Multi-touch gesture recognition using multiple single-touch touch pads |
US11433937B2 (en) | 2014-10-03 | 2022-09-06 | Kyocera Corporation | Vehicle and steering unit |
EP3202623B1 (en) * | 2014-10-03 | 2023-06-28 | Kyocera Corporation | Vehicle and steering unit |
JP2016147667A (en) * | 2016-03-09 | 2016-08-18 | パイオニア株式会社 | Input unit, setting method for input unit, program for input unit, and recording medium |
JP2016192221A (en) * | 2016-06-16 | 2016-11-10 | パイオニア株式会社 | Setting device, setting method of setting device, and program for setting device |
JP2020027349A (en) * | 2018-08-09 | 2020-02-20 | キヤノン株式会社 | Display control device, display control method, program and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009298285A (en) | Input device | |
JP5452566B2 (en) | Vehicle input device | |
CN104142768B (en) | The method of the touch-control of touch controlled type input unit and detection contact panel | |
JP5640486B2 (en) | Information display device | |
JP5905434B2 (en) | Operating device | |
US11132119B2 (en) | User interface and method for adapting a view of a display unit | |
WO2013136776A1 (en) | Gesture input operation processing device | |
JP5876013B2 (en) | Input device | |
JP2016009300A (en) | Vehicle input device and vehicle cockpit module | |
CN108170264A (en) | Vehicle user input control system and method | |
EP3067788A1 (en) | Vehicle display apparatus | |
ITUB20160367A1 (en) | STEERING DEVICE FOR A MOTOR VEHICLE, AS WELL AS THE PROCEDURE FOR DRIVING A STEERING DEVICE | |
JP2009301302A (en) | Gesture determination device | |
JP2009301300A (en) | Input device | |
JP2014153986A (en) | Display device and display method | |
US9069428B2 (en) | Method for the operator control of a matrix touchscreen | |
JP2018144582A (en) | On-vehicle apparatus operation device | |
WO2017047416A1 (en) | Operation detection device | |
JP2009301301A (en) | Input device and input method | |
WO2010122825A1 (en) | Mobile terminal | |
KR20140067813A (en) | An automobile | |
US20150346851A1 (en) | Manipulation apparatus and manipulation teaching method for manipulation apparatus | |
JP6350310B2 (en) | Operating device | |
JP2010009311A (en) | User interface device | |
JP2009301299A (en) | Gesture determination device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120529 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20121002 |