JP2009298285A - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP2009298285A
JP2009298285A JP2008154719A JP2008154719A JP2009298285A JP 2009298285 A JP2009298285 A JP 2009298285A JP 2008154719 A JP2008154719 A JP 2008154719A JP 2008154719 A JP2008154719 A JP 2008154719A JP 2009298285 A JP2009298285 A JP 2009298285A
Authority
JP
Japan
Prior art keywords
gesture
touch
input
touchpad
combination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008154719A
Other languages
Japanese (ja)
Inventor
Saori Miki
沙織 三木
Shuichi Takeuchi
修一 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2008154719A priority Critical patent/JP2009298285A/en
Publication of JP2009298285A publication Critical patent/JP2009298285A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device capable of inputting much information while holding the steering of a vehicle. <P>SOLUTION: The input device 3 substantially includes right and left right-back and left-back touch pads 30a-30d constituted of a plurality of touch sensors 31, a detection unit 32, a determination unit 33, and a vehicular ECU 100. The determination unit 33 selects the operation input based on the combination of two gestures detected by the right and right-back touch pads 30a, 30c, and the vehicular ECU 100 controls a car navigation device 4 based on the selected operation. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、入力装置に関する。   The present invention relates to an input device.

従来の技術として、車両のステアリングホイールのスポーク部に配置された操作リングを備えたスイッチ装置が知られている(例えば、特許文献1参照)。   As a conventional technique, a switch device including an operation ring disposed in a spoke portion of a steering wheel of a vehicle is known (for example, see Patent Document 1).

このスイッチ装置は、スポーク部の軸まわりに回転可能な操作リングを有し、操作リングは、操作者の回転操作を補助するための2つの操作部を有している。   This switch device has an operation ring that can rotate around the axis of the spoke part, and the operation ring has two operation parts for assisting the rotation operation of the operator.

操作者は、操作部を介して操作リングに対して回転操作を行うことによって、車両に搭載される電子機器の操作を行うことができる。
特開2004−74820号公報
An operator can operate an electronic device mounted on the vehicle by performing a rotation operation on the operation ring via the operation unit.
JP 2004-74820 A

しかし、従来のスイッチ装置によると、回転操作では入力する情報の数に限界があった。   However, according to the conventional switch device, there is a limit to the number of information to be input in the rotation operation.

従って本発明の目的は、車両のステアリングを把持した状態で多くの情報を入力することができる入力装置を提供することにある。   Accordingly, an object of the present invention is to provide an input device capable of inputting a large amount of information while gripping the steering of a vehicle.

(1)本発明は上記目的を達成するため、車両のステアリングを把持した状態で操作可能な位置に設けられ、それぞれが複数のタッチセンサからなる複数のタッチパッドと、前記複数のタッチパッドに入力されたタッチ操作を検出する検出部と検出された前記タッチ操作に基づいて入力されたジェスチャを判定する判定部と、判定された前記ジェスチャの組合せに基づいて被制御装置を制御する制御部と、を備えたことを特徴とする入力装置を提供する。 (1) In order to achieve the above object, the present invention is provided at a position where it can be operated while gripping the steering wheel of a vehicle, and a plurality of touch pads each composed of a plurality of touch sensors, and inputs to the plurality of touch pads. A detection unit that detects the touch operation that is performed, a determination unit that determines a gesture input based on the detected touch operation, a control unit that controls the controlled device based on the determined combination of gestures, An input device is provided.

(2)本発明は上記目的を達成するため、前記制御部は、前記組合せに基づいて前記被制御装置の表示部に表示される画像の拡大、縮小、及び所定の回転軸に対する回転を行うことを特徴とする前記(1)に記載の入力装置を提供する。 (2) In order to achieve the above object, the control unit performs enlargement / reduction of an image displayed on the display unit of the controlled device and rotation with respect to a predetermined rotation axis based on the combination. An input device according to (1) is provided.

(3)本発明は上記目的を達成するため、前記複数のタッチパッドは、前記ステアリングの表側と裏側に配置され、前記表側と前記裏側に配置された前記タッチパッドに対して同時かつ同方向にスライド操作を行うことによって前記被制御装置の表示部に表示される画像の拡大及び縮小を行うことを特徴とする前記(1)に記載の入力装置を提供する。 (3) In order to achieve the above object, the plurality of touch pads are arranged on the front side and the back side of the steering, and simultaneously and in the same direction with respect to the touch pads arranged on the front side and the back side. The input device according to (1), wherein the image displayed on the display unit of the controlled device is enlarged and reduced by performing a slide operation.

このような発明によれば、車両のステアリングを把持した状態で多くの情報を入力することができる。   According to such an invention, it is possible to input a lot of information while holding the steering of the vehicle.

以下に、本発明の入力装置の実施の形態を図面を参考にして詳細に説明する。   Embodiments of an input device according to the present invention will be described below in detail with reference to the drawings.

[実施の形態]
(車両の構成)
図1は、本発明の実施の形態に係る入力装置が搭載された車両内部の概略図であり、図2は、本発明の実施の形態に係るステアリング裏の概略図である。本発明の入力装置を車両に搭載した場合について説明する。なお、以下に説明する入力装置3は、右、左、右裏及び左裏タッチパッド30a〜30dを有しているが、少なくとも2つのタッチパッドの組合せであっても良い。
[Embodiment]
(Vehicle configuration)
FIG. 1 is a schematic diagram of the inside of a vehicle on which an input device according to an embodiment of the present invention is mounted, and FIG. 2 is a schematic diagram of the back of a steering wheel according to the embodiment of the present invention. A case where the input device of the present invention is mounted on a vehicle will be described. The input device 3 described below includes the right, left, right back, and left back touch pads 30a to 30d, but may be a combination of at least two touch pads.

車両1は、図1に示すように、操舵装置の一部であり、左右に回転操作することによって車両1の進行方向を変更することができるステアリング2と、ステアリング2の本体部20の運転者側(表側)に設けられた右及び左タッチパッド30a、30bと、図2に示す本体部20の裏側に設けられた右裏及び左裏タッチパッド30c、30dと、カーナビゲーション装置(被制御装置)4と、を備えて概略構成されている。   As shown in FIG. 1, the vehicle 1 is a part of a steering device, and a steering wheel 2 that can change the traveling direction of the vehicle 1 by rotating left and right, and a driver of a main body 20 of the steering wheel 2. Right and left touchpads 30a and 30b provided on the side (front side), right and left touchpads 30c and 30d provided on the back side of the main body 20 shown in FIG. 2, car navigation device (controlled device) ) 4.

ステアリング2は、図示しないステアリングシャフトと接続され、各種スイッチ類が配置された本体部20と、運転者が把持する部分であり、リング形状を有するステアリングホイール21と、を備えて概略構成されている。   The steering 2 is connected to a steering shaft (not shown) and includes a main body 20 on which various switches are arranged, and a steering wheel 21 having a ring shape, which is a portion that is gripped by the driver. .

(入力装置の構成)
図3は、本発明の実施の形態に係る入力装置に関するブロック図である。この入力装置3は、主に、右及び左タッチパッド30a、30bと、右裏及び左裏タッチパッド30c、30dと、検出部32と、判定部33と、制御部としての車両ECU(Electronic Control Unit)100と、を備えて概略構成されている。
(Configuration of input device)
FIG. 3 is a block diagram relating to the input device according to the embodiment of the present invention. The input device 3 mainly includes right and left touch pads 30a and 30b, right and left back touch pads 30c and 30d, a detection unit 32, a determination unit 33, and a vehicle ECU (Electronic Control) as a control unit. Unit) 100 and is schematically configured.

また入力装置3は、図3に示すように、ジェスチャ辞書340と、タッチ座標群341と、組合せ情報342と、を記憶する記憶部34を備えている。   Further, as illustrated in FIG. 3, the input device 3 includes a storage unit 34 that stores a gesture dictionary 340, a touch coordinate group 341, and combination information 342.

車両ECU100は、被制御装置の一例としてのカーナビゲーション装置4に接続されている。   The vehicle ECU 100 is connected to a car navigation device 4 as an example of a controlled device.

カーナビゲーション装置4は、表示部としての表示画面40を有し、表示画面40には、選択可能な各種メニューや地図等の画像が表示される。   The car navigation device 4 has a display screen 40 as a display unit, and various images such as selectable menus and maps are displayed on the display screen 40.

(検出部について)
検出部32は、図3に示すように、一例として、各右、左、右裏及び左裏タッチパッド30a〜30dの左上から右へと順番にタッチセンサ31を走査してオン・オフ状態の読出しを所定の周期(一例として16ms)によって行うものとする。なお、右、左、右裏及び左裏タッチパッド30a〜30dは、オン・オフ状態の読出しは、左上から開始するが、表示画面40との対応から、図3に示すように、左下を原点とし、水平方向をX軸、垂直方向をY軸としたX−Y座標系が設定されるものとする。
(About the detector)
As illustrated in FIG. 3, the detection unit 32 scans the touch sensor 31 in order from the upper left to the right of each of the right, left, right back, and left back touch pads 30 a to 30 d and turns them on and off. It is assumed that reading is performed at a predetermined cycle (16 ms as an example). The right, left, right back and left back touchpads 30a to 30d start reading from the on / off state from the upper left, but from the correspondence with the display screen 40, as shown in FIG. The XY coordinate system is set with the horizontal direction as the X axis and the vertical direction as the Y axis.

検出部32は、後述するタッチ座標の算出を1周期毎に行うものとし、所定の期間におけるタッチ座標の軌跡(以下タッチ座標群341と呼ぶ)を記憶部34に記憶するものとする。   It is assumed that the detection unit 32 performs calculation of touch coordinates, which will be described later, for each cycle, and stores a locus of touch coordinates (hereinafter referred to as a touch coordinate group 341) in a predetermined period in the storage unit 34.

ここでタッチ座標とは、ある周期において、オン判定されたタッチセンサ31に基づいて算出される座標のことであり、例えば、タッチセンサ31に座標を割り当て、オン判定されたタッチセンサ31の座標の平均をとってタッチ座標とする方法や、オン判定されたタッチセンサ31に重み関数を持たせ、タッチセンサ31の数以上の分解能を持たせた方法等による公知の方法によって算出される。一例として、このタッチ座標を所定の期間記憶し、タッチ座標群341を生成することによってタッチ座標の軌跡が得られ、その軌跡に基づいてジェスチャが判定される。   Here, the touch coordinates are coordinates calculated based on the touch sensor 31 determined to be on in a certain cycle. For example, coordinates are assigned to the touch sensor 31 and the coordinates of the touch sensor 31 determined to be on are determined. It is calculated by a known method such as a method of taking an average to obtain touch coordinates, or a method of giving a weight function to the touch sensor 31 determined to be on and having a resolution equal to or greater than the number of touch sensors 31. As an example, the touch coordinates are stored for a predetermined period, and a touch coordinate group 341 is generated to obtain a touch coordinate path, and a gesture is determined based on the path.

なお、所定の期間は、例えば、全てのタッチセンサ31の中で初めてオン判定が検出されてから全てがオフ判定となるまでの期間であっても良く、しきい値を設け、そのしきい値内の期間としても良く、これに限定されない。   The predetermined period may be, for example, a period from when the on determination is detected for the first time among all the touch sensors 31 until all are determined to be off. The period may be within, but is not limited thereto.

(判定部について) (About judgment part)

判定部33は、一例として、検出部32によって算出されたタッチ座標群341に基づいて記憶部34に記憶されたジェスチャ辞書340を参照し、入力されたジェスチャの判定を行う。   As an example, the determination unit 33 refers to the gesture dictionary 340 stored in the storage unit 34 based on the touch coordinate group 341 calculated by the detection unit 32 and determines the input gesture.

ジェスチャ辞書340は、一例として、所定のジェスチャに対応するジェスチャパターンを所定の間隔で分割した点列が、順番(所定の順番)と共に登録されている。   In the gesture dictionary 340, for example, a point sequence obtained by dividing a gesture pattern corresponding to a predetermined gesture at a predetermined interval is registered together with an order (predetermined order).

判定部33は、一例として、運転者のジェスチャに基づいて算出されたタッチ座標と、順番が合致するジェスチャパターンの点との距離に基づいてジェスチャを判定する。   For example, the determination unit 33 determines the gesture based on the distance between the touch coordinates calculated based on the driver's gesture and the point of the gesture pattern that matches the order.

なお、ジェスチャの判定方法は、上記に限定されず、パターンマッチング等の公知の形状認識方法によって判定しても良い。   The gesture determination method is not limited to the above, and may be determined by a known shape recognition method such as pattern matching.

(タッチセンサ31について)
図4は、本発明の実施の形態に係るタッチセンサの断面図である。なお、同図は、右タッチパッド30aを示すが、他のタッチパッド30b〜30dも右タッチパッド30aと同様に構成されている。
(About touch sensor 31)
FIG. 4 is a cross-sectional view of the touch sensor according to the embodiment of the present invention. Although the figure shows the right touch pad 30a, the other touch pads 30b to 30d are configured in the same manner as the right touch pad 30a.

タッチセンサ31は、一例として、手指によるタッチ操作に応じた静電容量の変化に基づいてオン・オフ状態を判断し、オン状態の時は「1」を、オフ状態の時は「0」を示す信号を外部に出力するようにIC(Integrated Circuit)化されているものとする。なお、検出部32によって各電極311の静電容量を直接読み出すように構成されても良い。   As an example, the touch sensor 31 determines an on / off state based on a change in capacitance according to a touch operation with a finger, and sets “1” in the on state and “0” in the off state. It is assumed that an integrated circuit (IC) is formed so that the signal shown is output to the outside. Note that the capacitance of each electrode 311 may be directly read by the detection unit 32.

右、左、右裏及び左裏タッチパッド30a〜30dは、樹脂等の絶縁部材によって形成された本体310と、銅等の導電体によって本体310上に形成された電極311と、電極311を保護するため、本体310上に形成された保護膜としての塗装膜312と、を備え、一例として、電極311を8行8列として格子状に並べて本体310上に形成したものである。   The right, left, right back and left back touch pads 30a to 30d protect the main body 310 formed of an insulating member such as resin, the electrode 311 formed on the main body 310 by a conductor such as copper, and the electrode 311. Therefore, a coating film 312 as a protective film formed on the main body 310 is provided, and as an example, the electrodes 311 are arranged on the main body 310 in 8 rows and 8 columns in a grid pattern.

電極311は、一例として、検出部32が有するアナログスイッチであるマルチプレクサにそれぞれが接続され、検出部32は、マルチプレクサを介して所定の周期でオン・オフ状態の読み出しを行っている。   As an example, each of the electrodes 311 is connected to a multiplexer that is an analog switch included in the detection unit 32, and the detection unit 32 reads out the on / off state at a predetermined cycle via the multiplexer.

運転者は、この右、左、右裏及び左裏タッチパッド30a〜30dに対してタッチ操作に基づくジェスチャの入力を行うことによって被制御装置に割り当てられた所定のコマンドを入力することができるものとする。   A driver can input a predetermined command assigned to the controlled device by inputting a gesture based on a touch operation to the right, left, right back and left back touch pads 30a to 30d. And

なお、タッチ操作は、この右、左、右裏及び左裏タッチパッド30a〜30dに直接接触する操作のことを指すが、タッチセンサ31の静電容量が、接触有りと判断されるに十分な変化を行う場合もタッチ操作に含めるものとする。   The touch operation refers to an operation of directly touching the right, left, right back, and left back touch pads 30a to 30d, but the capacitance of the touch sensor 31 is sufficient to determine that there is contact. A change is also included in the touch operation.

(カーナビゲーション装置の構成)
図5は、本発明の実施の形態に係る表示画面の構成を示す概略図である。カーナビゲーション装置4は、表示部としての表示画面40を有し、表示画面40には、画像41が表示される。
(Configuration of car navigation system)
FIG. 5 is a schematic diagram showing the configuration of the display screen according to the embodiment of the present invention. The car navigation device 4 has a display screen 40 as a display unit, and an image 41 is displayed on the display screen 40.

このカーナビゲーション装置4は、図5に示すように、地図を鳥瞰図として表示する機能を有しており、図5に示す、X軸(所定の回転軸)回りの回転を示す「ピッチ」、Y軸(所定の回転軸)回りの回転を示す[ロール]、Z軸(所定の回転軸)回りの回転を示す「ヨー」に基づいて地図が回転表示されるものとする。   As shown in FIG. 5, the car navigation device 4 has a function of displaying a map as a bird's eye view. As shown in FIG. 5, a “pitch” indicating rotation around the X axis (predetermined rotation axis), Y It is assumed that the map is rotated and displayed based on [roll] indicating rotation around the axis (predetermined rotation axis) and “yaw” indicating rotation around the Z axis (predetermined rotation axis).

(動作)
以下に、本実施の形態における入力装置の動作を各図を参照して詳細に説明する。
(Operation)
Hereinafter, the operation of the input device according to the present embodiment will be described in detail with reference to the drawings.

(スライド操作について)
図6(a)は、本発明の実施の形態に係るスライド操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、図6(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。以下において、ステアリング2の右側の表側と裏側に設けられた右及び右裏タッチセンサ30a、30cに対するジェスチャの入力について説明するが、タッチパッドの組合せはこれに限定されず、右、左、右裏及び左裏タッチパッド30a〜30dの少なくとも2つを組み合わせて用いても良い。
(About slide operation)
FIG. 6A is a schematic diagram illustrating a gesture input to the right touchpad during a slide operation according to the embodiment of the present invention, and FIG. 6B illustrates a gesture input to the right back touchpad. FIG. In the following, input of gestures to the right and right back touch sensors 30a, 30c provided on the right front side and the back side of the steering wheel 2 will be described. Further, at least two of the left back touch pads 30a to 30d may be used in combination.

また、図6〜図11に示す右裏タッチパッド30cは、図2に示す方向から見た図である。   Moreover, the right back touchpad 30c shown in FIGS. 6-11 is the figure seen from the direction shown in FIG.

運転者は、ステアリングホイール21を把持し、一例として右手親指によって図6(a)に示す右上ジェスチャ50を右タッチパッド30aに入力する。このとき、右手の他の指は、図6(b)に示すように右裏タッチパッド30cに触れていないものとする。   The driver holds the steering wheel 21, and inputs the upper right gesture 50 shown in FIG. 6A to the right touch pad 30a with the right thumb as an example. At this time, it is assumed that the other finger of the right hand does not touch the right back touchpad 30c as shown in FIG.

検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。   The detection unit 32 scans the right, left, right back, and left back touch pads 30a to 30d at a predetermined cycle to generate a touch coordinate group 341.

判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、右タッチパッド30aに、図6(a)に示す右上ジェスチャ50が入力されたと判定する。   The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the storage unit 34, and determines that the upper right gesture 50 illustrated in FIG. 6A is input to the right touch pad 30a. To do.

続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右及び右裏タッチパッド30a、30cに入力されたジェスチャの組合せによるコマンドを選択する。   Subsequently, based on the combination information 342 stored in the storage unit 34, the determination unit 33 selects a command based on a combination of gestures input to the right and right back touch pads 30a and 30c.

判定部33は、右タッチパッド30aが右上ジェスチャ50、右裏タッチパッド30cがジェスチャなしの組合せであることから、スライド操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41をジェスチャの方向にスライドさせる。   The determination unit 33 determines that the right touchpad 30a is a combination of the upper right gesture 50 and the right back touchpad 30c does not have a gesture, and thus determines that the operation is a slide operation. The vehicle ECU 100 controls the car navigation device 4 based on the determination. 5 is slid in the direction of the gesture.

なお、ジェスチャの方向は、図6(a)に示す右上ジェスチャ50に限定されず、右裏タッチパッド30cに指が触れていないときは、車両ECU100は、カーナビゲーション装置4を制御し、ジェスチャの方向に従って画像41をスライドさせるものとする。   Note that the direction of the gesture is not limited to the upper right gesture 50 shown in FIG. 6A. When the finger is not touching the right back touch pad 30c, the vehicle ECU 100 controls the car navigation device 4 to change the gesture direction. It is assumed that the image 41 is slid according to the direction.

(拡大操作について)
図7(a)は、本発明の実施の形態に係る拡大操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、図7(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。
(About enlargement operation)
FIG. 7A is a schematic diagram illustrating a gesture input to the right touchpad during an enlargement operation according to the embodiment of the present invention, and FIG. 7B illustrates a gesture input to the right back touchpad. FIG.

運転者は、ステアリングホイール21を把持し、一例として右手親指によって図7(a)に示す押下ジェスチャ51を右タッチパッド30aに入力する。このとき、右手の他の指は、図7(b)に示すように右裏タッチパッド30cに触れていないものとする。   The driver grips the steering wheel 21 and inputs a press gesture 51 shown in FIG. 7A to the right touch pad 30a with the right thumb as an example. At this time, it is assumed that the other finger of the right hand does not touch the right back touchpad 30c as shown in FIG.

なお、押下ジェスチャ51とは、例えば、右タッチパッド30aに対する接触位置が、所定の期間変化しないジェスチャを指すものとする。   Note that the press gesture 51 is, for example, a gesture in which the position of contact with the right touchpad 30a does not change for a predetermined period.

検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。   The detection unit 32 scans the right, left, right back, and left back touch pads 30a to 30d at a predetermined cycle to generate a touch coordinate group 341.

判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、右タッチパッド30aに、図7(a)に示す押下ジェスチャ51が入力されたと判定する。   The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the storage unit 34, and determines that the press gesture 51 illustrated in FIG. 7A is input to the right touch pad 30a. To do.

続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右及び右裏タッチパッド30a、30cに入力されたジェスチャの組合せによるコマンドを選択する。   Subsequently, based on the combination information 342 stored in the storage unit 34, the determination unit 33 selects a command based on a combination of gestures input to the right and right back touch pads 30a and 30c.

判定部33は、右タッチパッド30aが押下ジェスチャ51、右裏タッチパッド30cがジェスチャなしの組合せであることから、拡大操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41を拡大表示させる。   The determination unit 33 determines that the right touchpad 30a is a combination of pressing gesture 51 and the right back touchpad 30c has no gesture, and therefore determines that the operation is an enlargement operation. The vehicle ECU 100 controls the car navigation device 4 based on the determination. The image 41 shown in FIG.

(縮小操作について)
図8(a)は、本発明の実施の形態に係る縮小操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、図8(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。
(About reduction operation)
FIG. 8A is a schematic diagram illustrating a gesture input to the right touchpad during the reduction operation according to the embodiment of the present invention, and FIG. 8B illustrates a gesture input to the right back touchpad. FIG.

運転者は、ステアリングホイール21を把持し、一例として右手人差し指等によって図8(b)に示す押下ジェスチャ51を右裏タッチパッド30cに入力する。このとき、右手の親指は、図8(a)に示すように右タッチパッド30aに触れていないものとする。   The driver grips the steering wheel 21 and inputs a pressing gesture 51 shown in FIG. 8B to the right back touchpad 30c with a right index finger or the like as an example. At this time, it is assumed that the thumb of the right hand does not touch the right touch pad 30a as shown in FIG.

検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。   The detection unit 32 scans the right, left, right back, and left back touch pads 30a to 30d at a predetermined cycle to generate a touch coordinate group 341.

判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、右裏タッチパッド30cに、図8(b)に示す押下ジェスチャ51が入力されたと判定する。   The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the storage unit 34, and the pressing gesture 51 illustrated in FIG. 8B is input to the right back touch pad 30c. judge.

続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右及び右裏タッチパッド30a、30cに入力されたジェスチャの組合せによるコマンドを選択する。   Subsequently, based on the combination information 342 stored in the storage unit 34, the determination unit 33 selects a command based on a combination of gestures input to the right and right back touch pads 30a and 30c.

判定部33は、右タッチパッド30aがジェスチャなし、右裏タッチパッド30cが押下ジェスチャ51の組合せであることから、縮小操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41を縮小表示させる。   The determination unit 33 determines that the right touchpad 30a has no gesture and the right back touchpad 30c is a combination of the press gesture 51, so that the reduction operation is determined. The vehicle ECU 100 controls the car navigation device 4 based on the determination. The image 41 shown in FIG.

(ピッチ操作について)
図9(a)は、本発明の実施の形態に係るピッチ操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、図9(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。
(About pitch operation)
FIG. 9A is a schematic diagram illustrating a gesture input to the right touchpad during pitch operation according to the embodiment of the present invention, and FIG. 9B illustrates a gesture input to the right back touchpad. FIG.

運転者は、ステアリングホイール21を把持し、一例として、右手親指によって図9(a)に示す上ジェスチャ52を右タッチパッド30aに、右手他の指によって図9(b)に示す下ジェスチャ53を右裏タッチパッド30cに同時に入力する。この2つのジェスチャは、2つの指によって物を掴んで捻る動作を模している。   The driver holds the steering wheel 21, and as an example, the upper gesture 52 shown in FIG. 9A is applied to the right touch pad 30a by the right thumb, and the lower gesture 53 shown in FIG. Simultaneously input to the right back touchpad 30c. These two gestures mimic the action of grasping and twisting an object with two fingers.

検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。   The detection unit 32 scans the right, left, right back, and left back touch pads 30a to 30d at a predetermined cycle to generate a touch coordinate group 341.

判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、右タッチパッド30aに、図9(a)に示す上ジェスチャ52が、右裏タッチパッド30cに、図9(b)に示す下ジェスチャ53が入力されたと判定する。   The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the storage unit 34, and the upper gesture 52 shown in FIG. 9A is touched to the right touchpad 30a. It is determined that the lower gesture 53 shown in FIG. 9B is input to the pad 30c.

続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右及び右裏タッチパッド30a、30cに入力されたジェスチャの組合せによるコマンドを選択する。   Subsequently, based on the combination information 342 stored in the storage unit 34, the determination unit 33 selects a command based on a combination of gestures input to the right and right back touch pads 30a and 30c.

判定部33は、右タッチパッド30aが上ジェスチャ52、右裏タッチパッド30cが下ジェスチャ53の組合せであることから、ピッチ操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41をX軸回りに矢印A方向に回転表示させる。   The determination unit 33 determines the pitch operation because the right touchpad 30a is a combination of the upper gesture 52 and the right back touchpad 30c is the lower gesture 53, and the vehicle ECU 100 controls the car navigation device 4 based on the determination. Then, the image 41 shown in FIG. 5 is rotated and displayed in the arrow A direction around the X axis.

また運転者が、図9(a)及び(b)に示すように、右タッチパッド30aに下ジェスチャ53を、右裏タッチパッド30cに上ジェスチャ52を入力したときは、上記のジェスチャの反対であることから、車両ECU100は、カーナビゲーション装置4を制御して図5に示す矢印A方向とは反対方向に回転表示させる。   9A and 9B, when the driver inputs the lower gesture 53 to the right touch pad 30a and the upper gesture 52 to the right back touch pad 30c, the opposite of the above gesture. Therefore, the vehicle ECU 100 controls the car navigation device 4 to rotate and display in the direction opposite to the arrow A direction shown in FIG.

(ロール操作について)
図10(a)は、本発明の実施の形態に係るロール操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、図10(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。
(About roll operation)
FIG. 10A is a schematic diagram illustrating a gesture input to the right touchpad during a roll operation according to the embodiment of the present invention, and FIG. 10B illustrates a gesture input to the right back touchpad. FIG.

運転者は、ステアリングホイール21を把持し、一例として、右手親指によって図10(a)に示す左ジェスチャ54を右タッチパッド30aに、右手他の指によって図10(b)に示す右ジェスチャ55を右裏タッチパッド30cに同時に入力する。この2つのジェスチャは、2つの指によって物を掴んで捻る動作を模している。   The driver holds the steering wheel 21, and as an example, the left gesture 54 shown in FIG. 10 (a) is applied to the right touchpad 30a with the thumb of the right hand, and the right gesture 55 shown in FIG. Simultaneously input to the right back touchpad 30c. These two gestures mimic the action of grasping and twisting an object with two fingers.

検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。   The detection unit 32 scans the right, left, right back, and left back touch pads 30a to 30d at a predetermined cycle to generate a touch coordinate group 341.

判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、右タッチパッド30aに、図10(a)に示す左ジェスチャ54が、右裏タッチパッド30cに、図10(b)に示す右ジェスチャ55が入力されたと判定する。   The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the storage unit 34, and the left gesture 54 shown in FIG. 10A is touched to the right touchpad 30a. It is determined that the right gesture 55 shown in FIG. 10B is input to the pad 30c.

続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右及び右裏タッチパッド30a、30cに入力されたジェスチャの組合せによるコマンドを選択する。   Subsequently, based on the combination information 342 stored in the storage unit 34, the determination unit 33 selects a command based on a combination of gestures input to the right and right back touch pads 30a and 30c.

判定部33は、右タッチパッド30aが左ジェスチャ54、右裏タッチパッド30cが右ジェスチャ55の組合せであることから、ロール操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41をY軸回りに矢印B方向に回転表示させる。   Since the right touchpad 30a is a combination of the left gesture 54 and the right back touchpad 30c is a combination of the right gesture 55, the determination unit 33 determines a roll operation, and the vehicle ECU 100 controls the car navigation device 4 based on the determination. Then, the image 41 shown in FIG. 5 is rotated and displayed in the arrow B direction around the Y axis.

また運転者が、図10(a)及び(b)に示すように、右タッチパッド30aに右ジェスチャ55を、右裏タッチパッド30cに左ジェスチャ54を入力したときは、上記のジェスチャの反対であることから、車両ECU100は、カーナビゲーション装置4を制御して図5に示す矢印B方向とは反対方向に回転表示させる。   When the driver inputs the right gesture 55 to the right touch pad 30a and the left gesture 54 to the right back touch pad 30c, as shown in FIGS. Therefore, the vehicle ECU 100 controls the car navigation device 4 to rotate and display in the direction opposite to the arrow B direction shown in FIG.

(ヨー操作について)
図11(a)は、本発明の実施の形態に係るヨー操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、図11(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。
(About yaw operation)
FIG. 11A is a schematic diagram illustrating a gesture input to the right touchpad during a yaw operation according to the embodiment of the present invention, and FIG. 11B illustrates a gesture input to the right back touchpad. FIG.

運転者は、ステアリングホイール21を把持し、一例として、右手親指によって図11(a)に示す左回転ジェスチャ56を右タッチパッド30aに、右手他の指によって図11(b)に示す押下ジェスチャ51を右裏タッチパッド30cに同時に入力する。   The driver holds the steering wheel 21, and as an example, the left rotation gesture 56 shown in FIG. 11 (a) is applied to the right touchpad 30a by the right thumb and the press gesture 51 shown in FIG. 11 (b) by the other finger of the right hand. Are simultaneously input to the right back touchpad 30c.

検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。   The detection unit 32 scans the right, left, right back, and left back touch pads 30a to 30d at a predetermined cycle to generate a touch coordinate group 341.

判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、右タッチパッド30aに、図11(a)に示す左回転ジェスチャ56が、右裏タッチパッド30cに、図11(b)に示す押下ジェスチャ51が入力されたと判定する。   The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the storage unit 34, and the left rotation gesture 56 shown in FIG. It is determined that the press gesture 51 illustrated in FIG. 11B is input to the touch pad 30c.

続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右及び右裏タッチパッド30a、30cに入力されたジェスチャの組合せによるコマンドを選択する。   Subsequently, based on the combination information 342 stored in the storage unit 34, the determination unit 33 selects a command based on a combination of gestures input to the right and right back touch pads 30a and 30c.

判定部33は、右タッチパッド30aが左回転ジェスチャ56、右裏タッチパッド30cが押下ジェスチャ51の組合せであることから、ヨー操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41をZ軸回りに矢印C方向に回転表示させる。   The determination unit 33 determines the yaw operation because the right touchpad 30a is a combination of the left rotation gesture 56 and the right back touchpad 30c is the press gesture 51, and the vehicle ECU 100 determines the car navigation device 4 based on the determination. The image 41 shown in FIG. 5 is rotated and displayed in the direction of arrow C around the Z axis.

また運転者が、図11(a)及び(b)に示すように、右タッチパッド30aに右回転ジェスチャ57を、右裏タッチパッド30cに押下ジェスチャ51を入力したときは、上記のジェスチャの反対であることから、車両ECU100は、カーナビゲーション装置4を制御して図5に示す矢印C方向とは反対方向に画像41を回転表示させる。   11A and 11B, when the driver inputs the right rotation gesture 57 to the right touch pad 30a and the press gesture 51 to the right back touch pad 30c, the opposite of the above gesture. Therefore, the vehicle ECU 100 controls the car navigation device 4 to rotate and display the image 41 in the direction opposite to the arrow C direction shown in FIG.

(他の拡大・縮小操作方法について)
図12は、本発明の実施の形態に係る拡大・縮小ジェスチャに関する概略図であり、図13(a)は、本発明の実施の形態に係る図5に示す画像の拡大画像の概略図であり、図13(b)は、図5に示す画像の縮小画像の概略図である。運転者が、両手によって右、左、右裏及び左裏タッチパッド30a〜30dに対してジェスチャを入力する場合について説明する。
(Other enlargement / reduction operation methods)
12 is a schematic diagram relating to an enlargement / reduction gesture according to the embodiment of the present invention, and FIG. 13A is a schematic diagram of an enlarged image of the image shown in FIG. 5 according to the embodiment of the present invention. FIG. 13B is a schematic diagram of a reduced image of the image shown in FIG. A case where the driver inputs a gesture to the right, left, right back and left back touch pads 30a to 30d with both hands will be described.

運転者は、ステアリングホイール21を把持し、一例として右手親指によって図12に示す右ジェスチャ55を右タッチパッド30aに、左手親指によって左ジェスチャ54を左タッチパッド30bに、右手の他の指によって左ジェスチャ54を右裏タッチパッド30cに、左手の他の指によって右ジェスチャ55を左裏タッチパッド30dに同時に入力する。   The driver grasps the steering wheel 21 and, as an example, the right gesture 55 shown in FIG. 12 is applied to the right touchpad 30a with the right thumb, the left gesture 54 is applied to the left touchpad 30b with the left thumb, and the left with the other fingers of the right hand. The gesture 54 is input to the right back touchpad 30c, and the right gesture 55 is simultaneously input to the left back touchpad 30d with the other finger of the left hand.

この動作は、右、左、右裏及び左裏タッチパッド30a〜30dを両手で摘んで、ステアリング2の外方向にスライドさせる動作であるが、地図を両手で持ち、良く見るために地図を顔に近づける動作に近い動作となっている。   This operation is an operation of picking the right, left, right back and left back touchpads 30a-30d with both hands and sliding them outward of the steering wheel 2. Hold the map with both hands and face the map to see it well. The operation is close to the operation of approaching.

検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。   The detection unit 32 scans the right, left, right back, and left back touch pads 30a to 30d at a predetermined cycle to generate a touch coordinate group 341.

判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、上記したジェスチャが入力されたと判定する。   The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the storage unit 34, and determines that the above-described gesture has been input.

続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右、左、右裏及び左裏タッチパッド30a〜30dに入力されたジェスチャの組合せによるコマンドを選択する。   Subsequently, based on the combination information 342 stored in the storage unit 34, the determination unit 33 selects a command based on a combination of gestures input to the right, left, right back, and left back touch pads 30a to 30d.

判定部33は、上記した組合せであることから、拡大操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41を図13(a)に示す拡大画像42として表示画面40に表示させる。   The determination unit 33 determines that the operation is an enlargement operation because of the above-described combination, and the vehicle ECU 100 controls the car navigation device 4 based on the determination to display the image 41 illustrated in FIG. 5 as illustrated in FIG. The image 42 is displayed on the display screen 40.

また運転者は、ステアリングホイール21を把持し、一例として右手親指によって図12に示す左ジェスチャ54を右タッチパッド30aに、左手親指によって右ジェスチャ55を左タッチパッド30bに、右手の他の指によって右ジェスチャ55を右裏タッチパッド30cに、左手の他の指によって左ジェスチャ54を左裏タッチパッド30dに同時に入力する。   Further, the driver holds the steering wheel 21, and by way of example, the left gesture 54 shown in FIG. 12 is applied to the right touchpad 30a by the right thumb, the right gesture 55 is applied to the left touchpad 30b by the left thumb, and the other finger of the right hand is used. The right gesture 55 is simultaneously input to the right back touch pad 30c, and the left gesture 54 is simultaneously input to the left back touch pad 30d by the other finger of the left hand.

この動作は、右、左、右裏及び左裏タッチパッド30a〜30dを両手で摘んで、ステアリング2の内方向にスライドさせる動作であるが、地図を両手で持ち、地図全体を良く見るために地図を顔から遠ざける動作に近い動作となっている。   This operation is an operation in which the right, left, right back and left back touch pads 30a to 30d are picked with both hands and slid inward of the steering wheel 2. In order to hold the map with both hands and to see the entire map well The operation is close to moving the map away from the face.

検出部32は、各右、左、右裏及び左裏タッチパッド30a〜30dに対して所定の周期で走査を行い、タッチ座標群341を生成する。   The detection unit 32 scans the right, left, right back, and left back touch pads 30a to 30d at a predetermined cycle to generate a touch coordinate group 341.

判定部33は、記憶部34に記憶されたタッチ座標群341とジェスチャ辞書340とに基づいてジェスチャを判定し、上記したジェスチャが入力されたと判定する。   The determination unit 33 determines a gesture based on the touch coordinate group 341 and the gesture dictionary 340 stored in the storage unit 34, and determines that the above-described gesture has been input.

続いて判定部33は、記憶部34に記憶された組合せ情報342に基づいて、右、左、右裏及び左裏タッチパッド30a〜30dに入力されたジェスチャの組合せによるコマンドを選択する。   Subsequently, based on the combination information 342 stored in the storage unit 34, the determination unit 33 selects a command based on a combination of gestures input to the right, left, right back, and left back touch pads 30a to 30d.

判定部33は、上記した組合せであることから、縮小操作と判定し、車両ECU100は、判定に基づいてカーナビゲーション装置4を制御して図5に示す画像41を図13(b)に示す縮小画像43として表示画面40に表示させる。   The determination unit 33 determines that the operation is a reduction operation because of the above combination, and the vehicle ECU 100 controls the car navigation device 4 based on the determination to reduce the image 41 illustrated in FIG. 5 to the reduction illustrated in FIG. The image 43 is displayed on the display screen 40.

(効果)
(1)上記した実施の形態における入力装置3によれば、被制御装置の操作を2つのタッチパッドに入力されたジェスチャの組合せによって行うことができるので、車両のステアリングを把持した状態で多くの情報を入力することができる。
(effect)
(1) According to the input device 3 in the above-described embodiment, the controlled device can be operated by a combination of gestures input to the two touchpads. Information can be entered.

(2)上記した実施の形態における入力装置3によれば、被制御装置の操作を2つのタッチパッドに入力されたジェスチャの組合せによって行うことができるので、複数のスイッチを必要とせず、操作時の視線移動を抑えることができる。 (2) According to the input device 3 in the above-described embodiment, the controlled device can be operated by a combination of gestures input to the two touchpads. Can be suppressed.

(3)上記した実施の形態における入力装置3によれば、被制御装置に表示された地図の拡大・縮小のみならず、ピッチ操作、ロール操作及びヨー操作といった操作を2つのタッチパッドに入力されたジェスチャの組合せによって行うことができる。 (3) According to the input device 3 in the above-described embodiment, not only enlargement / reduction of the map displayed on the controlled device but also operations such as pitch operation, roll operation, and yaw operation are input to the two touch pads. Can be done by a combination of gestures.

(4)上記した実施の形態における入力装置3によれば、被制御装置に表示された地図の拡大・縮小の操作を右、左、右裏及び左裏タッチパッド30a〜30dを同時に摘んで外又は内方向にスライドさせることによって行うことができるので、直感的で操作性が向上する。 (4) According to the input device 3 in the above-described embodiment, the operation of enlarging / reducing the map displayed on the controlled device is performed by simultaneously grasping the right, left, right back and left back touchpads 30a to 30d. Alternatively, since it can be performed by sliding inward, it is intuitive and operability is improved.

(他の実施の形態について)
(1)上記した実施の形態における入力装置3は、2つのタッチパッドの組合せでジェスチャに基づいた操作を選択したが、4つのタッチパッドを2つの組に分け、それぞれに入力されたジェスチャに基づいて2つの操作、例えば、拡大操作とロール操作を同時に行うようにしても良い。
(About other embodiments)
(1) Although the input device 3 in the above-described embodiment has selected the operation based on the gesture with the combination of the two touchpads, the four touchpads are divided into two sets, and each is based on the input gesture. Two operations, for example, an enlargement operation and a roll operation may be performed simultaneously.

(2)上記した実施の形態における入力装置3は、2つのタッチパッドの組合せでジェスチャに基づいた操作を選択したが、2つ以上のタッチパッドを組合せても良い。 (2) Although the input device 3 in the above-described embodiment has selected an operation based on a gesture by combining two touch pads, two or more touch pads may be combined.

(3)上記した実施の形態における入力装置3は、図6〜図11に示すジェスチャの組合せに基づいて操作を選択したが、ジェスチャの組合せは、他の組合せでも良い。 (3) Although the input device 3 in the above-described embodiment selects an operation based on the combination of gestures illustrated in FIGS. 6 to 11, other combinations may be used as the combination of gestures.

(4)上記した実施の形態における入力装置3は、右、左、右裏及び左裏タッチパッド30a〜30dを構成するタッチセンサ31が8行8列に並べられていたが、これに限定されず、用途に応じて変更可能である。 (4) In the input device 3 in the above-described embodiment, the touch sensors 31 constituting the right, left, right back and left back touch pads 30a to 30d are arranged in 8 rows and 8 columns, but the present invention is not limited to this. However, it can be changed according to the application.

(5)上記した実施の形態における入力装置3は、被制御装置としてカーナビゲーション装置4を例にとったが、車両1に搭載されるエアコン装置、及びオーディオ装置等の電子機器の制御に用いられても良い。 (5) Although the input device 3 in the above-described embodiment takes the car navigation device 4 as an example of a controlled device, it is used for controlling electronic devices such as an air conditioner device and an audio device mounted on the vehicle 1. May be.

なお、本発明は、上記した実施の形態に限定されず、本発明の技術思想を逸脱あるいは変更しない範囲内で種々の変形が可能である。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from or changing the technical idea of the present invention.

本発明の実施の形態に係る入力装置が搭載された車両内部の概略図である。It is the schematic inside the vehicle by which the input device which concerns on embodiment of this invention is mounted. 本発明の実施の形態に係るステアリング裏の概略図である。It is the schematic of the steering back based on embodiment of this invention. 本発明の実施の形態に係る入力装置に関するブロック図である。It is a block diagram regarding the input device which concerns on embodiment of this invention. 本発明の実施の形態に係るタッチセンサの断面図である。It is sectional drawing of the touch sensor which concerns on embodiment of this invention. 本発明の実施の形態に係る表示画面の構成を示す概略図である。It is the schematic which shows the structure of the display screen which concerns on embodiment of this invention. (a)は、本発明の実施の形態に係るスライド操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。(A) is the schematic which shows the gesture input into the right touchpad at the time of the slide operation which concerns on embodiment of this invention, (b) is the schematic which shows the gesture input into the right back touchpad. is there. (a)は、本発明の実施の形態に係る拡大操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。(A) is the schematic which shows the gesture input into the right touchpad at the time of expansion operation which concerns on embodiment of this invention, (b) is the schematic which shows the gesture input into the right back touchpad is there. (a)は、本発明の実施の形態に係る縮小操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。(A) is the schematic which shows the gesture input into the right touchpad at the time of reduction operation which concerns on embodiment of this invention, (b) is the schematic which shows the gesture input into the right back touchpad. is there. (a)は、本発明の実施の形態に係るピッチ操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。(A) is the schematic which shows the gesture input into the right touchpad at the time of pitch operation which concerns on embodiment of this invention, (b) is the schematic which shows the gesture input into the right back touchpad. is there. (a)は、本発明の実施の形態に係るロール操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。(A) is schematic which shows the gesture input into the right touchpad at the time of roll operation which concerns on embodiment of this invention, (b) is schematic which shows the gesture input into the right back touchpad. is there. (a)は、本発明の実施の形態に係るヨー操作時に右タッチパッドに入力されたジェスチャを示す概略図であり、(b)は、右裏タッチパッドに入力されたジェスチャを示す概略図である。(A) is the schematic which shows the gesture input into the right touchpad at the time of yaw operation which concerns on embodiment of this invention, (b) is the schematic which shows the gesture input into the right back touchpad. is there. 本発明の実施の形態に係る拡大・縮小ジェスチャに関する概略図である。It is the schematic regarding the expansion / contraction gesture which concerns on embodiment of this invention. (a)は、本発明の実施の形態に係る図5に示す画像の拡大画像の概略図であり、(b)は、図5に示す画像の縮小画像の概略図である。(A) is the schematic of the enlarged image of the image shown in FIG. 5 which concerns on embodiment of this invention, (b) is the schematic of the reduction image of the image shown in FIG.

符号の説明Explanation of symbols

1…車両、2…ステアリング、3…入力装置、4…カーナビゲーション装置、20…本体部、21…ステアリングホイール、30a…右タッチパッド、30b…左タッチパッド、30c…右裏タッチパッド、30d…左裏タッチパッド、31…タッチセンサ、32…検出部、33…判定部、34…記憶部、40…表示画面、41…画像、42…拡大画像、43…縮小画像、50…右上ジェスチャ、51…押下ジェスチャ、52…上ジェスチャ、53…下ジェスチャ、54…左ジェスチャ、55…右ジェスチャ、56…左回転ジェスチャ、57…右回転ジェスチャ、310…本体、311…電極、312…塗装膜、340…ジェスチャ辞書、341…タッチ座標群、342…組合せ情報、100…車両ECU DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Steering, 3 ... Input device, 4 ... Car navigation apparatus, 20 ... Main part, 21 ... Steering wheel, 30a ... Right touch pad, 30b ... Left touch pad, 30c ... Right back touch pad, 30d ... Left back touchpad, 31 ... touch sensor, 32 ... detection unit, 33 ... determination unit, 34 ... storage unit, 40 ... display screen, 41 ... image, 42 ... enlarged image, 43 ... reduced image, 50 ... upper right gesture, 51 ... press gesture, 52 ... up gesture, 53 ... lower gesture, 54 ... left gesture, 55 ... right gesture, 56 ... left rotation gesture, 57 ... right rotation gesture, 310 ... main body, 311 ... electrode, 312 ... paint film, 340 ... Gesture dictionary, 341 ... Touch coordinate group, 342 ... Combination information, 100 ... Vehicle ECU

Claims (3)

車両のステアリングを把持した状態で操作可能な位置に設けられ、それぞれが複数のタッチセンサからなる複数のタッチパッドと、
前記複数のタッチパッドに入力されたタッチ操作を検出する検出部と、
検出された前記タッチ操作に基づいて入力されたジェスチャを判定する判定部と、
判定された前記ジェスチャの組合せに基づいて被制御装置を制御する制御部と、
を備えたことを特徴とする入力装置。
A plurality of touchpads provided at positions where the vehicle steering can be operated, each of which includes a plurality of touch sensors;
A detection unit for detecting a touch operation input to the plurality of touch pads;
A determination unit that determines an input gesture based on the detected touch operation;
A control unit that controls the controlled device based on the determined combination of gestures;
An input device comprising:
前記制御部は、前記組合せに基づいて前記被制御装置の表示部に表示される画像の拡大、縮小、及び所定の回転軸に対する回転を行うことを特徴とする請求項1に記載の入力装置。   The input device according to claim 1, wherein the control unit performs enlargement / reduction of an image displayed on the display unit of the controlled device and rotation with respect to a predetermined rotation axis based on the combination. 前記複数のタッチパッドは、前記ステアリングの表側と裏側に配置され、前記表側と前記裏側に配置された前記タッチパッドに対して同時かつ同方向にスライド操作を行うことによって前記被制御装置の表示部に表示される画像の拡大及び縮小を行うことを特徴とする請求項1に記載の入力装置。   The plurality of touch pads are arranged on the front side and the back side of the steering, and the display unit of the controlled device is configured to perform a sliding operation simultaneously and in the same direction on the touch pads arranged on the front side and the back side. The input device according to claim 1, wherein an image displayed on the screen is enlarged and reduced.
JP2008154719A 2008-06-12 2008-06-12 Input device Pending JP2009298285A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008154719A JP2009298285A (en) 2008-06-12 2008-06-12 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008154719A JP2009298285A (en) 2008-06-12 2008-06-12 Input device

Publications (1)

Publication Number Publication Date
JP2009298285A true JP2009298285A (en) 2009-12-24

Family

ID=41545643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008154719A Pending JP2009298285A (en) 2008-06-12 2008-06-12 Input device

Country Status (1)

Country Link
JP (1) JP2009298285A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186622A (en) * 2010-03-05 2011-09-22 Denso Corp Awakening support device
WO2012029558A1 (en) 2010-08-31 2012-03-08 日本精機株式会社 Input device
JP2012114884A (en) * 2010-11-29 2012-06-14 Yuhshin Co Ltd Antenna unit and door handle device equipped with same
JP2012173965A (en) * 2011-02-21 2012-09-10 Denso It Laboratory Inc Character input device, character input method, and program
DE102012204921A1 (en) 2011-03-30 2012-10-04 Honda Motor Co., Ltd. Vessel control apparatus
CN102866803A (en) * 2012-08-30 2013-01-09 浙江大学 Method and device for operating and controlling virtual center console of Blind-operation-supported automobile by gestures
EP2586642A1 (en) 2011-10-31 2013-05-01 Honda Motor Co., Ltd. Vehicle input apparatus
WO2013080774A1 (en) 2011-11-29 2013-06-06 日本精機株式会社 Vehicle operating device
CN103287346A (en) * 2012-02-22 2013-09-11 株式会社电装 Vehicular input apparatus
JP2013186858A (en) * 2012-03-12 2013-09-19 Pioneer Electronic Corp Input device, setting method for input device, program for input device, and recording medium
JP2013222224A (en) * 2012-04-12 2013-10-28 Denso Corp Control device and program
GB2501585A (en) * 2012-02-29 2013-10-30 Denso Corp A method for compensating a manipulation on a touch pad
JP2013235359A (en) * 2012-05-08 2013-11-21 Tokai Rika Co Ltd Information processor and input device
JP2014019442A (en) * 2012-07-20 2014-02-03 Robert Bosch Gmbh Motorcycle handlebar device including grip monitor
JP2014029576A (en) * 2012-07-31 2014-02-13 Nippon Seiki Co Ltd Touch panel input operation device
JP2014516873A (en) * 2011-06-22 2014-07-17 ティーケー ホールディングス インク. Sensor system for a vehicle steering wheel
JP2014211690A (en) * 2013-04-17 2014-11-13 ポリマテック・ジャパン株式会社 Touch input method and touch input apparatus
CN104345983A (en) * 2013-08-09 2015-02-11 本田技研工业株式会社 Input device
EP2835722A1 (en) 2013-08-09 2015-02-11 Honda Motor Co., Ltd. Input device
DE102014217439A1 (en) 2013-09-02 2015-03-05 Honda Motor Co., Ltd. switch system
JP2015071364A (en) * 2013-10-03 2015-04-16 スズキ株式会社 Handlebar switch device
JP2015156096A (en) * 2014-02-20 2015-08-27 トヨタ自動車株式会社 input device and input acquisition method
US9153234B2 (en) 2012-03-21 2015-10-06 Denso Corporation Speech recognition apparatus, method of recognizing speech, and computer readable medium for the same
US20160034171A1 (en) * 2014-08-04 2016-02-04 Flextronics Ap, Llc Multi-touch gesture recognition using multiple single-touch touch pads
JP2016147667A (en) * 2016-03-09 2016-08-18 パイオニア株式会社 Input unit, setting method for input unit, program for input unit, and recording medium
JP2016192221A (en) * 2016-06-16 2016-11-10 パイオニア株式会社 Setting device, setting method of setting device, and program for setting device
JP2020027349A (en) * 2018-08-09 2020-02-20 キヤノン株式会社 Display control device, display control method, program and storage medium
US11433937B2 (en) 2014-10-03 2022-09-06 Kyocera Corporation Vehicle and steering unit

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067128A (en) * 2001-08-30 2003-03-07 Sharp Corp Information processor with pad type pointing device
JP2008077651A (en) * 2007-09-11 2008-04-03 Sony Corp Information processing system, remote control device and recording medium
JP2009132248A (en) * 2007-11-29 2009-06-18 Denso It Laboratory Inc On-vehicle equipment operating device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067128A (en) * 2001-08-30 2003-03-07 Sharp Corp Information processor with pad type pointing device
JP2008077651A (en) * 2007-09-11 2008-04-03 Sony Corp Information processing system, remote control device and recording medium
JP2009132248A (en) * 2007-11-29 2009-06-18 Denso It Laboratory Inc On-vehicle equipment operating device

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186622A (en) * 2010-03-05 2011-09-22 Denso Corp Awakening support device
WO2012029558A1 (en) 2010-08-31 2012-03-08 日本精機株式会社 Input device
JP2012053592A (en) * 2010-08-31 2012-03-15 Nippon Seiki Co Ltd Input device
CN103069368A (en) * 2010-08-31 2013-04-24 日本精机株式会社 Input device
JP2012114884A (en) * 2010-11-29 2012-06-14 Yuhshin Co Ltd Antenna unit and door handle device equipped with same
JP2012173965A (en) * 2011-02-21 2012-09-10 Denso It Laboratory Inc Character input device, character input method, and program
DE102012204921A1 (en) 2011-03-30 2012-10-04 Honda Motor Co., Ltd. Vessel control apparatus
US8773394B2 (en) 2011-03-30 2014-07-08 Honda Motor Co., Ltd. Vehicular operating device
JP2014516873A (en) * 2011-06-22 2014-07-17 ティーケー ホールディングス インク. Sensor system for a vehicle steering wheel
CN103092402B (en) * 2011-10-31 2016-04-06 本田技研工业株式会社 Vehicle input media
JP2013097513A (en) * 2011-10-31 2013-05-20 Honda Motor Co Ltd Input device for vehicle
US9186994B2 (en) 2011-10-31 2015-11-17 Honda Motor Co., Ltd. Vehicle input apparatus
CN103092402A (en) * 2011-10-31 2013-05-08 本田技研工业株式会社 Vehicle input apparatus
EP2586642A1 (en) 2011-10-31 2013-05-01 Honda Motor Co., Ltd. Vehicle input apparatus
CN103958282A (en) * 2011-11-29 2014-07-30 日本精机株式会社 Vehicle operating device
EP2786902A4 (en) * 2011-11-29 2015-08-19 Nippon Seiki Co Ltd Vehicle operating device
US9207856B2 (en) 2011-11-29 2015-12-08 Nippon Seiki Co., Ltd. Vehicula touch input device with determination of straight line gesture
WO2013080774A1 (en) 2011-11-29 2013-06-06 日本精機株式会社 Vehicle operating device
EP2786902A1 (en) * 2011-11-29 2014-10-08 Nippon Seiki Co., Ltd. Vehicle operating device
JP2013112207A (en) * 2011-11-29 2013-06-10 Nippon Seiki Co Ltd Operation device for vehicle
CN103287346A (en) * 2012-02-22 2013-09-11 株式会社电装 Vehicular input apparatus
US9162698B2 (en) 2012-02-22 2015-10-20 Denso Corporation Vehicular input apparatus
GB2501585A (en) * 2012-02-29 2013-10-30 Denso Corp A method for compensating a manipulation on a touch pad
JP2013186858A (en) * 2012-03-12 2013-09-19 Pioneer Electronic Corp Input device, setting method for input device, program for input device, and recording medium
US9153234B2 (en) 2012-03-21 2015-10-06 Denso Corporation Speech recognition apparatus, method of recognizing speech, and computer readable medium for the same
US9298306B2 (en) 2012-04-12 2016-03-29 Denso Corporation Control apparatus and computer program product for processing touchpad signals
JP2013222224A (en) * 2012-04-12 2013-10-28 Denso Corp Control device and program
JP2013235359A (en) * 2012-05-08 2013-11-21 Tokai Rika Co Ltd Information processor and input device
JP2014019442A (en) * 2012-07-20 2014-02-03 Robert Bosch Gmbh Motorcycle handlebar device including grip monitor
JP2014029576A (en) * 2012-07-31 2014-02-13 Nippon Seiki Co Ltd Touch panel input operation device
CN102866803A (en) * 2012-08-30 2013-01-09 浙江大学 Method and device for operating and controlling virtual center console of Blind-operation-supported automobile by gestures
CN102866803B (en) * 2012-08-30 2016-02-17 浙江大学 A kind ofly support the virtual console gesture control method of the automobile of blind operation and device
JP2014211690A (en) * 2013-04-17 2014-11-13 ポリマテック・ジャパン株式会社 Touch input method and touch input apparatus
EP2835721A1 (en) 2013-08-09 2015-02-11 Honda Motor Co., Ltd. Input device
US9355805B2 (en) 2013-08-09 2016-05-31 Honda Motor Co., Ltd. Input device
JP2015035136A (en) * 2013-08-09 2015-02-19 本田技研工業株式会社 Input device
EP2835722A1 (en) 2013-08-09 2015-02-11 Honda Motor Co., Ltd. Input device
CN104345983A (en) * 2013-08-09 2015-02-11 本田技研工业株式会社 Input device
DE102014217439A1 (en) 2013-09-02 2015-03-05 Honda Motor Co., Ltd. switch system
JP2015071364A (en) * 2013-10-03 2015-04-16 スズキ株式会社 Handlebar switch device
JP2015156096A (en) * 2014-02-20 2015-08-27 トヨタ自動車株式会社 input device and input acquisition method
US20160034171A1 (en) * 2014-08-04 2016-02-04 Flextronics Ap, Llc Multi-touch gesture recognition using multiple single-touch touch pads
US11433937B2 (en) 2014-10-03 2022-09-06 Kyocera Corporation Vehicle and steering unit
EP3202623B1 (en) * 2014-10-03 2023-06-28 Kyocera Corporation Vehicle and steering unit
JP2016147667A (en) * 2016-03-09 2016-08-18 パイオニア株式会社 Input unit, setting method for input unit, program for input unit, and recording medium
JP2016192221A (en) * 2016-06-16 2016-11-10 パイオニア株式会社 Setting device, setting method of setting device, and program for setting device
JP2020027349A (en) * 2018-08-09 2020-02-20 キヤノン株式会社 Display control device, display control method, program and storage medium

Similar Documents

Publication Publication Date Title
JP2009298285A (en) Input device
JP5452566B2 (en) Vehicle input device
CN104142768B (en) The method of the touch-control of touch controlled type input unit and detection contact panel
JP5640486B2 (en) Information display device
JP5905434B2 (en) Operating device
US11132119B2 (en) User interface and method for adapting a view of a display unit
WO2013136776A1 (en) Gesture input operation processing device
JP5876013B2 (en) Input device
JP2016009300A (en) Vehicle input device and vehicle cockpit module
CN108170264A (en) Vehicle user input control system and method
EP3067788A1 (en) Vehicle display apparatus
ITUB20160367A1 (en) STEERING DEVICE FOR A MOTOR VEHICLE, AS WELL AS THE PROCEDURE FOR DRIVING A STEERING DEVICE
JP2009301302A (en) Gesture determination device
JP2009301300A (en) Input device
JP2014153986A (en) Display device and display method
US9069428B2 (en) Method for the operator control of a matrix touchscreen
JP2018144582A (en) On-vehicle apparatus operation device
WO2017047416A1 (en) Operation detection device
JP2009301301A (en) Input device and input method
WO2010122825A1 (en) Mobile terminal
KR20140067813A (en) An automobile
US20150346851A1 (en) Manipulation apparatus and manipulation teaching method for manipulation apparatus
JP6350310B2 (en) Operating device
JP2010009311A (en) User interface device
JP2009301299A (en) Gesture determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121002