JP2009301301A - Input device and input method - Google Patents

Input device and input method Download PDF

Info

Publication number
JP2009301301A
JP2009301301A JP2008154721A JP2008154721A JP2009301301A JP 2009301301 A JP2009301301 A JP 2009301301A JP 2008154721 A JP2008154721 A JP 2008154721A JP 2008154721 A JP2008154721 A JP 2008154721A JP 2009301301 A JP2009301301 A JP 2009301301A
Authority
JP
Japan
Prior art keywords
trajectory
input
gesture
predetermined
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008154721A
Other languages
Japanese (ja)
Inventor
Yusuke Yamanaka
雄介 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2008154721A priority Critical patent/JP2009301301A/en
Publication of JP2009301301A publication Critical patent/JP2009301301A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Steering Controls (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device and an input method for suppressing the deterioration of a decision precision based on an individual difference when information is input by gesture. <P>SOLUTION: The input device 3 is provided with a control part 30, an input part 31, a decision part 32, a reference changing part 33, and a storage part 35. The input device 3 inputs gesture decided as the absence of the pertinent gesture, and then changes a decision reference for the previously input gesture based on the gesture input for correction. Thus, it is possible to suppress the deterioration of decision precision due to an individual difference, and to improve the decision precision. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、入力装置及び入力方法に関する。   The present invention relates to an input device and an input method.

従来の技術として、入力パッドの裏面に配列され、接触圧力を検出する3個の圧力スイッチと、この3個の圧力スイッチの開閉情報を入力し、接触点が移動する方向、速度、移動量を解析するイベント制御部と、入力パッドを操作する操作パターンを記憶し、イベント制御部によって解析された操作と操作パターンとを比較してジェスチャを認識するジェスチャ認識部と、ジェスチャ認識部によるジェスチャの認識結果に基づいて電子機器への動作を指示する制御部と、を備えた入力デバイスが知られている(例えば、特許文献1参照)。   As a conventional technique, three pressure switches arranged on the back surface of the input pad and detecting contact pressure and opening / closing information of the three pressure switches are input, and the direction, speed, and amount of movement of the contact point are determined. An event control unit to analyze, an operation pattern for operating the input pad, a gesture recognition unit that recognizes a gesture by comparing the operation pattern analyzed by the event control unit and the operation pattern, and gesture recognition by the gesture recognition unit There is known an input device including a control unit that instructs an operation to an electronic device based on a result (see, for example, Patent Document 1).

イベント制御部は、同時に2つの圧力スイッチが押されたとき、より強く押された方の圧力スイッチが操作されていると判断するものとしている。   The event control unit determines that the pressure switch that is pressed more strongly is being operated when two pressure switches are pressed simultaneously.

よってこの入力デバイスは、接触点が移動する方向、速度、移動量を解析し、操作内容、すなわちジェスチャを認識することができるので、ジェスチャを入力することで電子機器に対する指示が可能になる。
特開2005−323048号公報
Therefore, this input device can analyze the direction, speed, and amount of movement of the contact point and recognize the operation content, that is, the gesture. Therefore, it is possible to give an instruction to the electronic device by inputting the gesture.
JP 2005-323048 A

しかし、従来の入力デバイスによると、ジェスチャを入力する操作者によってジェスチャの軌跡が異なり判定精度が低下するという問題があった。   However, according to the conventional input device, there is a problem in that the gesture trajectory differs depending on the operator who inputs the gesture, and the determination accuracy is lowered.

従って本発明の目的は、ジェスチャによって情報を入力するときの個人差に基づいた判定精度の低下を抑制することができる入力装置及び入力方法を提供することにある。   Accordingly, an object of the present invention is to provide an input device and an input method that can suppress a decrease in determination accuracy based on individual differences when information is input by a gesture.

(1)本発明は上記目的を達成するため、所定の軌跡を模して入力された第1の軌跡に基づいた出力信号を出力する入力部と、前記所定の軌跡を含む複数の軌跡が記載された軌跡辞書を記憶する記憶部と、前記第1の軌跡に基づいて前記軌跡辞書から所定の基準に応じて該当する軌跡を判定する判定部と、前記判定部によって前記該当する軌跡が判定されず、第1の時間内に再び前記入力部に対して前記所定の軌跡を模して第2の軌跡が入力され、前記判定部によって前記第2の軌跡が前記所定の軌跡と判定されたとき、第1の条件に基づいて前記所定の軌跡に対する前記所定の基準を変更する基準変更部と、を備えたことを特徴とする入力装置を提供する。 (1) In order to achieve the above object, the present invention describes an input unit that outputs an output signal based on a first trajectory input by imitating a predetermined trajectory, and a plurality of trajectories including the predetermined trajectory. A storage unit that stores the trajectory dictionary, a determination unit that determines a corresponding trajectory from the trajectory dictionary according to a predetermined reference based on the first trajectory, and the corresponding trajectory is determined by the determination unit. First, when the second trajectory is input again to the input unit within the first time, simulating the predetermined trajectory, and the second trajectory is determined to be the predetermined trajectory by the determination unit And a reference changing unit that changes the predetermined reference with respect to the predetermined trajectory based on a first condition.

(2)本発明は上記目的を達成するため、前記判定部は、前記該当する軌跡として前記所定の軌跡とは異なる軌跡を判定し、前記基準変更部は、第2の時間内に前記判定部によって判定された前記異なる軌跡とは相反する第3の軌跡が前記入力部に入力されて前記第3の軌跡と判定され、さらに前記判定部によって前記所定の軌跡であると判定される第4の軌跡が入力されたとき、第2の条件に基づいて前記所定の軌跡の前記所定の基準、及び前記異なる軌跡の前記所定の基準を変更することを特徴とする前記(1)に記載の入力装置を提供する。 (2) In order to achieve the above object, the determination unit determines a trajectory that is different from the predetermined trajectory as the corresponding trajectory, and the reference change unit includes the determination unit within a second time. A third trajectory that contradicts the different trajectory determined by the step is input to the input unit to be determined as the third trajectory, and is further determined as the predetermined trajectory by the determination unit. The input device according to (1), wherein when a trajectory is input, the predetermined reference of the predetermined trajectory and the predetermined reference of the different trajectory are changed based on a second condition. I will provide a.

(3)本発明は上記目的を達成するため、操作者を識別する識別部と、所定の軌跡を模して前記操作者によって入力された第1の軌跡に基づいた出力信号を出力する入力部と、前記所定の軌跡を含む複数の軌跡が記載された軌跡辞書を記憶する記憶部と、前記第1の軌跡に基づいて前記軌跡辞書から前記操作者に応じた所定の基準によって該当する軌跡を判定する判定部と、前記判定部によって前記該当する軌跡が判定されず、第1の時間内に再び前記入力部に対して前記所定の軌跡を模して第2の軌跡が入力され、前記判定部によって前記第2の軌跡が前記所定の軌跡と判定されたとき、第1の条件に基づいて前記所定の軌跡に対する前記所定の基準を変更する基準変更部と、を備えたことを特徴とする入力装置を提供する。 (3) In order to achieve the above object, the present invention provides an identification unit that identifies an operator, and an input unit that outputs an output signal based on a first trajectory input by the operator, imitating a predetermined trajectory. And a storage unit that stores a trajectory dictionary in which a plurality of trajectories including the predetermined trajectory are described, and a trajectory corresponding to a predetermined criterion according to the operator from the trajectory dictionary based on the first trajectory. The determination unit and the determination unit do not determine the corresponding trajectory, and the second trajectory is input again to the input unit within the first time by imitating the predetermined trajectory. And a reference changing unit that changes the predetermined reference for the predetermined trajectory based on a first condition when the second trajectory is determined to be the predetermined trajectory by the unit. An input device is provided.

(4)本発明は上記目的を達成するため、前記判定部は、前記該当する軌跡として前記所定の軌跡とは異なる軌跡を判定し、前記基準変更部は、第2の時間内に前記判定部によって判定された前記異なる軌跡とは相反する第3の軌跡が前記入力部に入力されて前記第3の軌跡と判定され、さらに前記判定部によって前記所定の軌跡であると判定される第4の軌跡が入力されたとき、第2の条件に基づいて前記所定の軌跡の前記所定の基準、及び前記異なる軌跡の前記所定の基準を変更することを特徴とする前記(3)に記載の入力装置を提供する。 (4) In order to achieve the above object, the determination unit determines a trajectory that is different from the predetermined trajectory as the corresponding trajectory, and the reference change unit includes the determination unit within a second time. A third trajectory that contradicts the different trajectory determined by the step is input to the input unit to be determined as the third trajectory, and is further determined as the predetermined trajectory by the determination unit. The input device according to (3), wherein when a trajectory is input, the predetermined reference of the predetermined trajectory and the predetermined reference of the different trajectory are changed based on a second condition. I will provide a.

(5)本発明は上記目的を達成するため、所定の軌跡を模して入力された第1の軌跡を取得する取得ステップと、前記第1の軌跡に基づいて軌跡辞書から所定の基準に応じて該当する軌跡を判定する判定ステップと、前記判定ステップによって第1の結果が得られたとき、前記第1の軌跡を入力した時間から第1の時間内に入力されて判定された第2の軌跡に基づいて前記所定の軌跡の前記所定の基準を変更する第1の変更ステップと、前記判定ステップによって第2の結果が得られたとき、前記第1の軌跡を入力した時間から第2の時間内に入力された前記第2の結果と相反する第3の軌跡が入力されて判定され、続いて入力された第4の軌跡に基づいて前記所定の軌跡の前記所定の基準を変更する第2の変更ステップと、を備えたことを特徴とする入力方法を提供する。 (5) In order to achieve the above object, the present invention obtains a first trajectory that is input by imitating a predetermined trajectory, and responds to a predetermined reference from a trajectory dictionary based on the first trajectory. A determination step of determining a corresponding trajectory, and a second result determined by inputting the first trajectory within a first time when the first result is obtained by the determination step. When a second result is obtained by the first changing step for changing the predetermined reference of the predetermined trajectory based on the trajectory and the determining step, the second time is calculated from the time when the first trajectory is input. A third trajectory that is contradictory to the second result input within the time is input and determined, and then the predetermined reference of the predetermined trajectory is changed based on the input fourth trajectory. Having two change steps, To provide an input method for the butterflies.

このような発明によれば、ジェスチャによって情報を入力するときの個人差に基づいた判定精度の低下を抑制することができる。   According to such an invention, it is possible to suppress a decrease in determination accuracy based on individual differences when inputting information by a gesture.

[実施の形態]
(車両の構成)
図1は、本発明の実施の形態に係る入力装置が搭載された車両内部の概略図である。本発明の入力装置を車両に搭載した場合について説明する。
[Embodiment]
(Vehicle configuration)
FIG. 1 is a schematic diagram of the interior of a vehicle on which an input device according to an embodiment of the present invention is mounted. A case where the input device of the present invention is mounted on a vehicle will be described.

車両1は、図1に示すように、操舵装置の一部であり、左右に回転操作することによって車両1の進行方向を変更することができるステアリング2と、ステアリング2の本体部20の運転者側に設けられた入力装置3のタッチパッド310と、画像を表示する表示装置4と、を備えて概略構成されている。   As shown in FIG. 1, the vehicle 1 is a part of a steering device, and a steering wheel 2 that can change the traveling direction of the vehicle 1 by rotating left and right, and a driver of a main body 20 of the steering wheel 2. The touch pad 310 of the input device 3 provided on the side and the display device 4 for displaying an image are schematically configured.

ステアリング2は、図示しないステアリングシャフトと接続され、各種スイッチ類が配置された本体部20と、運転者が把握する部分であり、リング形状を有するステアリングホイール21と、を備えて概略構成されている。   The steering 2 is connected to a steering shaft (not shown) and includes a main body 20 on which various switches are disposed, and a steering wheel 21 having a ring shape, which is a part grasped by the driver. .

(入力装置の構成)
図2は、本発明の実施の形態に係る入力装置に関するブロック図である。入力装置3は、図2に示すように、主に、制御部30と、入力部31と、判定部32と、基準変更部33と、認証部(識別部)34と、記憶部35と、を備えて概略構成されている。
(Configuration of input device)
FIG. 2 is a block diagram relating to the input device according to the embodiment of the present invention. As shown in FIG. 2, the input device 3 mainly includes a control unit 30, an input unit 31, a determination unit 32, a reference change unit 33, an authentication unit (identification unit) 34, a storage unit 35, Is generally configured.

制御部30は、判定部32によって判定されたジェスチャに関連付けられたコマンドに基づいて被制御装置、例えば表示装置4を制御する。   The control unit 30 controls the controlled device, for example, the display device 4 based on the command associated with the gesture determined by the determination unit 32.

ここでジェスチャとは、一例として、操作者の手指によってタッチパッド310に対して行われる入力操作であり、ジェスチャを行った軌跡に基づいてタッチパッド310のタッチセンサ311が反応する。   Here, the gesture is an input operation performed on the touch pad 310 by an operator's finger as an example, and the touch sensor 311 of the touch pad 310 reacts based on the locus of the gesture.

認証部34は、図示しない通信部を備え、通信部を介して操作者が有する携帯機5と通信を行い、携帯機5が有する認証情報の認証動作を行う。認証情報は、携帯機5を持つ操作者を特定する情報である。   The authentication unit 34 includes a communication unit (not shown), communicates with the portable device 5 possessed by the operator via the communication unit, and performs an authentication operation of authentication information possessed by the portable device 5. The authentication information is information that identifies the operator who has the portable device 5.

記憶部35は、ジェスチャ辞書(軌跡辞書)350と、タッチ座標群351と、判定基準情報352と、履歴情報353と、を備えて概略構成されている。   The storage unit 35 includes a gesture dictionary (trajectory dictionary) 350, a touch coordinate group 351, determination criterion information 352, and history information 353, and is schematically configured.

以下に、入力部31、判定部32及び基準変更部33の構成及び機能について説明する。   Below, the structure and function of the input part 31, the determination part 32, and the reference | standard change part 33 are demonstrated.

(入力部について)
入力部31は、図2に示すように、一例として、タッチパッド310を有し、タッチパッド310は、左上を原点として右方向をX軸、下方向をY軸としたX−Y座標系が設定され、8行8列の格子状に並べた複数のタッチセンサ311を有して概略構成されている。
(About the input section)
As shown in FIG. 2, the input unit 31 includes a touch pad 310 as an example. The touch pad 310 has an XY coordinate system in which the upper left is the origin, the right direction is the X axis, and the lower direction is the Y axis. It has a plurality of touch sensors 311 that are set and arranged in a grid of 8 rows and 8 columns.

また、X−Y座標系において、左上のタッチセンサ311を座標(1、1)とし、右隣りのタッチセンサ311を座標(2、1)とするように全てのタッチセンサ311にX−Y座標を割り当てるものとする。なお、タッチセンサ311の数、並べ方、及び形状はこれに限定されず、用途に応じて変更可能である。   In the XY coordinate system, all the touch sensors 311 have XY coordinates so that the upper left touch sensor 311 has coordinates (1, 1) and the right adjacent touch sensor 311 has coordinates (2, 1). Shall be assigned. Note that the number, arrangement, and shape of the touch sensors 311 are not limited to this, and can be changed according to the application.

また入力部31は、所定のジェスチャ(所定の軌跡)を模して操作者によってタッチパッド310に入力されるジェスチャに基づいた操作信号(出力信号)を制御部30に送信する。   In addition, the input unit 31 transmits an operation signal (output signal) based on a gesture input to the touch pad 310 by the operator to simulate a predetermined gesture (predetermined locus) to the control unit 30.

なお、ジェスチャは、このタッチパッド310に直接接触する操作のことを指すが、タッチセンサ311の静電容量が、接触有りと判断されるに十分な変化を行う場合もジェスチャに含めるものとする。   Note that the gesture refers to an operation of directly touching the touch pad 310, but the case where the capacitance of the touch sensor 311 changes sufficiently to be determined to be in contact is also included in the gesture.

図3は、本発明の実施の形態に係るタッチパッドの断面図である。タッチパッド310を構成するタッチセンサ311は、図3に示すように、プリント配線基板等の絶縁部材によって形成された本体312と、銅等の導電体によって本体312上に平板形状を有して形成された電極313と、電極313等を保護するために形成された保護膜314と、を備えて概略構成されている。   FIG. 3 is a cross-sectional view of the touch pad according to the embodiment of the present invention. As shown in FIG. 3, the touch sensor 311 that constitutes the touch pad 310 has a main body 312 formed of an insulating member such as a printed wiring board and a flat plate shape on the main body 312 using a conductor such as copper. And a protective film 314 formed to protect the electrode 313 and the like.

タッチセンサ311は、一例として、図示しない発振装置、オペアンプ及びマルチプレクサ等を備え、発振装置によって高周波電圧が電極313に印可され、マルチプレクサによってX−Y座標系の左上のタッチセンサ311から右方向のタッチセンサ311へ、続いて左上1つ下のタッチセンサ311から右方向のタッチセンサ311へと順番に全てのタッチセンサ311について走査され、操作者のタッチセンサ311に対するジェスチャに基づいて変化する電極313の静電容量に応じ、タッチ操作があるオン状態のときは「1」を、及びタッチ操作がないオフ状態のときは「0」を操作信号として所定の周期で並列に出力するようにIC(Integrated Circuit)化されているものとする。   The touch sensor 311 includes, as an example, an oscillation device, an operational amplifier, a multiplexer, and the like (not shown). A high frequency voltage is applied to the electrode 313 by the oscillation device, and a touch in the right direction from the touch sensor 311 at the upper left of the XY coordinate system is applied by the multiplexer. All the touch sensors 311 are scanned in order from the touch sensor 311 in the upper left to the touch sensor 311 in the right direction from the touch sensor 311 in the upper left to the sensor 311, and the electrodes 313 that change based on the gesture to the touch sensor 311 by the operator. Depending on the capacitance, IC (Integrated) is output in parallel with a predetermined cycle as an operation signal “1” when the touch operation is in the on state and “0” when the touch operation is in the off state. Circuit).

入力部31は、所定の周期に基づいて全てのタッチセンサ311の操作信号を制御部30に出力する。   The input unit 31 outputs operation signals of all the touch sensors 311 to the control unit 30 based on a predetermined cycle.

(判定部について)
図4(a)は、本発明の実施の形態に係る左円ジェスチャの概略図であり、(b)は、上直線ジェスチャの概略図であり、(c)は、右直線ジェスチャの概略図であり、図5(a)は、本発明の実施の形態に係る第1のジェスチャの概略図であり、(b)は、ジェスチャの判定に関する概略図である。図5(b)における丸は、一例として、判定のためにジェスチャ辞書350に記載される左円ジェスチャ50を12分割した点であり、三角は、算出されたタッチ座標の点であり、丸の中の数字は、参照する順番を示しており、三角の中の数字は、算出された順番を示している。なお、分割した点の数は、12に限定されず、用途に応じて変更可能であり、所定の期間に算出されたタッチ座標は、12個とは限らないものとする。
(About judgment part)
4A is a schematic diagram of a left circle gesture according to the embodiment of the present invention, FIG. 4B is a schematic diagram of an upper straight gesture, and FIG. 4C is a schematic diagram of a right straight gesture. FIG. 5A is a schematic diagram of a first gesture according to the embodiment of the present invention, and FIG. 5B is a schematic diagram regarding determination of a gesture. For example, the circle in FIG. 5B is a point obtained by dividing the left circle gesture 50 described in the gesture dictionary 350 into 12 parts for determination, and the triangle is a point of the calculated touch coordinates. The number in the middle indicates the order of reference, and the number in the triangle indicates the calculated order. Note that the number of divided points is not limited to 12, but can be changed according to the application, and the touch coordinates calculated in a predetermined period are not limited to 12.

判定部32は、一例として、制御部30を介して取得した入力部31からの操作信号に基づいてX−Y座標系におけるタッチ座標を1周期(例えば16ms)毎に算出し、所定の期間に得られた複数のタッチ座標を取得された時間順に並べたタッチ座標群351として制御部30を介して記憶部35に記憶させる。   As an example, the determination unit 32 calculates the touch coordinates in the XY coordinate system every cycle (for example, 16 ms) based on the operation signal from the input unit 31 acquired via the control unit 30, and in a predetermined period. The obtained plurality of touch coordinates are stored in the storage unit 35 via the control unit 30 as a touch coordinate group 351 arranged in the order of the acquired time.

ここでタッチ座標は、一例として、オン状態にあるタッチセンサ311の座標に基づいて算出されるものであり、オン状態にあるタッチセンサ311の座標の平均値を算出する方法、及びオン状態にあるタッチセンサ311に重み関数を割り当て、加重平均によって算出される方法等の公知の方法によって算出される。   Here, as an example, the touch coordinates are calculated based on the coordinates of the touch sensor 311 in the on state, and a method for calculating an average value of the coordinates of the touch sensor 311 in the on state, and in the on state. A weight function is assigned to the touch sensor 311 and is calculated by a known method such as a method of calculating by weighted average.

また所定の期間は、一例として、全てのタッチセンサ311の中で初めてオン状態にあるタッチセンサ311が検出されてから全てのタッチセンサ311がオフ状態になるまでの期間であり、これに限定されない。   The predetermined period is, for example, a period from when the touch sensor 311 in the on state is detected for the first time among all the touch sensors 311 to when all the touch sensors 311 are in the off state, and is not limited thereto. .

判定部32は、算出されたタッチ座標群351と、図4(a)、(b)及び(c)に示す左円、上直線及び右直線ジェスチャ(複数の軌跡)50、51、52等が記載されたジェスチャ辞書350とを用いて入力されたジェスチャを所定の基準に基づいて判定する。   The determination unit 32 includes the calculated touch coordinate group 351 and the left circle, upper straight line, and right straight gesture (a plurality of trajectories) 50, 51, 52, and the like shown in FIGS. 4 (a), 4 (b), and 4 (c). The gesture input using the described gesture dictionary 350 is determined based on a predetermined criterion.

ここで、左円ジェスチャ50とは、時計回りに円を描くように入力されたジェスチャのことであり、上直線ジェスチャ51とは、上方向に直線を描くように入力されたジェスチャのことであり、右直線ジェスチャ52とは、左方向から右方向に直線を描くように入力されたジェスチャのことである。なお、図示しないが、先のジェスチャに相反するジェスチャとして反時計回りに円を描くジェスチャを右円ジェスチャと呼び、下方向に直線を描くように入力されたジェスチャを下直線ジェスチャと呼び、右方向から左方向に直線を描くように入力されたジェスチャを左直線ジェスチャと呼ぶものとする。ジェスチャは、これに限定されず、斜め方向のジェスチャ等を用途に応じて追加・削除可能である。   Here, the left circle gesture 50 is a gesture input so as to draw a circle in a clockwise direction, and the upper straight line gesture 51 is a gesture input so as to draw a straight line in the upward direction. The right straight gesture 52 is a gesture input so as to draw a straight line from the left direction to the right direction. Although not shown, a gesture that draws a circle in a counterclockwise direction as a gesture opposite to the previous gesture is called a right circle gesture, and a gesture that is input so as to draw a straight line downward is called a lower straight line gesture. The gesture input so as to draw a straight line from the left to the right is called a left straight gesture. The gesture is not limited to this, and an oblique gesture or the like can be added / deleted depending on the application.

判定部32は、一例として、図5(a)に示す第1のジェスチャ53がタッチパッド310に入力されたとき、図5(b)に示すように、ジェスチャ辞書350に記載されたジェスチャの点と、タッチ座標群351を構成する点との距離L1〜L12を数字の順番に比較し、距離L1〜L12が2つのしきい値の条件内であるとき、得られたタッチ座標群351に基づくジェスチャが左円ジェスチャ50であると判定する。   As an example, when the first gesture 53 illustrated in FIG. 5A is input to the touch pad 310, the determination unit 32 performs the gesture points described in the gesture dictionary 350 as illustrated in FIG. 5B. And the distances L1 to L12 with respect to the points constituting the touch coordinate group 351 are compared in numerical order, and the distances L1 to L12 are based on the obtained touch coordinate group 351 when they are within two threshold conditions. It is determined that the gesture is a left circle gesture 50.

ここで2つのしきい値の条件とは、一例として、距離L1〜L12の距離の平均距離が設定された距離しきい値内であり、かつ、距離が平均距離より短い点の数が設定された点しきい値(例えば半分以上の点で距離が平均距離以下)内であることである。   Here, the two threshold conditions are, for example, the number of points within the distance threshold in which the average distance of the distances L1 to L12 is set and the distance is shorter than the average distance. It is within the threshold value (for example, the distance is less than the average distance at half or more points).

また、判定部32は、一例として、2つのしきい値の条件を満たす点の数の割合である一致度に所定の基準としての判定基準(通常は1)を乗算することよって判定値を算出する。一致度は、全ての点が所定の基準を満たすときは、「1」であり、半分の数の点が所定の基準を満たすときは、「0.5」となるものとし、ジェスチャ辞書350に記載された全てのジェスチャに対して算出されるものとする。   For example, the determination unit 32 calculates a determination value by multiplying the degree of coincidence, which is the ratio of the number of points that satisfy two threshold conditions, by a determination criterion (usually 1) as a predetermined criterion. To do. The degree of coincidence is “1” when all the points satisfy the predetermined criterion, and is “0.5” when half of the points satisfy the predetermined criterion. It shall be calculated for all described gestures.

また判定部32は、算出された判定値が判定基準情報352内の判定しきい値(例えば0.7)以上であったとき、一例として図5(b)に示す入力された第1のジェスチャ53を左円ジェスチャ50と判定する。   In addition, when the calculated determination value is equal to or greater than the determination threshold value (for example, 0.7) in the determination criterion information 352, the determination unit 32 inputs the first gesture illustrated in FIG. 5B as an example. 53 is determined as a left circle gesture 50.

判定基準情報352は、携帯機5によって認証される操作者毎に作成され、判定部32は、認証部34によって認証された操作者の判定基準情報352に基づいて入力されたジェスチャを判定する。   The determination criterion information 352 is created for each operator who is authenticated by the portable device 5, and the determination unit 32 determines a gesture input based on the determination criterion information 352 of the operator authenticated by the authentication unit 34.

なお、判定方法は、上記の例に限定されず、パターンマッチング等の公知の形状認識方法によって判定するようにしても良く、選択された形状認識方法に基づいて一致度の算出方法も変更されて良い。   The determination method is not limited to the above example, and may be determined by a known shape recognition method such as pattern matching, and the matching degree calculation method is also changed based on the selected shape recognition method. good.

(基準変更部について)
基準変更部33は、一例として、第1及び第2の条件に基づいて記憶部35に記憶された判定基準情報352を変更する。第1及び第2の条件の詳細については動作の説明の中で述べる。
(About the Standard Change Department)
For example, the reference changing unit 33 changes the determination reference information 352 stored in the storage unit 35 based on the first and second conditions. Details of the first and second conditions will be described in the description of the operation.

(動作)
以下に、本実施の形態における入力装置の動作を各図を参照して詳細に説明する。
(Operation)
Hereinafter, the operation of the input device according to the present embodiment will be described in detail with reference to the drawings.

(ジェスチャの判定動作について)
まず、一例として操作者としての運転者によって上記した第1のジェスチャ53が入力部31に入力された場合、すなわちジェスチャ辞書350に該当するジェスチャがある場合の動作について図6のフローチャートに従って説明する。なお、判定基準は「1」として判定値を算出している。
(About gesture judgment operation)
First, as an example, an operation when the first gesture 53 described above is input to the input unit 31 by a driver as an operator, that is, when there is a gesture corresponding to the gesture dictionary 350 will be described with reference to the flowchart of FIG. Note that the determination value is calculated with the determination criterion “1”.

運転者は、携帯機5を持って車両1に近づくと、車両1の認証部34は、携帯機5と通信を行い、認証動作を開始する。   When the driver approaches the vehicle 1 with the portable device 5, the authentication unit 34 of the vehicle 1 communicates with the portable device 5 and starts an authentication operation.

認証部34は、携帯機5との認証動作が終了し、認証が成立したとき、車両1のドアロックを解除する。   The authentication unit 34 releases the door lock of the vehicle 1 when the authentication operation with the portable device 5 is completed and the authentication is established.

運転者は、車両1に乗り込み、車両1の電源システムを入れる。このとき制御部30は、携帯機5によって認証された運転者に対する判定基準情報352を読み出す(S1)。   The driver gets into the vehicle 1 and turns on the power supply system of the vehicle 1. At this time, the control unit 30 reads the criterion information 352 for the driver authenticated by the portable device 5 (S1).

入力部31は、所定の周期に基づいて電極313を走査してオン・オフ状態を取得し、制御部30に出力する(S2)。   The input unit 31 scans the electrode 313 based on a predetermined cycle to acquire an on / off state, and outputs it to the control unit 30 (S2).

運転者は、ステアリングホイール21を把握したまま、図4(a)に示す左円ジェスチャ50をタッチパッド310に入力する意図で、図5(a)に示す第1のジェスチャ53をタッチパッド310に入力する(S3)。   With the intention of inputting the left circle gesture 50 shown in FIG. 4A to the touch pad 310 while grasping the steering wheel 21, the driver puts the first gesture 53 shown in FIG. Input (S3).

判定部32は、第1のジェスチャ53の入力に基づいて所定の期間におけるタッチ座標を算出し、算出されたタッチ座標をタッチ座標群351として制御部30を介して記憶部35に記憶させる(S4)。   The determination unit 32 calculates touch coordinates in a predetermined period based on the input of the first gesture 53, and stores the calculated touch coordinates in the storage unit 35 via the control unit 30 as the touch coordinate group 351 (S4). ).

判定部32は、所定の期間において算出されたタッチ座標群351に基づいてタッチ座標の移動量が所定のしきい値より上であるとき(S5;Yes)、タッチパッド310にジェスチャが入力されたと判定する(S6)。   The determination unit 32 determines that a gesture is input to the touch pad 310 when the amount of movement of the touch coordinates is above a predetermined threshold based on the touch coordinate group 351 calculated in a predetermined period (S5; Yes). Determine (S6).

判定部32は、入力されたジェスチャのタッチ座標群351、及び認証部34によって認識された認証情報に応じた判定基準情報352に基づいてジェスチャ辞書350との一致度を算出し、算出された左円ジェスチャ50の一致度に基づく判定値が判定しきい値を超えているとき、入力されたジェスチャを左円ジェスチャ50と判定する(S7)。   The determination unit 32 calculates the degree of coincidence with the gesture dictionary 350 based on the input touch coordinate group 351 of the gesture and the determination criterion information 352 corresponding to the authentication information recognized by the authentication unit 34, and the calculated left When the determination value based on the degree of coincidence of the circle gesture 50 exceeds the determination threshold value, the input gesture is determined as the left circle gesture 50 (S7).

制御部30は、判定部32によって左円ジェスチャ50と判定されたことに基づいて被制御装置、すなわち表示装置4を制御し、左円ジェスチャ50に割り当てられたコマンドを実行し(S8)、入力されたジェスチャに対する処理を終了する。   The control unit 30 controls the controlled device, that is, the display device 4 based on the determination of the left circle gesture 50 by the determination unit 32, and executes the command assigned to the left circle gesture 50 (S8). The process for the gesture made is finished.

ここでステップS5において、所定の期間において算出されたタッチ座標群351に基づいてタッチ座標の移動量が所定のしきい値より下であるとき(S5;No)、判定部32は、タッチパッド310にタッチ、又はエリアタッチが入力されたと判定する(S9)。   Here, in step S5, when the movement amount of the touch coordinates is below a predetermined threshold based on the touch coordinate group 351 calculated in the predetermined period (S5; No), the determination unit 32 determines that the touch pad 310 is not touched. It is determined that touch or area touch is input (S9).

このタッチ及びエリアタッチとは、一例として、一定時間、タッチパッド310の同じタッチセンサ311がオン状態にあることであり、エリアタッチとは、タッチに比べてより多くのタッチセンサ311がオン状態であるものとする。   As an example, the touch and the area touch are that the same touch sensor 311 of the touch pad 310 is in an on state for a certain period of time, and an area touch is a state in which more touch sensors 311 are in an on state than a touch. It shall be.

判定部32は、タッチ又はエリアタッチと判定したのち、同じタッチセンサ311がオン状態である時間、すなわち駐留時間の長短に基づいて「長押し」又は「短押し」を判定し(S10)、制御部30は、判定に基づいて被制御装置を制御する(S8)。   After determining the touch or the area touch, the determination unit 32 determines “long press” or “short press” based on the time during which the same touch sensor 311 is in an on state, that is, the length of the staying time (S10). The unit 30 controls the controlled device based on the determination (S8).

(該当ジェスチャがない場合の判定動作について)
図7(a)は、本発明の実施の形態に係る第2のジェスチャの概略図であり、(b)は、第3のジェスチャの概略図である。以下においては、タッチパッド310に入力されたジェスチャが、判定部32によって該当ジェスチャ無し(第1の結果)とされた場合について、図8に示すフローチャートに従って説明する。上記した判定動作と重複する部分については、簡素化して説明している。
(About judgment operation when there is no corresponding gesture)
FIG. 7A is a schematic diagram of the second gesture according to the embodiment of the present invention, and FIG. 7B is a schematic diagram of the third gesture. In the following, a case where the gesture input to the touch pad 310 is determined to have no corresponding gesture (first result) by the determination unit 32 will be described with reference to the flowchart shown in FIG. Portions overlapping with the above-described determination operation are described in a simplified manner.

運転者は、図4(a)に示す左円ジェスチャ50をタッチパッド310に入力する意図で、図7(a)に示す第2のジェスチャ(第1の軌跡)54を入力する。   The driver inputs the second gesture (first trajectory) 54 shown in FIG. 7A with the intention of inputting the left circle gesture 50 shown in FIG. 4A to the touch pad 310.

判定部32は、入力された第2のジェスチャ54のタッチ座標群351、及び認証部34によって認識された認証情報に応じた判定基準情報352に基づいてジェスチャ辞書350との一致度を算出する。このときの判定基準は「1」とする。   The determination unit 32 calculates the degree of coincidence with the gesture dictionary 350 based on the input touch coordinate group 351 of the second gesture 54 and the determination criterion information 352 corresponding to the authentication information recognized by the authentication unit 34. The determination criterion at this time is “1”.

例えば、判定部32は、ジェスチャ辞書350に図4(a)、(b)及び(c)に示す左円ジェスチャ50、上直線ジェスチャ51及び右直線ジェスチャ52が記載されているとき、これらのジェスチャとの一致度を算出し、一例として、左円ジェスチャ50の一致度を0.6、上直線ジェスチャ51の一致度を0.3、右直線ジェスチャ52の一致度を0.1と算出する。判定基準情報352に基づく判定しきい値は、0.7としている。   For example, when the left circle gesture 50, the upper straight gesture 51, and the right straight gesture 52 shown in FIGS. 4A, 4 </ b> B, and 4 </ b> C are described in the gesture dictionary 350, the determination unit 32 performs these gestures. As an example, the degree of coincidence of the left circle gesture 50 is calculated as 0.6, the degree of coincidence of the upper straight line gesture 51 is 0.3, and the degree of coincidence of the right straight line gesture 52 is calculated as 0.1. The determination threshold value based on the determination criterion information 352 is 0.7.

このとき判定部32は、判定しきい値を超える判定値がないことから該当ジェスチャ無しと判定する(S20;判定ステップ)。   At this time, the determination unit 32 determines that there is no corresponding gesture because there is no determination value exceeding the determination threshold (S20; determination step).

判定部32は、該当ジェスチャがないことから、一致度が一番高いジェスチャ、すなわち左円ジェスチャ50の情報と一致度の0.6の値を携帯機5の認証情報と共に履歴情報353として制御部30を介して記憶部35に記憶する(S21)。   Since there is no corresponding gesture, the determination unit 32 uses the gesture having the highest degree of coincidence, that is, the information of the left circle gesture 50 and the degree of coincidence of 0.6 as the history information 353 together with the authentication information of the portable device 5. 30 in the storage unit 35 (S21).

運転者は、入力したジェスチャが該当ジェスチャ無しと判定されたことにより、再度、図7(b)に示す第3のジェスチャ(第2の軌跡)55をタッチパッド310に入力する(S22)。   The driver inputs the third gesture (second trajectory) 55 shown in FIG. 7B to the touch pad 310 again when it is determined that the input gesture does not exist (S22).

判定部32は、制御部30を介して入力部31から所定の周期に基づいて第3のジェスチャ55に応じた操作信号を取得すると、上記した判定処理を行い、一例として、左円ジェスチャ50の一致度を0.8、上直線ジェスチャ51の一致度を0.2、右直線ジェスチャ52の一致度を0.25と算出する。   When the determination unit 32 acquires an operation signal corresponding to the third gesture 55 based on a predetermined cycle from the input unit 31 via the control unit 30, the determination unit 32 performs the above-described determination process, and as an example, the left circle gesture 50 The degree of coincidence is calculated as 0.8, the degree of coincidence of the upper straight line gesture 51 is 0.2, and the degree of coincidence of the right straight line gesture 52 is calculated as 0.25.

判定部32は、判定しきい値が0.7であることから該当ジェスチャ有りとし、入力されたジェスチャを左円ジェスチャ50と判定する(S23)。   The determination unit 32 determines that the corresponding gesture is present because the determination threshold value is 0.7, and determines that the input gesture is the left circle gesture 50 (S23).

基準変更部33は、第1の条件として、該当ジェスチャ無しと判定されてから一定時間(第1の時間)内に該当ジェスチャ有りと判定されたことから、該当ジェスチャ無しとされた第2のジェスチャ54が左円ジェスチャ50を入力したものと考えられ、この運転者の判定基準情報352における左円ジェスチャ50の判定基準を変更する(S24;第1の変更ステップ)。   The reference changing unit 33 determines, as the first condition, that the corresponding gesture is not present since it is determined that the corresponding gesture is present within a certain time (first time) after it is determined that the corresponding gesture is absent. 54 is considered to have input the left circle gesture 50, and the determination criterion of the left circle gesture 50 in the determination criterion information 352 of the driver is changed (S24; first change step).

基準変更部33は、一例として、判定しきい値をA、算出された一致度をBとして以下の式によって新しい判定基準を算出する。

Figure 2009301301
As an example, the reference changing unit 33 calculates a new determination criterion by the following equation, where A is a determination threshold value and B is a calculated degree of coincidence.
Figure 2009301301

基準変更部33は、判定しきい値が0.7、算出された一致度が0.6であるので、これを(数1)に代入すると、判定基準はおよそ1.08と算出される。   Since the reference change unit 33 has a determination threshold value of 0.7 and the calculated degree of coincidence is 0.6, if this is substituted into (Equation 1), the determination reference is calculated to be approximately 1.08.

例えば、判定基準が1.08のとき、運転手が、図7(a)に示す第2のジェスチャ54をタッチパッド310に入力した場合、第2のジェスチャ54の判定値を0.6×1.08(およそ0.65)と算出することになる。   For example, when the determination criterion is 1.08, when the driver inputs the second gesture 54 shown in FIG. 7A to the touch pad 310, the determination value of the second gesture 54 is set to 0.6 × 1. .08 (approximately 0.65).

この新たに算出された判定値0.65は、判定しきい値0.7よりも小さいのですぐに第2のジェスチャ54が、左円ジェスチャ50と判定されないが、繰り返し判定基準を変更することによってジェスチャによって情報を入力するときの個人差に基づいた判定精度の低下を抑制することが可能になる。   Since the newly calculated determination value 0.65 is smaller than the determination threshold value 0.7, the second gesture 54 is not immediately determined to be the left circle gesture 50, but by repeatedly changing the determination criterion It is possible to suppress a decrease in determination accuracy based on individual differences when inputting information by gestures.

基準変更部33は、算出した判定基準に基づいて判定基準情報352を変更し、制御部30を介して記憶部35に記憶させ(S25)、処理を終了する。   The reference changing unit 33 changes the determination reference information 352 based on the calculated determination reference, stores it in the storage unit 35 via the control unit 30 (S25), and ends the process.

(直前ジェスチャが取り消された場合の判定動作について)
図9(a)は、本発明の実施の形態に係る第4のジェスチャの概略図であり、(b)は、第5のジェスチャの概略図である。以下においては、タッチパッド310に入力されたジェスチャを取り消すようなジェスチャが一定時間内に入力された場合について、図10に示すフローチャートに従って説明する。上記した判定動作と重複する部分については、簡素化して説明している。
(About the judgment operation when the previous gesture is canceled)
FIG. 9A is a schematic diagram of the fourth gesture according to the embodiment of the present invention, and FIG. 9B is a schematic diagram of the fifth gesture. Hereinafter, a case where a gesture for canceling a gesture input to the touch pad 310 is input within a predetermined time will be described with reference to the flowchart shown in FIG. Portions overlapping with the above-described determination operation are described in a simplified manner.

運転手は、図4(a)に示す左円ジェスチャ50をタッチパッド310に入力する意図で、図9(a)に示す第4のジェスチャ56を入力する(S30)。   The driver inputs the fourth gesture 56 shown in FIG. 9A with the intention of inputting the left circle gesture 50 shown in FIG. 4A to the touch pad 310 (S30).

判定部32は、一例として、左円ジェスチャ50の一致度を0.4、上直線ジェスチャ51の一致度を0.1、右直線ジェスチャ52の一致度を0.75と算出し、判定基準情報352の判定しきい値に基づいて右直線ジェスチャ(異なる軌跡)52と判定する(S31;判定ステップ、第2の結果)。   As an example, the determination unit 32 calculates the degree of coincidence of the left circle gesture 50 as 0.4, the degree of coincidence of the upper straight line gesture 51 as 0.1, and the degree of coincidence of the right straight line gesture 52 as 0.75. Based on the determination threshold value 352, a right straight gesture (different trajectory) 52 is determined (S31; determination step, second result).

制御部30は、判定された右直線ジェスチャ52の情報を記憶部35に履歴情報353として記憶させ(S32)、被制御装置、すなわち表示装置4に表示される画像を変更する(S33)。   The control unit 30 stores the information of the determined right straight gesture 52 in the storage unit 35 as history information 353 (S32), and changes the image displayed on the controlled device, that is, the display device 4 (S33).

例えば、制御部30は、表示装置4に表示されたメニューの1つ下の階層を表示させる。   For example, the control unit 30 displays the hierarchy one level lower than the menu displayed on the display device 4.

運転者は、表示装置4に表示された画像が所望したものと異なることから、第2の条件として、一定時間(第2の時間)内に制御部30の制御を打ち消すジェスチャ(第3の軌跡)、すなわち1つ上の階層に戻る左直線ジェスチャ(右方向から左方向へのジェスチャ)を入力する(S34)。   Since the image displayed on the display device 4 is different from the desired one, the driver cancels the control of the control unit 30 within a certain time (second time) as the second condition (third trajectory). ), That is, a left straight line gesture (a gesture from the right direction to the left direction) that returns to the next higher level is input (S34).

判定部32が左直線ジェスチャを判定したのち、制御部30は、1つ上の階層に戻るよう表示装置4を制御し、左直線ジェスチャを記憶部35に記憶させる(S35)。   After the determination unit 32 determines the left straight line gesture, the control unit 30 controls the display device 4 to return to the next higher level, and stores the left straight line gesture in the storage unit 35 (S35).

運転者は、再び左円ジェスチャ50を意図した図9(b)に示す第5のジェスチャ(第4の軌跡)57をタッチパッド310に入力する(S36)。   The driver again inputs the fifth gesture (fourth locus) 57 shown in FIG. 9B intended for the left circle gesture 50 to the touch pad 310 (S36).

判定部32は、入力部31、制御部30を介して操作信号を取得すると、一例として、左円ジェスチャ50の一致度を0.75、上直線ジェスチャ51の一致度を0.1、右直線ジェスチャ52の一致度を0.5と算出し、判定基準情報352の判定しきい値に基づいて左円ジェスチャ50と判定する(S37)。   When the determination unit 32 acquires the operation signal via the input unit 31 and the control unit 30, for example, the matching degree of the left circle gesture 50 is 0.75, the matching degree of the upper straight gesture 51 is 0.1, and the right straight line The degree of coincidence of the gesture 52 is calculated as 0.5, and the left circle gesture 50 is determined based on the determination threshold value of the determination reference information 352 (S37).

基準変更部33は、ステップ35において記憶部35に記憶された左直線ジェスチャが、ステップ32において記憶部35に記憶された右直線ジェスチャ52を打ち消すジェスチャであることから、図9(a)に示す第4のジェスチャ56が、左円ジェスチャ50を意図して入力されたと考えられるので、ステップ32における左円ジェスチャ50の一致度0.4と、判定しきい値0.7とを(数1)に代入して、判定基準を1.38と変更する。また基準変更部33は、一例として、ステップ31における右直線ジェスチャ52の一致度0.75と、判定基準0.7とを(数1)に代入して、判定基準を0.97と変更する(S38;第2の変更ステップ)。   Since the left straight line gesture stored in the storage unit 35 in step 35 is a gesture for canceling the right straight line gesture 52 stored in the storage unit 35 in step 32, the reference changing unit 33 is shown in FIG. Since the fourth gesture 56 is considered to have been input with the intention of the left circle gesture 50, the degree of coincidence 0.4 of the left circle gesture 50 in step 32 and the determination threshold value 0.7 are set as (Equation 1). And the criterion is changed to 1.38. Further, as an example, the reference changing unit 33 substitutes the degree of coincidence 0.75 of the right straight gesture 52 in Step 31 and the determination reference 0.7 into (Equation 1), and changes the determination reference to 0.97. (S38; second change step).

基準変更部33は、算出した判定基準に基づいて判定基準情報352を変更し、制御部30を介して記憶部35に記憶させ(S39)、処理を終了する。   The reference changing unit 33 changes the determination reference information 352 based on the calculated determination reference, stores it in the storage unit 35 via the control unit 30 (S39), and ends the process.

なお、上記した何れの場合においても、一致度によってジェスチャを判定するため、完全に一致していても、判定基準の値によって該当ジェスチャ無しと判定されることが無いように、判定基準に上及び下限値を設けても良い。   In any of the cases described above, since the gesture is determined based on the degree of coincidence, the determination criterion is set higher and higher so that it is not determined that there is no corresponding gesture depending on the value of the determination criterion even if they completely match. A lower limit value may be provided.

上記した例は、ジェスチャ操作を幾つかの被制御装置の制御方法として利用したものであるが、これに限定されず、いろいろな変形が可能であることは言うまでも無い。   In the above-described example, the gesture operation is used as a control method for some controlled devices. However, the present invention is not limited to this, and it goes without saying that various modifications are possible.

(効果)
(1)上記した実施の形態における入力装置3によれば、該当ジェスチャ無しと判定されたジェスチャの入力後に訂正のために入力されたジェスチャに基づいて前回入力したジェスチャの判定基準を変更することができるので、判定精度を向上させることができる。
(effect)
(1) According to the input device 3 in the above-described embodiment, it is possible to change the determination criterion of the previously input gesture based on the gesture input for correction after the input of the gesture determined to have no corresponding gesture. Therefore, the determination accuracy can be improved.

(2)上記した実施の形態における入力装置3によれば、第1番目のジェスチャが意図するジェスチャとは異なるジェスチャとして判定され、判定された異なるジェスチャを打ち消す第2番目のジェスチャが入力され、再び第1番目の訂正として第3のジェスチャが入力され、意図したジェスチャとして第3番目のジェスチャが判定されたとき、第3番目のジェスチャに基づいて意図したジェスチャの判定基準を上げることができるので、判定精度を向上させることができる。 (2) According to the input device 3 in the above-described embodiment, the first gesture is determined as a gesture different from the intended gesture, and the second gesture that cancels the determined different gesture is input again. When the third gesture is input as the first correction and the third gesture is determined as the intended gesture, the determination criterion of the intended gesture can be raised based on the third gesture. The determination accuracy can be improved.

(3)上記した実施の形態における入力装置3によれば、(2)において、判定された異なるジェスチャの判定基準を下げることができるので、相対的に判定精度を向上させることができる。 (3) According to the input device 3 in the above-described embodiment, the determination criterion for the different gesture determined in (2) can be lowered, so that the determination accuracy can be relatively improved.

(4)上記した実施の形態における入力装置3によれば、入力装置3を操作する操作者毎に判定基準情報352を変更することができるので、個人差による判定精度の低下を抑制することができる。 (4) According to the input device 3 in the above-described embodiment, since the determination criterion information 352 can be changed for each operator who operates the input device 3, it is possible to suppress a decrease in determination accuracy due to individual differences. it can.

(5)上記した実施の形態における入力装置3によれば、ジェスチャを正確に判定することができるので、直感的な被制御装置の操作が可能となり、操作性が向上する。 (5) According to the input device 3 in the above-described embodiment, since the gesture can be accurately determined, an intuitive operation of the controlled device is possible, and the operability is improved.

(他の実施の形態について)
(1)上記した実施の形態における入力装置3は、8行8列として格子状に並べたタッチセンサ311によってタッチパッド310を構成したが、タッチセンサ311の数は、用途に応じて自由に変更することができる。
(About other embodiments)
(1) Although the input device 3 in the above-described embodiment includes the touch pad 310 by the touch sensors 311 arranged in a grid of 8 rows and 8 columns, the number of touch sensors 311 can be freely changed according to the application. can do.

(2)上記した実施の形態における入力装置3は、制御部30を備えていたが、車両1に搭載される車両ECUによって制御部30としても良い。 (2) Although the input device 3 in the above-described embodiment includes the control unit 30, the control unit 30 may be configured by a vehicle ECU mounted on the vehicle 1.

(3)上記した実施の形態における入力装置3は、ハードウェアとして記述されているが、入力方法として記憶部35に記憶されたソフトウェアによって判定部32及び基準変更部33の機能を制御部30によって実行するように構成されても良い。またソフトウェアは、記憶媒体によって供給されても良い。 (3) Although the input device 3 in the above-described embodiment is described as hardware, the functions of the determination unit 32 and the reference change unit 33 are controlled by the control unit 30 by software stored in the storage unit 35 as an input method. It may be configured to execute. The software may be supplied by a storage medium.

(4)上記した実施の形態における入力装置3は、被制御装置としてカーナビゲーション装置を例にとったが、車両1に搭載されるエアコン装置、及びオーディオ装置等の電子機器の制御に用いられても良い。 (4) Although the input device 3 in the above-described embodiment has been exemplified by a car navigation device as a controlled device, it is used for controlling an electronic device such as an air conditioner device and an audio device mounted on the vehicle 1. Also good.

なお、本発明は、上記した実施の形態に限定されず、本発明の技術思想を逸脱あるいは変更しない範囲内で種々の変形が可能である。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from or changing the technical idea of the present invention.

本発明の実施の形態に係る入力装置が搭載された車両内部の概略図である。It is the schematic inside the vehicle by which the input device which concerns on embodiment of this invention is mounted. 本発明の実施の形態に係る入力装置に関するブロック図である。It is a block diagram regarding the input device which concerns on embodiment of this invention. 本発明の実施の形態に係るタッチパッドの断面図である。It is sectional drawing of the touchpad which concerns on embodiment of this invention. (a)は、本発明の実施の形態に係る左円ジェスチャの概略図であり、(b)は、上直線ジェスチャの概略図であり、(c)は、右直線ジェスチャの概略図ある。(A) is a schematic diagram of a left circle gesture concerning an embodiment of the invention, (b) is a schematic diagram of an upper straight line gesture, and (c) is a schematic diagram of a right straight line gesture. (a)は、本発明の実施の形態に係る第1のジェスチャの概略図であり、(b)は、ジェスチャの判定に関する概略図である。(A) is the schematic of the 1st gesture which concerns on embodiment of this invention, (b) is the schematic regarding determination of gesture. 本発明の実施の形態に係るジェスチャの判定動作に関するフローチャートである。It is a flowchart regarding the determination operation | movement of the gesture which concerns on embodiment of this invention. (a)は、本発明の実施の形態に係る第2のジェスチャの概略図であり、(b)は、第3のジェスチャの概略図である。(A) is the schematic of the 2nd gesture which concerns on embodiment of this invention, (b) is the schematic of the 3rd gesture. 本発明の実施の形態に係る該当ジェスチャがない場合に関するフローチャートである。It is a flowchart about the case where there is no applicable gesture which concerns on embodiment of this invention. (a)は、本発明の実施の形態に係る第4のジェスチャの概略図であり、(b)は、第5のジェスチャの概略図である。(A) is the schematic of the 4th gesture which concerns on embodiment of this invention, (b) is the schematic of the 5th gesture. 本発明の実施の形態に係る直前ジェスチャが取り消された場合に関するフローチャートである。It is a flowchart regarding the case where the immediately preceding gesture according to the embodiment of the present invention is canceled.

符号の説明Explanation of symbols

1…車両、2…ステアリング、3…入力装置、4…表示装置、5…携帯機、20…本体部、21…ステアリングホイール、30…制御部、31…入力部、32…判定部、33…基準変更部、34…認証部、35…記憶部、50…左円ジェスチャ、51…上直線ジェスチャ、52…右直線ジェスチャ、53〜57…第1〜第5のジェスチャ、310…タッチパッド、311…タッチセンサ、312…本体、313…電極、314…保護膜、350…ジェスチャ辞書、351…タッチ座標群、352…判定基準情報、353…履歴情報 DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Steering, 3 ... Input device, 4 ... Display apparatus, 5 ... Portable machine, 20 ... Main-body part, 21 ... Steering wheel, 30 ... Control part, 31 ... Input part, 32 ... Determination part, 33 ... Reference changing unit, 34 ... authentication unit, 35 ... storage unit, 50 ... left circle gesture, 51 ... upper straight line gesture, 52 ... right straight line gesture, 53-57 ... first to fifth gestures, 310 ... touch pad, 311 ... Touch sensor, 312 ... Main body, 313 ... Electrode, 314 ... Protective film, 350 ... Gesture dictionary, 351 ... Touch coordinate group, 352 ... Judgment reference information, 353 ... History information

Claims (5)

所定の軌跡を模して入力された第1の軌跡に基づいた出力信号を出力する入力部と、
前記所定の軌跡を含む複数の軌跡が記載された軌跡辞書を記憶する記憶部と、
前記第1の軌跡に基づいて前記軌跡辞書から所定の基準に応じて該当する軌跡を判定する判定部と、
前記判定部によって前記該当する軌跡が判定されず、第1の時間内に再び前記入力部に対して前記所定の軌跡を模して第2の軌跡が入力され、前記判定部によって前記第2の軌跡が前記所定の軌跡と判定されたとき、第1の条件に基づいて前記所定の軌跡に対する前記所定の基準を変更する基準変更部と、
を備えたことを特徴とする入力装置。
An input unit that outputs an output signal based on a first trajectory that is input by imitating a predetermined trajectory;
A storage unit for storing a trajectory dictionary in which a plurality of trajectories including the predetermined trajectory are described;
A determination unit that determines a corresponding trajectory according to a predetermined reference from the trajectory dictionary based on the first trajectory;
The corresponding trajectory is not determined by the determination unit, and the second trajectory is input again to the input unit within the first time, imitating the predetermined trajectory, and the second trajectory is input by the determination unit. A reference changing unit that changes the predetermined reference for the predetermined trajectory based on a first condition when a trajectory is determined to be the predetermined trajectory;
An input device comprising:
前記判定部は、前記該当する軌跡として前記所定の軌跡とは異なる軌跡を判定し、
前記基準変更部は、第2の時間内に前記判定部によって判定された前記異なる軌跡とは相反する第3の軌跡が前記入力部に入力されて前記第3の軌跡と判定され、さらに前記判定部によって前記所定の軌跡であると判定される第4の軌跡が入力されたとき、第2の条件に基づいて前記所定の軌跡の前記所定の基準、及び前記異なる軌跡の前記所定の基準を変更することを特徴とする請求項1に記載の入力装置。
The determination unit determines a trajectory different from the predetermined trajectory as the corresponding trajectory,
The reference changing unit determines that the third trajectory, which is opposite to the different trajectory determined by the determination unit within a second time, is input to the input unit and is determined as the third trajectory, and further includes the determination When a fourth trajectory determined by the unit to be the predetermined trajectory is input, the predetermined reference of the predetermined trajectory and the predetermined reference of the different trajectory are changed based on a second condition The input device according to claim 1.
操作者を識別する識別部と、
所定の軌跡を模して前記操作者によって入力された第1の軌跡に基づいた出力信号を出力する入力部と、
前記所定の軌跡を含む複数の軌跡が記載された軌跡辞書を記憶する記憶部と、
前記第1の軌跡に基づいて前記軌跡辞書から前記操作者に応じた所定の基準によって該当する軌跡を判定する判定部と、
前記判定部によって前記該当する軌跡が判定されず、第1の時間内に再び前記入力部に対して前記所定の軌跡を模して第2の軌跡が入力され、前記判定部によって前記第2の軌跡が前記所定の軌跡と判定されたとき、第1の条件に基づいて前記所定の軌跡に対する前記所定の基準を変更する基準変更部と、
を備えたことを特徴とする入力装置。
An identification unit for identifying the operator;
An input unit that outputs an output signal based on a first trajectory input by the operator imitating a predetermined trajectory;
A storage unit for storing a trajectory dictionary in which a plurality of trajectories including the predetermined trajectory are described;
A determination unit that determines a corresponding trajectory from the trajectory dictionary according to a predetermined reference according to the operator based on the first trajectory;
The corresponding trajectory is not determined by the determination unit, and the second trajectory is input again to the input unit within the first time, imitating the predetermined trajectory, and the second trajectory is input by the determination unit. A reference changing unit that changes the predetermined reference for the predetermined trajectory based on a first condition when a trajectory is determined to be the predetermined trajectory;
An input device comprising:
前記判定部は、前記該当する軌跡として前記所定の軌跡とは異なる軌跡を判定し、
前記基準変更部は、第2の時間内に前記判定部によって判定された前記異なる軌跡とは相反する第3の軌跡が前記入力部に入力されて前記第3の軌跡と判定され、さらに前記判定部によって前記所定の軌跡であると判定される第4の軌跡が入力されたとき、第2の条件に基づいて前記所定の軌跡の前記所定の基準、及び前記異なる軌跡の前記所定の基準を変更することを特徴とする請求項3に記載の入力装置。
The determination unit determines a trajectory different from the predetermined trajectory as the corresponding trajectory,
The reference changing unit determines that the third trajectory, which is opposite to the different trajectory determined by the determination unit within a second time, is input to the input unit and is determined as the third trajectory, and further includes the determination When a fourth trajectory determined by the unit to be the predetermined trajectory is input, the predetermined reference of the predetermined trajectory and the predetermined reference of the different trajectory are changed based on a second condition The input device according to claim 3, wherein:
所定の軌跡を模して入力された第1の軌跡を取得する取得ステップと、
前記第1の軌跡に基づいて軌跡辞書から所定の基準に応じて該当する軌跡を判定する判定ステップと、
前記判定ステップによって第1の結果が得られたとき、前記第1の軌跡を入力した時間から第1の時間内に入力されて判定された第2の軌跡に基づいて前記所定の軌跡の前記所定の基準を変更する第1の変更ステップと、
前記判定ステップによって第2の結果が得られたとき、前記第1の軌跡を入力した時間から第2の時間内に入力された前記第2の結果と相反する第3の軌跡が入力されて判定され、続いて入力された第4の軌跡に基づいて前記所定の軌跡の前記所定の基準を変更する第2の変更ステップと、
を備えたことを特徴とする入力方法。
An acquisition step of acquiring a first trajectory imitating a predetermined trajectory;
A determination step of determining a corresponding trajectory according to a predetermined reference from the trajectory dictionary based on the first trajectory;
When the first result is obtained by the determination step, the predetermined of the predetermined trajectory is based on the second trajectory that is input and determined within the first time from the time when the first trajectory is input. A first change step for changing the criteria of
When a second result is obtained by the determination step, a determination is made by inputting a third trajectory that is opposite to the second result input within the second time from the time when the first trajectory is input. A second changing step of changing the predetermined reference of the predetermined trajectory based on the subsequently input fourth trajectory;
An input method characterized by comprising:
JP2008154721A 2008-06-12 2008-06-12 Input device and input method Pending JP2009301301A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008154721A JP2009301301A (en) 2008-06-12 2008-06-12 Input device and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008154721A JP2009301301A (en) 2008-06-12 2008-06-12 Input device and input method

Publications (1)

Publication Number Publication Date
JP2009301301A true JP2009301301A (en) 2009-12-24

Family

ID=41548125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008154721A Pending JP2009301301A (en) 2008-06-12 2008-06-12 Input device and input method

Country Status (1)

Country Link
JP (1) JP2009301301A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013038733A1 (en) 2011-09-15 2013-03-21 オムロン株式会社 Gesture recognition device, electronic apparatus, gesture recognition device control method, control program, and recording medium
WO2013038734A1 (en) 2011-09-15 2013-03-21 オムロン株式会社 Gesture recognition device, electronic apparatus, gesture recognition device control method, control program, and recording medium
JP2013182528A (en) * 2012-03-02 2013-09-12 Konica Minolta Inc Information processing device and program
JP2015052865A (en) * 2013-09-06 2015-03-19 三菱電機株式会社 Screen input operation device
JP2016042393A (en) * 2016-01-04 2016-03-31 コニカミノルタ株式会社 Operation display device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6431283A (en) * 1987-07-27 1989-02-01 Sharp Kk On-line character recognition device with automatic learning function
JPH07319995A (en) * 1994-05-27 1995-12-08 Toshiba Corp Method and device for inputting hand-written information, and method and device for recognizing character
JPH08314619A (en) * 1995-05-23 1996-11-29 Canon Inc Pen input type electronic device and its control method
JPH0981686A (en) * 1995-09-18 1997-03-28 Casio Comput Co Ltd Handwritten data input device
JPH1125211A (en) * 1997-07-04 1999-01-29 Sharp Corp Handwritten character input system and its recording medium
JP2001022891A (en) * 1999-07-06 2001-01-26 Hitachi Ltd Recognizing device and storage medium for recognition
JP2002513969A (en) * 1998-05-07 2002-05-14 エイアールティー−アドヴァンスト・レコグニション・テクノロジーズ・リミテッド Handwriting and voice control of vehicle components

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6431283A (en) * 1987-07-27 1989-02-01 Sharp Kk On-line character recognition device with automatic learning function
JPH07319995A (en) * 1994-05-27 1995-12-08 Toshiba Corp Method and device for inputting hand-written information, and method and device for recognizing character
JPH08314619A (en) * 1995-05-23 1996-11-29 Canon Inc Pen input type electronic device and its control method
JPH0981686A (en) * 1995-09-18 1997-03-28 Casio Comput Co Ltd Handwritten data input device
JPH1125211A (en) * 1997-07-04 1999-01-29 Sharp Corp Handwritten character input system and its recording medium
JP2002513969A (en) * 1998-05-07 2002-05-14 エイアールティー−アドヴァンスト・レコグニション・テクノロジーズ・リミテッド Handwriting and voice control of vehicle components
JP2001022891A (en) * 1999-07-06 2001-01-26 Hitachi Ltd Recognizing device and storage medium for recognition

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013038733A1 (en) 2011-09-15 2013-03-21 オムロン株式会社 Gesture recognition device, electronic apparatus, gesture recognition device control method, control program, and recording medium
WO2013038734A1 (en) 2011-09-15 2013-03-21 オムロン株式会社 Gesture recognition device, electronic apparatus, gesture recognition device control method, control program, and recording medium
KR20140027469A (en) 2011-09-15 2014-03-06 오므론 가부시키가이샤 Gesture recognition device, electronic apparatus, gesture recognition device control method, control program, and recording medium
US9304600B2 (en) 2011-09-15 2016-04-05 Omron Corporation Gesture recognition device, electronic apparatus, gesture recognition device control method, control program, and recording medium
JP2013182528A (en) * 2012-03-02 2013-09-12 Konica Minolta Inc Information processing device and program
JP2015052865A (en) * 2013-09-06 2015-03-19 三菱電機株式会社 Screen input operation device
JP2016042393A (en) * 2016-01-04 2016-03-31 コニカミノルタ株式会社 Operation display device

Similar Documents

Publication Publication Date Title
CN106462288B (en) Touch input unit
JP2009298285A (en) Input device
US7705831B2 (en) Pad type input device and scroll controlling method using the same
JP5921835B2 (en) Input device
CN104142768B (en) The method of the touch-control of touch controlled type input unit and detection contact panel
JP5640486B2 (en) Information display device
TWI543064B (en) Method for sensing fast motion, controller and electromagnetic sensing apparatus
JP6277786B2 (en) Vehicle control device
JP5905434B2 (en) Operating device
JP2009301301A (en) Input device and input method
CN104340132A (en) Input device
JP2009301302A (en) Gesture determination device
JP6127679B2 (en) Operating device
CN107861653A (en) Display control apparatus, display control program and display control method
US20200050348A1 (en) Touch-type input device and operation detection method
JP2014215750A (en) Electronic device, calibration method, and program
US20080128179A1 (en) Method for controlling input portion and input device and electronic device using the method
JP2009301300A (en) Input device
US20150089441A1 (en) Touch switch module
JP6557300B2 (en) Touch panel inspection apparatus and touch panel inspection method
WO2010122825A1 (en) Mobile terminal
JP5849597B2 (en) Vehicle control device
CN104866218A (en) Control method of electronic touch equipment
JP5062898B2 (en) User interface device
CN107407976B (en) Operation equipment, motor vehicle and the method for running operation equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120417