JP2012053591A - Control device and program - Google Patents

Control device and program Download PDF

Info

Publication number
JP2012053591A
JP2012053591A JP2010194672A JP2010194672A JP2012053591A JP 2012053591 A JP2012053591 A JP 2012053591A JP 2010194672 A JP2010194672 A JP 2010194672A JP 2010194672 A JP2010194672 A JP 2010194672A JP 2012053591 A JP2012053591 A JP 2012053591A
Authority
JP
Japan
Prior art keywords
trajectory
gesture
control
condition
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010194672A
Other languages
Japanese (ja)
Other versions
JP5510201B2 (en
Inventor
Yuji Imai
裕二 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2010194672A priority Critical patent/JP5510201B2/en
Publication of JP2012053591A publication Critical patent/JP2012053591A/en
Application granted granted Critical
Publication of JP5510201B2 publication Critical patent/JP5510201B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a control device and a program allowing a user to easily operate them, while controlling in-vehicle electronic equipment or the like not to execute control against the user's intention.SOLUTION: A control part 200 of a control device 1000 acquires locus information showing a locus on an operation surface of an input device 100 traced by a user, recognizes it as a gesture operation based on bulged portions formed on the operation surface from the acquired locus information, and transmits a control signal based on corresponding operation data C to in-vehicle electronic equipment 20, which allows the user to easily perform contact operation. Moreover, the control part 200 transmits a control signal to the in-vehicle electronic equipment 20 when a gesture feature amount related to the recognized gesture operation reaches a first set value which is a predetermined value of the gesture feature amount or a second set value smaller than the first set value. Accordingly the in-vehicle electronic equipment 20 is controlled not to execute control against the user's intention.

Description

本発明は、制御装置及びプログラムに関する。   The present invention relates to a control device and a program.

例えば、特許文献1には、ユーザからの接触操作を受け付ける接触センサを車両のステアリングに設け、前記の接触操作に応じて、カーナビゲーション装置、オーディオ装置等の車載電子機器を制御する制御装置が開示されている。   For example, Patent Document 1 discloses a control device that provides a contact sensor that receives a contact operation from a user in a vehicle steering and controls an in-vehicle electronic device such as a car navigation device or an audio device according to the contact operation. Has been.

特開2009−298285号公報JP 2009-298285 A

しかし、特許文献1に開示された制御装置では、例えば、ユーザは車両の運転中に接触センサを見ずに接触操作を行うため、ユーザは、接触センサのどこを触れて操作しているか分からないので、接触操作を行いづらかった。また、特許文献1に開示された制御装置では、例えば、ユーザは車両の運転中に接触センサを見ずに接触操作を行うため、接触センサに対して誤接触を行ってしまうことが多かったが、この制御装置は、この誤接触に応じても車載電子機器を制御してしまうため、車載電子機器がユーザの意図しない動作を行うことが多々あった。つまり、この制御装置は、車載電子機器に対してユーザの意図しない制御を行ってしまうことが多々あった。   However, in the control device disclosed in Patent Document 1, for example, since the user performs a contact operation without looking at the contact sensor during driving of the vehicle, the user does not know where the touch sensor is touched. Therefore, it was difficult to perform the contact operation. Further, in the control device disclosed in Patent Document 1, for example, the user performs a contact operation without looking at the contact sensor during driving of the vehicle. Since this control device controls the in-vehicle electronic device even in response to this erroneous contact, the in-vehicle electronic device often performs an operation not intended by the user. That is, this control device often performs control unintended by the user with respect to the in-vehicle electronic device.

本発明は、上記事情に鑑みてなされたものであり、その第1の目的とするところは、ユーザが接触操作を行いやすい制御装置及びプログラムを提供することにある。また、その第2の目的とするところは、車載電子機器等の所定の装置に対してユーザの意図しない制御を行うことを抑制する制御装置及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and a first object thereof is to provide a control device and a program that allow a user to easily perform a contact operation. Moreover, the place made into the 2nd objective is providing the control apparatus and program which suppress performing control which a user does not intend with respect to predetermined apparatuses, such as a vehicle-mounted electronic device.

上記目的を達成するため、本発明の第1の観点に係る制御装置は、
ユーザが入力装置の操作面上をなぞった軌跡を表す軌跡情報を取得する軌跡情報取得手段と、
前記軌跡情報取得手段が取得した前記軌跡情報が表す前記軌跡が所定の条件を満たす場合に前記軌跡に対応した制御を所定の装置に対して行う装置制御手段と、を備え、
前記操作面は段差を有し、
前記所定の条件は、前記軌跡情報が表す前記軌跡が予め設定されている前記段差に関連した軌跡であるか否かの条件である、
ことを特徴とする。
In order to achieve the above object, a control device according to the first aspect of the present invention provides:
Trajectory information acquisition means for acquiring trajectory information representing a trajectory traced on the operation surface of the input device;
Device control means for performing control corresponding to the trajectory on a predetermined device when the trajectory represented by the trajectory information acquired by the trajectory information acquisition means satisfies a predetermined condition;
The operation surface has a step,
The predetermined condition is a condition as to whether or not the trajectory represented by the trajectory information is a trajectory related to the preset step.
It is characterized by that.

上記目的を達成するため、本発明の第2の観点に係る制御装置は、
ユーザが入力装置の操作面上をなぞった第1の軌跡を表す第1の軌跡情報と、その後に前記ユーザが前記操作面上をなぞった第2の軌跡を表す第2の軌跡情報と、を取得する軌跡情報取得手段と、
前記軌跡情報取得手段が取得した前記第1の軌跡情報が表す前記第1の軌跡が第1の条件を満たす場合に前記第1の軌跡に対応した第1の制御を所定の装置に対して行い、かつ、前記第1の制御の後に前記第2の軌跡情報が表す前記第2の軌跡が第2の条件を満たす場合に前記第2の軌跡に対応した第2の制御を前記所定の装置に対して行う装置制御手段と、を備え、
前記第2の条件は前記第1の条件よりも緩い条件である、
ことを特徴とする。
In order to achieve the above object, a control device according to the second aspect of the present invention provides:
First trajectory information representing a first trajectory traced on the operation surface of the input device and second trajectory information representing a second trajectory traced on the operation surface by the user. Trajectory information acquisition means for acquiring;
When the first trajectory represented by the first trajectory information acquired by the trajectory information acquisition means satisfies a first condition, the first control corresponding to the first trajectory is performed on a predetermined device. And, when the second trajectory represented by the second trajectory information satisfies the second condition after the first control, the second control corresponding to the second trajectory is applied to the predetermined device. Device control means for performing,
The second condition is a looser condition than the first condition.
It is characterized by that.

上記目的を達成するため、本発明の第3の観点に係るプログラムは、
コンピュータを、
ユーザが入力装置の操作面上をなぞった軌跡を表す軌跡情報を取得する軌跡情報取得手段、
前記軌跡情報取得手段が取得した前記軌跡情報が表す前記軌跡が所定の条件を満たす場合に前記軌跡に対応した制御を所定の装置に対して行う装置制御手段、として機能させ、
前記操作面は段差を有し、
前記所定の条件は、前記軌跡情報が表す前記軌跡が予め設定されている前記段差に関連した軌跡であるか否かの条件である、
ことを特徴とする。
In order to achieve the above object, a program according to the third aspect of the present invention provides:
Computer
Trajectory information acquisition means for acquiring trajectory information representing a trajectory that the user traces on the operation surface of the input device;
When the locus represented by the locus information acquired by the locus information acquisition unit satisfies a predetermined condition, function as device control unit that performs control corresponding to the locus on a predetermined device,
The operation surface has a step,
The predetermined condition is a condition as to whether or not the trajectory represented by the trajectory information is a trajectory related to the preset step.
It is characterized by that.

上記目的を達成するため、本発明の第4の観点に係るプログラムは、
コンピュータを、
ユーザが入力装置の操作面上をなぞった第1の軌跡を表す第1の軌跡情報と、その後に前記ユーザが前記操作面上をなぞった第2の軌跡を表す第2の軌跡情報と、を取得する軌跡情報取得手段、
前記軌跡情報取得手段が取得した前記第1の軌跡情報が表す前記第1の軌跡が第1の条件を満たす場合に前記第1の軌跡に対応した第1の制御を所定の装置に対して行い、かつ、前記第1の制御の後に前記第2の軌跡情報が表す前記第2の軌跡が第2の条件を満たす場合に前記第2の軌跡に対応した第2の制御を前記所定の装置に対して行う装置制御手段、として機能させ、
前記第2の条件は前記第1の条件よりも緩い条件である、
ことを特徴とする。
In order to achieve the above object, a program according to the fourth aspect of the present invention provides:
Computer
First trajectory information representing a first trajectory traced on the operation surface of the input device and second trajectory information representing a second trajectory traced on the operation surface by the user. Trajectory information acquisition means for acquiring,
When the first trajectory represented by the first trajectory information acquired by the trajectory information acquisition means satisfies a first condition, the first control corresponding to the first trajectory is performed on a predetermined device. And, when the second trajectory represented by the second trajectory information satisfies the second condition after the first control, the second control corresponding to the second trajectory is applied to the predetermined device. Function as device control means for
The second condition is a looser condition than the first condition.
It is characterized by that.

本発明の第1の観点にかかる制御装置又は第3の観点にかかるプログラムによれば、ユーザが接触操作を行いやすい。また、本発明の第2の観点にかかる制御装置又は第4の観点にかかるプログラムによれば、車載電子機器等の所定の装置に対してユーザの意図しない制御を行うことを抑制することができる。   According to the control device according to the first aspect of the present invention or the program according to the third aspect, the user can easily perform a contact operation. Moreover, according to the control apparatus concerning the 2nd viewpoint of this invention, or the program concerning a 4th viewpoint, it can suppress performing control which a user does not intend with respect to predetermined apparatuses, such as a vehicle-mounted electronic device. .

本発明の第1実施形態に係る制御装置を含むシステムの構成図である。1 is a configuration diagram of a system including a control device according to a first embodiment of the present invention. 入力装置が搭載される車両内の運転席付近の概観図である。It is a general-view figure near the driver's seat in the vehicle carrying an input device. (a)は、入力装置の構成を示す分解斜視図であり、(b)は、本図(a)に示す各部を組み付けた後の斜視図である。(A) is a disassembled perspective view which shows the structure of an input device, (b) is a perspective view after assembling each part shown to this figure (a). (a)は、接触センサの平面図であり、(b)は、本図(a)における接触センサにおける表面カバー、センサシート及びスペーサのA−A断面図である。(A) is a top view of a contact sensor, (b) is AA sectional drawing of the surface cover in the contact sensor in this figure (a), a sensor sheet | seat, and a spacer. センサシートが有する第1のセンサ列及び第2のセンサ列を説明する図である。It is a figure explaining the 1st sensor row and the 2nd sensor row which a sensor sheet has. 第1実施形態に係る制御装置が実行する車載電子機器制御処理のフローチャートである。It is a flowchart of the vehicle-mounted electronic device control process which the control apparatus which concerns on 1st Embodiment performs. (a)及び(b)は、ジェスチャ特徴量の一例を説明するための図である。(A) And (b) is a figure for demonstrating an example of a gesture feature-value. (a)及び(b)は、隆起部に沿ったジェスチャ操作に係るジェスチャ特徴量の一例を説明するための図である。(A) And (b) is a figure for demonstrating an example of the gesture feature-value based on gesture operation along a protruding part. 隆起部を基準としたジェスチャ操作と、それに応じて実行される車載電子機器の動作の一例を示した図である。It is the figure which showed an example of operation of the vehicle-mounted electronic device performed according to gesture operation on the basis of a protruding part, and corresponding to it. 隆起部を基準としたジェスチャ操作と、それに応じて実行される車載電子機器の動作の一例を示した図である。It is the figure which showed an example of operation of the vehicle-mounted electronic device performed according to gesture operation on the basis of a protruding part, and corresponding to it. 隆起部を基準としたジェスチャ操作と、それに応じて実行される車載電子機器の動作の一例を示した図である。It is the figure which showed an example of operation of the vehicle-mounted electronic device performed according to gesture operation on the basis of a protruding part, and corresponding to it. 隆起部を基準としたジェスチャ操作と、それに応じて実行される車載電子機器の動作の一例を示した図である。It is the figure which showed an example of operation of the vehicle-mounted electronic device performed according to gesture operation on the basis of a protruding part, and corresponding to it. 隆起部を基準としたジェスチャ操作と、それに応じて実行される車載電子機器の動作の一例を示した図である。It is the figure which showed an example of operation of the vehicle-mounted electronic device performed according to gesture operation on the basis of a protruding part, and corresponding to it. 本発明の第2実施形態に係る記憶部の構成図である。It is a block diagram of the memory | storage part which concerns on 2nd Embodiment of this invention. 所定のジェスチャ操作における第1軌跡と第2軌跡を説明する図である。It is a figure explaining the 1st locus | trajectory and 2nd locus | trajectory in predetermined | prescribed gesture operation. 第2実施形態に係る制御装置が実行する誤操作防止処理のフローチャートである。It is a flowchart of the erroneous operation prevention process which the control apparatus which concerns on 2nd Embodiment performs. 所定のジェスチャ操作において、順方向から逆方向に操作した場合を説明する図である。It is a figure explaining the case where it operates in the reverse direction from the forward direction in predetermined | prescribed gesture operation. 本発明の第3実施形態に係る制御装置を含むシステムの構成図である。It is a block diagram of the system containing the control apparatus which concerns on 3rd Embodiment of this invention. (a)及び(b)は、本発明の変形例に係る接触センサが有する操作面の形状の一例を示した平面図である。(A) And (b) is the top view which showed an example of the shape of the operation surface which the contact sensor which concerns on the modification of this invention has.

本発明の一実施形態に係る制御装置を、図面を参照して説明する。   A control device according to an embodiment of the present invention will be described with reference to the drawings.

1.第1実施形態
第1実施形態に係る制御装置は、図1に示す、車両1に搭載される制御装置1000である。車両1のユーザ(通常、運転者)が、図2に示す入力装置100を操作すると、制御装置1000は、その操作に応じた各種動作を車載電子機器20に実行させる。
1. 1st Embodiment The control apparatus which concerns on 1st Embodiment is the control apparatus 1000 mounted in the vehicle 1 shown in FIG. When a user (usually a driver) of the vehicle 1 operates the input device 100 shown in FIG. 2, the control device 1000 causes the in-vehicle electronic device 20 to perform various operations according to the operation.

(車両1の構成)
車両1は、図2に示すように、ステアリング10と、車載電子機器20と、を備える。
(Configuration of vehicle 1)
As shown in FIG. 2, the vehicle 1 includes a steering 10 and an in-vehicle electronic device 20.

ステアリング10は、車両1の操舵装置の一部であり、本体部11と、ステアリングホイール12と、を備える。   The steering 10 is a part of the steering device of the vehicle 1, and includes a main body 11 and a steering wheel 12.

本体部11は、車両1の図示しないステアリングシャフトと接続されるスポーク部であり、右側に入力装置100を備える。また、本体部11には、入力装置100の形状にあわせた取付孔(図示せず)が形成されている。取付孔に入力装置100が取り付けられることにより、入力装置100の後述する操作面のみが露出する。   The main body 11 is a spoke connected to a steering shaft (not shown) of the vehicle 1 and includes an input device 100 on the right side. The main body 11 is formed with a mounting hole (not shown) that matches the shape of the input device 100. By attaching the input device 100 to the attachment hole, only an operation surface (described later) of the input device 100 is exposed.

ステアリングホイール12は、本体部11に取り付けられる、運転者が車両1を操舵する際に握るリング形状の部材である。   The steering wheel 12 is a ring-shaped member attached to the main body 11 and gripped when the driver steers the vehicle 1.

車載電子機器20は、オーディオ装置、カーナビゲーション装置等であり、制御装置1000と電気的に接続され、制御装置1000から受信した制御信号に従って動作する。また、車載電子機器20は、その表示部21に動作に対応した画像を表示する。   The in-vehicle electronic device 20 is an audio device, a car navigation device, or the like, is electrically connected to the control device 1000, and operates according to a control signal received from the control device 1000. The in-vehicle electronic device 20 displays an image corresponding to the operation on the display unit 21.

(制御装置1000の構成)
制御装置1000は、入力装置100と、制御部200と、記憶部300と、を備える。
(Configuration of control device 1000)
The control device 1000 includes an input device 100, a control unit 200, and a storage unit 300.

入力装置100は、図3(a)及び(b)に示すように、接触センサ110と、スイッチ装置120と、を備える。   As illustrated in FIGS. 3A and 3B, the input device 100 includes a contact sensor 110 and a switch device 120.

接触センサ110は、ユーザが、親指等でその操作面上を所定の軌跡を描くようになぞる操作(以下、ジェスチャ操作と言う)を行った際に、後述する制御部200の制御のもと、親指等が操作面に触れた位置を検出するタッチパッド装置であり、表面カバー111と、センサシート112と、スペーサ113と、下ケース114と、上ケース115と、を備える。   When the user performs an operation of tracing a predetermined locus on the operation surface with a thumb or the like (hereinafter referred to as a gesture operation), the contact sensor 110 is controlled by the control unit 200 described later. This is a touch pad device that detects a position where a thumb or the like touches the operation surface, and includes a surface cover 111, a sensor sheet 112, a spacer 113, a lower case 114, and an upper case 115.

表面カバー111は、アクリル樹脂等の絶縁材料からシート状に形成され、ジェスチャ操作が行われる際に、ユーザの指等が触れる操作面を有する。表面カバー111の操作面は、図4(b)に示すように、凹凸を有し、これによってこの操作面には段差が形成されている。このような操作面は、平面部111a、隆起部111b、窪み部111c、隙間部111dから構成される。   The front cover 111 is formed in a sheet shape from an insulating material such as an acrylic resin and has an operation surface that is touched by a user's finger or the like when a gesture operation is performed. As shown in FIG. 4B, the operation surface of the front cover 111 has irregularities, and a step is formed on this operation surface. Such an operation surface includes a flat portion 111a, a raised portion 111b, a hollow portion 111c, and a gap portion 111d.

平面部111aは、表面カバー111の平面状の部分である。   The flat portion 111 a is a flat portion of the surface cover 111.

隆起部111bは、図4(b)に示すように、平面部111aから表側方向に盛り上がるように隆起する部分である。表側から見れば、図4(a)に示すように、円弧状に形成された隆起部111bが、円を略囲むように、所定の間隔をおいて複数配置されていることがわかる。なお、「表側」とは、図3(a)の両端矢印で示すように、入力装置100に対してユーザ側をいい、「裏側」とは、その反対側をいうものとする。   As shown in FIG. 4B, the raised portion 111b is a portion that rises so as to rise from the flat surface portion 111a in the front side direction. From the front side, as shown in FIG. 4A, it can be seen that a plurality of raised portions 111b formed in an arc shape are arranged at predetermined intervals so as to substantially surround the circle. The “front side” refers to the user side with respect to the input device 100 as indicated by the double-ended arrows in FIG. 3A, and the “back side” refers to the opposite side.

窪み部111cは、図4(b)に示すように、操作面の略中央に位置し、平面部111aから裏側方向に沈むように窪んだ部分であり、図4(a)に示すように、円状に配置された隆起部111bよりも内側に形成されている。   As shown in FIG. 4 (b), the recess 111c is located at the approximate center of the operation surface, and is a recessed portion so as to sink from the flat surface portion 111a toward the back side. As shown in FIG. It is formed inside the raised portion 111b arranged in a shape.

隙間部111dは、図4(a)に示すように(4つの隙間部111dのうちの一つを二点鎖線で示した)、円弧状の各隆起部111bの間の部分である。隙間部111dは、平面部111aの一部であるが、後に行う「隆起部を基準としたジェスチャ操作」の説明にあたり、平面部111aとは別の名称とした。   As shown in FIG. 4A (one of the four gap portions 111d is indicated by a two-dot chain line), the gap portion 111d is a portion between the arc-shaped raised portions 111b. The gap portion 111d is a part of the flat surface portion 111a, but has a different name from the flat surface portion 111a in the description of the “gesture operation based on the raised portion” to be performed later.

平面部111aと隆起部111bと窪み部111cとは、ユーザのジェスチャ操作を妨げることがないように、図4(b)に示すように、その断面形状は、互いになめらかに繋がって形成されている。   As shown in FIG. 4B, the planar portion 111a, the raised portion 111b, and the recessed portion 111c are formed so that their cross-sectional shapes are smoothly connected to each other so as not to hinder the user's gesture operation. .

センサシート112は、指等の被検出体の位置を検出するための複数のセンサ1120(検出電極)を有する投影静電容量方式のセンサシートであり、表面カバー111の裏面側に位置する。   The sensor sheet 112 is a projected capacitance type sensor sheet having a plurality of sensors 1120 (detection electrodes) for detecting the position of a detection object such as a finger, and is located on the back side of the front cover 111.

センサシート112は、図5に示すように、X方向における被検出体の位置を検出するための第1のセンサ列112aを有する層と、Y方向における被検出体の位置を検出するための第2のセンサ列112bを有する層を重ね合わせ概略構成されている。第1のセンサ列112aと第2のセンサ列112bが合わさることにより、結果的に、センサシート112には、センサ1120がマトリックス状に配置されることになる。第1のセンサ列112aと第2のセンサ列112bは、各々、後述する制御部200と電気的に接続されている。   As shown in FIG. 5, the sensor sheet 112 has a layer having a first sensor array 112a for detecting the position of the detected object in the X direction and a first position for detecting the position of the detected object in the Y direction. A layer having two sensor rows 112b is roughly configured to overlap. By combining the first sensor row 112a and the second sensor row 112b, the sensor 1120 is arranged in a matrix on the sensor sheet 112 as a result. The first sensor row 112a and the second sensor row 112b are each electrically connected to a control unit 200 described later.

表面カバー111に指等の被検出体が触れると、その裏面側に位置するセンサ1120と被検出体との間の静電容量が変化する。制御部200と各センサ1120とは電気的に接続されているので、制御部200は、各センサにおける静電容量の変化を検出できる。制御部200は、この静電容量の変化に基づいて、被検出体の接触位置を示す入力座標値(X,Y)を算出する。入力座標値は、操作面上に予め設定されている、各センサ1120におけるXY座標系における座標値である。入力座標値は、X方向における静電容量の変化の分布の重心位置(例えば、静電容量が一定の閾値よりも高くかつ最も大きいセンサ1120の位置)に割り当てられているX座標と、Y方向における静電容量の変化の分布の重心位置(例えば、静電容量が一定の閾値よりも高くかつ最も大きいセンサ1120の位置)に割り当てられているY座標と、によって表される。制御部200は、このX座標及びY座標を算出することによって入力座標値(X,Y)を算出する。   When a detection object such as a finger touches the front cover 111, the capacitance between the sensor 1120 located on the back side and the detection object changes. Since the control part 200 and each sensor 1120 are electrically connected, the control part 200 can detect the change of the electrostatic capacitance in each sensor. The control unit 200 calculates an input coordinate value (X, Y) indicating the contact position of the detection target based on the change in capacitance. The input coordinate value is a coordinate value in the XY coordinate system of each sensor 1120 set in advance on the operation surface. The input coordinate values are the X coordinate assigned to the center of gravity position of the distribution of changes in capacitance in the X direction (for example, the position of the sensor 1120 where the capacitance is higher than a certain threshold value and the largest), and the Y direction. And the Y coordinate assigned to the position of the center of gravity of the distribution of the change in the electrostatic capacity (for example, the position of the sensor 1120 where the electrostatic capacity is higher than a certain threshold value and the largest). The control unit 200 calculates the input coordinate value (X, Y) by calculating the X coordinate and the Y coordinate.

図4に戻って、センサシート112は、絞り加工により表面カバー111と一体成形されることで、表面カバー111と同様の形状に加工される(図4(b)参照)。このように一体成形されることで、表面カバー111とセンサシート112は、一枚のシートのようになり、操作面が有する隆起部111b、窪み部111c等の段差形状は、その一枚のシートの曲がった部分で構成されることになる。また、このように一体成形されることで、表面カバー111の裏面とセンサシート112の表面とが当接する。これにより、表面カバー111の段差形状に対応して、センサ1120が配置されることになる。このようにセンサ1120が配置されているため、隆起部111b等の段差形状を有した操作面上で行われたジェスチャ操作であっても、制御部200は、各センサにおける静電容量の変化を検出できる。   Returning to FIG. 4, the sensor sheet 112 is integrally formed with the surface cover 111 by drawing, so that the sensor sheet 112 is processed into the same shape as the surface cover 111 (see FIG. 4B). By being integrally molded in this way, the front cover 111 and the sensor sheet 112 are like a single sheet, and the stepped shapes such as the raised portion 111b and the depressed portion 111c of the operation surface are the single sheet. It will be composed of bent parts. In addition, the back surface of the front cover 111 and the front surface of the sensor sheet 112 come into contact with each other by being integrally molded in this way. Thereby, the sensor 1120 is arranged corresponding to the step shape of the front cover 111. Since the sensor 1120 is arranged in this way, even when the gesture operation is performed on the operation surface having a stepped shape such as the raised portion 111b, the control unit 200 changes the capacitance of each sensor. It can be detected.

スペーサ113は、センサシート112の裏面側に位置し、図4(b)に示すように、一体成形された表面カバー111とセンサシート112の形状に合わせて形成され、ユーザ操作により表面カバー111の表側から押圧が加わった際にこれらの形状を保持する部材である。   The spacer 113 is located on the back side of the sensor sheet 112, and is formed according to the shape of the integrally formed surface cover 111 and sensor sheet 112 as shown in FIG. 4B. It is a member that holds these shapes when pressure is applied from the front side.

図3に戻って、下ケース114は、合成樹脂等から形成される箱状の部材であり、その表側に上記の各部111〜113を収納する。   Returning to FIG. 3, the lower case 114 is a box-shaped member formed of synthetic resin or the like, and houses the above-described portions 111 to 113 on the front side thereof.

上ケース115は、上記の各部111〜113を収納した下ケース114を表側から覆う蓋部であり、表面カバー111の操作面を露出させる開口部を有して、合成樹脂等から形成される。   The upper case 115 is a lid portion that covers the lower case 114 that houses the above-described portions 111 to 113 from the front side, and has an opening that exposes the operation surface of the front cover 111 and is made of synthetic resin or the like.

スイッチ装置120は、接触センサ110の裏面側に位置し、制御部200と電気的に接続される。ユーザが入力装置100の操作面を押下する操作(以下、入力確定操作という)を行うと、スイッチ装置120は押され、所定の入力信号を制御部200に送信する。入力確定操作は、後述するように、所定のジェスチャ操作で選択したコマンドを確定する際になされる。   The switch device 120 is located on the back side of the contact sensor 110 and is electrically connected to the control unit 200. When the user performs an operation of pressing down the operation surface of the input device 100 (hereinafter referred to as input confirmation operation), the switch device 120 is pressed and transmits a predetermined input signal to the control unit 200. As will be described later, the input confirmation operation is performed when a command selected by a predetermined gesture operation is confirmed.

ここで、入力装置100は、ステアリング10の本体部11に、例えば、接触センサ110の上ケース115が本体部11と軟質樹脂で溶着されることにより、取り付けられる。このように取り付けられることにより、ユーザが操作面を押下すると、接触センサ110が沈み、スイッチ装置120が押される仕組みとなっている。   Here, the input device 100 is attached to the main body 11 of the steering 10 by, for example, the upper case 115 of the contact sensor 110 being welded to the main body 11 with a soft resin. By being attached in this way, when the user presses the operation surface, the contact sensor 110 sinks and the switch device 120 is pressed.

以上の各部により、入力装置100は構成される。入力装置100の組み付け後の概観を図3(b)に示す。   The input device 100 is configured by the above-described units. An overview after the input device 100 is assembled is shown in FIG.

図1に戻って、制御部200は、CPU(Central Processing Unit)等から構成され、記憶部300に格納されている動作プログラムを実行して、各種の処理や制御を行う。制御部200は、その少なくとも一部が、ASIC(Application Specific Integrated Circuit)等の各種専用回路によって構成されてもよい。   Returning to FIG. 1, the control unit 200 includes a CPU (Central Processing Unit) and the like, and executes an operation program stored in the storage unit 300 to perform various processes and controls. At least a part of the control unit 200 may be configured by various dedicated circuits such as an ASIC (Application Specific Integrated Circuit).

記憶部300は、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成され、制御部200を構成するCPUのワークエリア、CPUが実行する動作プログラムを記憶するプログラムエリア、データエリア等として機能する。   The storage unit 300 includes a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like. The work area of the CPU that configures the control unit 200, a program area that stores an operation program executed by the CPU, and data It functions as an area.

プログラムエリアには、i)後述する車載電子機器制御処理を実行するためのプログラム、ii)スイッチ装置120が受け付けた入力確定操作に応じて所定の制御信号を車載電子機器20に送信するためのプログラム、等の動作プログラムが記憶される。   In the program area, i) a program for executing an in-vehicle electronic device control process, which will be described later, and ii) a program for transmitting a predetermined control signal to the in-vehicle electronic device 20 in accordance with an input confirmation operation received by the switch device 120 , Etc. are stored.

データエリアには、図示するように、ジェスチャ辞書G、対応動作データC、後述するジェスチャ特徴量の所定値である設定値Q、等が予め記憶されている。   In the data area, as shown in the figure, a gesture dictionary G, corresponding motion data C, a set value Q that is a predetermined value of a gesture feature amount described later, and the like are stored in advance.

ジェスチャ辞書Gは、行われているジェスチャ操作を認識するために必要となるデータであり、ジェスチャ操作によって描かれる軌跡の特徴を示す複数のパターンを含む。ジェスチャ操作の特徴を示すパターンは、後述するジェスチャ特徴量の各成分の組合せから構成されている。本実施形態において、このパターンは、後述する「隆起部を基準としたジェスチャ操作」の特徴を示すパターンである。   The gesture dictionary G is data necessary for recognizing a gesture operation being performed, and includes a plurality of patterns indicating trajectory features drawn by the gesture operation. The pattern indicating the feature of the gesture operation is composed of a combination of each component of the gesture feature amount described later. In the present embodiment, this pattern is a pattern indicating the characteristics of a “gesture operation based on a raised portion” to be described later.

対応動作データCは、車載電子機器20に所定の動作を実行させる制御信号のデータである。対応動作データCは、複数あり、その各々が、ジェスチャ辞書Gが含む複数のパターンと対応付けられている。例えば、隆起部111bに沿った円弧状のジェスチャ操作の特徴を示すパターンには、車載電子機器20にオーディオ音量の変更を実行させる音量制御信号を送信するコマンドのデータが対応動作データCとして対応付けられて予めデータエリアに記憶されている。   The corresponding operation data C is data of a control signal that causes the in-vehicle electronic device 20 to execute a predetermined operation. There are a plurality of corresponding action data C, each of which is associated with a plurality of patterns included in the gesture dictionary G. For example, the command data for transmitting the volume control signal for causing the in-vehicle electronic device 20 to change the audio volume is associated with the pattern indicating the feature of the arc-shaped gesture operation along the raised portion 111b as the corresponding operation data C. And stored in advance in the data area.

設定値Qは、ジェスチャ特徴量の所定値のデータであり、制御信号を車載電子機器20へ送信するトリガーの役割となるデータである。設定値Qは、ジェスチャ辞書Gが含む複数のパターンごとに対応付けられている。つまり、設定値Qは複数ある。ここで、設定値Qとの比較対象として選択されるジェスチャ特徴量は、例えば、複数の入力座標値を、時系列順に直線で繋いだ軌跡における、軌跡の長さSである。   The set value Q is data of a predetermined value of the gesture feature value, and is data serving as a trigger for transmitting a control signal to the in-vehicle electronic device 20. The setting value Q is associated with each of a plurality of patterns included in the gesture dictionary G. That is, there are a plurality of setting values Q. Here, the gesture feature quantity selected as a comparison target with the set value Q is, for example, a trajectory length S in a trajectory in which a plurality of input coordinate values are connected by a straight line in time series.

制御装置1000の動作については、後に詳細に述べるが、ここで、ジェスチャ辞書G、対応動作データC、設定値Q、それぞれの役割について簡潔に述べる。i)ジェスチャ辞書Gは、行われているジェスチャ操作が、予め定められたどのパターンに属するか(即ち、どのような種類のジェスチャ操作であるか)を認識するために用いられる。ii)対応動作データCは、ジェスチャ辞書Gを基に認識したジェスチャ操作に応じてどのような制御信号を車載電子機器20に送信するか、を判別するために用いられる。iii)設定値Qは、認識されたジェスチャ操作に係るジェスチャ特徴量がどのような値に達したら、対応動作データCに基づく制御信号を送信するか、を判別するために用いられる。   The operation of the control device 1000 will be described in detail later. Here, the gesture dictionary G, the corresponding operation data C, the set value Q, and their respective roles will be briefly described. i) The gesture dictionary G is used for recognizing to which pattern a predetermined gesture operation belongs (that is, what kind of gesture operation). ii) The corresponding operation data C is used to determine what control signal is transmitted to the in-vehicle electronic device 20 in accordance with a gesture operation recognized based on the gesture dictionary G. iii) The set value Q is used to determine what value the gesture feature value related to the recognized gesture operation reaches when the control signal based on the corresponding action data C is transmitted.

なお、記憶部300に格納される各データは、既知のデータ登録手法を用いて、デフォルト値として或いはユーザ自身の操作により適宜格納される。   Each data stored in the storage unit 300 is appropriately stored as a default value or by a user's own operation using a known data registration method.

(動作)
以上の構成からなる制御装置1000は、接触センサ110の操作面上で行われた、本実施形態に特有の「隆起部を基準としたジェスチャ操作」に応じて、車載電子機器20の各種動作を制御する。このような制御を実現する車載電子機器制御処理について説明する。
(Operation)
The control device 1000 configured as described above performs various operations of the in-vehicle electronic device 20 according to the “gesture operation based on the raised portion” unique to the present embodiment performed on the operation surface of the contact sensor 110. Control. A vehicle-mounted electronic device control process for realizing such control will be described.

[車載電子機器制御処理]
図6のフローチャートに係る処理は、制御部200により実行される。この処理は、例えば、車載電子機器20の起動を条件に開始される。
[Vehicle electronics control processing]
The process according to the flowchart of FIG. 6 is executed by the control unit 200. This process is started on condition that the in-vehicle electronic device 20 is activated, for example.

制御部200は、処理を開始すると、接触センサ110において操作入力中であるかを判別する(ステップS101)。操作入力中であるかは、制御部200が、X方向及びY方向において、静電容量が前記の一定の閾値よりも高くなっているセンサ1120があるか否かによって判別される。このようなセンサ1120がX方向及びY方向においてある場合、被検出体が操作面を触れている可能性が高いので、操作入力が行われている可能性が高い。このため、制御部200は、この場合に、操作入力を受け付けていると判別し(ステップS101;Yes)、ステップS102の処理を行う。制御部200は、それ以外の場合には、操作入力を受け付けていないと判別し(ステップS101;No)、ステップS101の処理を行う。制御部200は、このようにして、操作入力が行われるまで待機する。なお、制御部200は、図示しないタイマ等によって計時を行うが、既に計時が行われており、かつ、ステップS101でNoと判別した場合には、計時を終了する。また、制御部200は、ステップS101でYesと判別した場合に、既に計時を行っている場合には、計時を続行するが、計時が行われていない場合には、計時を開始する。このようにして、制御部200は、最初の接触から接触が解除されるまで、連続的に計時を行うことになる。   When starting the process, the control unit 200 determines whether an operation input is being performed in the contact sensor 110 (step S101). Whether or not an operation is being input is determined by the control unit 200 based on whether or not there is a sensor 1120 whose capacitance is higher than the certain threshold in the X and Y directions. When such a sensor 1120 is in the X direction and the Y direction, there is a high possibility that the detection target is touching the operation surface, and thus there is a high possibility that an operation input is being performed. Therefore, in this case, the control unit 200 determines that an operation input is accepted (step S101; Yes), and performs the process of step S102. In other cases, the control unit 200 determines that no operation input has been received (step S101; No), and performs the process of step S101. In this way, the control unit 200 stands by until an operation input is performed. The control unit 200 measures time using a timer (not shown) or the like, but if time measurement has already been performed and it is determined No in step S101, the time measurement is terminated. In addition, when it is determined Yes in step S101, the control unit 200 continues timing when the timing has already been performed, but starts counting when the timing has not been performed. In this way, the control unit 200 continuously counts time from the first contact until the contact is released.

ステップS102で、制御部200は、入力座標値(X,Y)を算出して(上記参照)、ステップS103へ進む。なお、制御部200は、算出した入力座標値を時系列順に記憶部300に記録する。入力座標値は、時系列に沿って計時が終了又は記録されてから所定期間が経過するまで、記録されるものとする。これによって、現在とこの現在から所定の時間遡ったタイミングとの間に算出された複数の入力座標値が記録される。   In step S102, the control unit 200 calculates an input coordinate value (X, Y) (see above), and proceeds to step S103. The control unit 200 records the calculated input coordinate values in the storage unit 300 in chronological order. The input coordinate value is recorded until a predetermined period elapses after the time measurement is completed or recorded along the time series. As a result, a plurality of input coordinate values calculated between the present time and a timing that is a predetermined time back from the present time are recorded.

ステップS103で、制御部200は、各種のジェスチャ特徴量を算出して、ステップS104へ進む。   In step S103, the control unit 200 calculates various gesture feature amounts, and proceeds to step S104.

ここで、ジェスチャ特徴量とは、現在行われているジェスチャ操作によって描かれる軌跡の特徴を示す量である。ジェスチャ特徴量は、計時時間、計時開始後最初に算出された入力座標値(X,Y)及び現在算出された入力座標値(X,Y)に基づいて算出される量である。計時開始後最初に算出された入力座標値(X,Y)は、つまり、操作入力を開始したときの最初の位置を表す。 Here, the gesture feature amount is an amount indicating the feature of the trajectory drawn by the currently performed gesture operation. The gesture feature amount is an amount calculated based on the time measurement time, the input coordinate value (X 0 , Y 0 ) calculated first after the start of time measurement, and the currently calculated input coordinate value (X, Y). The input coordinate value (X 0 , Y 0 ) calculated first after the start of time measurement represents the initial position when the operation input is started.

ジェスチャ特徴量は、現在算出された入力座標値(X,Y)、入力座標値(X,Y)から入力座標値(X,Y)への、X方向の座標間距離(Lx)及びY方向の座標間距離(Ly)、方向(d)、移動時間(t)である(図7(a)参照)。Lxは、X−X、Lyは、Y−Y、dは、LxとLyから算出される量、tは、計時開始からの時間間隔である。これらのジェスチャ特徴量の組合せにより、制御部200は、ユーザが入力装置の操作面上をなぞった軌跡を表す情報を取得することができる。 The gesture feature amount includes the currently calculated input coordinate value (X, Y), the distance (Lx) between the coordinates in the X direction from the input coordinate value (X 0 , Y 0 ) to the input coordinate value (X, Y), and The inter-coordinate distance (Ly), direction (d), and movement time (t) in the Y direction (see FIG. 7A). Lx is XX 0 , Ly is YY 0 , d is an amount calculated from Lx and Ly, and t is a time interval from the start of timing. By the combination of these gesture feature amounts, the control unit 200 can acquire information representing a locus traced by the user on the operation surface of the input device.

ジェスチャ特徴量は、ジェスチャ操作に描かれる軌跡の特徴を抽出した量であればよいので、上記のパターンに限られない。ジェスチャ特徴量として、どのような量を選択するか、選択した量をどのように組み合わせるかは、認識させたいジェスチャ操作の性質を鑑みて適宜決定される。回転方向のジェスチャ操作を認識させたいのであれば、ジェスチャ特徴量として回転方向(θ)を算出してもよいし(図7(b)参照)、座標間距離(L={(Lx)+(Ly)1/2)、速さ(V=L/t)、を算出してもよい。 The gesture feature amount is not limited to the above-described pattern because it may be an amount obtained by extracting the feature of the locus drawn in the gesture operation. What kind of amount is selected as the gesture feature amount and how the selected amount is combined are appropriately determined in view of the nature of the gesture operation to be recognized. If it is desired to recognize the gesture operation in the rotation direction, the rotation direction (θ) may be calculated as the gesture feature amount (see FIG. 7B), or the coordinate distance (L = {(Lx) 2 + (Ly) 2 } 1/2 ) and speed (V = L / t) may be calculated.

なお、ステップS102で、2つの入力座標値が記憶されていない場合は、ジェスチャ特徴量が算出されないため、図示はしていないが、ステップS101に戻ることになる。また、ステップS103で、算出されたジェスチャ特徴量は、計時が終了するまで、記憶される。   If two input coordinate values are not stored in step S102, the gesture feature amount is not calculated, and thus the process returns to step S101 although not shown. In step S103, the calculated gesture feature amount is stored until the time measurement is completed.

ステップS104で、制御部200は、ステップS103で算出し、記憶したジェスチャ特徴量に基づいて、行われているジェスチャ操作がジェスチャ辞書Gに含まれる複数のジェスチャ操作のパターンのいずれかに該当するかを、所定の照合方法で認識する処理を行う。この所定の照合は、算出したジェスチャ特徴量の組合せとジェスチャ辞書Gが含むジェスチャ操作のパターンを、NN法(Nearest Neighbor algorithm)、k-NN法(k-Nearest Neighbor algorithm)等により比較することにより行われる。つまり、このステップS104では、行われているジェスチャ操作が、どのような種別に該当するかを判別する処理を行う。   In step S104, the control unit 200 calculates whether the gesture operation being performed corresponds to one of a plurality of gesture operation patterns included in the gesture dictionary G based on the gesture feature value calculated and stored in step S103. Is recognized by a predetermined collation method. This predetermined collation is performed by comparing the combination of the calculated gesture feature quantity and the gesture operation pattern included in the gesture dictionary G by the NN method (Nearest Neighbor algorithm), the k-NN method (k-Nearest Neighbor algorithm), or the like. Done. That is, in this step S104, processing for determining what type the gesture operation being performed corresponds to is performed.

行われているジェスチャ操作が認識された場合(ステップS104;Yes)、ステップS105へ進む。一方、行われているジェスチャ操作が認識されない場合(ステップS104;No)、ステップS101に戻る。   When the gesture operation being performed is recognized (step S104; Yes), the process proceeds to step S105. On the other hand, when the gesture operation being performed is not recognized (step S104; No), the process returns to step S101.

ステップS105で、制御部200は、算出したジェスチャ特徴量が、ステップS104で認識されたジェスチャ操作に係るパターンと対応付けられた設定値Qに達したか否かを判別する。ここで、設定値Qと比較されるジェスチャ特徴量は、ジェスチャ辞書Gに含まれる複数のパターンごとに、認識させたいジェスチャ操作の特性に応じて、適宜、定められている。例えば、認識されたジェスチャ操作が、隆起部111bに沿って操作面上を円弧状になぞる操作であれば、当該ジェスチャ操作のパターンと対応付けられた設定値Qと比較されるジェスチャ特徴量は、複数の入力座標値を、時系列順に直線で繋いだ軌跡における、軌跡の長さSである。ジェスチャ特徴量が所定の設定値に達していた場合(ステップS105;Yes)、ステップS106へ進む。一方、ジェスチャ特徴量が所定の設定値Qに達していない場合(ステップS105;No)、ステップS101に戻る。   In step S105, the control unit 200 determines whether or not the calculated gesture feature amount has reached the set value Q associated with the pattern related to the gesture operation recognized in step S104. Here, the gesture feature amount to be compared with the set value Q is appropriately determined for each of a plurality of patterns included in the gesture dictionary G according to the characteristics of the gesture operation to be recognized. For example, if the recognized gesture operation is an operation that traces an arc on the operation surface along the raised portion 111b, the gesture feature amount to be compared with the set value Q associated with the pattern of the gesture operation is This is a trajectory length S in a trajectory in which a plurality of input coordinate values are connected by a straight line in time series. When the gesture feature amount has reached a predetermined set value (step S105; Yes), the process proceeds to step S106. On the other hand, when the gesture feature quantity has not reached the predetermined set value Q (step S105; No), the process returns to step S101.

ステップS106で、制御部200は、記憶部300から対応動作データCを読み出し、認識されたジェスチャ操作に対応した制御信号を車載電子機器20に送信して、ステップS101に戻る。   In step S106, the control unit 200 reads the corresponding operation data C from the storage unit 300, transmits a control signal corresponding to the recognized gesture operation to the in-vehicle electronic device 20, and returns to step S101.

ステップS104〜ステップ106の流れを簡潔に説明すれば、i)制御部200は、行われているジェスチャ操作が、ジェスチャ辞書Gに含まれている複数のパターンのいずれかに該当するかを判別する(即ち、行われているジェスチャ操作を認識する)。ii)認識されたジェスチャ操作に係るパターンに対応付けられた設定値Qに、算出したジェスチャ特徴量が達しているかを判別する。iii)ジェスチャ特徴量が設定値Qに達していた場合、認識されたジェスチャ操作に係るパターンに対応した制御信号を送信する。という流れになる。   To briefly explain the flow from step S104 to step 106, i) the control unit 200 determines whether the gesture operation being performed corresponds to one of a plurality of patterns included in the gesture dictionary G. (That is, it recognizes the gesture operation being performed). ii) It is determined whether or not the calculated gesture feature amount has reached the set value Q associated with the pattern related to the recognized gesture operation. iii) When the gesture feature amount has reached the set value Q, a control signal corresponding to the recognized pattern related to the gesture operation is transmitted. It becomes the flow.

以上が、車載電子機器制御処理の手順である。次に、この処理が実際のジェスチャ操作をどのように認識するかの一例を、隆起部111bに沿ったジェスチャ操作が行われている場合を想定して、簡潔に説明する。なお、下記の符合は、図8(a)に示すところに拠る。   The above is the procedure of the in-vehicle electronic device control process. Next, an example of how this process recognizes an actual gesture operation will be briefly described assuming that a gesture operation along the raised portion 111b is performed. In addition, the following code | symbol depends on the place shown to Fig.8 (a).

制御部200は、計時開始後最初に算出した入力座標値(X,Y)と、その次に算出した第1の入力座標値(X,Y)から第1のジェスチャ特徴量(座標間距離L1,方向d1等)を算出する(ステップS103)。 The control unit 200 calculates the first gesture feature value (X 0 , Y 1 ) from the first input coordinate value (X 0 , Y 0 ) calculated after the start of time measurement and the first input coordinate value (X 1 , Y 1 ) calculated next. The inter-coordinate distance L1, the direction d1, etc.) are calculated (step S103).

例えば、第1のジェスチャ特徴量から、ジェスチャ操作が認識されなかった場合(ステップS104;No)、制御部200は、入力座標値(X,Y)と、第1の入力座標値(X,Y)の次に算出した入力座標値(X,Y)から第2のジェスチャ特徴量(座標間距離L2,方向d2等)を算出する(ステップS103)。 For example, when the gesture operation is not recognized from the first gesture feature amount (step S104; No), the control unit 200 determines the input coordinate value (X 0 , Y 0 ) and the first input coordinate value (X 1 , Y 1 ), the second gesture feature amount (inter-coordinate distance L2, direction d2, etc.) is calculated from the input coordinate values (X 2 , Y 2 ) calculated next (step S103).

そして、第1のジェスチャ特徴量と第2のジェスチャ特徴量の組合せから、前記方法でジェスチャ操作を認識する処理を行う(ステップS104)。   Then, a process of recognizing the gesture operation by the method is performed from the combination of the first gesture feature quantity and the second gesture feature quantity (step S104).

例えば、図8(b)に示す、点線で表した2つの円の間の領域内を描く、隆起部に沿ったジェスチャ操作の特徴を示すパターンがジェスチャ辞書Gに含まれているものとすれば、第1のジェスチャ特徴量であるL1,d1と第2のジェスチャ特徴量L2,d2を組合せたデータより、第2の入力座標値が算出された時点では、第1の入力座標値が算出された時点に比べて、座標間距離Lが大きくなり、かつ、方向dの推移によりX方向に向かっている(時計回りに、隆起部に沿ったジェスチャ操作が行われた可能性が高い)という情報が得られる。このような情報からジェスチャ操作を認識することができる。   For example, suppose that the gesture dictionary G includes a pattern indicating a feature of a gesture operation along a raised portion that draws an area between two circles represented by a dotted line shown in FIG. The first input coordinate value is calculated at the time when the second input coordinate value is calculated from the combination of the first gesture feature amount L1, d1 and the second gesture feature amount L2, d2. Information that the inter-coordinate distance L is larger than that at the time point, and that the direction is in the X direction due to the transition of the direction d (there is a high possibility that a gesture operation along the raised portion has been performed clockwise). Is obtained. The gesture operation can be recognized from such information.

隆起部111bに沿ったジェスチャ操作以外であっても、上記同様、隆起部111bが形成された位置、及び、その近傍の範囲、を示す座標値に基づき、認識させたいジェスチャ操作の特徴を示す複数のパターンを作成し、ジェスチャ辞書Gにデータとして含ませれば、様々な、ジェスチャ操作を認識し、認識したジェスチャ操作に対応した制御信号を車載電子機器20に送信できる。以下に、図9〜図13を参照して、本実施形態に特有の「隆起部を基準としたジェスチャ操作」とそれに応じて車載電子機器20が実行する動作の一例を挙げる。   Even if it is other than the gesture operation along the raised portion 111b, as described above, a plurality of features indicating the features of the gesture operation to be recognized based on the coordinate values indicating the position where the raised portion 111b is formed and the range in the vicinity thereof. Can be generated and included as data in the gesture dictionary G, various gesture operations can be recognized, and control signals corresponding to the recognized gesture operations can be transmitted to the in-vehicle electronic device 20. Hereinafter, with reference to FIGS. 9 to 13, an example of the “gesture operation based on the raised portion” unique to the present embodiment and the operation executed by the in-vehicle electronic device 20 in accordance therewith will be described.

(隆起部を基準としたジェスチャ操作の一例)
<隆起部に沿ったジェスチャ操作OP10>
イグニッションのオンに伴って、動作電力が供給されると、車載電子機器20は、表示部21に、図9に示す初期画面21aを表示する。初期画面21aの状態で、ユーザが、操作面の窪み部111cを隆起部111bに沿って時計回りになぞるジェスチャ操作OP10を行うと、制御部200は、OP10を認識して、認識したOP10に対応付けられた音量制御信号を送信する。音量制御信号を受信した車載電子機器20は、初期画面21aを音量操作画面21bに切り替えるとともにOP10に応じてオーディオ音量を変更する。このように、ユーザはOP10を行って、車載電子機器20のオーディオ音量を変更することができる。
(Example of gesture operation based on the ridge)
<Gesture operation OP10 along the ridge>
When operating power is supplied with the ignition turned on, the in-vehicle electronic device 20 displays an initial screen 21 a shown in FIG. 9 on the display unit 21. In the state of the initial screen 21a, when the user performs a gesture operation OP10 in which the depression 111c of the operation surface is traced clockwise along the raised portion 111b, the control unit 200 recognizes OP10 and corresponds to the recognized OP10. The attached volume control signal is transmitted. The in-vehicle electronic device 20 that has received the volume control signal switches the initial screen 21a to the volume operation screen 21b and changes the audio volume according to OP10. Thus, the user can change the audio volume of the in-vehicle electronic device 20 by performing OP10.

<外側から内側に隆起部を乗り越えるジェスチャ操作OP20>
図10に示すように、初期画面21aの状態で、入力装置100の操作面を、外側から順に、平面部111a、隆起部111b、窪み部111cの順でなぞるジェスチャ操作OP20(本例では、初期画面21aの“AUDIO”に対応した右方向から内側に向かう操作)を行うと、初期画面21aはオーディオ操作画面21cに切り替わる。
<Gesture operation OP20 over the ridge from the outside to the inside>
As shown in FIG. 10, in the state of the initial screen 21a, the gesture operation OP20 (in this example, the initial operation is performed by tracing the operation surface of the input device 100 in the order of the flat surface portion 111a, the raised portion 111b, and the recessed portion 111c from the outside. When the operation from the right direction corresponding to “AUDIO” on the screen 21a is performed, the initial screen 21a is switched to the audio operation screen 21c.

<隙間部を通過するジェスチャ操作OP30>
図11に示すように、オーディオ操作画面21cの状態で、入力装置100の操作面を、窪み部111cから隙間部111d(本例では、オーディオ操作画面21cの“Source”に対応した右上の隙間部111d)を通って平面部111aへなぞるジェスチャ操作OP30を行うと、オーディオ操作画面21cは音源選択画面21dに切り替わる。なお、ジェスチャ操作OP30により所定のカーソルが動くのみで、音源選択画面21dへの切り替えは、スイッチ装置120が受け付けた入力確定操作により実行されてもよい。
<Gesture operation OP30 passing through the gap>
As shown in FIG. 11, in the state of the audio operation screen 21c, the operation surface of the input device 100 is moved from the recess 111c to the gap 111d (in this example, the upper right gap corresponding to “Source” of the audio operation screen 21c). When the gesture operation OP30 that traces the flat portion 111a through 111d) is performed, the audio operation screen 21c is switched to the sound source selection screen 21d. Note that the switch to the sound source selection screen 21d may be executed by an input confirmation operation received by the switch device 120 only by moving a predetermined cursor by the gesture operation OP30.

<内側から外側に隆起部を乗り越えるジェスチャ操作OP40>
図12に示すように、オーディオ操作画面21cの状態で、入力装置100の操作面を、内側から順に、窪み部111c、隆起部111b、平面部111aの順でなぞるジェスチャ操作OP40(本例では、オーディオ操作画面21cの“Search”に対応した右側の隆起部111bを乗り越える操作)を行うと、オーディオ操作画面21cは楽曲サーチ画面21eに切り替わる。なお、ジェスチャ操作OP40により所定のカーソルが動くのみで、楽曲サーチ画面21eへの切り替えは、スイッチ装置120が受け付けた入力確定操作により実行されてもよい。
<Gesture operation OP40 over the ridge from the inside to the outside>
As shown in FIG. 12, in the state of the audio operation screen 21c, the gesture operation OP40 (in this example, tracing the operation surface of the input device 100 in order from the inside to the depression portion 111c, the raised portion 111b, and the flat surface portion 111a). When the operation of getting over the right raised portion 111b corresponding to “Search” on the audio operation screen 21c is performed, the audio operation screen 21c is switched to the music search screen 21e. Note that the switching to the music search screen 21e may be executed by an input confirmation operation received by the switch device 120 only by moving a predetermined cursor by the gesture operation OP40.

<窪み部内でのジェスチャOP50>
図13に示すように、楽曲サーチ画面21eの状態において、窪み部111cから隆起部111bに向かって小さくスライドさせるジェスチャ操作OP50を行うと、所定のカーソルがそのスライド方向に対応して動き、所望の楽曲を選択することができる。選択された楽曲は、スイッチ装置120が受け付けた入力確定操作により、再生される。
<Gesture OP50 in the hollow>
As shown in FIG. 13, in the state of the music search screen 21e, when a gesture operation OP50 is performed in which the slidable portion 111c is slid slightly toward the raised portion 111b, a predetermined cursor moves in accordance with the slide direction, and a desired cursor is moved. Music can be selected. The selected music is reproduced by the input confirmation operation accepted by the switch device 120.

上記に挙げた例は、ジェスチャ辞書Gに、ジェスチャ操作OP10〜50のそれぞれによって描かれる軌跡の特徴を示す複数のパターンが含まれ、これらの複数のパターンのそれぞれに、設定値Q及び対応動作データCが対応付けられていることを条件に、上記の車載電子機器制御処理を実行することにより実現される。各パターンに対応付けられる、設定値Qの比較対象となるジェスチャ特徴量の種類・値は、認識させたいジェスチャ操作の特性に鑑みて、適宜、定められる。また、各パターンに対応付けられる、対応動作データCの種類は、認識させたいジェスチャ操作の特性に鑑みて、適宜、定められる。   In the example given above, the gesture dictionary G includes a plurality of patterns indicating the characteristics of the trajectory drawn by each of the gesture operations OP10 to 50, and each of the plurality of patterns includes the set value Q and the corresponding operation data. This is realized by executing the above-described in-vehicle electronic device control process on condition that C is associated. The type / value of the gesture feature amount to be compared with the setting value Q, which is associated with each pattern, is appropriately determined in view of the characteristics of the gesture operation to be recognized. In addition, the type of the corresponding action data C that is associated with each pattern is appropriately determined in view of the characteristics of the gesture operation desired to be recognized.

本実施形態に係る制御装置1000においては、ユーザは、操作面上に設けられた隆起部111b等の段差形状を指先で感じながら、適確に意図する操作を行うことができる。そして、制御装置1000は、車載電子機器制御処理により、隆起部111b等の段差形状を基準として行われたジェスチャ操作を認識し、認識したジェスチャ操作に応じて、車載電子機器20の動作を制御することができる。即ち、本実施形態に係る制御装置1000によれば、ユーザがジェスチャ接触を行いやすい。また、操作面上の隆起部111b等の段差形状により、ユーザが、車両1の走行中に、入力装置100の操作面を見ないで操作(アイズフリー操作)を行った場合でも、的確なジェスチャ操作を行いやすい。   In the control apparatus 1000 according to the present embodiment, the user can appropriately perform an intended operation while feeling the step shape such as the raised portion 111b provided on the operation surface with the fingertip. And the control apparatus 1000 recognizes the gesture operation performed on the basis of level | step difference shapes, such as the protruding part 111b, by the vehicle-mounted electronic device control process, and controls operation | movement of the vehicle-mounted electronic device 20 according to the recognized gesture operation. be able to. That is, according to the control device 1000 according to the present embodiment, the user can easily perform a gesture contact. Further, due to the stepped shape such as the raised portion 111b on the operation surface, even when the user performs an operation (eyes-free operation) without looking at the operation surface of the input device 100 while the vehicle 1 is traveling, an accurate gesture is achieved. Easy to operate.

また、本実施形態に係る制御装置1000においては、入力装置100の操作面に隆起部111bを円弧状に形成し、かつ、隆起部111bに沿ったジェスチャ操作OP10を認識対象としている。これにより、車両1の走行中においても、ステアリングホイール12を握っている状態でユーザが親指の付け根を中心として親指を動かす場合に想定される円弧状の動きに合わせた、スムーズな操作入力が可能である。   Further, in the control device 1000 according to the present embodiment, the raised portion 111b is formed in an arc shape on the operation surface of the input device 100, and the gesture operation OP10 along the raised portion 111b is a recognition target. As a result, even when the vehicle 1 is running, smooth operation input can be performed in accordance with the arc-shaped movement that is assumed when the user moves the thumb around the base of the thumb while holding the steering wheel 12. It is.

また、本実施形態に係る制御装置1000においては、入力装置1000の操作面に隆起部111bを形成し、かつ、隆起部111bを乗り越えるジェスチャ操作OP20及びOP40を認識対象としている。これにより、車両1の走行中においても、ユーザは、段差形状を乗り越えたという感覚を指先で感じとることができ、アイズフリー操作においても、操作入力が容易である。   In the control device 1000 according to the present embodiment, the raised portions 111b are formed on the operation surface of the input device 1000, and the gesture operations OP20 and OP40 that get over the raised portions 111b are targeted for recognition. As a result, even when the vehicle 1 is traveling, the user can feel with his fingertip that he / she has overcome the step shape, and operation input is easy even in an eye-free operation.

また、本実施形態に係る制御装置1000においては、入力装置1000の操作面に隣り合う隆起部111bの間に隙間部111dを形成し、かつ、この隙間部111dを通過するジェスチャ操作OP30を認識対象としている。これにより、車両1の走行中においても、ユーザは、隙間部分を通過したという感覚を指先で感じとることができ、アイズフリー操作においても、操作入力が容易である。   In the control device 1000 according to the present embodiment, the gap portion 111d is formed between the raised portions 111b adjacent to the operation surface of the input device 1000, and the gesture operation OP30 that passes through the gap portion 111d is recognized. It is said. Thereby, even while the vehicle 1 is traveling, the user can feel the sense of having passed through the gap with his fingertip, and operation input is easy even in an eye-free operation.

また、操作面には、窪み部111cが形成されているため、ユーザが操作面上をジェスチャ操作する際に指の収まりがよい。それとともに、窪み部111cと隆起部111cは、互いになめらかに繋がって形成されているため、ユーザが隆起部111bに沿ったジェスチャ操作OP10や、隆起部111bを乗り越えるジェスチャ操作OP20及びOP40を行うときに、運指をスムーズに行うことができる。   Further, since the depression 111c is formed on the operation surface, the finger fits well when the user performs a gesture operation on the operation surface. At the same time, since the recess 111c and the raised portion 111c are formed so as to be smoothly connected to each other, when the user performs the gesture operation OP10 along the raised portion 111b or the gesture operations OP20 and OP40 that get over the raised portion 111b. , Fingering can be done smoothly.

2.第2実施形態
第1実施形態において、制御装置1000は、車載電子機器制御処理を実行したが、これに加えて、ユーザの誤操作を防止する処理を実行できれば、より車両1の運転に集中することができ、安全である。
2. Second Embodiment In the first embodiment, the control device 1000 executes the in-vehicle electronic device control process. In addition to this, if the process for preventing the user's erroneous operation can be executed, the control apparatus 1000 concentrates more on the driving of the vehicle 1. Can be safe.

以下では、車載電子機器制御処理を包含するとともに、ユーザの意図する操作を可能とする誤操作防止処理を行う制御装置1000について説明する。なお、制御装置1000を含むシステムの基本的な構成と動作は、第1実施形態と同様であり、理解を容易にするため、差異点を中心に説明する。   Hereinafter, a control apparatus 1000 that includes an in-vehicle electronic device control process and performs an erroneous operation prevention process that enables an operation intended by the user will be described. The basic configuration and operation of the system including the control device 1000 are the same as those in the first embodiment, and for the sake of easy understanding, the differences will be mainly described.

この実施形態では、記憶部300には、図14に示すように、ジェスチャ辞書G、対応動作データC、第1の設定値Q1(以下、単にQ1とも言う)と、Q1より小さい値である第2の設定値Q2(以下、単にQ2とも言う)と、が格納されている。   In this embodiment, as shown in FIG. 14, the storage unit 300 has a gesture dictionary G, corresponding motion data C, a first set value Q1 (hereinafter also simply referred to as Q1), and a value smaller than Q1. 2 of set values Q2 (hereinafter also simply referred to as Q2) are stored.

Q1及びQ2は、ジェスチャ特徴量の所定値のデータであり、制御信号を車載電子機器20へ送信するトリガーの役割となるデータである。Q1及びQ2は、ジェスチャ辞書Gが含む複数のパターンごとに対応付けられている。つまり、Q1及びQ2は複数ある。   Q <b> 1 and Q <b> 2 are data of a predetermined value of the gesture feature amount, and are data serving as a trigger for transmitting a control signal to the in-vehicle electronic device 20. Q1 and Q2 are associated with a plurality of patterns included in the gesture dictionary G. That is, there are a plurality of Q1 and Q2.

Q1及びQ2との比較対象として選択されるジェスチャ特徴量は、例えば、複数の入力座標値を、時系列順に直線で繋いだ軌跡における、軌跡の長さSであり、Q1は、ユーザが誤って入力装置100の操作面に瞬間的に触れた場合に、算出されると想定されるジェスチャ特徴量の値よりも大きい値に設定されている。また、Q1よりも小さい値であるQ2は、ジェスチャ操作と、それに応じて車載電子機器20で実行される動作の特性を鑑みて、ユーザが感覚的に操作しやすいように設定されている。なお、Q1及びQ2との比較対象として選択されるジェスチャ特徴量は、軌跡の長さSに限られない。ジェスチャ特徴量は、ジェスチャ操作の目的に応じて、適宜選択される。   The gesture feature value selected as the comparison target with Q1 and Q2 is, for example, the length S of the trajectory in a trajectory in which a plurality of input coordinate values are connected by a straight line in chronological order. The value is set to a value larger than the value of the gesture feature amount that is assumed to be calculated when the operation surface of the input device 100 is instantaneously touched. In addition, Q2 which is a value smaller than Q1 is set so that the user can easily operate sensuously in view of the gesture operation and the characteristics of the operation executed in the in-vehicle electronic device 20 accordingly. Note that the gesture feature amount selected as a comparison target with Q1 and Q2 is not limited to the length S of the trajectory. The gesture feature amount is appropriately selected according to the purpose of the gesture operation.

また、記憶部300のプログラムエリアには、誤操作防止処理を実行するための動作プログラムが記憶されている。   In the program area of the storage unit 300, an operation program for executing an erroneous operation prevention process is stored.

(動作)
誤操作防止処理では、ユーザの意図する操作を実現すべく、なされたジェスチャ操作に伴うジェスチャ特徴量がQ1又はQ2に達することを要求する。ここで、一例として、Q1又はQ2との比較対象として選択されるジェスチャ特徴量を、前述の軌跡の長さSとする。また、図15に示すように、一回の連続したジェスチャ操作によって、操作面上に指等をおいてからジェスチャ特徴量がQ1に達するまでに描かれる軌跡を第1軌跡、ジェスチャ特徴量がQ1に達してから、さらにQ2に達するまでに描かれる軌跡を第2軌跡とする。Q1はQ2よりも大きいため、図15に示すように、第1軌跡の長さS1は第2軌跡の長さS2よりも大きくなる。すると、ジェスチャ操作OP10を例に挙げれば、同じ量の音量変化をさせるために要求される軌跡の長さSは、第1軌跡のほうが第2軌跡よりも大きくなければならなくなる。
(Operation)
In the erroneous operation prevention process, in order to realize the operation intended by the user, it is requested that the gesture feature amount accompanying the performed gesture operation reaches Q1 or Q2. Here, as an example, let the gesture feature quantity selected as the comparison target with Q1 or Q2 be the length S of the trajectory described above. Further, as shown in FIG. 15, the trajectory drawn from when a finger or the like is placed on the operation surface by one continuous gesture operation until the gesture feature amount reaches Q1 is the first locus, and the gesture feature amount is Q1. The trajectory drawn after reaching the point until reaching Q2 is defined as the second trajectory. Since Q1 is larger than Q2, as shown in FIG. 15, the length S1 of the first trajectory is larger than the length S2 of the second trajectory. Then, taking the gesture operation OP10 as an example, the length S of the trajectory required for changing the volume by the same amount must be larger in the first trajectory than in the second trajectory.

このように、ユーザがOP10を行い、車載電子機器20に音量制御信号が送信されるまでに、必要とされるジェスチャ特徴量を最初だけ大きくすることにより(逆に言えば、ジェスチャ特徴量がQ1に達した後は、Q1より緩い条件であるQ2にジェスチャ特徴量が達することが要求される)、車両1の運転中等に、ユーザが誤って入力装置100の操作面に触れた場合に、制御部200がジェスチャ操作OP10を認識して、意図せずオーディオ音量が大きくなったりすることを防ぐことができる。以下、処理手順を説明する。   In this way, the user performs the OP10 and increases the required gesture feature amount only before the volume control signal is transmitted to the in-vehicle electronic device 20 (in other words, the gesture feature amount is Q1. If the user accidentally touches the operation surface of the input device 100 during driving of the vehicle 1 or the like, it is necessary to perform control. It is possible to prevent the unit 200 from recognizing the gesture operation OP10 and unintentionally increasing the audio volume. The processing procedure will be described below.

[誤操作防止処理]
本実施形態に係る誤操作防止処理について、図16のフローチャートを参照して説明する。この誤操作防止処理のステップS201〜S204は、第1実施形態の車載電子機器制御処理のステップS101〜S104と同様である。よって、以下では、車載電子機器制御処理と相違する点を中心に説明する。
[Incorrect operation prevention processing]
The erroneous operation prevention process according to the present embodiment will be described with reference to the flowchart of FIG. Steps S201 to S204 of the erroneous operation prevention process are the same as steps S101 to S104 of the in-vehicle electronic device control process of the first embodiment. Therefore, below, it demonstrates centering on the point which is different from a vehicle-mounted electronic device control process.

ステップS205で、制御部200は、ステップS204で認識されたジェスチャ操作が、前回処理で認識されるとともに制御信号を送信させたジェスチャ操作であるか否かを判別する。   In step S205, the control unit 200 determines whether or not the gesture operation recognized in step S204 is a gesture operation recognized in the previous process and having a control signal transmitted.

ここで、「前回処理」とは、指等が操作面上を継続してなぞっている間に繰り返される図15のフローチャートに示す処理における、現在処理の前の処理を言うのであって、指等が操作面上から離れてジェスチャ操作が一度終了し、再度ジェスチャ操作を行っている場合における、前回のジェスチャ操作に応じて実行された処理を言うのではない。   Here, “previous process” refers to the process before the current process in the process shown in the flowchart of FIG. 15 that is repeated while the finger or the like is continuously tracing on the operation surface. However, this does not mean the processing executed in response to the previous gesture operation in the case where the gesture operation is once ended after being separated from the operation surface and the gesture operation is performed again.

ステップS205における判別は、後述するステップS209において、更新され、記憶部300に記憶された操作履歴に基づいて判別される。   The determination in step S205 is determined based on the operation history updated and stored in the storage unit 300 in step S209 described later.

現在処理で認識されたジェスチャ操作が、前回処理で認識されるとともに制御信号を送信させたジェスチャ操作でない場合(ステップS205;No)、ステップS206へ進む。一方、前回処理で認識されるとともに制御信号を送信させたジェスチャ操作である場合(ステップS205;Yes)、ステップS207へ進む。   If the gesture operation recognized in the current process is not a gesture operation recognized in the previous process and transmitted with a control signal (step S205; No), the process proceeds to step S206. On the other hand, if it is a gesture operation recognized in the previous process and having a control signal transmitted (step S205; Yes), the process proceeds to step S207.

ステップS206で、制御部200は、算出したジェスチャ特徴量が、ステップS204で認識されたジェスチャ操作に係るパターンに対応付けられた第1の設定値Q1に達しているか否かを判別する。この場合、現在の判別対象に係る操作は、なされてすぐのジェスチャ操作であり、図15で言えば、第1軌跡を描いているジェスチャ操作であることになる。   In step S206, the control unit 200 determines whether or not the calculated gesture feature amount has reached the first set value Q1 associated with the pattern related to the gesture operation recognized in step S204. In this case, the operation related to the current discrimination target is a gesture operation immediately after being performed, and in FIG. 15, it is a gesture operation depicting the first locus.

ステップS207で、制御部200は、算出したジェスチャ特徴量が、ステップS204で認識されたジェスチャ操作に係るパターンに対応付けられた第2の設定値Q2に達しているか否かを判別する。この場合、現在の判別対象に係る操作は、ジェスチャ特徴量がQ1に達した後も継続しているジェスチャ操作であり、図15で言えば、第2軌跡を描いているジェスチャ操作であることになる。   In step S207, the control unit 200 determines whether or not the calculated gesture feature amount has reached the second set value Q2 associated with the pattern related to the gesture operation recognized in step S204. In this case, the operation related to the current discrimination target is a gesture operation that continues even after the gesture feature amount reaches Q1, and in FIG. 15, it is a gesture operation that draws the second trajectory. Become.

ここで、Q1及びQ2と比較されるジェスチャ特徴量は、ジェスチャ辞書Gに含まれる複数のパターンごとに、認識させたいジェスチャ操作の特性に応じて、適宜、定められている。例えば、認識されたジェスチャ操作が、隆起部111bに沿って操作面上を円弧状になぞる操作であれば、当該ジェスチャ操作のパターンと対応付けられたQ1及びQ2と比較されるジェスチャ特徴量は、複数の入力座標値を、時系列順に直線で繋いだ軌跡における、軌跡の長さSである。このように、同じパターンに対応付けられたQ1及びQ2においては、Q1の比較対象となるジェスチャ特徴量とQ2の比較対象となるジェスチャ特徴量は、同種のジェスチャ特徴量である。   Here, the gesture feature amounts to be compared with Q1 and Q2 are appropriately determined according to the characteristics of the gesture operation to be recognized for each of the plurality of patterns included in the gesture dictionary G. For example, if the recognized gesture operation is an operation in which the operation surface is traced in an arc along the raised portion 111b, the gesture feature amount to be compared with Q1 and Q2 associated with the pattern of the gesture operation is This is a trajectory length S in a trajectory in which a plurality of input coordinate values are connected by a straight line in time series. As described above, in Q1 and Q2 associated with the same pattern, the gesture feature value to be compared with Q1 and the gesture feature value to be compared with Q2 are the same kind of gesture feature values.

ステップS206でジェスチャ特徴量がQ1に達したと判別された場合(ステップS206;Yes)、又は、ステップS207でジェスチャ特徴量がQ2に達したと判別された場合(ステップS207;Yes)、ステップS208へ進む。   If it is determined in step S206 that the gesture feature amount has reached Q1 (step S206; Yes), or if it is determined in step S207 that the gesture feature amount has reached Q2 (step S207; Yes), step S208. Proceed to

ステップS208で、制御部200は、記憶部300から対応動作データCを読み出し、認識されたジェスチャ操作に対応した制御信号を車載電子機器20に送信して、ステップS209へ進む。   In step S208, the control unit 200 reads the corresponding operation data C from the storage unit 300, transmits a control signal corresponding to the recognized gesture operation to the in-vehicle electronic device 20, and proceeds to step S209.

ステップS209で、制御部200は、今回制御信号を送信させたジェスチャ操作に係る情報を、前回の情報に上書きして記憶部300に記憶する。この情報は、ジェスチャ辞書Gが含むパターンであってもよいし、今回送信した制御信号に係る対応動作データCであってもよい。次回、上述したステップS205における処理で、今回制御信号を送信させたジェスチャ操作であるか否かを判別できればよいのであって、その手法は、任意である。このステップS209で、制御信号を送信させたジェスチャ操作に係る操作履歴が更新されることになる。操作履歴を更新すると、ステップS201に戻る。   In step S209, the control unit 200 stores the information related to the gesture operation that has transmitted the control signal this time over the previous information and stores the information in the storage unit 300. This information may be a pattern included in the gesture dictionary G, or may be corresponding action data C related to the control signal transmitted this time. Next, it is only necessary to be able to determine whether or not the gesture operation has caused the control signal to be transmitted this time by the processing in step S205 described above, and the method is arbitrary. In this step S209, the operation history related to the gesture operation that caused the control signal to be transmitted is updated. When the operation history is updated, the process returns to step S201.

以上の誤操作防止処理は、第1実施形態で例とした挙げたジェスチャ操作OP10のように、継続して操作面上をなぞる操作において、特に効果的である。Q1及びQ2は、ジェスチャ操作の特性と、それに応じて車載電子機器20が実行する動作の特性を鑑みて、適宜、設定すればよい。   The erroneous operation prevention process described above is particularly effective in an operation of continuously tracing on the operation surface like the gesture operation OP10 exemplified in the first embodiment. Q1 and Q2 may be set as appropriate in consideration of the characteristics of gesture operation and the characteristics of the operation performed by the in-vehicle electronic device 20 accordingly.

また、ジェスチャ操作OP10を例に挙げれば、ジェスチャ操作を順方向にのみ行う場合は勿論、操作面から指等を離さなければ、図17に示すように、ジェスチャ操作を順方向(この場合時計回り)から逆方向に行う場合も、制御部200が、ジェスチャ操作を認識することができるように、ジェスチャ辞書Gが含むパターンを決定すればよい。この場合、ジェスチャ操作OP10に伴うジェスチャ特徴量がQ1に達するまでは、音量は変化しないが、その後は順方向から逆方向に移動させても(例えば、一連の動作で音量を上げ過ぎてすぐに音量を下げたい場合の移動)、ジェスチャ特徴量がQ2に達する毎になめらかに音量が変化することになる。順方向と逆方向に移動を反転しつづけるような場合であっても、操作面上から指等を離さない限りにおいては、同様である。   In addition, taking the gesture operation OP10 as an example, as well as performing the gesture operation only in the forward direction, the gesture operation is performed in the forward direction (in this case, clockwise as shown in FIG. 17 if the finger or the like is not removed from the operation surface). ), The pattern included in the gesture dictionary G may be determined so that the control unit 200 can recognize the gesture operation. In this case, the volume does not change until the gesture feature amount accompanying the gesture operation OP10 reaches Q1, but after that, even if the volume is moved from the forward direction to the reverse direction (for example, immediately after increasing the volume by a series of operations). When the gesture feature amount reaches Q2, the volume changes smoothly. Even if the movement is continuously reversed in the forward direction and the reverse direction, the same is true as long as the finger or the like is not removed from the operation surface.

また、ジェスチャ操作に応じて、車載電子機器20が実行する動作の性質に合わせ、ジェスチャ特徴量の設定値を2つ以上設けてもよい。   Further, two or more set values of gesture feature values may be provided in accordance with the nature of the operation performed by the in-vehicle electronic device 20 according to the gesture operation.

本実施形態に係る制御装置1000は、車載電子機器制御処理を包含する誤操作防止処理を行う。これにより、ユーザが入力装置100の操作面に誤接触をした場合等には、車載電子機器20へ制御信号を送信しないため、車載電子機器20は不意に動作を実行しない。即ち、本実施形態に係る制御装置1000によれば、車載電子機器20に対してユーザの意図しない制御を行うことを抑制することができる。   The control device 1000 according to the present embodiment performs an erroneous operation prevention process including an in-vehicle electronic device control process. As a result, when the user makes an erroneous contact with the operation surface of the input device 100, the control signal is not transmitted to the in-vehicle electronic device 20, and thus the in-vehicle electronic device 20 does not execute the operation unexpectedly. In other words, according to the control device 1000 according to the present embodiment, it is possible to suppress performing unintended control on the in-vehicle electronic device 20 by the user.

3.第3実施形態
この実施形態に係る制御装置1000は、第2実施形態に係る誤操作防止処理に加えて、車両1の運転中に、特に注意力を要する、急カーブ時・高速移動時等において、制御装置1000が車載電子機器20に対して行う制御を禁止する、操作禁止処理を実行する。なお、制御装置1000を含むシステムの基本的な構成と動作は、第2実施形態と同様であり、理解を容易にするため、差異点を中心に説明する。
3. Third Embodiment In addition to the erroneous operation prevention processing according to the second embodiment, the control device 1000 according to the present embodiment requires special attention during driving of the vehicle 1, such as during a sharp curve or high speed movement, etc. An operation prohibition process for prohibiting control performed by the control device 1000 on the in-vehicle electronic device 20 is executed. Note that the basic configuration and operation of the system including the control device 1000 are the same as those in the second embodiment, and for the sake of easy understanding, differences will be mainly described.

本実施形態に係る車両1は、図18に示すように、車速センサ30と、舵角センサ40と、をさらに備える。   As shown in FIG. 18, the vehicle 1 according to the present embodiment further includes a vehicle speed sensor 30 and a rudder angle sensor 40.

車速センサ30は、制御装置1000と電気的に接続され、制御装置1000に車両1の車速値(走行速度)を示す車速信号を送信する。   The vehicle speed sensor 30 is electrically connected to the control device 1000 and transmits a vehicle speed signal indicating the vehicle speed value (traveling speed) of the vehicle 1 to the control device 1000.

舵角センサ40は、制御装置1000と電気的に接続され、制御装置1000に車両1の舵角値(操舵量の値)を示す舵速信号を送信する。   The steering angle sensor 40 is electrically connected to the control device 1000, and transmits a steering speed signal indicating the steering angle value (steering amount value) of the vehicle 1 to the control device 1000.

また、記憶部300のデータエリアには、車速値及び舵角値の所定の閾値のデータ(図示せず)が記憶され、プログラムエリアには、操作禁止処理を実行するための動作プログラムが記憶されている。   The data area of the storage unit 300 stores predetermined threshold data (not shown) of the vehicle speed value and the steering angle value, and the program area stores an operation program for executing the operation prohibition process. ing.

[操作禁止処理]
車速信号、又は、舵角信号を受信した制御装置1000は、これらに基づいて算出される車速値、又は、舵角値が、所定の閾値を超えたか否かを判別し、超えていた場合、誤操作認識処理を中止する。すると、制御部200が、ジェスチャ操作を認識し、ジェスチャ操作に対応した所定の制御信号を車載電子機器20に送信することができなくなる。これにより、急カーブ時等に誤って指等が入力装置100の操作面に触れても車載電子機器20が誤作動することなく、また、ユーザは運転に集中することができるため、安全な運転操作環境を提供することができる。
[Operation prohibition processing]
The control device 1000 that has received the vehicle speed signal or the steering angle signal determines whether or not the vehicle speed value or the steering angle value calculated based on these exceeds a predetermined threshold. Cancel the erroneous operation recognition process. Then, the control unit 200 cannot recognize the gesture operation and cannot transmit a predetermined control signal corresponding to the gesture operation to the in-vehicle electronic device 20. Thus, even if a finger or the like accidentally touches the operation surface of the input device 100 during a sharp curve or the like, the in-vehicle electronic device 20 does not malfunction, and the user can concentrate on driving. An operating environment can be provided.

なお、操作禁止処理においては、ユーザの安全のため、運転に集中する必要がある局面で、制御装置1000が車載電子機器20に対して行う制御を禁止できればよいので、制御を禁止するための車両1の走行状態を示す値は、車速値や舵角値に限られない。例えば、車両1が角度センサを備え、急な坂道等で制御を禁止するようにしてもよいし、車両1が備えるワイパーの稼働速度が最大になったときに(これにより、強雨が想定される)、制御を禁止してもよい。   In the operation prohibition process, it is sufficient that the control device 1000 can prohibit the control performed on the in-vehicle electronic device 20 in a situation where it is necessary to concentrate on driving for the safety of the user. The value indicating the running state of 1 is not limited to the vehicle speed value or the steering angle value. For example, the vehicle 1 may include an angle sensor, and control may be prohibited on a steep slope, or when the operating speed of the wiper included in the vehicle 1 becomes maximum (thus, heavy rain is assumed) Control) may be prohibited.

4.変形例
なお、本発明は、以上の実施形態に限定されるものではなく、種々の変形が可能である。以下に変形の例を示す。
4). Modifications The present invention is not limited to the above embodiment, and various modifications can be made. Examples of modifications are shown below.

入力装置100の操作面が有する段差形状は、以上の実施形態に係る形状に限られない。図19(a)及び(b)に示すように、様々な形状のものが考えられる(図19(b)では、4つある隙間部111dのうちの1つを二点差線で囲った)。このような隆起部111bに基づくジェスチャ操作を認識できる、ジェスチャ辞書Gを記憶部300に記憶させれば、車載電子機器制御処理及び誤動作防止処理を同様に実行することができる。なお、図19(b)に示す操作面のように、隆起部111bを、円形の窪み部111cの円周方向と隆起部111bの長手方向が直角になるようにして、窪み部111cの円周方向に沿って配置することも広義に「円弧状の配置」ということができる。   The step shape of the operation surface of the input device 100 is not limited to the shape according to the above embodiment. As shown in FIGS. 19A and 19B, various shapes are conceivable (in FIG. 19B, one of the four gap portions 111d is surrounded by a two-dot chain line). If the gesture dictionary G that can recognize the gesture operation based on the raised portion 111b is stored in the storage unit 300, the in-vehicle electronic device control process and the malfunction prevention process can be executed in the same manner. Note that, as in the operation surface shown in FIG. 19B, the raised portion 111b is arranged so that the circumferential direction of the circular recessed portion 111c is perpendicular to the longitudinal direction of the raised portion 111b. Arranging along the direction can also be broadly referred to as “arc-shaped arrangement”.

また、本発明の第2実施形態に係る誤操作防止処理を行う制御装置1000が備える、入力装置100の操作面には、隆起部111b等の段差形状が設けられていなくともよい。誤操作防止処理においては、操作面に隆起部111b等の段差形状が設けられていなくとも、本発明の目的を達成することができる。   Further, the operation surface of the input device 100 included in the control device 1000 that performs the erroneous operation prevention process according to the second embodiment of the present invention may not be provided with a stepped shape such as the raised portion 111b. In the erroneous operation prevention process, the object of the present invention can be achieved even if the operation surface is not provided with a stepped shape such as the raised portion 111b.

また、制御装置1000が、入力装置100を備える例を示したが、これに限られない。制御装置1000が入力装置100を設けず、外部の入力装置と協調することによって、車載電子機器20を制御してもよい。   Moreover, although the control apparatus 1000 showed the example provided with the input device 100, it is not restricted to this. The in-vehicle electronic device 20 may be controlled by the control apparatus 1000 not providing the input apparatus 100 and cooperating with an external input apparatus.

また、制御部200及び記憶部300は、制御装置1000に備えられずに、車載電子機器20の制御系統又は車両1のECU(Electronic Control Unit)の回路と共通化され、一体化されることで、車載電子機器制御処理、又は、誤操作防止処理を行ってもよい。   In addition, the control unit 200 and the storage unit 300 are not provided in the control device 1000, but are shared and integrated with a control system of the in-vehicle electronic device 20 or a circuit of an ECU (Electronic Control Unit) of the vehicle 1. In-vehicle electronic device control processing or erroneous operation prevention processing may be performed.

また、以上の実施形態においてセンサシート112は、投影静電容量方式であるとしたが、これに限られない。表面静電容量方式であってもよいし、抵抗膜方式等の静電容量方式以外のものであってもよい。この場合においても、センサシート112を表面カバー111(操作面)と一体成形すればよい。   Further, in the above embodiment, the sensor sheet 112 is a projected capacitance type, but is not limited thereto. The surface capacitance method may be used, or a method other than a capacitance method such as a resistance film method may be used. Even in this case, the sensor sheet 112 may be integrally formed with the front cover 111 (operation surface).

また、以上の実施形態においては、ステアリング10に入力装置100を1つのみ設けたがこれに限られない。入力装置100は、ステアリング10に複数配置されてもよい。例えば、ステアリング10の本体部11の、ユーザがステアリング10を把持しながら左手親指で操作できる位置に入力装置100をもう1つ設けることで、ステアリング10に計2つの入力装置100を配置してもよい。また、このように設けられた2つの入力装置100の背面(本体部11の裏面側)に、両手の人差し指で操作できるようにさらに2つの入力装置100を設け、ステアリング10に計4つの入力装置100を配置してもよい。   Further, in the above embodiment, only one input device 100 is provided in the steering 10, but the present invention is not limited to this. A plurality of input devices 100 may be arranged on the steering 10. For example, even if a total of two input devices 100 are arranged on the steering wheel 10 by providing another input device 100 at a position where the user can operate the main body 11 of the steering wheel 10 with the left thumb while holding the steering wheel 10. Good. Further, two input devices 100 are further provided on the back surface of the two input devices 100 provided in this way (the back side of the main body 11) so that they can be operated with the index fingers of both hands, and the steering device 10 has a total of four input devices. 100 may be arranged.

また、以上の実施形態においては、入力装置100はステアリング10の本体部11に配置されたが、これに限られない。ユーザが車両1を運転しながら、操作しやすい位置であれば、入力装置100の配置は任意である。例えば、入力装置100をステアリングホイール12に配置してもよいし、図示しないシフトレバーや、パワーウインドスイッチ付近に配置してもよい。   Moreover, in the above embodiment, although the input device 100 was arrange | positioned at the main-body part 11 of the steering 10, it is not restricted to this. The input device 100 may be arranged in any position as long as the user can easily operate the vehicle 1 while driving the vehicle 1. For example, the input device 100 may be disposed on the steering wheel 12, or may be disposed near a shift lever (not shown) or a power window switch.

また、以上の実施形態では、制御装置1000と入力装置100が搭載される乗り物の一例を車両としたが、これに限られない。船舶、航空機等に搭載することも可能である。   In the above embodiment, an example of a vehicle on which the control device 1000 and the input device 100 are mounted is a vehicle, but is not limited thereto. It can also be mounted on a ship, an aircraft, or the like.

また、第1実施形態においては、設定値Qが複数ある例を示したが、これに限られない。認識させたいジェスチャ操作が1つの場合であれば、当然に、設定値Qは1つである。また、認識させたいジェスチャ操作が複数ある場合であっても、当該ジェスチャ操作に係るパターンのそのすべてに設定値Qを対応付けなくともよい。   In the first embodiment, an example in which there are a plurality of setting values Q has been described, but the present invention is not limited to this. If there is only one gesture operation to be recognized, naturally, the setting value Q is one. Further, even when there are a plurality of gesture operations to be recognized, it is not necessary to associate the setting value Q with all of the patterns related to the gesture operations.

また、第2実施形態においては、Q1及びQ2が複数ある例を示したが、これに限られない。認識させたいジェスチャ操作が1つの場合であれば、当然に、Q1及びQ2は1つである。また、認識させたいジェスチャ操作が複数ある場合であっても、当該ジェスチャ操作に係るパターンのそのすべてにQ1及びQ2を対応付けなくともよい。適宜、誤操作を招きやすいジェスチャ操作に係るパターンにQ1及びQ2を対応付ければよい。   Moreover, in 2nd Embodiment, although the example with multiple Q1 and Q2 was shown, it is not restricted to this. If there is only one gesture operation to be recognized, naturally, Q1 and Q2 are one. Further, even when there are a plurality of gesture operations to be recognized, it is not necessary to associate Q1 and Q2 with all of the patterns related to the gesture operations. As appropriate, Q1 and Q2 may be associated with patterns related to gesture operations that are likely to cause erroneous operations.

また、本発明を実現するために実行するプログラムは、記憶部300に予め記憶されているものとして説明したが、このような動作プラグラム及び各種データは、制御装置1000に含まれるコンピュータに対して、着脱自在の記録媒体により配布・提供されてもよい。さらに、動作プログラム及び各種データは、電気通信ネットワーク等を介して接続された他の機器からダウンロードすることによって配布されるようにしてもよい。   Moreover, although the program executed in order to implement | achieve this invention was demonstrated as what is beforehand memorize | stored in the memory | storage part 300, such an operation program and various data are with respect to the computer contained in the control apparatus 1000. It may be distributed and provided by a removable recording medium. Furthermore, the operation program and various data may be distributed by downloading from another device connected via a telecommunication network or the like.

そして、各処理の実行形態も、着脱自在の記録媒体を装着することにより実行するものだけではなく、電気通信ネットワーク等を介してダウンロードした動作プログラム及び各種データを内蔵の記憶装置に一旦格納することにより実行可能としてもよいし、電気通信ネットワーク等を介して接続された他の機器側のハードウェア資源を用いて直接実行してもよい。さらには、他の機器と電気通信ネットワーク等を介して各種データの交換を行うことにより各処理を実行してもよい。   The execution form of each process is not only executed by attaching a removable recording medium, but also temporarily stores the operation program and various data downloaded via a telecommunication network or the like in a built-in storage device. Or may be directly executed using hardware resources on the other device side connected via a telecommunication network or the like. Furthermore, each process may be executed by exchanging various data with other devices via a telecommunication network or the like.

なお、本発明の要旨を変更しない範囲で、適宜、実施形態及び図面に変更(構成要素の削除も含む)を加えることが可能である。   It should be noted that modifications (including deletion of components) can be added to the embodiments and the drawings as appropriate without departing from the scope of the present invention.

1…車両
10…ステアリング
11…本体部
12…ステアリングホイール

1000…制御装置
100…入力装置
110…接触センサ
111…表面カバー
111a…平面部、111b…隆起部、111c…窪み部、111d…隙間部
112…センサシート
112a…第1のセンサ列
112b…第2のセンサ列
1120…センサ
113…スペーサ
114…下ケース
115…上ケース
120…スイッチ装置
200…制御部
300…記憶部
G…ジェスチャ辞書、C…対応動作データ、Q…所定の設定値
Q1…第1の設定値、Q2…第2の設定値

20…車載電子機器
21…表示部
21a…初期画面、21b…音量操作画面、21c…オーディオ操作画面
21d…音源選択画面、21e…楽曲サーチ画面

OP10…隆起部に沿ったジェスチャ操作
OP20…外側から内側に隆起部を乗り越えるジェスチャ操作
OP30…隙間部を通過するジェスチャ操作
OP40…内側から外側に隆起部を乗り越えるジェスチャ操作
OP50…窪み部分でのジェスチャ操作

30…車速センサ
40…舵角センサ
DESCRIPTION OF SYMBOLS 1 ... Vehicle 10 ... Steering 11 ... Main-body part 12 ... Steering wheel

1000 ... Control device 100 ... Input device 110 ... Contact sensor
111 ... Surface cover
111a: flat surface portion, 111b: raised portion, 111c: recessed portion, 111d: gap portion
112 ... Sensor sheet
112a ... first sensor array
112b ... second sensor array
1120 Sensor
113 ... Spacer
114 ... Lower case
DESCRIPTION OF SYMBOLS 115 ... Upper case 120 ... Switch apparatus 200 ... Control part 300 ... Memory | storage part G ... Gesture dictionary, C ... Corresponding operation data, Q ... Predetermined set value Q1 ... 1st set value, Q2 ... 2nd set value

DESCRIPTION OF SYMBOLS 20 ... Car-mounted electronic device 21 ... Display part 21a ... Initial screen, 21b ... Volume operation screen, 21c ... Audio operation screen 21d ... Sound source selection screen, 21e ... Music search screen

OP10: Gesture operation along the raised portion OP20: Gesture operation to get over the raised portion from outside to inside OP30 ... Gesture operation to go through the gap OP40 ... Gesture operation to get over the raised portion from inside to outside OP50 ... Gesture operation in the recessed portion

30 ... Vehicle speed sensor 40 ... Rudder angle sensor

Claims (9)

ユーザが入力装置の操作面上をなぞった軌跡を表す軌跡情報を取得する軌跡情報取得手段と、
前記軌跡情報取得手段が取得した前記軌跡情報が表す前記軌跡が所定の条件を満たす場合に前記軌跡に対応した制御を所定の装置に対して行う装置制御手段と、を備え、
前記操作面は段差を有し、
前記所定の条件は、前記軌跡情報が表す前記軌跡が予め設定されている前記段差に関連した軌跡であるか否かの条件である、
ことを特徴とする制御装置。
Trajectory information acquisition means for acquiring trajectory information representing a trajectory traced on the operation surface of the input device;
Device control means for performing control corresponding to the trajectory on a predetermined device when the trajectory represented by the trajectory information acquired by the trajectory information acquisition means satisfies a predetermined condition;
The operation surface has a step,
The predetermined condition is a condition as to whether or not the trajectory represented by the trajectory information is a trajectory related to the preset step.
A control device characterized by that.
前記段差は、円弧状に形成されている、
ことを特徴とする請求項1に記載の制御装置。
The step is formed in an arc shape,
The control device according to claim 1.
前記段差に関連した軌跡は、前記段差を横切る軌跡である、
ことを特徴とする請求項1又は2に記載の制御装置。
The trajectory associated with the step is a trajectory that crosses the step.
The control device according to claim 1 or 2, wherein
前記段差に関連した軌跡は、前記段差に沿った軌跡である、
ことを特徴とする請求項1又は2に記載の制御装置。
The trajectory associated with the step is a trajectory along the step.
The control device according to claim 1 or 2, wherein
前記操作面には、複数の前記段差が形成され、
前記段差に関連した軌跡は、隣り合う前記段差の間を通る軌跡である、
ことを特徴とする請求項1又は2に記載の制御装置。
A plurality of the steps are formed on the operation surface,
The trajectory related to the step is a trajectory passing between the adjacent steps.
The control device according to claim 1 or 2, wherein
ユーザが入力装置の操作面上をなぞった第1の軌跡を表す第1の軌跡情報と、その後に前記ユーザが前記操作面上をなぞった第2の軌跡を表す第2の軌跡情報と、を取得する軌跡情報取得手段と、
前記軌跡情報取得手段が取得した前記第1の軌跡情報が表す前記第1の軌跡が第1の条件を満たす場合に前記第1の軌跡に対応した第1の制御を所定の装置に対して行い、かつ、前記第1の制御の後に前記第2の軌跡情報が表す前記第2の軌跡が第2の条件を満たす場合に前記第2の軌跡に対応した第2の制御を前記所定の装置に対して行う装置制御手段と、を備え、
前記第2の条件は前記第1の条件よりも緩い条件である、
ことを特徴とする制御装置。
First trajectory information representing a first trajectory traced on the operation surface of the input device and second trajectory information representing a second trajectory traced on the operation surface by the user. Trajectory information acquisition means for acquiring;
When the first trajectory represented by the first trajectory information acquired by the trajectory information acquisition means satisfies a first condition, the first control corresponding to the first trajectory is performed on a predetermined device. And, when the second trajectory represented by the second trajectory information satisfies the second condition after the first control, the second control corresponding to the second trajectory is applied to the predetermined device. Device control means for performing,
The second condition is a looser condition than the first condition.
A control device characterized by that.
前記操作面は、乗り物のステアリングに設けられ、
前記装置制御手段は、前記ステアリングの舵角を表す舵角情報を取得し、取得した前記舵角情報が表す舵角が所定の閾値を超えない場合、かつ、前記軌跡が前記所定の条件を満たす場合に、前記軌跡に対応した制御を所定の装置に対して行う、
ことを特徴とする請求項1乃至6のいずれか1項に記載の制御装置。
The operation surface is provided on a vehicle steering,
The device control means acquires steering angle information representing the steering angle of the steering, and when the steering angle represented by the acquired steering angle information does not exceed a predetermined threshold, the trajectory satisfies the predetermined condition. A control corresponding to the trajectory is performed on a predetermined device.
The control device according to claim 1, wherein the control device is a control device.
コンピュータを、
ユーザが入力装置の操作面上をなぞった軌跡を表す軌跡情報を取得する軌跡情報取得手段、
前記軌跡情報取得手段が取得した前記軌跡情報が表す前記軌跡が所定の条件を満たす場合に前記軌跡に対応した制御を所定の装置に対して行う装置制御手段、として機能させ、
前記操作面は段差を有し、
前記所定の条件は、前記軌跡情報が表す前記軌跡が予め設定されている前記段差に関連した軌跡であるか否かの条件である、
ことを特徴とするプログラム。
Computer
Trajectory information acquisition means for acquiring trajectory information representing a trajectory that the user traces on the operation surface of the input device;
When the locus represented by the locus information acquired by the locus information acquisition unit satisfies a predetermined condition, function as device control unit that performs control corresponding to the locus on a predetermined device,
The operation surface has a step,
The predetermined condition is a condition as to whether or not the trajectory represented by the trajectory information is a trajectory related to the preset step.
A program characterized by that.
コンピュータを、
ユーザが入力装置の操作面上をなぞった第1の軌跡を表す第1の軌跡情報と、その後に前記ユーザが前記操作面上をなぞった第2の軌跡を表す第2の軌跡情報と、を取得する軌跡情報取得手段、
前記軌跡情報取得手段が取得した前記第1の軌跡情報が表す前記第1の軌跡が第1の条件を満たす場合に前記第1の軌跡に対応した第1の制御を所定の装置に対して行い、かつ、前記第1の制御の後に前記第2の軌跡情報が表す前記第2の軌跡が第2の条件を満たす場合に前記第2の軌跡に対応した第2の制御を前記所定の装置に対して行う装置制御手段、として機能させ、
前記第2の条件は前記第1の条件よりも緩い条件である、
ことを特徴とするプログラム。
Computer
First trajectory information representing a first trajectory traced on the operation surface of the input device and second trajectory information representing a second trajectory traced on the operation surface by the user. Trajectory information acquisition means for acquiring,
When the first trajectory represented by the first trajectory information acquired by the trajectory information acquisition means satisfies a first condition, the first control corresponding to the first trajectory is performed on a predetermined device. And, when the second trajectory represented by the second trajectory information satisfies the second condition after the first control, the second control corresponding to the second trajectory is applied to the predetermined device. Function as device control means for
The second condition is a looser condition than the first condition.
A program characterized by that.
JP2010194672A 2010-08-31 2010-08-31 Control device Expired - Fee Related JP5510201B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010194672A JP5510201B2 (en) 2010-08-31 2010-08-31 Control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010194672A JP5510201B2 (en) 2010-08-31 2010-08-31 Control device

Publications (2)

Publication Number Publication Date
JP2012053591A true JP2012053591A (en) 2012-03-15
JP5510201B2 JP5510201B2 (en) 2014-06-04

Family

ID=45906856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010194672A Expired - Fee Related JP5510201B2 (en) 2010-08-31 2010-08-31 Control device

Country Status (1)

Country Link
JP (1) JP5510201B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014029576A (en) * 2012-07-31 2014-02-13 Nippon Seiki Co Ltd Touch panel input operation device
JPWO2018135183A1 (en) * 2017-01-17 2019-06-27 アルプスアルパイン株式会社 Coordinate input device
WO2020103457A1 (en) * 2018-11-21 2020-05-28 广州小鹏汽车科技有限公司 Sound effect adjustment method and apparatus, and computer-readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007015429A (en) * 2005-07-05 2007-01-25 Matsushita Electric Ind Co Ltd Input supporting device
JP2007072660A (en) * 2005-09-06 2007-03-22 Sharp Corp Operation input device
JP2009276978A (en) * 2008-05-14 2009-11-26 Pioneer Electronic Corp Input device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007015429A (en) * 2005-07-05 2007-01-25 Matsushita Electric Ind Co Ltd Input supporting device
JP2007072660A (en) * 2005-09-06 2007-03-22 Sharp Corp Operation input device
JP2009276978A (en) * 2008-05-14 2009-11-26 Pioneer Electronic Corp Input device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014029576A (en) * 2012-07-31 2014-02-13 Nippon Seiki Co Ltd Touch panel input operation device
JPWO2018135183A1 (en) * 2017-01-17 2019-06-27 アルプスアルパイン株式会社 Coordinate input device
WO2020103457A1 (en) * 2018-11-21 2020-05-28 广州小鹏汽车科技有限公司 Sound effect adjustment method and apparatus, and computer-readable storage medium

Also Published As

Publication number Publication date
JP5510201B2 (en) 2014-06-04

Similar Documents

Publication Publication Date Title
JP5581904B2 (en) Input device
CN105637446B (en) System and method for locking an input area associated with a detected touch position in a force-based touch screen
US9809231B2 (en) System and method for executing gesture based control of a vehicle system
JP5798160B2 (en) Vehicle control device
CN104516642B (en) Handle switch device
US9701201B2 (en) Input apparatus for vehicle and vehicle including the same
JP2012190185A (en) Control device
US20150253950A1 (en) Manipulating device
US20150353118A1 (en) Steering wheel with optical finger navigation module
JP6179253B2 (en) Input device
JP5581947B2 (en) Display item selection device and display item selection system
JP2013186661A (en) Input detection system
JP6136365B2 (en) Vehicle control device
JP2014229014A (en) Touch panel input operation device
JP5510201B2 (en) Control device
JP2012176631A (en) Control apparatus
JP2009301300A (en) Input device
CN116507996A (en) System and method for locking touch position related input area based on force touch display
CN107844205B (en) Touch input device and vehicle comprising same
JP2012208762A (en) Touch panel input operation device
JP2013033309A (en) Touch panel input operation device
JP2014029576A (en) Touch panel input operation device
JP2012190406A (en) Touch panel input operation device
WO2014097954A1 (en) Input device for vehicle
JP2012178080A (en) Input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140310

R150 Certificate of patent or registration of utility model

Ref document number: 5510201

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees