JP2021005225A - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP2021005225A
JP2021005225A JP2019118737A JP2019118737A JP2021005225A JP 2021005225 A JP2021005225 A JP 2021005225A JP 2019118737 A JP2019118737 A JP 2019118737A JP 2019118737 A JP2019118737 A JP 2019118737A JP 2021005225 A JP2021005225 A JP 2021005225A
Authority
JP
Japan
Prior art keywords
gesture
coordinates
touch
control unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019118737A
Other languages
Japanese (ja)
Other versions
JP7183975B2 (en
Inventor
慶幸 松原
Keiyuki Matsubara
慶幸 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019118737A priority Critical patent/JP7183975B2/en
Publication of JP2021005225A publication Critical patent/JP2021005225A/en
Application granted granted Critical
Publication of JP7183975B2 publication Critical patent/JP7183975B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an input device used for input operation relative to a display unit having an area equal to or larger than a predetermined value and being configured to be able to smoothly switch touch operation and gesture operation.SOLUTION: An on-vehicle device 1 includes: a touch panel 11 superimposed on a display unit 10 having an area equal to or larger than a predetermined value; a gesture recognition unit 12 for recognizing gesture of an operator to output a signal corresponding to the gesture; and a control unit 17 for performing input control by touch operation and input control by gesture operation. In such a configuration, the control unit 17 switches an operation system so as to be input control by either the touch operation or the gesture operation.SELECTED DRAWING: Figure 1

Description

本発明は、タッチ操作およびジェスチャ操作が可能な入力装置に関する。 The present invention relates to an input device capable of touch operation and gesture operation.

従来、操作者がタッチパネルに指を接触させた状態で行うタッチ操作、または操作者がタッチパネルから指を離した状態で行うジェスチャに基づくジェスチャ操作を実行可能な構成とされた入力装置としては、例えば特許文献1に記載のものが提案されている。 Conventionally, as an input device having a configuration capable of performing a touch operation performed when the operator touches the touch panel with a finger, or a gesture operation based on a gesture performed by the operator while the finger is released from the touch panel, for example. The one described in Patent Document 1 has been proposed.

なお、本明細書において「ジェスチャ」とは、例えば、操作者が指を上下左右などの所定の一方向に動かす、または指を時計回りもしくは反時計回りに動かすといった簡単な動作を意味する。また、「ジェスチャ操作」とは、タッチ操作が行われていない状況にて、操作者のジェスチャに基づいて行われる入力操作を意味する。 In addition, in this specification, "gesture" means a simple operation, for example, that an operator moves a finger in a predetermined direction such as up, down, left and right, or moves a finger clockwise or counterclockwise. Further, the "gesture operation" means an input operation performed based on the gesture of the operator in a situation where the touch operation is not performed.

この入力装置は、表示部に重畳配置されたタッチパネルと、操作者がジェスチャ操作を行う際の当該操作者の身体形状を画像データとして取り込む身体形状入力部と、当該画像データに基づいてジェスチャ操作を認識し、入力制御を行う制御部とを備える。この入力装置は、例えば車両に搭載されるディスプレイなどに適用され、操作者と表示部との相対位置の変化が所定の範囲内に制限されている状況において、操作者が表示部の全域において、タッチ操作またはジェスチャ操作が可能な構成である。 This input device has a touch panel superimposed on the display unit, a body shape input unit that captures the body shape of the operator as image data when the operator performs a gesture operation, and a gesture operation based on the image data. It is provided with a control unit that recognizes and controls input. This input device is applied to, for example, a display mounted on a vehicle, and in a situation where the change in the relative position between the operator and the display unit is limited within a predetermined range, the operator can use the entire display unit. It is a configuration that allows touch operation or gesture operation.

国際公開第2013/136776号International Publication No. 2013/136767

ところで、この種の入力装置では、操作者が姿勢や表示部に対する相対位置などを大きく変えないとその全域をタッチ操作できないほどに表示部を大面積化したいとのニーズが存在する。 By the way, in this type of input device, there is a need to increase the area of the display unit so that the entire area cannot be touch-operated unless the operator significantly changes the posture or the relative position with respect to the display unit.

しかしながら、例えば車載用途のように、表示部と操作者との相対位置の変化が所定の範囲内に制限された状況においては、操作者は、表示部のうち一部の領域しかタッチ操作をすることができない。このような状況では、表示部のうち操作者がタッチ操作できない領域については、非接触でのジェスチャ操作により各種の入力操作を可能にすることが求められる。 However, in a situation where the change in the relative position between the display unit and the operator is limited within a predetermined range, for example, in an in-vehicle application, the operator performs a touch operation on only a part of the display unit. I can't. In such a situation, it is required to enable various input operations by non-contact gesture operation in the area of the display unit where the operator cannot perform touch operation.

また、この状況において、操作者が、表示部のうちタッチ操作をすることが可能な第1の領域からタッチ操作ができない第2の領域、すなわち操作者の指が届かない領域に跨って所定の入力操作をすることが想定される。この場合、操作性を向上させるためには、タッチ操作に続けてジェスチャ操作を行う際に、これらの操作の切り替えをスムーズに行い、連続した操作が可能な構成とする必要がある。特許文献1に記載の入力装置は、表示部の面積が小さいため、このような操作系のスムーズな切り替えが考慮された構成となっていない。 Further, in this situation, a predetermined area is straddled from the first area of the display unit where the operator can perform the touch operation to the second area where the touch operation cannot be performed, that is, the area where the operator's finger cannot reach. It is expected that an input operation will be performed. In this case, in order to improve the operability, it is necessary to smoothly switch between these operations when performing the gesture operation following the touch operation so that the operation can be continuously performed. Since the area of the display unit is small, the input device described in Patent Document 1 is not configured in consideration of such smooth switching of the operation system.

本発明は、上記の点に鑑み、所定以上の面積とされた表示部に対する入力操作に用いられ、タッチ操作とジェスチャ操作とのスムーズな切り替えが可能な構成とされた入力装置を提供することを目的とする。 In view of the above points, the present invention provides an input device that is used for an input operation on a display unit having an area larger than a predetermined area and has a configuration capable of smoothly switching between a touch operation and a gesture operation. The purpose.

上記目的を達成するため、請求項1に記載の入力装置は、所定以上の面積とされた表示部(10)に対して重畳配置されたタッチパネル(11)と、操作者の身体形状を撮像する撮像部(21)が取得した画像データに基づいて、操作者のジェスチャを認識し、ジェスチャに応じた信号を出力するジェスチャ認識部(12)と、タッチパネルからの出力信号に基づくタッチ操作による入力制御、およびジェスチャ認識部からの出力信号に基づくジェスチャ操作による入力制御を行う制御部(17)と、タッチ操作により得られるタッチ座標の座標データを、ジェスチャ操作による入力制御において用いられるジェスチャ座標であって、タッチ座標の座標データに対応する座標データと共に、一組の座標データとして記憶する記憶部(13)と、ジェスチャ座標の補正を行う補正部(171)と、を備え、制御部は、タッチ操作およびジェスチャ操作のいずれか一方による入力制御となるように操作系の切り替えを実行し、補正部は、タッチ操作による入力制御時に、二以上の一組の座標データに基づきジェスチャ座標の補正を行う。 In order to achieve the above object, the input device according to claim 1 captures an image of a touch panel (11) superposed on a display unit (10) having an area larger than a predetermined area and an operator's body shape. Based on the image data acquired by the imaging unit (21), the gesture recognition unit (12) recognizes the operator's gesture and outputs a signal according to the gesture, and the input control by touch operation based on the output signal from the touch panel. , And the control unit (17) that performs input control by gesture operation based on the output signal from the gesture recognition unit, and the coordinate data of the touch coordinates obtained by the touch operation are the gesture coordinates used in the input control by the gesture operation. A storage unit (13) for storing as a set of coordinate data and a correction unit (171) for correcting gesture coordinates are provided together with the coordinate data corresponding to the coordinate data of the touch coordinates, and the control unit is a touch operation. The operation system is switched so that the input control is performed by either one of the gesture operation and the gesture operation, and the correction unit corrects the gesture coordinates based on two or more sets of coordinate data at the time of input control by the touch operation.

これにより、タッチ操作中にタッチ座標とこれに対応するジェスチャ座標の座標データを一組の座標データとして記憶し、二以上の一組の座標データに基づき、タッチ操作中にジェスチャ座標の補正を行う構成の入力装置となる。そのため、タッチ操作中に、ジェスチャ座標とタッチ座標との位置ズレを抑制することができ、任意のタイミングでタッチ操作からジェスチャ操作に切り替わっても、スムーズに操作系の切り替えが可能な構成となる。 As a result, the touch coordinates and the coordinate data of the gesture coordinates corresponding thereto are stored as a set of coordinate data during the touch operation, and the gesture coordinates are corrected during the touch operation based on the two or more sets of coordinate data. It serves as an input device for the configuration. Therefore, it is possible to suppress the positional deviation between the gesture coordinates and the touch coordinates during the touch operation, and even if the touch operation is switched to the gesture operation at an arbitrary timing, the operation system can be smoothly switched.

なお、各構成要素等に付された括弧付きの参照符号は、その構成要素等と後述する実施形態に記載の具体的な構成要素等との対応関係の一例を示すものである。 The reference numerals in parentheses attached to each component or the like indicate an example of the correspondence between the component or the like and the specific component or the like described in the embodiment described later.

第1実施形態の入力装置を有する車載装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted device which has the input device of 1st Embodiment. 図1の車載装置の搭載例を説明するための説明図である。It is explanatory drawing for demonstrating the mounting example of the vehicle-mounted device of FIG. 図1の車載装置のうちタッチパネルの第1領域および第2領域の区画例を示す図である。It is a figure which shows the division example of the 1st region and the 2nd region of the touch panel in the vehicle-mounted device of FIG. タッチパネルをタッチ操作中の様子および表示部におけるポインタの表示を示す図である。It is a figure which shows the state during touch operation of a touch panel, and the display of a pointer in a display part. 図4Aに続くジェスチャ操作の様子および表示部におけるポインタの表示を示す図である。It is a figure which shows the state of the gesture operation following FIG. 4A, and the display of a pointer in a display part. タッチ操作およびジェスチャ操作におけるポインタの表示例を示す図である。It is a figure which shows the display example of a pointer in a touch operation and a gesture operation. タッチ操作およびジェスチャ操作において選択されたコンテンツの表示例を示す図である。It is a figure which shows the display example of the content selected in touch operation and gesture operation. タッチ操作からジェスチャ操作への切り替えにおける座標系の切り替えの一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the switching of the coordinate system in the switching from a touch operation to a gesture operation. 図7に示す座標系の切り替え時におけるポインタ表示の変化の一例を示す図である。It is a figure which shows an example of the change of the pointer display at the time of switching of the coordinate system shown in FIG. 7. 図7に示す座標系の切り替え時におけるポインタ表示の変化の他の一例を示す図である。It is a figure which shows another example of the change of the pointer display at the time of switching of the coordinate system shown in FIG. 7. タッチ操作からジェスチャ操作への切り替えにおける座標系の切り替えの他の一例を説明するための説明図である。It is explanatory drawing for demonstrating another example of the switching of the coordinate system in the switching from a touch operation to a gesture operation. 第1領域に表示されているアイコンを第2領域に移動する操作の例を示す図である。It is a figure which shows the example of the operation which moves the icon displayed in the 1st area to the 2nd area. 図11の操作に対応する処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of the processing operation corresponding to the operation of FIG. 図12の処理動作の変形例であって、その変形した部分に係る一部を示すフローチャートである。It is a modification of the processing operation of FIG. 12, and is the flowchart which shows a part which concerns on the modified part. 図12の処理動作の他の変形例であって、その変形した部分に係る一部を示すフローチャートである。It is another modification of the processing operation of FIG. 12, and is the flowchart which shows the part which concerns on the modified part. 図12の処理動作の他の変形例であって、その変形した部分に係る一部を示すフローチャートである。It is another modification of the processing operation of FIG. 12, and is the flowchart which shows the part which concerns on the modified part. 第2実施形態の入力装置を有する車載装置の構成を示すブロック図である。It is a block diagram which shows the structure of the in-vehicle device which has the input device of 2nd Embodiment. 第1実施形態の入力装置において、ジェスチャ座標への切り替えがされた場合でのジェスチャ座標の補正について説明するための説明図である。It is explanatory drawing for demonstrating the correction of the gesture coordinate at the time of switching to the gesture coordinate in the input device of 1st Embodiment. 第2実施形態の入力装置におけるジェスチャ座標の補正について説明するための説明図である。It is explanatory drawing for demonstrating the correction of the gesture coordinates in the input device of 2nd Embodiment. 第2実施形態の入力装置における補正の処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of the correction processing operation in the input device of 2nd Embodiment.

以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、同一符号を付して説明を行う。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In each of the following embodiments, parts that are the same or equal to each other will be described with the same reference numerals.

(第1実施形態)
第1実施形態に係る入力装置について説明する。本明細書では、例えば、図1に示すように自動車などの車両に搭載される車載装置1として適用された場合を代表例として説明するが、この用途に限定されるものではない。
(First Embodiment)
The input device according to the first embodiment will be described. In the present specification, for example, a case where it is applied as an in-vehicle device 1 mounted on a vehicle such as an automobile as shown in FIG. 1 will be described as a typical example, but the present specification is not limited to this application.

車載装置1は、例えば図1に示すように、表示部10と、タッチパネル11と、ジェスチャ認識部12と、記憶部13と、音声認識部14と、音声合成部15と、通信部16と、制御部17とを有してなる。車載装置1は、例えば図2に示すように、車両VのサイドウィンドウV1に表示部10が搭載されたサイドウィンドウディスプレイとされ得る。この車載装置1は、乗員、すなわち操作者が表示部10に対してタッチ操作およびジェスチャ操作が可能な構成となっている。 As shown in FIG. 1, for example, the in-vehicle device 1 includes a display unit 10, a touch panel 11, a gesture recognition unit 12, a storage unit 13, a voice recognition unit 14, a voice synthesis unit 15, and a communication unit 16. It has a control unit 17. As shown in FIG. 2, for example, the in-vehicle device 1 may be a side window display in which the display unit 10 is mounted on the side window V1 of the vehicle V. The in-vehicle device 1 is configured so that the occupant, that is, the operator can perform a touch operation and a gesture operation on the display unit 10.

なお、図2は、紙面左右方向を車両Vの進行可能な方向に沿った「車両全長方向」とし、紙面上において車両全長方向に直交する方向を「車幅方向」として、これらのなす平面に対する法線方向から車室内を見たときの平面図に相当する。図2では、車両全長方向において、座席V2、V3に着座した乗員が向き合う状態とされると共に、座席V2、V3に隣接するサイドウィンドウV1に表示部10が搭載された状態を示している。そして、図2に示す例では、座席V2またはV3に着座した乗員が、着座した状態のままサイドウィンドウディスプレイとされた車載装置1の入力操作が可能な状況となっている。 In FIG. 2, the left-right direction of the paper surface is defined as the "vehicle length direction" along the direction in which the vehicle V can travel, and the direction orthogonal to the vehicle length direction on the paper surface is defined as the "vehicle width direction" with respect to the planes formed by these. It corresponds to the plan view when the passenger compartment is viewed from the normal direction. FIG. 2 shows a state in which the occupants seated in the seats V2 and V3 face each other in the overall length direction of the vehicle, and the display unit 10 is mounted on the side window V1 adjacent to the seats V2 and V3. Then, in the example shown in FIG. 2, the occupant seated in the seat V2 or V3 can perform the input operation of the in-vehicle device 1 as the side window display while being seated.

表示部10は、各種の映像等を表示する任意のディスプレイである。表示部10は、図2に示すようにサイドウィンドウディスプレイとされる場合には、透明ディスプレイ、例えば有機EL(エレクトロルミネッセンスの略)ディスプレイとされる。表示部10は、サイドウィンドウディスプレイへの適用に限られないが、映像等が表示される表示面が、少なくとも操作者が移動しないとその全域を触れることができない程度の所定以上の面積とされている。 The display unit 10 is an arbitrary display for displaying various images and the like. When the display unit 10 is a side window display as shown in FIG. 2, it is a transparent display, for example, an organic EL (abbreviation of electroluminescence) display. The display unit 10 is not limited to application to a side window display, but the display surface on which an image or the like is displayed has an area equal to or larger than a predetermined area so that at least the entire area cannot be touched unless the operator moves. There is.

タッチパネル11は、表示部10のうち表示面に対して重畳配置された透明体であり、操作者によるタッチ操作に用いられる。タッチパネル11は、表示部10に表示される映像等を透過させると共に、タッチパネル11のうち表示部10とは反対側の一面における操作者の接触箇所に応じた信号を出力する。タッチパネル11は、例えば、静電容量式とされ、複数の第1電極と複数の第2電極とが格子状に配列されると共に、任意の絶縁性材料により覆われてなる。この場合、タッチパネル11は、一面に指等の操作体が置かれたときに、一面における当該操作体の位置に応じて静電容量が変化する構成とされ、当該静電容量の信号を出力する構成とされる。タッチパネル11が出力する操作体の位置に応じた信号は、例えば、後述する制御部17に出力され、表示部10に表示された操作アイコン等に割り当てられた所定の車載機器等への入力操作に用いられる。 The touch panel 11 is a transparent body that is superposed on the display surface of the display unit 10 and is used for a touch operation by the operator. The touch panel 11 transmits the image or the like displayed on the display unit 10 and outputs a signal corresponding to the contact point of the operator on one side of the touch panel 11 opposite to the display unit 10. The touch panel 11 is, for example, a capacitance type, in which a plurality of first electrodes and a plurality of second electrodes are arranged in a grid pattern and covered with an arbitrary insulating material. In this case, the touch panel 11 is configured such that when an operating body such as a finger is placed on one surface, the capacitance changes according to the position of the operating body on one surface, and outputs a signal of the capacitance. It is composed. The signal output by the touch panel 11 according to the position of the operating body is output to, for example, the control unit 17 described later, and is used for input operations to a predetermined in-vehicle device or the like assigned to the operation icon or the like displayed on the display unit 10. Used.

なお、タッチパネル11は、一面に指等の操作体が置かれたときに、その位置に応じた信号を出力する構成であればよく、静電容量式に限定されず、感圧式などの他の任意の方式とされてもよい。 The touch panel 11 may be configured to output a signal according to the position when an operating body such as a finger is placed on one surface, and is not limited to the capacitance type, but is not limited to the capacitance type, and is not limited to the capacitance type. It may be any method.

表示部10およびタッチパネル11は、操作者との相対位置の変化が所定以下に制限された状況において、当該操作者が、手が届くことによりタッチ操作が可能な領域と、手が届かないことでタッチ操作ができない領域とを有する所定以上の大きさとされる。 In a situation where the change in the relative position with the operator is limited to a predetermined value or less, the display unit 10 and the touch panel 11 have an area where the operator can reach and touch the touch panel, and the touch panel 11 is out of reach. The size is larger than a predetermined size and has an area where touch operation is not possible.

以下、説明の便宜上、図3に示すように、上記した状況において、タッチパネル11のうち操作者の手が届き、タッチ操作が可能な領域、すなわち接触可能な領域を「第1領域111」と称することがある。また、同状況において、タッチパネル11のうち操作者の手が届かないためにタッチ操作ができない領域を「第2領域112」と称することがある。 Hereinafter, for convenience of explanation, as shown in FIG. 3, in the above situation, the area of the touch panel 11 that the operator can reach and can touch, that is, the area that can be touched is referred to as “first area 111”. Sometimes. Further, in the same situation, the area of the touch panel 11 where the touch operation cannot be performed because the operator cannot reach it may be referred to as "second area 112".

なお、図3では、第1領域111と第2領域112との境界を便宜的に破線で示しているが、これらの区画について便宜的なものであり、明確な境界が存在するわけではない。また、第2領域112は、指などの操作体が接触した場合には、その接触された位置に応じた信号を出力する構成となっており、操作者が移動したり、体勢を変えたりした場合にはタッチ操作も可能な領域である。つまり、タッチパネル11における第1領域111および第2領域112は、タッチパネル11のサイズ、操作者の位置、姿勢や体格等の諸条件によりその面積や位置等が変化する。 In FIG. 3, the boundary between the first region 111 and the second region 112 is shown by a broken line for convenience, but these sections are for convenience and there is no clear boundary. Further, the second region 112 is configured to output a signal according to the contacted position when the operating body such as a finger comes into contact with the operating body, so that the operator moves or changes his / her posture. In some cases, it is an area where touch operation is also possible. That is, the area and position of the first area 111 and the second area 112 of the touch panel 11 change depending on various conditions such as the size of the touch panel 11, the position of the operator, the posture and the physique.

ジェスチャ認識部12は、撮像部21から取得した画像データに基づいて、操作者の手や指等を用いたジェスチャを三次元的に認識する。ジェスチャ認識部12は、例えば、所定の一方向への指のスライドや回転といった各種のジェスチャを認識すると共に、各種のジェスチャに応じた信号を制御部17へ出力する。このジェスチャに応じた信号は、例えば、操作者の手が届ない第2領域112における非接触のジェスチャ操作に用いられるが、第1領域111におけるジェスチャ操作にも用いられ得る。 The gesture recognition unit 12 three-dimensionally recognizes a gesture using the operator's hand, finger, or the like based on the image data acquired from the image pickup unit 21. The gesture recognition unit 12 recognizes various gestures such as sliding and rotation of a finger in a predetermined direction, and outputs signals corresponding to the various gestures to the control unit 17. The signal corresponding to this gesture is used, for example, for a non-contact gesture operation in the second region 112, which is out of the reach of the operator, but can also be used for the gesture operation in the first region 111.

撮像部21は、操作者がジェスチャ操作を行う際の当該操作者の手や指などの身体形状であって、ジェスチャに用いる部分を撮像するカメラである。撮像部21は、例えば、可視光カメラ、近赤外カメラ、赤外線カメラ等の任意のカメラとされる。撮像部21は、例えば図1に示すように、車載装置1とは別体とされると共に、図示しない配線等により車載装置1に電気的に接続される。撮像部21で取得した画像データは、ジェスチャ認識部12に伝送され、操作者のジェスチャの特定に用いられる。 The imaging unit 21 is a camera that captures a portion of the body shape of the operator's hand, finger, or the like when the operator performs a gesture operation, which is used for the gesture. The image pickup unit 21 may be any camera such as a visible light camera, a near infrared camera, or an infrared camera. As shown in FIG. 1, for example, the image pickup unit 21 is separated from the vehicle-mounted device 1 and is electrically connected to the vehicle-mounted device 1 by wiring or the like (not shown). The image data acquired by the imaging unit 21 is transmitted to the gesture recognition unit 12 and used to identify the gesture of the operator.

なお、撮像部21は、操作者の指等を撮像できる位置に設置されていればよく、例えば図2に示すように、車両Vの車室内における天井等の任意の箇所に設置される。 The image pickup unit 21 may be installed at a position where the operator's finger or the like can be imaged. For example, as shown in FIG. 2, the image pickup unit 21 is installed at an arbitrary position such as the ceiling in the vehicle interior of the vehicle V.

記憶部13には、例えば、表示部10に表示される操作アイコン等に係る情報、車載装置1の動作制御や車載機器等の機能を実行するための各種プログラムが格納されている。記憶部13は、例えば、不図示のROM、RAMや不揮発性RAM等により構成される記憶媒体である。 The storage unit 13 stores, for example, information related to operation icons and the like displayed on the display unit 10, and various programs for executing functions such as operation control of the in-vehicle device 1 and in-vehicle devices. The storage unit 13 is, for example, a storage medium composed of a ROM (not shown), a RAM, a non-volatile RAM, or the like.

音声認識部14は、例えば、車両Vに搭載されるマイク22から取得した音声データに基づき、操作者による発話等を認識する。音声認識部14は、例えば、車載装置1とは別体のマイク22からの音声データに応じた信号を制御部17に出力する。音声認識部14から出力された信号は、音声入力等に用いられる。 The voice recognition unit 14 recognizes an utterance or the like by the operator based on the voice data acquired from the microphone 22 mounted on the vehicle V, for example. For example, the voice recognition unit 14 outputs a signal corresponding to the voice data from the microphone 22, which is separate from the in-vehicle device 1, to the control unit 17. The signal output from the voice recognition unit 14 is used for voice input and the like.

マイク22は、操作者による発話等の音声が入力される任意の音声装置である。マイク22は、操作者による音声が入力される位置に配置されていればよく、車両Vの車室内における任意の位置に設置される。 The microphone 22 is an arbitrary voice device into which voice such as an utterance by an operator is input. The microphone 22 may be arranged at a position where the voice of the operator is input, and is installed at an arbitrary position in the vehicle interior of the vehicle V.

音声合成部15は、例えば、車載装置1とは別体のスピーカ23を介して音声によるメッセージ等を通知する際の音声を合成する。音声合成部15は、例えば、制御部17から操作者へのメッセージ等に関するテキストデータが伝送され、当該テキストデータに応じた音声信号をスピーカ23に出力する。 For example, the voice synthesis unit 15 synthesizes voice when notifying a voice message or the like via a speaker 23 separate from the vehicle-mounted device 1. For example, the voice synthesis unit 15 transmits text data related to a message or the like from the control unit 17 to the operator, and outputs a voice signal corresponding to the text data to the speaker 23.

スピーカ23は、例えば、音声合成部15から出力された音声信号に基づき、音声を出力する。スピーカ23は、操作者等がスピーカ23から出力される音声を聞き取ることができる箇所に搭載されていればよく、車両Vの任意の位置に設置される。 The speaker 23 outputs voice based on the voice signal output from the voice synthesis unit 15, for example. The speaker 23 may be mounted at a position where the operator or the like can hear the sound output from the speaker 23, and is installed at an arbitrary position of the vehicle V.

通信部16は、車両Vに搭載される任意の車載機器と不図示のネットワーク配線等を介して接続されており、制御部17と車載機器との通信に用いられる。 The communication unit 16 is connected to an arbitrary in-vehicle device mounted on the vehicle V via a network wiring (not shown) or the like, and is used for communication between the control unit 17 and the in-vehicle device.

なお、車載機器としては、例えば図1に示すように、通信機器24、ナビゲーション装置25、オーディオ装置26、カーエアコン27や車両ECU(Electronic Control Unitの略)28等が挙げられるが、これらに限定されない。通信機器24は、例えばインターネットなどの外部ネットワークとの通信用であってもよいし、車両V内にある車載機器とは異なる他の電子機器との通信用であってもよい。 Examples of the in-vehicle device include, but are limited to, a communication device 24, a navigation device 25, an audio device 26, a car air conditioner 27, a vehicle ECU (abbreviation of Electronic Control Unit) 28, and the like, as shown in FIG. Not done. The communication device 24 may be used for communication with an external network such as the Internet, or may be used for communication with another electronic device different from the in-vehicle device in the vehicle V.

制御部17は、例えば、回路配線を備える不図示の基板上にCPU等が搭載されてなる電子制御ユニットであり、記憶部13に格納された各種プログラムを読み込んで実行する。制御部17は、タッチパネル11からの出力信号に基づいて、タッチパネル11のうち操作者の指が接触もしくは近接した位置を算出する。制御部17は、ジェスチャ認識部12からの出力信号に基づいて、タッチパネル11のうち操作者のジェスチャ操作に対応する位置を算出する。制御部17は、音声認識部14からの出力信号に基づいて、操作者の発話を特定し、必要に応じて音声合成部15や車載機器への信号を出力する。制御部17は、各種の映像等を表示部10に表示させる制御を行うと共に、表示部10に表示された操作アイコンに割り当てられたコンテンツを実行させるため、通信部16を介して車載機器への出力を行う。また、制御部17は、例えば、操作アイコン等に関連付けられた機能やジェスチャ認識部12が認識したジェスチャに対応する機能を実行する。 The control unit 17 is, for example, an electronic control unit in which a CPU or the like is mounted on a board (not shown) provided with circuit wiring, and reads and executes various programs stored in the storage unit 13. The control unit 17 calculates the position of the touch panel 11 where the operator's finger touches or is close to the touch panel 11 based on the output signal from the touch panel 11. The control unit 17 calculates a position of the touch panel 11 corresponding to the gesture operation of the operator based on the output signal from the gesture recognition unit 12. The control unit 17 identifies the utterance of the operator based on the output signal from the voice recognition unit 14, and outputs a signal to the voice synthesis unit 15 and the in-vehicle device as needed. The control unit 17 controls the display unit 10 to display various images and the like, and transmits the content assigned to the operation icon displayed on the display unit 10 to the in-vehicle device via the communication unit 16. Output. Further, the control unit 17 executes, for example, a function associated with an operation icon or the like or a function corresponding to a gesture recognized by the gesture recognition unit 12.

つまり、制御部17は、タッチパネル11からの出力信号に基づくタッチ操作による入力制御、およびジェスチャ認識部12からの出力信号に基づくジェスチャ操作による入力制御を行う。そして、制御部17は、タッチ操作およびジェスチャ操作のいずれか一方による入力制御を行うように、その切り替えを実行する構成とされている。 That is, the control unit 17 performs input control by touch operation based on the output signal from the touch panel 11 and input control by gesture operation based on the gesture recognition unit 12. Then, the control unit 17 is configured to execute the switching so as to perform the input control by either the touch operation or the gesture operation.

以上が、入力装置が適用される車載装置1の基本的な構成である。この車載装置1は、例えば、タッチパネル11が信号を制御部17に出力している場合には、タッチ操作が行われ、タッチパネル11が信号を制御部17に出力していない場合には、ジェスチャ操作が行われ得る構成とされている。 The above is the basic configuration of the in-vehicle device 1 to which the input device is applied. In the in-vehicle device 1, for example, when the touch panel 11 outputs a signal to the control unit 17, a touch operation is performed, and when the touch panel 11 does not output a signal to the control unit 17, a gesture operation is performed. Is configured to be possible.

(操作系の切り替え)
次に、車載装置1におけるタッチ操作とジェスチャ操作との切り替えについて、図4A、図4Bに示す操作を代表例として説明する。
(Switching of operation system)
Next, regarding the switching between the touch operation and the gesture operation in the in-vehicle device 1, the operations shown in FIGS. 4A and 4B will be described as typical examples.

図4A、図4Bでは、断面を示すものではないが、見易くするため、操作者の操作位置に対応する位置を示すものとして表示部10に表示されるポインタPにハッチングを施している。また、図4A、図4Bでは、タッチパネル11のうち操作者による接触操作が可能な面を操作面11aとして、操作面11aのタッチ操作またはジェスチャ操作を行う操作者の頭上から見た、いわば「平面視」したときの状況を示している。さらに、図4A、図4Bでは、操作面11aに対する法線方向、すなわち操作面法線方向から表示部10およびタッチパネル11を見た、いわば「側面視」した状況を示している。図4Bでは、分かり易くするため、タッチパネル11から所定以上離れた操作者の手を破線で示している。 Although the cross section is not shown in FIGS. 4A and 4B, the pointer P displayed on the display unit 10 is hatched to indicate the position corresponding to the operation position of the operator for easy viewing. Further, in FIGS. 4A and 4B, the surface of the touch panel 11 that can be contacted by the operator is defined as the operation surface 11a, and is viewed from above the operator who performs the touch operation or the gesture operation of the operation surface 11a, so to speak, a “plane”. It shows the situation when "visualizing". Further, FIGS. 4A and 4B show a so-called "side view" situation in which the display unit 10 and the touch panel 11 are viewed from the normal direction with respect to the operation surface 11a, that is, the operation surface normal direction. In FIG. 4B, for the sake of clarity, the hand of the operator who is separated from the touch panel 11 by a predetermined value or more is shown by a broken line.

操作者が図4Aに示すようにタッチパネル11の操作面11aのうち第1領域111の任意の位置に一本の指を置き、その後、図4Bに続くように第2領域112にポインタPをジェスチャ操作で移動させる操作を行った場合について説明する。 As shown in FIG. 4A, the operator places one finger on the operation surface 11a of the touch panel 11 at an arbitrary position in the first area 111, and then gestures the pointer P to the second area 112 so as to follow FIG. 4B. The case where the operation of moving by the operation is performed will be described.

図4Aに示すように、操作者が第1領域111の任意の場所に指を置いた場合、制御部17は、表示部10のうち操作者が指を置いた場所に相当する箇所にポインタPを表示させる制御を行う。操作者がタッチパネル11の操作面11aに触れたまま、第2領域112に向かって指をスライドさせると、制御部17の制御により、この指の位置に連動してポインタPが移動する。 As shown in FIG. 4A, when the operator puts a finger on an arbitrary place in the first area 111, the control unit 17 puts the pointer P on the place corresponding to the place where the operator puts the finger on the display unit 10. Is controlled to be displayed. When the operator slides a finger toward the second region 112 while touching the operation surface 11a of the touch panel 11, the pointer P moves in conjunction with the position of the finger under the control of the control unit 17.

ポインタPを表示部10のうち第1領域111に相当する位置から第2領域112に相当する位置に移動させる場合、図4Bに示すように、操作者は、タッチパネル11から指を離して、引き続き、非接触のジェスチャ操作を行うことになる。制御部17は、例えば、操作者がタッチパネル11から指を離したタイミングでタッチ操作からジェスチャ操作への切り替えを実行する。 When the pointer P is moved from the position corresponding to the first area 111 to the position corresponding to the second area 112 in the display unit 10, the operator releases the finger from the touch panel 11 and continues, as shown in FIG. 4B. , Non-contact gesture operation will be performed. The control unit 17 executes switching from the touch operation to the gesture operation at the timing when the operator releases the finger from the touch panel 11, for example.

なお、ジェスチャ操作時においては、撮像部21は、操作者の動きを撮影し、指の動きや形状を画像データとして生成し、ジェスチャ認識部12にデータを出力する。その後、ジェスチャ認識部12は、指の動きや向きに対応する信号を制御部17に出力する。そして、制御部17は、例えば、ジェスチャ認識部12により認識された指のなす直線と表示部10との交点にポインタPを表示させる制御を行う。また、撮像部21による撮像およびジェスチャ認識部12への信号出力、並びにジェスチャ認識部12から制御部17への信号出力については、ジェスチャ操作時だけでなく、タッチ操作時においても行われてもよい。 At the time of gesture operation, the imaging unit 21 photographs the movement of the operator, generates the movement and shape of the finger as image data, and outputs the data to the gesture recognition unit 12. After that, the gesture recognition unit 12 outputs a signal corresponding to the movement or direction of the finger to the control unit 17. Then, the control unit 17 controls, for example, to display the pointer P at the intersection of the straight line formed by the finger recognized by the gesture recognition unit 12 and the display unit 10. Further, the imaging by the imaging unit 21, the signal output to the gesture recognition unit 12, and the signal output from the gesture recognition unit 12 to the control unit 17 may be performed not only during the gesture operation but also during the touch operation. ..

タッチ操作とジェスチャ操作との切り替えについては、例えば、「タッチパネル11からの信号出力の有無」、「タッチパネル11からの出力信号の強度」や「タッチ座標とジェスチャ座標との差」などに基づいて行われる。以下、タッチ操作とジェスチャ操作との切り替えを単に「操作系の切り替え」と称する。 Switching between touch operation and gesture operation is performed based on, for example, "presence or absence of signal output from touch panel 11", "strength of output signal from touch panel 11", "difference between touch coordinates and gesture coordinates", and the like. It is said. Hereinafter, switching between touch operation and gesture operation is simply referred to as "switching of operation system".

具体的には、例えば、タッチパネル11が感圧式などの指等の操作体が接触した場合にのみ信号を出力する構成である場合には、制御部17は、タッチパネル11からの信号の出力、すなわちタッチ座標の出力がある場合にはタッチ操作に基づく制御を行う。この場合において、タッチパネル11からの信号出力、すなわちタッチ座標の出力がないときには、制御部17は、ジェスチャ操作に基づく制御へと切り替える。 Specifically, for example, when the touch panel 11 is configured to output a signal only when an operating body such as a finger is in contact with the touch panel 11, the control unit 17 outputs a signal from the touch panel 11, that is, If there is an output of touch coordinates, control is performed based on the touch operation. In this case, when there is no signal output from the touch panel 11, that is, no output of touch coordinates, the control unit 17 switches to control based on the gesture operation.

なお、ここでいう「タッチ座標」とは、タッチパネル11からの信号に関連付けられ、タッチ操作時に用いられる座標系である。「ジェスチャ座標」とは、ジェスチャ認識部12からの信号に関連付けられ、主にジェスチャ操作時に用いられる座標系である。ジェスチャ座標は、タッチ座標におけるタッチ位置にも関連付けられると共に、タッチ操作からジェスチャ操作への切り替え時にスムーズに座標系の切り替えができるように、タッチ操作中にも内部処理がされている。 The "touch coordinates" referred to here are coordinate systems that are associated with the signal from the touch panel 11 and are used during the touch operation. The "gesture coordinates" is a coordinate system associated with the signal from the gesture recognition unit 12 and mainly used during the gesture operation. Gesture coordinates are also associated with the touch position in the touch coordinates, and internal processing is performed during the touch operation so that the coordinate system can be smoothly switched when switching from the touch operation to the gesture operation.

操作系の切り替えは、タッチパネル11からの出力信号の有無に代わって、タッチパネル11からの出力信号の強度に応じて行われてもよい。具体的には、タッチパネル11が静電センサ等のように操作者の指等の操作体が操作面11aと所定の距離内に近づいた場合に感度が高くなる、すなわち出力信号が大きくなる構成である場合には、操作系の切り替えは、この出力信号の強度により行われてもよい。より具体的には、操作者の指が操作面11aに触れているか、または所定の距離以内にある場合、タッチパネル11からの出力信号が所定以上の強度となるため、制御部17は、出力信号が当該閾値以上であれば、タッチ操作に基づく制御を行う。一方、タッチパネル11からの出力信号が当該閾値未満であるときには、制御部17は、タッチ操作からジェスチャ操作へ切り替える。 The switching of the operation system may be performed according to the strength of the output signal from the touch panel 11 instead of the presence or absence of the output signal from the touch panel 11. Specifically, the touch panel 11 has a configuration in which the sensitivity increases when the operating body such as the operator's finger approaches the operation surface 11a within a predetermined distance like an electrostatic sensor, that is, the output signal increases. In some cases, the switching of the operation system may be performed by the strength of this output signal. More specifically, when the operator's finger touches the operation surface 11a or is within a predetermined distance, the output signal from the touch panel 11 has a strength equal to or higher than a predetermined value, so that the control unit 17 controls the output signal. If is equal to or greater than the threshold value, control based on the touch operation is performed. On the other hand, when the output signal from the touch panel 11 is less than the threshold value, the control unit 17 switches from the touch operation to the gesture operation.

操作者の違和感を低減し、より滑らかにするためには、操作系の切り替えは、例えば、タッチ座標とジェスチャ座標との差に基づいて行われてもよい。 In order to reduce the discomfort of the operator and make it smoother, the switching of the operation system may be performed based on, for example, the difference between the touch coordinates and the gesture coordinates.

具体的には、例えば、ポインタPを所定の距離だけタッチ操作により移動させた場合について検討する。 Specifically, for example, a case where the pointer P is moved by a touch operation by a predetermined distance will be examined.

タッチ座標における操作位置は、操作者がタッチパネル11に接触した際にタッチパネル11から出力される信号に基づいて算出される。そのため、タッチ座標におけるポインタPの移動量は、実際の操作者の指の移動量との差がほとんどない。 The operation position in the touch coordinates is calculated based on the signal output from the touch panel 11 when the operator touches the touch panel 11. Therefore, the movement amount of the pointer P in the touch coordinates has almost no difference from the movement amount of the finger of the actual operator.

一方、ジェスチャ座標における操作位置は、ジェスチャ認識部12からの出力信号に基づいて算出される。例えば、操作者の指のなす直線と表示部10との交点がジェスチャ座標における操作位置として算出され、その操作位置の座標の変化量がジェスチャ座標における移動量となる。つまり、ジェスチャ座標における移動量は、操作者の指との物理的な接触によらずに算出される仮想的な数値であり、タッチ座標における移動量に比べて、実際の操作者の指の移動量との差が大きい。そして、タッチ座標における移動量とジェスチャ座標における移動量との差は、操作者によるポインタPの移動量が大きいほど大きくなる。 On the other hand, the operation position in the gesture coordinates is calculated based on the output signal from the gesture recognition unit 12. For example, the intersection of the straight line formed by the operator's finger and the display unit 10 is calculated as the operation position in the gesture coordinates, and the amount of change in the coordinates of the operation position is the amount of movement in the gesture coordinates. That is, the movement amount in the gesture coordinates is a virtual numerical value calculated without physical contact with the operator's finger, and the movement amount of the actual operator's finger is compared with the movement amount in the touch coordinates. There is a large difference from the amount. The difference between the amount of movement in the touch coordinates and the amount of movement in the gesture coordinates increases as the amount of movement of the pointer P by the operator increases.

したがって、表示部10と操作者との相対位置の変化量が所定以下に制限されている状況においては、第1領域111内におけるポインタPの移動操作では、操作者の指の移動量が小さく、各座標における移動量の差は小さい。一方、同じ状況において、第2領域112にポインタPを移動させる場合、操作者の指の移動量が大きくなり、各座標における移動量の差は大きくなる。 Therefore, in a situation where the amount of change in the relative position between the display unit 10 and the operator is limited to a predetermined value or less, the movement amount of the operator's finger is small in the movement operation of the pointer P in the first area 111. The difference in the amount of movement at each coordinate is small. On the other hand, in the same situation, when the pointer P is moved to the second region 112, the amount of movement of the operator's finger becomes large, and the difference in the amount of movement at each coordinate becomes large.

そこで、タッチ座標における移動量とジェスチャ座標における移動量との差に閾値を設け、制御部17は、これらの移動量の差が所定の閾値以上の場合には、タッチ操作のままとし、タッチ操作に基づく入力制御を行ってもよい。逆に、これらの移動量の差が所定の閾値未満の場合には、制御部17は、タッチ操作からジェスチャ操作に切り替え、タッチ操作に基づく入力制御を行ってもよい。このような操作系の切り替えとすることにより、タッチ操作からジェスチャ操作への切り替え時に、座標差によるポインタPの位置ズレ(後述)を所定以下に抑えることができ、操作系のスムーズな切り替えを実行できる。つまり、両座標における移動量が所定の閾値以上の状態でタッチ操作からジェスチャ操作に切り替わると、ポインタPの表示位置が大きくずれてしまい違和感を覚えるため、上記の操作系の切り替え条件とすることでこのような事態を防止できる。 Therefore, a threshold value is set for the difference between the movement amount in the touch coordinates and the movement amount in the gesture coordinates, and when the difference between these movement amounts is equal to or more than a predetermined threshold value, the touch operation is left as it is and the touch operation is performed. Input control based on may be performed. On the contrary, when the difference between these movement amounts is less than a predetermined threshold value, the control unit 17 may switch from the touch operation to the gesture operation and perform input control based on the touch operation. By switching the operation system in this way, when switching from the touch operation to the gesture operation, the position shift of the pointer P (described later) due to the coordinate difference can be suppressed to a predetermined value or less, and the operation system can be smoothly switched. it can. That is, if the touch operation is switched to the gesture operation when the movement amount at both coordinates is equal to or more than a predetermined threshold value, the display position of the pointer P is greatly deviated and a sense of incongruity is felt. Therefore, by setting the above operation system switching condition Such a situation can be prevented.

なお、操作系の切り替えに用いられる出力信号の強度や両座標の差における閾値は、例えば記憶部13に格納され、必要に応じて制御部17により読み込まれる。また、操作系の切り替えにおいては、タッチパネル11からの出力信号の強度と、両座標における移動量の差とを組み合わせてもよい。例えば、タッチパネル11からの出力信号の強度が閾値以上、かつ両座標における移動量が所定の値以上の場合には、制御部17は、タッチ操作を有効とし、タッチ操作に基づく入力制御を実行してもよい。また、タッチパネル11からの出力信号の強度が閾値未満、かつ両座標における移動量が所定の値未満の場合には、制御部17は、ジェスチャ操作を有効とし、ジェスチャ操作に基づく入力制御を実行してもよい。 The strength of the output signal used for switching the operation system and the threshold value in the difference between both coordinates are stored in, for example, the storage unit 13, and are read by the control unit 17 as needed. Further, when switching the operation system, the strength of the output signal from the touch panel 11 and the difference in the amount of movement at both coordinates may be combined. For example, when the strength of the output signal from the touch panel 11 is equal to or greater than the threshold value and the amount of movement at both coordinates is equal to or greater than a predetermined value, the control unit 17 enables the touch operation and executes input control based on the touch operation. You may. When the strength of the output signal from the touch panel 11 is less than the threshold value and the movement amount at both coordinates is less than a predetermined value, the control unit 17 enables the gesture operation and executes the input control based on the gesture operation. You may.

また、タッチ操作かジェスチャ操作かを操作者が視覚的に把握し易くするため、図5に示すように、ポインタPの意匠をタッチ操作とジェスチャ操作とで異なるものとしてもよい。また、同様の目的で、図6に示すように、表示部10に表示されているアイコンのうち操作者が選択している選択アイコンを強調表示する場合、その意匠をタッチ操作とジェスチャ操作とで異なるものとしてもよい。意匠の変更の様式としては、ポインタPについては色、形状や大きさを変えたり、選択アイコンについては枠の色、太さや模様を変えたりすることが挙げられるが、視覚的に差異が認識できればよく、これらに限定されない。 Further, in order to make it easier for the operator to visually grasp whether the touch operation or the gesture operation, the design of the pointer P may be different between the touch operation and the gesture operation as shown in FIG. Further, for the same purpose, as shown in FIG. 6, when highlighting the selection icon selected by the operator among the icons displayed on the display unit 10, the design can be touched and gestured. It may be different. As a style of changing the design, the color, shape and size of the pointer P can be changed, and the frame color, thickness and pattern of the selection icon can be changed, but if the difference can be visually recognized. Well, but not limited to these.

なお、上記したポインタPの意匠の変更については、タッチ操作からジェスチャ操作に切り替える場合だけでなく、その逆の場合に適用してもよい。つまり、制御部17は、タッチ操作およびジェスチャ操作のいずれか一方から他方へ切り替える際に、座標ズレによる違和感を低減する制御を実行してもよい。 The above-mentioned change in the design of the pointer P may be applied not only when switching from the touch operation to the gesture operation but also when vice versa. That is, when switching from either the touch operation or the gesture operation to the other, the control unit 17 may execute a control for reducing a sense of discomfort due to coordinate deviation.

(座標系の切り替え)
次に、操作系の切り替え時におけるタッチ座標とジェスチャ座標との切り替えについて、図7〜図10を参照して説明する。
(Switching the coordinate system)
Next, switching between the touch coordinates and the gesture coordinates at the time of switching the operation system will be described with reference to FIGS. 7 to 10.

図7、図10では、紙面左右方向をx方向とし、紙面上においてx方向に直交する方向をy方向として示すと共に、x方向におけるタッチ座標Txと同方向におけるジェスチャ座標Gxとを矢印で示している。また、図7、図10では、分かり易くするため、タッチ操作中の操作者の手を実線で示している。図7〜図10では、ジェスチャ操作中の操作者の手を破線で示している。 In FIGS. 7 and 10, the left-right direction of the paper surface is the x direction, the direction orthogonal to the x direction on the paper surface is the y direction, and the touch coordinate Tx in the x direction and the gesture coordinate Gx in the same direction are indicated by arrows. There is. Further, in FIGS. 7 and 10, for the sake of clarity, the operator's hand during the touch operation is shown by a solid line. In FIGS. 7 to 10, the operator's hand during the gesture operation is shown by a broken line.

以下の説明においては、説明の便宜上、操作系の切り替えに伴ってなされる、ポインタP等の現操作位置の表示に使用される座標の切り替えを単に「座標系の切り替え」と称する。また、座標系の切り替えを分かり易くするため、ここでは、ポインタPのy方向における座標を変化させず、x方向における座標を変化させるように、ポインタPを移動させる操作を行う場合を代表例として説明する。 In the following description, for convenience of explanation, the switching of the coordinates used for displaying the current operating position of the pointer P or the like, which is performed when the operating system is switched, is simply referred to as “coordinate system switching”. Further, in order to make the switching of the coordinate system easy to understand, here, as a typical example, the operation of moving the pointer P so as to change the coordinates in the x direction without changing the coordinates of the pointer P in the y direction is performed. explain.

制御部17は、例えば図7に示すように、タッチ操作からジェスチャ操作へ切り替えを行う際に、ポインタP等を表示させる現操作位置を算出するために用いる座標をタッチ座標からジェスチャ座標に切り替える制御を行う。 As shown in FIG. 7, for example, the control unit 17 controls to switch the coordinates used for calculating the current operation position for displaying the pointer P or the like from the touch coordinates to the gesture coordinates when switching from the touch operation to the gesture operation. I do.

例えば、操作系の切り替えの直前におけるポインタPのタッチ座標をtx1として、制御部17は、図7に示すように、タッチ操作時においては、ポインタPをタッチ座標でのtx1に対応する位置に表示させる制御を行う。一方、ジェスチャ座標においてtx1に対応する位置をgx1として、制御部17は、ジェスチャ操作時においては、ポインタPをジェスチャ座標でのgx1に対応する位置に表示させる制御を行う。 For example, assuming that the touch coordinate of the pointer P immediately before the switching of the operation system is tx1, the control unit 17 displays the pointer P at the position corresponding to tx1 in the touch coordinate during the touch operation as shown in FIG. Control to make it. On the other hand, the position corresponding to tx1 in the gesture coordinates is set to gx1, and the control unit 17 controls to display the pointer P at the position corresponding to gx1 in the gesture coordinates at the time of the gesture operation.

このとき、図7に示すように、タッチ座標のtx1とジェスチャ座標gx1との間に所定以上のズレがある場合には、座標系の切り替えに伴って、ポインタPの表示位置が瞬間的に大きくずれてしまい、操作者に違和感を覚えさせ得る。 At this time, as shown in FIG. 7, if there is a deviation of a predetermined value or more between the touch coordinate tx1 and the gesture coordinate gx1, the display position of the pointer P is momentarily increased as the coordinate system is switched. It may shift and make the operator feel uncomfortable.

このようにタッチ座標とジェスチャ座標とを単純に切り替える場合において、座標系の切り替えに伴うポインタP等の位置ズレによる違和感を低減するため、制御部17は、座標系の切り替え時におけるポインタPの表示制御を実行することが好ましい。 In the case of simply switching between the touch coordinates and the gesture coordinates in this way, the control unit 17 displays the pointer P at the time of switching the coordinate system in order to reduce the discomfort due to the positional deviation of the pointer P or the like due to the switching of the coordinate system. It is preferable to perform control.

例えば、図8に示すように、ポインタPをタッチ座標上での位置とジェスチャ座標上での位置とにおいて短時間で交互に数回表示させ、最終的に、切り替え後の座標系での位置にポインタPを表示させてもよい。つまり、制御部17は、操作系の切り替え時にポインタPが振動しているように表示をさせつつ、切り替え後の座標系での位置に表示させるといったアニメーション表示をさせることで、位置ズレによる違和感を低減する。また、図9に示すように、制御部17は、操作系の切り替え時においてポインタPの大きさを一時的に大きくし、切り替えた座標系における表示位置に集束するようにポインタPの大きさを元に戻すことで位置ズレによる違和感を低減してもよい。 For example, as shown in FIG. 8, the pointer P is displayed alternately at the position on the touch coordinate and the position on the gesture coordinate several times in a short time, and finally at the position in the coordinate system after switching. The pointer P may be displayed. That is, the control unit 17 displays an animation display such that the pointer P is vibrating when the operation system is switched and is displayed at the position in the coordinate system after the switching, thereby causing a sense of discomfort due to the position shift. Reduce. Further, as shown in FIG. 9, the control unit 17 temporarily increases the size of the pointer P when the operation system is switched, and adjusts the size of the pointer P so as to focus on the display position in the switched coordinate system. By returning it to the original position, the discomfort due to the misalignment may be reduced.

また、制御部17は、例えば図10に示すように、タッチ操作からジェスチャ操作への切り替えを行う際に、ジェスチャ座標のオフセット処理を行った上で、タッチ座標からジェスチャ座標に切り替える制御を実行してもよい。 Further, as shown in FIG. 10, for example, when switching from the touch operation to the gesture operation, the control unit 17 performs a control of switching from the touch coordinates to the gesture coordinates after performing the offset processing of the gesture coordinates. You may.

図7に示すように、操作系の切り替え直前におけるタッチ座標のtx1とジェスチャ座標のgx1との間にズレが生じている場合、制御部17は、図10に示すように、これらの差(tx1−gx1)の分だけジェスチャ座標の原点をオフセットしてもよい。これにより、オフセット後のジェスチャ座標のgx1とタッチ座標のtx1とが同じ位置となり、座標系を切り替えた後であっても、ポインタPは、操作系の切り替え前後において同じ位置に表示されることになる。このような表示制御により、操作者は、タッチ操作からジェスチャ操作への切り替えによる違和感を覚えることなく、よりスムーズにジェスチャ操作を続行することができる。 As shown in FIG. 7, when there is a deviation between the tx1 of the touch coordinates and the gx1 of the gesture coordinates immediately before the switching of the operation system, the control unit 17 determines the difference (tx1) as shown in FIG. The origin of the gesture coordinates may be offset by −gx1). As a result, the gesture coordinate gx1 after the offset and the touch coordinate tx1 are at the same position, and the pointer P is displayed at the same position before and after the operation system is switched even after the coordinate system is switched. Become. With such display control, the operator can continue the gesture operation more smoothly without feeling a sense of discomfort due to the switching from the touch operation to the gesture operation.

(処理動作例)
次に、車載装置1における処理動作例について、図11に示す操作を行った場合における処理動作例を代表例に、図12を参照して説明する。
(Processing operation example)
Next, a processing operation example in the in-vehicle device 1 will be described with reference to FIG. 12 with reference to FIG.

図11では、操作者が表示部10のうち第1領域111内において表示されているアイコンを選択し、当該選択アイコンを第2領域112に移動させる操作を示している。また、図11では、分かり易くするため、断面を示すものではないが、操作するアイコンにハッチングを施している。さらに、図11では、第1領域111と第2領域112との境界を便宜的に破線で示すと共に、操作の順番を白抜き矢印で示している。 FIG. 11 shows an operation in which the operator selects an icon displayed in the first area 111 of the display unit 10 and moves the selected icon to the second area 112. Further, in FIG. 11, for the sake of clarity, although the cross section is not shown, the icons to be operated are hatched. Further, in FIG. 11, the boundary between the first region 111 and the second region 112 is indicated by a broken line for convenience, and the order of operations is indicated by a white arrow.

制御部17は、例えば車載装置1がONの状態となったら、図12に示す制御フローを実行する。 The control unit 17 executes the control flow shown in FIG. 12, for example, when the in-vehicle device 1 is turned on.

ステップS101では、制御部17は、タッチパネル11から信号を出力されたか否か、すなわちタッチパネル11の入力有無についての判定を行う。制御部17は、ステップS101にて肯定判定の場合、すなわちタッチパネル11から信号が出力されたと判定した場合には処理をステップS102に進め、否定判定の場合には処理を終了させる。 In step S101, the control unit 17 determines whether or not a signal is output from the touch panel 11, that is, whether or not the touch panel 11 is input. The control unit 17 proceeds to step S102 when a positive determination is made in step S101, that is, when it is determined that a signal is output from the touch panel 11, and ends the process when a negative determination is made.

ステップS102では、制御部17は、タッチパネル11からの出力信号に基づいて算出された操作位置が、表示部10に表示された操作アイコン上であって、当該操作アイコンの移動を有効にできる位置であるか否かの判定を行う。ステップS102で肯定判定の場合には、制御部17は、処理をステップS103に進める。例えば、操作者がタッチパネル11に指を置いたまたは近接させた際に、表示部10に表示されるポインタPが操作アイコンの移動を有効にする位置にある状況等がこの場合に該当する。一方、否定判定の場合には、制御部17は、処理を終了させる。 In step S102, the control unit 17 is at a position where the operation position calculated based on the output signal from the touch panel 11 is on the operation icon displayed on the display unit 10 and the movement of the operation icon can be enabled. Judge whether or not there is. If the affirmative determination is made in step S102, the control unit 17 advances the process to step S103. For example, when the operator puts his or her finger on the touch panel 11 or brings it close to the touch panel 11, the pointer P displayed on the display unit 10 is in a position where the movement of the operation icon is enabled. On the other hand, in the case of a negative determination, the control unit 17 ends the process.

ステップS103では、制御部17は、操作位置に表示されているアイコンを移動可能な状態にする制御を行う。その後、制御部17は、処理をステップS104に進める。 In step S103, the control unit 17 controls to make the icon displayed at the operation position movable. After that, the control unit 17 advances the process to step S104.

ステップS104では、制御部17は、タッチパネル11からの出力信号により算出される操作位置が、タッチ座標上で変化したか否かについて判定する。ステップS104で肯定判定の場合には、制御部17は、処理をステップS105に進める。例えば、操作者がタッチパネル11に触れた状態のまま、第1領域111から第2領域112に向かってスライド操作をしている状況等がこの場合に該当する。一方、ステップS104にて否定判定の場合には、制御部17は、処理をステップS106に進める。 In step S104, the control unit 17 determines whether or not the operation position calculated by the output signal from the touch panel 11 has changed on the touch coordinates. If a positive determination is made in step S104, the control unit 17 advances the process to step S105. For example, this case corresponds to a situation in which the operator is operating the slide operation from the first area 111 to the second area 112 while touching the touch panel 11. On the other hand, in the case of a negative determination in step S104, the control unit 17 advances the process to step S106.

ステップS105では、制御部17は、タッチ座標上での操作位置の変化に連動して、選択アイコン(移動が有効な状態とされたアイコン)を移動させる制御を行う。その後、制御部17は、処理をステップS107に進める。 In step S105, the control unit 17 controls to move the selection icon (the icon in which the movement is enabled) in conjunction with the change in the operation position on the touch coordinates. After that, the control unit 17 advances the process to step S107.

ステップS106では、制御部17は、タッチパネル11からの入力がないか否かについて判定を行う。ステップS106で肯定判定の場合、すなわちタッチパネル11からの入力がないと判定した場合には、制御部17は、処理を後述のステップS113に進める。一方、ステップS106で否定判定の場合、すなわちタッチパネル11からの入力があると判定した場合には、制御部17は、処理をステップS104に戻す。 In step S106, the control unit 17 determines whether or not there is an input from the touch panel 11. In the case of an affirmative determination in step S106, that is, when it is determined that there is no input from the touch panel 11, the control unit 17 advances the process to step S113 described later. On the other hand, in the case of a negative determination in step S106, that is, when it is determined that there is an input from the touch panel 11, the control unit 17 returns the process to step S104.

なお、S106での判定については、前述したように、タッチパネル11からの出力信号の有無、当該出力信号の強度、およびタッチ座標とジェスチャ座標との差などに基づいて実行され得る。 As described above, the determination in S106 can be executed based on the presence / absence of the output signal from the touch panel 11, the strength of the output signal, the difference between the touch coordinates and the gesture coordinates, and the like.

ステップS107では、制御部17は、ステップS106と同様に、タッチパネル11における入力がないか否かについて判定を行う。ステップS107にて肯定判定の場合、すなわちタッチパネル11からの入力がないと判定した場合には、制御部17は、処理をステップS108に進める。例えば、操作者がタッチパネル11から指を離し、タッチパネル11からの出力信号が制御部17に伝送されなくなった状況等がこの場合に該当する。一方、ステップS107で否定判定の場合、すなわちタッチパネル11からの入力があると判定した場合には、制御部17は、処理をステップS105に戻す。 In step S107, the control unit 17 determines whether or not there is an input on the touch panel 11 as in step S106. If the affirmative determination is made in step S107, that is, if it is determined that there is no input from the touch panel 11, the control unit 17 proceeds to the process in step S108. For example, a situation where the operator releases the finger from the touch panel 11 and the output signal from the touch panel 11 is no longer transmitted to the control unit 17 corresponds to this case. On the other hand, in the case of a negative determination in step S107, that is, when it is determined that there is an input from the touch panel 11, the control unit 17 returns the process to step S105.

ステップS108では、制御部17は、ジェスチャ操作を有効とし、タッチ操作からジェスチャ操作に切り替える。言い換えると、ステップS108では、制御部17は、タッチ操作に代えて、ジェスチャ操作に基づく入力制御を実行可能な状態とする。これにより、操作者は、ジェスチャ操作により車載機器への入力操作が可能となる。続けて、制御部17は、処理をステップS109に進める。 In step S108, the control unit 17 enables the gesture operation and switches from the touch operation to the gesture operation. In other words, in step S108, the control unit 17 is in a state where input control based on the gesture operation can be executed instead of the touch operation. As a result, the operator can perform an input operation to the in-vehicle device by a gesture operation. Subsequently, the control unit 17 advances the process to step S109.

ステップS109では、制御部17は、所定時間内にジェスチャ座標上における操作位置の変化があるか否かについて判定を行う。ステップS109で肯定判定の場合、制御部17は、処理をステップS110に進める。一方、ステップS109で否定判定の場合、制御部17は、処理を後述のステップS112に進める。なお、この所定時間については、任意であり、適宜設定される。 In step S109, the control unit 17 determines whether or not there is a change in the operation position on the gesture coordinates within a predetermined time. If a positive determination is made in step S109, the control unit 17 advances the process to step S110. On the other hand, in the case of a negative determination in step S109, the control unit 17 advances the process to step S112 described later. It should be noted that this predetermined time is arbitrary and is set as appropriate.

ステップS110では、制御部17は、ジェスチャ座標上における操作位置の変化に連動して、選択アイコンを移動させる。続けて、制御部17は、処理をステップS111に進める。 In step S110, the control unit 17 moves the selection icon in conjunction with the change in the operation position on the gesture coordinates. Subsequently, the control unit 17 advances the process to step S111.

ステップS111では、制御部17は、再度、所定時間内にジェスチャ座標上における操作位置の変化があるか否かについて判定を行う。ステップS111にて肯定判定の場合、制御部17は、処理をステップS110に戻す。一方、ステップS111にて否定判定の場合、制御部17は、処理をステップS112に進める。 In step S111, the control unit 17 again determines whether or not there is a change in the operation position on the gesture coordinates within a predetermined time. If a positive determination is made in step S111, the control unit 17 returns the process to step S110. On the other hand, in the case of a negative determination in step S111, the control unit 17 advances the process to step S112.

なお、ステップS109およびS111では、制御部17は、ジェスチャ座標における操作位置の変化量が所定以上であるか否かを判定してもよい。また、ステップS109およびS111では、制御部17は、ジェスチャ座標における操作位置の変化量が所定以上であるか否かの判定において、上記と同様に所定の制限時間を設け、その所定時間内に判定を実行してもよい。ステップS109およびS111における否定判定の場合は、例えば、操作者がジェスチャ操作に用いていた指を一定時間停止させた状態にする状況等が該当する。言い換えると、この場合、「操作者が指差しの位置を一定時間停止させること」が選択アイコンの移動の終了条件とされているとも言える。 In steps S109 and S111, the control unit 17 may determine whether or not the amount of change in the operation position in the gesture coordinates is equal to or greater than a predetermined amount. Further, in steps S109 and S111, the control unit 17 sets a predetermined time limit as described above in determining whether or not the amount of change in the operation position in the gesture coordinates is equal to or greater than a predetermined time, and determines within the predetermined time. May be executed. In the case of the negative determination in steps S109 and S111, for example, a situation in which the finger used by the operator for the gesture operation is stopped for a certain period of time corresponds to the situation. In other words, in this case, it can be said that "the operator stops the pointing position for a certain period of time" is the end condition for moving the selection icon.

ステップS112では、制御部17は、選択アイコンの位置をジェスチャ座標における操作位置に決定する。そして、制御部17は、続くステップS113にて、当該選択アイコンの移動可能状態を無効とする制御を行う。これにより、例えば図11に示すように、選択アイコンは、表示部10のうち第2領域112の所定位置に固定された状態となり、その移動が終了する。その後、制御部17は、図12の制御フローの処理を終了する。 In step S112, the control unit 17 determines the position of the selection icon as the operation position in the gesture coordinates. Then, in the subsequent step S113, the control unit 17 controls to invalidate the movable state of the selection icon. As a result, for example, as shown in FIG. 11, the selection icon is fixed at a predetermined position in the second area 112 of the display unit 10, and its movement ends. After that, the control unit 17 ends the processing of the control flow shown in FIG.

(処理動作の変形例)
上記の処理動作例では、「ジェスチャ座標における操作位置の変化」により、選択アイコンの移動終了が決定されていた。しかしながら、制御フローのうち選択アイコンの移動終了条件は、図12に示す例に限られず、図13〜図15に示すように変更されてもよい。以降の説明では、図12を参照して説明した上記の処理動作とは相違する部分について主に説明する。
(Modified example of processing operation)
In the above processing operation example, the end of movement of the selection icon is determined by "change in operation position in gesture coordinates". However, the movement end condition of the selection icon in the control flow is not limited to the example shown in FIG. 12, and may be changed as shown in FIGS. 13 to 15. In the following description, a part different from the above processing operation described with reference to FIG. 12 will be mainly described.

図13〜図15では、図12に示す制御フローのうちステップS103からステップS106またはステップS112までの間を抜粋して示している。 13 to 15 show excerpts from step S103 to step S106 or step S112 of the control flow shown in FIG.

図13に示す変形例では、制御部17は、ステップS107の後、処理をステップS114に進める。ステップS114では、制御部17は、所定時間内にタッチ操作によるタップがないか否かについて判定を行う。ステップS114にて肯定判定の場合、すなわち操作者が所定時間内にタッチ操作によるタップをしなかったと判定した場合、制御部17は、処理をステップS108に進める。一方、ステップS114にて否定判定の場合、制御部17は、処理をステップS112に進める。 In the modified example shown in FIG. 13, the control unit 17 advances the process to step S114 after step S107. In step S114, the control unit 17 determines whether or not there is a tap by a touch operation within a predetermined time. In the case of an affirmative determination in step S114, that is, when it is determined that the operator did not tap by the touch operation within a predetermined time, the control unit 17 advances the process to step S108. On the other hand, in the case of a negative determination in step S114, the control unit 17 advances the process to step S112.

制御部17は、ステップS108の後、ステップS110にて選択アイコンをジェスチャ座標における操作位置に移動させる処理を行い、次に、処理をステップS115に進める。ステップS115では、制御部17は、タップ動作に対応する操作者のジェスチャがないか否かについて判定を行う。ステップS115にて肯定判定の場合、すなわちタップ動作がないと判定した場合には、制御部17は、処理をステップS110に戻す。一方、ステップS115にて否定判定の場合、すなわちタップ動作があると判定した場合には、制御部17は、処理をステップS112に進める。 After step S108, the control unit 17 performs a process of moving the selection icon to the operation position in the gesture coordinates in step S110, and then proceeds to the process of step S115. In step S115, the control unit 17 determines whether or not there is an operator gesture corresponding to the tap operation. In the case of an affirmative determination in step S115, that is, when it is determined that there is no tap operation, the control unit 17 returns the process to step S110. On the other hand, in the case of a negative determination in step S115, that is, when it is determined that there is a tap operation, the control unit 17 advances the process to step S112.

なお、操作者がタッチ操作によるタップの動作をしたか否かについては、例えば、タッチパネル11のうち所定の範囲内、かつ所定の時間内に少なくとも2回の断続的な出力信号が制御部17に伝送されたか否かにより判定可能である。また、操作者がジェスチャ操作によるタップの動作をしたか否かについては、例えば、所定の範囲内かつ所定の時間内に少なくとも2回の往復動作がされた場合に対応する信号が、ジェスチャ認識部12から制御部17に伝送されたか否かにより判定可能である。操作者によるタップ動作の有無の判定方法については、上記の例に限定されるものではない。 Regarding whether or not the operator has tapped by touch operation, for example, the control unit 17 receives at least two intermittent output signals within a predetermined range and within a predetermined time of the touch panel 11. It can be determined by whether or not it has been transmitted. Further, regarding whether or not the operator has performed the tap operation by the gesture operation, for example, the signal corresponding to the case where the operator performs the reciprocating operation at least twice within the predetermined range and within the predetermined time is the gesture recognition unit. It can be determined by whether or not the transmission is transmitted from the 12 to the control unit 17. The method of determining the presence or absence of the tap operation by the operator is not limited to the above example.

つまり、図13に示す変形例では、選択アイコンの移動終了条件が「タッチ操作またはジェスチャ操作によるタップ動作」となっている。また、図14に示すように、選択アイコンの移動終了条件は、「タッチ操作またはジェスチャ操作による押し込み動作」であってもよい。 That is, in the modified example shown in FIG. 13, the movement end condition of the selection icon is "tap operation by touch operation or gesture operation". Further, as shown in FIG. 14, the movement end condition of the selection icon may be "pushing operation by touch operation or gesture operation".

図14に示す変形例では、制御部17は、ステップS105の後、処理をステップS116に進める。ステップS116では、制御部17は、所定時間内にタッチ操作による押し込み動作がないか否かについて判定を行う。ステップS116にて肯定判定の場合、すなわち操作者が所定時間内にタッチ操作による押し込み動作をしなかったと判定された場合、制御部17は、処理をステップS117に進める。一方、ステップS116にて否定判定の場合、すなわち操作者が所定時間内にタッチ操作による押し込み動作をしたと判定した場合、制御部17は、処理をステップS112に進める。 In the modified example shown in FIG. 14, the control unit 17 advances the process to step S116 after step S105. In step S116, the control unit 17 determines whether or not there is a pushing operation by a touch operation within a predetermined time. In the case of an affirmative determination in step S116, that is, when it is determined that the operator did not perform the pushing operation by the touch operation within the predetermined time, the control unit 17 advances the process to step S117. On the other hand, in the case of a negative determination in step S116, that is, when it is determined that the operator has performed a pushing operation by a touch operation within a predetermined time, the control unit 17 advances the process to step S112.

ステップS117では、制御部17は、図12におけるステップS107と同様に、タッチパネル11からの入力がないか否かについて判定を行う。ステップS117で肯定判定の場合、すなわちタッチパネル11からの入力がないと判定した場合には、制御部17は、処理をステップS108、S110の順に進める。一方、ステップS117で否定判定の場合、すなわちタッチパネル11からの入力があると判定した場合には、制御部17は、処理をステップS105に戻す。 In step S117, the control unit 17 determines whether or not there is an input from the touch panel 11 as in step S107 in FIG. In the case of an affirmative determination in step S117, that is, when it is determined that there is no input from the touch panel 11, the control unit 17 proceeds with the processing in the order of steps S108 and S110. On the other hand, in the case of a negative determination in step S117, that is, when it is determined that there is an input from the touch panel 11, the control unit 17 returns the process to step S105.

制御部17は、ステップS110の後、処理をステップS118に進め、ジェスチャ操作による押し込みの動作がないか否かについて判定を行う。ステップS118で肯定判定の場合、すなわち押し込みのジェスチャがないと判定した場合には、制御部17は、処理をステップS110に戻す。一方、ステップS118で否定判定の場合、すなわち押し込みのジェスチャがあると判定した場合には、制御部17は、処理をステップS112に進める。 After step S110, the control unit 17 advances the process to step S118, and determines whether or not there is a pushing operation by the gesture operation. In the case of affirmative determination in step S118, that is, when it is determined that there is no pushing gesture, the control unit 17 returns the process to step S110. On the other hand, in the case of a negative determination in step S118, that is, when it is determined that there is a push gesture, the control unit 17 advances the process to step S112.

なお、操作者がタッチ操作による押し込みの動作をしたか否かについては、例えば、タッチパネル11が押圧センサを有した構成とされ、タッチパネル11から押圧に応じた信号を制御部17に伝送されたか否かにより判定可能である。また、操作者がジェスチャ操作による押し込みの動作をしたか否かについては、例えば、所定の範囲内かつ所定の時間内に少なくとも1回の往復動作がされた場合に対応する信号が、ジェスチャ認識部12から制御部17に伝送されたか否かにより判定可能である。操作者による押し込む動作の有無の判定方法については、上記の例に限定されるものではない。 Regarding whether or not the operator has performed the pushing operation by touch operation, for example, whether or not the touch panel 11 has a pressing sensor and a signal corresponding to the pressing is transmitted from the touch panel 11 to the control unit 17. It can be determined by the above. Further, regarding whether or not the operator has performed the pushing operation by the gesture operation, for example, the signal corresponding to the case where the operator performs at least one reciprocating operation within a predetermined range and within a predetermined time is the gesture recognition unit. It can be determined by whether or not the transmission is transmitted from the 12 to the control unit 17. The method of determining whether or not there is a pushing operation by the operator is not limited to the above example.

さらに、図15に示す変形例のように、操作者による所定の発話をアイコンの移動終了条件としてもよい。図15に示す変形例は、ステップS116、S118に代わって、アイコンの移動を停止させる発話がないか否かを判定するステップS119、S120とされたものである。 Further, as in the modified example shown in FIG. 15, a predetermined utterance by the operator may be a condition for ending the movement of the icon. In the modified example shown in FIG. 15, instead of steps S116 and S118, steps S119 and S120 are used to determine whether or not there is an utterance that stops the movement of the icon.

ステップS119では、制御部17は、例えば、「はい」、「そこ」、「ストップ」等の所定の発話に対応した音声信号が、音声認識部14から出力されているか否かにより、停止の発話がないか否かを判定する。ステップS119で肯定判定の場合、すなわち操作者による停止の発話がないと判定した場合には、制御部17は、処理をステップS117に進める。一方、ステップS119で否定判定の場合、すなわち操作者による停止の発話があったと判定した場合には、制御部17は、処理をステップS112に進める。 In step S119, the control unit 17 makes a stop utterance depending on whether or not a voice signal corresponding to a predetermined utterance such as "yes", "there", or "stop" is output from the voice recognition unit 14. Judge whether or not there is. In the case of an affirmative determination in step S119, that is, when it is determined that there is no stop utterance by the operator, the control unit 17 advances the process to step S117. On the other hand, in the case of a negative determination in step S119, that is, when it is determined that the operator has spoken a stop, the control unit 17 advances the process to step S112.

ステップS120では、ステップS119と同様の判定を行い、制御部17は、肯定判定の場合には処理をステップS110に戻し、否定判定の場合には処理をステップS112に進める。 In step S120, the same determination as in step S119 is performed, and the control unit 17 returns the process to step S110 in the case of an affirmative determination, and proceeds to the process in step S112 in the case of a negative determination.

本実施形態によれば、操作者が移動しなければその全域をタッチ操作できないほどの大面積化された表示部10に対する入力操作において、タッチ操作とジェスチャ操作とをスムーズに切り替えることが可能な構成とされた入力装置となる。 According to the present embodiment, in the input operation for the display unit 10 having a large area so that the entire area cannot be touch-operated unless the operator moves, the touch operation and the gesture operation can be smoothly switched. It becomes the input device.

(第2実施形態)
第2実施形態の入力装置について、図16〜図18を参照して説明する。
(Second Embodiment)
The input device of the second embodiment will be described with reference to FIGS. 16 to 18.

本実施形態の入力装置は、例えば図16に示すように、制御部17がさらに補正部171を有する構成とされている点で上記第1実施形態と相違する。本実施形態では、この相違点について主に説明する。 The input device of the present embodiment is different from the first embodiment in that, for example, as shown in FIG. 16, the control unit 17 is further configured to include the correction unit 171. In this embodiment, this difference will be mainly described.

(構成)
制御部17は、本実施形態では、補正部171を有してなる。制御部17は、本実施形態では、操作者がタッチ操作を行っている際に、タッチ座標における現操作位置の座標データおよびこれに対応するジェスチャ座標の座標データを随時取得し、これらの座標データを一組の座標データとして記憶部13に格納する。
(Constitution)
In this embodiment, the control unit 17 includes a correction unit 171. In the present embodiment, the control unit 17 acquires the coordinate data of the current operation position in the touch coordinates and the coordinate data of the gesture coordinates corresponding thereto at any time when the operator is performing the touch operation, and these coordinate data. Is stored in the storage unit 13 as a set of coordinate data.

補正部171は、一組の座標データを少なくとも2つ用いて、タッチ操作中にジェスチャ座標の補正を実行する。これは、タッチ操作からジェスチャ操作に切り替えた場合における操作方向やスケール感の変化を抑制することで、操作者が違和感を覚えることを抑止し、よりスムーズに操作系の切り替えを実行可能とするためである。この詳細については後述する。 The correction unit 171 uses at least two sets of coordinate data to correct the gesture coordinates during the touch operation. This is because by suppressing changes in the operation direction and scale when switching from touch operation to gesture operation, it is possible to prevent the operator from feeling uncomfortable and to switch the operation system more smoothly. Is. The details will be described later.

(補正処理)
次に、補正部171におけるジェスチャ座標の補正処理の概要について図18を参照して説明するが、まず、対比のため、第1実施形態の入力装置における補正処理について図17を参照して説明する。
(Correction processing)
Next, the outline of the gesture coordinate correction process in the correction unit 171 will be described with reference to FIG. 18, but first, for comparison, the correction process in the input device of the first embodiment will be described with reference to FIG. ..

図17、図18では、見易くするため、x方向におけるタッチ座標Txおよびジェスチャ座標Gx、並びにz方向におけるジェスチャ座標Gzを矢印で示すと共に、タッチ座標系およびジェスチャ座標系の他の方向については省略している。また、図17では、タッチ座標系のx軸(Tx)とジェスチャ座標系のx軸(Gx)と重ねた例を示しているが、見易くするため、意図的にこれらをずらして示している。 In FIGS. 17 and 18, for the sake of clarity, the touch coordinate Tx and the gesture coordinate Gx in the x direction and the gesture coordinate Gz in the z direction are indicated by arrows, and the touch coordinate system and the other directions of the gesture coordinate system are omitted. ing. Further, in FIG. 17, an example in which the x-axis (Tx) of the touch coordinate system and the x-axis (Gx) of the gesture coordinate system are overlapped is shown, but these are intentionally shifted for easy viewing.

例えば、タッチパネル11から座標T1(tx1、0、0)の信号が出力された場合において、T1に対応するジェスチャ座標G1を(gx1、0、gz1)とする。また、タッチパネル11から座標T2(tx2、0、0)の信号が出力された場合において、T2に対応するジェスチャ座標G2を(gx2、0、gz2)とする。 For example, when the signal of the coordinates T1 (tx1, 0, 0) is output from the touch panel 11, the gesture coordinate G1 corresponding to T1 is set to (gx1, 0, gz1). Further, when the signal of the coordinates T2 (tx2, 0, 0) is output from the touch panel 11, the gesture coordinate G2 corresponding to T2 is set to (gx2, 0, gz2).

つまり、T1とG1とが一組の座標データに相当し、T2とG2とが他の一組の座標データに相当する。仮に、タッチ座標系の原点とジェスチャ座標系の原点とを一致させ、かつ、x、y、z軸の方向を合わせた場合、例えば図17に示すように、T1とG1、およびT2とG2はそれぞれ異なる位置となる。 That is, T1 and G1 correspond to a set of coordinate data, and T2 and G2 correspond to another set of coordinate data. If the origin of the touch coordinate system and the origin of the gesture coordinate system are matched and the directions of the x, y, and z axes are aligned, for example, as shown in FIG. 17, T1 and G1 and T2 and G2 are They will be in different positions.

なお、以下の説明では、シンプル化して理解を助けるため、タッチパネル11の操作面が平坦面であり、z方向のタッチ座標が0で固定されている例を代表例として述べる。 In the following description, in order to simplify and aid understanding, an example in which the operation surface of the touch panel 11 is a flat surface and the touch coordinates in the z direction are fixed at 0 will be described as a typical example.

この場合において、タッチ座標系のT1においてタッチ操作からジェスチャ操作に切り替わる場合、上記第1実施形態の入力装置では、制御部17は、図17に示すように、ジェスチャ座標のオフセット処理を行い、T1とG1とが一致する処理を実行する。 In this case, when switching from the touch operation to the gesture operation in T1 of the touch coordinate system, in the input device of the first embodiment, the control unit 17 performs the gesture coordinate offset processing as shown in FIG. 17, and T1 And G1 match.

言い換えると、この処理は、操作系の切り替えにおける現操作位置のタッチ座標とこれに対応するジェスチャ座標とによりなる一組の座標データのみを用いて、ジェスチャ座標の原点位置を再設定(補正)するものと言える。これにより、操作系の切り替え時のT1とG1とが一致するため、表示部10で表示されているポインタPの位置ズレが生じず、操作系の切り替えに伴う操作者の違和感を低減できる。 In other words, this process resets (corrects) the origin position of the gesture coordinates using only a set of coordinate data consisting of the touch coordinates of the current operation position and the corresponding gesture coordinates in the switching of the operation system. It can be said that. As a result, since T1 and G1 at the time of switching the operation system match, the position of the pointer P displayed on the display unit 10 does not shift, and the operator's discomfort due to the switching of the operation system can be reduced.

しかしながら、このオフセット処理は、操作系の切り替え時における一組の座標データのみを用いたものである。そのため、図17に示すように、T2とG2とによりなる他の一組の座標データにおいては、両座標の差、すなわちズレが生じたままとなり得る。この場合、ジェスチャ操作における指の移動量(ジェスチャ座標での移動量)と表示部10における移動量(タッチ座標での移動量)との乖離が生じてしまい、その差は、操作系の切り替えがなされた位置から離れるほど大きくなる。その結果、操作者の指の移動量が同じであっても、ジェスチャ座標系における指の位置に応じてポインタPの移動量が徐々に変化してしまい、操作者が違和感を覚えるおそれがある。 However, this offset processing uses only a set of coordinate data at the time of switching the operation system. Therefore, as shown in FIG. 17, in another set of coordinate data composed of T2 and G2, the difference between the two coordinates, that is, the deviation may remain. In this case, there is a discrepancy between the movement amount of the finger in the gesture operation (movement amount in the gesture coordinates) and the movement amount in the display unit 10 (movement amount in the touch coordinates), and the difference is that the operation system is switched. It gets bigger as it gets farther from the position where it was made. As a result, even if the movement amount of the operator's finger is the same, the movement amount of the pointer P gradually changes according to the position of the finger in the gesture coordinate system, and the operator may feel a sense of discomfort.

以下、便宜上、このタッチ座標およびジェスチャ座標のズレに起因する、ジェスチャ操作における指の移動量とポインタPの移動量との乖離を「スケール感の変化」と称することがある。 Hereinafter, for convenience, the difference between the amount of movement of the finger and the amount of movement of the pointer P in the gesture operation due to the deviation between the touch coordinates and the gesture coordinates may be referred to as "change in scale".

そこで、本実施形態の入力装置では、制御部17は、補正部171により、タッチ操作中において、ジェスチャ座標系の「原点」、「大きさ」および「傾き」の補正を行う。具体的には、補正部171は、例えばT1とG1、およびT2とG2の少なくとも二組の座標データを取得し、これらの座標データに基づき、タッチ操作中に随時ジェスチャ座標の補正を実行する。 Therefore, in the input device of the present embodiment, the control unit 17 corrects the "origin", "magnitude", and "tilt" of the gesture coordinate system during the touch operation by the correction unit 171. Specifically, the correction unit 171 acquires at least two sets of coordinate data of, for example, T1 and G1 and T2 and G2, and based on these coordinate data, corrects the gesture coordinates at any time during the touch operation.

まず、補正部171は、例えばT1とG1の一組の座標データに基づき、ジェスチャ座標の原点を補正する処理を行う。この処理は、上記したオフセット処理と同じであり、図18に示すように、ジェスチャ座標G1がタッチ座標T1と一致するように、ジェスチャ座標の原点G01を新たな原点G02に補正して移動させる。 First, the correction unit 171 performs a process of correcting the origin of the gesture coordinates based on, for example, a set of coordinate data of T1 and G1. This process is the same as the offset process described above, and as shown in FIG. 18, the origin G01 of the gesture coordinates is corrected to the new origin G02 and moved so that the gesture coordinate G1 matches the touch coordinate T1.

具体的には、補正部171は、T1とG1との各成分での差分を補正量(mx、my、mz)として算出する。例えば図18に示す例では、mxは(tx1−gx1)、myは0、mzは−gz1となる。そして、補正部171は、算出した補正量の分だけ原点G01をG02に移動させ、G02を原点として再設定する。つまり、補正部171は、ジェスチャ座標の原点を補正し、タッチ座標の操作位置の座標データの位置(T1)に、これに対応するジェスチャ座標の座標データの位置(G1)を合わせる制御を実行する。 Specifically, the correction unit 171 calculates the difference between each component of T1 and G1 as a correction amount (mx, my, mz). For example, in the example shown in FIG. 18, mx is (tx1-gx1), my is 0, and mz is −gz1. Then, the correction unit 171 moves the origin G01 to G02 by the calculated correction amount, and resets G02 as the origin. That is, the correction unit 171 corrects the origin of the gesture coordinates and executes control to match the position of the coordinate data of the operation position of the touch coordinates (T1) with the position of the coordinate data of the corresponding gesture coordinates (G1). ..

これにより、タッチ操作からジェスチャ操作に切り替わった時、表示部10に表示されるポインタPの位置が操作系の切り替え前後で同一となり、ポインタPの表示位置のズレが抑制される。 As a result, when the touch operation is switched to the gesture operation, the position of the pointer P displayed on the display unit 10 becomes the same before and after the operation system is switched, and the deviation of the display position of the pointer P is suppressed.

この時点では、T2とG2とによりなる他の一組の座標のズレが生じたままであるため、補正部171は、ジェスチャ座標の「大きさ」の補正を行う。具体的には、補正部171は、ジェスチャ座標系におけるG1とG2との距離、およびタッチ座標系におけるT1とT2との距離を算出し、これらの距離が略同一になるように、ジェスチャ座標のスケールを再設定する。 At this point, the deviation of the other set of coordinates due to T2 and G2 still occurs, so the correction unit 171 corrects the "magnitude" of the gesture coordinates. Specifically, the correction unit 171 calculates the distance between G1 and G2 in the gesture coordinate system and the distance between T1 and T2 in the touch coordinate system, and sets the gesture coordinates so that these distances are substantially the same. Reset the scale.

より具体的には、T1とT2との距離Dt、およびG1とG2との距離Dgは、図18に示す例では、三平方の定理により、それぞれ以下の数式で表される。 More specifically, the distance Dt between T1 and T2 and the distance Dg between G1 and G2 are expressed by the following mathematical formulas according to the three-square theorem in the example shown in FIG.

Figure 2021005225
Figure 2021005225

Figure 2021005225
補正部171は、Dg×d1=Dtを満たす補正係数d1、すなわち距離Dgが距離Dtと同一となる補正係数d1を算出する。そして、補正部171は、ジェスチャ座標系のxyzそれぞれの軸方向について算出した補正係数d1を乗じる補正を行う。
Figure 2021005225
The correction unit 171 calculates a correction coefficient d1 that satisfies Dg × d1 = Dt, that is, a correction coefficient d1 in which the distance Dg is the same as the distance Dt. Then, the correction unit 171 performs correction by multiplying the correction coefficient d1 calculated for each axial direction of xyz in the gesture coordinate system.

これにより、ジェスチャ操作における指の移動量と表示部10で表示されるポインタPの移動量が同一となり、スケール感が同じとなるため、ジェスチャ操作への切り替え後の違和感がさらに低減される。本明細書では、このスケール感を合わせる補正を「ジェスチャ座標の大きさを補正する」と称している。 As a result, the amount of movement of the finger in the gesture operation and the amount of movement of the pointer P displayed on the display unit 10 are the same, and the feeling of scale is the same, so that the feeling of discomfort after switching to the gesture operation is further reduced. In the present specification, the correction for adjusting the sense of scale is referred to as "correcting the magnitude of the gesture coordinates".

なお、上記では、一組の座標データを2つ用いた場合について説明したが、これに限定されない。例えば、一組の座標データを3つ以上用いる場合には、例えば最小二乗法によりタッチ座標系の直線成分とジェスチャ座標系の直線成分をそれぞれ算出し、各座標系の距離Dt、Dgおよび補正係数d1を算出してもよい。この場合、補正部171は、例えば、タッチ座標の3つ以上の座標データ間の最大距離と、ジェスチャ座標の3つ以上の座標データ間の最大距離とが同一となるように、ジェスチャ座標の大きさを補正する。 In the above description, the case where two sets of coordinate data are used has been described, but the present invention is not limited to this. For example, when three or more sets of coordinate data are used, for example, the linear component of the touch coordinate system and the linear component of the gesture coordinate system are calculated by the least squares method, and the distances Dt, Dg, and the correction coefficient of each coordinate system are calculated. You may calculate d1. In this case, the correction unit 171 increases the size of the gesture coordinates so that, for example, the maximum distance between the three or more coordinate data of the touch coordinates and the maximum distance between the three or more coordinate data of the gesture coordinates are the same. Correct the coordinates.

ジェスチャ座標の原点および大きさの補正だけでは、タッチ座標系の2点を繋ぐ方向(以下、「ベクトルVt」と称する)とジェスチャ座標系の2点を繋ぐ方向(以下、「ベクトルVg」と称する)との間にズレが残った状態となり得る。このベクトルVt、Vgのズレを解消するため、補正部171は、ジェスチャ座標の「傾き」の補正を行う。 Only by correcting the origin and size of the gesture coordinates, the direction connecting the two points in the touch coordinate system (hereinafter referred to as "vector Vt") and the direction connecting the two points in the gesture coordinate system (hereinafter referred to as "vector Vg"). ) And the gap may remain. In order to eliminate the deviation of the vectors Vt and Vg, the correction unit 171 corrects the "tilt" of the gesture coordinates.

例えば、ベクトルVtのx成分とタッチ座標のx軸とのなす角度をθxtとし、ベクトルVtのy成分とタッチ座標のy軸とのなす角度をθytとし、ベクトルVtのz成分とタッチ座標のz軸とのなす角度をθztとする。同様に、ベクトルVgのx成分とジェスチャ座標のx軸とのなす角度をθxgとし、ベクトルVgのy成分とジェスチャ座標のy軸とのなす角度をθygとし、ベクトルVgのz成分とジェスチャ座標のz軸とのなす角度をθzgとする。 For example, the angle formed by the x component of the vector Vt and the x-axis of the touch coordinate is θxt, the angle formed by the y component of the vector Vt and the y-axis of the touch coordinate is θyt, and the z component of the vector Vt and the z of the touch coordinate are z. Let θzt be the angle formed by the axis. Similarly, the angle between the x component of the vector Vg and the x-axis of the gesture coordinates is θxg, the angle between the y component of the vector Vg and the y-axis of the gesture coordinates is θyg, and the z component of the vector Vg and the gesture coordinates. Let θzg be the angle formed by the z-axis.

補正部171は、ベクトルVtの各軸に対する角度θxt、θyt、θztとベクトルVgの各軸に対する角度θxg、θyg、θzgとが一致するようにするための補正係数d2を算出する。補正係数d2は、各成分それぞれ、θxt−θxg、θyt−θyg、θzt−θzgの差分で算出される。補正部171は、ジェスチャ座標のGx、Gy、Gzを算出した補正係数d2だけ回転させる処理を行う。これにより、ベクトルVt、Vgの向きが揃うため、ジェスチャ操作による指の操作方向とポインタPの移動方向とが一致し、操作感がさらに向上する。本明細書では、このベクトルVgの向きをベクトルVtに揃えるために行うジェスチャ座標の補正処理を「ジェスチャ座標の傾きを補正する」と称している。 The correction unit 171 calculates a correction coefficient d2 for making the angles θxt, θyt, and θzzt with respect to each axis of the vector Vt and the angles θxg, θyg, and θzzg with respect to each axis of the vector Vg coincide with each other. The correction coefficient d2 is calculated by the difference between θxt-θxg, θyt-θyg, and θzzt-θzg, respectively. The correction unit 171 performs a process of rotating the gesture coordinates Gx, Gy, and Gz by the calculated correction coefficient d2. As a result, the directions of the vectors Vt and Vg are aligned, so that the operation direction of the finger by the gesture operation and the movement direction of the pointer P match, and the operation feeling is further improved. In the present specification, the gesture coordinate correction process performed to align the direction of the vector Vg with the vector Vt is referred to as "correcting the slope of the gesture coordinates".

上記したように、ジェスチャ座標における「原点」、「大きさ」、「傾き」を補正することにより、ジェスチャ操作への切り替えを行った後のポインタの表示位置、スケール感、操作方向がタッチ操作におけるそれらと一致することになる。そのため、操作系の切り替えが任意のタイミングで行われても、操作者がこれに伴う違和感を覚えることなく、スムーズにジェスチャ操作を実行することが可能な入力装置となる。 As described above, by correcting the "origin", "size", and "tilt" in the gesture coordinates, the display position, scale feeling, and operation direction of the pointer after switching to the gesture operation are in the touch operation. Will match them. Therefore, even if the operation system is switched at an arbitrary timing, the input device can smoothly execute the gesture operation without causing the operator to feel a sense of discomfort.

なお、ベクトルVt、Vgの各角度は、回転行列によりx軸、y軸、z軸回りの回転角を算出するなどの公知の方法により算出され得るが、その算出方法については任意である。また、上記したジェスチャ座標の「原点」、「大きさ」、「傾き」を補正すると、例えば図18に示すように、ジェスチャ座標のG1がG3(gx3、0、gz3)、G2がG4(gx4、0、gz4)となり、2組の座標データがそれぞれ一致することとなる。 The angles of the vectors Vt and Vg can be calculated by a known method such as calculating the rotation angles around the x-axis, y-axis, and z-axis from the rotation matrix, but the calculation method is arbitrary. Further, when the "origin", "magnitude", and "tilt" of the gesture coordinates described above are corrected, for example, as shown in FIG. 18, G1 of the gesture coordinates is G3 (gx3, 0, gz3), and G2 is G4 (gx4). , 0, gz4), and the two sets of coordinate data match each other.

(処理動作例)
次に、補正部171による補正を実行する際の制御フローの一例について、図19を参照して説明する。
(Processing operation example)
Next, an example of the control flow when the correction by the correction unit 171 is executed will be described with reference to FIG.

本実施形態では、入力装置がONの状態になると、制御部17は、図19に示す制御フローを所定の間隔で実行する。 In the present embodiment, when the input device is turned on, the control unit 17 executes the control flow shown in FIG. 19 at predetermined intervals.

ステップS201では、制御部17は、タッチパネル11から信号を出力されたか否か、すなわちタッチパネル11の入力有無についての判定を行う。制御部17は、ステップS201にて肯定判定の場合、すなわちタッチパネル11から信号が出力されたと判定した場合には処理をステップS202に進め、否定判定の場合にはステップS201の処理を繰り返す。 In step S201, the control unit 17 determines whether or not a signal has been output from the touch panel 11, that is, whether or not the touch panel 11 has been input. The control unit 17 proceeds to step S202 when a positive determination is made in step S201, that is, when it is determined that a signal is output from the touch panel 11, and repeats the process of step S201 when a negative determination is made.

ステップS202では、制御部17は、タッチ座標における出力座標とこれに対応するジェスチャ座標における出力座標を一組の座標データとして記憶部13に記憶させる制御を行い、処理をステップS203に進める。これにより、両座標における出力座標が同時に記憶部13によって記録されることが可能な状態となる。なお、両座標の出力座標が記録されるタイミングは、例えば、タッチ操作中の任意の時であってもよいし、操作系の切り替え時であってもよい。 In step S202, the control unit 17 controls the storage unit 13 to store the output coordinates in the touch coordinates and the output coordinates in the gesture coordinates corresponding thereto as a set of coordinate data, and proceeds to the process in step S203. As a result, the output coordinates in both coordinates can be recorded by the storage unit 13 at the same time. The timing at which the output coordinates of both coordinates are recorded may be, for example, at any time during the touch operation or at the time of switching the operation system.

ステップS203では、制御部17は、出力座標が1点以上記録されたか否かを判定し、肯定判定の場合には処理をステップS204に進め、否定判定の場合には処理をステップS201に戻す。 In step S203, the control unit 17 determines whether or not one or more output coordinates have been recorded, proceeds to step S204 in the case of an affirmative determination, and returns the process to step S201 in the case of a negative determination.

ステップS204では、補正部171は、上記したようにジェスチャ座標の原点を補正する処理を行う。これにより、任意のタイミングでタッチ操作からジェスチャ操作に切り替わった際に、表示部10でのポインタPの表示位置が操作系の切り替え前後で同一となる。制御部17は、ステップS204の後、処理をステップS205に進める。 In step S204, the correction unit 171 performs a process of correcting the origin of the gesture coordinates as described above. As a result, when the touch operation is switched to the gesture operation at an arbitrary timing, the display position of the pointer P on the display unit 10 becomes the same before and after the operation system is switched. After step S204, the control unit 17 advances the process to step S205.

ステップS205では、制御部17は、出力座標が2点以上記録されたか否かを判定し、肯定判定の場合には処理をステップS206に進め、否定判定の場合には処理をステップS201に戻す。 In step S205, the control unit 17 determines whether or not two or more output coordinates have been recorded, advances the process to step S206 in the case of an affirmative determination, and returns the process to step S201 in the case of a negative determination.

ステップS206では、補正部171は、上記したようにジェスチャ座標の大きさおよび傾きを補正する処理を行う。これにより、ジェスチャ操作への切り替え後におけるスケール感および操作方向が一致する状態となる。 In step S206, the correction unit 171 performs a process of correcting the size and inclination of the gesture coordinates as described above. As a result, the sense of scale and the operation direction after switching to the gesture operation are in the same state.

以上が、本実施形態の入力装置での補正における処理動作例である。 The above is an example of processing operation in the correction in the input device of the present embodiment.

本実施形態によれば、補正部171が、タッチ操作からジェスチャ操作への切り替え後におけるポインタPの表示位置、スケール感および操作方向を一致させる補正をタッチ操作中に随時実行する構成の入力装置となる。そのため、上記第1実施形態よりもさらにスムーズ操作系の切り替えが可能となる。 According to the present embodiment, the correction unit 171 is configured to execute correction at any time during the touch operation to match the display position, scale feeling, and operation direction of the pointer P after switching from the touch operation to the gesture operation. Become. Therefore, it is possible to switch the operation system more smoothly than in the first embodiment.

なお、本実施形態では、補正係数d1、d2がxyz成分いずれも同一である場合について説明したが、補正係数d1、d2がxyz成分のいずれかが異なる場合には、後述の変形例に係る構成により、ジェスチャ座標の補正精度を一層向上させることができる。 In the present embodiment, the case where the correction coefficients d1 and d2 are the same in both the xyz components has been described, but when the correction coefficients d1 and d2 are different in any of the xyz components, the configuration according to the modification described later Therefore, the correction accuracy of the gesture coordinates can be further improved.

(第2実施形態の変形例)
上記では、タッチパネル11からの出力座標のデータに基づき、ジェスチャ座標の各種補正を実行する例について説明したが、タッチパネル11以外にタッチ操作が可能な入力体を備える場合、当該入力体からの出力座標のデータに基づく補正を実行してもよい。
(Modified example of the second embodiment)
In the above, an example of executing various corrections of gesture coordinates based on the data of the output coordinates from the touch panel 11 has been described. However, when an input body capable of touch operation is provided in addition to the touch panel 11, the output coordinates from the input body are provided. You may perform a correction based on the data of.

例えば、補正部171は、タッチパネル11でのタッチ操作で得られるx、y成分のデータに基づき、ジェスチャ座標のx成分とy成分について上記の各種補正を行う。また、補正部171は、図示しない他の入力体(例えばタッチパッド等)でのタッチ操作で得られるz成分のデータに基づき、ジェスチャ座標のz成分について上記の各種補正を行ってもよい。このように、二以上の入力体により得られる出力座標のデータに基づいて、上記第2実施形態で述べた各種補正処理を行ってもよい。このような補正処理は、例えば1つの入力体から得られるタッチ座標のデータに基づく場合において、各座標での算出精度が異なるとき等に有効である。 For example, the correction unit 171 makes the above-mentioned various corrections for the x component and the y component of the gesture coordinates based on the data of the x and y components obtained by the touch operation on the touch panel 11. Further, the correction unit 171 may perform the above-mentioned various corrections for the z component of the gesture coordinates based on the z component data obtained by the touch operation with another input body (for example, a touch pad or the like) (not shown). As described above, various correction processes described in the second embodiment may be performed based on the output coordinate data obtained by the two or more input bodies. Such a correction process is effective, for example, when the calculation accuracy at each coordinate is different when the data of the touch coordinates obtained from one input body is used.

具体的には、操作面が平坦形状とされたタッチパネル11では、当該操作面における一方向をx軸とし、これに直交する方向をy軸としたとき、操作面の法線方向となるz軸における出力座標の変化がない。つまり、操作面が二次元的形状のタッチパネル11、およびジェスチャ認識部12から得られる一組の座標データを2つ以上取得したとしても、ジェスチャ座標のz軸方向の成分についての補正精度が得られないおそれがある。 Specifically, in the touch panel 11 having a flat operation surface, when one direction on the operation surface is the x-axis and the direction orthogonal to the x-axis is the y-axis, the z-axis is the normal direction of the operation surface. There is no change in the output coordinates in. That is, even if two or more sets of coordinate data obtained from the touch panel 11 having a two-dimensional operation surface and the gesture recognition unit 12 are acquired, the correction accuracy for the z-axis direction component of the gesture coordinates can be obtained. There is no risk.

このような場合において、入力装置が、表示部10におけるポインタP等をz軸方向に沿って操作するのに用いられる別体のタッチパッド等を備える構成とされるとき、補正部171は、当該タッチパッドからのz軸の出力座標をジェスチャ座標の補正に用いる。これにより、補正部171は、xy成分についてはタッチパネル11から、z成分については別体のタッチパッドから、それぞれタッチ座標系の出力座標のデータとして取得できる。このタッチ座標の出力座標とジェスチャ座標の出力座標とを一組の座標データとして、二以上の一組の座標データを用いて上記第2実施形態で述べた補正を行うことにより、ジェスチャ座標のz成分の補正精度を向上させることができる。 In such a case, when the input device is configured to include a separate touch pad or the like used to operate the pointer P or the like on the display unit 10 along the z-axis direction, the correction unit 171 is concerned. The z-axis output coordinates from the touchpad are used to correct the gesture coordinates. As a result, the correction unit 171 can acquire the xy component from the touch panel 11 and the z component from the separate touch pad as data of the output coordinates of the touch coordinate system. The output coordinates of the touch coordinates and the output coordinates of the gesture coordinates are set as a set of coordinate data, and the z of the gesture coordinates is z by performing the correction described in the second embodiment using two or more sets of coordinate data. The correction accuracy of the components can be improved.

本変形例によれば、タッチパネル11の操作面が平坦形状である場合であっても、ジェスチャ座標のxyz成分いずれも精度の高い補正を実行でき、操作系の切り替えに伴う操作者の違和感をより生じさせにくい入力装置となる。 According to this modification, even when the operation surface of the touch panel 11 has a flat shape, it is possible to perform highly accurate correction for any of the xyz components of the gesture coordinates, and the operator feels uncomfortable due to the switching of the operation system. It is an input device that is difficult to generate.

(他の実施形態)
本発明は、実施例に準拠して記述されたが、本発明は当該実施例や構造に限定されるものではないと理解される。本発明は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらの一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本発明の範疇や思想範囲に入るものである。
(Other embodiments)
Although the present invention has been described in accordance with Examples, it is understood that the present invention is not limited to the Examples and structures. The present invention also includes various modifications and modifications within a uniform range. In addition, various combinations and forms, as well as other combinations and forms including only one element thereof, more or less, are also within the scope and ideology of the present invention.

(1)例えば、上記実施形態では、1点でタッチパネル11を操作する場合を例に説明したが、2点以上でタッチパネル11を操作する場合であっても同様に適用できる。 (1) For example, in the above embodiment, the case where the touch panel 11 is operated by one point has been described as an example, but the same applies even when the touch panel 11 is operated by two or more points.

(2)上記実施形態では、表示部10が車両VのサイドウィンドウV1に搭載された例について説明したが、表示部10は、リアウィンドウやウィンドシールド等の他の部位に搭載されてもよい。また、上記した入力装置は、車載用途に適用された場合であっても、操作者が移動せずとも表示部10の表示面全域についてタッチ操作とジェスチャ操作とを駆使して入力操作が可能な構成とされる。 (2) In the above embodiment, the example in which the display unit 10 is mounted on the side window V1 of the vehicle V has been described, but the display unit 10 may be mounted on other parts such as the rear window and the windshield. Further, even when the above-mentioned input device is applied to an in-vehicle application, it is possible to perform an input operation by making full use of a touch operation and a gesture operation on the entire display surface of the display unit 10 without the operator moving. It is composed.

(3)音声入力をしない場合や音声によるメッセージ等を出力しない場合には、音声認識部14、音声合成部15、マイク22およびスピーカ23を有しない構成であってもよい。 (3) When the voice is not input or the voice message or the like is not output, the configuration may not include the voice recognition unit 14, the voice synthesis unit 15, the microphone 22, and the speaker 23.

10 表示部
11 タッチパネル
111 第1領域
112 第2領域
12 ジェスチャ認識部
17 制御部
21 撮像部
10 Display unit 11 Touch panel 111 First area 112 Second area 12 Gesture recognition unit 17 Control unit 21 Imaging unit

Claims (4)

所定以上の面積とされた表示部(10)に対して重畳配置されたタッチパネル(11)と、
操作者の身体形状を撮像する撮像部(21)が取得した画像データに基づいて、前記操作者のジェスチャを認識し、前記ジェスチャに応じた信号を出力するジェスチャ認識部(12)と、
前記タッチパネルからの出力信号に基づくタッチ操作による入力制御、および前記ジェスチャ認識部からの出力信号に基づくジェスチャ操作による入力制御を行う制御部(17)と、
前記タッチ操作により得られるタッチ座標の座標データを、前記ジェスチャ操作による入力制御において用いられるジェスチャ座標であって、前記タッチ座標の座標データに対応する座標データと共に、一組の座標データとして記憶する記憶部(13)と、
前記ジェスチャ座標の補正を行う補正部(171)と、を備え、
前記制御部は、前記タッチ操作および前記ジェスチャ操作のいずれか一方による入力制御となるように操作系の切り替えを実行し、
前記補正部は、前記タッチ操作による入力制御時に、二以上の前記一組の座標データに基づき前記ジェスチャ座標の補正を行う、入力装置。
A touch panel (11) superposed on the display unit (10) having an area larger than a predetermined area, and
Based on the image data acquired by the imaging unit (21) that captures the body shape of the operator, the gesture recognition unit (12) recognizes the gesture of the operator and outputs a signal corresponding to the gesture.
A control unit (17) that performs input control by touch operation based on the output signal from the touch panel and input control by gesture operation based on the gesture recognition unit.
A storage in which the coordinate data of the touch coordinates obtained by the touch operation is stored as a set of coordinate data together with the coordinate data corresponding to the coordinate data of the touch coordinates, which is the gesture coordinates used in the input control by the gesture operation. Part (13) and
A correction unit (171) that corrects the gesture coordinates is provided.
The control unit switches the operation system so that the input control is performed by either the touch operation or the gesture operation.
The correction unit is an input device that corrects the gesture coordinates based on two or more sets of coordinate data at the time of input control by the touch operation.
前記補正部は、前記ジェスチャ座標の原点を補正し、前記タッチ座標での操作位置の座標データの位置に、これに対応する前記ジェスチャ座標の座標データの位置を合わせる制御を実行する、請求項1に記載の入力装置。 The correction unit corrects the origin of the gesture coordinates and executes control to align the position of the coordinate data of the gesture coordinates corresponding to the position of the coordinate data of the operation position with the touch coordinates. The input device described in. 前記補正部は、補正に用いる二以上の前記一組の座標データのうち前記タッチ座標の二以上の座標データ間の最大距離と、対応する前記ジェスチャ座標の二以上の座標データ間の最大距離とが同じとなるように、前記ジェスチャ座標の補正を行う、請求項2に記載の入力装置。 The correction unit has a maximum distance between two or more coordinate data of the touch coordinates and a maximum distance between two or more coordinate data of the corresponding gesture coordinates among the two or more sets of coordinate data used for correction. The input device according to claim 2, wherein the gesture coordinates are corrected so that the same is true. 前記補正部は、補正に用いる二以上の前記一組の座標データのうち前記タッチ座標の二以上の座標データによりなる直線成分のベクトルVtの傾きと、対応する前記ジェスチャ座標の二以上の座標データによりなる直線成分のベクトルVgの傾きとが同じとなるように、前記ジェスチャ座標の補正を行う、請求項3に記載の入力装置。 The correction unit has a slope of a linear component vector Vt composed of two or more coordinate data of the touch coordinates among the two or more sets of coordinate data used for correction, and two or more coordinate data of the corresponding gesture coordinates. The input device according to claim 3, wherein the gesture coordinates are corrected so that the slope of the vector Vg of the linear component formed by the above is the same.
JP2019118737A 2019-06-26 2019-06-26 input device Active JP7183975B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019118737A JP7183975B2 (en) 2019-06-26 2019-06-26 input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019118737A JP7183975B2 (en) 2019-06-26 2019-06-26 input device

Publications (2)

Publication Number Publication Date
JP2021005225A true JP2021005225A (en) 2021-01-14
JP7183975B2 JP7183975B2 (en) 2022-12-06

Family

ID=74097414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019118737A Active JP7183975B2 (en) 2019-06-26 2019-06-26 input device

Country Status (1)

Country Link
JP (1) JP7183975B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012027744A (en) * 2010-07-24 2012-02-09 Canon Inc Information processing unit and its control method
JP2018116346A (en) * 2017-01-16 2018-07-26 Necディスプレイソリューションズ株式会社 Input control device, display device, and input control method
JP2019046458A (en) * 2017-09-04 2019-03-22 株式会社ワコム Spatial position instruction system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012027744A (en) * 2010-07-24 2012-02-09 Canon Inc Information processing unit and its control method
JP2018116346A (en) * 2017-01-16 2018-07-26 Necディスプレイソリューションズ株式会社 Input control device, display device, and input control method
JP2019046458A (en) * 2017-09-04 2019-03-22 株式会社ワコム Spatial position instruction system

Also Published As

Publication number Publication date
JP7183975B2 (en) 2022-12-06

Similar Documents

Publication Publication Date Title
US9511669B2 (en) Vehicular input device and vehicular cockpit module
US9489500B2 (en) Manipulation apparatus
JP2019197575A (en) System and method for controlling plural displays by using one controller and user interface which can use haptic effects
EP1594040A2 (en) Operation input device and method of operation input
US8355838B2 (en) Vehicular input device and method for controlling the same
US9927903B2 (en) Vehicular input device
EP3144850A1 (en) Determination apparatus, determination method, and non-transitory recording medium
CN110869882B (en) Method for operating a display device for a motor vehicle and motor vehicle
US20180032138A1 (en) Input system for determining position on screen of display device, detection device, control device, storage medium, and method
JP3933139B2 (en) Command input device
JP5954145B2 (en) Input device
JP2020197942A (en) Input device
JP2021005225A (en) Input device
JP4548614B2 (en) Input device
WO2016031152A1 (en) Input interface for vehicle
US10061413B2 (en) Operating element
US11440407B2 (en) Non-contact operating apparatus for vehicle and vehicle
WO2014162698A1 (en) Input device
JP2007168639A (en) On-vehicle operation device
US20170255326A1 (en) Vehicular touch pad and vehicular input interface
KR102559138B1 (en) Non-contact control system for vehicle
WO2023032383A1 (en) Operation detection device, information processing system, and operation detection method
JP7001368B2 (en) Operation device
WO2014108970A1 (en) On-board input device
CN116611159A (en) System for designing, auditing and/or presenting a vehicle prototype solution, corresponding method of operation and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221107

R151 Written notification of patent or utility model registration

Ref document number: 7183975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151