JP2014137728A - Touch type input device - Google Patents

Touch type input device Download PDF

Info

Publication number
JP2014137728A
JP2014137728A JP2013006324A JP2013006324A JP2014137728A JP 2014137728 A JP2014137728 A JP 2014137728A JP 2013006324 A JP2013006324 A JP 2013006324A JP 2013006324 A JP2013006324 A JP 2013006324A JP 2014137728 A JP2014137728 A JP 2014137728A
Authority
JP
Japan
Prior art keywords
touch
flick
display
control device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013006324A
Other languages
Japanese (ja)
Other versions
JP6001463B2 (en
Inventor
Yasuhiro Fujioka
康弘 藤岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2013006324A priority Critical patent/JP6001463B2/en
Publication of JP2014137728A publication Critical patent/JP2014137728A/en
Application granted granted Critical
Publication of JP6001463B2 publication Critical patent/JP6001463B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a touch type input device for leading a user to further accurate operation.SOLUTION: When a user starts a tracing operation (flick operation) with two fingers, a display 25 displays an operating guide 41 showing a control content executed when the flick operation is continued. Thereby, the user can decide whether to continue a trace operation, while looking at the operating guide 41. Therefore, the user can be led to further accurate operation.

Description

この発明は、タッチ式入力装置に関する。   The present invention relates to a touch input device.

従来、タッチパッドをタッチ操作することでディスプレイの表示画面の選択及び制御の実行が可能に構成されるタッチ式入力装置が知られている(例えば、特許文献1参照)。
また、タッチ式入力装置において、タッチ操作された指の本数に応じて可能となる操作が変更される構成が公知である(例えば、特許文献2参照)。
2. Description of the Related Art Conventionally, there is known a touch input device configured to be able to select a display screen of a display and execute control by touching a touch pad (see, for example, Patent Document 1).
In addition, in the touch-type input device, a configuration in which an operation that can be performed is changed according to the number of touched fingers is known (for example, see Patent Document 2).

特開2010−9321号公報JP 2010-9321 A 特開2011−237963号公報JP 2011-237963 A

このタッチ式入力装置において、その操作に不慣れなユーザは、タッチした指の本数に応じた操作結果を予想することができない。また、ユーザは、この操作結果を覚えた後であっても、自分が行おうとしている操作が狙い通りの結果となるか否かを、操作後にしか知ることができない。   In this touch-type input device, a user unfamiliar with the operation cannot predict an operation result corresponding to the number of touched fingers. Further, even after the user learns the operation result, the user can know only after the operation whether or not the operation he / she intends to perform is the result as intended.

この発明は、こうした実情に鑑みてなされたものであり、その目的は、ユーザをより正確な操作に導くことができるタッチ式入力装置を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a touch-type input device that can guide the user to a more accurate operation.

以下、上記目的を達成するための手段及びその作用効果について説明する。
上記課題を解決するタッチ式入力装置は、ディスプレイと、操作面に対するユーザのなぞり操作を検出する検出部と、前記なぞり操作の開始を検出すると、そのなぞり操作を継続した場合に実行される制御内容を示す操作ガイドを前記ディスプレイに表示する制御部と、を備えている。
Hereinafter, means for achieving the above-described object and its operation and effects will be described.
The touch-type input device that solves the above problems includes a display, a detection unit that detects a user's tracing operation on the operation surface, and control contents that are executed when the tracing operation is continued when the start of the tracing operation is detected. And a control unit for displaying an operation guide indicating the above on the display.

この構成によれば、ユーザが操作面に対してなぞり操作を開始すると、そのなぞり操作を継続した場合に実行される制御内容を示す操作ガイドがディスプレイに表示される。これにより、ユーザは操作ガイドを見つつ、なぞり操作を継続するか否かを決めることができる。従って、ユーザをより正確な操作に導くことができる。   According to this configuration, when the user starts a tracing operation on the operation surface, an operation guide indicating the control contents to be executed when the tracing operation is continued is displayed on the display. Thereby, the user can determine whether or not to continue the tracing operation while looking at the operation guide. Therefore, the user can be guided to a more accurate operation.

上記タッチ式入力装置について、前記制御部は、前記なぞり操作において、前記ディスプレイに接触する指の本数に応じて異なる制御内容を実行するとともに、前記なぞり操作の開始時における指の本数に応じて前記操作ガイドを前記ディスプレイに表示することが好ましい。   In the touch input device, the control unit performs different control contents according to the number of fingers touching the display in the stroking operation, and also according to the number of fingers at the start of the stroking operation. It is preferable to display the operation guide on the display.

この構成によれば、なぞり操作の開始時における指の本数に応じて操作ガイドがディスプレイに表示される。よって、タッチした指の本数に適した操作ガイドを表示させることができ、ユーザをより正確な操作に導くことができる。   According to this configuration, the operation guide is displayed on the display according to the number of fingers at the start of the tracing operation. Therefore, an operation guide suitable for the number of touched fingers can be displayed, and the user can be guided to a more accurate operation.

本発明によれば、タッチ式入力装置において、ユーザをより正確な操作に導くことができる。   ADVANTAGE OF THE INVENTION According to this invention, in a touch-type input device, a user can be guide | induced to more exact operation.

本発明の一実施形態における車両に搭載されるタッチパッド及びディスプレイを示す斜視図。The perspective view which shows the touchpad and display which are mounted in the vehicle in one Embodiment of this invention. 本発明の一実施形態におけるタッチ式入力装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of a touch input device according to an embodiment of the present invention. 本発明の一実施形態における(a)〜(d)はタッチ操作に応じたディスプレイ画面を示した正面図。(A)-(d) in one Embodiment of this invention is the front view which showed the display screen according to touch operation. 本発明の一実施形態における制御装置による処理手順を示すフローチャート。The flowchart which shows the process sequence by the control apparatus in one Embodiment of this invention. 本発明の一実施形態における制御装置による処理手順を示すフローチャート。The flowchart which shows the process sequence by the control apparatus in one Embodiment of this invention. 他の実施形態におけるディスプレイ画面を示した正面図。The front view which showed the display screen in other embodiment.

以下、本発明のタッチ式入力装置を車両に搭載した一実施形態を図1〜図5に従って説明する。
図1に示すように、ダッシュボード1の中央部(センタークラスタ)にはディスプレイ25が嵌め込まれている。センターコンソール2には、シフトレバー3が設けられ、その手前側にタッチパッド13がその表面(操作面)を露出させる態様で設けられている。ユーザは、タッチパッド13へのタッチ操作(なぞり操作)を通じて、ディスプレイ25の表示画面等の操作を行う。
Hereinafter, an embodiment in which a touch input device of the present invention is mounted on a vehicle will be described with reference to FIGS.
As shown in FIG. 1, a display 25 is fitted in the center portion (center cluster) of the dashboard 1. The center console 2 is provided with a shift lever 3, and a touch pad 13 is provided on the front side of the center console 2 so as to expose its surface (operation surface). The user operates the display screen of the display 25 and the like through a touch operation (race operation) on the touch pad 13.

図2に示すように、タッチ式入力装置10は、ディスプレイ25を含む表示部20と、タッチパッド13と、制御装置11とを備える。
表示部20は、制御装置11との間で例えばCAN(Controller area network)通信を通じて通信可能に構成されている。
As shown in FIG. 2, the touch input device 10 includes a display unit 20 including a display 25, a touch pad 13, and a control device 11.
The display unit 20 is configured to be able to communicate with the control device 11 through, for example, CAN (Controller area network) communication.

タッチパッド13には、検出部としてタッチセンサ14が内蔵されている。タッチセンサ14は、タッチパッド13に指が触れたことに伴うタッチ座標(x,y)及びタッチ点数を検出し、その検出結果を制御装置11に出力する。制御装置11は制御部に相当する。   The touch pad 13 includes a touch sensor 14 as a detection unit. The touch sensor 14 detects the touch coordinates (x, y) and the number of touch points when the finger touches the touch pad 13, and outputs the detection result to the control device 11. The control device 11 corresponds to a control unit.

制御装置11は、タッチ点数及びそのタッチ座標(x,y)を示すタッチ情報信号S1、フリック確定信号S2、フリック開始信号S3を表示部20に出力する。表示部20は、制御装置11からの信号S1〜S3等に基づき自身のディスプレイ25画面を制御する。   The control device 11 outputs a touch information signal S1, a flick confirmation signal S2, and a flick start signal S3 indicating the number of touch points and the touch coordinates (x, y) to the display unit 20. The display unit 20 controls its own display 25 screen based on signals S <b> 1 to S <b> 3 from the control device 11.

図3(a)に示すように、表示部20はディスプレイ25上に円形のカーソル42を表示するとともに、制御装置11からのタッチ情報信号S1に基づき1本の指でなぞり操作された旨判断すると、そのなぞり操作距離及び方向に合わせてカーソル42を画面内で移動させる。   As shown in FIG. 3A, the display unit 20 displays a circular cursor 42 on the display 25, and determines that the user has traced with one finger based on the touch information signal S1 from the control device 11. The cursor 42 is moved within the screen according to the tracing operation distance and direction.

図3(b)に示すように、表示部20は、制御装置11からのタッチ情報信号S1に基づき2本の指で同時にタッチパッド13にタッチ操作された旨判断すると操作ガイド41を表示する。この操作ガイド41は、外側へと向かう複数の矢印が円上に配列されてなる。制御装置11は、このときの座標をフリック開始基準座標(X0,Y0)とするとともに、その後のタッチ情報信号S1に基づき、現在のX方向及びY方向の座標(X,Y)を認識する。そして、制御装置11は、以下の式を満たしたとき、2本指でのなぞり操作、すなわちフリック操作が開始した旨を示すフリック開始信号S3を出力する。   As shown in FIG. 3B, the display unit 20 displays the operation guide 41 when it is determined that the touch pad 13 is simultaneously touched with two fingers based on the touch information signal S1 from the control device 11. The operation guide 41 is formed by arranging a plurality of arrows heading outward on a circle. The control device 11 uses the coordinates at this time as flick start reference coordinates (X0, Y0), and recognizes the coordinates (X, Y) in the current X direction and Y direction based on the subsequent touch information signal S1. When the following expression is satisfied, the control device 11 outputs a flick start signal S3 indicating that a tracing operation with two fingers, that is, a flick operation has started.

ΔX+ΔY>α・・・・(1)
ここで、ΔX=|X−X0|、ΔY=|Y−Y0|である。また、αは定数であって、なぞり操作の開始時に検出が予想される移動距離に基づき設定される。
ΔX + ΔY> α (1)
Here, ΔX = | X−X0 | and ΔY = | Y−Y0 |. Α is a constant and is set based on the movement distance expected to be detected at the start of the tracing operation.

また、制御装置11は、ΔX及びΔYの比率に基づき、推定フリック方向(なぞり操作方向)を検出し、その検出結果を上記フリック開始信号S3に含ませて表示部20に出力する。   Further, the control device 11 detects the estimated flick direction (tracing operation direction) based on the ratio of ΔX and ΔY, and outputs the detection result to the display unit 20 in the flick start signal S3.

図3(c)に示すように、表示部20は、フリック開始信号S3を受けると、そのフリック開始信号S3に含まれる推定フリック方向に対応する操作ガイド41の矢印を拡大する。本例では、右斜め上へフリック操作を開始することによって操作ガイド41における右上の矢印が拡大される。これにより、ユーザにその方向へのフリック操作を継続するとその方向に地図を送ることができることを認知させることができる。   As shown in FIG. 3C, when the display unit 20 receives the flick start signal S3, the display unit 20 expands the arrow of the operation guide 41 corresponding to the estimated flick direction included in the flick start signal S3. In this example, the upper right arrow in the operation guide 41 is expanded by starting the flick operation to the upper right. Thereby, it can be made to recognize that a user can send a map in the direction if the flick operation to the direction is continued.

制御装置11は、フリック開始信号S3を出力すると、フリック判定基準座標と現在のタッチ位置との差を判断し、この差が閾値以上となる旨判断するとフリック操作が実行された旨判断する。制御装置11は、フリック操作が実行された旨判断すると、フリック確定信号S2を出力する。   When the control device 11 outputs the flick start signal S3, the control device 11 determines the difference between the flick determination reference coordinates and the current touch position, and determines that the flick operation has been performed when it is determined that the difference is equal to or greater than the threshold value. When determining that the flick operation has been executed, the control device 11 outputs a flick confirmation signal S2.

図3(d)に示すように、表示部20は、フリック確定信号S2を受けると、ディスプレイ25から操作ガイド41を消去するとともに、図3(c)の操作ガイド41において拡大されていた矢印方向に実際に地図を移動させる。   As shown in FIG. 3D, when the display unit 20 receives the flick confirmation signal S2, the display unit 20 deletes the operation guide 41 from the display 25, and the direction of the arrow enlarged in the operation guide 41 in FIG. To actually move the map.

また、表示部20は、2本指のタッチ操作が解除されたとき操作ガイド41を消去する。さらに、表示部20は、操作ガイド41のうち何れかの矢印を拡大した状態で、その矢印方向と異なる方向にフリック操作が開始された旨認識すると、拡大していた矢印を通常のサイズに戻すとともに、上記異なる方向の矢印を拡大する。   Further, the display unit 20 erases the operation guide 41 when the two-finger touch operation is released. Furthermore, when the display unit 20 recognizes that the flick operation has started in a direction different from the arrow direction in a state where any arrow in the operation guide 41 is enlarged, the display unit 20 returns the enlarged arrow to the normal size. At the same time, the arrows in the different directions are enlarged.

次に、制御装置11による操作ガイドに係る制御を図4及び図5のフローチャートに沿って説明する。
制御装置11は、タッチセンサ14の検出結果を受ける(S101)。そして、制御装置11はその検出結果に基づき、タッチパッド13へ2本指のタッチ操作がされているか否かを判断する(S102)。
Next, control related to the operation guide by the control device 11 will be described with reference to the flowcharts of FIGS. 4 and 5.
The control device 11 receives the detection result of the touch sensor 14 (S101). Based on the detection result, the control device 11 determines whether or not a two-finger touch operation is performed on the touch pad 13 (S102).

制御装置11は、タッチパッド13への2本指のタッチ操作がされている旨判断すると(S102でYES)、2本指のタッチ操作がされた直後であるか否かを判断する(S103)。制御装置11は、2本指のタッチ操作がされた直後である旨判断すると(S103でYES)、タッチされた2点の座標に係る情報を含むタッチ情報信号S1を出力する(S104)。上述のように、このタッチ情報信号S1を通じて、ディスプレイ25に操作ガイド41が表示される。そして、制御装置11は、タッチされた2点の中心座標にフリック開始基準座標及びフリック判定基準座標をセットする(S105)。例えば、座標(x0、y0)がタッチされた2点の中心座標の場合には、その座標(x0、y0)をフリック開始基準座標及びフリック判定基準座標とする。   When the control device 11 determines that a two-finger touch operation has been performed on the touch pad 13 (YES in S102), the control device 11 determines whether or not it is immediately after the two-finger touch operation has been performed (S103). . If the control device 11 determines that it is immediately after a two-finger touch operation (YES in S103), it outputs a touch information signal S1 including information relating to the coordinates of the two touched points (S104). As described above, the operation guide 41 is displayed on the display 25 through the touch information signal S1. Then, the control device 11 sets the flick start reference coordinates and the flick determination reference coordinates to the center coordinates of the two touched points (S105). For example, when the coordinates (x0, y0) are the center coordinates of two touched points, the coordinates (x0, y0) are set as the flick start reference coordinates and the flick determination reference coordinates.

つぎに、制御装置11は、フリック確定フラグがオフであるか否かを判断する(S106)。制御装置11は、フリック確定フラグがオンである旨判断すると(S106でNO)、フリック操作が実行されているとして、当該フローチャートに係る処理を終了する。   Next, the control device 11 determines whether or not the flick confirmation flag is off (S106). When determining that the flick confirmation flag is on (NO in S106), the control device 11 determines that the flick operation is being executed, and ends the process according to the flowchart.

制御装置11は、2本指のタッチ操作がされた直後でない旨判断すると(S103でNO)、ステップS106の処理に移行する。
一方、制御装置11は、フリック確定フラグがオフである旨判断すると(S106でYES)、フリック操作前であるとしてフリック操作ガイドを行うための処理を進める。すなわち、制御装置11は「Δx+Δy>α」を満たすか否かを判断する(S107)。
When the control device 11 determines that it is not immediately after the two-finger touch operation has been performed (NO in S103), the control device 11 proceeds to the process of step S106.
On the other hand, when determining that the flick confirmation flag is off (YES in S106), the control device 11 proceeds with a process for performing a flick operation guide assuming that the flick operation is not performed. That is, the control device 11 determines whether or not “Δx + Δy> α” is satisfied (S107).

フリック操作が開始されたとき、制御装置11は「Δx+Δy>α」を満たした旨判断し(S107でYES)、Δx及びΔyの比率に基づき推定フリック方向を検出する(S108)。制御装置11は、検出した推定フリック方向が現在の推定フリック方向と異なると判断した場合(S109でYES)、フリック開始信号S3を出力する(S110)。上述のように、このフリック開始信号S3を通じて操作ガイド41の何れかの矢印が拡大される。ここで、2点のタッチ操作がされた直後であって推定フリック方向が検出されていない場合には、ステップS109にてYESと判断される。   When the flick operation is started, the control device 11 determines that “Δx + Δy> α” is satisfied (YES in S107), and detects the estimated flick direction based on the ratio of Δx and Δy (S108). When it is determined that the detected estimated flick direction is different from the current estimated flick direction (YES in S109), the control device 11 outputs a flick start signal S3 (S110). As described above, any arrow of the operation guide 41 is enlarged through the flick start signal S3. Here, if the estimated flick direction is not detected immediately after the two touch operations are performed, YES is determined in step S109.

そして、制御装置11はフリック開始基準座標を現在の中心座標に再びセットする(S111)。つぎに、制御装置11は、上記ステップS105にてセットされたフリック判定基準座標と現在のタッチ中心位置との差に基づきフリック操作の有無を判断する(S112)。   Then, the control device 11 sets the flick start reference coordinates again to the current center coordinates (S111). Next, the control device 11 determines the presence / absence of a flick operation based on the difference between the flick determination reference coordinates set in step S105 and the current touch center position (S112).

制御装置11は、フリック操作がある旨判断すると(S112でYES)、フリック確定信号S2を出力し(S113)、フリック判定基準座標をリセットし(S114)、フリック確定フラグをセットする(S115)。上述のように、このフリック確定信号S2を通じてディスプレイ25に表示される地図が移動する。以上で、制御装置11はフローチャートに係る処理を終了する。   When determining that there is a flick operation (YES in S112), the control device 11 outputs a flick confirmation signal S2 (S113), resets the flick determination reference coordinates (S114), and sets a flick confirmation flag (S115). As described above, the map displayed on the display 25 moves through the flick confirmation signal S2. Thus, the control device 11 ends the process according to the flowchart.

一方、制御装置11は、フリック操作がない旨判断すると(S112でNO)、フリック確定信号S2の出力等を行うことなく、フローチャートに係る処理を終了する。
また、制御装置11は、検出した推定フリック方向が現在の推定フリック方向と同一であると判断した場合(S109でNO)、上記ステップS111に移行する。以後同様に処理を行う。
On the other hand, when determining that there is no flick operation (NO in S112), the control device 11 ends the processing according to the flowchart without outputting the flick confirmation signal S2.
In addition, when the control device 11 determines that the detected estimated flick direction is the same as the current estimated flick direction (NO in S109), the control device 11 proceeds to step S111. Thereafter, the same processing is performed.

また、制御装置11は、タッチパッド13への2本指のタッチ操作がされていない旨判断すると(S102でNO)、タッチオフ操作された直後であるか否かを判断する(S116)。タッチオフ操作とは、1本指又は2本指のタッチ状態が解除されてタッチパッド13に何れの指も接触していない状態とされることをいう。制御装置11は、タッチオフ操作された直後でない旨判断すると(S116でNO)、フローチャートに係る処理を終了する。制御装置11は、タッチオフ操作された直後である旨判断すると(S116でYES)、フリック確定フラグ、フリック判定基準座標、フリック開始基準座標及び推定フリック方向をそれぞれリセットする(S117〜S120)。これにより、再びフリック操作が開始されたときには、適切に操作ガイド41が表示される。以上で、制御装置11はフローチャートに係る処理を終了する。   Further, when determining that the two-finger touch operation on the touch pad 13 is not performed (NO in S102), the control device 11 determines whether or not it is immediately after the touch-off operation (S116). The touch-off operation means that the touch state of one finger or two fingers is released and no finger is in contact with the touch pad 13. If control device 11 determines that it is not immediately after the touch-off operation (NO in S116), it ends the process according to the flowchart. If control device 11 determines that it is immediately after a touch-off operation (YES in S116), it resets the flick confirmation flag, flick determination reference coordinates, flick start reference coordinates, and estimated flick direction (S117 to S120). Thereby, when the flick operation is started again, the operation guide 41 is appropriately displayed. Thus, the control device 11 ends the process according to the flowchart.

以上、説明した実施形態によれば、以下の効果を奏することができる。
(1)ユーザが2本の指を通じてなぞり操作(フリック操作)を開始すると、そのフリック操作を継続した場合に実行される制御内容を示す操作ガイド41がディスプレイ25に表示される。上記実施形態では、操作ガイド41の何れかの矢印が拡大される。これにより、ユーザは操作ガイド41を見つつ、なぞり操作を継続するか否かを決めることができる。従って、ユーザをより正確な操作に導くことができる。
As described above, according to the embodiment described above, the following effects can be obtained.
(1) When the user starts a tracing operation (flick operation) through two fingers, an operation guide 41 indicating the control contents executed when the flick operation is continued is displayed on the display 25. In the above embodiment, any arrow of the operation guide 41 is enlarged. Thereby, the user can determine whether or not to continue the tracing operation while looking at the operation guide 41. Therefore, the user can be guided to a more accurate operation.

なお、上記実施形態は、これを適宜変更した以下の形態にて実施することができる。
・上記実施形態においては、ディスプレイ25には地図が表示されていたが、地図以外、例えば図6に示すように、アイコン50a〜50fを表示してもよい。この場合、例えば、1本の指でなぞり操作された場合、制御装置11は表示部20を通じてなぞり操作距離及びなぞり操作方向に応じて画面上のカーソル51を移動させるとともに、カーソル51が位置するアイコン50a〜50fを選択した状態とする。また、フリック操作された場合には、制御装置11は表示部20を通じて画面自体が他の画面に切り替わる、若しくは画面がスクロールする。本構成においても、フリック操作の開始時に、ディスプレイ25に操作ガイドを表示することで、ユーザをより正確な操作に導くことができる。
In addition, the said embodiment can be implemented with the following forms which changed this suitably.
In the above embodiment, a map is displayed on the display 25, but icons 50a to 50f may be displayed as shown in FIG. In this case, for example, when a tracing operation is performed with one finger, the control device 11 moves the cursor 51 on the screen according to the tracing operation distance and the tracing operation direction through the display unit 20, and the icon on which the cursor 51 is positioned. 50a to 50f are selected. When the flick operation is performed, the control device 11 switches the screen itself to another screen through the display unit 20 or scrolls the screen. Also in this configuration, by displaying the operation guide on the display 25 at the start of the flick operation, the user can be guided to a more accurate operation.

・上記実施形態において、1本指を通じたなぞり操作が開始されたときに、その後に操作が継続されればカーソル42が移動する旨の操作ガイドをディスプレイ25に表示させてもよい。本構成においては、1本指を通じたなぞり操作を通じた操作結果をユーザに操作実行前に認知させることができる。   In the above embodiment, when a tracing operation through one finger is started, an operation guide indicating that the cursor 42 moves if the operation is continued thereafter may be displayed on the display 25. In this configuration, the user can be made to recognize the operation result through the tracing operation with one finger before the operation is performed.

・上記実施形態においては、操作ガイド41は図形(矢印)であったが、操作ガイドとして文字が表示されてもよい。また、操作ガイドとして図形及び文字が同時に表示されてもよい。この構成によれば、ユーザに操作ガイドの内容をより確実に認知させることができる。   In the above embodiment, the operation guide 41 is a figure (arrow), but characters may be displayed as the operation guide. Moreover, a figure and a character may be displayed simultaneously as an operation guide. According to this configuration, the user can be surely recognized the contents of the operation guide.

・上記実施形態においては、指の本数に応じて異なる操作が可能であったが、操作態様に応じて異なる操作を可能としてもよい。例えば、2本の指をタッチパッド13にタッチした状態で、その2本の指の距離を変化させるピンチ操作にあたって操作ガイドを表示させてもよい。例えば、このピンチ操作を通じて表示される地図の拡大又は縮小が可能となる。この場合、2本の指がタッチされたとき、若しくはタッチされた2本の指の距離が僅かに変化すると、操作ガイドとしてピンチ操作を連想させる絵文字、又は虫眼鏡を表示させたり、地図の拡大度を示すスケールを表示させたりする。これにより、ピンチ操作を実行する前に、実際にピンチ操作を行った場合の制御内容をユーザに認知させることができる。   In the above embodiment, different operations are possible depending on the number of fingers, but different operations may be possible depending on the operation mode. For example, in a state where two fingers are touched on the touch pad 13, an operation guide may be displayed in a pinch operation for changing the distance between the two fingers. For example, the map displayed through this pinch operation can be enlarged or reduced. In this case, when two fingers are touched or when the distance between the two touched fingers slightly changes, a pictograph or magnifying glass reminiscent of a pinch operation is displayed as an operation guide, or the degree of magnification of the map Or display a scale indicating. Thereby, before performing pinch operation, a user can be made to recognize the control content at the time of actually performing pinch operation.

さらに、タッチパッド13の周辺に、押し操作が可能なシフトキーを設けてもよい。この場合、同じ1本指を通じたなぞり操作であっても、シフトキーを押しつつなぞり操作した場合と、シフトキーを押さずになぞり操作した場合とで異なる制御内容を実現することができる。例えば、制御装置11は、表示部20を通じてシフトキーを押さずになぞり操作された場合にはカーソル42を移動させ、シフトキーを押しつつなぞり操作された場合には、そのなぞり操作開始時に操作ガイド41を表示する。本構成においても、ユーザをより正確な操作に導くことができる。   Furthermore, a shift key that can be pressed may be provided around the touch pad 13. In this case, even when the tracing operation is performed through the same single finger, different control contents can be realized when the tracing operation is performed while the shift key is pressed and when the tracing operation is performed without pressing the shift key. For example, the control device 11 moves the cursor 42 when the tracing operation is performed without pressing the shift key through the display unit 20, and when the tracing operation is performed while pressing the shift key, the operation guide 41 is displayed at the start of the tracing operation. indicate. Also in this configuration, the user can be guided to a more accurate operation.

・上記実施形態において、3本以上の指を通じてなぞり操作を可能としてもよい。この場合にも、指の本数に応じて操作内容を異ならせる。よって、タッチされた指の本数に応じた操作ガイドを表示することで、ユーザをより正確な操作に導くことができる。   In the above embodiment, the tracing operation may be enabled through three or more fingers. Also in this case, the operation content is varied according to the number of fingers. Therefore, by displaying the operation guide corresponding to the number of touched fingers, the user can be guided to a more accurate operation.

・タッチパッド13の位置は上記実施形態に限らず、例えば、ステアリング又はダッシュボード1に設けられていてもよい。
・さらに、タッチパッド13を省略して、ディスプレイ25を直接タッチ操作可能な構成であってもよい。
The position of the touch pad 13 is not limited to the above embodiment, and may be provided on the steering or the dashboard 1, for example.
Further, the touch pad 13 may be omitted and the display 25 may be configured to be directly touch-operable.

・上記実施形態におけるタッチ式入力装置10を車両以外の電気機器に適用してもよい。
・上記実施形態においては、タッチセンサ14として静電容量方式が採用されていたが、その他、抵抗膜方式、表面弾性波方式、赤外線方式又は電磁誘導方式を採用してもよい。
-You may apply the touch-type input device 10 in the said embodiment to electric equipments other than a vehicle.
In the above embodiment, the capacitive method is adopted as the touch sensor 14, but a resistive film method, a surface acoustic wave method, an infrared method, or an electromagnetic induction method may be adopted.

・上記実施形態における制御装置11の制御内容の一部を表示部20が行ったり、反対に表示部20の制御内容の一部を制御装置11が行ったりしてもよい。また、制御装置11がタッチ式入力装置10における全ての制御を実行してもよい。この場合、制御装置11と表示部20との間の信号の授受が不要となる。   -The control part 11 may perform a part of control content of the control apparatus 11 in the said embodiment, and the control apparatus 11 may perform a part of control content of the display part 20 on the contrary. Further, the control device 11 may execute all the controls in the touch input device 10. In this case, transmission / reception of a signal between the control device 11 and the display unit 20 becomes unnecessary.

なお、上記実施形態は、これを適宜変更した以下の形態にて実施することができる。
(イ)前記制御部は1本の指でなぞり操作されたとき、前記ディスプレイに表示されるカーソルを移動させ、複数本の指でなぞり操作されたとき、前記ディスプレイに表示される画面を変更することを特徴とするタッチ式入力装置。
In addition, the said embodiment can be implemented with the following forms which changed this suitably.
(B) The control unit moves the cursor displayed on the display when a tracing operation is performed with one finger, and changes the screen displayed on the display when the tracing operation is performed with a plurality of fingers. A touch-type input device.

(ロ)前記検出部は、前記ディスプレイと別に構成されるタッチパッドであることを特徴とするタッチ式入力装置。
(ハ)タッチ式入力装置は車載されることを特徴とするタッチ式入力装置。
(B) The detection unit is a touch pad configured separately from the display.
(C) A touch input device, wherein the touch input device is mounted on a vehicle.

10…タッチ式入力装置、11…制御装置、13…タッチパッド、14…タッチセンサ、20…表示部、25…ディスプレイ。   DESCRIPTION OF SYMBOLS 10 ... Touch-type input device, 11 ... Control apparatus, 13 ... Touch pad, 14 ... Touch sensor, 20 ... Display part, 25 ... Display.

Claims (2)

ディスプレイと、
操作面に対するユーザのなぞり操作を検出する検出部と、
前記なぞり操作の開始を検出すると、そのなぞり操作を継続した場合に実行される制御内容を示す操作ガイドを前記ディスプレイに表示する制御部と、を備えた
ことを特徴とするタッチ式入力装置。
Display,
A detection unit for detecting a user's tracing operation on the operation surface;
A touch-type input device comprising: a control unit that displays, on the display, an operation guide indicating control contents executed when the tracing operation is continued when the start of the tracing operation is detected.
請求項1に記載のタッチ式入力装置において、
前記制御部は、前記なぞり操作において、前記ディスプレイに接触する指の本数に応じて異なる制御内容を実行するとともに、前記なぞり操作の開始時における指の本数に応じて前記操作ガイドを前記ディスプレイに表示する
ことを特徴とするタッチ式入力装置。
The touch input device according to claim 1,
The control unit performs different control contents according to the number of fingers touching the display in the stroking operation, and displays the operation guide on the display according to the number of fingers at the start of the stroking operation. A touch-type input device characterized by:
JP2013006324A 2013-01-17 2013-01-17 Touch input device Expired - Fee Related JP6001463B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013006324A JP6001463B2 (en) 2013-01-17 2013-01-17 Touch input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013006324A JP6001463B2 (en) 2013-01-17 2013-01-17 Touch input device

Publications (2)

Publication Number Publication Date
JP2014137728A true JP2014137728A (en) 2014-07-28
JP6001463B2 JP6001463B2 (en) 2016-10-05

Family

ID=51415186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013006324A Expired - Fee Related JP6001463B2 (en) 2013-01-17 2013-01-17 Touch input device

Country Status (1)

Country Link
JP (1) JP6001463B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017199255A (en) * 2016-04-28 2017-11-02 ブラザー工業株式会社 Program and information processor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237895A (en) * 2008-03-27 2009-10-15 Denso It Laboratory Inc Map display system, map display method, and program
JP2010128838A (en) * 2008-11-28 2010-06-10 Toyota Motor Corp Input device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237895A (en) * 2008-03-27 2009-10-15 Denso It Laboratory Inc Map display system, map display method, and program
JP2010128838A (en) * 2008-11-28 2010-06-10 Toyota Motor Corp Input device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017199255A (en) * 2016-04-28 2017-11-02 ブラザー工業株式会社 Program and information processor
US10771650B2 (en) 2016-04-28 2020-09-08 Brother Kogyo Kabushiki Kaisha Information processing device to execute predetermined image process associated with a calculated predetermined moving direction when displayed object is swiped

Also Published As

Publication number Publication date
JP6001463B2 (en) 2016-10-05

Similar Documents

Publication Publication Date Title
JP5640486B2 (en) Information display device
JP5616557B1 (en) Electronic device and coordinate detection method
JP5732580B2 (en) Electronic device and coordinate detection method
US20190227688A1 (en) Head mounted display device and content input method thereof
JP2014102660A (en) Manipulation assistance system, manipulation assistance method, and computer program
JP2015093550A (en) On-vehicle equipment operation system and operation device
JP2013222214A (en) Display operation device and display system
JP2015170102A (en) Information processor
JP2010205146A (en) Input device
JP2014107848A (en) Character input device, character input method and program
KR20180016957A (en) Method and operating device for operating a device
JP6127679B2 (en) Operating device
JP2009009252A (en) Touch type input device
WO2012111227A1 (en) Touch input device, electronic apparatus, and input method
JP5852514B2 (en) Touch sensor
JP2012242924A (en) Touch panel device and method for controlling touch panel device
JP5461030B2 (en) Input device
JP6001463B2 (en) Touch input device
US10180756B2 (en) Input apparatus
JP2018023792A (en) Game device and program
JP2015153197A (en) Pointing position deciding system
JP2014155856A (en) Portable game device including touch panel-type display
WO2015093005A1 (en) Display system
JP6126639B2 (en) A portable game device having a touch panel display and a game program.
JP5805473B2 (en) Operating device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160901

R150 Certificate of patent or registration of utility model

Ref document number: 6001463

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees