JP2014153951A - Touch type input system and input control method - Google Patents
Touch type input system and input control method Download PDFInfo
- Publication number
- JP2014153951A JP2014153951A JP2013023672A JP2013023672A JP2014153951A JP 2014153951 A JP2014153951 A JP 2014153951A JP 2013023672 A JP2013023672 A JP 2013023672A JP 2013023672 A JP2013023672 A JP 2013023672A JP 2014153951 A JP2014153951 A JP 2014153951A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- touch operation
- input
- detected
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、タッチ式入力装置および入力制御方法に関し、より詳細には、指で行うタッチ操作を行うためのタッチ式入力システムおよび入力制御方法に関する。 The present invention relates to a touch input device and an input control method, and more particularly to a touch input system and an input control method for performing a touch operation performed with a finger.
一般に、スマートフォンには、ユーザによるタッチ操作を実現するためにタッチパネルが備えられ、タッチパネルから指が離れた時点で、クリック操作やダブルクリック操作が判定されるものが多い。タッチパネルを備える装置として、例えば特許文献1の入力装置が開示されている。 Generally, a smartphone is provided with a touch panel to realize a touch operation by a user, and a click operation or a double click operation is often determined when a finger is removed from the touch panel. As an apparatus including a touch panel, for example, an input apparatus disclosed in Patent Document 1 is disclosed.
しかしながら、タッチパネルからタッチ操作が行われている指が離された時点で、クリック操作またはダブルクリック操作が判定されると、指が誤って離れることもあり得ることから、状況次第では誤って操作内容が判定される場合もあり得る。 However, if a click operation or double-click operation is determined when the finger on which a touch operation is being performed from the touch panel is released, the finger may be erroneously released. May be determined.
また、特許文献1の入力装置では、タッチパネルが表示部と一体に構成されているので、常に表示部と一体で使用しなければならないという問題があった。 Moreover, in the input device of patent document 1, since the touch panel was comprised integrally with the display part, there existed a problem that it had to be always used integrally with a display part.
本発明は上述した観点に鑑みてなされたもので、表示機能を有さないタッチセンサを用いてマルチタッチ操作を可能にするとともに、ユーザの決定指示に基づいて適切なタッチ操作を可能にするタッチ式入力システムおよび入力制御方法を提供することを目的とする。 The present invention has been made in view of the above-described viewpoints, and enables a multi-touch operation using a touch sensor that does not have a display function, and enables an appropriate touch operation based on a user's determination instruction. An object is to provide an expression input system and an input control method.
上記目的を達成するためのタッチ式入力システムは、表示部と、センサを有し、タッチ操作を受け入れる少なくとも1つの操作入力部と、前記センサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を前記表示部に表示させる表示制御部と、前記第1のタッチ操作が検出されている状態で、前記第1のタッチ操作に続く第2のタッチ操作が検出された場合には、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する操作モード判定部と、前記操作モードに応じた入力処理を行う入力操作実施部と、を含み、前記操作モード判定部は、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する。 To achieve the above object, a touch input system includes a display, a sensor, at least one operation input unit that accepts a touch operation, and a first detected first based on a signal from the sensor. Based on the touch operation, a display control unit that displays an indication as a selection target on the display unit, and a second touch operation following the first touch operation in a state where the first touch operation is detected Is detected, an operation mode determination unit that determines an operation mode of a series of touch operations including the first touch operation and the second touch operation, and an input that performs input processing according to the operation mode An operation execution unit, wherein the operation mode determination unit performs the touch operation as the first touch operation or the second touch operation based on a time difference when the touch operation is detected. To determine divided into any of the groups.
ここで、前記操作モード判定部は、前記第1のタッチ操作と前記第2のタッチ操作との対応関係に基づいて前記操作モードを判定するようにしてもよい。 Here, the operation mode determination unit may determine the operation mode based on a correspondence relationship between the first touch operation and the second touch operation.
前記操作モードは、クリック操作、ダブルクリック操作、拡大縮小操作、ドラッグ操作、フリップ操作、スクロール操作、スワイプ操作、または回転操作の少なくとも1つを含むようにしてもよい。 The operation mode may include at least one of a click operation, a double click operation, an enlargement / reduction operation, a drag operation, a flip operation, a scroll operation, a swipe operation, or a rotation operation.
前記操作入力部が2つの操作入力部を有する場合、前記各操作入力部に予め対応付けられている前記表示部の右側または左側の表示領域は、最初にタッチが行われた順番で、選択画面領域に設定するようにしてもよい。 When the operation input unit has two operation input units, the display areas on the right side or the left side of the display unit associated with the operation input units in advance are selected in the order in which the touches are first performed. You may make it set to an area | region.
上記目的を達成するためのコンピュータが行う入力制御方法は、操作入力部に備えられるセンサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を表示部に表示させるステップと、前記第1のタッチ操作が検出されている状態で、前記第1のタッチ操作に続く第2のタッチ操作が検出した場合には、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作の操作モードを判定するステップと、前記操作モードに応じた入力処理を行うステップと、を含み、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する。 An input control method performed by a computer for achieving the above object includes a display unit that displays an indication as a selection target based on a first touch operation that is first detected based on a signal from a sensor provided in the operation input unit. And when the second touch operation following the first touch operation is detected in a state in which the first touch operation is detected, the first touch operation and the second touch operation are detected. A step of determining an operation mode of a series of touch operations including touch operations, and a step of performing input processing according to the operation mode, and performing the touch operation based on a time difference in which the touch operation is detected. The determination is made by dividing into any group of the first touch operation and the second touch operation.
さらに、上記目的を達成するためのプログラムは、上記入力制御方法をコンピュータに実行させるためのものである。 Furthermore, a program for achieving the above object is for causing a computer to execute the above input control method.
本発明によれば、表示機能を有さないタッチセンサを用いてマルチタッチ操作を可能にするとともに、ユーザの決定指示に基づいて適切なタッチ操作を確実に行えるようにすることができる。 ADVANTAGE OF THE INVENTION According to this invention, while being able to perform multi-touch operation using the touch sensor which does not have a display function, appropriate touch operation can be reliably performed based on a user's determination instruction | indication.
<第1実施形態>
以下、本発明の第1実施形態であるタッチ式入力システムについて説明する。このタッチ式入力システム(以下、入力システムという。)1は、指で行われるタッチ操作を受け付けるものである。
<First Embodiment>
The touch input system according to the first embodiment of the present invention will be described below. This touch input system (hereinafter referred to as an input system) 1 accepts a touch operation performed with a finger.
[入力システム1の構成]
図1は、本発明の一実施形態に係る入力システム1のハードウエア構成の一例を示す図である。図1に示すように、入力システム1は、本体部2と操作入力部3とを備える。本体部2は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、スピーカ24と、表示装置25と、インターフェース26とを含む。
[Configuration of input system 1]
FIG. 1 is a diagram illustrating an example of a hardware configuration of an input system 1 according to an embodiment of the present invention. As shown in FIG. 1, the input system 1 includes a
CPU21は、各構成要素とバスで接続されて制御信号やデータの転送処理を行うとともに、入力システム1全体の動作を実現するための各種のプログラムの実行、演算処理等を行う。
The
ROM22には、入力システム1全体の動作に必要なプログラムやデータが記録される。このプログラムはDVD−ROM等の記録媒体に格納されており、RAM23に読み出されてCPU21による実行が開始され、本実施形態の入力システム1が実現される。
The
RAM23には、データやプログラムが一時的に保持される。
The
スピーカ24は、CPU21によって生成された効果音等の音声データに対応した音声を出力する。
The
表示装置25は、例えば、液晶ディスプレイ、EL(Electro-Luminescence)などのフラットパネル表示器とすることができる。
The
インターフェース26と接続される操作入力部3は、情報入力時にユーザによって行われるタッチ操作を検出するセンサを備え、そのセンサ出力がインターフェース26を介してCPU21へ伝送されて処理される。この実施形態では、インターフェース26と操作入力部3とは無線で接続される構成とするが、有線の構成も採り得る。この実施形態では、ユーザは、操作入力部3上で指を当てて表示装置25の表示画面上の対応するカーソル等の標示を動かすことにより、本体部2の操作を行うが、この操作が可能であれば、操作入力部3の構成としていかなる方式も採り得る。
The
操作入力部3は、例えば、タッチパネルなどを含む。操作入力部3に備えられるセンサは、例えば、ユーザによる操作入力部3に対する接触を検出する圧力センサである。また、本実施形態のセンサは、例えばマルチタッチセンサであり、トラックパッドのように別途、ボタン等のハードウエア構造を備える必要がない。
The
上述の標示として、アイコン、ポインタ、カーソルなどを採用することが考えられる。 It is conceivable to employ an icon, a pointer, a cursor, etc. as the above-mentioned indication.
図2は、操作入力部3の外観の一例を示す図であって、(a)は操作入力部3の上面図、(b)は操作入力部3の側面図を示している。図2(a)に示す操作入力部3は、上述するセンサが搭載された操作面31と、外枠32とを含んで構成されており、操作面31に指が触れると、センサによりその接触が検出される。
2A and 2B are diagrams illustrating an example of the appearance of the
メニューボタン33は、例えば、ソフトウエアキーボードによる入力操作、またはカーソル等の標示による入力操作に切り替える役割を果たす。なお、入力操作の切り替えは、予め設定されているタッチ操作(例えば、5本指でのタッチなど)で行うようにしてもよい。
For example, the
操作入力部3は、図2(b)に示すように、ユーザからみて手前が低く奥が高くなるように傾斜が設けられ、操作がしやすいように構成されている。
As shown in FIG. 2B, the
[タッチ操作の概略]
次に、入力システム1によって実現されるタッチ操作の概略について、図3、図4および図5を参照して説明する。図3は、操作入力部3を介したタッチ操作の使用態様の一例を示す図であって、(a)は両手110,120の親指のみでタッチ操作する場合、(b)は右手110の人差し指と左手120の人差し指および親指とでタッチ操作する場合を示している。図4は、第1のタッチ操作、第2のタッチ操作および操作イメージの一例を示すタイミングチャートである。図5は、操作モードの例を示す図である。
[Outline of touch operation]
Next, an outline of the touch operation realized by the input system 1 will be described with reference to FIG. 3, FIG. 4, and FIG. FIG. 3 is a diagram illustrating an example of how to use the touch operation via the
例えば図3(a)および図3(b)に示すように、ユーザが操作入力部3に対して両手110,120の1本指または2本指でタッチすることによって、操作入力部3のセンサは、ユーザのタッチ操作を検出する。例えば、図4(a)〜図4(e)の例では、ユーザが右手の2本指(人差し指および親指)でタッチした後に、左手の1本指(親指)でタッチ(第2のタッチ操作)するとともに、右手の2本指を広げるピンチアウト動作(第1のタッチ操作)をすることによって、ピンチアウト動作に応じた画面の拡大動作(図4(c))という操作モードが確定されたことになり、表示装置25の表示画面が拡大される例を示している。この場合、図4(d)および(e)の操作イメージによれば、CPU21は、それぞれの標示A1,A2を、各指が操作入力部3に触れた位置(d1→d3,d2→d4)に対応する、表示装置25の表示領域251内の位置に表示する。
For example, as shown in FIGS. 3A and 3B, when the user touches the
なお、この実施形態では、標示A1,A2は、第1のタッチ操作に応じて表示されることになるが、第2のタッチ操作の実行時に、一括してすべての標示A1,A2を消すようにしてもよい。 In this embodiment, the signs A1 and A2 are displayed in response to the first touch operation. However, when the second touch operation is executed, all the signs A1 and A2 are erased collectively. It may be.
入力システム1では、CPU21は、第1のタッチ操作および第2のタッチ操作からなる一連のタッチ操作の操作モードを、例えば図5に示す操作モードパターンを参照することによって判定する。このパターンはROM22に記録されており、入力システム1のタップ操作の実行時には、ROM22から読み出される。
In the input system 1, the
図5に一例を示すように、操作モードは、第1のタッチ操作および第2のタッチ操作の各操作内容と予め対応付けられている。ここで、第1のタッチ操作と第2のタッチ操作とは異なる指で行われ、第2のタッチ操作は第1のタッチ操作の実施時に行われる。 As shown in an example in FIG. 5, the operation mode is associated with each operation content of the first touch operation and the second touch operation in advance. Here, the first touch operation and the second touch operation are performed with different fingers, and the second touch operation is performed when the first touch operation is performed.
図5では、例えば、第1のタッチ操作が1本指で行われる「シングルタッチ」、および第2のタッチ操作が「シングルタップ」の場合は、操作モードが「クリック操作」として設定され、第1のタッチ操作が「シングルタッチ」、および第2のタッチ操作が「ダブルタップ」の場合は、操作モードが「ダブルクリック操作」として設定されている。タップ操作は、1本または複数の指で行ってもよい。 In FIG. 5, for example, when the first touch operation is “single touch” performed with one finger and the second touch operation is “single tap”, the operation mode is set as “click operation”. When the first touch operation is “single touch” and the second touch operation is “double tap”, the operation mode is set as “double click operation”. The tap operation may be performed with one or a plurality of fingers.
また、図5では、第1のタッチ操作が2本指で行われるマルチタッチでの「ピンチアウト動作またはピンチイン動作」、および第2のタッチ操作が「シングルタッチ」の場合は、操作モードが「画面の拡大・縮小操作」として設定されている(拡大操作は図4を参照)。第1のタッチ操作が「シングルタッチ」、および第2のタッチ操作が指(本数を問わない。)を移動させる「スライド」の場合は、操作モードが「ドラッグ操作」として設定されている。第1のタッチ操作が「シングルタッチ」、および第2のタッチ操作が指をタッチした後で移動させながらすぐに離す「フリップ」の場合は、操作モードが「フリップ操作」として設定されている。 Further, in FIG. 5, when the first touch operation is a multi-touch “pinch-out operation or pinch-in operation” performed with two fingers, and the second touch operation is “single touch”, the operation mode is “ “Enlargement / reduction operation of screen” is set (see FIG. 4 for enlargement operation). When the first touch operation is “single touch” and the second touch operation is “slide” that moves a finger (regardless of the number), the operation mode is set as “drag operation”. In the case where the first touch operation is “single touch” and the second touch operation is “flip” which is released after touching the finger, the operation mode is set as “flip operation”.
なお、第1のタッチ操作と第2のタッチ操作との対応関係は、図5で例示したものに限られない。その対応関係は、様々な設定が考えられる。例えば、「画面の拡大・縮小操作」の操作モードの一例として、第1のタッチ操作(シングルタッチ)と第2のタッチ操作(2本指で行うピンチアウト動作またはピンチイン動作)との対応関係を設定してもよい。 The correspondence relationship between the first touch operation and the second touch operation is not limited to that illustrated in FIG. Various settings can be considered for the correspondence. For example, as an example of the operation mode of “screen enlargement / reduction operation”, the correspondence relationship between the first touch operation (single touch) and the second touch operation (pinch-out operation or pinch-in operation performed with two fingers) is shown. It may be set.
また、操作モードが「ドラッグ操作」の場合として、第1のタッチ操作(シングルタッチ)と、第2のタッチ操作(シングルタッチまたはマルチタッチ)の後に、第1のタッチ操作で使用したシングルタッチの指でドラッグする対応関係を設定してもよい。 In the case where the operation mode is “drag operation”, the single touch used in the first touch operation after the first touch operation (single touch) and the second touch operation (single touch or multi-touch) is used. You may set the correspondence which drags with a finger.
さらに、操作モードが「フリップ操作」の場合として、第1のタッチ操作(シングルタッチ)と、第2のタッチ操作(シングルタッチまたはマルチタッチ)の後に、第1のタッチ操作で使用したシングルタッチの指でフリップする対応関係を設定してもよい。 Furthermore, as a case where the operation mode is “flip operation”, the single touch used in the first touch operation after the first touch operation (single touch) and the second touch operation (single touch or multi-touch) is used. A correspondence relationship for flipping with a finger may be set.
図6は、基本的なタッチ操作の動作例を示す図であって、(a)は操作入力部3に指で行うタッチ動作、(b)は2本指を任意の方向に移動させるスライド動作、(c)は3本指を左方向に移動させるスライド動作、(d)は2本指を時計回りに動かす回転動作を例示している。
6A and 6B are diagrams illustrating an example of basic touch operation, where FIG. 6A is a touch operation performed with a finger on the
図6(a)〜(d)では、右手110の指で第1のタッチ操作、左手120の親指で第2のタッチ操作が行われている場合を例としている。
6A to 6D exemplify a case where the first touch operation is performed with the finger of the
ここで、操作入力部3の操作面にはセンサが搭載されているので、操作入力部3の操作面上に指がタッチされると、そのセンサがそのタッチ操作を検出する。
Here, since a sensor is mounted on the operation surface of the
図7は、図1に示したハードウエア構成上で実現される入力システム1の本体部2の機能構成の一例を示す図である。
FIG. 7 is a diagram illustrating an example of a functional configuration of the
図7に示すように、入力システム1の本体部2は、記憶部101、表示制御部102、表示部103、操作モード判定部104および入力操作実施部105を備える。
As shown in FIG. 7, the
記憶部101は、図1におけるROM22およびRAM23によって構成され、操作モードパターン(図5を参照)などのデータを記憶する。
The
表示制御部102は、CPU21によって機能する。表示制御部102は、操作入力部3のセンサ31からの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示(カーソル等)を表示部103に表示させる。
The
表示部103は、図1における表示装置25によって構成され、標示をユーザに対して視認可能にするために設けられる。
The
操作モード判定部104は、上述した第1のタッチ操作が検出されている状態で、第1のタッチ操作に続く第2のタッチ操作が検出された場合には、第1のタッチ操作および第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する。操作モードとしては、例えば、クリック操作、ダブルクリック操作、画面の拡大・縮小操作、ドラッグ操作、フリップ操作、スクロール操作、スワイプ操作、画面の回転操作等がある。操作モードを判定する処理については、後に詳細に説明する。
When the second touch operation following the first touch operation is detected in the state where the first touch operation described above is detected, the operation
入力操作実施部105は、操作モード判定部104によって判定された操作モードに応じた入力操作を行う。なお、操作モード判定部104と入力操作実施部105とはともに、CPU21によって機能する。
The input
[入力システム1の動作]
以下、この入力システム1の動作について、図1、図4、図5、図8および図9を参照して説明する。図8は、入力システム1の全体動作例の概略を示すフローチャートである。
[Operation of input system 1]
Hereinafter, the operation of the input system 1 will be described with reference to FIGS. 1, 4, 5, 8 and 9. FIG. 8 is a flowchart showing an outline of an overall operation example of the input system 1.
図8において先ず、CPU21は、操作入力部3を介した第1のタッチ操作に基づいて標示としての例えばカーソルを表示装置25の表示領域251に表示する(ステップS101)。図4の例では、CPU21は、第1のタッチ操作でタッチされた2本指の位置d1,d2に対応付けられた表示領域251上の位置にカーソルA1,A2を表示する。この場合、CPU21は、操作入力部3のセンサ31からの信号をインターフェース26を介して受信し、この信号に基づいて2本指(操作入力部3に触れる2本指の接触点)の各位置(d1→d3,d2→d4)を判断する。センサ31からの信号には、操作入力部3上を基準にしたタッチ操作における接触点の位置を示す位置情報が含まれており、CPU21は、センサ31からの信号に基づいて検出される接触点の移動に対応して、対応する表示装置25の表示領域上の位置A1,A2をそれぞれ特定することになる。
In FIG. 8, first, the
ここで、ステップS101では、CPU21は、表示制御部102として機能する。
Here, in step S <b> 101, the
次にCPU21は、ステップS101における第1のタッチ操作を検出している状態で、センサ31からの信号に基づいて第1のタッチ操作に続く第2のタッチ操作を検出した場合(ステップS102のYES)には、第1のタッチ操作および第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する(ステップS103)。この場合、CPU21は、第2のタッチ操作を検出した時点で、例えば図5に示す操作モードパターンを参照し、第1のタッチ操作および第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する。換言すると、CPU21は、第2のタッチ操作を検出した時点で、操作モードを確定する。
Next, the
例えば、図4の例では、CPU21は、センサ31からの信号に基づいて、第1のタッチ操作(2本指でタッチした後にピンチアウト動作)と、第2のタッチ操作(シングルタッチ)とを特定する。そして、CPU21は、2つのタッチ操作の対応関係から、操作モードパターン(図5)を参照して「画面の拡大操作」として判定する。
For example, in the example of FIG. 4, the
ステップS102,S103では、CPU21は、操作モード判定部104として機能する。
In steps S102 and S103, the
なお、操作モードを確定する時点は、第2のタッチ操作を検出してから所定の時間が経過した後であってもよい。 Note that the time point at which the operation mode is determined may be after a predetermined time has elapsed since the second touch operation was detected.
図8において、第2のタッチ操作が検出されない場合は(ステップS102のNo)、CPU21は、第1のタッチ操作に基づいたカーソルの表示処理(ステップS101)を行う。
In FIG. 8, when the second touch operation is not detected (No in step S102), the
さらにCPU21は、操作モードに応じた入力操作を実施する(ステップS104)。図4の例では、CPU21は、操作モードを画面の拡大操作と判定するので、ピンチイン動作に従って、画面の拡大操作を実施する。
Further, the
ここで、ステップS104では、CPU21は、入力操作実施部105として機能する。
Here, in step S <b> 104, the
次に、図9を参照して、入力システム1で実行される入力処理について、より具体的に説明する。図9は、本実施形態の入力処理を詳細に説明するためのフローチャートである。 Next, the input process executed by the input system 1 will be described more specifically with reference to FIG. FIG. 9 is a flowchart for explaining in detail the input processing of this embodiment.
なお、図9のS201,S202,S204,S206〜S208は操作モード判定部104、S203,S205は表示制御部102、S209は入力操作実施部105にそれぞれ対応する。
9, S201, S202, S204, and S206 to S208 correspond to the operation
図9では、S201〜S203と、S204〜S209とをそれぞれ別々のグループの処理としてSTEP1,STEP2が表記されている場合を例としている。 FIG. 9 illustrates an example in which STEP1 and STEP2 are described as processing of separate groups, S201 to S203 and S204 to S209.
図9において先ず、CPU21は、センサ31からの信号に基づいて、最初に接触する指を検知し(ステップS201)、検知した指をSTEP1(第1のタッチ操作のグループ)として分類する(ステップS202)。この場合、複数本の指が検出された場合には、それら複数本の指で行われるタッチ操作がすべて第1のタッチ操作のグループとして分類されることになる。
In FIG. 9, first, the
次に、CPU21は、STEP1に分類された指のタッチ操作に基づいて標示を表示装置25に表示する(ステップS203)。この表示例については、図4(d)に示した標示A1,A2のとおりである。
Next, the
上述の標示の表示後、CPU21がセンサ31からの信号に基づいて接触する指を検出した場合、CPU21は、その検出した指をSTEP2(第2のタッチ操作のグループ)として分類する(ステップS204)。つまり、CPU21は、タッチ操作が検出された時間差を基に、タッチ操作を、第1のタッチ操作または第2のタッチ操作のいずれかのグループに分けて判別する。CPU21は、センサ31からの検知信号の受信時間からタッチ操作の時間差を判断することができる。この場合、第1のタッチ操作と第2のタッチ操作とを分類する時間差が予め決まっている。
When the
ここで、ステップS204において、検知された指によるタッチ操作が標示の表示を対象とする操作であるならば、CPU21は、このSTEP2に分類されたタッチ操作に基づいて標示を表示装置25に表示することになる(ステップS205)。なお、STEP2の標示の表示が不要な場合には、S205のような処理は必要ない。
Here, in step S204, if the detected touch operation with the finger is an operation for displaying the indication, the
CPU21は、ステップS203で指の接触を検出した結果、ユーザにはタッチ操作の内容を確定させてもよいという「決定」動作の意思があると判定し(ステップS206)、STEP1およびSTEP2に分類された指の動作による「決定」動作の種類を判別する(ステップS207)。ステップS207を実行するときには、図5で例示した操作モードパターンから、対応する操作モードの抽出を行うことになる。
As a result of detecting the contact of the finger in step S203, the
次に、CPU21は、STEP1の標示に対する上記「決定」動作の割り当てを行い(ステップS208)、STEP1の標示の変化処理を行う(ステップS209)。ここで、ステップS208において、例えば、画面の拡大動作を示す「決定」動作が割り当てられたならば、CPU21は、その拡大動作のために行われたSTEP1の指の動きに従って、STEP1の標示を移動させる(図4(e)の標示A1,A2を参照)。
Next, the
以上説明したように、本実施形態の入力システム1によれば、ユーザが第1のタッチ操作と第2のタッチ操作とを実施することにより、タッチの時間差で別々の操作と判別されたそれらの一連のタッチ操作に対応する操作モードを判定して、その操作モードに応じた入力操作を実施する。ここで、操作モードが判定されるためには、ユーザは、第1のタッチ操作と第2のタッチ操作とを行わなければならない。すなわち、ユーザは、第1のタッチ操作の指とは異なる指で第2のタッチ操作を行わなければならない。このことは、第2のタッチ操作が行われる度に、入力操作に対するユーザの実施指示がなされているに等しく、これにより、正しい入力操作が実施される。 As described above, according to the input system 1 of the present embodiment, when the user performs the first touch operation and the second touch operation, those operations that have been determined to be different operations by the time difference of the touch. An operation mode corresponding to a series of touch operations is determined, and an input operation corresponding to the operation mode is performed. Here, in order to determine the operation mode, the user must perform the first touch operation and the second touch operation. In other words, the user must perform the second touch operation with a finger different from the finger of the first touch operation. This is equivalent to the user performing an instruction for the input operation every time the second touch operation is performed, and thus the correct input operation is performed.
また、入力操作部3は、表示装置25と別個独立に構成されている。つまり、この入力システム1によれば、表示機能を有さないタッチセンサを用いてマルチタッチ操作を行うことができる。
The
ここで、操作入力部3には、操作キーや操作ボタン等の操作部が存在しない。この点で、この入力システム1によれば、製造コストが削減される。また、ユーザは、操作入力部3の操作キーや操作ボタン等を用いずに、指を自由に動かして操作することができることになるので、片手または両手の指の動きに対する自由度が高まる。つまり、操作がより直感的になるという側面も備える。
Here, the
次に、本実施形態の入力システム1の変形例について説明する。 Next, a modification of the input system 1 of the present embodiment will be described.
(変形例1)
以上では、図4を参照して、両手の指のタッチ操作に対応して入力操作が行われる場合について説明した。これとは別に、両手ではなく、片手でタッチ操作するようにしてもよい。
(Modification 1)
The case where the input operation is performed in response to the touch operation of the fingers of both hands has been described above with reference to FIG. Apart from this, the touch operation may be performed with one hand instead of both hands.
図10は、ユーザが片手でタッチ操作する場合の使用態様を示す図である。図10に示す例では、右手の人差し指で第1のタッチ操作が行われ、右手の親指で第2のタッチ操作が行われる。これは、CPU21が、図8のフローチャートのステップS101〜S104の処理、および、図9のフローチャートのステップS201〜S209の処理を行うようにすることで実施可能である。
FIG. 10 is a diagram illustrating a usage mode when the user performs a touch operation with one hand. In the example illustrated in FIG. 10, the first touch operation is performed with the index finger of the right hand, and the second touch operation is performed with the thumb of the right hand. This can be implemented by causing the
このようなタッチ操作を行うことで、片手での一連のタッチ操作を行うことを可能にする。 By performing such a touch operation, it is possible to perform a series of touch operations with one hand.
(変形例2)
以上では、2つの操作入力部の使用態様について言及しなかったが、2つの操作入力部を使用するようにしてもよい。以下、図11,図12を参照して、操作入力部3A,3Bの機能について説明する。図11は、操作入力部3Aの操作領域311と表示装置25の表示領域241,242との対応関係を説明するための図である。図12は、操作入力部3Bの操作領域321と表示装置25の表示領域243,244との対応関係を説明するための図である。
(Modification 2)
Although the use mode of the two operation input units has not been mentioned above, two operation input units may be used. Hereinafter, the functions of the
図11の例では、操作入力部3Aの操作領域(操作面)311は、表示装置25の全表示領域のうちの第1表示領域241および第2表示領域242(総称して、「右側の表示領域」ともいう。)に対応付けられている。この対応付けは、例えばそれぞれの領域の座標データを変換するためのマッピングテーブルに従って行われる。なお、第1表示領域241は、後述する第2表示領域244の一部と共通している。
In the example of FIG. 11, the operation area (operation surface) 311 of the
この入力システム1では、第1表示領域241と第2表示領域242との総領域は、表示領域の中央(図中、第1表示領域241と第2表示領域242との境界線を示す。)で均等に2分割した領域よりも大きくなるように設定される。
In the input system 1, the total area of the
図12の例では、操作入力部3Bの操作領域(操作面)321は、表示装置25の全表示領域のうちの第1表示領域243および第2表示領域244(総称して、「左側の表示領域」ともいう。)に対応付けられている。この対応付けは、例えばそれぞれの領域の座標データを変換するためのマッピングテーブルに従って行われる。なお、第1表示領域243は、前述の第2表示領域242の一部と共通している。
In the example of FIG. 12, the operation area (operation surface) 321 of the
この入力システム1では、第1表示領域243と第2表示領域244との総領域は、表示領域の中央(図中、第1表示領域243と第2表示領域244との境界線を示す。)で均等に2分割した領域よりも大きくなるように設定される。
In this input system 1, the total area of the
本変形例の入力システムによれば、所定の表示領域に対して操作を行うための2つの操作入力部3A,3Bを備えているため、対応する表示領域に対してタッチ操作を行うための操作入力部が使用される。この場合、各操作入力部3A,3Bに予め対応付けられている表示装置25の表示領域241〜244は、最初にタッチが行われた順番で、標示の選択操作を行うための選択画面領域に設定される。この点で、ユーザは、左右いずれの手でも選択操作が行えることができる。例えば、両利きのユーザにも対応することができる。
According to the input system of this modified example, since the two
例えば、操作入力部3Aで最初にタッチされた場合、CPU21は、第1表示領域241,242を選択画面領域として設定することになる。
For example, when the
(変形例3)
変形例3の入力システムにおいて、変形例2の2つの入力操作部3A,3Bを、結合して使用してもよい。
(Modification 3)
In the input system of the
図12は、2つの入力操作部3A,3Bを結合した使用例を示す図である。図12の例では、入力操作部3A,3Bが結合され、表示装置25の表示領域245に対して各入力操作部3A,3Bの操作領域が対応付けられる。
FIG. 12 is a diagram illustrating a usage example in which two
なお、この変形例の入力システムでは、入力操作部3A,3Bの各操作領域は、表示領域と一対一の対応関係を有するように対応付けられる。
In the input system of this modification, each operation area of the
(変形例4)
変形例4の入力システムは、表示画面300上の所定エリアにキーボード画面を設定し、そのキーボード画面に対してタッチ操作が行えるようにするため、各キーボード画面の領域と、操作入力部3、または、各操作入力部3A,3Bの操作領域とを対応付けていることを特徴としている。
(Modification 4)
In the input system of the modification example 4, in order to set a keyboard screen in a predetermined area on the
例えば図13は、表示装置に表示されるキーボード画面に対してタッチ操作が行えるようにした入力システムの使用態様を例示している。図13では、2つのキーボード画面が表示画面300内に配置され、各キーボード画面に対して、例えば操作入力部3に指をタッチして、キーボード画面内のデータを選択可能に構成されている。
For example, FIG. 13 illustrates a usage mode of the input system in which a touch operation can be performed on a keyboard screen displayed on the display device. In FIG. 13, two keyboard screens are arranged in the
また、操作入力部3A,3Bの例でも、各操作入力部3A,3Bに指をタッチして、対応付けられたキーボード画面内のデータを選択可能に構成されている。これにより、ユーザは、操作入力部を介して、タッチ操作を行うことができるようになる。
In the example of the
入力システムは種々の状況で使用することが考えられる。例えば図14は、ユーザがソファーに座って操作入力部3を使用する態様を例示している。また、例えば図15は、操作入力部3の他の使用態様が例示している。
The input system can be used in various situations. For example, FIG. 14 illustrates a mode in which the user uses the
[その他の変更例]
以上では、図4を参照して、2本指のタッチ操作に対応する2つの標示A1,A2を表示する場合を例にとって説明したが、これに限られない。1本指のタッチ操作に対応する単一の標示、または、3本指以上のタッチ操作に対応する3つ以上の標示を用いた入力システムの場合であっても、同様の作用および効果を奏する。
[Other changes]
In the above, the case where the two signs A1 and A2 corresponding to the two-finger touch operation are displayed has been described with reference to FIG. 4, but the present invention is not limited to this. Even in the case of an input system using a single sign corresponding to a single-finger touch operation or three or more signs corresponding to a touch operation of three or more fingers, the same operations and effects are exhibited. .
1 タッチ式入力システム
2 本体部
3,3A,3B 操作入力部
21 CPU
25 表示装置
31 センサ
102 表示制御部
103 表示部
104 操作モード判定部
105 入力操作実施部
A1,A2 標示
DESCRIPTION OF SYMBOLS 1 Touch
25
102
上記目的を達成するためのタッチ式入力システムは、表示領域を備える表示部と、操作面に対するタッチ操作を検出するセンサを有する少なくとも1つの操作入力部と、前記センサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を、前記操作面に予め対応付けられる前記表示部の前記表示領域に表示させる表示制御部と、前記第1のタッチ操作が検出されている状態で、前記操作入力部の前記センサからの信号に基づいて前記第1のタッチ操作に続く第2のタッチ操作が検出された場合には、複数の操作モードの中から、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作に対応する操作モードを判定する操作モード判定部と、前記判定された操作モードに基づいて、前記標示に対するユーザの決定操作を行うための操作処理を行う入力操作実施部とを含み、前記操作モード判定部は、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する。 A touch-type input system for achieving the above object is first based on a signal from the display unit having a display area, at least one operation input unit having a sensor for detecting a touch operation on the operation surface , and the sensor. Based on the detected first touch operation, a display control unit that displays a label as a selection target in the display area of the display unit that is associated with the operation surface in advance , and the first touch operation detects In a state where a second touch operation following the first touch operation is detected based on a signal from the sensor of the operation input unit, the second touch operation is detected from a plurality of operation modes . and determining the operation mode determining unit operation mode corresponding to a series of touch operations of one of the touch operation and the second touch operation, on the basis of the determined operation mode, Serial and a input operation performing unit that performs operation processing for determining the operation of the user to sign, the operation mode determination unit, based on the time difference which the touch operation is detected, the touch operation, the first The touch operation or the second touch operation is divided into groups.
前記操作入力部が2つの操作入力部を有する場合、前記各操作入力部に予め対応付けられている前記表示部の右側または左側の表示領域は、最初にタッチが行われた順番で、前記ユーザの選択操作を行うための選択画面領域として選択画面領域に設定するようにしてもよい。 If the operation input unit has two operation input section, the right or left side of the display area of the display unit is associated in advance to the operation input unit is the first touch is performed sequentially, the user The selection screen area may be set as the selection screen area for performing the selection operation .
上記目的を達成するためのコンピュータが行う入力制御方法は、操作面に対するタッチ操作を検出するセンサを有する操作入力部の前記センサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を、前記操作面に予め対応付けられる表示部の表示領域に表示させるステップと、前記第1のタッチ操作が検出されている状態で、前記操作入力部の前記センサからの信号に基づいて前記第1のタッチ操作に続く第2のタッチ操作が検出した場合には、複数の操作モードの中から、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作に対応する操作モードを判定するステップと、前記操作モードに基づいて、前記標示に対するユーザの決定操作を行うための操作処理を行うステップとを含み、前記判定するステップは、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する。 Input control method for a computer for achieving the above object is performed is based on the first touch operation is first detected based on the signal from the sensor of the operation input unit including a sensor for detecting a touch operation on the operation surface And displaying the indication as a selection target in a display area of the display unit that is associated with the operation surface in advance , and the sensor of the operation input unit in a state where the first touch operation is detected. When a second touch operation following the first touch operation is detected based on the signal, a series of the first touch operation and the second touch operation is selected from a plurality of operation modes . step of performing the determining operation mode corresponding to the touch operation, on the basis of the operation mode, the operation processing for determining operation of a user on the indication The determining step includes determining the touch operation by dividing the touch operation into either the first touch operation or the second touch operation based on a time difference in which the touch operation is detected. .
Claims (6)
センサを有し、タッチ操作を受け入れる少なくとも1つの操作入力部と、
前記センサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を前記表示部に表示させる表示制御部と、
前記第1のタッチ操作が検出されている状態で、前記第1のタッチ操作に続く第2のタッチ操作が検出された場合には、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する操作モード判定部と、
前記操作モードに応じた入力処理を行う入力操作実施部と、
を含み、
前記操作モード判定部は、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する
ことを特徴とするタッチ式入力システム。 A display unit;
At least one operation input unit having a sensor and receiving a touch operation;
Based on a first touch operation that is first detected based on a signal from the sensor, a display control unit that displays an indication as a selection target on the display unit;
When a second touch operation following the first touch operation is detected in a state where the first touch operation is detected, the first touch operation and the second touch operation are included. An operation mode determination unit for determining an operation mode of a series of touch operations;
An input operation execution unit that performs input processing according to the operation mode;
Including
The operation mode determination unit determines the touch operation by dividing the touch operation into either the first touch operation or the second touch operation based on a time difference in which the touch operation is detected. Touch input system.
操作入力部に備えられるセンサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を表示部に表示させるステップと、
前記第1のタッチ操作が検出されている状態で、前記第1のタッチ操作に続く第2のタッチ操作が検出した場合には、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作の操作モードを判定するステップと、
前記操作モードに応じた入力処理を行うステップと、
を含み、
前記判定するステップは、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する
ことを特徴とする入力制御方法。 An input control method performed by a computer,
Based on a first touch operation that is first detected based on a signal from a sensor provided in the operation input unit, displaying a label as a selection target on the display unit;
When a second touch operation following the first touch operation is detected in a state where the first touch operation is detected, a series including the first touch operation and the second touch operation. Determining the operation mode of the touch operation of
Performing input processing according to the operation mode;
Including
The determining step includes determining the touch operation by dividing the touch operation into either the first touch operation or the second touch operation based on a time difference in which the touch operation is detected. Input control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013023672A JP5414134B1 (en) | 2013-02-08 | 2013-02-08 | Touch-type input system and input control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013023672A JP5414134B1 (en) | 2013-02-08 | 2013-02-08 | Touch-type input system and input control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5414134B1 JP5414134B1 (en) | 2014-02-12 |
JP2014153951A true JP2014153951A (en) | 2014-08-25 |
Family
ID=50202762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013023672A Expired - Fee Related JP5414134B1 (en) | 2013-02-08 | 2013-02-08 | Touch-type input system and input control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5414134B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6201004B1 (en) * | 2016-06-01 | 2017-09-20 | 株式会社ゲオインタラクティブ | User interface program |
WO2018142783A1 (en) * | 2017-02-06 | 2018-08-09 | 京セラドキュメントソリューションズ株式会社 | Display device |
JP2020061179A (en) * | 2019-12-27 | 2020-04-16 | シャープ株式会社 | Information processing apparatus, information processing method, and information processing program |
US10838550B2 (en) | 2016-02-03 | 2020-11-17 | Seiko Epson Corporation | Changing specification of operation based on start position |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5080773B2 (en) * | 2006-09-28 | 2012-11-21 | 京セラ株式会社 | Mobile terminal and control method thereof |
JP5444073B2 (en) * | 2010-03-25 | 2014-03-19 | Necカシオモバイルコミュニケーションズ株式会社 | Terminal device and program |
JP2011054213A (en) * | 2010-12-14 | 2011-03-17 | Toshiba Corp | Information processor and control method |
-
2013
- 2013-02-08 JP JP2013023672A patent/JP5414134B1/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10838550B2 (en) | 2016-02-03 | 2020-11-17 | Seiko Epson Corporation | Changing specification of operation based on start position |
JP6201004B1 (en) * | 2016-06-01 | 2017-09-20 | 株式会社ゲオインタラクティブ | User interface program |
JP2017215871A (en) * | 2016-06-01 | 2017-12-07 | 株式会社ゲオインタラクティブ | User interface program |
WO2018142783A1 (en) * | 2017-02-06 | 2018-08-09 | 京セラドキュメントソリューションズ株式会社 | Display device |
JPWO2018142783A1 (en) * | 2017-02-06 | 2019-11-21 | 京セラドキュメントソリューションズ株式会社 | Display device |
JP2020061179A (en) * | 2019-12-27 | 2020-04-16 | シャープ株式会社 | Information processing apparatus, information processing method, and information processing program |
Also Published As
Publication number | Publication date |
---|---|
JP5414134B1 (en) | 2014-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10949082B2 (en) | Processing capacitive touch gestures implemented on an electronic device | |
US9851809B2 (en) | User interface control using a keyboard | |
JP5691464B2 (en) | Information processing device | |
JP5718042B2 (en) | Touch input processing device, information processing device, and touch input control method | |
JP5529616B2 (en) | Information processing system, operation input device, information processing device, information processing method, program, and information storage medium | |
US20160370994A1 (en) | Touch and Slide User Interface on Touch Sensitive Screen | |
US20090164930A1 (en) | Electronic device capable of transferring object between two display units and controlling method thereof | |
WO2011125352A1 (en) | Information processing system, operation input device, information processing device, information processing method, program and information storage medium | |
TWI463355B (en) | Signal processing apparatus, signal processing method and selecting method of user-interface icon for multi-touch interface | |
JP2009151718A (en) | Information processing device and display control method | |
TWI490771B (en) | Programmable display unit and screen operating and processing program thereof | |
US9189154B2 (en) | Information processing apparatus, information processing method, and program | |
JP2010086064A (en) | Information processor, character input method, and program | |
US20140015785A1 (en) | Electronic device | |
JP2012018660A (en) | Operating module of hybrid touch panel and method for operating the same | |
JP2012079279A (en) | Information processing apparatus, information processing method and program | |
KR20160053547A (en) | Electronic apparatus and interaction method for the same | |
TW201331812A (en) | Electronic apparatus and method for controlling the same | |
JP5414134B1 (en) | Touch-type input system and input control method | |
JP5275429B2 (en) | Information processing apparatus, program, and pointing method | |
JP2011159089A (en) | Information processor | |
JP2014176019A (en) | Portable information processing device, input method for the same, and computer-executable program | |
US20150309601A1 (en) | Touch input system and input control method | |
JP2012146324A (en) | Information processor | |
US20150091831A1 (en) | Display device and display control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131015 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5414134 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |