JP2014153951A - Touch type input system and input control method - Google Patents

Touch type input system and input control method Download PDF

Info

Publication number
JP2014153951A
JP2014153951A JP2013023672A JP2013023672A JP2014153951A JP 2014153951 A JP2014153951 A JP 2014153951A JP 2013023672 A JP2013023672 A JP 2013023672A JP 2013023672 A JP2013023672 A JP 2013023672A JP 2014153951 A JP2014153951 A JP 2014153951A
Authority
JP
Japan
Prior art keywords
touch
touch operation
input
detected
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013023672A
Other languages
Japanese (ja)
Other versions
JP5414134B1 (en
Inventor
Kenji Izumi
賢二 泉
Yuji Shinomura
祐司 篠村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimane Prefecture
Original Assignee
Shimane Prefecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimane Prefecture filed Critical Shimane Prefecture
Priority to JP2013023672A priority Critical patent/JP5414134B1/en
Application granted granted Critical
Publication of JP5414134B1 publication Critical patent/JP5414134B1/en
Publication of JP2014153951A publication Critical patent/JP2014153951A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a touch type input system capable of reliably performing proper touch operations on the basis of a user determination instruction and an input control method.SOLUTION: A touch type input system 1 comprises: a display part 103; a sensor 31; at least one operation input section 3 for receiving touch operations; a display control section 102 which causes the display part 103 to display a selection object on the basis of a first touch operation firstly detected according to the sensor 31; an operation mode determination section 104 which determines an operation mode of a series of touch operations composed of the first touch operation and a subsequent second touch operation when the second touch operation is detected following the first touch operation in a state in which the first touch operation is being detected; and an input operation execution means 105 which performs input processing corresponding to an operation mode. The operation mode determination section 104 sorts detected touch operations into a first touch operation group and a second touch operation group for determination.

Description

本発明は、タッチ式入力装置および入力制御方法に関し、より詳細には、指で行うタッチ操作を行うためのタッチ式入力システムおよび入力制御方法に関する。   The present invention relates to a touch input device and an input control method, and more particularly to a touch input system and an input control method for performing a touch operation performed with a finger.

一般に、スマートフォンには、ユーザによるタッチ操作を実現するためにタッチパネルが備えられ、タッチパネルから指が離れた時点で、クリック操作やダブルクリック操作が判定されるものが多い。タッチパネルを備える装置として、例えば特許文献1の入力装置が開示されている。   Generally, a smartphone is provided with a touch panel to realize a touch operation by a user, and a click operation or a double click operation is often determined when a finger is removed from the touch panel. As an apparatus including a touch panel, for example, an input apparatus disclosed in Patent Document 1 is disclosed.

特開2012−173749号公報JP 2012-173749 A

しかしながら、タッチパネルからタッチ操作が行われている指が離された時点で、クリック操作またはダブルクリック操作が判定されると、指が誤って離れることもあり得ることから、状況次第では誤って操作内容が判定される場合もあり得る。   However, if a click operation or double-click operation is determined when the finger on which a touch operation is being performed from the touch panel is released, the finger may be erroneously released. May be determined.

また、特許文献1の入力装置では、タッチパネルが表示部と一体に構成されているので、常に表示部と一体で使用しなければならないという問題があった。   Moreover, in the input device of patent document 1, since the touch panel was comprised integrally with the display part, there existed a problem that it had to be always used integrally with a display part.

本発明は上述した観点に鑑みてなされたもので、表示機能を有さないタッチセンサを用いてマルチタッチ操作を可能にするとともに、ユーザの決定指示に基づいて適切なタッチ操作を可能にするタッチ式入力システムおよび入力制御方法を提供することを目的とする。   The present invention has been made in view of the above-described viewpoints, and enables a multi-touch operation using a touch sensor that does not have a display function, and enables an appropriate touch operation based on a user's determination instruction. An object is to provide an expression input system and an input control method.

上記目的を達成するためのタッチ式入力システムは、表示部と、センサを有し、タッチ操作を受け入れる少なくとも1つの操作入力部と、前記センサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を前記表示部に表示させる表示制御部と、前記第1のタッチ操作が検出されている状態で、前記第1のタッチ操作に続く第2のタッチ操作が検出された場合には、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する操作モード判定部と、前記操作モードに応じた入力処理を行う入力操作実施部と、を含み、前記操作モード判定部は、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する。   To achieve the above object, a touch input system includes a display, a sensor, at least one operation input unit that accepts a touch operation, and a first detected first based on a signal from the sensor. Based on the touch operation, a display control unit that displays an indication as a selection target on the display unit, and a second touch operation following the first touch operation in a state where the first touch operation is detected Is detected, an operation mode determination unit that determines an operation mode of a series of touch operations including the first touch operation and the second touch operation, and an input that performs input processing according to the operation mode An operation execution unit, wherein the operation mode determination unit performs the touch operation as the first touch operation or the second touch operation based on a time difference when the touch operation is detected. To determine divided into any of the groups.

ここで、前記操作モード判定部は、前記第1のタッチ操作と前記第2のタッチ操作との対応関係に基づいて前記操作モードを判定するようにしてもよい。   Here, the operation mode determination unit may determine the operation mode based on a correspondence relationship between the first touch operation and the second touch operation.

前記操作モードは、クリック操作、ダブルクリック操作、拡大縮小操作、ドラッグ操作、フリップ操作、スクロール操作、スワイプ操作、または回転操作の少なくとも1つを含むようにしてもよい。   The operation mode may include at least one of a click operation, a double click operation, an enlargement / reduction operation, a drag operation, a flip operation, a scroll operation, a swipe operation, or a rotation operation.

前記操作入力部が2つの操作入力部を有する場合、前記各操作入力部に予め対応付けられている前記表示部の右側または左側の表示領域は、最初にタッチが行われた順番で、選択画面領域に設定するようにしてもよい。   When the operation input unit has two operation input units, the display areas on the right side or the left side of the display unit associated with the operation input units in advance are selected in the order in which the touches are first performed. You may make it set to an area | region.

上記目的を達成するためのコンピュータが行う入力制御方法は、操作入力部に備えられるセンサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を表示部に表示させるステップと、前記第1のタッチ操作が検出されている状態で、前記第1のタッチ操作に続く第2のタッチ操作が検出した場合には、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作の操作モードを判定するステップと、前記操作モードに応じた入力処理を行うステップと、を含み、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する。   An input control method performed by a computer for achieving the above object includes a display unit that displays an indication as a selection target based on a first touch operation that is first detected based on a signal from a sensor provided in the operation input unit. And when the second touch operation following the first touch operation is detected in a state in which the first touch operation is detected, the first touch operation and the second touch operation are detected. A step of determining an operation mode of a series of touch operations including touch operations, and a step of performing input processing according to the operation mode, and performing the touch operation based on a time difference in which the touch operation is detected. The determination is made by dividing into any group of the first touch operation and the second touch operation.

さらに、上記目的を達成するためのプログラムは、上記入力制御方法をコンピュータに実行させるためのものである。   Furthermore, a program for achieving the above object is for causing a computer to execute the above input control method.

本発明によれば、表示機能を有さないタッチセンサを用いてマルチタッチ操作を可能にするとともに、ユーザの決定指示に基づいて適切なタッチ操作を確実に行えるようにすることができる。   ADVANTAGE OF THE INVENTION According to this invention, while being able to perform multi-touch operation using the touch sensor which does not have a display function, appropriate touch operation can be reliably performed based on a user's determination instruction | indication.

第1実施形態に係るタッチ式入力システムのハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the touch-type input system which concerns on 1st Embodiment. 操作入力部の外観の一例を示す図である。It is a figure which shows an example of the external appearance of an operation input part. 操作入力部の使用態様の例を示す図である。It is a figure which shows the example of the usage condition of an operation input part. 第1のタッチ操作、第2のタッチ操作および操作イメージの一例を示すタイミングチャートである。It is a timing chart which shows an example of the 1st touch operation, the 2nd touch operation, and an operation image. 操作モードの例を示す図である。It is a figure which shows the example of operation mode. タッチ操作の例を示す図である。It is a figure which shows the example of touch operation. 第1実施形態に係るタッチ式入力システムの機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the touch-type input system which concerns on 1st Embodiment. 第1実施形態におけるタッチ式入力システムの全体動作例の概略を示すフローチャートである。It is a flowchart which shows the outline of the whole operation example of the touch-type input system in 1st Embodiment. 第1実施形態の入力処理を詳細に説明するためのフローチャートである。It is a flowchart for demonstrating in detail the input processing of 1st Embodiment. ユーザが片手でタッチ操作する場合の使用態様を示す図である。It is a figure which shows the usage condition in case a user performs touch operation with one hand. 変形例2のタッチ式入力システムにおいて、第1の操作入力部の操作領域と表示部の表示領域との対応関係を説明するための図である。In the touch-type input system of the modification 2, it is a figure for demonstrating the correspondence of the operation area | region of a 1st operation input part, and the display area of a display part. 変形例2のタッチ式入力システムにおいて、第2の操作入力部の操作領域と表示部の表示領域との対応関係を説明するための図である。In the touch-type input system of the modification 2, it is a figure for demonstrating the correspondence of the operation area | region of a 2nd operation input part, and the display area of a display part. 変形例3のタッチ式入力システムで実現される2つの操作入力部の操作領域と表示部の表示領域との対応関係を説明するための図である。It is a figure for demonstrating the correspondence of the operation area | region of two operation input parts implement | achieved with the touch-type input system of the modification 3, and the display area of a display part. 変形例4のタッチ式入力システムにおいて、表示装置に表示されるキーボード画面に対してタッチ操作が行えるようにしたタッチ式入力システムの使用態様を示す図である。In the touch input system of the modification 4, it is a figure which shows the usage condition of the touch input system which enabled touch operation with respect to the keyboard screen displayed on a display apparatus. ユーザがソファーに座って操作入力部を使用する態様を説明するための図である。It is a figure for demonstrating the aspect in which a user sits on a sofa and uses an operation input part. 操作入力部の使用態様を説明するための図である。It is a figure for demonstrating the usage condition of an operation input part.

<第1実施形態>
以下、本発明の第1実施形態であるタッチ式入力システムについて説明する。このタッチ式入力システム(以下、入力システムという。)1は、指で行われるタッチ操作を受け付けるものである。
<First Embodiment>
The touch input system according to the first embodiment of the present invention will be described below. This touch input system (hereinafter referred to as an input system) 1 accepts a touch operation performed with a finger.

[入力システム1の構成]
図1は、本発明の一実施形態に係る入力システム1のハードウエア構成の一例を示す図である。図1に示すように、入力システム1は、本体部2と操作入力部3とを備える。本体部2は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、スピーカ24と、表示装置25と、インターフェース26とを含む。
[Configuration of input system 1]
FIG. 1 is a diagram illustrating an example of a hardware configuration of an input system 1 according to an embodiment of the present invention. As shown in FIG. 1, the input system 1 includes a main body unit 2 and an operation input unit 3. The main body 2 includes a central processing unit (CPU) 21, a read only memory (ROM) 22, a random access memory (RAM) 23, a speaker 24, a display device 25, and an interface 26.

CPU21は、各構成要素とバスで接続されて制御信号やデータの転送処理を行うとともに、入力システム1全体の動作を実現するための各種のプログラムの実行、演算処理等を行う。   The CPU 21 is connected to each component via a bus to perform control signal and data transfer processing, and also executes various programs for realizing the operation of the entire input system 1, arithmetic processing, and the like.

ROM22には、入力システム1全体の動作に必要なプログラムやデータが記録される。このプログラムはDVD−ROM等の記録媒体に格納されており、RAM23に読み出されてCPU21による実行が開始され、本実施形態の入力システム1が実現される。   The ROM 22 stores programs and data necessary for the operation of the entire input system 1. This program is stored in a recording medium such as a DVD-ROM, read out to the RAM 23, and started to be executed by the CPU 21, thereby realizing the input system 1 of the present embodiment.

RAM23には、データやプログラムが一時的に保持される。   The RAM 23 temporarily stores data and programs.

スピーカ24は、CPU21によって生成された効果音等の音声データに対応した音声を出力する。   The speaker 24 outputs sound corresponding to sound data such as sound effects generated by the CPU 21.

表示装置25は、例えば、液晶ディスプレイ、EL(Electro-Luminescence)などのフラットパネル表示器とすることができる。   The display device 25 can be a flat panel display such as a liquid crystal display or EL (Electro-Luminescence).

インターフェース26と接続される操作入力部3は、情報入力時にユーザによって行われるタッチ操作を検出するセンサを備え、そのセンサ出力がインターフェース26を介してCPU21へ伝送されて処理される。この実施形態では、インターフェース26と操作入力部3とは無線で接続される構成とするが、有線の構成も採り得る。この実施形態では、ユーザは、操作入力部3上で指を当てて表示装置25の表示画面上の対応するカーソル等の標示を動かすことにより、本体部2の操作を行うが、この操作が可能であれば、操作入力部3の構成としていかなる方式も採り得る。   The operation input unit 3 connected to the interface 26 includes a sensor that detects a touch operation performed by the user at the time of inputting information, and the sensor output is transmitted to the CPU 21 via the interface 26 and processed. In this embodiment, the interface 26 and the operation input unit 3 are wirelessly connected, but a wired configuration may be employed. In this embodiment, the user operates the main body unit 2 by moving a label such as a corresponding cursor on the display screen of the display device 25 by placing a finger on the operation input unit 3. This operation is possible. If so, any method may be adopted as the configuration of the operation input unit 3.

操作入力部3は、例えば、タッチパネルなどを含む。操作入力部3に備えられるセンサは、例えば、ユーザによる操作入力部3に対する接触を検出する圧力センサである。また、本実施形態のセンサは、例えばマルチタッチセンサであり、トラックパッドのように別途、ボタン等のハードウエア構造を備える必要がない。   The operation input unit 3 includes, for example, a touch panel. The sensor provided in the operation input unit 3 is, for example, a pressure sensor that detects contact with the operation input unit 3 by the user. Moreover, the sensor of this embodiment is a multi-touch sensor, for example, and it is not necessary to provide hardware structures, such as a button separately, like a trackpad.

上述の標示として、アイコン、ポインタ、カーソルなどを採用することが考えられる。   It is conceivable to employ an icon, a pointer, a cursor, etc. as the above-mentioned indication.

図2は、操作入力部3の外観の一例を示す図であって、(a)は操作入力部3の上面図、(b)は操作入力部3の側面図を示している。図2(a)に示す操作入力部3は、上述するセンサが搭載された操作面31と、外枠32とを含んで構成されており、操作面31に指が触れると、センサによりその接触が検出される。   2A and 2B are diagrams illustrating an example of the appearance of the operation input unit 3, where FIG. 2A is a top view of the operation input unit 3, and FIG. 2B is a side view of the operation input unit 3. The operation input unit 3 illustrated in FIG. 2A includes an operation surface 31 on which the above-described sensor is mounted and an outer frame 32. When a finger touches the operation surface 31, the sensor touches the operation surface 31. Is detected.

メニューボタン33は、例えば、ソフトウエアキーボードによる入力操作、またはカーソル等の標示による入力操作に切り替える役割を果たす。なお、入力操作の切り替えは、予め設定されているタッチ操作(例えば、5本指でのタッチなど)で行うようにしてもよい。   For example, the menu button 33 plays a role of switching to an input operation using a software keyboard or an input operation using a sign such as a cursor. The input operation may be switched by a preset touch operation (for example, touch with five fingers).

操作入力部3は、図2(b)に示すように、ユーザからみて手前が低く奥が高くなるように傾斜が設けられ、操作がしやすいように構成されている。   As shown in FIG. 2B, the operation input unit 3 is provided with an inclination so that the front is low and the depth is high when viewed from the user, and is configured to be easily operated.

[タッチ操作の概略]
次に、入力システム1によって実現されるタッチ操作の概略について、図3、図4および図5を参照して説明する。図3は、操作入力部3を介したタッチ操作の使用態様の一例を示す図であって、(a)は両手110,120の親指のみでタッチ操作する場合、(b)は右手110の人差し指と左手120の人差し指および親指とでタッチ操作する場合を示している。図4は、第1のタッチ操作、第2のタッチ操作および操作イメージの一例を示すタイミングチャートである。図5は、操作モードの例を示す図である。
[Outline of touch operation]
Next, an outline of the touch operation realized by the input system 1 will be described with reference to FIG. 3, FIG. 4, and FIG. FIG. 3 is a diagram illustrating an example of how to use the touch operation via the operation input unit 3, where (a) is a touch operation with only the thumbs of both hands 110 and 120, and (b) is an index finger of the right hand 110. And the index finger and thumb of the left hand 120 are shown. FIG. 4 is a timing chart illustrating an example of the first touch operation, the second touch operation, and the operation image. FIG. 5 is a diagram illustrating an example of the operation mode.

例えば図3(a)および図3(b)に示すように、ユーザが操作入力部3に対して両手110,120の1本指または2本指でタッチすることによって、操作入力部3のセンサは、ユーザのタッチ操作を検出する。例えば、図4(a)〜図4(e)の例では、ユーザが右手の2本指(人差し指および親指)でタッチした後に、左手の1本指(親指)でタッチ(第2のタッチ操作)するとともに、右手の2本指を広げるピンチアウト動作(第1のタッチ操作)をすることによって、ピンチアウト動作に応じた画面の拡大動作(図4(c))という操作モードが確定されたことになり、表示装置25の表示画面が拡大される例を示している。この場合、図4(d)および(e)の操作イメージによれば、CPU21は、それぞれの標示A1,A2を、各指が操作入力部3に触れた位置(d1→d3,d2→d4)に対応する、表示装置25の表示領域251内の位置に表示する。   For example, as shown in FIGS. 3A and 3B, when the user touches the operation input unit 3 with one or two fingers of both hands 110 and 120, the sensor of the operation input unit 3 Detects a user's touch operation. For example, in the example of FIGS. 4A to 4E, after the user touches with two fingers of the right hand (forefinger and thumb), touch with one finger (thumb) of the left hand (second touch operation) ) And a pinch-out operation (first touch operation) that spreads the two fingers of the right hand, and an operation mode of screen enlargement operation (FIG. 4 (c)) corresponding to the pinch-out operation has been established. That is, an example in which the display screen of the display device 25 is enlarged is shown. In this case, according to the operation images of FIGS. 4D and 4E, the CPU 21 positions each of the signs A1 and A2 when each finger touches the operation input unit 3 (d1 → d3, d2 → d4). Corresponding to the position in the display area 251 of the display device 25.

なお、この実施形態では、標示A1,A2は、第1のタッチ操作に応じて表示されることになるが、第2のタッチ操作の実行時に、一括してすべての標示A1,A2を消すようにしてもよい。   In this embodiment, the signs A1 and A2 are displayed in response to the first touch operation. However, when the second touch operation is executed, all the signs A1 and A2 are erased collectively. It may be.

入力システム1では、CPU21は、第1のタッチ操作および第2のタッチ操作からなる一連のタッチ操作の操作モードを、例えば図5に示す操作モードパターンを参照することによって判定する。このパターンはROM22に記録されており、入力システム1のタップ操作の実行時には、ROM22から読み出される。   In the input system 1, the CPU 21 determines an operation mode of a series of touch operations including the first touch operation and the second touch operation by referring to an operation mode pattern shown in FIG. 5, for example. This pattern is recorded in the ROM 22 and is read from the ROM 22 when the tap operation of the input system 1 is executed.

図5に一例を示すように、操作モードは、第1のタッチ操作および第2のタッチ操作の各操作内容と予め対応付けられている。ここで、第1のタッチ操作と第2のタッチ操作とは異なる指で行われ、第2のタッチ操作は第1のタッチ操作の実施時に行われる。   As shown in an example in FIG. 5, the operation mode is associated with each operation content of the first touch operation and the second touch operation in advance. Here, the first touch operation and the second touch operation are performed with different fingers, and the second touch operation is performed when the first touch operation is performed.

図5では、例えば、第1のタッチ操作が1本指で行われる「シングルタッチ」、および第2のタッチ操作が「シングルタップ」の場合は、操作モードが「クリック操作」として設定され、第1のタッチ操作が「シングルタッチ」、および第2のタッチ操作が「ダブルタップ」の場合は、操作モードが「ダブルクリック操作」として設定されている。タップ操作は、1本または複数の指で行ってもよい。   In FIG. 5, for example, when the first touch operation is “single touch” performed with one finger and the second touch operation is “single tap”, the operation mode is set as “click operation”. When the first touch operation is “single touch” and the second touch operation is “double tap”, the operation mode is set as “double click operation”. The tap operation may be performed with one or a plurality of fingers.

また、図5では、第1のタッチ操作が2本指で行われるマルチタッチでの「ピンチアウト動作またはピンチイン動作」、および第2のタッチ操作が「シングルタッチ」の場合は、操作モードが「画面の拡大・縮小操作」として設定されている(拡大操作は図4を参照)。第1のタッチ操作が「シングルタッチ」、および第2のタッチ操作が指(本数を問わない。)を移動させる「スライド」の場合は、操作モードが「ドラッグ操作」として設定されている。第1のタッチ操作が「シングルタッチ」、および第2のタッチ操作が指をタッチした後で移動させながらすぐに離す「フリップ」の場合は、操作モードが「フリップ操作」として設定されている。   Further, in FIG. 5, when the first touch operation is a multi-touch “pinch-out operation or pinch-in operation” performed with two fingers, and the second touch operation is “single touch”, the operation mode is “ “Enlargement / reduction operation of screen” is set (see FIG. 4 for enlargement operation). When the first touch operation is “single touch” and the second touch operation is “slide” that moves a finger (regardless of the number), the operation mode is set as “drag operation”. In the case where the first touch operation is “single touch” and the second touch operation is “flip” which is released after touching the finger, the operation mode is set as “flip operation”.

なお、第1のタッチ操作と第2のタッチ操作との対応関係は、図5で例示したものに限られない。その対応関係は、様々な設定が考えられる。例えば、「画面の拡大・縮小操作」の操作モードの一例として、第1のタッチ操作(シングルタッチ)と第2のタッチ操作(2本指で行うピンチアウト動作またはピンチイン動作)との対応関係を設定してもよい。   The correspondence relationship between the first touch operation and the second touch operation is not limited to that illustrated in FIG. Various settings can be considered for the correspondence. For example, as an example of the operation mode of “screen enlargement / reduction operation”, the correspondence relationship between the first touch operation (single touch) and the second touch operation (pinch-out operation or pinch-in operation performed with two fingers) is shown. It may be set.

また、操作モードが「ドラッグ操作」の場合として、第1のタッチ操作(シングルタッチ)と、第2のタッチ操作(シングルタッチまたはマルチタッチ)の後に、第1のタッチ操作で使用したシングルタッチの指でドラッグする対応関係を設定してもよい。   In the case where the operation mode is “drag operation”, the single touch used in the first touch operation after the first touch operation (single touch) and the second touch operation (single touch or multi-touch) is used. You may set the correspondence which drags with a finger.

さらに、操作モードが「フリップ操作」の場合として、第1のタッチ操作(シングルタッチ)と、第2のタッチ操作(シングルタッチまたはマルチタッチ)の後に、第1のタッチ操作で使用したシングルタッチの指でフリップする対応関係を設定してもよい。   Furthermore, as a case where the operation mode is “flip operation”, the single touch used in the first touch operation after the first touch operation (single touch) and the second touch operation (single touch or multi-touch) is used. A correspondence relationship for flipping with a finger may be set.

図6は、基本的なタッチ操作の動作例を示す図であって、(a)は操作入力部3に指で行うタッチ動作、(b)は2本指を任意の方向に移動させるスライド動作、(c)は3本指を左方向に移動させるスライド動作、(d)は2本指を時計回りに動かす回転動作を例示している。   6A and 6B are diagrams illustrating an example of basic touch operation, where FIG. 6A is a touch operation performed with a finger on the operation input unit 3, and FIG. 6B is a slide operation that moves two fingers in an arbitrary direction. , (C) illustrates a sliding operation for moving three fingers leftward, and (d) illustrates a rotating operation for moving two fingers clockwise.

図6(a)〜(d)では、右手110の指で第1のタッチ操作、左手120の親指で第2のタッチ操作が行われている場合を例としている。   6A to 6D exemplify a case where the first touch operation is performed with the finger of the right hand 110 and the second touch operation is performed with the thumb of the left hand 120.

ここで、操作入力部3の操作面にはセンサが搭載されているので、操作入力部3の操作面上に指がタッチされると、そのセンサがそのタッチ操作を検出する。   Here, since a sensor is mounted on the operation surface of the operation input unit 3, when a finger is touched on the operation surface of the operation input unit 3, the sensor detects the touch operation.

図7は、図1に示したハードウエア構成上で実現される入力システム1の本体部2の機能構成の一例を示す図である。   FIG. 7 is a diagram illustrating an example of a functional configuration of the main body 2 of the input system 1 realized on the hardware configuration illustrated in FIG. 1.

図7に示すように、入力システム1の本体部2は、記憶部101、表示制御部102、表示部103、操作モード判定部104および入力操作実施部105を備える。   As shown in FIG. 7, the main body 2 of the input system 1 includes a storage unit 101, a display control unit 102, a display unit 103, an operation mode determination unit 104, and an input operation execution unit 105.

記憶部101は、図1におけるROM22およびRAM23によって構成され、操作モードパターン(図5を参照)などのデータを記憶する。   The storage unit 101 includes the ROM 22 and the RAM 23 in FIG. 1, and stores data such as operation mode patterns (see FIG. 5).

表示制御部102は、CPU21によって機能する。表示制御部102は、操作入力部3のセンサ31からの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示(カーソル等)を表示部103に表示させる。   The display control unit 102 functions by the CPU 21. The display control unit 102 causes the display unit 103 to display a label (cursor or the like) as a selection target based on a first touch operation detected first based on a signal from the sensor 31 of the operation input unit 3.

表示部103は、図1における表示装置25によって構成され、標示をユーザに対して視認可能にするために設けられる。   The display unit 103 is configured by the display device 25 in FIG. 1 and is provided to make the sign visible to the user.

操作モード判定部104は、上述した第1のタッチ操作が検出されている状態で、第1のタッチ操作に続く第2のタッチ操作が検出された場合には、第1のタッチ操作および第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する。操作モードとしては、例えば、クリック操作、ダブルクリック操作、画面の拡大・縮小操作、ドラッグ操作、フリップ操作、スクロール操作、スワイプ操作、画面の回転操作等がある。操作モードを判定する処理については、後に詳細に説明する。   When the second touch operation following the first touch operation is detected in the state where the first touch operation described above is detected, the operation mode determination unit 104 performs the first touch operation and the second touch operation. The operation mode of a series of touch operations including the touch operations is determined. Examples of the operation mode include click operation, double click operation, screen enlargement / reduction operation, drag operation, flip operation, scroll operation, swipe operation, and screen rotation operation. The process for determining the operation mode will be described in detail later.

入力操作実施部105は、操作モード判定部104によって判定された操作モードに応じた入力操作を行う。なお、操作モード判定部104と入力操作実施部105とはともに、CPU21によって機能する。   The input operation execution unit 105 performs an input operation according to the operation mode determined by the operation mode determination unit 104. Note that both the operation mode determination unit 104 and the input operation execution unit 105 function by the CPU 21.

[入力システム1の動作]
以下、この入力システム1の動作について、図1、図4、図5、図8および図9を参照して説明する。図8は、入力システム1の全体動作例の概略を示すフローチャートである。
[Operation of input system 1]
Hereinafter, the operation of the input system 1 will be described with reference to FIGS. 1, 4, 5, 8 and 9. FIG. 8 is a flowchart showing an outline of an overall operation example of the input system 1.

図8において先ず、CPU21は、操作入力部3を介した第1のタッチ操作に基づいて標示としての例えばカーソルを表示装置25の表示領域251に表示する(ステップS101)。図4の例では、CPU21は、第1のタッチ操作でタッチされた2本指の位置d1,d2に対応付けられた表示領域251上の位置にカーソルA1,A2を表示する。この場合、CPU21は、操作入力部3のセンサ31からの信号をインターフェース26を介して受信し、この信号に基づいて2本指(操作入力部3に触れる2本指の接触点)の各位置(d1→d3,d2→d4)を判断する。センサ31からの信号には、操作入力部3上を基準にしたタッチ操作における接触点の位置を示す位置情報が含まれており、CPU21は、センサ31からの信号に基づいて検出される接触点の移動に対応して、対応する表示装置25の表示領域上の位置A1,A2をそれぞれ特定することになる。   In FIG. 8, first, the CPU 21 displays, for example, a cursor as an indication on the display area 251 of the display device 25 based on the first touch operation via the operation input unit 3 (step S101). In the example of FIG. 4, the CPU 21 displays the cursors A1 and A2 at positions on the display area 251 associated with the positions d1 and d2 of the two fingers touched by the first touch operation. In this case, the CPU 21 receives a signal from the sensor 31 of the operation input unit 3 via the interface 26, and each position of two fingers (a contact point of two fingers touching the operation input unit 3) based on this signal. (D1 → d3, d2 → d4) is determined. The signal from the sensor 31 includes position information indicating the position of the contact point in the touch operation based on the operation input unit 3, and the CPU 21 detects the contact point detected based on the signal from the sensor 31. Corresponding to the movement, the positions A1 and A2 on the display area of the corresponding display device 25 are respectively specified.

ここで、ステップS101では、CPU21は、表示制御部102として機能する。   Here, in step S <b> 101, the CPU 21 functions as the display control unit 102.

次にCPU21は、ステップS101における第1のタッチ操作を検出している状態で、センサ31からの信号に基づいて第1のタッチ操作に続く第2のタッチ操作を検出した場合(ステップS102のYES)には、第1のタッチ操作および第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する(ステップS103)。この場合、CPU21は、第2のタッチ操作を検出した時点で、例えば図5に示す操作モードパターンを参照し、第1のタッチ操作および第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する。換言すると、CPU21は、第2のタッチ操作を検出した時点で、操作モードを確定する。   Next, the CPU 21 detects the second touch operation following the first touch operation based on the signal from the sensor 31 in a state where the first touch operation is detected in step S101 (YES in step S102). ) Determines the operation mode of a series of touch operations including the first touch operation and the second touch operation (step S103). In this case, when the CPU 21 detects the second touch operation, the CPU 21 refers to, for example, the operation mode pattern shown in FIG. 5 and changes the operation mode of the series of touch operations including the first touch operation and the second touch operation. judge. In other words, the CPU 21 determines the operation mode when detecting the second touch operation.

例えば、図4の例では、CPU21は、センサ31からの信号に基づいて、第1のタッチ操作(2本指でタッチした後にピンチアウト動作)と、第2のタッチ操作(シングルタッチ)とを特定する。そして、CPU21は、2つのタッチ操作の対応関係から、操作モードパターン(図5)を参照して「画面の拡大操作」として判定する。   For example, in the example of FIG. 4, the CPU 21 performs a first touch operation (pinch-out operation after touching with two fingers) and a second touch operation (single touch) based on a signal from the sensor 31. Identify. Then, the CPU 21 determines the “screen enlargement operation” with reference to the operation mode pattern (FIG. 5) from the correspondence between the two touch operations.

ステップS102,S103では、CPU21は、操作モード判定部104として機能する。   In steps S102 and S103, the CPU 21 functions as the operation mode determination unit 104.

なお、操作モードを確定する時点は、第2のタッチ操作を検出してから所定の時間が経過した後であってもよい。   Note that the time point at which the operation mode is determined may be after a predetermined time has elapsed since the second touch operation was detected.

図8において、第2のタッチ操作が検出されない場合は(ステップS102のNo)、CPU21は、第1のタッチ操作に基づいたカーソルの表示処理(ステップS101)を行う。   In FIG. 8, when the second touch operation is not detected (No in step S102), the CPU 21 performs a cursor display process (step S101) based on the first touch operation.

さらにCPU21は、操作モードに応じた入力操作を実施する(ステップS104)。図4の例では、CPU21は、操作モードを画面の拡大操作と判定するので、ピンチイン動作に従って、画面の拡大操作を実施する。   Further, the CPU 21 performs an input operation corresponding to the operation mode (step S104). In the example of FIG. 4, since the CPU 21 determines that the operation mode is a screen enlargement operation, the CPU 21 performs the screen enlargement operation according to the pinch-in operation.

ここで、ステップS104では、CPU21は、入力操作実施部105として機能する。   Here, in step S <b> 104, the CPU 21 functions as the input operation execution unit 105.

次に、図9を参照して、入力システム1で実行される入力処理について、より具体的に説明する。図9は、本実施形態の入力処理を詳細に説明するためのフローチャートである。   Next, the input process executed by the input system 1 will be described more specifically with reference to FIG. FIG. 9 is a flowchart for explaining in detail the input processing of this embodiment.

なお、図9のS201,S202,S204,S206〜S208は操作モード判定部104、S203,S205は表示制御部102、S209は入力操作実施部105にそれぞれ対応する。   9, S201, S202, S204, and S206 to S208 correspond to the operation mode determination unit 104, S203 and S205 correspond to the display control unit 102, and S209 corresponds to the input operation execution unit 105, respectively.

図9では、S201〜S203と、S204〜S209とをそれぞれ別々のグループの処理としてSTEP1,STEP2が表記されている場合を例としている。   FIG. 9 illustrates an example in which STEP1 and STEP2 are described as processing of separate groups, S201 to S203 and S204 to S209.

図9において先ず、CPU21は、センサ31からの信号に基づいて、最初に接触する指を検知し(ステップS201)、検知した指をSTEP1(第1のタッチ操作のグループ)として分類する(ステップS202)。この場合、複数本の指が検出された場合には、それら複数本の指で行われるタッチ操作がすべて第1のタッチ操作のグループとして分類されることになる。   In FIG. 9, first, the CPU 21 detects a finger that makes contact first based on a signal from the sensor 31 (step S201), and classifies the detected finger as STEP1 (first touch operation group) (step S202). ). In this case, when a plurality of fingers are detected, all touch operations performed with the plurality of fingers are classified as a first touch operation group.

次に、CPU21は、STEP1に分類された指のタッチ操作に基づいて標示を表示装置25に表示する(ステップS203)。この表示例については、図4(d)に示した標示A1,A2のとおりである。   Next, the CPU 21 displays an indication on the display device 25 based on the finger touch operation classified as STEP 1 (step S203). This display example is as indicated by the signs A1 and A2 shown in FIG.

上述の標示の表示後、CPU21がセンサ31からの信号に基づいて接触する指を検出した場合、CPU21は、その検出した指をSTEP2(第2のタッチ操作のグループ)として分類する(ステップS204)。つまり、CPU21は、タッチ操作が検出された時間差を基に、タッチ操作を、第1のタッチ操作または第2のタッチ操作のいずれかのグループに分けて判別する。CPU21は、センサ31からの検知信号の受信時間からタッチ操作の時間差を判断することができる。この場合、第1のタッチ操作と第2のタッチ操作とを分類する時間差が予め決まっている。   When the CPU 21 detects a finger that makes contact based on a signal from the sensor 31 after displaying the above-described sign, the CPU 21 classifies the detected finger as STEP 2 (second touch operation group) (step S204). . That is, the CPU 21 determines the touch operation by dividing it into either the first touch operation or the second touch operation based on the time difference when the touch operation is detected. The CPU 21 can determine the time difference of the touch operation from the reception time of the detection signal from the sensor 31. In this case, a time difference for classifying the first touch operation and the second touch operation is determined in advance.

ここで、ステップS204において、検知された指によるタッチ操作が標示の表示を対象とする操作であるならば、CPU21は、このSTEP2に分類されたタッチ操作に基づいて標示を表示装置25に表示することになる(ステップS205)。なお、STEP2の標示の表示が不要な場合には、S205のような処理は必要ない。   Here, in step S204, if the detected touch operation with the finger is an operation for displaying the indication, the CPU 21 displays the indication on the display device 25 based on the touch operation classified in STEP2. (Step S205). In addition, when the display of the indication of STEP2 is unnecessary, processing like S205 is not necessary.

CPU21は、ステップS203で指の接触を検出した結果、ユーザにはタッチ操作の内容を確定させてもよいという「決定」動作の意思があると判定し(ステップS206)、STEP1およびSTEP2に分類された指の動作による「決定」動作の種類を判別する(ステップS207)。ステップS207を実行するときには、図5で例示した操作モードパターンから、対応する操作モードの抽出を行うことになる。   As a result of detecting the contact of the finger in step S203, the CPU 21 determines that the user has an intention of “decision” operation that may confirm the content of the touch operation (step S206), and is classified into STEP1 and STEP2. The type of the “decision” action by the action of the finger is determined (step S207). When step S207 is executed, a corresponding operation mode is extracted from the operation mode pattern illustrated in FIG.

次に、CPU21は、STEP1の標示に対する上記「決定」動作の割り当てを行い(ステップS208)、STEP1の標示の変化処理を行う(ステップS209)。ここで、ステップS208において、例えば、画面の拡大動作を示す「決定」動作が割り当てられたならば、CPU21は、その拡大動作のために行われたSTEP1の指の動きに従って、STEP1の標示を移動させる(図4(e)の標示A1,A2を参照)。   Next, the CPU 21 assigns the “decision” operation to the indication of STEP 1 (step S208), and performs the change processing of the indication of STEP 1 (step S209). Here, in step S208, for example, if a “decision” operation indicating an enlargement operation of the screen is assigned, the CPU 21 moves the indication of STEP1 according to the movement of the finger of STEP1 performed for the enlargement operation. (See the signs A1 and A2 in FIG. 4E).

以上説明したように、本実施形態の入力システム1によれば、ユーザが第1のタッチ操作と第2のタッチ操作とを実施することにより、タッチの時間差で別々の操作と判別されたそれらの一連のタッチ操作に対応する操作モードを判定して、その操作モードに応じた入力操作を実施する。ここで、操作モードが判定されるためには、ユーザは、第1のタッチ操作と第2のタッチ操作とを行わなければならない。すなわち、ユーザは、第1のタッチ操作の指とは異なる指で第2のタッチ操作を行わなければならない。このことは、第2のタッチ操作が行われる度に、入力操作に対するユーザの実施指示がなされているに等しく、これにより、正しい入力操作が実施される。   As described above, according to the input system 1 of the present embodiment, when the user performs the first touch operation and the second touch operation, those operations that have been determined to be different operations by the time difference of the touch. An operation mode corresponding to a series of touch operations is determined, and an input operation corresponding to the operation mode is performed. Here, in order to determine the operation mode, the user must perform the first touch operation and the second touch operation. In other words, the user must perform the second touch operation with a finger different from the finger of the first touch operation. This is equivalent to the user performing an instruction for the input operation every time the second touch operation is performed, and thus the correct input operation is performed.

また、入力操作部3は、表示装置25と別個独立に構成されている。つまり、この入力システム1によれば、表示機能を有さないタッチセンサを用いてマルチタッチ操作を行うことができる。   The input operation unit 3 is configured separately from the display device 25. That is, according to the input system 1, a multi-touch operation can be performed using a touch sensor that does not have a display function.

ここで、操作入力部3には、操作キーや操作ボタン等の操作部が存在しない。この点で、この入力システム1によれば、製造コストが削減される。また、ユーザは、操作入力部3の操作キーや操作ボタン等を用いずに、指を自由に動かして操作することができることになるので、片手または両手の指の動きに対する自由度が高まる。つまり、操作がより直感的になるという側面も備える。   Here, the operation input unit 3 does not include operation units such as operation keys and operation buttons. In this respect, according to the input system 1, the manufacturing cost is reduced. In addition, the user can freely move and operate the finger without using the operation keys, operation buttons, or the like of the operation input unit 3, so that the degree of freedom with respect to the movement of the finger of one hand or both hands is increased. That is, it also has an aspect that the operation becomes more intuitive.

次に、本実施形態の入力システム1の変形例について説明する。   Next, a modification of the input system 1 of the present embodiment will be described.

(変形例1)
以上では、図4を参照して、両手の指のタッチ操作に対応して入力操作が行われる場合について説明した。これとは別に、両手ではなく、片手でタッチ操作するようにしてもよい。
(Modification 1)
The case where the input operation is performed in response to the touch operation of the fingers of both hands has been described above with reference to FIG. Apart from this, the touch operation may be performed with one hand instead of both hands.

図10は、ユーザが片手でタッチ操作する場合の使用態様を示す図である。図10に示す例では、右手の人差し指で第1のタッチ操作が行われ、右手の親指で第2のタッチ操作が行われる。これは、CPU21が、図8のフローチャートのステップS101〜S104の処理、および、図9のフローチャートのステップS201〜S209の処理を行うようにすることで実施可能である。   FIG. 10 is a diagram illustrating a usage mode when the user performs a touch operation with one hand. In the example illustrated in FIG. 10, the first touch operation is performed with the index finger of the right hand, and the second touch operation is performed with the thumb of the right hand. This can be implemented by causing the CPU 21 to perform the processing of steps S101 to S104 in the flowchart of FIG. 8 and the processing of steps S201 to S209 of the flowchart of FIG.

このようなタッチ操作を行うことで、片手での一連のタッチ操作を行うことを可能にする。   By performing such a touch operation, it is possible to perform a series of touch operations with one hand.

(変形例2)
以上では、2つの操作入力部の使用態様について言及しなかったが、2つの操作入力部を使用するようにしてもよい。以下、図11,図12を参照して、操作入力部3A,3Bの機能について説明する。図11は、操作入力部3Aの操作領域311と表示装置25の表示領域241,242との対応関係を説明するための図である。図12は、操作入力部3Bの操作領域321と表示装置25の表示領域243,244との対応関係を説明するための図である。
(Modification 2)
Although the use mode of the two operation input units has not been mentioned above, two operation input units may be used. Hereinafter, the functions of the operation input units 3A and 3B will be described with reference to FIGS. FIG. 11 is a diagram for explaining a correspondence relationship between the operation area 311 of the operation input unit 3A and the display areas 241 and 242 of the display device 25. FIG. 12 is a diagram for explaining a correspondence relationship between the operation area 321 of the operation input unit 3B and the display areas 243 and 244 of the display device 25.

図11の例では、操作入力部3Aの操作領域(操作面)311は、表示装置25の全表示領域のうちの第1表示領域241および第2表示領域242(総称して、「右側の表示領域」ともいう。)に対応付けられている。この対応付けは、例えばそれぞれの領域の座標データを変換するためのマッピングテーブルに従って行われる。なお、第1表示領域241は、後述する第2表示領域244の一部と共通している。   In the example of FIG. 11, the operation area (operation surface) 311 of the operation input unit 3 </ b> A includes a first display area 241 and a second display area 242 (collectively, “right display” in the entire display area of the display device 25. Also referred to as “region”. This association is performed, for example, according to a mapping table for converting the coordinate data of each area. The first display area 241 is in common with a part of a second display area 244 described later.

この入力システム1では、第1表示領域241と第2表示領域242との総領域は、表示領域の中央(図中、第1表示領域241と第2表示領域242との境界線を示す。)で均等に2分割した領域よりも大きくなるように設定される。   In the input system 1, the total area of the first display area 241 and the second display area 242 is the center of the display area (in the figure, the boundary line between the first display area 241 and the second display area 242 is shown). Is set so as to be larger than the area equally divided into two.

図12の例では、操作入力部3Bの操作領域(操作面)321は、表示装置25の全表示領域のうちの第1表示領域243および第2表示領域244(総称して、「左側の表示領域」ともいう。)に対応付けられている。この対応付けは、例えばそれぞれの領域の座標データを変換するためのマッピングテーブルに従って行われる。なお、第1表示領域243は、前述の第2表示領域242の一部と共通している。   In the example of FIG. 12, the operation area (operation surface) 321 of the operation input unit 3 </ b> B includes a first display area 243 and a second display area 244 (collectively “left display” in the entire display area of the display device 25. Also referred to as “region”. This association is performed, for example, according to a mapping table for converting the coordinate data of each area. The first display area 243 is common to a part of the second display area 242 described above.

この入力システム1では、第1表示領域243と第2表示領域244との総領域は、表示領域の中央(図中、第1表示領域243と第2表示領域244との境界線を示す。)で均等に2分割した領域よりも大きくなるように設定される。   In this input system 1, the total area of the first display area 243 and the second display area 244 is the center of the display area (in the figure, the boundary line between the first display area 243 and the second display area 244 is shown). Is set so as to be larger than the area equally divided into two.

本変形例の入力システムによれば、所定の表示領域に対して操作を行うための2つの操作入力部3A,3Bを備えているため、対応する表示領域に対してタッチ操作を行うための操作入力部が使用される。この場合、各操作入力部3A,3Bに予め対応付けられている表示装置25の表示領域241〜244は、最初にタッチが行われた順番で、標示の選択操作を行うための選択画面領域に設定される。この点で、ユーザは、左右いずれの手でも選択操作が行えることができる。例えば、両利きのユーザにも対応することができる。   According to the input system of this modified example, since the two operation input units 3A and 3B for performing an operation on a predetermined display area are provided, an operation for performing a touch operation on the corresponding display area is performed. An input part is used. In this case, the display areas 241 to 244 of the display device 25 associated with the operation input units 3A and 3B in advance are used as selection screen areas for performing the selection operation of the signs in the order of the first touch. Is set. In this respect, the user can perform the selection operation with either the left or right hand. For example, it is possible to deal with ambidextrous users.

例えば、操作入力部3Aで最初にタッチされた場合、CPU21は、第1表示領域241,242を選択画面領域として設定することになる。   For example, when the operation input unit 3A is first touched, the CPU 21 sets the first display areas 241 and 242 as selection screen areas.

(変形例3)
変形例3の入力システムにおいて、変形例2の2つの入力操作部3A,3Bを、結合して使用してもよい。
(Modification 3)
In the input system of the modification 3, the two input operation units 3A and 3B of the modification 2 may be combined and used.

図12は、2つの入力操作部3A,3Bを結合した使用例を示す図である。図12の例では、入力操作部3A,3Bが結合され、表示装置25の表示領域245に対して各入力操作部3A,3Bの操作領域が対応付けられる。   FIG. 12 is a diagram illustrating a usage example in which two input operation units 3A and 3B are combined. In the example of FIG. 12, the input operation units 3 </ b> A and 3 </ b> B are combined, and the operation area of each input operation unit 3 </ b> A and 3 </ b> B is associated with the display area 245 of the display device 25.

なお、この変形例の入力システムでは、入力操作部3A,3Bの各操作領域は、表示領域と一対一の対応関係を有するように対応付けられる。   In the input system of this modification, each operation area of the input operation units 3A and 3B is associated with the display area so as to have a one-to-one correspondence.

(変形例4)
変形例4の入力システムは、表示画面300上の所定エリアにキーボード画面を設定し、そのキーボード画面に対してタッチ操作が行えるようにするため、各キーボード画面の領域と、操作入力部3、または、各操作入力部3A,3Bの操作領域とを対応付けていることを特徴としている。
(Modification 4)
In the input system of the modification example 4, in order to set a keyboard screen in a predetermined area on the display screen 300 and perform a touch operation on the keyboard screen, each keyboard screen area and the operation input unit 3 or The operation areas of the operation input units 3A and 3B are associated with each other.

例えば図13は、表示装置に表示されるキーボード画面に対してタッチ操作が行えるようにした入力システムの使用態様を例示している。図13では、2つのキーボード画面が表示画面300内に配置され、各キーボード画面に対して、例えば操作入力部3に指をタッチして、キーボード画面内のデータを選択可能に構成されている。   For example, FIG. 13 illustrates a usage mode of the input system in which a touch operation can be performed on a keyboard screen displayed on the display device. In FIG. 13, two keyboard screens are arranged in the display screen 300, and each keyboard screen is configured to be able to select data in the keyboard screen, for example, by touching the operation input unit 3 with a finger.

また、操作入力部3A,3Bの例でも、各操作入力部3A,3Bに指をタッチして、対応付けられたキーボード画面内のデータを選択可能に構成されている。これにより、ユーザは、操作入力部を介して、タッチ操作を行うことができるようになる。   In the example of the operation input units 3A and 3B, the operation input units 3A and 3B can be selected by touching the operation input units 3A and 3B with a finger. Thus, the user can perform a touch operation via the operation input unit.

入力システムは種々の状況で使用することが考えられる。例えば図14は、ユーザがソファーに座って操作入力部3を使用する態様を例示している。また、例えば図15は、操作入力部3の他の使用態様が例示している。   The input system can be used in various situations. For example, FIG. 14 illustrates a mode in which the user uses the operation input unit 3 while sitting on the sofa. Further, for example, FIG. 15 illustrates another usage mode of the operation input unit 3.

[その他の変更例]
以上では、図4を参照して、2本指のタッチ操作に対応する2つの標示A1,A2を表示する場合を例にとって説明したが、これに限られない。1本指のタッチ操作に対応する単一の標示、または、3本指以上のタッチ操作に対応する3つ以上の標示を用いた入力システムの場合であっても、同様の作用および効果を奏する。
[Other changes]
In the above, the case where the two signs A1 and A2 corresponding to the two-finger touch operation are displayed has been described with reference to FIG. 4, but the present invention is not limited to this. Even in the case of an input system using a single sign corresponding to a single-finger touch operation or three or more signs corresponding to a touch operation of three or more fingers, the same operations and effects are exhibited. .

1 タッチ式入力システム
2 本体部
3,3A,3B 操作入力部
21 CPU
25 表示装置
31 センサ
102 表示制御部
103 表示部
104 操作モード判定部
105 入力操作実施部
A1,A2 標示
DESCRIPTION OF SYMBOLS 1 Touch type input system 2 Main-body part 3,3A, 3B Operation input part 21 CPU
25 Display device 31 Sensor
102 display control unit 103 display unit 104 operation mode determination unit 105 input operation execution unit A1, A2

上記目的を達成するためのタッチ式入力システムは、表示領域を備える表示部と、操作面に対するタッチ操作を検出するセンサを有する少なくとも1つの操作入力部と、前記センサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を、前記操作面に予め対応付けられる前記表示部の前記表示領域に表示させる表示制御部と、前記第1のタッチ操作が検出されている状態で、前記操作入力部の前記センサからの信号に基づいて前記第1のタッチ操作に続く第2のタッチ操作が検出された場合には、複数の操作モードの中から、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作に対応する操作モードを判定する操作モード判定部と、前記判定された操作モードに基づいて、前記標示に対するユーザの決定操作を行うための操作処理を行う入力操作実施部とを含み、前記操作モード判定部は、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する。 A touch-type input system for achieving the above object is first based on a signal from the display unit having a display area, at least one operation input unit having a sensor for detecting a touch operation on the operation surface , and the sensor. Based on the detected first touch operation, a display control unit that displays a label as a selection target in the display area of the display unit that is associated with the operation surface in advance , and the first touch operation detects In a state where a second touch operation following the first touch operation is detected based on a signal from the sensor of the operation input unit, the second touch operation is detected from a plurality of operation modes . and determining the operation mode determining unit operation mode corresponding to a series of touch operations of one of the touch operation and the second touch operation, on the basis of the determined operation mode, Serial and a input operation performing unit that performs operation processing for determining the operation of the user to sign, the operation mode determination unit, based on the time difference which the touch operation is detected, the touch operation, the first The touch operation or the second touch operation is divided into groups.

前記操作入力部が2つの操作入力部を有する場合、前記各操作入力部に予め対応付けられている前記表示部の右側または左側の表示領域は、最初にタッチが行われた順番で、前記ユーザの選択操作を行うための選択画面領域として選択画面領域に設定するようにしてもよい。 If the operation input unit has two operation input section, the right or left side of the display area of the display unit is associated in advance to the operation input unit is the first touch is performed sequentially, the user The selection screen area may be set as the selection screen area for performing the selection operation .

上記目的を達成するためのコンピュータが行う入力制御方法は、操作面に対するタッチ操作を検出するセンサを有する操作入力部の前記センサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を、前記操作面に予め対応付けられる表示部の表示領域に表示させるステップと、前記第1のタッチ操作が検出されている状態で、前記操作入力部の前記センサからの信号に基づいて前記第1のタッチ操作に続く第2のタッチ操作が検出した場合には、複数の操作モードの中から、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作に対応する操作モードを判定するステップと、前記操作モードに基づいて、前記標示に対するユーザの決定操作を行うための操作処理を行うステップとを含み、前記判定するステップは、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する。 Input control method for a computer for achieving the above object is performed is based on the first touch operation is first detected based on the signal from the sensor of the operation input unit including a sensor for detecting a touch operation on the operation surface And displaying the indication as a selection target in a display area of the display unit that is associated with the operation surface in advance , and the sensor of the operation input unit in a state where the first touch operation is detected. When a second touch operation following the first touch operation is detected based on the signal, a series of the first touch operation and the second touch operation is selected from a plurality of operation modes . step of performing the determining operation mode corresponding to the touch operation, on the basis of the operation mode, the operation processing for determining operation of a user on the indication The determining step includes determining the touch operation by dividing the touch operation into either the first touch operation or the second touch operation based on a time difference in which the touch operation is detected. .

Claims (6)

表示部と、
センサを有し、タッチ操作を受け入れる少なくとも1つの操作入力部と、
前記センサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を前記表示部に表示させる表示制御部と、
前記第1のタッチ操作が検出されている状態で、前記第1のタッチ操作に続く第2のタッチ操作が検出された場合には、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する操作モード判定部と、
前記操作モードに応じた入力処理を行う入力操作実施部と、
を含み、
前記操作モード判定部は、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する
ことを特徴とするタッチ式入力システム。
A display unit;
At least one operation input unit having a sensor and receiving a touch operation;
Based on a first touch operation that is first detected based on a signal from the sensor, a display control unit that displays an indication as a selection target on the display unit;
When a second touch operation following the first touch operation is detected in a state where the first touch operation is detected, the first touch operation and the second touch operation are included. An operation mode determination unit for determining an operation mode of a series of touch operations;
An input operation execution unit that performs input processing according to the operation mode;
Including
The operation mode determination unit determines the touch operation by dividing the touch operation into either the first touch operation or the second touch operation based on a time difference in which the touch operation is detected. Touch input system.
前記操作モード判定部は、前記第1のタッチ操作と前記第2のタッチ操作との対応関係に基づいて前記操作モードを判定することを特徴とする請求項1に記載のタッチ式入力システム。   The touch-type input system according to claim 1, wherein the operation mode determination unit determines the operation mode based on a correspondence relationship between the first touch operation and the second touch operation. 前記操作モードは、クリック操作、ダブルクリック操作、拡大縮小操作、ドラッグ操作、フリップ操作、スクロール操作、スワイプ操作、または回転操作の少なくとも1つを含むことを特徴とする請求項1または2に記載のタッチ式入力システム。   The operation mode includes at least one of a click operation, a double click operation, an enlargement / reduction operation, a drag operation, a flip operation, a scroll operation, a swipe operation, or a rotation operation. Touch input system. 前記操作入力部が2つの操作入力部を有する場合、前記各操作入力部に予め対応付けられている前記表示部の右側または左側の表示領域は、最初にタッチが行われた順番で、選択画面領域に設定されることを特徴とする請求項1ないし3のいずれか1項に記載のタッチ式入力システム。   When the operation input unit has two operation input units, the display areas on the right side or the left side of the display unit associated with the operation input units in advance are selected in the order in which the touches are first performed. The touch input system according to claim 1, wherein the touch input system is set to an area. コンピュータが行う入力制御方法であって、
操作入力部に備えられるセンサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を表示部に表示させるステップと、
前記第1のタッチ操作が検出されている状態で、前記第1のタッチ操作に続く第2のタッチ操作が検出した場合には、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作の操作モードを判定するステップと、
前記操作モードに応じた入力処理を行うステップと、
を含み、
前記判定するステップは、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する
ことを特徴とする入力制御方法。
An input control method performed by a computer,
Based on a first touch operation that is first detected based on a signal from a sensor provided in the operation input unit, displaying a label as a selection target on the display unit;
When a second touch operation following the first touch operation is detected in a state where the first touch operation is detected, a series including the first touch operation and the second touch operation. Determining the operation mode of the touch operation of
Performing input processing according to the operation mode;
Including
The determining step includes determining the touch operation by dividing the touch operation into either the first touch operation or the second touch operation based on a time difference in which the touch operation is detected. Input control method.
請求項5に記載の入力制御方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the input control method according to claim 5.
JP2013023672A 2013-02-08 2013-02-08 Touch-type input system and input control method Expired - Fee Related JP5414134B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013023672A JP5414134B1 (en) 2013-02-08 2013-02-08 Touch-type input system and input control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013023672A JP5414134B1 (en) 2013-02-08 2013-02-08 Touch-type input system and input control method

Publications (2)

Publication Number Publication Date
JP5414134B1 JP5414134B1 (en) 2014-02-12
JP2014153951A true JP2014153951A (en) 2014-08-25

Family

ID=50202762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013023672A Expired - Fee Related JP5414134B1 (en) 2013-02-08 2013-02-08 Touch-type input system and input control method

Country Status (1)

Country Link
JP (1) JP5414134B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6201004B1 (en) * 2016-06-01 2017-09-20 株式会社ゲオインタラクティブ User interface program
WO2018142783A1 (en) * 2017-02-06 2018-08-09 京セラドキュメントソリューションズ株式会社 Display device
JP2020061179A (en) * 2019-12-27 2020-04-16 シャープ株式会社 Information processing apparatus, information processing method, and information processing program
US10838550B2 (en) 2016-02-03 2020-11-17 Seiko Epson Corporation Changing specification of operation based on start position

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5080773B2 (en) * 2006-09-28 2012-11-21 京セラ株式会社 Mobile terminal and control method thereof
JP5444073B2 (en) * 2010-03-25 2014-03-19 Necカシオモバイルコミュニケーションズ株式会社 Terminal device and program
JP2011054213A (en) * 2010-12-14 2011-03-17 Toshiba Corp Information processor and control method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10838550B2 (en) 2016-02-03 2020-11-17 Seiko Epson Corporation Changing specification of operation based on start position
JP6201004B1 (en) * 2016-06-01 2017-09-20 株式会社ゲオインタラクティブ User interface program
JP2017215871A (en) * 2016-06-01 2017-12-07 株式会社ゲオインタラクティブ User interface program
WO2018142783A1 (en) * 2017-02-06 2018-08-09 京セラドキュメントソリューションズ株式会社 Display device
JPWO2018142783A1 (en) * 2017-02-06 2019-11-21 京セラドキュメントソリューションズ株式会社 Display device
JP2020061179A (en) * 2019-12-27 2020-04-16 シャープ株式会社 Information processing apparatus, information processing method, and information processing program

Also Published As

Publication number Publication date
JP5414134B1 (en) 2014-02-12

Similar Documents

Publication Publication Date Title
US10949082B2 (en) Processing capacitive touch gestures implemented on an electronic device
US9851809B2 (en) User interface control using a keyboard
JP5691464B2 (en) Information processing device
JP5718042B2 (en) Touch input processing device, information processing device, and touch input control method
JP5529616B2 (en) Information processing system, operation input device, information processing device, information processing method, program, and information storage medium
US20160370994A1 (en) Touch and Slide User Interface on Touch Sensitive Screen
US20090164930A1 (en) Electronic device capable of transferring object between two display units and controlling method thereof
WO2011125352A1 (en) Information processing system, operation input device, information processing device, information processing method, program and information storage medium
TWI463355B (en) Signal processing apparatus, signal processing method and selecting method of user-interface icon for multi-touch interface
JP2009151718A (en) Information processing device and display control method
TWI490771B (en) Programmable display unit and screen operating and processing program thereof
US9189154B2 (en) Information processing apparatus, information processing method, and program
JP2010086064A (en) Information processor, character input method, and program
US20140015785A1 (en) Electronic device
JP2012018660A (en) Operating module of hybrid touch panel and method for operating the same
JP2012079279A (en) Information processing apparatus, information processing method and program
KR20160053547A (en) Electronic apparatus and interaction method for the same
TW201331812A (en) Electronic apparatus and method for controlling the same
JP5414134B1 (en) Touch-type input system and input control method
JP5275429B2 (en) Information processing apparatus, program, and pointing method
JP2011159089A (en) Information processor
JP2014176019A (en) Portable information processing device, input method for the same, and computer-executable program
US20150309601A1 (en) Touch input system and input control method
JP2012146324A (en) Information processor
US20150091831A1 (en) Display device and display control method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131111

R150 Certificate of patent or registration of utility model

Ref document number: 5414134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees