JP5414134B1 - タッチ式入力システムおよび入力制御方法 - Google Patents

タッチ式入力システムおよび入力制御方法 Download PDF

Info

Publication number
JP5414134B1
JP5414134B1 JP2013023672A JP2013023672A JP5414134B1 JP 5414134 B1 JP5414134 B1 JP 5414134B1 JP 2013023672 A JP2013023672 A JP 2013023672A JP 2013023672 A JP2013023672 A JP 2013023672A JP 5414134 B1 JP5414134 B1 JP 5414134B1
Authority
JP
Japan
Prior art keywords
touch
touch operation
input
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013023672A
Other languages
English (en)
Other versions
JP2014153951A (ja
Inventor
賢二 泉
祐司 篠村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimane Prefecture
Original Assignee
Shimane Prefecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimane Prefecture filed Critical Shimane Prefecture
Priority to JP2013023672A priority Critical patent/JP5414134B1/ja
Application granted granted Critical
Publication of JP5414134B1 publication Critical patent/JP5414134B1/ja
Publication of JP2014153951A publication Critical patent/JP2014153951A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザの決定指示に基づいて適切なタッチ操作を確実に行えるタッチ式入力システムおよび入力制御方法を提供すること。
【解決手段】タッチ式入力システム1は、表示部103と、センサ31を有し、タッチ操作を受け入れる少なくとも1つの操作入力部3と、センサ31からの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を表示部103に表示させる表示制御部102と、第1のタッチ操作が検出されている状態で、第1のタッチ操作に続く第2のタッチ操作が検出された場合には、第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する操作モード判定部104と、操作モードに応じた入力処理を行う入力操作実施部105とを含み、操作モード判定部104は、検出されるタッチ操作を、第1のタッチ操作のグループと前記第2のタッチ操作のグループとに順次、振り分けて判別する。
【選択図】図7

Description

本発明は、タッチ式入力装置および入力制御方法に関し、より詳細には、指で行うタッチ操作を行うためのタッチ式入力システムおよび入力制御方法に関する。
一般に、スマートフォンには、ユーザによるタッチ操作を実現するためにタッチパネルが備えられ、タッチパネルから指が離れた時点で、クリック操作やダブルクリック操作が判定されるものが多い。タッチパネルを備える装置として、例えば特許文献1の入力装置が開示されている。
特開2012−173749号公報
しかしながら、タッチパネルからタッチ操作が行われている指が離された時点で、クリック操作またはダブルクリック操作が判定されると、指が誤って離れることもあり得ることから、状況次第では誤って操作内容が判定される場合もあり得る。
また、特許文献1の入力装置では、タッチパネルが表示部と一体に構成されているので、常に表示部と一体で使用しなければならないという問題があった。
本発明は上述した観点に鑑みてなされたもので、表示機能を有さないタッチセンサを用いてマルチタッチ操作を可能にするとともに、ユーザの決定指示に基づいて適切なタッチ操作を可能にするタッチ式入力システムおよび入力制御方法を提供することを目的とする。
上記目的を達成するためのタッチ式入力システムは、表示領域を備える表示部と、操作面に対するタッチ操作を検出するセンサを有する少なくとも1つの操作入力部と、前記センサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を、前記操作面に予め対応付けられる前記表示部の前記表示領域に表示させる表示制御部と、前記第1のタッチ操作が検出されている状態で、前記操作入力部の前記センサからの信号に基づいて前記第1のタッチ操作に続く第2のタッチ操作が検出された場合には、複数の操作モードの中から、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作に対応する操作モードを判定する操作モード判定部と、前記判定された操作モードに基づいて、前記標示に対するユーザの決定操作を行うための操作処理を行う入力操作実施部とを含み、前記操作モード判定部は、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する。
ここで、前記操作モード判定部は、前記第1のタッチ操作と前記第2のタッチ操作との対応関係に基づいて前記操作モードを判定するようにしてもよい。
前記操作モードは、クリック操作、ダブルクリック操作、拡大縮小操作、ドラッグ操作、フリップ操作、スクロール操作、スワイプ操作、または回転操作の少なくとも1つを含むようにしてもよい。
前記操作入力部が2つの操作入力部を有する場合、前記各操作入力部に予め対応付けられている前記表示部の右側または左側の表示領域は、最初にタッチが行われた順番で、前記ユーザの選択操作を行うための選択画面領域として選択画面領域に設定するようにしてもよい。
上記目的を達成するためのコンピュータが行う入力制御方法は、操作面に対するタッチ操作を検出するセンサを有する操作入力部の前記センサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を、前記操作面に予め対応付けられる表示部の表示領域に表示させるステップと、前記第1のタッチ操作が検出されている状態で、前記操作入力部の前記センサからの信号に基づいて前記第1のタッチ操作に続く第2のタッチ操作が検出した場合には、複数の操作モードの中から、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作に対応する操作モードを判定するステップと、前記操作モードに基づいて、前記標示に対するユーザの決定操作を行うための操作処理を行うステップとを含み、前記判定するステップは、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する。
さらに、上記目的を達成するためのプログラムは、上記入力制御方法をコンピュータに実行させるためのものである。
本発明によれば、表示機能を有さないタッチセンサを用いてマルチタッチ操作を可能にするとともに、ユーザの決定指示に基づいて適切なタッチ操作を確実に行えるようにすることができる。
第1実施形態に係るタッチ式入力システムのハードウエア構成の一例を示す図である。 操作入力部の外観の一例を示す図である。 操作入力部の使用態様の例を示す図である。 第1のタッチ操作、第2のタッチ操作および操作イメージの一例を示すタイミングチャートである。 操作モードの例を示す図である。 タッチ操作の例を示す図である。 第1実施形態に係るタッチ式入力システムの機能構成の一例を示す図である。 第1実施形態におけるタッチ式入力システムの全体動作例の概略を示すフローチャートである。 第1実施形態の入力処理を詳細に説明するためのフローチャートである。 ユーザが片手でタッチ操作する場合の使用態様を示す図である。 変形例2のタッチ式入力システムにおいて、第1の操作入力部の操作領域と表示部の表示領域との対応関係を説明するための図である。 変形例2のタッチ式入力システムにおいて、第2の操作入力部の操作領域と表示部の表示領域との対応関係を説明するための図である。 変形例3のタッチ式入力システムで実現される2つの操作入力部の操作領域と表示部の表示領域との対応関係を説明するための図である。 変形例4のタッチ式入力システムにおいて、表示装置に表示されるキーボード画面に対してタッチ操作が行えるようにしたタッチ式入力システムの使用態様を示す図である。 ユーザがソファーに座って操作入力部を使用する態様を説明するための図である。 操作入力部の使用態様を説明するための図である。
<第1実施形態>
以下、本発明の第1実施形態であるタッチ式入力システムについて説明する。このタッチ式入力システム(以下、入力システムという。)1は、指で行われるタッチ操作を受け付けるものである。
[入力システム1の構成]
図1は、本発明の一実施形態に係る入力システム1のハードウエア構成の一例を示す図である。図1に示すように、入力システム1は、本体部2と操作入力部3とを備える。本体部2は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、スピーカ24と、表示装置25と、インターフェース26とを含む。
CPU21は、各構成要素とバスで接続されて制御信号やデータの転送処理を行うとともに、入力システム1全体の動作を実現するための各種のプログラムの実行、演算処理等を行う。
ROM22には、入力システム1全体の動作に必要なプログラムやデータが記録される。このプログラムはDVD−ROM等の記録媒体に格納されており、RAM23に読み出されてCPU21による実行が開始され、本実施形態の入力システム1が実現される。
RAM23には、データやプログラムが一時的に保持される。
スピーカ24は、CPU21によって生成された効果音等の音声データに対応した音声を出力する。
表示装置25は、例えば、液晶ディスプレイ、EL(Electro-Luminescence)などのフラットパネル表示器とすることができる。
インターフェース26と接続される操作入力部3は、情報入力時にユーザによって行われるタッチ操作を検出するセンサを備え、そのセンサ出力がインターフェース26を介してCPU21へ伝送されて処理される。この実施形態では、インターフェース26と操作入力部3とは無線で接続される構成とするが、有線の構成も採り得る。この実施形態では、ユーザは、操作入力部3上で指を当てて表示装置25の表示画面上の対応するカーソル等の標示を動かすことにより、本体部2の操作を行うが、この操作が可能であれば、操作入力部3の構成としていかなる方式も採り得る。
操作入力部3は、例えば、タッチパネルなどを含む。操作入力部3に備えられるセンサは、例えば、ユーザによる操作入力部3に対する接触を検出する圧力センサである。また、本実施形態のセンサは、例えばマルチタッチセンサであり、トラックパッドのように別途、ボタン等のハードウエア構造を備える必要がない。
上述の標示として、アイコン、ポインタ、カーソルなどを採用することが考えられる。
図2は、操作入力部3の外観の一例を示す図であって、(a)は操作入力部3の上面図、(b)は操作入力部3の側面図を示している。図2(a)に示す操作入力部3は、上述するセンサが搭載された操作面31と、外枠32とを含んで構成されており、操作面31に指が触れると、センサによりその接触が検出される。
メニューボタン33は、例えば、ソフトウエアキーボードによる入力操作、またはカーソル等の標示による入力操作に切り替える役割を果たす。なお、入力操作の切り替えは、予め設定されているタッチ操作(例えば、5本指でのタッチなど)で行うようにしてもよい。
操作入力部3は、図2(b)に示すように、ユーザからみて手前が低く奥が高くなるように傾斜が設けられ、操作がしやすいように構成されている。
[タッチ操作の概略]
次に、入力システム1によって実現されるタッチ操作の概略について、図3、図4および図5を参照して説明する。図3は、操作入力部3を介したタッチ操作の使用態様の一例を示す図であって、(a)は両手110,120の親指のみでタッチ操作する場合、(b)は右手110の人差し指と左手120の人差し指および親指とでタッチ操作する場合を示している。図4は、第1のタッチ操作、第2のタッチ操作および操作イメージの一例を示すタイミングチャートである。図5は、操作モードの例を示す図である。
例えば図3(a)および図3(b)に示すように、ユーザが操作入力部3に対して両手110,120の1本指または2本指でタッチすることによって、操作入力部3のセンサは、ユーザのタッチ操作を検出する。例えば、図4(a)〜図4(e)の例では、ユーザが右手の2本指(人差し指および親指)でタッチした後に、左手の1本指(親指)でタッチ(第2のタッチ操作)するとともに、右手の2本指を広げるピンチアウト動作(第1のタッチ操作)をすることによって、ピンチアウト動作に応じた画面の拡大動作(図4(c))という操作モードが確定されたことになり、表示装置25の表示画面が拡大される例を示している。この場合、図4(d)および(e)の操作イメージによれば、CPU21は、それぞれの標示A1,A2を、各指が操作入力部3に触れた位置(d1→d3,d2→d4)に対応する、表示装置25の表示領域251内の位置に表示する。
なお、この実施形態では、標示A1,A2は、第1のタッチ操作に応じて表示されることになるが、第2のタッチ操作の実行時に、一括してすべての標示A1,A2を消すようにしてもよい。
入力システム1では、CPU21は、第1のタッチ操作および第2のタッチ操作からなる一連のタッチ操作の操作モードを、例えば図5に示す操作モードパターンを参照することによって判定する。このパターンはROM22に記録されており、入力システム1のタップ操作の実行時には、ROM22から読み出される。
図5に一例を示すように、操作モードは、第1のタッチ操作および第2のタッチ操作の各操作内容と予め対応付けられている。ここで、第1のタッチ操作と第2のタッチ操作とは異なる指で行われ、第2のタッチ操作は第1のタッチ操作の実施時に行われる。
図5では、例えば、第1のタッチ操作が1本指で行われる「シングルタッチ」、および第2のタッチ操作が「シングルタップ」の場合は、操作モードが「クリック操作」として設定され、第1のタッチ操作が「シングルタッチ」、および第2のタッチ操作が「ダブルタップ」の場合は、操作モードが「ダブルクリック操作」として設定されている。タップ操作は、1本または複数の指で行ってもよい。
また、図5では、第1のタッチ操作が2本指で行われるマルチタッチでの「ピンチアウト動作またはピンチイン動作」、および第2のタッチ操作が「シングルタッチ」の場合は、操作モードが「画面の拡大・縮小操作」として設定されている(拡大操作は図4を参照)。第1のタッチ操作が「シングルタッチ」、および第2のタッチ操作が指(本数を問わない。)を移動させる「スライド」の場合は、操作モードが「ドラッグ操作」として設定されている。第1のタッチ操作が「シングルタッチ」、および第2のタッチ操作が指をタッチした後で移動させながらすぐに離す「フリップ」の場合は、操作モードが「フリップ操作」として設定されている。
なお、第1のタッチ操作と第2のタッチ操作との対応関係は、図5で例示したものに限られない。その対応関係は、様々な設定が考えられる。例えば、「画面の拡大・縮小操作」の操作モードの一例として、第1のタッチ操作(シングルタッチ)と第2のタッチ操作(2本指で行うピンチアウト動作またはピンチイン動作)との対応関係を設定してもよい。
また、操作モードが「ドラッグ操作」の場合として、第1のタッチ操作(シングルタッチ)と、第2のタッチ操作(シングルタッチまたはマルチタッチ)の後に、第1のタッチ操作で使用したシングルタッチの指でドラッグする対応関係を設定してもよい。
さらに、操作モードが「フリップ操作」の場合として、第1のタッチ操作(シングルタッチ)と、第2のタッチ操作(シングルタッチまたはマルチタッチ)の後に、第1のタッチ操作で使用したシングルタッチの指でフリップする対応関係を設定してもよい。
図6は、基本的なタッチ操作の動作例を示す図であって、(a)は操作入力部3に指で行うタッチ動作、(b)は2本指を任意の方向に移動させるスライド動作、(c)は3本指を左方向に移動させるスライド動作、(d)は2本指を時計回りに動かす回転動作を例示している。
図6(a)〜(d)では、右手110の指で第1のタッチ操作、左手120の親指で第2のタッチ操作が行われている場合を例としている。
ここで、操作入力部3の操作面にはセンサが搭載されているので、操作入力部3の操作面上に指がタッチされると、そのセンサがそのタッチ操作を検出する。
図7は、図1に示したハードウエア構成上で実現される入力システム1の本体部2の機能構成の一例を示す図である。
図7に示すように、入力システム1の本体部2は、記憶部101、表示制御部102、表示部103、操作モード判定部104および入力操作実施部105を備える。
記憶部101は、図1におけるROM22およびRAM23によって構成され、操作モードパターン(図5を参照)などのデータを記憶する。
表示制御部102は、CPU21によって機能する。表示制御部102は、操作入力部3のセンサ31からの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示(カーソル等)を表示部103に表示させる。
表示部103は、図1における表示装置25によって構成され、標示をユーザに対して視認可能にするために設けられる。
操作モード判定部104は、上述した第1のタッチ操作が検出されている状態で、第1のタッチ操作に続く第2のタッチ操作が検出された場合には、第1のタッチ操作および第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する。操作モードとしては、例えば、クリック操作、ダブルクリック操作、画面の拡大・縮小操作、ドラッグ操作、フリップ操作、スクロール操作、スワイプ操作、画面の回転操作等がある。操作モードを判定する処理については、後に詳細に説明する。
入力操作実施部105は、操作モード判定部104によって判定された操作モードに応じた入力操作を行う。なお、操作モード判定部104と入力操作実施部105とはともに、CPU21によって機能する。
[入力システム1の動作]
以下、この入力システム1の動作について、図1、図4、図5、図8および図9を参照して説明する。図8は、入力システム1の全体動作例の概略を示すフローチャートである。
図8において先ず、CPU21は、操作入力部3を介した第1のタッチ操作に基づいて標示としての例えばカーソルを表示装置25の表示領域251に表示する(ステップS101)。図4の例では、CPU21は、第1のタッチ操作でタッチされた2本指の位置d1,d2に対応付けられた表示領域251上の位置にカーソルA1,A2を表示する。この場合、CPU21は、操作入力部3のセンサ31からの信号をインターフェース26を介して受信し、この信号に基づいて2本指(操作入力部3に触れる2本指の接触点)の各位置(d1→d3,d2→d4)を判断する。センサ31からの信号には、操作入力部3上を基準にしたタッチ操作における接触点の位置を示す位置情報が含まれており、CPU21は、センサ31からの信号に基づいて検出される接触点の移動に対応して、対応する表示装置25の表示領域上の位置A1,A2をそれぞれ特定することになる。
ここで、ステップS101では、CPU21は、表示制御部102として機能する。
次にCPU21は、ステップS101における第1のタッチ操作を検出している状態で、センサ31からの信号に基づいて第1のタッチ操作に続く第2のタッチ操作を検出した場合(ステップS102のYES)には、第1のタッチ操作および第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する(ステップS103)。この場合、CPU21は、第2のタッチ操作を検出した時点で、例えば図5に示す操作モードパターンを参照し、第1のタッチ操作および第2のタッチ操作からなる一連のタッチ操作の操作モードを判定する。換言すると、CPU21は、第2のタッチ操作を検出した時点で、操作モードを確定する。
例えば、図4の例では、CPU21は、センサ31からの信号に基づいて、第1のタッチ操作(2本指でタッチした後にピンチアウト動作)と、第2のタッチ操作(シングルタッチ)とを特定する。そして、CPU21は、2つのタッチ操作の対応関係から、操作モードパターン(図5)を参照して「画面の拡大操作」として判定する。
ステップS102,S103では、CPU21は、操作モード判定部104として機能する。
なお、操作モードを確定する時点は、第2のタッチ操作を検出してから所定の時間が経過した後であってもよい。
図8において、第2のタッチ操作が検出されない場合は(ステップS102のNo)、CPU21は、第1のタッチ操作に基づいたカーソルの表示処理(ステップS101)を行う。
さらにCPU21は、操作モードに応じた入力操作を実施する(ステップS104)。図4の例では、CPU21は、操作モードを画面の拡大操作と判定するので、ピンチイン動作に従って、画面の拡大操作を実施する。
ここで、ステップS104では、CPU21は、入力操作実施部105として機能する。
次に、図9を参照して、入力システム1で実行される入力処理について、より具体的に説明する。図9は、本実施形態の入力処理を詳細に説明するためのフローチャートである。
なお、図9のS201,S202,S204,S206〜S208は操作モード判定部104、S203,S205は表示制御部102、S209は入力操作実施部105にそれぞれ対応する。
図9では、S201〜S203と、S204〜S209とをそれぞれ別々のグループの処理としてSTEP1,STEP2が表記されている場合を例としている。
図9において先ず、CPU21は、センサ31からの信号に基づいて、最初に接触する指を検知し(ステップS201)、検知した指をSTEP1(第1のタッチ操作のグループ)として分類する(ステップS202)。この場合、複数本の指が検出された場合には、それら複数本の指で行われるタッチ操作がすべて第1のタッチ操作のグループとして分類されることになる。
次に、CPU21は、STEP1に分類された指のタッチ操作に基づいて標示を表示装置25に表示する(ステップS203)。この表示例については、図4(d)に示した標示A1,A2のとおりである。
上述の標示の表示後、CPU21がセンサ31からの信号に基づいて接触する指を検出した場合、CPU21は、その検出した指をSTEP2(第2のタッチ操作のグループ)として分類する(ステップS204)。つまり、CPU21は、タッチ操作が検出された時間差を基に、タッチ操作を、第1のタッチ操作または第2のタッチ操作のいずれかのグループに分けて判別する。CPU21は、センサ31からの検知信号の受信時間からタッチ操作の時間差を判断することができる。この場合、第1のタッチ操作と第2のタッチ操作とを分類する時間差が予め決まっている。
ここで、ステップS204において、検知された指によるタッチ操作が標示の表示を対象とする操作であるならば、CPU21は、このSTEP2に分類されたタッチ操作に基づいて標示を表示装置25に表示することになる(ステップS205)。なお、STEP2の標示の表示が不要な場合には、S205のような処理は必要ない。
CPU21は、ステップS203で指の接触を検出した結果、ユーザにはタッチ操作の内容を確定させてもよいという「決定」動作の意思があると判定し(ステップS206)、STEP1およびSTEP2に分類された指の動作による「決定」動作の種類を判別する(ステップS207)。ステップS207を実行するときには、図5で例示した操作モードパターンから、対応する操作モードの抽出を行うことになる。
次に、CPU21は、STEP1の標示に対する上記「決定」動作の割り当てを行い(ステップS208)、STEP1の標示の変化処理を行う(ステップS209)。ここで、ステップS208において、例えば、画面の拡大動作を示す「決定」動作が割り当てられたならば、CPU21は、その拡大動作のために行われたSTEP1の指の動きに従って、STEP1の標示を移動させる(図4(e)の標示A1,A2を参照)。
以上説明したように、本実施形態の入力システム1によれば、ユーザが第1のタッチ操作と第2のタッチ操作とを実施することにより、タッチの時間差で別々の操作と判別されたそれらの一連のタッチ操作に対応する操作モードを判定して、その操作モードに応じた入力操作を実施する。ここで、操作モードが判定されるためには、ユーザは、第1のタッチ操作と第2のタッチ操作とを行わなければならない。すなわち、ユーザは、第1のタッチ操作の指とは異なる指で第2のタッチ操作を行わなければならない。このことは、第2のタッチ操作が行われる度に、入力操作に対するユーザの実施指示がなされているに等しく、これにより、正しい入力操作が実施される。
また、入力操作部3は、表示装置25と別個独立に構成されている。つまり、この入力システム1によれば、表示機能を有さないタッチセンサを用いてマルチタッチ操作を行うことができる。
ここで、操作入力部3には、操作キーや操作ボタン等の操作部が存在しない。この点で、この入力システム1によれば、製造コストが削減される。また、ユーザは、操作入力部3の操作キーや操作ボタン等を用いずに、指を自由に動かして操作することができることになるので、片手または両手の指の動きに対する自由度が高まる。つまり、操作がより直感的になるという側面も備える。
次に、本実施形態の入力システム1の変形例について説明する。
(変形例1)
以上では、図4を参照して、両手の指のタッチ操作に対応して入力操作が行われる場合について説明した。これとは別に、両手ではなく、片手でタッチ操作するようにしてもよい。
図10は、ユーザが片手でタッチ操作する場合の使用態様を示す図である。図10に示す例では、右手の人差し指で第1のタッチ操作が行われ、右手の親指で第2のタッチ操作が行われる。これは、CPU21が、図8のフローチャートのステップS101〜S104の処理、および、図9のフローチャートのステップS201〜S209の処理を行うようにすることで実施可能である。
このようなタッチ操作を行うことで、片手での一連のタッチ操作を行うことを可能にする。
(変形例2)
以上では、2つの操作入力部の使用態様について言及しなかったが、2つの操作入力部を使用するようにしてもよい。以下、図11,図12を参照して、操作入力部3A,3Bの機能について説明する。図11は、操作入力部3Aの操作領域311と表示装置25の表示領域241,242との対応関係を説明するための図である。図12は、操作入力部3Bの操作領域321と表示装置25の表示領域243,244との対応関係を説明するための図である。
図11の例では、操作入力部3Aの操作領域(操作面)311は、表示装置25の全表示領域のうちの第1表示領域241および第2表示領域242(総称して、「右側の表示領域」ともいう。)に対応付けられている。この対応付けは、例えばそれぞれの領域の座標データを変換するためのマッピングテーブルに従って行われる。なお、第1表示領域241は、後述する第2表示領域244の一部と共通している。
この入力システム1では、第1表示領域241と第2表示領域242との総領域は、表示領域の中央(図中、第1表示領域241と第2表示領域242との境界線を示す。)で均等に2分割した領域よりも大きくなるように設定される。
図12の例では、操作入力部3Bの操作領域(操作面)321は、表示装置25の全表示領域のうちの第1表示領域243および第2表示領域244(総称して、「左側の表示領域」ともいう。)に対応付けられている。この対応付けは、例えばそれぞれの領域の座標データを変換するためのマッピングテーブルに従って行われる。なお、第1表示領域243は、前述の第2表示領域242の一部と共通している。
この入力システム1では、第1表示領域243と第2表示領域244との総領域は、表示領域の中央(図中、第1表示領域243と第2表示領域244との境界線を示す。)で均等に2分割した領域よりも大きくなるように設定される。
本変形例の入力システムによれば、所定の表示領域に対して操作を行うための2つの操作入力部3A,3Bを備えているため、対応する表示領域に対してタッチ操作を行うための操作入力部が使用される。この場合、各操作入力部3A,3Bに予め対応付けられている表示装置25の表示領域241〜244は、最初にタッチが行われた順番で、標示の選択操作を行うための選択画面領域に設定される。この点で、ユーザは、左右いずれの手でも選択操作が行えることができる。例えば、両利きのユーザにも対応することができる。
例えば、操作入力部3Aで最初にタッチされた場合、CPU21は、第1表示領域241,242を選択画面領域として設定することになる。
(変形例3)
変形例3の入力システムにおいて、変形例2の2つの入力操作部3A,3Bを、結合して使用してもよい。
図12は、2つの入力操作部3A,3Bを結合した使用例を示す図である。図12の例では、入力操作部3A,3Bが結合され、表示装置25の表示領域245に対して各入力操作部3A,3Bの操作領域が対応付けられる。
なお、この変形例の入力システムでは、入力操作部3A,3Bの各操作領域は、表示領域と一対一の対応関係を有するように対応付けられる。
(変形例4)
変形例4の入力システムは、表示画面300上の所定エリアにキーボード画面を設定し、そのキーボード画面に対してタッチ操作が行えるようにするため、各キーボード画面の領域と、操作入力部3、または、各操作入力部3A,3Bの操作領域とを対応付けていることを特徴としている。
例えば図13は、表示装置に表示されるキーボード画面に対してタッチ操作が行えるようにした入力システムの使用態様を例示している。図13では、2つのキーボード画面が表示画面300内に配置され、各キーボード画面に対して、例えば操作入力部3に指をタッチして、キーボード画面内のデータを選択可能に構成されている。
また、操作入力部3A,3Bの例でも、各操作入力部3A,3Bに指をタッチして、対応付けられたキーボード画面内のデータを選択可能に構成されている。これにより、ユーザは、操作入力部を介して、タッチ操作を行うことができるようになる。
入力システムは種々の状況で使用することが考えられる。例えば図14は、ユーザがソファーに座って操作入力部3を使用する態様を例示している。また、例えば図15は、操作入力部3の他の使用態様が例示している。
[その他の変更例]
以上では、図4を参照して、2本指のタッチ操作に対応する2つの標示A1,A2を表示する場合を例にとって説明したが、これに限られない。1本指のタッチ操作に対応する単一の標示、または、3本指以上のタッチ操作に対応する3つ以上の標示を用いた入力システムの場合であっても、同様の作用および効果を奏する。
1 タッチ式入力システム
2 本体部
3,3A,3B 操作入力部
21 CPU
25 表示装置
31 センサ
102 表示制御部
103 表示部
104 操作モード判定部
105 入力操作実施部
A1,A2 標示

Claims (6)

  1. 表示領域を備える表示部と、
    操作面に対するタッチ操作を検出するセンサを有する少なくとも1つの操作入力部と、
    前記センサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、選択対象としての標示を、前記操作面に予め対応付けられる前記表示部の前記表示領域に表示させる表示制御部と、
    前記第1のタッチ操作が検出されている状態で、前記操作入力部の前記センサからの信号に基づいて前記第1のタッチ操作に続く第2のタッチ操作が検出された場合には、複数の操作モードの中から、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作に対応する操作モードを判定する操作モード判定部と、
    前記判定された操作モードに基づいて、前記標示に対するユーザの決定操作を行うための操作処理を行う入力操作実施部と、
    を含み、
    前記操作モード判定部は、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する
    ことを特徴とするタッチ式入力システム。
  2. 前記操作モード判定部は、前記第1のタッチ操作と前記第2のタッチ操作との対応関係に基づいて前記操作モードを判定することを特徴とする請求項1に記載のタッチ式入力システム。
  3. 前記操作モードは、クリック操作、ダブルクリック操作、拡大縮小操作、ドラッグ操作、フリップ操作、スクロール操作、スワイプ操作、または回転操作の少なくとも1つを含むことを特徴とする請求項1または2に記載のタッチ式入力システム。
  4. 前記操作入力部が2つの操作入力部を有する場合、前記各操作入力部に予め対応付けられている前記表示部の右側または左側の表示領域は、最初にタッチが行われた順番で、前記ユーザの選択操作を行うための選択画面領域として設定されることを特徴とする請求項1ないし3のいずれか1項に記載のタッチ式入力システム。
  5. コンピュータが行う入力制御方法であって、
    操作面に対するタッチ操作を検出するセンサを有する操作入力部の前記センサからの信号に基づいて最初に検出される第1のタッチ操作に基づいて、
    選択対象としての標示を、前記操作面に予め対応付けられる表示部の表示領域に表示させるステップと、
    前記第1のタッチ操作が検出されている状態で、前記操作入力部の前記センサからの信号に基づいて前記第1のタッチ操作に続く第2のタッチ操作が検出した場合には、複数の操作モードの中から、前記第1のタッチ操作および前記第2のタッチ操作からなる一連のタッチ操作に対応する操作モードを判定するステップと、
    前記操作モードに基づいて、前記標示に対するユーザの決定操作を行うための操作処理を行うステップと、
    を含み、
    前記判定するステップは、前記タッチ操作が検出された時間差を基に、前記タッチ操作を、前記第1のタッチ操作または前記第2のタッチ操作のいずれかのグループに分けて判別する
    ことを特徴とする入力制御方法。
  6. 請求項5に記載の入力制御方法をコンピュータに実行させるためのプログラム。
JP2013023672A 2013-02-08 2013-02-08 タッチ式入力システムおよび入力制御方法 Expired - Fee Related JP5414134B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013023672A JP5414134B1 (ja) 2013-02-08 2013-02-08 タッチ式入力システムおよび入力制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013023672A JP5414134B1 (ja) 2013-02-08 2013-02-08 タッチ式入力システムおよび入力制御方法

Publications (2)

Publication Number Publication Date
JP5414134B1 true JP5414134B1 (ja) 2014-02-12
JP2014153951A JP2014153951A (ja) 2014-08-25

Family

ID=50202762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013023672A Expired - Fee Related JP5414134B1 (ja) 2013-02-08 2013-02-08 タッチ式入力システムおよび入力制御方法

Country Status (1)

Country Link
JP (1) JP5414134B1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6812639B2 (ja) 2016-02-03 2021-01-13 セイコーエプソン株式会社 電子機器、電子機器の制御プログラム
JP6201004B1 (ja) * 2016-06-01 2017-09-20 株式会社ゲオインタラクティブ ユーザインターフェースプログラム
EP3579094B1 (en) * 2017-02-06 2023-06-07 Kyocera Document Solutions Inc. Display device
JP2020061179A (ja) * 2019-12-27 2020-04-16 シャープ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008084119A (ja) * 2006-09-28 2008-04-10 Kyocera Corp 携帯端末及びその制御方法
JP2011054213A (ja) * 2010-12-14 2011-03-17 Toshiba Corp 情報処理装置および制御方法
JP2011203956A (ja) * 2010-03-25 2011-10-13 Nec Casio Mobile Communications Ltd 端末装置及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008084119A (ja) * 2006-09-28 2008-04-10 Kyocera Corp 携帯端末及びその制御方法
JP2011203956A (ja) * 2010-03-25 2011-10-13 Nec Casio Mobile Communications Ltd 端末装置及びプログラム
JP2011054213A (ja) * 2010-12-14 2011-03-17 Toshiba Corp 情報処理装置および制御方法

Also Published As

Publication number Publication date
JP2014153951A (ja) 2014-08-25

Similar Documents

Publication Publication Date Title
US10949082B2 (en) Processing capacitive touch gestures implemented on an electronic device
US9851809B2 (en) User interface control using a keyboard
JP5691464B2 (ja) 情報処理装置
EP2256614B1 (en) Display control apparatus, display control method, and computer program
EP1774429B1 (en) Gestures for touch sensitive input devices
JP5204286B2 (ja) 電子機器および入力方法
JP5730667B2 (ja) デュアルスクリーン上のユーザジェスチャのための方法及びデュアルスクリーンデバイス
JP5529616B2 (ja) 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP5718042B2 (ja) タッチ入力処理装置、情報処理装置およびタッチ入力制御方法
WO2011125352A1 (ja) 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体
US20090164930A1 (en) Electronic device capable of transferring object between two display units and controlling method thereof
JP5664147B2 (ja) 情報処理装置、情報処理方法、及びプログラム
TWI463355B (zh) 多點觸控介面之訊號處理裝置、訊號處理方法及使用者介面圖像選取方法
JP2010086064A (ja) 情報処理装置、文字入力方法及びプログラム
JP2012018660A (ja) ハイブリッドタッチパネルの作動モジュール及びその作動方法
US20110302534A1 (en) Information processing apparatus, information processing method, and program
KR20160053547A (ko) 전자장치 및 전자장치의 인터렉션 방법
TW201331812A (zh) 電子裝置及控制電子裝置的方法
JP5414134B1 (ja) タッチ式入力システムおよび入力制御方法
JP5275429B2 (ja) 情報処理装置、プログラムおよびポインティング方法
JP2011159089A (ja) 情報処理装置
US20150309601A1 (en) Touch input system and input control method
JP6482312B2 (ja) タッチ操作入力装置
JP5330175B2 (ja) タッチパッド、情報処理端末、タッチパッドの制御方法、及びプログラム
JP2009093260A (ja) 座標入力装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131111

R150 Certificate of patent or registration of utility model

Ref document number: 5414134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees