JP2017058810A - 端末装置、プログラム及び方法 - Google Patents

端末装置、プログラム及び方法 Download PDF

Info

Publication number
JP2017058810A
JP2017058810A JP2015181528A JP2015181528A JP2017058810A JP 2017058810 A JP2017058810 A JP 2017058810A JP 2015181528 A JP2015181528 A JP 2015181528A JP 2015181528 A JP2015181528 A JP 2015181528A JP 2017058810 A JP2017058810 A JP 2017058810A
Authority
JP
Japan
Prior art keywords
finger
range
user
terminal device
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015181528A
Other languages
English (en)
Other versions
JP6661928B2 (ja
Inventor
難波 睦
Mutsumi Nanba
睦 難波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015181528A priority Critical patent/JP6661928B2/ja
Priority to US15/260,172 priority patent/US10108225B2/en
Publication of JP2017058810A publication Critical patent/JP2017058810A/ja
Application granted granted Critical
Publication of JP6661928B2 publication Critical patent/JP6661928B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】より快適な画面操作を実現すること。【解決手段】情報を表示する表示部と、表示部の裏側に設けられた操作領域の一部又は全部であり、ユーザにより操作される範囲である操作範囲と、操作範囲になされた操作から得られた信号を、表示部の範囲を操作可能な信号に変換する変換部と、を有し、操作範囲が表示部の範囲よりも狭い端末装置が開示される。【選択図】図3

Description

本発明は、端末装置、プログラム及び方法に関する。
画面の表面及び裏面にタッチパネルを設けることで、操作性を向上させた端末が存在する。ユーザは裏面のタッチパネルを操作することにより、端末を把持した状態で画面の操作ができる。
例えば、画面の表示面に加えて画面の裏面にもタッチセンサが設置され、表示面及び裏面のタッチセンサへの入力を組み合わせることで、操作性を向上させた端末が開示されている(例えば、特許文献1)。
しかしながら、従来の技術では、画面操作が煩雑という問題があった。
例えば、画面が比較的大きい端末を操作する際に、大きく腕を動かして操作を行う場合がある。このため、狭い空間で画面を操作する際に肘が壁にあたる場合があった。
そこで、開示の技術では、画面の操作性の向上を実現することを目的とする。
実施形態では、情報を表示する表示部と、前記表示部の裏側に設けられた操作領域の一部又は全部であり、ユーザにより操作される範囲である操作範囲と、前記操作範囲になされた操作から得られた信号を、前記表示部の範囲を操作可能な信号に変換する変換部と、を有し、前記操作範囲が前記表示部の範囲よりも狭い端末装置が開示される。
画面の操作性の向上を実現することができる。
端末装置の表面の外観の例を示す図である。 端末装置の裏面の外観の例を示す図である。 画面、右操作パネル及び左操作パネルとの位置関係の例を示す図である。 端末装置の内部ブロック図の例を示す図である。 裏面入力位置判定部の内部ブロックの例を示す図である。 変換倍率を適用した場合の処理の第1の例である。 変換倍率を適用した場合の処理の第2の例である。 操作の種類と判定要素との関係表を示す図である。 画面の操作を説明するための第1の図である。 画面の操作を説明するための第2の図である。 画面の操作を説明するための第3の図である。 操作判定処理のフローを示す図である。 裏面操作指切替判定の処理のフローを示す図である。 シングルタップタイマーによるイベント判別のフローを示す図である。 操作判定処理のフローとシングルタップタイマーによるイベント判別のフローとの関係を示す図である。 プロセッサによって実行される制御部の構成を示す図である。 操作パネルへなされる操作の例を示す図である。 アプリケーションの操作制御のフローを示す図である。 オブジェクト操作のフローを示す図である。 端末装置の裏面の外観の例を示す図である。 端末装置の内部ブロック図の例を示す図である。 画面、操作パネルとの位置関係の例を示す図である。 裏面入力位置判定部の内部ブロックの例を示す図である。 プロセッサによって実行される制御部の構成を示す図である。 画面と、操作パネルとの位置関係の例を示す図である。
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することによって重複した説明を省く。
(実施形態1)
図1は、端末装置100の表面の外観の例を示す図である。端末装置100は、表面に画面110を備える。画面110は、ユーザに画像等を表示する表示層と、ユーザの指による操作を受け付ける操作層とを含む。例えば、ユーザは画面110上で操作しない場合、親指を画面110の両側に添え、他の4本の指を画面110の裏側に当接させて端末装置100を把持する。なお、画面110は、操作層を含まなくてもよい。
図2は、端末装置100の裏面の外観の例を示す図である。端末装置100は、端末装置100を把持したユーザ側から見て裏面の右側に右操作パネル120aと、裏面の左側に左操作パネル120bとを備える。例えば、右操作パネル120aは、ユーザが端末装置100を把持した場合に、右手の4本の指が当接する位置に設けられる。同様に、左操作パネル120bは、ユーザが端末装置100を把持した場合に、左手の4本の指が当接する位置に設けられる。
また、右操作パネル120a及び左操作パネル120bの範囲は、平均的な手の大きさで操作が可能な範囲(以下、操作指操作範囲)に基づいて設定してもよい。
なお、図2の右操作パネル120a及び左操作パネル120bの設置位置は、一例であり、図2の例に限定されない。
図3は、画面110、右操作パネル120a及び左操作パネル120bとの位置関係の例を示す図である。図3(α)は、左操作指操作範囲の例を示す図である。図3(α)の上側及び下側のいずれの図も、端末装置100の側面図であり、上方が端末装置100の裏面を示し、下方が端末装置100の表面を示す。また、図3(β)は、端末装置100の下面図(裏面)を示す。また、図3(γ)は、端末装置100の平面図(表面)を示す。なお、図3(β)は、図3(γ)の端末装置100をユーザから見て手前にひっくり返した場合の図である。すなわち、図3(γ)の上側を端末装置100の上部、図3(γ)の下側を端末装置100の下部としたとき、図3(β)の上側が端末装置100の下部、図3(β)の下側が端末装置100の上部となる。後述する図20及び図23においても同様である。
図3(α)の上側は、ユーザが端末装置100を把持した状態で左指を最大限に伸ばした場合を示す。また、図3(α)の下側は、ユーザが端末装置100を把持した状態で左指を最大限に曲げた場合を示す。図3(α)の上側で指が当接する位置と、図3(α)の下側で指が当接する位置とを含む範囲が、左操作指操作範囲となる。なお、左操作指操作範囲の例示は省略する。
図3(β)には、右操作パネル120aと左操作パネル120bとが示される。右操作パネル120aは、右操作指操作範囲に対応する範囲に設置され、左操作パネル120bは、左操作指操作範囲に対応する範囲に設置される。
例えば、右操作パネル120a及び左操作パネル120bは、滑らかな平面で形成されている。一方、端末装置100の裏面の右操作パネル120a及び左操作パネル120b以外の領域は、凹凸を有する平面となっている。これにより、ユーザは右操作パネル120a及び左操作パネル120bを目視で確認しなくても、指の感触で右操作パネル120a及び左操作パネル120bの位置を把握することが可能となる。
図3(γ)には、画面110が示される。画面110を2分し、画面110の右側を画面110rとし、画面110の左側を画面110lとする。ユーザの方から見て右操作パネル120aにおいて操作可能な画面110の領域が画面110rであり、左操作パネル120bにおいて操作可能な画面110の領域が画面110lである。
また、ユーザが端末装置100を両手で把持した場合に、把持した方向に平行な画面110rの幅の長さを左側カーソル移動範囲という。また、把持した方向に平行な画面110lの幅の長さを右側カーソル移動範囲という。例えば、ユーザが指で左操作指操作範囲の外側の境界から内側の境界までなぞった場合、端末装置100は、左側カーソル移動範囲の左端(画面110の左端)から右端(画面110の中央)までカーソルを移動させる。なお、右操作パネル120a及び左操作パネル120bを操作することによるカーソルの移動に関する詳細は、後述する。
図4は、端末装置100の内部ブロック図の例を示す図である。端末装置100は、プロセッサ10と、RAM(Random Access Memory)20と、ROM(Read Only Memory)30と、HDD(Hard Disk)40と、表示層110aと、操作層110bと、表示制御部111と、右操作パネル120aと、左操作パネル120bと、裏面入力位置判定部121と、操作判定部130とを有する。プロセッサ10と、RAM20と、ROM30と、HDD40と、表示制御部111と、操作判定部130とは、内部バス5によって接続される。
操作層110bは、操作判定部130に接続される。例えば、操作層110bは、ユーザの指による画面110上の操作を検知し、操作情報を信号に変換して操作判定部130に送信する。例えば、操作層110bは、画面110の面に対して垂直な方向の操作(例えば、タップ操作)を検知する。なお、操作層110bは、画面110の面に対して水平な方向の操作(例えば、スライド操作)を検知してもよい。操作判定部130は、操作層110bから送信された信号に基づいて、シングルタップ、ダブルタップ等の主に垂直方向になされる操作を識別する。
右操作パネル120aは、裏面入力位置判定部121に接続される。右操作パネル120aは、ユーザの右指による操作を検知し、操作情報を信号に変換して裏面入力位置判定部121に送信する。例えば、画面110の面に対して水平な方向の操作(例えば、ドラッグ操作等)を主に検知する。
また、左操作パネル120bも右操作パネル120aと同様に裏面入力位置判定部121に接続され、画面110の面に対して水平な方向の操作を検知して信号として裏面入力位置判定部121に送信する。
裏面入力位置判定部121は、右操作パネル120aにおいて、右指が接触した位置の座標と右指が離れた位置の座標とを操作判定部130に通知する。また、裏面入力位置判定部121は、右操作パネル120aにおいて、右指が接触した位置の座標及び右指が離れた位置の座標、及び右指の移動速度等の情報を操作判定部130に通知する。
操作判定部130は、右指が接触した位置の座標及び右指が離れた位置の座標と、右指の移動速度とに基づいて、例えば、スライド操作、フリック操作、ドラッグ操作等のユーザによる操作を識別する。
表示層110aは、表示制御部111と接続される。例えば、プロセッサ10によりHDDに記憶された画像情報の表示が指示された場合に、表示制御部111は、表示層110aに画像情報を表示させる。
プロセッサ10は、端末装置100の全体制御を行うプロセッサである。プロセッサ10は、裏面入力位置判定部121、操作判定部130、表示制御部111等の動作を制御する。プロセッサ10は、HDD40等に記憶されたオペレーティングシステム、アプリケーション、各種サービス等のプログラムを実行し、端末装置100の各種機能を実現する。ROM30には、各種のプログラムやプログラムによって利用されるデータ等が記憶される。RAM20は、プログラムをロードするための記憶領域や、ロードされたプログラムのワーク領域等として用いられる。HDD40には、各種情報及びプログラム等が記憶される。
図5は、裏面入力位置判定部121の内部ブロックの例を示す図である。裏面入力位置判定部121は、裏面右座標変換部121aと、裏面左座標変換部121bとを有する。
裏面右座標変換部121aは、右操作パネル120aにおいて右指が当接した位置の座標(以下、始点の座標という)を取得し、右操作パネル120aから右指が離れた位置の座標(以下、終点の座標という)を取得する。
裏面右座標変換部121aは、以下の数式により変換倍率を算出する。
(数1)
変換倍率n(右側)=右操作指移動範囲/右側カーソル移動範囲
裏面右座標変換部121aは、右操作パネル120aの始点の座標から指の位置が移動した場合に、右操作パネル120a上のX座標の移動距離と、Y座標の移動距離とのそれぞれに変換倍率を乗算し、画面110r上のカーソルの位置を算出する。
なお、裏面左座標変換部121bは、裏面右座標変換部121aと同様にして変換倍率を算出する。
図6は、変換倍率を適用した場合の処理の第1の例である。図6の上部に右操作パネル120a及び左操作パネル120bを示し、図6の下部に画面110を示す。図6の上部及び下部とも、ユーザ側から見て上側が端末装置100の上部、下側が端末装置100の下部となっている。図6のように、左操作パネル120b上の始点の座標(X,Y)から終点の座標(X,Y)まで左指を移動させた場合について説明する。裏面左座標変換部121bは、X座標の移動距離(X−X)と、Y座標の移動距離(Y−Y)とを取得する。左操作パネル120b及び画面110lのスケールは、X軸方向のスケールは異なる(左操作指操作範囲:左側カーソル移動範囲)が、Y軸方向のスケールは同一(1:1)である。裏面左座標変換部121bは、左操作パネル120b上のX座標の移動距離pに変換倍率nを乗算し、画面110l上のX軸方向の移動距離p'を算出する。裏面左座標変換部121bは、X軸方向にp'(=n×p)カーソルを移動させる。また、Y軸方向に、左操作パネル120b上のY座標の移動距離qと同じ距離移動させ、カーソルを終点(X',Y')まで移動させる。
なお、右操作パネル120aが操作された場合も、裏面右座標変換部121aは、左操作パネル120bと同様にカーソルを移動させる。
また、図6では、左操作パネル120b及び画面110lでY軸方向のスケールが同一の例について説明したが、これに限定されず、Y軸方向のスケールが異なっている場合、裏面右座標変換部121aは、X軸方向と同様にして、Y軸方向の変換倍率を算出してもよい。
図7は、変換倍率を適用した場合の処理の第2の例である。図7では、カーソルを画面110rの右端から画面110lの左端まで移動させる場合の操作を示す。図7(a)は、端末装置100の裏面を示し、図7(b)は、端末装置100の表面を示す。図7(a)において右操作パネル120a及び左操作パネル120bの斜線部分は、操作指切替領域である。例えば、ユーザは、右操作パネル120a上でカーソル操作をしていた場合、右操作パネル120a側の操作指切替領域に右指を当接させた状態で、左操作パネル120b側の操作指切替領域に左指を当接させることで、カーソル操作を左操作パネル120bに引き継ぐことができる。
なお、ユーザ側から見た図7(a)の右操作パネル120aの右端は、端末装置100の裏側から見て右操作パネル120aの左端側となり、端末装置100の裏側から見た場合と比べて左右が逆となる。
まず、図7(a)において、ユーザは、右操作パネルの120aの右端に右指を当接させた状態で、左端まで右指を動かした場合、図7(b)において、カーソルは、画面110rの右端から左端(画面110の中央)まで移動する。続いて、ユーザは、右操作パネル120a側の操作指切替領域に右指を当接させた状態で、左操作パネル120b側の操作指切替領域に左指を当接させる。続いて、ユーザは左端まで左指を動かした場合、図7(b)において、カーソルは、画面110lの右端(画面110の中央)から左端まで移動する。このように、左右の操作指をそれぞれ操作指切替領域に当接させることで、カーソル操作を右指から左指、又は左指から右指に引き継ぐことができる。
図8は、操作の種類と判定要素との関係表を示す図である。図8の関係表は、右操作パネル120a及び左操作パネル120bを用いて操作する場合の例を示す。図8の関係表は、縦方向に、タップ、長押し、スライド、フリック等の操作の種類を示し、横方向に、タッチ時間、タッチ位置移動、移動速度等の判定要素を示す。なお、関係表に示される操作の種類は、一例であり、他の操作を含んでもよい。
例えば、操作判定部130は、右操作パネル120a及び左操作パネル120bへのタッチ時間が所定時間より短く、タッチ後に指が移動していなかった場合、タップ操作が行われたと判定する。一方、操作判定部130は、右操作パネル120a及び左操作パネル120bへのタッチ時間が所定時間以上で、タッチ後に指が移動していなかった場合、長押し操作が行われたと判定する。
また、操作判定部130は、右操作パネル120a及び左操作パネル120bへのタッチ後に指が所定速度より遅い速度で移動した場合、スライド操作が行われたと判定する。一方、操作判定部130は、右操作パネル120a及び左操作パネル120bへのタッチ後に指が所定速度以上の速度で移動した場合、フリック操作が行われたと判定する。
図9Aは、画面110の操作を説明するための第1の図である。図9Aには、オブジェクトA、オブジェクトB、オブジェクトC及びオブジェクトDの4つのオブジェクトを表示した画面110(画面110r,画面110l)が示される。オブジェクトA、オブジェクトB、オブジェクトC及びオブジェクトDは、ドラッグ、クリック等の操作が可能なオブジェクトである。画面110は、画像情報を表示する表示層110aの他に、指等の接触を検知する操作層110bを含み、操作層110bは、画面110上に表示されたボタンのクリック等、画面110に表示したオブジェクトに対して垂直方向になされる操作(例えば、クリック操作)を主に検知する。
図9Bは、画面110の操作を説明するための第2の図である。例えば、操作判定部130は、右操作パネル120aの所定の部分に右指が当接すると、カーソルα1を表示させる。ユーザが右斜め下方向に右指を移動させると、操作判定部130は、カーソルα2の位置にカーソルを移動させる。続いて、ユーザが画面110上の任意の位置に右指又は左指を当接させ、上方向又は下方向にスライドさせると、操作判定部130は、オブジェクトDに対してクリック操作を行う。
図9A及び図9Bで説明したように、操作判定部130は、画面110上でオブジェクトに対してクリック操作等の垂直方向の操作を主に検知し、右操作パネル120a及び左操作パネル120b上でスライド操作等の水平方向の操作を主に検知する。
図10は、画面110の操作を説明するための第3の図である。操作判定部130は、右操作パネル120aの所定の部分に右指を当接させると、カーソルα1を表示させる。ユーザが右操作パネル120aに右指を当接させ、操作指切替領域まで右指を移動させると、操作判定部130は、カーソルα1を画面110の中央付近に移動させる。続いて、ユーザが操作指切替領域で右指を当接させた状態で、左指を操作指切替領域に当接させると、操作判定部130は、操作指を左指に切り替える。続いて、ユーザが左上に左指を移動させると、操作判定部130は、カーソルα1をα2の位置まで移動させる。続いて、ユーザが画面110の任意の位置に右指又は左指を当接させ、上方向又は下方向にスライドさせると、操作判定部130は、オブジェクトAに対してクリック操作を行う。
図11は、操作判定処理のフローを示す図である。操作判定部130は、右操作パネル120a及び左操作パネル120b(以下では、2つを合わせて操作パネル120という)における入力を検知する(ステップS10)。続いて、操作判定部130は、裏面操作指切替判定を行う(ステップS11)。裏面操作指切替判定の処理については、図12を用いて説明する。
続いて、操作判定部130は、操作パネル120上で最初にタッチした始点の座標(X,Y)から終点の座標(X,Y)までを追跡する(ステップS12)。続いて、操作判定部130は、タッチ経路が終了したか否かを判定する(ステップS13)。操作判定部130は、タッチ経路が終了した場合(ステップS13Yes)、ステップS14の処理に移行する。一方、操作判定部130は、タッチ経路が終了していない場合(ステップS13No)、一旦処理を終了させ、再びステップS10から順に処理を実行し、ステップS12のタッチ経路の追跡等の処理を再度行う。
なお、操作パネル120に複数の指が当接している場合は、操作判定部130は、各々の操作指に対してタッチ経路を追跡してもよい。
ステップS14において、操作判定部130は、指の移動距離が0であるか否かを判定する。操作判定部130は、指の移動距離が0でない場合(ステップS14No)、ステップS20に移行する。一方、操作判定部130は、指の移動距離が0の場合(ステップS14Yes)、ステップS15に移行する。
ステップS15において、操作判定部130は、経路時間が長押し判定時間よりも大きいか否かを判定する。経路時間は、操作パネル120にユーザの指が当接した時間を示す。また、長押し判定時間は、長押し操作が発生したか否かを判定するための経過時間に対する閾値である。操作判定部130は、経路時間が長押し判定時間よりも大きい場合(ステップS15Yes)、長押し操作がなされたことをプロセッサ10に通知する(ステップS16)。操作判定部130は、経路時間が長押し判定時間以下である場合(ステップS15No)、ステップS17に移行する。
ステップS17において、操作判定部130は、シングルタップタイマーが起動中であるか否かを判定する。操作判定部130は、シングルタップタイマーが起動していない場合(ステップS17No)、シングルタップタイマーを起動させる(ステップS18)。シングルタップタイマーとは、操作パネル120をタップしてから所定時間の間起動するタイマーである。
例えば、操作判定部130は、操作パネル120にタップされてから所定時間経過する前に(シングルタップタイマー起動中に)再度タップがあるかを、シングルタップタイマーを用いて判定することで、ダブルタップを検出する。
操作判定部130は、シングルタップタイマーが起動中の場合(ステップS17Yes)、所定時間以内にシングルタップが発生したことを検知する(ステップS19)。
また、ステップS14において、操作判定部130は、移動距離が0でない場合(ステップS14No)、移動距離を経路時間で除算することで求められる移動速度が、フリック判定速度よりも大きいか否かを判定する(ステップS20)。フリック判定速度は、フリック操作が行われたか否かを判定するための移動速度に対する閾値である。操作判定部130は、移動速度がフリック判定速度よりも大きい場合(ステップS20Yes)、フリック操作がなされたことをプロセッサ10に通知する(ステップS21)。一方、操作判定部130は、移動速度がフリック判定速度以下の場合(ステップS20No)、スライド操作がなされたことをプロセッサ10に通知する(ステップS22)。
図12は、裏面操作指切替判定の処理のフローを示す図である。操作判定部130は、右操作パネル120a及び左操作パネル120bの両方で指がタッチされているか否かを判定する(ステップS30)。操作判定部130は、右操作パネル120a及び左操作パネル120bの両方で指がタッチされていない場合(ステップS30No)、主操作指がタッチされている側の操作指であると判定する(ステップS37)。ここで主操作指とは、現在操作パネル120を操作している指をいう。続いて、ステップS38に移行する。
一方、ステップS30において、操作判定部130は、右操作パネル120a及び左操作パネル120bの両方で指がタッチされている場合(ステップS30Yes)、ステップS31に移行する。
ステップS31において、操作判定部130は、左右の指が操作指切替領域内に当接しているか否かを判定する(ステップS31)。操作判定部130は、左右の指が操作指切替領域内に当接している場合(ステップS31Yes)、ステップS32の処理に移行する。一方、操作判定部130は、左右の指が操作指切替領域内に当接していない場合(ステップS31No)、主操作指は変更なしと判定し、ステップS38の処理に移行する。
ステップS32において、操作判定部130は、新規にタッチされた操作パネルが右操作パネルであるか否かを判定する。操作判定部130は、新規にタッチされた操作パネルが右操作パネル120aである場合(ステップS32Yes)、主操作指が右操作指であると判定する(ステップS33)。一方、操作判定部130は、新規にタッチされた操作パネルが左操作パネル120bである場合(ステップS32No)、主操作指が左操作指であると判定する(ステップS34)。続いて、操作判定部130は、以前の主操作指側の操作パネル120の座標をキャンセルする(ステップS35)。
続いて、ステップS38において、操作判定部130は、現在の主操作指側の操作パネル120の座標がタッチ座標とする。続いて、操作判定部130は、図11のフローに戻り、ステップS12以降の処理を実行する。
図13Aは、シングルタップタイマーによるイベント判別のフローを示す図である。図13Aのフローは、操作パネル120に最初のタップがなされ、図11のステップS18が実行されたタイミングで開始される。操作判定部130は、タイマーにより所定時間経過するまで、図11のステップS19でシングルタップ発生が検出されるのを待つ(ステップS40)。操作判定部130は、所定時間内にシングルタップの発生が検出された場合(ステップS41Yes)、ステップS43に移行する。一方、操作判定部130は、所定時間内にシングルタップの発生が検出されなかった場合(ステップS41No)、シングルタップ操作発生の通知をプロセッサ10に送信し(ステップS42)、処理を終了させる。
ステップS43において、操作判定部130は、直前のシングルタップの座標が現在のシングルタップの座標と一致するか否かを判定する。操作判定部130は、座標が同一の場合(ステップS43Yes)、ダブルタップ操作通知をプロセッサ10に送信し(ステップS44)、処理を終了させる。
一方、操作判定部130は、座標が異なる場合(ステップS44No)、シングルタップ操作通知を、直前のシングルタップと現在のシングルタップとでそれぞれ通知し(ステップS45)、ステップS40に戻る。すなわち、操作判定部130は、シングルタップが操作パネル120の別の位置で2回発生したものと判定する。
図13Bは、操作判定処理のフローとシングルタップタイマーによるイベント判別のフローとの関係を示す図である。図11の操作判定処理のフローと図12のシングルタップタイマーによるイベント判別のフローは、それぞれの処理が並行して進行する。
操作判定のフローにおいて、操作判定部130は、ステップS17においてシングルタップタイマーのステータスを参照し、シングルタップが起動中か否かを判定する。操作判定部130は、シングルタップタイマーが起動していない場合(ステップS17No)、シングルタップタイマーを起動させる(ステップS18)。これにより、シングルタップタイマーによるイベント判別のフローが開始され、タイマーのカウントアップが開始される。
続いて、操作判定処理のフローにおいて、操作判定部130は、再度シングルタップがなされた際にシングルタップタイマーが起動中であった場合(ステップS17Yes)、所定時間以内にシングルタップ発生を検知する(ステップS19)。
シングルタップタイマーによるイベント判別のフローにおいて、操作判定部130は、所定時間以内にシングルタップ発生通知を受信した場合、所定時間内にシングルタップを検出したものとして(ステップS41Yes)、ステップS43に移行する。
シングルタップタイマーによるイベント判別のフローにおいて、操作判定部130は、所定時間経過してもシングルタップ発生通知を受信しなかった場合、所定時間内にシングルタップを検出しなかったものとして(ステップS41No)、ステップS42へ移行する。
図14は、プロセッサ10によって実行される制御部11の構成を示す図である。制御部11は、判定部12と、処理部13とを有する。
判定部12は、操作パネル120への操作に基づいて画面110に対する処理を判定する。例えば、判定部12は、タップ、ダブルタップ、ドラッグ、フリック等の操作パネル120になされた操作を識別する。
図15は、操作パネル120へなされる操作の例を示す図である。判定部12は、操作パネル120へなされた操作が図15の表のうちのどの操作に該当するかを識別する。
シングルタップは、操作指で操作パネル120を1度タップする操作である。また、ダブルタップは、操作パネル120を操作指で2度タップする操作である。例えば、判定部12は、最初のタップがなされた後、所定時間以内に同じ位置でタップがあった場合に、ダブルタップがなされたと判定する。
2本指タップは、操作パネル120に隣接した2本の操作指でタップをする操作である。長押しは、操作パネル120に操作指を所定時間以上、当接させる操作である。プレス&タップは、任意の操作指で長押しした状態で、隣接する別の操作指でシングルタップをする操作である。例えば、判定部12は、長押しを検出した場合に、操作パネル120の近接する座標でシングルタップがあった場合にプレス&タップがあったと判定する。
フリックは、操作パネル120を操作指で素早くスライドする操作である。ドラッグは、操作パネル120を操作指でスライドする操作である。例えば、判定部12は、操作パネル120を所定速度以上でスライドする場合にフリック操作と判定し、所定速度より低い速度でスライドする場合にドラッグ操作と判定してもよい。
ピンチインは、オブジェクトを挟むように2本の操作指を操作パネル120に当接させ、2本の操作指の間隔を狭める操作である。ピンチアウトは、オブジェクトを挟むように2本の操作指を操作パネル120に当接させ、2本の操作指の間隔を広める操作である。
回転は、操作パネル120上で操作指をオブジェクトにタッチさせた状態で、画面110上で操作指をスライドさせる操作である。処理部13は、右操作指でスライドさせる場合、操作パネル120上の操作指の位置を支点として上方向のスライドで左回転、下方向のスライドで右回転させる。また、処理部13は、左操作指でスライドさせる場合、操作パネル120上の操作指の位置を支点として上方向のスライドで右回転、下方向のスライドで左回転させる。
図14に戻る。処理部13は、判定部12の操作の識別情報に基づいて画面110上のオブジェクトを操作する。例えば、処理部13は、オブジェクト上でシングルタップがなされた場合、オブジェクトをクリックする操作を行う。また、処理部13は、オブジェクトを囲むようにドラッグ操作がなされた場合、オブジェクトを選択状態にする操作を行う。
図16は、アプリケーションの操作制御のフローを示す図である。判定部12は、操作判定部130から操作イベントが通知されるまで待機する(ステップS50)。例えば、図11のステップS16、ステップS21、ステップS22、図13AのステップS42、ステップS44及びステップS45等において操作判定部130により操作イベントが通知される。
判定部12は、通知された操作イベントに基づいて裏面タップがなされたか否かを判定する(ステップS51)。判定部12は、裏面タップがなされた場合(ステップS51Yes)、ステップS52の処理に移行する。一方、判定部12は、裏面タップ以外の操作がなされた場合(ステップS51No)、ステップS50に戻る。なお、制御部11は、操作パネル120以外の操作がなされた場合、不図示のフローチャートにより別の処理を実行する。
処理部13は、判定部12によって裏面タップが検出された場合、画面110にカーソルを表示させる。続いて、処理部13は、操作指が操作パネル120に当接している時間を計測しつつ、操作イベントを待つ(ステップS53)。判定部12は、所定時間を経過しても操作イベントが発生しない場合(ステップS54Yes)、画面110に表示したカーソルを処理部14に消去させる。一方、判定部12は、所定時間を経過するまでに操作イベントが発生した場合(ステップS54No)、ステップS56の処理に移行する。
ステップS56において、判定部12は、操作イベントが画面110又は操作パネル120に対するスライド処理であるか否かを判定する。判定部12は、操作イベントがスライド処理である場合(ステップS56Yes)、操作指の移動に応じて画面110上のカーソル(ポインタ)を移動させる(ステップS57)。判定部12は、操作イベントが操作パネル120に対するスライド処理以外の操作である場合(ステップS56No)、オブジェクト操作を実行する(ステップS58)。なお、ステップS58のオブジェクト操作に関しては、図17を用いて説明する。
図17は、オブジェクト操作のフローを示す図である。図17のフローチャートは、図16のステップS58の処理に対応する。
判定部12は、図16のステップS56において操作イベントがスライド処理以外であった場合に、カーソルを強調表示に変更する(ステップS60)。続いて、判定部12は、所定時間の間、操作イベントの入力があるまで待機する(ステップS61)。
判定部12は、所定時間の間に入力された操作イベントの判定を行う(ステップS62)。判定部12は、所定時間操作が行われず、タイマーが満了した場合、画面110のタップ又は長押しがなされた場合、カーソルを通常表示に戻し(ステップS79)、処理を図16のフローチャートに戻す。
ステップS62において、判定部12は、操作パネル120に対してシングルタップがなされた場合、タップする位置が隣接する2か所であるか否かを判定する(ステップS63)。判定部12は、1か所でタップを検出した場合(ステップS63No)、シングルタップ処理であると判定する(ステップS64)。一方、判定部12は、隣接する2か所でタップを検出した場合(ステップ63Yes)、2本指タップ処理であると判定する(ステップS65)。処理部13は、画面110に対して2本指タップ処理に応じた処理を実行する。
ステップS62において、判定部12は、操作パネル120に対して最初のタップがなされた後、所定時間以内に同じ位置でタップされた場合、ダブルタップ処理であると判定する(ステップS66)。処理部13は、画面110に対してダブルタップ処理に応じた処理を実行する。
ステップS62において、判定部12は、操作パネル120に対して操作指を所定時間以上当接させる操作がなされた場合、ステップS67の処理に移行する。判定部12は、操作指が操作パネル120に当接している時間を計測しつつ、所定時間待機する(ステップS67)。判定部12は、所定時間以内に、隣接する操作指によるタップがない場合(ステップS68No)、長押し処理であると判定する(ステップS69)。処理部13は、画面110に対して長押し処理に応じた処理を実行する。一方、判定部12は、所定時間以内に、隣接する操作指によるタップを検出した場合(ステップS68Yes)、プレス&タップ処理であると判定する(ステップS70)。処理部13は、画面110に対してプレス&タップ処理に応じた処理を実行する。
ステップS62において、判定部12は、操作パネル120で操作指による所定以上の速度のスライドを検出した場合、フリック処理であると判定する(ステップS71)。処理部13は、画面110に対してフリック処理に応じた処理を実行する。
ステップS62において、判定部12は、操作パネル120で操作指による所定未満の速度のスライドを検出した場合、2か所でスライドがなされたか否かを判定する(ステップS72)。判定部12は、1か所でのみスライドを検出した場合(ステップS72No)、ドラッグ処理であると判定する(ステップS73)。一方、判定部12は、2か所でスライド処理を検出した場合(ステップS72Yes)、2点が近づく方向にスライドされているか否かを判定する(ステップS74)。
判定部12は、2か所が近づく方向にスライドされていた場合(ステップS74Yes)、ピンチイン処理であると判定する(ステップS75)。処理部13は、画面110に対してピンチイン処理に応じた処理を実行する。一方、判定部12は、2か所が遠ざかる方向にスライドされていた場合(ステップS74No)、ピンチアウト処理であると判定する(ステップS76)。処理部13は、画面110に対してピンチアウト処理に応じた処理を実行する。
ステップS62において、判定部12は、画面110上で操作指のスライドを検出した場合、操作パネル120がタッチされているか否かを判定する(ステップS77)。判定部12は、操作パネル120がタッチされている場合(ステップS77Yes)、回転処理であると判定する(ステップS78)。例えば、処理部13は、右操作指でスライドさせる場合、操作パネル120上の操作指の位置を支点として上方向のスライドで左回転、下方向のスライドで右回転させる。また、処理部13は、左操作指でスライドさせる場合、操作パネル120上の操作指の位置を支点として上方向のスライドで右回転、下方向のスライドで左回転させる。
ステップS79において、処理部13は、強調表示にしていたカーソルを通常表示に戻す。
以上のように、実施形態1では、端末装置100の裏面に右操作パネル120a及び左操作パネル120bを設け、右操作パネル120a及び左操作パネル120bの指の操作範囲が画面110のサイズと同一になるように座標変換を行う。これにより、画面の操作性を向上することができる。例えば、画面が比較的大きい端末を操作する場合にも、従来のように大きく腕を動かして操作を行う必要がなくなるため、狭い空間で画面を操作する際に肘が壁に当たるおそれを少なくすることができる。
(実施形態2)
図18は、端末装置200の裏面の外観の例を示す図である。端末装置200は、裏面の一枚の操作パネル220を備える。操作パネル220は、端末装置200の全面を覆っている。このため、ユーザの手の大きさにかかわらず、ユーザの操作指が操作パネル220に確実に当接する。
図19は、端末装置200の内部ブロック図の例を示す図である。端末装置200は、プロセッサ50と、RAM60と、ROM70と、HDD80と、表示層210aと、操作層210bと、表示制御部211と、操作パネル220と、裏面入力位置判定部221と、操作判定部230とを有する。プロセッサ50と、RAM60と、ROM70と、HDD80と、表示制御部211と、操作判定部230とは、内部バス6によって接続される。
図20は、画面210、操作パネル220との位置関係の例を示す図である。図20(α)は、左操作指操作範囲の例を示す図である。図20(α)の上側及び下側のいずれの図も、端末装置200の側面図であり、上方が端末装置200の裏面を示し、下方が端末装置200の表面を示す。また、図20(β)は、端末装置200の下面図(裏面)を示す。また、図20(γ)は、端末装置200の平面図(表面)を示す。
図20(α)の上側は、ユーザが端末装置200を把持した状態で左指を最大限に伸ばした場合を示す。また、図20(α)の下側は、ユーザが端末装置200を把持した状態で左指を最大限に曲げた場合を示す。図20(α)の上側で指が当接する位置(境界220l(2)という)と、図20(α)の下側で指が当接する位置(境界220l(1))とを含む範囲が、左操作指操作範囲となる。なお、右操作指操作範囲の説明は省略する。
図20(β)には、端末装置200の裏面に設けられた操作パネル220が示される。例えば、端末装置200は、ユーザによる利用が開始された場合にキャリブレーションを実行することで、右操作指操作範囲と左操作指操作範囲を特定する。キャリブレーション実行することで、ユーザの手の大きさ、操作の癖等が右操作指操作範囲と左操作指操作範囲とに反映される。図20(β)に示されるように、右操作指操作範囲と左操作指操作範囲との大きさが異なる場合がある。
なお、キャリブレーション時にユーザが操作指を操作パネル220の内側に大きく動かす場合等は、右操作指操作範囲及び左操作指操作範囲が一部重複してもよい。
操作パネル220は、キャリブレーションによって特定された右操作指操作範囲と左操作指操作範囲との内側において、操作指の接触を検出する。一方、操作パネル220は、右操作指操作範囲と左操作指操作範囲との外側においては操作指の接触を検出しない。
図20(γ)には、画面210が示される。画面210の右側を画面210rとし、画面210の左側を画面210lとする。右操作指操作範囲において操作可能な画面210の領域が画面210rであり、左操作指操作範囲において操作可能な画面210の領域が画面210lである。
また、画面210rの横方向の幅の長さを右側カーソル移動範囲という。また、画面210lの横方向の幅の長さを左側カーソル移動範囲という。例えば、ユーザが指で左操作指操作範囲の外側の境界220l(1)から内側の境界220l(2)までなぞった場合、端末装置200は、左側カーソル移動範囲の左端(画面210lの左端)から右端(画面210lの右端)までカーソルを移動させる。
図21は、裏面入力位置判定部221の内部ブロックの例を示す図である。裏面入力位置判定部221は、裏面右座標変換部221aと、裏面左座標変換部221bとを有する。裏面右座標変換部221aは、以下の数式により変換倍率を算出する。
(数2)
変換倍率=右側カーソル移動範囲/{右操作指操作範囲(=右操作指伸長限界座標−右操作指屈折限界座標)}
裏面右座標変換部221aは、操作パネル220に当接した指の位置が移動した場合に、操作パネル220上のX座標の移動距離と、Y座標の移動距離とのそれぞれに変換倍率を乗算し、画面210r上のカーソルの位置を算出する。
なお、裏面左座標変換部221bは、裏面右座標変換部221aと同様にして変換倍率を算出する。
図22は、プロセッサ50によって実行される制御部15の構成を示す図である。制御部15は、特定部16と、判定部17と、処理部18とを有する。
特定部16は、ユーザが端末装置200の利用を開始する場合に、キャリブレーションを実行することで左操作指操作範囲と右操作指操作範囲とを特定する。例えば、特定部16は、ユーザに右指を最大限に伸ばすよう画面210上で指示し、右指を最大限に伸ばした場合に当接する操作パネル220上の右操作指伸長限界座標を含む直線を、境界220r(2)としてRAM60に記憶する。また、特定部16は、ユーザに右指を最大限に曲げるよう画面210上で指示し、右指を最大限に曲げた場合に当接する操作パネル220上の位置の情報を、境界220r(1)としてRAM60に記憶する。境界220r(1)と境界220r(2)とにより形成される領域が右操作指操作範囲となる。このようにして、特定部16は、右操作指操作範囲を特定する。特定部16は、同様にして左操作指操作範囲を特定する。
なお、特定部16は、端末装置200を使用するユーザが変わった場合等に、ユーザの要求により任意にキャリブレーションを実行してもよい。
判定部17は、操作パネル220への操作に基づいて画面210に対する処理を識別する。
処理部18は、判定部17の操作の識別情報に基づいて画面210上のオブジェクトを操作する。
以上のように、実施形態2では、キャリブレーションを行い、ユーザごとに操作指操作範囲を特定することにした。これにより、実施形態1の画面の操作性向上という効果に加えて更に以下の効果を奏する。すなわち、ユーザの手の大きさ、操作の癖等に応じて快適な操作環境をユーザに提供することができる。
(実施形態3)
実施形態3の端末装置200の内部ブロック図は、図19と同一である。端末装置200は、ユーザの要求により、右操作指操作範囲又は左操作指操作範囲のいずれか一方で操作できる範囲を画面210全体に拡大してもよい。これにより、右手又は左手のいずれか一方で端末装置200を操作することができるようになる。
図23は、画面210、操作パネル220との位置関係の例を示す図である。図23(α)は、左操作指操作範囲の例を示す図である。
図23(α)の上側は、ユーザが端末装置200を把持した状態で左指を最大限に伸ばした場合を示す。また、図23(α)の下側は、ユーザが端末装置200を把持した状態で左指を最大限に曲げた場合を示す。図23(α)の上側で指が当接する位置(境界220l(2)という)と、図23(α)の下側で指が当接する位置(境界220l(1))とを含む範囲が、左操作指操作範囲となる。なお、右操作指操作範囲の例示は省略する。
図23(β)には、端末装置200の裏面に設けられた操作パネル220が示される。例えば、端末装置200は、ユーザによる利用が開始された場合にキャリブレーションを実行することで、左操作指操作範囲を特定する。
操作パネル220は、左操作指操作範囲の内側において操作指の接触を検出する。一方、操作パネル220は、左操作指操作範囲の外側においては操作指の接触を検出しない。
図23(γ)には、画面210が示される。左操作指操作範囲において操作可能な画面210の領域が画面210全体まで拡大される。
例えば、ユーザが指で左操作指操作範囲の外側の境界220l(1)から内側の境界220l(2)までなぞった場合、端末装置200は、カーソル移動範囲の左端(画面210の左端)から右端(画面210の右端)までカーソルを移動させる。
次に、実施形態3における変換倍率の算出について説明する。裏面左座標変換部221bは、以下の数式により変換倍率を算出する。
(数3)
変換倍率=カーソル移動範囲(=画面210の幅)/{左操作指操作範囲(=左操作指伸長限界座標−左操作指屈折限界座標)}
裏面左座標変換部221bは、操作パネル220に当接した指の位置が移動した場合に、操作パネル220上のX座標の移動距離と、Y座標の移動距離とのそれぞれに変換倍率を乗算し、画面210上のカーソルの位置を算出する。左操作指操作範囲において、ユーザが操作パネル220上で操作指を操作した場合のカーソルの移動距離は、実施形態2の場合の2倍となる。
なお、右操作指操作範囲で操作できる範囲を画面210全体に拡大する場合、裏面右座標変換部221aは、裏面左座標変換部221bと同様に変換倍率を算出する。
以上のように、実施形態3では、右操作指操作範囲又は左操作指操作範囲のいずれか一方で操作できる範囲を画面210全体に拡大する。これにより、実施形態1の画面の操作性向上という効果に加えて更に以下の効果を奏する。すなわち、右手又は左手のいずれか一方で端末装置200の画面210全体を操作することができる。
(実施形態4)
また、端末装置200は、ユーザの要求により、操作パネル220の動作を無効にし、画面210上の操作のみを受け付けるようにしてもよい。また、端末装置200は、操作パネル220の操作のみを受け付けるモード、画面210上の操作のみを受け付けるモード、操作パネル220及び画面210の操作を受け付けるモード等、ユーザの要求により、各モードを適宜切り替えてもよい。
以上のように、実施形態4では、ユーザの要求により各モードを適宜切り替え可能としている。これにより、実施形態1の画面の操作性向上という効果に加えて、更に以下の効果を奏する。すなわち、状況に応じた操作のやり方をユーザが適宜選択可能となるため、利便性を向上できる。
以上端末装置100又は200を実施形態1乃至4により説明したが、本発明は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。
なお、本実施形態において、画面110及び画面210は、表示部の一例である。操作判定部130は、入力部の一例である。右操作パネル120a、左操作パネル120bは、及び操作パネル220は、操作領域の一例である。左操作指操作範囲及び右操作指操作範囲は、操作範囲の一例である。裏面右座標変換部121a、裏面左座標変換部121b、裏面右座標変換部221a及び裏面左座標変換部221bは、変換部の一例である。
5 内部バス
10 プロセッサ
20 RAM
30 ROM
40 HDD
100 端末装置
110 画面
110a 表示層
110b 操作層
111 表示制御部
120a 右操作パネル
120b 左操作パネル
121 裏面入力位置判定部
121a 裏面右座標変換部
121b 裏面左座標変換部
130 操作判定部
特開2014−222379号公報

Claims (9)

  1. 情報を表示する表示部と、
    前記表示部の裏側に設けられた操作領域の一部又は全部であり、ユーザにより操作される範囲である操作範囲と、
    前記操作範囲になされた操作から得られた信号を、前記表示部の範囲を操作可能な信号に変換する変換部と、
    を有し、
    前記操作範囲が前記表示部の範囲よりも狭い端末装置。
  2. 前記操作領域は、ユーザが把持した場合に左右の手の指が当接しうるように、前記表示部の裏側の左右の位置にそれぞれ1つずつ設けられている請求項1に記載の端末装置。
  3. 前記操作領域は、ユーザが把持した場合に左右の手の指が当接しうるように、前記表示部の裏側の左右の位置にそれぞれ1つずつ設けられ、
    前記操作範囲は、前記ユーザの指を伸長させた状態で当接する位置と、指を屈曲させた状態で当接する位置とを含む請求項2に記載の端末装置。
  4. 前記ユーザの指を伸長させた状態で当接する位置と、前記ユーザの指を屈曲させた状態で当接する位置とを含む前記操作範囲を、前記操作領域の中から前記ユーザの左手及び右手でそれぞれ特定する特定部をさらに有し、
    前記変換部は、前記ユーザの左手及び右手の操作範囲を足し合わせた領域よりも広い前記表示部の範囲を操作可能な信号に変換する請求項1に記載の端末装置。
  5. 前記ユーザの指を伸長させた状態で当接する位置と、前記ユーザの指を屈曲させた状態で当接する位置とを含む前記操作範囲を、前記操作領域の中から前記ユーザの左手又は右手の一方で特定する特定部をさらに有し、
    前記変換部は、前記ユーザの左手又は右手の一方に対応する操作範囲よりも広い前記表示部の範囲を操作可能な信号に変換する請求項1に記載の端末装置。
  6. 前記表示部は、情報を表示する表示層と、ユーザの手による操作の入力を受け付ける操作層とを含み、
    前記操作範囲又は前記操作層を介してユーザの手による操作の入力を受け付ける入力部を有する請求項1乃至5のいずれか1項に記載の端末装置。
  7. 前記入力部は、前記ユーザの要求により前記操作範囲又は前記操作層の一方からの入力を停止させる請求項6に記載の端末装置。
  8. 表示部に情報を表示する端末装置が実行する方法であって、
    前記表示部の裏側に設けられた操作領域の一部又は全部であり、前記表示部の範囲よりも狭く、ユーザにより操作される範囲である操作範囲への操作を受け付けるステップと、
    前記操作範囲になされた操作から得られた信号を、前記表示部の範囲を操作可能な信号に変換するステップと、
    情報を表示するステップと、を前記端末装置が実行する方法。
  9. 表示部に情報を表示する端末装置に実行させるプログラムであって、
    前記表示部の裏側に設けられた操作領域の一部又は全部であり、前記表示部の範囲よりも狭く、ユーザにより操作される範囲である操作範囲への操作を受け付けるステップと、
    前記操作範囲になされた操作から得られた信号を、前記表示部の範囲を操作可能な信号に変換するステップと、
    情報を表示するステップと、を前記端末装置に実行させるプログラム。
JP2015181528A 2015-09-15 2015-09-15 端末装置、プログラム及び方法 Active JP6661928B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015181528A JP6661928B2 (ja) 2015-09-15 2015-09-15 端末装置、プログラム及び方法
US15/260,172 US10108225B2 (en) 2015-09-15 2016-09-08 Terminal device with back side operation features

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015181528A JP6661928B2 (ja) 2015-09-15 2015-09-15 端末装置、プログラム及び方法

Publications (2)

Publication Number Publication Date
JP2017058810A true JP2017058810A (ja) 2017-03-23
JP6661928B2 JP6661928B2 (ja) 2020-03-11

Family

ID=58238246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015181528A Active JP6661928B2 (ja) 2015-09-15 2015-09-15 端末装置、プログラム及び方法

Country Status (2)

Country Link
US (1) US10108225B2 (ja)
JP (1) JP6661928B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008532185A (ja) * 2005-03-04 2008-08-14 アップル インコーポレイテッド マルチタッチセンシングデバイスを持つハンドヘルド電子装置
JP2010108071A (ja) * 2008-10-28 2010-05-13 Fujifilm Corp 画像表示装置、画像表示方法およびプログラム
JP2012242851A (ja) * 2011-05-13 2012-12-10 Lenovo Singapore Pte Ltd タッチ・スクリーンを備える携帯式電子機器および制御方法
JP2013020333A (ja) * 2011-07-08 2013-01-31 Panasonic Corp 表示入力装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3766339B2 (ja) 2002-03-19 2006-04-12 株式会社リコー 入出力制御装置及びコンピュータシステム
US8149475B2 (en) 2007-10-30 2012-04-03 Ricoh Company, Ltd. Apparatus, method, and computer program product for processing image
JP4565038B2 (ja) 2008-02-22 2010-10-20 株式会社リコー 画像形成装置、画像形成方法、画像形成プログラム、及び記録媒体
JP2011028317A (ja) 2009-07-21 2011-02-10 Ricoh Co Ltd 画像形成装置、操作受け付け方法
JP2014222379A (ja) 2013-05-13 2014-11-27 Necカシオモバイルコミュニケーションズ株式会社 情報端末、タッチ操作処理方法及びプログラム
KR20160045233A (ko) * 2014-10-16 2016-04-27 삼성디스플레이 주식회사 표시 장치 및 표시 장치 제어 방법
US9846495B2 (en) * 2015-07-23 2017-12-19 Denso International America, Inc. Human machine interface system for controlling vehicular graphical user interface display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008532185A (ja) * 2005-03-04 2008-08-14 アップル インコーポレイテッド マルチタッチセンシングデバイスを持つハンドヘルド電子装置
JP2010108071A (ja) * 2008-10-28 2010-05-13 Fujifilm Corp 画像表示装置、画像表示方法およびプログラム
JP2012242851A (ja) * 2011-05-13 2012-12-10 Lenovo Singapore Pte Ltd タッチ・スクリーンを備える携帯式電子機器および制御方法
JP2013020333A (ja) * 2011-07-08 2013-01-31 Panasonic Corp 表示入力装置

Also Published As

Publication number Publication date
US10108225B2 (en) 2018-10-23
JP6661928B2 (ja) 2020-03-11
US20170075477A1 (en) 2017-03-16

Similar Documents

Publication Publication Date Title
KR101055579B1 (ko) 저항식 터치 스크린 상의 복수의 터치 입력들을 결정하는방법
JP4743267B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5718042B2 (ja) タッチ入力処理装置、情報処理装置およびタッチ入力制御方法
US9524097B2 (en) Touchscreen gestures for selecting a graphical object
US8370772B2 (en) Touchpad controlling method and touch device using such method
US20110157078A1 (en) Information processing apparatus, information processing method, and program
US20050046621A1 (en) Method and device for recognizing a dual point user input on a touch based user input device
KR101636665B1 (ko) 프로그래머블 표시기 및 그 화면 조작 처리 프로그램
JP5664147B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JPWO2013094371A1 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
JP2009104268A (ja) 座標検出装置、及びタッチパネルを用いた操作方法
JP2011227854A (ja) 情報表示装置
JP2015018325A (ja) 情報処理装置およびその制御方法、プログラム、記録媒体
JP2016531356A (ja) ウィジェットエリアの調整方法および調整装置
JP2011134273A (ja) 情報処理装置、情報処理方法およびプログラム
JP5991320B2 (ja) 入力装置、画像表示方法およびプログラム
TWI354223B (ja)
JP6370118B2 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
JP2014191560A (ja) 入力装置、入力方法、及び記録媒体
JP5414134B1 (ja) タッチ式入力システムおよび入力制御方法
CN108132721B (zh) 生成拖动手势的方法、触控装置以及便携式电子设备
CN109885250A (zh) 一种界面交互方法和装置
EP3376357A1 (en) Character input device, character input method, and character input program
JP6661928B2 (ja) 端末装置、プログラム及び方法
TW200941307A (en) Extended cursor generating method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200127

R151 Written notification of patent or utility model registration

Ref document number: 6661928

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151