JP6183820B2 - 端末、及び端末制御方法 - Google Patents
端末、及び端末制御方法 Download PDFInfo
- Publication number
- JP6183820B2 JP6183820B2 JP2016519222A JP2016519222A JP6183820B2 JP 6183820 B2 JP6183820 B2 JP 6183820B2 JP 2016519222 A JP2016519222 A JP 2016519222A JP 2016519222 A JP2016519222 A JP 2016519222A JP 6183820 B2 JP6183820 B2 JP 6183820B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- display unit
- terminal
- thumb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Description
本発明は、端末、及び端末制御方法に関する。
本願は、2014年5月16日に、日本に出願された特願2014−102521号に基づき優先権を主張し、その内容をここに援用する。
本願は、2014年5月16日に、日本に出願された特願2014−102521号に基づき優先権を主張し、その内容をここに援用する。
画面にタッチパネルが搭載されているスマートフォン等の携帯端末では、例えば5インチの比較的大きな画面サイズが実現されている。利用者が携帯端末を片手で保持し、保持した手の指でタッチパネルの操作を行う場合、指を伸ばしきっても画面に表示されるアイコンに届かないことがあった。このため、表示パネルに内蔵されたセンサによって検出された画像に基づいて表示パネルに接近または接触された利用者の指の向きを検出し、検出した指先にある表示対象物のアイコンを選択する。そして、利用者の指が届かない領域に表示されているアイコンに対して、利用者は、指をそのアイコン方向にスライドさせることで選択するアイコンを切り替えることが提案されている(例えば、特許文献1参照)。
また、端末をグリップしている手の親指が届く範囲を拡大操作エリアに設定し、拡大操作エリア内で現実のタッチ入力がタッチパネル全域への仮想的なタッチ入力となるように、タッチ点の座標を変換する。なお、拡大操作エリア上の操作と、その他の通常操作エリア上の操作とでモードを切り替えて、通常操作エリア上の操作ではタッチ点の変換を行わないことが提案されている(例えば、特許文献2参照)。
また、端末をグリップしている手の親指が届く範囲を拡大操作エリアに設定し、拡大操作エリア内で現実のタッチ入力がタッチパネル全域への仮想的なタッチ入力となるように、タッチ点の座標を変換する。なお、拡大操作エリア上の操作と、その他の通常操作エリア上の操作とでモードを切り替えて、通常操作エリア上の操作ではタッチ点の変換を行わないことが提案されている(例えば、特許文献2参照)。
しかしながら、特許文献1及び特許文献2に記載の技術では、指が届かない領域に表示されているアイコンを選択するために、通常の操作とは異なる複数の操作を利用者が行う必要があった。特許文献1に記載の技術では、指の届かない領域に複数のアイコンが表示されている場合、その中のアイコンを選択するために、利用者が複数回指をスライドさせることが必要な場合があり、操作が煩雑であった。特許文献1に記載の技術では、アイコンの選択と、選択されたアイコンに対応する機能を実行することができても、指が届かない領域に表示されている画像に対して、ドラッグ操作やスワイプ操作ができなかった。
また、特許文献2に記載の技術では、拡大操作エリア上の操作において、このエリアから指がはみ出さないように気をつけて操作する必要があった。拡大操作エリアは、タッチパネル全体の内、利用者の指が届く範囲に設定される縮小されたエリアであるため、細かいドラッグ操作やタップ操作等が困難であった。特許文献2に記載の技術では、特別にこの領域を配置するため、既存のユーザーインターフェース上に重ねたり、特殊な領域を確保して既存の画面構成を修正する必要があった。
このように、特許文献1及び特許文献2に記載の技術では、片手で保持したときに指が届かないような大きな画面を有する端末において操作性が悪いという課題があった。
また、特許文献2に記載の技術では、拡大操作エリア上の操作において、このエリアから指がはみ出さないように気をつけて操作する必要があった。拡大操作エリアは、タッチパネル全体の内、利用者の指が届く範囲に設定される縮小されたエリアであるため、細かいドラッグ操作やタップ操作等が困難であった。特許文献2に記載の技術では、特別にこの領域を配置するため、既存のユーザーインターフェース上に重ねたり、特殊な領域を確保して既存の画面構成を修正する必要があった。
このように、特許文献1及び特許文献2に記載の技術では、片手で保持したときに指が届かないような大きな画面を有する端末において操作性が悪いという課題があった。
本発明の一態様は、上記の問題点に鑑みてなされたものであって、片手で保持したときに指が届かないような大きな画面であっても、片手による操作性を向上させることができる端末、及び端末制御方法を提供することを目的とする。
上記目的を達成するため、本発明の一態様に係る端末は、端末の表示部の所定の箇所に指の一部が接触していることを検出し、そして前記表示部上にかざされる前記指の形状を検出する検出部と、前記検出部によって検出された検出結果に基づいて、前記表示部上に表示されている画像を平行移動させる画像制御部と、を備える。
本発明の一態様によれば、端末は、片手で保持したときに指が届かないような大きな画面であっても、片手による操作性を向上させることができる。
以下、図面を用いて本発明の実施形態について詳細に説明する。なお、本発明はかかる実施形態に限定されず、種々の変更が可能であり、それらの変更は全て本願の特許請求の範囲の技術的範囲に包含される。
<第1実施形態>
図1は、本実施形態に係る端末1の外観の一例を示す斜視図である。端末1は、扁平な矩形状の形状を有し、その一方の主要な面の大部分をタッチパネル10が占有する。例えば、端末1の上端部にはスピーカー11、カメラ12、電源スイッチ14が設けられ、下端部にはマイクロホン13が設けられる。端末1の内部には、CPU、コンピュータプログラムなどを格納する記憶装置、各種インターフェース、アンテナなどが設けられている。
図1は、本実施形態に係る端末1の外観の一例を示す斜視図である。端末1は、扁平な矩形状の形状を有し、その一方の主要な面の大部分をタッチパネル10が占有する。例えば、端末1の上端部にはスピーカー11、カメラ12、電源スイッチ14が設けられ、下端部にはマイクロホン13が設けられる。端末1の内部には、CPU、コンピュータプログラムなどを格納する記憶装置、各種インターフェース、アンテナなどが設けられている。
図2は、本実施形態に係る端末1の概略構成を説明するブロック図である。
図2に示すように、端末1は、タッチパネル10、検出部20、表示部30、判定部40、通知部50、タッチ情報処理部60、画像制御部70、記憶部80、及びセンサ90を主要なものとして備えている。また、判定部40は、押圧判定部41、位置判定部42、及び、接触判定部43及びを備えている。タッチ情報処理部60は、タッチ情報変換部61(変換部)及びタッチ情報反映部62を備えている。端末1は、タッチパネルを有する機器であり、例えば携帯電話、タブレット端末、音楽再生装置、携帯型のカーナビゲーション、携帯型のルータ機能を有する無線通信端末、携帯型ゲーム機等である。
図2に示すように、端末1は、タッチパネル10、検出部20、表示部30、判定部40、通知部50、タッチ情報処理部60、画像制御部70、記憶部80、及びセンサ90を主要なものとして備えている。また、判定部40は、押圧判定部41、位置判定部42、及び、接触判定部43及びを備えている。タッチ情報処理部60は、タッチ情報変換部61(変換部)及びタッチ情報反映部62を備えている。端末1は、タッチパネルを有する機器であり、例えば携帯電話、タブレット端末、音楽再生装置、携帯型のカーナビゲーション、携帯型のルータ機能を有する無線通信端末、携帯型ゲーム機等である。
タッチパネル10は、利用者のタッチ操作を受け付け、受け付けたタッチ操作を示すタッチ操作情報を検出部20に出力する。タッチパネル10は、表示部30の画面上における接触を検出して、利用者からの操作入力を受け付ける。なお、タッチパネル10のタッチ操作およびフローティングタッチ操作の両者の検出方式は、一例として投影型静電容量方式による。ただし、タッチ操作及びフローティングタッチ操作は、投影型静電容量方式での容量変化の程度により識別することができる。
検出部20は、タッチ操作がされたことを検出する。例えば、タッチパネルが静電容量方式の場合、検出部20は、タッチパネル10に対するタッチ操作に応じて、タッチパネル10が検出した静電容量の変化量を取得し、取得した静電容量の変化量に基づいてタッチ操作がされたことを検出する。以下の説明において、タッチパネル10が検出した静電容量の変化量を「タッチ検出量」と称する。また、検出部20には、押圧センサから入力された押圧検出値が入力される。なお、タッチ検出量及び押圧検出値には、タッチされた位置を示す情報が含まれている。ここで、位置情報とは、例えば、タッチパネル10上に定められている座標である。検出部20は、検出したタッチ検出量と押圧検出値とを検出結果として判定部40に出力する。
表示部30は、例えば液晶パネル、又は有機ELディスプレイパネルを備え、画像制御部70が出力したアイコン等を含む画像を表示する。なお、アイコンは、端末1の記憶部80にインストールされている(または組み込まれている)アプリケーションを示す画像(記号表記)である。表示部30に表示されるアイコンは、画像制御部70が自動的にレイアウトしてもよく、または利用者がレイアウトするようにしてもよい。なお、タッチパネル10と表示部30とは薄型で略矩形状をした部材であって、両者は重ね合わせて一体として構成される。また、タッチパネル10と表示部30とは、一体に構成されていてもよい。
センサ90は、端末1が利用者により縦長に保持されているか、横長に保持されているかを検出し。検出した結果を画像制御部70に出力する。
センサ90は、端末1が利用者により縦長に保持されているか、横長に保持されているかを検出し。検出した結果を画像制御部70に出力する。
押圧判定部41は、検出部20から入力された押圧検出値が予め定められている値以上であるか否かによって、タッチパネル10が押下されたか否かを判定する。押圧判定部41は、判定結果を接触判定部43に出力する。なお、押圧判定部41は、タッチパネル10が静電容量方式の場合、タッチパネル10が有する周囲等に配置された不図示の圧力センサによって、押圧を検出するようにしてもよい。または、タッチパネル10が静電容量方式と抵抗膜方式のハイブリッド方式の場合、押圧判定部41は、抵抗膜によって変化する抵抗値を検出することで、押圧を検出するようにしてもよい。
位置判定部42は、押圧判定部41によって押下されていると判定されたタッチパネル10上における位置を検出する。位置判定部42は、接触判定部43によってタッチされていると判定したタッチパネル10上における位置を検出する。位置判定部42は、判定結果を接触判定部43に出力する。
位置判定部42は、押圧判定部41によって押下されていると判定されたタッチパネル10上における位置を検出する。位置判定部42は、接触判定部43によってタッチされていると判定したタッチパネル10上における位置を検出する。位置判定部42は、判定結果を接触判定部43に出力する。
接触判定部43は、タッチパネル10の予め定められている周辺部(枠)に親指の付け根(拇指球)が接触しているか否かを判定する。接触判定部43は、タッチパネル10に指が接触した(タッチされた)か否かを判定する。接触判定部43は、タッチパネル10の枠に利用者の親指の付け根が接触し、かつ親指がタッチパネル10上に接触せずにかざされている(ホバリング状態)であるか否かを判定する。接触判定部43は、親指がホバリング状態のとき、かつ親指が伸ばされた状態である条件を満足するとき、親指の指先の位置の座標をホバー検出により検出する。接触判定部43は、後述するように、表示部30上の画像が移動された後、タッチパネル10上が親指でタッチされたことを検出し、タッチされた位置を接触判定部43の判定結果に基づいて検出する。ホバリング、ホバー検出については後述する。接触判定部43は、親指の付け根の位置の座標を示す情報、親指の指先の位置を示す情報、及びタッチパネル10上で親指が伸ばされている状態であることを示すトリガー情報、及び検出部20から入力されたタッチ検出量を通知部50に出力する。このトリガー情報が、表示部30内の画像の移動開始のトリガーとなる。
ここで、接触判定部43が行う判定を説明する。
接触判定部43は、位置判定部42の判定結果に基づいて、タッチパネル10上でタッチされている位置がタッチパネル10の枠であり、かつタッチされた位置を周知の手法でグルーピングしたとき所定の面積を有する場合に、タッチパネル10の枠に親指の付け根が接触していると判定する。または、接触判定部43は、押圧判定部41によって押下されていると判定された位置がタッチパネル10の枠であり、かつ押下された位置を周知の手法でグルーピングしたとき所定の面積を有する場合に、タッチパネル10の枠に親指の付け根が接触していると判定する。なお、接触判定部43は、押圧判定部41によって検出された押圧された領域が所定の面積より大きい場合、また検出された押圧が所定の値より小さい場合、誤タッチであると判定する。誤タッチとは、利用者によってタッチパネル10が意図されずにタッチされた場合であり、例えば、タッチパネル10が掌に接するように利用者が端末1を保持した場合などの状態である。
接触判定部43は、例えば記憶部80に記憶されている親指の形状を示す情報に基づいて、タッチパネル10上で親指がホバリング状態であるか否か、及び親指が伸ばされた状態であるか否かをホバー検出により判定する。
なお、指先の位置の判定、ホバリング状態の判定、及び親指が伸ばされている状態の判定は、カメラ12によって撮像された画像を用いて行うようにしてもよい。
接触判定部43は、位置判定部42の判定結果に基づいて、タッチパネル10上でタッチされている位置がタッチパネル10の枠であり、かつタッチされた位置を周知の手法でグルーピングしたとき所定の面積を有する場合に、タッチパネル10の枠に親指の付け根が接触していると判定する。または、接触判定部43は、押圧判定部41によって押下されていると判定された位置がタッチパネル10の枠であり、かつ押下された位置を周知の手法でグルーピングしたとき所定の面積を有する場合に、タッチパネル10の枠に親指の付け根が接触していると判定する。なお、接触判定部43は、押圧判定部41によって検出された押圧された領域が所定の面積より大きい場合、また検出された押圧が所定の値より小さい場合、誤タッチであると判定する。誤タッチとは、利用者によってタッチパネル10が意図されずにタッチされた場合であり、例えば、タッチパネル10が掌に接するように利用者が端末1を保持した場合などの状態である。
接触判定部43は、例えば記憶部80に記憶されている親指の形状を示す情報に基づいて、タッチパネル10上で親指がホバリング状態であるか否か、及び親指が伸ばされた状態であるか否かをホバー検出により判定する。
なお、指先の位置の判定、ホバリング状態の判定、及び親指が伸ばされている状態の判定は、カメラ12によって撮像された画像を用いて行うようにしてもよい。
通知部50には、親指の付け根の位置の座標を示す情報、親指の指先の位置を示す情報、トリガー情報、及びタッチ検出量が判定部40から入力される。通知部50は、トリガー情報が入力された場合、表示部30内の画像の移動開始を示す移動開始情報を生成し、親指の付け根の位置の座標を示す情報、親指の指先の位置を示す情報、及び生成した移動開始情報を画像制御部70に出力する。通知部50は、後述するようにトリガー情報が入力された後、所定の処理が終了した場合、表示部30内の画像の移動終了を示す移動終了情報を生成し、生成した移動終了情報を画像制御部70に出力する。また、通知部50は、移動開始情報及びタッチ検出量をタッチ情報処理部60に出力する。
タッチ情報変換部61は、通知部50から移動開始情報が入力されていない場合、入力されたタッチ検出量に含まれる座標を変換せずにタッチ情報反映部62に出力する。タッチ情報変換部61は、通知部50から移動開始情報が入力された場合、入力されたタッチ検出量に含まれる座標を変換し、変換した座標をタッチ情報反映部62に出力する。
タッチ情報反映部62は、タッチ情報変換部61から入力された座標に基づいて、表示部30内の画像に対する処理を行う。タッチ情報反映部62は、所定の時間内に入力された座標が1つの場合、表示部30上でタップ操作がされたと判定し、タップされたときに行う処理を行う。タッチ情報反映部62は、所定の時間内に異なる座標が連続して入力された場合、指がスライドされたと判定し、画像のスライド処理を行う。タッチ情報反映部62は、所定の時間内に同じ座標が入力された場合、表示部30上が長押しされたと判定し、その座標に対応するメニューや選択画面等を表示させる。
画像制御部70は、センサ90から入力された検出結果に応じて、表示部30上に画像を表示する。画像制御部70は、センサ90から入力された結果に応じて、座標の検出、画像を移動させるためのベクトルVの計算、画像の移動を制御する。画像制御部70は、通知部50から移動開始情報が入力された場合、通知部50から入力された親指の付け根の位置の座標を示す情報と、親指の指先の位置を示す情報とに基づいて、表示部30上に表示されている画像を所定の位置に移動させる。なお、所定の位置とは、端末1を保持している利用者の親指が届く表示部30上の領域である。画像制御部70は、検出された親指の付け根の位置及び親指の指先の位置情報に基づいて、この所定の位置を算出する。画像制御部70は、通知部50から移動終了情報が入力された場合、所定の位置に移動させた画像を元の位置に戻す。
記憶部80には、タッチパネル10の枠に対して設定されている検出領域、親指の形状を示す情報等が記憶されている。
記憶部80には、タッチパネル10の枠に対して設定されている検出領域、親指の形状を示す情報等が記憶されている。
次に、本実施形態で行う処理について説明する。
図3は、利用者が端末1を片手で保持している状態を説明する図である。図3に示すように、本実施形態における端末1は、縦横の長さが、例えば利用者の親指の長さの2倍より短い。端末1は、例えば表示部30が5インチ等のスマートフォンである。なお、以下では、右手で端末1を表示部30が縦長になるように持って操作する場合の例について説明する。また、図3は、親指の指先がタッチパネル10に接していない状態をタッチパネルの上から見た図である。図3において、表示部30の長手方向をx軸、表示部30の短手方向をy軸方向、端末1の厚み方向をz軸とする。なお、図3では、説明を簡単にするために、表示部30上にアイコンが1つ表示されている場合を示している。
図3は、利用者が端末1を片手で保持している状態を説明する図である。図3に示すように、本実施形態における端末1は、縦横の長さが、例えば利用者の親指の長さの2倍より短い。端末1は、例えば表示部30が5インチ等のスマートフォンである。なお、以下では、右手で端末1を表示部30が縦長になるように持って操作する場合の例について説明する。また、図3は、親指の指先がタッチパネル10に接していない状態をタッチパネルの上から見た図である。図3において、表示部30の長手方向をx軸、表示部30の短手方向をy軸方向、端末1の厚み方向をz軸とする。なお、図3では、説明を簡単にするために、表示部30上にアイコンが1つ表示されている場合を示している。
図3において、符号dが示す画像は、利用者の右手の親指を示す画像である。また、符号djが示す画像は、利用者の右手の親指の付け根(拇指球)を示す画像である。また、符号Iが示す画像は、表示部30上に表示されるアイコンを示す画像である。また、符号301が示す領域は、右手の親指で操作可能な領域、符号302が示す領域は、右手の親指で操作できない領域を示している。端末1を片手で持って操作する場合、利用者は、図3に示すように、端末1を掌に載せて、親指の付け根と掌とで挟んで保持する。そして、利用者は、端末1を保持したまま、親指で表示部30をタッチして操作する。図3に示す例では、表示部30上に表示されているアイコンIに、親指が届かない。
図4は、本実施形態に係るタッチパネル10の枠に予め設定されている領域の一例を説明する図である。図4において、表示部30の長手方向をx軸、表示部30の短手方向をy軸方向とする。図4に示すように、タッチパネル10の枠に端末1の端面からx軸方向に幅L1、y軸方向に幅L2で囲まれる領域が、予め親指の付け根が接しているか否かの判定を行う位置として設定されている。この領域の情報は、記憶部80または位置判定部42に記憶されている。
図4は、本実施形態に係るタッチパネル10の枠に予め設定されている領域の一例を説明する図である。図4において、表示部30の長手方向をx軸、表示部30の短手方向をy軸方向とする。図4に示すように、タッチパネル10の枠に端末1の端面からx軸方向に幅L1、y軸方向に幅L2で囲まれる領域が、予め親指の付け根が接しているか否かの判定を行う位置として設定されている。この領域の情報は、記憶部80または位置判定部42に記憶されている。
図5は、ホバリングについて説明する図である。また、図5は、親指の指先がタッチパネル10に接していない状態をタッチパネルの横から見た図である。図5において、表示部30の短手方向をy軸、端末1の厚み方向をz軸とする。図5に示すように、指がタッチパネル10から距離L11離れて接していない状態をホバリング状態といい、この状態を検出することをホバー(hover)検出ともいう。ホバー検出では、タッチパネル10が静電容量方式の場合、例えば、予め定められている静電容量の閾値に基づいて、指がタッチパネル10上にタッチされている状態であるか、ホバリング状態であるか、タッチパネル10上に指が無い状態であるかを検出する。
図6は、本実施形態における所定の位置、表示部30上の座標について説明する図である。図6において、表示部30の長手方向をx軸、表示部30の短手方向をy軸方向とする。例えば、表示部30の画素数がy1×x1ドットの場合、表示部30の左上の座標を(0,0)の原点とすると、右上の座標が(0、y1)、左下の座標が(x1、0)、右下の座標が(x1,y1)である。
また、図6において、符号311が示す領域は、表示部30上に表示されている画像を移動させて表示させる領域であり、符号312が示す領域は、その他の領域である。図6に示すように、表示部30上に表示されている画像を移動させて表示させる領域は、点(x2、y2)、(x2、y1)、(x1,y2)、及び(x1,y1)に囲まれた領域である。なお、図6に示す例では、親指の付け根の座標が(x1,y1)として検出され、親指の指先の座標が(x2,y2)として検出され、この2つの座標の延長線とタッチパネル10の枠との接点が座標(0,0)であった例を示している。
ここで、図3のように利用者がタッチパネル10の枠に親指の付け根を接触させ、親指をホバリング状態にして伸ばした状態にした場合、図6の矢印321に示すように表示部30上に表示されている画像の左上が点(0,0)から点(x2,y2)の位置になるように画像制御部70によって移動させられる。この結果、その他の領域に表示されていたアイコンIは、画像の移動に伴って、中心の座標が(x3,y3)から(x4,y4)に移動させられる。
また、図6において、符号311が示す領域は、表示部30上に表示されている画像を移動させて表示させる領域であり、符号312が示す領域は、その他の領域である。図6に示すように、表示部30上に表示されている画像を移動させて表示させる領域は、点(x2、y2)、(x2、y1)、(x1,y2)、及び(x1,y1)に囲まれた領域である。なお、図6に示す例では、親指の付け根の座標が(x1,y1)として検出され、親指の指先の座標が(x2,y2)として検出され、この2つの座標の延長線とタッチパネル10の枠との接点が座標(0,0)であった例を示している。
ここで、図3のように利用者がタッチパネル10の枠に親指の付け根を接触させ、親指をホバリング状態にして伸ばした状態にした場合、図6の矢印321に示すように表示部30上に表示されている画像の左上が点(0,0)から点(x2,y2)の位置になるように画像制御部70によって移動させられる。この結果、その他の領域に表示されていたアイコンIは、画像の移動に伴って、中心の座標が(x3,y3)から(x4,y4)に移動させられる。
次に、親指の付け根が接触したことの検出、親指の指先の検出、及び画像の移動の処理手順を説明する。図7は、本実施形態に係る処理手順のフローチャートである。
(ステップS1)接触判定部43と位置判定部42とは、利用者の親指の付け根がタッチパネル10枠の所定の領域で接触したか否かを判定する。親指の付け根がタッチパネル10枠の所定の領域で接触したと判定された場合、位置判定部42は、タッチパネル10に接触している親指の付け根の座標(pA)を検出する。
(ステップS2)接触判定部43は、利用者の親指がホバリング状態であるか否かを判定する。利用者の親指がホバリング状態であると判定された場合、位置判定部42は、親指の先端の座標(pB)を検出し(ステップS2;YES)、トリガー信号を生成し、生成したトリガー信号を通知部50に出力する。次に、通知部50は、入力されたトリガー信号に応じて移動開始情報を画像制御部70に出力し、処理をステップS3に進める。接触判定部43は、利用者の親指がホバリング状態ではないと判定した場合(ステップS2;NO)、ステップS10に進む。
(ステップS3)画像制御部70は、センサ90から入力された結果に応じて、端末1の表示部30が縦長になるように保持されていると判別し、縦長に保持されている場合の処理に切り換える。次に、画像制御部70は、座標pAから座標pBへの延長線と、タッチパネル10枠との交点の座標(pC)を算出する。
(ステップS4)画像制御部70は、ステップS3で算出した座標(pC)から座標(pB)へのベクトルVを計算する。
(ステップS5)画像制御部70は、座標(pA)から対角の位置にあるタッチパネル10の角を基準として、算出したベクトルV分、表示部30上の画像を平行移動させる。
(ステップS6)接触判定部43は、タッチパネル10への操作が行われたか否かを判定する。接触判定部43は、タッチパネル10への操作が行われたと判定した場合(ステップS6;YES)、ステップS8に進み、タッチパネル10への操作が行われていないと判定した場合(ステップS6;NO)、ステップS7に進む。
(ステップS7)接触判定部43は、予め定められている時間(一定時間)が経過したか否かを判定する。接触判定部43は、一定時間が経過したと判定した場合(ステップS7;YES)、ステップS9に進み、一定時間が経過していないと判定した場合(ステップS7;NO)、ステップS6に戻る。
(ステップS8)タッチパネル情報変換部61は、ステップS6で行われた操作によって検出された座標が所定の領域内の座標である場合に座標を変換し、検出された座標が所定の領域外の座標である場合に座標を変換しない。次に、タッチ情報反映部62は、タッチパネル情報変換部71から入力された座標に基づいて、所定の処理を行う。
(ステップS9)タッチ情報処理部60は、ステップS8の所定の処理終了後、またはステップS7で一定時間が経過後、処理が終了したことを示す情報を通知部50に出力する。次に、通知部50は、入力された処理が終了したことを示す情報に応じて、移動終了情報を生成し、生成した移動終了情報を画像制御部70に出力する。次に、画像制御部70は、入力された移動終了情報に応じて、ステップS5で平行移動させた画像を元の位置に戻し、処理を終了する。
(ステップS10)利用者の親指がホバリング状態ではないと判定された場合、接触判定部43は、予め定められている時間(一定時間)が経過したか否かを判定する。なお、この一定時間は、ステップS7における一定時間と同じであっても異なっていてもよい。接触判定部43は、一定時間が経過したと判定した場合(ステップS10;YES)、ステップS11に進み、一定時間が経過していないと判定した場合(ステップS10;NO)、ステップS2に戻る。
(ステップS11)接触判定部43は、ステップS1で検出された座標(pA)への接触を無視し、処理を終了する。
(ステップS1)接触判定部43と位置判定部42とは、利用者の親指の付け根がタッチパネル10枠の所定の領域で接触したか否かを判定する。親指の付け根がタッチパネル10枠の所定の領域で接触したと判定された場合、位置判定部42は、タッチパネル10に接触している親指の付け根の座標(pA)を検出する。
(ステップS2)接触判定部43は、利用者の親指がホバリング状態であるか否かを判定する。利用者の親指がホバリング状態であると判定された場合、位置判定部42は、親指の先端の座標(pB)を検出し(ステップS2;YES)、トリガー信号を生成し、生成したトリガー信号を通知部50に出力する。次に、通知部50は、入力されたトリガー信号に応じて移動開始情報を画像制御部70に出力し、処理をステップS3に進める。接触判定部43は、利用者の親指がホバリング状態ではないと判定した場合(ステップS2;NO)、ステップS10に進む。
(ステップS3)画像制御部70は、センサ90から入力された結果に応じて、端末1の表示部30が縦長になるように保持されていると判別し、縦長に保持されている場合の処理に切り換える。次に、画像制御部70は、座標pAから座標pBへの延長線と、タッチパネル10枠との交点の座標(pC)を算出する。
(ステップS4)画像制御部70は、ステップS3で算出した座標(pC)から座標(pB)へのベクトルVを計算する。
(ステップS5)画像制御部70は、座標(pA)から対角の位置にあるタッチパネル10の角を基準として、算出したベクトルV分、表示部30上の画像を平行移動させる。
(ステップS6)接触判定部43は、タッチパネル10への操作が行われたか否かを判定する。接触判定部43は、タッチパネル10への操作が行われたと判定した場合(ステップS6;YES)、ステップS8に進み、タッチパネル10への操作が行われていないと判定した場合(ステップS6;NO)、ステップS7に進む。
(ステップS7)接触判定部43は、予め定められている時間(一定時間)が経過したか否かを判定する。接触判定部43は、一定時間が経過したと判定した場合(ステップS7;YES)、ステップS9に進み、一定時間が経過していないと判定した場合(ステップS7;NO)、ステップS6に戻る。
(ステップS8)タッチパネル情報変換部61は、ステップS6で行われた操作によって検出された座標が所定の領域内の座標である場合に座標を変換し、検出された座標が所定の領域外の座標である場合に座標を変換しない。次に、タッチ情報反映部62は、タッチパネル情報変換部71から入力された座標に基づいて、所定の処理を行う。
(ステップS9)タッチ情報処理部60は、ステップS8の所定の処理終了後、またはステップS7で一定時間が経過後、処理が終了したことを示す情報を通知部50に出力する。次に、通知部50は、入力された処理が終了したことを示す情報に応じて、移動終了情報を生成し、生成した移動終了情報を画像制御部70に出力する。次に、画像制御部70は、入力された移動終了情報に応じて、ステップS5で平行移動させた画像を元の位置に戻し、処理を終了する。
(ステップS10)利用者の親指がホバリング状態ではないと判定された場合、接触判定部43は、予め定められている時間(一定時間)が経過したか否かを判定する。なお、この一定時間は、ステップS7における一定時間と同じであっても異なっていてもよい。接触判定部43は、一定時間が経過したと判定した場合(ステップS10;YES)、ステップS11に進み、一定時間が経過していないと判定した場合(ステップS10;NO)、ステップS2に戻る。
(ステップS11)接触判定部43は、ステップS1で検出された座標(pA)への接触を無視し、処理を終了する。
次に、上述した処理の一例を、図8A〜図8Fを用いて説明する。
図8A〜図8Fは、本実施形態に係る処理の一例を説明する図である。図8A〜図8Fにおいて、図3〜図6と同様に、表示部30の長手方向をx軸方向、短手方向をy軸方向とする。また、アイコンIは、アプリケーションに対応している。図8A〜図8Fに示した例では、利用者は、符号Iに対応するアプリケーションを起動する場合を説明する図である。
図8Aは、右手の親指で操作可能な領域401、画像を移動可能な最大ベクトル405を説明する図である。符号403及び404は、タッチパネル10における対角線である。端末1では、片手で保持し、親指で操作可能な範囲がタッチパネル10の縦幅と横幅より大きい領域を有している。利用者は、この領域401内に表示されている画像に対する操作を行いたいとき、操作したい箇所をタッチする。一方、利用者は、領域401外の領域402に表示されている画像に対する操作を行いたいとき、親指のホバリング状態を一定時間行う。この操作に応じて表示部30上に表示されている画像が、ベクトルV分、平行移動される。移動可能な最大ベクトルVが、対角線403と404との交点であるように設定されているので、一回の移動で全ての領域をカバーすることができる。この結果、親指が届かない領域の画像を一回の操作で引き寄せることができる。また、移動前に指が届かなかった範囲の画像が、画像の移動後に画面外に移動してしまうことがない。
図8Bは、親指の付け根の座標(pA)、親指の指先の座標(pB)を説明する図である。利用者は、端末1を右手で保持するので、右手の指の付け根をタッチパネル10の枠に設定されている領域に接触されている。そして、利用者は、親指が届かないアイコンIに親指の指先を向けて、ホバリング状態を一定時間継続する。この結果、判定部40は、親指の付け根の座標(pA)と、親指の指先の座標(pB)を検出する。
図8Cは、座標pAから座標pBへの延長線と、タッチパネル10枠との交点の座標(pC)を説明する図である。画像制御部70は、検出された親指の付け根の座標(pA)から親指の指先の座標(pB)への延長線406と、タッチパネル10枠との交点の座標(pC)を計算する。次に、画像制御部70は、座標(pC)から座標(pB)へのベクトル420を計算する。なお、座標pC及びベクトルvの算出は、判定部40が行ってもよい。また、検出する座標は、所定の領域の重心等の座標であってもよい。
図8Dは、移動させるためのベクトル430を説明する図である。画像制御部70は、持ち手の位置と対角線上の角を基準として、計算したベクトル420をベクトル430に変換する。これにより、座標(pC)が(pC’)に変換され、座標(pB)が(pB’)に変換される。そして、画像制御部70は、座標(pC’)から(pB’)へのベクトル430分、表示部30に表示されている画像を平行移動させる。この結果、表示部30に表示されていた画像の左上の座標(pC’)が座標(pB’)に移動する。また、この移動に応じて、アイコンIが親指の届く領域に移動する。
図8Eは、利用者によってアイコンIがタップされたことを説明する図である。図8Dに示すように画像が移動された後、利用者は利用したいアイコンIを選択するために親指の指先を移動させて、アイコンIをタップする。
図8Fは、アイコンIが選択されアプリケーションが起動したことを説明する図である。図8Eに示したようにアイコンIが選択された場合、タッチ情報処理部60は、選択されたアイコンIに対応するアプリケーションを起動し、起動後に画像制御部70がベクトル430分、平行移動させた画像を元の位置に戻す。この結果、表示部30には、アプリケーション起動後の画像が表示される。一方、図8Dに示したように画像を移動させた後、一定時間経過後もタッチパネル10上がタッチされなかった場合、画像制御部70は、ベクトル430分、平行移動させた画像を元の位置に戻す。
なお、図8A〜図8Fでは、利用者が表示部30上に表示されているアイコンIを選択する例を説明したが、これに限られない。例えば、利用者が移動後の画像に対してスワイプ、ダブルタップ等の操作を行った場合、タッチ情報処理部60は行われた操作に応じた処理を行う。
また、本実施形態では、右手で端末1を保持して右手の親指で操作する例を説明したが、左手で保持して左手の親指で操作する場合も図7と同様の処理を行うことができる。
なお、タッチパネル10と表示部30とが一体型で赤外線光源が内蔵されている場合、指の形状及びホバー検出は、この光源からの反射光を含む信号と、指からの反射光を含まない外交のみによる信号を順に検出するバックライト差分法を用いて検出を行うようにしてもよい。この場合、タッチされた指の接触面積を解析することで、指の圧力を検出するようにしてもよい。また、タッチした指の画像解析を行うことで、タッチした指が親指であるか否か、また親指が伸びた状態であるかを検出するようにしてもよい。また、バックライト差分法によって検出されたシグナル光の強度を解析することで、指の高さを検出してホバー検出するようにしてもよい。
本発明の第1実施形態によれば、片手で保持したときに指が届かないような大きな画面の端末であっても、片手で把持しつつその片手の最小限の指先操作により所定の操作を行うことができるので、操作性を向上させることができる。なお、本実施形態では、表示部30が縦長に保持された場合を説明したが、これに限られない。表示部30の横の長さが、例えば利用者の親指の長さの2倍より短い端末1であれば、端末1が横長に保持した場合であっても、同様の処理を行うようにしてもよい。
図8A〜図8Fは、本実施形態に係る処理の一例を説明する図である。図8A〜図8Fにおいて、図3〜図6と同様に、表示部30の長手方向をx軸方向、短手方向をy軸方向とする。また、アイコンIは、アプリケーションに対応している。図8A〜図8Fに示した例では、利用者は、符号Iに対応するアプリケーションを起動する場合を説明する図である。
図8Aは、右手の親指で操作可能な領域401、画像を移動可能な最大ベクトル405を説明する図である。符号403及び404は、タッチパネル10における対角線である。端末1では、片手で保持し、親指で操作可能な範囲がタッチパネル10の縦幅と横幅より大きい領域を有している。利用者は、この領域401内に表示されている画像に対する操作を行いたいとき、操作したい箇所をタッチする。一方、利用者は、領域401外の領域402に表示されている画像に対する操作を行いたいとき、親指のホバリング状態を一定時間行う。この操作に応じて表示部30上に表示されている画像が、ベクトルV分、平行移動される。移動可能な最大ベクトルVが、対角線403と404との交点であるように設定されているので、一回の移動で全ての領域をカバーすることができる。この結果、親指が届かない領域の画像を一回の操作で引き寄せることができる。また、移動前に指が届かなかった範囲の画像が、画像の移動後に画面外に移動してしまうことがない。
図8Bは、親指の付け根の座標(pA)、親指の指先の座標(pB)を説明する図である。利用者は、端末1を右手で保持するので、右手の指の付け根をタッチパネル10の枠に設定されている領域に接触されている。そして、利用者は、親指が届かないアイコンIに親指の指先を向けて、ホバリング状態を一定時間継続する。この結果、判定部40は、親指の付け根の座標(pA)と、親指の指先の座標(pB)を検出する。
図8Cは、座標pAから座標pBへの延長線と、タッチパネル10枠との交点の座標(pC)を説明する図である。画像制御部70は、検出された親指の付け根の座標(pA)から親指の指先の座標(pB)への延長線406と、タッチパネル10枠との交点の座標(pC)を計算する。次に、画像制御部70は、座標(pC)から座標(pB)へのベクトル420を計算する。なお、座標pC及びベクトルvの算出は、判定部40が行ってもよい。また、検出する座標は、所定の領域の重心等の座標であってもよい。
図8Dは、移動させるためのベクトル430を説明する図である。画像制御部70は、持ち手の位置と対角線上の角を基準として、計算したベクトル420をベクトル430に変換する。これにより、座標(pC)が(pC’)に変換され、座標(pB)が(pB’)に変換される。そして、画像制御部70は、座標(pC’)から(pB’)へのベクトル430分、表示部30に表示されている画像を平行移動させる。この結果、表示部30に表示されていた画像の左上の座標(pC’)が座標(pB’)に移動する。また、この移動に応じて、アイコンIが親指の届く領域に移動する。
図8Eは、利用者によってアイコンIがタップされたことを説明する図である。図8Dに示すように画像が移動された後、利用者は利用したいアイコンIを選択するために親指の指先を移動させて、アイコンIをタップする。
図8Fは、アイコンIが選択されアプリケーションが起動したことを説明する図である。図8Eに示したようにアイコンIが選択された場合、タッチ情報処理部60は、選択されたアイコンIに対応するアプリケーションを起動し、起動後に画像制御部70がベクトル430分、平行移動させた画像を元の位置に戻す。この結果、表示部30には、アプリケーション起動後の画像が表示される。一方、図8Dに示したように画像を移動させた後、一定時間経過後もタッチパネル10上がタッチされなかった場合、画像制御部70は、ベクトル430分、平行移動させた画像を元の位置に戻す。
なお、図8A〜図8Fでは、利用者が表示部30上に表示されているアイコンIを選択する例を説明したが、これに限られない。例えば、利用者が移動後の画像に対してスワイプ、ダブルタップ等の操作を行った場合、タッチ情報処理部60は行われた操作に応じた処理を行う。
また、本実施形態では、右手で端末1を保持して右手の親指で操作する例を説明したが、左手で保持して左手の親指で操作する場合も図7と同様の処理を行うことができる。
なお、タッチパネル10と表示部30とが一体型で赤外線光源が内蔵されている場合、指の形状及びホバー検出は、この光源からの反射光を含む信号と、指からの反射光を含まない外交のみによる信号を順に検出するバックライト差分法を用いて検出を行うようにしてもよい。この場合、タッチされた指の接触面積を解析することで、指の圧力を検出するようにしてもよい。また、タッチした指の画像解析を行うことで、タッチした指が親指であるか否か、また親指が伸びた状態であるかを検出するようにしてもよい。また、バックライト差分法によって検出されたシグナル光の強度を解析することで、指の高さを検出してホバー検出するようにしてもよい。
本発明の第1実施形態によれば、片手で保持したときに指が届かないような大きな画面の端末であっても、片手で把持しつつその片手の最小限の指先操作により所定の操作を行うことができるので、操作性を向上させることができる。なお、本実施形態では、表示部30が縦長に保持された場合を説明したが、これに限られない。表示部30の横の長さが、例えば利用者の親指の長さの2倍より短い端末1であれば、端末1が横長に保持した場合であっても、同様の処理を行うようにしてもよい。
<第2実施形態>
本実施形態では、端末の縦横の長さが利用者の親指の長さの2倍より長い例を説明する。このため、本実施形態では、表示部30が横長になるように片手で保持して操作する例を説明する。なお、端末1の構成は、第1実施形態の図1で説明した構成と同様である。
本実施形態における端末1は、例えば表示部30が10インチ等のタブレット端末である。
図9は、本実施形態に係る処理手順のフローチャートである。
(ステップS101、S102)端末1は、ステップS101〜S102の処理をステップS1、S2(図7)と同様に行う。
(ステップS103)画像制御部70は、センサ90から入力された結果に応じて、端末1の表示部30が横長になるように保持されていると判別し、横長に保持されている場合の処理に切り換える。次に、画像制御部70は、座標(pB)から座標(pA)へのベクトルVを計算する。
(ステップS104)画像処理部70は、座標(pA)から対角の位置にあるタッチパネル10の角を基準として、算出したベクトルV分、表示部30上の画像を平行移動させる。
(ステップS105)接触判定部43は、タッチパネル10への操作が行われたか否かを判定する。接触判定部43は、タッチパネル10への操作が行われたと判定した場合(ステップS105;YES)、ステップS110に進み、タッチパネル10への操作が行われていないと判定した場合(ステップS105;NO)、ステップS106に進む。
(ステップS106)画像制御部70は、ステップS104でベクトルV分、平行移動させた後、平行移動の基準となる座標(例えば図10Dの座標K1)が利用者の親指で操作可能な領域(例えば図10Dの領域501)に入っているか否かを判別する。なお、平行移動の基準となる座標とは、利用者が端末1を右手で保持した場合、平行移動させた画像における左上の座標である。画像制御部70は、平行移動の基準となる座標が利用者の親指で操作可能な領域に入っていると判別した場合(ステップS106;YES)、ステップS109に進み、平行移動の基準となる座標が利用者の親指で操作可能な領域に入っていないと判別した場合(ステップS106;NO)、ステップS107に進む。
(ステップS107)画像制御部70は、利用者の親指の付け根の座標(pA)及び親指の指先の座標(pB)が変化していないか否かを判別する。なお、画像制御部70は、座標(pA)と座標(pB)に加えて、親指のホバリング状態が保持されているか否か、親指が伸びた状態が継続しているか否かに基づいて、平行移動の基準となる画像が利用者の親指で操作可能な領域に入っているか否かを判別するようにしてもよい。画像制御部70は、利用者の親指の付け根の座標(pA)及び親指の指先の座標(pB)が変化していないと判別した場合(ステップS107;YES)、ステップS108に進み、利用者の親指の付け根の座標(pA)及び親指の指先の座標(pB)が変化していると判別した場合(ステップS107;NO)、ステップS109に進む。なお、ステップS105〜S108を複数回繰り返しても、タッチパネル10がステップS105で操作されたことが検出されない場合、利用者が親指を向ける向きを誤っていたため、画像の移動が適切ではなかったことが想定される。この場合、座標(pA)から対角線にある位置から画像が消失するまで、画像の移動を継続させた後に、画像を元の位置に戻すようにしてもよい。
(ステップS108)画像制御部70は、前回、画像を移動させた位置から、さらにベクトルV分、画面を平行移動させる。画像制御部70は、処理をステップS105に戻す。
(ステップS109)接触判定部43は、予め定められている時間(一定時間)が経過したか否かを判定する。接触判定部43は、一定時間が経過したと判定した場合(ステップS109;YES)、ステップS111に進み、一定時間が経過していないと判定した場合(ステップS109;NO)、ステップS105に戻る。なお、この一定時間は、ステップS112と同じであっても異なっていてもよい。
(ステップS110、S111)タッチ情報処理部60は、ステップS110及びS111の処理を、ステップS8及びS9と同様に処理を行う。タッチ情報処理部60は、ステップS111終了後、処理を終了する。
(ステップS112、S113)判定部40は、ステップS112及びS113の処理を、ステップS10及びS11と同様に処理を行う。タッチ情報処理部60は、ステップS113終了後、処理を終了する。
本実施形態では、端末の縦横の長さが利用者の親指の長さの2倍より長い例を説明する。このため、本実施形態では、表示部30が横長になるように片手で保持して操作する例を説明する。なお、端末1の構成は、第1実施形態の図1で説明した構成と同様である。
本実施形態における端末1は、例えば表示部30が10インチ等のタブレット端末である。
図9は、本実施形態に係る処理手順のフローチャートである。
(ステップS101、S102)端末1は、ステップS101〜S102の処理をステップS1、S2(図7)と同様に行う。
(ステップS103)画像制御部70は、センサ90から入力された結果に応じて、端末1の表示部30が横長になるように保持されていると判別し、横長に保持されている場合の処理に切り換える。次に、画像制御部70は、座標(pB)から座標(pA)へのベクトルVを計算する。
(ステップS104)画像処理部70は、座標(pA)から対角の位置にあるタッチパネル10の角を基準として、算出したベクトルV分、表示部30上の画像を平行移動させる。
(ステップS105)接触判定部43は、タッチパネル10への操作が行われたか否かを判定する。接触判定部43は、タッチパネル10への操作が行われたと判定した場合(ステップS105;YES)、ステップS110に進み、タッチパネル10への操作が行われていないと判定した場合(ステップS105;NO)、ステップS106に進む。
(ステップS106)画像制御部70は、ステップS104でベクトルV分、平行移動させた後、平行移動の基準となる座標(例えば図10Dの座標K1)が利用者の親指で操作可能な領域(例えば図10Dの領域501)に入っているか否かを判別する。なお、平行移動の基準となる座標とは、利用者が端末1を右手で保持した場合、平行移動させた画像における左上の座標である。画像制御部70は、平行移動の基準となる座標が利用者の親指で操作可能な領域に入っていると判別した場合(ステップS106;YES)、ステップS109に進み、平行移動の基準となる座標が利用者の親指で操作可能な領域に入っていないと判別した場合(ステップS106;NO)、ステップS107に進む。
(ステップS107)画像制御部70は、利用者の親指の付け根の座標(pA)及び親指の指先の座標(pB)が変化していないか否かを判別する。なお、画像制御部70は、座標(pA)と座標(pB)に加えて、親指のホバリング状態が保持されているか否か、親指が伸びた状態が継続しているか否かに基づいて、平行移動の基準となる画像が利用者の親指で操作可能な領域に入っているか否かを判別するようにしてもよい。画像制御部70は、利用者の親指の付け根の座標(pA)及び親指の指先の座標(pB)が変化していないと判別した場合(ステップS107;YES)、ステップS108に進み、利用者の親指の付け根の座標(pA)及び親指の指先の座標(pB)が変化していると判別した場合(ステップS107;NO)、ステップS109に進む。なお、ステップS105〜S108を複数回繰り返しても、タッチパネル10がステップS105で操作されたことが検出されない場合、利用者が親指を向ける向きを誤っていたため、画像の移動が適切ではなかったことが想定される。この場合、座標(pA)から対角線にある位置から画像が消失するまで、画像の移動を継続させた後に、画像を元の位置に戻すようにしてもよい。
(ステップS108)画像制御部70は、前回、画像を移動させた位置から、さらにベクトルV分、画面を平行移動させる。画像制御部70は、処理をステップS105に戻す。
(ステップS109)接触判定部43は、予め定められている時間(一定時間)が経過したか否かを判定する。接触判定部43は、一定時間が経過したと判定した場合(ステップS109;YES)、ステップS111に進み、一定時間が経過していないと判定した場合(ステップS109;NO)、ステップS105に戻る。なお、この一定時間は、ステップS112と同じであっても異なっていてもよい。
(ステップS110、S111)タッチ情報処理部60は、ステップS110及びS111の処理を、ステップS8及びS9と同様に処理を行う。タッチ情報処理部60は、ステップS111終了後、処理を終了する。
(ステップS112、S113)判定部40は、ステップS112及びS113の処理を、ステップS10及びS11と同様に処理を行う。タッチ情報処理部60は、ステップS113終了後、処理を終了する。
次に、上述した処理の一例を、図10A〜図10D及び図11A〜図11Dを用いて説明する。
図10A〜図10D及び図11A〜図11Dは、本実施形態に係る処理の一例を説明する図である。図10A〜図10D及び図11A〜図11Dにおいて、表示部30の長手方向をx軸方向、短手方向をy軸方向とする。
図10Aは、親指で操作可能な領域501を説明する図である。図10A〜図10D及び図11A〜図11Dに示す例では、片手で保持された場合、端末1は、親指で操作可能な範囲がタッチパネル10の縦幅と横幅より2倍以上大きい領域を有している。
図10Bは、親指の付け根の座標(pA)、親指の指先の座標(pB)を説明する図である。図10Bに示すように、利用者は、端末1を右手で保持するので、右手の指の付け根をタッチパネル10の枠に設定されている領域に接触されている。利用者は、親指が届かないアイコンIに親指の指先を向けて、ホバリング状態を一定時間継続する。
判定部40は、親指の付け根の座標(pA)と、親指の指先の座標(pB)を検出する。
図10Cは、座標pBから座標pAへのベクトル520を説明する図である。画像制御部70は、座標(pB)から座標(pA)へのベクトル520を計算する。
図10Dは、移動させるためのベクトル530を説明する図である。画像制御部70は、持ち手の位置と対角線上の角を基準として、計算したベクトル520をベクトル530に変換する。そして、画像制御部70は、ベクトル530分、表示部30に表示されている画像を平行移動させる。この結果、表示部30に表示されていた画像が移動する。
この平行移動により、表示部30の左上の平行移動の基準となる座標が座標K1に移動する。図10Dに示す例では、座標K1は、領域501外である。
図10A〜図10D及び図11A〜図11Dは、本実施形態に係る処理の一例を説明する図である。図10A〜図10D及び図11A〜図11Dにおいて、表示部30の長手方向をx軸方向、短手方向をy軸方向とする。
図10Aは、親指で操作可能な領域501を説明する図である。図10A〜図10D及び図11A〜図11Dに示す例では、片手で保持された場合、端末1は、親指で操作可能な範囲がタッチパネル10の縦幅と横幅より2倍以上大きい領域を有している。
図10Bは、親指の付け根の座標(pA)、親指の指先の座標(pB)を説明する図である。図10Bに示すように、利用者は、端末1を右手で保持するので、右手の指の付け根をタッチパネル10の枠に設定されている領域に接触されている。利用者は、親指が届かないアイコンIに親指の指先を向けて、ホバリング状態を一定時間継続する。
判定部40は、親指の付け根の座標(pA)と、親指の指先の座標(pB)を検出する。
図10Cは、座標pBから座標pAへのベクトル520を説明する図である。画像制御部70は、座標(pB)から座標(pA)へのベクトル520を計算する。
図10Dは、移動させるためのベクトル530を説明する図である。画像制御部70は、持ち手の位置と対角線上の角を基準として、計算したベクトル520をベクトル530に変換する。そして、画像制御部70は、ベクトル530分、表示部30に表示されている画像を平行移動させる。この結果、表示部30に表示されていた画像が移動する。
この平行移動により、表示部30の左上の平行移動の基準となる座標が座標K1に移動する。図10Dに示す例では、座標K1は、領域501外である。
図11Aは、二回目の画像の移動を説明する図である。一回目のベクトル530分の平行移動では基準となる座標K1が領域501外であり、アイコンIが親指で操作できる領域に達していなかったため、画像制御部70は、再度、ベクトル530分、画像を平行移動させる。ベクトル530の基点は、前回のベクトル530の終点K1と同じである。この平行移動により、平行移動の基準となる座標K1が座標K2に移動する。図11Aに示す例でも、座標K2は、領域501外である。
図11Bは、三回目の画像の移動を説明する図である。二回目のベクトル530分の平行移動でも基準となる座標K2が領域501外であり、アイコンIが親指で操作できる領域に達していなかったため、画像制御部70は、再度、ベクトル530分、画像を平行移動させる。ベクトル530の基点は、前回のベクトル530の終点K2と同じである。画像制御部70は、ベクトル530分の画像の平行移動を繰り返す。この平行移動により、平行移動の基準となる座標K3が領域501内に移動する。
図11Cは、アイコンIが選択されアプリケーションが起動したことを説明する図である。アイコンIが選択された場合、タッチ情報処理部60は、選択されたアイコンIに対応するアプリケーションを起動し、起動後に画像制御部70がベクトル530分、複数回、平行移動させた画像を元の位置に戻す。この結果、表示部30には、アプリケーション起動後の画像が表示される。一方、画像を移動させた後、一定時間経過後もタッチパネル10上がタッチされなかった場合、画像制御部70は、ベクトル530分、平行移動させた画像を元の位置に戻す。
図11Dは、アイコンIが選択されない状態の一例を説明する図である。図11Bに示す状態から利用者の指の状態が変えられ、タッチパネル10に対する操作が行われずに一定時間が経過した場合、画像制御部70は、移動させた画像を元の位置に戻す。
本発明の第2実施形態によれば、片手で保持したときに指が届かないような大きな横長の画面の端末であっても、片手で把持しつつその片手の最小限の指先操作により所定の操作を行うことができるので、操作性を向上させることができる。
図11Bは、三回目の画像の移動を説明する図である。二回目のベクトル530分の平行移動でも基準となる座標K2が領域501外であり、アイコンIが親指で操作できる領域に達していなかったため、画像制御部70は、再度、ベクトル530分、画像を平行移動させる。ベクトル530の基点は、前回のベクトル530の終点K2と同じである。画像制御部70は、ベクトル530分の画像の平行移動を繰り返す。この平行移動により、平行移動の基準となる座標K3が領域501内に移動する。
図11Cは、アイコンIが選択されアプリケーションが起動したことを説明する図である。アイコンIが選択された場合、タッチ情報処理部60は、選択されたアイコンIに対応するアプリケーションを起動し、起動後に画像制御部70がベクトル530分、複数回、平行移動させた画像を元の位置に戻す。この結果、表示部30には、アプリケーション起動後の画像が表示される。一方、画像を移動させた後、一定時間経過後もタッチパネル10上がタッチされなかった場合、画像制御部70は、ベクトル530分、平行移動させた画像を元の位置に戻す。
図11Dは、アイコンIが選択されない状態の一例を説明する図である。図11Bに示す状態から利用者の指の状態が変えられ、タッチパネル10に対する操作が行われずに一定時間が経過した場合、画像制御部70は、移動させた画像を元の位置に戻す。
本発明の第2実施形態によれば、片手で保持したときに指が届かないような大きな横長の画面の端末であっても、片手で把持しつつその片手の最小限の指先操作により所定の操作を行うことができるので、操作性を向上させることができる。
以上のように、第1及び第2実施形態の端末1によれば、利用者は、端末1を片手で保持したのち、利用したい画像に向けて親指のホバリング状態を維持するだけで、自動的に指の届く範囲に使用したいアイコン等の画像が含まれた画像を引き寄せることができる。
この結果、第1及び第2実施形態によれば、片手で保持したときに指が届かないような大きな画面であっても、片手による操作性を向上させることができる。なお、親指の付け根がタッチパネル10の所定の領域に接触していることを検出する例を説明したが、端末1が保持されていることを検出すればよく、検出は端末1の側面に取り付けられた不図示の圧力検出センサ等で行ってもよい。また、端末1は、センサ90から入力された結果に応じて、表示部30が縦長に保持された場合に第1実施形態で説明した処理を行い、表示部30が横長に保持された場合に第2実施形態で説明した処理を行うようにしてもよい。この場合、判定部40は、親指がホバリング状態のとき、上述した座標pA及び座標pBと、予め記憶部80に記憶されている表示部30の大きさとに基づいて端末の縦横の長さが利用者の親指の長さの2倍より長いか否かを判定し、判定した結果に基づいて第1実施形態の処理または第2実施形態の処理を行うように選択するようにしてもよい。
この結果、第1及び第2実施形態によれば、片手で保持したときに指が届かないような大きな画面であっても、片手による操作性を向上させることができる。なお、親指の付け根がタッチパネル10の所定の領域に接触していることを検出する例を説明したが、端末1が保持されていることを検出すればよく、検出は端末1の側面に取り付けられた不図示の圧力検出センサ等で行ってもよい。また、端末1は、センサ90から入力された結果に応じて、表示部30が縦長に保持された場合に第1実施形態で説明した処理を行い、表示部30が横長に保持された場合に第2実施形態で説明した処理を行うようにしてもよい。この場合、判定部40は、親指がホバリング状態のとき、上述した座標pA及び座標pBと、予め記憶部80に記憶されている表示部30の大きさとに基づいて端末の縦横の長さが利用者の親指の長さの2倍より長いか否かを判定し、判定した結果に基づいて第1実施形態の処理または第2実施形態の処理を行うように選択するようにしてもよい。
なお、第1、第2実施形態の図1の端末1の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
本発明の一態様は、片手で保持したときに指が届かないような大きな画面であっても、片手による操作性を向上させることが必要な端末、及び端末制御方法などに適用することができる。
1…端末、10…タッチパネル、20…検出部、30…表示部、40…判定部、41…押圧判定部、42…位置判定部、43…接触判定部、50…通知部、60…タッチ情報処理部、61…タッチ情報変換部、62…タッチ情報反映部、70…画像制御部、80…記憶部、90…センサ、I…アイコン、V…ベクトル
Claims (5)
- 端末の表示部の所定の箇所に指の一部が接触していることを検出し、そして前記表示部上にかざされる前記指の形状を検出する検出部と、
前記検出部によって検出された検出結果に基づいて、前記表示部上に表示されている画像を平行移動させる画像制御部と、
を備える端末。 - 前記画像を移動させた後の表示部上の座標を変換する変換部、を備え、
前記画像制御部は、前記変換部によって変換された座標に基づいて、前記表示部上で選択された画像に対する処理を行う請求項1に記載の端末。 - 前記表示部の姿勢を検出するセンサ、を備え、
前記画像制御部は、前記センサによって検出された結果に応じて、前記画像を移動させる量を決定する請求項1または請求項2に記載の端末。 - 前記画像制御部は、
前記表示部が縦長の場合、前記指の付け根の位置から前記指の指先の位置に延長した線と、前記表示部との交点を算出し、前記算出した交点から前記指の指先の位置へのベクトルに基づいて、前記画像を移動するように制御し、
前記表示部が横長の場合、前記指の指先の位置から前記指の付け根の位置へのベクトルに基づいて、前記画像を移動するように制御する請求項1から請求項3のいずれか1項に記載の端末。 - 検出部が、端末の表示部の所定の箇所に指の一部が接触していることを検出し、そして前記表示部上にかざされる前記指の形状を検出する検出手順と、
画像制御部が、前記検出手順によって検出された検出結果に基づいて、前記表示部上に表示されている画像を平行移動させる画像制御手順と、
を含む端末制御方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014102521 | 2014-05-16 | ||
JP2014102521 | 2014-05-16 | ||
PCT/JP2015/063186 WO2015174316A1 (ja) | 2014-05-16 | 2015-05-07 | 端末、及び端末制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015174316A1 JPWO2015174316A1 (ja) | 2017-04-20 |
JP6183820B2 true JP6183820B2 (ja) | 2017-08-23 |
Family
ID=54479857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016519222A Active JP6183820B2 (ja) | 2014-05-16 | 2015-05-07 | 端末、及び端末制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20170075453A1 (ja) |
JP (1) | JP6183820B2 (ja) |
WO (1) | WO2015174316A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10592717B2 (en) * | 2016-01-29 | 2020-03-17 | Synaptics Incorporated | Biometric imaging with hover detection |
KR20180071725A (ko) * | 2016-12-20 | 2018-06-28 | 삼성전자주식회사 | 디스플레이 장치 및 방법 |
US11487425B2 (en) * | 2019-01-17 | 2022-11-01 | International Business Machines Corporation | Single-hand wide-screen smart device management |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244302A (ja) * | 2009-04-06 | 2010-10-28 | Sony Corp | 入力装置および入力処理方法 |
US20120256959A1 (en) * | 2009-12-30 | 2012-10-11 | Cywee Group Limited | Method of controlling mobile device with touch-sensitive display and motion sensor, and mobile device |
JP5732784B2 (ja) * | 2010-09-07 | 2015-06-10 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
US8971572B1 (en) * | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
JP2013214164A (ja) * | 2012-03-30 | 2013-10-17 | Fujitsu Ltd | 携帯電子機器、スクロール処理方法及びスクロール処理プログラム |
JP5565450B2 (ja) * | 2012-05-22 | 2014-08-06 | パナソニック株式会社 | 入出力装置 |
US20130342452A1 (en) * | 2012-06-21 | 2013-12-26 | Research In Motion Limited | Electronic device including touch-sensitive display and method of controlling a position indicator |
JP5998700B2 (ja) * | 2012-07-20 | 2016-09-28 | 日本電気株式会社 | 情報機器 |
JP2014081733A (ja) * | 2012-10-15 | 2014-05-08 | Ntt Docomo Inc | 携帯電子機器 |
US20140137036A1 (en) * | 2012-11-15 | 2014-05-15 | Weishan Han | Operation Window for Portable Devices with Touchscreen Displays |
US9448588B2 (en) * | 2012-12-12 | 2016-09-20 | Brandon Barnard | Electronic device holder |
JP2015133021A (ja) * | 2014-01-14 | 2015-07-23 | シャープ株式会社 | 端末、及び端末制御方法 |
-
2015
- 2015-05-07 WO PCT/JP2015/063186 patent/WO2015174316A1/ja active Application Filing
- 2015-05-07 US US15/310,494 patent/US20170075453A1/en not_active Abandoned
- 2015-05-07 JP JP2016519222A patent/JP6183820B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2015174316A1 (ja) | 2015-11-19 |
JPWO2015174316A1 (ja) | 2017-04-20 |
US20170075453A1 (en) | 2017-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5507494B2 (ja) | タッチ・スクリーンを備える携帯式電子機器および制御方法 | |
KR200450989Y1 (ko) | 양면 터치스크린을 구비한 플랫 패널 형상의 모바일 장치 | |
KR101872426B1 (ko) | 깊이 기반 사용자 인터페이스 제스처 제어 | |
JP5816834B2 (ja) | 入力装置、および入力方法 | |
JP5718042B2 (ja) | タッチ入力処理装置、情報処理装置およびタッチ入力制御方法 | |
JP4979600B2 (ja) | 携帯端末装置、及び表示制御方法 | |
US20140380209A1 (en) | Method for operating portable devices having a touch screen | |
JP6157885B2 (ja) | 携帯端末装置の表示制御方法 | |
TW201329835A (zh) | 顯示控制裝置、顯示控制方法及電腦程式 | |
JP2014203183A (ja) | 情報処理装置及びプログラム | |
JP2010140321A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2013546110A (ja) | コンピューティング装置の動きを利用するコンピューティング装置と相互作用するときに発生する入力イベントの解釈の強化 | |
US10671269B2 (en) | Electronic device with large-size display screen, system and method for controlling display screen | |
JP2012003404A (ja) | 情報表示装置 | |
US20170192465A1 (en) | Apparatus and method for disambiguating information input to a portable electronic device | |
CN104423687A (zh) | 电子装置、屏幕的控制方法及其程序存储介质 | |
JP2016151801A (ja) | 表示制御装置及びその制御方法、プログラム、並びに記憶媒体 | |
JP6183820B2 (ja) | 端末、及び端末制御方法 | |
KR20160019762A (ko) | 터치 스크린 한손 제어 방법 | |
JP2014016743A (ja) | 情報処理装置、情報処理装置の制御方法、および情報処理装置の制御プログラム | |
JP2016126363A (ja) | タッチスクリーンに入力する方法、携帯式電子機器およびコンピュータ・プログラム | |
WO2013080425A1 (ja) | 入力装置、情報端末、入力制御方法、および入力制御プログラム | |
JP2014182582A (ja) | 情報処理装置及び情報処理方法 | |
JP2013114645A (ja) | 小型情報機器 | |
JP2012063976A (ja) | 電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6183820 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |