JP2014021596A - タブレット端末、操作受付方法および操作受付プログラム - Google Patents

タブレット端末、操作受付方法および操作受付プログラム Download PDF

Info

Publication number
JP2014021596A
JP2014021596A JP2012157568A JP2012157568A JP2014021596A JP 2014021596 A JP2014021596 A JP 2014021596A JP 2012157568 A JP2012157568 A JP 2012157568A JP 2012157568 A JP2012157568 A JP 2012157568A JP 2014021596 A JP2014021596 A JP 2014021596A
Authority
JP
Japan
Prior art keywords
area
tablet terminal
touch
touch panel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012157568A
Other languages
English (en)
Other versions
JP6131540B2 (ja
Inventor
Tetsunori Taguchi
哲典 田口
Satoru Nakajima
哲 中島
Masayoshi Shimizu
雅芳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012157568A priority Critical patent/JP6131540B2/ja
Priority to EP13173394.1A priority patent/EP2685366A3/en
Priority to US13/925,000 priority patent/US9952690B2/en
Priority to KR1020130081533A priority patent/KR101500843B1/ko
Publication of JP2014021596A publication Critical patent/JP2014021596A/ja
Application granted granted Critical
Publication of JP6131540B2 publication Critical patent/JP6131540B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

【課題】片手で操作する場合でも、タッチパネルを快適に操作すること。
【解決手段】本実施例に係るタブレット端末100は、タッチパネル140上で操作の行われる対象領域を特定し、対象領域内のタッチ操作の内容を判定する。例えば、タブレット端末100は、視線検出部161が検出する視線位置を基にして、対象領域を特定する。そして、タブレット端末100は、タッチ操作の内容に対応する選択肢を含むメニュー画像を生成し、既定領域に表示させて、タッチ操作を受け付ける。
【選択図】図1

Description

本発明は、タブレット端末等に関する。
スマートフォンを始め、携帯電話、PHS(Personal Handyphone System)やPDA(Personal Digital Assistants)などのタブレット端末が普及している。タブレット端末は小型、軽量であるため、利用者は、場所を選ばすどこでもタブレット端末を使用することができる。
利用者がタブレット端末を操作する場合には、タブレット端末のタッチパネルに表示される各種項目を指でタッチすることで操作する。例えば、利用者は、タッチパネルに表示されるWebページのハイパーテキストの選択、画像の拡大、動画の再生、停止などを、タッチ操作で行う。
しかしながら、上記の従来技術には、片手でタッチパネルを操作する場合に、快適に操作することができないという問題があった。
例えば、利用者が電車の吊革につかまっているときや、バック、傘などを片手で持っている場合には、タブレット端末のタッチパネルを片手で操作することになる。このような状況下でタッチパネルを操作する場合には、利用者の指の届く範囲が限られてしまい、快適にタッチパネルを操作することができない。
開示の技術は、上記に鑑みてなされたものであって、片手でタッチパネルを操作する場合でも、快適に操作することができるタブレット端末、操作受付方法および操作受付プログラムを提供することを目的とする。
開示のタブレット端末は、領域特定部と、操作判定部と、表示制御部とを有する。領域特定部は、タッチパネル上でタッチ操作の行われる領域を特定する。操作判定部は、領域特定部によって特定された領域内のタッチ操作の内容を判定する。表示制御部は、操作判定部によって判定されたタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する。
開示のタブレット端末によれば、片手で操作する場合でも、タッチパネルを快適に操作することができるという効果を奏する。
図1は、本実施例1に係るタブレット端末の構成を示す図である。 図2は、タッチパネルの画面内の各領域を説明するための図である。 図3は、対象領域を説明するための図である。 図4は、既定領域を説明するための図である。 図5は、メニュー画像の一例を示す図(1)である。 図6は、メニュー画像の一例を示す図(2)である。 図7は、メニュー画像の一例を示す図(3)である。 図8は、対応関係情報の一例を示す図(1)である。 図9は、対応関係情報の一例を示す図(2)である。 図10は、対応関係情報の一例を示す図(3)である。 図11は、本実施例1に係るタブレット端末の画面イメージを示す図(1)である。 図12は、本実施例1に係るタブレット端末の画面イメージを示す図(2)である。 図13は、本実施例1に係るタブレット端末の画面イメージを示す図(3)である。 図14は、本実施例1に係るタブレット端末の処理手順を示すフローチャート(1)である。 図15は、本実施例1に係るタブレット端末の処理手順を示すフローチャート(2)である。 図16は、本実施例1に係るタブレット端末の処理手順を示すフローチャート(3)である。 図17は、本実施例2に係るタブレット端末の構成を示す図である。 図18は、本実施例2に係るタブレット端末の画面イメージを示す図である。 図19は、本実施例2に係るタブレット端末の処理手順を示すフローチャートである。 図20は、その他のメニュー画像の一例を示す図(1)である。 図21は、その他のメニュー画像の一例を示す図(2)である。 図22は、実施例に係る操作受付プログラムを実行するコンピュータの一例について説明するための図である。
以下に、本願の開示するタブレット端末、操作受付方法および操作受付プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例1に係るタブレット端末の構成について説明する。図1は、本実施例1に係るタブレット端末の構成を示す図である。図1に示すように、このタブレット端末100は、カメラ110、光源120、通信部130、タッチパネル140、記憶部150、制御部160を有する。なお、その他の構成は、周知のタブレット端末と同様である。
カメラ110は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いた撮像装置である。カメラ110は、撮像範囲に含まれる被写体の画像を撮影し、撮影した被写体の画像データを、視線検出部161に出力する。
カメラ110は、画像を撮影するタイミングで、光源120を制御し、被写体に赤外線を照射させる。カメラ110が撮影する被写体に利用者の眼球が含まれる場合には、網膜上の光の反射がカメラ110によって捉えられ、眼球の瞳孔部分が他の部分よりも明るく写った画像が得られる。なお、上記のカメラ110は、タブレット端末100の出荷時から搭載されているカメラを利用しても良いし、外部接続されたデジタルカメラ等を利用しても良い。
光源120は、カメラ110の制御命令に応答して、赤外線を照射する装置である。通信部130は、ネットワークに接続して他の装置とデータ通信を実行する処理部である。例えば、通信部130は、無線通信装置に対応する。後述する制御部160は、通信部130を介して、ネットワーク上のサーバ等にアクセスする。
タッチパネル140は、表示と入力の二つの機能を備えたインタフェースである。タッチパネル140は、制御部160から出力される情報を表示する。また、タッチパネル140は、タッチ操作を受け付けた場合に、触れられた画面位置の情報を制御部160に出力する。
本実施例1では、説明の便宜上、タッチパネル140の画面内に、視線検出領域、対象領域、既定領域を定義する。図2は、タッチパネルの画面内の各領域を説明するための図である。図2に示すように、タッチパネル140には、視線検出領域141、対象領域142、既定領域143を有する。
例えば、視線検出領域141は、タッチパネル140の表示画面に対応する領域である。対象領域142は、視線位置10aを含む領域である。視線位置10aは、後述する視線検出部161によって検出される利用者の画面上の視線位置である。既定領域143は、利用者がタブレット端末100を片手で操作する場合に、タブレット端末100を保持する親指10bが届く領域である。
対象領域142について説明する。図3は、対象領域を説明するための図である。図3に示すように、対象領域142は、幅llと、高さlsによって定義され、幅llと高さlsによる矩形の重心を、重心位置Gd(xd、yd)とする。後述する領域特定部162によって、対象領域142の重心位置Gdは、利用者の視線位置10aと重なる位置に調整され、これによって、対象領域142の位置も移動する。幅ll、高さlsの値は、予め設定されているものとする。
既定領域143について説明する。図4は、既定領域を説明するための図である。図4に示すように、この既定領域143は、既定領域143の重心が存在する重心位置Gd(xd、yd)と、幅llと、高さlsによって定義される。係る既定領域143には、利用者がタブレット端末100を持つ手の親指10bがタブレット端末100をつかんだ状態で届く範囲20と同等若しくは範囲20よりも小さい形状およびサイズが定義される。タッチパネル140の画面に表示される画像の上下方向が決まっている場合には、当該画面が表示される左下の隅と既定領域143の左下の頂点とが一致するように重心位置Gd(xd、yd)を定めることもできる。
図1の説明に戻る。記憶部150は、メニュー画像情報151、対応関係情報152、表示情報153、矩形定義情報154を記憶する記憶装置である。例えば、記憶部150は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
メニュー画像情報151は、各種の操作を行うための各種のメニュー画像の情報を含む。メニュー画像は、タッチパネル140の既定領域143に表示され、利用者は係るメニュー画像に対してタッチ操作を行う。ここで、各メニュー画像の一例について説明する。図5〜図7は、メニュー画像の一例を示す図である。
図5に示すメニュー画像30は、画像の大きさを調整するものである。例えば、利用者がメニュー画像30の矢印30aを、左側から右側にスライドさせることで、該当する画像またはテキスト文字等を拡大する操作となる。
図6に示すメニュー画像31は、複数の選択ボタン31a,31b,31cを有する。後述するように、各選択ボタン31a〜31cは、タッチパネル140上の画面に表示される各選択項目にそれぞれ対応付けられ、利用者が選択ボタン31a〜31cをタッチ操作することで、該当する選択項目をする操作となる。Webページを例にして説明すると、選択項目は、ハイパーテキスト等に対応する。
図7に示すメニュー画像32は、動画の操作を行うためのものである。例えば、メニュー画像32は、再生ボタン32a、停止ボタン32b、音ボタン32cを有する。例えば、利用者が再生ボタン32aをタッチ操作することで、該当する動画を再生する操作となる。利用者が停止ボタン32bをタッチ操作することで、該当する動画を停止する操作となる。利用者が音ボタン32cをタッチ操作することで、動画の音の有音、無音を切り替える操作となる。
メニュー画像情報151に含まれるメニュー画像は、上記図5〜図7に示すメニュー画像に限られるものではない。また、図5〜図7に示したメニュー画像の内容も一例に過ぎず、適宜変更しても良い。
図1の説明に戻る。対応関係情報152は、図5〜図7に示したメニュー画像に対するタッチ操作と、タッチパネル140上の項目に対する操作とを対応付けるための情報である。対応関係情報152は、上記のメニュー画像に応じた複数の対応関係情報を有する。例えば、メニュー画像30に対応する対応関係情報を対応関係情報152aとする。メニュー画像31に対応する対応関係情報を対応関係情報152bとする。メニュー画像32に対応する対応関係情報を対応関係情報152cとする。図8〜図10は、対応関係情報の一例を示す図である。
図8は、メニュー画像30に対応する対応関係情報152aの一例を示す。図8に示すように、この対応関係情報152aは、x座標と画像拡大率とを対応付ける。x座標は、メニュー画像30の矢印30aのx座標に対応する。画像拡大率は、該当する画像またはテキスト文字等を拡大する場合の拡大率に対応する。例えば、矢印30aのx座標が「0」の場合には、画像拡大率は「10%」となる。矢印30aのx座標が「xd」の場合には、画像拡大率は「100%」となる。矢印30aのx座標が「xm」の場合には、画像拡大率は「200%」となる。
図9は、メニュー画像31に対応する対応関係情報152bの一例を示す。図9に示すように、この対応関係情報152bは、ボタン識別情報と、操作内容と、リンク座標とを対応付ける。ボタン識別情報は、メニュー画像31に含まれる各選択ボタンを識別する情報である。操作内容は、選択ボタンがタッチ操作された場合の操作の内容を示す情報である。リンク座標は、タッチパネル140上の選択項目の座標を示す。例えば、選択ボタン31aがタッチ操作された場合には、タッチパネル140上のリンク座標「x1、y1」の選択項目が「選択」される。
図10は、メニュー画像32に対応する対応関係情報152cの一例を示す。図10に示すように、この対応関係情報152cは、ボタン識別情報と、操作内容と、リンク先の動画領域とを対応付ける。ボタン識別情報は、メニュー画像32に含まれる各ボタンを識別する情報である。操作内容は、選択ボタンがタッチ操作された場合の操作の内容を示す情報である。リンク先の動画領域は、メニュー画像32によって操作する動画のタッチパネル140上の領域を示すものである。リンク先の動画領域には、例えば、動画の左上の座標と、右下の座標とを含む。再生ボタン32aがタッチ操作された場合には、タッチパネル140上の動画領域「(x4、y4)、(x5、y5)」の動画が「再生」される。
図1の説明に戻る。表示情報153は、タッチパネル140に表示される画面の情報である。例えば、タッチパネル140にWebページの情報を表示する場合には、表示情報153には、Webページのソースコードが含まれる。
矩形定義情報154は、図2に示した視線検出領域141の範囲、対象領域142の各辺の長さ、既定領域143の各辺の長さの情報を含む。
制御部160は、視線検出部161、領域特定部162、操作判定部163、タッチ判定部164、表示制御部165を有する。例えば、制御部160は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部160は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。
視線検出部161は、タッチパネル140上の視線位置を検出する処理部である。視線検出部161は、視線位置の情報を領域特定部162に出力する。例えば、視線検出部161は、カメラ110によって出力された被写体の画像に角膜反射法などのアルゴリズムを適用し、眼球の瞳孔の中心位置から視線の方向が指す視点の位置を検出する。係る視点の位置を、本実施例では視線位置とする。
なお、ここでは、角膜反射法を用いて視線位置を検出する場合について説明したが、他の方法を用いて視線位置を検出しても良い。例えば、タブレット端末100は、タッチパネル140の画面を分割し、分割した領域を見る眼の形状を学習しておき、カメラ110から入力される画像から抽出した眼の形状とテンプレートマッチングを実行することによって、視線位置を検出しても良い。また、タブレット端末100は、視線の位置を検出するヘッドセットを利用者に装着させ、ヘッドセットによって検出された視線の位置を取得しても良い。
また、視線検出部161は、視線位置を検出し、検出した視線位置が視線検出領域141に含まれるか否かを、矩形定義情報154を基に判定する。視線検出部161は、視線位置が、視線検出領域141に含まれる場合に、視線位置の情報を領域特定部162に出力する。
領域特定部162は、タッチ操作の行われる領域を特定する処理部である。以下において、領域特定部162の処理の一例について説明する。領域特定部162は、視線検出部161から視線位置の情報を取得し、所定時間毎に、視線位置の平均を算出する。領域特定部162は、平均の視線位置を対象領域の重心座標とすることで、図2に示した対象領域142の範囲を特定する。領域特定部162は、特定した対象領域142の範囲の情報を、操作判定部163に出力する。対象領域142の範囲の情報は、例えば、対象領域142のタッチパネル140上の座標である。
操作判定部163は、対象領域142の領域内のタッチ操作の内容を判定する処理部である。操作判定部163は、判定したタッチ操作の内容を、表示制御部165に出力する。
以下において、操作判定部163の処理の一例について説明する。操作判定部163は、DOM(Document Object Model)を利用して、対象領域142に含まれる要素を問い合わせる。DOMは、xmlやhtmlの各要素にアクセスするためのインタフェースである。例えば、操作判定部163は、Javascript(登録商標)のelementFromPoint(x,y)を利用する。本実施例では、操作判定部163は、DOMを利用して、対象領域142に対応するソースコードを、表示情報153から取得する。
操作判定部163は、対象領域142に含まれる要素に、画像や文字を識別するタグが含まれている場合には、大きさを調整する操作を行うと判定する。例えば、画像を識別するタグは<imag>となり、文字を識別するタグは<p>となる。その他の画像や文字を識別するタグは、HTMLリファレンス等に定義されているため、説明を省略する。
操作判定部163は、大きさを調整する操作を行うと判定した場合には、大きさを調整する操作を行う旨と、対象領域142の範囲の情報を、表示制御部165に出力する。
操作判定部163は、対象領域142に含まれる要素に、リンク先を識別するタグが含まれている場合には、係るリンク先を選択する操作を行うと判定する。また、操作判定部163は、リンク数を集計する。例えば、リンク先を識別するタグは<a href>となる。その他のリンク先を識別するタグは、HTMLリファレンス等に定義されているため、説明を省略する。
操作判定部163は、リンク先を選択する操作を行うと判定した場合には、リンク先を選択操作する旨と、リンク数と、選択対象となる項目の画面上の座標を、表示制御部165に出力する。
操作判定部163は、対象領域142に含まれる要素に、動画を識別するタグが含まれている場合には、動画の操作を行うと判定する。例えば、動画を識別するタグは<video>となる。その他の動画を識別するタグは、HTMLリファレンス等に定義されているため、説明を省略する。
操作判定部163は、動画の操作を行うと判定した場合には、動画の操作を行う旨と、対象領域142の範囲の情報を、表示制御部165に出力する。
タッチ判定部164は、タッチパネル140に対してタッチ操作が行われたか否かを判定する処理部である。タッチ判定部164は、タッチ操作が行われたか否かの判定結果を表示制御部165に出力する。
表示制御部165は、操作判定部163の判定結果に対応する選択肢を生成し、選択肢を、タッチパネル140の既定領域143に表示する処理部である。以下において、表示制御部165の処理の一例について説明する。なお、表示制御部165は、タッチ判定部164から、タッチ操作が行われた旨の情報を受け付けたことをトリガとして、下記の処理を実行する。
表示制御部165が、操作判定部163から、大きさを調整する操作を行う旨と、対象領域142の範囲の情報を受信した場合の処理について説明する。表示制御部165は、メニュー画像情報151から、図5に示した拡大操作を行うためのメニュー画像30を取得する。また、表示制御部165は、対応関係情報152から、メニュー画像30に対応する対応関係情報152aを取得し、メニュー画像30の矢印30aの操作と、操作の内容とを対応付ける。
表示制御部165は、メニュー画像30と対応関係情報152aとを基にして、操作の内容を対応付けた後に、メニュー画像30を既定領域143に表示させる。表示制御部165は、メニュー画像30の矢印30aに対するタッチ操作を受け付けた場合に、矢印30aの座標と対応関係情報152aとを基にして、画像拡大率を判定する。表示制御部165は、画像拡大率に応じて、対象領域142に含まれる画像または文字を拡大する。
次に、表示制御部165が、操作判定部163から、リンク先を選択操作する旨と、リンク数と、選択対象となる項目の画面上の座標を受信した場合の処理について説明する。表示制御部165は、メニュー画面情報151から、図6に示した選択ボタンを含むメニュー画像31を取得する。また、表示制御部165は、メニュー画像31の各選択ボタンと、選択対象となる項目の画面上の座標とを対応付けることで、図9に示した対応関係情報152を生成する。また、各操作の内容を、選択項目を選択に設定する。なお、表示制御部165は、リンク数に応じて、図6に示したメニュー画像31の選択ボタンを増やすものとする。
表示制御部165は、対応関係情報152を生成した後に、メニュー画像31を既定領域143に表示させる。表示制御部165は、メニュー画像31の選択ボタンに対するタッチ操作を受け付けた場合に、タッチ操作を受けた選択ボタンのボタン識別情報と、対応関係情報152bとを比較して、リンク座標を判定する。表示制御部165は、判定したリンク先座標に対応するリンク先の項目を選択し、リンク先の情報をタッチパネル140に表示させる。例えば、表示制御部165は、リンク先の項目がハイパーテキストである場合には、ハイパーテキストに示されるリンク先の情報を、ネットワークを介して取得し、取得した情報を、タッチパネル140に表示させる。
次に、表示制御部165が、操作判定部163から、動画の操作を行う旨と、対象領域142の範囲の情報を受信した場合の処理について説明する。表示制御部165は、メニュー画像情報151から、図7に示した動画の操作を行うためのメニュー画像32を取得する。また、表示制御部165は、対応関係情報152から、メニュー画像32に対応する対応関係情報152cを取得し、メニュー画像32の再生ボタン32a、停止ボタン32b、音ボタン32cに対応するリンク先の動画領域を、対象領域142の範囲の座標に設定する。
表示制御部165は、メニュー画像32と対応関係情報152cとを対応付けた後に、メニュー画像32を、既定領域143に表示させる。表示制御部165は、メニュー画像32のボタンに対するタッチ操作を受け付けた場合に、ボタン識別情報と、対応関係情報152cとを基にして、操作内容を特定し、操作内容に応じた処理を実行する。表示制御部165は、処理対象となる動画の座標は、リンク先の動画領域を基に特定する。
例えば、表示制御部165は、再生ボタン32aに対してタッチ操作が行われた場合には、該当する領域の動画を再生させる。表示制御部165は、停止ボタン32bに対してタッチ操作が行われた場合には、該当する領域の動画を停止させる。表示制御装置165は、音ボタン32cに対してタッチ操作が行われた場合には、該当する動画の音の有音、無音を切り替える。
なお、表示制御部165は、既定領域143にメニュー画像30、31または32を表示してから、既定時間以内に、該当するメニュー画像に対するタッチ操作を受け付けない場合には、メニュー画像を削除する。
次に、本実施例1に係るタブレット端末100の画面イメージについて説明する。図11〜図13は、本実施例1に係るタブレット端末の画面イメージを示す図である。
図11は、大きさを調整する操作を行う場合の画面イメージである。図11に示すように、タブレット端末100は、視線位置10aを検出し、対象領域142を設定する(ステップS10)。タブレット端末100は、DOMを利用して、対象領域142内が画像20aであると判定する(ステップS11)。
タブレット端末100は、既定領域143に、拡大操作を行うためのメニュー画像30を表示させる(ステップS12)。利用者は、メニュー画像30の矢印をスライドさせる(ステップS13)。タブレット端末100は、矢印の座標と、対応関係情報152aとを比較して、画像拡大率を判定し、画像拡大率に合わせて、画像20を拡大する(ステップS14)。
図12は、リンク先を選択する場合の画面イメージである。図12に示すように、タブレット端末100は、視線位置10aを検出し、対象領域142を設定する(ステップS20)。タブレット端末100は、DOMを利用して、対象領域142から、例えば、リンク先21、22、23を特定する(ステップS21)。
タブレット端末100は、既定領域143に、リンク先を選択するためのメニュー画像31を表示させる。例えば、リンク先が3つの場合には、タブレット端末100は、3つの選択ボタン31a、31b、31cを有するメニュー画像31を既定領域143に表示させる(ステップS22)。例えば、選択ボタン31a、31b、31cは、リンク先21、22、23に対応する。
例えば、利用者は、メニュー画像31の選択ボタン31aをタッチ操作する(ステップS23)。そうすると、タブレット端末100は、選択ボタン31aに対応するリンク先21が選択されたと判定し、リンク先21にリンク付けされた情報を表示する(ステップS24)。
図13は、動画を操作する場合の画面イメージである。図13に示すように、タブレット端末100は、視線位置10aを検出し、対象領域142を設定する(ステップS30)。タブレット端末100は、DOMを利用して、対象領域142に動画が存在すると判定する。なお、タブレット端末100は、動画の領域142aを更に特定しても良い(ステップS31)。
タブレット端末100は、既定領域143に、動画を操作するためのメニュー画像32を表示させる(ステップS32)。例えば、メニュー画像32には、再生ボタン32a、停止ボタン32b、音ボタン32cが含まれる。
例えば、利用者は、再生ボタン32aをタッチ操作する(ステップS33)。タブレット端末100は、再生ボタン32aがタッチ操作された場合には、動画を再生する(ステップS34)。なお、タブレット端末100は、停止ボタン32bがタッチ操作された場合には、動画を停止させる。タブレット端末100は、音ボタン32cがタッチ操作された場合には、動画の有音、無音を切り替える。
次に、本実施例1に係るタブレット端末100の処理手順について説明する。図14〜図16は、本実施例1に係るタブレット端末の処理手順を示すフローチャートである。ここでは説明の便宜上、大きさを調整する操作を行う場合、リンク先を選択する操作を行う場合、動画の操作を行う場合に分けて説明を行う。
図14は、大きさを調整する操作を行う場合のフローチャートである。図14に示す処理は、例えば、カメラ110から画像データを取得したことを契機にして実行される。図14に示すように、タブレット端末100は、視線位置を検出し(ステップS101)、視線位置が画面内かつタッチパネル140がタップされたか否かを判定する(ステップS102)。タブレット端末100は、視線位置が画面内ではない場合、または、タッチパネル140がタップされていない場合には(ステップS102,No)、ステップS101に移行する。
一方、タブレット端末100は、視線位置が画面内かつタッチパネル140がタップされた場合には(ステップS102,Yes)、視線位置を重心として、対象領域142を設定する(ステップS103)。タブレット端末100は、対象領域142内のHTML内のDOM情報を解析し、対象領域142内の画像を特定する(ステップS104)。
タブレット端末100は、メニュー画像30の配置位置を決定し(ステップS105)、メニュー画像30の位置と操作の内容を対応付けた対応関係情報152aを取得する(ステップS106)。タブレット端末100は、既定領域143に、メニュー画像30を表示する(ステップS107)。
タブレット端末100は、規定時間内にタッチ操作を受け付けたか否かを判定する(ステップS108)。タブレット端末100は、既定時間内にタッチ操作を受け付けない場合には(ステップS108,No)、メニュー画像30を削除し(ステップS109)、ステップS101に移行する。
一方、タブレット端末100は、既定時間内にタッチ操作を受け付けた場合には(ステップS108,Yes)、タッチ操作と対応関係情報152aとを基にして、画像拡大率を特定する(ステップS110)。タブレット端末100は、拡大を実行する(ステップS111)。
図15は、リンク先を選択する操作を行う場合のフローチャートである。図15に示す処理は、例えば、カメラ110から画像データを取得したことを契機として実行される。図15に示すように、タブレット端末100は、視線位置を検出し(ステップS201)、視線位置が画面内かつタッチパネル140がタップされたか否かを判定する(ステップS202)。タブレット端末100は、視線位置が画面内ではない場合、または、タッチパネル140がタップされていない場合には(ステップS202,No)、ステップS201に移行する。
一方、タブレット端末100は、視線位置が画面内かつタッチパネル140がタップされた場合には(ステップS202,Yes)、視線位置を重心として、対象領域142を設定する(ステップS203)。タブレット端末100は、対象領域142内のHTML内のDOM情報を解析し、対象領域142内のリンクの数および座標を特定する(ステップS204)。
タブレット端末100は、リンクが存在しない場合には(ステップS205,No)、ステップS201に移行する。タブレット端末100は、リンクが存在する場合には(ステップS205,Yes)、選択ボタンの配置位置を決定する(ステップS206)。
タブレット端末100は、選択ボタンの画像とリンク座標とを対応付けることで、対応関係情報152bを生成する(ステップS207)。タブレット端末100は、既定領域143にメニュー画像31を表示させる(ステップS208)。
タブレット端末100は、既定時間内にタッチ操作を受け付けたか否かを判定する(ステップS209)。タブレット端末100は、既定時間内にタッチ操作を受け付けない場合には(ステップS209,No)、ステップS212に移行する。
タブレット端末100は、既定時間内にタッチ操作を受け付けた場合には(ステップS209,Yes)、対応関係情報152bを基にして、タッチされた選択ボタンに対応するリンク座標を特定する(ステップS210)。
タブレット端末100は、操作を実行する(ステップS211)。ステップS211において、例えば、タブレット端末100は、リンク座標のリンク先をタッチパネル140に表示する。
タブレット端末100は、メニュー画像を削除し(ステップS212)、対応関係情報152bを初期化し(ステップS213)、ステップS201に移行する。
図16は、動画の操作を行う場合のフローチャートである。図16に示す処理は、例えば、カメラ110から画像データを取得したことを契機にして実行される。図16に示すように、タブレット端末100は、視線位置を検出し(ステップS301)、視線位置が画面内かつタッチパネル140がタップされた否かを判定する(ステップS302)。タブレット端末100は、視線位置が画面内ではない場合、または、タッチパネル140がタップされていない場合には(ステップS302,No)、ステップS301に移行する。
一方、タブレット端末100は、視線位置が画面内かつタッチパネル140がタップされた場合には(ステップS302,Yes)、視線位置を重心として、対象領域142を設定する(ステップS303)。タブレット端末100は、対象領域142内のHTML内のDOM情報を解析し、対象領域142内の動画を特定する(ステップS304)。
タブレット端末100は、メニュー画像32の配置位置を決定し(ステップS305)、動画に対応する対応関係情報152cを取得する(ステップS306)。タブレット端末100は、既定領域143に、メニュー画像32を表示する(ステップS307)。
タブレット端末100は、既定時間内にタッチ操作を受け付けたか否かを判定する(ステップS308)。タブレット端末100は、既定時間内にタッチ操作を受け付けない場合には(ステップS308,No)、ステップS311に移行する。
タブレット端末100は、既定時間内にタッチ操作を受け付けた場合には(ステップS308,Yes)、タッチされたボタンと対応関係情報152cとを基にして、動画に対する操作を判定する(ステップS309)。
タブレット端末100は、操作を実行する(ステップS310)。ステップS310において、例えば、タブレット端末100は、再生ボタン32aに対してタッチ操作が行われた場合には、対象領域142の動画を再生する。タブレット端末100は、停止ボタン32bに対してタッチ操作が行われた場合には、対象領域142の動画を停止する。タブレット端末100は、音ボタン32cに対してタッチ操作が行われた場合には、対象領域142の動画の無音、有音を切り替える。
タブレット端末100は、メニュー画像32を削除し(ステップS311)、対応関係情報152cを初期化し(ステップS312)、ステップS301に移行する。
次に、本実施例1に係るタブレット端末100の効果について説明する。タブレット端末100は、タッチパネル140上で操作の行われる対象領域142を特定し、対象領域142内のタッチ操作の内容を判定する。そして、タブレット端末100は、タッチ操作の内容に対応する選択肢を含むメニュー画像を生成し、既定領域143に表示させて、タッチ操作を受け付ける。既定領域143は、タブレット端末100を持つ手の親指が届く範囲であるため、利用者が片手でタブレットを操作する場合でも、タッチパネル140を快適に操作することができる。
ところで、対象領域142の画像をそのまま、既定領域143に表示させて、利用者にタッチ操作を行わせることも考えられるが、その場合には、タッチ操作を快適に行うことができない場合がある。例えば、操作対象の画像やハイパーテキストが小さい場合には、タッチ操作をしづらくなる。また、対象領域142の大きさに対して画像が大きすぎてはみ出てしまう場合でも、同様にタッチ操作をしづらくなる。これに対して、本実施例1に係るタブレット端末100は、対象領域142内のタッチ操作の内容を判定し、メニュー画像を既定領域143に表示させるため、画像や文字の大きさに左右されない快適な操作性を実現することができる。
また、タブレット端末100は、タッチパネル140上の視線位置を検出し、視線位置を含む対象領域142を特定し、対象領域142内のタッチ操作の内容を判定する。このため、利用者が注目する領域の操作を、片手であっても快適に操作することを可能にする。
次に、本実施例2に係るタブレット端末について説明する。本実施例2に係るタブレット端末200は、実施例1のタブレット端末100とは異なり、対象領域の画像または文字を拡大することに特化したタブレット端末である。
図17は、本実施例2に係るタブレット端末の構成を示す図である。図17に示すように、タブレット端末200は、カメラ210、光源220、通信部230、タッチパネル240、記憶部250、制御部260を有する。
カメラ210、光源220、通信部230、タッチパネル240に関する説明は、実施例1に示したカメラ110、光源120、通信部130、タッチパネル140に関する説明と同様であるため、説明を省略する。
記憶部250は、ボタン画像情報251を記憶する記憶装置である。例えば、記憶部250は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
ボタン画像情報251は、画像を拡大させるための拡大ボタンの画像情報を含む。
制御部260は、視線検出部261、タッチ判定部262、表示制御部263を有する。例えば制御部260は、ASICや、FPGAなどの集積装置に対応する。また、制御部260は、例えば、CPUやMPU等の電子回路に対応する。
視線検出部261は、タッチパネル240上の視線位置を検出する処理部である。視線検出部261は、視線位置の情報を表示制御部263に出力する。視線検出部261が、視線位置を検出する処理は、実施例1に示した視線検出部161と同様であるため説明を省略する。
タッチ判定部262は、タッチパネル240に対してタッチ操作が行われたか否かを判定する処理部である。タッチ判定部262は、タッチ操作が行われたか否かの判定結果を表示制御部263に出力する。
表示制御部263は、視線位置を中心として、画面の画像を拡大表示する処理部である。なお、表示制御部263は、タッチ判定部262から、タッチ操作が行われた旨の情報を受け付けたことをトリガとして、下記の処理を実行する。
表示制御部263は、ボタン画像情報251から拡大ボタンの画像を取得し、拡大ボタンの画像を、既定領域143に表示させる。表示制御部263は、拡大ボタンに対するタッチ操作を受け付けた場合には、視線位置を中心として、タッチパネル240上の画像を拡大する。例えば、表示制御部263は、所定時間以内における拡大ボタンに対するタッチ操作の回数に応じて画像拡大率を判定し、判定した画像拡大率に応じて、画像を拡大しても良い。例えば、表示制御部263は、式(1)を基にして、拡大率を判定する。式(1)のnは所定時間内におけるタッチ操作回数である。
画像拡大率(%)=100+10×n・・・(1)
なお、表示制御部263は、拡大ボタンを表示させてから、所定時間以内に拡大ボタンに対するタッチ操作を受け付けない場合には、拡大ボタンを削除する。
次に、本実施例2に係るタブレット端末200の画面イメージについて説明する。図18は、本実施例2に係るタブレット端末の画面イメージを示す図である。図18に示すように、タブレット端末200は、画像を画面に表示し(ステップS40)、視線位置10aを検出する(ステップS41)。
タブレット端末200は、既定領域143に拡大ボタン33を表示させる(ステップS42)。タブレット端末200は、拡大ボタン33に対するタッチ操作を受け付けた場合に(ステップS43)、視線位置10aを中心として、画像を拡大する(ステップS44)。
次に、本実施例2に係るタブレット端末200の処理手順について説明する。図19は、本実施例2に係るタブレット端末の処理手順を示すフローチャートである。図19に示す処理は、例えば、カメラ210から画像データを取得したことを契機にして実行される。図19に示すように、タブレット端末200は、視線位置を検出し(ステップS401)、視線位置が画面内かつタッチパネル240がタップされたか否かを判定する(ステップS402)。タブレット端末200は、視線位置が画面内ではない場合、または、タッチパネル240がタップされていない場合には(ステップS402,No)、ステップS401に移行する。
一方、タブレット端末200は、視線位置が画面内かつタッチパネル240がタップされた場合には(ステップS402,Yes)、視線位置を拡大中心に設定する(ステップS403)。タブレット端末200は、既定領域143に、拡大ボタンを表示させる(ステップS404)。
タブレット端末200は、既定時間以内に拡大ボタンに対するタッチ操作があるか否かを判定する(ステップS405)。タブレット端末200は、既定時間以内に拡大ボタンに対するタッチ操作がない場合には(ステップS405,No)、拡大ボタンを削除し(ステップS406)、ステップS401に移行する。
タブレット端末200は、既定時間以内に拡大ボタンに対するタッチ操作があった場合には(ステップS405,Yes)、画面の画像を拡大し(ステップS407)、ステップS406に移行する。
次に、本実施例2に係るタブレット端末200の効果について説明する。タブレット端末200は、既定領域143に、拡大ボタンを表示し、拡大ボタンに対するタッチ操作を受け付けた場合に、視線位置を中心として画像を拡大させる。既定領域143は、タブレット端末200を持つ手の親指が届く範囲であるため、利用者が片手でタブレット端末200を操作する場合でも、利用者の望む画像の領域を快適に拡大させることができる。
上記の実施例1、2では、タブレット端末100、200の処理について説明したが、上述した処理の内容は一例である。実施例3では、タブレット端末のその他の処理について説明する。実施例3では説明の便宜上、図1に示したタブレット端末100を用いて処理を説明する。
リンク先を選択するメニュー画像のその他の例について説明する。対象領域142に含まれるリンク先の数が多い場合には、メニュー画像に含まれる選択ボタンの数が多くなり、既定領域143に全てのボタンを表示させようとすると、選択ボタンの大きさが小さくなり、利用者が選択ボタンをタッチ操作しづらくなる。このため、タブレット端末100は、対象領域142のリンク先の数が所定数以上の場合には、メニュー画像に選択ボタンの一部を表示させ、選択ボタンの切り替え指示を受け付けた場合に、選択ボタンを切り替えて表示するようにしても良い。
図20および図21は、その他のメニュー画像の一例を示す図である。図20に示すように、メニュー画像34には一部の選択ボタンを表示させている。利用者が残りの選択ボタンを選択する場合には、矢印34aをタッチ操作する。例えば、表示制御部165は、矢印34aを下方向にスワイプを受け付けた場合には、他の選択ボタンを表示させる。また、表示制御部165は、図21に示すように、メニュー画像35を表示させてもよい。表示制御部165は、切替ボタン35a、35bに対してタッチ操作を受け付けた場合には、他のボタンを表示させる。更に、表示制御部165は、プルダウン形式で選択ボタンを表示させても良い。このような処理を表示制御部165が実行することによって、対象領域142に複数のリンク先が存在していても、利用者は快適に操作ボタンを選択することができる。
次に、タブレット端末100が視線位置を補正する処理について説明する。例えば、実施例1では、図14のステップS102、図15のステップS202、図16のステップS302で示したように、視線位置が画面内かつタッチパネル140がタップされた場合に、視線位置を中心位置として、対象領域142を特定していた。しかしながら、タップ操作によって、タブレット端末140の角度がずれてしまい、視線位置がずれてしまうことが考えられる。
このため、例えば、領域特定部162は、タッチ判定部164から利用者がタッチ操作を行ったか否かの情報を取得し、タッチ操作を行う所定時間前の視線位置を利用して、対象領域142を特定しても良い。または、領域特定部162は、タッチ操作を行う所定時間前から、タッチ操作を行う直前までの視線位置の平均を算出し、算出した平均位置を重心として、対象領域142を設定しても良い。このような処理を、領域特定部162が実行することによって、タッチ操作による視線位置のズレを修正することができる。
次に、表示制御部165のその他の処理について説明する。上記の実施例1では、表示制御部165は、メニュー画像30、31、32をそれぞれ別々に、既定領域143に表示する例を示したが、これに限定されない。表示制御部165は、対象領域142内のタッチ操作の内容に応じて、各メニュー画像30、31、32を複合的に表示しても良い。例えば、対象領域142に、複数のリンク先と動画が存在する場合には、表示制御部165は、メニュー画像31、32を、既定領域143に表示する。
また、複数のリンク先が存在する場合には、単にメニュー画像31を表示しただけでは、選択ボタンと、リンク先との対応関係が分かり難い場合がある。このため、表示制御部165は、対象領域142の選択項目と、メニュー画像の選択ボタンとを視覚的に対応付けても良い。例えば、表示制御部165は、それぞれ対応する選択ボタンと、選択項目とを同じ色で表示しても良いし、線などで結んで表示させても良い。または、表示制御部165は、対象領域142のリンク先の並び順に合わせて、メニュー画像31の選択ボタンを並べて表示させても良い。このような処理を表示制御部165が実行することによって、メニュー画像の選択ボタンと、対象領域142のリンク先との関係が明確になり、利用者は、どの選択ボタンをタッチ操作すれば、どのリンク先を選択することができるかが分かりやすくなる。
また、図6に示した動画を操作するためのメニュー画像32は一例である。対象領域142の動画の種別によっては、自動的に再生が行われるものがある。このため、表示制御部165は、自動的に再生が行われる動画に対しては、再生ボタン32aの代わりに、一時停止ボタンを配置してもよい。または、動画の再生時間を、所望の時間にジャンプさせる操作ボタンを、メニュー画像32に表示させても良い。
ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図22を用いて、上記の実施例と同様の機能を有する操作受付プログラムを実行するコンピュータの一例について説明する。
図22は、実施例に係る操作受付プログラムを実行するコンピュータの一例について説明するための図である。図22に示すように、コンピュータ300は、操作部301と、スピーカ302と、カメラ303と、ディスプレイ304と、通信部305とを有する。さらに、このコンピュータ300は、CPU306と、ROM307と、RAM308と、ハードディスク装置309とを有する。これら301〜309の各部はバス310を介して接続される。
ハードディスク装置309には、図22に示すように、領域特定プログラム309a、操作判定プログラム309b、表示制御プログラム309cが記憶される。
そして、CPU306が、領域特定プログラム309a、操作判定プログラム309b、表示制御プログラム309cを読みだしてRAM308に展開する。領域特定プログラム309aは、領域特定プロセス308aとして機能する。操作判定プログラム309bは、操作判定プロセス308bとして機能する。表示制御プログラム309cは、表示制御プロセス308cとして機能する。
例えば、領域特定プロセス308aは、図1に示した視線検出部161、領域特定部162等に対応する処理を行う。操作判定プロセス308bは、図1に示した操作判定部163等に対応する処理を行う。表示制御プロセス308cは、タッチ判定部164、表示制御部165等に対応する処理を行う。
なお、上記の各プログラム309a〜309cについては、必ずしも最初からハードディスク装置309等に記憶させておく必要はない。例えば、コンピュータ300に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ300がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ300がこれらから各プログラムを取得して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)タッチパネル上でタッチ操作の行われる領域を特定する領域特定部と、
前記領域特定部によって特定された領域内のタッチ操作の内容を判定する操作判定部と、
前記操作判定部によって判定されたタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する表示制御部と
を有することを特徴とするタブレット端末。
(付記2)前記タッチパネル上の視線位置を検出する視線検出部を更に有し、
前記領域特定部は、前記視線位置を含む領域を特定することを特徴とする付記1に記載のタブレット端末。
(付記3)前記タッチパネル上でタッチ操作が行われたか否かを判定するタッチ判定部を更に有し、
前記領域特定部は、前記タッチパネル上でタッチ操作が行われた場合に、前記視線位置を含む領域の位置を補正することを特徴とする付記2に記載のタブレット端末。
(付記4)前記表示制御部は、タッチ操作の内容に対応する選択肢の数が所定数以上の場合には、複数の選択肢のうち、一部の選択肢を所定領域に表示することを特徴とする付記1、2または3に記載のタブレット端末。
(付記5)前記表示制御部は、前記領域特定部によって特定された領域内のタッチ操作対象と、前記選択肢とを視覚的に対応付けて前記タッチパネルの所定領域に表示することを特徴とする付記1〜4のいずれか一つに記載のタブレット端末。
(付記6)コンピュータが実行する操作受付方法であって、
タッチパネル上でタッチ操作の行われる領域を特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行する操作受付方法。
(付記7)前記タッチパネル上の視線位置を検出する処理を更に実行し、
前記領域を特定する処理は、前記視線位置を含む領域を特定することを特徴とする付記6に記載の操作受付方法。
(付記8)前記タッチパネル上でタッチ操作が行われたか否かを判定する処理を更に実行し、
前記領域を特定する処理は、前記タッチパネル上でタッチ操作が行われた場合に、前記視線位置を含む領域の位置を補正することを特徴とする付記7に記載の操作受付方法。
(付記9)前記表示する処理は、タッチ操作の内容に対応する選択肢の数が所定数以上の場合には、複数の選択肢のうち、一部の選択肢を所定領域に表示することを特徴とする付記6、7または8に記載の操作受付方法。
(付記10)前記表示する処理は、特定された領域内のタッチ操作対象と、前記選択肢とを視覚的に対応付けて前記タッチパネルの所定領域に表示することを特徴とする付記6〜9のいずれか一つに記載の操作受付方法。
(付記11)コンピュータに、
タッチパネル上でタッチ操作の行われる領域を特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行させることを特徴とする操作受付プログラム。
(付記12)前記タッチパネル上の視線位置を検出する処理を更に実行し、
前記領域を特定する処理は、前記視線位置を含む領域を特定することを特徴とする付記11に記載の操作受付プログラム。
(付記13)前記タッチパネル上でタッチ操作が行われたか否かを判定する処理を更に実行し、
前記領域を特定する処理は、前記タッチパネル上でタッチ操作が行われた場合に、前記視線位置を含む領域の位置を補正することを特徴とする付記12に記載の操作受付プログラム。
(付記14)前記表示する処理は、タッチ操作の内容に対応する選択肢の数が所定数以上の場合には、複数の選択肢のうち、一部の選択肢を所定領域に表示することを特徴とする付記11、12または13に記載の操作受付プログラム。
(付記15)前記表示する処理は、特定された領域内のタッチ操作対象と、前記選択肢とを視覚的に対応付けて前記タッチパネルの所定領域に表示することを特徴とする付記11〜14のいずれか一つに記載の操作受付プログラム。
(付記16)メモリと、
前記メモリに接続されたプロセッサと、を具備し、
前記プロセッサは、
タッチパネル上でタッチ操作の行われる領域を特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行することを特徴とするタブレット端末。
(付記17)タッチパネル上でタッチ操作の行われる領域を特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する、
各処理をコンピュータに実行させる操作受付プログラムを記憶する、コンピュータが読み取り可能な記録媒体。
100,200 タブレット端末
110,210 カメラ
120,220 光源
130,230 通信部
140,240 タッチパネル
150,250 記憶部
160,260 制御部

Claims (7)

  1. タッチパネル上でタッチ操作の行われる領域を特定する領域特定部と、
    前記領域特定部によって特定された領域内のタッチ操作の内容を判定する操作判定部と、
    前記操作判定部によって判定されたタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する表示制御部と
    を有することを特徴とするタブレット端末。
  2. 前記タッチパネル上の視線位置を検出する視線検出部を更に有し、
    前記領域特定部は、前記視線位置を含む領域を特定することを特徴とする請求項1に記載のタブレット端末。
  3. 前記タッチパネル上でタッチ操作が行われたか否かを判定するタッチ判定部を更に有し、
    前記領域特定部は、前記タッチパネル上でタッチ操作が行われた場合に、前記視線位置を含む領域の位置を補正することを特徴とする請求項2に記載のタブレット端末。
  4. 前記表示制御部は、タッチ操作の内容に対応する選択肢の数が所定数以上の場合には、複数の選択肢のうち、一部の選択肢を所定領域に表示することを特徴とする請求項1、2または3に記載のタブレット端末。
  5. 前記表示制御部は、前記領域特定部によって特定された領域内のタッチ操作対象と、前記選択肢とを視覚的に対応付けて前記タッチパネルの所定領域に表示することを特徴とする請求項1〜4のいずれか一つに記載のタブレット端末。
  6. コンピュータが実行する操作受付方法であって、
    タッチパネル上でタッチ操作の行われる領域を特定し、
    特定した領域内のタッチ操作の内容を判定し、
    判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
    各処理を実行する操作受付方法。
  7. コンピュータに、
    タッチパネル上でタッチ操作の行われる領域を特定し、
    特定した領域内のタッチ操作の内容を判定し、
    判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
    各処理を実行させることを特徴とする操作受付プログラム。
JP2012157568A 2012-07-13 2012-07-13 タブレット端末、操作受付方法および操作受付プログラム Expired - Fee Related JP6131540B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012157568A JP6131540B2 (ja) 2012-07-13 2012-07-13 タブレット端末、操作受付方法および操作受付プログラム
EP13173394.1A EP2685366A3 (en) 2012-07-13 2013-06-24 Tablet device, and operation receiving method
US13/925,000 US9952690B2 (en) 2012-07-13 2013-06-24 Tablet device, and operation receiving method
KR1020130081533A KR101500843B1 (ko) 2012-07-13 2013-07-11 태블릿 단말기, 조작 접수 방법 및 조작 접수 프로그램을 기록한 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012157568A JP6131540B2 (ja) 2012-07-13 2012-07-13 タブレット端末、操作受付方法および操作受付プログラム

Publications (2)

Publication Number Publication Date
JP2014021596A true JP2014021596A (ja) 2014-02-03
JP6131540B2 JP6131540B2 (ja) 2017-05-24

Family

ID=48703172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012157568A Expired - Fee Related JP6131540B2 (ja) 2012-07-13 2012-07-13 タブレット端末、操作受付方法および操作受付プログラム

Country Status (4)

Country Link
US (1) US9952690B2 (ja)
EP (1) EP2685366A3 (ja)
JP (1) JP6131540B2 (ja)
KR (1) KR101500843B1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024751A (ja) * 2014-07-24 2016-02-08 シャープ株式会社 画像表示装置
JP2016201029A (ja) * 2015-04-13 2016-12-01 ブラザー工業株式会社 携帯端末、表示制御方法および表示制御プログラム
CN108027673A (zh) * 2015-09-25 2018-05-11 英特尔公司 扩展用户触摸输入
JP2018147237A (ja) * 2017-03-06 2018-09-20 京セラ株式会社 電子機器、制御方法、及び制御プログラム
JP2020057441A (ja) * 2020-01-14 2020-04-09 パイオニア株式会社 操作装置、制御方法、プログラム及び記憶媒体
JP7014874B1 (ja) 2020-09-24 2022-02-01 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及び情報処理方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10048748B2 (en) 2013-11-12 2018-08-14 Excalibur Ip, Llc Audio-visual interaction with user devices
KR20150107528A (ko) * 2014-03-14 2015-09-23 삼성전자주식회사 사용자 인터페이스를 제공하는 방법과 전자 장치
JP6287486B2 (ja) * 2014-03-31 2018-03-07 富士通株式会社 情報処理装置、方法及びプログラム
US9203951B1 (en) 2014-07-03 2015-12-01 International Business Machines Corporation Mobile telephone adapted for use with one hand
KR102591552B1 (ko) 2015-08-21 2023-10-18 매직 립, 인코포레이티드 눈 포즈 측정을 사용한 눈꺼풀 형상 추정
JP2017062598A (ja) * 2015-09-24 2017-03-30 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
EP3362946B1 (en) * 2015-10-16 2020-08-26 Magic Leap, Inc. Eye pose identification using eye features
US20170309070A1 (en) * 2016-04-20 2017-10-26 Sangiovanni John System and method for very large-scale communication and asynchronous documentation in virtual reality and augmented reality environments
CN109101110A (zh) * 2018-08-10 2018-12-28 北京七鑫易维信息技术有限公司 一种操作指令执行方法、装置、用户终端及存储介质
US11487425B2 (en) * 2019-01-17 2022-11-01 International Business Machines Corporation Single-hand wide-screen smart device management
CN114902104A (zh) * 2019-12-27 2022-08-12 佳能株式会社 电子设备、电子设备控制方法、程序和存储介质
CN111309146B (zh) * 2020-02-10 2022-03-29 Oppo广东移动通信有限公司 图像显示方法及相关产品
CN113885735B (zh) * 2021-11-03 2023-03-21 业成科技(成都)有限公司 触控显示设备及其控制方法、电子设备
EP4343526A1 (en) 2021-12-08 2024-03-27 Samsung Electronics Co., Ltd. Electronic device supporting one-handed operation mode, and operating method for electronic device
US20230359330A1 (en) * 2022-05-03 2023-11-09 Mimecast Services Ltd. Systems and methods for analysis of visually-selected information resources

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089905A (ja) * 1998-09-14 2000-03-31 Sony Corp ポインティングデバイス
JP2004110698A (ja) * 2002-09-20 2004-04-08 Sharp Corp インターネット端末装置
JP2007179502A (ja) * 2005-12-28 2007-07-12 Sharp Corp 情報処理装置
JP2009110286A (ja) * 2007-10-30 2009-05-21 Toshiba Corp 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
WO2009090704A1 (ja) * 2008-01-18 2009-07-23 Panasonic Corporation 携帯端末
JP2010160564A (ja) * 2009-01-06 2010-07-22 Toshiba Corp 携帯端末
WO2011089199A1 (en) * 2010-01-21 2011-07-28 Tobii Technology Ab Eye tracker based contextual action
JP2012130469A (ja) * 2010-12-21 2012-07-12 Panasonic Corp 昇降収納装置
JP2013254406A (ja) * 2012-06-08 2013-12-19 Ntt Docomo Inc 表示装置、表示方法及びプログラム。

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0201074D0 (en) * 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
FI116425B (fi) * 2002-01-18 2005-11-15 Nokia Corp Menetelmä ja laite laajan näppäimistön integroimiseksi pieneen laitteeseen
JP4093823B2 (ja) * 2002-08-20 2008-06-04 富士通株式会社 視野移動操作方法
US7898529B2 (en) 2003-01-08 2011-03-01 Autodesk, Inc. User interface having a placement and layout suitable for pen-based computers
WO2006003588A2 (en) 2004-06-29 2006-01-12 Koninklijke Philips Electronics N.V. Multi-layered display of a graphical user interface
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US20080163053A1 (en) * 2006-12-28 2008-07-03 Samsung Electronics Co., Ltd. Method to provide menu, using menu set and multimedia device using the same
US20100287468A1 (en) * 2009-05-05 2010-11-11 Emblaze Mobile Ltd Apparatus and method for displaying menu items
JP2011028635A (ja) * 2009-07-28 2011-02-10 Sony Corp 表示制御装置、表示制御方法およびコンピュータプログラム
KR101718026B1 (ko) * 2010-09-06 2017-04-04 엘지전자 주식회사 사용자 인터페이스 제공 방법 및 이를 이용하는 이동 단말기
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
US8687840B2 (en) * 2011-05-10 2014-04-01 Qualcomm Incorporated Smart backlights to minimize display power consumption based on desktop configurations and user eye gaze
US20130219340A1 (en) * 2012-02-21 2013-08-22 Sap Ag Navigation on a Portable Electronic Device
JP5942586B2 (ja) * 2012-05-18 2016-06-29 富士通株式会社 タブレット端末および操作受付プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089905A (ja) * 1998-09-14 2000-03-31 Sony Corp ポインティングデバイス
JP2004110698A (ja) * 2002-09-20 2004-04-08 Sharp Corp インターネット端末装置
JP2007179502A (ja) * 2005-12-28 2007-07-12 Sharp Corp 情報処理装置
JP2009110286A (ja) * 2007-10-30 2009-05-21 Toshiba Corp 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
WO2009090704A1 (ja) * 2008-01-18 2009-07-23 Panasonic Corporation 携帯端末
JP2010160564A (ja) * 2009-01-06 2010-07-22 Toshiba Corp 携帯端末
WO2011089199A1 (en) * 2010-01-21 2011-07-28 Tobii Technology Ab Eye tracker based contextual action
JP2013518316A (ja) * 2010-01-21 2013-05-20 トビー・テクノロジー・アーベー アイトラッカーベースのコンテキストアクション
JP2012130469A (ja) * 2010-12-21 2012-07-12 Panasonic Corp 昇降収納装置
JP2013254406A (ja) * 2012-06-08 2013-12-19 Ntt Docomo Inc 表示装置、表示方法及びプログラム。

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024751A (ja) * 2014-07-24 2016-02-08 シャープ株式会社 画像表示装置
JP2016201029A (ja) * 2015-04-13 2016-12-01 ブラザー工業株式会社 携帯端末、表示制御方法および表示制御プログラム
CN108027673A (zh) * 2015-09-25 2018-05-11 英特尔公司 扩展用户触摸输入
JP2018147237A (ja) * 2017-03-06 2018-09-20 京セラ株式会社 電子機器、制御方法、及び制御プログラム
JP2020057441A (ja) * 2020-01-14 2020-04-09 パイオニア株式会社 操作装置、制御方法、プログラム及び記憶媒体
JP7014874B1 (ja) 2020-09-24 2022-02-01 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及び情報処理方法
JP2022053121A (ja) * 2020-09-24 2022-04-05 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
KR20140009054A (ko) 2014-01-22
JP6131540B2 (ja) 2017-05-24
KR101500843B1 (ko) 2015-03-09
EP2685366A2 (en) 2014-01-15
US9952690B2 (en) 2018-04-24
US20140015778A1 (en) 2014-01-16
EP2685366A3 (en) 2016-04-20

Similar Documents

Publication Publication Date Title
JP6131540B2 (ja) タブレット端末、操作受付方法および操作受付プログラム
JP7247390B2 (ja) ユーザインタフェースカメラ効果
JP5942586B2 (ja) タブレット端末および操作受付プログラム
JP5387557B2 (ja) 情報処理装置及び方法、並びにプログラム
US9170645B2 (en) Method and apparatus for processing input in mobile terminal
CN105814522B (zh) 基于运动识别来显示虚拟输入设备的用户界面的设备和方法
WO2014054211A1 (en) Information processing device, display control method, and program for modifying scrolling of automatically scrolled content
US10073585B2 (en) Electronic device, storage medium and method for operating electronic device
JP7005161B2 (ja) 電子機器及びその制御方法
US9706108B2 (en) Information processing apparatus and associated methodology for determining imaging modes
US9544556B2 (en) Projection control apparatus and projection control method
US9323339B2 (en) Input device, input method and recording medium
US9535604B2 (en) Display device, method for controlling display, and recording medium
US20150234461A1 (en) Display control device, display control method and recording medium
JP2016177658A (ja) 仮想入力装置、入力方法、およびプログラム
JP2012217101A (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
JP2011243108A (ja) 電子ブック装置及び電子ブック操作方法
US10389947B2 (en) Omnidirectional camera display image changing system, omnidirectional camera display image changing method, and program
JP7080711B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP7005160B2 (ja) 電子機器及びその制御方法
JP7331120B2 (ja) 連携表示システム
JP2019040333A (ja) 情報処理装置、情報処理方法、コンピュータプログラム及び表示制御用の時系列データ
JP6079418B2 (ja) 入力装置および入力プログラム
JP6643948B2 (ja) 表示制御装置およびその制御方法
JP2014106677A (ja) 表示制御装置、表示方法、および表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170403

R150 Certificate of patent or registration of utility model

Ref document number: 6131540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees