JP6131540B2 - Tablet terminal, operation reception method and operation reception program - Google Patents

Tablet terminal, operation reception method and operation reception program Download PDF

Info

Publication number
JP6131540B2
JP6131540B2 JP2012157568A JP2012157568A JP6131540B2 JP 6131540 B2 JP6131540 B2 JP 6131540B2 JP 2012157568 A JP2012157568 A JP 2012157568A JP 2012157568 A JP2012157568 A JP 2012157568A JP 6131540 B2 JP6131540 B2 JP 6131540B2
Authority
JP
Japan
Prior art keywords
area
touch panel
tablet terminal
touch
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012157568A
Other languages
Japanese (ja)
Other versions
JP2014021596A (en
Inventor
哲典 田口
哲典 田口
哲 中島
哲 中島
清水 雅芳
雅芳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012157568A priority Critical patent/JP6131540B2/en
Priority to US13/925,000 priority patent/US9952690B2/en
Priority to EP13173394.1A priority patent/EP2685366A3/en
Priority to KR1020130081533A priority patent/KR101500843B1/en
Publication of JP2014021596A publication Critical patent/JP2014021596A/en
Application granted granted Critical
Publication of JP6131540B2 publication Critical patent/JP6131540B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、タブレット端末等に関する。   The present invention relates to a tablet terminal and the like.

スマートフォンを始め、携帯電話、PHS(Personal Handyphone System)やPDA(Personal Digital Assistants)などのタブレット端末が普及している。タブレット端末は小型、軽量であるため、利用者は、場所を選ばすどこでもタブレット端末を使用することができる。   Smartphones, mobile phones, tablet terminals such as PHS (Personal Handyphone System) and PDA (Personal Digital Assistants) are widely used. Since the tablet terminal is small and light, the user can use the tablet terminal anywhere.

利用者がタブレット端末を操作する場合には、タブレット端末のタッチパネルに表示される各種項目を指でタッチすることで操作する。例えば、利用者は、タッチパネルに表示されるWebページのハイパーテキストの選択、画像の拡大、動画の再生、停止などを、タッチ操作で行う。   When the user operates the tablet terminal, the user operates by touching various items displayed on the touch panel of the tablet terminal with a finger. For example, the user performs a touch operation to select hypertext on a Web page displayed on the touch panel, enlarge an image, play or stop a moving image, and the like.

“MobiGaze,Development of a Gaze Interface for Handheld Mobile Devices”,April 12-13 2010“MobiGaze, Development of a Gaze Interface for Handheld Mobile Devices”, April 12-13 2010

しかしながら、上記の従来技術には、片手でタッチパネルを操作する場合に、快適に操作することができないという問題があった。   However, the above-described conventional technique has a problem that it cannot be comfortably operated when the touch panel is operated with one hand.

例えば、利用者が電車の吊革につかまっているときや、バック、傘などを片手で持っている場合には、タブレット端末のタッチパネルを片手で操作することになる。このような状況下でタッチパネルを操作する場合には、利用者の指の届く範囲が限られてしまい、快適にタッチパネルを操作することができない。   For example, when a user is holding a train strap or holding a bag, umbrella, etc. with one hand, the touch panel of the tablet terminal is operated with one hand. When operating the touch panel under such circumstances, the reach of the user's finger is limited, and the touch panel cannot be operated comfortably.

開示の技術は、上記に鑑みてなされたものであって、片手でタッチパネルを操作する場合でも、快適に操作することができるタブレット端末、操作受付方法および操作受付プログラムを提供することを目的とする。   The disclosed technology has been made in view of the above, and an object thereof is to provide a tablet terminal, an operation reception method, and an operation reception program that can be comfortably operated even when the touch panel is operated with one hand. .

開示のタブレット端末は、領域特定部と、操作判定部と、表示制御部とを有する。領域特定部は、タッチパネル上でタッチ操作の行われる領域を特定する。操作判定部は、領域特定部によって特定された領域内のタッチ操作の内容を判定する。表示制御部は、操作判定部によって判定されたタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する。   The disclosed tablet terminal includes an area specifying unit, an operation determination unit, and a display control unit. The area specifying unit specifies an area where a touch operation is performed on the touch panel. The operation determining unit determines the content of the touch operation in the area specified by the area specifying unit. The display control unit generates an option corresponding to the content of the touch operation determined by the operation determination unit, and displays the generated option in a predetermined area of the touch panel.

開示のタブレット端末によれば、片手で操作する場合でも、タッチパネルを快適に操作することができるという効果を奏する。   According to the tablet terminal of an indication, even when it operates with one hand, there exists an effect that a touch panel can be operated comfortably.

図1は、本実施例1に係るタブレット端末の構成を示す図である。FIG. 1 is a diagram illustrating the configuration of the tablet terminal according to the first embodiment. 図2は、タッチパネルの画面内の各領域を説明するための図である。FIG. 2 is a diagram for explaining each region in the screen of the touch panel. 図3は、対象領域を説明するための図である。FIG. 3 is a diagram for explaining the target area. 図4は、既定領域を説明するための図である。FIG. 4 is a diagram for explaining the predetermined area. 図5は、メニュー画像の一例を示す図(1)である。FIG. 5 is a diagram (1) illustrating an example of the menu image. 図6は、メニュー画像の一例を示す図(2)である。FIG. 6 is a diagram (2) illustrating an example of the menu image. 図7は、メニュー画像の一例を示す図(3)である。FIG. 7 is a diagram (3) illustrating an example of the menu image. 図8は、対応関係情報の一例を示す図(1)である。FIG. 8 is a diagram (1) illustrating an example of correspondence information. 図9は、対応関係情報の一例を示す図(2)である。FIG. 9 is a diagram (2) illustrating an example of correspondence information. 図10は、対応関係情報の一例を示す図(3)である。FIG. 10 is a diagram (3) illustrating an example of correspondence information. 図11は、本実施例1に係るタブレット端末の画面イメージを示す図(1)である。FIG. 11 is a diagram (1) illustrating a screen image of the tablet terminal according to the first embodiment. 図12は、本実施例1に係るタブレット端末の画面イメージを示す図(2)である。FIG. 12 is a diagram (2) illustrating a screen image of the tablet terminal according to the first embodiment. 図13は、本実施例1に係るタブレット端末の画面イメージを示す図(3)である。FIG. 13 is a diagram (3) illustrating a screen image of the tablet terminal according to the first embodiment. 図14は、本実施例1に係るタブレット端末の処理手順を示すフローチャート(1)である。FIG. 14 is a flowchart (1) illustrating the processing procedure of the tablet terminal according to the first embodiment. 図15は、本実施例1に係るタブレット端末の処理手順を示すフローチャート(2)である。FIG. 15 is a flowchart (2) illustrating the processing procedure of the tablet terminal according to the first embodiment. 図16は、本実施例1に係るタブレット端末の処理手順を示すフローチャート(3)である。FIG. 16 is a flowchart (3) illustrating the processing procedure of the tablet terminal according to the first embodiment. 図17は、本実施例2に係るタブレット端末の構成を示す図である。FIG. 17 is a diagram illustrating the configuration of the tablet terminal according to the second embodiment. 図18は、本実施例2に係るタブレット端末の画面イメージを示す図である。FIG. 18 is a diagram illustrating a screen image of the tablet terminal according to the second embodiment. 図19は、本実施例2に係るタブレット端末の処理手順を示すフローチャートである。FIG. 19 is a flowchart illustrating the processing procedure of the tablet terminal according to the second embodiment. 図20は、その他のメニュー画像の一例を示す図(1)である。FIG. 20 is a diagram (1) illustrating an example of another menu image. 図21は、その他のメニュー画像の一例を示す図(2)である。FIG. 21 is a diagram (2) illustrating an example of another menu image. 図22は、実施例に係る操作受付プログラムを実行するコンピュータの一例について説明するための図である。FIG. 22 is a schematic diagram illustrating an example of a computer that executes an operation reception program according to the embodiment.

以下に、本願の開示するタブレット端末、操作受付方法および操作受付プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Hereinafter, embodiments of a tablet terminal, an operation reception method, and an operation reception program disclosed in the present application will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

本実施例1に係るタブレット端末の構成について説明する。図1は、本実施例1に係るタブレット端末の構成を示す図である。図1に示すように、このタブレット端末100は、カメラ110、光源120、通信部130、タッチパネル140、記憶部150、制御部160を有する。なお、その他の構成は、周知のタブレット端末と同様である。   A configuration of the tablet terminal according to the first embodiment will be described. FIG. 1 is a diagram illustrating the configuration of the tablet terminal according to the first embodiment. As illustrated in FIG. 1, the tablet terminal 100 includes a camera 110, a light source 120, a communication unit 130, a touch panel 140, a storage unit 150, and a control unit 160. Other configurations are the same as those of a known tablet terminal.

カメラ110は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いた撮像装置である。カメラ110は、撮像範囲に含まれる被写体の画像を撮影し、撮影した被写体の画像データを、視線検出部161に出力する。   The camera 110 is an imaging device using a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), or the like. The camera 110 captures an image of a subject included in the imaging range, and outputs image data of the captured subject to the line-of-sight detection unit 161.

カメラ110は、画像を撮影するタイミングで、光源120を制御し、被写体に赤外線を照射させる。カメラ110が撮影する被写体に利用者の眼球が含まれる場合には、網膜上の光の反射がカメラ110によって捉えられ、眼球の瞳孔部分が他の部分よりも明るく写った画像が得られる。なお、上記のカメラ110は、タブレット端末100の出荷時から搭載されているカメラを利用しても良いし、外部接続されたデジタルカメラ等を利用しても良い。   The camera 110 controls the light source 120 at the timing of taking an image and irradiates the subject with infrared rays. When the subject photographed by the camera 110 includes a user's eyeball, the reflection of light on the retina is captured by the camera 110, and an image in which the pupil part of the eyeball appears brighter than the other parts is obtained. The camera 110 may be a camera installed from the time of shipment of the tablet terminal 100, or may be an externally connected digital camera or the like.

光源120は、カメラ110の制御命令に応答して、赤外線を照射する装置である。通信部130は、ネットワークに接続して他の装置とデータ通信を実行する処理部である。例えば、通信部130は、無線通信装置に対応する。後述する制御部160は、通信部130を介して、ネットワーク上のサーバ等にアクセスする。   The light source 120 is a device that emits infrared light in response to a control command of the camera 110. The communication unit 130 is a processing unit that connects to a network and executes data communication with other devices. For example, the communication unit 130 corresponds to a wireless communication device. A control unit 160 described later accesses a server on the network via the communication unit 130.

タッチパネル140は、表示と入力の二つの機能を備えたインタフェースである。タッチパネル140は、制御部160から出力される情報を表示する。また、タッチパネル140は、タッチ操作を受け付けた場合に、触れられた画面位置の情報を制御部160に出力する。   The touch panel 140 is an interface having two functions of display and input. Touch panel 140 displays information output from control unit 160. In addition, when the touch operation is accepted, the touch panel 140 outputs information on the touched screen position to the control unit 160.

本実施例1では、説明の便宜上、タッチパネル140の画面内に、視線検出領域、対象領域、既定領域を定義する。図2は、タッチパネルの画面内の各領域を説明するための図である。図2に示すように、タッチパネル140には、視線検出領域141、対象領域142、既定領域143を有する。   In the first embodiment, a line-of-sight detection area, a target area, and a default area are defined in the screen of the touch panel 140 for convenience of explanation. FIG. 2 is a diagram for explaining each region in the screen of the touch panel. As illustrated in FIG. 2, the touch panel 140 includes a line-of-sight detection area 141, a target area 142, and a predetermined area 143.

例えば、視線検出領域141は、タッチパネル140の表示画面に対応する領域である。対象領域142は、視線位置10aを含む領域である。視線位置10aは、後述する視線検出部161によって検出される利用者の画面上の視線位置である。既定領域143は、利用者がタブレット端末100を片手で操作する場合に、タブレット端末100を保持する親指10bが届く領域である。   For example, the line-of-sight detection area 141 is an area corresponding to the display screen of the touch panel 140. The target area 142 is an area including the line-of-sight position 10a. The line-of-sight position 10a is a line-of-sight position on the user's screen detected by the line-of-sight detection unit 161 described later. The default area 143 is an area where the thumb 10b holding the tablet terminal 100 reaches when the user operates the tablet terminal 100 with one hand.

対象領域142について説明する。図3は、対象領域を説明するための図である。図3に示すように、対象領域142は、幅llと、高さlsによって定義され、幅llと高さlsによる矩形の重心を、重心位置Gd(xd、yd)とする。後述する領域特定部162によって、対象領域142の重心位置Gdは、利用者の視線位置10aと重なる位置に調整され、これによって、対象領域142の位置も移動する。幅ll、高さlsの値は、予め設定されているものとする。   The target area 142 will be described. FIG. 3 is a diagram for explaining the target area. As shown in FIG. 3, the target area 142 is defined by a width ll and a height ls, and a centroid of a rectangle with the width ll and the height ls is a centroid position Gd (xd, yd). The center of gravity position Gd of the target area 142 is adjusted to a position that overlaps the user's line-of-sight position 10a by the area specifying unit 162 described later, whereby the position of the target area 142 is also moved. It is assumed that the values of the width ll and the height ls are set in advance.

既定領域143について説明する。図4は、既定領域を説明するための図である。図4に示すように、この既定領域143は、既定領域143の重心が存在する重心位置Gd(xd、yd)と、幅llと、高さlsによって定義される。係る既定領域143には、利用者がタブレット端末100を持つ手の親指10bがタブレット端末100をつかんだ状態で届く範囲20と同等若しくは範囲20よりも小さい形状およびサイズが定義される。タッチパネル140の画面に表示される画像の上下方向が決まっている場合には、当該画面が表示される左下の隅と既定領域143の左下の頂点とが一致するように重心位置Gd(xd、yd)を定めることもできる。   The default area 143 will be described. FIG. 4 is a diagram for explaining the predetermined area. As shown in FIG. 4, the predetermined area 143 is defined by a centroid position Gd (xd, yd) where the centroid of the predetermined area 143 exists, a width ll, and a height ls. In the predetermined area 143, a shape and a size equivalent to or smaller than the range 20 that the user reaches with the thumb 10b of the hand holding the tablet terminal 100 holding the tablet terminal 100 are defined. When the vertical direction of the image displayed on the screen of the touch panel 140 is determined, the gravity center position Gd (xd, yd) so that the lower left corner where the screen is displayed and the lower left vertex of the default area 143 coincide with each other. ).

図1の説明に戻る。記憶部150は、メニュー画像情報151、対応関係情報152、表示情報153、矩形定義情報154を記憶する記憶装置である。例えば、記憶部150は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。   Returning to the description of FIG. The storage unit 150 is a storage device that stores menu image information 151, correspondence information 152, display information 153, and rectangle definition information 154. For example, the storage unit 150 corresponds to a semiconductor memory device such as a random access memory (RAM), a read only memory (ROM), or a flash memory, or a storage device such as a hard disk or an optical disk.

メニュー画像情報151は、各種の操作を行うための各種のメニュー画像の情報を含む。メニュー画像は、タッチパネル140の既定領域143に表示され、利用者は係るメニュー画像に対してタッチ操作を行う。ここで、各メニュー画像の一例について説明する。図5〜図7は、メニュー画像の一例を示す図である。   The menu image information 151 includes information on various menu images for performing various operations. The menu image is displayed in the default area 143 of the touch panel 140, and the user performs a touch operation on the menu image. Here, an example of each menu image will be described. 5-7 is a figure which shows an example of a menu image.

図5に示すメニュー画像30は、画像の大きさを調整するものである。例えば、利用者がメニュー画像30の矢印30aを、左側から右側にスライドさせることで、該当する画像またはテキスト文字等を拡大する操作となる。   The menu image 30 shown in FIG. 5 is for adjusting the size of the image. For example, when the user slides the arrow 30a of the menu image 30 from the left side to the right side, an operation for enlarging the corresponding image or text character is performed.

図6に示すメニュー画像31は、複数の選択ボタン31a,31b,31cを有する。後述するように、各選択ボタン31a〜31cは、タッチパネル140上の画面に表示される各選択項目にそれぞれ対応付けられ、利用者が選択ボタン31a〜31cをタッチ操作することで、該当する選択項目をする操作となる。Webページを例にして説明すると、選択項目は、ハイパーテキスト等に対応する。   The menu image 31 shown in FIG. 6 has a plurality of selection buttons 31a, 31b, and 31c. As will be described later, the selection buttons 31a to 31c are associated with the selection items displayed on the screen on the touch panel 140, respectively, and the corresponding selection items are selected when the user touches the selection buttons 31a to 31c. It becomes operation to do. In the case of a Web page as an example, the selection item corresponds to hypertext or the like.

図7に示すメニュー画像32は、動画の操作を行うためのものである。例えば、メニュー画像32は、再生ボタン32a、停止ボタン32b、音ボタン32cを有する。例えば、利用者が再生ボタン32aをタッチ操作することで、該当する動画を再生する操作となる。利用者が停止ボタン32bをタッチ操作することで、該当する動画を停止する操作となる。利用者が音ボタン32cをタッチ操作することで、動画の音の有音、無音を切り替える操作となる。   A menu image 32 shown in FIG. 7 is used for operating a moving image. For example, the menu image 32 has a play button 32a, a stop button 32b, and a sound button 32c. For example, when the user performs a touch operation on the play button 32a, an operation of playing the corresponding moving image is performed. When the user touches the stop button 32b, the corresponding moving image is stopped. When the user performs a touch operation on the sound button 32c, the operation switches the sound of the moving image between sound and silence.

メニュー画像情報151に含まれるメニュー画像は、上記図5〜図7に示すメニュー画像に限られるものではない。また、図5〜図7に示したメニュー画像の内容も一例に過ぎず、適宜変更しても良い。   The menu images included in the menu image information 151 are not limited to the menu images shown in FIGS. Further, the contents of the menu images shown in FIGS. 5 to 7 are merely examples, and may be changed as appropriate.

図1の説明に戻る。対応関係情報152は、図5〜図7に示したメニュー画像に対するタッチ操作と、タッチパネル140上の項目に対する操作とを対応付けるための情報である。対応関係情報152は、上記のメニュー画像に応じた複数の対応関係情報を有する。例えば、メニュー画像30に対応する対応関係情報を対応関係情報152aとする。メニュー画像31に対応する対応関係情報を対応関係情報152bとする。メニュー画像32に対応する対応関係情報を対応関係情報152cとする。図8〜図10は、対応関係情報の一例を示す図である。   Returning to the description of FIG. The correspondence relationship information 152 is information for associating the touch operation on the menu image shown in FIGS. 5 to 7 with the operation on the item on the touch panel 140. The correspondence information 152 includes a plurality of pieces of correspondence information corresponding to the menu image. For example, let the correspondence information corresponding to the menu image 30 be the correspondence information 152a. The correspondence information corresponding to the menu image 31 is assumed to be correspondence information 152b. The correspondence information corresponding to the menu image 32 is assumed to be correspondence information 152c. 8-10 is a figure which shows an example of correspondence information.

図8は、メニュー画像30に対応する対応関係情報152aの一例を示す。図8に示すように、この対応関係情報152aは、x座標と画像拡大率とを対応付ける。x座標は、メニュー画像30の矢印30aのx座標に対応する。画像拡大率は、該当する画像またはテキスト文字等を拡大する場合の拡大率に対応する。例えば、矢印30aのx座標が「0」の場合には、画像拡大率は「10%」となる。矢印30aのx座標が「xd」の場合には、画像拡大率は「100%」となる。矢印30aのx座標が「xm」の場合には、画像拡大率は「200%」となる。   FIG. 8 shows an example of the correspondence information 152 a corresponding to the menu image 30. As shown in FIG. 8, this correspondence information 152a associates the x-coordinate with the image magnification. The x coordinate corresponds to the x coordinate of the arrow 30 a of the menu image 30. The image enlargement rate corresponds to the enlargement rate when enlarging the corresponding image or text characters. For example, when the x coordinate of the arrow 30a is “0”, the image enlargement ratio is “10%”. When the x coordinate of the arrow 30a is “xd”, the image enlargement ratio is “100%”. When the x coordinate of the arrow 30a is “xm”, the image enlargement ratio is “200%”.

図9は、メニュー画像31に対応する対応関係情報152bの一例を示す。図9に示すように、この対応関係情報152bは、ボタン識別情報と、操作内容と、リンク座標とを対応付ける。ボタン識別情報は、メニュー画像31に含まれる各選択ボタンを識別する情報である。操作内容は、選択ボタンがタッチ操作された場合の操作の内容を示す情報である。リンク座標は、タッチパネル140上の選択項目の座標を示す。例えば、選択ボタン31aがタッチ操作された場合には、タッチパネル140上のリンク座標「x1、y1」の選択項目が「選択」される。   FIG. 9 shows an example of the correspondence information 152b corresponding to the menu image 31. As shown in FIG. 9, the correspondence information 152b associates button identification information, operation details, and link coordinates. The button identification information is information for identifying each selection button included in the menu image 31. The operation content is information indicating the operation content when the selection button is touched. The link coordinates indicate the coordinates of the selection item on the touch panel 140. For example, when the selection button 31a is touched, the selection item of the link coordinates “x1, y1” on the touch panel 140 is “selected”.

図10は、メニュー画像32に対応する対応関係情報152cの一例を示す。図10に示すように、この対応関係情報152cは、ボタン識別情報と、操作内容と、リンク先の動画領域とを対応付ける。ボタン識別情報は、メニュー画像32に含まれる各ボタンを識別する情報である。操作内容は、選択ボタンがタッチ操作された場合の操作の内容を示す情報である。リンク先の動画領域は、メニュー画像32によって操作する動画のタッチパネル140上の領域を示すものである。リンク先の動画領域には、例えば、動画の左上の座標と、右下の座標とを含む。再生ボタン32aがタッチ操作された場合には、タッチパネル140上の動画領域「(x4、y4)、(x5、y5)」の動画が「再生」される。   FIG. 10 shows an example of the correspondence information 152 c corresponding to the menu image 32. As shown in FIG. 10, the correspondence information 152c associates button identification information, operation details, and a linked moving image area. The button identification information is information for identifying each button included in the menu image 32. The operation content is information indicating the operation content when the selection button is touched. The linked moving image area indicates an area on the touch panel 140 of the moving image operated by the menu image 32. The linked moving image area includes, for example, upper left coordinates and lower right coordinates of the moving image. When the playback button 32a is touched, the video in the video area “(x4, y4), (x5, y5)” on the touch panel 140 is “played”.

図1の説明に戻る。表示情報153は、タッチパネル140に表示される画面の情報である。例えば、タッチパネル140にWebページの情報を表示する場合には、表示情報153には、Webページのソースコードが含まれる。   Returning to the description of FIG. The display information 153 is screen information displayed on the touch panel 140. For example, when Web page information is displayed on the touch panel 140, the display information 153 includes the source code of the Web page.

矩形定義情報154は、図2に示した視線検出領域141の範囲、対象領域142の各辺の長さ、既定領域143の各辺の長さの情報を含む。   The rectangle definition information 154 includes information on the range of the line-of-sight detection area 141 illustrated in FIG. 2, the length of each side of the target area 142, and the length of each side of the default area 143.

制御部160は、視線検出部161、領域特定部162、操作判定部163、タッチ判定部164、表示制御部165を有する。例えば、制御部160は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部160は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。   The control unit 160 includes a line-of-sight detection unit 161, a region specifying unit 162, an operation determination unit 163, a touch determination unit 164, and a display control unit 165. For example, the control unit 160 corresponds to an integrated device such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). Moreover, the control part 160 respond | corresponds to electronic circuits, such as CPU and MPU (Micro Processing Unit), for example.

視線検出部161は、タッチパネル140上の視線位置を検出する処理部である。視線検出部161は、視線位置の情報を領域特定部162に出力する。例えば、視線検出部161は、カメラ110によって出力された被写体の画像に角膜反射法などのアルゴリズムを適用し、眼球の瞳孔の中心位置から視線の方向が指す視点の位置を検出する。係る視点の位置を、本実施例では視線位置とする。   The line-of-sight detection unit 161 is a processing unit that detects the line-of-sight position on the touch panel 140. The line-of-sight detection unit 161 outputs information on the line-of-sight position to the region specifying unit 162. For example, the line-of-sight detection unit 161 applies an algorithm such as a corneal reflection method to the subject image output by the camera 110, and detects the position of the viewpoint indicated by the direction of the line of sight from the center position of the pupil of the eyeball. In this embodiment, the position of the viewpoint is the line-of-sight position.

なお、ここでは、角膜反射法を用いて視線位置を検出する場合について説明したが、他の方法を用いて視線位置を検出しても良い。例えば、タブレット端末100は、タッチパネル140の画面を分割し、分割した領域を見る眼の形状を学習しておき、カメラ110から入力される画像から抽出した眼の形状とテンプレートマッチングを実行することによって、視線位置を検出しても良い。また、タブレット端末100は、視線の位置を検出するヘッドセットを利用者に装着させ、ヘッドセットによって検出された視線の位置を取得しても良い。   Here, the case where the line-of-sight position is detected using the cornea reflection method has been described, but the line-of-sight position may be detected using another method. For example, the tablet terminal 100 divides the screen of the touch panel 140, learns the shape of the eye that sees the divided area, and executes template matching with the shape of the eye extracted from the image input from the camera 110. The line-of-sight position may be detected. The tablet terminal 100 may acquire a position of the line of sight detected by the headset by causing the user to wear a headset that detects the position of the line of sight.

また、視線検出部161は、視線位置を検出し、検出した視線位置が視線検出領域141に含まれるか否かを、矩形定義情報154を基に判定する。視線検出部161は、視線位置が、視線検出領域141に含まれる場合に、視線位置の情報を領域特定部162に出力する。   The line-of-sight detection unit 161 detects the line-of-sight position, and determines whether or not the detected line-of-sight position is included in the line-of-sight detection area 141 based on the rectangle definition information 154. The line-of-sight detection unit 161 outputs information on the line-of-sight position to the region specifying unit 162 when the line-of-sight position is included in the line-of-sight detection region 141.

領域特定部162は、タッチ操作の行われる領域を特定する処理部である。以下において、領域特定部162の処理の一例について説明する。領域特定部162は、視線検出部161から視線位置の情報を取得し、所定時間毎に、視線位置の平均を算出する。領域特定部162は、平均の視線位置を対象領域の重心座標とすることで、図2に示した対象領域142の範囲を特定する。領域特定部162は、特定した対象領域142の範囲の情報を、操作判定部163に出力する。対象領域142の範囲の情報は、例えば、対象領域142のタッチパネル140上の座標である。   The region specifying unit 162 is a processing unit that specifies a region where a touch operation is performed. In the following, an example of processing of the region specifying unit 162 will be described. The region specifying unit 162 acquires the information on the line-of-sight position from the line-of-sight detection unit 161, and calculates the average of the line-of-sight position every predetermined time. The area specifying unit 162 specifies the range of the target area 142 shown in FIG. 2 by using the average line-of-sight position as the barycentric coordinates of the target area. The area specifying unit 162 outputs information on the range of the specified target area 142 to the operation determining unit 163. The information on the range of the target area 142 is, for example, coordinates on the touch panel 140 of the target area 142.

操作判定部163は、対象領域142の領域内のタッチ操作の内容を判定する処理部である。操作判定部163は、判定したタッチ操作の内容を、表示制御部165に出力する。   The operation determination unit 163 is a processing unit that determines the content of the touch operation in the target area 142. The operation determination unit 163 outputs the content of the determined touch operation to the display control unit 165.

以下において、操作判定部163の処理の一例について説明する。操作判定部163は、DOM(Document Object Model)を利用して、対象領域142に含まれる要素を問い合わせる。DOMは、xmlやhtmlの各要素にアクセスするためのインタフェースである。例えば、操作判定部163は、Javascript(登録商標)のelementFromPoint(x,y)を利用する。本実施例では、操作判定部163は、DOMを利用して、対象領域142に対応するソースコードを、表示情報153から取得する。   Hereinafter, an example of processing of the operation determination unit 163 will be described. The operation determination unit 163 inquires about an element included in the target area 142 using DOM (Document Object Model). DOM is an interface for accessing each element of xml and html. For example, the operation determination unit 163 uses JavaScript (registered trademark) elementFromPoint (x, y). In the present embodiment, the operation determination unit 163 acquires the source code corresponding to the target area 142 from the display information 153 using DOM.

操作判定部163は、対象領域142に含まれる要素に、画像や文字を識別するタグが含まれている場合には、大きさを調整する操作を行うと判定する。例えば、画像を識別するタグは<imag>となり、文字を識別するタグは<p>となる。その他の画像や文字を識別するタグは、HTMLリファレンス等に定義されているため、説明を省略する。   When the element included in the target area 142 includes a tag for identifying an image or a character, the operation determination unit 163 determines that an operation for adjusting the size is performed. For example, a tag for identifying an image is <imag>, and a tag for identifying a character is <p>. Other tags for identifying images and characters are defined in the HTML reference and the like, and thus description thereof is omitted.

操作判定部163は、大きさを調整する操作を行うと判定した場合には、大きさを調整する操作を行う旨と、対象領域142の範囲の情報を、表示制御部165に出力する。   If it is determined that an operation for adjusting the size is to be performed, the operation determining unit 163 outputs information indicating that the operation for adjusting the size is performed and the range of the target area 142 to the display control unit 165.

操作判定部163は、対象領域142に含まれる要素に、リンク先を識別するタグが含まれている場合には、係るリンク先を選択する操作を行うと判定する。また、操作判定部163は、リンク数を集計する。例えば、リンク先を識別するタグは<a href>となる。その他のリンク先を識別するタグは、HTMLリファレンス等に定義されているため、説明を省略する。   If the element included in the target area 142 includes a tag that identifies the link destination, the operation determination unit 163 determines that an operation for selecting the link destination is performed. In addition, the operation determination unit 163 adds up the number of links. For example, the tag for identifying the link destination is <a href>. Other tags for identifying link destinations are defined in the HTML reference and the like, and thus the description thereof is omitted.

操作判定部163は、リンク先を選択する操作を行うと判定した場合には、リンク先を選択操作する旨と、リンク数と、選択対象となる項目の画面上の座標を、表示制御部165に出力する。   If the operation determining unit 163 determines to perform an operation of selecting a link destination, the display control unit 165 indicates that the link destination is selected, the number of links, and the coordinates of the item to be selected on the screen. Output to.

操作判定部163は、対象領域142に含まれる要素に、動画を識別するタグが含まれている場合には、動画の操作を行うと判定する。例えば、動画を識別するタグは<video>となる。その他の動画を識別するタグは、HTMLリファレンス等に定義されているため、説明を省略する。   If the element included in the target area 142 includes a tag for identifying a moving image, the operation determining unit 163 determines that the moving image is to be operated. For example, a tag for identifying a moving image is <video>. Other tags for identifying moving images are defined in the HTML reference and the like, and thus description thereof is omitted.

操作判定部163は、動画の操作を行うと判定した場合には、動画の操作を行う旨と、対象領域142の範囲の情報を、表示制御部165に出力する。   When the operation determination unit 163 determines to perform the operation of the moving image, the operation determination unit 163 outputs information indicating that the operation of the moving image is performed and the range of the target area 142 to the display control unit 165.

タッチ判定部164は、タッチパネル140に対してタッチ操作が行われたか否かを判定する処理部である。タッチ判定部164は、タッチ操作が行われたか否かの判定結果を表示制御部165に出力する。   The touch determination unit 164 is a processing unit that determines whether or not a touch operation has been performed on the touch panel 140. The touch determination unit 164 outputs a determination result on whether or not a touch operation has been performed to the display control unit 165.

表示制御部165は、操作判定部163の判定結果に対応する選択肢を生成し、選択肢を、タッチパネル140の既定領域143に表示する処理部である。以下において、表示制御部165の処理の一例について説明する。なお、表示制御部165は、タッチ判定部164から、タッチ操作が行われた旨の情報を受け付けたことをトリガとして、下記の処理を実行する。   The display control unit 165 is a processing unit that generates options corresponding to the determination result of the operation determination unit 163 and displays the options in the default area 143 of the touch panel 140. Hereinafter, an example of processing of the display control unit 165 will be described. Note that the display control unit 165 executes the following processing using the information indicating that the touch operation has been performed from the touch determination unit 164 as a trigger.

表示制御部165が、操作判定部163から、大きさを調整する操作を行う旨と、対象領域142の範囲の情報を受信した場合の処理について説明する。表示制御部165は、メニュー画像情報151から、図5に示した拡大操作を行うためのメニュー画像30を取得する。また、表示制御部165は、対応関係情報152から、メニュー画像30に対応する対応関係情報152aを取得し、メニュー画像30の矢印30aの操作と、操作の内容とを対応付ける。   A process when the display control unit 165 receives an operation of adjusting the size from the operation determination unit 163 and information on the range of the target area 142 will be described. The display control unit 165 acquires the menu image 30 for performing the enlargement operation illustrated in FIG. 5 from the menu image information 151. In addition, the display control unit 165 acquires the correspondence information 152a corresponding to the menu image 30 from the correspondence information 152, and associates the operation of the arrow 30a of the menu image 30 with the content of the operation.

表示制御部165は、メニュー画像30と対応関係情報152aとを基にして、操作の内容を対応付けた後に、メニュー画像30を既定領域143に表示させる。表示制御部165は、メニュー画像30の矢印30aに対するタッチ操作を受け付けた場合に、矢印30aの座標と対応関係情報152aとを基にして、画像拡大率を判定する。表示制御部165は、画像拡大率に応じて、対象領域142に含まれる画像または文字を拡大する。   The display control unit 165 displays the menu image 30 in the default area 143 after associating the contents of the operation based on the menu image 30 and the correspondence information 152a. When the display control unit 165 receives a touch operation on the arrow 30a of the menu image 30, the display control unit 165 determines the image enlargement ratio based on the coordinates of the arrow 30a and the correspondence information 152a. The display control unit 165 enlarges the image or characters included in the target area 142 according to the image enlargement rate.

次に、表示制御部165が、操作判定部163から、リンク先を選択操作する旨と、リンク数と、選択対象となる項目の画面上の座標を受信した場合の処理について説明する。表示制御部165は、メニュー画面情報151から、図6に示した選択ボタンを含むメニュー画像31を取得する。また、表示制御部165は、メニュー画像31の各選択ボタンと、選択対象となる項目の画面上の座標とを対応付けることで、図9に示した対応関係情報152を生成する。また、各操作の内容を、選択項目を選択に設定する。なお、表示制御部165は、リンク数に応じて、図6に示したメニュー画像31の選択ボタンを増やすものとする。   Next, processing when the display control unit 165 receives from the operation determination unit 163 selection of a link destination, the number of links, and coordinates on the screen of an item to be selected will be described. The display control unit 165 acquires the menu image 31 including the selection button illustrated in FIG. 6 from the menu screen information 151. Further, the display control unit 165 generates the correspondence information 152 shown in FIG. 9 by associating each selection button of the menu image 31 with the coordinates on the screen of the item to be selected. In addition, the contents of each operation are set to select the selection item. In addition, the display control part 165 shall increase the selection button of the menu image 31 shown in FIG. 6 according to the number of links.

表示制御部165は、対応関係情報152を生成した後に、メニュー画像31を既定領域143に表示させる。表示制御部165は、メニュー画像31の選択ボタンに対するタッチ操作を受け付けた場合に、タッチ操作を受けた選択ボタンのボタン識別情報と、対応関係情報152bとを比較して、リンク座標を判定する。表示制御部165は、判定したリンク先座標に対応するリンク先の項目を選択し、リンク先の情報をタッチパネル140に表示させる。例えば、表示制御部165は、リンク先の項目がハイパーテキストである場合には、ハイパーテキストに示されるリンク先の情報を、ネットワークを介して取得し、取得した情報を、タッチパネル140に表示させる。   After generating the correspondence information 152, the display control unit 165 displays the menu image 31 in the default area 143. When the display control unit 165 receives a touch operation on the selection button of the menu image 31, the display control unit 165 compares the button identification information of the selection button that has received the touch operation with the correspondence information 152b to determine the link coordinates. The display control unit 165 selects a link destination item corresponding to the determined link destination coordinates and causes the touch panel 140 to display link destination information. For example, when the link destination item is hypertext, the display control unit 165 acquires the link destination information indicated in the hypertext via the network, and causes the touch panel 140 to display the acquired information.

次に、表示制御部165が、操作判定部163から、動画の操作を行う旨と、対象領域142の範囲の情報を受信した場合の処理について説明する。表示制御部165は、メニュー画像情報151から、図7に示した動画の操作を行うためのメニュー画像32を取得する。また、表示制御部165は、対応関係情報152から、メニュー画像32に対応する対応関係情報152cを取得し、メニュー画像32の再生ボタン32a、停止ボタン32b、音ボタン32cに対応するリンク先の動画領域を、対象領域142の範囲の座標に設定する。   Next, a process when the display control unit 165 receives a moving image operation and information on the range of the target area 142 from the operation determination unit 163 will be described. The display control unit 165 acquires the menu image 32 for operating the moving image shown in FIG. 7 from the menu image information 151. In addition, the display control unit 165 acquires the correspondence information 152c corresponding to the menu image 32 from the correspondence information 152, and the linked moving image corresponding to the play button 32a, the stop button 32b, and the sound button 32c of the menu image 32. The area is set to the coordinates of the range of the target area 142.

表示制御部165は、メニュー画像32と対応関係情報152cとを対応付けた後に、メニュー画像32を、既定領域143に表示させる。表示制御部165は、メニュー画像32のボタンに対するタッチ操作を受け付けた場合に、ボタン識別情報と、対応関係情報152cとを基にして、操作内容を特定し、操作内容に応じた処理を実行する。表示制御部165は、処理対象となる動画の座標は、リンク先の動画領域を基に特定する。   The display control unit 165 causes the menu image 32 to be displayed in the default area 143 after associating the menu image 32 with the correspondence information 152c. When the display control unit 165 receives a touch operation on the button of the menu image 32, the display control unit 165 identifies the operation content based on the button identification information and the correspondence information 152c, and executes a process according to the operation content. . The display control unit 165 specifies the coordinates of the moving image to be processed based on the linked moving image area.

例えば、表示制御部165は、再生ボタン32aに対してタッチ操作が行われた場合には、該当する領域の動画を再生させる。表示制御部165は、停止ボタン32bに対してタッチ操作が行われた場合には、該当する領域の動画を停止させる。表示制御装置165は、音ボタン32cに対してタッチ操作が行われた場合には、該当する動画の音の有音、無音を切り替える。   For example, when a touch operation is performed on the reproduction button 32a, the display control unit 165 reproduces the moving image in the corresponding area. When a touch operation is performed on the stop button 32b, the display control unit 165 stops the moving image in the corresponding area. When a touch operation is performed on the sound button 32c, the display control device 165 switches between sound and silence of the corresponding moving image.

なお、表示制御部165は、既定領域143にメニュー画像30、31または32を表示してから、既定時間以内に、該当するメニュー画像に対するタッチ操作を受け付けない場合には、メニュー画像を削除する。   Note that the display control unit 165 deletes the menu image when the touch operation for the corresponding menu image is not received within a predetermined time after the menu image 30, 31 or 32 is displayed in the default area 143.

次に、本実施例1に係るタブレット端末100の画面イメージについて説明する。図11〜図13は、本実施例1に係るタブレット端末の画面イメージを示す図である。   Next, a screen image of the tablet terminal 100 according to the first embodiment will be described. 11 to 13 are diagrams illustrating screen images of the tablet terminal according to the first embodiment.

図11は、大きさを調整する操作を行う場合の画面イメージである。図11に示すように、タブレット端末100は、視線位置10aを検出し、対象領域142を設定する(ステップS10)。タブレット端末100は、DOMを利用して、対象領域142内が画像20aであると判定する(ステップS11)。   FIG. 11 is a screen image when an operation for adjusting the size is performed. As shown in FIG. 11, the tablet terminal 100 detects the line-of-sight position 10a and sets the target area 142 (step S10). Using the DOM, the tablet terminal 100 determines that the target area 142 is the image 20a (step S11).

タブレット端末100は、既定領域143に、拡大操作を行うためのメニュー画像30を表示させる(ステップS12)。利用者は、メニュー画像30の矢印をスライドさせる(ステップS13)。タブレット端末100は、矢印の座標と、対応関係情報152aとを比較して、画像拡大率を判定し、画像拡大率に合わせて、画像20を拡大する(ステップS14)。   The tablet terminal 100 displays the menu image 30 for performing the enlargement operation in the default area 143 (step S12). The user slides the arrow on the menu image 30 (step S13). The tablet terminal 100 compares the coordinates of the arrow with the correspondence relationship information 152a, determines the image enlargement rate, and enlarges the image 20 in accordance with the image enlargement rate (step S14).

図12は、リンク先を選択する場合の画面イメージである。図12に示すように、タブレット端末100は、視線位置10aを検出し、対象領域142を設定する(ステップS20)。タブレット端末100は、DOMを利用して、対象領域142から、例えば、リンク先21、22、23を特定する(ステップS21)。   FIG. 12 is a screen image when a link destination is selected. As illustrated in FIG. 12, the tablet terminal 100 detects the line-of-sight position 10a and sets the target area 142 (step S20). The tablet terminal 100 specifies, for example, the link destinations 21, 22, and 23 from the target area 142 using DOM (step S21).

タブレット端末100は、既定領域143に、リンク先を選択するためのメニュー画像31を表示させる。例えば、リンク先が3つの場合には、タブレット端末100は、3つの選択ボタン31a、31b、31cを有するメニュー画像31を既定領域143に表示させる(ステップS22)。例えば、選択ボタン31a、31b、31cは、リンク先21、22、23に対応する。   The tablet terminal 100 displays a menu image 31 for selecting a link destination in the default area 143. For example, when there are three link destinations, the tablet terminal 100 displays the menu image 31 having the three selection buttons 31a, 31b, and 31c in the default area 143 (step S22). For example, the selection buttons 31a, 31b, and 31c correspond to the link destinations 21, 22, and 23.

例えば、利用者は、メニュー画像31の選択ボタン31aをタッチ操作する(ステップS23)。そうすると、タブレット端末100は、選択ボタン31aに対応するリンク先21が選択されたと判定し、リンク先21にリンク付けされた情報を表示する(ステップS24)。   For example, the user performs a touch operation on the selection button 31a of the menu image 31 (step S23). Then, the tablet terminal 100 determines that the link destination 21 corresponding to the selection button 31a has been selected, and displays information linked to the link destination 21 (step S24).

図13は、動画を操作する場合の画面イメージである。図13に示すように、タブレット端末100は、視線位置10aを検出し、対象領域142を設定する(ステップS30)。タブレット端末100は、DOMを利用して、対象領域142に動画が存在すると判定する。なお、タブレット端末100は、動画の領域142aを更に特定しても良い(ステップS31)。   FIG. 13 is a screen image when operating a moving image. As illustrated in FIG. 13, the tablet terminal 100 detects the line-of-sight position 10a and sets the target area 142 (step S30). The tablet terminal 100 determines that a moving image exists in the target area 142 using DOM. The tablet terminal 100 may further specify the moving image area 142a (step S31).

タブレット端末100は、既定領域143に、動画を操作するためのメニュー画像32を表示させる(ステップS32)。例えば、メニュー画像32には、再生ボタン32a、停止ボタン32b、音ボタン32cが含まれる。   The tablet terminal 100 displays the menu image 32 for operating the moving image in the default area 143 (step S32). For example, the menu image 32 includes a play button 32a, a stop button 32b, and a sound button 32c.

例えば、利用者は、再生ボタン32aをタッチ操作する(ステップS33)。タブレット端末100は、再生ボタン32aがタッチ操作された場合には、動画を再生する(ステップS34)。なお、タブレット端末100は、停止ボタン32bがタッチ操作された場合には、動画を停止させる。タブレット端末100は、音ボタン32cがタッチ操作された場合には、動画の有音、無音を切り替える。   For example, the user performs a touch operation on the playback button 32a (step S33). When the playback button 32a is touched, the tablet terminal 100 plays back a moving image (step S34). Note that the tablet terminal 100 stops the moving image when the stop button 32b is touched. When the sound button 32c is touched, the tablet terminal 100 switches between moving sound and silent.

次に、本実施例1に係るタブレット端末100の処理手順について説明する。図14〜図16は、本実施例1に係るタブレット端末の処理手順を示すフローチャートである。ここでは説明の便宜上、大きさを調整する操作を行う場合、リンク先を選択する操作を行う場合、動画の操作を行う場合に分けて説明を行う。   Next, a processing procedure of the tablet terminal 100 according to the first embodiment will be described. 14 to 16 are flowcharts illustrating the processing procedure of the tablet terminal according to the first embodiment. Here, for convenience of explanation, the description is divided into the case of performing an operation of adjusting the size, the operation of selecting a link destination, and the operation of a moving image.

図14は、大きさを調整する操作を行う場合のフローチャートである。図14に示す処理は、例えば、カメラ110から画像データを取得したことを契機にして実行される。図14に示すように、タブレット端末100は、視線位置を検出し(ステップS101)、視線位置が画面内かつタッチパネル140がタップされたか否かを判定する(ステップS102)。タブレット端末100は、視線位置が画面内ではない場合、または、タッチパネル140がタップされていない場合には(ステップS102,No)、ステップS101に移行する。   FIG. 14 is a flowchart in the case of performing an operation of adjusting the size. The process illustrated in FIG. 14 is executed, for example, when the image data is acquired from the camera 110. As illustrated in FIG. 14, the tablet terminal 100 detects the line-of-sight position (step S101), and determines whether the line-of-sight position is within the screen and the touch panel 140 is tapped (step S102). If the line-of-sight position is not within the screen or if the touch panel 140 is not tapped (No at Step S102), the tablet terminal 100 proceeds to Step S101.

一方、タブレット端末100は、視線位置が画面内かつタッチパネル140がタップされた場合には(ステップS102,Yes)、視線位置を重心として、対象領域142を設定する(ステップS103)。タブレット端末100は、対象領域142内のHTML内のDOM情報を解析し、対象領域142内の画像を特定する(ステップS104)。   On the other hand, when the line-of-sight position is within the screen and the touch panel 140 is tapped (Yes in step S102), the tablet terminal 100 sets the target area 142 using the line-of-sight position as the center of gravity (step S103). The tablet terminal 100 analyzes the DOM information in the HTML in the target area 142 and specifies the image in the target area 142 (step S104).

タブレット端末100は、メニュー画像30の配置位置を決定し(ステップS105)、メニュー画像30の位置と操作の内容を対応付けた対応関係情報152aを取得する(ステップS106)。タブレット端末100は、既定領域143に、メニュー画像30を表示する(ステップS107)。   The tablet terminal 100 determines the arrangement position of the menu image 30 (step S105), and acquires correspondence information 152a in which the position of the menu image 30 is associated with the content of the operation (step S106). The tablet terminal 100 displays the menu image 30 in the default area 143 (step S107).

タブレット端末100は、規定時間内にタッチ操作を受け付けたか否かを判定する(ステップS108)。タブレット端末100は、既定時間内にタッチ操作を受け付けない場合には(ステップS108,No)、メニュー画像30を削除し(ステップS109)、ステップS101に移行する。   The tablet terminal 100 determines whether a touch operation has been received within a specified time (step S108). If the tablet terminal 100 does not accept the touch operation within the predetermined time (step S108, No), the menu image 30 is deleted (step S109), and the process proceeds to step S101.

一方、タブレット端末100は、既定時間内にタッチ操作を受け付けた場合には(ステップS108,Yes)、タッチ操作と対応関係情報152aとを基にして、画像拡大率を特定する(ステップS110)。タブレット端末100は、拡大を実行する(ステップS111)。   On the other hand, when the tablet terminal 100 receives a touch operation within a predetermined time (step S108, Yes), the tablet terminal 100 specifies the image enlargement ratio based on the touch operation and the correspondence information 152a (step S110). The tablet terminal 100 executes enlargement (step S111).

図15は、リンク先を選択する操作を行う場合のフローチャートである。図15に示す処理は、例えば、カメラ110から画像データを取得したことを契機として実行される。図15に示すように、タブレット端末100は、視線位置を検出し(ステップS201)、視線位置が画面内かつタッチパネル140がタップされたか否かを判定する(ステップS202)。タブレット端末100は、視線位置が画面内ではない場合、または、タッチパネル140がタップされていない場合には(ステップS202,No)、ステップS201に移行する。   FIG. 15 is a flowchart when an operation for selecting a link destination is performed. The process illustrated in FIG. 15 is executed when the image data is acquired from the camera 110, for example. As illustrated in FIG. 15, the tablet terminal 100 detects the line-of-sight position (step S201), and determines whether the line-of-sight position is within the screen and the touch panel 140 is tapped (step S202). When the line-of-sight position is not within the screen or when the touch panel 140 is not tapped (No at Step S202), the tablet terminal 100 proceeds to Step S201.

一方、タブレット端末100は、視線位置が画面内かつタッチパネル140がタップされた場合には(ステップS202,Yes)、視線位置を重心として、対象領域142を設定する(ステップS203)。タブレット端末100は、対象領域142内のHTML内のDOM情報を解析し、対象領域142内のリンクの数および座標を特定する(ステップS204)。   On the other hand, when the line-of-sight position is within the screen and the touch panel 140 is tapped (step S202, Yes), the tablet terminal 100 sets the target area 142 using the line-of-sight position as the center of gravity (step S203). The tablet terminal 100 analyzes the DOM information in the HTML in the target area 142, and specifies the number and coordinates of the links in the target area 142 (step S204).

タブレット端末100は、リンクが存在しない場合には(ステップS205,No)、ステップS201に移行する。タブレット端末100は、リンクが存在する場合には(ステップS205,Yes)、選択ボタンの配置位置を決定する(ステップS206)。   If there is no link (step S205, No), the tablet terminal 100 proceeds to step S201. When there is a link (step S205, Yes), the tablet terminal 100 determines the arrangement position of the selection button (step S206).

タブレット端末100は、選択ボタンの画像とリンク座標とを対応付けることで、対応関係情報152bを生成する(ステップS207)。タブレット端末100は、既定領域143にメニュー画像31を表示させる(ステップS208)。   The tablet terminal 100 generates correspondence information 152b by associating the image of the selection button with the link coordinates (step S207). The tablet terminal 100 displays the menu image 31 in the default area 143 (step S208).

タブレット端末100は、既定時間内にタッチ操作を受け付けたか否かを判定する(ステップS209)。タブレット端末100は、既定時間内にタッチ操作を受け付けない場合には(ステップS209,No)、ステップS212に移行する。   The tablet terminal 100 determines whether a touch operation has been received within a predetermined time (step S209). If the tablet terminal 100 does not accept the touch operation within the predetermined time (step S209, No), the tablet terminal 100 proceeds to step S212.

タブレット端末100は、既定時間内にタッチ操作を受け付けた場合には(ステップS209,Yes)、対応関係情報152bを基にして、タッチされた選択ボタンに対応するリンク座標を特定する(ステップS210)。   When the tablet terminal 100 receives the touch operation within the predetermined time (step S209, Yes), the tablet terminal 100 specifies the link coordinates corresponding to the touched selection button based on the correspondence relationship information 152b (step S210). .

タブレット端末100は、操作を実行する(ステップS211)。ステップS211において、例えば、タブレット端末100は、リンク座標のリンク先をタッチパネル140に表示する。   The tablet terminal 100 performs an operation (step S211). In step S211, for example, the tablet terminal 100 displays the link destination of the link coordinates on the touch panel 140.

タブレット端末100は、メニュー画像を削除し(ステップS212)、対応関係情報152bを初期化し(ステップS213)、ステップS201に移行する。   The tablet terminal 100 deletes the menu image (step S212), initializes the correspondence information 152b (step S213), and proceeds to step S201.

図16は、動画の操作を行う場合のフローチャートである。図16に示す処理は、例えば、カメラ110から画像データを取得したことを契機にして実行される。図16に示すように、タブレット端末100は、視線位置を検出し(ステップS301)、視線位置が画面内かつタッチパネル140がタップされた否かを判定する(ステップS302)。タブレット端末100は、視線位置が画面内ではない場合、または、タッチパネル140がタップされていない場合には(ステップS302,No)、ステップS301に移行する。   FIG. 16 is a flowchart when a moving image is operated. The process illustrated in FIG. 16 is executed when the image data is acquired from the camera 110, for example. As shown in FIG. 16, the tablet terminal 100 detects the line-of-sight position (step S301), and determines whether the line-of-sight position is within the screen and the touch panel 140 is tapped (step S302). If the line-of-sight position is not within the screen or if the touch panel 140 is not tapped (No at Step S302), the tablet terminal 100 proceeds to Step S301.

一方、タブレット端末100は、視線位置が画面内かつタッチパネル140がタップされた場合には(ステップS302,Yes)、視線位置を重心として、対象領域142を設定する(ステップS303)。タブレット端末100は、対象領域142内のHTML内のDOM情報を解析し、対象領域142内の動画を特定する(ステップS304)。   On the other hand, when the line-of-sight position is within the screen and the touch panel 140 is tapped (Yes in step S302), the tablet terminal 100 sets the target area 142 using the line-of-sight position as the center of gravity (step S303). The tablet terminal 100 analyzes the DOM information in the HTML in the target area 142 and specifies the moving image in the target area 142 (step S304).

タブレット端末100は、メニュー画像32の配置位置を決定し(ステップS305)、動画に対応する対応関係情報152cを取得する(ステップS306)。タブレット端末100は、既定領域143に、メニュー画像32を表示する(ステップS307)。   The tablet terminal 100 determines the arrangement position of the menu image 32 (step S305), and acquires correspondence information 152c corresponding to the moving image (step S306). The tablet terminal 100 displays the menu image 32 in the default area 143 (step S307).

タブレット端末100は、既定時間内にタッチ操作を受け付けたか否かを判定する(ステップS308)。タブレット端末100は、既定時間内にタッチ操作を受け付けない場合には(ステップS308,No)、ステップS311に移行する。   The tablet terminal 100 determines whether a touch operation has been received within a predetermined time (step S308). If the tablet terminal 100 does not accept the touch operation within the predetermined time (step S308, No), the tablet terminal 100 proceeds to step S311.

タブレット端末100は、既定時間内にタッチ操作を受け付けた場合には(ステップS308,Yes)、タッチされたボタンと対応関係情報152cとを基にして、動画に対する操作を判定する(ステップS309)。   When the tablet terminal 100 receives a touch operation within a predetermined time (step S308, Yes), the tablet terminal 100 determines an operation on the moving image based on the touched button and the correspondence information 152c (step S309).

タブレット端末100は、操作を実行する(ステップS310)。ステップS310において、例えば、タブレット端末100は、再生ボタン32aに対してタッチ操作が行われた場合には、対象領域142の動画を再生する。タブレット端末100は、停止ボタン32bに対してタッチ操作が行われた場合には、対象領域142の動画を停止する。タブレット端末100は、音ボタン32cに対してタッチ操作が行われた場合には、対象領域142の動画の無音、有音を切り替える。   The tablet terminal 100 performs an operation (step S310). In step S310, for example, when the touch operation is performed on the reproduction button 32a, the tablet terminal 100 reproduces the moving image in the target area 142. When a touch operation is performed on the stop button 32b, the tablet terminal 100 stops the moving image in the target area 142. When a touch operation is performed on the sound button 32c, the tablet terminal 100 switches between silence and sound of the moving image in the target area 142.

タブレット端末100は、メニュー画像32を削除し(ステップS311)、対応関係情報152cを初期化し(ステップS312)、ステップS301に移行する。   The tablet terminal 100 deletes the menu image 32 (step S311), initializes the correspondence information 152c (step S312), and proceeds to step S301.

次に、本実施例1に係るタブレット端末100の効果について説明する。タブレット端末100は、タッチパネル140上で操作の行われる対象領域142を特定し、対象領域142内のタッチ操作の内容を判定する。そして、タブレット端末100は、タッチ操作の内容に対応する選択肢を含むメニュー画像を生成し、既定領域143に表示させて、タッチ操作を受け付ける。既定領域143は、タブレット端末100を持つ手の親指が届く範囲であるため、利用者が片手でタブレットを操作する場合でも、タッチパネル140を快適に操作することができる。   Next, effects of the tablet terminal 100 according to the first embodiment will be described. The tablet terminal 100 identifies the target area 142 that is operated on the touch panel 140 and determines the content of the touch operation in the target area 142. Then, the tablet terminal 100 generates a menu image including options corresponding to the content of the touch operation, displays the menu image in the default area 143, and accepts the touch operation. Since the predetermined area 143 is an area in which the thumb of the hand holding the tablet terminal 100 can reach, the touch panel 140 can be comfortably operated even when the user operates the tablet with one hand.

ところで、対象領域142の画像をそのまま、既定領域143に表示させて、利用者にタッチ操作を行わせることも考えられるが、その場合には、タッチ操作を快適に行うことができない場合がある。例えば、操作対象の画像やハイパーテキストが小さい場合には、タッチ操作をしづらくなる。また、対象領域142の大きさに対して画像が大きすぎてはみ出てしまう場合でも、同様にタッチ操作をしづらくなる。これに対して、本実施例1に係るタブレット端末100は、対象領域142内のタッチ操作の内容を判定し、メニュー画像を既定領域143に表示させるため、画像や文字の大きさに左右されない快適な操作性を実現することができる。   By the way, it is conceivable that the image of the target area 142 is displayed as it is in the default area 143 to allow the user to perform a touch operation, but in that case, the touch operation may not be performed comfortably. For example, when an operation target image or hypertext is small, it is difficult to perform a touch operation. In addition, even when the image is too large with respect to the size of the target area 142, it is similarly difficult to perform a touch operation. On the other hand, since the tablet terminal 100 according to the first embodiment determines the content of the touch operation in the target area 142 and displays the menu image in the default area 143, the comfort is not affected by the size of the image or characters. Operability can be realized.

また、タブレット端末100は、タッチパネル140上の視線位置を検出し、視線位置を含む対象領域142を特定し、対象領域142内のタッチ操作の内容を判定する。このため、利用者が注目する領域の操作を、片手であっても快適に操作することを可能にする。   In addition, the tablet terminal 100 detects the line-of-sight position on the touch panel 140, specifies the target area 142 including the line-of-sight position, and determines the content of the touch operation in the target area 142. For this reason, it is possible to comfortably operate the region of interest of the user even with one hand.

次に、本実施例2に係るタブレット端末について説明する。本実施例2に係るタブレット端末200は、実施例1のタブレット端末100とは異なり、対象領域の画像または文字を拡大することに特化したタブレット端末である。   Next, the tablet terminal according to the second embodiment will be described. Unlike the tablet terminal 100 according to the first embodiment, the tablet terminal 200 according to the second embodiment is a tablet terminal specialized for enlarging an image or characters in a target area.

図17は、本実施例2に係るタブレット端末の構成を示す図である。図17に示すように、タブレット端末200は、カメラ210、光源220、通信部230、タッチパネル240、記憶部250、制御部260を有する。   FIG. 17 is a diagram illustrating the configuration of the tablet terminal according to the second embodiment. As illustrated in FIG. 17, the tablet terminal 200 includes a camera 210, a light source 220, a communication unit 230, a touch panel 240, a storage unit 250, and a control unit 260.

カメラ210、光源220、通信部230、タッチパネル240に関する説明は、実施例1に示したカメラ110、光源120、通信部130、タッチパネル140に関する説明と同様であるため、説明を省略する。   The description regarding the camera 210, the light source 220, the communication unit 230, and the touch panel 240 is the same as the description regarding the camera 110, the light source 120, the communication unit 130, and the touch panel 140 described in the first embodiment, and thus the description thereof is omitted.

記憶部250は、ボタン画像情報251を記憶する記憶装置である。例えば、記憶部250は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。   The storage unit 250 is a storage device that stores button image information 251. For example, the storage unit 250 corresponds to a semiconductor memory device such as a RAM, a ROM, or a flash memory, or a storage device such as a hard disk or an optical disk.

ボタン画像情報251は、画像を拡大させるための拡大ボタンの画像情報を含む。   The button image information 251 includes image information of an enlarge button for enlarging the image.

制御部260は、視線検出部261、タッチ判定部262、表示制御部263を有する。例えば制御部260は、ASICや、FPGAなどの集積装置に対応する。また、制御部260は、例えば、CPUやMPU等の電子回路に対応する。   The control unit 260 includes a line-of-sight detection unit 261, a touch determination unit 262, and a display control unit 263. For example, the control unit 260 corresponds to an integrated device such as an ASIC or FPGA. Moreover, the control part 260 respond | corresponds to electronic circuits, such as CPU and MPU, for example.

視線検出部261は、タッチパネル240上の視線位置を検出する処理部である。視線検出部261は、視線位置の情報を表示制御部263に出力する。視線検出部261が、視線位置を検出する処理は、実施例1に示した視線検出部161と同様であるため説明を省略する。   The line-of-sight detection unit 261 is a processing unit that detects the line-of-sight position on the touch panel 240. The line-of-sight detection unit 261 outputs information on the line-of-sight position to the display control unit 263. The process in which the line-of-sight detection unit 261 detects the line-of-sight position is the same as that of the line-of-sight detection unit 161 shown in the first embodiment, and a description thereof will be omitted.

タッチ判定部262は、タッチパネル240に対してタッチ操作が行われたか否かを判定する処理部である。タッチ判定部262は、タッチ操作が行われたか否かの判定結果を表示制御部263に出力する。   The touch determination unit 262 is a processing unit that determines whether a touch operation has been performed on the touch panel 240. The touch determination unit 262 outputs a determination result as to whether or not a touch operation has been performed to the display control unit 263.

表示制御部263は、視線位置を中心として、画面の画像を拡大表示する処理部である。なお、表示制御部263は、タッチ判定部262から、タッチ操作が行われた旨の情報を受け付けたことをトリガとして、下記の処理を実行する。   The display control unit 263 is a processing unit that enlarges and displays an image on the screen around the line-of-sight position. Note that the display control unit 263 executes the following process using the information indicating that the touch operation has been performed from the touch determination unit 262 as a trigger.

表示制御部263は、ボタン画像情報251から拡大ボタンの画像を取得し、拡大ボタンの画像を、既定領域143に表示させる。表示制御部263は、拡大ボタンに対するタッチ操作を受け付けた場合には、視線位置を中心として、タッチパネル240上の画像を拡大する。例えば、表示制御部263は、所定時間以内における拡大ボタンに対するタッチ操作の回数に応じて画像拡大率を判定し、判定した画像拡大率に応じて、画像を拡大しても良い。例えば、表示制御部263は、式(1)を基にして、拡大率を判定する。式(1)のnは所定時間内におけるタッチ操作回数である。   The display control unit 263 acquires the image of the enlarge button from the button image information 251 and displays the image of the enlarge button in the default area 143. When receiving a touch operation on the enlarge button, the display control unit 263 enlarges the image on the touch panel 240 with the line-of-sight position as the center. For example, the display control unit 263 may determine the image enlargement rate according to the number of touch operations on the enlargement button within a predetermined time, and enlarge the image according to the determined image enlargement rate. For example, the display control unit 263 determines the enlargement ratio based on Expression (1). In Expression (1), n is the number of touch operations within a predetermined time.

画像拡大率(%)=100+10×n・・・(1)   Image magnification (%) = 100 + 10 × n (1)

なお、表示制御部263は、拡大ボタンを表示させてから、所定時間以内に拡大ボタンに対するタッチ操作を受け付けない場合には、拡大ボタンを削除する。   Note that the display control unit 263 deletes the enlargement button if the touch operation on the enlargement button is not received within a predetermined time after the enlargement button is displayed.

次に、本実施例2に係るタブレット端末200の画面イメージについて説明する。図18は、本実施例2に係るタブレット端末の画面イメージを示す図である。図18に示すように、タブレット端末200は、画像を画面に表示し(ステップS40)、視線位置10aを検出する(ステップS41)。   Next, a screen image of the tablet terminal 200 according to the second embodiment will be described. FIG. 18 is a diagram illustrating a screen image of the tablet terminal according to the second embodiment. As shown in FIG. 18, the tablet terminal 200 displays an image on the screen (step S40), and detects the line-of-sight position 10a (step S41).

タブレット端末200は、既定領域143に拡大ボタン33を表示させる(ステップS42)。タブレット端末200は、拡大ボタン33に対するタッチ操作を受け付けた場合に(ステップS43)、視線位置10aを中心として、画像を拡大する(ステップS44)。   The tablet terminal 200 displays the enlargement button 33 in the default area 143 (step S42). When the tablet terminal 200 receives a touch operation on the enlargement button 33 (step S43), the tablet terminal 200 enlarges the image around the line-of-sight position 10a (step S44).

次に、本実施例2に係るタブレット端末200の処理手順について説明する。図19は、本実施例2に係るタブレット端末の処理手順を示すフローチャートである。図19に示す処理は、例えば、カメラ210から画像データを取得したことを契機にして実行される。図19に示すように、タブレット端末200は、視線位置を検出し(ステップS401)、視線位置が画面内かつタッチパネル240がタップされたか否かを判定する(ステップS402)。タブレット端末200は、視線位置が画面内ではない場合、または、タッチパネル240がタップされていない場合には(ステップS402,No)、ステップS401に移行する。   Next, a processing procedure of the tablet terminal 200 according to the second embodiment will be described. FIG. 19 is a flowchart illustrating the processing procedure of the tablet terminal according to the second embodiment. The process illustrated in FIG. 19 is executed, for example, when the image data is acquired from the camera 210. As shown in FIG. 19, the tablet terminal 200 detects the line-of-sight position (step S401), and determines whether the line-of-sight position is within the screen and the touch panel 240 is tapped (step S402). When the line-of-sight position is not within the screen or when the touch panel 240 is not tapped (No at Step S402), the tablet terminal 200 proceeds to Step S401.

一方、タブレット端末200は、視線位置が画面内かつタッチパネル240がタップされた場合には(ステップS402,Yes)、視線位置を拡大中心に設定する(ステップS403)。タブレット端末200は、既定領域143に、拡大ボタンを表示させる(ステップS404)。   On the other hand, when the line-of-sight position is within the screen and the touch panel 240 is tapped (step S402, Yes), the tablet terminal 200 sets the line-of-sight position as the center of enlargement (step S403). The tablet terminal 200 displays an enlarge button in the default area 143 (step S404).

タブレット端末200は、既定時間以内に拡大ボタンに対するタッチ操作があるか否かを判定する(ステップS405)。タブレット端末200は、既定時間以内に拡大ボタンに対するタッチ操作がない場合には(ステップS405,No)、拡大ボタンを削除し(ステップS406)、ステップS401に移行する。   The tablet terminal 200 determines whether or not there is a touch operation on the enlargement button within a predetermined time (step S405). If there is no touch operation on the enlarge button within the predetermined time (step S405, No), the tablet terminal 200 deletes the enlarge button (step S406), and proceeds to step S401.

タブレット端末200は、既定時間以内に拡大ボタンに対するタッチ操作があった場合には(ステップS405,Yes)、画面の画像を拡大し(ステップS407)、ステップS406に移行する。   If there is a touch operation on the enlarge button within a predetermined time (step S405, Yes), the tablet terminal 200 enlarges the image on the screen (step S407), and proceeds to step S406.

次に、本実施例2に係るタブレット端末200の効果について説明する。タブレット端末200は、既定領域143に、拡大ボタンを表示し、拡大ボタンに対するタッチ操作を受け付けた場合に、視線位置を中心として画像を拡大させる。既定領域143は、タブレット端末200を持つ手の親指が届く範囲であるため、利用者が片手でタブレット端末200を操作する場合でも、利用者の望む画像の領域を快適に拡大させることができる。   Next, effects of the tablet terminal 200 according to the second embodiment will be described. When the tablet terminal 200 displays an enlarge button in the default area 143 and receives a touch operation on the enlarge button, the tablet terminal 200 enlarges the image around the line-of-sight position. Since the predetermined area 143 is an area in which the thumb of the hand holding the tablet terminal 200 can reach, even when the user operates the tablet terminal 200 with one hand, the image area desired by the user can be comfortably enlarged.

上記の実施例1、2では、タブレット端末100、200の処理について説明したが、上述した処理の内容は一例である。実施例3では、タブレット端末のその他の処理について説明する。実施例3では説明の便宜上、図1に示したタブレット端末100を用いて処理を説明する。   In the first and second embodiments, the processing of the tablet terminals 100 and 200 has been described. However, the content of the processing described above is an example. In the third embodiment, other processes of the tablet terminal will be described. In the third embodiment, for convenience of explanation, processing will be described using the tablet terminal 100 shown in FIG.

リンク先を選択するメニュー画像のその他の例について説明する。対象領域142に含まれるリンク先の数が多い場合には、メニュー画像に含まれる選択ボタンの数が多くなり、既定領域143に全てのボタンを表示させようとすると、選択ボタンの大きさが小さくなり、利用者が選択ボタンをタッチ操作しづらくなる。このため、タブレット端末100は、対象領域142のリンク先の数が所定数以上の場合には、メニュー画像に選択ボタンの一部を表示させ、選択ボタンの切り替え指示を受け付けた場合に、選択ボタンを切り替えて表示するようにしても良い。   Another example of the menu image for selecting the link destination will be described. When the number of link destinations included in the target area 142 is large, the number of selection buttons included in the menu image increases, and when all the buttons are displayed in the default area 143, the size of the selection buttons is small. It becomes difficult for the user to touch the selection button. For this reason, when the number of link destinations of the target area 142 is equal to or larger than the predetermined number, the tablet terminal 100 displays a part of the selection button on the menu image and receives the selection button switching instruction. You may make it display by switching.

図20および図21は、その他のメニュー画像の一例を示す図である。図20に示すように、メニュー画像34には一部の選択ボタンを表示させている。利用者が残りの選択ボタンを選択する場合には、矢印34aをタッチ操作する。例えば、表示制御部165は、矢印34aを下方向にスワイプを受け付けた場合には、他の選択ボタンを表示させる。また、表示制御部165は、図21に示すように、メニュー画像35を表示させてもよい。表示制御部165は、切替ボタン35a、35bに対してタッチ操作を受け付けた場合には、他のボタンを表示させる。更に、表示制御部165は、プルダウン形式で選択ボタンを表示させても良い。このような処理を表示制御部165が実行することによって、対象領域142に複数のリンク先が存在していても、利用者は快適に操作ボタンを選択することができる。   20 and 21 are diagrams illustrating examples of other menu images. As shown in FIG. 20, some selection buttons are displayed on the menu image 34. When the user selects the remaining selection buttons, the user touches the arrow 34a. For example, when the display control unit 165 receives a swipe in the downward direction of the arrow 34a, the display control unit 165 displays another selection button. Further, the display control unit 165 may display a menu image 35 as shown in FIG. The display control part 165 displays another button, when a touch operation is received with respect to the switching button 35a, 35b. Further, the display control unit 165 may display the selection button in a pull-down format. By executing such processing by the display control unit 165, even if there are a plurality of link destinations in the target area 142, the user can comfortably select the operation button.

次に、タブレット端末100が視線位置を補正する処理について説明する。例えば、実施例1では、図14のステップS102、図15のステップS202、図16のステップS302で示したように、視線位置が画面内かつタッチパネル140がタップされた場合に、視線位置を中心位置として、対象領域142を特定していた。しかしながら、タップ操作によって、タブレット端末140の角度がずれてしまい、視線位置がずれてしまうことが考えられる。   Next, processing in which the tablet terminal 100 corrects the line-of-sight position will be described. For example, in the first embodiment, as shown in step S102 in FIG. 14, step S202 in FIG. 15, and step S302 in FIG. 16, when the line-of-sight position is within the screen and the touch panel 140 is tapped, the line-of-sight position is set as the center position. As shown in FIG. However, it is conceivable that the angle of the tablet terminal 140 is shifted due to the tap operation, and the line-of-sight position is shifted.

このため、例えば、領域特定部162は、タッチ判定部164から利用者がタッチ操作を行ったか否かの情報を取得し、タッチ操作を行う所定時間前の視線位置を利用して、対象領域142を特定しても良い。または、領域特定部162は、タッチ操作を行う所定時間前から、タッチ操作を行う直前までの視線位置の平均を算出し、算出した平均位置を重心として、対象領域142を設定しても良い。このような処理を、領域特定部162が実行することによって、タッチ操作による視線位置のズレを修正することができる。   For this reason, for example, the area specifying unit 162 acquires information on whether or not the user has performed a touch operation from the touch determination unit 164, and uses the line-of-sight position a predetermined time before the touch operation is performed. May be specified. Alternatively, the area specifying unit 162 may calculate the average of the line-of-sight positions from a predetermined time before performing the touch operation to immediately before performing the touch operation, and may set the target area 142 using the calculated average position as the center of gravity. By executing such processing by the area specifying unit 162, it is possible to correct the shift of the line-of-sight position due to the touch operation.

次に、表示制御部165のその他の処理について説明する。上記の実施例1では、表示制御部165は、メニュー画像30、31、32をそれぞれ別々に、既定領域143に表示する例を示したが、これに限定されない。表示制御部165は、対象領域142内のタッチ操作の内容に応じて、各メニュー画像30、31、32を複合的に表示しても良い。例えば、対象領域142に、複数のリンク先と動画が存在する場合には、表示制御部165は、メニュー画像31、32を、既定領域143に表示する。   Next, other processes of the display control unit 165 will be described. In the first embodiment described above, the display control unit 165 has shown an example in which the menu images 30, 31, and 32 are separately displayed in the predetermined area 143, but the present invention is not limited to this. The display control unit 165 may display the menu images 30, 31, and 32 in a composite manner according to the content of the touch operation in the target area 142. For example, when there are a plurality of link destinations and moving images in the target area 142, the display control unit 165 displays the menu images 31 and 32 in the default area 143.

また、複数のリンク先が存在する場合には、単にメニュー画像31を表示しただけでは、選択ボタンと、リンク先との対応関係が分かり難い場合がある。このため、表示制御部165は、対象領域142の選択項目と、メニュー画像の選択ボタンとを視覚的に対応付けても良い。例えば、表示制御部165は、それぞれ対応する選択ボタンと、選択項目とを同じ色で表示しても良いし、線などで結んで表示させても良い。または、表示制御部165は、対象領域142のリンク先の並び順に合わせて、メニュー画像31の選択ボタンを並べて表示させても良い。このような処理を表示制御部165が実行することによって、メニュー画像の選択ボタンと、対象領域142のリンク先との関係が明確になり、利用者は、どの選択ボタンをタッチ操作すれば、どのリンク先を選択することができるかが分かりやすくなる。   When there are a plurality of link destinations, it may be difficult to understand the correspondence between the selection button and the link destination simply by displaying the menu image 31. For this reason, the display control unit 165 may visually associate the selection item of the target area 142 with the selection button of the menu image. For example, the display control unit 165 may display the corresponding selection buttons and selection items in the same color, or may be displayed by connecting them with lines or the like. Alternatively, the display control unit 165 may display the selection buttons of the menu image 31 side by side in accordance with the arrangement order of the link destinations of the target area 142. When the display control unit 165 executes such processing, the relationship between the selection button of the menu image and the link destination of the target area 142 is clarified, and the user can select which selection button to perform a touch operation. It will be easier to see if the link destination can be selected.

また、図6に示した動画を操作するためのメニュー画像32は一例である。対象領域142の動画の種別によっては、自動的に再生が行われるものがある。このため、表示制御部165は、自動的に再生が行われる動画に対しては、再生ボタン32aの代わりに、一時停止ボタンを配置してもよい。または、動画の再生時間を、所望の時間にジャンプさせる操作ボタンを、メニュー画像32に表示させても良い。   Further, the menu image 32 for operating the moving picture shown in FIG. 6 is an example. Depending on the type of moving image in the target area 142, there is one that is automatically played back. For this reason, the display control unit 165 may arrange a pause button instead of the playback button 32a for a video that is automatically played back. Alternatively, an operation button for jumping the reproduction time of the moving image to a desired time may be displayed on the menu image 32.

ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図22を用いて、上記の実施例と同様の機能を有する操作受付プログラムを実行するコンピュータの一例について説明する。   By the way, the various processes described in the above embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. In the following, an example of a computer that executes an operation reception program having the same function as that of the above-described embodiment will be described with reference to FIG.

図22は、実施例に係る操作受付プログラムを実行するコンピュータの一例について説明するための図である。図22に示すように、コンピュータ300は、操作部301と、スピーカ302と、カメラ303と、ディスプレイ304と、通信部305とを有する。さらに、このコンピュータ300は、CPU306と、ROM307と、RAM308と、ハードディスク装置309とを有する。これら301〜309の各部はバス310を介して接続される。   FIG. 22 is a schematic diagram illustrating an example of a computer that executes an operation reception program according to the embodiment. As illustrated in FIG. 22, the computer 300 includes an operation unit 301, a speaker 302, a camera 303, a display 304, and a communication unit 305. Further, the computer 300 includes a CPU 306, a ROM 307, a RAM 308, and a hard disk device 309. These units 301 to 309 are connected via a bus 310.

ハードディスク装置309には、図22に示すように、領域特定プログラム309a、操作判定プログラム309b、表示制御プログラム309cが記憶される。   As shown in FIG. 22, the hard disk device 309 stores an area specifying program 309a, an operation determination program 309b, and a display control program 309c.

そして、CPU306が、領域特定プログラム309a、操作判定プログラム309b、表示制御プログラム309cを読みだしてRAM308に展開する。領域特定プログラム309aは、領域特定プロセス308aとして機能する。操作判定プログラム309bは、操作判定プロセス308bとして機能する。表示制御プログラム309cは、表示制御プロセス308cとして機能する。   Then, the CPU 306 reads the area specifying program 309a, the operation determination program 309b, and the display control program 309c and expands them in the RAM 308. The area specifying program 309a functions as an area specifying process 308a. The operation determination program 309b functions as an operation determination process 308b. The display control program 309c functions as a display control process 308c.

例えば、領域特定プロセス308aは、図1に示した視線検出部161、領域特定部162等に対応する処理を行う。操作判定プロセス308bは、図1に示した操作判定部163等に対応する処理を行う。表示制御プロセス308cは、タッチ判定部164、表示制御部165等に対応する処理を行う。   For example, the area specifying process 308a performs processing corresponding to the line-of-sight detection unit 161, the area specifying unit 162, and the like illustrated in FIG. The operation determination process 308b performs processing corresponding to the operation determination unit 163 and the like illustrated in FIG. The display control process 308c performs processing corresponding to the touch determination unit 164, the display control unit 165, and the like.

なお、上記の各プログラム309a〜309cについては、必ずしも最初からハードディスク装置309等に記憶させておく必要はない。例えば、コンピュータ300に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ300がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ300がこれらから各プログラムを取得して実行するようにしてもよい。   Note that the programs 309a to 309c are not necessarily stored in the hard disk device 309 or the like from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk inserted into the computer 300, so-called FD, CD-ROM, DVD disk, magneto-optical disk, or IC card. Then, the computer 300 may acquire and execute each program from these portable physical media. Each program is stored in another computer or server device connected to the computer 300 via a public line, the Internet, a LAN, a WAN, etc., and the computer 300 acquires and executes each program from these. It may be.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)タッチパネル上でタッチ操作の行われる領域を特定する領域特定部と、
前記領域特定部によって特定された領域内のタッチ操作の内容を判定する操作判定部と、
前記操作判定部によって判定されたタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する表示制御部と
を有することを特徴とするタブレット端末。
(Appendix 1) An area specifying unit for specifying an area where a touch operation is performed on the touch panel;
An operation determination unit for determining the content of the touch operation in the region specified by the region specifying unit;
A tablet terminal comprising: a display control unit that generates an option corresponding to the content of the touch operation determined by the operation determination unit and displays the generated option in a predetermined area of the touch panel.

(付記2)前記タッチパネル上の視線位置を検出する視線検出部を更に有し、
前記領域特定部は、前記視線位置を含む領域を特定することを特徴とする付記1に記載のタブレット端末。
(Additional remark 2) It further has a gaze detection part which detects a gaze position on the touch panel,
The tablet terminal according to appendix 1, wherein the area specifying unit specifies an area including the line-of-sight position.

(付記3)前記タッチパネル上でタッチ操作が行われたか否かを判定するタッチ判定部を更に有し、
前記領域特定部は、前記タッチパネル上でタッチ操作が行われた場合に、前記視線位置を含む領域の位置を補正することを特徴とする付記2に記載のタブレット端末。
(Additional remark 3) It further has the touch determination part which determines whether touch operation was performed on the said touch panel,
The tablet terminal according to appendix 2, wherein the area specifying unit corrects the position of the area including the line-of-sight position when a touch operation is performed on the touch panel.

(付記4)前記表示制御部は、タッチ操作の内容に対応する選択肢の数が所定数以上の場合には、複数の選択肢のうち、一部の選択肢を所定領域に表示することを特徴とする付記1、2または3に記載のタブレット端末。 (Additional remark 4) When the number of the choices corresponding to the content of touch operation is more than predetermined number, the said display control part displays some choices in a predetermined area | region among several options, It is characterized by the above-mentioned. The tablet terminal according to appendix 1, 2 or 3.

(付記5)前記表示制御部は、前記領域特定部によって特定された領域内のタッチ操作対象と、前記選択肢とを視覚的に対応付けて前記タッチパネルの所定領域に表示することを特徴とする付記1〜4のいずれか一つに記載のタブレット端末。 (Additional remark 5) The said display control part displays the touch operation target in the area | region specified by the said area | region specific part, and the said option visually in the predetermined area | region of the said touch panel. The tablet terminal as described in any one of 1-4.

(付記6)コンピュータが実行する操作受付方法であって、
タッチパネル上でタッチ操作の行われる領域を特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行する操作受付方法。
(Appendix 6) An operation reception method executed by a computer,
Identify the area where the touch operation is performed on the touch panel,
Determine the content of the touch operation in the identified area,
An operation receiving method for generating each option corresponding to the content of the determined touch operation and displaying the generated option in a predetermined area of the touch panel.

(付記7)前記タッチパネル上の視線位置を検出する処理を更に実行し、
前記領域を特定する処理は、前記視線位置を含む領域を特定することを特徴とする付記6に記載の操作受付方法。
(Additional remark 7) The process which detects the eyes | visual_axis position on the said touch panel is further performed,
The operation receiving method according to appendix 6, wherein the process of specifying the area specifies an area including the line-of-sight position.

(付記8)前記タッチパネル上でタッチ操作が行われたか否かを判定する処理を更に実行し、
前記領域を特定する処理は、前記タッチパネル上でタッチ操作が行われた場合に、前記視線位置を含む領域の位置を補正することを特徴とする付記7に記載の操作受付方法。
(Additional remark 8) The process which determines whether touch operation was performed on the said touch panel is further performed,
The operation receiving method according to appendix 7, wherein the process of specifying the area corrects the position of the area including the line-of-sight position when a touch operation is performed on the touch panel.

(付記9)前記表示する処理は、タッチ操作の内容に対応する選択肢の数が所定数以上の場合には、複数の選択肢のうち、一部の選択肢を所定領域に表示することを特徴とする付記6、7または8に記載の操作受付方法。 (Additional remark 9) The said process to display displays some choices in a predetermined area | region among several choices, when the number of the choices corresponding to the content of touch operation is more than predetermined number, It is characterized by the above-mentioned. The operation accepting method according to appendix 6, 7 or 8.

(付記10)前記表示する処理は、特定された領域内のタッチ操作対象と、前記選択肢とを視覚的に対応付けて前記タッチパネルの所定領域に表示することを特徴とする付記6〜9のいずれか一つに記載の操作受付方法。 (Supplementary note 10) Any one of Supplementary notes 6 to 9, wherein the display processing includes displaying the touch operation target in the specified area and the option in a predetermined area of the touch panel in a visually correlated manner. The method of accepting operations according to any one of the above.

(付記11)コンピュータに、
タッチパネル上でタッチ操作の行われる領域を特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行させることを特徴とする操作受付プログラム。
(Supplementary note 11)
Identify the area where the touch operation is performed on the touch panel,
Determine the content of the touch operation in the identified area,
An operation reception program for generating an option corresponding to the content of the determined touch operation and displaying each of the generated option in a predetermined area of the touch panel.

(付記12)前記タッチパネル上の視線位置を検出する処理を更に実行し、
前記領域を特定する処理は、前記視線位置を含む領域を特定することを特徴とする付記11に記載の操作受付プログラム。
(Additional remark 12) The process which detects the eyes | visual_axis position on the said touch panel is further performed,
The operation reception program according to appendix 11, wherein the process of specifying the area specifies an area including the line-of-sight position.

(付記13)前記タッチパネル上でタッチ操作が行われたか否かを判定する処理を更に実行し、
前記領域を特定する処理は、前記タッチパネル上でタッチ操作が行われた場合に、前記視線位置を含む領域の位置を補正することを特徴とする付記12に記載の操作受付プログラム。
(Additional remark 13) The process which determines whether the touch operation was performed on the said touch panel is further performed,
The operation receiving program according to appendix 12, wherein the process of specifying the area corrects the position of the area including the line-of-sight position when a touch operation is performed on the touch panel.

(付記14)前記表示する処理は、タッチ操作の内容に対応する選択肢の数が所定数以上の場合には、複数の選択肢のうち、一部の選択肢を所定領域に表示することを特徴とする付記11、12または13に記載の操作受付プログラム。 (Supplementary note 14) When the number of options corresponding to the content of the touch operation is greater than or equal to a predetermined number, the display process displays some of the options in a predetermined area. The operation reception program according to appendix 11, 12 or 13.

(付記15)前記表示する処理は、特定された領域内のタッチ操作対象と、前記選択肢とを視覚的に対応付けて前記タッチパネルの所定領域に表示することを特徴とする付記11〜14のいずれか一つに記載の操作受付プログラム。 (Supplementary note 15) Any one of Supplementary notes 11 to 14, wherein the display process includes displaying the touch operation target in the specified area and the option in a predetermined area of the touch panel in a visually associated manner. The operation reception program according to any one of the above.

(付記16)メモリと、
前記メモリに接続されたプロセッサと、を具備し、
前記プロセッサは、
タッチパネル上でタッチ操作の行われる領域を特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行することを特徴とするタブレット端末。
(Supplementary Note 16) Memory,
A processor connected to the memory,
The processor is
Identify the area where the touch operation is performed on the touch panel,
Determine the content of the touch operation in the identified area,
A tablet terminal that generates an option corresponding to the content of the determined touch operation and displays the generated option in a predetermined area of the touch panel.

(付記17)タッチパネル上でタッチ操作の行われる領域を特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する、
各処理をコンピュータに実行させる操作受付プログラムを記憶する、コンピュータが読み取り可能な記録媒体。
(Additional remark 17) The area | region where touch operation is performed on a touchscreen is specified,
Determine the content of the touch operation in the identified area,
Generating an option corresponding to the content of the determined touch operation, and displaying the generated option in a predetermined area of the touch panel;
A computer-readable recording medium that stores an operation reception program for causing a computer to execute each process.

100,200 タブレット端末
110,210 カメラ
120,220 光源
130,230 通信部
140,240 タッチパネル
150,250 記憶部
160,260 制御部
100, 200 Tablet terminal 110, 210 Camera 120, 220 Light source 130, 230 Communication unit 140, 240 Touch panel 150, 250 Storage unit 160, 260 Control unit

Claims (9)

タッチパネル上の視線位置を検出する視線検出部と、
前記タッチパネル上でタッチ操作が行われたか否かを判定するタッチ判定部と、
前記タッチパネル上でタッチ操作が行われた場合に、視線位置を含む領域の位置を、前記タッチ操作が行われる所定時間前の視線位置を含む領域の位置に補正し、位置を補正した領域を、タッチ操作の行われる領域として特定する領域特定部と、
前記領域特定部によって特定された領域内のタッチ操作の内容を判定する操作判定部と、
前記操作判定部によって判定されたタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する表示制御部と
を有することを特徴とするタブレット端末。
A line-of-sight detection unit for detecting a line-of-sight position on the touch panel;
A touch determination unit that determines whether a touch operation has been performed on the touch panel;
When a touch operation is performed on the touch panel, the position of the region including the line-of-sight position is corrected to the position of the region including the line-of-sight position before the touch operation is performed, and the region where the position is corrected is An area specifying unit that specifies an area where a touch operation is performed;
An operation determination unit for determining the content of the touch operation in the region specified by the region specifying unit;
A tablet terminal comprising: a display control unit that generates an option corresponding to the content of the touch operation determined by the operation determination unit and displays the generated option in a predetermined area of the touch panel.
前記表示制御部は、タッチ操作の内容に対応する選択肢の数が所定数以上の場合には、複数の選択肢のうち、一部の選択肢を所定領域に表示することを特徴とする請求項1に記載のタブレット端末。   2. The display control unit according to claim 1, wherein, when the number of options corresponding to the content of the touch operation is equal to or greater than a predetermined number, a part of the plurality of options is displayed in a predetermined area. The tablet device described. 前記表示制御部は、前記領域特定部によって特定された領域内のタッチ操作対象と、前記選択肢とを視覚的に対応付けて前記タッチパネルの所定領域に表示することを特徴とする請求項1または2に記載のタブレット端末。   3. The display control unit according to claim 1, wherein the touch operation target in the region specified by the region specifying unit and the option are visually associated with each other and displayed in a predetermined region of the touch panel. Tablet device according to. コンピュータが実行する操作受付方法であって、
タッチパネル上の視線位置を検出し、
前記タッチパネル上でタッチ操作が行われたか否かを判定し、
タッチパネル上でタッチ操作が行われた場合に、視線位置を含む領域の位置を、前記タッチ操作が行われる所定時間前の視線位置を含む領域の位置に補正し、位置を補正した領域を、タッチ操作の行われる領域として特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行する操作受付方法。
An operation reception method executed by a computer,
Detect line-of-sight position on touch panel,
Determining whether a touch operation has been performed on the touch panel;
When a touch operation is performed on the touch panel, the position of the area including the line-of-sight position is corrected to the position of the area including the line-of-sight position a predetermined time before the touch operation is performed, and the area whose position is corrected is touched. Identify the area where the operation will be performed,
Determine the content of the touch operation in the identified area,
An operation receiving method for generating each option corresponding to the content of the determined touch operation and displaying the generated option in a predetermined area of the touch panel.
コンピュータに、
タッチパネル上の視線位置を検出し、
前記タッチパネル上でタッチ操作が行われたか否かを判定し、
タッチパネル上でタッチ操作が行われた場合に、視線位置を含む領域の位置を、前記タッチ操作が行われる所定時間前の視線位置を含む領域の位置に補正し、位置を補正した領域を、タッチ操作の行われる領域として特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行させることを特徴とする操作受付プログラム。
On the computer,
Detect line-of-sight position on touch panel,
Determining whether a touch operation has been performed on the touch panel;
When a touch operation is performed on the touch panel, the position of the area including the line-of-sight position is corrected to the position of the area including the line-of-sight position a predetermined time before the touch operation is performed, and the area whose position is corrected is touched. Identify the area where the operation will be performed,
Determine the content of the touch operation in the identified area,
An operation reception program for generating an option corresponding to the content of the determined touch operation and displaying each of the generated option in a predetermined area of the touch panel.
タッチパネルと、
前記タッチパネル上に選択対象の表示を行わせ、前記タッチパネルの左下隅に位置する領域に、更に複数の選択肢を有するメニューを表示させ、前記複数の選択肢は前記選択対象の選択による動作と同様の動作の指示が可能な選択肢を含み得るメニュー表示制御を行う制御部
を有することを特徴とするタブレット端末。
A touch panel;
The selection target is displayed on the touch panel, and a menu having a plurality of options is displayed in an area located in the lower left corner of the touch panel, and the plurality of options are operations similar to the operations by selecting the selection target. And a control unit that performs menu display control that may include options that can be specified .
前記タブレット端末の形は、略長方形の形であって、前記左下隅は、長辺又は短辺の左下隅であることを特徴とする請求項6に記載のタブレット端末。   The tablet terminal according to claim 6, wherein a shape of the tablet terminal is a substantially rectangular shape, and the lower left corner is a lower left corner of a long side or a short side. タッチパネルと、
利用者がタブレット端末の左下隅を持った状態で、前記利用者の親指が届く範囲に含まれ、前記タッチパネルの左下隅に位置する領域に、前記タッチパネル上に表示された選択対象が選択された場合の動作と同じ動作の指示が可能な選択肢を含む複数の選択肢を有するメニューを前記選択対象が視認可能な状態で更に表示させる制御が可能な制御部と、
を有することを特徴とするタブレット端末。
A touch panel;
In the state where the user has the lower left corner of the tablet terminal, the selection target displayed on the touch panel is selected in an area located in the lower left corner of the touch panel that is included in the range where the user's thumb can reach A control unit capable of controlling to further display a menu having a plurality of options including options capable of instructing the same operation as the operation in the case where the selection target is visible;
A tablet terminal characterized by comprising:
前記タブレット端末の形は、略長方形の形であって、前記左下隅は、長辺又は短辺の左下隅であることを特徴とする請求項8に記載のタブレット端末。   The tablet terminal according to claim 8, wherein the tablet terminal has a substantially rectangular shape, and the lower left corner is a lower left corner of a long side or a short side.
JP2012157568A 2012-07-13 2012-07-13 Tablet terminal, operation reception method and operation reception program Expired - Fee Related JP6131540B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012157568A JP6131540B2 (en) 2012-07-13 2012-07-13 Tablet terminal, operation reception method and operation reception program
US13/925,000 US9952690B2 (en) 2012-07-13 2013-06-24 Tablet device, and operation receiving method
EP13173394.1A EP2685366A3 (en) 2012-07-13 2013-06-24 Tablet device, and operation receiving method
KR1020130081533A KR101500843B1 (en) 2012-07-13 2013-07-11 Tablet device, and operation receiving method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012157568A JP6131540B2 (en) 2012-07-13 2012-07-13 Tablet terminal, operation reception method and operation reception program

Publications (2)

Publication Number Publication Date
JP2014021596A JP2014021596A (en) 2014-02-03
JP6131540B2 true JP6131540B2 (en) 2017-05-24

Family

ID=48703172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012157568A Expired - Fee Related JP6131540B2 (en) 2012-07-13 2012-07-13 Tablet terminal, operation reception method and operation reception program

Country Status (4)

Country Link
US (1) US9952690B2 (en)
EP (1) EP2685366A3 (en)
JP (1) JP6131540B2 (en)
KR (1) KR101500843B1 (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10048748B2 (en) * 2013-11-12 2018-08-14 Excalibur Ip, Llc Audio-visual interaction with user devices
KR20150107528A (en) * 2014-03-14 2015-09-23 삼성전자주식회사 Method for providing user interface
JP6287486B2 (en) * 2014-03-31 2018-03-07 富士通株式会社 Information processing apparatus, method, and program
US9203951B1 (en) 2014-07-03 2015-12-01 International Business Machines Corporation Mobile telephone adapted for use with one hand
JP6339887B2 (en) * 2014-07-24 2018-06-06 シャープ株式会社 Image display device
JP6492910B2 (en) * 2015-04-13 2019-04-03 ブラザー工業株式会社 Mobile device
KR20230150397A (en) 2015-08-21 2023-10-30 매직 립, 인코포레이티드 Eyelid shape estimation using eye pose measurement
JP2017062598A (en) * 2015-09-24 2017-03-30 ソニー株式会社 Information processing device, information processing method, and program
US10156928B2 (en) * 2015-09-25 2018-12-18 Intel Corporation Extended user touch input
IL297610B2 (en) * 2015-10-16 2023-11-01 Magic Leap Inc Eye pose identification using eye features
US20170309070A1 (en) * 2016-04-20 2017-10-26 Sangiovanni John System and method for very large-scale communication and asynchronous documentation in virtual reality and augmented reality environments
JP6612799B2 (en) * 2017-03-06 2019-11-27 京セラ株式会社 Electronic device, control method, and control program
CN109101110A (en) * 2018-08-10 2018-12-28 北京七鑫易维信息技术有限公司 A kind of method for executing operating instructions, device, user terminal and storage medium
US11487425B2 (en) * 2019-01-17 2022-11-01 International Business Machines Corporation Single-hand wide-screen smart device management
WO2021131562A1 (en) * 2019-12-27 2021-07-01 キヤノン株式会社 Electronic device, electronic device control method, program, and storage medium
JP6827132B2 (en) * 2020-01-14 2021-02-10 パイオニア株式会社 Operating device, control method, program and storage medium
CN111309146B (en) * 2020-02-10 2022-03-29 Oppo广东移动通信有限公司 Image display method and related product
JP7014874B1 (en) 2020-09-24 2022-02-01 レノボ・シンガポール・プライベート・リミテッド Information processing equipment and information processing method
CN113885735B (en) * 2021-11-03 2023-03-21 业成科技(成都)有限公司 Touch display device, control method thereof and electronic device
EP4343526A1 (en) 2021-12-08 2024-03-27 Samsung Electronics Co., Ltd. Electronic device supporting one-handed operation mode, and operating method for electronic device
US20230359330A1 (en) * 2022-05-03 2023-11-09 Mimecast Services Ltd. Systems and methods for analysis of visually-selected information resources

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089905A (en) * 1998-09-14 2000-03-31 Sony Corp Pointing device
FI116425B (en) * 2002-01-18 2005-11-15 Nokia Corp Method and apparatus for integrating an extensive keyboard into a small apparatus
GB0201074D0 (en) * 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
JP4093823B2 (en) * 2002-08-20 2008-06-04 富士通株式会社 View movement operation method
JP2004110698A (en) * 2002-09-20 2004-04-08 Sharp Corp Internet terminal
US7895536B2 (en) 2003-01-08 2011-02-22 Autodesk, Inc. Layer editor system for a pen-based computer
US20090128498A1 (en) 2004-06-29 2009-05-21 Koninklijke Philips Electronics, N.V. Multi-layered display of a graphical user interface
JP4880304B2 (en) * 2005-12-28 2012-02-22 シャープ株式会社 Information processing apparatus and display method
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US20080163053A1 (en) * 2006-12-28 2008-07-03 Samsung Electronics Co., Ltd. Method to provide menu, using menu set and multimedia device using the same
JP2009110286A (en) * 2007-10-30 2009-05-21 Toshiba Corp Information processor, launcher start control program, and launcher start control method
JP2009169820A (en) * 2008-01-18 2009-07-30 Panasonic Corp Mobile terminal
JP2010160564A (en) 2009-01-06 2010-07-22 Toshiba Corp Portable terminal
US20100287468A1 (en) 2009-05-05 2010-11-11 Emblaze Mobile Ltd Apparatus and method for displaying menu items
JP2011028635A (en) * 2009-07-28 2011-02-10 Sony Corp Display control apparatus, display control method and computer program
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
KR101718026B1 (en) * 2010-09-06 2017-04-04 엘지전자 주식회사 Method for providing user interface and mobile terminal using this method
JP5536627B2 (en) * 2010-12-21 2014-07-02 パナソニック株式会社 Lifting storage device
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
US8687840B2 (en) * 2011-05-10 2014-04-01 Qualcomm Incorporated Smart backlights to minimize display power consumption based on desktop configurations and user eye gaze
US20130219340A1 (en) * 2012-02-21 2013-08-22 Sap Ag Navigation on a Portable Electronic Device
JP5942586B2 (en) 2012-05-18 2016-06-29 富士通株式会社 Tablet terminal and operation reception program
JP2013254406A (en) * 2012-06-08 2013-12-19 Ntt Docomo Inc Display device, display method and program

Also Published As

Publication number Publication date
KR101500843B1 (en) 2015-03-09
JP2014021596A (en) 2014-02-03
EP2685366A3 (en) 2016-04-20
US9952690B2 (en) 2018-04-24
EP2685366A2 (en) 2014-01-15
KR20140009054A (en) 2014-01-22
US20140015778A1 (en) 2014-01-16

Similar Documents

Publication Publication Date Title
JP6131540B2 (en) Tablet terminal, operation reception method and operation reception program
JP7247390B2 (en) user interface camera effect
JP5942586B2 (en) Tablet terminal and operation reception program
US9170645B2 (en) Method and apparatus for processing input in mobile terminal
US9582096B2 (en) Information processing apparatus, information processing method, and program
WO2014054211A1 (en) Information processing device, display control method, and program for modifying scrolling of automatically scrolled content
JP2012137970A (en) Information processing device and method, and program
US9706108B2 (en) Information processing apparatus and associated methodology for determining imaging modes
JP7005161B2 (en) Electronic devices and their control methods
US9544556B2 (en) Projection control apparatus and projection control method
JPWO2014181403A1 (en) Input device and input program
US9323339B2 (en) Input device, input method and recording medium
JP2006345529A (en) Method and system of red-eye correction using user-adjustable threshold
JP2016177658A (en) Virtual input device, input method, and program
US20150234461A1 (en) Display control device, display control method and recording medium
JP2012217101A (en) Information processor, control method of the same, program, and storage medium
JP2011243108A (en) Electronic book device and electronic book operation method
JP7009835B2 (en) Information processing equipment, information processing methods, and computer programs
JP7080711B2 (en) Electronic devices, control methods, programs, and storage media for electronic devices
JP7005160B2 (en) Electronic devices and their control methods
JP7331120B2 (en) Linked display system
JP6079418B2 (en) Input device and input program
JP6643948B2 (en) Display control device and control method thereof
JP7505088B2 (en) Linked display system
US11556173B2 (en) Electronic apparatus, method for controlling the same, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170403

R150 Certificate of patent or registration of utility model

Ref document number: 6131540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees