JP6131540B2 - Tablet terminal, operation reception method and operation reception program - Google Patents
Tablet terminal, operation reception method and operation reception program Download PDFInfo
- Publication number
- JP6131540B2 JP6131540B2 JP2012157568A JP2012157568A JP6131540B2 JP 6131540 B2 JP6131540 B2 JP 6131540B2 JP 2012157568 A JP2012157568 A JP 2012157568A JP 2012157568 A JP2012157568 A JP 2012157568A JP 6131540 B2 JP6131540 B2 JP 6131540B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- touch panel
- tablet terminal
- touch
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、タブレット端末等に関する。 The present invention relates to a tablet terminal and the like.
スマートフォンを始め、携帯電話、PHS(Personal Handyphone System)やPDA(Personal Digital Assistants)などのタブレット端末が普及している。タブレット端末は小型、軽量であるため、利用者は、場所を選ばすどこでもタブレット端末を使用することができる。 Smartphones, mobile phones, tablet terminals such as PHS (Personal Handyphone System) and PDA (Personal Digital Assistants) are widely used. Since the tablet terminal is small and light, the user can use the tablet terminal anywhere.
利用者がタブレット端末を操作する場合には、タブレット端末のタッチパネルに表示される各種項目を指でタッチすることで操作する。例えば、利用者は、タッチパネルに表示されるWebページのハイパーテキストの選択、画像の拡大、動画の再生、停止などを、タッチ操作で行う。 When the user operates the tablet terminal, the user operates by touching various items displayed on the touch panel of the tablet terminal with a finger. For example, the user performs a touch operation to select hypertext on a Web page displayed on the touch panel, enlarge an image, play or stop a moving image, and the like.
しかしながら、上記の従来技術には、片手でタッチパネルを操作する場合に、快適に操作することができないという問題があった。 However, the above-described conventional technique has a problem that it cannot be comfortably operated when the touch panel is operated with one hand.
例えば、利用者が電車の吊革につかまっているときや、バック、傘などを片手で持っている場合には、タブレット端末のタッチパネルを片手で操作することになる。このような状況下でタッチパネルを操作する場合には、利用者の指の届く範囲が限られてしまい、快適にタッチパネルを操作することができない。 For example, when a user is holding a train strap or holding a bag, umbrella, etc. with one hand, the touch panel of the tablet terminal is operated with one hand. When operating the touch panel under such circumstances, the reach of the user's finger is limited, and the touch panel cannot be operated comfortably.
開示の技術は、上記に鑑みてなされたものであって、片手でタッチパネルを操作する場合でも、快適に操作することができるタブレット端末、操作受付方法および操作受付プログラムを提供することを目的とする。 The disclosed technology has been made in view of the above, and an object thereof is to provide a tablet terminal, an operation reception method, and an operation reception program that can be comfortably operated even when the touch panel is operated with one hand. .
開示のタブレット端末は、領域特定部と、操作判定部と、表示制御部とを有する。領域特定部は、タッチパネル上でタッチ操作の行われる領域を特定する。操作判定部は、領域特定部によって特定された領域内のタッチ操作の内容を判定する。表示制御部は、操作判定部によって判定されたタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する。 The disclosed tablet terminal includes an area specifying unit, an operation determination unit, and a display control unit. The area specifying unit specifies an area where a touch operation is performed on the touch panel. The operation determining unit determines the content of the touch operation in the area specified by the area specifying unit. The display control unit generates an option corresponding to the content of the touch operation determined by the operation determination unit, and displays the generated option in a predetermined area of the touch panel.
開示のタブレット端末によれば、片手で操作する場合でも、タッチパネルを快適に操作することができるという効果を奏する。 According to the tablet terminal of an indication, even when it operates with one hand, there exists an effect that a touch panel can be operated comfortably.
以下に、本願の開示するタブレット端末、操作受付方法および操作受付プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Hereinafter, embodiments of a tablet terminal, an operation reception method, and an operation reception program disclosed in the present application will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
本実施例1に係るタブレット端末の構成について説明する。図1は、本実施例1に係るタブレット端末の構成を示す図である。図1に示すように、このタブレット端末100は、カメラ110、光源120、通信部130、タッチパネル140、記憶部150、制御部160を有する。なお、その他の構成は、周知のタブレット端末と同様である。
A configuration of the tablet terminal according to the first embodiment will be described. FIG. 1 is a diagram illustrating the configuration of the tablet terminal according to the first embodiment. As illustrated in FIG. 1, the
カメラ110は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いた撮像装置である。カメラ110は、撮像範囲に含まれる被写体の画像を撮影し、撮影した被写体の画像データを、視線検出部161に出力する。
The camera 110 is an imaging device using a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), or the like. The camera 110 captures an image of a subject included in the imaging range, and outputs image data of the captured subject to the line-of-
カメラ110は、画像を撮影するタイミングで、光源120を制御し、被写体に赤外線を照射させる。カメラ110が撮影する被写体に利用者の眼球が含まれる場合には、網膜上の光の反射がカメラ110によって捉えられ、眼球の瞳孔部分が他の部分よりも明るく写った画像が得られる。なお、上記のカメラ110は、タブレット端末100の出荷時から搭載されているカメラを利用しても良いし、外部接続されたデジタルカメラ等を利用しても良い。
The camera 110 controls the light source 120 at the timing of taking an image and irradiates the subject with infrared rays. When the subject photographed by the camera 110 includes a user's eyeball, the reflection of light on the retina is captured by the camera 110, and an image in which the pupil part of the eyeball appears brighter than the other parts is obtained. The camera 110 may be a camera installed from the time of shipment of the
光源120は、カメラ110の制御命令に応答して、赤外線を照射する装置である。通信部130は、ネットワークに接続して他の装置とデータ通信を実行する処理部である。例えば、通信部130は、無線通信装置に対応する。後述する制御部160は、通信部130を介して、ネットワーク上のサーバ等にアクセスする。
The light source 120 is a device that emits infrared light in response to a control command of the camera 110. The communication unit 130 is a processing unit that connects to a network and executes data communication with other devices. For example, the communication unit 130 corresponds to a wireless communication device. A
タッチパネル140は、表示と入力の二つの機能を備えたインタフェースである。タッチパネル140は、制御部160から出力される情報を表示する。また、タッチパネル140は、タッチ操作を受け付けた場合に、触れられた画面位置の情報を制御部160に出力する。
The
本実施例1では、説明の便宜上、タッチパネル140の画面内に、視線検出領域、対象領域、既定領域を定義する。図2は、タッチパネルの画面内の各領域を説明するための図である。図2に示すように、タッチパネル140には、視線検出領域141、対象領域142、既定領域143を有する。
In the first embodiment, a line-of-sight detection area, a target area, and a default area are defined in the screen of the
例えば、視線検出領域141は、タッチパネル140の表示画面に対応する領域である。対象領域142は、視線位置10aを含む領域である。視線位置10aは、後述する視線検出部161によって検出される利用者の画面上の視線位置である。既定領域143は、利用者がタブレット端末100を片手で操作する場合に、タブレット端末100を保持する親指10bが届く領域である。
For example, the line-of-
対象領域142について説明する。図3は、対象領域を説明するための図である。図3に示すように、対象領域142は、幅llと、高さlsによって定義され、幅llと高さlsによる矩形の重心を、重心位置Gd(xd、yd)とする。後述する領域特定部162によって、対象領域142の重心位置Gdは、利用者の視線位置10aと重なる位置に調整され、これによって、対象領域142の位置も移動する。幅ll、高さlsの値は、予め設定されているものとする。
The
既定領域143について説明する。図4は、既定領域を説明するための図である。図4に示すように、この既定領域143は、既定領域143の重心が存在する重心位置Gd(xd、yd)と、幅llと、高さlsによって定義される。係る既定領域143には、利用者がタブレット端末100を持つ手の親指10bがタブレット端末100をつかんだ状態で届く範囲20と同等若しくは範囲20よりも小さい形状およびサイズが定義される。タッチパネル140の画面に表示される画像の上下方向が決まっている場合には、当該画面が表示される左下の隅と既定領域143の左下の頂点とが一致するように重心位置Gd(xd、yd)を定めることもできる。
The
図1の説明に戻る。記憶部150は、メニュー画像情報151、対応関係情報152、表示情報153、矩形定義情報154を記憶する記憶装置である。例えば、記憶部150は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
Returning to the description of FIG. The
メニュー画像情報151は、各種の操作を行うための各種のメニュー画像の情報を含む。メニュー画像は、タッチパネル140の既定領域143に表示され、利用者は係るメニュー画像に対してタッチ操作を行う。ここで、各メニュー画像の一例について説明する。図5〜図7は、メニュー画像の一例を示す図である。
The
図5に示すメニュー画像30は、画像の大きさを調整するものである。例えば、利用者がメニュー画像30の矢印30aを、左側から右側にスライドさせることで、該当する画像またはテキスト文字等を拡大する操作となる。
The
図6に示すメニュー画像31は、複数の選択ボタン31a,31b,31cを有する。後述するように、各選択ボタン31a〜31cは、タッチパネル140上の画面に表示される各選択項目にそれぞれ対応付けられ、利用者が選択ボタン31a〜31cをタッチ操作することで、該当する選択項目をする操作となる。Webページを例にして説明すると、選択項目は、ハイパーテキスト等に対応する。
The
図7に示すメニュー画像32は、動画の操作を行うためのものである。例えば、メニュー画像32は、再生ボタン32a、停止ボタン32b、音ボタン32cを有する。例えば、利用者が再生ボタン32aをタッチ操作することで、該当する動画を再生する操作となる。利用者が停止ボタン32bをタッチ操作することで、該当する動画を停止する操作となる。利用者が音ボタン32cをタッチ操作することで、動画の音の有音、無音を切り替える操作となる。
A
メニュー画像情報151に含まれるメニュー画像は、上記図5〜図7に示すメニュー画像に限られるものではない。また、図5〜図7に示したメニュー画像の内容も一例に過ぎず、適宜変更しても良い。
The menu images included in the
図1の説明に戻る。対応関係情報152は、図5〜図7に示したメニュー画像に対するタッチ操作と、タッチパネル140上の項目に対する操作とを対応付けるための情報である。対応関係情報152は、上記のメニュー画像に応じた複数の対応関係情報を有する。例えば、メニュー画像30に対応する対応関係情報を対応関係情報152aとする。メニュー画像31に対応する対応関係情報を対応関係情報152bとする。メニュー画像32に対応する対応関係情報を対応関係情報152cとする。図8〜図10は、対応関係情報の一例を示す図である。
Returning to the description of FIG. The correspondence relationship information 152 is information for associating the touch operation on the menu image shown in FIGS. 5 to 7 with the operation on the item on the
図8は、メニュー画像30に対応する対応関係情報152aの一例を示す。図8に示すように、この対応関係情報152aは、x座標と画像拡大率とを対応付ける。x座標は、メニュー画像30の矢印30aのx座標に対応する。画像拡大率は、該当する画像またはテキスト文字等を拡大する場合の拡大率に対応する。例えば、矢印30aのx座標が「0」の場合には、画像拡大率は「10%」となる。矢印30aのx座標が「xd」の場合には、画像拡大率は「100%」となる。矢印30aのx座標が「xm」の場合には、画像拡大率は「200%」となる。
FIG. 8 shows an example of the
図9は、メニュー画像31に対応する対応関係情報152bの一例を示す。図9に示すように、この対応関係情報152bは、ボタン識別情報と、操作内容と、リンク座標とを対応付ける。ボタン識別情報は、メニュー画像31に含まれる各選択ボタンを識別する情報である。操作内容は、選択ボタンがタッチ操作された場合の操作の内容を示す情報である。リンク座標は、タッチパネル140上の選択項目の座標を示す。例えば、選択ボタン31aがタッチ操作された場合には、タッチパネル140上のリンク座標「x1、y1」の選択項目が「選択」される。
FIG. 9 shows an example of the
図10は、メニュー画像32に対応する対応関係情報152cの一例を示す。図10に示すように、この対応関係情報152cは、ボタン識別情報と、操作内容と、リンク先の動画領域とを対応付ける。ボタン識別情報は、メニュー画像32に含まれる各ボタンを識別する情報である。操作内容は、選択ボタンがタッチ操作された場合の操作の内容を示す情報である。リンク先の動画領域は、メニュー画像32によって操作する動画のタッチパネル140上の領域を示すものである。リンク先の動画領域には、例えば、動画の左上の座標と、右下の座標とを含む。再生ボタン32aがタッチ操作された場合には、タッチパネル140上の動画領域「(x4、y4)、(x5、y5)」の動画が「再生」される。
FIG. 10 shows an example of the
図1の説明に戻る。表示情報153は、タッチパネル140に表示される画面の情報である。例えば、タッチパネル140にWebページの情報を表示する場合には、表示情報153には、Webページのソースコードが含まれる。
Returning to the description of FIG. The display information 153 is screen information displayed on the
矩形定義情報154は、図2に示した視線検出領域141の範囲、対象領域142の各辺の長さ、既定領域143の各辺の長さの情報を含む。
The
制御部160は、視線検出部161、領域特定部162、操作判定部163、タッチ判定部164、表示制御部165を有する。例えば、制御部160は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部160は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。
The
視線検出部161は、タッチパネル140上の視線位置を検出する処理部である。視線検出部161は、視線位置の情報を領域特定部162に出力する。例えば、視線検出部161は、カメラ110によって出力された被写体の画像に角膜反射法などのアルゴリズムを適用し、眼球の瞳孔の中心位置から視線の方向が指す視点の位置を検出する。係る視点の位置を、本実施例では視線位置とする。
The line-of-
なお、ここでは、角膜反射法を用いて視線位置を検出する場合について説明したが、他の方法を用いて視線位置を検出しても良い。例えば、タブレット端末100は、タッチパネル140の画面を分割し、分割した領域を見る眼の形状を学習しておき、カメラ110から入力される画像から抽出した眼の形状とテンプレートマッチングを実行することによって、視線位置を検出しても良い。また、タブレット端末100は、視線の位置を検出するヘッドセットを利用者に装着させ、ヘッドセットによって検出された視線の位置を取得しても良い。
Here, the case where the line-of-sight position is detected using the cornea reflection method has been described, but the line-of-sight position may be detected using another method. For example, the
また、視線検出部161は、視線位置を検出し、検出した視線位置が視線検出領域141に含まれるか否かを、矩形定義情報154を基に判定する。視線検出部161は、視線位置が、視線検出領域141に含まれる場合に、視線位置の情報を領域特定部162に出力する。
The line-of-
領域特定部162は、タッチ操作の行われる領域を特定する処理部である。以下において、領域特定部162の処理の一例について説明する。領域特定部162は、視線検出部161から視線位置の情報を取得し、所定時間毎に、視線位置の平均を算出する。領域特定部162は、平均の視線位置を対象領域の重心座標とすることで、図2に示した対象領域142の範囲を特定する。領域特定部162は、特定した対象領域142の範囲の情報を、操作判定部163に出力する。対象領域142の範囲の情報は、例えば、対象領域142のタッチパネル140上の座標である。
The
操作判定部163は、対象領域142の領域内のタッチ操作の内容を判定する処理部である。操作判定部163は、判定したタッチ操作の内容を、表示制御部165に出力する。
The operation determination unit 163 is a processing unit that determines the content of the touch operation in the
以下において、操作判定部163の処理の一例について説明する。操作判定部163は、DOM(Document Object Model)を利用して、対象領域142に含まれる要素を問い合わせる。DOMは、xmlやhtmlの各要素にアクセスするためのインタフェースである。例えば、操作判定部163は、Javascript(登録商標)のelementFromPoint(x,y)を利用する。本実施例では、操作判定部163は、DOMを利用して、対象領域142に対応するソースコードを、表示情報153から取得する。
Hereinafter, an example of processing of the operation determination unit 163 will be described. The operation determination unit 163 inquires about an element included in the
操作判定部163は、対象領域142に含まれる要素に、画像や文字を識別するタグが含まれている場合には、大きさを調整する操作を行うと判定する。例えば、画像を識別するタグは<imag>となり、文字を識別するタグは<p>となる。その他の画像や文字を識別するタグは、HTMLリファレンス等に定義されているため、説明を省略する。
When the element included in the
操作判定部163は、大きさを調整する操作を行うと判定した場合には、大きさを調整する操作を行う旨と、対象領域142の範囲の情報を、表示制御部165に出力する。
If it is determined that an operation for adjusting the size is to be performed, the operation determining unit 163 outputs information indicating that the operation for adjusting the size is performed and the range of the
操作判定部163は、対象領域142に含まれる要素に、リンク先を識別するタグが含まれている場合には、係るリンク先を選択する操作を行うと判定する。また、操作判定部163は、リンク数を集計する。例えば、リンク先を識別するタグは<a href>となる。その他のリンク先を識別するタグは、HTMLリファレンス等に定義されているため、説明を省略する。
If the element included in the
操作判定部163は、リンク先を選択する操作を行うと判定した場合には、リンク先を選択操作する旨と、リンク数と、選択対象となる項目の画面上の座標を、表示制御部165に出力する。 If the operation determining unit 163 determines to perform an operation of selecting a link destination, the display control unit 165 indicates that the link destination is selected, the number of links, and the coordinates of the item to be selected on the screen. Output to.
操作判定部163は、対象領域142に含まれる要素に、動画を識別するタグが含まれている場合には、動画の操作を行うと判定する。例えば、動画を識別するタグは<video>となる。その他の動画を識別するタグは、HTMLリファレンス等に定義されているため、説明を省略する。
If the element included in the
操作判定部163は、動画の操作を行うと判定した場合には、動画の操作を行う旨と、対象領域142の範囲の情報を、表示制御部165に出力する。
When the operation determination unit 163 determines to perform the operation of the moving image, the operation determination unit 163 outputs information indicating that the operation of the moving image is performed and the range of the
タッチ判定部164は、タッチパネル140に対してタッチ操作が行われたか否かを判定する処理部である。タッチ判定部164は、タッチ操作が行われたか否かの判定結果を表示制御部165に出力する。
The touch determination unit 164 is a processing unit that determines whether or not a touch operation has been performed on the
表示制御部165は、操作判定部163の判定結果に対応する選択肢を生成し、選択肢を、タッチパネル140の既定領域143に表示する処理部である。以下において、表示制御部165の処理の一例について説明する。なお、表示制御部165は、タッチ判定部164から、タッチ操作が行われた旨の情報を受け付けたことをトリガとして、下記の処理を実行する。
The display control unit 165 is a processing unit that generates options corresponding to the determination result of the operation determination unit 163 and displays the options in the
表示制御部165が、操作判定部163から、大きさを調整する操作を行う旨と、対象領域142の範囲の情報を受信した場合の処理について説明する。表示制御部165は、メニュー画像情報151から、図5に示した拡大操作を行うためのメニュー画像30を取得する。また、表示制御部165は、対応関係情報152から、メニュー画像30に対応する対応関係情報152aを取得し、メニュー画像30の矢印30aの操作と、操作の内容とを対応付ける。
A process when the display control unit 165 receives an operation of adjusting the size from the operation determination unit 163 and information on the range of the
表示制御部165は、メニュー画像30と対応関係情報152aとを基にして、操作の内容を対応付けた後に、メニュー画像30を既定領域143に表示させる。表示制御部165は、メニュー画像30の矢印30aに対するタッチ操作を受け付けた場合に、矢印30aの座標と対応関係情報152aとを基にして、画像拡大率を判定する。表示制御部165は、画像拡大率に応じて、対象領域142に含まれる画像または文字を拡大する。
The display control unit 165 displays the
次に、表示制御部165が、操作判定部163から、リンク先を選択操作する旨と、リンク数と、選択対象となる項目の画面上の座標を受信した場合の処理について説明する。表示制御部165は、メニュー画面情報151から、図6に示した選択ボタンを含むメニュー画像31を取得する。また、表示制御部165は、メニュー画像31の各選択ボタンと、選択対象となる項目の画面上の座標とを対応付けることで、図9に示した対応関係情報152を生成する。また、各操作の内容を、選択項目を選択に設定する。なお、表示制御部165は、リンク数に応じて、図6に示したメニュー画像31の選択ボタンを増やすものとする。
Next, processing when the display control unit 165 receives from the operation determination unit 163 selection of a link destination, the number of links, and coordinates on the screen of an item to be selected will be described. The display control unit 165 acquires the
表示制御部165は、対応関係情報152を生成した後に、メニュー画像31を既定領域143に表示させる。表示制御部165は、メニュー画像31の選択ボタンに対するタッチ操作を受け付けた場合に、タッチ操作を受けた選択ボタンのボタン識別情報と、対応関係情報152bとを比較して、リンク座標を判定する。表示制御部165は、判定したリンク先座標に対応するリンク先の項目を選択し、リンク先の情報をタッチパネル140に表示させる。例えば、表示制御部165は、リンク先の項目がハイパーテキストである場合には、ハイパーテキストに示されるリンク先の情報を、ネットワークを介して取得し、取得した情報を、タッチパネル140に表示させる。
After generating the correspondence information 152, the display control unit 165 displays the
次に、表示制御部165が、操作判定部163から、動画の操作を行う旨と、対象領域142の範囲の情報を受信した場合の処理について説明する。表示制御部165は、メニュー画像情報151から、図7に示した動画の操作を行うためのメニュー画像32を取得する。また、表示制御部165は、対応関係情報152から、メニュー画像32に対応する対応関係情報152cを取得し、メニュー画像32の再生ボタン32a、停止ボタン32b、音ボタン32cに対応するリンク先の動画領域を、対象領域142の範囲の座標に設定する。
Next, a process when the display control unit 165 receives a moving image operation and information on the range of the
表示制御部165は、メニュー画像32と対応関係情報152cとを対応付けた後に、メニュー画像32を、既定領域143に表示させる。表示制御部165は、メニュー画像32のボタンに対するタッチ操作を受け付けた場合に、ボタン識別情報と、対応関係情報152cとを基にして、操作内容を特定し、操作内容に応じた処理を実行する。表示制御部165は、処理対象となる動画の座標は、リンク先の動画領域を基に特定する。
The display control unit 165 causes the
例えば、表示制御部165は、再生ボタン32aに対してタッチ操作が行われた場合には、該当する領域の動画を再生させる。表示制御部165は、停止ボタン32bに対してタッチ操作が行われた場合には、該当する領域の動画を停止させる。表示制御装置165は、音ボタン32cに対してタッチ操作が行われた場合には、該当する動画の音の有音、無音を切り替える。
For example, when a touch operation is performed on the
なお、表示制御部165は、既定領域143にメニュー画像30、31または32を表示してから、既定時間以内に、該当するメニュー画像に対するタッチ操作を受け付けない場合には、メニュー画像を削除する。
Note that the display control unit 165 deletes the menu image when the touch operation for the corresponding menu image is not received within a predetermined time after the
次に、本実施例1に係るタブレット端末100の画面イメージについて説明する。図11〜図13は、本実施例1に係るタブレット端末の画面イメージを示す図である。
Next, a screen image of the
図11は、大きさを調整する操作を行う場合の画面イメージである。図11に示すように、タブレット端末100は、視線位置10aを検出し、対象領域142を設定する(ステップS10)。タブレット端末100は、DOMを利用して、対象領域142内が画像20aであると判定する(ステップS11)。
FIG. 11 is a screen image when an operation for adjusting the size is performed. As shown in FIG. 11, the
タブレット端末100は、既定領域143に、拡大操作を行うためのメニュー画像30を表示させる(ステップS12)。利用者は、メニュー画像30の矢印をスライドさせる(ステップS13)。タブレット端末100は、矢印の座標と、対応関係情報152aとを比較して、画像拡大率を判定し、画像拡大率に合わせて、画像20を拡大する(ステップS14)。
The
図12は、リンク先を選択する場合の画面イメージである。図12に示すように、タブレット端末100は、視線位置10aを検出し、対象領域142を設定する(ステップS20)。タブレット端末100は、DOMを利用して、対象領域142から、例えば、リンク先21、22、23を特定する(ステップS21)。
FIG. 12 is a screen image when a link destination is selected. As illustrated in FIG. 12, the
タブレット端末100は、既定領域143に、リンク先を選択するためのメニュー画像31を表示させる。例えば、リンク先が3つの場合には、タブレット端末100は、3つの選択ボタン31a、31b、31cを有するメニュー画像31を既定領域143に表示させる(ステップS22)。例えば、選択ボタン31a、31b、31cは、リンク先21、22、23に対応する。
The
例えば、利用者は、メニュー画像31の選択ボタン31aをタッチ操作する(ステップS23)。そうすると、タブレット端末100は、選択ボタン31aに対応するリンク先21が選択されたと判定し、リンク先21にリンク付けされた情報を表示する(ステップS24)。
For example, the user performs a touch operation on the
図13は、動画を操作する場合の画面イメージである。図13に示すように、タブレット端末100は、視線位置10aを検出し、対象領域142を設定する(ステップS30)。タブレット端末100は、DOMを利用して、対象領域142に動画が存在すると判定する。なお、タブレット端末100は、動画の領域142aを更に特定しても良い(ステップS31)。
FIG. 13 is a screen image when operating a moving image. As illustrated in FIG. 13, the
タブレット端末100は、既定領域143に、動画を操作するためのメニュー画像32を表示させる(ステップS32)。例えば、メニュー画像32には、再生ボタン32a、停止ボタン32b、音ボタン32cが含まれる。
The
例えば、利用者は、再生ボタン32aをタッチ操作する(ステップS33)。タブレット端末100は、再生ボタン32aがタッチ操作された場合には、動画を再生する(ステップS34)。なお、タブレット端末100は、停止ボタン32bがタッチ操作された場合には、動画を停止させる。タブレット端末100は、音ボタン32cがタッチ操作された場合には、動画の有音、無音を切り替える。
For example, the user performs a touch operation on the
次に、本実施例1に係るタブレット端末100の処理手順について説明する。図14〜図16は、本実施例1に係るタブレット端末の処理手順を示すフローチャートである。ここでは説明の便宜上、大きさを調整する操作を行う場合、リンク先を選択する操作を行う場合、動画の操作を行う場合に分けて説明を行う。
Next, a processing procedure of the
図14は、大きさを調整する操作を行う場合のフローチャートである。図14に示す処理は、例えば、カメラ110から画像データを取得したことを契機にして実行される。図14に示すように、タブレット端末100は、視線位置を検出し(ステップS101)、視線位置が画面内かつタッチパネル140がタップされたか否かを判定する(ステップS102)。タブレット端末100は、視線位置が画面内ではない場合、または、タッチパネル140がタップされていない場合には(ステップS102,No)、ステップS101に移行する。
FIG. 14 is a flowchart in the case of performing an operation of adjusting the size. The process illustrated in FIG. 14 is executed, for example, when the image data is acquired from the camera 110. As illustrated in FIG. 14, the
一方、タブレット端末100は、視線位置が画面内かつタッチパネル140がタップされた場合には(ステップS102,Yes)、視線位置を重心として、対象領域142を設定する(ステップS103)。タブレット端末100は、対象領域142内のHTML内のDOM情報を解析し、対象領域142内の画像を特定する(ステップS104)。
On the other hand, when the line-of-sight position is within the screen and the
タブレット端末100は、メニュー画像30の配置位置を決定し(ステップS105)、メニュー画像30の位置と操作の内容を対応付けた対応関係情報152aを取得する(ステップS106)。タブレット端末100は、既定領域143に、メニュー画像30を表示する(ステップS107)。
The
タブレット端末100は、規定時間内にタッチ操作を受け付けたか否かを判定する(ステップS108)。タブレット端末100は、既定時間内にタッチ操作を受け付けない場合には(ステップS108,No)、メニュー画像30を削除し(ステップS109)、ステップS101に移行する。
The
一方、タブレット端末100は、既定時間内にタッチ操作を受け付けた場合には(ステップS108,Yes)、タッチ操作と対応関係情報152aとを基にして、画像拡大率を特定する(ステップS110)。タブレット端末100は、拡大を実行する(ステップS111)。
On the other hand, when the
図15は、リンク先を選択する操作を行う場合のフローチャートである。図15に示す処理は、例えば、カメラ110から画像データを取得したことを契機として実行される。図15に示すように、タブレット端末100は、視線位置を検出し(ステップS201)、視線位置が画面内かつタッチパネル140がタップされたか否かを判定する(ステップS202)。タブレット端末100は、視線位置が画面内ではない場合、または、タッチパネル140がタップされていない場合には(ステップS202,No)、ステップS201に移行する。
FIG. 15 is a flowchart when an operation for selecting a link destination is performed. The process illustrated in FIG. 15 is executed when the image data is acquired from the camera 110, for example. As illustrated in FIG. 15, the
一方、タブレット端末100は、視線位置が画面内かつタッチパネル140がタップされた場合には(ステップS202,Yes)、視線位置を重心として、対象領域142を設定する(ステップS203)。タブレット端末100は、対象領域142内のHTML内のDOM情報を解析し、対象領域142内のリンクの数および座標を特定する(ステップS204)。
On the other hand, when the line-of-sight position is within the screen and the
タブレット端末100は、リンクが存在しない場合には(ステップS205,No)、ステップS201に移行する。タブレット端末100は、リンクが存在する場合には(ステップS205,Yes)、選択ボタンの配置位置を決定する(ステップS206)。
If there is no link (step S205, No), the
タブレット端末100は、選択ボタンの画像とリンク座標とを対応付けることで、対応関係情報152bを生成する(ステップS207)。タブレット端末100は、既定領域143にメニュー画像31を表示させる(ステップS208)。
The
タブレット端末100は、既定時間内にタッチ操作を受け付けたか否かを判定する(ステップS209)。タブレット端末100は、既定時間内にタッチ操作を受け付けない場合には(ステップS209,No)、ステップS212に移行する。
The
タブレット端末100は、既定時間内にタッチ操作を受け付けた場合には(ステップS209,Yes)、対応関係情報152bを基にして、タッチされた選択ボタンに対応するリンク座標を特定する(ステップS210)。
When the
タブレット端末100は、操作を実行する(ステップS211)。ステップS211において、例えば、タブレット端末100は、リンク座標のリンク先をタッチパネル140に表示する。
The
タブレット端末100は、メニュー画像を削除し(ステップS212)、対応関係情報152bを初期化し(ステップS213)、ステップS201に移行する。
The
図16は、動画の操作を行う場合のフローチャートである。図16に示す処理は、例えば、カメラ110から画像データを取得したことを契機にして実行される。図16に示すように、タブレット端末100は、視線位置を検出し(ステップS301)、視線位置が画面内かつタッチパネル140がタップされた否かを判定する(ステップS302)。タブレット端末100は、視線位置が画面内ではない場合、または、タッチパネル140がタップされていない場合には(ステップS302,No)、ステップS301に移行する。
FIG. 16 is a flowchart when a moving image is operated. The process illustrated in FIG. 16 is executed when the image data is acquired from the camera 110, for example. As shown in FIG. 16, the
一方、タブレット端末100は、視線位置が画面内かつタッチパネル140がタップされた場合には(ステップS302,Yes)、視線位置を重心として、対象領域142を設定する(ステップS303)。タブレット端末100は、対象領域142内のHTML内のDOM情報を解析し、対象領域142内の動画を特定する(ステップS304)。
On the other hand, when the line-of-sight position is within the screen and the
タブレット端末100は、メニュー画像32の配置位置を決定し(ステップS305)、動画に対応する対応関係情報152cを取得する(ステップS306)。タブレット端末100は、既定領域143に、メニュー画像32を表示する(ステップS307)。
The
タブレット端末100は、既定時間内にタッチ操作を受け付けたか否かを判定する(ステップS308)。タブレット端末100は、既定時間内にタッチ操作を受け付けない場合には(ステップS308,No)、ステップS311に移行する。
The
タブレット端末100は、既定時間内にタッチ操作を受け付けた場合には(ステップS308,Yes)、タッチされたボタンと対応関係情報152cとを基にして、動画に対する操作を判定する(ステップS309)。
When the
タブレット端末100は、操作を実行する(ステップS310)。ステップS310において、例えば、タブレット端末100は、再生ボタン32aに対してタッチ操作が行われた場合には、対象領域142の動画を再生する。タブレット端末100は、停止ボタン32bに対してタッチ操作が行われた場合には、対象領域142の動画を停止する。タブレット端末100は、音ボタン32cに対してタッチ操作が行われた場合には、対象領域142の動画の無音、有音を切り替える。
The
タブレット端末100は、メニュー画像32を削除し(ステップS311)、対応関係情報152cを初期化し(ステップS312)、ステップS301に移行する。
The
次に、本実施例1に係るタブレット端末100の効果について説明する。タブレット端末100は、タッチパネル140上で操作の行われる対象領域142を特定し、対象領域142内のタッチ操作の内容を判定する。そして、タブレット端末100は、タッチ操作の内容に対応する選択肢を含むメニュー画像を生成し、既定領域143に表示させて、タッチ操作を受け付ける。既定領域143は、タブレット端末100を持つ手の親指が届く範囲であるため、利用者が片手でタブレットを操作する場合でも、タッチパネル140を快適に操作することができる。
Next, effects of the
ところで、対象領域142の画像をそのまま、既定領域143に表示させて、利用者にタッチ操作を行わせることも考えられるが、その場合には、タッチ操作を快適に行うことができない場合がある。例えば、操作対象の画像やハイパーテキストが小さい場合には、タッチ操作をしづらくなる。また、対象領域142の大きさに対して画像が大きすぎてはみ出てしまう場合でも、同様にタッチ操作をしづらくなる。これに対して、本実施例1に係るタブレット端末100は、対象領域142内のタッチ操作の内容を判定し、メニュー画像を既定領域143に表示させるため、画像や文字の大きさに左右されない快適な操作性を実現することができる。
By the way, it is conceivable that the image of the
また、タブレット端末100は、タッチパネル140上の視線位置を検出し、視線位置を含む対象領域142を特定し、対象領域142内のタッチ操作の内容を判定する。このため、利用者が注目する領域の操作を、片手であっても快適に操作することを可能にする。
In addition, the
次に、本実施例2に係るタブレット端末について説明する。本実施例2に係るタブレット端末200は、実施例1のタブレット端末100とは異なり、対象領域の画像または文字を拡大することに特化したタブレット端末である。
Next, the tablet terminal according to the second embodiment will be described. Unlike the
図17は、本実施例2に係るタブレット端末の構成を示す図である。図17に示すように、タブレット端末200は、カメラ210、光源220、通信部230、タッチパネル240、記憶部250、制御部260を有する。
FIG. 17 is a diagram illustrating the configuration of the tablet terminal according to the second embodiment. As illustrated in FIG. 17, the
カメラ210、光源220、通信部230、タッチパネル240に関する説明は、実施例1に示したカメラ110、光源120、通信部130、タッチパネル140に関する説明と同様であるため、説明を省略する。
The description regarding the
記憶部250は、ボタン画像情報251を記憶する記憶装置である。例えば、記憶部250は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。 The storage unit 250 is a storage device that stores button image information 251. For example, the storage unit 250 corresponds to a semiconductor memory device such as a RAM, a ROM, or a flash memory, or a storage device such as a hard disk or an optical disk.
ボタン画像情報251は、画像を拡大させるための拡大ボタンの画像情報を含む。 The button image information 251 includes image information of an enlarge button for enlarging the image.
制御部260は、視線検出部261、タッチ判定部262、表示制御部263を有する。例えば制御部260は、ASICや、FPGAなどの集積装置に対応する。また、制御部260は、例えば、CPUやMPU等の電子回路に対応する。
The
視線検出部261は、タッチパネル240上の視線位置を検出する処理部である。視線検出部261は、視線位置の情報を表示制御部263に出力する。視線検出部261が、視線位置を検出する処理は、実施例1に示した視線検出部161と同様であるため説明を省略する。
The line-of-
タッチ判定部262は、タッチパネル240に対してタッチ操作が行われたか否かを判定する処理部である。タッチ判定部262は、タッチ操作が行われたか否かの判定結果を表示制御部263に出力する。
The touch determination unit 262 is a processing unit that determines whether a touch operation has been performed on the
表示制御部263は、視線位置を中心として、画面の画像を拡大表示する処理部である。なお、表示制御部263は、タッチ判定部262から、タッチ操作が行われた旨の情報を受け付けたことをトリガとして、下記の処理を実行する。 The display control unit 263 is a processing unit that enlarges and displays an image on the screen around the line-of-sight position. Note that the display control unit 263 executes the following process using the information indicating that the touch operation has been performed from the touch determination unit 262 as a trigger.
表示制御部263は、ボタン画像情報251から拡大ボタンの画像を取得し、拡大ボタンの画像を、既定領域143に表示させる。表示制御部263は、拡大ボタンに対するタッチ操作を受け付けた場合には、視線位置を中心として、タッチパネル240上の画像を拡大する。例えば、表示制御部263は、所定時間以内における拡大ボタンに対するタッチ操作の回数に応じて画像拡大率を判定し、判定した画像拡大率に応じて、画像を拡大しても良い。例えば、表示制御部263は、式(1)を基にして、拡大率を判定する。式(1)のnは所定時間内におけるタッチ操作回数である。
The display control unit 263 acquires the image of the enlarge button from the button image information 251 and displays the image of the enlarge button in the
画像拡大率(%)=100+10×n・・・(1) Image magnification (%) = 100 + 10 × n (1)
なお、表示制御部263は、拡大ボタンを表示させてから、所定時間以内に拡大ボタンに対するタッチ操作を受け付けない場合には、拡大ボタンを削除する。 Note that the display control unit 263 deletes the enlargement button if the touch operation on the enlargement button is not received within a predetermined time after the enlargement button is displayed.
次に、本実施例2に係るタブレット端末200の画面イメージについて説明する。図18は、本実施例2に係るタブレット端末の画面イメージを示す図である。図18に示すように、タブレット端末200は、画像を画面に表示し(ステップS40)、視線位置10aを検出する(ステップS41)。
Next, a screen image of the
タブレット端末200は、既定領域143に拡大ボタン33を表示させる(ステップS42)。タブレット端末200は、拡大ボタン33に対するタッチ操作を受け付けた場合に(ステップS43)、視線位置10aを中心として、画像を拡大する(ステップS44)。
The
次に、本実施例2に係るタブレット端末200の処理手順について説明する。図19は、本実施例2に係るタブレット端末の処理手順を示すフローチャートである。図19に示す処理は、例えば、カメラ210から画像データを取得したことを契機にして実行される。図19に示すように、タブレット端末200は、視線位置を検出し(ステップS401)、視線位置が画面内かつタッチパネル240がタップされたか否かを判定する(ステップS402)。タブレット端末200は、視線位置が画面内ではない場合、または、タッチパネル240がタップされていない場合には(ステップS402,No)、ステップS401に移行する。
Next, a processing procedure of the
一方、タブレット端末200は、視線位置が画面内かつタッチパネル240がタップされた場合には(ステップS402,Yes)、視線位置を拡大中心に設定する(ステップS403)。タブレット端末200は、既定領域143に、拡大ボタンを表示させる(ステップS404)。
On the other hand, when the line-of-sight position is within the screen and the
タブレット端末200は、既定時間以内に拡大ボタンに対するタッチ操作があるか否かを判定する(ステップS405)。タブレット端末200は、既定時間以内に拡大ボタンに対するタッチ操作がない場合には(ステップS405,No)、拡大ボタンを削除し(ステップS406)、ステップS401に移行する。
The
タブレット端末200は、既定時間以内に拡大ボタンに対するタッチ操作があった場合には(ステップS405,Yes)、画面の画像を拡大し(ステップS407)、ステップS406に移行する。
If there is a touch operation on the enlarge button within a predetermined time (step S405, Yes), the
次に、本実施例2に係るタブレット端末200の効果について説明する。タブレット端末200は、既定領域143に、拡大ボタンを表示し、拡大ボタンに対するタッチ操作を受け付けた場合に、視線位置を中心として画像を拡大させる。既定領域143は、タブレット端末200を持つ手の親指が届く範囲であるため、利用者が片手でタブレット端末200を操作する場合でも、利用者の望む画像の領域を快適に拡大させることができる。
Next, effects of the
上記の実施例1、2では、タブレット端末100、200の処理について説明したが、上述した処理の内容は一例である。実施例3では、タブレット端末のその他の処理について説明する。実施例3では説明の便宜上、図1に示したタブレット端末100を用いて処理を説明する。
In the first and second embodiments, the processing of the
リンク先を選択するメニュー画像のその他の例について説明する。対象領域142に含まれるリンク先の数が多い場合には、メニュー画像に含まれる選択ボタンの数が多くなり、既定領域143に全てのボタンを表示させようとすると、選択ボタンの大きさが小さくなり、利用者が選択ボタンをタッチ操作しづらくなる。このため、タブレット端末100は、対象領域142のリンク先の数が所定数以上の場合には、メニュー画像に選択ボタンの一部を表示させ、選択ボタンの切り替え指示を受け付けた場合に、選択ボタンを切り替えて表示するようにしても良い。
Another example of the menu image for selecting the link destination will be described. When the number of link destinations included in the
図20および図21は、その他のメニュー画像の一例を示す図である。図20に示すように、メニュー画像34には一部の選択ボタンを表示させている。利用者が残りの選択ボタンを選択する場合には、矢印34aをタッチ操作する。例えば、表示制御部165は、矢印34aを下方向にスワイプを受け付けた場合には、他の選択ボタンを表示させる。また、表示制御部165は、図21に示すように、メニュー画像35を表示させてもよい。表示制御部165は、切替ボタン35a、35bに対してタッチ操作を受け付けた場合には、他のボタンを表示させる。更に、表示制御部165は、プルダウン形式で選択ボタンを表示させても良い。このような処理を表示制御部165が実行することによって、対象領域142に複数のリンク先が存在していても、利用者は快適に操作ボタンを選択することができる。
20 and 21 are diagrams illustrating examples of other menu images. As shown in FIG. 20, some selection buttons are displayed on the
次に、タブレット端末100が視線位置を補正する処理について説明する。例えば、実施例1では、図14のステップS102、図15のステップS202、図16のステップS302で示したように、視線位置が画面内かつタッチパネル140がタップされた場合に、視線位置を中心位置として、対象領域142を特定していた。しかしながら、タップ操作によって、タブレット端末140の角度がずれてしまい、視線位置がずれてしまうことが考えられる。
Next, processing in which the
このため、例えば、領域特定部162は、タッチ判定部164から利用者がタッチ操作を行ったか否かの情報を取得し、タッチ操作を行う所定時間前の視線位置を利用して、対象領域142を特定しても良い。または、領域特定部162は、タッチ操作を行う所定時間前から、タッチ操作を行う直前までの視線位置の平均を算出し、算出した平均位置を重心として、対象領域142を設定しても良い。このような処理を、領域特定部162が実行することによって、タッチ操作による視線位置のズレを修正することができる。
For this reason, for example, the
次に、表示制御部165のその他の処理について説明する。上記の実施例1では、表示制御部165は、メニュー画像30、31、32をそれぞれ別々に、既定領域143に表示する例を示したが、これに限定されない。表示制御部165は、対象領域142内のタッチ操作の内容に応じて、各メニュー画像30、31、32を複合的に表示しても良い。例えば、対象領域142に、複数のリンク先と動画が存在する場合には、表示制御部165は、メニュー画像31、32を、既定領域143に表示する。
Next, other processes of the display control unit 165 will be described. In the first embodiment described above, the display control unit 165 has shown an example in which the
また、複数のリンク先が存在する場合には、単にメニュー画像31を表示しただけでは、選択ボタンと、リンク先との対応関係が分かり難い場合がある。このため、表示制御部165は、対象領域142の選択項目と、メニュー画像の選択ボタンとを視覚的に対応付けても良い。例えば、表示制御部165は、それぞれ対応する選択ボタンと、選択項目とを同じ色で表示しても良いし、線などで結んで表示させても良い。または、表示制御部165は、対象領域142のリンク先の並び順に合わせて、メニュー画像31の選択ボタンを並べて表示させても良い。このような処理を表示制御部165が実行することによって、メニュー画像の選択ボタンと、対象領域142のリンク先との関係が明確になり、利用者は、どの選択ボタンをタッチ操作すれば、どのリンク先を選択することができるかが分かりやすくなる。
When there are a plurality of link destinations, it may be difficult to understand the correspondence between the selection button and the link destination simply by displaying the
また、図6に示した動画を操作するためのメニュー画像32は一例である。対象領域142の動画の種別によっては、自動的に再生が行われるものがある。このため、表示制御部165は、自動的に再生が行われる動画に対しては、再生ボタン32aの代わりに、一時停止ボタンを配置してもよい。または、動画の再生時間を、所望の時間にジャンプさせる操作ボタンを、メニュー画像32に表示させても良い。
Further, the
ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図22を用いて、上記の実施例と同様の機能を有する操作受付プログラムを実行するコンピュータの一例について説明する。 By the way, the various processes described in the above embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. In the following, an example of a computer that executes an operation reception program having the same function as that of the above-described embodiment will be described with reference to FIG.
図22は、実施例に係る操作受付プログラムを実行するコンピュータの一例について説明するための図である。図22に示すように、コンピュータ300は、操作部301と、スピーカ302と、カメラ303と、ディスプレイ304と、通信部305とを有する。さらに、このコンピュータ300は、CPU306と、ROM307と、RAM308と、ハードディスク装置309とを有する。これら301〜309の各部はバス310を介して接続される。
FIG. 22 is a schematic diagram illustrating an example of a computer that executes an operation reception program according to the embodiment. As illustrated in FIG. 22, the
ハードディスク装置309には、図22に示すように、領域特定プログラム309a、操作判定プログラム309b、表示制御プログラム309cが記憶される。
As shown in FIG. 22, the
そして、CPU306が、領域特定プログラム309a、操作判定プログラム309b、表示制御プログラム309cを読みだしてRAM308に展開する。領域特定プログラム309aは、領域特定プロセス308aとして機能する。操作判定プログラム309bは、操作判定プロセス308bとして機能する。表示制御プログラム309cは、表示制御プロセス308cとして機能する。
Then, the
例えば、領域特定プロセス308aは、図1に示した視線検出部161、領域特定部162等に対応する処理を行う。操作判定プロセス308bは、図1に示した操作判定部163等に対応する処理を行う。表示制御プロセス308cは、タッチ判定部164、表示制御部165等に対応する処理を行う。
For example, the
なお、上記の各プログラム309a〜309cについては、必ずしも最初からハードディスク装置309等に記憶させておく必要はない。例えば、コンピュータ300に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ300がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ300がこれらから各プログラムを取得して実行するようにしてもよい。
Note that the
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(付記1)タッチパネル上でタッチ操作の行われる領域を特定する領域特定部と、
前記領域特定部によって特定された領域内のタッチ操作の内容を判定する操作判定部と、
前記操作判定部によって判定されたタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する表示制御部と
を有することを特徴とするタブレット端末。
(Appendix 1) An area specifying unit for specifying an area where a touch operation is performed on the touch panel;
An operation determination unit for determining the content of the touch operation in the region specified by the region specifying unit;
A tablet terminal comprising: a display control unit that generates an option corresponding to the content of the touch operation determined by the operation determination unit and displays the generated option in a predetermined area of the touch panel.
(付記2)前記タッチパネル上の視線位置を検出する視線検出部を更に有し、
前記領域特定部は、前記視線位置を含む領域を特定することを特徴とする付記1に記載のタブレット端末。
(Additional remark 2) It further has a gaze detection part which detects a gaze position on the touch panel,
The tablet terminal according to
(付記3)前記タッチパネル上でタッチ操作が行われたか否かを判定するタッチ判定部を更に有し、
前記領域特定部は、前記タッチパネル上でタッチ操作が行われた場合に、前記視線位置を含む領域の位置を補正することを特徴とする付記2に記載のタブレット端末。
(Additional remark 3) It further has the touch determination part which determines whether touch operation was performed on the said touch panel,
The tablet terminal according to
(付記4)前記表示制御部は、タッチ操作の内容に対応する選択肢の数が所定数以上の場合には、複数の選択肢のうち、一部の選択肢を所定領域に表示することを特徴とする付記1、2または3に記載のタブレット端末。
(Additional remark 4) When the number of the choices corresponding to the content of touch operation is more than predetermined number, the said display control part displays some choices in a predetermined area | region among several options, It is characterized by the above-mentioned. The tablet terminal according to
(付記5)前記表示制御部は、前記領域特定部によって特定された領域内のタッチ操作対象と、前記選択肢とを視覚的に対応付けて前記タッチパネルの所定領域に表示することを特徴とする付記1〜4のいずれか一つに記載のタブレット端末。 (Additional remark 5) The said display control part displays the touch operation target in the area | region specified by the said area | region specific part, and the said option visually in the predetermined area | region of the said touch panel. The tablet terminal as described in any one of 1-4.
(付記6)コンピュータが実行する操作受付方法であって、
タッチパネル上でタッチ操作の行われる領域を特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行する操作受付方法。
(Appendix 6) An operation reception method executed by a computer,
Identify the area where the touch operation is performed on the touch panel,
Determine the content of the touch operation in the identified area,
An operation receiving method for generating each option corresponding to the content of the determined touch operation and displaying the generated option in a predetermined area of the touch panel.
(付記7)前記タッチパネル上の視線位置を検出する処理を更に実行し、
前記領域を特定する処理は、前記視線位置を含む領域を特定することを特徴とする付記6に記載の操作受付方法。
(Additional remark 7) The process which detects the eyes | visual_axis position on the said touch panel is further performed,
The operation receiving method according to appendix 6, wherein the process of specifying the area specifies an area including the line-of-sight position.
(付記8)前記タッチパネル上でタッチ操作が行われたか否かを判定する処理を更に実行し、
前記領域を特定する処理は、前記タッチパネル上でタッチ操作が行われた場合に、前記視線位置を含む領域の位置を補正することを特徴とする付記7に記載の操作受付方法。
(Additional remark 8) The process which determines whether touch operation was performed on the said touch panel is further performed,
The operation receiving method according to appendix 7, wherein the process of specifying the area corrects the position of the area including the line-of-sight position when a touch operation is performed on the touch panel.
(付記9)前記表示する処理は、タッチ操作の内容に対応する選択肢の数が所定数以上の場合には、複数の選択肢のうち、一部の選択肢を所定領域に表示することを特徴とする付記6、7または8に記載の操作受付方法。 (Additional remark 9) The said process to display displays some choices in a predetermined area | region among several choices, when the number of the choices corresponding to the content of touch operation is more than predetermined number, It is characterized by the above-mentioned. The operation accepting method according to appendix 6, 7 or 8.
(付記10)前記表示する処理は、特定された領域内のタッチ操作対象と、前記選択肢とを視覚的に対応付けて前記タッチパネルの所定領域に表示することを特徴とする付記6〜9のいずれか一つに記載の操作受付方法。 (Supplementary note 10) Any one of Supplementary notes 6 to 9, wherein the display processing includes displaying the touch operation target in the specified area and the option in a predetermined area of the touch panel in a visually correlated manner. The method of accepting operations according to any one of the above.
(付記11)コンピュータに、
タッチパネル上でタッチ操作の行われる領域を特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行させることを特徴とする操作受付プログラム。
(Supplementary note 11)
Identify the area where the touch operation is performed on the touch panel,
Determine the content of the touch operation in the identified area,
An operation reception program for generating an option corresponding to the content of the determined touch operation and displaying each of the generated option in a predetermined area of the touch panel.
(付記12)前記タッチパネル上の視線位置を検出する処理を更に実行し、
前記領域を特定する処理は、前記視線位置を含む領域を特定することを特徴とする付記11に記載の操作受付プログラム。
(Additional remark 12) The process which detects the eyes | visual_axis position on the said touch panel is further performed,
The operation reception program according to
(付記13)前記タッチパネル上でタッチ操作が行われたか否かを判定する処理を更に実行し、
前記領域を特定する処理は、前記タッチパネル上でタッチ操作が行われた場合に、前記視線位置を含む領域の位置を補正することを特徴とする付記12に記載の操作受付プログラム。
(Additional remark 13) The process which determines whether the touch operation was performed on the said touch panel is further performed,
The operation receiving program according to appendix 12, wherein the process of specifying the area corrects the position of the area including the line-of-sight position when a touch operation is performed on the touch panel.
(付記14)前記表示する処理は、タッチ操作の内容に対応する選択肢の数が所定数以上の場合には、複数の選択肢のうち、一部の選択肢を所定領域に表示することを特徴とする付記11、12または13に記載の操作受付プログラム。
(Supplementary note 14) When the number of options corresponding to the content of the touch operation is greater than or equal to a predetermined number, the display process displays some of the options in a predetermined area. The operation reception program according to
(付記15)前記表示する処理は、特定された領域内のタッチ操作対象と、前記選択肢とを視覚的に対応付けて前記タッチパネルの所定領域に表示することを特徴とする付記11〜14のいずれか一つに記載の操作受付プログラム。
(Supplementary note 15) Any one of
(付記16)メモリと、
前記メモリに接続されたプロセッサと、を具備し、
前記プロセッサは、
タッチパネル上でタッチ操作の行われる領域を特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行することを特徴とするタブレット端末。
(Supplementary Note 16) Memory,
A processor connected to the memory,
The processor is
Identify the area where the touch operation is performed on the touch panel,
Determine the content of the touch operation in the identified area,
A tablet terminal that generates an option corresponding to the content of the determined touch operation and displays the generated option in a predetermined area of the touch panel.
(付記17)タッチパネル上でタッチ操作の行われる領域を特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する、
各処理をコンピュータに実行させる操作受付プログラムを記憶する、コンピュータが読み取り可能な記録媒体。
(Additional remark 17) The area | region where touch operation is performed on a touchscreen is specified,
Determine the content of the touch operation in the identified area,
Generating an option corresponding to the content of the determined touch operation, and displaying the generated option in a predetermined area of the touch panel;
A computer-readable recording medium that stores an operation reception program for causing a computer to execute each process.
100,200 タブレット端末
110,210 カメラ
120,220 光源
130,230 通信部
140,240 タッチパネル
150,250 記憶部
160,260 制御部
100, 200
Claims (9)
前記タッチパネル上でタッチ操作が行われたか否かを判定するタッチ判定部と、
前記タッチパネル上でタッチ操作が行われた場合に、視線位置を含む領域の位置を、前記タッチ操作が行われる所定時間前の視線位置を含む領域の位置に補正し、位置を補正した領域を、タッチ操作の行われる領域として特定する領域特定部と、
前記領域特定部によって特定された領域内のタッチ操作の内容を判定する操作判定部と、
前記操作判定部によって判定されたタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する表示制御部と
を有することを特徴とするタブレット端末。 A line-of-sight detection unit for detecting a line-of-sight position on the touch panel;
A touch determination unit that determines whether a touch operation has been performed on the touch panel;
When a touch operation is performed on the touch panel, the position of the region including the line-of-sight position is corrected to the position of the region including the line-of-sight position before the touch operation is performed, and the region where the position is corrected is An area specifying unit that specifies an area where a touch operation is performed;
An operation determination unit for determining the content of the touch operation in the region specified by the region specifying unit;
A tablet terminal comprising: a display control unit that generates an option corresponding to the content of the touch operation determined by the operation determination unit and displays the generated option in a predetermined area of the touch panel.
タッチパネル上の視線位置を検出し、
前記タッチパネル上でタッチ操作が行われたか否かを判定し、
タッチパネル上でタッチ操作が行われた場合に、視線位置を含む領域の位置を、前記タッチ操作が行われる所定時間前の視線位置を含む領域の位置に補正し、位置を補正した領域を、タッチ操作の行われる領域として特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行する操作受付方法。 An operation reception method executed by a computer,
Detect line-of-sight position on touch panel,
Determining whether a touch operation has been performed on the touch panel;
When a touch operation is performed on the touch panel, the position of the area including the line-of-sight position is corrected to the position of the area including the line-of-sight position a predetermined time before the touch operation is performed, and the area whose position is corrected is touched. Identify the area where the operation will be performed,
Determine the content of the touch operation in the identified area,
An operation receiving method for generating each option corresponding to the content of the determined touch operation and displaying the generated option in a predetermined area of the touch panel.
タッチパネル上の視線位置を検出し、
前記タッチパネル上でタッチ操作が行われたか否かを判定し、
タッチパネル上でタッチ操作が行われた場合に、視線位置を含む領域の位置を、前記タッチ操作が行われる所定時間前の視線位置を含む領域の位置に補正し、位置を補正した領域を、タッチ操作の行われる領域として特定し、
特定した領域内のタッチ操作の内容を判定し、
判定したタッチ操作の内容に対応する選択肢を生成し、生成した選択肢を前記タッチパネルの所定領域に表示する
各処理を実行させることを特徴とする操作受付プログラム。 On the computer,
Detect line-of-sight position on touch panel,
Determining whether a touch operation has been performed on the touch panel;
When a touch operation is performed on the touch panel, the position of the area including the line-of-sight position is corrected to the position of the area including the line-of-sight position a predetermined time before the touch operation is performed, and the area whose position is corrected is touched. Identify the area where the operation will be performed,
Determine the content of the touch operation in the identified area,
An operation reception program for generating an option corresponding to the content of the determined touch operation and displaying each of the generated option in a predetermined area of the touch panel.
前記タッチパネル上に選択対象の表示を行わせ、前記タッチパネルの左下隅に位置する領域に、更に複数の選択肢を有するメニューを表示させ、前記複数の選択肢は前記選択対象の選択による動作と同様の動作の指示が可能な選択肢を含み得るメニュー表示制御を行う制御部と
を有することを特徴とするタブレット端末。 A touch panel;
The selection target is displayed on the touch panel, and a menu having a plurality of options is displayed in an area located in the lower left corner of the touch panel, and the plurality of options are operations similar to the operations by selecting the selection target. And a control unit that performs menu display control that may include options that can be specified .
利用者がタブレット端末の左下隅を持った状態で、前記利用者の親指が届く範囲に含まれ、前記タッチパネルの左下隅に位置する領域に、前記タッチパネル上に表示された選択対象が選択された場合の動作と同じ動作の指示が可能な選択肢を含む複数の選択肢を有するメニューを前記選択対象が視認可能な状態で更に表示させる制御が可能な制御部と、
を有することを特徴とするタブレット端末。 A touch panel;
In the state where the user has the lower left corner of the tablet terminal, the selection target displayed on the touch panel is selected in an area located in the lower left corner of the touch panel that is included in the range where the user's thumb can reach A control unit capable of controlling to further display a menu having a plurality of options including options capable of instructing the same operation as the operation in the case where the selection target is visible;
A tablet terminal characterized by comprising:
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012157568A JP6131540B2 (en) | 2012-07-13 | 2012-07-13 | Tablet terminal, operation reception method and operation reception program |
US13/925,000 US9952690B2 (en) | 2012-07-13 | 2013-06-24 | Tablet device, and operation receiving method |
EP13173394.1A EP2685366A3 (en) | 2012-07-13 | 2013-06-24 | Tablet device, and operation receiving method |
KR1020130081533A KR101500843B1 (en) | 2012-07-13 | 2013-07-11 | Tablet device, and operation receiving method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012157568A JP6131540B2 (en) | 2012-07-13 | 2012-07-13 | Tablet terminal, operation reception method and operation reception program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014021596A JP2014021596A (en) | 2014-02-03 |
JP6131540B2 true JP6131540B2 (en) | 2017-05-24 |
Family
ID=48703172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012157568A Expired - Fee Related JP6131540B2 (en) | 2012-07-13 | 2012-07-13 | Tablet terminal, operation reception method and operation reception program |
Country Status (4)
Country | Link |
---|---|
US (1) | US9952690B2 (en) |
EP (1) | EP2685366A3 (en) |
JP (1) | JP6131540B2 (en) |
KR (1) | KR101500843B1 (en) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10048748B2 (en) * | 2013-11-12 | 2018-08-14 | Excalibur Ip, Llc | Audio-visual interaction with user devices |
KR20150107528A (en) * | 2014-03-14 | 2015-09-23 | 삼성전자주식회사 | Method for providing user interface |
JP6287486B2 (en) * | 2014-03-31 | 2018-03-07 | 富士通株式会社 | Information processing apparatus, method, and program |
US9203951B1 (en) | 2014-07-03 | 2015-12-01 | International Business Machines Corporation | Mobile telephone adapted for use with one hand |
JP6339887B2 (en) * | 2014-07-24 | 2018-06-06 | シャープ株式会社 | Image display device |
JP6492910B2 (en) * | 2015-04-13 | 2019-04-03 | ブラザー工業株式会社 | Mobile device |
KR20230150397A (en) | 2015-08-21 | 2023-10-30 | 매직 립, 인코포레이티드 | Eyelid shape estimation using eye pose measurement |
JP2017062598A (en) * | 2015-09-24 | 2017-03-30 | ソニー株式会社 | Information processing device, information processing method, and program |
US10156928B2 (en) * | 2015-09-25 | 2018-12-18 | Intel Corporation | Extended user touch input |
IL297610B2 (en) * | 2015-10-16 | 2023-11-01 | Magic Leap Inc | Eye pose identification using eye features |
US20170309070A1 (en) * | 2016-04-20 | 2017-10-26 | Sangiovanni John | System and method for very large-scale communication and asynchronous documentation in virtual reality and augmented reality environments |
JP6612799B2 (en) * | 2017-03-06 | 2019-11-27 | 京セラ株式会社 | Electronic device, control method, and control program |
CN109101110A (en) * | 2018-08-10 | 2018-12-28 | 北京七鑫易维信息技术有限公司 | A kind of method for executing operating instructions, device, user terminal and storage medium |
US11487425B2 (en) * | 2019-01-17 | 2022-11-01 | International Business Machines Corporation | Single-hand wide-screen smart device management |
WO2021131562A1 (en) * | 2019-12-27 | 2021-07-01 | キヤノン株式会社 | Electronic device, electronic device control method, program, and storage medium |
JP6827132B2 (en) * | 2020-01-14 | 2021-02-10 | パイオニア株式会社 | Operating device, control method, program and storage medium |
CN111309146B (en) * | 2020-02-10 | 2022-03-29 | Oppo广东移动通信有限公司 | Image display method and related product |
JP7014874B1 (en) | 2020-09-24 | 2022-02-01 | レノボ・シンガポール・プライベート・リミテッド | Information processing equipment and information processing method |
CN113885735B (en) * | 2021-11-03 | 2023-03-21 | 业成科技(成都)有限公司 | Touch display device, control method thereof and electronic device |
EP4343526A1 (en) | 2021-12-08 | 2024-03-27 | Samsung Electronics Co., Ltd. | Electronic device supporting one-handed operation mode, and operating method for electronic device |
US20230359330A1 (en) * | 2022-05-03 | 2023-11-09 | Mimecast Services Ltd. | Systems and methods for analysis of visually-selected information resources |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000089905A (en) * | 1998-09-14 | 2000-03-31 | Sony Corp | Pointing device |
FI116425B (en) * | 2002-01-18 | 2005-11-15 | Nokia Corp | Method and apparatus for integrating an extensive keyboard into a small apparatus |
GB0201074D0 (en) * | 2002-01-18 | 2002-03-06 | 3G Lab Ltd | Graphic user interface for data processing device |
JP4093823B2 (en) * | 2002-08-20 | 2008-06-04 | 富士通株式会社 | View movement operation method |
JP2004110698A (en) * | 2002-09-20 | 2004-04-08 | Sharp Corp | Internet terminal |
US7895536B2 (en) | 2003-01-08 | 2011-02-22 | Autodesk, Inc. | Layer editor system for a pen-based computer |
US20090128498A1 (en) | 2004-06-29 | 2009-05-21 | Koninklijke Philips Electronics, N.V. | Multi-layered display of a graphical user interface |
JP4880304B2 (en) * | 2005-12-28 | 2012-02-22 | シャープ株式会社 | Information processing apparatus and display method |
US8793620B2 (en) * | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
US20080163053A1 (en) * | 2006-12-28 | 2008-07-03 | Samsung Electronics Co., Ltd. | Method to provide menu, using menu set and multimedia device using the same |
JP2009110286A (en) * | 2007-10-30 | 2009-05-21 | Toshiba Corp | Information processor, launcher start control program, and launcher start control method |
JP2009169820A (en) * | 2008-01-18 | 2009-07-30 | Panasonic Corp | Mobile terminal |
JP2010160564A (en) | 2009-01-06 | 2010-07-22 | Toshiba Corp | Portable terminal |
US20100287468A1 (en) | 2009-05-05 | 2010-11-11 | Emblaze Mobile Ltd | Apparatus and method for displaying menu items |
JP2011028635A (en) * | 2009-07-28 | 2011-02-10 | Sony Corp | Display control apparatus, display control method and computer program |
US9507418B2 (en) * | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
KR101718026B1 (en) * | 2010-09-06 | 2017-04-04 | 엘지전자 주식회사 | Method for providing user interface and mobile terminal using this method |
JP5536627B2 (en) * | 2010-12-21 | 2014-07-02 | パナソニック株式会社 | Lifting storage device |
US8643680B2 (en) * | 2011-04-08 | 2014-02-04 | Amazon Technologies, Inc. | Gaze-based content display |
US8687840B2 (en) * | 2011-05-10 | 2014-04-01 | Qualcomm Incorporated | Smart backlights to minimize display power consumption based on desktop configurations and user eye gaze |
US20130219340A1 (en) * | 2012-02-21 | 2013-08-22 | Sap Ag | Navigation on a Portable Electronic Device |
JP5942586B2 (en) | 2012-05-18 | 2016-06-29 | 富士通株式会社 | Tablet terminal and operation reception program |
JP2013254406A (en) * | 2012-06-08 | 2013-12-19 | Ntt Docomo Inc | Display device, display method and program |
-
2012
- 2012-07-13 JP JP2012157568A patent/JP6131540B2/en not_active Expired - Fee Related
-
2013
- 2013-06-24 EP EP13173394.1A patent/EP2685366A3/en not_active Withdrawn
- 2013-06-24 US US13/925,000 patent/US9952690B2/en active Active
- 2013-07-11 KR KR1020130081533A patent/KR101500843B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR101500843B1 (en) | 2015-03-09 |
JP2014021596A (en) | 2014-02-03 |
EP2685366A3 (en) | 2016-04-20 |
US9952690B2 (en) | 2018-04-24 |
EP2685366A2 (en) | 2014-01-15 |
KR20140009054A (en) | 2014-01-22 |
US20140015778A1 (en) | 2014-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6131540B2 (en) | Tablet terminal, operation reception method and operation reception program | |
JP7247390B2 (en) | user interface camera effect | |
JP5942586B2 (en) | Tablet terminal and operation reception program | |
US9170645B2 (en) | Method and apparatus for processing input in mobile terminal | |
US9582096B2 (en) | Information processing apparatus, information processing method, and program | |
WO2014054211A1 (en) | Information processing device, display control method, and program for modifying scrolling of automatically scrolled content | |
JP2012137970A (en) | Information processing device and method, and program | |
US9706108B2 (en) | Information processing apparatus and associated methodology for determining imaging modes | |
JP7005161B2 (en) | Electronic devices and their control methods | |
US9544556B2 (en) | Projection control apparatus and projection control method | |
JPWO2014181403A1 (en) | Input device and input program | |
US9323339B2 (en) | Input device, input method and recording medium | |
JP2006345529A (en) | Method and system of red-eye correction using user-adjustable threshold | |
JP2016177658A (en) | Virtual input device, input method, and program | |
US20150234461A1 (en) | Display control device, display control method and recording medium | |
JP2012217101A (en) | Information processor, control method of the same, program, and storage medium | |
JP2011243108A (en) | Electronic book device and electronic book operation method | |
JP7009835B2 (en) | Information processing equipment, information processing methods, and computer programs | |
JP7080711B2 (en) | Electronic devices, control methods, programs, and storage media for electronic devices | |
JP7005160B2 (en) | Electronic devices and their control methods | |
JP7331120B2 (en) | Linked display system | |
JP6079418B2 (en) | Input device and input program | |
JP6643948B2 (en) | Display control device and control method thereof | |
JP7505088B2 (en) | Linked display system | |
US11556173B2 (en) | Electronic apparatus, method for controlling the same, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150406 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170321 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170403 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6131540 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |