JP2013242671A - タブレット端末および操作受付プログラム - Google Patents
タブレット端末および操作受付プログラム Download PDFInfo
- Publication number
- JP2013242671A JP2013242671A JP2012114985A JP2012114985A JP2013242671A JP 2013242671 A JP2013242671 A JP 2013242671A JP 2012114985 A JP2012114985 A JP 2012114985A JP 2012114985 A JP2012114985 A JP 2012114985A JP 2013242671 A JP2013242671 A JP 2013242671A
- Authority
- JP
- Japan
- Prior art keywords
- target area
- area
- coordinates
- unit
- aiming
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】タブレット端末10は、視線の検出結果を有効化する契機の指示を受け付ける。さらに、タブレット端末10は、視線の検出位置を用いて、タッチパネルの画面上で目標とするオブジェクトの存在を想定する目標領域を設定する。さらに、タブレット端末10は、前記目標領域の代わりに当該目標領域へのタッチ操作を受け付ける照準領域に、画面に表示される画像のうち目標領域に表示される部分画像を表示させる。さらに、タブレット端末10は、照準領域の座標および目標領域の座標の対応関係を記録する。さらに、タブレット端末10は、照準領域内でタッチ操作を受け付けた場合に、記録しておいた対応関係を用いて、当該タッチ操作を受け付けた照準領域の座標を目標領域へ投影された座標に変換した上で変換された座標を出力する。
【選択図】図1
Description
図1は、実施例1に係るタブレット端末の機能的構成を示すブロック図である。図1に示すタブレット端末10は、タッチパネル11の画面上の位置指定に、画面に対するタッチ操作とともに視線検出を併用するものであり、とりわけタブレット端末10を持つ方の手でタッチパネルを片手操作させる。
図10は、実施例1に係る操作受付処理の手順を示すフローチャートである。この操作受付処理は、タブレット端末10の電源がON状態である限り、繰り返し実行される処理であり、タッチパネル11の画面上でタップ操作を受け付けた場合に処理が起動する。
上述してきたように、本実施例に係るタブレット端末10は、タッチパネル11の画面上で視線の検出位置が指す目標領域の部分画像を手元側の照準領域に表示させることによって端末を持つ手では届かない範囲の操作を受け付ける。それゆえ、本実施例に係るタブレット端末10では、タブレット端末10を持つ方の手でタッチパネルを片手操作させる場合に、目標とするオブジェクトの一点を注視させずとも、目標とするオブジェクトに対するタッチ操作が可能になる。したがって、本実施例に係るタブレット端末10によれば、利用者の眼に掛かる負担を軽減できる。
上記の実施例1では、タップ操作によってタイミングが指示された時点で検出された視線の位置を目標領域の設定に用いる場合を説明したが、タイミングが指示されるよりも前の時点で検出された視線の位置を目標領域の設定に用いることもできる。
開示の装置は、目標領域の座標が出力される前後でタッチパネル11の画面上に表示される画像の差分の割合を算出し、画像の差分の割合が所定の閾値以下である場合に、当該差分となる画像が表示される領域を目標領域として設定することもできる。これによって、メニューが階層化して表示される場合に、階層化して表示されるメニューを連鎖して選択することができる。
上記の実施例1では、照準領域に含まれる各画素の座標と目標領域に含まれる各画素の座標との対応関係を対応関係情報13bとして記録する場合を例示したが、画素間の座標以外の情報を対応付けて記録することもできる。例えば、開示の装置は、照準領域および目標領域の画素間の座標の対応関係とともに、目標領域に表示される部分画像の画素値を対応付けた対応関係情報を記録することもできる。そして、開示の装置は、制御部15内で実行されるOSやアプリケーションプログラムによって目標領域に表示される部分画像が更新されるのに合わせて対応関係情報の記録を更新する。これによって、目標領域に表示される部分画像に変化がある場合、例えば動画が再生されていたり、バナー表示がなされていたりする場合でも、対応関係情報を用いて、照準領域に表示される部分画像を目標領域の部分画像と同期させることができる。
上記の実施例1では、目標領域が設定された時に照準領域に部分画像をリアルタイムで表示させる場合を例示したが、必ずしも照準領域に部分画像をリアルタイムで表示させる必要はない。例えば、開示の装置は、目標領域が設定された時点の画像を記憶部13へ蓄積しておき、所定の条件、例えば画面のスクロールが最後まで移動される条件や部分画像の表示を開放する操作を受け付ける条件を満たした場合に照準領域に部分画像を表示させることもできる。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、受付部15b、設定部15c、表示制御部15d、記録部15e、変換部15f及び出力部15gのうち少なくとも1つの機能部をタブレット端末10の外部装置としてネットワーク経由で接続し、操作受付サービスを実行するサーバ装置として構成するようにしてもよい。また、受付部15b、設定部15c、表示制御部15d、記録部15e、変換部15fまたは出力部15gを別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記のタブレット端末10の機能を実現するようにしてもよい。
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図12を用いて、上記の実施例と同様の機能を有する操作受付プログラムを実行するコンピュータの一例について説明する。
視線の検出結果を有効化する契機の指示を受け付ける受付部と、
視線の検出位置を用いて、前記タッチパネルの画面上で目標とするオブジェクトの存在を想定する目標領域を設定する設定部と、
前記目標領域の代わりに当該目標領域へのタッチ操作を受け付ける照準領域に、前記画面に表示される画像のうち前記目標領域に表示される部分画像を表示させる表示制御部と、
前記照準領域の座標および前記目標領域の座標の対応関係を所定の記憶部に記録する記録部と、
前記照準領域内でタッチ操作を受け付けた場合に、前記記憶部に記憶された対応関係を用いて、当該タッチ操作を受け付けた照準領域の座標を前記目標領域へ投影された座標に変換する変換部と、
前記変換部によって変換された座標を出力する出力部と
を有することを特徴とするタブレット端末。
前記設定部は、前記算出部によって算出された画像の差分の割合が所定の閾値以下である場合に、当該差分となる画像が表示される領域を目標領域として再設定することを特徴とする付記1または2に記載のタブレット端末。
視線の検出結果を有効化する契機の指示を受け付け、
視線の検出位置を用いて、タッチパネルの画面上で目標とするオブジェクトの存在を想定する目標領域を設定し、
前記目標領域の代わりに当該目標領域へのタッチ操作を受け付ける照準領域に、前記画面に表示される画像のうち前記目標領域に表示される部分画像を表示させ、
前記照準領域の座標および前記目標領域の座標の対応関係を所定の記憶部に記録し、
前記照準領域内でタッチ操作を受け付けた場合に、前記記憶部に記憶された対応関係を用いて、当該タッチ操作を受け付けた照準領域の座標を前記目標領域へ投影された座標に変換し、
変換された座標を出力する
処理を実行させることを特徴とする操作受付プログラム。
前記プロセッサは、
視線の検出結果を有効化する契機の指示を受け付け、
視線の検出位置を用いて、タッチパネルの画面上で目標とするオブジェクトの存在を想定する目標領域を設定し、
前記目標領域の代わりに当該目標領域へのタッチ操作を受け付ける照準領域に、前記画面に表示される画像のうち前記目標領域に表示される部分画像を表示させ、
前記照準領域の座標および前記目標領域の座標の対応関係を所定の記憶部に記録し、
前記照準領域内でタッチ操作を受け付けた場合に、前記記憶部に記憶された対応関係を用いて、当該タッチ操作を受け付けた照準領域の座標を前記目標領域へ投影された座標に変換し、
変換された座標を出力する
処理を実行することを特徴とするタブレット端末。
視線の検出結果を有効化する契機の指示を受け付け、
視線の検出位置を用いて、タッチパネルの画面上で目標とするオブジェクトの存在を想定する目標領域を設定し、
前記目標領域の代わりに当該目標領域へのタッチ操作を受け付ける照準領域に、前記画面に表示される画像のうち前記目標領域に表示される部分画像を表示させ、
前記照準領域の座標および前記目標領域の座標の対応関係を所定の記憶部に記録し、
前記照準領域内でタッチ操作を受け付けた場合に、前記記憶部に記憶された対応関係を用いて、当該タッチ操作を受け付けた照準領域の座標を前記目標領域へ投影された座標に変換し、
変換された座標を出力する
処理を実行させる操作受付プログラムをコンピュータ読み取り可能な記録媒体。
11 タッチパネル
12 カメラ
12a 光源
13 記憶部
13a 照準領域情報
13b 対応関係情報
15 制御部
15a 検出部
15b 受付部
15c 設定部
15d 表示制御部
15e 記録部
15f 変換部
15g 出力部
Claims (4)
- 表示可能かつ入力可能なタッチパネルと、
視線の検出結果を有効化する契機の指示を受け付ける受付部と、
視線の検出位置を用いて、前記タッチパネルの画面上で目標とするオブジェクトの存在を想定する目標領域を設定する設定部と、
前記目標領域の代わりに当該目標領域へのタッチ操作を受け付ける照準領域に、前記画面に表示される画像のうち前記目標領域に表示される部分画像を表示させる表示制御部と、
前記照準領域の座標および前記目標領域の座標の対応関係を所定の記憶部に記録する記録部と、
前記照準領域内でタッチ操作を受け付けた場合に、前記記憶部に記憶された対応関係を用いて、当該タッチ操作を受け付けた照準領域の座標を前記目標領域へ投影された座標に変換する変換部と、
前記変換部によって変換された座標を出力する出力部と
を有することを特徴とするタブレット端末。 - 前記設定部は、前記視線の検出結果のうち前記受付部によって指示が受け付けられる前の視線の検出位置を用いて、前記目標領域を設定することを特徴とする請求項1に記載のタブレット端末。
- 前記出力部によって座標が出力される前後で前記タッチパネルの画面上に表示される画像の差分の割合を算出する算出部をさらに有し、
前記設定部は、前記算出部によって算出された画像の差分の割合が所定の閾値以下である場合に、当該差分となる画像が表示される領域を目標領域として再設定することを特徴とする請求項1または2に記載のタブレット端末。 - コンピュータに、
視線の検出結果を有効化する契機の指示を受け付け、
視線の検出位置を用いて、タッチパネルの画面上で目標とするオブジェクトの存在を想定する目標領域を設定し、
前記目標領域の代わりに当該目標領域へのタッチ操作を受け付ける照準領域に、前記画面に表示される画像のうち前記目標領域に表示される部分画像を表示させ、
前記照準領域の座標および前記目標領域の座標の対応関係を所定の記憶部に記録し、
前記照準領域内でタッチ操作を受け付けた場合に、前記記憶部に記憶された対応関係を用いて、当該タッチ操作を受け付けた照準領域の座標を前記目標領域へ投影された座標に変換し、
変換された座標を出力する
処理を実行させることを特徴とする操作受付プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012114985A JP5942586B2 (ja) | 2012-05-18 | 2012-05-18 | タブレット端末および操作受付プログラム |
US13/868,523 US9098135B2 (en) | 2012-05-18 | 2013-04-23 | Tablet terminal and recording medium |
EP13165216.6A EP2664985B1 (en) | 2012-05-18 | 2013-04-24 | Tablet terminal and operation receiving program |
KR20130051856A KR101450452B1 (ko) | 2012-05-18 | 2013-05-08 | 태블릿 단말기 및 조작 접수 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012114985A JP5942586B2 (ja) | 2012-05-18 | 2012-05-18 | タブレット端末および操作受付プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013242671A true JP2013242671A (ja) | 2013-12-05 |
JP5942586B2 JP5942586B2 (ja) | 2016-06-29 |
Family
ID=48190735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012114985A Active JP5942586B2 (ja) | 2012-05-18 | 2012-05-18 | タブレット端末および操作受付プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9098135B2 (ja) |
EP (1) | EP2664985B1 (ja) |
JP (1) | JP5942586B2 (ja) |
KR (1) | KR101450452B1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015176311A (ja) * | 2014-03-14 | 2015-10-05 | 株式会社Nttドコモ | 端末及び制御方法 |
WO2016208261A1 (ja) * | 2015-06-26 | 2016-12-29 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2019028563A (ja) * | 2017-07-26 | 2019-02-21 | 富士通株式会社 | 表示プログラム、情報処理装置、及び表示方法 |
JP2019219965A (ja) * | 2018-06-20 | 2019-12-26 | 株式会社リコー | 共有端末、筆記方法、プログラム |
JP2020129269A (ja) * | 2019-02-08 | 2020-08-27 | コニカミノルタ株式会社 | 画像形成装置および表示制御方法 |
JP2021068482A (ja) * | 2021-02-03 | 2021-04-30 | マクセル株式会社 | 携帯端末の制御方法 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6131540B2 (ja) | 2012-07-13 | 2017-05-24 | 富士通株式会社 | タブレット端末、操作受付方法および操作受付プログラム |
US10691291B2 (en) * | 2013-05-24 | 2020-06-23 | Samsung Electronics Co., Ltd. | Method and apparatus for displaying picture on portable device |
US9189095B2 (en) * | 2013-06-06 | 2015-11-17 | Microsoft Technology Licensing, Llc | Calibrating eye tracking system by touch input |
JP6303297B2 (ja) | 2013-06-14 | 2018-04-04 | 富士通株式会社 | 端末装置、視線検出プログラムおよび視線検出方法 |
US9696882B2 (en) * | 2013-08-28 | 2017-07-04 | Lenovo (Beijing) Co., Ltd. | Operation processing method, operation processing device, and control method |
CN104808836B (zh) * | 2014-01-23 | 2017-12-01 | 京瓷办公信息系统株式会社 | 电子设备及操作支援方法 |
KR20150107528A (ko) * | 2014-03-14 | 2015-09-23 | 삼성전자주식회사 | 사용자 인터페이스를 제공하는 방법과 전자 장치 |
US20170199662A1 (en) * | 2014-05-26 | 2017-07-13 | Huawei Technologies Co., Ltd. | Touch operation method and apparatus for terminal |
FR3036818B1 (fr) * | 2015-06-01 | 2017-06-09 | Sagem Defense Securite | Systeme de visee comportant un ecran recouvert d'une interface tactile et procede de visee correspondant |
EP3356918A1 (en) * | 2015-09-29 | 2018-08-08 | Telefonaktiebolaget LM Ericsson (publ) | Touchscreen device and method thereof |
CN106791535B (zh) * | 2016-11-28 | 2020-07-14 | 阿里巴巴(中国)有限公司 | 视频录制方法及装置 |
US10936872B2 (en) | 2016-12-23 | 2021-03-02 | Realwear, Inc. | Hands-free contextually aware object interaction for wearable display |
US10620910B2 (en) | 2016-12-23 | 2020-04-14 | Realwear, Inc. | Hands-free navigation of touch-based operating systems |
US11099716B2 (en) | 2016-12-23 | 2021-08-24 | Realwear, Inc. | Context based content navigation for wearable display |
US11507216B2 (en) | 2016-12-23 | 2022-11-22 | Realwear, Inc. | Customizing user interfaces of binary applications |
CN109101110A (zh) * | 2018-08-10 | 2018-12-28 | 北京七鑫易维信息技术有限公司 | 一种操作指令执行方法、装置、用户终端及存储介质 |
US11487425B2 (en) * | 2019-01-17 | 2022-11-01 | International Business Machines Corporation | Single-hand wide-screen smart device management |
US11409279B1 (en) * | 2019-09-26 | 2022-08-09 | Amazon Technologies, Inc. | Autonomously motile device with remote control |
AU2021279100B2 (en) * | 2020-05-29 | 2022-09-08 | Marthinus Van Der Merwe | A contactless touchscreen interface |
CN114510174A (zh) * | 2020-10-29 | 2022-05-17 | 华为技术有限公司 | 一种界面显示方法及电子设备 |
CN117472262A (zh) * | 2023-12-28 | 2024-01-30 | 荣耀终端有限公司 | 交互方法和电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050047629A1 (en) * | 2003-08-25 | 2005-03-03 | International Business Machines Corporation | System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking |
JP2009294725A (ja) * | 2008-06-02 | 2009-12-17 | Toshiba Corp | 携帯端末 |
JP2010079442A (ja) * | 2008-09-24 | 2010-04-08 | Toshiba Corp | 携帯端末 |
JP2010267071A (ja) * | 2009-05-14 | 2010-11-25 | Ntt Docomo Inc | 入力装置及び入力方法 |
JP2011086036A (ja) * | 2009-10-14 | 2011-04-28 | Victor Co Of Japan Ltd | 電子機器、アイコン表示方法およびアイコン表示プログラム |
US20110254865A1 (en) * | 2010-04-16 | 2011-10-20 | Yee Jadine N | Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9722949D0 (en) * | 1997-10-30 | 1998-01-07 | Bid Instr Ltd | Ocular testing and related projection apparatus and method |
US6204828B1 (en) * | 1998-03-31 | 2001-03-20 | International Business Machines Corporation | Integrated gaze/manual cursor positioning system |
US6578962B1 (en) * | 2001-04-27 | 2003-06-17 | International Business Machines Corporation | Calibration-free eye gaze tracking |
US9274598B2 (en) * | 2003-08-25 | 2016-03-01 | International Business Machines Corporation | System and method for selecting and activating a target object using a combination of eye gaze and key presses |
JP5197533B2 (ja) | 2009-08-31 | 2013-05-15 | 株式会社東芝 | 情報処理装置および表示制御方法 |
JP5613025B2 (ja) * | 2009-11-18 | 2014-10-22 | パナソニック株式会社 | 視線検出装置、視線検出方法、眼電位計測装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがねおよび眼科診断装置 |
US9542097B2 (en) | 2010-01-13 | 2017-01-10 | Lenovo (Singapore) Pte. Ltd. | Virtual touchpad for a touch device |
US9557812B2 (en) * | 2010-07-23 | 2017-01-31 | Gregory A. Maltz | Eye gaze user interface and calibration method |
US8593375B2 (en) * | 2010-07-23 | 2013-11-26 | Gregory A Maltz | Eye gaze user interface and method |
KR101718026B1 (ko) * | 2010-09-06 | 2017-04-04 | 엘지전자 주식회사 | 사용자 인터페이스 제공 방법 및 이를 이용하는 이동 단말기 |
US8888287B2 (en) * | 2010-12-13 | 2014-11-18 | Microsoft Corporation | Human-computer interface system having a 3D gaze tracker |
JP5510366B2 (ja) | 2011-03-08 | 2014-06-04 | カシオ計算機株式会社 | 画像表示制御装置及びプログラム |
CA2750287C (en) * | 2011-08-29 | 2012-07-03 | Microsoft Corporation | Gaze detection in a see-through, near-eye, mixed reality display |
-
2012
- 2012-05-18 JP JP2012114985A patent/JP5942586B2/ja active Active
-
2013
- 2013-04-23 US US13/868,523 patent/US9098135B2/en active Active
- 2013-04-24 EP EP13165216.6A patent/EP2664985B1/en active Active
- 2013-05-08 KR KR20130051856A patent/KR101450452B1/ko active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050047629A1 (en) * | 2003-08-25 | 2005-03-03 | International Business Machines Corporation | System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking |
JP2009294725A (ja) * | 2008-06-02 | 2009-12-17 | Toshiba Corp | 携帯端末 |
JP2010079442A (ja) * | 2008-09-24 | 2010-04-08 | Toshiba Corp | 携帯端末 |
JP2010267071A (ja) * | 2009-05-14 | 2010-11-25 | Ntt Docomo Inc | 入力装置及び入力方法 |
JP2011086036A (ja) * | 2009-10-14 | 2011-04-28 | Victor Co Of Japan Ltd | 電子機器、アイコン表示方法およびアイコン表示プログラム |
US20110254865A1 (en) * | 2010-04-16 | 2011-10-20 | Yee Jadine N | Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size |
Non-Patent Citations (1)
Title |
---|
佐藤広志他2名: "タッチスクリーンを搭載した携帯情報端末のためのEYE−Trackingシステムの開発", 第72回(平成22年)全国大会講演論文集(4) インタフェース コンピュータと人間社会, JPN6016003908, 8 March 2010 (2010-03-08), JP, pages 4 - 85, ISSN: 0003306397 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015176311A (ja) * | 2014-03-14 | 2015-10-05 | 株式会社Nttドコモ | 端末及び制御方法 |
WO2016208261A1 (ja) * | 2015-06-26 | 2016-12-29 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US10496186B2 (en) | 2015-06-26 | 2019-12-03 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP2019028563A (ja) * | 2017-07-26 | 2019-02-21 | 富士通株式会社 | 表示プログラム、情報処理装置、及び表示方法 |
JP2019219965A (ja) * | 2018-06-20 | 2019-12-26 | 株式会社リコー | 共有端末、筆記方法、プログラム |
JP7143642B2 (ja) | 2018-06-20 | 2022-09-29 | 株式会社リコー | 共有端末、筆記方法、プログラム |
JP2020129269A (ja) * | 2019-02-08 | 2020-08-27 | コニカミノルタ株式会社 | 画像形成装置および表示制御方法 |
JP2021068482A (ja) * | 2021-02-03 | 2021-04-30 | マクセル株式会社 | 携帯端末の制御方法 |
JP7176020B2 (ja) | 2021-02-03 | 2022-11-21 | マクセル株式会社 | 携帯端末の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2664985A3 (en) | 2016-06-15 |
KR20130129108A (ko) | 2013-11-27 |
KR101450452B1 (ko) | 2014-10-13 |
US20130307797A1 (en) | 2013-11-21 |
US9098135B2 (en) | 2015-08-04 |
EP2664985B1 (en) | 2020-07-08 |
JP5942586B2 (ja) | 2016-06-29 |
EP2664985A2 (en) | 2013-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5942586B2 (ja) | タブレット端末および操作受付プログラム | |
JP6131540B2 (ja) | タブレット端末、操作受付方法および操作受付プログラム | |
US9952667B2 (en) | Apparatus and method for calibration of gaze detection | |
JP6070833B2 (ja) | 入力装置及び入力プログラム | |
KR102424986B1 (ko) | 전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법 | |
KR102150890B1 (ko) | 이미지 초점 표시 방법 및 상기 방법이 적용되는 전자장치 | |
JP6105953B2 (ja) | 電子機器、視線入力プログラムおよび視線入力方法 | |
CN109040524B (zh) | 伪影消除方法、装置、存储介质及终端 | |
EP3617851B1 (en) | Information processing device, information processing method, and recording medium | |
KR20170001430A (ko) | 디스플레이 장치 및 이의 영상 보정 방법 | |
US20150271457A1 (en) | Display device, image display system, and information processing method | |
JP2015152938A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2018180051A (ja) | 電子機器及びその制御方法 | |
JP5625839B2 (ja) | プロジェクタ装置、位置検出プログラム及びプロジェクタシステム | |
JPWO2015104884A1 (ja) | 情報処理システム、情報処理方法およびプログラム | |
US10802620B2 (en) | Information processing apparatus and information processing method | |
US20220334648A1 (en) | Wearable information terminal, control method thereof, and storage medium | |
JP2012048358A (ja) | 閲覧機器、情報処理方法およびプログラム | |
WO2018186004A1 (ja) | 電子機器及びその制御方法 | |
JP2018180050A (ja) | 電子機器及びその制御方法 | |
JP2012243266A (ja) | 電子機器及び表示方法 | |
JP6079418B2 (ja) | 入力装置および入力プログラム | |
US12039155B2 (en) | Screen content magnification method and device, and computer readable storage medium | |
US20230308770A1 (en) | Methods, apparatuses and computer program products for utilizing gestures and eye tracking information to facilitate camera operations on artificial reality devices | |
CN109246345B (zh) | 美瞳拍摄方法、装置、存储介质及移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5942586 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |