JP2014514661A - 注視支援コンピュータインターフェース - Google Patents

注視支援コンピュータインターフェース Download PDF

Info

Publication number
JP2014514661A
JP2014514661A JP2014506442A JP2014506442A JP2014514661A JP 2014514661 A JP2014514661 A JP 2014514661A JP 2014506442 A JP2014506442 A JP 2014506442A JP 2014506442 A JP2014506442 A JP 2014506442A JP 2014514661 A JP2014514661 A JP 2014514661A
Authority
JP
Japan
Prior art keywords
cursor
user
gaze
point
mouse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014506442A
Other languages
English (en)
Other versions
JP2014514661A5 (ja
JP5807989B2 (ja
Inventor
ロジャー スタッフォード ジェフリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2014514661A publication Critical patent/JP2014514661A/ja
Publication of JP2014514661A5 publication Critical patent/JP2014514661A5/ja
Application granted granted Critical
Publication of JP5807989B2 publication Critical patent/JP5807989B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04801Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/08Cursor circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports

Abstract

ユーザをグラフィカルユーザインターフェース(GUI)とインターフェースさせるための方法、システム、およびコンピュータプログラムが提供される。1つの方法では、ユーザの注視点(POG)を識別するための操作が含まれる。ディスプレイ上のカーソルの位置を移動させるための、ユーザによる物理的行動の開始が検出され、カーソルは、GUIを実行するコンピュータプログラムと関連付けられるフォーカス領域を画定する。さらに、本方法は、カーソルの現在位置とPOGとの間の距離が閾値距離よりも大きいかどうかを判定するための操作を含む。POGの判定および物理的行動の開始の検出に応じて、カーソルを、現在位置からPOGに近接した領域まで移動させる。

Description

本発明は、グラフィカルユーザインターフェース(GUI)に関し、より具体的には、注視支援ナビゲーションを提供するGUIとインタフェースさせるための方法、システム、およびコンピュータプログラムに関する。
現在のコンピュータインターフェースにおいて、マウスで制御する画面カーソルは、手の速度およびマウスの感度によって決定される速度で、ディスプレイに描画されたデスクトップという仮想画面領域(Virtual Real Estate:VRE)上を進行する。ここ何年もの間に、より大きい画面サイズの出現、画面解像度の向上、マルチ画面化等のため、仮想デスクトップ画面領域のサイズが増大してきた。
しかしながら、カーソルを制御する人間のインプットデバイス、すなわちマウスという伝達装置は、変わらないままである。例えば、640×480のデスクトップ上でマウスを移動させるには、多くても数インチの手の移動だけしか必要とされず、通常は、手首の運動だけしか伴わない。しかしながら、マルチ画面を使用するときの2560×1600以上のデスクトップ解像度の場合、ユーザは、単に手首を使用するだけで、マウスカーソルをデスクトップの片側から反対側まで、または一方のディスプレイからもう一方のディスプレイまで移動させることができない。このような状況では、あるときには「マウスハンドシャッフル」が必要とされ、その場合、ユーザは、マウスをマウスパッドから外れるくらい遠くまで進め、次いで、マウスを持ち上げて逆戻りさせ、再度マウスを降ろし、そして再度マウスをパッド上で移動させる場合がある。これは、大きいディスプレイとのインターフェースをうんざりさせる、煩雑な操作である。
以下の実施形態は、このような背景においてなされたものである。
本発明の実施形態は、ユーザをグラフィカルユーザインターフェース(GUI)とインターフェースさせるための方法、システム、およびコンピュータプログラムを提供する。本発明は、プロセス、装置、システム、デバイス、またはコンピュータが読み出し可能な媒体上の方法等の、数多くの方法で実現することができることを理解されたい。本発明の独創的な実施形態は、以下で説明する。
一実施形態において、方法は、ユーザが見ている点、いわゆる注視点(POG:Point Of Gaze)を識別するための操作を含む。ディスプレイ上のカーソルの位置を移動させるための、ユーザによる物理的行動の開始が検出され、ここでカーソルは、GUIを実行するコンピュータプログラムと関連付けられるフォーカス領域を画定する。さらに、本方法は、カーソルの現在位置とPOGとの間の距離が閾値距離よりも大きいかどうかを判定するための操作を含む。POGの判定および物理的行動の開始の検出に応じて、カーソルを、現在位置からPOGに近接した領域まで移動させる。
別の実施形態において、GUIを伴うシステムは、プロセッサと、入力デバイスと、注視検出モジュールとを含む。プロセッサは、GUIを提供するコンピュータプログラムを実行し、GUIは、1つ以上のディスプレイの中に描画される。入力デバイスは、入力デバイス上でユーザによって物理的行動が開始されるときに、1つ以上のディスプレイ上でカーソルの位置を移動させるように操作可能である。さらに、注視検出モジュールは、ユーザのPOGを識別するように操作可能であり、コンピュータプログラムは、カーソルの現在位置とPOGとの間の距離が閾値距離よりも大きいかどうかを判定する。コンピュータプログラムは、距離の判定および物理的行動の検出に応じて、現在位置からPOGに近接する領域までカーソルを移動させる。
さらに別の実施形態では、コンピュータによって実行されたときに、ユーザをコンピュータプログラムとインターフェースさせるための方法を実現するプログラム命令を有する、非一時的なコンピュータが読み出し可能な媒体である。本方法は、ユーザの注視点(POG)を識別するための操作を含む。ディスプレイ上のカーソルの位置を移動させるための、ユーザによる物理的行動の開始が検出され、カーソルは、GUIを実行するコンピュータプログラムと関連付けられるフォーカス領域を画定する。さらに、本方法は、カーソルの現在位置とPOGとの間の距離が閾値距離よりも大きいかどうかを判定するための操作を含む。POGの判定および物理的行動の開始の検出に応じて、カーソルを、現在位置からPOGに近接した領域まで移動させる。
他の形態は、添付図面と関連してなされる以下の詳細な説明から明らかになるであろう。
本発明は、添付図面と関連してなされる以下の説明を参照することによって最良に理解され得る。
一実施形態による、長距離にわたってカーソルを移動させるために、ユーザに必要とされる手間を例示する図である。 長距離にわたってカーソルを移動させるための手間を低減する、注視支援コンピュータシステムの実施形態を示す図である。 長距離にわたってカーソルを移動させるための手間を低減する、注視支援コンピュータシステムの実施形態を示す図である。 一実施形態による、注視点(POG)とカーソルの現在位置との間の距離の推定を例示する図である。 角膜反射を使用するPOG検出の実施形態を例示する図である。 一実施形態による、画像解析および顔追跡を使用するPOG検出のための方法を例示する図である。 一実施形態による、注視検出を使用してハンドヘルドデバイスで高速にスクロールするための方法を例示する図である。 一実施形態による、注視検出およびユーザ入力を使用する高速カーソル移動のための方法を例示する図である。 一実施形態による、注視支援ゲームインターフェースを示す図である。 一実施形態による、ジェスチャーに対応するウィンドウグラフィカルユーザインターフェースを例示する図である。 一実施形態による、注視検出、音声認識、および1つ以上のコンピュータ周辺機器を利用する、インターフェースを例示する図である。 本発明の実施形態を実現するためのコンピュータシステムの簡単化された模式図である。 本発明の一実施形態に従って、ユーザをコンピューティングデバイスで実行するコンピュータプログラムとインターフェースさせるためのアルゴリズムを例示するフローチャートである。
本発明の実施形態は、ディスプレイにおけるカーソルの移動を支援するために、およびより少ない手間で目標カーソル場所に到達するために、注視追跡を利用する。一実施形態において、注視検出は、ユーザとコンピューティングデバイスとの間のインターフェースを強化するために、物理的行動として表されるユーザの意図と組み合わせられる。
本発明が、これらの特定の詳細の一部または全部を伴わずに実践され得ることが明らかになるであろう。他の事例において、よく知られているプロセス操作は、本実施形態を不必要に曖昧にしないために、詳細に説明されていない。
図1は、一実施形態による、長距離にわたってカーソルを移動させるために、ユーザに必要とされる手間を例示する。3つのディスプレイ110a、110b、および110cは、コンピュータ108に接続される。ウィンドウズ(登録商標)環境は、3つのディスプレイの中に示され、よって、ウィンドウズ(登録商標)環境のデスクトップは、3つのディスプレイを包含し、各ディスプレイが、デスクトップの区画を表す。3つの区画は、領域が連続するデスクトップを形成することをシミュレーションするために、論理的に相互接続される。換言すれば、3つのディスプレイは、あたかも単一のディスプレイがあるかのように動作するが、この単一のディスプレイ上の描画は、3つの部分に分けられ、各部分が、ディスプレイ110a、110b、および110cのうちの1つに示される。
ユーザ102がマウスを移動させると、マウスは、3つのディスプレイを横断して移動することができるが、1つの中にだけ存在することができる。例えば、3つのディスプレイが単一のデスクトップを表すので、ディスプレイ110aの中のマウスがディスプレイ110aの右に移動すると、マウスは、ディスプレイ110bの左に現れる。
3つのディスプレイは、ユーザに大きいデスクトップを提供し、これは、複数のウィンドウを同時に表示させることを所望するユーザにとって有用な特徴である。しかしながら、大きいデスクトップの中でマウスを移動させることは、非常に時間がかかる可能性があり、マウスの感度が高い場合はなおさらである(すなわち、デスクトップ上でのカーソルの同じ変位量について、高感度を有するマウスは、低感度を有するマウスよりも多くのマウスの運動を必要とする)。したがって、正確なマウスの運動およびオブジェクト選択(例えば、グラフィックの作成および編集)を必要とする活動には、高感度のマウスが有効であるが、高感度のマウスは、デスクトップ全体にわたってマウスを迅速に移動させるには不利である。例えば、ユーザ102が、ウィンドウ112の中の位置116からディスプレイ110a上の位置118までマウスカーソルを移動させたい場合は、マウス104を右から左に長い距離を移動させなければならない。マウスの運動範囲は、しばしば制限されるので、マウスカーソルの大きい変位は、しばしば、ユーザが、マウスを左に移動させ、マウスを持ち上げ、マウスを右に置き、次いで、再度マウスを左に移動させることが必要であり、カーソルを位置118まで移動させるためにこの操作106を複数回繰り返す。転送中、マウスカーソルは、軌跡120に沿って移動し、これは「マウスハンドシャッフル」による複数回の停止を含む。
本明細書で使用される「カーソル」は、コンピュータプログラムのためのフォーカスの形態を示す、コンピュータプログラムと関連付けられるポインタまたは表示子を指す。カーソルは、マウスによって制御されるポインタの現在位置を示し、ディスプレイ上に示される、マウスカーソル、またはテキストがテキストフィールド(例えば、ワードプロセッサ、ウェブページの中のフィールド)に入力される場所を示す、テキストカーソル(例えば、垂直線)、あるいはページ(例えば、ウェブページ)に対して行われる操作(例えば、前ページ、次ページ、上にスクロール等)のための参照点を示す、ページカーソル等を指し得る。カーソルは、矢印、手、指、垂直バー、スクロールバー等の異なる形態で画面上に表示可能であり、または時々隠されて、カーソルを見えないようにし得るが、それでも、「次ページ」等のいくつかのインターフェース操作を行うために利用することができる。カーソルは、本明細書において、「フォーカス領域」、「マウスカーソル」、「ページカーソル」、「ウィンドウズ(登録商標)カーソル」、「テキスト挿入点」等と称され得る。実施形態は、特定のカーソル形態を使用して提示されるが、あらゆるタイプのカーソルを利用することができ、したがって、提示される実施形態は、排他的または限定的であると解釈されるべきではなく、例示的または実例であると解釈されるべきである。
一般的に、ユーザ102は、カーソルの所望の移動先を見ており、マウスカーソルの現在の場所は見ていない。本発明の実施形態は、ユーザをコンピュータシステムとインターフェースさせる方法を向上させるために、注視検出(Gaze Detection:GD)を利用する。例えば、注視検出は、ユーザがどこまでカーソルを移動させたいのかを判定し、次いで、より速くかつより少ない手間で所望の場所までカーソルを移動させるために使用される。場合によっては、ユーザは、マウスがディスプレイ上のどこにあるのか分からなくなることさえあり、ユーザは、自分がカーソルを移動させ始めることができる前までずっと、カーソルを捜すことに時間を費やさなければならない。しかしながら、注視検出を使用すれば、カーソルがどこにあるかではなく、カーソルを進める必要がある場所を知っていることが必要であるので、マウスの場所を見つけることは必要とされない。
いくつかの実施形態では、コンピュータシステムとインターフェースさせるために、注視だけを使用することができるが、他の実施形態では、ユーザによる関連する物理的運動を必要とすることに留意されたい。ユーザのPOGは、不安定となることがあり、よってPOGだけを使用することは、問題を引き起こし得るか、ユーザの確認を必要とし得るか、または完了するまでより長い時間がかかる操作を必要とし得る(例えば、1つの点で2秒間注視を固定することを必要とする)。注視と他の行動(カーソルがPOGの通常領域にあれば、マウスによってカーソルを移動させる、等)とを組み合わせることによって、使い勝手の良いインターフェースが提供される。
図2A〜2Bは、長距離にわたってカーソルを移動させるための手間を低減する、注視支援コンピュータシステムの実施形態を示す。一実施形態において、カーソルの制御は、ユーザの注視によって補助される。簡潔にする目的で、本発明の範囲の実施形態は、ディスプレイに描画されるデスクトップ用の標準的なグラフィカルユーザインターフェース(GUI)上でのマウスカーソルの操作を利用して説明される。他の実施形態は、異なる形態のカーソルもしくはアバター制御、異なる入力機構(例えば、キーボード、キーパッド、タッチ画面、ペダル等)を利用可能であり、または異なる表示機構(例えば、大型ディスプレイ、マルチディスプレイ、区画に分割されるディスプレイ等)を参照し得る。したがって、例示される実施形態は、排他的または限定的であると解釈されるべきではなく、例示的または実例であると解釈されるべきである。
眼球追跡または視線追跡は、注視点(POG)(すなわち、ユーザが見ている場所)、または頭部に対する眼球の運動のいずれかを測定する過程である。POGは、人の注視が向けられる空間の中の点であり、また、各眼球の網膜(窩)の最高鋭敏領域の中心で結像される空間の中の点としても定義されている。注視検出に関するより多くの詳細は、図3および図4を参照して下で提供される。
図2Aを参照すると、ユーザ102は、ディスプレイ110cの中の位置204からディスプレイ110aの位置208までマウスカーソルを移動させることを所望する。コンピュータ108上で実行する注視検出システムは、GUIのデスクトップを備えるディスプレイ内のユーザのPOGを決定する。ユーザは、所望するマウスカーソルの行き先に注視210を固定しており(すなわち、カーソルの目標方向を見ており)、注視検出システムは、およその場所206を決定する。ユーザ102の注視210が目標上にある間に、ユーザ102は、カーソルを目標へ移動させることを意図して、マウス104を移動202させる。コンピュータシステム108は、マウスの移動開始を検出すると、行き先の近くにカーソルを移動させるために注視検出を使用する(すなわち、マウスカーソルが、行き先の近くの場所または行き先まで「ジャンプ」する)。注視支援を利用してカーソルを移動させるときに、ユーザが注視支援運動を行うためにマウスをドラッグすることを必要とすることなく、カーソルが第1の場所から第2の場所まで移動することに留意されたい。注視検出は、カメラ214によって撮影される画像の画像解析に基づくが、他のタイプの注視検出も可能である。
システムは、マウスカーソルを、注視検出システムによって計算されるPOGである、位置206まで移動させ、システムは次いで、カーソルの最終的な行き先を見つけるために、単にマウスの移動だけに依存する。マウスカーソルの移動を完了するために必要とされることは、その行き先であるので、ユーザは、さらに現在マウスがどこにあるのかを知る必要はない。このように、ユーザは、カーソルが現在デスクトップの中のどこにあるのかを見つけるために、マウスカーソルを捜す必要はない。
一実施形態において、カーソルの移動速度は、可変的であり、よって、カーソルがPOGに接近するにつれて、カーソルの移動速度は低下する。このように、カーソルがPOGから遠く離れているときに、カーソルは速く移動するが、カーソルが行き先に接近し始めると、カーソルは減速し、マウスの感度が増加して、ユーザが行き先の近くでマウスカーソルをより繊細に制御することを可能にする。ユーザが求めていることは目標に速く到達することであり、行き先に到達するためにマウスが従う軌跡は重要ではないので、カーソルが目標から遠く離れている間、繊細な感度は必要とされない。
注視検出を使用することによって、システムは、必要なときに、すなわち、ユーザが関心の領域で操作しているときに、より高いレベルのマウス感度を提供することができる。他の加速方式は、ユーザがどのくらい速くマウスを移動させているかに基づくが、これらの方式は、しばしば、予期しない結果をもたらし、また、長い距離を通じてカーソルを速く移動させるために、感度と能力との間に平衡をもたらすように適切に調整することが難しい。別の実施形態において、マウスカーソルは、マグネット効果を提供し、よって、マウスカーソルは、ディスプレイ上のPOGに引き付けられる。
一実施形態において、マウスの運動は、注視検出およびPOG領域の中の表示オブジェクトのコンテキストによって支援される。このように、POGが、複数の画面オブジェクトから1つ以上の画面オブジェクトを含む領域の中に置かれる場合、カーソル位置は、推定されるPOGに最も近い複数から画面オブジェクトに変更される。例えば、ユーザの注視の目標領域が、ウィンドウズ(登録商標)デスクトップの左下のクイック起動アイコンの近くにあると思われる場合、カーソルの位置は、POGに最も近いクイック起動アイコンに変更される。
さらに別の実施形態において、注視検出は、1つのウィンドウの中のフィールド間のナビゲーションを支援するために使用される。ユーザがキーボードナビゲーションを使用している場合、ページカーソルは、キーボード入力およびPOGの組み合わせに基づいて移動し、よって、POGは、ナビゲーションを迅速化するために使用され、別の場合であれば注視支援を伴わずにより多くのキーストロークを費やすことになる。ページカーソルは、本明細書において、ワードプロセッサでタイプするときの挿入点、または複数の使用可能な入力フィールドを含むフォーム内のアクティブなフィールド等の、ページのフォーカスを示す、ページの中のポインタを指す。したがって、マウスカーソルは、マウスの移動に基づいて移動する、マウスと関連付けられるポインタであるので、ページカーソルは、マウスカーソルと異なる。例えば、複数の入力フィールドを伴い、また、ページ上の最上部フィールドに位置するページカーソルを伴うページにおいて、ユーザは、ページの最下部のフィールドまで移動させることを所望する。注視検出を伴わない、標準的なシーケンスは、ユーザが、タブキーまたは下向き矢印キーを複数回押して(または、当然、マウスを使用して)、全ての中間フィールドを通過して、最上部のフィールドから最下部のフィールドまで進行する。しかしながら、注視検出を有する場合、ユーザは、最下部フィールドに注目し、次いで、ユーザがタブキー(またはいくつかの他のキー)を押すと、ページカーソルが最下部フィールドまで即時にジャンプし、ユーザのキーストロークを節約し、またマウスを使用する必要はない。
いくつかのウィンドウズ(登録商標)に基づくGUIは、ウィンドウフォーカスの概念を有する。ある時点で、ユーザとの相互作用のために1つのウィンドウだけが選択され、すなわち、デスクトップが選択され、かついかなるウィンドウもフォーカスされていなければ、選択されたウィンドウが「フォーカス中」になる。さらに別の実施形態において、注視検出は、デスクトップの中のフォーカス中のウィンドウを変更するために使用される。ユーザがデスクトップのウィンドウに注目し、マウスを移動させ始めると、ユーザが注目しているウィンドウが、GUIのフォーカスを有するウィンドウになる。カーソルはまた、ウィンドウの中心、ウィンドウ上の最上部、最下部、POG等の、ウィンドウのいくつかの場所にも位置付けられる。
眼球の移動が不安定になる場合もあることから、あるときにはマウスカーソルが不安定に振る舞い、ユーザがマウスカーソルに追従することが困難になり、注視だけによってマウスカーソルを制御することが困難になり得る。加えて、あるときには、ユーザは何かを読みたいだけの場合もあり、POGに従ってカーソル移動させることが、気を散らせて、イライラさせることになる。こういった理由で、いくつかの実施形態は、ユーザがカーソルを移動させるという意図を示す必要があり、この意図は、マウスまたはキーを押すこと等の、注視を変更すること以外の物理的行動によって表される。
一実施形態では、注視検出が起動する前に、注視が1つの目標上にある最小時間量を必要とする、閾値タイマーが定義される。タイマーは、潜在する不安定な注視の変更のフィルタリングを可能にする。例えば、ユーザは、自分がマウスを移動させ始めるときに、注視検出が行われる前に、少なくとも1秒にわたって画面のウィンドウを見なければならない。
図2Bは、一実施形態による、ユーザをコンピュータシステムとインターフェースさせるための環境を示す。大型ディスプレイ252は、3つの隣接するパネルに分割される。ウィンドウ260は、コンピュータアプリケーションと関連付けられ、3つの異なるパネルを横断して展開する。コンピュータアプリケーションは、ウィンドウ260の異なる領域に位置することができる、画面オブジェクト(例えば、ツールボックス262a)を含む。一実施形態において、画面オブジェクト262aは、マウスカーソルが位置するディスプレイのパネルの中に、またはマルチディスプレイの場合、マウスカーソルが位置するディスプレイの中に位置する。
最初に、(位置204の)マウスカーソルおよびツールボックス262aは、ディスプレイ252の左パネルにある。ユーザ102は、注視210をPOG256に置き、マウス104を移動させ202始める。上で説明したように、システムが、マウスを移動させるという物理的行動によって表されるユーザの意図を検出すると、マウスカーソルは、POG256上にある、またはPOG256の近傍にある、位置258までジャンプする。マウスカーソルが左パネルまでジャンプしたので、マウスカーソルの現在位置と関連付けられる画面オブジェクトも左パネル上の位置262bまで移動する。したがって、ユーザは、注視支援カーソル運動、ならびに画面オブジェクトの注視支援運動から恩恵を受ける。
一実施形態において、システムは、注視支援カーソルナビゲーションを使用する前に、POG256がマウスカーソルの現在位置からの閾値距離の範囲内にあるかどうかを判定する。一実施形態において、閾値距離(例えば、100画面画素)は、POG256の周囲に円254を画定する。正方形、長方形、楕円、八角形、任意の正多角形等の、他のタイプのPOGの周囲の領域はまた、いつ注視支援を使用するのかを決定することもできる。カーソルの現在位置とPOGとの間の距離が閾値距離よりも大きい場合(または現在位置が、POGの周囲の画定領域の外側にある場合)、マウスカーソル運動は注視支援される。しかしながら、距離が閾値距離未満である(または現在のマウスカーソルが領域の内側にある)場合、ユーザは、近隣の行き先までマウスを容易に移動させることができるので、注視支援は使用されない。このように、注視支援は、より大きいカーソル移動のためにだけ使用され、ユーザが小さいカーソル移動を行っているときの混乱を回避する。
さらに別の実施形態において、注視支援が使用されているかどうかの判定に対するトリガーは、POGが現在のマウスカーソルと同じウィンドウにあるかどうかである。この場合、図2Bで表されるシナリオは、マウスが同じウィンドウ内を移動しているので、注視支援は起動されない。
図2Bの実施形態において、マウス運動の開始は、注視支援を起動させる、ユーザの物理的行動である。他の実施形態は、キーボードを押すこと、ボタンを押すこと、画面に触れること、話すこと、指をスナップすること、拍手すること等の、他のタイプのユーザの物理的行動をトリガーとして利用し得る。
一実施形態において、ユーザは、画面上のマウスカーソルを移動させることを意図することなく、マウスを移動させる。例えば、ユーザは、マウスを保持しながらウェブページを読んでいる場合があり、ユーザは、僅かな手の運動のため、マウスを数ミリメートル移動させ得る。一実施形態では、ランダムで僅かなマウスの運動をフィルタリングするために、注視支援を起動させる前のマウスに対する運動の閾値が設定される。したがって、注視支援は、マウスが少なくともマウスの閾値距離移動したときにだけ開始する。一実施形態において、閾値距離は、約0.5〜5センチメートルのマウスの運動であり、別の実施形態では、約0.5〜4センチメートルであり、別の実施形態では、1センチメートルを超えるが、インターフェース環境に基づいて、他の閾値も可能である。別の実施形態において、閾値距離は、画面上のマウスカーソルの運動に関して測定され得る。例えば、閾値は、画面上で少なくとも2、5、10、20、25画素、または20を超える画素のマウスカーソルの移動に設定され得るが、他の値も可能である。
さらに、初期位置204からPOG258の近くの位置までマウスカーソルを移動させることは、複数の方法で行うことができる。例えば、カーソルを、元の位置から消滅させて、行き先の位置に再び出現させる(すなわち、カーソルをジャンプさせる)ことができ、またはカーソルを、元の位置と行き先との間でデスクトップを通して迅速に移動させることができ、またはカーソルを、元の位置で短く点滅させ、次いで、行き先位置に再び出現させて点滅させてもよく、またはカーソルを、デスクトップを横断して迅速に移動させ、行き先に接近するにつれて減速させてもよく、またはカーソルを、元の位置と行き先との間の軌跡の中で、デスクトップ上の複数の地点で短時間出現させてもよい(すなわち、マウスの痕跡を残す)、等である。したがって、注視支援を使用してマウスカーソルが移動していることをユーザに示すための、多数の方法がある。
図3は、一実施形態による、POGとカーソルの現在位置との間の距離の推定を例示する図である。異なる方法は、POGと現在のカーソルとの間の距離を測定するために、異なる距離メトリックを使用し、該距離は、注視支援によるカーソルの移動が利用されているかどうかを判定するために使用される。
一実施形態において、距離は、画素で測定される。一般的に、ディスプレイは、画素について水平および垂直の解像度を有する。デスクトップ上でPOGの場所が推定されると、POGと対頂点の現在のカーソルとを含む、長方形の対角線の画素のサイズとして、距離312が算出される。POGおよびカーソルが水平または垂直に整列する場合、距離は、それぞれ、2つの点の間の水平または垂直の画素数に等しくなる。
別の実施形態において、距離は、POGとカーソルとの間の実際の物理的距離として測定される。POGは、ディスプレイ上の第1の点を画定し、カーソルは、ディスプレイ上の第2の点を画定する。距離は、第1の点と第2の点との間の距離(例えば、インチで測定される)として算出される。
さらに別の実施形態において、距離は、ユーザ102(例えば、眼球の間、鼻の先端部等)を頂点とする角度Ф308として測定され、第1の光線302は、該頂点からPOG256まで進み、第2の光線310は、該頂点からカーソルの現在位置204まで進む。したがって、角度Ф308がより広くなるほど、マウスは、POGに到達するまで、より多く進行しなければならない。注視起動のための閾値は、角度で定義される(例えば、角度Ф308が30°よりも大きいときに注視支援運動を使用するが、他の値も可能である)。別の実施形態において、注視支援は、角度Ф308およびユーザの奥行304に基づいて起動され、ここで、奥行は、ユーザからディスプレイの中のある場所までの距離である。例えば、ディスプレイからより遠くに位置するユーザは、ユーザがディスプレイにより近い場合よりも、同じ距離を進行するためにより小さい角度を画定することになるので、角度で測定される閾値は、ユーザがディスプレイからより遠く離れているときには小さくなり得る。
図4Aは、角膜反射を使用するPOG検出の実施形態を例示する図である。眼球追跡装置は、眼球の位置および眼球の移動を測定するためのデバイスである。眼球の移動および注視方向を測定するための、いくつかの方法がある。いくつかの方法は、そこから眼球位置が抽出されるビデオ画像を使用し、他の方法は、探りコイルを使用するか、電気眼球図に基づいているか、または注視検出に赤外光を使用する。注視検出を利用することによって、デバイスは、より直観的な相互作用、および改善された体験をユーザに提供することができる。
図4Aは、ユーザに向かって方向付けられる光の角膜反射が解析される、注視検出のための一実施形態を例示する。図4Aで示されるように、赤外光源404は、赤外光を放射し、ユーザ402の角膜からの赤外光の反射が、赤外線カメラ406によって撮像される。次いで、ユーザ402のPOGを決定するために、この反射が解析される。赤外光源404はまた、カメラ406内に組み込まれ得る。別の実施形態では、赤外光の代わりに可視スペクトルの光が使用され、また、可視光および赤外光の組み合わせも可能である。
POGを計算するために、空間の中の眼球の位置および方向を推定するよう、虹彩−強膜境界(縁)の透視投影が使用される。POG推定は、瞳孔および1つ以上の角膜反射の中心位置を決定する。角膜反射は、眼球を照らす光源(例えば、赤外線)の仮想画像であり、凸面鏡として作用する角膜の前面によって作成される。角膜反射を使用する注視検出に関するさらなる詳細は、E.GuestrinおよびM.Eizenmanによる「General theory of remote gaze estimation using the pupil center and corneal reflections」、IEEE Transactions on Biomedical Engineering,2006で見られ、参照により本明細書に組み込まれる。
図4Bは、一実施形態による、画像解析および顔追跡を使用するPOG検出のための方法を例示する図である。一実施形態において、注視検出は、眼球416および418、顔、鼻422、口腔420、胴体414等のユーザの特徴の検出および追跡を含む、ユーザ領域410のビデオ画像412の画像解析を利用して判定される。図4Bの実施形態では、頭部の3次元場所を推定し、眼球の回転中心位置を導き出すために、顔の特徴が追跡される。追跡する特徴が多くなるほど、より信頼性のある注視検出となる。例えば、ユーザが自分の頭部をカメラから背けた場合、1つの眼球だけしかカメラで確認できない。鼻および口腔の位置を理解することによって、このシステムは、眼球の検出に失敗したとみなすのではなく、ユーザが頭部を回したと判定する。ユーザの特徴の位置が判定されると、POGが算出される。頭部追跡および顔追跡は、注視検出の精度を向上させるために使用することができる。一般に、頭部は、眼球と異なり、不安定に移動することもないので、頭部追跡は、注視追跡よりも正確である。
ディスプレイに対するユーザの注視方向およびカメラの位置から、ディスプレイ上のどこでユーザの注視の焦点が合っているのかを決定することが可能である。カメラおよびディスプレイは、互いから離れて位置し得るので、ディスプレイの場所を決定するために、較正操作が行われ得る。ユーザは、ディスプレイに注目するように求められ、システムは、1つのディスプレイまたは複数のディスプレイの場所を推定する。別の実施形態において、較正操作は、ディスプレイの場所およびディスプレイ内のGUIオブジェクトの場所の推定をさらに向上させるために、ユーザを1つのディスプレイまたは複数のディスプレイの中の1つ以上の目標に注目させる。
一実施形態では、画像解析に基づく注視検出を使用するときに、デスクトップ上の一群の注視位置が収集される。人間の視覚系の不安定な性質のため、これらの位置は、特定の領域内のランダムな一連の点のように見え得る。中心焦点位置は、統計解析を利用してPOGを決定するアルゴリズムを使用することによって、一群の位置から導き出され得る。ある期間にわたって複数の画像において得られる焦点位置は、不安定な注視移動をフィルタリングするために平均される。
焦点位置は、「目標領域」の中心を画定する。目標領域のサイズも、一連の注視位置から、および以前の焦点位置から決定され得る。1つのアルゴリズムは、各注視位置から目標領域中心(焦点位置)までの距離を見出すことと、そのような距離の平均または合計のいずれかを使用して、目標領域の中心を画定するセントロイドを推定することとを含む。
注視焦点の目標領域を使用して、アプリケーションは、より効果的に目標に到達するために、カーソルを移動させる方法を変更する。これは、上で説明したように、目標領域からの距離に基づいてマウスカーソル移動の速度を変更すること、カーソルを目標フォーカス領域に引き付けること、またはカーソルの位置を目標位置までジャンプさせることを含む。
一実施形態において、追跡は、段階に分割され、頭部追跡によって定義される第1の段階と、注視検出によって定義される第2の段階とを伴う。頭部が移動しているときには、一般に注視追跡よりも頭部追跡の方が信頼性が高いので、目標領域を決定するために頭部追跡が使用される。頭部の運動が実質的に停止すると、目標領域の場所を微調整するために注視追跡が利用され、その後に、さらに微細な解像度を得て、カーソルをその行き先間で移動させるために、マウスの運動が続く。別の実施形態において、追跡の段階は、少なくとも、複数のディスプレイから1つのディスプレイを選択するために頭部追跡が使用される、第1の段階と、選択したディスプレイ内で目標を決定するために注視追跡が使用される、第2の段階とを含む。
図5は、一実施形態による、注視検出を使用してハンドヘルドデバイスで高速にスクロールするための方法を例示する。携帯型デバイス506は、注視検出を行うために使用される、フロントフェーシングカメラを含む。しかしながら、スタンドアロンディスプレイの領域と比較すると、表示領域が小さいので、注視検出単独でディスプレイの中の小さいオブジェクトを選択することは困難である。しかしながら、本発明の実施形態は、画面の中または画面の外側のPOGを検出することによって、携帯型デバイス506を使用しながらナビゲーションを迅速化するために、ナビゲーション支援を提供する。
ユーザ502は、コマンドまたはヒントをナビゲーション用のコンピュータプログラムに提供するために、携帯型デバイス506のディスプレイの外側の領域に注視504を方向付ける。例えば、ユーザ502が、長い文書を読んでいて、文書の一部分だけしか一度に表示されない状態である場合、ユーザは、ユーザがナビゲーションを迅速化したいことを示すために、別の入力(例えば、ボタンまたはタッチ画面)を使用しながら、画面の上、下、左、または右に注視を方向付ける。したがって、ユーザが、画面上の注視を保ちながら、タッチ画面を横断して指を下に摺動させた場合、プログラムは、表示を上にスクロールさせる。しかしながら、ユーザがディスプレイの上側に注視504を方向付けた場合、これは、ユーザが、文書の最上部に進みたいことを示すので、ユーザがディスプレイ上で指を摺動させ始めたときに、プログラムは、文書のいかなる部分が示されていても、文書の最上部にジャンプさせる。同様に、ユーザは、ディスプレイの下側を見て、ページの最下部へのジャンプを生じさせることができる。これは特に、電子メールの最下部に添付アイコンを示す、一部の電子メールクライアントに有用である。電子メールが長い場合、最下部のアイコンに辿り着くために、数多くの指のスクロールを要する。注視を使用することによって、最下部へのジャンプがあり、手間と時間の節約がもたらされる。
別の実施形態において、注視支援ナビゲーションは、スマートフォンまたはタブレットデバイスで本または雑誌を読むユーザに提供される。ユーザがページをめくりたいときに、ユーザは、画面の左側または右側の向こうを見て、次いで、画面をタップしてページめくりを生じさせる。さらに別の実施形態において、ユーザは、画面をタップすることと併せて、ディスプレイの左縁部または右縁部を見るだけで、ユーザに画面の外側を見ることを要求することなく、ページめくりを生じさせる。タブレットデバイスは、より大きいディスプレイを有し、注視検出は、ユーザが左を見ているのか、または右を見ているのかを判定するのに十分正確であり得る。例えば、角膜解析は、瞳孔が左を向いているのか、または右を向いているのかを示す。
図6は、一実施形態による、注視検出およびユーザ入力を使用する高速カーソル移動のための方法を例示する。一実施形態では、物理的行動と関連付けられる所定の入力が、補完的な入力としてコンピュータプログラムに注視を使用させる。例えば、ユーザ602は、タッチパッド612、ディスプレイ610、およびユーザフェーシングカメラを含む、ラップトップ604で作業している。タッチパッド上での2本指タップは、ユーザの注視に基づくマウスカーソルの移動を起動させる。
図6の実施形態において、マウスカーソルは、位置614にある。ユーザが、ユーザの注視608をPOG620に方向付けながら、タッチパッド612上で2本指タップを行うと、マウスカーソルは、POG620に近接するか、または正確にPOG620である、位置618にジャンプする。マウスカーソルは、この時点でウィンドウ616の内側にあるので、ウィンドウ616が選択される。
図6で示される実施形態は、例示的なものであることに留意されたい。他の実施形態は、注視支援ナビゲーションを起動させるために、異なる入力(例えば、マウスのダブルクリック、タッチパッドの2回連続タップ、キーボード上でキーを押す等)を利用可能であり、または他の実施形態は、異なる方法(例えば、ウィンドウを選択する、ブラウザのアクティブなタブを変更する、ウィンドウをスクロールする等)でナビゲーションを支援し得る。したがって、図6で例示される実施形態は、排他的または限定的であると解釈されるべきではなく、例示的または実例であると解釈されるべきである。
一実施形態において、GUIは、ユーザの注視が検出されたときに、ディスプレイ上にフィードバックを提供する。例えば、POGのほぼ中央にある領域がディスプレイの中で拡大される、GUI上のいくつかのウィンドウが透明になる、アイコンもしくはウィンドウが再配置される、またはポップアップメニューが表示される等である。
図7は、一実施形態による、注視支援ゲームインターフェースを示す図である。ユーザ702は、注視検出に使用されるカメラ706に接続される、ゲームコンソール704上で実行するゲームを行っている。ユーザ702がコントローラ708上のボタンを押すと、ゲームは、ボタンが押されたときのユーザの注視に応じて、異なる行動で応答する。図7の実施形態では、敵キャラクタ714との戦いに関わるユーザが、ゲームキャラクタ712を制御している。ゲームは、ユーザのPOGに応じて、異なって反応する。
ユーザのPOG716aがディスプレイの縁部またはディスプレイの外側にあるときに、コントローラ708上のXボタン710を押すと、ゲームに第1の行動(例えば、キャラクタ712が銃に再装弾する)を行わせる。ユーザのPOG716bがユーザ702によって制御されるキャラクタ712上にあるときに、Xボタン710を押すと、ゲームに第2の行動(例えば、ゲームキャラクタの健康値を増加させる)を行わせる。ユーザのPOG716cが敵のキャラクタ714上にあるときに、Xボタン710を押すと、ゲームに第3の行動(例えば、キャラクタ712がPOG716cの場所を撃つ)を行わせる。
図7で示される実施形態は、例示的なものであることに留意されたい。他の実施形態は、異なるボタン、異なるタイプの入力デバイスを利用でき、、またはゲームによって異なる反応(例えば、オブジェクトを選ぶ、ドアを開ける、キャラクタを移動させる等)を生じさせ得る。したがって、図7で例示される実施形態は、排他的または限定的であると解釈されるべきではなく、例示的または実例であると解釈されるべきである。
図8は、一実施形態による、ジェスチャーに対応するウィンドウズ(登録商標)グラフィカルユーザインターフェースを例示する。GUIは、ユーザのGUIとの相互作用を高めるために、入力として注視およびジェスチャーを使用する。ユーザが所定のジェスチャーを行うと、ユーザの注視と関連付けられる、またはそれによって選択されるオブジェクトに対して行動が行われる。
例えば、ユーザ814は、ディスプレイ802からディスプレイ806までウィンドウ810を移動させることを所望する。移動を行うために、ユーザは、ウィンドウ810に注目し、手818を上げ、そして、左から右に手818を移動させ816、ユーザ814が左から右にウィンドウ810を移動させることを所望することを示す。デスクトップが2つのディスプレイ上に表示されるので、左から右へのウィンドウの移動804は、ウィンドウ810をディスプレイ806の中の位置812にさせる結果となる。カメラ820からの画像は、注視検出に、およびジェスチャー検出に使用されるが、あらゆる注視検出方法またはジェスチャー検出方法を使用することもできる。この場合、ユーザの意図は、手でジェスチャーを行うという物理的行動で表される。
別の実施形態では、ディスプレイ上に描画され、注視によって選択されるオブジェクトを操作するために、ユーザのジェスチャーが使用される。例えば、ゲーミング環境において、ユーザは、ゲームの中のオブジェクト(例えば、武器、財宝、コイン、はしご等)に注目し、そしてユーザが手を移動させると、ゲームは、オブジェクトに対して関連する行動を行うことによって、手の運動に応答する。例えば、ユーザは、注視によって地面のコインを選択でき、次いで、ユーザがそのコインを拾うかのように手を移動させると、結果として、アバター、すなわちユーザによって制御されるゲームキャラクタがコインを拾う。
図9は、一実施形態による、注視検出、音声認識、および1つ以上のコンピュータ周辺機器を利用する、インターフェースを例示する。一実施形態では、ディスプレイの中の領域またはオブジェクトを選択するために注視が使用され、ユーザ入力がオブジェクトの選択を示し(例えば、マウスを移動させる、またはキーを押す)、そして、オブジェクトに対して行動を行うために音声認識が使用される。
例えば、ユーザ912は、ウィンドウズ(登録商標)環境で作業しており、デスクトップ上でフォルダアイコンとして描画されるフォルダ904を開くことを望んでいる。マウスは、フォルダ904から離れた、デスクトップの中の位置908に位置する。ユーザ912は、フォルダ904に注視を方向付けて、マウス916を移動させ914始める。マウスの運動が検出されると、システムは、ユーザの注視を確認し、POGが、フォルダアイコン904の近くに位置する、目標領域906であると判定する。システムは、次いで、フォルダ904上またはフォルダ904の近くにあるマウスカーソルを位置902まで移動またはジャンプさせる。カーソル位置がフォルダ上にない場合、ユーザは、フォルダ904の最上部にカーソルを位置付けるために、僅かなマウスの運動を行う。マウスがフォルダ904上にある時点で、ユーザは、音声認識プログラムによって検出されるコマンド(例えば、「開く」、「コピー」、「削除」、「移動」)を言う910。音声コマンドが検出されると、要求された操作が行われる(例えば、ウィンドウを開いて、フォルダ904の内容を表示する)。
図10は、本発明の実施形態を実現するためのコンピュータシステムの単純化された模式図である。本明細書で説明される方法は、従来の汎用コンピュータシステム等のデジタル処理システムで行われ得ることを認識されたい。1つの機能だけを行うように設計またはプログラムされた特殊用途コンピュータが代替的に使用され得る。コンピューティングデバイス1012は、メモリ1034に、永久記憶デバイス1058に、およびコンピューティングデバイス1012の内部の、またはそれに接続された他のモジュールに連結される、プロセッサ1032を含む。GUIコンピュータプログラム1036は、メモリ1034の中に存在するが、永久記憶デバイス1058の中にも存在し得る。
コンピューティングデバイス1012は、音声取り込みデバイス1008、画像取り込みデバイス1020、およびディスプレイ1026と通信する。一実施形態において、音声取り込みデバイス1008、画像取り込みデバイス1020、およびディスプレイ1026は、コンピューティングデバイス1012内に組み込み可能で、ビデオレコーダ等の1つ以上のデバイスに組み合わせられ得る。一実施形態において、音声取り込みデバイスはマイクロホンを含み、別の実施形態において、音声取り込みデバイスは、マイクロホンアレイを含む。
上述したように、注視目標1028は、ディスプレイ内に画定されるが、注視目標1028はまた、例えば、コンピューティングデバイス1012上、またはディスプレイ1028を囲む領域等の、ディスプレイの外側にも設定され得る。注視検出モジュール1024は、ユーザのPOGを決定し、ユーザ1002の注視1006が注視目標1028に向かって方向付けられているかどうかを判定する。音声側で、音声認識モジュール1016は、音声取り込みデバイス1008から受け取った音声1004を処理し、有効なユーザ音声コマンドが発行されたかどうかを判定するために、音声認識を行う。GUIコンピュータプログラム1036は、上で説明される本発明の実施形態を実現するために、注視検出1024、音声認識モジュール1016、および頭部追跡モジュール1038から入力を受け取る。
永久記憶デバイス1058は、ローカルまたはリモートであり得る、フロッピーディスク(登録商標)ドライブまたは固定ディスクドライブ等の永続的なデータ記憶デバイスを表す。ネットワークインターフェース1046は、他のデバイスとの通信を可能にする、ネットワーク接続性を提供する。プロセッサ1032は、汎用プロセッサ、特殊用途プロセッサ、特別にプログラムされた論理デバイスで具現化され得ることを認識されたい。入力/出力(I/O)インターフェース1042は、ディスプレイ1026、キーボード1052、マウス1050、音声取り込みデバイス1008、画像取り込みデバイス1020、スピーカー1054、ボタン、センサ、タッチ画面1056等の、異なる周辺機器との通信を提供する。ユニバーサルシリアルバス(USB)モジュール1044は、USBデバイスへの接続性を提供する。
ディスプレイ1026は、本明細書で説明されるユーザインターフェースを表示するように構成される。キーボード1052、マウス1050、および他の周辺機器は、プロセッサ1032に情報を通信するために、I/Oインターフェース1042に連結される。外部デバイスへの、およびそこからのデータは、I/Oインターフェース1042を通して通信され得ることを認識されたい。本発明はまた、有線または無線ネットワークを通してリンクされるリモート処理デバイスによってタスクが行われる、分散コンピューティング環境において実践することもできる。
図10で示される実施形態は、例示的なものであることに留意されたい。他の実施形態は、異なるモジュールを利用し得る、または1つのモジュールによって行われる複数の機能を有し得る等である。したがって、図10で例示される実施形態は、排他的または限定的であると解釈されるべきではなく、例示的または実例であると解釈されるべきである。
図11は、本発明の一実施形態に従って、ユーザをコンピューティングデバイスで実行するコンピュータプログラムとインターフェースさせるためのアルゴリズムを例示するフローチャートを示す。操作1102で、ユーザのPOGが識別され、操作1104で、ユーザがカーソルを移動させるための物理的行動を開始したかどうかを判定するための確認が行われる。ユーザが物理的行動を開始した場合、本方法は、操作1106に進み、ユーザが物理的行動を開始していなかった場合は、操作1102に戻る。
操作1106で、カーソルの現在位置とPOGとの間の距離が閾値距離よりも大きいかどうかを判定するための確認が行われる。距離が閾値距離よりも大きい場合、本方法は、操作1108に進み、そこでは、カーソルをPOGに近接した領域に移動させる。距離が閾値距離以下である場合、本方法は、操作1102へ戻る。
本発明の実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサに基づくまたはプログラム可能な家庭用電化製品、ミニコンピュータ、メインフレームコンピュータ等を含む、種々のコンピュータシステム構成で実践され得る。本発明はまた、ネットワークを通してリンクされるリモート処理デバイスによってタスクが行われる、分散コンピューティング環境において実践することもできる。
上記実施形態を考慮して、本発明は、コンピュータシステムに記憶されたデータを含む、種々のコンピュータにより実現される操作を利用することができることを理解されたい。こうした操作は、物理量の物理的操作を必要とする操作である。本発明の一部を形成する本明細書で説明される操作はいずれも、有用な機械操作である。本発明はまた、これらの操作を行うためのデバイスまたは装置にも関する。この装置は、特殊用途コンピュータ等の、必要とされる目的のために特別に構築され得る。特殊用途コンピュータと定義されるときに、該コンピュータはまた、特殊用途の一部ではない他の処理ルーチン、プログラム実行ルーチン、またはルーチンを行うこともできるが、それでも、特殊用途のための操作を行うことができる。あるいは、操作は、コンピュータメモリもしくはキャッシュに記憶される、またはネットワークを通じて取得される1つ以上のコンピュータプログラムによって選択的に起動または構成される、汎用コンピュータによって処理され得る。データがネットワークを通じて取得されるときに、データは、ネットワーク上の他のコンピュータ、例えばコンピューティングリソースのクラウドによって処理され得る。
本発明の1つ以上の実施形態はまた、コンピュータが読み出し可能な媒体上のコンピュータが読み出し可能なコードとして製造することもできる。コンピュータが読み出し可能な媒体は、データを記憶することができ、その後に、コンピュータシステムによって読み出すことができる、任意のデータ記憶デバイスである。コンピュータが読み出し可能な媒体の例としては、ハードドライブ、ネットワーク接続記憶装置(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープ、ならびに他の光学式データ記憶デバイスおよび非光学式データ記憶デバイスが挙げられる。コンピュータが読み出し可能な媒体は、コンピュータが読み出し可能なコードが分散方式で記憶され、実行されるように、ネットワークに連結されたコンピュータシステムを通じて分散される、コンピュータが読み出し可能な有形の媒体を含むことができる。
本方法の操作を特定の順序で説明したが、オーバーレイ操作が所望の方法で行われるのであれば、他の準備操作が操作の間に行われてもよく、または操作が僅かな時間差で行われるように操作を調整してもよく、または処理と関連付けられる種々の間隔で処理操作を発生させることを可能にするシステムに操作を分散させてもよいことを理解されたい。
上述の本発明は、理解を明確にする目的でいくらか詳細に記載されているが、添付の特許請求の範囲内で、特定の変更および修正を行うことができることが明らかになるであろう。故に、本実施形態は、限定的なものではなく例示的なものであるとみなされるべきであり、また本発明は、本明細書に与えられる詳細に限定されるものではなく、添付の特許請求の範囲およびその均等物の範囲内で変更され得るものである。

Claims (20)

  1. ユーザを、コンピューティングデバイスで実行するコンピュータプログラムとインターフェースさせるための方法であって、
    前記ユーザの注視点を識別し、
    ディスプレイ上のカーソルの位置を移動させるための前記ユーザによる物理的行動の開始を検出し、前記カーソルは、前記コンピュータプログラムと関連付けられるフォーカス領域を画定及び検出し、
    前記カーソルの現在位置と前記注視点との間の距離が閾値距離よりも大きいかどうかを判定し、
    前記判定および前記検出に応じて、前記カーソルを、前記現在位置から前記注視点に近接した領域まで移動させる、方法。
  2. 前記物理的行動は、マウスを移動、キーを押す、ボタンを押す、画面に触れる、タッチパッドに触れる、ジェスチャーを行う、または話す、のうちの1つである、請求項1に記載の方法。
  3. 前記距離の判定には、
    前記現在位置と前記注視点との間の画面画素で測定される距離の値の決定が更に含まれる、請求項1に記載の方法。
  4. 前記距離の判定には、
    前記現在位置および前記注視点がGUI(グラフィカルユーザインターフェース)の中の異なるウィンドウの中に位置しているかどうかの判定が更に含まれる、請求項1に記載の方法。
  5. 前記カーソルは、マウスカーソル、テキストカーソル、フィールド選択カーソル、またはページカーソルのうちの1つである、請求項1に記載の方法。
  6. 前記カーソルの移動には、
    前記現在位置から前記カーソルを削除して、前記カーソルを前記注視点上に配置することが更に含まれる、請求項1に記載の方法。
  7. 前記カーソルの移動にはさらに、
    前記カーソルを、前記注視点が位置するウィンドウ上に配置する、
    前記カーソルを、前記注視点が位置するディスプレイ上に配置する、
    前記カーソルを、前記注視点に近接したGUIオブジェクト上に配置する、または
    前記カーソルを、前記注視点に近接した入力フィールド上に配置する、のうちの1つ以上が含まれる、請求項1に記載の方法。
  8. 前記カーソルと前記注視点との間の前記距離に基づいて、前記カーソルを制御するマウスの感度を変更する、請求項1に記載の方法。
  9. 前記ユーザの頭部の位置を追跡する、請求項1に記載の方法。
  10. 即時的な注視支援ナビゲーションを起動させる、前記ユーザからの入力の検出と、
    前記入力の検出後に、前記カーソルを前記注視点まで移動させる、請求項1に記載の方法。
  11. グラフィカルユーザインターフェース(GUI)を伴うシステムであって、
    前記GUIは1つ以上のディスプレイに描画されるものであり、かつ、当該GUIを提供するコンピュータプログラムを実行するものであるプロセッサと、
    入力デバイス上で前記ユーザによって物理的行動が開始されるときに、前記1つ以上のディスプレイ上のカーソルの位置を移動させるように操作可能な、入力デバイスと、
    前記ユーザの注視点を識別するように操作可能な注視検出モジュールと、を備え、前記コンピュータプログラムは、前記カーソルの現在位置と前記注視点との間の距離が閾値距離よりも大きいかどうかを判定し、前記コンピュータプログラムは、前記距離の前記判定および前記物理的行動の検出に応じて、前記現在位置から前記注視点に近接した領域まで前記カーソルを移動させる、システム。
  12. 前記注視検出モジュールは、角膜反射の解析、またはカメラで撮影されるユーザ画像の解析のうちの1つを使用する、請求項11に記載のシステム。
  13. 前記注視検出モジュールは、前記ユーザの物理的特徴の1つ以上の場所を判定するために、複数のユーザ画像を解析する、請求項12に記載のシステム。
  14. 前記GUIは、前記注視点が前記GUIの中のオブジェクト上に配置されるときに、前記ユーザにヒントを提供する、請求項11に記載のシステム。
  15. 前記注視点に基づいて音声コマンドを実行するように操作可能な、音声認識モジュールをさらに含む、請求項11に記載のシステム。
  16. コンピュータによって実行されたときに、ユーザをコンピュータプログラムとインターフェースさせるための方法を実現するプログラム命令を有する、コンピュータが読み出し可能な記録媒体であって、
    ユーザの注視点を識別し、
    ディスプレイ上のカーソルの位置を移動させるための前記ユーザによる物理的行動の開始を検出し、前記カーソルは、前記コンピュータプログラムと関連付けられるフォーカス領域を画定するものであり、
    前記カーソルの現在位置と前記注視点との間の距離が閾値距離よりも大きいかどうかを判定し、
    前記判定および前記検出に応じて、前記カーソルを、前記現在位置から前記注視点に近接した領域まで移動させるコンピュータ読み出し可能な記録媒体。
  17. 前記方法ではさらに、
    前記GUIのウィンドウを移動させる、
    前記GUIのボタンを押す、
    前記GUIのウィンドウを開く、
    前記GUIのウィンドウを閉じる、
    前記GUIのメニューを開く、
    前記メニューからオプションを選択する、または、
    前記注視点が位置する前記ウィンドウ以外の前記GUIのウィンドウを隠す、のうちの1つ以上が実行される、請求項16に記載のコンピュータが読み出し可能な記録媒体。
  18. 前記コンピュータは、ゲームコンソールであり、前記コンピュータプログラムは、コンピュータゲームであり、前記コンピュータゲームは、前記ユーザがコントローラ上のボタンを押したときの前記コンピュータゲームの反応を決定し、前記反応は、前記注視点に基づく、請求項16に記載のコンピュータが読み出し可能な記録媒体。
  19. 前記方法ではさらに、
    前記ユーザが読んでいることを検出し、
    前記注視点がウィンドウの縁部の近くにあるときに、前記ウィンドウのコンテンツをス クロールする、請求項16に記載のコンピュータが読み出し可能な記録媒体。
  20. 前記方法はさらに、
    前記注視点が前記ディスプレイの外側にあると判定し、
    前記ユーザによる別の物理的行動の開始を検出し、
    前記注視点に基づいて、ウィンドウのコンテンツをスクロールする、請求項16に記載のコンピュータが読み出し可能な記録媒体。
JP2014506442A 2011-04-21 2012-04-06 注視支援コンピュータインターフェース Active JP5807989B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/092,115 2011-04-21
US13/092,115 US8793620B2 (en) 2011-04-21 2011-04-21 Gaze-assisted computer interface
PCT/US2012/032613 WO2012145180A1 (en) 2011-04-21 2012-04-06 Gaze-assisted computer interface

Publications (3)

Publication Number Publication Date
JP2014514661A true JP2014514661A (ja) 2014-06-19
JP2014514661A5 JP2014514661A5 (ja) 2015-05-21
JP5807989B2 JP5807989B2 (ja) 2015-11-10

Family

ID=45977063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014506442A Active JP5807989B2 (ja) 2011-04-21 2012-04-06 注視支援コンピュータインターフェース

Country Status (6)

Country Link
US (2) US8793620B2 (ja)
EP (1) EP2699993B1 (ja)
JP (1) JP5807989B2 (ja)
KR (1) KR101541881B1 (ja)
CN (1) CN103518172B (ja)
WO (1) WO2012145180A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021985A (ja) * 2012-07-18 2014-02-03 Samsung Electronics Co Ltd 複数のディスプレイ装置と接続された制御装置及びその制御方法、そしてディスプレイ装置制御システム
JP2014113209A (ja) * 2012-12-06 2014-06-26 Toshiba Corp X線診断装置及び制御プログラム
JP2016507112A (ja) * 2013-03-05 2016-03-07 インテル コーポレイション 複合的な知覚感知入力の対話
JP2016099959A (ja) * 2014-11-26 2016-05-30 公立大学法人広島市立大学 方向指示装置及び方向指示方法
JP2017078893A (ja) * 2015-10-19 2017-04-27 株式会社コロプラ 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム
JP2018010583A (ja) * 2016-07-15 2018-01-18 アイシン・エィ・ダブリュ株式会社 操作支援装置及びコンピュータプログラム
JP2018010584A (ja) * 2016-07-15 2018-01-18 アイシン・エィ・ダブリュ株式会社 操作支援装置及びコンピュータプログラム
JP2018041354A (ja) * 2016-09-09 2018-03-15 アイシン・エィ・ダブリュ株式会社 ポインタ制御システムおよびポインタ制御プログラム
JP2018061666A (ja) * 2016-10-12 2018-04-19 株式会社カプコン ゲームプログラム及びゲーム装置
JP2019215663A (ja) * 2018-06-12 2019-12-19 矢崎総業株式会社 車両用表示システム
JP2020204914A (ja) * 2019-06-17 2020-12-24 キヤノン株式会社 電子機器およびその制御方法
JP2022068749A (ja) * 2020-10-22 2022-05-10 キヤノン株式会社 電子機器及びその制御方法及びプログラム及び記録媒体

Families Citing this family (279)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US20120257035A1 (en) * 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
US8640047B2 (en) * 2011-06-01 2014-01-28 Micorsoft Corporation Asynchronous handling of a user interface manipulation
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US9829970B2 (en) * 2011-06-27 2017-11-28 International Business Machines Corporation System for switching displays based on the viewing direction of a user
US9318129B2 (en) * 2011-07-18 2016-04-19 At&T Intellectual Property I, Lp System and method for enhancing speech activity detection using facial feature detection
WO2013029162A1 (en) * 2011-08-31 2013-03-07 Smart Technologies Ulc Detecting pointing gestures iν a three-dimensional graphical user interface
US9612670B2 (en) * 2011-09-12 2017-04-04 Microsoft Technology Licensing, Llc Explicit touch selection and cursor placement
US9377852B1 (en) * 2013-08-29 2016-06-28 Rockwell Collins, Inc. Eye tracking as a method to improve the user interface
US9658687B2 (en) * 2011-09-30 2017-05-23 Microsoft Technology Licensing, Llc Visual focus-based control of coupled displays
US8976110B2 (en) 2011-10-27 2015-03-10 Tobii Technology Ab Power management in an eye-tracking system
JP5539945B2 (ja) * 2011-11-01 2014-07-02 株式会社コナミデジタルエンタテインメント ゲーム装置、及びプログラム
US9098069B2 (en) 2011-11-16 2015-08-04 Google Technology Holdings LLC Display device, corresponding systems, and methods for orienting output on a display
CN103988149A (zh) * 2011-12-14 2014-08-13 英特尔公司 注视激活的内容传输系统
US20130169532A1 (en) * 2011-12-29 2013-07-04 Grinbath, Llc System and Method of Moving a Cursor Based on Changes in Pupil Position
US8860660B2 (en) 2011-12-29 2014-10-14 Grinbath, Llc System and method of determining pupil center position
US9910490B2 (en) 2011-12-29 2018-03-06 Eyeguide, Inc. System and method of cursor position control based on the vestibulo-ocular reflex
US10540008B2 (en) * 2012-01-04 2020-01-21 Tobii Ab System for gaze interaction
US10394320B2 (en) * 2012-01-04 2019-08-27 Tobii Ab System for gaze interaction
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US10488919B2 (en) 2012-01-04 2019-11-26 Tobii Ab System for gaze interaction
US10025381B2 (en) * 2012-01-04 2018-07-17 Tobii Ab System for gaze interaction
KR101850034B1 (ko) * 2012-01-06 2018-04-20 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP5945417B2 (ja) * 2012-01-06 2016-07-05 京セラ株式会社 電子機器
KR101515629B1 (ko) 2012-01-07 2015-04-27 삼성전자주식회사 플렉서블 표시부를 갖는 휴대단말의 이벤트 제공 방법 및 장치
WO2013111388A1 (ja) * 2012-01-23 2013-08-01 三菱電機株式会社 情報表示装置
US8884928B1 (en) * 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
KR101922589B1 (ko) * 2012-02-15 2018-11-27 삼성전자주식회사 디스플레이장치 및 그 시선추적방법
US10379695B2 (en) * 2012-02-21 2019-08-13 Prysm, Inc. Locking interactive assets on large gesture-sensitive screen displays
US8947382B2 (en) * 2012-02-28 2015-02-03 Motorola Mobility Llc Wearable display device, corresponding systems, and method for presenting output on the same
US8988349B2 (en) 2012-02-28 2015-03-24 Google Technology Holdings LLC Methods and apparatuses for operating a display in an electronic device
US9035878B1 (en) * 2012-02-29 2015-05-19 Google Inc. Input system
KR101919010B1 (ko) * 2012-03-08 2018-11-16 삼성전자주식회사 안구 동작에 기초한 디바이스의 제어 방법 및 이를 위한 디바이스
JP5982956B2 (ja) * 2012-03-30 2016-08-31 富士通株式会社 情報処理装置、情報処理方法、および情報処理プログラム
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
KR101850035B1 (ko) * 2012-05-02 2018-04-20 엘지전자 주식회사 이동 단말기 및 그 제어방법
EP2847648A4 (en) * 2012-05-09 2016-03-02 Intel Corp EYE PERSONALIZED SELECTIVE STRESSING OF PARTS OF AN INDICATION
JP5783957B2 (ja) * 2012-06-22 2015-09-24 株式会社Nttドコモ 表示装置、表示方法及びプログラム
JP6131540B2 (ja) * 2012-07-13 2017-05-24 富士通株式会社 タブレット端末、操作受付方法および操作受付プログラム
GB2504492A (en) * 2012-07-30 2014-02-05 John Haddon Gaze detection and physical input for cursor symbol
DE102012215407A1 (de) * 2012-08-30 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen einer Eingabe für ein Bedienelement
US9292086B2 (en) 2012-09-26 2016-03-22 Grinbath, Llc Correlating pupil position to gaze location within a scene
US20140118268A1 (en) * 2012-11-01 2014-05-01 Google Inc. Touch screen operation using additional inputs
KR101984590B1 (ko) 2012-11-14 2019-05-31 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US9612656B2 (en) 2012-11-27 2017-04-04 Facebook, Inc. Systems and methods of eye tracking control on mobile device
WO2014089542A1 (en) 2012-12-06 2014-06-12 Eyefluence, Inc. Eye tracking wearable devices and methods for use
US9977492B2 (en) * 2012-12-06 2018-05-22 Microsoft Technology Licensing, Llc Mixed reality presentation
KR20140073730A (ko) * 2012-12-06 2014-06-17 엘지전자 주식회사 이동 단말기 및 이동 단말기 제어방법
TWI488070B (zh) * 2012-12-07 2015-06-11 Pixart Imaging Inc 電子裝置控制方法以及使用此電子裝置控制方法的電子裝置
WO2014115387A1 (ja) * 2013-01-28 2014-07-31 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR102080896B1 (ko) * 2013-01-29 2020-02-25 삼성디스플레이 주식회사 모바일 장치 및 이의 구동 방법
EP2956844B1 (en) 2013-02-14 2017-05-24 Facebook, Inc. Systems and methods of eye tracking calibration
US9864498B2 (en) 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
US20140247208A1 (en) * 2013-03-01 2014-09-04 Tobii Technology Ab Invoking and waking a computing device from stand-by mode based on gaze detection
US20140247232A1 (en) * 2013-03-01 2014-09-04 Tobii Technology Ab Two step gaze interaction
US9244527B2 (en) * 2013-03-26 2016-01-26 Volkswagen Ag System, components and methodologies for gaze dependent gesture input control
CN104071010B (zh) * 2013-03-29 2018-02-13 株式会社斯巴鲁 运输设备用显示装置
US20150277699A1 (en) * 2013-04-02 2015-10-01 Cherif Atia Algreatly Interaction method for optical head-mounted display
CN103207676B (zh) * 2013-04-09 2017-08-04 上海斐讯数据通信技术有限公司 计算机图像扫描控制系统及方法
CN103257707B (zh) * 2013-04-12 2016-01-20 中国科学院电子学研究所 利用视线跟踪技术和常规鼠标控制设备的三维漫游方法
KR20140126492A (ko) 2013-04-23 2014-10-31 엘지전자 주식회사 인덱스 디스플레이 영역을 포함하는 포터블 디바이스 및 그 제어 방법
KR101780138B1 (ko) * 2013-05-08 2017-09-19 후지쯔 가부시끼가이샤 입력 장치 및 기억 매체
US9117120B2 (en) 2013-05-24 2015-08-25 Honda Motor Co., Ltd. Field of vision capture
TWI509463B (zh) * 2013-06-03 2015-11-21 Utechzone Co Ltd 一種使螢幕中的游標移至可按物件的方法及用於實現該方法的電腦系統與電腦程式產品
GB201310376D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems
WO2014205422A2 (en) 2013-06-20 2014-12-24 Parshionikar Uday Systems, methods, apparatuses, computer readable medium for controlling electronic devices
JP5939581B2 (ja) 2013-07-08 2016-06-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 表示画面上に表示された移動対象であるオブジェクトを移動する方法、並びに、その電子装置及び電子装置プログラム
KR20150007910A (ko) * 2013-07-11 2015-01-21 삼성전자주식회사 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법
US10914951B2 (en) * 2013-08-19 2021-02-09 Qualcomm Incorporated Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking
US9261966B2 (en) * 2013-08-22 2016-02-16 Sony Corporation Close range natural user interface system and method of operation thereof
WO2015038138A1 (en) * 2013-09-13 2015-03-19 Intel Corporation Motion data based focus strength metric to facilitate image processing
US9940900B2 (en) * 2013-09-22 2018-04-10 Inuitive Ltd. Peripheral electronic device and method for using same
US9483112B2 (en) * 2013-09-26 2016-11-01 Vmware, Inc. Eye tracking in remote desktop client
JP5945969B2 (ja) 2013-09-27 2016-07-05 コニカミノルタ株式会社 操作表示装置、画像処理装置、およびそのプログラム、操作表示方法
WO2015050545A1 (en) * 2013-10-03 2015-04-09 Thomson Licensing Improved multi-screen management
KR101503159B1 (ko) * 2013-10-15 2015-03-16 (주)이스트소프트 시선의 위치를 감지하여 터치스크린을 제어하는 방법
US9876966B2 (en) 2013-10-18 2018-01-23 Pixart Imaging Inc. System and method for determining image variation tendency and controlling image resolution
TWI532377B (zh) * 2013-10-18 2016-05-01 原相科技股份有限公司 影像感測系統、影像感測方法以及眼球追蹤系統、眼球追蹤方法
WO2015057845A1 (en) * 2013-10-18 2015-04-23 Cornell University Eye tracking system and methods for developing content
CN104580943B (zh) * 2013-10-28 2019-10-18 原相科技股份有限公司 影像感测系统和方法以及眼球追踪系统和方法
EP3063602B1 (en) * 2013-11-01 2019-10-23 Intel Corporation Gaze-assisted touchscreen inputs
US20150135133A1 (en) * 2013-11-11 2015-05-14 Lenovo (Singapore) Pte. Ltd. Adjustable smooth scrolling
US10317995B2 (en) * 2013-11-18 2019-06-11 Tobii Ab Component determination and gaze provoked interaction
US10558262B2 (en) 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
DE102013226244A1 (de) * 2013-12-17 2015-06-18 Siemens Aktiengesellschaft Medizintechnische Steuerung
JP6260255B2 (ja) 2013-12-18 2018-01-17 株式会社デンソー 表示制御装置およびプログラム
US10180716B2 (en) * 2013-12-20 2019-01-15 Lenovo (Singapore) Pte Ltd Providing last known browsing location cue using movement-oriented biometric data
US9633252B2 (en) 2013-12-20 2017-04-25 Lenovo (Singapore) Pte. Ltd. Real-time detection of user intention based on kinematics analysis of movement-oriented biometric data
DE102013021814A1 (de) * 2013-12-20 2015-06-25 Audi Ag Bedienvorrichtung mit Eyetracker
US20150185831A1 (en) * 2013-12-26 2015-07-02 Dinu Petre Madau Switching between gaze tracking and head tracking
US9244539B2 (en) * 2014-01-07 2016-01-26 Microsoft Technology Licensing, Llc Target positioning with gaze tracking
US20160291692A1 (en) * 2014-01-08 2016-10-06 Sony Corporation Information processing system, information processing method, and program
US10372202B1 (en) * 2014-01-20 2019-08-06 Ca, Inc. Positioning a cursor on a display monitor based on a user's eye-gaze position
US9442631B1 (en) 2014-01-27 2016-09-13 Google Inc. Methods and systems for hands-free browsing in a wearable computing device
US9412363B2 (en) 2014-03-03 2016-08-09 Microsoft Technology Licensing, Llc Model based approach for on-screen item selection and disambiguation
JP6153487B2 (ja) * 2014-03-14 2017-06-28 株式会社Nttドコモ 端末及び制御方法
US9733788B2 (en) * 2014-03-17 2017-08-15 Microsoft Technology Licensing, Llc Multi-stage cursor control
KR102404559B1 (ko) * 2014-03-19 2022-06-02 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 눈 시선 추적을 사용하는 의료 디바이스, 시스템, 및 방법
US9804753B2 (en) 2014-03-20 2017-10-31 Microsoft Technology Licensing, Llc Selection using eye gaze evaluation over time
EP2924540B1 (de) * 2014-03-27 2019-04-24 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Verfahren und System zum Betreiben einer Anzeigevorrichtung
US9342147B2 (en) 2014-04-10 2016-05-17 Microsoft Technology Licensing, Llc Non-visual feedback of visual change
US9785233B2 (en) * 2014-04-11 2017-10-10 Facebook, Inc. Systems and methods of eye tracking calibration
US9703373B2 (en) 2014-04-23 2017-07-11 Google Inc. User interface control using gaze tracking
US20150310651A1 (en) * 2014-04-29 2015-10-29 Verizon Patent And Licensing Inc. Detecting a read line of text and displaying an indicator for a following line of text
CN107087431B (zh) 2014-05-09 2021-02-05 谷歌有限责任公司 用于辨别眼睛信号和连续生物识别的系统和方法
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US9727136B2 (en) 2014-05-19 2017-08-08 Microsoft Technology Licensing, Llc Gaze detection calibration
KR102135373B1 (ko) * 2014-05-30 2020-07-17 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US10133346B2 (en) * 2014-05-30 2018-11-20 Koç Üniversitesi Gaze based prediction device and method
US9583105B2 (en) * 2014-06-06 2017-02-28 Microsoft Technology Licensing, Llc Modification of visual content to facilitate improved speech recognition
US20220171530A1 (en) * 2014-06-11 2022-06-02 Lenovo (Singapore) Pte. Ltd. Displaying a user input modality
US9958947B2 (en) * 2014-06-25 2018-05-01 Comcast Cable Communications, Llc Ocular focus sharing for digital content
CN104049779A (zh) * 2014-06-25 2014-09-17 华东理工大学 在多个显示器之间实现鼠标指针快速切换
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
US9940757B2 (en) 2014-08-01 2018-04-10 Electronic Arts Inc. Modifying a simulated character by direct manipulation
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
CN104216521B (zh) * 2014-09-10 2017-11-28 苏州德品医疗科技股份有限公司 用于病房的眼动呼叫方法及系统
JP6038089B2 (ja) * 2014-09-22 2016-12-07 京セラドキュメントソリューションズ株式会社 文書閲覧装置、文書閲覧装置の制御方法
US10317992B2 (en) 2014-09-25 2019-06-11 Microsoft Technology Licensing, Llc Eye gaze for spoken language understanding in multi-modal conversational interactions
US9715781B2 (en) * 2014-09-26 2017-07-25 Bally Gaming, Inc. System and method for automatic eye tracking calibration
KR20160051411A (ko) 2014-11-03 2016-05-11 삼성전자주식회사 외부의 물체를 제어하는 전자 장치 및 그 방법
DE102014222752A1 (de) * 2014-11-07 2016-05-12 Bayerische Motoren Werke Aktiengesellschaft Bedienung über Kopfrichtung als Ersatz zur Blickrichtung
US10585485B1 (en) 2014-11-10 2020-03-10 Amazon Technologies, Inc. Controlling content zoom level based on user head movement
WO2016075532A1 (en) * 2014-11-14 2016-05-19 The Eye Tribe Aps Dynamic eye tracking calibration
KR102326489B1 (ko) * 2014-11-24 2021-11-16 삼성전자주식회사 디스플레이를 제어하는 전자 장치 및 방법
US10248192B2 (en) * 2014-12-03 2019-04-02 Microsoft Technology Licensing, Llc Gaze target application launcher
US10146303B2 (en) 2015-01-20 2018-12-04 Microsoft Technology Licensing, Llc Gaze-actuated user interface with visual feedback
JP6534011B2 (ja) 2015-02-10 2019-06-26 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6519075B2 (ja) * 2015-02-10 2019-05-29 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6603024B2 (ja) 2015-02-10 2019-11-06 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US20180239442A1 (en) * 2015-03-17 2018-08-23 Sony Corporation Information processing apparatus, information processing method, and program
WO2016147498A1 (ja) * 2015-03-17 2016-09-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
EP3274920A4 (en) * 2015-03-23 2018-11-07 ControlRAD Systems Inc. Eye tracking system
US9804733B2 (en) * 2015-04-21 2017-10-31 Dell Products L.P. Dynamic cursor focus in a multi-display information handling system environment
US11243640B2 (en) 2015-04-21 2022-02-08 Dell Products L.P. Information handling system modular capacitive mat with extension coupling devices
US9983717B2 (en) 2015-04-21 2018-05-29 Dell Products L.P. Disambiguation of false touch inputs at an information handling system projected user interface
US9921644B2 (en) 2015-04-21 2018-03-20 Dell Products L.P. Information handling system non-linear user interface
US11106314B2 (en) 2015-04-21 2021-08-31 Dell Products L.P. Continuous calibration of an information handling system projected user interface
US9690400B2 (en) 2015-04-21 2017-06-27 Dell Products L.P. Information handling system interactive totems
US10139854B2 (en) 2015-04-21 2018-11-27 Dell Products L.P. Dynamic display resolution management for an immersed information handling system environment
US20160313804A1 (en) * 2015-04-22 2016-10-27 Henge Docks Llc Method for Setting the Position of a Cursor on a Display Screen
DE102015210430A1 (de) * 2015-06-08 2016-12-08 Robert Bosch Gmbh Verfahren zum Erkennen eines Sprachkontexts für eine Sprachsteuerung, Verfahren zum Ermitteln eines Sprachsteuersignals für eine Sprachsteuerung und Vorrichtung zum Ausführen der Verfahren
US9898865B2 (en) 2015-06-22 2018-02-20 Microsoft Technology Licensing, Llc System and method for spawning drawing surfaces
US10452134B2 (en) * 2015-06-25 2019-10-22 Intel Corporation Automated peripheral device handoff based on eye tracking
EP3118722B1 (en) * 2015-07-14 2020-07-01 Nokia Technologies Oy Mediated reality
TWI570638B (zh) * 2015-07-29 2017-02-11 財團法人資訊工業策進會 凝視分析方法與裝置
KR20170025400A (ko) * 2015-08-28 2017-03-08 삼성전자주식회사 디스플레이장치 및 그 제어방법
CN105630324A (zh) * 2015-08-31 2016-06-01 宇龙计算机通信科技(深圳)有限公司 一种显示器之间的切换方法、装置及系统
US10186086B2 (en) * 2015-09-02 2019-01-22 Microsoft Technology Licensing, Llc Augmented reality control of computing device
US10037724B2 (en) * 2015-09-04 2018-07-31 Dell Products L.P. Information handling system selective color illumination
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
US9990113B2 (en) * 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
KR102121134B1 (ko) * 2015-09-24 2020-06-09 토비 에이비 눈 추적 가능한 웨어러블 디바이스들
US10565446B2 (en) 2015-09-24 2020-02-18 Tobii Ab Eye-tracking enabled wearable devices
WO2017051944A1 (ko) * 2015-09-24 2017-03-30 주식회사 뷰노코리아 의료 영상 판독 과정에서 사용자의 시선 정보를 이용한 판독 효율 증대 방법 및 그 장치
EP3156879A1 (en) * 2015-10-14 2017-04-19 Ecole Nationale de l'Aviation Civile Historical representation in gaze tracking interface
KR20180053402A (ko) * 2015-10-19 2018-05-21 오리랩 인크. 시선입력장치, 시선입력방법 및 시선입력 프로그램이 기록되어 있는 기록매체
US9886958B2 (en) 2015-12-11 2018-02-06 Microsoft Technology Licensing, Llc Language and domain independent model based approach for on-screen item selection
KR102534963B1 (ko) * 2016-02-23 2023-05-23 삼성전자주식회사 전자 장치 및 그 제어 방법
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10372205B2 (en) 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10169846B2 (en) 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
US10739851B2 (en) 2016-04-29 2020-08-11 Tobii Ab Eye-tracking enabled wearable devices
DE102016108885A1 (de) * 2016-05-13 2017-11-16 Visteon Global Technologies, Inc. Verfahren zum berührungslosen Verschieben von visuellen Informationen
US10055186B2 (en) 2016-06-01 2018-08-21 Dell Products, Lp Mitigation of image degradation in displays
JP6729069B2 (ja) * 2016-06-28 2020-07-22 富士ゼロックス株式会社 情報処理装置
JP6799063B2 (ja) * 2016-07-20 2020-12-09 富士フイルム株式会社 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム
US10678327B2 (en) * 2016-08-01 2020-06-09 Microsoft Technology Licensing, Llc Split control focus during a sustained user interaction
US10506221B2 (en) 2016-08-03 2019-12-10 Adobe Inc. Field of view rendering control of digital content
US20180046363A1 (en) * 2016-08-10 2018-02-15 Adobe Systems Incorporated Digital Content View Control
US11461820B2 (en) 2016-08-16 2022-10-04 Adobe Inc. Navigation and rewards involving physical goods and services
US10068378B2 (en) 2016-09-12 2018-09-04 Adobe Systems Incorporated Digital content interaction and navigation in virtual and augmented reality
US10430559B2 (en) 2016-10-18 2019-10-01 Adobe Inc. Digital rights management in virtual and augmented reality
CN106445461B (zh) * 2016-10-25 2022-02-15 北京小米移动软件有限公司 文字信息处理方法及装置
EP3316075B1 (en) * 2016-10-26 2021-04-07 Harman Becker Automotive Systems GmbH Combined eye and gesture tracking
US10139973B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system totem tracking management
US10139930B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system capacitive touch totem management
US10139951B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system variable capacitance totem input management
US10146366B2 (en) 2016-11-09 2018-12-04 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10496216B2 (en) 2016-11-09 2019-12-03 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US20180150204A1 (en) * 2016-11-30 2018-05-31 Google Inc. Switching of active objects in an augmented and/or virtual reality environment
US11099716B2 (en) 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
US10620910B2 (en) * 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US10437070B2 (en) 2016-12-23 2019-10-08 Realwear, Inc. Interchangeable optics for a head-mounted display
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
US10936872B2 (en) 2016-12-23 2021-03-02 Realwear, Inc. Hands-free contextually aware object interaction for wearable display
US10393312B2 (en) 2016-12-23 2019-08-27 Realwear, Inc. Articulating components for a head-mounted display
CN106681509A (zh) * 2016-12-29 2017-05-17 北京七鑫易维信息技术有限公司 界面操作的方法和系统
KR102324680B1 (ko) * 2017-03-13 2021-11-10 삼성전자주식회사 전원공급장치, 이를 구비한 디스플레이 장치 및 전원 공급 방법
US10627900B2 (en) * 2017-03-23 2020-04-21 Google Llc Eye-signal augmented control
US20200117286A1 (en) * 2017-04-07 2020-04-16 Hewlett-Packard Development Company, L.P. Cursor positioning adjustments
US11609692B2 (en) * 2017-04-07 2023-03-21 Hewlett-Packard Development Company, L.P. Cursor adjustments
DE102017113763B4 (de) * 2017-06-21 2022-03-17 SMR Patents S.à.r.l. Verfahren zum Betreiben einer Anzeigevorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug
KR102203720B1 (ko) * 2017-06-26 2021-01-15 에스케이텔레콤 주식회사 음성 인식 방법 및 장치
US10496162B2 (en) * 2017-07-26 2019-12-03 Microsoft Technology Licensing, Llc Controlling a computer using eyegaze and dwell
US10155166B1 (en) * 2017-09-08 2018-12-18 Sony Interactive Entertainment Inc. Spatially and user aware second screen projection from a companion robot or device
JP6755843B2 (ja) 2017-09-14 2020-09-16 株式会社東芝 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム
US10678116B1 (en) * 2017-11-09 2020-06-09 Facebook Technologies, Llc Active multi-color PBP elements
US10671238B2 (en) * 2017-11-17 2020-06-02 Adobe Inc. Position-dependent modification of descriptive content in a virtual reality environment
JP2019105678A (ja) * 2017-12-11 2019-06-27 京セラドキュメントソリューションズ株式会社 表示装置、及び画像表示方法
US10459528B2 (en) 2018-02-28 2019-10-29 Dell Products L.P. Information handling system enhanced gesture management, control and detection
US10831265B2 (en) 2018-04-20 2020-11-10 Microsoft Technology Licensing, Llc Systems and methods for gaze-informed target manipulation
JP6911809B2 (ja) * 2018-05-09 2021-07-28 日本電信電話株式会社 推定方法、推定プログラム及び推定装置
US10871874B2 (en) * 2018-05-09 2020-12-22 Mirametrix Inc. System and methods for device interaction using a pointing device and attention sensing device
KR20190130770A (ko) * 2018-05-15 2019-11-25 삼성전자주식회사 Vr/ar 콘텐트를 제공하는 전자 장치
US10942564B2 (en) 2018-05-17 2021-03-09 Sony Interactive Entertainment Inc. Dynamic graphics rendering based on predicted saccade landing point
US11262839B2 (en) 2018-05-17 2022-03-01 Sony Interactive Entertainment Inc. Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment
US20190361521A1 (en) * 2018-05-22 2019-11-28 Microsoft Technology Licensing, Llc Accelerated gaze-supported manual cursor control
CA3104375A1 (en) * 2018-05-30 2019-12-05 Clearvoxel Imaging Inc. System, method and/or computer readable medium for enhanced presentation and/or interpretation of images with visual feedback
US11684305B2 (en) 2018-06-02 2023-06-27 Seyedhesam Sadeghian-Motahar Electrode array configuration on a flexible substrate for electro-oculogram recording
WO2019238209A1 (en) * 2018-06-11 2019-12-19 Brainlab Ag Gesture control of medical displays
US10795502B2 (en) 2018-06-28 2020-10-06 Dell Products L.P. Information handling system touch device with adaptive haptic response
US10761618B2 (en) 2018-06-28 2020-09-01 Dell Products L.P. Information handling system touch device with automatically orienting visual display
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation
US10852853B2 (en) 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region
US10635199B2 (en) 2018-06-28 2020-04-28 Dell Products L.P. Information handling system dynamic friction touch device for touchscreen interactions
US10817077B2 (en) 2018-06-28 2020-10-27 Dell Products, L.P. Information handling system touch device context aware input tracking
US20200064912A1 (en) * 2018-08-22 2020-02-27 Ford Global Technologies, Llc Eye gaze tracking of a vehicle passenger
US10776073B2 (en) 2018-10-08 2020-09-15 Nuance Communications, Inc. System and method for managing a mute button setting for a conference call
US11010013B2 (en) 2018-10-29 2021-05-18 International Business Machines Corporation Providing visual control guidance on a display
TWI726252B (zh) * 2018-10-31 2021-05-01 宏碁股份有限公司 多螢幕操作方法與使用此方法的電子系統
CN111176425A (zh) * 2018-11-12 2020-05-19 宏碁股份有限公司 多屏幕操作方法与使用此方法的电子系统
US10901570B2 (en) * 2018-11-26 2021-01-26 International Business Machines Corporation Input placement control guidance on a display
US11353952B2 (en) 2018-11-26 2022-06-07 Tobii Ab Controlling illuminators for optimal glints
CN109683705A (zh) * 2018-11-30 2019-04-26 北京七鑫易维信息技术有限公司 眼球注视控制交互控件的方法、装置和系统
CN111309142A (zh) 2018-12-11 2020-06-19 托比股份公司 用于切换显示设备的输入模态的方法和设备
US11188148B2 (en) * 2018-12-27 2021-11-30 Facebook Technologies, Llc User interaction in head-mounted display with eye tracking
BE1026977B1 (nl) * 2019-01-20 2020-08-24 Inventrans Bvba Werkwijze en inrichting en systeem voor het verschaffen van dubbele muis ondersteuning
JP7263857B2 (ja) * 2019-03-14 2023-04-25 オムロン株式会社 文字入力装置、文字入力方法、及び、文字入力プログラム
CN113544626A (zh) * 2019-03-15 2021-10-22 索尼集团公司 信息处理装置、信息处理方法和计算机可读记录介质
US11256342B2 (en) 2019-04-03 2022-02-22 Facebook Technologies, Llc Multimodal kinematic template matching and regression modeling for ray pointing prediction in virtual reality
KR102198867B1 (ko) * 2019-04-25 2021-01-05 주식회사 비주얼캠프 사용자 입력 방법 및 이를 수행하기 위한 사용자 인터페이스 장치
US10969863B2 (en) * 2019-05-08 2021-04-06 International Business Machines Corporation Configurable sensor array for a multi-target environment
EP3742308A1 (en) * 2019-05-21 2020-11-25 Siemens Healthcare GmbH Computer-implemented method for providing cross-linking between cloud-based webapplications
US10871875B2 (en) * 2019-05-24 2020-12-22 Dell Products, L.P. Cursor identification on an IHS display
US11106279B2 (en) * 2019-06-21 2021-08-31 Verb Surgical Inc. Eye tracking calibration for a surgical robotic system
CN110300225A (zh) * 2019-06-28 2019-10-01 联想(北京)有限公司 一种信息处理方法及电子设备
US11114060B2 (en) * 2019-08-08 2021-09-07 Adlink Technology Inc. Cursor image detection comparison and feedback status determination method
US11106929B2 (en) 2019-08-29 2021-08-31 Sony Interactive Entertainment Inc. Foveated optimization of TV streaming and rendering content assisted by personal devices
KR20210048725A (ko) 2019-10-24 2021-05-04 삼성전자주식회사 카메라 제어를 위한 방법 및 이를 위한 전자 장치
JP7383471B2 (ja) * 2019-12-20 2023-11-20 キヤノン株式会社 電子機器およびその制御方法
US11232366B2 (en) * 2019-12-23 2022-01-25 Dell Products L.P. System and method for managing information handling systems
KR20210101027A (ko) 2020-02-07 2021-08-18 삼성전자주식회사 전자 장치 및 그 동작 방법
KR102417257B1 (ko) * 2020-04-03 2022-07-06 주식회사 포시에스 시선 추적 및 음성 인식 기반의 전자문서 작성 장치 및 방법
KR20210136623A (ko) * 2020-05-08 2021-11-17 한국전자통신연구원 시선 추적 장치 및 방법
RU2738070C1 (ru) * 2020-05-13 2020-12-07 Общество С Ограниченной Ответственностью «Тотал Вижен» (Ооо "Тотал Вижен") Устройство определения координат линии взора наблюдателя в режиме реального времени
CN111601129B (zh) * 2020-06-05 2022-04-01 北京字节跳动网络技术有限公司 控制方法、装置、终端及存储介质
GB2596541B (en) * 2020-06-30 2023-09-13 Sony Interactive Entertainment Inc Video processing
CN111782098A (zh) * 2020-07-02 2020-10-16 三星电子(中国)研发中心 一种页面导航方法、装置和智能设备
US11599239B2 (en) 2020-09-15 2023-03-07 Apple Inc. Devices, methods, and graphical user interfaces for providing computer-generated experiences
CN112148142B (zh) * 2020-10-06 2021-12-10 东莞美泰电子有限公司 一种分时控制多台电脑的鼠标及控制方法
US11644902B2 (en) * 2020-11-30 2023-05-09 Google Llc Gesture-based content transfer
KR20220081136A (ko) * 2020-12-08 2022-06-15 삼성전자주식회사 복수의 센서를 이용한 전자 장치의 제어 방법 및 그 전자 장치
US11630639B2 (en) 2020-12-08 2023-04-18 Samsung Electronics Co., Ltd. Control method of electronic device using a plurality of sensors and electronic device thereof
EP4288856A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd Extended reality for productivity
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
JP2024507749A (ja) 2021-02-08 2024-02-21 サイトフル コンピューターズ リミテッド エクステンデッドリアリティにおけるコンテンツ共有
WO2022207821A1 (en) * 2021-03-31 2022-10-06 Legind Von Bergen Holding Aps A method for integrated gaze interaction with a virtual environment, a data processing system, and computer program
CN113391746B (zh) * 2021-06-17 2023-05-09 Vidaa(荷兰)国际控股有限公司 一种显示设备及多窗口焦点控制方法
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US20230069764A1 (en) * 2021-08-24 2023-03-02 Meta Platforms Technologies, Llc Systems and methods for using natural gaze dynamics to detect input recognition errors
US20230085330A1 (en) * 2021-09-15 2023-03-16 Neural Lab, Inc. Touchless image-based input interface
WO2023049876A1 (en) * 2021-09-25 2023-03-30 Apple Inc. Methods for interacting with an electronic device
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US20230266817A1 (en) * 2022-02-23 2023-08-24 International Business Machines Corporation Gaze based text manipulation
WO2023172272A1 (en) * 2022-03-11 2023-09-14 Hewlett-Packard Development Company, L.P. Display devices focus indicators
DE102022110291B3 (de) 2022-04-27 2023-11-02 Universität Stuttgart, Körperschaft Des Öffentlichen Rechts Computerimplementiertes Verfahren und System zur freihändigen Auswahl eines Bedienelements auf einem Bildschirm
US20240036794A1 (en) * 2022-07-26 2024-02-01 Lenovo (Singapore) Pte. Ltd. Movement of cursor between displays based on motion vectors
US11836328B1 (en) 2022-10-18 2023-12-05 Dean Olliphant System to translate a cursor between multiple displays

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
JP2006059147A (ja) * 2004-08-20 2006-03-02 Kiyomi Nakamura コンピュータ入力方法と装置
GB2440348A (en) * 2006-06-30 2008-01-30 Motorola Inc Positioning a cursor on a computer device user interface in response to images of an operator

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK0718823T3 (da) 1994-12-23 2001-01-29 Siemens Ag Fremgangsmåde til konvertering af ved brug af tale indlæste informationer til maskinlæsbare data
GB9606791D0 (en) * 1996-03-29 1996-06-05 British Telecomm Control interface
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6282553B1 (en) 1998-11-04 2001-08-28 International Business Machines Corporation Gaze-based secure keypad entry system
JP2003256128A (ja) * 2002-02-27 2003-09-10 Akio Nakamura パソコンモニター画面上で視線先の視点位置に眼の位置を検出してカーソルを自動的に表示させる一連のコンピューターシステム
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
JP3755499B2 (ja) * 2002-09-06 2006-03-15 ソニー株式会社 Guiアプリケーション開発支援装置、gui表示装置、および方法、並びにコンピュータ・プログラム
US6859144B2 (en) 2003-02-05 2005-02-22 Delphi Technologies, Inc. Vehicle situation alert system with eye gaze controlled alert signal generation
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
US9652032B2 (en) * 2004-03-02 2017-05-16 Brian T. Mitchell Simulated training environments based upon fixated objects in specified regions
CN1740951A (zh) * 2004-08-25 2006-03-01 西门子公司 用于利用人眼进行设备控制的装置
US7396129B2 (en) 2004-11-22 2008-07-08 Carestream Health, Inc. Diagnostic system having gaze tracking
US7747965B2 (en) * 2005-01-18 2010-06-29 Microsoft Corporation System and method for controlling the opacity of multiple windows while browsing
DE102005003535A1 (de) 2005-01-25 2006-08-03 Daimlerchrysler Ag Optische und akustische Informationsausgabe
US20060192775A1 (en) * 2005-02-25 2006-08-31 Microsoft Corporation Using detected visual cues to change computer system operating states
US7721225B2 (en) * 2005-05-03 2010-05-18 Novell, Inc. System and method for creating and presenting modal dialog boxes in server-side component web applications
US7598941B2 (en) * 2005-07-01 2009-10-06 Microsoft Corporation Pointer for a large display
SE529156C2 (sv) * 2005-10-28 2007-05-15 Tobii Technology Ab Ögonföljare med visuell återkoppling
US7429108B2 (en) * 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
SE529599C2 (sv) * 2006-02-01 2007-10-02 Tobii Technology Ab Alstring av grafisk returinformation i ett datorsystem
US8381127B2 (en) * 2006-02-02 2013-02-19 Scenera Technologies, Llc Methods, systems, and computer program products for displaying windows on a graphical user interface based on relative priorities associated with the windows
US20090146953A1 (en) * 2006-10-30 2009-06-11 Imu Solutions, Inc. Methods for processing data from accelerometer in anticipating real-time cursor control movements
US8225229B2 (en) 2006-11-09 2012-07-17 Sony Mobile Communications Ab Adjusting display brightness and/or refresh rates based on eye tracking
US10437459B2 (en) * 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
WO2009019760A1 (ja) * 2007-08-07 2009-02-12 Osaka Electro-Communication University 動体検出装置、動体検出方法、ポインティングデバイス、コンピュータプログラム及び記憶媒体
TWI396117B (zh) * 2007-10-30 2013-05-11 Imu Solutions Inc 用於控制游標移動的加速度計資料處理方法及游標控制裝置
ITFI20080049A1 (it) * 2008-03-12 2009-09-13 Sr Labs Srl Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore.
JP2010004118A (ja) 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
WO2010015962A1 (en) * 2008-08-07 2010-02-11 Koninklijke Philips Electronics N. V. Method of and system for determining a head-motion/gaze relationship for a user, and an interactive display system
US8700332B2 (en) 2008-11-10 2014-04-15 Volkswagen Ag Operating device for a motor vehicle
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US8581838B2 (en) 2008-12-19 2013-11-12 Samsung Electronics Co., Ltd. Eye gaze control during avatar-based communication
JP5695819B2 (ja) * 2009-03-30 2015-04-08 日立マクセル株式会社 テレビ操作方法
WO2010118292A1 (en) * 2009-04-09 2010-10-14 Dynavox Systems, Llc Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US20110320978A1 (en) * 2010-06-29 2011-12-29 Horodezky Samuel J Method and apparatus for touchscreen gesture recognition overlay
US20120029302A1 (en) * 2010-07-29 2012-02-02 Shih-Chung Hsu Apparatus and method for dynamic detection of electrophysiological signals for stillness feedback
US20120188148A1 (en) * 2011-01-24 2012-07-26 Microvision, Inc. Head Mounted Meta-Display System
US8497838B2 (en) * 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
JP2006059147A (ja) * 2004-08-20 2006-03-02 Kiyomi Nakamura コンピュータ入力方法と装置
GB2440348A (en) * 2006-06-30 2008-01-30 Motorola Inc Positioning a cursor on a computer device user interface in response to images of an operator

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021985A (ja) * 2012-07-18 2014-02-03 Samsung Electronics Co Ltd 複数のディスプレイ装置と接続された制御装置及びその制御方法、そしてディスプレイ装置制御システム
JP2014113209A (ja) * 2012-12-06 2014-06-26 Toshiba Corp X線診断装置及び制御プログラム
JP2016507112A (ja) * 2013-03-05 2016-03-07 インテル コーポレイション 複合的な知覚感知入力の対話
JP2016099959A (ja) * 2014-11-26 2016-05-30 公立大学法人広島市立大学 方向指示装置及び方向指示方法
JP2017078893A (ja) * 2015-10-19 2017-04-27 株式会社コロプラ 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム
JP2018010584A (ja) * 2016-07-15 2018-01-18 アイシン・エィ・ダブリュ株式会社 操作支援装置及びコンピュータプログラム
JP2018010583A (ja) * 2016-07-15 2018-01-18 アイシン・エィ・ダブリュ株式会社 操作支援装置及びコンピュータプログラム
JP2018041354A (ja) * 2016-09-09 2018-03-15 アイシン・エィ・ダブリュ株式会社 ポインタ制御システムおよびポインタ制御プログラム
JP2018061666A (ja) * 2016-10-12 2018-04-19 株式会社カプコン ゲームプログラム及びゲーム装置
JP2019215663A (ja) * 2018-06-12 2019-12-19 矢崎総業株式会社 車両用表示システム
JP2020204914A (ja) * 2019-06-17 2020-12-24 キヤノン株式会社 電子機器およびその制御方法
JP7321786B2 (ja) 2019-06-17 2023-08-07 キヤノン株式会社 電子機器およびその制御方法
JP2022068749A (ja) * 2020-10-22 2022-05-10 キヤノン株式会社 電子機器及びその制御方法及びプログラム及び記録媒体
US11659267B2 (en) 2020-10-22 2023-05-23 Canon Kabushiki Kaisha Electronic device, control method thereof, and recording medium
JP7346375B2 (ja) 2020-10-22 2023-09-19 キヤノン株式会社 電子機器及びその制御方法及びプログラム及び記録媒体

Also Published As

Publication number Publication date
US9971401B2 (en) 2018-05-15
KR101541881B1 (ko) 2015-08-04
US20140333535A1 (en) 2014-11-13
KR20140035358A (ko) 2014-03-21
WO2012145180A1 (en) 2012-10-26
EP2699993A1 (en) 2014-02-26
JP5807989B2 (ja) 2015-11-10
CN103518172B (zh) 2016-04-20
US20120272179A1 (en) 2012-10-25
EP2699993B1 (en) 2019-03-06
CN103518172A (zh) 2014-01-15
US8793620B2 (en) 2014-07-29

Similar Documents

Publication Publication Date Title
JP5807989B2 (ja) 注視支援コンピュータインターフェース
US11954265B2 (en) Enhanced input using recognized gestures
US11853477B2 (en) Zonal gaze driven interaction
US10254844B2 (en) Systems, methods, apparatuses, computer readable medium for controlling electronic devices
US8514251B2 (en) Enhanced character input using recognized gestures
KR101919009B1 (ko) 안구 동작에 의한 제어 방법 및 이를 위한 디바이스
EP3088997A1 (en) Delay warp gaze interaction
WO2020146121A1 (en) Hand motion and orientation-aware buttons and grabbable objects in mixed reality
KR102326489B1 (ko) 디스플레이를 제어하는 전자 장치 및 방법
TWI564780B (zh) 觸控螢幕姿態技術
US10222866B2 (en) Information processing method and electronic device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150401

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150401

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150903

R150 Certificate of patent or registration of utility model

Ref document number: 5807989

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250