JP6308940B2 - 視線追跡シーン参照位置を識別するシステム及び方法 - Google Patents

視線追跡シーン参照位置を識別するシステム及び方法 Download PDF

Info

Publication number
JP6308940B2
JP6308940B2 JP2014512905A JP2014512905A JP6308940B2 JP 6308940 B2 JP6308940 B2 JP 6308940B2 JP 2014512905 A JP2014512905 A JP 2014512905A JP 2014512905 A JP2014512905 A JP 2014512905A JP 6308940 B2 JP6308940 B2 JP 6308940B2
Authority
JP
Japan
Prior art keywords
scene
wearer
scene camera
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014512905A
Other languages
English (en)
Other versions
JP2014520314A (ja
JP2014520314A5 (ja
Inventor
パブリカヴァー,ネルソン,ジー.
シー. トーチ,ウィリアム
シー. トーチ,ウィリアム
アマヤ,ゴラムレザ
ルブラン,デービット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2014520314A publication Critical patent/JP2014520314A/ja
Publication of JP2014520314A5 publication Critical patent/JP2014520314A5/ja
Application granted granted Critical
Publication of JP6308940B2 publication Critical patent/JP6308940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Description

本発明は、視線追跡及び他の用途のために装置装着者の環境内の参照位置を邪魔にならずに識別する装置、システム、及び方法に関する。
本明細書での装置、システム、及び方法は、観測者によって見られている位置及び物体を追跡するのにマシンビジョン技術を使用する。視線追跡アルゴリズムは、正確な追跡結果をもたらすために、2つの連続したデータストリーム、すなわち、1)目のピボット角度及び視野方向を計算するために瞳の縁又は目の内側の他の識別可能な参照点を検出する視標追跡方法、及び2)我々の三次元世界での頭部の位置及び姿勢を突き止めるためにヘッドトラッキング方法を必要とするものとして考えることができる。
一般に、ヘッドトラッキングは、頭部に(頭部自体とは反対に)取り付けられた剛性の物体の位置を識別することに関係することがある。この場合、頭部に取り付けられる帽子類又はメガネ類は、既知の幾何学的形状、及び計算できうる頭部又は頭部上の参照点に対する変位を有する。より具体的には、正確な視線追跡のために、ヘッドトラッキング装置は、観測者の一方又は両方の眼球のピボット点からの既知の変位を有するべきである。さらに、ほとんどの用途のために、視線追跡位置は、ディスプレイモニタ、モバイルコンピューティング装置、スイッチ、光源、ウィンドウなどの角部のような装置装着者の環境内の参照位置又は参照物体に対して判定される。
マシンビジョンに関係する用途は、益々一般化してきつつある。ある程度は、これはエレクトロニクス及びソフトウェア開発産業での技術的進歩と、カメラ、情報処理ユニット、及び他の電子部品の費用の減少の結果として生じた。特に視線追跡は、多数の診断用途、ヒューマンパフォーマンス用途、及び制御用途に益々用いられている。ほんのいくつかの例は、個人の疲労度を監視すること、ドライバ又はパイロットの意識を評価すること、薬剤又はアルコールの影響を評価すること、心的外傷後ストレス障害を診断すること、年齢に伴うヒューマンパフォーマンスを追跡すること、トレーニング又はエクササイズの効果を判定すること、眼の滞留時間を測定することで広告及びウェブページデザインの効果を評価すること、観測下の特定の物体又はイメージ(言葉を含む)の輝度を高める又は変化させること、ゲームの種々の態様を制御すること、神経疾患又は認知障害を評価するために基礎的な臨床データを収集すること、目の変性状態を診断し及び監視すること、及び首から下の可動性が限られた又は首から下が不随の人が1つ又は複数の目及び眼瞼を使ってコンピュータカーソルを制御することで意思疎通できるようにすることを含む。視線追跡を使用する産業部門及び産業は、軍事、医療、セキュリティ、ヒューマンパフォーマンス、スポーツ医療、リハビリテーション工学、警察、研究所、及び玩具を含む。
ほとんどすべての場合、視線追跡精度の増加は、ほとんどの用途での性能及び利便性の増加につながる。例えば、精度が増加すると、より小さい物体又は物体の構成部品上の凝視時間を定量化するのに眼の滞留時間をより精度よく測定することができる。視線追跡は、移動電話及びハンドヘルドディスプレイを含むより小さい画面を使用するポータブル装置と共により効果的に採用することができる。視線追跡が画面内の多数の仮想物体又はアイコンからの選択に関係するカーソルを制御するのに用いられるときに、より小さい仮想物体又はアイコンを用いることができるため、より多くの選択可能な物体を同時に表示することができる。選択プロセスの各レベル内の物体の数の増加は、仮想物体及び関連するアクションが選ばれる効率に対する劇的な効果(すなわち、選択レベルの数の減少及び/又は時間の減少)を有する。同様に、観測下の物体及び言葉の輝度レベルの増大又は増加は、視覚障害者の認識速度及び読取速度を著しく増加させることができる。
多くの視線追跡システムは、目からかなりの距離(例えば、10センチメートル(10cm)を越える)に配置されるカメラ及び目照明器(eye illuminators)を用いる。目から離れる距離が増加するのに伴い、視標追跡装置は一般にあまり目障りではなくなるが、カメラによってより高い空間分解能が必要とされるため及び広範囲にわたる頭部の動きが目を追跡する能力の完全な喪失につながることがあるため、目の位置を正確に測定するのが益々難しくなっていく。多くの視線追跡システムはまた、目の表面上にグリント又は輝点を生じさせるために、頭部から或る距離に配置される、輝(可視又は不可視)「点」光源を用いる。これらのグリントは、目の表面上のグリントの位置から環境(すなわち、光源)における既知の位置への参照ベクトルを生成するのに用いることができる。ここで再び、頭部の広範囲にわたる動きは、グリントを追跡する能力及び/又はグリントを特定の光源と関連付ける能力の喪失につながることがある。
今日のマイクロエレクトロニクス及び微小光学系の出現により、視線追跡用の構成部品を、米国特許第6,163,281号、第6,542,081号、第7,488,294号、又は第7,515,054号で開示された装置を含むメガネ類(例えば、眼鏡類のフレーム)又は帽子類(例えば、ヘルメット、マスク、ゴーグル、バーチャルリアリティディスプレイ)上に邪魔にならずに設置することが可能である。眼鏡類又は帽子類内で高精度の微小光学系を用いることで、目及び近くの領域内の構造体及び反射、並びに装置装着者によって見られるシーンをよりはっきりと解像することが可能である。低電力の小型カメラ及びエレクトロニクスの使用は、随意的に、頭部に設置されたシステムをバッテリ電源の使用を通じて繋がれなくてもよくする。さらに、無線電気通信における近年の進歩は、視線追跡結果がリアルタイムで他のコンピューティング装置、データストレージ装置、又は制御装置に伝送されることを可能にする。多くの分野でのこれらの技術的進歩の結果として、メガネ類又は帽子類に基づく視線追跡システムは、邪魔にならず、軽量で、持ち運び可能で、且つ使用に便利なものとすることができる。
視線追跡は、観測者によって見られている位置及び/又は物体を実質的に連続的に識別することに関係する。正確な視線追跡は、我々の3次元世界内の識別された参照位置に対する視標追跡及びヘッドトラッキングの組合せから得られる。本明細書での装置、システム、及び方法は、装着者の環境における自然発生の又は意図的に置かれる参照位置を識別するために、眼鏡類又は帽子類上に設置される邪魔にならないシーンカメラを使用する。
より具体的には、本明細書での装置、システム、及び方法は、視線追跡及び他の用途のために装置装着者の環境内の参照位置を邪魔にならずに識別するのを容易にする可能性がある。一実施形態では、シーン参照位置を判定するシステム及び方法は、人の頭部上に装着されるように構成された装置と、装置に接続され、装着者の環境のイメージを取り込むように位置決めされるシーンカメラと、シーンカメライメージ内のシーン参照位置を判定するためにシーンカメラに作動的に接続されるシーンプロセッサと、装置に接続され、装着者の目のうちの少なくとも1つの視標追跡位置を取り込むように位置決めされる視標追跡カメラと、装着者によって見られている位置を判定するのにシーン参照位置及び視標追跡位置を用いるプロセッサと、を含んでいてもよい。
シーン内の参照位置は、物体の形状、サイズ、又は色を含む物体の1つ又は複数の特徴を用いて識別されてもよい。一次元及び二次元バーコード、QR(すなわち、クイックレスポンス)コード、マトリクス(すなわち二次元)コードなど上で見られる幾何学的形状のような種々の幾何学的形状間の空間関係もまた位置識別及び方向付けのために用いられてもよい。着色された紙又はプラスチック片、顔料(例えば、塗料又はインク)着色スポット、ディスプレイ画面内の着色された(又は白黒)領域、光源、及び/又は反射面のような参照位置を画定する物体が、装着者の環境内に意図的に位置づけられてもよい。代替的に、参照位置は、ディスプレイ画面の角部、移動電話又はリーダ(例えば、iPad(登録商標)又はKindle(登録商標)装置)の角部、より大きい物体の中心位置、ディスプレイモニタ上の色のアイコン又はパッチ、ボタン、物体上のマーキング、着色されたパターンの縁などのような装着者の不変の環境から物体認識技術を用いて抽出されてもよい。参照位置は、可視光又は不可視光によって識別されてもよい。それらは、角部、空隙、点、又は縁のような物体全体又は物体のサブセットの位置に基づいていてもよい。参照位置からの光は、周辺光、眼鏡類又は帽子類から投射される光、参照位置自体によって生成される光、及び/又は他の光源からの光を使用してもよい。両方の一般的手法の組み合わせ(すなわち、自然発生の物体と意図的に置かれる物体との両方を認識すること)も可能である。
上記の背景に照らして、本明細書での装置、システム、及び方法は、種々の用途のための改善された視線追跡方法及びシステムを提供する可能性がある。
例示的な実施形態では、方法は、眼鏡類又は帽子類を装着している個人に対して外方に見る、眼鏡類又は帽子類に取り付けられる「シーンカメラ」の使用に関係する。シーンカメラは、シーンカメライメージ内の複数の参照位置を識別するようにプログラムされたプロセッサにイメージを伝送する。随意的に、プロセッサは、参照位置を識別するために「テンプレート」(すなわち、既知の物体のイメージ、参照位置の構成など)のデータベースに結合されてもよく、これと通信してもよく、又はこれに他の方法でアクセスしてもよい。
一実施形態によれば、既知の幾何学的形状及び色をもつ物体又は物体の構成部品を識別するためにイメージ認識技術を用いて参照位置を識別するシステム及び方法が提供される。この方法を用いる通常の構成は、コンピュータディスプレイモニタ又はモバイルコンピューティング/電話装置又は他の電子物体の4つの角部を識別することである。これは、バックグラウンドシーンに対して装置フレームの縁を、ディスプレイのフレームに対してディスプレイ画面(すなわち、LCDベースの装置又は物体の場合のバックライト領域)の縁、又はこの両方を認識することによって行われてもよい。角部及び/又は縁は、色、テクスチャ、鋭い幾何学的形状に対する丸みのある幾何学的形状、他の識別可能な構成部品に対するサイズ、マーキングなどに基づいて識別されてもよい。
別の実施形態によれば、識別可能な物体又は表面が既知の位置でシーンに追加されている参照位置をもたらすシステム及び方法が提供される。例えば、システム及び方法は、色及び/又は形状に基づいて識別される場合がある物体に(例えば、接着剤、ねじ、クリップ、又は他のファスナなどを用いて)便利に取り付けられる紙又はプラスチック片を用いてもよい。同様に、識別可能な色又は形状をもつ参照位置を生成するために、物体にインク、塗料、又は他の顔料着色物質が塗布されてもよい。塗布された参照面の色及び/又は形状は、可視又は不可視のいずれかの場合がある反射光、蛍光、燐光、又は発光の測定に基づいていてもよい。
さらに別の実施形態によれば、(例えば、接着剤、ファスナなどを用いて)あらゆる表面に取り付けられる場合がある反射パッチ(例えば、塗料、布、プラスチック、紙などから構成される)を用いて輝く参照点をもたらすシステム及び方法が提供される。これらの反射面は、プリズム又は平面反射鏡面に基づいていてもよい。それらは、周辺光及び/又は他の光源によって、眼鏡類又は帽子類上に配置される1つ又は複数の光源を用いて照らされてもよい。光源の一例は、眼鏡類又は帽子類上のシーンカメラに隣接して又は離れて配置される単一の又は複数の発光ダイオード(LED)である。光源は、装着者及び/又は他者の正常な活動への干渉を避けるために、可視又は不可視の電磁放射波長、例えば、赤外線又は可視スペクトル外の他の光を用いてもよい。この構成では、照明のタイミングは、眼鏡類又は帽子類によって制御されてもよく、眼鏡類又は帽子類の外部から電力を与える照明源は必要とされない場合がある。
またさらに別の実施形態によれば、眼鏡類又は帽子類によって照らされる輝く参照位置を提供するだけでなく、参照点から眼球上に反射した光によって参照グリントも生じるシステム及び方法が提供される。照明のタイミングをビデオ画像収集のタイミングに対して制御することで、反射性参照点の照明及びグリントを伴って又は伴わずにイメージを収集することが可能である。照明がオンにされたイメージを照明がオフにされたイメージから差し引くことは、シーンカメラによって収集されるイメージ内の参照点の位置並びに視標追跡カメラ(単数又は複数)によって集められるイメージ内の対応するグリントの位置を含む反射源の位置の分離能力に役立つ可能性がある。
コントローラは、カメラ(単数又は複数)を用いて光源のそれぞれの反射された参照位置における輝度をサンプリングし、且つカメライメージ内の所望の輝度レベルを提供するためにサンプリングされた輝度に基づいて光源(単数又は複数)を変調するように構成されるカメラ(単数又は複数)及び/又は光源に結合されてもよい。
シーンカメラに作動的に結合される処理ユニットは、例えば、シーンの特徴を監視し及び/又はさらに解析するために装置装着者の環境のイメージを収集してもよい。シーン処理ユニット及び視標追跡処理ユニットは、1つ又は複数の別個のプロセッサであってもよく、又は単一のプロセッサであってもよく、及び/又は、装置装着者への環境の照明の強度を調整するために照明コントローラを含んでいてもよい。
一実施形態では、照明コントローラは、シーンカメライメージのそれぞれの領域における所望の輝度レベルを提供するために、光源への電流及び/又は電圧のうちの少なくとも1つを振幅変調するように構成されてもよい。加えて又は代替的に、コントローラは、所望の輝度レベルを提供するために光源への電流及び/又は電圧をパルス幅変調するように構成されてもよい。
これらの例のいずれかでは、照明、参照位置追跡、視標追跡、及び視線追跡は、実質的に連続的に又は間欠的に作動されてもよい。例えば、シーン光源は、シーンカメラが動作しないときに非アクティブにされてもよい。これは、カメライメージを収集する間の時間を含む。プロセッサ、カメラ、及び照明はまた、例えば電力を節約するために、使用されないときに非アクティブにされてもよい。照明源及び他のエレクトロニクスはまた、装置装着者の安全性を高めるために電力が低下され又はオフにされてもよい。
例示的な実施形態では、システムは、眼鏡類又は帽子類のフレーム、装置装着者の周りの環境を見る方に方向付けられるシーンカメラ、装着者の1つの目に方向付けられる少なくとも1つのカメラ、装着者の少なくとも1つの目の方に向けられる1つ又は複数の照明源、及び1つ又は複数のプロセッサ、例えば、シーンカメライメージ内の参照位置を識別するためにシーンカメラに結合されるシーン処理ユニット、及び視標追跡のための処理ユニットを含む。システムはまた、例えば、反射性参照位置が用いられるときにシーン照明を提供するために、装着者から離れる方に向けられるフレーム上の1つ又は複数の光源を含む。参照位置を判定するために処理ユニット(単数又は複数)内でマシンビジョン技術が用いられる。シーン処理ユニット及び視標追跡処理ユニット内で識別される参照位置は、次いで、視線追跡計算に用いられてもよい。
本発明の他の態様及び特徴は、付属の図面と併せてとられる以下の説明の考慮事項からさらに明らかとなるであろう。
図面は、本発明の例示的な実施形態を図示する。
図1は、参照位置追跡及び視標追跡のために眼鏡類のフレーム上に設置されるシステムの一例の斜視図である。 図2は、シーンカメラと視標追跡カメラとの間の空間関係と、処理ユニット、シーンカメラ、視標追跡カメラ、及び他の構成部品の間の接続を示す、図1のシステムの部分切取側面図である。 図3は、モバイルコンピューティング/電話装置を含む不変のシーン内の物体認識を用いて参照位置を検出する例示的な方法を示す図である。 図4は、ディスプレイモニタの4つの角部上に参照物体、例えば、4つの識別可能な着色された丸い紙片を提供することを含む、参照位置を検出する別の例示的な方法を示す図である。 図5は、「仮想」の識別可能な参照物体、例えば、ディスプレイモニタの4つの角部に表示される4つの着色された領域を提供することを含む、参照位置を検出するさらに別の例示的な方法を示す図である。 図6は、シーンカメラによって参照位置として検出されてもよい反射面と、視標追跡カメラによって検出されてもよい目の表面上のグリントとを示す照明経路の例を示す図である。
図面に移ると、図1は、シーンカメラ12、2つの視標追跡カメラ13a、13b、及び処理ユニット14を伴う眼鏡類のフレーム11を含むシステム10の例示的な実施形態を示す。シーンカメラ12は、装置装着者の環境内の1つ又は複数の参照位置16a、16bを追跡するために、フレーム11上で装置装着者の頭部15から離れた領域を見る方に向けられる。視標追跡カメラ13a及び13bは、装着者の瞳、グリント、及び/又は装着者の一方又は両方の目の上の他の参照点の位置を追跡するために、フレーム11上で頭部15の方に向けられる。
この実施形態では、例えば、シーンカメラ12並びに視標追跡カメラ13a、13bからイメージを収集するために、フレーム11によって単一の処理ユニット14が支持されてもよいが、フレーム11上に又はフレーム11と通信する遠隔位置(図示せず)に別個のプロセッサ(図示せず)が設けられてもよいことが理解されるであろう。電源(例えば、バッテリ)17は、処理ユニット14を含むのとは反対側のフレーム11によって支持されてもよい、例えば、フレーム11のステムの中に入れられてもよい。シーン照明光源18a、18bは、随意的にシーンカメラ12の近く又はシーンカメラ12からより遠隔に配置されてもよい。
例示的な実施形態では、シーンカメラ12は、イメージを取り込み、イメージを表わすビデオ信号を生成するために、例えば、長方形又は他のピクセルアレイを有する活性領域を含むCCD又はCMOS又は他の検出器を含んでいてもよい。カメラ12の活性領域は、任意の所望の形状、例えば、四角形又は長方形の形状などを有していてもよい。加えて、カメラ12は、所望の場合に、例えば、活性領域上にイメージを合焦する、不要の強度及び/又は波長の光をフィルタするなどのために、1つ又は複数のフィルタ、レンズなど(例えば、図6に図示される場合のフィルタ67及び/又はレンズ66)を含んでいてもよい。
図1に図示される実施形態では、シーンカメラ12は、フレーム11のノーズブリッジ25(図2)上に邪魔にならずに配置され、これにより、装着者の正常な視野との干渉を最小にする。シーンカメラ(単数又は複数)の他の位置はまた、フレーム11の外縁の近くを含むことが可能である。代替的に、帽子類の場合、1つ又は複数のシーンカメラが、例えば、頭頂(図示せず)に配置されてもよい。例えば、環境の異なる領域からの光をシーンカメラ(単数又は複数)の方に向けるために、反射性及び/又は屈折性光学部品が組み込まれていてもよい。
加えて又は代替的に、例えば別個の又は重なる視野を提供する、互いから間隔をおいて配置され及び/又は複数の参照位置16a、16bの方に向けられる、複数のシーンカメラ19a、19bが設けられてもよい。複数のシーンカメラ16a、16bは、例えばシーンカメラ12に加えて又はこの代わりに、より高い分解能、異なる照明条件下での増加した感応度、及び/又はより広い視野を提供してもよい。複数のシーンカメラを用いることの別の可能性のある利点は、例えば、色が異なる又は異なる波長の電磁放射を用いて優先的に照らされる参照源を分離するために、各カメラに異なる光学フィルタ(例えば、図6のフィルタ67参照)を使用できることである。
2つのシーンカメラが用いられる場合、それらは、例えば、フレーム11の外側角部のそれぞれの近く(例えば、図1の19a及び19bとして示される位置の近く)に又はヘッドギア(図示せず)の横側に便利に配置されてもよい。参照位置及び対応するシーンカメラの向きは、装着者の正常な視野内であってもよく、若しくは頭部の傍又は後ろ向きを含むこの範囲外であってもよい。視野(単数又は複数)は、随意的に、反射面及び屈折レンズによるサイズ及び/又は位置に制御されてもよい。
図2は、切取図を示し、図1に図示されるシステム10の後ろ側を示す。眼鏡類のフレーム11内に設置されるシーンカメラ12と視標追跡カメラ13bとの間のX、Y、及びZ方向の固定の空間変位が、この斜視図から分かる可能性がある。図2はまた、参照位置追跡及び視標追跡のための単一の処理ユニット14がフレーム11のステム内に組み込まれてもよい位置の例を示す。この例示的な実施形態では、処理ユニット14はフィールド・プログラマブル・ゲート・アレイ(FPGA)である。
処理ユニット14は、1つ又は複数のコントローラ又はプロセッサ、例えば、システム10の種々の構成部品を動作させるための1つ又は複数のハードウェア構成部品及び/又はソフトウェアモジュールを含んでいてもよい。例えば、処理ユニット14は、光源又はカメラを制御するため、カメラ12、13bから信号を受信する及び/又は処理するなどのために、別個の(図示せず)又は一体のコントローラを含んでいてもよい。随意的に、処理ユニット14の構成部品のうちの1つ又は複数は、耳支持部24上、フレーム11のレンズ支持部、ノーズブリッジ25、及び/又は本明細書のどこかで識別される引用文献に記載の実施形態と同様の眼鏡類又は帽子類内の他の位置上で支持されてもよい。図1及び図2に示される例示的な実施形態では、参照位置追跡機能と視標追跡機能との両方のためのイメージ収集及び処理のために単一の処理ユニット14が用いられる。
ケーブル(単数又は複数)26は、カメラ12、13b、バッテリ17(図1)、光源18a、18b(図1)、及び/又はフレーム11上の他の構成部品に、及び/又は処理ユニット14に結合される個々のケーブル又はワイヤの組を含んでいてもよい。例えば、個々のケーブル又はワイヤの組(図示せず)は、例えば、所望に応じてフレーム11の全体プロフィールを減らすために及び/又は眼鏡類又は帽子類内のあらゆるヒンジ付き領域又は角部27の周りに信号を誘導するために、例えば、カメラ12、13bなどからリムに沿ってケーブル26内に取り込まれるまでフレーム11の中に組み込まれていてもよい。
処理ユニット14はまた、カメラ(単数又は複数)12、13bからのイメージ信号を格納するためのメモリ(図示せず)、イメージ信号を編集する及び/又は処理するためのフィルタ、測定計算のための要素(同じく図示せず)などを含む。随意的に、フレーム11及び/又は処理ユニット14は、データを伝送する、命令を受信するなどのために1つ又は複数の送信器及び/又はレシーバ(図示せず)を含んでいてもよい。加えて又は代替的に、少なくともいくつかの処理は、本明細書のどこかで識別される引用文献で開示された実施形態と同様のフレーム11から遠隔の構成部品及び/又は搭載処理ユニット14によって行われてもよい。例えば、データ収集システムは、例えば、同じ室内で、近くの監視ステーションで、又はより遠隔の位置で、処理ユニット14及び/又はフレーム11から1つ又は複数の遠隔位置に1つ又は複数のレシーバ、プロセッサ、及び/又はディスプレイ(図示せず)を含んでいてもよい。こうしたディスプレイは、シーンカメラ(単数又は複数)12及び/又は視標追跡カメラ(単数又は複数)13b、並びに視線追跡測定及び関係する計算によって生成されるビューを含んでいてもよい。
図3は、「不変のシーン」(すなわち、装着者/観測者又は観測に関わる他の誰かによって参照位置を確立する目的で意図的に変更されないシーン)内の既知の幾何学的形状及び/又は色をもつ物体を突き止めるのに物体識別に関係するマシンビジョン技術が用いられる、参照位置追跡の例である。この例では、シーンカメラ31を用いて、従来の移動電話又はハンドヘルドコンピューティング装置30のサイズ、姿勢、及び/又は位置が追跡されてもよい。イメージは、例えば、シーンカメラ(単数又は複数)31(図示せず)によって支持され又は他の方法でこれに結合されてもよい1つ又は複数のレンズ33を用いて、シーンカメラ31(図1及び図2に示されるシーンカメラ12に類似している場合がある)上に焦点が合わされてもよい。
シーンカメラ31によって収集されるイメージ内で、処理ユニット(図示せず)は、モバイルコンピューティング装置のための物体テンプレートと形状及び色が類似した物体に関するシーンカメラ31からのイメージの視野32を走査してもよい。例えば、処理ユニットは、既知のテンプレートのデータベース、例えば、既知の物体をそれらの形状及び/又は色を識別するデータと関連付けるテーブルを含んでいてもよく、又は他の方法でこれにアクセスしてもよい。データベースは、既知の物体の垂直参照点36及び水平参照点37、特定の物理的物体とマッピングされる参照物体上の詳細な色及び/又は形状情報などを含んでいてもよく、これにより、直面した物体を識別するのに十分な情報を処理ユニットに提供する。適切な属性をもつ物体が見つかる場合、シーンカメラ31からのイメージ内の装置の境界を画定するために(この矩形セル電話の例では)四角形34が用いられてもよい。モバイルコンピューティング装置30内の参照点に対するシーンカメラ31の位置の姿勢を計算するために、四角形34の側部の寸法が用いられてもよい。シーンカメラ31からのイメージ内の四角形34の全体サイズが、シーンカメラ31(すなわち、眼鏡類又は帽子類11に取り付けられる)とモバイルコンピューティング装置30内の参照点との間の距離の計算に用いられてもよい。
参照物体内の参照位置の例は、モバイルコンピューティング装置30の4つの角部35a、35b、35c、35dに対応する四角形34の4つの角部を含む。参照物体の垂直方向36の及び水平方向37の実世界寸法は、シーンカメラ処理ユニットでは既知であり、シーンカメライメージでなされる測定と共に、シーンカメラ31からのイメージ内の測定された距離を実世界の寸法に変換するのに用いられてもよい。
図4は、参照物体が装着者の環境内に意図的に置かれる、参照位置追跡の例である。シーンカメライメージ内の既知の幾何学的形状及び/又は色をもつこれらの物体を突き止めるために、物体識別に関係するマシンビジョン技術が用いられる。この場合、既知のサイズ(単数又は複数)及び色(単数又は複数)の4つのディスク45a、45b、45c、45dが、例えば、接着剤で結合することによってディスプレイモニタ40の4つの角部に取り付けられている。代替的に、モニタ40又は他の装置は、所望の位置で装置に恒久的に取り付けられる又は他の方法で組み込まれる参照物体を含んでいてもよい。
所望の場合に、例えば2又は3、又は4つよりも多い(図示せず)任意の数の参照物体が装着者の環境に追加されてもよい。参照物体は、任意のサイズ、形状、又は色であってもよい。参照物体はすべて、実質的に同じサイズ、形状、及び/又は色であってもよく、又は1つ又は複数の参照物体は、サイズ、形状、及び/又は色が異なっていてもよい。後者の例では、サイズ、形状、又は色の差異は、例えば、モバイルコンピューティング装置30の各角部を一意に識別するために、参照位置及び関連する物体の正確な姿勢を明白に判定するのに有用な場合がある。
図4をさらに参照すると、イメージは、例えば、レンズ43を用いてシーンカメラ41(シーンカメラ12に類似している場合がある)上に焦点が合わされてもよい。シーンカメラ41によって収集されるイメージを採用して、処理ユニット(図示せず)は、例えば、本明細書のどこかに記載のテンプレートのデータベースにアクセスする、意図的に置かれる参照物体に関する物体識別テンプレートと形状及び/又は色が類似した物体に関するシーンカメラ41の視野42を走査してもよい。適切な属性をもつ物体が見つかるときに、参照物体45a、45b、45c、45dの角部又は縁間の距離が、垂直方向46及び水平方向47に測定されてもよい。これらの距離は、次いで、シーン内の参照点45a、45b、45c、45dに対するシーンカメラ31の位置の姿勢を計算するのに用いられてもよい。参照物体45a、45b、45c、45dの4つの角部によって画定される四角形の全体サイズはまた、シーンカメラ41とシーン内の位置との間の距離の計算に用いられてもよい。シーンカメラ41からのイメージ内の測定された距離を実世界の寸法に変換するために、垂直方向46の参照点と水平方向47の参照点との間の既知の実世界距離が用いられてもよい。
これらの技術を用いるヘッドトラッキング及び視線追跡の1つの用途は、モニタ40上に表示されるコンピュータカーソル44の位置を制御することである。視線追跡を用いるカーソルの正確な制御は、結果的に、インターネットをサーフィンする、ゲームを制御する、テキスト音声変換(text−to−speech)を生成する、照明若しくは家庭又は産業設定での他の環境制御をオン/オフするなどのためにコンピュータを用いることを含む広範囲の用途をもたらす可能性がある。観測者がカーソル44のような物体をぴったりと追うように指示される間の頭部及び目の動きの追跡はまた、例えば、ほとんどのレンズ43によって生じる空間収差のような視野42内の空間収差を考慮に入れるのに用いられる場合がある校正手順中に用いられてもよい。
図5は、「仮想」参照物体が、シーンカメラ51の視野52内にあるモニタ又は画面50上に意図的に表示される、参照位置追跡の別の例を示す。「仮想」参照物体は、例えば、画面のバックグラウンドとは別個の色、アイコン、QRコード、及び/又は他の視覚パターンのパッチであってもよい。例えば、モニタ50のドライバは、モニタ50上に他の方法で表示される任意のイメージ上に仮想物体が重ね合わされるように修正され又は交換されてもよい。したがって、イメージを表示する及び/又は他の方法で種々のプログラムを動作させるためにモニタが用いられるときでさえも、仮想物体が存在していてもよい。仮想物体は、モニタ50上に提示されるイメージにおいて実質的に静止したままであってもよいし、又は例えば、本明細書のどこかに記載のように、その間動かされてもよい。
シーン内の既知の幾何学的形状、空間的関係、及び/又は色をもつこれらの「仮想」物体を突き止めるのにマシンビジョン技術が用いられてもよい。図5に図示される例では、ディスプレイモニタ50の4つの角部に4つの「仮想」物体55a、55b、55c、55dが表示される。任意の数の「仮想」参照物体がシーンカメラ51の視野52に追加されてもよい。「仮想」参照物体は、任意のサイズ、形状、又は色であってもよい。「仮想」参照物体はすべて、実質的に同じ幾何学的形態のサイズ、形状、空間分布、及び/又は色を有していてもよく、又は1つ又は複数の「仮想」参照物体は、サイズ、形状、及び/又は色が異なっていてもよい。後者の例では、幾何学的形態のサイズ、形状、空間分布及び/又は色の差異は、本明細書の他の実施形態と同様に参照位置の回転姿勢を明白に判定するのに有用な場合がある。
例えばシーンカメラ51からのイメージを解析する処理ユニットによって適切な属性をもつ仮想物体が見つかるときに、物体55a、55b、55c、55dの角部間の距離が垂直方向56及び水平方向57に測定されてもよい。これらの距離は、装置装着者の環境内の参照点55a、55b、55c、55dに対するシーンカメラ51の位置の姿勢を計算するのに用いられてもよい。ディスプレイ画面の4つの角部における参照物体55a、55b、55c、55dによって画定される四角形の全体サイズが、シーンカメラ51とシーン内の位置との間の距離の計算に用いられてもよい。シーンカメラ51からのイメージ内の測定された距離を実世界の寸法に変換するために、垂直方向56の参照点と水平方向57の参照点との間の既知の実世界距離が用いられてもよい。例えば、処理ユニットは、本明細書の他の実施形態と同様に実際に直面した物体を識別するのに十分な情報を含むテンプレートのデータベースを含んでいてもよく又はこれにアクセスしてもよい。これらの技術を用いるヘッドトラッキング及び視線追跡測定は、例えば、コンピュータモニタ50上に表示されるカーソル54の位置を制御する、及び/又は直面した物体及び/又は他の近くの物体と他の方法で相互作用するのに用いられてもよい。
図5に描かれる場合の「仮想」参照物体を用いる利点は、実世界の物体のいかなる(ハードウェア)修正もなしに識別可能な参照物体を生成できることである。例えば、コンピュータ(図示せず)が図1のシステム10の装着者によって用いられることになる場合、例えば、モニタドライバ(単数又は複数)を修正する又は交換する及び/又はシステム10の使用中にコンピュータのモニタ50上に表示されるイメージに他の方法で仮想参照物体を含めるソフトウェアが、コンピュータ上にロードされてもよい。逆に、例えば、図4に描かれる場合のコンピュータモニタ40の縁上に置かれる物理的参照物体の使用は、モニタ40の表示可能な領域内のあらゆる重ね合わされる表示(及び関連するソフトウェア修正)の必要性をなくす。
図4及び図5をさらに参照すると、任意の数の実際の参照物体をシーン内の任意の数の「仮想」参照物体と組み合わせることが可能である。任意の数のこうした物体を追跡するために、1つ又は複数のシーンカメラからのイメージを用いるマシンビジョン技術が用いられてもよい。例えば、図1のシステム10のようなシステムによって作動される又はこれと通信する画面又は装置を識別するために、或る姿勢及び方向に参照物体を見ているときに物理的物体の追跡が最初に用いられてもよい。「仮想」物体の識別は、次いで、適切な画面視野角が存在するときに、例えば、モニタ又は画面を識別するのに物理的物体が用いられた後で用いられてもよい。画面上の局所的領域内の非常に正確な視線追跡をもたらすために、例えば、装着者が見ているモニタ又は画面上での視線追跡が判定されると、例えば、「仮想」参照物体の位置又は他の追跡特徴を動的に変化させることが望ましい場合がある。例えば、モニタ又は画面の特定のサブセット又は領域に注意が引きよせられるように、より密に間隔をおいて配置されるより小さい「仮想」参照物体が用いられてもよい。処理ユニットは、次いで、例えば、視線追跡の精度を向上させ、格納される及び/又は処理されるイメージデータサイズを減らすなどのために、モニタ又は画面上の仮想物体のフィールド外のイメージデータを廃棄してもよい。
図6は、反射性参照パッチ及び関連する位置を利用する照明及び光学経路の例を示す。この例では、照明源(例えば、1つ又は複数のLED)60は、眼鏡類又は帽子類(図示せず、例えば図1及び図2のフレーム11)内に含められ又は他の方法で支持される。この照明源60からの電磁放射は、既知の位置でシーン内の1つ又は複数の物体に付加され又はこの内部に組み込まれている1つ又は複数の反射パッチ又は反射面61から反射する。この例示的な実施形態では、光は、ディスプレイモニタ又はモバイルコンピューティング装置62の角部に取り付けられたディスク61から反射される。シーンにおけるこの反射面及び他の参照面の位置は、シーンカメラ(図6には図示せず、例えば、図1及び図2のシーンカメラ12参照)を用いて集められたイメージから判定されてもよい。
図6をさらに参照すると、反射性参照面から反射した光が、目64の表面上にグリント63を生じる可能性がある。グリントは、視標追跡カメラ(単数又は複数)65を用いて集められたイメージ内の高強度の輝点として検出されてもよい。眼鏡類又は帽子類内で、目64からのイメージを視標追跡カメラ65上に合焦するのに短い作動距離のレンズ66が一般に必要とされ、反射性(蛍光性、燐光性、又は発光性)参照位置表面によって生じた光学波長を分離するために、光路内にフィルタ67が随意的に含められてもよい。
グリント63の中心と対応する参照位置61の中心との間の線セグメントは、視線追跡計算への入力として用いられてもよいベクトル68を生じる。この参照ベクトル68は、瞳69の中心の位置と共に、参照ベクトル68に対して視線追跡ベクトル70を計算するのに用いられてもよい。視線追跡ベクトル70を計算する際の付加的な考慮事項は、測定される瞳69の中心に対して僅かにオフセットした窩の中心(すなわち、網膜のイメージ感知領域)の位置と、角膜(図示せず)を通る光路内の屈折を含む。視線追跡ベクトル70は、観測者(すなわち、眼鏡類又は帽子類の装着者)によって見られている位置71を指す。
図1及び図6に戻ると、眼鏡類又は帽子類、例えば、フレーム11上に照明源(単数又は複数)を有する利点は、シーンカメラ12及び視標追跡13a、13bカメラによるイメージの収集と比較して、照明のタイミング及び/又は強度を便利に制御できることである。照明がオンにされた状態のシーン・イメージ及び/又は視標追跡カメライメージを照明がオフにされた状態のイメージから差し引くことで、参照位置16a、16bからの反射が、シーンカメライメージにおいてより容易に分離されてもよく、グリント63からの反射が、視標追跡カメライメージにおいてより容易に分離されてもよい。さらに、この方式は、あらゆる光源又は他の電力を与えられる構成部品が眼鏡類又は帽子類内の電源17又はコントローラから離れて配置される又はこれに繋がれる必要性をなくす。したがって、参照物体が装置のモニタ又は画面に取り付けられる又は組み込まれる場合、こうした参照物体は、光を発生させるために電源及び/又はコントローラを備える必要はないが、照明源(単数又は複数)60からの光を単に反射させてもよい。
任意の数の反射面61が、参照位置、及び/又はグリント63の生成源として用いられてもよい。任意の数の電磁放射源が可視光又は不可視光を生じる可能性がある。この方式は(潜在的に輝く反射光の存在に起因して)装置装着者の一部上に生じる分散が小さいか又は分散を生じないので、参照位置及び目の上のグリントで反射をもたらすために不可視光を用いるのが特に便利である。CMOSカメラは、特に、ヒトの目には見えない近赤外線スペクトルにおける電磁放射を検出することができる。CMOSカメラはまた、低電力及び/又は小型化が望まれる用途に特に良く適する。
本明細書のどこかにさらに記載されるように、図6を参照すると、照明源(単数又は複数)60の強度を制御するために、視標追跡カメラ65を用いて測定されるグリント63の輝度レベル、及びシーンカメラ(単数又は複数)12(図示せず、図1参照)を用いて測定される参照位置61からの反射が、フィードバックモードで用いられてもよい。参照位置を照らすために、1つ又は複数の照明源60、例えば、眼鏡類又は帽子類の全体を通して複数の位置に設置される複数の照明源60(図示せず)が用いられてもよい。異なる角度から装置装着者の環境を照らす複数の照明源60の使用は、異なる視野角でのカメライメージにおける高強度反射を維持する一助となる可能性がある。
一実施形態では、光の強度を制御するために、各照明源60を駆動する電圧又は電流のいずれかの振幅が用いられてもよい。これは、一般に「振幅変調」と呼ばれる。別の実施形態では、光の強度を制御するために、制御する電圧又は電流の持続時間又は「滞留時間」が変調されてもよい。これは、一般に「パルス幅変調」と呼ばれる。随意的に、両方の方式を同時に用いることも可能である。
例示的な実施形態では、各照明源60は、比較的狭い又は広い帯域幅の光、例えば、約640から約700ナノメートルまでの間の1つ又は複数の波長の近赤外光、広帯域可視光、白色光などを放出するように構成されたLED(発光ダイオード)を含んでいてもよい。随意的に、照明源60のうちの1つ又は複数は、例えば、装置装着者の環境の照明の一様性を容易にする及び/又は制御するために、レンズ、フィルタ、ディフューザ、リフレクタ、又は他の特徴(図示せず)を含んでいてもよい。照明源(単数又は複数)60は、例えば、ソース(単数又は複数)60によって所望のシーン・イメージが照らされ、次いで、本明細書のどこかに記載のシステム及び方法を用いてイメージが処理されてもよいように、実質的に連続的に、周期的に、又は他の方法で間欠的に作動されてもよい。
例示的な実施形態の上記の開示は、例証及び説明の目的で提示されている。網羅的となること又は本発明を開示された正確な形態に限定することは意図されない。上記の開示に照らせば、当業者には本明細書に記載の実施形態の多くの変形及び修正が明らかであろう。
さらに、代表的な実施形態を説明するにあたり、本明細書は、提示された方法及び/又はプロセスを特定の一連のステップとして有していてもよい。しかしながら、方法又はプロセスが本明細書に記載されたステップ、方法又はプロセスの特定の順序によらない限り、方法又はプロセスは、記載された特定の一連のステップに限定されるべきではない。当業者には明らかであろうように、他の一連のステップが可能である場合がある。したがって、本明細書に記載のステップの特定の順序は、請求項に対する限定として解釈されるべきではない。
本発明は、種々の修正及び変形形態が可能であるが、それらの特定の例が図面に示されており、本明細書で詳細に説明される。しかしながら、本発明は、開示された特定の形態又は方法に限定されないが、それと反対に、本発明は、添付の請求項の範囲内に入るすべての修正、均等物、及び変形を包含することが理解されるべきである。

Claims (18)

  1. 参照位置を判定するシステムであって、
    装着者の頭部上に装着されるように構成された装置と、
    前記装着者の環境のシーンカメライメージを取り込むために前記装着者から離れる方向に向けて前記装置上に設置されるシーンカメラと、
    前記装着者の目のうちの少なくとも1つの視標追跡位置を取り込むために前記装着者の1つの目の方に向けて前記装置上に設置される視標追跡カメラと、
    前記シーンカメライメージ内のシーン参照位置を判定するために前記シーンカメラに結合され、及び前記視標追跡カメラに結合される、1つ又は複数のプロセッサと、
    を備え、前記1つ又は複数のプロセッサが、前記装着者によって見られている位置を判定するのに前記シーン参照位置及び前記視標追跡位置を用いるものであり、
    既知の物体をそれぞれの前記既知の物体に関連付けられるシーン参照位置とマッピングするテンプレートのデータベースを備え、前記データベースは前記既知の物体を当該既知の物体の形状および色を識別するデータに関連付けるテーブルを含み、前記データベースは前記既知の物体の垂直方向の参照点と水平方向の参照点を含み、前記1つ又は複数のプロセッサが、前記シーンカメライメージから収集される前記シーン参照位置に関連付けられる物体を識別するために前記データベースに結合されており、前記1つ又は複数のプロセッサが、前記既知の物体の前記垂直方向の参照点と前記水平方向の参照点との間の既知の実世界距離を用いて、前記シーンカメラからのイメージ内の測定された距離を実世界の寸法に変換する
    システム。
  2. 前記シーンカメラの視野内のシーン参照位置を識別するために前記1つ又は複数のプロセッサによって物体認識アルゴリズムが用いられる、請求項1に記載のシステム。
  3. 物体認識が、少なくとも部分的に物体の形状、物体の色、及び物体の少なくとも1つの縁に基づいている、請求項2に記載のシステム。
  4. 前記シーン参照位置が前記物体の複数の参照点を含み、前記1つ又は複数のプロセッサが、前記シーンカメラに対する前記物体の方向を決定しかつ前記物体までの距離を計算するために、前記データベースを用いて前記物体の参照点を識別するように構成されている、請求項2または請求項3に記載のシステム。
  5. 前記1つ又は複数のプロセッサが、ディスプレイ装置の角部のうちの少なくとも1つの位置を識別するために物体認識を使用する、請求項1〜請求項4のいずれか1項に記載のシステム。
  6. 前記シーンカメラの視野内の物体及び前記物体に取り付けられる付加的な参照物体をさらに備え、これらの付加的な参照物体が前記1つ又は複数のプロセッサによって認識されるように前記物体が前記シーンカメライメージ内に配置される、請求項1〜請求項5のいずれか1項に記載のシステム。
  7. 前記装着者の環境を照らすために前記装着者から離れる方に向けられた、前記装置上の1つ又は複数の光源をさらに備える、請求項1〜請求項6のいずれか1項に記載のシステム。
  8. 前記システムが、前記装着者の環境内の付加的な反射性参照物体をさらに備え、前記光源が、前記シーンカメライメージ内で前記付加的な反射性参照物体が認識可能であるように前記付加的な反射性参照物体を照らすように構成される、請求項7に記載のシステム。
  9. 視線追跡のためのシステムであって、
    ディスプレイ及び前記ディスプレイの周りに配置される複数の反射性参照物体を備える電子物体と、
    装着者の頭部上に装着されるように構成された装置と、
    を備え、前記装置が、
    a)前記装着者の環境のシーンカメライメージを取り込むために前記装着者から離れる方向に向けて前記装置上に設置されるシーンカメラと、
    b)前記装着者の目のうちの少なくとも1つの視標追跡位置を取り込むために前記装着者の1つの目の方に向けて前記装置上に設置される視標追跡カメラと、
    c)前記シーンカメライメージ内の前記参照物体を識別するために前記シーンカメラに結合され、及び前記視標追跡カメラに結合される、1つ又は複数のプロセッサと、
    を備え、前記1つ又は複数のプロセッサが、前記装着者によって見られている前記ディスプレイ上の位置を判定するのに前記シーンカメライメージにおける前記参照物体の前記位置及び前記視標追跡位置を用いるものであり、
    d)既知の物体をそれぞれの前記既知の物体に関連付けられるシーン参照位置とマッピングするテンプレートのデータベースをさらに備え、前記データベースは前記既知の物体を当該既知の物体の形状および色を識別するデータに関連付けるテーブルを含み、前記データベースは前記既知の物体の垂直方向の参照点と水平方向の参照点を含み、前記1つ又は複数のプロセッサが、前記シーンカメライメージから収集される前記シーン参照位置に関連付けられる物体を識別するために前記データベースに結合されており、前記1つ又は複数のプロセッサが、前記既知の物体の前記垂直方向の参照点と前記水平方向の参照点との間の既知の実世界距離を用いて、前記シーンカメラからのイメージ内の測定された距離を実世界の寸法に変換する
    システム。
  10. 前記装置が、前記シーンカメライメージにおける前記参照物体の識別を強化するために参照物体を照らすのに前記装着者から離れる方に向けられた、前記装置上の1つ又は複数の光源をさらに備える、請求項9に記載のシステム。
  11. 前記参照物体のうちの1つ又は複数が接着剤によって前記電子物体に取り付けられる、又は前記電子物体のケーシングの中に一体化される、請求項9または請求項10に記載のシステム。
  12. 視線追跡のためのシステムであって、
    ディスプレイを備える電子物体であり、前記ディスプレイ上に提示されるイメージの中に複数の仮想参照物体を含むように構成される電子物体と、
    装着者の頭部上に装着されるように構成された装置と、
    を備え、前記装置が、
    a)前記装着者の環境のシーンカメライメージを取り込むために前記装着者から離れる方向に向けて前記装置上に設置されるシーンカメラと、
    b)前記装着者の目のうちの少なくとも1つの視標追跡位置を取り込むために前記装着者の1つの目の方に向けて前記装置上に設置される視標追跡カメラと、
    c)前記シーンカメライメージ内の前記仮想参照物体を識別するために前記シーンカメラに結合され、及び視標追跡カメラに結合される、1つ又は複数のプロセッサと、
    を備え、前記1つ又は複数のプロセッサが、前記シーンカメライメージにおける前記仮想参照物体の位置及び前記視標追跡位置を用いて、前記装着者によって見られている前記ディスプレイ上の位置を判定するものであり、
    d)既知の物体をそれぞれの前記既知の物体に関連付けられるシーン参照物体とマッピングするテンプレートのデータベースとを備え、前記データベースは前記既知の物体を当該既知の物体の形状および色を識別するデータに関連付けるテーブルを含み、前記データベースは前記既知の物体の垂直方向の参照点と水平方向の参照点を含み、前記1つ又は複数のプロセッサが、前記シーンカメライメージにおいて識別される前記シーン参照物体に基づいて前記電子物体を識別するために前記データベースに結合されており、前記1つ又は複数のプロセッサが、前記既知の物体の前記垂直方向の参照点と前記水平方向の参照点との間の既知の実世界距離を用いて、前記シーンカメラからのイメージ内の測定された距離を実世界の寸法に変換する
    システム。
  13. 物体を識別するシステムであって、
    装着者の頭部上に装着されるように構成された装置と、
    前記装着者の環境のシーンカメライメージを取り込むために前記装着者から離れる方向に向けて前記装置上に設置されるシーンカメラと、
    前記装着者の目のうちの少なくとも1つの視標追跡位置を取り込むために前記装着者の1つの目の方に向けて前記装置上に設置される視標追跡カメラと、
    前記シーンカメライメージ内のシーン参照位置を判定するために前記シーンカメラに結合され、及び視標追跡カメラに結合される、1つ又は複数のプロセッサと、
    既知の物体をそれぞれの前記既知の物体に関連付けられるシーン参照位置とマッピングするテンプレートのデータベースと、
    を備え、前記データベースは前記既知の物体を当該既知の物体の形状および色を識別するデータに関連付けるテーブルを含み、前記データベースは前記既知の物体の垂直方向の参照点と水平方向の参照点を含み、前記1つ又は複数のプロセッサが、前記既知の物体の前記垂直方向の参照点と前記水平方向の参照点との間の既知の実世界距離を用いて、前記シーンカメラからのイメージ内の測定された距離を実世界の寸法に変換する
    システム。
  14. 参照位置を判定する方法であって、
    装置を装着者の頭部上に置くこと、
    前記装着者の環境のイメージを取り込むように位置決めされる前記装置上に、シーンカメラであり、前記シーンカメラから収集されたシーンカメライメージ内のシーン参照位置を判定するためにシーンプロセッサに結合される、シーンカメラを提供すること、
    前記装着者の目のうちの少なくとも1つの視標追跡位置を取り込むように位置決めされる前記装置上に視標追跡カメラを提供すること、
    を含み、前記視標追跡カメラ及び前記シーンカメラが、前記シーン参照位置及び前記視標追跡位置を用いて前記装着者によって見られている位置を判定するためにプロセッサに結合されており、
    既知の物体をそれぞれの前記既知の物体に関連付けられるシーン参照位置とマッピングするテンプレートのデータベースであり、前記シーンカメライメージから収集される前記シーン参照位置に関連付けられる物体を識別するために前記プロセッサに結合されるデータベースを提供すること、を含み、前記データベースは前記既知の物体を当該既知の物体の形状および色を識別するデータに関連付けるテーブルを含み、前記データベースは前記既知の物体の垂直方向の参照点と水平方向の参照点を含み、
    前記既知の物体の前記垂直方向の参照点と前記水平方向の参照点との間の既知の実世界距離を用いて、前記シーンカメラからのイメージ内の測定された距離を実世界の寸法に変換すること、をさらに含む、
    方法。
  15. 前記プロセッサが、前記シーンカメラの視野内のシーン参照位置を識別するために物体認識アルゴリズムを使用する、請求項14に記載の方法。
  16. 前記物体認識アルゴリズムが、少なくとも部分的に物体の形状、又は物体の色に基づいている、若しくは、前記物体認識アルゴリズムが、物体の少なくとも1つの縁の位置を識別するために用いられる、又はディスプレイの角部のうちの少なくとも1つの位置を識別するために用いられる、請求項15に記載の方法。
  17. 付加的な参照物体を、これらの付加的な参照物体が前記シーンカメラによって認識されるように前記装着者の環境内に位置決めすることをさらに含む、請求項15または請求項16に記載の方法。
  18. 参照位置を判定する方法であって、
    装着者から離れる方に向けられたシーンカメラ及び装着者の目のうちの少なくとも1つの方に向けられた視標追跡カメラを備える装置を、装着者の頭部上に置くこと、
    前記シーンカメラで前記装着者の周りの環境のシーンカメライメージを収集すること、
    既知の物体をそれぞれの前記既知の物体に関連付けられるシーン参照位置とマッピングするテンプレートのデータベースから前記環境内のシーン参照位置に関連付けられる物体を識別するために前記シーンカメライメージ内のシーン参照位置を識別すること、
    を含み、前記データベースは前記既知の物体を当該既知の物体の形状および色を識別するデータに関連付けるテーブルを含み、前記データベースは前記既知の物体の垂直方向の参照点と水平方向の参照点を含み、
    前記物体に対して前記装着者によって見られている位置を判定するために前記シーンカメライメージ及び視標追跡イメージを解析すること
    前記既知の物体の前記垂直方向の参照点と前記水平方向の参照点との間の既知の実世界距離を用いて、前記シーンカメラからのイメージ内の測定された距離を実世界の寸法に変換すること、
    をさらに含む方法。
JP2014512905A 2011-05-20 2012-05-19 視線追跡シーン参照位置を識別するシステム及び方法 Active JP6308940B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/113,003 2011-05-20
US13/113,003 US8885877B2 (en) 2011-05-20 2011-05-20 Systems and methods for identifying gaze tracking scene reference locations
PCT/US2012/038743 WO2012162204A2 (en) 2011-05-20 2012-05-19 Systems and methods for identifying gaze tracking scene reference locations

Publications (3)

Publication Number Publication Date
JP2014520314A JP2014520314A (ja) 2014-08-21
JP2014520314A5 JP2014520314A5 (ja) 2015-07-09
JP6308940B2 true JP6308940B2 (ja) 2018-04-11

Family

ID=47174944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014512905A Active JP6308940B2 (ja) 2011-05-20 2012-05-19 視線追跡シーン参照位置を識別するシステム及び方法

Country Status (6)

Country Link
US (2) US8885877B2 (ja)
EP (1) EP2710516B1 (ja)
JP (1) JP6308940B2 (ja)
CN (1) CN103748598B (ja)
CA (2) CA2836777C (ja)
WO (1) WO2012162204A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11418909B2 (en) 2018-11-20 2022-08-16 Toyota Jidosha Kabushiki Kaisha Driver-assistance device, wearable device, driver-assistance method, and computer-readable recording medium

Families Citing this family (186)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070081123A1 (en) * 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8781162B2 (en) * 2011-01-05 2014-07-15 Ailive Inc. Method and system for head tracking and pose estimation
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
CN102292017B (zh) * 2009-01-26 2015-08-05 托比股份公司 由光学基准信号辅助的对凝视点的检测
KR101114993B1 (ko) * 2011-02-28 2012-03-06 (재)예수병원유지재단 눈 위치를 추적하는 의료용 헤드램프
KR101046677B1 (ko) * 2011-03-15 2011-07-06 동국대학교 산학협력단 눈 위치 추적방법 및 이를 이용한 의료용 헤드램프
US9785835B2 (en) * 2011-03-22 2017-10-10 Rochester Institute Of Technology Methods for assisting with object recognition in image sequences and devices thereof
US8787666B2 (en) * 2011-11-21 2014-07-22 Tandent Vision Science, Inc. Color analytics for a digital image
US8864310B2 (en) 2012-05-01 2014-10-21 RightEye, LLC Systems and methods for evaluating human eye tracking
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US9674436B2 (en) 2012-06-18 2017-06-06 Microsoft Technology Licensing, Llc Selective imaging zones of an imaging sensor
US9398229B2 (en) * 2012-06-18 2016-07-19 Microsoft Technology Licensing, Llc Selective illumination of a region within a field of view
WO2014021169A1 (ja) * 2012-07-31 2014-02-06 独立行政法人科学技術振興機構 注視点検出装置、注視点検出方法、個人パラメータ算出装置、個人パラメータ算出方法、プログラム、及びコンピュータ読み取り可能な記録媒体
US9443414B2 (en) * 2012-08-07 2016-09-13 Microsoft Technology Licensing, Llc Object tracking
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
US20140152558A1 (en) * 2012-11-30 2014-06-05 Tom Salter Direct hologram manipulation using imu
US20140218281A1 (en) 2012-12-06 2014-08-07 Eyefluence, Inc. Systems and methods for eye gaze determination
JP6105953B2 (ja) * 2013-01-25 2017-03-29 京セラ株式会社 電子機器、視線入力プログラムおよび視線入力方法
JP6199038B2 (ja) * 2013-02-04 2017-09-20 学校法人東海大学 視線分析装置
US20140240226A1 (en) * 2013-02-27 2014-08-28 Robert Bosch Gmbh User Interface Apparatus
AU2014221656B2 (en) * 2013-02-28 2016-12-08 Hoya Corporation Spectacle lens design system, supply system, design method, and production method
CN109124657B (zh) * 2013-03-11 2021-11-23 亚特兰大儿童医疗保健公司 用于认知和发育状况的检测的系统和方法
US9335547B2 (en) * 2013-03-25 2016-05-10 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
US10341611B2 (en) 2013-04-30 2019-07-02 Inuitive Ltd. System and method for video conferencing
WO2014188727A1 (ja) 2013-05-22 2014-11-27 国立大学法人神戸大学 視線計測装置、視線計測方法および視線計測プログラム
US20140358009A1 (en) * 2013-05-30 2014-12-04 Michael O'Leary System and Method for Collecting Eye-Movement Data
US10073518B2 (en) * 2013-08-19 2018-09-11 Qualcomm Incorporated Automatic calibration of eye tracking for optical see-through head mounted display
AT513987B1 (de) * 2013-08-23 2014-09-15 Ernst Dipl Ing Dr Pfleger Brille und Verfahren zur Bestimmung von Pupillenmittelpunkten beider Augen eines Menschen
CN103557859B (zh) * 2013-10-10 2015-12-23 北京智谷睿拓技术服务有限公司 图像采集定位方法及图像采集定位系统
CN103630116B (zh) * 2013-10-10 2016-03-23 北京智谷睿拓技术服务有限公司 图像采集定位方法及图像采集定位装置
US9736373B2 (en) * 2013-10-25 2017-08-15 Intel Corporation Dynamic optimization of light source power
CN103617432B (zh) * 2013-11-12 2017-10-03 华为技术有限公司 一种场景识别方法及装置
DE102013224962A1 (de) 2013-12-05 2015-06-11 Robert Bosch Gmbh Anordnung zum Erstellen eines Bildes einer Szene
US9292765B2 (en) 2014-01-07 2016-03-22 Microsoft Technology Licensing, Llc Mapping glints to light sources
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US20160048019A1 (en) * 2014-08-12 2016-02-18 Osterhout Group, Inc. Content presentation in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9651788B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9532715B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US11265534B2 (en) * 2014-02-08 2022-03-01 Microsoft Technology Licensing, Llc Environment-dependent active illumination for stereo matching
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9852545B2 (en) 2014-02-11 2017-12-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20150241964A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US9442292B1 (en) * 2014-02-18 2016-09-13 Google Inc. Directional array sensing module
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
KR101557152B1 (ko) 2014-04-02 2015-10-05 서울시립대학교 산학협력단 광고노출 측정 장치, 방법 및 기록매체
US20150302252A1 (en) * 2014-04-16 2015-10-22 Lucas A. Herrera Authentication method using multi-factor eye gaze
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US9766715B2 (en) 2014-05-01 2017-09-19 Seiko Epson Corporation Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
KR102230172B1 (ko) 2014-05-09 2021-03-19 아이플루언스, 인크. 실제 및 가상의 객체와 인터페이싱하기 위한 생체기계학-기반의 안구 신호를 위한 시스템 및 방법
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
JP6311461B2 (ja) * 2014-06-05 2018-04-18 大日本印刷株式会社 視線分析システムおよび視線分析装置
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
KR101606726B1 (ko) * 2014-06-13 2016-03-28 엘지전자 주식회사 웨어러블 디바이스 및 웨어러블 디바이스를 포함하는 조명 시스템
US9635222B2 (en) * 2014-08-03 2017-04-25 PogoTec, Inc. Wearable camera systems and apparatus for aligning an eyewear camera
KR20170039282A (ko) 2014-08-03 2017-04-10 포고텍, 인크. 웨어러블 카메라 시스템 및 카메라 시스템 또는 다른 전자 디바이스를 웨어러블 물품에 부착하기 위한 장치 및 방법
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US9798143B2 (en) * 2014-08-11 2017-10-24 Seiko Epson Corporation Head mounted display, information system, control method for head mounted display, and computer program
US9489739B2 (en) * 2014-08-13 2016-11-08 Empire Technology Development Llc Scene analysis for improved eye tracking
US9703119B2 (en) * 2014-08-13 2017-07-11 Google Inc. Compact folding architecture for head mounted device
US9829708B1 (en) * 2014-08-19 2017-11-28 Boston Incubator Center, LLC Method and apparatus of wearable eye pointing system
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
KR20160051411A (ko) * 2014-11-03 2016-05-11 삼성전자주식회사 외부의 물체를 제어하는 전자 장치 및 그 방법
US9936195B2 (en) * 2014-11-06 2018-04-03 Intel Corporation Calibration for eye tracking systems
US10585485B1 (en) 2014-11-10 2020-03-10 Amazon Technologies, Inc. Controlling content zoom level based on user head movement
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
CN107003752B (zh) * 2014-12-17 2020-04-10 索尼公司 信息处理装置、信息处理方法以及程序
TW201724837A (zh) 2014-12-23 2017-07-01 帕戈技術股份有限公司 穿戴式相機、用於提供無線電力之系統,用於以無線方式提供電力之方法及用於處理影像之方法
US9911395B1 (en) * 2014-12-23 2018-03-06 Amazon Technologies, Inc. Glare correction via pixel processing
US20160189341A1 (en) * 2014-12-29 2016-06-30 Sling Media Pvt Ltd Systems and methods for magnifying the appearance of an image on a mobile device screen using eyewear
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
WO2016110451A1 (en) * 2015-01-07 2016-07-14 The Eye Tribe Aps Dynamic camera or light operation
EP3051386A1 (en) * 2015-01-30 2016-08-03 4tiitoo GmbH Eye tracking system and method
DK179537B1 (en) * 2015-02-04 2019-02-08 Itu Business Development A/S Tin traces and eye tracking methods
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
WO2016151581A1 (en) * 2015-03-23 2016-09-29 Controlrad Systems Inc. Eye tracking system
CN106155459B (zh) * 2015-04-01 2019-06-14 北京智谷睿拓技术服务有限公司 交互方法、交互装置及用户设备
CN106155288B (zh) 2015-04-10 2019-02-12 北京智谷睿拓技术服务有限公司 信息获取方法、信息获取装置及用户设备
IL244255A (en) 2016-02-23 2017-04-30 Vertical Optics Llc Wearable devices for deflecting vision
CA2985535A1 (en) * 2015-05-15 2016-11-24 Vertical Optics, LLC Wearable vision redirecting devices
US9690119B2 (en) 2015-05-15 2017-06-27 Vertical Optics, LLC Wearable vision redirecting devices
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
GB2539009A (en) * 2015-06-03 2016-12-07 Tobii Ab Gaze detection method and apparatus
CN104905764B (zh) * 2015-06-08 2017-09-12 四川大学华西医院 一种基于fpga的高速视线跟踪方法
US10481417B2 (en) 2015-06-10 2019-11-19 PogoTec, Inc. Magnetic attachment mechanism for electronic wearable device
CN107924071A (zh) 2015-06-10 2018-04-17 波戈技术有限公司 具有用于电子可佩戴装置的磁轨的眼镜
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
CN105007424A (zh) * 2015-07-22 2015-10-28 深圳市万姓宗祠网络科技股份有限公司 一种基于眼球跟踪的自动对焦系统、方法及其可穿戴设备
KR101734287B1 (ko) * 2015-08-04 2017-05-11 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어방법
GB2561455B (en) * 2015-08-15 2022-05-18 Google Llc Systems and methods for biomechically-based eye signals for interacting with real and virtual objects
JP6641122B2 (ja) * 2015-08-27 2020-02-05 キヤノン株式会社 表示装置及び情報処理装置及びその制御方法
WO2017075405A1 (en) 2015-10-29 2017-05-04 PogoTec, Inc. Hearing aid adapted for wireless power reception
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
WO2017104089A1 (ja) * 2015-12-18 2017-06-22 日立マクセル株式会社 ヘッドマウントディスプレイ連携表示システム、及び、表示装置とヘッドマウントディスプレイとを含むシステム、及び、その表示装置
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US11558538B2 (en) 2016-03-18 2023-01-17 Opkix, Inc. Portable camera system
JP6913326B2 (ja) * 2016-05-02 2021-08-04 ウェイヴス オーディオ リミテッド 適応基準を用いた頭部追跡
US10339352B2 (en) * 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US10261328B2 (en) * 2016-09-02 2019-04-16 Microsoft Technology Licensing, Llc Enhanced illumination system
CN107844734B (zh) * 2016-09-19 2020-07-07 杭州海康威视数字技术股份有限公司 监控目标确定方法及装置、视频监控方法及装置
KR102240087B1 (ko) 2016-09-27 2021-04-15 스냅 인코포레이티드 아이웨어 디바이스 모드 표시
EP3539285A4 (en) 2016-11-08 2020-09-02 Pogotec, Inc. PORTABLE ELECTRONIC DEVICE INTELLIGENT BOX
US10517520B2 (en) * 2016-11-10 2019-12-31 Neurotrack Technologies, Inc. Method and system for correlating an image capturing device to a human user for analysis of cognitive performance
US10726257B2 (en) * 2016-12-01 2020-07-28 Varjo Technologies Oy Gaze-tracking system and method of tracking user's gaze
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
EP3401899B1 (en) * 2017-05-11 2021-09-08 ams International AG Method for controlling a display parameter of a mobile device and computer program product
CN109145684B (zh) * 2017-06-19 2022-02-18 西南科技大学 基于区域最匹配特征点的头部状态监测方法
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
GR20170100473A (el) * 2017-10-16 2019-05-24 Στυλιανος Γεωργιος Τσαπακης Σετ εικονικης πραγματικοτητας με δυο καμερες για παρακολουθηση των οφθαλμων του χρηστη, με χρηση διορθωτικων γυαλιων, δοκιμαστικων φακων και εξωτερικου μπουτον ή/ και ανοιγματων για τον ελεγχο της εσωτερικης υπολογιστικης συσκευης
US11138301B1 (en) * 2017-11-20 2021-10-05 Snap Inc. Eye scanner for user identification and security in an eyewear device
KR102092464B1 (ko) * 2017-12-26 2020-03-23 (주)스코넥엔터테인먼트 착용형 디스플레이 장치 및 이를 이용한 가상 현실 제어 시스템
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2019154511A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
US11194161B2 (en) 2018-02-09 2021-12-07 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US10564716B2 (en) 2018-02-12 2020-02-18 Hong Kong Applied Science and Technology Research Institute Company Limited 3D gazing point detection by binocular homography mapping
US10775616B1 (en) 2018-03-21 2020-09-15 Facebook Technologies, Llc Lenses integrated with micro-light emitting diodes
US11010646B2 (en) * 2018-04-10 2021-05-18 Facebook Technologies, Llc Object tracking assisted with hand or eye tracking
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
CN110488489B (zh) * 2018-05-15 2022-10-11 苹果公司 用于头戴式壳体的眼睛登记
US10863812B2 (en) 2018-07-18 2020-12-15 L'oreal Makeup compact with eye tracking for guidance of makeup application
US11269402B1 (en) * 2018-08-03 2022-03-08 Snap Inc. User interface interaction paradigms for eyewear device with limited field of view
TWI704501B (zh) * 2018-08-09 2020-09-11 宏碁股份有限公司 可由頭部操控的電子裝置與其操作方法
US10706281B2 (en) * 2018-08-10 2020-07-07 Microsoft Technology Licensing, Llc Controlling focal parameters of a head mounted display based on estimated user age
US10942349B2 (en) * 2018-08-21 2021-03-09 Facebook Technologies, Llc Illumination assembly with in-field micro devices
US11300857B2 (en) 2018-11-13 2022-04-12 Opkix, Inc. Wearable mounts for portable camera
WO2020147948A1 (en) * 2019-01-16 2020-07-23 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
EP3979896A1 (en) 2019-06-05 2022-04-13 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
US11430414B2 (en) * 2019-10-17 2022-08-30 Microsoft Technology Licensing, Llc Eye gaze control of magnification user interface
EP3826432A1 (en) 2019-11-22 2021-05-26 Oberalp Spa Headlamp with an ai unit
ES2961614T3 (es) * 2019-12-17 2024-03-12 John Cockerill Defense SA Sistema inteligente para el control de funciones en una torreta de un vehículo de combate
CN111950462B (zh) * 2020-08-13 2022-03-25 深圳市商汤科技有限公司 亮度调节方法及装置、电子设备及存储介质
US11350506B1 (en) 2021-05-03 2022-05-31 Ober Alp S.P.A. Adaptive illumination control via activity classification
US11592899B1 (en) 2021-10-28 2023-02-28 Tectus Corporation Button activation within an eye-controlled user interface
US11619994B1 (en) 2022-01-14 2023-04-04 Tectus Corporation Control of an electronic contact lens using pitch-based eye gestures
US11874961B2 (en) 2022-05-09 2024-01-16 Tectus Corporation Managing display of an icon in an eye tracking augmented reality device

Family Cites Families (170)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4595990A (en) 1980-12-31 1986-06-17 International Business Machines Corporation Eye controlled information transfer
US4439157A (en) 1982-05-03 1984-03-27 The United States Of America As Represented By The Secretary Of The Navy Helmet mounted display projector
US4568159A (en) 1982-11-26 1986-02-04 The United States Of America As Represented By The Secretary Of The Navy CCD Head and eye position indicator
EP0125808A3 (en) 1983-04-18 1986-01-29 Lee S. Weinblatt Eye movement monitoring technique
US4852988A (en) 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
US4950069A (en) 1988-11-04 1990-08-21 University Of Virginia Eye movement detector with improved calibration and speed
US5231674A (en) 1989-06-09 1993-07-27 Lc Technologies, Inc. Eye tracking method and apparatus
JPH03109030A (ja) 1989-09-22 1991-05-09 Canon Inc 注視点検出装置
US5092669A (en) * 1990-03-16 1992-03-03 Migra Limited Optical device and method for using same
US5367315A (en) 1990-11-15 1994-11-22 Eyetech Corporation Method and apparatus for controlling cursor movement
US5331149A (en) 1990-12-31 1994-07-19 Kopin Corporation Eye tracking system having an array of photodetectors aligned respectively with an array of pixels
US5739912A (en) * 1991-04-26 1998-04-14 Nippon Telegraph And Telephone Corporation Object profile measuring method and apparatus
US5270748A (en) 1992-01-30 1993-12-14 Mak Technologies, Inc. High-speed eye tracking device and method
US5583590A (en) 1992-05-04 1996-12-10 Wabash Scientific Corp. Alert monitoring system
US5345281A (en) 1992-12-17 1994-09-06 John Taboada Eye tracking system and method
US5422653A (en) * 1993-01-07 1995-06-06 Maguire, Jr.; Francis J. Passive virtual reality
US5517021A (en) 1993-01-19 1996-05-14 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
US5471542A (en) 1993-09-27 1995-11-28 Ragland; Richard R. Point-of-gaze tracker
GB9323970D0 (en) 1993-11-22 1994-01-12 Toad Innovations Ltd Safety device
JPH07184089A (ja) * 1993-12-21 1995-07-21 Canon Inc ビデオカメラ
US5481622A (en) 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
US5583795A (en) 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
US5689241A (en) 1995-04-24 1997-11-18 Clarke, Sr.; James Russell Sleep detection and driver alert apparatus
US5585871A (en) 1995-05-26 1996-12-17 Linden; Harry Multi-function display apparatus
US6373961B1 (en) * 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
US5861936A (en) 1996-07-26 1999-01-19 Gillan Holdings Limited Regulating focus in accordance with relationship of features of a person's eyes
US6542081B2 (en) 1996-08-19 2003-04-01 William C. Torch System and method for monitoring eye movement
US6163281A (en) 1996-08-19 2000-12-19 Torch; William C. System and method for communication using eye movement
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6070098A (en) 1997-01-11 2000-05-30 Circadian Technologies, Inc. Method of and apparatus for evaluation and mitigation of microsleep events
WO1998049028A1 (en) 1997-04-25 1998-11-05 Applied Science Group, Inc. An alertness monitor
WO1999005988A2 (en) 1997-07-30 1999-02-11 Applied Science Laboratories An eye tracker using an off-axis, ring illumination source
DE69840547D1 (de) 1997-10-30 2009-03-26 Myvu Corp Schnittstellensystem für brillen
US6055322A (en) 1997-12-01 2000-04-25 Sensor, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses using multiple sources of illumination
US6088470A (en) 1998-01-27 2000-07-11 Sensar, Inc. Method and apparatus for removal of bright or dark spots by the fusion of multiple images
US6152563A (en) 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6614408B1 (en) 1998-03-25 2003-09-02 W. Stephen G. Mann Eye-tap for electronic newsgathering, documentary video, photojournalism, and personal safety
US6204828B1 (en) 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
US6091378A (en) 1998-06-17 2000-07-18 Eye Control Technologies, Inc. Video processing methods and apparatus for gaze point tracking
US6184863B1 (en) * 1998-10-13 2001-02-06 The George Washington University Direct pointing apparatus and method therefor
US6282553B1 (en) 1998-11-04 2001-08-28 International Business Machines Corporation Gaze-based secure keypad entry system
US6433760B1 (en) 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
US7120880B1 (en) 1999-02-25 2006-10-10 International Business Machines Corporation Method and system for real-time determination of a subject's interest level to media content
US6577329B1 (en) 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
US6952198B2 (en) * 1999-07-06 2005-10-04 Hansen Karl C System and method for communication with enhanced optical pointer
US20010010514A1 (en) * 1999-09-07 2001-08-02 Yukinobu Ishino Position detector and attitude detector
US6346887B1 (en) 1999-09-14 2002-02-12 The United States Of America As Represented By The Secretary Of The Navy Eye activity monitor
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
US6864912B1 (en) 1999-12-16 2005-03-08 International Business Machines Corp. Computer system providing hands free user input via optical means for navigation or zooming
JP2001183735A (ja) * 1999-12-27 2001-07-06 Fuji Photo Film Co Ltd 撮像装置および方法
US6758563B2 (en) 1999-12-30 2004-07-06 Nokia Corporation Eye-gaze tracking
AUPQ896000A0 (en) 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
US6873314B1 (en) 2000-08-29 2005-03-29 International Business Machines Corporation Method and system for the recognition of reading skimming and scanning from eye-gaze patterns
US6608615B1 (en) * 2000-09-19 2003-08-19 Intel Corporation Passive gaze-driven browsing
GB0023172D0 (en) 2000-09-20 2000-11-01 Minter Kemp Martin J Wakeup vizor
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
JP2002143094A (ja) 2000-11-07 2002-05-21 Nac Image Technology Inc 視線検出装置
EP1357831A2 (en) 2001-02-09 2003-11-05 Sensomotoric Instruments GmbH Multidimensional eye tracking and position measurement system
DE10108064A1 (de) 2001-02-20 2002-09-05 Siemens Ag Verknüpfte Eye-Tracking-Information innerhalb eines Augmented-Reality-Systems
GB2372683A (en) 2001-02-23 2002-08-28 Ibm Eye tracking display apparatus
US6886137B2 (en) 2001-05-29 2005-04-26 International Business Machines Corporation Eye gaze control of dynamic information presentation
US6959102B2 (en) 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
GB0113533D0 (en) 2001-06-05 2001-07-25 Brigantia Software Ltd Apparatus and method for testing visual response
US20030043268A1 (en) 2001-06-26 2003-03-06 Mann W. Stephen G. EyeTap vehicle or vehicle controlled by headworn camera, or the like
GB0119859D0 (en) 2001-08-15 2001-10-10 Qinetiq Ltd Eye tracking system
US6927694B1 (en) 2001-08-20 2005-08-09 Research Foundation Of The University Of Central Florida Algorithm for monitoring head/eye motion for driver alertness with one camera
US6997556B2 (en) 2001-10-01 2006-02-14 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
AUPR872301A0 (en) 2001-11-08 2001-11-29 Sleep Diagnostics Pty Ltd Alertness monitor
US8048065B2 (en) 2001-12-21 2011-11-01 Sensomotoric Instruments Gmbh Method and apparatus for eye position registering and tracking
US6659611B2 (en) 2001-12-28 2003-12-09 International Business Machines Corporation System and method for eye gaze tracking using corneal image mapping
US7197165B2 (en) 2002-02-04 2007-03-27 Canon Kabushiki Kaisha Eye tracking using image data
US7206435B2 (en) 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
US6919907B2 (en) 2002-06-20 2005-07-19 International Business Machines Corporation Anticipatory image capture for stereoscopic remote viewing with foveal priority
US20150150455A9 (en) 2002-07-03 2015-06-04 Epley Research, Llc Stimulus-evoked vestibular evaluation system, method and apparatus
US20040061680A1 (en) 2002-07-10 2004-04-01 John Taboada Method and apparatus for computer control
NL1021496C2 (nl) 2002-09-19 2004-03-22 Joannes Hermanus Heiligers Signaleringsinrichting en werkwijze voor het monitoren van alertheid van personen.
US6943754B2 (en) 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
SE524003C2 (sv) 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
US7233684B2 (en) * 2002-11-25 2007-06-19 Eastman Kodak Company Imaging method and system using affective information
US7206022B2 (en) * 2002-11-25 2007-04-17 Eastman Kodak Company Camera system with eye monitoring
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
US7306337B2 (en) 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
AU2003901528A0 (en) 2003-03-31 2003-05-01 Seeing Machines Pty Ltd Eye tracking system and method
JP2004310470A (ja) 2003-04-07 2004-11-04 Advanced Telecommunication Research Institute International 視線位置を判定し組合わせるためのシステム及びコンピュータで実行可能なプログラム
US7259785B2 (en) * 2003-04-28 2007-08-21 Hewlett-Packard Development Company, L.P. Digital imaging method and apparatus using eye-tracking control
US7401920B1 (en) 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
US7391888B2 (en) 2003-05-30 2008-06-24 Microsoft Corporation Head pose assessment methods and systems
US7068815B2 (en) * 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems
US7145550B2 (en) 2003-08-08 2006-12-05 Lucent Technologies Inc. Method and apparatus for reducing repetitive motion injuries in a computer user
US20050047629A1 (en) 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
US8064647B2 (en) 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
KR20050025927A (ko) 2003-09-08 2005-03-14 유웅덕 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법
US7963652B2 (en) 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
EP1691670B1 (en) 2003-11-14 2014-07-16 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US7365738B2 (en) 2003-12-02 2008-04-29 International Business Machines Corporation Guides and indicators for eye movement monitoring systems
US7561143B1 (en) 2004-03-19 2009-07-14 The University of the Arts Using gaze actions to interact with a display
GB2412431B (en) 2004-03-25 2007-11-07 Hewlett Packard Development Co Self-calibration for an eye tracker
US7331671B2 (en) 2004-03-29 2008-02-19 Delphi Technologies, Inc. Eye tracking method based on correlation and detected eye movement
US20050227217A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
US20110077548A1 (en) 2004-04-01 2011-03-31 Torch William C Biosensors, communicators, and controllers monitoring eye movement and methods for using them
CN102670163B (zh) 2004-04-01 2016-04-13 威廉·C·托奇 控制计算装置的系统及方法
DK1607840T3 (da) 2004-06-18 2015-02-16 Tobii Technology Ab Øjenstyring af et computerapparat
JP4560368B2 (ja) 2004-10-08 2010-10-13 キヤノン株式会社 眼検出装置および画像表示装置
JP4632417B2 (ja) * 2004-10-26 2011-02-16 キヤノン株式会社 撮像装置、及びその制御方法
US20060209013A1 (en) * 2005-03-17 2006-09-21 Mr. Dirk Fengels Method of controlling a machine connected to a display by line of vision
US7676063B2 (en) 2005-03-22 2010-03-09 Microsoft Corp. System and method for eye-tracking and blink detection
DE602006016961D1 (de) 2005-08-11 2010-10-28 Sleep Diagnostics Pty Ltd Wachheit erfassende brillen
US7580545B2 (en) 2005-10-03 2009-08-25 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and system for determining gaze direction in a pupil detection system
US8602791B2 (en) 2005-11-04 2013-12-10 Eye Tracking, Inc. Generation of test stimuli in visual media
JP4921486B2 (ja) 2005-11-30 2012-04-25 シーイング・マシーンズ・プロプライエタリー・リミテッド 視覚的に頭と目を追跡するシステムにおける眼鏡の視覚的追跡
US7522344B1 (en) 2005-12-14 2009-04-21 University Of Central Florida Research Foundation, Inc. Projection-based head-mounted display with eye-tracking capabilities
DE102006002001B4 (de) 2006-01-16 2009-07-23 Sensomotoric Instruments Gmbh Verfahren zur Bestimmung der räumlichen Relation eines Auges einer Person bezüglich einer Kameravorrichtung
US7747068B1 (en) 2006-01-20 2010-06-29 Andrew Paul Smyth Systems and methods for tracking the eye
ES2605367T3 (es) 2006-01-26 2017-03-14 Nokia Technologies Oy Dispositivo de seguimiento ocular
US9213404B2 (en) 2006-02-01 2015-12-15 Tobii Technology Ab Generation of graphical feedback in a computer system
WO2007092512A2 (en) 2006-02-07 2007-08-16 Attention Technologies, Inc. Driver drowsiness and distraction monitor
US7542210B2 (en) 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
US7986816B1 (en) 2006-09-27 2011-07-26 University Of Alaska Methods and systems for multiple factor authentication using gaze tracking and iris scanning
US7646422B2 (en) 2006-10-04 2010-01-12 Branislav Kisacanin Illumination and imaging system with glare reduction and method therefor
US8225229B2 (en) 2006-11-09 2012-07-17 Sony Mobile Communications Ab Adjusting display brightness and/or refresh rates based on eye tracking
SE0602545L (en) 2006-11-29 2008-05-30 Tobii Technology Ab Eye tracking illumination
US7783077B2 (en) 2006-12-01 2010-08-24 The Boeing Company Eye gaze tracker system and method
KR100850357B1 (ko) 2006-12-06 2008-08-04 한국전자통신연구원 시선 위치 추적 방법 및 그 장치
US20080166052A1 (en) 2007-01-10 2008-07-10 Toshinobu Hatano Face condition determining device and imaging device
US9618748B2 (en) * 2008-04-02 2017-04-11 Esight Corp. Apparatus and method for a dynamic “region of interest” in a display system
WO2008141460A1 (en) 2007-05-23 2008-11-27 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
US7556377B2 (en) 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
ITRM20070526A1 (it) * 2007-10-05 2009-04-06 Univ Roma Apparato di acquisizione ed elaborazione delle informazioni relative ad attivita oculari umane
US20090196460A1 (en) 2008-01-17 2009-08-06 Thomas Jakobs Eye tracking system and method
CN101945612B (zh) 2008-02-14 2013-09-25 诺基亚公司 用于确定注视方向的设备和方法
TW200947262A (en) 2008-05-05 2009-11-16 Utechzone Co Ltd Non-contact type cursor control method using human eye, pupil tracking system and storage media
WO2010003410A1 (en) 2008-07-08 2010-01-14 It-University Of Copenhagen Eye gaze tracking
RU2011106031A (ru) 2008-07-18 2012-08-27 Опталерт Пти Лтд (Au) Чувствительное устройство активного состояния
US7736000B2 (en) * 2008-08-27 2010-06-15 Locarna Systems, Inc. Method and apparatus for tracking eye movement
TWI432172B (zh) 2008-10-27 2014-04-01 Utechzone Co Ltd Pupil location method, pupil positioning system and storage media
US8730266B2 (en) 2008-11-13 2014-05-20 Queen's University At Kingston System and method for integrating gaze tracking with virtual reality or augmented reality
US20100128118A1 (en) 2008-11-26 2010-05-27 Locarna Systems, Inc. Identification of visual fixations in a video stream
WO2010071928A1 (en) 2008-12-22 2010-07-01 Seeing Machines Limited Automatic calibration of a gaze direction algorithm from user behaviour
US8401248B1 (en) * 2008-12-30 2013-03-19 Videomining Corporation Method and system for measuring emotional and attentional response to dynamic digital media content
DE102009005565A1 (de) * 2009-01-21 2010-07-22 Eads Deutschland Gmbh Verfahren zur Erkennung von Objekten
CN102292017B (zh) 2009-01-26 2015-08-05 托比股份公司 由光学基准信号辅助的对凝视点的检测
US7819525B2 (en) 2009-02-15 2010-10-26 International Business Machines Corporation Automatic direct gaze detection based on pupil symmetry
CN101807110B (zh) 2009-02-17 2012-07-04 由田新技股份有限公司 瞳孔定位方法及系统
US8553936B2 (en) 2009-03-03 2013-10-08 The Ohio State University Gaze tracking measurement and training system and method
DE112010001770B4 (de) 2009-03-16 2014-09-25 Nokia Corp. System mit einem steuermittel für eine richtantenne und vorrichtung, benutzerschnittstelle, verfahren und computerprogramm
TWI398796B (zh) 2009-03-27 2013-06-11 Utechzone Co Ltd Pupil tracking methods and systems, and correction methods and correction modules for pupil tracking
EP2237237B1 (en) 2009-03-30 2013-03-20 Tobii Technology AB Eye closure detection using structured illumination
ES2880475T3 (es) 2009-04-01 2021-11-24 Tobii Ab Sistema de representación visual con iluminadores para el seguimiento de la mirada
US20120105486A1 (en) 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
US20100295774A1 (en) 2009-05-19 2010-11-25 Mirametrix Research Incorporated Method for Automatic Mapping of Eye Tracker Data to Hypermedia Content
GB0909126D0 (en) 2009-05-27 2009-07-01 Qinetiq Ltd Eye tracking apparatus
US20100321482A1 (en) 2009-06-17 2010-12-23 Lc Technologies Inc. Eye/head controls for camera pointing
EP2275020B1 (en) 2009-07-16 2018-02-21 Tobii AB Eye detection system and method using sequential data flow
TWI397865B (zh) 2009-08-12 2013-06-01 Utechzone Co Ltd Security personnel to monitor the degree of focus monitoring system
WO2011024134A1 (en) 2009-08-26 2011-03-03 Ecole Polytechnique Federale De Lausanne (Epfl) Wearable systems for audio, visual and gaze monitoring
IL200627A (en) * 2009-08-27 2014-05-28 Erez Berkovich A method for dynamically changing visual indication on a display device
US8323216B2 (en) 2009-09-29 2012-12-04 William Fabian System and method for applied kinesiology feedback
EP2309307B1 (en) 2009-10-08 2020-12-09 Tobii Technology AB Eye tracking using a GPU
US20110170061A1 (en) 2010-01-08 2011-07-14 Gordon Gary B Gaze Point Tracking Using Polarized Light
US9507418B2 (en) 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US8552850B2 (en) 2010-02-17 2013-10-08 Honeywell International Inc. Near-to-eye tracking for adaptive operation
US20110262887A1 (en) 2010-04-21 2011-10-27 Lc Technologies Inc. Systems and methods for gaze based attention training
CN101901485B (zh) 2010-08-11 2014-12-03 华中科技大学 3d自由头动式视线跟踪系统
WO2012021967A1 (en) 2010-08-16 2012-02-23 Tandemlaunch Technologies Inc. System and method for analyzing three-dimensional (3d) media content
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
WO2012083415A1 (en) 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US8510166B2 (en) * 2011-05-11 2013-08-13 Google Inc. Gaze tracking system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11418909B2 (en) 2018-11-20 2022-08-16 Toyota Jidosha Kabushiki Kaisha Driver-assistance device, wearable device, driver-assistance method, and computer-readable recording medium

Also Published As

Publication number Publication date
CA2836777C (en) 2020-08-04
JP2014520314A (ja) 2014-08-21
EP2710516A4 (en) 2014-10-15
WO2012162204A3 (en) 2013-03-14
US20150169050A1 (en) 2015-06-18
CA2836777A1 (en) 2012-11-29
WO2012162204A2 (en) 2012-11-29
US8885877B2 (en) 2014-11-11
EP2710516A2 (en) 2014-03-26
EP2710516B1 (en) 2020-05-06
CN103748598B (zh) 2017-06-09
CA3081251C (en) 2022-09-20
US9405365B2 (en) 2016-08-02
US20120294478A1 (en) 2012-11-22
CN103748598A (zh) 2014-04-23
CA3081251A1 (en) 2012-11-29

Similar Documents

Publication Publication Date Title
JP6308940B2 (ja) 視線追跡シーン参照位置を識別するシステム及び方法
US10032074B2 (en) Systems and methods for high-resolution gaze tracking
US20180160079A1 (en) Pupil detection device
EP2549914B1 (en) System and method for tracking the point of gaze of an observer
US8077914B1 (en) Optical tracking apparatus using six degrees of freedom
US9530051B2 (en) Pupil detection device
KR20170054499A (ko) 눈 불편감 감소 디스플레이
CN103458770A (zh) 照射特性能够调节的用于捕获至少一个眼睛的至少一个参数的光学测量装置和方法
Tatler et al. Eye movement recordings in natural settings
CN109964230A (zh) 用于眼睛度量采集的方法和设备
US11933977B2 (en) Eyewear eye-tracking using optical waveguide
KR20130014275A (ko) 디스플레이 화면 제어 방법 및 그를 이용한 영상 표시 기기
US20220365354A1 (en) Segmented illumination display
CN218413524U (zh) 眼部追踪装置及智能眼镜

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160831

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170803

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170912

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180111

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180313

R150 Certificate of patent or registration of utility model

Ref document number: 6308940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250