JP7136875B2 - 眼の特徴を用いる眼ポーズ識別 - Google Patents

眼の特徴を用いる眼ポーズ識別 Download PDF

Info

Publication number
JP7136875B2
JP7136875B2 JP2020196686A JP2020196686A JP7136875B2 JP 7136875 B2 JP7136875 B2 JP 7136875B2 JP 2020196686 A JP2020196686 A JP 2020196686A JP 2020196686 A JP2020196686 A JP 2020196686A JP 7136875 B2 JP7136875 B2 JP 7136875B2
Authority
JP
Japan
Prior art keywords
eye
roll angle
determining
iris
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020196686A
Other languages
English (en)
Other versions
JP2021049354A (ja
Inventor
ケーラー エイドリアン
アンソニー クルグ マイケル
アマイェー ゴラムレザ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2021049354A publication Critical patent/JP2021049354A/ja
Priority to JP2022066237A priority Critical patent/JP7399210B2/ja
Application granted granted Critical
Publication of JP7136875B2 publication Critical patent/JP7136875B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

(関連出願の相互参照)
本願は、2015年10月16日に出願され、“EYE POSE IDENTIFICATION USING EYE FEATURES”と題された米国仮出願第62/242,838号に対する35 U.S.C. § 119(e)のもとでの優先権の利益を主張するものであり、該米国仮出願は、その全体が参照により本明細書中に援用される。
(分野)
本開示は、概して、眼画像を処理するためのシステムおよび方法に関する。
(関連技術の説明)
人間の虹彩は、バイオメトリック情報の源として使用されることができる。バイオメトリック情報は、個人の認証または識別を提供することができる。広くバイオメトリックテンプレートと呼ばれる、バイオメトリック情報を抽出するプロセスは、典型的には、多くの課題を有する。
一側面では、眼ポーズ識別のための方法が、開示される。本方法は、ハードウェアコンピュータプロセッサの制御下で実施される。本方法は、眼の瞳孔および縁郭境界を取得するために、眼画像内の眼の虹彩をセグメント化するステップと、眼の瞳孔および縁郭境界を使用して、眼ポーズ測定値の2つの角座標を判定するステップと、眼の虹彩特徴を識別するステップと、識別された虹彩特徴を使用して、眼ポーズ測定値の第3の角座標を判定するステップと、画像の表示またはバイオメトリック用途のために、眼ポーズ測定値を利用するステップとを含む。別の側面では、眼ポーズ識別のための方法は、ヘッドマウントディスプレイシステムによって実施されることができる。虹彩特徴は、虹彩内のテクスチャ、パターン、またはキーポイントを含むことができる。別の側面では、虹彩特徴に加えて、またはその代替として、本方法は、強膜特徴を使用して実装されることができる。
別の側面では、眼画像から眼ポーズを識別するための方法が、説明される。本方法は、ハードウェアコンピュータプロセッサの制御下で実施され、眼画像から眼のピッチおよびヨーを判定するステップと、眼特徴から眼のロールを判定するステップと、少なくとも部分的に、ピッチ、ヨー、およびロールから、眼画像の眼ポーズを判定するステップとを含む。ウェアラブルディスプレイシステムが、本方法を実施するプロセッサを含むことができる。眼特徴は、虹彩特徴または強膜特徴を含むことができる。
別の側面では、ヘッドマウントディスプレイの動作におけるエラーを検出するための方法が、開示される。本方法は、ハードウェアコンピュータプロセッサの制御下で実施され、ヘッドマウントディスプレイの装着者の第1の眼の第1のロール角を判定するステップと、ヘッドマウントディスプレイの装着者の第2の眼の第2のロール角を判定するステップと、少なくとも部分的に、第1のロール角および第2のロール角の比較に基づいて、ヘッドマウントディスプレイ動作の動作におけるエラーを検出するステップとを含む。
本明細書に説明される主題の1つまたはそれを上回る実装の詳細が、付随の図面および以下の説明に記載される。他の特徴、側面、および利点が、説明、図面、および請求項から明白となるであろう。本発明の概要または以下の発明を実施するための形態のいずれも、本発明の主題の範囲を定義または限定することを意味しない。
本発明は、例えば、以下を提供する。
(項目1)
眼画像を処理するための方法であって、前記方法は、
ハードウェアコンピュータプロセッサの制御下で、
前記眼の瞳孔および縁郭境界を取得するために、眼画像内の眼の虹彩をセグメント化するステップと、
前記眼の瞳孔および縁郭境界を使用して、第1の眼ポーズ測定値の2つの角座標を判定するステップと
前記眼の虹彩特徴を識別するステップと、
前記識別された虹彩特徴を使用して、前記第1の眼ポーズ測定値の第3の角座標を判定するステップと、
画像の表示またはバイオメトリック用途のために、前記第1の眼ポーズ測定値を利用するステップと、
を含む、方法。
(項目2)
前記眼の虹彩特徴を識別するステップは、前記虹彩特徴に関する記述子を判定するステップを含み、前記記述子は、前記虹彩特徴の数値表現を含む、項目1に記載の方法。
(項目3)
前記第3の角座標を判定するステップは、特徴ベースの追跡技法、コードベースの追跡技法、またはそれらの組み合わせを使用して、前記第3の角座標を判定するステップを含む、項目1に記載の方法。
(項目4)
前記第3の角座標を判定するステップは、少なくとも部分的に、前記虹彩特徴に基づいて、前記眼画像と基準眼画像との間のホモグラフィを判定するステップを含む、項目1に記載の方法。
(項目5)
前記第3の角座標を判定するステップは、少なくとも部分的に、前記虹彩特徴に基づいて、前記眼画像から生成される虹彩コードと基準眼画像から生成される虹彩コードとの間の偏移を判定するステップを含む、項目1-4のうちのいずれか1項に記載の方法。
(項目6)
前記虹彩特徴は、異なるテクスチャ、前記虹彩内のパターン、または前記虹彩のキーポイントを伴う虹彩の面積を含む、項目1に記載の方法。
(項目7)
前記第1の眼ポーズ測定値は、ユーザの第1の眼に関して判定され、第2の眼ポーズ測定値は、前記ユーザの第2の眼に関して判定され、前記第1の眼ポーズ測定値および前記第2の眼ポーズ測定値の平均が、前記ユーザの眼ポーズの単一の推定値として使用される、項目1に記載の方法。
(項目8)
ヘッドマウントディスプレイシステムであって、
眼画像を捕捉するように構成される、画像捕捉デバイスと、
ハードウェアプロセッサであって、
前記画像捕捉デバイスから前記眼画像を受信することと、
少なくとも部分的に、前記眼画像に基づいて、前記眼のピッチおよびヨーを判定することと、
少なくとも部分的に、前記眼画像内の眼特徴に基づいて、前記眼のロールを判定することと、
少なくとも部分的に、前記ピッチ、前記ヨー、および前記ロールに基づいて、前記眼画像の眼ポーズを判定することと
を行うようにプログラムされる、ハードウェアプロセッサと、
を備える、ヘッドマウントディスプレイシステム。
(項目9)
前記眼のロールを判定するために、前記ハードウェアプロセッサは、前記眼画像と基準眼画像との間のホモグラフィを判定するようにプログラムされる、項目8に記載のヘッドマウントディスプレイシステム。
(項目10)
前記眼のロールを判定するために、前記ハードウェアプロセッサは、前記眼画像の極座標表現を利用するようにプログラムされる、項目8に記載のヘッドマウントディスプレイシステム。
(項目11)
前記眼のロールを判定するために、前記ハードウェアプロセッサは、前記眼画像の虹彩コードを基準眼画像からの虹彩コードと比較するようにプログラムされる、項目8に記載のヘッドマウントディスプレイシステム。
(項目12)
前記ハードウェアプロセッサはさらに、前記眼画像の眼ポーズを使用して、前記眼のバイオメトリックデータを判定するようにプログラムされる、項目8に記載のヘッドマウントディスプレイシステム。
(項目13)
前記眼特徴は、虹彩特徴を含み、前記虹彩特徴は、前記虹彩内のテクスチャ、パターン、またはキーポイントを含む、項目8に記載のヘッドマウントディスプレイシステム。
(項目14)
前記眼特徴は、強膜特徴を含み、前記強膜特徴は、血管を含む、項目8-13のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
(項目15)
前記プロセッサはさらに、前記眼画像内の前記眼の虹彩をセグメント化するようにプログラムされる、項目8に記載のヘッドマウントディスプレイシステム。
(項目16)
ヘッドマウントディスプレイ(HMD)の動作におけるエラーを検出するための方法であって、前記方法は、
ハードウェアコンピュータプロセッサの制御下で、
前記HMDの装着者の第1の眼の第1のロール角を判定するステップと、
前記HMDの装着者の第2の眼の第2のロール角を判定するステップと、
少なくとも部分的に、前記第1のロール角および前記第2のロール角の比較に基づいて、前記ヘッドマウントディスプレイ動作の動作におけるエラーを検出するステップと、
を含む、方法。
(項目17)
前記ヘッドマウントディスプレイの動作におけるエラーを検出するステップは、前記第1のロール角と前記第2のロール角との間の差異が、あるエラー閾値を超えることを判定するステップを含む、項目16に記載の方法。
(項目18)
前記検出されたエラーに基づいて、エラー信号を生成するステップをさらに含む、項目16に記載の方法。
(項目19)
前記ヘッドマウントディスプレイ動作の動作におけるエラーを検出するステップは、前記複数の眼画像内のロール角に関する平均値を追跡するステップを含む、項目16に記載の方法。
(項目20)
前記第1のロール角を判定するステップまたは前記第2のロール角を判定するステップは、特徴ベースの追跡技法、コードベースの追跡技法、またはそれらの組み合わせを使用して、前記第1のロール角を判定するステップまたは前記第2のロール角を判定するステップを含む、項目16-19のうちのいずれか1項に記載の方法。
図1は、眼特徴を示す眼の実施例を図式的に図示し、図1Aは、眼の自然静止状態に対する眼ポーズ方向を測定するために使用され得る3つの角度(例えば、ヨー、ピッチ、およびロール)の実施例を示す。 図2A-2Bは、虹彩特徴を使用する例示的眼ポーズ識別システムを図式的に図示する。 図2A-2Bは、虹彩特徴を使用する例示的眼ポーズ識別システムを図式的に図示する。 図3A-3Bは、眼の眼ポーズを識別するための虹彩コード識別システムの実施例を図式的に図示する。 図4は、眼ポーズ識別ルーチンの実施例を図式的に図示する。 図5は、ウェアラブルディスプレイシステムの実施例を図式的に図示する。
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用され得る。図面は、本明細書に説明される例示的実施形態を図示するために提供され、本開示の範囲を限定することを意図されない。
(概観)
眼からバイオメトリック情報を抽出するステップは、概して、眼画像内の虹彩のセグメント化に関するプロシージャを含む。虹彩セグメント化は、虹彩の瞳孔および縁郭境界を見出すステップ、上眼瞼または下眼瞼が虹彩を閉塞する場合、それらを位置特定するステップ、睫毛、陰影、または反射の閉塞を検出および除外するステップ等を含む、虹彩境界を位置特定するステップを含む動作を伴うことができる。例えば、眼画像は、顔の画像内に含まれることができる、または眼周囲領域の画像であり得る。虹彩セグメント化を実施するために、瞳孔(虹彩の内部境界)および縁郭(虹彩の外部境界)の両方の境界が、画像データの別個のセグメントとして識別されることができる。
さらに、バイオメトリック情報(例えば、眼ポーズ)を取得するために、コンピュータのユーザの眼移動を追跡するためのアルゴリズムが、存在する。例えば、コンピュータのモニタに結合されるカメラが、眼移動を識別するための画像を提供することができる。しかしながら、眼追跡のために使用されるカメラは、ユーザの眼からある程度の距離がある。例えば、カメラは、コンピュータに結合されるユーザのモニタの上部に配置され得る。その結果、カメラによって生産される眼の画像は、多くの場合、不良な分解能で生産される。
加えて、カメラおよびユーザの頭部を関連付ける幾何学形状は、概して、眼移動を追跡するアルゴリズムに事前に提供されない。その結果、ユーザの眼ポーズを判定することは、課題を提示し得、ユーザの頭部の座標系に容易に関連しない場合がある。本明細書に開示される技法を用いて、眼ポーズ識別が、実質的に、眼の指示方向を識別するために、また、虹彩にわたる眼瞼による閉塞の面積を予測するために使用されることができる。本明細書に説明される眼ポーズ識別の実施形態は、有利なこととして、眼瞼によって閉塞される虹彩の部分を推定するために使用されることができる。加えて、いくつかの実装では、本眼ポーズ識別は、セグメント化アルゴリズムおよびユーザの頭部に関する座標フレームの識別の代わりに、またはそのための開始点としてのいずれかで使用され得る、眼瞼場所に関するモデルを生成するために使用されることができる。
ウェアラブルヘッドマウントディスプレイ(HMD)の文脈では、カメラは、ユーザのモニタに結合されるカメラよりもユーザの眼に近接し得る。例えば、カメラは、ウェアラブルHMD上に搭載され得、これ自体が、ユーザの頭部に搭載される。そのようなカメラへの眼の近接は、より高い分解能の眼画像をもたらすことができる。故に、コンピュータビジョン技法が、ユーザの眼から、特に、虹彩(例えば、虹彩特徴)または虹彩を囲繞する強膜(例えば、強膜特徴)における視覚特徴を抽出することが可能である。例えば、眼に近接するカメラによって視認されると、眼の虹彩は、詳細な構造を示すであろう。そのような虹彩特徴は、赤外線照明下で観察されると、特に顕著であり、バイオメトリック識別のために使用されることができる。これらの虹彩特徴は、ユーザ毎に一意であり、指紋の様式で、ユーザを一意に識別するために使用されることができる。眼特徴は、眼の強膜(虹彩の外側)内の血管を含むことができ、これもまた、赤色または赤外光下で視認されると、特に顕著に見え得る。
本開示は、「記述子」と関連付けられ得る虹彩特徴を説明する。記述子は、虹彩特徴に近接する領域の数値表現であり得る。記述子は、眼の別の画像内の同一の虹彩特徴の認識のために使用されることができる。本明細書に開示されるように、そのような虹彩特徴は、一般的な意味で眼の運動を追跡するためだけではなく、また、眼のポーズ(例えば、注視方向)を判定するために使用されることができる。例えば、2つの眼画像を関連付けるホモグラフィの算出(例えば、2つの眼画像間の数学的変換)が、眼ポーズを識別するために使用されることができ、2つの画像間の虹彩特徴の変化は、(別の画像内の)初期眼ポーズに対する(例えば、1つの画像内の)新しい眼ポーズを示し得る。虹彩特徴に加えて、またはその代替として、眼の強膜内の特徴に関する記述子が、使用されることができる。
本開示はまた、眼ポーズ識別の実施例を説明する。虹彩特徴を使用して、少なくとも2つの眼画像間のホモグラフィの算出が、特徴ベースの追跡技法(FBT)、コードベースの追跡(CBT)技法、またはそれらの両方を使用して処理されることができる。両方の技法のある実施形態では、虹彩は、最初に、セグメント化され、例えば、虹彩の瞳孔および縁郭境界が、画像データの別個のセグメントとして識別される。本セグメント化から、眼ポーズの2つの角寸法が、判定されることができる(例えば、ピッチおよびヨー角)。虹彩特徴を比較することによって、眼ポーズの第3の角寸法が、識別されることができ(例えば、ロール)、順に、識別された全ての3つの角寸法を用いて、眼に関する眼ポーズが、識別されることができる。以下にさらに説明されるであろうように、特徴ベースの追跡技法およびコードベースの追跡技法は、各技法が眼ポーズの第3の角寸法(例えば、眼のロール角)を算出する方法において変動し得る。種々の実施形態では、眼の全ての3つの角寸法は、必ずしも、眼画像に対する虹彩セグメント化を実施することなく、種々の眼画像の虹彩特徴の比較から判定されることができる。
他の課題が、ウェアラブルHMDから眼画像を処理するときに存在し得る。例えば、HMD内に搭載されるカメラからの画像を使用して眼を追跡することは、他の問題を導入し得、眼移動は、HMD移動またはHMDに搭載されるカメラの移動と区別することが困難であり得る。しかしながら、本明細書に説明される技法を使用して、HMDから取得される画像を使用して眼を追跡する際に存在する課題は、HMDの基準フレーム内の眼の眼ポーズを判定することによって、軽減されることができる。
より具体的には、現在の眼画像処理技法は、眼のロールまたは眼ポーズの第3の角寸法を使用しない場合がある。しかしながら、眼のロールの推定が、眼移動、雑音抑制、またはHMDの移動に関するエラーチェックに起因する捩れを測定するために使用されることができる。HMDに搭載されるカメラから取得される眼画像の視点から視認すると、ロール角は、その回転軸が瞳孔の光軸である眼の周囲の軌道に対するカメラのポーズ(例えば、カメラの指示方向)の変化に対応することができる。カメラの厳密な場所が(例えば、ウェアラブルHMDの文脈において)眼に対して精密に把握されない限り、瞳孔のロール角の算出は、カメラ、したがって、HMD自体のマウントの場所を判定するために使用されることができる。
加えて、眼画像を取得するカメラがHMD自体に搭載されるため、頭部の座標フレーム内のユーザの視認方向が、判定されることができる。ある実施例として、ヘッドマウント拡張現実(AR)デバイスに関して、HMD自体の座標フレームを使用する眼ポーズ識別が、判定され得る。
本明細書で使用されるように、ビデオは、その通常の意味において使用され、限定ではないが、視覚画像のシーケンスの記録を含む。ビデオ内の各画像は、時として、画像フレームまたは単純にフレームと称される。ビデオは、オーディオチャネルの有無を問わず、複数の連続フレームまたは非連続フレームを含むことができる。ビデオは、時間において順序付けられる、または時間において順序付けられない、複数のフレームを含むことができる。故に、ビデオ内の画像は、眼画像フレームまたは眼画像と称され得る。
(眼の実施例)
図1は、眼瞼104、強膜108、虹彩112、および瞳孔116を伴う、眼100の画像を図示する。曲線116aは、瞳孔116と虹彩112との間の瞳孔境界を示し、曲線112aは、虹彩112と強膜108(眼の「白眼」)との間の縁郭境界を示す。眼瞼104は、上眼瞼104aと、下眼瞼104bとを含む。眼100は、自然静止ポーズ(例えば、ユーザの顔および注視の両方が、それらがユーザの直前の遠隔の物体に向かうであろうように配向される)において図示される。眼100の自然静止ポーズは、自然静止方向120によって示されることができ、これは、自然静止ポーズにあるとき、眼100の表面に直交する(例えば、図1に示される眼100に対する平面から真っ直ぐな)方向であり、本実施例では、瞳孔116内の中心に置かれる。
眼は、眼追跡またはバイオメトリック用途のために使用され得る、虹彩または強膜(またはその両方)内の眼特徴124を含むことができる。図1は、虹彩特徴124aおよび強膜特徴124bを含む、眼特徴124の実施例を図示する。眼特徴124は、個々のキーポイントと称され得る。そのような眼特徴は、個人の眼に一意であり得、その個人の眼毎に固有であり得る。虹彩特徴124aは、残りの虹彩色と比較して、またはその点を囲繞するある面積と比較して、特定の色密度の点であり得る。別の実施例として、虹彩のテクスチャ(例えば、その特徴の近傍の虹彩のテクスチャとは異なるテクスチャ)またはパターンが、虹彩特徴124aとして識別されることができる。また別の実施例として、虹彩特徴124aは、外観が虹彩とは異なる瘢痕であり得る。眼特徴124はまた、眼の血管と関連付けられることができる。例えば、血管は、虹彩の外側であるが、強膜内に存在し得る。そのような血管は、赤色または赤外光照明下でより顕著に可視であり得る。強膜特徴124bは、眼の強膜内の血管であり得る。いくつかの場合では、眼特徴という用語は、特徴が虹彩内にあるか、強膜内にあるか、または瞳孔を通して(例えば、網膜上に)見られる特徴であるかにかかわらず、眼の中またはその上の任意のタイプの識別特徴を指すように使用され得る。
各眼特徴124は、眼特徴124を囲繞する面積の数値表現である記述子と関連付けられることができる。記述子はまた、虹彩特徴表現とも称され得る。また別の実施例として、そのような眼特徴は、スケール不変特徴変換(SIFT)、高速化ロバスト特徴(SURF)、加速セグメント試験からの特徴(FAST)、方向付きFASTおよび回転BRIEF(ORB)、KAZE、加速KAZE(AKAZE)等から導出され得る。故に、眼特徴124は、公知のコンピュータビジョンの分野からのアルゴリズムおよび技法から導出され得る。そのような眼特徴124は、キーポイントと称され得る。以下に説明される例示的実施形態のいくつかでは、眼特徴は、虹彩特徴の観点から説明されるであろう。これは、限定ではなく、任意のタイプの眼特徴(例えば、強膜特徴)が、他の実装において、加えて、または代替として、使用されることができる。
眼100が異なる物体を見るために移動すると、眼ポーズは、自然静止方向120に対して変化するであろう。現在の眼ポーズは、自然静止眼ポーズ方向120を基準にして測定されることができる。眼100の現在のポーズは、眼の自然静止方向120に対する現在の眼ポーズ方向を示す3つの角度パラメータとして表され得る。例証を目的として、図1Aに示される例示的座標系を参照して、これらの角度パラメータは、α(ヨーと称され得る)、β(ピッチと称され得る)、およびγ(ロールと称され得る)として表されることができる。他の実装では、眼ポーズを測定するための他の技法または角度表現、例えば、任意の他のタイプのオイラー角システムが、使用されることができる。
眼画像が、任意の適切なプロセスを使用して、例えば、1つまたはそれを上回る連続フレームから画像を抽出し得るビデオ処理アルゴリズムを使用して、ビデオから取得されることができる。眼のポーズは、本明細書に説明されるような種々の眼追跡技法を使用して、眼画像から判定されることができる。
(特徴ベースの追跡を用いた眼ポーズ識別の実施例)
図2A-2Bは、虹彩特徴を使用する例示的眼ポーズ識別システムを図式的に図示する。より具体的には、図2A-2Bは、眼ポーズ識別に関する特徴ベースの追跡技法を図示する。描写される実施例は、セグメント化された虹彩を示す。図2Aに描写されるように、虹彩特徴124aが、虹彩112および瞳孔116を伴う眼内に識別される。曲線116aは、瞳孔116と虹彩112との間の瞳孔境界を示し、曲線112aは、虹彩112と強膜との間の縁郭境界を示す。上記に説明されるように、虹彩特徴124aは、例えば、セグメント化された虹彩の面積から算出されるような数値表現と関連付けられることができる。
虹彩特徴124aは、任意の特定の画像(例えば、図2Bの画像)を眼(例えば、図2Aに示されるように静止位置において前方を向く眼)の基準画像に関連付けるために使用されることができる。本実施例では、図2Aは、基準眼画像から取得されるような眼であり得る。図2Bは、別の眼画像から取得されるような、(指示方向に向かって)回転される同一の眼を描写する。虹彩特徴124aを使用して、回転される眼画像(例えば、図2B)内の虹彩特徴124aの位置を基準眼画像(例えば、図2A)内の位置に関連付けるホモグラフィが、算出されることができる。例えば、2つの角寸法が、虹彩特徴124aを使用して算出されることができる。または別の実施形態では、虹彩は、最初に、セグメント化され、これらの2つの角寸法は、その虹彩セグメント化後に算出され得る。虹彩は、非常に略平坦であるため、ホモグラフィは、適切なマッピングであり得るが、しかしながら、角膜からの歪みが、いくつかの実装では、より高い精度結果のために、考慮され得る。一実施形態では、2つの角寸法は、ヨーおよびピッチと称され得る。加えて、図2Bに描写されるように、眼の指示方向は、第3の角寸法と関連し得る。第3の角寸法は、眼のロールと称され得る。眼の全ての3つの角寸法が取得されると、3つの角寸法を備える眼ポーズが、識別されることができる。識別された眼ポーズは、3次元角座標系において表される眼の数値表現であり得る。故に、第3の角寸法における眼のロール回転の変化、例えば、図2A-2Bに描写されるロール回転の変化が、判定され得る。少なくとも2つの画像間のホモグラフィを算出するそのようなプロセスは、虹彩特徴124aの「合致」と称され得る。
算出された2つの角寸法(例えば、ヨーおよびピッチ)は、他のセグメント化技法を介して判定される虹彩セグメント化を照合するために使用され得る。例えば、セグメント化変換が、虹彩特徴(例えば、キーポイント)ホモグラフィの判定と同時に解かれ得る。一実装では、セグメント化変換が、解かれ、キーポイントが、画像から分離され、ホモグラフィが、キーポイントから解かれ、セグメント化が、照合され、最終的な解が、単一の解を算出するために、キーポイントおよび境界セグメント化を使用して(セグメント化が照合された場合)算出され得る。
虹彩特徴124aの数値表現は、虹彩特徴124aが画像から直接算出される場合、2つの取得された眼画像間で変化し得る。例えば、瞳孔の遠視歪みおよび拡張状態は、セグメント化された眼内の虹彩特徴124aの見掛けの場所を変化させ得る。加えて、数値表現(例えば、記述子)は、歪曲され、場合によっては、画像間の虹彩特徴124aの合致に課題を導入し得る。故に、一実施形態では、瞳孔は、(例えば、縁郭境界から算出されたホモグラフィを反転させることによって)同等の正面像に再マッピングされ得、その後、歪みのない画像から虹彩特徴124aを算出する。そのようなマッピングはまた、瞳孔境界から縁郭境界に延在する半径方向寸法の正規化を含み得る。
さらに、取得された眼画像は、極座標表現システムに変換され得る(例えば、Daugmanによる米国特許第5,291,560号参照)。そのような表現システムでは、x座標は、歪みのない画像内の角座標に等しく、y座標は、「疑似半径」(瞳孔境界からの半径方向距離)に等しい。そのような極画像は、標準サイズに正規化され得る。そのような場合では、虹彩特徴124aおよび数値表現は、極画像上で算出される。2つの取得された眼画像間の合致は、その極画像によって定義される数値表現に対して算出され得る。2つの取得された眼画像間の合致を見出すために、極変換および修正変換が、反転されることができ、オリジナル画像内の虹彩特徴124aの場所が、算出されることができる。一実施形態では、配向と関連付けられる虹彩特徴124aは、不必要であり得る。算出された極画像では、虹彩特徴124aの配向は、眼のロール回転とは無関係に固定され得る。
前述の実施例は、虹彩特徴を使用して眼ポーズを識別する文脈において説明されたが、これは、例証のためであり、限定することは意図されない。他の実装では、任意の好適な眼特徴が、眼ポーズを識別するために使用されることができる。例えば、瞳孔特徴が、眼画像間の変化を検出し、したがって、眼のロール角を算出するために使用され得る。
(コードベースの追跡を用いた眼ポーズ識別の実施例)
図3A-3Bは、眼の眼ポーズを識別するための虹彩コード識別技法の実施例を図式的に図示する。本実施例は、図1の虹彩特徴124a等の虹彩特徴を使用するコードベースの追跡技法を図示する。図3Aに描写されるように、静止ポーズにおける(例えば、真っ直ぐ正面を見る)眼の画像304aが、虹彩特徴124a1を含むことができる。図3Bに描写されるように、画像304bは、量308aだけの眼のロール角の変化を示し、これは、画像304b内の虹彩特徴124a1を、静止ポーズ画像304a1のその角度位置に対して角度偏移させる。例えば、画像304a内の虹彩特徴124a1は、角度308aだけ角度位置において偏移され、画像304b内で偏移された虹彩特徴124a2として出現する。画像304bは、静止視点から(例えば、眼が真っ直ぐ正面を見ているように)示され、これは、上記に説明されるヨーおよびピッチ角を使用して達成されることができる。
画像304a、304b内の虹彩は、上記に議論される半径方向座標rおよび角座標γを伴う角度表現システムにマッピングされる(例えば、「展開される」)ことができる。または別の実施形態では、虹彩は、最初に、セグメント化され、2つの角寸法が、極表現システムにマッピングされ得る。虹彩コード312a、312bが、それぞれ、画像304a、304bのそれぞれから抽出されることができる。角度308aだけの眼の回転に起因して、虹彩コード312b内の虹彩特徴は、虹彩コード312a内のその位置に対して偏移量308bだけ偏移されるであろう。虹彩コード312a、312bを比較することによって、偏移量308bは、判定されることができる。極座標系では、偏移量308bは、ピクセルにおいて測定され得、これは、角度308aの測度、例えば、度に変換されることができる。
虹彩コードは、種々の方法で算出されることができる。例えば、いくつかの実施形態では、虹彩コードは、虹彩バイオメトリクスのためにJohn Daugmanによって開発されたアルゴリズムに従って算出されることができる(例えば、米国特許第5,291,560号参照)。例えば、虹彩コードは、2-Dバンドパスフィルタ(例えば、Gaborフィルタ)を用いた(極座標内の)虹彩画像の畳み込みに基づき得、虹彩コードは、(例えば、特定のGaborフィルタへの応答が正または負であるかを問わず)2ビット数として表されることができる。
コードベースの追跡技法の比較プロセスでは、初期虹彩コード312a(例えば、画像304a等からの開始眼位置からの虹彩コード)が、第3の角寸法における可能な平行移動(例えば、-10ピクセルから+10ピクセル)のウィンドウに関して再算出されることができる。ウィンドウは、ユーザによって装着されている間、その眼ポーズが変化する際、またはHMDが偏移、移動、または回転する際にユーザが体験するロール角の予期される量(虹彩コードの水平な平行移動に対応する)に基づいて選択されることができる。ウィンドウは、約5度を下回る、約10度を下回る、約20度を下回る、約30度を下回る、またはある他の値のロール角を表し得る。いくつかの実装では、再算出された虹彩コードは、ハッシュされ、バイナリツリー内に記憶される。偏移量308bは、基準画像304aから再算出された虹彩コードのうちの1つに対して現在測定されているような虹彩コード間の異なるビットの最小数(例えば、Hamming距離)を判定することによって計算されることができる。異なるビットの最小数は、γ軸に沿った正しい回転として選択されることができる。虹彩コード312bのγ軸方向における変位312abから、虹彩のロール角(画像304bと画像304aとの間の角度308a)は、直接算出されることができる。例えば、展開された画像が512ピクセル幅であり、最良の合致に対応する変位が5ピクセルであった場合、眼のロールは、
Figure 0007136875000001
である。
前述の実施例は、虹彩特徴を使用して眼ポーズを識別する文脈において説明されたが、これは、例証のためであり、限定することは意図されない。他の実装では、任意の好適な眼特徴が、眼ポーズを識別するために使用されることができる。例えば、瞳孔特徴が、眼画像間の変化を検出し、したがって、眼のロール角を算出するために使用され得る。加えて、前述の実施例は、極表現の文脈において説明されたが、これは、例証のためであり、限定することは意図されない。他の実装では、好適な座標系にマッピングされる虹彩特徴に関する任意の好適な数値表現が、コードベースの追跡技法を実装するために使用されることができる。
(例示的眼ポーズ推定ルーチン)
図4は、上記に説明されるFBTおよびCBT技法の実施形態を使用して眼ポーズを測定するための例証的ルーチン400のフロー図400である。ルーチン400は、ブロック404において開始される。ブロック408において、眼画像が、受信される。眼画像は、限定ではないが、画像捕捉デバイス、ヘッドマウントディスプレイシステム、サーバ、非一過性コンピュータ可読媒体、またはクライアントコンピューティングデバイス(例えば、スマートフォン)を含む、種々の源から受信されることができる。
正常な人間の虹彩は、高い正確度で円形である。カメラが略正面角度から眼を視認するように位置付けられない場合があるため、虹彩は、概して、静止位置(例えば、真っ直ぐ正面)にあっても、カメラ画像から取得されたときに円形に見えないであろう。ある特定の画像に関して、虹彩の平面およびイメージャの平面が平行ではない場合、虹彩の境界は、長円形または楕円形に見え得る。カメラの視野角等の器具効果もまた、虹彩が円形に見えないように画像を歪曲させ得る。ブロック412において、眼画像からの眼の虹彩は、虹彩の縁郭境界および瞳孔境界を識別するためにセグメント化される。セグメント化の一部として、(典型的には、虹彩の一部を閉塞する)眼瞼の場所が、判定され得る。本明細書に説明されるように、虹彩をセグメント化するステップは、いくつかの実装では、実施されない場合があり、したがって、ブロック412は、随意である。
ブロック416において、眼ポーズの2つの角座標が、虹彩境界(縁郭または瞳孔)に基づいて、または概して、虹彩セグメント化に基づいて判定される。例えば、透視変換を特徴付けるカメラの固有のパラメータ(例えば、レンズの焦点距離、ピクセル座標におけるイメージャ表面上の光学的中心点等)を所与として、虹彩が2つの角寸法において視認されている透視変換を解くことが可能である。故に、判定され得る2つの角寸法は、眼のヨーおよびピッチであり得る(例えば、図1Aに示される角度αおよびβ参照)。先に留意されるように、眼のロール(その周囲で回転が虹彩の境界を変化させない第3の角寸法)は、透視変換のみから解かれない場合がある。
ブロック420において、眼特徴が、眼画像内に識別される。例えば、これは、ある場所における虹彩のテクスチャまたはパターンまたはキーポイントに関して上記に説明されるように起こり得る。虹彩特徴の数値表現が、例えば、虹彩特徴の周囲の面積を算出することによって、ピクセルの密度の観点から、虹彩特徴からの半径の観点から、虹彩コードの観点から、または数値表現を虹彩特徴と関連付けるための任意の他の方法によって、算出されることができる。さらに、本明細書に説明されるように、ルーチン400は、眼の虹彩内にある特徴のみに限定されず、眼の強膜(虹彩の外側)内の特徴に(加えて、または代替として)適用されることができる。
ブロック424において、眼ポーズの第3の角座標が、識別された眼特徴に基づいて判定される。図2A-2Bにおける特徴ベースの追跡技法に関して、および図3A-3Bにおけるコードベースの追跡技法に関して上記に説明されるように、眼ポーズの第3の角座標(例えば、図1Aに示されるロール角γ)は、(ブロック408において取得された)画像と基準状態(例えば、眼が真っ直ぐ正面を見る静止状態)における眼の画像との間の眼特徴(虹彩特徴または強膜特徴)の角度位置の変化から判定されることができる。故に、眼の3つの角寸法が判定されると、眼に関する眼ポーズが、3次元角座標系によって表されるように識別されることができる。
ブロック428において、識別された眼ポーズが、バイオメトリック用途またはヘッドマウントディスプレイ(HMD)に関する画像表示のために使用されることができる。したがって、本実施例から分かり得るように、眼ポーズは、虹彩のセグメント化およびセグメント化された眼から測定される識別された虹彩特徴に従って識別されることができる。
いくつかの実装では、虹彩セグメント化は、識別された眼ポーズを使用して再推定されることができ、初期虹彩セグメント化と再推定された虹彩セグメント化との間の比較が、眼ポーズ推定の一貫性を照合するために実施されることができる。例えば、再推定された虹彩セグメント化が、初期虹彩セグメント化と実質的に同一である(例えば、ある閾値差よりも小さい)場合、眼ポーズ推定値は、正確である可能性が高い。代替として、2つのポーズ測定値が、(例えば、両方の測定値を生成する最大確率を伴う潜在的ポーズを算出することによって)単一の測定値に融合され得る。
種々の実施形態では、ルーチン400は、例えば、図5を参照して以下に説明されるように、ウェアラブルディスプレイシステム500のハードウェアプロセッサ(例えば、ローカルまたは遠隔処理モジュール528、532)によって実施され得る。ルーチン400は、HMDの装着者の片眼またはHMDの装着者の両目に対して実施されることができる。
(ヘッドマウントディスプレイエラー回転ルーチンの実施例)
種々の実施形態では、装着者の頭部に対するヘッドマウントディスプレイの回転を判定するためのルーチンが、(眼ポーズが虹彩特徴から識別される)ルーチン400と同様に実施されることができる。典型的には、装着者の各眼の角度ロールは、実質的に同一である。ウェアラブルヘッドマウントディスプレイの場合では、装着者の頭部に対するHMDの回転は、装着者の眼毎に多少異なる眼ロールをもたらし得る。故に、眼毎の角度ロール測定値がある閾値を上回って異なる場合、エラー信号が、エラーがウェアラブルヘッドマウントディスプレイに起きたことを示すために生成されることができる。例えば、種々の実施形態では、閾値は、1~5度、5~10度、またはある他の回転量であり得る。
種々の実施形態では、各眼の角度ロールは、一連の画像にわたって平均化され、続けて、本エラー回転技法を使用して比較されることができる。
いくつかの実施形態では、そのような比較は、目が中立静止位置にあるときのみ実施され得る。他の例では、本判定は、他の注視方向に関して実施され得る。本場合では、眼の操向筋肉(例えば、内直筋および側直筋)の自然作用の結果としての眼の予期されるロールは、2つの眼間の比較の前に明示的に減算され得る。
(眼ポーズ識別の例示的用途)
眼ポーズ識別を使用するシステムおよび方法は、ビデオ画像の文脈内で対処されると、画像処理における古典的問題の多くが改善されることを可能にする。加えて、新しい問題が、対処されることができる。例えば、眼ポーズ識別は、ビデオからの画像分類(例えば、眼の虹彩を識別すること)のために、およびビデオの1つまたはそれを上回るフレーム内の具体的物体タイプ(例えば、上眼瞼の場所)の位置特定のために使用されることができる。別の実施例として、眼ポーズ識別は、眼追跡の用途(例えば、眼の配向または方向を判定すること)のためにビデオに適用されることができる。
いくつかのそのような用途では、以下にさらに議論されるであろうように、ウェアラブルディスプレイシステムが、ウェアラブルディスプレイシステムに動作可能に結合される(例えば、それに取り付けられる、またはその中に含まれる)、画像捕捉デバイスによって取得されるビデオデータに対して眼ポーズ識別を実施するプロセッサを含むことができる。画像捕捉デバイスは、眼ポーズを識別する際に使用するために、装着者の眼または装着者の身体の他の構成要素(例えば、眉)のビデオを取得し得る。
眼ポーズ識別の使用は、有利なこととして、(例えば、ウェアラブルディスプレイシステム内の画像捕捉デバイスから取得される)ビデオ内の眼ポーズの認識を可能にし、これは、バイオメトリック情報等のビデオ内の物体の改良された認識または分類を可能にし得る。例えば、従来のバイオメトリックテンプレートは、眼の眼ポーズを判定する際に困難を有し得る。しかしながら、本明細書に説明される眼ポーズ識別アプローチは、ヨー、ピッチ、およびロール等の眼ポーズの3つの角寸法を識別することができる。したがって、バイオメトリック情報を抽出する能力を提供することによって、(図4に説明され、図2A-2Bおよび3に図示されるような)眼ポーズ識別は、虹彩セグメント化のみを使用するときに利用可能ではない眼の部分をより良好に追跡することができ、バイオメトリック抽出において使用されるより正確な虹彩セグメント化を提供することができる。本明細書に開示される眼ポーズ識別技法は、バイオメトリック抽出のために、(例えば、図5等における)ヘッドマウントディスプレイによって使用されることができる。
(眼ポーズ識別を使用する例示的ウェアラブルディスプレイシステム)
いくつかの実施形態では、ディスプレイシステムは、ウェアラブルであり得、これは、有利なこととして、より没入型の仮想現実(VR)、拡張現実(AR)、または複合現実(MR)体験を提供し得、デジタル的に再現された画像またはその一部が、それらが現実のように見える、または現実として知覚され得る様式で装着者に提示される。
理論によって限定されるわけではないが、人間の眼は、典型的には、奥行知覚を提供するために、有限数奥行面を解釈し得ると考えられる。その結果、知覚される奥行の高度に真実味のあるシミュレーションが、これらの限定された数の奥行面のそれぞれに対応する画像の異なる表現を眼に提供することによって達成され得る。例えば、導波管のスタックを含有するディスプレイが、ユーザまたは視認者の眼の正面に位置付けられて装着されるように構成され得る。導波管のスタックは、複数の導波管を使用し、画像投入デバイス(例えば、1つまたはそれを上回る光ファイバを介して画像情報を送る、多重化ディスプレイの離散ディスプレイまたは出力端)から、特定の導波管と関連付けられる奥行面に対応する特定の角度(および発散量)における視認者の眼に光を指向させることによって、3次元知覚を眼/脳に提供するために利用され得る。
いくつかの実施形態では、導波管の2つのスタック(視認者の眼毎に1つ)が、異なる画像を各眼に提供するために利用され得る。一実施例として、拡張現実シーンは、AR技術の装着者が、人物、木、背景の建物、およびコンクリートプラットフォームを特徴とする現実世界の公園のような設定を見るようにし得る。これらのアイテムに加えて、AR技術の装着者はまた、自身が、現実世界プラットフォーム上に立つロボットの像およびマルハナバチの擬人化のように見える飛行する漫画的アバタキャラクタを、そのロボットの像およびマルハナバチが現実世界に存在していないにもかかわらず、「見ている」と知覚し得る。導波管のスタックは、入力画像に対応するライトフィールドを生成するために使用され得、いくつかの実装では、ウェアラブルディスプレイは、ウェアラブルライトフィールドディスプレイを含む。ライトフィールド画像を提供するためのウェアラブルディスプレイデバイスおよび導波管スタックの実施例が、米国特許公開第2015/0016777号(参照することによって、これが含有するあらゆるものに関してその全体として本明細書に組み込まれる)に説明されている。
図5は、装着者504にVR、AR、またはMR体験を提示するために使用され得る、ウェアラブルディスプレイシステム500の実施例を図示する。ウェアラブルディスプレイシステム500は、眼ポーズ識別を実施し、本明細書に説明される用途または実施形態のいずれかを提供するようにプログラムされ得る。ディスプレイシステム500は、ディスプレイ508と、そのディスプレイ508の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含む。ディスプレイ508は、フレーム512に結合され得、これは、ディスプレイシステム装着者または視認者504によってウェアラブルであり、装着者504の眼の正面にディスプレイ508を位置付けるように構成される。ディスプレイ508は、ライトフィールドディスプレイであり得る。いくつかの実施形態では、スピーカ516が、フレーム512に結合され、ユーザの外耳道に隣接して位置付けられ、いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音響制御を提供する。ディスプレイ508は、有線導線または無線接続等によって、フレーム512に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様にユーザ504に(例えば、バックパック式構成において、ベルト結合式構成において)可撤式に取り付けられる等、種々の構成において搭載され得る、ローカルデータ処理モジュール524に動作可能に結合される(520)。
フレーム512は、装着者の眼の画像を取得するために、フレーム512に取り付けられる、または搭載される1つまたはそれを上回るカメラを有することができる。一実施形態では、カメラは、眼が直接撮像され得るように、装着者の眼の正面のフレーム512に搭載され得る。他の実施形態では、カメラは、(例えば、装着者の耳に近接する)フレーム512のステムに沿って搭載されることができる。そのような実施形態では、ディスプレイ512は、装着者の眼からの光をカメラに向かって戻るように反射する材料を用いてコーティングされ得る。虹彩特徴は、赤外画像において顕著であるため、光は、赤外光であり得る。
ローカル処理およびデータモジュール524は、ハードウェアプロセッサおよび不揮発性メモリ、例えば、フラッシュメモリ等の非一過性デジタルメモリを備え得、その両方は、データの処理、キャッシュ、および記憶を補助するために利用され得る。データは、(a)画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロ等の(例えば、フレーム512に動作可能に結合される、または別様に装着者504に取り付けられ得る)センサから捕捉されるデータ、および/または、(b)場合によってはそのような処理または読出後のディスプレイ508への通過のために、遠隔処理モジュール528および/または遠隔データリポジトリ532を使用して取得および/または処理されるデータ、を含む。ローカル処理およびデータモジュール524は、有線または無線通信リンクを介する等、通信リンク536、540によって、遠隔処理モジュール528および遠隔データリポジトリ532に動作可能に結合され得、したがって、これらの遠隔モジュール528、532は、相互に動作可能に結合され、ローカル処理およびデータモジュール524へのリソースとして利用可能である。画像捕捉デバイスは、眼ポーズ識別プロシージャにおいて使用される眼画像を捕捉するために使用されることができる。
いくつかの実施形態では、遠隔処理モジュール528は、画像捕捉デバイスによって捕捉されたビデオ情報等のデータおよび/または画像情報を分析および処理するように構成される、1つまたはそれを上回るプロセッサを備え得る。ビデオデータは、ローカル処理およびデータモジュール524内に、および/または遠隔データリポジトリ532内にローカルに記憶され得る。いくつかの実施形態では、遠隔データリポジトリ532は、デジタルデータ記憶設備を備え得、これは、「クラウド」リソース構成におけるインターネットまたは他のネットワーキング構成を通して利用可能であり得る。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュール524において実施され、遠隔モジュールからの完全に自律的な使用を可能にする。
いくつかの実装では、ローカル処理およびデータモジュール524および/または遠隔処理モジュール528は、本明細書に説明されるような眼ポーズを識別する実施形態を実施するようにプログラムされる。例えば、ローカル処理およびデータモジュール524および/または遠隔処理モジュール528は、図4を参照して説明されるルーチン400の実施形態を実施するようにプログラムされることができる。ローカル処理およびデータモジュール524および/または遠隔処理モジュール528は、本明細書に開示される眼ポーズ識別技法を使用し、バイオメトリック抽出において、例えば、装着者504の識別を識別または認証する、または眼注視または眼瞼形状推定またはポーズ推定において、例えば、各眼が見ている方向を判定するようにプログラムされることができる。画像捕捉デバイスは、特定の用途のためのビデオ(例えば、眼追跡用途のための装着者の眼のビデオまたはジェスチャ識別用途のための装着者の手または指のビデオ)を捕捉することができる。ビデオは、処理モジュール524、528のうちの一方または両方によって、眼ポーズ識別技法を使用して分析されることができる。本分析では、処理モジュール524、528は、眼ポーズ識別または検出および/またはバイオメトリック抽出等を実施することができる。ある実施例として、ローカル処理およびデータモジュール524および/または遠隔処理モジュール528は、フレーム512に取り付けられたカメラから取得された眼画像を記憶するようにプログラムされることができる。加えて、ローカル処理およびデータモジュール524および/または遠隔処理モジュール528は、ウェアラブルディスプレイシステム500の装着者の眼ポーズを識別するために、本明細書に説明される特徴ベースの追跡またはコードベースの追跡技法(例えば、ルーチン400)を使用して、眼画像を処理するようにプログラムされることができる。いくつかの場合では、遠隔処理モジュールに眼ポーズ識別の少なくとも一部を(例えば、「クラウド」内に)オフロードすることは、算出の効率または速度を改良し得る。眼ポーズ識別に関する種々のパラメータ(例えば、加重、バイアス項、ランダムサブセットサンプリング係数、数、フィルタ(例えば、Sobel微分演算子)のサイズ等)が、データモジュール524および/または532内に記憶されることができる。
ビデオ分析の結果(例えば、推定された眼ポーズ)は、付加的動作または処理のために、処理モジュール524、528のうちの一方または両方によって使用されることができる。例えば、種々の用途では、物体、ポーズ等のバイオメトリック識別、眼追跡、認識、または分類が、ウェアラブルディスプレイシステム500によって使用され得る。例えば、装着者の眼のビデオは、眼ポーズ識別のために使用されることができ、これは、順に、ディスプレイ508を通した装着者504の注視の方向を判定するために、処理モジュール524、528によって使用されることができる。ウェアラブルディスプレイシステム500の処理モジュール524、528は、本明細書に説明されるビデオまたは画像処理用途のいずれかを実施するように、眼ポーズ識別の1つまたはそれを上回る実施形態とともにプログラムされることができる。
(付加的側面)
本明細書に説明される眼ポーズ識別技法は、(例えば、ビデオフレームからの)画像に適用されることができる。眼ポーズ識別は、眼の画像を処理するための単一のプロセスおよび/または方法論としてともに見なされることができる。
第1の側面では、眼画像を処理するための方法が、開示される。本方法は、ハードウェアコンピュータプロセッサの制御下で、眼の瞳孔および縁郭境界を取得するために、眼画像内の眼の虹彩をセグメント化するステップと、眼の瞳孔および縁郭境界を使用して、第1の眼ポーズ測定値の2つの角座標を判定するステップと、眼の虹彩特徴を識別するステップと、識別された虹彩特徴を使用して、第1の眼ポーズ測定値の第3の角座標を判定するステップと、画像の表示またはバイオメトリック用途のために、第1の眼ポーズ測定値を利用するステップとを含む。
第2の側面では、眼の虹彩特徴を識別するステップは、虹彩特徴に関する記述子を判定するステップを含み、記述子は、虹彩特徴の数値表現を含む、側面1に記載の方法。
第3の側面では、第3の角座標を判定するステップは、特徴ベースの追跡技法、コードベースの追跡技法、またはそれらの組み合わせを使用して、第3の角座標を判定するステップを含む、側面1または側面2に記載の方法。
第4の側面では、第3の角座標を判定するステップは、特徴ベースの追跡技法およびコードベースの追跡技法を使用して、第3の角座標を判定するステップを含む、側面1または側面2に記載の方法。
第5の側面では、特徴ベースの眼追跡技法およびコードベースの追跡技法は、判定された眼ポーズの一貫性を照合するために、実質的に同時に実施される、側面4に記載の方法。
第6の側面では、第3の角座標を判定するステップは、少なくとも部分的に、虹彩特徴に基づいて、眼画像と基準眼画像との間のホモグラフィを判定するステップを含む、側面1-5のうちのいずれか1項に記載の方法。
第7の側面では、第3の角座標を判定するステップは、少なくとも部分的に、虹彩特徴に基づいて、眼画像から生成される虹彩コードと基準眼画像から生成される虹彩コードとの間の偏移を判定するステップを含む、側面1-6のうちのいずれか1項に記載の方法。
第8の側面では、虹彩特徴は、異なるテクスチャ、虹彩内のパターン、または虹彩のキーポイントを伴う虹彩の面積を含む、側面1-7のうちのいずれか1項に記載の方法。
第9の側面では、第1の眼ポーズ測定値は、ユーザの第1の眼に関して判定され、第2の眼ポーズ測定値は、ユーザの第2の眼に関して判定され、第1の眼ポーズ測定値および第2の眼ポーズ測定値の平均が、ユーザの眼ポーズの単一の推定値として使用される、側面1-8のうちのいずれか1項に記載の方法。
第10の側面では、ハードウェアプロセッサが、開示される。ハードウェアプロセッサは、側面1-9のうちのいずれか1つに記載の方法を実施するようにプログラムされる。
第11の側面では、眼ポーズを判定するためのウェアラブルディスプレイシステムであって、前記ウェアラブルディスプレイシステムは、側面10に記載のハードウェアプロセッサと、ハードウェアプロセッサにウェアラブルディスプレイシステムの装着者の眼画像を伝送するように構成される、画像デバイスとを備える、ウェアラブルディスプレイシステム。
第12の側面では、ハードウェアプロセッサはさらに、側面1-9のうちのいずれか1項に記載の方法を実施し、ウェアラブルディスプレイシステムの装着者の眼のバイオメトリック情報を判定するようにプログラムされる、側面11に記載のウェアラブルディスプレイシステム。
第13の側面では、ヘッドマウントディスプレイシステムが、開示される。ヘッドマウントディスプレイシステムは、眼画像を捕捉するように構成される、画像捕捉デバイスと、画像捕捉デバイスから眼画像を受信することと、少なくとも部分的に、眼画像に基づいて、眼のピッチおよびヨーを判定することと、少なくとも部分的に、眼画像内の眼特徴に基づいて、眼のロールを判定することと、少なくとも部分的に、ピッチ、ヨー、およびロールに基づいて、眼画像の眼ポーズを判定することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
第14の側面では、眼のロールを判定するために、ハードウェアプロセッサは、眼画像と基準眼画像との間のホモグラフィを判定するようにプログラムされる、側面13に記載のヘッドマウントディスプレイシステム。
第15の側面では、眼のロールを判定するために、ハードウェアプロセッサは、眼画像の極座標表現を利用するようにプログラムされる、側面13または側面14に記載のヘッドマウントディスプレイシステム。
第16の側面では、眼のロールを判定するために、ハードウェアプロセッサは、眼画像の虹彩コードを基準眼画像からの虹彩コードと比較するようにプログラムされる、側面13-15のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
第17の側面では、ハードウェアプロセッサはさらに、眼画像の眼ポーズを使用して、眼のバイオメトリックデータを判定するようにプログラムされる、側面13-16のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
第18の側面では、眼特徴は、虹彩特徴を含む、側面13-17のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
第19の側面では、虹彩特徴は、虹彩内のテクスチャ、パターン、またはキーポイントを含む、側面18に記載のヘッドマウントディスプレイシステム。
第20の側面では、眼特徴は、強膜特徴を含む、側面13-17のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
第21の側面では、強膜特徴は、血管を含む、側面20に記載のヘッドマウントディスプレイシステム。
第22の側面では、プロセッサはさらに、眼画像内の眼の虹彩をセグメント化するようにプログラムされる、側面13-21のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
第23の側面では、ヘッドマウントディスプレイ(HMD)の動作におけるエラーを検出するための方法が、開示される。本方法は、ハードウェアコンピュータプロセッサの制御下で、HMDの装着者の第1の眼の第1のロール角を判定するステップと、HMDの装着者の第2の眼の第2のロール角を判定するステップと、少なくとも部分的に、第1のロール角および第2のロール角の比較に基づいて、ヘッドマウントディスプレイ動作の動作におけるエラーを検出するステップとを含む。
第24の側面では、ヘッドマウントディスプレイの動作におけるエラーを検出するステップは、第1のロール角と第2のロール角との間の差異が、あるエラー閾値を超えることを判定するステップを含む、側面23に記載の方法。
第25の側面では、検出されたエラーに基づいて、エラー信号を生成するステップをさらに含む、側面23または24のいずれか1項に記載の方法。
第26の側面では、ヘッドマウントディスプレイ動作の動作におけるエラーを検出するステップは、複数の眼画像内のロール角に関する平均値を追跡するステップを含む、側面23-25のうちのいずれか1項に記載の方法。
第27の側面では、第1のロール角を判定するステップまたは第2のロール角を判定するステップは、側面1-9のうちのいずれか1項に記載の方法を実施するステップを含む、側面23-26のうちのいずれか1項に記載の方法。
第28の側面では、装置が、開示される。本装置は、眼の画像を取得するように構成される、カメラと、眼の画像を分析し、眼の眼ポーズを推定するようにプログラムされる、処理システムとを備える。
第29の側面では、カメラは、デジタルカメラである、側面28に記載の装置。
第30の側面では、眼の画像を分析し、眼の眼ポーズを推定するために、処理システムは、現在の眼ポーズと基準眼ポーズとの間の相対的変換を判定するようにプログラムされる、側面28-29のうちのいずれか1項に記載の装置。
第31の側面では、現在の眼ポーズと基準眼ポーズとの間の相対的変換を判定するために、処理システムは、眼内の眼特徴を分析するようにプログラムされる、側面30に記載の装置。
第32の側面では、眼内の眼特徴を分析するために、処理システムは、眼内の虹彩特徴または強膜特徴を分析するようにプログラムされる、側面31に記載の装置。
第33の側面では、眼内の眼特徴を分析するために、処理システムは、眼の虹彩の縁郭輪を分析するようにプログラムされる、側面32に記載の装置。
第34の側面では、眼の虹彩の縁郭輪を分析するために、処理システムは、縁郭境界をカメラの座標フレームに関連付ける角度変換の3つの寸法のうちの2つを判定するようにプログラムされる、側面33に記載の装置。
第35の側面では、処理システムはさらに、角度ウィンドウの検索を実施し、虹彩コードの最適な合致に関するオフセットを判定するようにプログラムされる、側面34に記載の装置。
第36の側面では、処理システムはさらに、オフセットを使用して、角度変換の第3の「ロール」自由度に対応するロール角を測定するようにプログラムされる、側面35に記載の装置。
第37の側面では、処理システムは、眼内の虹彩特徴または強膜特徴を分析し、連続的に、または同時最適化の一部として、眼の虹彩の縁郭輪を分析するようにプログラムされる、側面33-36のうちのいずれか1項に記載の装置。
第38の側面では、処理システムはさらに、眼特徴を抽出するようにプログラムされる、側面31-37のうちのいずれか1項に記載の装置。
第39の側面では、処理システムはさらに、眼特徴が抽出されることに先立って、虹彩画像を極形式に変換することと、眼特徴を画像座標に戻すように逆にマッピングすることとを行うようにプログラムされる、側面38に記載の装置。
第40の側面では、本装置は、ヘッドマウントディスプレイである、側面28-39のうちのいずれか1項に記載の装置。
第41の側面では、眼は、ヘッドマウントディスプレイの装着者の一方の眼であり、ロール角は、ヘッドマウントディスプレイの装着者の一方の眼のロール角を含み、処理システムはさらに、ヘッドマウントディスプレイの装着者の別の眼の第3の「ロール」自由度に対応するロール角を測定することと、2つのロール角が合致しないとき、エラー信号を生成することとを行うようにプログラムされる、側面40に記載の装置。
第42の側面では、処理システムは、角度測定値のロール寸法の単一の推定値として、2つのロール角の平均値を判定するようにプログラムされる、側面41に記載の装置。
第43の側面では、眼のロール角(捩れ)は、眼の視軸を補正するために測定される、側面36-42のうちのいずれか1項に記載の装置。
(結論)
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つまたはそれを上回る物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つまたはそれを上回る物理的コンピューティングデバイスは、例えば、関与する計算の量または複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、ビデオは、多くのフレームを含み得、各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、光学ディスク、揮発性または不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ可読媒体上に記憶され得る。本方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一または多重化アナログ信号の一部として、または複数の離散デジタルパケットまたはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的または別様に記憶され得る、またはコンピュータ可読伝送媒体を介して通信され得る。
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、または機能性は、プロセスにおいて具体的機能(例えば、論理または算術)またはステップを実装するための1つまたはそれを上回る実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列される、追加される、削除される、修正される、または別様に本明細書に提供される例証的実施例から変更されることができる。いくつかの実施形態では、付加的または異なるコンピューティングシステムまたはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、任意の特定のシーケンスに限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行に、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加される、またはそれから除去され得る。さらに、本明細書に説明される実装における種々のシステムコンポーネントの分離は、例証を目的とし、全ての実装においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品においてともに統合される、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。多くの実装変形例が、可能である。
本プロセス、方法、およびシステムは、ネットワーク(または分散)コンピューティング環境において実装され得る。ネットワーク環境は、企業全体コンピュータネットワーク、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、パーソナルエリアネットワーク(PAN)、クラウドコンピューティングネットワーク、クラウドソースコンピューティングネットワーク、インターネット、およびワールドワイドウェブを含む。ネットワークは、有線または無線ネットワークまたは任意の他のタイプの通信ネットワークであり得る。
本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。上記に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
別個の実装の文脈において本明細書に説明されるある特徴はまた、単一の実装における組み合わせにおいて実装されることができる。逆に、単一の実装の文脈において説明される種々の特徴もまた、複数の実装において別個に、または任意の好適な副次的組み合わせにおいて実装されることができる。さらに、特徴がある組み合わせにおいて作用するものとして上記に説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つまたはそれを上回る特徴は、いくつかの場合では、組み合わせから削除されることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。いかなる単一の特徴または特徴の群も、あらゆる実施形態に必要または必須ではない。
とりわけ、「~できる(can)」、「~し得る(could)」、「~し得る(might)」、「~し得る(may)」、「例えば(e.g.,)」、および同等物等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図される。したがって、そのような条件文は、概して、特徴、要素、および/またはステップが、1つまたはそれを上回る実施形態に対していかようにも要求されることを示唆すること、または1つまたはそれを上回る実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/またはステップが任意の特定の実施形態において含まれるかまたは実施されるべきかを決定するための論理を必然的に含むことを示唆することを意図されない。用語「~を備える」、「~を含む」、「~を有する」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つまたはそれを上回る」または「少なくとも1つ」を意味するように解釈されるべきである。
本明細書で使用されるように、項目のリスト「のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、およびA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図されない。
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、または連続的順序で実施される、または全ての図示される動作が実施される必要はないと認識されるべきである。さらに、図面は、フローチャートの形態で1つまたはそれを上回る例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つまたはそれを上回る付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動作は、他の実装において再配列される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。

Claims (29)

  1. ヘッドマウントディスプレイ(HMD)システムであって、
    少なくとも前記HMDシステムの装着者の第1の眼の第1の眼画像および前記HMDシステムの前記装着者の第2の眼の第2の眼画像を捕捉するように構成される1つ以上の画像捕捉デバイスと、
    ハードウェアプロセッサと
    を備え、
    前記ハードウェアプロセッサは、
    少なくとも前記第1の眼画像に基づいて、前記HMDシステムの前記装着者の前記第1の眼の第1のロール角を判定することであって、前記第1のロール角は、前記第1の眼の第1の瞳孔の中心平面に直交する第1の光軸の周りの前記第1の眼の回転に対応する、ことと、
    少なくとも前記第2の眼画像に基づいて、前記HMDシステムの前記装着者の前記第2の眼の第2のロール角を判定することであって、前記第2のロール角は、前記第2の眼の第2の瞳孔の中心平面に直交する第2の光軸の周りの前記第2の眼の回転に対応する、ことと、
    前記第1のロール角前記第2のロール角との間の不一致に少なくとも部分的に基づいて、前記HMDシステムの動作におけるエラーを検出することと
    を行うようにプログラムされる、HMDシステム。
  2. 前記HMDシステムの動作におけるエラーを検出することは、前記第1のロール角と前記第2のロール角との間の差異がエラー閾値を超えることを判定することを含む、請求項1に記載のシステム。
  3. 前記エラー閾値は、1度~10度の間の範囲内にある、請求項2に記載のシステム。
  4. 前記ハードウェアプロセッサは、前記検出されたエラーに基づいてエラー信号を生成するようにさらにプログラムされる、請求項1に記載のシステム。
  5. 前記エラー信号は、前記HMDシステムの前記装着者に表示される、請求項4に記載のシステム。
  6. 前記HMDシステムの動作におけるエラーを検出することは、複数の眼画像内のロール角に関する平均値を追跡することを含む、請求項1に記載のシステム。
  7. 前記第1のロール角を判定することまたは前記第2のロール角を判定することは、特徴ベースの追跡技法、コードベースの追跡技法、またはそれらの組み合わせを使用して、前記第1のロール角を判定することまたは前記第2のロール角を判定することを含む、請求項1に記載のシステム。
  8. 前記ハードウェアプロセッサは、前記第1のロール角および前記第2のロール角の比較を使用して騒音抑制を測定するように構成される、請求項1に記載のシステム。
  9. 前記動作におけるエラーは、前記HMDシステムが前記装着者の頭部に対して回転させられていることを含む、請求項1に記載のシステム。
  10. 動作におけるエラーを検出することは、角度測定値のロール寸法の単一の推定値として前記第1のロール角および前記第2のロール角の平均値を判定することを含む、請求項1に記載のシステム。
  11. 前記第1のロール角または前記第2のロール角は、前記眼の視軸を補正するために測定される、請求項1に記載のシステム。
  12. 前記第1のロール角を判定することおよび前記第2のロール角を判定することは、前記第1の眼および前記第2の眼が中立位置にあるときに実行される、請求項1に記載のシステム。
  13. 前記第1のロール角を判定することおよび前記第2のロール角を判定することは、前記第1の眼および前記第2の眼が中立位置とは異なる注視位置にあるときに実行される、請求項1に記載のシステム。
  14. 前記ハードウェアプロセッサは、
    前記第1の眼の操向筋肉の自然作用の結果としての前記第1の眼の第1の予期されるロールを前記第1のロール角から減算することと、
    前記第2の眼の操向筋肉の自然作用の結果としての前記第2の眼の第2の予期されるロールを前記第2のロール角から減算することと
    を行うようにプログラムされる、請求項13に記載のシステム。
  15. ヘッドマウントディスプレイ(HMD)の動作におけるエラーを検出するための方法であって、前記方法は、
    ハードウェアコンピュータプロセッサの制御下で、
    前記HMDの装着者の第1の眼の第1の眼画像および前記HMDの前記装着者の第2の眼の第2の眼画像を捕捉することと、
    前記第1の眼画像に基づいて、前記HMDの前記装着者の前記第1の眼の第1のロール角を判定することであって、前記第1のロール角は、前記第1の眼の第1の瞳孔の中心平面に直交する第1の光軸の周りの前記第1の眼の回転に対応する、ことと、
    前記第2の眼画像に基づいて、前記HMDの前記装着者の前記第2の眼の第2のロール角を判定することであって、前記第2のロール角は、前記第2の眼の第2の瞳孔の中心平面に直交する第2の光軸の周りの前記第2の眼の回転に対応する、ことと、
    前記第1のロール角前記第2のロール角との間の不一致に少なくとも部分的に基づいて前記HMDの動作におけるエラーを検出することと
    を実行することを含む、方法。
  16. 前記ヘッドマウントディスプレイの動作におけるエラーを検出することは、前記第1のロール角と前記第2のロール角との間の差異がエラー閾値を超えることを判定することを含む、請求項15に記載の方法。
  17. 前記エラー閾値は、1度~10度の間の範囲内にある、請求項16に記載の方法。
  18. 前記検出されたエラーに基づいてエラー信号を生成することをさらに含む、請求項15に記載の方法。
  19. 前記ヘッドマウントディスプレイ動作の動作におけるエラーを検出することは、複数の眼画像内のロール角に関する平均値を追跡することを含む、請求項15に記載の方法。
  20. 前記第1のロール角を判定することまたは前記第2のロール角を判定することは、特徴ベースの追跡技法、コードベースの追跡技法、またはそれらの組み合わせを使用して、前記第1のロール角を判定することまたは前記第2のロール角を判定することを含む、請求項15に記載の方法。
  21. 前記第1のロール角および前記第2のロール角の比較を使用して騒音抑制を測定することをさらに含む、請求項15に記載の方法。
  22. 前記動作におけるエラーは、前記HMDが前記装着者の頭部に対して回転させられていることを含む、請求項15に記載の方法。
  23. 動作におけるエラーを検出することは、角度測定値のロール寸法の単一の推定値として前記第1のロール角および前記第2のロール角の平均値を判定することを含む、請求項15に記載の方法。
  24. 前記第1のロール角または前記第2のロール角は、前記眼の視軸を補正するために測定される、請求項15に記載の方法。
  25. 前記第1のロール角を判定することおよび前記第2のロール角を判定することは、前記第1の眼および前記第2の眼が中立位置にあるときに実行される、請求項15に記載の方法。
  26. 前記第1のロール角を判定することおよび前記第2のロール角を判定することは、前記第1の眼および前記第2の眼が中立位置とは異なる注視位置にあるときに実行される、請求項15に記載の方法。
  27. 前記第1の眼の操向筋肉の自然作用の結果としての前記第1の眼の第1の予期されるロールを前記第1のロール角から減算することと、
    前記第2の眼の操向筋肉の自然作用の結果としての前記第2の眼の第2の予期されるロールを前記第2のロール角から減算することと
    をさらに含む、請求項26に記載の方法。
  28. 前記第1の眼の前記第1のロール角は、前記第1の眼の基準画像内の虹彩特徴の基準場所と前記第1の眼画像内の前記虹彩特徴の場所との間の差異に基づいて判定される、請求項1に記載のシステム。
  29. 前記第1の眼の前記第1のロール角を判定することは、前記第1の眼の基準画像内の虹彩特徴の基準場所と前記第1の眼画像内の前記虹彩特徴の場所との間の差異を判定することを含む、請求項15に記載の方法。
JP2020196686A 2015-10-16 2020-11-27 眼の特徴を用いる眼ポーズ識別 Active JP7136875B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022066237A JP7399210B2 (ja) 2015-10-16 2022-04-13 ヘッドマウントディスプレイシステムの装着者の眼の眼画像を処理するための方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562242838P 2015-10-16 2015-10-16
US62/242,838 2015-10-16

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018519055A Division JP6885935B2 (ja) 2015-10-16 2016-10-12 眼の特徴を用いる眼ポーズ識別

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022066237A Division JP7399210B2 (ja) 2015-10-16 2022-04-13 ヘッドマウントディスプレイシステムの装着者の眼の眼画像を処理するための方法

Publications (2)

Publication Number Publication Date
JP2021049354A JP2021049354A (ja) 2021-04-01
JP7136875B2 true JP7136875B2 (ja) 2022-09-13

Family

ID=58517818

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018519055A Active JP6885935B2 (ja) 2015-10-16 2016-10-12 眼の特徴を用いる眼ポーズ識別
JP2020196686A Active JP7136875B2 (ja) 2015-10-16 2020-11-27 眼の特徴を用いる眼ポーズ識別
JP2022066237A Active JP7399210B2 (ja) 2015-10-16 2022-04-13 ヘッドマウントディスプレイシステムの装着者の眼の眼画像を処理するための方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018519055A Active JP6885935B2 (ja) 2015-10-16 2016-10-12 眼の特徴を用いる眼ポーズ識別

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022066237A Active JP7399210B2 (ja) 2015-10-16 2022-04-13 ヘッドマウントディスプレイシステムの装着者の眼の眼画像を処理するための方法

Country Status (10)

Country Link
US (3) US10163010B2 (ja)
EP (2) EP3761232A1 (ja)
JP (3) JP6885935B2 (ja)
KR (1) KR20180072734A (ja)
CN (2) CN108369653B (ja)
AU (2) AU2016340222B2 (ja)
CA (2) CA3001682C (ja)
IL (3) IL297610B2 (ja)
NZ (1) NZ741863A (ja)
WO (1) WO2017066296A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108135467A (zh) 2015-08-21 2018-06-08 奇跃公司 眼睑形状估计
CN112836664A (zh) 2015-08-21 2021-05-25 奇跃公司 使用眼睛姿态测量的眼睑形状估计
CN108369653B (zh) 2015-10-16 2021-12-14 奇跃公司 使用眼睛特征的眼睛姿态识别
CN105954992B (zh) * 2016-07-22 2018-10-30 京东方科技集团股份有限公司 显示系统和显示方法
US10565790B2 (en) 2016-11-11 2020-02-18 Magic Leap, Inc. Periocular and audio synthesis of a full face image
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
CA3071819A1 (en) * 2017-09-01 2019-03-07 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
EP3766004A4 (en) * 2018-03-16 2021-12-15 Magic Leap, Inc. FACIAL EXPRESSIONS OBTAINED FROM EYE-TRACKING CAMERAS
WO2019204765A1 (en) 2018-04-19 2019-10-24 Magic Leap, Inc. Systems and methods for operating a display system based on user perceptibility
FR3081072B1 (fr) * 2018-05-09 2020-04-17 Idemia Identity & Security France Procede de reconnaissance biometrique a partir des iris
CN108732764A (zh) 2018-06-06 2018-11-02 北京七鑫易维信息技术有限公司 一种智能眼镜、眼球轨迹的追踪方法、装置及存储介质
JP2021526894A (ja) * 2018-06-08 2021-10-11 アルコン インコーポレイティド 診断用眼科測定における自動ねじれ補正のためのシステム及び方法
US11074675B2 (en) * 2018-07-31 2021-07-27 Snap Inc. Eye texture inpainting
WO2020042843A1 (en) * 2018-08-27 2020-03-05 Shenzhen GOODIX Technology Co., Ltd. Eye tracking based on imaging eye features and assistance of structured illumination probe light
CN110603513B (zh) * 2018-08-27 2023-08-29 深圳市汇顶科技股份有限公司 一种眼睛跟踪设备及利用光学成像跟踪眼睛的方法
US11141645B2 (en) 2018-09-11 2021-10-12 Real Shot Inc. Athletic ball game using smart glasses
US11103763B2 (en) 2018-09-11 2021-08-31 Real Shot Inc. Basketball shooting game using smart glasses
WO2020059277A1 (ja) * 2018-09-20 2020-03-26 富士フイルム株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
WO2020137162A1 (ja) * 2018-12-28 2020-07-02 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
IL264530B1 (en) * 2019-01-29 2024-03-01 Eyeway Vision Ltd Device for tracking eye movement and method therefor
US11402901B2 (en) 2019-03-22 2022-08-02 Hewlett-Packard Development Company, L.P. Detecting eye measurements
CN113892127A (zh) * 2019-05-17 2022-01-04 奇跃公司 使用神经网络和角点检测器进行角点检测的方法和装置
CN111986097B (zh) * 2019-05-24 2024-02-09 北京小米移动软件有限公司 图像处理方法及装置
CN114341781A (zh) * 2019-09-09 2022-04-12 苹果公司 使用定向光源的基于闪光的注视跟踪
US11269181B2 (en) 2019-12-09 2022-03-08 Magic Leap, Inc. Systems and methods for operating a head-mounted display system based on user identity
US10860098B1 (en) 2019-12-30 2020-12-08 Hulu, LLC Gesture-based eye tracking
CN111158492B (zh) * 2019-12-31 2021-08-06 维沃移动通信有限公司 视频剪辑方法及头戴式设备
CN111507208B (zh) * 2020-03-30 2021-06-25 中国科学院上海微系统与信息技术研究所 一种基于巩膜识别的身份验证方法、装置、设备和介质
US11012677B1 (en) * 2020-06-15 2021-05-18 Microsoft Technology Licensing, Llc Systems and methods for correcting rolling shutter artifacts
CN112446302B (zh) * 2020-11-05 2023-09-19 杭州易现先进科技有限公司 一种人体姿态检测方法、系统、电子设备和存储介质
CN116052261A (zh) * 2022-05-31 2023-05-02 荣耀终端有限公司 视线估计方法及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003504976A (ja) 1999-07-13 2003-02-04 サージビジョン リミテッド 立体的映像観察および画像拡大システム
WO2012172719A1 (ja) 2011-06-16 2012-12-20 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法

Family Cites Families (190)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992002000A1 (en) 1990-07-17 1992-02-06 British Telecommunications Public Limited Company A method of processing an image
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5481479A (en) 1992-12-10 1996-01-02 Loral Fairchild Corp. Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance
US6095989A (en) 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
US6463176B1 (en) 1994-02-02 2002-10-08 Canon Kabushiki Kaisha Image recognition/reproduction method and apparatus
US6128398A (en) * 1995-01-31 2000-10-03 Miros Inc. System, method and application for the recognition, verification and similarity ranking of facial or other object patterns
US5583795A (en) 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
US5774591A (en) 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
US5689619A (en) * 1996-08-09 1997-11-18 The United States Of America As Represented By The Secretary Of The Army Eyetracker control of heads-up displays
US6154559A (en) 1998-10-01 2000-11-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for classifying an individual's gaze direction
AUPQ896000A0 (en) 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
US6999612B1 (en) * 2000-08-31 2006-02-14 Nec Laboratories America, Inc. Method for recovering 3D scene structure and camera motion directly from image intensities
AU2002233323A1 (en) * 2001-02-09 2002-08-28 Sensomotoric Instruments Gmbh Multidimensional eye tracking and position measurement system
KR100374707B1 (ko) * 2001-03-06 2003-03-04 에버미디어 주식회사 도비치스 웨이블렛 변환을 이용한 홍채인식방법
FR2831302A1 (fr) * 2001-10-19 2003-04-25 St Microelectronics Sa Codage d'informations concentriques
US7505604B2 (en) 2002-05-20 2009-03-17 Simmonds Precision Prodcuts, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
JP3984191B2 (ja) 2002-07-08 2007-10-03 株式会社東芝 仮想化粧装置及びその方法
JP4128837B2 (ja) 2002-09-30 2008-07-30 佐藤 淳 路面走行レーン検出装置
US7467869B2 (en) * 2003-04-11 2008-12-23 Bausch & Lomb Incorporated System and method for acquiring data and aligning and tracking of an eye
JP3734826B2 (ja) 2003-07-17 2006-01-11 松下電器産業株式会社 虹彩コード生成方法、個人認証方法、虹彩コード登録装置、個人認証装置、および個人認証プログラム
US20050027386A1 (en) 2003-07-30 2005-02-03 Michele Weigand Decentralized project management system
US7664322B1 (en) 2003-08-11 2010-02-16 Adobe Systems Incorporated Feature-based color adjustment
US7593550B2 (en) 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US7756301B2 (en) 2005-01-26 2010-07-13 Honeywell International Inc. Iris recognition system and method
US8098901B2 (en) * 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
KR20050025927A (ko) * 2003-09-08 2005-03-14 유웅덕 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법
US7524064B2 (en) 2004-03-09 2009-04-28 Research Foundation Of The State University Of New York Apparatus and method for assessing retinal damage
JP4506250B2 (ja) 2004-04-12 2010-07-21 日産自動車株式会社 上瞼検出装置
JP2005334402A (ja) * 2004-05-28 2005-12-08 Sanyo Electric Co Ltd 認証方法および認証装置
USD514570S1 (en) 2004-06-24 2006-02-07 Microsoft Corporation Region of a fingerprint scanning device with an illuminated ring
US8248458B2 (en) 2004-08-06 2012-08-21 University Of Washington Through Its Center For Commercialization Variable fixation viewing distance scanned light displays
JP4529635B2 (ja) 2004-10-22 2010-08-25 日産自動車株式会社 開閉眼判定装置
JP3686418B2 (ja) 2004-10-29 2005-08-24 アレイ株式会社 計測装置およびその方法
JP4449723B2 (ja) 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US7746235B2 (en) 2005-03-10 2010-06-29 Delphi Technologies, Inc. System and method of detecting eye closure based on line angles
US7686451B2 (en) * 2005-04-04 2010-03-30 Lc Technologies, Inc. Explicit raytracing for gimbal-based gazepoint trackers
JP5008269B2 (ja) * 2005-04-08 2012-08-22 キヤノン株式会社 情報処理装置、情報処理方法
US7327860B2 (en) 2005-05-04 2008-02-05 West Virginia University Conjunctival scans for personal identification
JP2007011667A (ja) * 2005-06-30 2007-01-18 Matsushita Electric Ind Co Ltd 虹彩認証装置および虹彩認証方法
JP4664147B2 (ja) * 2005-07-29 2011-04-06 株式会社山武 虹彩認証装置
US7751598B2 (en) * 2005-08-25 2010-07-06 Sarnoff Corporation Methods and systems for biometric identification
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
KR100651753B1 (ko) 2005-11-19 2006-12-01 한국전자통신연구원 객체의 대칭 특성과 모멘트 특성을 이용한 눈 검출 방법 및그 장치
US10709610B2 (en) 2006-01-20 2020-07-14 Lensar, Inc. Laser methods and systems for addressing conditions of the lens
US11090190B2 (en) 2013-10-15 2021-08-17 Lensar, Inc. Iris registration method and system
KR101299074B1 (ko) 2006-03-03 2013-08-30 허니웰 인터내셔널 인코포레이티드 홍채 인코딩 시스템
JP4738488B2 (ja) 2006-03-03 2011-08-03 ハネウェル・インターナショナル・インコーポレーテッド 画像品質メトリックを有する虹彩認識システム
US7542210B2 (en) * 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
US8077914B1 (en) * 2006-08-07 2011-12-13 Arkady Kaplan Optical tracking apparatus using six degrees of freedom
US7682026B2 (en) 2006-08-22 2010-03-23 Southwest Research Institute Eye location and gaze detection system and method
EP2062197A4 (en) * 2006-09-15 2010-10-06 Retica Systems Inc MULTIMODAL BIOMETRIC SYSTEM AND METHOD FOR LARGE DISTANCES
WO2008091401A2 (en) * 2006-09-15 2008-07-31 Retica Systems, Inc Multimodal ocular biometric system and methods
US7970179B2 (en) * 2006-09-25 2011-06-28 Identix Incorporated Iris data extraction
JP4650386B2 (ja) * 2006-09-29 2011-03-16 沖電気工業株式会社 個人認証システム及び個人認証方法
US8233672B2 (en) * 2007-06-11 2012-07-31 Matos Jeffrey A Apparatus and method for verifying the identity of an author
JP4895797B2 (ja) 2006-12-26 2012-03-14 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム
JP4309927B2 (ja) 2007-03-14 2009-08-05 株式会社豊田中央研究所 まぶた検出装置及びプログラム
JP4309928B2 (ja) 2007-03-15 2009-08-05 アイシン精機株式会社 瞼検出装置、瞼検出方法、及び、プログラム
JP4307496B2 (ja) 2007-03-19 2009-08-05 株式会社豊田中央研究所 顔部位検出装置及びプログラム
WO2008142740A1 (ja) 2007-04-16 2008-11-27 Fujitsu Limited 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
FR2915301A1 (fr) 2007-04-20 2008-10-24 Groupe Ecoles Telecomm Procede de comparaison d'images d'une biometrie entre au moi ns une image de reference et au moins une image de test dont on cherche a evaluer un degre de correlation avec l'image d e reference
EP2143041A4 (en) 2007-05-01 2011-05-25 Compulink Man Ct Inc PHOTODOCUMENTEGMENTATION METHOD AND METHOD
WO2009041963A1 (en) * 2007-09-24 2009-04-02 University Of Notre Dame Du Lac Iris recognition using consistency information
JP5097514B2 (ja) 2007-11-22 2012-12-12 国立大学法人東京工業大学 ワイヤ電極式イオナイザ
US20090252382A1 (en) 2007-12-06 2009-10-08 University Of Notre Dame Du Lac Segmentation of iris images using active contour processing
DE102008003906B4 (de) * 2008-01-10 2009-11-26 Rodenstock Gmbh Verwendung eines Fixationstargets und Vorrichtung
JP2009169745A (ja) 2008-01-17 2009-07-30 Toyota Motor Corp 閉眼検出装置
JP5262243B2 (ja) 2008-03-31 2013-08-14 アイシン精機株式会社 眼開閉判別装置、及びプログラム
US7883071B2 (en) 2008-05-21 2011-02-08 Raytheon Company Methods and apparatus for isolation system
ATE484804T1 (de) * 2008-06-25 2010-10-15 Deutsche Telekom Ag System zur extraktion, identifizierung und überprüfung von irismerkmalen auf der basis von directionlets
WO2010011785A1 (en) 2008-07-23 2010-01-28 Indiana University Research & Technology Corporation System and method for a non-cooperative iris image acquisition system
JP2010033305A (ja) 2008-07-29 2010-02-12 Hitachi Ltd 画像情報処理方法、及び装置
US8345922B2 (en) 2008-09-03 2013-01-01 Denso Corporation Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
WO2010129074A1 (en) * 2009-01-14 2010-11-11 Indiana University Research & Technology Corporation System and method for identifying a person with reference to a sclera image
JP5387007B2 (ja) 2009-01-22 2014-01-15 日本電気株式会社 画像処理装置、生体認証装置、画像処理方法及びプログラム
JP5221436B2 (ja) 2009-04-02 2013-06-26 トヨタ自動車株式会社 顔特徴点検出装置及びプログラム
WO2010129544A1 (en) 2009-05-04 2010-11-11 Duke University Methods and computer program products for quantitative three-dimensional image correction and clinical parameter computation in optical coherence tomography
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
CN102404510B (zh) 2009-06-16 2015-07-01 英特尔公司 手持装置中的摄像机应用
CN101692980B (zh) 2009-10-30 2011-06-08 深圳市汉华安道科技有限责任公司 疲劳驾驶检测方法及装置
US8403479B2 (en) 2009-12-17 2013-03-26 Johnson & Johnson Vision Care, Inc. Contact lens eye model
US8948467B2 (en) * 2010-08-06 2015-02-03 Honeywell International Inc. Ocular and iris processing system and method
US9092371B2 (en) 2010-09-02 2015-07-28 The Aerospace Corporation Signal parameter estimator
KR101697181B1 (ko) * 2010-09-07 2017-01-17 삼성전자주식회사 사용자의 시선 추적을 이용한 영상 처리 장치 및 방법
DE102011054833A1 (de) * 2010-10-29 2012-05-03 Hoya Corp. Verfahren zum Messen der binokularen Sehleistung, Programm zum Messen der binokularen Sehleistung, Verfahren zum Entwerfen von Brillengläsern und Verfahren zur Herstellung von Brillengläsern
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US8408706B2 (en) * 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
KR101997845B1 (ko) 2010-12-24 2019-10-01 매직 립, 인코포레이티드 인체공학적 머리 장착식 디스플레이 장치 및 광학 시스템
JP4893863B1 (ja) 2011-03-11 2012-03-07 オムロン株式会社 画像処理装置、および画像処理方法
JP4893862B1 (ja) 2011-03-11 2012-03-07 オムロン株式会社 画像処理装置、および画像処理方法
JPWO2012137801A1 (ja) * 2011-04-07 2014-07-28 Necカシオモバイルコミュニケーションズ株式会社 入力装置及び入力方法並びにコンピュータプログラム
WO2012144020A1 (ja) 2011-04-19 2012-10-26 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム
JP5755012B2 (ja) 2011-04-21 2015-07-29 キヤノン株式会社 情報処理装置、その処理方法、プログラム及び撮像装置
US8755607B2 (en) * 2011-04-28 2014-06-17 Sri International Method of normalizing a digital image of an iris of an eye
CN107656615B (zh) 2011-05-06 2021-09-14 奇跃公司 大量同时远程数字呈现世界
US8854491B2 (en) * 2011-06-05 2014-10-07 Apple Inc. Metadata-assisted image filters
US9202106B2 (en) 2011-07-11 2015-12-01 Toyota Jidosha Kabushiki Kaisha Eyelid detection device
DE112011105445B4 (de) * 2011-07-11 2020-08-06 Toyota Jidosha Kabushiki Kaisha Rote-Augen-Bestimmungsvorrichtung
JP6144681B2 (ja) * 2011-08-30 2017-06-07 マイクロソフト テクノロジー ライセンシング,エルエルシー 虹彩スキャン・プロファイリング機能を有する頭部装着ディスプレイ
US9213163B2 (en) * 2011-08-30 2015-12-15 Microsoft Technology Licensing, Llc Aligning inter-pupillary distance in a near-eye display system
BR112014005192A2 (pt) * 2011-09-07 2017-03-21 Improved Vision Systems (I V S ) Ltd método e sistema para o tratamento de deficiência visual
EP2760363A4 (en) 2011-09-29 2015-06-24 Magic Leap Inc TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION
IL215883A0 (en) * 2011-10-24 2012-03-01 Iriss Medical Technologies Ltd System and method for indentifying eye conditions
EP3666352B1 (en) 2011-10-28 2021-12-01 Magic Leap, Inc. Method and device for augmented and virtual reality
ITVR20110201A1 (it) 2011-11-02 2013-05-03 Milano Politecnico Dispositivo per il monitoraggio della posizione e deimovimenti dell'occhio, particolarmente adatto per la radioterapia oculare
EP4036862A1 (en) 2011-11-23 2022-08-03 Magic Leap, Inc. Three dimensional virtual and augmented reality display system
US9135508B2 (en) * 2011-12-20 2015-09-15 Microsoft Technology Licensing, Llc. Enhanced user eye gaze estimation
CN102592260B (zh) 2011-12-26 2013-09-25 广州商景网络科技有限公司 证照图像裁剪方法及系统
US9075453B2 (en) 2011-12-29 2015-07-07 Khalifa University of Science, Technology & Research (KUSTAR) Human eye controlled computer mouse interface
US8958599B1 (en) * 2012-01-06 2015-02-17 Google Inc. Input method and system based on ambient glints
US8878749B1 (en) 2012-01-06 2014-11-04 Google Inc. Systems and methods for position estimation
JP2013192196A (ja) * 2012-02-16 2013-09-26 Panasonic Corp カーソル合成装置およびカーソル合成方法
CN102629319B (zh) 2012-03-27 2014-02-19 中国科学院自动化研究所 基于特定边界检测子的鲁棒虹膜区域分割方法
KR102028732B1 (ko) 2012-04-05 2019-10-04 매직 립, 인코포레이티드 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들
US20130321389A1 (en) * 2012-05-29 2013-12-05 General Electric Company System and method for 3d imaging
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
WO2013188464A1 (en) 2012-06-11 2013-12-19 Magic Leap, Inc. Multiple depth plane three-dimensional display using a wave guide reflector array projector
JP6131540B2 (ja) * 2012-07-13 2017-05-24 富士通株式会社 タブレット端末、操作受付方法および操作受付プログラム
US9122926B2 (en) 2012-07-19 2015-09-01 Honeywell International Inc. Iris recognition using localized Zernike moments
KR20150054967A (ko) 2012-09-11 2015-05-20 매직 립, 인코포레이티드 인체공학적 헤드 마운티드 디스플레이 디바이스 및 광학 시스템
EP3663840A1 (en) * 2012-09-19 2020-06-10 Nikon Corporation Line of sight detection device, display method, line of sight detection device calibration method, spectacle lens design method, spectacle lens selection method, spectacle lens manufacturing method, printed matter, spectacle lens sales method, optical device, line of sight information detection method, optical instrument design method, optical instrument, optical instrument selection method, and optical instrument production method
CN103680064B (zh) 2012-09-24 2016-08-03 由田新技股份有限公司 瞌睡提醒系统
WO2014057618A1 (ja) * 2012-10-09 2014-04-17 パナソニック株式会社 3次元表示装置、3次元画像処理装置および3次元表示方法
CN102901970A (zh) 2012-11-08 2013-01-30 天津理工大学 一种单调制连续波激光测距装置与测距方法
US9152847B2 (en) 2012-11-27 2015-10-06 Adobe Systems Incorporated Facial landmark localization by exemplar-based graph matching
US9224036B2 (en) * 2012-12-20 2015-12-29 Google Inc. Generating static scenes
WO2014113506A1 (en) 2013-01-15 2014-07-24 Magic Leap, Inc. Ultra-high resolution scanning fiber display
JP6318462B2 (ja) 2013-01-30 2018-05-09 株式会社ニコン 表示装置
CN105027144A (zh) 2013-02-27 2015-11-04 汤姆逊许可公司 用于无校准注视估计的方法和设备
US9179833B2 (en) * 2013-02-28 2015-11-10 Carl Zeiss Meditec, Inc. Systems and methods for improved ease and accuracy of gaze tracking
CN105188516B (zh) 2013-03-11 2017-12-22 奇跃公司 用于增强和虚拟现实的系统与方法
US9424467B2 (en) * 2013-03-14 2016-08-23 Disney Enterprises, Inc. Gaze tracking and recognition with image location
KR102271198B1 (ko) 2013-03-15 2021-06-29 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US9335547B2 (en) * 2013-03-25 2016-05-10 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
CN103164704B (zh) 2013-04-12 2016-05-11 山东师范大学 一种基于混合高斯模型的虹膜图像分割算法
CN103258343B (zh) 2013-05-07 2015-09-16 中南大学 一种基于图像编辑的眼部图像处理方法
US9801539B2 (en) * 2013-05-23 2017-10-31 Stiftung Caesar—Center Of Advanced European Studies And Research Ocular Videography System
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
GB201310368D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems
JP2015015563A (ja) * 2013-07-04 2015-01-22 セイコーエプソン株式会社 画像表示装置
US20150029322A1 (en) * 2013-07-23 2015-01-29 Qualcomm Incorporated Method and computations for calculating an optical axis vector of an imaged eye
US10042994B2 (en) * 2013-10-08 2018-08-07 Princeton Identity, Inc. Validation of the right to access an object
EP4321915A3 (en) 2013-10-16 2024-05-01 Magic Leap, Inc. Virtual or augmented reality headsets having adjustable interpupillary distance
JP2015090569A (ja) 2013-11-06 2015-05-11 ソニー株式会社 情報処理装置及び情報処理方法
KR101470243B1 (ko) * 2013-11-15 2014-12-05 현대자동차주식회사 시선 검출 장치 및 그 시선 검출 방법
TWI498769B (zh) * 2013-11-18 2015-09-01 Quanta Comp Inc 頭戴式顯示裝置及其登入方法
CN107219628B (zh) 2013-11-27 2020-05-01 奇跃公司 虚拟和增强现实系统与方法
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
EP2886041A1 (en) * 2013-12-17 2015-06-24 ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) Method for calibrating a head-mounted eye tracking device
US20170046813A1 (en) 2014-01-08 2017-02-16 Nokia Technologies Oy An apparatus and associated methods for image capture
JP5956479B2 (ja) 2014-01-29 2016-07-27 株式会社東芝 表示装置及び視線推定装置
US9405122B2 (en) * 2014-01-29 2016-08-02 Ricoh Co., Ltd Depth-disparity calibration of a binocular optical augmented reality system
KR102207799B1 (ko) 2014-01-31 2021-01-26 매직 립, 인코포레이티드 멀티-포컬 디스플레이 시스템 및 방법
CN110376743B (zh) 2014-01-31 2022-03-04 奇跃公司 多焦点显示系统和方法
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
AU2015297035B2 (en) 2014-05-09 2018-06-28 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
USD759657S1 (en) 2014-05-19 2016-06-21 Microsoft Corporation Connector with illumination region
KR102193052B1 (ko) 2014-05-30 2020-12-18 매직 립, 인코포레이티드 가상 또는 증강 현실 장치로 가상 콘텐츠 디스플레이를 생성하기 위한 방법들 및 시스템들
USD752529S1 (en) 2014-06-09 2016-03-29 Comcast Cable Communications, Llc Electronic housing with illuminated region
JP6550642B2 (ja) 2014-06-09 2019-07-31 パナソニックIpマネジメント株式会社 皺検出装置および皺検出方法
ES2883563T3 (es) 2014-06-16 2021-12-09 Fondation De Linstitut De Rech Idiap Método y aparato de estimación de la mirada
CN104537334B (zh) 2014-07-08 2019-09-10 珠海易胜电子技术有限公司 一种改善在非理想环境下虹膜识别性能的方法
US9563805B2 (en) * 2014-09-02 2017-02-07 Hong Kong Baptist University Method and apparatus for eye gaze tracking
US9798383B2 (en) * 2014-09-19 2017-10-24 Intel Corporation Facilitating dynamic eye torsion-based eye tracking on computing devices
JP2017530476A (ja) * 2014-09-24 2017-10-12 プリンストン・アイデンティティー・インコーポレーテッド バイオメトリックキーを用いたモバイルデバイスにおけるワイヤレス通信デバイス機能の制御
CN104680016A (zh) 2014-11-05 2015-06-03 河南科技大学 基于几何优化逼近的抛物线轮廓最小区域拟合方法
CN104484649B (zh) * 2014-11-27 2018-09-11 北京天诚盛业科技有限公司 虹膜识别的方法和装置
CN104502329B (zh) 2014-12-28 2017-02-22 冶金自动化研究设计院 一种libs成分分析中元素最优工作曲线的建立方法
US9710707B1 (en) * 2014-12-31 2017-07-18 Morphotrust Usa, Llc Detecting iris orientation
WO2016115870A1 (zh) * 2015-01-21 2016-07-28 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
CN104793741A (zh) 2015-04-03 2015-07-22 深圳市虚拟现实科技有限公司 带眼球跟踪虚拟现实成像系统和方法
CN105157563B (zh) 2015-04-28 2016-08-03 湖南大学 一种基于机器视觉的啤酒瓶口定位方法
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
CN112836664A (zh) 2015-08-21 2021-05-25 奇跃公司 使用眼睛姿态测量的眼睑形状估计
CN108135467A (zh) 2015-08-21 2018-06-08 奇跃公司 眼睑形状估计
US10082865B1 (en) * 2015-09-29 2018-09-25 Rockwell Collins, Inc. Dynamic distortion mapping in a worn display
CN108369653B (zh) * 2015-10-16 2021-12-14 奇跃公司 使用眼睛特征的眼睛姿态识别
US9983709B2 (en) 2015-11-02 2018-05-29 Oculus Vr, Llc Eye tracking using structured light
USD805734S1 (en) 2016-03-04 2017-12-26 Nike, Inc. Shirt
USD794288S1 (en) 2016-03-11 2017-08-15 Nike, Inc. Shoe with illuminable sole light sequence
JP2017182739A (ja) * 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
US10565433B2 (en) * 2017-03-30 2020-02-18 George Mason University Age invariant face recognition using convolutional neural networks and set distances
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003504976A (ja) 1999-07-13 2003-02-04 サージビジョン リミテッド 立体的映像観察および画像拡大システム
WO2012172719A1 (ja) 2011-06-16 2012-12-20 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法

Also Published As

Publication number Publication date
EP3761232A1 (en) 2021-01-06
CA3001682C (en) 2022-10-11
AU2021240222A1 (en) 2021-10-28
JP2018532199A (ja) 2018-11-01
AU2016340222B2 (en) 2021-07-01
CN108369653A (zh) 2018-08-03
IL297610B2 (en) 2023-11-01
JP2022095879A (ja) 2022-06-28
IL258620B (en) 2022-05-01
EP3362946A4 (en) 2019-06-05
CA3001682A1 (en) 2017-04-20
AU2021240222B2 (en) 2022-12-15
US20170109580A1 (en) 2017-04-20
US20220004758A1 (en) 2022-01-06
AU2016340222A1 (en) 2018-05-10
JP6885935B2 (ja) 2021-06-16
CN108369653B (zh) 2021-12-14
IL258620A (en) 2018-06-28
US11126842B2 (en) 2021-09-21
CA3170014A1 (en) 2017-04-20
US11749025B2 (en) 2023-09-05
IL291684B (en) 2022-11-01
IL297610A (en) 2022-12-01
IL291684A (en) 2022-05-01
IL291684B2 (en) 2023-03-01
KR20180072734A (ko) 2018-06-29
US10163010B2 (en) 2018-12-25
EP3362946A1 (en) 2018-08-22
JP2021049354A (ja) 2021-04-01
WO2017066296A1 (en) 2017-04-20
IL297610B1 (en) 2023-07-01
CN114140867A (zh) 2022-03-04
US20190114480A1 (en) 2019-04-18
EP3362946B1 (en) 2020-08-26
JP7399210B2 (ja) 2023-12-15
NZ741863A (en) 2019-05-31

Similar Documents

Publication Publication Date Title
JP7136875B2 (ja) 眼の特徴を用いる眼ポーズ識別
JP6917444B2 (ja) 角膜曲率を用いた虹彩境界推定
US11227158B2 (en) Detailed eye shape model for robust biometric applications
JP7178403B2 (ja) ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル
US20220301217A1 (en) Eye tracking latency enhancements

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220901

R150 Certificate of patent or registration of utility model

Ref document number: 7136875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150