JP6983258B2 - アイトラッキングを介した拡張された有効なアイボックスを有するニアアイディスプレイ - Google Patents

アイトラッキングを介した拡張された有効なアイボックスを有するニアアイディスプレイ Download PDF

Info

Publication number
JP6983258B2
JP6983258B2 JP2019563139A JP2019563139A JP6983258B2 JP 6983258 B2 JP6983258 B2 JP 6983258B2 JP 2019563139 A JP2019563139 A JP 2019563139A JP 2019563139 A JP2019563139 A JP 2019563139A JP 6983258 B2 JP6983258 B2 JP 6983258B2
Authority
JP
Japan
Prior art keywords
eye
array
user
eyes
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019563139A
Other languages
English (en)
Other versions
JP2020520475A (ja
Inventor
ペロー,ジョン・ディ
リュル,パトリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2020520475A publication Critical patent/JP2020520475A/ja
Application granted granted Critical
Publication of JP6983258B2 publication Critical patent/JP6983258B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/02Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes by tracing or scanning a light beam on a screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

背景
開示の分野
本開示は一般に、ニアアイディスプレイ(near-eye display)に関し、より特定的には、ニアアイディスプレイにおける有効なアイボックス(eye-box)サイズの改善に関する。
関連技術の説明
ヘッドマウントディスプレイ(HMD: Head-mounted display)および他のニアアイディスプレイシステムは、三次元(3D)グラフィックスの有効な表示を提供するために、ニアアイライトフィールドディスプレイ(near-eye lightfield display)または他のコンピューテイショナルディスプレイ(computational display)を利用し得る。一般に、ニアアイライトフィールドディスプレイは、1つ以上のディスプレイパネルと、当該1つ以上のディスプレイパネルに重畳される小型レンズ(lenslet)のアレイ、ピンホールまたは他の光学機構のアレイとを使用する。レンダリングシステムは要素画像のアレイをレンダリングする。各要素画像は、対応するパースペクティブまたは仮想カメラ位置からの物体またはシーンの画像または視界を表わす。アイボックスサイズは、小型レンズの焦点距離に対するアイレリーフ(eye relief)の比に比例するので、そのようなニアアイライトフィールドディスプレイは典型的に、アイボックスサイズと視野(FOV: field of view)との間のトレードオフを示す。したがって、十分なFOVを提供するために、ニアアイライトフィールドディスプレイを使用する従来のニアアイディスプレイシステムは典型的に、相対的に制限されたアイボックスを有することになり、これはしばしば、潜在ユーザの集団の間での瞳孔間距離(IPD: inter-pupillary distance)の変動性と、ディスプレイに対するユーザの目の正確な位置決めの変動性とに鑑みると問題となる。上記変動性のいずれによっても、ユーザの瞳孔がアイボックスの境界の外に位置することになり得、これは、ユーザの目に対して表示されることが意図される画像の少なくとも部分のオクルージョンに帰着することになる。
図面の簡単な説明
本開示は、添付の図面を参照することによって、より一層理解され得、その多くの特徴および利点が当業者に明白になる。異なる図面における同じ参照符号の使用は、同様または同一の項目を示す。
いくつかの実施形態に従った、動的なアイボックスの調節を提供するためにアイトラッキングと対応する要素画像シフティングとを使用するニアアイディスプレイシステムを示す図である。 いくつかの実施形態に従った、図1のニアアイディスプレイシステムにおける動的なアイボックスの調節のための方法を示すフロー図である。 いくつかの実施形態に従った、目のポーズに基づいた動的なアイボックスの調節の例を示す図である。 いくつかの実施形態に従った、目のポーズに基づいた動的なアイボックスの調節の付加的な例を示す図である。 ニアアイディスプレイシステムにおけるアイトラッキングのための従来の斜角構成を示す図である。 いくつかの実施形態に従った、ニアアイディスプレイシステムにおける例示的なアイトラッキングコンポーネントを示す図である。 いくつかの実施形態に従った、ニアアイディスプレイシステムにおける別の例示的なアイトラッキングコンポーネントを示す図である。 いくつかの実施形態に従った、図7のアイトラッキングコンポーネントの構成の変形例を示す図である。 いくつかの実施形態に従った、アイトラッキングコンポーネントのコンポーネントによりニアアイライトフィールドディスプレイにおいて不明瞭にされた要素画像を補償するための方法を示す図である。
詳細な説明
図1〜図9は、ニアアイディスプレイシステムにおけるユーザの目のポーズに基づいた動的なアイボックスの調節のための例示的な方法およびシステムを示す。ニアアイディスプレイシステムは、少なくとも1つの実施形態において、没入型の仮想現実(VR: virtual reality)または拡張現実(AR: augmented reality)の体験をユーザに提供するよう、ユーザに対して画像のニアアイライトフィールドフレームを表示するコンピューテイショナルディスプレイを使用する。各ニアアイライトフィールドフレームは要素画像のアレイから構成されており、各要素画像は、異なる対応する視点からの物体またはシーンの視界を表わす。小型レンズのアレイが、ディスプレイパネルに重畳されており、単一のオートステレオスコピック(autostereoscopic)画像として要素画像のアレイをユーザに提示するために動作する。
アイボックス寸法または「サイズ」に関し、コンピューテイショナルディスプレイは、小型レンズ焦点距離に対するアイレリーフの比に比例するので、アイボックスサイズを増加させる試みは、一般に視野(FOV)の低減に帰着し、その逆も発生する。FOVにおける対応する低減なく改善されたアイボックスサイズを提供するために、少なくとも1つの実施形態において、本願明細書において記載されるニアアイディスプレイシステムは、動的なアイボックス技術を利用する。当該動的なアイボックス技術において、アイトラッキングコンポーネントが、ユーザの目のポーズ(位置および/または回転)を決定するために利用され、このポーズに基づいて、要素画像のアレイが、それらが組み込まれるニアアイライトフィールドフレームに対して(すなわち、ディスプレイパネルの表示面に対して)シフトされるべきシフトベクトルを決定してユーザの目のポーズに適合するようにコンピューテイショナルディスプレイのアイボックスを有効にシフトするために利用される。例として、ディスプレイパネル上の要素画像のアレイについてのデフォルト位置が、ユーザの目の想定されるデフォルトポーズについて特定され得る。しかしながら、ユーザの目がこのデフォルトポーズから逸脱した場合、ニアアイディスプレイシステムは、(1)ディスプレイパネルに平行な面(すなわちX−Y面)においてユーザの目のポーズにおけるシフトに適合するための、デフォルト位置からの要素画像のアレイの位置における対応するシフト、または、(2)ディスプレイパネルに垂直な軸(すなわちZ軸)に沿ったユーザの目のポーズにおけるシフトに適合するための、アレイの要素画像のサイズの対応するスケーリングのうちの一方または両方を導入することにより当該逸脱したポーズを補償する。要素画像のアレイの位置におけるシフトおよび/または要素画像のスケーリングによって、小型レンズアレイを介した要素画像の投射方向が有効にシフトされ、要素画像のアレイの位置のシフトによってアイボックスが有効にシフトされる。したがって、ユーザにおける目のポーズにおけるシフトに応答して要素画像アレイを動的にシフト/スケーリングすることによって、ニアアイディスプレイシステムのFOVにおける対応する低減を必要とすることなく「より大きな」アイボックスが有効に提供される。
図1は、少なくとも1つの実施形態に従った、動的なアイボックス位置調節を組み込むニアアイディスプレイシステム100を示す。示された例において、ニアアイディスプレイシステム100は、コンピューテイショナルディスプレイサブシステム102と、レンダリングコンポーネント104と、ユーザの左目をトラッキングするためのアイトラッキングコンポーネント106およびユーザの右目をトラッキングするためのアイトラッキングコンポーネント108のうちの一方または両方といった1つ以上のアイトラッキングコンポーネントとを含む。コンピューテイショナルディスプレイサブシステム102は、ユーザの左目および右目の前にディスプレイ110および112をそれぞれ配置する装置114(たとえばゴーグル、眼鏡など)にマウントされた左目ディスプレイ110および右目ディスプレイ112を含む。
図116によって示されるように、ディスプレイ110,112の各々は、各々が要素画像122のアレイ120を含むニアアイライトフィールドフレーム(以下、参照のしやすさのために「ライトフィールドフレーム」と称する)のシーケンスまたは連続したものを表示するために少なくとも1つのディスプレイパネル118を含む。参照のしやすさのために、要素画像122のアレイ120は、本願明細書においてライトフィールドフレーム120とも称され得る。ディスプレイ110および112の各々はさらに、ディスプレイパネル118に重畳される小型レンズ126(一般的に「マイクロレンズ」とも称される)のアレイ124を含む。典型的に、小型レンズアレイ124における小型レンズ126の数は、アレイ120における要素画像122の数と等しいが、他の実現例では、小型レンズ126の数は、要素画像122の数よりも少なくてもよく、または、多くてもよい。なお、例示の容易さのため、図1の例は、要素画像122の5×4アレイおよび小型レンズ126の対応する5×4アレイ120を示しているが、典型的な実現例において、ライトフィールドフレーム120における要素画像122の数および小型レンズアレイ124における小型レンズ126の数は典型的にずっと多い。さらに、いくつかの実施形態では、別個のディスプレイパネル118がディスプレイ110,112の各々のために実現され、その一方、他の実施形態では、左目ディスプレイ110および右目ディスプレイ112が単一のディスプレイパネル118を共有し、ディスプレイパネル118の左半分が左目ディスプレイ110のために使用され、ディスプレイパネル118の右半分が右目ディスプレイ112のために使用される。
図1の断面図128は、ディスプレイパネル118に重畳される小型レンズアレイ124の線A−Aに沿った断面図を示しており、小型レンズアレイ124が、ディスプレイパネル118の表示面130とユーザの対応する目132との間に配置されるように表示面130に重畳される。この構成において、各小型レンズ126は、表示面130の対応する領域を目の瞳孔134にフォーカスを合わせ、各そのような領域が少なくとも部分的に1つ以上の隣接する領域にオーバーラップする。したがって、そのようなコンピューテイショナルディスプレイ構成において、要素画像122のアレイ120がディスプレイパネル118の表示面130に表示され、その後、小型レンズアレイ124を通じて目132によって見られると、ユーザは、要素画像122のアレイ120をあるシーンの単一の画像として認識する。したがって、このプロセスが、ユーザの左目および右目の両方について、適切な視差がその間に実現された状態で並列で行なわれると、結果として、相対的に広いFOVと、そのようなコンピューテイショナルディスプレイによってしばしば提供される浅いフォームファクタとを伴って、ユーザにオートステレオスコピック三次元(3D)画像が提示される。
さらに図1に示されるように、レンダリングコンポーネント104は、示される中央処理装置(CPU)136およびグラフィック処理装置(GPU)138,140のような1つ以上のプロセッサのセットと、本願明細書に記載されるようにさまざまなタスクを行なうためにプロセッサ136,138,140のうちの1つ以上を操作するようプロセッサ136,138,140によってアクセスおよび実行されるソフトウェアプログラムまたは他の実行可能命令を格納する、システムメモリ142のような1つ以上のストレージコンポーネントとを含む。そのようなソフトウェアプログラムはたとえば、後述されるようにライトフィールドフレームレンダリングプロセスのための実行可能命令を含むレンダリングプログラム144と、後述されるようにアイトラッキングプロセスのための実行可能命令を含むアイトラッキングプログラム146とを含む。
動作において、レンダリングコンポーネント104は、ローカルまたはリモートのコンテンツソース160からレンダリング情報148を受け取る。レンダリング情報148は、ディスプレイサブシステム102においてレンダリングおよび表示される画像の対象である物体またはシーンを表すグラフィックスデータ、ビデオデータまたは他のデータを表わす。レンダリングプログラム144を実行すると、CPU136はレンダリング情報148を使用してGPU138,140に描画命令を送り、GPU138,140は、当該描画命令を利用して、左目ディスプレイ110での表示のためのライトフィールドフレーム151の連なりと、右目ディスプレイ112での表示のためのライトフィールドフレーム153の連なりとを、さまざまな周知のVR/ARコンピュータ/ライトフィールドレンダリングプロセスのいずれかを使用して並列にレンダリングする。このレンダリングプロセスの一部分として、CPU136は、ディスプレイサブシステム102のポーズを表わすポーズ情報150を慣性管理装置(IMU: inertial management unit)154から受け取り得、当該ポーズからの物体またはシーンの視点を反映するようにライトフィールドフレーム151,153の1つ以上のペアのレンダリングを制御し得る。
以下に詳細に記載されるように、レンダリングコンポーネント104はさらに、アイトラッキングコンポーネント106,108の一方または両方からの目のポーズ情報を使用して、表示されるべきライトフィールドフレーム内の要素画像122のアレイ120の位置をシフトすること、または、表示されるべきライトフィールドフレームの要素画像122のサイズをスケーリングすることにより、そのように表示されるライトフィールドフレームについてのアイボックスの位置を有効にシフトすることのいずれかまたは両方を行い得る。この目的のために、アイトラッキングコンポーネント106,108は各々、IR光を対応する目に照射する1つ以上の赤外線(IR)光源(本願明細書において「IR照射器」と称される)と、対応する目から反射されるIR光を対応する目画像(目画像情報156)としてキャプチャする1つ以上の撮像カメラと、反射されたIR光を撮像カメラに方向付ける1つ以上のミラー、導波路およびビームスプリッタなどと、キャプチャされた目画像から、対応する目の現在位置、現在の方位またはその両方(本願明細書において単体でまたは集合的に「ポーズ」と称される)を決定するようにアイトラッキングプログラム146を実行する1つ以上のプロセッサとを含み得る。さまざまな周知のアイトラッキング装置および技術のうちのいずれも、ユーザの片目または両目をトラッキングするアイトラッキングコンポーネント106,108として使用され得、その例が図5を参照して以下に記載される。代替的には、性能が向上したアイトラッキングコンポーネント106,108の光学コンポーネントのための例示的な構成が図6〜図10を参照して後述される。
少なくとも1つの実施形態では、ニアアイディスプレイシステム100は、過去の目のポーズ、現在の目のポーズ、予測された(未来の)目のポーズ、または、その組合せとして目のポーズを決定し得る。特に、未来の目のポーズの予測は、改善された性能または応答時間を提供し得、未来の目のポーズを予測するためにさまざまな眼球運動予測アルゴリズムのうちのいずれかが実現され得る。さらに、いくつかの場合において、アイトラッキングコンポーネント106,108は、シーン情報(たとえばレンダリングされるべき画像内の顔の位置またはサリエンシーヒューリスティックス(saliency heuristics))を、目のポーズの計算のためのユーザの目の未来の視線の予測における入力として利用し得る。したがって、本願明細書において使用されるような「目のポーズ」という用語は、以前の目のポーズ、現在の目のポーズ、予測された目のポーズ、または、その何らかの組合せを指し得る。
従来のコンピューテイショナルディスプレイベースのニアアイシステムにおいて、ディスプレイパネルにて要素画像の各々が表示される位置が固定され(すなわち、要素画像のアレイの位置が固定され、また、表示される各ライトフィールドフレームについても同じである)、これにより、コンピューテイショナルディスプレイについての対応するアイボックスの位置も同様に固定される。結果として、ユーザの目の位置または方位がこの固定されたアイボックスの境界の外に出る場合、表示された画像のユーザの認知は、たとえば画像のクリッピングもしくはケラレ(vignetting)またはフォーカスの損失を通じてしばしば影響を受ける。
本願明細書に記載されるように、少なくとも1つの実施形態において、ニアアイディスプレイシステム100は、ユーザの目のポーズにさらに精密に整列するようアイボックスの位置を有効に「シフト」することによって、アイボックス制約に対する非最適なユーザの目のポーズの影響を緩和する。これは、表示されるべき対応するライトフィールドフレームについての目の一方または両方のポーズを決定するようにユーザの片目または両目をトラッキングするために、アイトラッキングコンポーネント106,108を使用することにより達成される。次いで、ポーズが決定された状態で、レンダリングコンポーネント104は、対応するディスプレイパネル118において表示される際にデフォルト位置に対して対応する方向にレンダリングされるライトフィールドフレーム内における要素画像122の位置をシフトする。ディスプレイパネル118の表示面130に対する要素画像122のアレイ120の位置におけるこのシフトは、小型レンズアレイ124に対するアレイ120の視角をシフトする効果を有しており、したがって、アイボックスの位置をシフトする効果を有する。要素画像の位置をシフトすることに加えて、または、要素画像の位置をシフトすることの代わりに、レンダリングコンポーネント104は、ユーザの目のポーズのZ軸成分に応答して、目のポーズのZ位置に関わらず仮想平面において表わされる画像の一定サイズを維持することを試みるようライトフィールドフレーム内の要素画像122の寸法をスケーリングし得る。これにより、アイボックスの位置は、ユーザの目のポーズにより良好に適合するように動的に調節され得る。
図2は、いくつかの実施形態に従った、動的なアイボックス位置調節を提供するよう調節された位置決めによりライトフィールドフレームをレンダリングするためのニアアイディスプレイシステム100の動作の方法200を示す。理解を促進するために、方法200は、図3によって示される例示的なシナリオを頻繁に参照して以下に記載される。方法200は、左目ディスプレイ110または右目ディスプレイ112のうちの1つのためにライトフィールドフレームをレンダリングおよび表示するためのプロセスの1つの反復を示しており、したがって、示されるプロセスは、ディスプレイ110,112の各々について並列で繰り返し行なわれ、これにより、異なる時点において各目についてライトフィールドフレームの異なるストリームまたはシーケンスを生成および表示し、したがってユーザに3DのオートステレオスコピックVRまたはAR体験を提供する。
生成および表示されるべきライトフィールドフレームのために、方法200はブロック202において開始され、これにより、レンダリングコンポーネント104は、ライトフィールドフレームとしてユーザの対応する目に対して表示される画像コンテンツを識別する。少なくとも1つの実施形態において、レンダリングコンポーネント104は、ジャイロスコープ、加速度計、磁力計、およびグローバルポジショニングシステム(GPS: Global Positioning System)センサなどのようなさまざまなポーズ関連センサからのデータを表わすIMU情報152を受け取り、ユーザの目の近くにディスプレイ110,112をマウントするために使用される装置114(たとえばHMD)のポーズをIMU情報150から決定する。このポーズから、レンダリングプログラム144を実行するCPU136は、対象のシーンまたは物体の対応する現在の視点を決定し得、この視点とレンダリング情報148として提供されるシーンまたは物体のグラフィカルおよび空間的な記述とから、当該ポーズについてレンダリングされるべき画像を決定し得る。
ブロック204では、アイトラッキングプログラム146を実行するCPU136は、ユーザの対応する目のポーズを決定する。本願明細書において説明されるように、目のポーズはさまざまなアイトラッキング技術のうちのいずれかを使用して決定され得る。一般に、そのような技術は、目の瞳孔および角膜から反射されるIR光の1つ以上の画像のキャプチャを含む。その後、アイトラッキングプログラム146は、瞳孔反射または角膜反射の一方または両方の対応する位置に基づいて目のポーズを決定するよう画像を分析するためにCPU136またはGPU138,140を操作し得る。さらに、角膜に対する瞳孔の方位は、目の方位(すなわち目の視線の方向)を決定するために使用され得る。なお、ブロック204はブロック202に続くものとして図2に示されているが、ブロック204のプロセスは、ブロック202のプロセスの前、プロセス中、または、プロセスの後に行なわれてもよい。
ユーザの目のポーズが決定された状態で、ブロック206において、レンダリングプログラム144は、ユーザの目のポーズに基づいて、本願明細書において「SV_ELEM」と示されるシフトベクトルを決定するためにCPU136を操作する。上で説明したように、シフトベクトルSV_ELEMは、レンダリングされるライトフィールドフレーム内における要素画像に適用される位置のシフトを表わしており、ユーザの目のポーズの対応するシフトを補償する。特に、シフトベクトルによって表わされる補償のシフトは実際に、アイボックスによって表わされる領域において目が相対的にセンタリングされるようにそのポーズでの目のまわりにコンピューテイショナルディスプレイのアイボックスを配置するように意図される。すなわち、シフトベクトルは、目のポーズとマッチするようアイボックスを動的にシフトするように機能するものである。
少なくとも1つの実施形態において、シフトベクトルSV_ELEMの計算は、ユーザの目のデフォルトポーズの推定または特定と、表示面130を基準とする要素画像122のアレイ120についての対応するデフォルト位置とに基づく。例示すると、図3の断面図300によって示される例示的なシナリオを参照して、対応するディスプレイパネル118に対するユーザの目304についてのデフォルトポーズ302は、表示面130に対してX−Y面においてセンタリング(すなわち目304の視線軸が表示面130の中心軸306と整列)され、かつ、Z軸に沿った表示面130または小型レンズアレイ124からの推定またはデフォルトの距離に位置されるようにセットまたは定義され得る。このデフォルトポーズ302の目304により、ライトフィールドフレームの要素画像122のアレイ120についてのデフォルト位置も同様に表示面130に対してセンタリングされるように定義され得る。例示すると、断面図300において、ライトフィールドフレームは要素画像の3×3アレイから構成されており、断面図300に存在する3つの要素画像がディスプレイパネル118の領域308,309,310によって表わされ、これらの領域308,309,310は、目304がデフォルトポーズ302にある(この例では、小型レンズアレイ124からの特定された距離にて軸306に沿ってセンタリングされる)場合、中心軸306についてセンタリングされる示されたデフォルト位置312を有する。
この例示的な3×3の要素画像構成(および対応する3×3小型レンズアレイ構成)により、対応するアイボックスは、垂直線314によって表わされるように、表示面130と平行な面における寸法を有する。すなわち、目304が表示面130から同じ距離でポーズ316とポーズ318との間に位置決めされる限り、ユーザは、領域309において表示される要素画像がクリッピングされておらずまたはオクルージョンされていない視界を有するはずである。しかしながら、図3に示される例示的なシナリオは、ディスプレイパネル118に対するアイボックスのサイズを誇張している。さらに多くの要素画像と、さらに多くの小型レンズと、ディスプレイパネルからの目のより大きな距離とを有する典型的な構成においては、アイボックスは、ディスプレイパネル118に対してさらに小さくなる可能性があり、そのため、デフォルトIPD範囲からのユーザIPDの動きまたは逸脱がわずかであっても、ユーザの目はアイボックスの外に出てしまい、これにより、表示されているライトフィールドフレームのユーザの視界に影響を与えることになる。
目304についてのこのデフォルトポーズ302と、そのように定義または別の態様でセットされるライトフィールドフレームについての対応するデフォルト位置312とにより、レンダリングコンポーネント104は、目304のポーズによって表わされるデフォルトポーズ302からの変化に基づいて、デフォルト位置312に対するシフトベクトルSV_ELEMを決定し得る。例示すると、断面図300は、アイトラッキングコンポーネント106が目304をトラッキングしており、ブロック204においてそのポーズが位置320にあることを決定している例示的なシナリオを示している。位置320は、中心軸306についてセンタリングされるデフォルトポーズ302からの上方向のシフトを表わす(このシフトは矢印322によって表わされている)。目304の位置のこの上方向のシフトを補償するために、ブロック206において、レンダリングコンポーネント104は、図3の方位において反対方向、すなわち、下方向の補償シフトベクトルSV_ELEM(矢印324によって表わされる)を決定する。
少なくとも1つの実施形態では、レンダリングコンポーネント104は、下記式に基づいてシフトベクトルSV_ELEMを決定する。
Figure 0006983258
式中、SV_ELEMは、シフトベクトルを表わし、EYE_SHIFTは、ベクトル形式で目のポーズのシフトを表わし、F_Aは、小型レンズ126の焦点距離(すなわち表示面1308と小型レンズ126の面との間の距離)を表わし、D_ERはアイレリーフ(すなわち小型レンズ126の面と目304との間の距離)を表わす。なお、目304がデフォルトポーズにポージングされる状況では、項EYE_SHIFTは0となり、したがって、シフトベクトルSV_ELEMも同様に0になる(すなわちシフトなし)。なお、上記の記載は、要素画像のすべてが同じ程度または量だけシフトされる実現例に向けられているが、他の実現例では、要素画像の位置のシフティングは要素画像同士間で異なり得る。すなわち、異なる要素画像は、異なるパースペクティブシフト(たとえば視差シフト)に対応するように異なる位置シフトを有し得る。
いくつかの場合では、デフォルトポーズからの目のポーズのシフトは、Z方向のシフトを含み得る。そのような場合において、ブロック206では、レンダリングコンポーネント104はさらに、レンダリングされるライトフィールドフレームの要素画像に適用するスケーリング(または拡大)の量を決定する。例示すると、x次元(x=XまたはY)においてレンダリングされる要素画像のサイズを表わすx_elemは、以下の式によって決定され得る。
Figure 0006983258
図2を参照して、シフトベクトルSV_ELEMと要素画像のスケーリングとが決定された状態で、適宜、ブロック208において、レンダリングプログラム144は、CPU136を操作して、ブロック202において識別された画像コンテンツを使用してアレイ120を有するライトフィールドフレームをレンダリングするようGPU138,140の対応するものに命令する。ライトフィールドフレームは要素画像のアレイを含んでいる。このプロセスの一部分として、CPU136は、シフトベクトルSV_ELEMと、要素画像の寸法に適用される任意のスケーリングの指示とをGPUに提供し、要素画像がフレーム内のそれらのデフォルト位置に対してシフトベクトルSV_ELEMだけシフトされ、かつ、供給されたスケーリング情報があればスケーリング情報に従ってスケーリングされるようにライトフィールドフレームをレンダリングするようにGPUに命令する。したがって、GPUは、シフトおよび/またはスケーリングされた要素画像のアレイによりライトフィールドフレームをレンダリングし、ブロック210において、GPUは、ユーザの目304に対する表示のために、コンピューテイショナルディスプレイ110,112の対応するものにライトフィールドフレームを提供する。
例示すると、図3を再び参照して、GPUが矢印324によって表わされるシフトベクトルSV_ELEMを実現する場合、要素画像の結果得られるアレイは、断面図300に示される3つの要素画像が、シフト部分308’,309’および310’にて表示されるように、フレームまたは表示面130に対して下方向にシフト位置326へとシフトされる。したがって、結果得られるアイボックス(垂直線328によって表わされる)は、目304のポーズ320上のほぼ中心に位置するように、デフォルトポーズ302にて提示されるアイボックスに対して有効に上方向にシフトされ、これにより、表示された画像のケラレまたは他の曖昧化なしで、目304がポーズ330とポーズ332との間のいずれかの位置に動くことを可能にする。なお、ポーズ330はオリジナルのアイボックスの外にあり、表示されたライトフィールドフレームの要素画像の相補的なシフティングを介したアイボックスのこの動的なシフティングによって、別の態様で固定されたアイボックスで達成可能であるよりも目の位置および方位におけるより大きな変動が可能になるということが理解されるであろう。
図4は、いくつかの実施形態に従った、動的なアイボックスのシフティングを促進する、表示されたライトフィールドの要素画像の付加的および例示的である相補的なシフティングを示す。図402によって示されるように、目404のポーズは、ディスプレイパネル118に対するデフォルトポーズにあり、したがって、要素画像408のアレイ406はライトフィールドフレーム内のデフォルト位置にレンダリングされる。しかしながら、図410によって示されるように、デフォルトポーズの右側への目404のポーズのシフトによって、ライトフィールドフレーム内におけるデフォルト位置の左側へのアレイ406の位置の相補的なシフトが行われる。同様に、図412によって示されるように、上方向への目404のポーズのシフトによって、アレイ406についてライトフィールドフレーム内でのデフォルト位置からの下方向への相補的なシフトが行われる。目304のポーズのシフトは単一の基本的な方向におけるシフトに限定されておらず、アレイ406の位置における対応するシフトも同様である。たとえば、図414は、デフォルトポーズから右および下方向への目のポーズのシフトによって、ライトフィールドフレーム内において左および上方向へのアレイ406の位置の相補的なシフトが行われることを示す。アレイ406の位置のこれらのシフトはさらに、Z軸に沿ったデフォルト位置からの目404のシフトに応答したアレイ内での要素画像408の拡大または他のスケーリングを伴い得る。
なお、記載された動的なアイボックスプロセスによって、ユーザの目のポーズに依存してニアアイライトフィールドフレーム内での要素画像のアレイ120のシフトが行われるので、ニアアイライトフィールドフレームは典型的に、要素画像のクリッピングなしでアレイ120の位置がさまざまな方向のうちのいずれかにシフトされることが可能になるよう、そのデフォルト位置またはセンタリングされた位置においてアレイ120を取り囲む小さなバッファゾーンを利用する。このバッファゾーンは典型的に、小型レンズ126の倍率項(magnification term)を考えると、相対的に適度であり、一般に全体の表示面130の非常に小さな部分のみを構成する。代替的には、他の実施形態において、当該バッファゾーンが除外されてもよく、アレイ120の位置のシフトが実現される場合、先端部上の要素画像がクリッピングすることが許可され得る。
さらに、目の方位の変化は、目の位置の変化に加えてまたは当該変化の代わりに、要素画像の位置の対応するシフトをトリガし得る。本願明細書において考慮されるニアアイライトフィールドディスプレイのタイプは典型的に視線方向に対して感度が低いため、目方位の変化は、本願明細書において目位置の変化に対して記載されるのと同じ態様で扱われ得る。すなわち、本願明細書において記載される動的なアイボックスシフティングプロセスは、目のポーズの任意の局面(すなわち目方位、目位置またはその組合せ)に有効に適用され得る。
上で説明したように、本願明細書において記載される動的なアイボックスシフティングプロセスは、対応する目のポーズを決定するために、アイトラッキングコンポーネント(たとえばアイトラッキングコンポーネント106,108)を利用する。このアイトラッキングコンポーネントは典型的に、目に照射を行う1つ以上のIR照射器と、目からのIR反射の画像をキャプチャする撮像カメラと、目から反射されたIR光を撮像カメラへガイドする1つ以上のレンズ、導波路または他の光学要素と、キャプチャされた画像を分析するためにソフトウェアプログラムを実行する1つ以上のプロセッサとを含む。
図5は、ニアアイディスプレイシステム100におけるアイトラッキングコンポーネントとして利用され得るアイトラッキングコンポーネントの光学コンポーネントのための従来の構成を示す。断面図500によって示されるように、この従来のアプローチでは、IR照射器502が、小型レンズアレイ124の一端部に配置されるか、または、対応する小型レンズアレイ124とともに小型レンズアレイ124の一端部の近傍に配置される一方、撮像カメラ506および1つ以上のレンズ508または他の光学要素を含む撮像アセンブリ504が小型レンズアレイ124の他端部に配置されており、IR照射器502および撮像アセンブリ504は、小型レンズアレイ124を通じて見た際にディスプレイパネル118に対して目510のFOV内に存在していないため、ディスプレイパネル118の閲覧に干渉しない。動作において、IR照射器502はIR光を目510に照射し、目510からのこのIR光の反射が撮像アセンブリ504によって1つ以上の画像としてキャプチャされる。しかしながら、撮像アセンブリ504の位置によって、目510およびIR反射に対して斜角で撮像アセンブリ504が配置されることになり、これにより、そのようにキャプチャされたいずれの画像のアイトラッキング分析についても困難さが示され得る。この問題に対する典型的な1つの解決策は、上記斜角を低減するように最小のアイレリーフを課すことであるが、これはそうでない場合に必要とされるよりも厚いフォームファクタにつながるため、ユーザがディスプレイシステムを楽しむことを損ない得る。
図6は、いくつかの実施形態に従った、ニアアイディスプレイシステム100において利用され得るアイトラッキングコンポーネントの光学コンポーネントのための改善された構成を示す。図6の断面図600によって示されるように、この構成において、IR照射器602,604のような1つ以上のIR照射器が、そこから発されるIR光がより小さい斜角で目610上に到達するように、小型レンズアレイ124の小型レンズ126同士の間に配置される。さらに、図6の構成は、目610から反射されたIR光を直接的にキャプチャすることを試みるのではなく、小型レンズアレイ125とディスプレイパネル118との間に配置される平らなまたは曲がった反射要素608(IR反射器/ミラーまたはビームスプリッタを含み得る)を使用する。撮像カメラ614および1つ以上のレンズ616または他の光学要素を含む撮像アセンブリ612が反射要素608上にフォーカスされる。このアプローチにおいて、目610から反射されたIR光は、小型レンズアレイ124の1つ以上の隣接した小型レンズ126によって反射要素608上にフォーカスされ、反射要素608は、1つ以上の画像としてのキャプチャのために、撮像アセンブリ612に向かってこの入射IR光を反射する。したがって、このアプローチにおいて、画像のためにキャプチャされたIR光は、図5によって示される従来の構成においてキャプチャされたものより小さい斜角から得られ、これにより、ユーザの視覚の周辺部において撮像アセンブリ612を維持しつつ、より正確なアイトラッキングを促進する。なお、図6の例において単一の撮像アセンブリ612が示されているが、他の実施形態において、小型レンズアレイ124の周辺部における複数の撮像アセンブリ612が、アイトラッキング精度の向上のための異なる視点から、目610の反射されたIR画像をキャプチャするために使用されてもよい。
反射要素608が目610のFOVの内にあることが認識されるであろう。しかしながら、反射要素608は、ディスプレイパネル118と小型レンズアレイ124との間に配置される(すなわち、小型レンズ126の焦点距離より近い)ので、目610からフォーカスがずれることになる。しかしながら、反射要素608は、反射要素608の後ろに位置する1つ以上の要素画像の目の視界を不明瞭にする。しかしながら、図9を参照してさらに詳しく以下に記載されるように、コンピューテイショナルディスプレイは実際にオーバーラッピングプロジェクタのアレイであるので、不明瞭にされないオーバーラッピングプロジェクタの輝度は、不明瞭にされる要素画像を計算により補償するために使用され得る。
図7は、いくつかの実施形態に従った、ニアアイディスプレイシステム100において利用され得るアイトラッキングコンポーネントの光学コンポーネントのための別の改善された構成を示す。断面図700によって示されるように、この構成において、IR照射器702,704のような1つ以上のIR照射器が、そこから発せられるIR光がより小さい斜角で目710上に到達するように、小型レンズアレイ124の小型レンズ126同士の間に位置決めされる。さらに、図7の構成は、反射されたIR光を撮像のために目710から周辺部に再方向付けするのではなく、撮像アセンブリ706を小型レンズアレイ124とディスプレイパネル118との間に配置する。撮像アセンブリ706は、撮像カメラ708および1つ以上のレンズ712または他の光学要素を含み、目710に向かってフォーカスされる。このアプローチにおいて、目610から反射されたIR光は、小型レンズアレイ124の介在する小型レンズ126によって、撮像アセンブリの1つ以上の光学要素を介して撮像カメラ708上に直接的に(すなわち反射することなく)フォーカスされる。したがって、このアプローチにおいて、撮像アセンブリ708は、目710の瞳孔および角膜の直接的または鋭角の視界を有し、これにより、非常に正確なアイトラッキングが促進される。なお、図7の例において単一の撮像アセンブリ706が示されているが、他の実施形態では、小型レンズアレイ124とディスプレイパネル118との間に配置される複数の撮像アセンブリ706が、アイトラッキング精度の向上のための異なる視点から、目610の反射されたIR画像をキャプチャするために使用され得る。さらに、図6の構成と同様に、目710に対してフォーカスがずれているが、撮像カメラアセンブリ706の存在によって、撮像カメラアセンブリ706の後ろの要素画像が不明瞭になる。しかしながら、オーバーラッピングプロジェクタ効果により、1つ以上の隣接した要素画像の少なくとも一部分の明るさが計算方法を通じて選択的に増加され得、後述されるように、不明瞭にされた要素画像を補償する。
図8は、断面図800によって示されるように、より大きい有効なディスプレイパネルを形成するために、単一のディスプレイパネル118を使用するのではなく、複数のタイルドディスプレイパネル(tiled display panels)818が利用される、図7の構成に対する修正例を示す。このアプローチにおいて、タイルドディスプレイパネル818は、撮像カメラアセンブリ706がディスプレイパネル818同士の間のギャップに位置決めされるように分離され、これにより、撮像カメラアセンブリ706が目710の視界から1つ以上の要素画像を不明瞭にすることを防止する。
図6〜図8によって示されるアイトラッキングコンポーネントの構成は、目の瞳孔および角膜のより小さい傾斜しているまたはより直接的な視点を提供し、これによりアイトラッキング精度の改善を促進するという有用性を有する。しかしながら、これらの構成はさらに、目とディスプレイパネルとの間に要素を配置するので、ディスプレイパネルに表示される要素画像のうちの1つ以上について目の視界が不明瞭にされる。レンダリングコンポーネント104は、本願明細書において考慮されるコンピューテイショナルディスプレイのようなニアアイライトフィールドディスプレイのオーバーラッピングプロジェクタの性質を活用することによって、1つ以上の不明瞭にされた要素画像を補償し得る。
例示すると、図9は、ニアアイディスプレイシステム100において利用されるもののようなコンピューテイショナルディスプレイの断面図900を示す。この図に示されるように、小型レンズアレイ124の小型レンズ126の各々が目902上への別個の「プロジェクタ」として機能し、各「プロジェクタ」は、ディスプレイパネル118に表示される要素画像のアレイから複合仮想画像904を形成する際に、1つ以上の隣接したプロジェクタとオーバーラップする。例示すると、小型レンズ126−1は、仮想画像904の領域914に、対応する要素画像(領域906によって表わされる)を投射し、小型レンズ126−2は、仮想画像904の領域915に、対応する要素画像(領域907によって表わされる)を投射し、小型レンズ126−3は、仮想画像904の領域916に、対応する要素画像(領域908によって表わされる)を投射し、図9によってさらに示されるように、領域914および915はサブ領域917においてオーバーラップし、領域916および916はサブ領域918においてオーバーラップし、すべての3つの領域914,915,916はサブ領域919においてオーバーラップする。
したがって、この例において、領域907と小型レンズアレイ124との間に配置された撮像装置により、ディスプレイパネル118の領域907に位置決めされる要素画像が目902から不明瞭になると仮定すると、領域907の不明瞭にされた要素画像によって引き起こされる輝度の損失を補償するために、周囲の要素画像のうちの1つ以上の輝度が計算により増加され得る。たとえば、示された面において、領域906および908の要素画像は輝度が増加され得、ディスプレイパネル118の方向の他の面における他の隣接した要素画像も輝度が増加され得、領域907における不明瞭にされた要素画像を計算により補償する。なお、図9は、直に隣接した要素画像のみとのオーバーラッピング領域を有する簡素化された例を示している。多くの実現例において、不明瞭にされた要素画像に直に隣接している要素画像以外の要素画像が、不明瞭にされた要素画像における不明瞭にされたピクセルとオーバーラップするピクセルの領域を有し得る。したがって、一般に、不明瞭にされた要素画像についての計算による補償は、不明瞭にされた要素画像におけるどのピクセルが周囲の要素画像において再現(replicate)されるかを識別することと、その後、除算(N+1)/Nによって、周囲の要素画像内の再現された(すなわちオーバーラップされた)ピクセルの輝度をスケーリングすることとを含み、式中、Nは、そのピクセルを共有する要素画像の数を表わす。
いくつかの実施形態では、上記技術のある局面は、ソフトウェアを実行する処理システムの1つ以上のプロセッサによって実現され得る。ソフトウェアは、一時的でないコンピュータ読取可能記憶媒体上に格納されるかまたは有形的に具現化される実行可能命令の1つ以上のセットを含む。ソフトウェアは、1つ以上のプロセッサによって実行されると、上記技術の1つ以上の局面を行なうために1つ以上のプロセッサを操作する命令およびあるデータを含み得る。一時的でないコンピュータ読取可能記憶媒体はたとえば、磁気または光学ディスクストレージデバイス、フラッシュメモリのようなソリッドステートストレージデバイス、キャッシュ、および、ランダムアクセスメモリ(RAM)または他の1つまたは複数の非揮発性メモリデバイスなどを含み得る。一時的でないコンピュータ読取可能記憶媒体上に格納される実行可能命令は、ソースコード、アセンブリ言語コード、オブジェクトコード、または、1つ以上のプロセッサによって解釈または別の態様で実行可能な他の命令フォーマットの形態にあり得る。
コンピュータ読取可能記憶媒体は、コンピュータシステムに命令および/またはデータを提供するよう使用の間にコンピュータシステムによってアクセス可能である任意の記憶媒体または記憶媒体の組合せを含み得る。そのような記憶媒体は、光学媒体(たとえばコンパクトディスク(CD)、デジタルバーサタイルディスク(DVD)、ブルーレイ(登録商標)ディスク)、磁気媒体(たとえばフロッピー(登録商標)ディスク、磁気テープまたは磁気ハードドライブ)、揮発性メモリ(たとえばランダムアクセスメモリ(RAM)またはキャッシュ)、不揮発性メモリ(たとえばリードオンリメモリ(ROM)またはフラッシュメモリ)、または、微小電気機械システム(MEMS: microelectromechanical system)ベースの記憶媒体を含み得るがこれらに限定されない。コンピュータ読取可能記憶媒体は、コンピューティングシステムに埋め込まれてもよく(たとえばシステムRAMまたはROM)、コンピューティングシステムに固定的に取り付けられてもよく(たとえば磁気ハードドライブ)、コンピューティングシステムに除去可能に取り付けられてもよく(たとえば光学ディスクまたはユニバーサルシリアルバス(USB)ベースのフラッシュメモリ)、または、有線ネットワークまたは無線ネットワークを介してコンピュータシステムに結合されてもよい(たとえばネットワークアクセス可能ストレージ(NAS: network accessible storage))。
なお、一般的な記載において上述されるアクティビティまたは要素のすべてが必要であるわけではなく、特定のアクティビティまたはデバイスの部分が必要ではない場合があり、上記されたものに加えて、1つ以上のさらに別のアクティビティが行なわれてもよく、要素が含まれてもよい。またさらに、アクティビティがリスティングされる順番は必ずしもそれらが行なわれる順番ではない。さらに、特定の実施形態を参照して概念が説明された。しかしながら、当業者は、添付の請求の範囲において記載される本開示の範囲から逸脱することがなければ、さまざまな修正および変化が行なわれ得るということを理解する。従って、明細書および図面は、限定的な意味ではなく、例示的な意味で解釈されるべきであり、すべてのそのような修正例は本開示の範囲内に含まれることが意図される。
有用性、他の利点および問題の解決手段は、特定の実施形態に関して上で説明されている。しかしながら、有用性、利点、問題の解決手段、および、任意の有用性、利点または解決手段をもたらし得るまたはより顕著にし得る任意の特徴は、請求項のいずれかまたはすべての重要、必要または必須である特徴として解釈されるべきでない。さらに、開示された主題は、本願明細書における教示の利益を有する当業者に明白であり異なるが同等である態様で修正および実施されてもよいので、上で開示された特定の実施形態は単に例示的である。添付の請求の範囲に記載されるもの以外の、本願明細書において示された構造または設計の詳細に対する限定は意図されない。したがって、上で開示された特定の実施形態が変更または修正されてもよく、すべてのそのような変更は開示された主題の範囲内にあると考慮されることは明白である。従って、本願明細書において要求される保護は、添付の請求の範囲において記載される。

Claims (20)

  1. ニアアイディスプレイシステムにおいて行われる方法であって、
    撮像カメラを使用してユーザの目の画像をキャプチャすることによって、前記ニアアイディスプレイシステムのアイトラッキングコンポーネントを使用して、前記ユーザの目の第1のポーズを決定することと、
    前記ユーザの目の前記第1のポーズに基づいてニアアイライトフィールドフレームを形成する要素画像のアレイについてのシフトベクトルを決定することと、
    前記シフトベクトルに基づく前記ニアアイライトフィールドフレーム内の位置に前記要素画像のアレイをレンダリングすることと、
    前記ニアアイディスプレイシステムのディスプレイパネルに前記ニアアイライトフィールドフレームを表示することとを含み、小型レンズのアレイが前記ディスプレイパネルに重畳され、前記撮像カメラは、前記ディスプレイパネルと前記小型レンズのアレイとの間に配置され、
    前記撮像カメラは、前記ユーザの目からの前記ニアアイライトフィールドフレームの要素画像を不明瞭にし、
    前記要素画像のアレイをレンダリングすることは、不明瞭にされた前記要素画像によって引き起こされる輝度損失を補償するために、不明瞭にされた前記要素画像に隣接する1つ以上の要素画像が増加した輝度を有するように、前記要素画像のアレイをレンダリングすることを含む、方法。
  2. 前記シフトベクトルを決定することは、
    前記第1のポーズによって表わされる前記ユーザの目についてのデフォルトポーズからのシフトを決定することと、
    前記ユーザの目についての前記デフォルトポーズからの前記シフトに基づいて、前記ニアアイライトフィールドフレーム内の前記要素画像のアレイについてのデフォルト位置からのシフトを表わすものとして前記シフトベクトルを決定することとを含む、請求項1に記載の方法。
  3. 前記シフトベクトルを決定することは、式
    SV_ELEM=−EYE_SHIFT×(F_A/D_ER)
    に基づいて前記シフトベクトルを決定することを含み、
    式中、SV_ELEMは、前記シフトベクトルを表わし、EYE_SHIFTは、前記ユーザの目についての前記デフォルトポーズからの前記シフトを表わし、F_Aは、前記小型レンズの焦点距離を表わし、D_ERは、前記小型レンズのアレイと前記ユーザの目との間の距離を表わす、請求項2に記載の方法。
  4. ニアアイディスプレイシステムにおいて行われる方法であって、
    撮像カメラを使用してユーザの目の画像をキャプチャすることによって、前記ニアアイディスプレイシステムのアイトラッキングコンポーネントを使用して、前記ユーザの目の第1のポーズを決定することと、
    前記ユーザの目の前記第1のポーズに基づいてニアアイライトフィールドフレームを形成する要素画像のアレイについてのシフトベクトルを決定することと、
    前記シフトベクトルに基づく前記ニアアイライトフィールドフレーム内の位置に前記要素画像のアレイをレンダリングすることと、
    前記ニアアイディスプレイシステムのディスプレイパネルに前記ニアアイライトフィールドフレームを表示することとを含み、小型レンズのアレイが前記ディスプレイパネルに重畳され、前記撮像カメラは、前記ディスプレイパネルと前記小型レンズのアレイとの間に配置され、前記方法は、
    前記ディスプレイパネルに垂直な軸に沿った前記ユーザの目の位置を決定することと、
    前記位置に基づいて前記アレイの前記要素画像のサイズをスケーリングすることとをさらに含む、方法。
  5. ニアアイディスプレイシステムにおいて行われる方法であって、
    撮像カメラを使用してユーザの目の画像をキャプチャすることによって、前記ニアアイディスプレイシステムのアイトラッキングコンポーネントを使用して、前記ユーザの目の第1のポーズを決定することと、
    前記ユーザの目の前記第1のポーズに基づいてニアアイライトフィールドフレームを形成する要素画像のアレイについてのシフトベクトルを決定することと、
    前記シフトベクトルに基づく前記ニアアイライトフィールドフレーム内の位置に前記要素画像のアレイをレンダリングすることと、
    前記ニアアイディスプレイシステムのディスプレイパネルに前記ニアアイライトフィールドフレームを表示することとを含み、小型レンズのアレイが前記ディスプレイパネルに重畳され、前記撮像カメラは、前記ディスプレイパネルと前記小型レンズのアレイとの間に配置され、
    前記方法はさらに、
    第1の時間において、前記ニアアイディスプレイシステムの前記アイトラッキングコンポーネントを使用して、前記ニアアイディスプレイシステムの前記ディスプレイパネルに対する前記ユーザの目のデフォルトポーズを決定することと、
    前記ディスプレイパネルに重畳される小型レンズのアレイを使用して、要素画像の第1のアレイを含む第1のニアアイライトフィールドフレームをレンダリングおよび表示することとを含み、前記第1のアレイは、前記ユーザの目の前記デフォルトポーズに基づく前記第1のニアアイライトフィールドフレーム内に第1の位置を有し、
    ユーザの目の第1のポーズを決定することは、
    第2の時間において、前記アイトラッキングコンポーネントを使用して、前記ディスプレイパネルに対する前記ユーザの目の前記第1のポーズを決定することを含み、前記第1のポーズは前記デフォルトポーズと異なっており、
    前記ニアアイライトフィールドフレームは、第2のニアアイライトフィールドフレームであり、前記要素画像のアレイは、要素画像の第2のアレイであり、前記ニアアイライトフィールドフレーム内の前記位置は、前記第2のニアアイライトフィールドフレーム内の第2の位置であり、前記第2の位置は前記ユーザの目の第2のポーズに基づいており、前記第2の位置は前記第1の位置と異なり、
    前記第1のニアアイライトフィールドフレームをレンダリングおよび表示することは、前記撮像カメラによって不明瞭にされた要素画像によって引き起こされる輝度損失を補償するために、不明瞭にされた前記要素画像に隣接する前記第1のアレイの1つ以上の要素画像が増加した輝度を有するように、前記第1のニアアイライトフィールドフレームをレンダリングすることを含む、方法。
  6. 前記第1の位置はデフォルト位置であり、
    前記方法はさらに、
    前記第1のポーズによって表わされる前記デフォルトポーズからのシフトを決定することと、
    前記ユーザの目についての前記デフォルトポーズからの前記シフトに基づいて前記シフトベクトルを決定することと、
    前記シフトベクトルに基づいて前記第1の位置からのシフトとしての前記第2の位置を決定することとを含む、請求項に記載の方法。
  7. 前記シフトベクトルを決定することは、式
    SV_ELEM=−EYE_SHIFT×(F_A/D_ER)
    に基づいて前記シフトベクトルを決定することを含み、
    式中、SV_ELEMは、前記シフトベクトルを表わし、EYE_SHIFTは、前記ユーザの目についての前記デフォルトポーズからの前記シフトを表わし、F_Aは、前記ディスプレイパネルに重畳される小型レンズアレイの小型レンズの焦点距離を表わし、D_ERは、前記小型レンズアレイと前記ユーザの目との間の距離を表わす、請求項に記載の方法。
  8. 前記ユーザの目の前記デフォルトポーズを決定することと、前記ユーザの目の前記第1のポーズを決定することとは、前記ディスプレイパネルと前記ディスプレイパネルに重畳される小型レンズアレイとの間に配置される撮像カメラを使用して前記ユーザの目の画像をキャプチャすることを含む、請求項のいずれか1項に記載の方法。
  9. 記要素画像の第2のアレイをレンダリングすることは、前記撮像カメラによって不明瞭にされた要素画像によって引き起こされる輝度損失を補償するために、不明瞭にされた前記要素画像に隣接する前記第2のアレイの1つ以上の要素画像が増加した輝度を有するように、前記第2のニアアイライトフィールドフレームをレンダリングすることを含む、請求項に記載の方法。
  10. ニアアイディスプレイシステムであって、
    要素画像のアレイを含むニアアイライトフィールドフレームを表示するように構成されるディスプレイパネルと、
    前記ディスプレイパネルに重畳される小型レンズのアレイと、
    ユーザの目のポーズをトラッキングするように構成されるアイトラッキングコンポーネントとを含み、前記アイトラッキングコンポーネントは、前記小型レンズのアレイの周辺部に配置される撮像カメラと、前記小型レンズのアレイと前記ディスプレイパネルとの間に配置される反射要素とを含み、前記反射要素は、前記ユーザの目からの光を前記撮像カメラに反射するように方位付けされ、前記ニアアイディスプレイシステムはさらに、
    前記ユーザの目の前記ポーズに基づいて前記ニアアイライトフィールドフレーム内で前記要素画像のアレイを位置決めするために、前記ニアアイライトフィールドフレームを表示するよう前記ディスプレイパネルを制御するように構成されるレンダリングコンポーネントとを含
    前記レンダリングコンポーネントは、前記反射要素によって不明瞭にされた要素画像によって引き起こされる輝度損失を補償するために、不明瞭にされた前記要素画像に隣接する1つ以上の要素画像が増加した輝度を有するように、前記要素画像のアレイをレンダリングするように構成される、ニアアイディスプレイシステム。
  11. 前記レンダリングコンポーネントは、
    前記ユーザの目の前記ポーズに基づいてシフトベクトルを決定することと、
    前記シフトベクトルに基づいて、前記ニアアイライトフィールドフレーム内における前記要素画像のアレイの位置をデフォルト位置からシフトすることと、
    によって前記ニアアイライトフィールドフレーム内において前記要素画像のアレイを位置決めするように構成される、請求項10に記載のニアアイディスプレイシステム。
  12. 前記レンダリングコンポーネントは、
    前記ユーザの目のトラッキングされた前記ポーズによって表わされる前記ユーザの目についてのデフォルトポーズからのシフトを決定することと、
    前記ユーザの目についての前記デフォルトポーズからの前記シフトに基づいて前記シフトベクトルを決定することと、
    によって前記シフトベクトルを決定するように構成される、請求項11に記載のニアアイディスプレイシステム。
  13. 前記レンダリングコンポーネントは、式
    SV_ELEM=−EYE_SHIFT×(F_A/D_ER)
    に基づいて前記シフトベクトルを決定するように構成され、
    式中、SV_ELEMは、前記シフトベクトルを表わし、EYE_SHIFTは、前記ユーザの目についての前記デフォルト位置からの前記シフトを表わし、F_Aは、前記ディスプレイパネルに重畳される小型レンズアレイの小型レンズの焦点距離を表わし、D_ERは、前記小型レンズアレイと前記ユーザの目との間の距離を表わす、請求項11に記載のニアアイディスプレイシステム。
  14. 前記アイトラッキングコンポーネントは、
    前記ユーザの目に光を照射するように構成される1つ以上の赤外線(IR)照射器のセットを含む、請求項1013のいずれか1項に記載のニアアイディスプレイシステム。
  15. 前記アイトラッキングコンポーネントは、
    前記ユーザの目に光を照射する1つ以上の赤外線(IR)照射器のセットと、
    前記ディスプレイパネルに重畳される小型レンズアレイと前記ディスプレイパネルとの間に配置され、かつ、前記小型レンズアレイを通じて前記ユーザの目に向かって方位付けされた撮像カメラとを含む、請求項1013のいずれか1項に記載のニアアイディスプレイシステム。
  16. ニアアイディスプレイシステムであって、
    要素画像のアレイを含むニアアイライトフィールドフレームを表示するように構成されるディスプレイパネルと、
    前記ディスプレイパネルに重畳される小型レンズのアレイと、
    ユーザの目のポーズをトラッキングするように構成されるアイトラッキングコンポーネントとを含み、前記アイトラッキングコンポーネントは、前記小型レンズのアレイの周辺部に配置される撮像カメラと、前記小型レンズのアレイと前記ディスプレイパネルとの間に配置される反射要素とを含み、前記反射要素は、前記ユーザの目からの光を前記撮像カメラに反射するように方位付けされ、前記ニアアイディスプレイシステムはさらに、
    前記ユーザの目の前記ポーズに基づいて前記ニアアイライトフィールドフレーム内で前記要素画像のアレイを位置決めするために、前記ニアアイライトフィールドフレームを表示するよう前記ディスプレイパネルを制御するように構成されるレンダリングコンポーネントとを含み、
    前記レンダリングコンポーネントは、前記撮像カメラによって不明瞭にされた要素画像によって引き起こされる輝度損失を補償するために、不明瞭にされた前記要素画像に隣接する1つ以上の要素画像が増加した輝度を有するように、前記要素画像のアレイをレンダリングするように構成される、ニアアイディスプレイシステム。
  17. レンダリングシステムであって、
    少なくとも1つのプロセッサと、
    ニアアイディスプレイパネルに対するユーザの目のポーズを示すデータをアイトラッキングコンポーネントから受け取るように構成される入力とを含み、小型レンズのアレイが前記ニアアイディスプレイパネルに重畳されており、前記レンダリングシステムはさらに、
    実行可能命令のセットを格納するように構成されるストレージコンポーネントを含み、前記実行可能命令のセットは、前記ユーザの目の前記ポーズに基づいて、ニアアイライトフィールドフレームをレンダリングするために前記少なくとも1つのプロセッサを操作するように構成されており、前記ニアアイライトフィールドフレームは、前記ニアアイライトフィールドフレーム内の位置を有する要素画像のアレイを含み、前記ユーザの目のポーズは撮像カメラによってキャプチャされる画像に基づいており、前記撮像カメラおよび反射要素のうちの少なくとも1つは、前記ニアアイディスプレイパネルと前記小型レンズのアレイとの間に配置され、
    前記実行可能命令のセットはさらに、
    前記ニアアイディスプレイパネルに垂直な軸に沿った前記ユーザの目の位置を決定することと、
    前記位置に基づいて前記アレイの前記要素画像のサイズをスケーリングすることと、によって前記ニアアイライトフィールドフレームをレンダリングするために前記少なくとも1つのプロセッサを操作するように構成される、レンダリングシステム。
  18. 前記実行可能命令のセットは、
    前記ユーザの目の前記ポーズに基づいてシフトベクトルを決定することと、
    前記シフトベクトルに基づいて、前記ニアアイライトフィールドフレーム内における前記要素画像のアレイの位置をデフォルト位置からシフトすることと、
    によって前記ニアアイライトフィールドフレームをレンダリングするために前記少なくとも1つのプロセッサを操作するように構成される、請求項17に記載のレンダリングシステム。
  19. 前記実行可能命令のセットは、
    前記ユーザの目のトラッキングされた前記ポーズによって表わされる前記ユーザの目についてのデフォルトポーズからのシフトを決定することと、
    前記ユーザの目についての前記デフォルトポーズからの前記シフトに基づいて前記シフトベクトルを決定することと、
    によって前記シフトベクトルを決定するために前記少なくとも1つのプロセッサを操作するように構成される、請求項18に記載のレンダリングシステム。
  20. 前記実行可能命令のセットは、式
    SV_ELEM=−EYE_SHIFT×(F_A/D_ER)
    に基づいて前記シフトベクトルを決定するために前記少なくとも1つのプロセッサを操作するように構成され、
    式中、SV_ELEMは、前記シフトベクトルを表わし、EYE_SHIFTは、前記ユーザの目についての前記デフォルトポーズからの前記シフトを表わし、F_Aは、前記ニアアイディスプレイパネルに重畳される小型レンズアレイの小型レンズの焦点距離を表わし、D_ERは、前記小型レンズアレイと前記ユーザの目との間の距離を表わす、請求項19に記載のレンダリングシステム。
JP2019563139A 2017-05-15 2018-02-09 アイトラッキングを介した拡張された有効なアイボックスを有するニアアイディスプレイ Active JP6983258B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/595,147 2017-05-15
US15/595,147 US10546518B2 (en) 2017-05-15 2017-05-15 Near-eye display with extended effective eyebox via eye tracking
PCT/US2018/017590 WO2018212808A1 (en) 2017-05-15 2018-02-09 Near-eye display with extended effective eyebox via eye tracking

Publications (2)

Publication Number Publication Date
JP2020520475A JP2020520475A (ja) 2020-07-09
JP6983258B2 true JP6983258B2 (ja) 2021-12-17

Family

ID=61386906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019563139A Active JP6983258B2 (ja) 2017-05-15 2018-02-09 アイトラッキングを介した拡張された有効なアイボックスを有するニアアイディスプレイ

Country Status (8)

Country Link
US (1) US10546518B2 (ja)
EP (1) EP3625648B1 (ja)
JP (1) JP6983258B2 (ja)
KR (1) KR102315862B1 (ja)
CN (1) CN110651236B (ja)
DE (1) DE202018100907U1 (ja)
TW (1) TWI681663B (ja)
WO (1) WO2018212808A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2901477C (en) 2015-08-25 2023-07-18 Evolution Optiks Limited Vision correction system, method and graphical user interface for implementation on electronic devices having a graphical display
CN106908951A (zh) * 2017-02-27 2017-06-30 阿里巴巴集团控股有限公司 虚拟现实头戴设备
JP6963399B2 (ja) * 2017-03-16 2021-11-10 株式会社スクウェア・エニックス プログラム、記録媒体、画像生成装置、画像生成方法
CN111316153A (zh) * 2017-09-21 2020-06-19 奇跃公司 具有被配置为捕获眼睛和/或环境的图像的波导的增强现实显示器
US10395624B2 (en) * 2017-11-21 2019-08-27 Nvidia Corporation Adjusting an angular sampling rate during rendering utilizing gaze information
US11500460B2 (en) 2018-10-22 2022-11-15 Evolution Optiks Limited Light field device, optical aberration compensation or simulation rendering
US11966507B2 (en) 2018-10-22 2024-04-23 Evolution Optiks Limited Light field vision testing device, adjusted pixel rendering method therefor, and vision testing system and method using same
US11327563B2 (en) 2018-10-22 2022-05-10 Evolution Optiks Limited Light field vision-based testing device, adjusted pixel rendering method therefor, and online vision-based testing management system and method using same
CN109637418B (zh) * 2019-01-09 2022-08-30 京东方科技集团股份有限公司 一种显示面板及其驱动方法、显示装置
US11500461B2 (en) 2019-11-01 2022-11-15 Evolution Optiks Limited Light field vision-based testing device, system and method
US11789531B2 (en) 2019-01-28 2023-10-17 Evolution Optiks Limited Light field vision-based testing device, system and method
TWI683132B (zh) * 2019-01-31 2020-01-21 創新服務股份有限公司 人臉眼睛定位系統在顯微鏡的應用
TWI697832B (zh) * 2019-02-01 2020-07-01 宏碁股份有限公司 多螢幕顯示系統及其訊息提示方法
US11635617B2 (en) 2019-04-23 2023-04-25 Evolution Optiks Limited Digital display device comprising a complementary light field display or display portion, and vision correction system and method using same
US11850730B2 (en) * 2019-07-17 2023-12-26 Asensus Surgical Us, Inc. Double eye tracker configuration for a robot-assisted surgical system
AU2020332878A1 (en) 2019-08-16 2022-01-27 GammaDelta Therapeutics Limited Therapeutic uses of anti-TCR delta variable 1 antibodies
CN114599783A (zh) 2019-08-16 2022-06-07 伽马三角洲疗法有限公司 离体gamma delta t细胞群
US11902498B2 (en) * 2019-08-26 2024-02-13 Evolution Optiks Limited Binocular light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
US11823598B2 (en) 2019-11-01 2023-11-21 Evolution Optiks Limited Light field device, variable perception pixel rendering method therefor, and variable perception system and method using same
US11487361B1 (en) 2019-11-01 2022-11-01 Evolution Optiks Limited Light field device and vision testing system using same
TWI761930B (zh) * 2019-11-07 2022-04-21 宏達國際電子股份有限公司 頭戴式顯示裝置以及距離量測器
TWI749894B (zh) * 2020-01-14 2021-12-11 宏達國際電子股份有限公司 頭戴式顯示器
EP4114415A1 (en) 2020-03-06 2023-01-11 Sorrento Therapeutics, Inc. Innate immunity killer cells targeting psma positive tumor cells
TWI792033B (zh) * 2020-08-10 2023-02-11 見臻科技股份有限公司 穿戴式眼動追蹤系統
MX2023001728A (es) 2020-08-14 2023-04-20 Gammadelta Therapeutics Ltd Anticuerpos multiespecíficos anti-tcr delta variable 1.
GB202013962D0 (en) 2020-09-04 2020-10-21 Gammadelta Therapeutics Ltd Immunotherapy composition
KR20220100741A (ko) * 2021-01-08 2022-07-18 삼성디스플레이 주식회사 표시 패널, 표시 장치 및 표시 장치 제어 방법
KR20220105194A (ko) * 2021-01-18 2022-07-27 삼성디스플레이 주식회사 표시 장치 및 표시 장치 제어 방법
CA3207265A1 (en) 2021-02-17 2022-08-25 Mihriban Tuna Anti-tcr delta variable 1 antibodies
EP4089465A1 (en) * 2021-05-13 2022-11-16 Coretronic Corporation Light field near-eye display device and method thereof
CN115494640A (zh) 2021-06-17 2022-12-20 中强光电股份有限公司 产生虚拟实境影像的光场近眼显示器及其方法
EP4382995A1 (en) 2021-08-20 2024-06-12 Sony Group Corporation Display apparatus and display method
US11722655B2 (en) * 2021-11-30 2023-08-08 SoliDDD Corp. Low latency networking of plenoptic data
US20230168506A1 (en) * 2021-12-01 2023-06-01 Meta Platforms Technologies, Llc High efficiency optical assembly with folded optical path
US20230196522A1 (en) * 2021-12-17 2023-06-22 SoliDDD Corp. Plenoptic image tile organization for single image display or capture
CA3208653A1 (en) 2022-02-17 2022-08-25 Mihriban Tuna Multispecific anti-tcr delta variable 1 antibodies

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6529331B2 (en) * 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
US20030067476A1 (en) 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
FI114752B (fi) 2003-05-30 2004-12-15 Nokia Corp Valosähköinen elementti ja sellaisen käsittävä päätelaite
US7475989B2 (en) 2006-03-14 2009-01-13 Amo Manufacturing Usa, Llc Shack-Hartmann based integrated autorefraction and wavefront measurements of the eye
WO2010137230A1 (ja) * 2009-05-25 2010-12-02 シャープ株式会社 アクティブマトリクス基板、液晶パネル、液晶表示装置、テレビジョン受像機
US8670019B2 (en) * 2011-04-28 2014-03-11 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
CN103688369B (zh) * 2011-05-31 2016-05-25 德国弗劳恩霍夫应用研究促进协会 双向显示器及其控制
CA2750287C (en) 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US9025252B2 (en) * 2011-08-30 2015-05-05 Microsoft Technology Licensing, Llc Adjustment of a mixed reality display for inter-pupillary distance alignment
US9001030B2 (en) 2012-02-15 2015-04-07 Google Inc. Heads up display
CN103376551B (zh) * 2012-04-23 2017-04-19 北京蚁视昂维科技有限公司 小孔投射式近眼显示器
US20130285885A1 (en) 2012-04-25 2013-10-31 Andreas G. Nowatzyk Head-mounted light-field display
US9841537B2 (en) 2012-07-02 2017-12-12 Nvidia Corporation Near-eye microlens array displays
US20140362110A1 (en) 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
US10274731B2 (en) 2013-12-19 2019-04-30 The University Of North Carolina At Chapel Hill Optical see-through near-eye display using point light source backlight
US9459451B2 (en) 2013-12-26 2016-10-04 Microsoft Technology Licensing, Llc Eye tracking apparatus, method and system
US9993335B2 (en) * 2014-01-08 2018-06-12 Spy Eye, Llc Variable resolution eye mounted displays
US10228562B2 (en) 2014-02-21 2019-03-12 Sony Interactive Entertainment Inc. Realtime lens aberration correction from eye tracking
CN104914575B (zh) * 2014-09-29 2017-11-14 北京蚁视科技有限公司 带有屈光度检测装置的微透镜阵列式近眼显示器
CN105717640B (zh) * 2014-12-05 2018-03-30 北京蚁视科技有限公司 基于微透镜阵列的近眼显示器
US10247941B2 (en) 2015-01-19 2019-04-02 Magna Electronics Inc. Vehicle vision system with light field monitor
US9625989B2 (en) 2015-04-01 2017-04-18 Fove, Inc. Head mounted display
US10152906B2 (en) * 2015-04-26 2018-12-11 Mems Start, Llc Near-eye display system and method
KR20160147636A (ko) 2015-06-15 2016-12-23 삼성전자주식회사 헤드 마운티드 디스플레이 장치
US10210844B2 (en) * 2015-06-29 2019-02-19 Microsoft Technology Licensing, Llc Holographic near-eye display
US10437061B2 (en) 2015-08-03 2019-10-08 Facebook Technologies, Llc Near-ocular display based on hologram projection

Also Published As

Publication number Publication date
US20180330652A1 (en) 2018-11-15
JP2020520475A (ja) 2020-07-09
KR102315862B1 (ko) 2021-10-22
WO2018212808A1 (en) 2018-11-22
CN110651236B (zh) 2021-02-09
EP3625648A1 (en) 2020-03-25
TWI681663B (zh) 2020-01-01
EP3625648B1 (en) 2021-04-07
TW201902212A (zh) 2019-01-01
CN110651236A (zh) 2020-01-03
DE202018100907U1 (de) 2018-06-18
KR20190141709A (ko) 2019-12-24
US10546518B2 (en) 2020-01-28

Similar Documents

Publication Publication Date Title
JP6983258B2 (ja) アイトラッキングを介した拡張された有効なアイボックスを有するニアアイディスプレイ
US10659771B2 (en) Non-planar computational displays
KR102078059B1 (ko) 프리즘-기반 눈 추적
US10241329B2 (en) Varifocal aberration compensation for near-eye displays
US10877556B2 (en) Eye tracking system
CN108351691B (zh) 用于虚拟图像的远程渲染
US10740971B2 (en) Augmented reality field of view object follower
JP2017204674A (ja) 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法
KR20190131021A (ko) 확장된 수용 범위 조정이 가능한 근거리 안구 디스플레이
US20150309567A1 (en) Device and method for tracking gaze
WO2019135894A1 (en) Saccadic breakthrough mitigation for near-eye display
CN110895433B (zh) 用于增强现实中用户交互的方法和装置
US11543655B1 (en) Rendering for multi-focus display systems
US11237413B1 (en) Multi-focal display based on polarization switches and geometric phase lenses
US11169358B1 (en) Varifocal projection display
WO2024122191A1 (ja) 画像処理装置及び方法、プログラム、記憶媒体
US20240192493A1 (en) Pupil-steering for three-dimensional (3d) resolution enhancement in single photon avalanche diode (spad) eye tracking (et)
US20240210677A1 (en) Ultrafast illumination for structured light based eye tracking

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211122

R150 Certificate of patent or registration of utility model

Ref document number: 6983258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150