JP7005658B2 - 非平面コンピュテーショナルディスプレイ - Google Patents

非平面コンピュテーショナルディスプレイ Download PDF

Info

Publication number
JP7005658B2
JP7005658B2 JP2019567233A JP2019567233A JP7005658B2 JP 7005658 B2 JP7005658 B2 JP 7005658B2 JP 2019567233 A JP2019567233 A JP 2019567233A JP 2019567233 A JP2019567233 A JP 2019567233A JP 7005658 B2 JP7005658 B2 JP 7005658B2
Authority
JP
Japan
Prior art keywords
display
eye
volume
user
planar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019567233A
Other languages
English (en)
Other versions
JP2020527872A (ja
Inventor
ペロー,ジョン・ディ
リュル,パトリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2020527872A publication Critical patent/JP2020527872A/ja
Application granted granted Critical
Publication of JP7005658B2 publication Critical patent/JP7005658B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/10Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images using integral imaging methods

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

背景
没入型仮想現実(VR)システムおよび拡張現実(AR)システムは、通常、ヘッドマウントディスプレイ(HMD)および他のニアアイディスプレイシステムを利用して、ユーザに3次元(3D)シーンの中に存在している感覚を与えるよう、立体視イメージを提示する。従来のHMDは、ニアアイライトフィールドディスプレイまたは他のコンピュテーショナルディスプレイを利用して、3次元(3D)グラフィックスの表示を提供できる。一般に、ニアアイライトフィールドディスプレイは、1つ以上のディスプレイパネルと、複数のレンズ、ピンホール、または、1つ以上のディスプレイパネルの上に重なる他の光学素子とを採用する。描画システムは、要素画像の配列を描画する。要素画像の各々は、対応する視点または仮想カメラの位置からのオブジェクトまたはシーンの画像またはビューを表す。
本開示は、添付の図面を参照することによって、当業者によって理解され、その数多くの特徴および利点が当業者に明らかになるであろう。異なる図面における同一の参照符号の使用は、同様または同一の項目を示す。
いくつかの実施形態に係る、立体焦点体積を生成するための非平面ディスプレイを内蔵したニアアイディスプレイシステムを説明する図である。 いくつかの実施形態に係る、立体焦点体積を生成するための非平面ディスプレイを内蔵する図1のニアアイディスプレイシステムの斜視図である。 いくつかの実施形態に係る、立体焦点体積を生成するための図1のニアアイディスプレイシステムにおける非平面コンピュテーショナルディスプレイの例を示す図である。 いくつかの実施形態に係る、図1のニアアイディスプレイシステムにおける仮想平面の回転例を示す図である。 いくつかの実施形態に係る、立体焦点体積を生成するための図1のニアアイディスプレイシステムに含まれる非平面コンピュテーショナルディスプレイの別の例を説明する図である。 いくつかの実施形態に係る、立体焦点体積を生成するための図1のニアアイディスプレイシステムにおける非平面コンピュテーショナルディスプレイのさらに別の例を説明する図である。 いくつかの実施形態に係る、非平面コンピュテーショナルディスプレイに潜む間隙の例を示す図である。 いくつかの実施形態に係る、立体焦点体積の生成方法を説明するフロー図である。
詳細な説明
図1~図8は、ニアアイディスプレイシステムにおいて非平面ディスプレイを内蔵し、かつ、立体焦点体積を生成するための例示的な方法およびシステムを説明する図である。少なくとも1つの実施形態では、ニアアイディスプレイシステムは、非平面コンピュテーショナルディスプレイを採用して、ユーザに没入型VRまたはAR体験を提供するよう、ニアアイライトフィールドフレームからなるイメージをユーザに表示する。各ニアアイライトフィールドフレームは、要素画像の配列から構成されている。各要素画像は、異なる対応する視点からのオブジェクトまたはシーンのビューを表す。
多くの従来のHMD装置は、1つはユーザの左眼用で1つは右眼用の2つの独立した表示領域に分かれた1つのフラットディスプレイ、または、ユーザの各眼に1つの独立したフラットディスプレイのペアを実装している。また、このような装置は、通常、ユーザの眼にディスプレイの画像全体の焦点を合わせるよう、各眼に1つのレンズを備える。しかしながら、複数のフラットディスプレイと各眼に1つのレンズとを使用すると、多くの場合、HMDフォームファクターがかさばってしまい、使用時に大きな慣性モーメントを与えてしまう。また、フラットディスプレイおよびレンズは、全体的な横方向の視野(FOV)を、多くの場合、110度以下に制約してしまう。これらの従来のHMD装置のサイズのかさばりと視野が制限されていることで、表示された画像の中に存在しているというユーザの感覚に悪影響を及ぼすので、提示されたシーンに没入しているという感覚を妨げてしまう可能性がある。
視野(FOV)および/または被写界深度を縮小しないでHMDフォームファクターを改善するために、少なくとも1つの実施形態では、本明細書に記載のニアアイディスプレイシステムは、非平面コンピュテーショナルディスプレイ構成を利用する。非平面コンピュテーショナルディスプレイ構成では、非平面コンピュテーショナルディスプレイ(複数可)に対応付けられた立体焦点体積内のオブジェクトは、焦点が合っていると知覚される。例として、従来のニアアイディスプレイシステムは、多くの場合、平面HMDフォームファクターを有している。平面HMDフォームファクターは、焦点が合っているとオブジェクトが知覚されるためには、左画像平面および右画像平面(すなわち、HMDの左眼用ディスプレイパネルおよび右眼用ディスプレイパネルの像面)の両方が同一平面上にある必要がある。しかしながら、このような平面HMDフォームファクターは、大型ディスプレイパネルを必要とし、十分なFOVを維持するために外形が「ダイビングマスク」製品の形状になってしまう。本明細書に記載のニアアイディスプレイシステムは、3次元(3D)空間に焦点体積を描画するために、より大きな被写界深度を有する小型レンズアレイと1つ以上のディスプレイパネルとを対にすることによって、ぐるりと囲むフォームファクターまたは非平面フォームファクターを可能にする。これらの焦点体積が重なり合っている体積は、ニアアイディスプレイシステムのFOVを減少させることなく、オブジェクトに焦点が合っているとユーザの両眼が知覚する立体焦点体積を表す。
図1は、少なくとも1つの実施形態に係る、立体焦点体積を生成するための非平面ディスプレイを内蔵するニアアイディスプレイシステム100を示す図である。いくつかの実施形態では、ニアアイディスプレイシステム100は、HMDがユーザの顔に装着されるフォームファクターを有するHMD装置であってもよい。図示した例では、ニアアイディスプレイシステム100は、コンピュテーショナルディスプレイサブシステム102と、描画コンポーネント104と、ユーザの左眼を追跡するための視線追跡コンポーネント106およびユーザの右眼を追跡するための視線追跡コンポーネント108のうちの1つまたは両方など、1つ以上の視線追跡コンポーネントとを備える。コンピュテーショナルディスプレイサブシステム102は、非平面ディスプレイである。装置114(たとえば、ゴーグル、眼鏡など)に実装された左眼用ディスプレイ110と右眼用ディスプレイ112とを含む。装置114は、ディスプレイ110、112をそれぞれユーザの左眼および右眼の前に配置させる。
ディスプレイ110、112の各々は、一続きまたは連続するニアアイライトフィールドフレーム(以下、参照の便宜上、「ライトフィールドフレーム」)を表示するための少なくとも1つのディスプレイパネル118を含む。ニアアイライトフィールドフレームの各々は、要素画像122の配列120から構成される。参照の便宜上、要素画像122の配列120もライトフィールドフレーム120と称される場合がある。ディスプレイ110、112の各々は、ディスプレイパネル118の上に重なる小型レンズ126(共通して、「マイクロレンズ」とも称する)のアレイ124をさらに含む。通常、小型レンズアレイ124に含まれる小型レンズ126の数は、配列120に含まれる要素画像122の数に等しいが、別の実装形態では、小型レンズ126の数は、要素画像122の数よりも少なくてもよいし、多くてもよい。なお、図1の例では、説明を容易にするために、要素画像122の10x4配列および対応する小型レンズ126の10×4配列120を示しているが、通常の実装形態では、ライトフィールドフレーム120に含まれる要素画像122の数および小型レンズアレイ124に含まれる小型レンズ126の数は、通常、はるかに多い。さらに、いくつかの実施形態では、ディスプレイ110、112の各々に対して別個のディスプレイパネル118が実装される一方、その他の実施形態では、左眼用ディスプレイ110と右眼用ディスプレイ112とが単一ディスプレイパネル118を共有し、ディスプレイパネル118の左半分が左眼用ディスプレイ110のために使用され、ディスプレイパネル118の右半分が右眼用ディスプレイ112のために使用される。
図1の断面図128は、小型レンズアレイ124の線A-Aに沿った断面図を示しており、表示面130と対応するユーザの眼132との間に小型レンズアレイ124が配置されるように各ディスプレイパネル118の表示面130の上に小型レンズアレイ124が重なるように、小型レンズアレイ124がディスプレイパネル118の上に重なっている。この構成では、各小型レンズ126は、表示面130の対応する領域の焦点を、各々のこのような領域が少なくとも部分的に1つ以上の隣接した領域に重なり合った状態で、眼の瞳孔134に合わせる。よって、要素画像122の配列120がディスプレイパネル118の表示面130に表示され、小型レンズアレイ124を通して眼132によって視認されたとき、ユーザは、要素画像122の配列120をシーンの1つの画像として知覚する。したがって、両目の間に正しい視差を実現させた状態でユーザの左眼および右眼に対してこの処理を並行して行う場合、裸眼立体視3次元(3D)イメージがユーザに提示されることになる。
さらに、断面図128に示すように、左眼用ディスプレイ110のディスプレイパネル118および右眼用ディスプレイ112のディスプレイパネル118は、(ディスプレイパネルによって提示される左眼用像面および右眼用像面が同一平面上にある従来のVR/ARディスプレイとは対照的に)互いに対して非平面の向きで配置される。つまり、(ディスプレイパネル118を備える)コンピュテーショナルディスプレイサブシステム102は、非平面ディスプレイである。断面図128に示すように、左眼用ディスプレイ110のディスプレイパネル118および右眼用ディスプレイ112のディスプレイパネル118は、各々、個々に平面であってもよい。しかしながら、2つのディスプレイパネル118は、同一平面上にない。代わりに、ディスプレイパネル118は、使用時に装着者の顔を部分的に覆うよう、互いに角度がつけられている。左眼用ディスプレイ110および右眼用ディスプレイ112の各々は、この例において、単一ディスプレイパネル118を有するとして示されているが、その他の実施形態では、ディスプレイ110、112の各々は、任意の「N」個のディスプレイパネル区分(各々は、本明細書において、「ディスプレイパネルタイル」とも称する)を含んでもよい。たとえば、いくつかの実施形態では、(図5に関連して後述するように)、ディスプレイ110、112の各々は、2つのディスプレイパネルを含む。当業者であれば、ディスプレイパネル区分の数が増えるとディスプレイ110、112の表示面が次第に曲線に近似することが分かるであろう。いくつかの実施形態では、個々のディスプレイパネル118自体が非平面(すなわち、湾曲)であってもよい。
その他の実施形態では、ディスプレイ110、112の各々は、N個のディスプレイパネル区分を有するのではなく、異なる湾曲度合い(または、実質的に湾曲なし)、異なる向き、または、それらの組合せを有する異なる側面部分の各々が(図2および図5に関連して後述するように)ディスプレイ110、112の別個の論理部分または「タイル」を表すように当該異なる側面部分を有する1つの連続したディスプレイパネルを含む。つまり、左眼用ディスプレイ110および右眼用ディスプレイ112の各々は、ディスプレイパネルの横の広がり全体の端から端まで延在する、同じディスプレイドライバハードウェアによって駆動される画素行のセットを含んでいるが、ディスプレイパネルは、隣接する側面部分のセットとして、当該部分におけるディスプレイパネルの湾曲の変化に基づいて、または、対応するユーザの眼に対する当該部分の向きに基づいて論理的に構成されてもよい。湾曲した左眼用ディスプレイ110および右眼用ディスプレイ112は、所望の湾曲および部分の向きに曲げられ、支持フレームを介してこのまま維持される薄膜フレキシブルOLED(Organic Light Emitting Diode)ベースのディスプレイなど、ディスプレイパネルの湾曲または向き構成を変えさせることが可能な各種ディスプレイ技術を用いて実装されてもよい。さらに、小型レンズアレイ124は、関連するディスプレイパネルの対応する部分に焦点が合わせられる複数の小型レンズ126を含む。つまり、各小型レンズ126の光軸は、関連するディスプレイパネル部(本明細書において、「ディスプレイパネルタイル」と称する)の表示面130と交わり、いくつかの実施形態では、この光軸は、対応するディスプレイパネルの面に対して垂直である。
図1にも示すように、描画コンポーネント104は、図示したCPU(Central Processing Unit)136およびGPU(Graphics Processing Unit)138、140などの1つ以上のプロセッサのセット、ならびに、プロセッサ136、138、140のうちの1つ以上を操作して本明細書に記載の様々なタスクを実行させるよう、プロセッサ136、138、140によってアクセスされて実行されるソフトウェアプログラムまたは他の実行可能な命令を格納するためのシステムメモリ142など、1つ以上のストレージコンポーネントを含む。このようなソフトウェアプログラムは、たとえば、後述するライトフィールドフレーム描画処理のための実行可能な命令を含んだ描画プログラム144、および、こちらも後述するが、立体体積生成処理のための実行可能な命令を含んだ視線追跡プログラム146を含む。
動作中、描画コンポーネント104は、ローカルまたはリモートコンテンツソース150から描画情報148を受信する。描画情報148は、グラフィックスデータ、映像データ、または、描画されるイメージの対象かつディスプレイサブシステム102において表示されるオブジェクトまたはシーンを表す他のデータを表す。描画プログラム144の実行中、CPU136は、描画情報148を使用して描画命令をGPU138、140に送る。GPU138、140は、この描画命令を利用し、各種周知のVR/ARコンピュテーショナル/ライトフィールド描画処理を用いて、左眼用ディスプレイ110に表示するための一連のライトフィールドフレーム151と右眼用ディスプレイ112を表示するための一連のライトフィールドフレーム153とを平行して描画する。この描画処理の一部として、CPU136は、ディスプレイサブシステム102の姿勢を表す姿勢情報150をIMU(Inertial Management Unit)154から受信し、ライトフィールドフレーム151、153の1つ以上のペアの描画処理を制御して、オブジェクトまたはシーンの当該姿勢からの視点を反映してもよい。
このために、視線追跡コンポーネント106、108の各々は、対応する眼をIR光で照射するための1つ以上の赤外線(IR)光源(本明細書において、「IR照明器」と称する)と、対応する眼を反射したIR光を対応する眼画像(眼画像情報156)として撮影する1つ以上の撮像カメラと、反射したIR光を撮像カメラに向けるための1つ以上のミラー、導波路、ビームスプリッターなどと、対応する眼の現在位置、現在の向き、またはその両方(本明細書において、個々に、またはまとめて、「姿勢」と称する)を撮影された眼画像から判断するように視線追跡プログラム146を実行するための1つ以上のプロセッサとを含んでもよい。各種周知の視線追跡装置および技術を視線追跡コンポーネント106、108として採用してユーザの片眼または両眼を追跡してもよい。
少なくとも1つの実施形態では、ニアアイディスプレイシステム100は、眼の姿勢を過去の眼の姿勢、現在の眼の姿勢、もしくは予測される(未来の)眼の姿勢、または、それらの組合せとして判断してもよい。特に、未来の眼の姿勢の予測によって性能または応答時間が改善されてもよく、各種の眼球運動予測アルゴリズムを実施して未来の眼の姿勢を予測してもよい。また、場合によっては、視線追跡コンポーネント106、108は、シーン情報(たとえば、描画されるイメージ内の顔の場所、または顕著性ヒューリスティクス)を、眼の姿勢を算出するためのユーザの眼の未来の視線を予測する際の入力として利用してもよい。このように、用語「眼の姿勢」は、本明細書において使用するとき、前の、現在の、もしくは予測された眼の姿勢、またはそれらの何らかの組合せを指してもよい。
本明細書においてさらに詳細を説明するが、少なくとも1つの実施形態では、ニアアイディスプレイシステム100は、オブジェクトに焦点が合っているようにユーザの左眼および右眼132に見える立体焦点体積を判断することによって立体焦点体積を生成する。ユーザの眼に対して湾曲および/または向きが異なるディスプレイパネル部を使用することによって、ユーザの頭部の近くにHMDのかさばりを維持するフォームファクターを有するニアアイディスプレイシステム100が製造されてもよく、その慣性モーメントを低減し、かつ、より幅広い横方向の視野およびより美しい見た目を提供することができるようになる。
図2は、いくつかの実施形態に係る、立体焦点体積を生成するための、ニアアイディスプレイシステム100において利用されるような非平面コンピュテーショナルディスプレイの斜視図である。本開示の例示的な実施形態によると、図2は、ユーザによって装着されたときにユーザの耳の上または後ろに位置するテンプル202、204を介してHMD装置200がユーザの顔に装着される「眼鏡」フォームファクターを有するHMD200としてニアアイディスプレイシステム100を示す図である。しかしながら、その他の実施形態では、HMD装置200は、HMD装置200が1つ以上のストラップ、ハーネス、または他の取り付け装置を介してユーザの顔に装着される「マスク」フォームファクターを有して実装されてもよい。さらに、説明を容易にするために省略しているが、HMD装置200は、周辺光の侵入を制限する目的でユーザの顔を封止する1つ以上のフェイスガスケットも含んでもよい。図示した例では、HMD200装置は、筐体206を有し、筐体206の上または筐体206内に搭載された表示装置(たとえば、図1の左眼用ディスプレイ110および右眼用ディスプレイ112)がユーザの眼の前に配置される。本明細書においてさらに説明するが、筐体206に連結または埋め込まれたプロセッサは、表示装置において表示するためのAR/VRコンテンツを生成することによって、AR/VRコンテンツに対応付けられたAR/VR環境にユーザを没入させることができる。
図3は、いくつかの実施形態に係る、図1のA-A線に沿って切り取られた、ニアアイディスプレイシステム100において利用されるような非平面コンピュテーショナルディスプレイの断面図300を説明する図である。図に示すように、ディスプレイパネル118および小型レンズ126は、ニアアイディスプレイシステム100を装着したときのユーザの中央矢状面に対応する正中面302を中心に実質的に対称である。さらに、ディスプレイパネル118は、互いに対して、および平面304に対して非平面である。平面304は、ユーザの冠状面に概ね平行であり、さらに、従来のHMDのディスプレイが配置される平面に概ね一致する。
この図に示すように、ユーザの眼132は、仮想画像308内の点306に向けられている。仮想画像308は、異なる深度で眼132によって知覚されるように意図されたいくつかのオブジェクト(図示せず)を含んでいる。小型レンズ126による被写界深度310(すなわち、焦点が合っていると眼132によって知覚される最も近いオブジェクトと最も遠いオブジェクトとの距離)によって、オブジェクトに焦点が合っているように見える仮想画像308内に体積が生じる。
特に、左眼焦点体積312内のオブジェクトは、表示するために左眼用ディスプレイ110のディスプレイパネル118によって提示されると、焦点が合っているようにユーザの左眼132に見える。同様に、右眼焦点体積314内のオブジェクトは、表示するために右眼用ディスプレイ112のディスプレイパネル118によって提示されると、焦点が合っているようにユーザの右眼132に見える。様々な実施形態では、左眼焦点体積312および右眼焦点体積314の被写界深度は、下記の式を用いて求められてもよい。
dPhi=2c/(d×f) (1)
ここで、dPhiは、ジオプトリ単位での被写界深度を表し、cは、メートル単位での表示画素寸法を表し、dは、メートル単位での小型レンズ径を表し、fは、メートル単位での小型レンズ焦点距離を表す。
図3に説明するように、左眼焦点体積312と右眼焦点体積314とは立体焦点体積316において重なり合っている。したがって、ライトフィールドフレームは、ディスプレイパネル118の非平面構成に基づいて描画され、立体焦点体積316内のオブジェクトは、焦点が合っているようにユーザの左眼および右眼132に見える。
いくつかの実施形態では、たとえば、非平面ディスプレイ(すなわち、コンピュテーショナルディスプレイサブシステム102)の物理的寸法および形状に関するディスプレイ形状データのセットが描画コンポーネント104に提供される。たとえば、ディスプレイ形状データのセットは、ディスプレイパネル118および小型レンズ126のうちの1つ以上のディスプレイパネル118および小型レンズ126の物理的寸法および形状を含んでもよい。たとえば、ディスプレイ形状データのセットは、ディスプレイパネル118の幅、眼132とパネル118との間の視距離、パネル118と平面304との成す角度、パネルと正中面302との成す角度など、様々なデータを含んでもよい。当業者であれば、3D空間における左眼焦点体積312および右眼焦点体積314の位置が小型レンズ126およびディスプレイパネル118の寸法/形状によって決まることが分かるであろう。しかしながら、様々な実施形態では、このような左眼焦点体積および右眼焦点体積312、314ならびに立体焦点体積316内の仮想平面位置は、当該これらの焦点体積内で回転されてもよい。
たとえば、図4は、仮想平面402を回転させた非平面コンピュテーショナルディスプレイの断面図400を示す図である。様々な実施形態では、仮想平面402は、下記の式を用いて要素画像の表示位置をある量だけシフトさせることによって回転されてもよい。
dx=n×Φ×d×f+(n×Φ×d)×f×tan(θ) (2)
n=[-N/2,N/2]は、小型レンズ数を表し、Φ=1/zは、仮想平面までの距離をジオプトリ単位で表し、θは、小型レンズに対する仮想平面402の傾き(すなわち、ディスプレイと小型レンズとの接線と描画された仮想平面402との成す角度)を表す。これに加えて、いくつかの実施形態では、ディスプレイパネル同士が成す折り曲げ角度(図示せず)は、調整可能であってもよく、センサを用いて、描画コンポーネント104が要素画像の表示位置のシフトを判断できるよう、θが求められる。なお、視線追跡は、このような実施形態では必要ではないが、折り曲げ角度が変わった場合、またはユーザの眼132に対してニアアイディスプレイシステム100が移動した場合、その他の視野パラメータ(たとえば、アイレリーフ距離および瞳孔位置)を判断するために必要に応じて利用してもよい。
別の実施形態では、図5は、いくつかの実施形態に係る、立体焦点体積を生成するための非平面コンピュテーショナルディスプレイの別の実装形態の断面図500を示す図である。図1に関連して前述したように、いくつかの実施形態では、左眼用ディスプレイ110および右眼用ディスプレイ112の各々は、任意の「N」個のディスプレイパネル区分を含んでもよい。たとえば、ビュー500に示すように、ディスプレイ110、112の各々は、2つのディスプレイパネル区分(すなわち、ディスプレイパネル区分118aおよび118b)を含んでいる。この図に示すように、ユーザの眼132は、仮想画像504内の点502に向けられている。仮想画像504は、異なる深度で眼132によって知覚されるように意図されたいくつかのオブジェクト(図示せず)を含んでいる。小型レンズ126による被写界深度506(すなわち、焦点が合っていると眼132によって知覚されることになる最も近いオブジェクトと最も遠いオブジェクトとの距離)によって、オブジェクトに焦点が合っているように見える仮想画像504内に体積が生じる。
図3に関連して説明した例示的な実装形態と同様に、ディスプレイパネル区分(たとえば、ディスプレイ110、112のディスプレイパネル区分118aおよび118b)の各々は、対応する焦点体積に関連付けられる。対応する焦点体積内では、オブジェクトは、それぞれの眼132に表示するために提示されると、焦点が合っているように見える。図5に説明するように、これらの焦点体積は、立体焦点体積508において重なり合っている。したがって、ディスプレイパネル区分118a、118bの非平面構成に基づいてライトフィールドフレームが描画され、立体焦点体積508内のオブジェクトは、焦点が合っているようにユーザの左眼および右眼132に見える。さらに、図4に関連して説明した例示的な実装形態と同様に、立体焦点体積508にある仮想平面(図示せず)は、上記式(2)に基づいて様々な表示区分118aおよび118bに沿って要素画像の表示位置をシフトすることによって回転されてもよい。
別の実施形態では、図6は、いくつかの実施形態に係る、立体焦点体積を生成するための非平面コンピュテーショナルディスプレイのさらに別の実装形態の断面図600を示す図である。図3の例示的な実施形態と同様に、小型レンズ126は、ニアアイディスプレイシステム100を装着したときのユーザの中央矢状面に対応する正中面602を中心に実質的に対称である。このディスプレイは、湾曲したディスプレイパネル604であって、従来のHMDのディスプレイが配置される平面に比べて概ね非平面である。N個のディスプレイパネル区分およびN個の重なり合う焦点体積(すなわち、図5における4つの区分および4つの重なり合う焦点体積)を有するのではなく、N区分を有する多角形は、Nが大きくなると、湾曲/円形状の表面にほぼ近づく。図6に示すように、小さい角度で回転された対応するより多くの重なり合う四角形の焦点体積606ができ、図示した楕円形状の焦点体積の重なりが形成される。しかしながら、図5の例示的な実施形態と同様に、立体焦点体積608は、ディスプレイパネルのエッジにおける最大傾斜によって限定されたままであり、概ねダイヤモンド形状である。焦点体積606内の任意の平面において仮想平面が描画されてもよく、立体焦点体積608内で立体視融合が実現されてもよい。仮想平面は、Z軸方向に沿ってシフトさせることができる。さらに、画像の描画を変更して湾曲したディスプレイパネル604のために調整するために上述した同じ描画用の式(2)を用いてもよい。このとき、θは、描画された仮想平面(すなわち、局所的な空間導関数または湾曲した表面の接線)に対するディスプレイパネル604との局所的な傾き(または、角度)によって求められる。
当業者であれば、ディスプレイパネルを分割するために、いくつかの実施形態では、左眼用ディスプレイ110および右眼用ディスプレイ112の総表面積の一部のみがユーザの眼に見えることが分かるであろう。説明すると、図7は、図4のビュー400に関連して説明したニアアイディスプレイシステムにおいて利用されるような、小型レンズおよびディスプレイパネル区分を用いたコンピュテーショナルディスプレイの断面図700を示す。このビュー700に示すように、たとえば、ディスプレイボーダー/ディスプレイパネル区分118a、118bを保持する筐体の外側フレームにより、ディスプレイパネル区分118aと118bとの間に間隙702が存在する。
小型レンズアレイ124の小型レンズ126の各々は、眼132に対する別個の「プロジェクタ」として機能する。各「プロジェクタ」は、ディスプレイパネル118において表示される要素画像の配列から複合仮想画像704を形成する際、1つ以上の隣接するプロジェクタと重なり合う。説明すると、小型レンズ126-2は、対応する要素画像(領域706によって表される)を仮想画像704の領域710から投影し、小型レンズ126-4は、対応する要素画像(領域708によって表される)を仮想画像704の領域712から投影する。図2によって示されるように、サブ領域714において領域710と712とが重なり合っている。よって、この重なり合うサブ領域714からの画像データを用いて、ディスプレイパネル区分118a、118bによって表示される要素画像を描画し、ユーザの眼132によって知覚される複合仮想画像704が間隙702の存在を認識しないようにディスプレイパネル区分118aと118bとの間の間隙702を隠してもよい。
いくつかの実施形態では、仮想画像704の平面にディスプレイボーダーが投影された場合、ディスプレイのベゼル/エッジが位置する位置に暗い箇所ができる。周辺の要素画像内の複製された(たとえば、重なり合う)画素の輝度は、分数N+1/Nによってスケール変更される。Nは、ブロックされた画素領域を共有する要素画像の数である。つまり、間隙702を取り除くために、領域706および708に対応する要素画像の輝度が調整されてもよい。
さらに、様々な実施形態では、図1の視線追跡コンポーネント106、108は、ユーザの眼132の姿勢を追跡し、姿勢情報を描画コンポーネント104に提供して、ディスプレイパネル区分の間に間隙を有する左眼用ディスプレイ110および右眼用ディスプレイ112の一部に向けられ得るユーザの眼132の視線を考慮に入れる。
図8は、いくつかの実施形態に係る、立体焦点体積に基づいてライトフィールドフレームを描画するための非平面コンピュテーショナルディスプレイを有するニアアイディスプレイシステム100の動作方法800である。理解を容易にするために、図1~図7によって示されるシナリオ例を頻繁に参照して方法800を後述する。方法800は、左眼用ディスプレイ110または右眼用ディスプレイ112の1つのライトフィールドフレームを描画して表示するための処理の1回の実行を説明しているため、例示の処理は、それぞれ異なる時点の眼毎のライトフィールドフレームの異なるストリームまたはシーケンスを生成して表示するために、ディスプレイ110、112の各々について並列で繰り返し実行される。このように、3Dの裸眼立体視VRまたはAR体験をユーザに提供する。
ライトフィールドフレームを生成して表示するために、方法800は、ブロック802から開始される。ブロック802では、描画コンポーネント104は、対応するユーザの眼にライトフィールドフレームとして表示される画像コンテンツを識別する。少なくとも1つの実施形態では、描画コンポーネント104は、ジャイロスコープ、加速度計、磁力計、GPS(Global Positioning System)センサなど、様々な姿勢関連センサからのデータを表すIMU情報152を受信し、IMU情報150から、ユーザの眼の近くにディスプレイ110、112を装着するために使用される装置114(たとえば、HMD)の姿勢を判断する。この姿勢から、描画プログラム144を実行するCPU136は、対象シーンまたはオブジェクトの対応する現在の視点を判断でき、この視点および描画情報148として提供される当該シーンまたはオブジェクトのグラフィック記述および空間記述から、この姿勢に関して描画されるイメージを判断することができる。
ブロック804では、CPU136は、ニアアイディスプレイシステム100の非平面ディスプレイ用のディスプレイ形状データのセットを受信する。少なくとも1つの実施形態では、ディスプレイ形状データのセットは、図3に示すように、ユーザの眼(複数可)に対する1つ以上のディスプレイパネルの形状構成(たとえば、光軸の角度)を表すデータを含む。その他の実施形態では、ディスプレイ形状データのセットは、図4に示すように、1つ以上の非平面ディスプレイパネルが分割され、複数のディスプレイパネル区分を含むことを示すデータを含む。ニアアイディスプレイシステム100が複数のディスプレイパネル区分を含む場合、ディスプレイ形状データのセットは、ディスプレイパネル区分のディスプレイボーダー/ベゼルの位置を表すデータをさらに含んでもよい。その他の実施形態では、ディスプレイ形状データのセットは、図5および図6に示すように、非平面ディスプレイの湾曲形状を示すデータを含む。
任意のブロック806では、視線追跡プログラム146を実行中のCPU136は、対応するユーザの眼の姿勢を判断する。本明細書において説明したように、眼の姿勢は、各種の視線追跡技術を用いて判断されてもよい。一般に、このような技術は、眼の瞳孔および角膜に反射したIR光の1つ以上の画像をキャプチャすることを含む。次に、視線追跡プログラム146は、CPU136またはGPU138、140を操作して画像を分析し、瞳孔の反射または角膜の反射のうちの1つまたは両方の対応する位置に基づいて眼の姿勢を判断してもよい。たとえば、いくつかの実施形態では、単眼視線追跡を実行して関心領域情報を取得し、描画されたシーンのどこにユーザの眼が調節しようとしているのか(たとえば、シーンに含まれるどのオブジェクト(複数可)に視線が向けられているか)を算出する。眼毎に単眼視線追跡を実行することによって、眼と眼の相対的な角度のずれを測定し、輻輳を判断する。したがって、判断された輻輳(たとえば、差動視線追跡)に基づいて調節が算出される。その他の実施形態では、両眼視線追跡が実行されて、描画されたシーンコンテンツとは無関係に調節が判断され、および/または、角膜に対する瞳孔の向きを用いて眼の向き(すなわち、眼の視線方向)が判断されてもよい。なお、ブロック806は、図8において、ブロック802および804の後続ブロックであると示されているが、ブロック306の処理は、ブロック802および804の処理の間または後に実行されてもよい。
非平面ディスプレイの形状(および、いくつかの実施形態では、ユーザの眼の姿勢)が判断された状態で、ブロック808において、描画プログラム144は、CPU136を操作して、ブロック802において識別された画像コンテンツを用いて配列120を有するライトフィールドフレームを描画するよう、GPU138、140のうちの対応するGPUを指示する。ライトフィールドフレームは、要素画像の配列を含んでいる。いくつかの実施形態では、この処理の一部として、CPU136は、表示される画像コンテンツ(すなわち、仮想画像)内の立体焦点体積を算出する。特に、CPU136は、焦点が合わせられる立体焦点体積内に非平面ディスプレイがオブジェクトを提示するよう、当該立体焦点体積を算出する。たとえば、図3において、左眼焦点体積308は、表示するために左眼用ディスプレイ110のディスプレイパネル118によって提示されると、焦点が合っているようにユーザの左眼132に見える。同様に、右眼焦点体積310内のオブジェクトは、表示するために右眼用ディスプレイ112のディスプレイパネル118によって提示されると、焦点が合っているようにユーザの右眼132に見える。したがって、CPU136は、左眼焦点体積308と右眼焦点体積310とが立体焦点体積312において重なり合うと判断し、立体焦点体積312内のオブジェクトに焦点が合っているようにユーザの左眼および右眼132に見えるよう、ライトフィールドフレームが描画される。
いくつかの実施形態では、図5のように、左眼用ディスプレイ110および右眼用ディスプレイ112の各々は、任意の「N」個のディスプレイパネル区分を含んでもよい。たとえば、ビュー500に示すように、ディスプレイ110、112の各々は、2つのディスプレイパネル区分(すなわち、ディスプレイパネル区分118aおよび118b)を含む。ディスプレイパネル区分(たとえば、ディスプレイ110、112のディスプレイパネル区分118aおよび118b)の各々は、対応する焦点体積に関連付けられる。対応する焦点体積内では、オブジェクトは、それぞれの眼132に表示するために提示されると、焦点が合っているように見える。したがって、CPU136は、立体焦点体積408においてこれらの焦点体積が重なり合っていると判断し、立体焦点体積408内のオブジェクトに焦点が合っているようにユーザの左眼および右眼132に見えるよう、ライトフィールドフレームが描画される。
さらに、その他の実施形態では、図7のように、たとえば、ディスプレイパネル区分118a、118bを保持する筐体の外側フレーム/ディスプレイボーダーによって、ディスプレイパネル区分118aと118bとの間に間隙702が存在する。したがって、CPU136は、ブロック804のディスプレイパネル区分のディスプレイボーダー/ベゼルの位置、およびブロック806のユーザの眼の姿勢を表すデータをGPUに提供し、ユーザの眼132によって知覚される複合仮想画像704が間隙702の存在を検出しないようにディスプレイパネル区分118aと118bとの間の間隙702を隠すように要素画像が描画されるようにライトフィールドフレームを描画するよう、GPUに指示する。つまり、領域706および708に対応する要素画像の輝度を調整して、1つ以上のディスプレイパネルのディスプレイボーダーによって生じた間隙702が知覚されることを取り除き、かつ、防いでもよい。GPUは、ブロック810においてライトフィールドフレームを順次描画し、ユーザの眼132に表示するためにライトフィールドフレームをコンピュテーショナルディスプレイ110、112のうちの対応するコンピュテーショナルディスプレイに提供する。
図1~図7によって示された非平面コンピュテーショナルディスプレイ構成は、大きな視野を保持しつつ、眼により近い「眼鏡」フォームファクターを提供するという利点がある。つまり、本明細書に記載の実施形態によって、(従来のHMDの「分割マスク」フォームファクターと比べて)コンパクトかつ軽量のフォームファクターが可能になる。ユーザの眼に対して湾曲および/または向きが異なるディスプレイパネル部を使用することによって、ユーザの頭部のより近くにHMD装置のかさばりを維持するフォームファクターを有するHMD装置が製造されてもよく、その慣性モーメントを低減し、かつ、より幅広い横方向の視野およびより美しい見た目を提供することができるようになる。これに加えて、湾曲および角度が異なる部分を有する非平面ディスプレイを用いることによって、従来のHMD装置よりも視野全体に均一の色および明るさ、および簡単なディスプレイ/光学アセンブリ構成を提供しつつ、1つ以上のフラットディスプレイパネルを利用する従来のHMD装置よりも精密にユーザの頭部に合ったフォームファクターを有するHMD装置の実装が可能になる。
いくつかの実施形態において、上述の技術のいくつかの態様は、ソフトウェアを実行する処理システムの1つ以上のプロセッサによって実装されてもよい。ソフトウェアは、非一時的なコンピュータ読取可能な記憶媒体に格納されるまたは有形に含まれる実行可能な命令の1つ以上のセットから構成される。ソフトウェアは、1つ以上のプロセッサによって実行された場合に1つ以上のプロセッサに上述の技術の1つ以上の態様を実行させる命令および特定のデータを含めることができる。非一時的なコンピュータ読取可能な記憶媒体は、たとえば、磁気または光ディスク記憶装置、フラッシュメモリ、キャッシュ、RAM(Random Access Memory)、またはその他の1つまたは複数の非一時的なメモリ素子など、固体記憶装置を含めることができる。非一時的なコンピュータ読取可能な記憶媒体に格納された実行可能な命令は、ソースコード、アセンブリ言語コード、オブジェクトコード、または1つ以上のプロセッサによって解釈されるまたは実行可能なその他の命令形式で格納されてもよい。
コンピュータ読み取り可能な記憶媒体は、コンピュータシステムによって使用中に命令および/またはデータをコンピュータシステムに提供するためにアクセス可能な任意の記憶媒体または記憶媒体の組合せを含んでもよい。このような記憶媒体は、光学媒体(たとえば、CD(Compact Disc)、デジタル多用途ディスク(DVD)、Blu-Rayディスク)、磁気媒体(たとえば、フロッピー(登録商標)ディスク、磁気テープ、もしくは磁気ハードドライブ)、揮発性メモリ(たとえば、RAM(Random Access Memory)もしくはキャッシュ)、不揮発性メモリ(たとえば、ROM(Read-Only Memory)もしくはフラッシュメモリ)、または、MEMS(Microelectromechanical Systems)ベースの記憶媒体を含み得るが、これらに限定されない。コンピュータ読み取り可能な記憶媒体は、コンピューティングシステム(たとえば、システムRAMまたはROM)に埋め込まれてもよく、コンピューティングシステム(たとえば、磁気ハードドライブ)に固定して取り付けられてもよく、コンピューティングシステム(たとえば、光ディスクまたはユニバーサルシリアルバス(USB)ベースのフラッシュメモリ)に取り外し可能に取り付けられてもよく、または、有線またはワイヤレスネットワークを介してコンピュータシステム(たとえば、NAS(Network Accessible Storage))に連結されてもよい。
なお、一般的な説明に上述された動作または構成要素のすべてが必要であるわけではない。特定の動作または装置の一部を必要としなくてもよい。記載されたものに加えて、1つ以上のさらなる動作が実行されてもよく、1つ以上のさらなる構成要素が含まれてもよい。さらに、動作が挙げられている順番は、必ずしもそれらが実行される順番ではない。また、具体的な実施形態を例に概念を説明した。しかしながら、当業者であれば、さまざまな変形、変更を、添付の請求項に記載の本開示の範囲から逸脱することなく行うことが可能であることがわかるであろう。したがって、明細書および図面は、厳密ではなく、例示であるとみなされるべきであり、すべてのこのような変形は、本開示の範囲に含まれるものとする。
具体的な実施形態についての利益、その他の利点、および問題の解決策を説明した。しかしながら、利益、利点、問題の解決策、およびいかなる利益、利点、または解決策を生じさせ得るまたはより明白にさせ得るいかなる特徴(複数可)も、請求項のいずれかまたはすべての重大な特徴、必要な特徴、または必須の特徴として解釈されないものとする。また、開示の主題は、本明細書における教示の利益を有する当業者に明らかである、異なるが均等な方法で変形および実施されてもよいため、上に開示した特定の実施形態は、例示にすぎない。添付の特許請求の範囲に記載されるもの以外に、本明細書において示した構成または設計の内容に限定されない。そのため、上に開示した特定の実施形態が変更または変形されてもよく、このような変形例のすべてが開示の主題の範囲に含まれるとみなされることは明白である。したがって、本明細書において求められる保護は、添付の特許請求の範囲に記載の通りである。

Claims (20)

  1. 方法であって、
    ニアアイディスプレイシステムにおいて、
    前記ニアアイディスプレイシステムの1つ以上のディスプレイパネルを含む非平面ディスプレイ用のディスプレイ形状データを受信するステップと、
    前記ディスプレイ形状データに対応付けられた立体焦点体積に基づいてニアアイライトフィールドフレーム内の位置に要素画像の列を描画するステップとを含み、前記非平面ディスプレイは、焦点が合わせられる前記立体焦点体積内にオブジェクトを提示し、前記方法は、さらに、
    前記ニアアイディスプレイシステムの前記非平面ディスプレイの前記1つ以上のディスプレイパネルに表示するために前記ニアアイライトフィールドフレームを伝達するステップを含む、方法。
  2. 前記ディスプレイ形状データを受信するステップは、
    前記非平面ディスプレイが複数のディスプレイパネル区分を含むことを示すデータを受信するステップを含む、請求項1に記載の方法。
  3. 前記立体焦点体積を判断するステップは、
    前記複数のディスプレイパネル区分の各々について焦点体積を判断するステップをさらに含み、前記複数のディスプレイパネル区分の各々は、それに対応する焦点体積内に、焦点が合わせられるオブジェクトを提示し、前記立体焦点体積を判断するステップは、さらに、
    前記複数のディスプレイパネル区分の各々についての前記焦点体積間の共通部分に少なくとも一部基づいて、前記立体焦点体積を判断するステップを含む、請求項2に記載の方法。
  4. 前記ディスプレイ形状データを受信するステップは、
    前記非平面ディスプレイの湾曲形状を示すデータを受信するステップを含む、請求項1から3のいずれか1項に記載の方法。
  5. 前記ディスプレイ形状データを受信するステップは、
    前記1つ以上のディスプレイパネルのディスプレイボーダーの位置を表すディスプレイボーダーデータのセットを示すデータを受信するステップを含む、請求項1から4のいずれか1項に記載の方法。
  6. 前記ニアアイディスプレイシステムの視線追跡コンポーネントを用いてユーザの眼の姿勢を判断するステップと、
    前記ユーザの眼の姿勢および前記ディスプレイボーダーデータのセットに基づいて前記要素画像の配列の描画を修正して、前記1つ以上のディスプレイパネルの前記ディスプレイボーダーが前記ユーザの眼によって知覚されるのを防ぐステップとをさらに含む、請求項5に記載の方法。
  7. 前記ユーザの眼の姿勢を判断するステップは、
    前記非平面ディスプレイと前記ユーザの眼との間に配置された撮像カメラを用いて前記ユーザの眼のイメージを撮影するステップを含む、請求項6に記載の方法。
  8. 前記要素画像の配列の表示位置をシフトさせることによって前記立体焦点体積内の仮想平面の位置を回転させるステップをさらに含む、請求項1~7のいずれか1項に記載の方法。
  9. 2つ以上のディスプレイパネル間の折り曲げ角度を変えることによって前記立体焦点体積内の仮想平面の位置を回転させるステップをさらに含む、請求項1~7のいずれか1項に記載の方法。
  10. 要素画像の列を含むニアアイライトフィールドフレームを表示するための1つ以上のディスプレイパネルを含む非平面ディスプレイと
    前記非平面ディスプレイのディスプレイ形状データのセットに対応付けられた立体焦点体積に基づいて、前記立体焦点体積内のオブジェクトに焦点が合っているとユーザの眼によって知覚されるように前記要素画像の配列を前記ニアアイライトフィールドフレームに描画するための描画コンポーネントと
    前記ニアアイライトフィールドフレームを前記ユーザの眼に提示するための小型レンズアレイとを備える、ニアアイディスプレイシステム。
  11. 前記立体焦点体積を判断するためのプロセッサをさらに備え、前記立体焦点体積は、
    前記非平面ディスプレイが複数のディスプレイパネル区分を含むことを示すデータを受信することと、
    前記複数のディスプレイパネル区分の各々について焦点体積を判断することとによって判断され、前記複数のディスプレイパネル区分の各々は、それに対応する焦点体積内に、焦点が合わせられるオブジェクトを提示し、前記立体焦点体積は、さらに、
    前記複数のディスプレイパネル区分の各々についての前記焦点体積間の共通部分に少なくとも一部基づいて前記立体焦点体積を判断することによって判断される、請求項10に記載のニアアイディスプレイシステム。
  12. 前記立体焦点体積を判断するためのプロセッサをさらに備え、前記立体焦点体積は、
    前記1つ以上のディスプレイパネルのディスプレイボーダーの位置を表すディスプレイボーダーデータのセットを示すデータを受信することと、
    前記ニアアイディスプレイシステムの視線追跡コンポーネントを用いてユーザの眼の姿勢を判断することと、
    前記ユーザの眼の姿勢および前記ディスプレイボーダーデータのセットに基づいて前記要素画像の配列の描画を修正して、前記1つ以上のディスプレイパネルの前記ディスプレイボーダーが前記ユーザの眼によって知覚されるのを防ぐこととによって判断される、請求項10に記載のニアアイディスプレイシステム。
  13. 前記ユーザの眼の姿勢を追跡するための視線追跡コンポーネントをさらに備え、前記視線追跡コンポーネントは、前記ユーザの眼に光を投影するための1つ以上の赤外線照明器のセットと、前記小型レンズアレイと前記非平面ディスプレイとの間に配置され、前記小型レンズアレイを通して前記ユーザの眼の方向に向けられた撮像カメラとを含む、請求項10または11に記載のニアアイディスプレイシステム。
  14. 前記非平面ディスプレイは、
    異なる湾曲度合いを有する異なる側面部分を含んだ1つの連続したディスプレイパネルを含む、請求項10に記載のニアアイディスプレイシステム。
  15. 前記非平面ディスプレイは、
    互いに非平面な向きで配置された複数のフラットパネルディスプレイを含む、請求項10に記載のニアアイディスプレイシステム。
  16. 少なくとも1つのプロセッサと
    ニアアイディスプレイシステムの1つ以上のディスプレイパネルを含む非平面ディスプレイ用のディスプレイ形状データのセットを示すデータを受信するための入力装置と、
    実行可能な命令のセットを格納するためのストレージコンポーネントとを備え、前記実行可能な命令のセットは、前記ディスプレイ形状データのセットに対応付けられた立体焦点体積に基づいてニアアイライトフィールドフレーム内の位置に要素画像の列を描画するよう、前記少なくとも1つのプロセッサを操作するように構成され、前記非平面ディスプレイは、焦点が合わせられる前記立体焦点体積内にオブジェクトを提示する、描画システム。
  17. 前記実行可能な命令のセットは、前記立体焦点体積を判断するようにさらに構成され、前記立体焦点体積は、
    前記1つ以上のディスプレイパネルのディスプレイボーダーの位置を表すディスプレイボーダーデータのセットを示すデータを受信することと、
    前記ニアアイディスプレイシステムの視線追跡コンポーネントを用いてユーザの眼の姿勢を判断することと、
    前記ユーザの眼の姿勢および前記ディスプレイボーダーデータのセットに基づいて前記要素画像の配列の描画を修正して、前記1つ以上のディスプレイパネルの前記ディスプレイボーダーが前記ユーザの眼によって知覚されるのを防ぐこととによって判断される、請求項16に記載の描画システム。
  18. 前記ディスプレイ形状データのセットは、前記非平面ディスプレイが複数のディスプレイパネル区分を含むことを示すデータを含む、請求項16または17に記載の描画システム。
  19. 前記実行可能な命令のセットは、前記立体焦点体積を判断するようにさらに構成され、前記立体焦点体積は、
    前記複数のディスプレイパネル区分の各々について焦点体積を判断することによって判断され、前記複数のディスプレイパネル区分の各々は、それに対応する焦点体積内に、焦点が合わせられるオブジェクトを提示し、前記立体焦点体積は、さらに、
    前記複数のディスプレイパネル区分の各々についての前記焦点体積間の共通部分に少なくとも一部基づいて前記立体焦点体積を判断することによって判断される、請求項18に記載の描画システム。
  20. 前記実行可能な命令のセットは、
    前記要素画像の配列の表示位置をシフトさせることによって前記立体焦点体積内の仮想平面の位置を回転させることによって、前記要素画像の配列を描画するようにさらに構成される、請求項16~19のいずれか1項に記載の描画システム。
JP2019567233A 2017-07-13 2018-05-15 非平面コンピュテーショナルディスプレイ Active JP7005658B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762532123P 2017-07-13 2017-07-13
US62/532,123 2017-07-13
US15/952,508 2018-04-13
US15/952,508 US10659771B2 (en) 2017-07-13 2018-04-13 Non-planar computational displays
PCT/US2018/032675 WO2019013865A1 (en) 2017-07-13 2018-05-15 NONPLANS COMPUTER DISPLAYS

Publications (2)

Publication Number Publication Date
JP2020527872A JP2020527872A (ja) 2020-09-10
JP7005658B2 true JP7005658B2 (ja) 2022-01-21

Family

ID=64999363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019567233A Active JP7005658B2 (ja) 2017-07-13 2018-05-15 非平面コンピュテーショナルディスプレイ

Country Status (6)

Country Link
US (1) US10659771B2 (ja)
EP (1) EP3526967B1 (ja)
JP (1) JP7005658B2 (ja)
KR (1) KR102303809B1 (ja)
CN (1) CN110583016B (ja)
WO (1) WO2019013865A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3577896A4 (en) * 2017-02-03 2020-11-25 Warner Bros. Entertainment Inc. REPRESENTATION OF AN EXTENDED VIDEO IN VIRTUAL REALITY
US11190757B2 (en) * 2017-12-22 2021-11-30 Mirage 3.4D Pty Ltd Camera projection technique system and method
CN111175990B (zh) * 2020-02-19 2022-07-15 京东方科技集团股份有限公司 光场显示系统
CN111427166B (zh) * 2020-03-31 2022-07-05 京东方科技集团股份有限公司 一种光场显示方法及系统、存储介质和显示面板
CN111381377B (zh) * 2020-04-24 2023-12-08 深圳珑璟光电科技有限公司 一种近眼显示设备
US11493772B1 (en) 2020-07-22 2022-11-08 Meta Platforms Technologies, Llc Peripheral light field display
CN112206517B (zh) * 2020-10-22 2024-03-12 网易(杭州)网络有限公司 一种渲染方法、装置、存储介质及计算机设备
US11467320B2 (en) * 2020-12-24 2022-10-11 Microsoft Technology Licensing, Llc Head mounted display device having dynamically addressable shutter array
US20220413297A1 (en) 2021-06-24 2022-12-29 Meta Platforms Technologies, Llc Free-form light field displays for vr/ar headsets
WO2022272148A1 (en) * 2021-06-24 2022-12-29 Meta Platforms Technologies, Llc Free-form light field displays for vr/ar headsets
CN114296234A (zh) * 2021-12-10 2022-04-08 华为技术有限公司 近眼显示装置及头戴设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012244453A (ja) 2011-05-20 2012-12-10 Panasonic Corp 画像表示装置、画像表示システム、及び3次元眼鏡
JP2016218366A (ja) 2015-05-25 2016-12-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、出力制御装置、情報処理システム、および動画データ出力方法
WO2017044790A1 (en) 2015-09-10 2017-03-16 Google Inc. Stereo rendering system
WO2017066802A1 (en) 2015-10-16 2017-04-20 Ostendo Technologies, Inc. Dual-mode augmented/virtual reality (ar/vr) near-eye wearable displays
WO2017074614A1 (en) 2015-10-26 2017-05-04 Google Inc. Head mounted display device with multiple-segment display and optics

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579026A (en) * 1993-05-14 1996-11-26 Olympus Optical Co., Ltd. Image display apparatus of head mounted type
JP3877080B2 (ja) * 1996-05-24 2007-02-07 オリンパス株式会社 立体視ディスプレイ装置
KR100809479B1 (ko) * 2006-07-27 2008-03-03 한국전자통신연구원 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치
US9880325B2 (en) * 2013-08-14 2018-01-30 Nvidia Corporation Hybrid optics for near-eye displays
JP6353214B2 (ja) * 2013-11-11 2018-07-04 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US10198865B2 (en) * 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
JP6294780B2 (ja) * 2014-07-17 2018-03-14 株式会社ソニー・インタラクティブエンタテインメント 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ
FR3028326B1 (fr) * 2014-11-07 2018-08-17 Thales Systeme de visualisation de tete comportant un systeme oculometrique et des moyens d'adaptation des images emises
JP2017028446A (ja) * 2015-07-21 2017-02-02 株式会社ソニー・インタラクティブエンタテインメント 画像提示装置、光学透過型ヘッドマウントディスプレイ、および画像提示方法
US10247858B2 (en) * 2015-10-25 2019-04-02 Facebook Technologies, Llc Liquid crystal half-wave plate lens

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012244453A (ja) 2011-05-20 2012-12-10 Panasonic Corp 画像表示装置、画像表示システム、及び3次元眼鏡
JP2016218366A (ja) 2015-05-25 2016-12-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、出力制御装置、情報処理システム、および動画データ出力方法
WO2017044790A1 (en) 2015-09-10 2017-03-16 Google Inc. Stereo rendering system
JP2018533232A (ja) 2015-09-10 2018-11-08 グーグル エルエルシー ステレオレンダリングシステム
WO2017066802A1 (en) 2015-10-16 2017-04-20 Ostendo Technologies, Inc. Dual-mode augmented/virtual reality (ar/vr) near-eye wearable displays
JP2018533765A (ja) 2015-10-16 2018-11-15 オステンド・テクノロジーズ・インコーポレーテッド デュアルモード拡張/仮想現実(ar/vr)ニアアイウェアラブルディスプレイ
WO2017074614A1 (en) 2015-10-26 2017-05-04 Google Inc. Head mounted display device with multiple-segment display and optics
JP2019500633A (ja) 2015-10-26 2019-01-10 グーグル エルエルシー 複数のセグメントディスプレイおよび光学素子を備えたヘッドマウントディスプレイ装置

Also Published As

Publication number Publication date
US10659771B2 (en) 2020-05-19
CN110583016B (zh) 2021-08-17
WO2019013865A1 (en) 2019-01-17
JP2020527872A (ja) 2020-09-10
KR20200003890A (ko) 2020-01-10
EP3526967A1 (en) 2019-08-21
US20190020869A1 (en) 2019-01-17
KR102303809B1 (ko) 2021-09-23
CN110583016A (zh) 2019-12-17
EP3526967B1 (en) 2020-09-23

Similar Documents

Publication Publication Date Title
JP7005658B2 (ja) 非平面コンピュテーショナルディスプレイ
TWI681663B (zh) 具有經由眼睛追蹤之延伸有效眼動範圍之近眼顯示器
US10241329B2 (en) Varifocal aberration compensation for near-eye displays
US10740971B2 (en) Augmented reality field of view object follower
US20150312558A1 (en) Stereoscopic rendering to eye positions
US11435576B2 (en) Near-eye display with extended accommodation range adjustment
JP2019500633A (ja) 複数のセグメントディスプレイおよび光学素子を備えたヘッドマウントディスプレイ装置
US20150187115A1 (en) Dynamically adjustable 3d goggles
US11574389B2 (en) Reprojection and wobulation at head-mounted display device
CN112655202B (zh) 用于头戴式显示器的鱼眼镜头的减小带宽立体失真校正
WO2018120554A1 (zh) 图像显示方法和头戴显示设备
US20200049994A1 (en) Tilted focal plane for near-eye display system
EP3566093A1 (en) Near-eye display with extended accommodation range adjustment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220105

R150 Certificate of patent or registration of utility model

Ref document number: 7005658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150