JP2020202569A - 眼と異なるレンズの位置を補正する、実際のシーンを見るための仮想眼鏡セット - Google Patents

眼と異なるレンズの位置を補正する、実際のシーンを見るための仮想眼鏡セット Download PDF

Info

Publication number
JP2020202569A
JP2020202569A JP2020133769A JP2020133769A JP2020202569A JP 2020202569 A JP2020202569 A JP 2020202569A JP 2020133769 A JP2020133769 A JP 2020133769A JP 2020133769 A JP2020133769 A JP 2020133769A JP 2020202569 A JP2020202569 A JP 2020202569A
Authority
JP
Japan
Prior art keywords
virtual
user
lens
light field
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020133769A
Other languages
English (en)
Other versions
JP7109509B2 (ja
Inventor
マトソン,サミュエル・マーク
Mark Matson Samuel
ケーザー,ドミニク・フィレモン
Philemon Kaeser Dominik
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2020202569A publication Critical patent/JP2020202569A/ja
Application granted granted Critical
Publication of JP7109509B2 publication Critical patent/JP7109509B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0129Head-up displays characterised by optical features comprising devices for correcting parallax
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】視度調整可能な立体眼鏡セットを提供する。
【解決手段】仮想眼鏡セットは、フレーム、第1の仮想レンズおよび第2の仮想レンズならびにプロセッサを含む。フレームは、ユーザの頭に装着され、ユーザの左目112Aの前に第1の仮想レンズ106Aを、ユーザの右目112Bの前に第2の仮想レンズ106Bを保持する。各レンズの第1の側はユーザに面し、各レンズの第2の側はユーザに面しない。第1の仮想レンズおよび第2の仮想レンズの各々は、第1の側にライトフィールドディスプレイを、第2の側にライトフィールドカメラを含んでもよい。プロセッサは、ライトフィールドカメラの各々を介して受信された画像データに基づいてライトフィールドディスプレイの各々に表示するために、ユーザのそれぞれの眼の視点からの画像を構築してもよい。
【選択図】図4

Description

関連出願との相互参照
この出願は、「眼と異なる接触の位置を補正する、実際のシーンを見るための仮想眼鏡セット(Virtual Eyeglass Set for Viewing Actual Scene that Corrects for Different Location of Contacts Than Eyes)」と題される2015年4月30日に出願された米国仮出願第62/155,424号に対する優先権を主張するものであり、その開示内容をここに引用により援用する。
技術分野
この記載は光学システムに関する。
概要
例示的な実施形態によれば、仮想眼鏡セットは、フレーム、第1の仮想レンズおよび第2の仮想レンズ、ならびにプロセッサを含んでもよい。フレームは、ユーザの頭に装着され、ユーザの左目の前に第1の仮想レンズを、ユーザの右目の前に第2の仮想レンズを保持するように構成されてもよい。第1の仮想レンズはフレームによって支持されてもよく、第2の仮想レンズはフレームによって支持されてもよい。仮想眼鏡セットがユーザの頭に装着されたとき、レンズの第1の側がユーザに面し、レンズの第2の側がユーザに面しないように、第1の仮想レンズおよび第2の仮想レンズの各々はフレームによって支持されてもよい。第1の仮想レンズおよび第2の仮想レンズの各々は、第1の側にライトフィールドディスプレイ、および第2の側にライトフィールドカメラを含んでもよい。プロセッサはフレームによって支持されてもよい。プロセッサは、ライトフィールドカメラの各々を介して受信された画像データに基づいてライトフィールドディスプレイの各々に表示するために、ユーザのそれぞれの眼の視点からの画像を構築するように構成されてもよい。
他の例示的な実施形態によれば、仮想眼鏡セットは、フレーム、第1の仮想レンズ、第2の仮想レンズ、およびプロセッサを含んでもよい。フレームは、ユーザの頭に装着され、ユーザの左目の前に第1の仮想レンズを、ユーザの右目の前に第2の仮想レンズを保持するように構成されてもよい。第1の仮想レンズはフレームによって支持されてもよく、第2の仮想レンズはフレームによって支持されてもよい。仮想眼鏡セットがユーザの頭に装着されたとき、レンズの第1の側がユーザに面し、レンズの第2の側がユーザに面しないように、第1の仮想レンズおよび第2の仮想レンズの各々はフレームによって支持されてもよい。第1の仮想レンズおよび第2の仮想レンズの各々は、第1の側にディスプレイ、および第2の側に広角カメラを含んでもよい。プロセッサはフレームによって支持されてもよい。プロセッサは、広角カメラの各々によって受取られた画像を落とすことによるディスプレイの各々上での表示のために構成されてもよく、それぞれのレンズの各側上のディスプレイは、それぞれの広角カメラよりも狭い角度で画像を表示し、画像は、ユーザのそれぞれの眼から始まる円錐を表す。
別の例示的実施形態によれば、右レンズおよび左レンズの各々に、レンズの反対側のライトフィールドカメラを介して受信されるデータに基づくライトフィールド画像を表示するよう構成される仮想眼鏡セットであって、ライトフィールド画像は、仮想眼鏡セットを装着したユーザの眼の視点から仮想眼鏡セットを越える対象物の画像を提示する。
1つ以上の実現例の詳細は、添付の図面および以下の記載において述べられる。他の特徴は記載および図面、ならびに請求項から明らかになる。
例示的な実施形態による仮想眼鏡セットを装着しているユーザの図である。 例示的な実施形態による仮想眼鏡セットおよびユーザの眼の分解図である。 例示的な実施形態による仮想眼鏡セットからのレンズを示す上面図である。 例示的な実施形態による仮想眼鏡セットからレンズの各々の第1の側を示す背面図である。 例示的な実施形態による仮想眼鏡セットからレンズの各々の第2の側を示す前面図である。 例示的な実施形態によるユーザの眼およびレンズの視野を示す。 対象物が2つのレンズのうちの第2のレンズの視野内にある例におけるユーザの眼およびレンズを示す。 対象物が各レンズのビューポイントのいくつかの視野にある例におけるユーザの眼およびレンズを示す。 対象物が各レンズのビューポイントのすべての視野にある例におけるユーザの眼およびレンズを示す。 各レンズのビューポイントの1つが、ユーザの眼の一方から対象物への視線によって交差される例における、ユーザの眼およびレンズを示す。 各レンズが広角カメラを含む例における、ユーザの眼およびレンズを示す。 例示的な実施形態による仮想眼鏡セットに含まれるプロセッサを示す。
詳細な記載
仮想眼鏡セットは、仮想眼鏡セットを着用しているユーザに面する各レンズの第1の側に、ユーザの前の実際のシーンを表示するディスプレイと、ユーザに面していない各レンズの第2の側に、ユーザの前の実際のシーンをキャプチャするカメラとを含んでもよい。レンズ上のカメラと異なる、ユーザの眼のための原点を生じさせる、ユーザの眼がレンズの背後にある距離に対して補正を行なうために、カメラは、複数のビューポイントを伴うライトフィールドカメラを含んでもよく、仮想眼鏡セットは、ユーザに表示するために眼の観点から画像を構築するプロセッサを含んでもよく、それにより視差効果を排除してもよい。プレノプティックカメラとみなしてもよいライトフィールドカメラは、複数のカメラもしくはサブカメラおよび/または複数のレンズを使用して、複数の位置および/またはビューポイントから画像をキャプチャしてもよい。複数の位置および/またはビューポイントから画像をキャプチャすることにより、画像が実際にはキャプチャされなかった観点および/または位置から3次元シーンの画像を構築することができる。フラットスクリーンではなく、3次元シーンの画像を生成するために、ディスプレイは、複数のディスプレイを有するライトフィールドディスプレイを含んでもよい。ライトフィールドディスプレイは、奥行の手がかりを用いて各ユーザの眼の各々に3次元画像を提示してもよく、ライトフィールドディスプレイを覗くと、ユーザは実際のシーンを覗いているかのように感じることができる。
図1Aは、例示的な実施形態による仮想眼鏡セット102を装着しているユーザ100の図である。仮想眼鏡セット102は、ユーザの鼻108および耳110A、110B上に置かれ、および/または装着されてもよい。仮想眼鏡セット102は、ユーザの鼻10
8および耳110A、110Bを含めて、ユーザの頭に載置および/または装着されるフレーム104を含んでもよい。
仮想眼鏡セット102は、2つのレンズ106A、106Bを含んでもよい。レンズ106A、106Bは、あたかもユーザ100が透き通ったおよび/または存在しないレンズを通して見ているかのように、ユーザ100の前の実際のシーンの画像を示すように見えるので、仮想レンズと考えてもよい。レンズ106A、106Bは、仮想眼鏡セットがユーザ100の頭に取り付けられたときに、レンズ106A、106Bが各々ユーザの眼(図1Aには示されていない)の一方の直前に位置するように、フレーム104によって支持されてもよい)。
図1Bは、例示的な実施形態による仮想眼鏡セット102およびユーザの眼112A,112Bの分解図である。図1Bに示すように、仮想眼鏡セット102は、フレーム104と、レンズ106A、106Bと、プロセッサ113とを含んでもよい。プロセッサ113は、各レンズ106A、106Bから、ユーザに面していないカメラ(図2Bには図示せず)からの入力を受信してもよく、ユーザに面しているレンズ106A、106Bの第1の側のディスプレイ(図2Bには示されていない)上で提示および/または表示するために、ユーザの眼112A、112Bと同じ観点および/または視点を有する画像を構成してもよい。第1のレンズ106Aおよび/または左レンズの第1の側の第1のライトフィールドディスプレイは、ユーザの第1の眼112Aおよび/または左目と同じ観点および/または視点を有する第1の画像を表示してもよく、第2のレンズ106Bおよび/または右レンズの第1の側の第2のライトフィールドディスプレイは、ユーザの第2の眼112Bおよび/または右目と同じ観点および/または視点を有する画像を表示してもよく、ユーザのための3次元シーンの効果を作り出す。
図1Cは、例示的な実施形態による仮想眼鏡セット102からのレンズ106A,106Bを示す上面図である。図1Cに示すように、レンズ106A、106Bの各々は、ユーザの眼112A、112B(図1Cには図示せず)に面する第1の側118Aと、ユーザ100に面しない第2の側120A、120Bとを含んでもよい。
各レンズ106A、106Bの第1の側118A、118Bは、ライトフィールドディスプレイ114A、114Bを含んでもよい。ライトフィールドディスプレイ114A、114Bは、ユーザのそれぞれの眼112A、112Bにライトフィールド画像を提示するために複数の画素を含んでもよい。ライトフィールド画像は、ユーザ100のそれぞれの眼112A、112Bの視点および/または観点からの、ユーザ100の前の実際のライブシーンの再構築画像であってもよい。2つのレンズ106A、106Bのライトフィールドディスプレイ114A、114Bは、共に、ユーザ100の前のライブの実際のシーンの3次元画像を生成してもよく、その結果、画像は、あたかも、ユーザ100がフレーム104内の透明および/または存在しないレンズ106A、106Bを通して見るように、見える。
例示的な実施形態では、レンズ106A、106Bの各々は、レンズ106A、106Bの第1の側118A、118B上に方向カメラ122A、122Bも含んでもよい。方向カメラ122A、122Bは、ユーザの網膜および/または眼112A、112Bの画像をキャプチャし、プロセッサ113(図1Cには図示せず)と組合わせて、ユーザ100の眼112A、112Bおよび/または網膜が指している方向および/またはユーザ100が見ている方向を判断してもよい。プロセッサ113は、方向カメラ122A、122Bによってキャプチャされた画像に基づいて判断された方向に基づき、ライトフィールドカメラ116A、116Bから受信される画像データおよびキャプチャされた方向に基づいて、各ライトフィールドディスプレイ114A、114Bによってユーザ100の眼
112A、112Bの視点および方向から表示するための画像を生成および/または構築し、それによって、ユーザ100が見ている方向と整合する画像を生成してもよい。
例示的な実施形態では、方向カメラ122A、122Bの代わりに、または方向カメラ122A、122Bに加えて、レンズ106A、106Bの各々の第1の側118A、118Bは、視力カメラを含んでもよい。第1の側118A、118B上の視力カメラは、方向カメラ122A、122Bに加えて第2のカメラであってもよく、または方向カメラ122A、122Bは、視力カメラの機能も実行してもよい。視力カメラは、ユーザ100のそれぞれの眼112A、112Bのユーザ100の網膜の画像をキャプチャしてもよい。プロセッサ113(図1Cには示されていない)は、視力カメラによってキャプチャされたユーザ100の網膜の画像に基づいて、ユーザ100の視力を判断してもよい。プロセッサ113は、たとえば、ユーザ100がいずれかまたは両方の眼112A、112Bにおいて近視であるか、遠視であるか、または非点収差を有するかどうかを含む、ユーザ100の視力を判断してもよい。ユーザ100の視力の決定に基づいて、プロセッサ113は、特定のユーザの画像の視認性を最大にするために、それぞれのライトフィールドディスプレイ114Aによって表示するための画像を修正および/または構築してもよい。プロセッサ113は、また、ユーザ100の視力に関してユーザ100から受取った入力に基づいて画像を修正および/または構築してもよい。
各レンズ106A、106Bの第2の側120A、120Bは、ライトフィールドカメラ116A、116Bを含んでもよい。各レンズ106A、106Bのライトフィールドカメラ116A、116Bは、図1Eに示すように、複数のビューポイントを含んでもよく、および/または複数のビューポイントから構成されてもよく、ライトフィールドカメラ116A、116Bを、複数の位置、観点、および/または視点から画像をレンダリングおよび/またはキャプチャすることができるようにする。複数のビューポイントは、各々がそれ自体のレンズを有する、異なる位置にある複数のカメラ、1つのレンズを共有する複数のカメラ、または複数のレンズを使用する単一のカメラのビューポイントに対応してもよい。1つまたは複数のカメラのレンズのいずれかまたはすべてのレンズは、フレネルレンズを含んでもよい。フレネルレンズは1つまたは複数のカメラの各々の視野を増大させてもよい。プロセッサ113は、各ライトフィールドカメラ116A、116Bの複数のビューポイントから入力を受取り、複数のビューポイントから受取った入力に基づいて、ビューポイントのいずれによっても占められていない位置および/または観点から画像を構築してもよい。
図1Dは、例示的な実施形態に従って、ユーザ100に面する仮想眼鏡セット102からレンズ106A,106Bの各々の第1の側118A,118B(仮想眼鏡セット102の他の構成要素は図1Dにおいては示されない)を示す背面図である。図1Dに示すように、レンズ106A、106Bの各々の第1の側118A、118B上のライトフィールドディスプレイ114A、114B(図1Dには示されていない)は、複数のサブディスプレイ124A、124Bで構成されてもよく、および/または複数のサブディスプレイ124A、124Bを含んでもよい。複数のサブディスプレイ124A、124Bの各々は、別個の画像を生成することができる複数の画素を有する別個のディスプレイであってもよいし、または複数のサブディスプレイ124A、124Bの各々は、単一の画素を含んでもよく;サブディスプレイ124A、124Bは、集合的にライトフィールドディスプレイ114A、114Bを構成してもよい。各レンズ106A、106B上のサブディスプレイ124A、124Bは、集合的に、プロセッサ113(図1Dには図示せず)によって構築された画像を表示してもよい。サブディスプレイ124A、124Bは、集合的に、この例では合計100個のサブディスプレイ124A、124Bに対して、10×10のグリッドまたはアレイなどのグリッドまたはアレイを、レンズ106A、106Bの第1の側118A,118B上に形成してもよく、および/またはレンズ106A、
106Bの第1の側118A、118Bの少なくとも90%を覆ってもよい。
図1Eは、例示的な実施形態に従って、ユーザ100に面しない、仮想眼鏡セット102からのレンズ106A,106Bの各々の第2の側120A,120B(仮想眼鏡セット102の他の構成要素は図1Eにおいては示されない)を示す前面図である。図1Eに示すように、レンズ106A、106Bの各々の第2の側120A,120B上のライトフィールドカメラ116A、116B(図1Eには符号は示されていない)は、複数のビューポイント126A、126Bを規定、提示、および/またはキャプチャしてもよい。複数のビューポイント126A、126Bの各々は、異なる位置にあってもよい。複数のビューポイント126A、126Bの各々の異なる位置は、ライトフィールドカメラ116A、116Bが、複数の視点および/または観点からユーザ100の前のシーンをキャプチャすることを可能にしてもよい。
複数のビューポイント126A、126Bの各々は、単一のレンズおよび単一の検出器を有する単一のカメラを含んでもよく、またはビューポイント126A、126Bの各々は、複数のレンズのすべてを介して光を受光する単一のおよび/または共用の検出器に光を屈折させる別個のレンズを含んでもよい。ビューポイント126A、126Bの各々に関連付けられるレンズは、フレネルレンズを含んでもよい。ビューポイント126A、126Bは、集合的に、10×10のグリッドまたはアレイなどのグリッドまたはアレイを、レンズ106A、106Bの第2の側120A,120B上に形成してもよく、および/またはレンズ106A、106Bの第2の側120A,120Bの少なくとも90%を覆ってもよい。
図2は、例示的な実施形態によるユーザの眼112A,112Bおよびレンズ106A,106Bの視野を示す。図2に示される例では、レンズ106A、106Bからの視野は、カメラ原点面204から同じ角度および/またはスイープを有することができ、カメラ原点面204は、ユーザの眼112A、112Bが眼の原点面202から有するように、眼の原点面202の前にある。この例では、ユーザの左目112Aは、線206A、208Aの間に視野を有し、ユーザの右目112Bは、線206B、208Bの間に視野を有してもよい。この例においても、レンズ106A、106Bの中心に配されるカメラは、線210A、212Aと210B、212Bとの間に視野を有してもよい。なお、図2(ならびに図3A、図3B、図3Cおよび図4)は、2次元表現による三角視野を示しているが、視野は三次元空間で円錐形であってもよい。
この例では、領域214の対象物は、ユーザの眼112A、112Bまたはカメラのいずれにも視認可能でなくてもよい。線208Aと212Aとの間、および線208Bと212Bとの間の対象物は、ユーザの眼112A、112Bの一方または両方に視認可能であってもよいが、レンズ106A、106Bの中心に配されるカメラには視認可能でなくてもよい。領域216内の対象物は、ユーザの眼112A、112Bの両方に視認可能であってもよいが、レンズ106A、106Bの中心にあるいずれのカメラにも視認可能でなくてもよい。レンズ106A、106B上の追加の点にあるカメラおよび/またはより広い角度を有するカメラが、領域216内の対象物の画像をキャプチャするために必要とされてもよい。
領域218の対象物は、ユーザの眼112A、112Bの両方、およびレンズ106A、106Bの中心のカメラに視認可能であってもよい。しかしながら、調整なしでは、レンズ106A、106Bの中央のカメラによって受信された画像データのみに基づく表示される画像は、ユーザの眼112A、112Bからの対象物の角度とは異なる、カメラからの対象物の角度に起因する視差効果のために、ユーザの眼112A、112Bに実際そうであるよりも近く現れ得る。図1Eに示されるようにレンズ106A、106Bの第2
の側120A、120B上の複数のビューポイント126A、126Bなどの複数のビューポイント126A、126B(図2には示されていない)は、ユーザの眼112A、112Bの視点および/または観点から画像を構築することが要求されてもよい。
図3A、図3Bおよび図3Bは、レンズ106A、106Bの第2の側120A、120B上の複数のビューポイント126A、126Bからの、レンズ106A、106Bの前の対象物300A、300B、300Cの視点を示す。図3A、図3Bおよび図3Cは、レンズ106A、106Bおよび2次元の三角領域における視野を示す線を示すが、レンズおよび視野は、実際には3次元空間において円錐状であってもよい。
図3Aは、対象物300Aが第2のレンズ106Bの視野にあるが、第1のレンズ106Aの視野内にない例において、ユーザの眼112A、112Bおよびレンズ106A、106Bを示す。図3Aに示すように、対象物300Aは、第1のレンズ106Aの複数のビューポイント126A(図3Aには図示せず)の視野の外側の境界を形成する線304Aの外側にある、および/またはそれを超えており、第1のレンズ106Aのライトフィールドカメラ116A(図3Aには図示せず)を任意の視点から対象物300Aの任意の画像をキャプチャすることができないようにする。
図3Aに示すように、対象物300Aは、レンズ106Bの第2の側120B上のビューポイント126Bのいくつか、複数、またはすべてに視認可能である。線306B、308B、310B、312B、314Bは、第2の側120B上のビューポイント126Bから対象物300Aへの方向を示す。プロセッサ113(図3Aには図示せず)は、ビューポイント126Bによってキャプチャされた対象物300Aの画像データに基づいて、ユーザ100の右目および/または第2の眼112Bの観点から第2のライトフィールドディスプレイ114Bによる表示のために画像を生成してもよい。
図3Bは、対象物300Bが各レンズ106A,106Bのビューポイント126A,126B(図3Aには図示せず)のいくつかの視野にある例におけるユーザの眼112A,112Bおよびレンズ106A,106Bを示す。図3Bに示すように、対象物300Bは、線324Aによって表される1つ以上の線の原点および/または始点を形成する第1のレンズ106A上の1つ以上のビューポイント126Aの視野にあるが、対象物300Bは、線322Aによって表される1つ以上の線の原点および/または始点を形成する第1のレンズ106A上の1つ以上のビューポイント126Aの視野にない。同様に、対象物300Bは、線326B,328Bによって表される1つ以上の線の原点を形成する第2のレンズ106B上の1つ以上のビューポイント126Bの視野にあるが、対象物300Bは、線330Bによって表される1つ以上の線の原点を形成する第2のレンズ106B上の1つ以上のビューポイント126Bの視野にない。プロセッサ113(図3Bには図示せず)は、ライトフィールドディスプレイ114A、114B(図3Bには符号付けされていない)による表示のために、ユーザの眼112A、112Bの両方の観点から画像を生成してもよい。各ライトフィールドディスプレイ114A、114Bによる表示のための画像は、生成された画像が表示される同じレンズ106A、106B上のビューポイント126A、126Bから受信された画像データのみに基づいてプロセッサ113によって生成されてもよく、または画像が表示されるレンズ106A、106Bの両方からの画像データと反対のレンズとに基づいて画像が生成されてもよい。
図3Cは、対象物300Cが各レンズ106A,106Bのビューポイント126A,126B(図3Aには図示せず)のすべての視野にある例におけるユーザの眼112A,112Bおよびレンズ106A,106Bを示す。この例では、プロセッサ113(図3Cには図示せず)は、画像が表示されるレンズ106A、106Bにおけるビューポイント126A、126Bの一部もしくは全部から受信される画像データに基づいて、または
両方のレンズ106A、106Bのビューポイント126A、126Bの一部もしくは全部から受信される画像データに基づいて、各ライトフィールドディスプレイ114A、114Bでの表示のために対象物300Cの画像を構築することができる。
図4は、各レンズ106A,106Bのビューポイント404A,404Bの1つが、ユーザの眼112A,112Bの一方から対象物400への視線402A,402Bによって交差される例における、ユーザの眼112A,112Bおよびレンズ106A,106Bを示す。レンズ106A、106Bの各々は、上述したように、複数のビューポイント126A、126B(図4には図示せず)を含んでもよい。例示的な実現例では、プロセッサ113(図4には図示せず)および/または方向カメラ122A、122B(図4には図示せず)は、ユーザ100が見ている方向および/またはユーザ100の眼112A、112Bの網膜が指し示している方向を判断してもよい。判断された方向に基づいて、プロセッサ113は、ユーザの眼112A、112Bから対象物400に延びる視線402A、402Bに沿っているおよび/またはそれに最も近い、各レンズ106A、106Bにおける複数のビューポイント126A、126Bからの単一のビューポイント404A、404Bを判断してもよい。ユーザ100が対象物400を見ているとき、判断された単一のビューポイント404A、404Bは、視線402A、402Bに沿って、眼112A、112Bと対象物400の間にあってもよい。プロセッサ113は、視線402A、402Bに沿ったおよび/または視線402A、402Bに最も近いビューポイント404A、404Bからキャプチャされた画像データにのみ基づいて、レンズ106A、106B上でユーザ100に表示するための画像を生成してもよい。視線402A、402Bに沿ってビューポイント404A、404Bからキャプチャされた画像データのみに基づく画像は、眼112A、112Bと同じ観点および/または視点を有するように見えてもよく、あたかもレンズ106A、106Bが透明および/または空であるかのように、ユーザ100がレンズ106A、106Bのライトフィールドディスプレイ114A、114Bにおいて対象物400を見ることを可能にする。
図5は、各レンズ506A,506Bが広角カメラ510A、506B含む例における、ユーザの眼112A,112Bおよびレンズ506A,506Bを示す。レンズ506A、506Bは、レンズ106A、106Bに関して上述したようにフレームに取り付けられてもよく、上述のライトフィールドディスプレイおよび/もしくは方向カメラを含んでもよく、ならびに/または上述のプロセッサに結合されてもよい。この例では、線512A、513Aは、左目および/または第1の眼112Aに対する視界を示しおよび/またはその境をなし、線522A、524Aは、左および/または第1の広角カメラ510Aに対する視界を示しおよび/またはその境をなす。線512B、513Bは、右目および/または第2の眼112Bに対する視界を示しおよび/またはその境をなし、線522B、524Bは、右および/または第2の広角カメラ510Bに対する視界を示しおよび/またはその境をなす。図5に示すように、広角カメラ原点面526を越えて、広角カメラ510A、510Bの視野は、眼112A、112Bの視野を超えて延びる。眼112A、112Bの視野および/または視点をシミュレーションするために、プロセッサ113(図5には図示せず)は、広角カメラ510A、510Bから受信した画像データのうち、522Aと512Aとの間、524Aと513Aとの間、512Bと524Bとの間、および522Bと513Bとの間の領域または空間など、眼112A、112Bの視界を越えて延びる部分を落とす。プロセッサ113は、広角カメラ510A,510Bの各々によって受取られた画像を落とすことによるディスプレイ514A,514Bの各々上での表示のために、広角カメラ510A、510Bよりも狭い角度で画像を構築してもよく、構築された画像は、ユーザ100のそれぞれの眼112A,112Bから始まる円錐を表す。プロセッサ113は、それによって眼112A、112Bによって直接見られるであろう画像に類似する画像を生成してもよい。
図6は、例示的な実施形態による仮想眼鏡セット102(図6には図示せず)に含まれるプロセッサ113を示す。プロセッサ113は、ライトフィールドカメラ116A、116B、方向カメラ122A、122B、ビューポイント126A、126B、ビューポイント404A、404B、および/または広角カメラ510A、510Bから入力データを受信する1つ以上の入力ノード606を含んでもよい。プロセッサ113はさらに、表示データをライトフィールドディスプレイ114A、114Bおよび/またはサブディスプレイ124A、124Bに出力する1つ以上の出力ノード608を含んでもよい。プロセッサ113は、コントローラ602およびメモリ604を含んでもよい。メモリ604は、コントローラ602による実行のための命令ならびに受信した画像データおよび生成された表示データなどのデータを記憶する非一時的なコンピュータ読取可能記憶媒体を含んでもよい。コントローラ602は、メモリ604によって記憶された命令を実行することによって、プロセッサ113に関して上述したように、ライトフィールドディスプレイ114A、114Bおよび/またはサブディスプレイ124A、124Bによる提示のための表示データを生成してもよい。
本明細書で説明される様々な技術の実現は、デジタル電子回路、もしくはコンピュータハードウェア、ファームウェア、ソフトウェア、またはそれらの組合わせで実現されてもよい。実現例は、データ処理装置、たとえばプログラム可能なプロセッサ、コンピュータ、または複数のコンピュータによる実行のために、またはそれらの動作を制御するために、コンピュータプログラム製品、すなわちたとえば機械読取可能記憶装置または伝播信号などの情報媒体に具体的に実施されるコンピュータプログラムとして実現されてもよい。上述したコンピュータプログラムのようなコンピュータプログラムは、コンパイルまたは解釈された言語を含む任意の形式のプログラミング言語で書かれ得、スタンドアロンプログラムとして、または、モジュール、コンポーネント、サブルーチン、もしくは、コンピューティング環境で使用するのに好適な他のユニットとして任意の形態で展開され得る。コンピュータプログラムは、1つのコンピュータまたは1つの場所に位置するかもしくは複数の場所にわたって分散され通信ネットワークによって相互接続される複数のコンピュータ上で実行されるように展開され得る。
方法ステップは、入力データ上で動作し出力を生成することにより機能を実行するよう1つ以上のプログラマブルプロセッサがコンピュータプログラムを実行することによって実行されてもよい。方法ステップの実行および装置の実施は、たとえばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)といった特殊目的論理回路で行われてもよい。
コンピュータプログラムの実行に好適であるプロセッサは、例として、汎用マイクロプロセッサおよび特殊目的マイクロプロセッサの両方、ならびに任意の種類のデジタルコンピュータの任意の1つ以上のプロセッサを含んでもよい。一般に、プロセッサは、リードオンリメモリもしくはランダムアクセスメモリまたはその両方から命令およびデータを受取ることになる。コンピュータの要素は、命令を実行するための少なくとも1つのプロセッサと、命令およびデータを格納するための1つ以上のメモリデバイスとを含んでもよい。一般に、コンピュータはさらに、たとえば磁気ディスク、光磁気ディスクまたは光ディスクといった、データを格納するための1つ以上の大容量記憶装置を含むか、当該1つ以上の大容量記憶装置からデータを受取るかもしくは当該1つ以上の大容量記憶装置にデータを転送するよう動作可能に結合されるか、またはその両方を行ってもよい。コンピュータプログラム命令およびデータを実施するのに好適である情報担体は、例として、たとえばEPROM、EEPROMおよびフラッシュメモリデバイスを含むすべての形態の不揮発性メモリと;たとえば内部ハードディスクまたはリムーバブルディスクといった磁気ディスクと;光磁気ディスクと;CD−ROMおよびDVD−ROMディスクとを含む。プロセッサおよびメモリは、特殊目的論理回路によって補足され得るか、または特殊目的論
理回路に組み込まれ得る。
ユーザとのインタラクションを提供するために、実現例は、たとえば陰極線管(CRT)または液晶ディスプレイ(LCD)モニタといったユーザに対して情報を表示するための表示デバイスと、ユーザがコンピュータに入力を提供可能であるキーボードおよびポインティングデバイス、たとえばマウス、トラックボールとを有するコンピュータ上で実現されてもよい。他の種類のデバイスが同様に、ユーザとのインタラクションを提供するために使用され得;たとえば、ユーザに提供されるフィードバックは、たとえば視覚フィードバック、聴覚フィードバックまたは触覚フィードバックといった任意の形態の感覚フィードバックであり得;ユーザからの入力は、音響入力、発話入力、または触覚入力を含む任意の形態で受取られ得る。
実現例は、たとえばデータサーバなどのバックエンドコンポーネントを含むコンピューティングシステム、またはアプリケーションサーバなどのミドルウェアコンポーネントを含むコンピューティングシステム、またはたとえばユーザが実現例と対話できるグラフィカルユーザインターフェイスもしくはウェブブラウザを有するクライアントコンピュータなどのフロントエンドコンポーネント含むコンピューティングシステム、またはそのようなバックエンド、ミドルウェア、もしくはフロントエンドコンポーネントの任意の組合わせであってもよい。コンポーネントは、たとえば通信ネットワークといったデジタルデータ通信の任意の形態または媒体によって相互接続されてもよい。通信ネットワークの例は、ローカルエリアネットワーク(LAN)およびワイドエリアネットワーク(WAN)、たとえばインターネットを含む。
記載された実現例の特定の特徴が本明細書に記載されているように示されているが、当業者には多くの修正、置換、変更および均等物がここで思い浮かぶであろう。したがって、特許請求の範囲は、本発明の実施形態の真の精神に含まれるすべてのそのような修正および変更を包含するように意図されていることを理解されたい。

Claims (17)

  1. 仮想眼鏡セットであって、
    ユーザの頭に装着され、ユーザの左目の前に第1の仮想レンズを、前記ユーザの右目の前に第2の仮想レンズを保持するように構成されるフレームを備え、
    前記第1の仮想レンズは前記フレームに支持され、前記第2の仮想レンズは前記フレームに支持され、前記仮想眼鏡セットが前記ユーザの頭に装着されたとき、前記レンズの第1の側が前記ユーザに面し、前記レンズの第2の側が前記ユーザに面しないように、前記第1の仮想レンズおよび前記第2の仮想レンズの各々は前記フレームによって支持され、前記第1の仮想レンズおよび前記第2の仮想レンズの各々は、
    前記第1の側上のライトフィールドディスプレイと、
    前記第2の側上のライトフィールドカメラとを含み、前記仮想眼鏡セットはさらに、
    前記フレームによって支持されたプロセッサを備え、前記プロセッサは、前記ライトフィールドカメラの各々を介して受信された画像データに基づいて前記ライトフィールドディスプレイの各々に表示するために、前記ユーザのそれぞれの眼の視点からの画像を構築するように構成されている、仮想眼鏡セット。
  2. 前記ライトフィールドカメラの各々は、前記画像データをキャプチャするように構成されている、請求項1に記載の仮想眼鏡セット。
  3. 前記ライトフィールドカメラの各々は、フレネルレンズを含む、請求項1または2に記載の仮想眼鏡セット。
  4. 前記ライトフィールドカメラの各々は、複数の検出器および複数のレンズを含む、請求項1〜3のいずれかに記載の仮想眼鏡セット。
  5. 前記ライトフィールドカメラの各々は、単一の検出器および複数のレンズを含む、請求項1〜3のいずれかに記載の仮想眼鏡セット。
  6. 前記ライトフィールドカメラの各々は複数のカメラを含む、請求項1〜3のいずれかに記載の仮想眼鏡セット。
  7. 前記第1の仮想レンズおよび前記第2の仮想レンズの各々は、前記第1の側に、前記ユーザの眼が向いている方向をキャプチャするように構成された方向カメラをさらに備え、
    前記プロセッサは、前記画像データおよび前記キャプチャされた方向に基づいて、前記ユーザの眼の視点および方向からの画像を構築するように構成される、請求項1〜6のいずれかに記載の仮想眼鏡セット。
  8. 前記第1の仮想レンズおよび前記第2の仮想レンズの各々は、前記第1の側に、前記ユーザの眼が向いている方向をキャプチャするように構成された方向カメラをさらに備え、
    前記ライトフィールドカメラの各々は複数のカメラを含み、
    前記プロセッサは、前記ユーザの眼が向いている方向に前記ユーザの眼から延びる視線に最も近い前記複数のカメラのうちの1つに基づいた画像を構築するように構成される、請求項1〜6のいずれかに記載の仮想眼鏡セット。
  9. 前記ライトフィールドディスプレイの各々は、構築された画像を表示するように構成される、請求項1〜8のいずれかに記載の仮想眼鏡セット。
  10. 前記ライトフィールドディスプレイの各々は、前記仮想レンズの前記第1の側の少なくとも90%をカバーする複数の画素を含む、請求項1〜9のいずれかに記載の仮想眼鏡セ
    ット。
  11. 前記ライトフィールドカメラの各々は、前記仮想レンズの前記第2の側の少なくとも90%をカバーする複数のカメラを含む、請求項1〜10のいずれかに記載の仮想眼鏡セット。
  12. 前記ライトフィールドカメラの各々は、前記仮想レンズの前記第2の側に10×10グリッドのカメラを含む、請求項1〜11のいずれかに記載の仮想眼鏡セット。
  13. 前記プロセッサは、
    前記第1の仮想レンズ上の前記ライトフィールドカメラを介して受信される画像データに基づいて、前記ユーザの左目の視点から前記第1の仮想レンズ上の前記ライトフィールドディスプレイ上での表示のための第1の画像と、
    前記第2の仮想レンズ上の前記ライトフィールドカメラを介して受信される画像データに基づいて、前記ユーザの右目の視点から前記第2の仮想レンズ上の前記ライトフィールドディスプレイ上での表示のための第2の画像とを構築するよう構成される、請求項1〜12のいずれかに記載の仮想眼鏡セット。
  14. 前記プロセッサは、前記ライトフィールドカメラの各々を介して受信された画像データと前記ユーザの視力とに基づいて、前記画像を構築するように構成される、請求項1〜13のいずれかに記載の仮想眼鏡セット。
  15. 前記第1の仮想レンズおよび前記第2の仮想レンズの各々は、前記第1の側に、前記ユーザの網膜の画像をキャプチャするように構成された視力カメラをさらに備え、
    前記プロセッサは、前記ユーザの網膜の画像に基づいて前記ユーザの視力を判断するように構成される、請求項14に記載の仮想眼鏡セット。
  16. 仮想眼鏡セットであって、
    ユーザの頭に装着され、ユーザの左目の前に第1の仮想レンズを、前記ユーザの右目の前に第2の仮想レンズを保持するように構成されるフレームを備え、
    前記第1の仮想レンズは前記フレームに支持され、前記第2の仮想レンズは前記フレームに支持され、前記仮想眼鏡セットが前記ユーザの頭に装着されたとき、前記レンズの第1の側が前記ユーザに面し、前記レンズの第2の側が前記ユーザに面しないように、前記第1の仮想レンズおよび前記第2の仮想レンズの各々は前記フレームによって支持され、前記第1の仮想レンズおよび前記第2の仮想レンズの各々は、
    前記第1の側のディスプレイと、
    前記第2の側の広角カメラとを含み、前記仮想眼鏡セットはさらに、
    前記フレームによって支持されるプロセッサを備え、前記プロセッサは、前記広角カメラの各々によって受取られた画像を落とすことによる前記ディスプレイの各々上での表示のために構成され、それぞれのレンズの各側上の前記ディスプレイは、それぞれの広角カメラよりも狭い角度で画像を表示し、前記画像は、前記ユーザのそれぞれの眼から始まる円錐を表す、仮想眼鏡セット。
  17. 右レンズおよび左レンズの各々に、前記レンズの反対側のライトフィールドカメラを介して受信されるデータに基づくライトフィールド画像を表示するよう構成される仮想眼鏡セットであって、前記ライトフィールド画像は、前記仮想眼鏡セットを装着したユーザの眼の視点から前記仮想眼鏡セットを越える対象物の画像を提示する、仮想眼鏡セット。
JP2020133769A 2015-04-30 2020-08-06 眼と異なるレンズの位置を補正する、実際のシーンを見るための仮想眼鏡セット Active JP7109509B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562155424P 2015-04-30 2015-04-30
US62/155,424 2015-04-30

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017550754A Division JP6837003B2 (ja) 2015-04-30 2016-04-27 眼と異なるレンズの位置を補正する、実際のシーンを見るための仮想眼鏡セット

Publications (2)

Publication Number Publication Date
JP2020202569A true JP2020202569A (ja) 2020-12-17
JP7109509B2 JP7109509B2 (ja) 2022-07-29

Family

ID=55911122

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017550754A Active JP6837003B2 (ja) 2015-04-30 2016-04-27 眼と異なるレンズの位置を補正する、実際のシーンを見るための仮想眼鏡セット
JP2020133769A Active JP7109509B2 (ja) 2015-04-30 2020-08-06 眼と異なるレンズの位置を補正する、実際のシーンを見るための仮想眼鏡セット

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017550754A Active JP6837003B2 (ja) 2015-04-30 2016-04-27 眼と異なるレンズの位置を補正する、実際のシーンを見るための仮想眼鏡セット

Country Status (6)

Country Link
US (1) US10715791B2 (ja)
EP (2) EP3289401B1 (ja)
JP (2) JP6837003B2 (ja)
KR (1) KR102028088B1 (ja)
CN (1) CN107438788A (ja)
WO (1) WO2016176309A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6641763B2 (ja) * 2015-08-03 2020-02-05 セイコーエプソン株式会社 表示システム
CN107302694B (zh) * 2017-05-22 2019-01-18 歌尔科技有限公司 通过虚拟现实设备呈现场景的方法、设备及虚拟现实设备
JP7118650B2 (ja) * 2018-01-18 2022-08-16 キヤノン株式会社 表示装置
CN108986225B (zh) * 2018-05-29 2022-10-18 歌尔光学科技有限公司 虚拟现实设备显示场景时的处理方法及装置、设备
CN112752992B (zh) 2018-09-28 2023-10-31 苹果公司 混合现实或虚拟现实相机系统
EP3955045A4 (en) * 2019-09-30 2022-06-01 Lg Chem, Ltd. VISUAL HEADSET
US11856175B2 (en) * 2020-04-14 2023-12-26 Selene Photonics, Inc. Welding mask with light field image capture and display
US11554440B2 (en) 2020-04-14 2023-01-17 Selene Photonics, Inc. Digital display welding mask with HDR imaging
US11393269B2 (en) 2020-10-14 2022-07-19 1Ahead Technologies Security surveillance and entry management system
US11756357B2 (en) 2020-10-14 2023-09-12 1Ahead Technologies Access management system
US11436882B1 (en) 2020-10-14 2022-09-06 1Ahead Technologies Security surveillance and entry management system
US11625966B2 (en) 2020-10-14 2023-04-11 1Ahead Technologies Access management system
US11398120B2 (en) 2020-10-14 2022-07-26 1Ahead Technologies Security surveillance and entry management system
US11854328B2 (en) 2020-10-14 2023-12-26 1Ahead Technologies Access management system
US11468723B1 (en) 2020-10-14 2022-10-11 1Ahead Technologies Access management system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003287708A (ja) * 2002-03-28 2003-10-10 Seiko Epson Corp 視覚拡張装置および表示システム
JP2004219664A (ja) * 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd 情報表示システム及び情報表示方法
JP2011203446A (ja) * 2010-03-25 2011-10-13 Fujifilm Corp ヘッドマウントディスプレイ装置
JP2011205358A (ja) * 2010-03-25 2011-10-13 Fujifilm Corp ヘッドマウントディスプレイ装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5621424A (en) 1992-08-24 1997-04-15 Olympus Optical Co., Ltd. Head mount display apparatus allowing easy switching operation from electronic image to external field image
JPH08191419A (ja) * 1995-01-10 1996-07-23 Yamaha Corp 頭部装着型表示システム
US6353422B1 (en) 2000-03-31 2002-03-05 Stephen G. Perlman Virtual display system and method
US6688745B2 (en) * 2001-10-25 2004-02-10 Johnson & Johnson Vision Care, Inc. Subjective refinement of wavefront measurements
JP2006208451A (ja) * 2005-01-25 2006-08-10 Konica Minolta Photo Imaging Inc 映像表示装置
US8290358B1 (en) * 2007-06-25 2012-10-16 Adobe Systems Incorporated Methods and apparatus for light-field imaging
JP4825244B2 (ja) * 2008-06-26 2011-11-30 オリンパス株式会社 立体視画像表示装置、立体視画像表示方法
CN101872579B (zh) * 2009-04-22 2014-03-12 季中 显示面板及其显示方法、显示装置
US9350978B2 (en) * 2009-05-29 2016-05-24 Two Pic Mc Llc Method of defining stereoscopic depth
KR101608970B1 (ko) * 2009-11-27 2016-04-05 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
US20130285885A1 (en) * 2012-04-25 2013-10-31 Andreas G. Nowatzyk Head-mounted light-field display
US9557565B2 (en) 2012-07-02 2017-01-31 Nvidia Corporation Near-eye optical deconvolution displays
US8754829B2 (en) 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
DE102012215041A1 (de) * 2012-08-23 2014-02-27 Siemens Aktiengesellschaft Verfahren zur Herstellung eines Halbleiterelementes eines direktkonvertierenden Röntgendetektors
US8891954B1 (en) * 2013-06-19 2014-11-18 ExpoImaging, Inc. Light focusing device
JP6026836B2 (ja) * 2012-09-28 2016-11-16 パイオニア株式会社 画像表示装置、制御方法、プログラム及び記憶媒体
EP2720464B1 (en) * 2012-10-11 2018-01-10 Sony Mobile Communications Inc. Generating image information
CN203206287U (zh) * 2013-01-31 2013-09-18 成都精彩宏途科技信息有限公司 基于移动互联网三维地理信息系统
WO2014145166A2 (en) 2013-03-15 2014-09-18 Eyecam, LLC Autonomous computing and telecommunications head-up displays glasses
US9519144B2 (en) * 2013-05-17 2016-12-13 Nvidia Corporation System, method, and computer program product to produce images for a near-eye light field display having a defect
US9452354B2 (en) * 2013-06-07 2016-09-27 Sony Interactive Entertainment Inc. Sharing three-dimensional gameplay
WO2014203440A1 (ja) * 2013-06-19 2014-12-24 パナソニックIpマネジメント株式会社 画像表示装置および画像表示方法
US9736461B2 (en) * 2013-06-19 2017-08-15 TrackThings LLC Method and apparatus for an attachable unit for a portable wireless system
CN104463949B (zh) * 2014-10-24 2018-02-06 郑州大学 一种基于光场数字重聚焦的快速三维重建方法及其系统
CN104469183B (zh) * 2014-12-02 2015-10-28 东南大学 一种x射线闪烁体成像系统的光场捕捉和后处理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003287708A (ja) * 2002-03-28 2003-10-10 Seiko Epson Corp 視覚拡張装置および表示システム
JP2004219664A (ja) * 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd 情報表示システム及び情報表示方法
JP2011203446A (ja) * 2010-03-25 2011-10-13 Fujifilm Corp ヘッドマウントディスプレイ装置
JP2011205358A (ja) * 2010-03-25 2011-10-13 Fujifilm Corp ヘッドマウントディスプレイ装置

Also Published As

Publication number Publication date
JP7109509B2 (ja) 2022-07-29
EP3289401A1 (en) 2018-03-07
US20160323567A1 (en) 2016-11-03
KR20170105617A (ko) 2017-09-19
US10715791B2 (en) 2020-07-14
EP3289401B1 (en) 2023-07-26
WO2016176309A1 (en) 2016-11-03
KR102028088B1 (ko) 2019-10-02
JP6837003B2 (ja) 2021-03-03
JP2018523321A (ja) 2018-08-16
EP4236310A3 (en) 2023-09-20
CN107438788A (zh) 2017-12-05
EP4236310A2 (en) 2023-08-30

Similar Documents

Publication Publication Date Title
JP6837003B2 (ja) 眼と異なるレンズの位置を補正する、実際のシーンを見るための仮想眼鏡セット
US11381804B2 (en) Light projector using an acousto-optical control device
JP7094266B2 (ja) 単一深度追跡型の遠近調節-両眼転導ソリューション
US11435576B2 (en) Near-eye display with extended accommodation range adjustment
US10397539B2 (en) Compensating 3D stereoscopic imagery
US10241329B2 (en) Varifocal aberration compensation for near-eye displays
WO2021112990A1 (en) Predictive eye tracking systems and methods for foveated rendering for electronic displays
JP6658529B2 (ja) 表示装置、表示装置の駆動方法、及び、電子機器
US10516879B2 (en) Binocular display with digital light path length modulation
CN104598180B (zh) 显示控制方法、装置及近眼显示设备
CN109495734A (zh) 用于自动立体三维显示器的图像处理方法和设备
CN106415364A (zh) 立体渲染至眼睛位置
JP2022075797A (ja) コンテンツをクリッピングし、視認快適性を増加させるためのディスプレイシステムおよび方法
US20160086378A1 (en) Immersive displays
WO2018133221A1 (zh) 影像画面的显示控制方法、装置及头戴式显示设备
US11533443B2 (en) Display eyewear with adjustable camera direction
Hwang et al. Instability of the perceived world while watching 3D stereoscopic imagery: a likely source of motion sickness symptoms
JP2020515090A (ja) 画像レンダラと光コンバイナとを用いる表示装置および表示方法
US20150356714A1 (en) System and method for using digital displays without optical correction devices
EP3566093A1 (en) Near-eye display with extended accommodation range adjustment
Gurrieri Improvements in the visualization of stereoscopic 3D imagery
Surman et al. Latest research at the advanced displays laboratory at NTU
WO2014175778A1 (ru) Способ реализации адаптивного видео
EP3370100A1 (en) Virtual and augmented reality apparatus, near-eye displays comprising the same, and method of displaying virtual and augmented reality
MX2009008484A (es) Anteojos vision estereoscopica y periferica 3d.

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200901

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220719

R150 Certificate of patent or registration of utility model

Ref document number: 7109509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150