JP7426118B2 - デジタル収差補正を有する複合現実光学システム - Google Patents

デジタル収差補正を有する複合現実光学システム Download PDF

Info

Publication number
JP7426118B2
JP7426118B2 JP2021502427A JP2021502427A JP7426118B2 JP 7426118 B2 JP7426118 B2 JP 7426118B2 JP 2021502427 A JP2021502427 A JP 2021502427A JP 2021502427 A JP2021502427 A JP 2021502427A JP 7426118 B2 JP7426118 B2 JP 7426118B2
Authority
JP
Japan
Prior art keywords
optical
image
optical system
data
eye tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021502427A
Other languages
English (en)
Other versions
JP2021526700A (ja
Inventor
ヴァレリーヴィチ シムニコ,ドミトリー
Original Assignee
アルマレンス,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from RU2018116223A external-priority patent/RU2679915C9/ru
Application filed by アルマレンス,インコーポレイティド filed Critical アルマレンス,インコーポレイティド
Publication of JP2021526700A publication Critical patent/JP2021526700A/ja
Application granted granted Critical
Publication of JP7426118B2 publication Critical patent/JP7426118B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0189Sight systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • G02B2027/0116Head-up displays characterised by optical features comprising device for genereting colour display comprising devices for correcting chromatic aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Description

本発明は、広義には、光学システムの分野に関し、具体的には、仮想現実(VR)システムおよび/または拡張現実(AR)システムに使用される光学イメージングデバイスに関するものである。
より詳細には、本発明は、デジタルコンポーネント(すなわち、計算ソフトウェア)によってVR/AR光学システムの収差を補正することを可能にする。本発明は、追加の光学素子または設計変更を導入することなく、品質を改善することにより、VR/AR光学システムの光学設計の限界および/または適用範囲を拡張する。
仮想現実(VR)とは、人工的にシミュレートされた3次元(3D)環境として定義され、ユーザはその中に没入することができる。VRの2つの重要な価値は「没入性」と「インタラクティブ性」である。没入性は、五感すべてがVRに関与しているときに発生し、インタラクティブ性は、ユーザが体の動きを通じて自分の環境と対話できるときに達成される。
このため、感覚フィードバックと仮想世界は、仮想環境を構築するために必要な二つの要素である。仮想世界とは、結果として得られる仮想環境を意味のあるものにする、環境内の仮想オブジェクトとそれらの関係を含むものである。感覚フィードバックは、ユーザの感覚状態を一定の時間間隔で反映している。
VRは実世界の環境をシミュレートされたものに置き換えるのに対し、拡張現実(AR)は、実世界の現在の(リアルタイム)知覚を変更し、その要素が、理想的には現実世界と空間的に位置合わせされた複数の感覚モダリティ(例えば、視覚、聴覚、触覚、体性感覚および嗅覚)にわたって、コンピュータの生成した知覚情報によって「拡張」された(または差し引かれた)実世界環境のライブビューを提供し、没入性を可能にする。「複合現実」は、本明細書では、VRおよび/またはARイメージング技術を含む用語として定義される。
ヘッドマウント(またはヘルメットマウント)ディスプレイ(HMD)は、VR/ARに関連する最も認識し易いデバイスである(「VRメガネ」と呼ばれることもある)。リハビリテーションからデータの視覚化まで、HMDベースの複合現実技術は、ゲーム、軍事、航空、医療、エンジニアリングなど、数多くの用途があることが分かっている。
通常、HMDは、片眼または両眼の前に小さなディスプレイを有する、頭部に(またはヘルメットの一部として)装着されるディスプレイデバイスに基づくものである。広義には、HMDは、ユーザの頭部に装着されて、ユーザの周辺視野を含む視覚情報を直接眼に提示するデバイスとして定義することができる。
HMDは、その動作技術および視覚情報により異なり、具体的には、コンピュータ生成画像(CGI)のみ、現実世界からのライブ画像、またはその両方の組合せを表示する点において異なる。
HMDは、その眼タイプによって、単眼(片眼視)と両眼(両眼視)とにも分類され、任意選択的には、立体視覚のために各眼に僅かに異なる画像の視点を提供する。
HMDはさらに、ビデオ透過、光学透過および投影型に分類することができる。透過アプローチでは、仮想環境が(現実の)ビデオフィードに置き換えられ、ARがデジタル化された画像に統合される。光学透過アプローチでは、透過光学コンバイナ(例えば、半透明ミラー、プリズムまたはホログラフィック光学素子)を使用して、AR情報が現実世界に直接加えられる(重ね合わせられる)。投影HMDでは、AR画像が実際のオブジェクトに投影され、ユーザの眼に後方反射される。
また、網膜投影(網膜スキャンディスプレイ[RSD]または網膜プロジェクタ[RP]としても知られている)技術もHMDに適用可能である。それは、ユーザの眼の網膜に直接画像を投影(ラスタリング)する。ユーザは、眼の前の空間に、従来のディスプレイが浮かんでいるように見える。網膜投影技術により、外部スクリーンや複雑な光学素子が不要になる。現世代の網膜投影型VRヘッドセットは、眼の近くに配置された小さなスクリーンの視覚距離を調整するために特別なレンズを利用している。
HMDを設計する際の課題は、高い画像品質とコンパクトさの両方を実現することである。そのような仕様は、(ユーザの頭にフィットするという)幾何学的な制約によって大きな幾何学的収差が引き起こされるため、困難である。
殆どのVR/ARシステムは、何らかの形の(位置)トラッキングを利用しており、それは、HMDの外部にあるセンサやカメラを使って実行されることが多い。それらの周辺機器は、デバイスの範囲内のどこであっても、ユーザの頭、体および手の位置を追跡することができる。
特定のHMD構成には、ユーザの注視点を測定し、コンピュータがユーザの視線(ユーザがどこを見ているか)を検知することを可能にするアイトラッキング手段が含まれる。この情報は、ユーザインターフェースナビゲーションが使用される様々なVR/ARアプリケーションにとって重要である。ユーザの注視(線)を検知することにより、システムは、特定の(例えば、追加された)詳細にユーザの注意を引くことで、(HMDによって表示される)情報を変更することができる。
アイトラッキングリアルタイム測定(およびその外挿)は、HMDの視覚データを変更するために使用される。例えば、HMDは、潜在的に、自然な視覚をより良くシミュレートするために(すなわち、より優れた没入性のために)、表示される視野の深さを変更することができる。また、VRオブジェクトは、ユーザの視線に反応したり、ユーザが仮想世界でVR/ARアイテムを選択できるようにしたりすることもできる。HMDにアイトラッキング技術を使用することは、真にリアルなVR/AR体験のために不可欠であることが証明されており、遥かに自然に簡単な方法でユーザインターフェース対話を可能にする。
過去数十年の間に、高品質の光学部品やシステム(例えば、一眼レフ[SLR]カメラ)をサポートするために、イメージング光学系はますます複雑になってきている。高度に複雑な光学素子は、通常、利用可能な開口率を効果的に使用するために、そして重要なことに、単純なレンズ素子に内在する望ましくないアーチファクトを補償するために必要とされる。
一般に、どの光学システムも、幾何学的歪み、色収差(波長依存焦点面)、球面収差(光軸距離依存焦点距離)、コマ(焦点に対する角度依存性)などの光学アーチファクトの影響を受ける可能性がある。このようなアーチファクト(すなわち、理想的な「薄レンズ」モデルからの非線形偏差)を最小化することは、イメージングシステム全体の効率を最適化する上で重要な部分である。
単一の光学素子の各々は、そのようなアーチファクトに悩まされているため、特に高品質のイメージングが(例えば、写真撮影において)必要とされる場合には、通常、様々なレンズ素子の組合せが使用されることが多かった。しかしながら、複雑な収差補償光学システムは、遥かに優れた幾何学的イメージング特性を有するが、製造コストの高さ、重量、レンズフレア、信頼性の低下などに悩まされている。
具体的には、一般的なHMD-VRシステムは、そのウェアラブルな性質のために、システムを可能な限りユーザの邪魔にならないようにするために、比較的薄くて軽量なVR/ARレンズを採用している。当然のことながら、小型軽量の(大量生産のため比較的安価な)光学素子を使用すると、例えば、多くの場合数十個の光学素子で構成される高品質のレンズと比較して、光学システムの品質が低下する。そのような画質の低下は、HMDディスプレイに使用されるより薄い/より小さい(多くの場合、プラスチックおよび/またはフレネルレンズコンポーネントで作られている)レンズが収差を生じて、最終的にユーザのVR体験を損ない易い、という事実に起因している。
現代のVR HMD製造業者は、より高い解像度のディスプレイに移行しているが、画質は既に、光学システムの能力の限界に近付いている。代替的なアプローチには、例えばMassofによる米国特許第6,529,331号に記載されているように、画像解像度を向上させることを意図した煩雑な複数のコンポーネント構成が含まれており、この構成では、高解像度HMD-VR体験のためにディスプレイのアレイ(例えば、各眼毎に13個のディスプレイおよび対応する光学素子)が提案されている。
Antonによる国際公開第2017/108211号は、接眼部および像面がある角度(好ましくは1°~5°)だけ相対的に傾斜して、視野を通して軸上および軸外の光学収差(非点収差など)を平均化するHMDの実施形態を記載している。さらに、この発明では、光学部品の非フレネル光学面が、色収差を低減するための特定の回折面を構成することができる。
明らかに、従来の光学設計は、低重量/小さいフットプリント/低コストと、高解像度および低光学収差光学系との組合せなど、最新のVR/ARシステムのための相互に矛盾する要件に対処することができない。
(HMDのウェアラブル性によって制限される)物理的なHMDの変更とは別に、(入力画像を生成するために使用される)HMD光学システムの詳細な知識も、望ましくないアーチファクトの補正において重要な役割を果たす可能性がある。この(レンズプロファイルに基づく)知識は、計算上の(すなわち、デジタルの)収差補正に使用することができる。
レンズプロファイルベースの画像補正方法は、典型的には、様々なタイプのレンズ歪み(例えば、高コントラストエッジでのカラーフリンジ、口径食など)の(自動)補正のために、光学レンズ/システムの既知の特性を利用する。例えば、Enomotoによる米国特許第6,862,373号に記載の方法は、光学素子(レンズ)によって撮影された画像からの入力データと、この画像を記録するために使用されたレンズに関する情報の両方を取得することを説明している。この方法は、記録時の焦点距離および絞り(すなわち、レンズ開口絞り)に関する情報と、画像中の収差およびケラレを補正するためのレンズ特性に関する情報を使用する画像処理をさらに説明している。
例えば、Beuret等は、HMDの収差を動的に補正するために空間光変調器(SLM)回折素子を使用して透過HMDに適用される実験的な収差補正について述べている。しかしながら、そのようなシステムは、SLM、ホログラフィックコンバイナ、集中的なリアルタイム画像処理など、必要なコンポーネントの性質上、実用的ではないことが分かる。
我々の知る限りでは、デジタル収差補正は、(標準的な歪み補正と横方向の色収差の放射状称部分を除いて)HMDベースの複合現実システムに未だ効果的に適用されていない。
本開示は、このHMD光学システムについての予め計算されたプロファイルやユーザの眼の位置などの事前情報を含むデジタルアルゴリズムを適用して、複合データ(すなわち、エミュレートおよび/またはキャプチャされたVR/ARシーン)から得られた入力画像のリアルタイム画像処理を提案する。
また、開示の技術は、アイトラッキングシステムを利用して、ユーザの瞳孔位置を測定する(例えば、ユーザの視線を計算する)。一般的なアイトラッキングの原理はよく知られ、他にも記載されており(例えば、Bouvinによる米国特許第8,120,577号を参照)、この文献では、眼球の動きに合わせたカメラが、ユーザによって着用される眼鏡フレーム内に配置されている。
本発明の好ましい実施形態では、「デジタルレンズ」が、電子光学収差補正のための非ブラインド・デコンボリューションアプローチに基づいており、これは特に(軽量の)HMD VRシステムのために最適化されている。同様の方法は、Shmunkによる国際公開第2012/018282号に最初に開示されており、同文献には、既存の光学イメージングシステムの知識(すなわち、プロファイリング)に基づく同様の非ブラインド・デコンボリューション手法が記載されている。この国際公開第2012/018282号では、人工ニューラルネットワーク(NN)が同様の方法で適用されているが、(本開示の単一の入力画像における収差の低減とは対照的に)複数の入力画像を使用して光学解像度を向上させることに重点が置かれている。
一般に、点像分布関数(PSF)は、光伝播およびイメージングシステムの性能を予測する上で重要な特性である。このため、本発明の好ましい実施形態では、「デジタルレンズ」が、画像の様々なスケール(すなわち、エミュレートおよび/またはキャプチャされた画像の詳細)に対するPSF抽出と、その後のNNトレーニングとに基づいている。
本開示は、(例えば従来の)低コストの光学部品を使用しながらも、品質が改善された(HMDベースの)VR/ARシステムを説明する。提案する設計は、複雑な(大きく、重く、高価な)光学システムの必要性を排除すると同時に、より優れた画質を提供し、最終的には、より優れたユーザのVR/AR体験を提供する。
具体的には、複雑な光学系を使用する代わりに、HMD光学システムの収差を補正するための前処理または後処理の演算コンポーネントを追加することにより、VR性能の向上が達成される。このようなコンポーネント(すなわち、開示のアルゴリズムに基づく演算処理)を、以下、光学システムの「デジタルレンズ」と称する。通常、そのようなデジタルレンズ(DL)は、以下に詳細に述べるように、予め規定された光学システムの光学プロファイリングと、ユーザの瞳孔位置の知識とを含む。
開示の方法は、VR/AR HMDベースのシステムの適用可能性を拡大する。これは、既存のレンズ/ディスプレイ設計に適用することも、典型的なハードウェアの制約から解放された新しいHMD設計で使用することもできる。さらに、開示の本発明は、任意のHMD構成および技術(プリズム、半透明ミラー、プロジェクタ、フレネルレンズなど)に適用可能である。
本発明の更なる特徴および態様は、添付図面に関する好ましい実施形態および任意選択的な実施形態の以下の説明から明らかになるであろう。
本発明は、コンピュータ生成画像、実世界の画像(またはその可能な組合せ)などの複合現実データを入力画像の形式で受信するように設計された光学システムに基づくヘッドマウントディスプレイ(HMD)について述べる。光学システムは、そのような入力画像を処理するように設計されており、また、偶然に光学収差をその中に導入するように設計されている。さらに、本発明は、光学収差を補正するために適用されるデジタルレンズ(すなわち、デジタルアルゴリズム)を含む。
また、本発明は、ユーザの眼の位置またはユーザの視線方向を追跡するためのアイトラッキング手段も述べている。
デジタルレンズ自体は、結果とし生じる2つの手順に基づいている。第1の手順は、アイボックスデータおよび光学システムプロファイル(例えば、ニューラルネットワーク[NN]重み係数)を生成することを含む一方で、結果的として生じる第2の手順は、アイトラッキングデータを生成し、光学システムプロファイルを適用して、前記光学収差のない補正画像を形成する。その後、補正画像は、HMDのユーザに表示される。
さらに、第1の手順は、点像分布関数(PSF)抽出、NNトレーニング/重み係数抽出、近視野部分および遠視野部分へのPSFの分離、遠視野カーネルの計算、遠視野補正画像の生成を含むことができる。一方、第2の手順は、NNの開始、(再調整された)出力計算、再調整されたNNの出力値と低周波(LF)部分との合算を含むことができる。
本開示は、ハーフミラーベース、プリズムベース、導波管ベース、または網膜スキャンベースのシステムなどの様々なHMD構成に適用することができ、任意選択的には、ユーザの左眼および右眼のために設計されている。
アイトラッキングデータは、瞳孔/眼球の3次元座標、または視線方向を含む。さらに、アイトラッキングデータに関連して、中心窩イメージングを実行することができる。
さらに、本開示は、説明するHMDシステムに基づいて、光学収差を除去するための光学イメージング方法を述べている。そのような方法は、NNトレーニングのためのLevenberg-Marquardtアルゴリズムを含むことができる。
図1aおよび図1bは、先行技術のHMDシステムの例である。 図2は、先行技術の既存の適用可能なHMDシステムの概要図である。 図3は、HMD VR/ARシステムへのデジタルレンズの適用の概要図である。 図4は、光学収差補正方法の概要図である。 図5は、チャートおよび画像の幾何学的およびラジオメトリックアライメント(手順1)を示している。 図6は、光学システムのプロファイリング(手順1)を示している。 図7は、遠視野画像補正および点像分布関数(PSF)抽出(手順1)を示している。 図8は、眼の位置に対する色収差の依存性を示している。 図9は、概略的な画像処理(手順1および手順2)を示している。
本開示において、「HMD」という用語は、ユーザの頭部に装着されるように適合されたハウジングとして定義され、ハウジングは、HMD光学システムを保持して、複合データを処理し、その処理されたコンテンツを表示画像の形式でユーザの視覚野に提示するように適合されている。
本開示では、「表示画像」という用語は、視聴者によって観察される画像を指している。
本開示において、「複合データ」という用語は、コンピュータ生成画像(CGI)によって生成された(すなわち、エミュレートされた)画像情報として定義され、この画像情報は、任意選択的には、実世界の情報によって拡張され(すなわち、ARアプリケーション)、実世界の情報は、カメラによってキャプチャされるか、またはHMD光学システムによってユーザの眼に直接伝えられる。
入力画像は、前述した複合データ(すなわち、CGIのみ、または現実世界の画像を含むCGI)によって形成される視覚情報である。具体的には、本開示では、「入力画像」という用語は、CGI、現実世界からの画像、またはそれらの任意の組合せを含む画像として定義される。
(HMD)光学システムは、入力画像を受信し、そのコンテンツを表示画像に変換するように適合されている。「光学システム」という用語は、DL(すなわち、デジタルレンズにデータを提供するアイトラッキングシステムを有するデジタルレンズ)を除く、表示画像を作成するために使用されるHMD光学システムのすべてのコンポーネントとして定義される。
「キャプチャ画像」という用語は、本明細書では、デジタルカメラによってキャプチャされた画像を指している。キャプチャ画像は、入力画像の一部であってもよいし(例えば、HMDのAR実装の場合)、入力画像から完全に除外されるものであってもよい(例えば、VR HMDアプリケーションの場合)。
CGIデジタルコンテンツは、コンピュータ処理手段(例えば、GPU-グラフィックス処理ユニット)によって作成されて、HMDハウジング内に統合されるか、または別個に配置される、すなわち、光学システムと(ケーブルまたは無線によって)接続される。
(HMD)光学システムは、ユーザが光学システムを介して周囲の環境(実世界)を見ることができるように、透過性(シースルー)になるように適合させることができる。代替的な光学システムの実施形態は、投影ベースのHMDおよび網膜投影ベースのHMDを含むことができる。
本発明の好ましい実施形態では、アイトラッキング測定が、HMDに統合された又は別個に使用されるアイトラッキングシステムによって実行される。「アイトラッキングシステム」とは、ユーザの瞳孔の位置と、場合によってはユーザの視線方向とを測定する(すなわち、リアルタイムで追跡する)ために使用されるシステムとして定義される。このようなアイトラッキング測定値を、以下「アイトラッキングデータ」と称する。
アイトラッキングデータは、表示される視覚情報を事前に補正するために使用される。本発明の好ましい実施形態では、シースルー(ビデオまたは光学の何れか)、ニアアイ、複合現実ディスプレイデバイスの共有光学系を使用して、アイトラッキング(カメラベースまたはカメラレスの何れか)と表示機能を統合するための技術が提供される。
ユーザのアイトラッキングデータ(例えば、瞳孔の位置)の知識は、「中心窩イメージング」技術を実装することを可能にする。一般に知られているように、「中心窩イメージング」は、単一または複数の「固定点」に従って、画像解像度(または詳細量)が画像全体にわたって変化するデジタル画像処理技術である。本発明に関連して、固定点は、入力画像の最も高い解像度領域を示し、眼の網膜の中心、すなわち中心窩に対応する。
本発明の好ましい実施形態では、アイトラッキング可能な中心窩イメージングにより、デジタルレンズアルゴリズムを入力画像に選択的に適用することが可能になる。具体的には、最も強い収差補正(入力画像の最も高い解像度領域)が、ユーザの視線、すなわちユーザの中心窩に対応する(入力画像内の)固定点の周りに適用される。このような最も強い収差補正は、非点収差および/または球面収差によるスミアの補正を含む。入力画像の残りの部分は、例えば横方向の色収差のみを補正することによって、より単純な手法で処理することができる。
HMDシステムの先行技術例として、Heinrichによる米国特許第9,429,772号およびKressによる米国特許第9,658,453号によるものが図1(a)および図1(b)にそれぞれ示されている。後者の技術(Kress)には、ディスプレイユニットまたは(HMDでよく使用される)回折コンバイナの何れかに起因する種々の光学的欠陥を補正する光学素子が記載されている。Kressは、回折光学コンバイナ(フラット、平面設計)による表示光の反射が理想的ではなく、その結果、(反射された表示光の)歪み、色滲み、球面収差、コマ収差、非点収差などの光学的収差が生じることを認めている。
回折光学コンバイナは、一部の設計では湾曲させることができるが、その場合、複雑さが増し、追加の製造ステップも必要となる。さらに、色滲みは、単一色または単色の表示源を使用することによって対処することができるが、残りの光学収差のうち、非点収差は、依然として、画質を最も低下させる主要な収差である。Kressはさらに、(眼への反射時に回折光学コンバイナによって導入される光学収差を補正するために)取り得るステップを述べており、このステップは、上述した他の光学収差に加えて、回折光学コンバイナによって誘発される非点収差の少なくとも一部を事前に補償するように設計された追加の光学素子を含む。そのような光学素子は、クリップ、ヒンジングクラスプまたはクランプ、透明接着剤、摩擦係合または別の方法で、挿入し、スライドさせ、取り付けることができる。
光学シースルーヘッドマウントディスプレイ(OST-HMD)の様々な設計が図2に示されている。具体的には、図2は、OST-HMDの(a)ハーフミラータイプ(すなわち、半透明平面ミラーまたは立方体プリズム)、(b)プリズムベースタイプ、(c)導波管ベースタイプ、(d)網膜スキャンタイプをそれぞれ概略的に示している。
図3を参照してさらに説明するように、HMD動作中に補正画像を得るために、画像(31)は、最初にデジタルレンズ補正要素(32)を通過し、その後、従来の1または複数の光学素子(34)(例えば、薄いプラスチックレンズ)を有するHMDデバイス(33)に出力される。その後、補正された画像(36)は、ユーザの眼(37)によって観察される。この補正画像(36)は、図3に概略的に示すように、収差がなく、デジタルレンズ(32)が適用されていない従来の処理画像(35)と比較して、より高い解像度を有する。本開示の目的は、従来の画像(35)と比較して、より良好でより現実的なVR/AR体験のために補正画像(36)を使用することである。
本開示は、表示イメージングパイプラインにおける事前補正ステップとしてデジタルレンズ(以下、DL)を使用することを提案する。そのようなDLは、仮想的な「補正レンズ要素」として機能し、収差補正に必要な追加の(例えば、重くて複雑な)光学素子の必要性を排除する。そのようなDL要素を形成するために、本発明の好ましい実施形態では、高品質/高解像度カメラが、HMDの通常の動作中に観察者の眼の位置に対して正確に配置され、プロファイリング画像がこのカメラでキャプチャされる。その後、後述するように、光学システムプロファイルが作成される。
さらに、前述したように、HMDは、(アイトラッキングシステムによる)瞳孔位置トラッキングを含む。光学システムの残りの部分に対する眼の位置を知ることによって、そのようなシステムで発生する収差の正確なDL補正が可能になる。
DLを使用することにより、色縁が除去され、収差のある原画像のコントラストと細部が見えるようになる。DLは、縦方向の色収差やHMD光学素子のMTF(変調伝達関数)劣化を引き起こす収差を含む、前述したすべてのタイプの収差を潜在的に補正することができる。
(上記で定義されるような)入力画像の一般的な場合の(光学システムの仮想要素としての)DLのHMDベースのVRシステムへの適用は、図4に関連して概略的に示されており、ここでは、HMD(410)がHMD光学システムのコンポーネント(40)~(47)を備えている。
ここで、複合データ(40)(すなわち、VR/ARシーン)は、CGI(41)のみによって(例えば、VRアプリケーションのために)提供されるか、またはCGI(41)とカメラ(42)によって観察されたキャプチャ画像(43)(すなわち、実世界の画像)との組合せとして提供される。
結果として得られる生成物(44)は、(上記で定義されるような)入力画像であり、本質的には、HMD(410)に提供される入力情報である。
その後、デジタル収差補正は、入力画像(44)に含まれる収差を補正するために適用される演算コンポーネント(45)(すなわち、DL)によって、HMDの従来のレンズ(49)の適用に先立って実行される。
得られる表示画像(47)は、従来の対物/光学レンズ(46)を適用した後に得られる。得られる表示画像(47)は、入力画像(44)に本質的に含まれる前述した収差のない、大幅に改善された入力画像(44)を表しているという意味で、補正された画像である。
重要なことに、DL(45)のデジタルアルゴリズムには、特定の「外部」データ、具体的には「光学プロファイル」情報(48)およびアイトラッキングデータ(49)(例えば、瞳孔の位置)が提供される。
アイトラッキングデータ(47)がアイトラッキングシステムによって提供されるのに対し、光学プロファイル情報(46)は、HMD(410)のプロファイリングによって得られる。
具体的には、DL(45)が適用されていない状態で(すなわち、HMDの実際の動作に先立って)、HMD(410)の光学システムをプロファイリングすることにより、光学プロファイルデータ(46)が作成される。このHMDの光学的プロファイリングについては、(手順Iとして)さらに詳細に述べる。
開示の本発明は、好ましくはHMD適応光学システムにおいて、好ましくはさらに詳細に述べる非ブラインド・デコンボリューション技術を使用して、光学収差を補正するタスクに役立つ。本明細書では、「非ブラインド」という用語は、本発明が、対象となる光学システムを「プロファイリング」することによって既知の(例えば、事前に評価された)点像分布関数(PSF)を利用するという意味で使用される。一般に、PSFは、点状のオブジェクトまたは点光源に対するイメージングシステムの(3次元的な)応答を説明する。機能的には、PSFは、空間領域におけるイメージングシステムの伝達関数である。
具体的には、本開示の方法は、光学システムの計算上の収差補正を、以下のように2つの別々の手順に分離することに基づいている。
手順I:光学システムのプロファイリング。具体的には、(例えば、HMDベースの)光学システムに関する情報を含む「光学プロファイル」を取得する。この手順では、この光学システムによって誘発される収差を最適に補正する方法の情報が得られる。その後、この情報は、この特定の光学システムのための「光学プロファイル」の形式で保存される。通常、このような光学システムのプロファイリングは、時間のかかる反復的なプロセスである。幸いなことに、選択した光学システムに対してそれを実行するのは一度(例えば、設計/製造されたとき)だけである。
手順II:光学システムの収差の補正。ここでは、光学システムで得られたデータ(画像)に直接DLを適用する。DLは、(手順Iからの)光学プロファイルの情報と、(アイトラッキングシステムによって得られた)アイトラッキングデータとを含む。結果として得られる、すなわち「補正」された画像は、さらに、画像信号処理手段および表示手段を介して(DL補正なしの場合と同様の方法で)処理および表示することができる。このステップは、非反復的で比較的高速であり、画像の光学収差補正を、例えばビデオ信号のフレームレートで、既存の画像プロセッサおよび/または電力に制約のあるモバイルデバイスの何れかで実行することを可能にする。
これらの2つの別々の手順IおよびIIは、本開示の上述したVR/AR HMDシステムを含む様々なイメージングアプリケーションのために最適化することができる。本発明の好ましい実施形態では、手順Iは、選択された光学システムを効果的にプロファイリングするために、人間の眼の位置を高品質の画像捕捉デバイスに置き換えることによって、選択されたHMD光学システムで実行される。その結果、この光学システムによって後で生成される任意の画像は、手順IIにおいて日常的に補正することができ、本質的に、そのような(例えば、不完全なHMD)光学システムに内在する収差を打ち消すことができる。
本発明の好ましい実施形態の手順Iは、2つの主要なステップを含み、具体的には、プロファイリング画像キャプチャおよび幾何学的/ラジオメトリックアライメントを行うステップ1と、光学システムの光学プロファイルを作成するステップ2とを有する。これらの2つのステップは、以下に詳細に記載されている通りである。
ステップ1(手順I):プロファイリング画像キャプチャおよび幾何学的/ラジオメトリックアライメント。図5を参照して以下に詳細に説明するように、このステップでは、コンピュータ生成チャートのセットが作成される。これらのチャートは、HMD上に表示される。その後、これらのコンピュータ生成チャートは、プロファイリングされる光学システムによって記録され(図4の(44)としても示されている)、通常はN個の、画像(51)のシーケンスを生成する。
画像のシーケンス(51)は、焦点距離、絞りサイズ(レンズの絞り値)、焦点距離などの光学システムのパラメータ(すなわち、キャプチャ時に使用されたカメラのメタデータ)の知識を含む。
このようなコンピュータ生成チャートの複数のシーケンス(すなわち、セット)は、通常のHMD操作中に観察者の眼を見付けることができる様々な異なる位置に正確に配置された別個の外部光学システム/カメラを用いて記録する必要がある。そのような位置(すなわち、HMDに対して瞳孔を配置することができる空間内のボリューム)は、アイボックスと呼ばれる。それらのコンピュータ生成チャートは、光学システムのプロファイリングに使用されるアイボックスデータを表している。
そのようなアイボックスデータは、観察者の眼の位置に関する収差特性に関する情報を提供し、本質的には、観察者の存在なしにアイトラッキングデータをエミュレートする。これは、眼球位置、瞳孔位置または視線方向(何れも、HMDの光学システム、すなわちアイボックスに対して合わされる)のうちの少なくとも1つのアイボックス測定に依存することができる。
図5にさらに示すように、キャプチャ画像のシーケンスからのチャート(51)の幾何学的およびラジオメトリックアライメント(53)が実行される。この目的のために、シーケンス(51)およびそれらのキャプチャされたバージョンからのプロファイリング画像のサブセット((52)の出力)は、幾何学的アライメント(すなわち、シーン/特徴のアライメント)およびラジオメトリックアライメントを容易にする(すなわち、各画像内の色値の非線形関数を推定し、それを適用して画像をラジオメトリックに整列させ、それにより、色値がシーケンスのすべての画像について一貫するようにする)ために使用される。
このようなアラインメント手順の間、コンピュータ生成チャート(51)は、記録された画像、すなわち、プロファイリングされるシステムによって生成されたチャート画像のバージョンと整列されることに留意されたい。そのような画像はすべて、同じカメラ設定で、同じ照明条件でキャプチャされるため、相互に位置合わせする必要はない。
幾何学的およびラジオメトリックアライメントのための様々な既知の画像処理技術が先行技術において報告されており、チャートの一致した色および幾何学的特徴に関して(可能な限り)正確な画像アライメントを提供することを目的として、本開示の方法で利用することができる。
このアライメント処理(53)の出力は、整列された画像(54)のペアである。本発明の好ましい実施形態では、コンピュータ生成バージョンに幾何学的およびラジオメトリックに整列された画像チャートのサブセットが、アライメントプロセスの出力(54)の一部として提供される。図5に示すように、そのようなペアは、いわゆる「チャート」と、対応する「整列」画像とを含む。
これらの画像(54)(すなわち、チャートおよびそれらの互いに整列されたバージョン)は、光学システムのプロファイルの作成において使用され、具体的には、特定の光学システムの収差を補正する方法についての知識を抽出するために、さらに使用される。
ステップ2(手順I):光学システムの光学プロファイルの作成。図6を参照して、光学システムのプロファイル作成の全体プロセス(手順I)を詳細に説明する。このプロセスは、入力画像のペア-チャートおよび整列画像(61)(図5の(54)も参照)から開始され、それらは(任意選択的に)タイルに分割される(62)。このデータは、遠視野画像補正および点像分布関数(PSF)抽出を含む遠視野補正(64)に渡される。遠視野補正(64)は、2つの出力、すなわち、光学システムプロファイル(63)に格納された遠視野カーネル係数と、近視野収差のみが残っているピクセルデータとを提供する。
それらのピクセルデータは、低周波(LF)/高周波(HF)分離(66)に従う。(66)の出力は、以下のようにNN(69)の入力として提供される。LF空間周波数を含むピクセルデータ(LF部分)は直接渡され、HF空間周波数を含むピクセルデータ(HF部分)はデータ調整(68)を受けてNN(69)に渡される。(62)(またはタイリングステップが使用されない場合は(61))から直接提供されるピクセルデータの(画像平面内またはタイル内の)座標は、NN(69)への別の入力を形成する。
NN(69)はさらに、ターゲットピクセルデータをトレーニングする必要がある。そのようなピクセルデータは、HFフィルタ(65)およびデータ調整(67)を介して、整列画像から提供される。また、トレーニング後に得られるNNの重みおよびバイアス(691)も、光学システムプロファイル(63)に格納される。
図6に示すように、チャートおよび整列画像(61)(またはそれらの整列タイル(62))のデータは、以下のように、データ空間周波数に応じて2つの部分に分離される。
一方の部分(65)には空間周波数の高いコンテンツ(以下、データから抽出されたHF部分と称する)のみが含まれ、他方の部分(66)にはHF部分とLF部分(以下、データから抽出された空間周波数の低いコンテンツと称する)の両方が含まれる。この分離は、ローパスカーネルとハイパスカーネルに基づく任意の周知の線形フィルタをそれぞれ適用することで実現できる。重要なことに、LF部分(66)は、一般に収差の影響を受けず、よって、処理せずにそのまま渡すことができる。しかしながら、HF部分(65)は、望ましい改善された画像を得るために適切に補正する必要がある。LF部分(66)およびHF部分(65)の両方は、上述したように、チャートおよび整列画像について、またはそれぞれのタイルについて(画像をタイルに分割する前述したオプションが使用される場合)、別々に抽出される。
図6に示すように、このステップでは、HF部分から以前に得られたピクセルデータが、調整手順(37)によって準備され(すなわち、「調整」され)、NNトレーニング(69)用の入力データ(参照)の役割を果たす。通常、NN(69)は、ほぼ未知の多数の入力に依存する関数係数(691)を推定(または近似)するために、機械学習において使用される。画像処理において、NNは、自己事前トレーニング手順のために参照(入力)画像を使用することができ、このことは、文献の他の場所に詳しく記載されている。
NNトレーニングの開始前に、様々な既知のデータ前処理手法を日常的に使用することができる。再調整(67)(NNトレーニング後のデータ操作)は、NNトレーニング効率を向上させるために、例えば、NNトレーニングエラーを低減するために使用することができる。再調整(67)は、前処理ステップ(68)の逆処理と(必ずしも同等ではないが)似ている。例えば、NNデータのダイナミックレンジが何らかの方法で縮小された場合、NNの出力は、対応するダイナミックレンジの拡大により再調整する必要がある。
本発明の好ましい実施形態では、(68)による前処理および(67)による後処理が、以下の任意の組合せを含む。
データのダイナミックレンジの縮小。一般に、NNは、限られたダイナミックレンジを有するデータが提供されるときに最適に動作する。データのダイナミックレンジを縮小するための周知の方法は数多く存在する。考えられる一つの方法は、入力ピクセルの値の合計または最大入力ピクセル値の何れかによって入力データを正規化することである。
ピクセルの値への非線形性の適用。このような非線形性は、小さな値を持つピクセルの寄与を強調するのに役立ち、よって、小さい振幅の入力に対してより正確な結果を生成するようにNNに指示する。これにより、出力画像の信号対雑音比(SNR)が向上する。例えば、導入された非線形性は、A(1-アルファ)の形式をとることができ、ここで、Aはピクセル値であり、アルファは小さな定数(通常は0.02~0.2の範囲内)である。
トレーニングが完了すると、(データの前処理および後処理を含む)NNアルゴリズムは、収差のある(例えば、ぼやけた)画像を、入力画像に限りなく近い(収差のない)画像に変換する方法についての情報(63)(すなわち、システムプロファイル)を得る。
NN(69)は、ピクセル単位で動作する。したがって、特定のピクセルの収差を補正するために、そのピクセルの((62)内の)特定の近傍が処理される。本発明の好ましい実施形態では、図6を参照して詳述するように、データが、NN入出力のために準備される。
NN(69)には、処理されたピクセルの位置の知識が提供され、これにより、NN(69)が所与のタイルにおけるPSFの変動に効果的に適応できるようになる。この目的のために、入力画像のピクセル座標は、画像(61)から取り出されるタイリングステップ(62)からNN(63)の入力に渡される。
画像タイル(62)からのHF部分(66)は、前述したデータ調整(68)を受けた後、NN(69)の入力に渡される。このHF部分(66)は、入力画像の特定の近傍内(例えば、処理されるピクセルからの距離が9ピクセル未満)のピクセルを用いて、抽出される。
また、タイル(62)から処理されたピクセルのHF部分(65)は、前述した「データ調整」(67)を受けた後に、NNの出力(69)に渡され、NNの出力データとして機能する。
さらに、入力画像タイル(62)からのLF部分(66)は、NN(69)の入力に渡される。前述したように、このLF部分(66)は、入力画像のより大きな近傍内の(例えば、処理されるピクセルからの距離が8ピクセルよりも大きい)ピクセルを用いて、抽出される。
すべての入力データおよび出力データが準備されると、NNトレーニングが開始される。
本発明の好ましい実施形態では、例えば、Levenberg-Marquardtなどの周知のトレーニングアルゴリズムを用いてトレーニングが実行される。トレーニングされたNN(図6のマーク(691))の重みが抽出され、遠視野補正ステップ(64)から得られたカーネルとともに「光学システムプロファイル」の形式で格納される。重みおよびカーネルは、各タイルごとに一意であるため、各タイルは、そのようなパラメータの独自のセットを有する。
以下、図7を参照して、遠視野画像補正(64)および点像分布関数(PSF)抽出のプロセスについて詳細に説明する。(カメラの視野によって提供される)画像(当初は図5の(54)として示されている)は、タイル分割手順(70)を使用して、チャート(72)および整列画像(71)のより小さい部分、以下「タイル」と称する部分に分割することができる。
PSFは、何よりもユーザの眼の位置を含む、光学システムの視野内の様々な特徴のサイズ、濃度および分布に依存するため、その性質上、非常に変動し易い。このため、図7に示すように、任意選択的なステップ(71)および(72)が、所与の光学システムの視野内におけるPSF形状の変動性を低減するために通常は実行される。単一の各タイル内では、PSFの変動性(すなわち、収差)は、(依然存在するが)低くなり、よって、元の(チャートおよび/または整列された)画像と比較して、より効果的に補正することができる。
その後、図7に関連して後述する、いわゆるリモート補正が実行される。PSF近似は、抽出された後(73)、2つの部分に分離され、その一つが、処理されるピクセルの特定の近傍内で計算される(例えば、6ピクセル未満の半径を有する)近視野部分(74)であり、もう一つが、近視野部分の半径の外側でPSF(および収差)が抽出される遠視野部分(76)である。
前述した入力データからのPSF近似(73)の抽出は、従来より知られている数多くの方法のうちの1つに基づくことができる(例えば、Felix等を参照されたい)。この報告された方法は、非常に良好なPSF推定を提供するが、非常に時間がかかる。計算負荷を軽減するためには、より単純な方法が遥かに好ましいであろう。
図7に示すように、開示の本発明の好ましい実施形態では、以下のアプローチを(73)に対して実行する。i)入力画像のタイルの2次元(2D)フーリエ変換を、整列画像の対応するタイルの2Dフーリエ変換で分割する。ii)その結果を2D逆フーリエ変換で逆変換する。
そのようなアプローチは、当業者にはよく知られている。なお、整列画像の周波数成分が低振幅となるノイズ成分の過剰増幅を回避するために、整列画像の周波数成分の値に保護バイアス値を追加する必要があることに留意されたい。
任意選択的には、遠視野カーネルを用いた遠視野画像補正をDL適用中に使用することができる。遠視野カーネル計算(75)およびコンボリューション(77)は、遠視野部分によって引き起こされる収差およびぼやけがすべて補正された画像をもたらす。選択された遠視野補正のパラメータ、すなわち遠視野補正(76)から得られたカーネル係数(75)は、後述するように、光学システムプロファイルとともに、後で使用するために記録される。
画像処理において、カーネルは、画像の修正(例えば、シャープ化、ぼかし、エッジ検出など)に使用される(画像自体よりも遥かに小さい)コンボリューション行列である。これは、特定のカーネルと選択された画像との間に行列コンボリューション操作を適用することによって達成される。
近視野PSFでは、出力画像における大きなノイズ増幅を伴わない単純な復元が不可能であるため、PSFの近視野部分(74)は破棄される。
前述した処理の(74)および(76)を近視野と遠視野とに分離する理由は2つある。第一に、遠視野補正は、ノイズを増幅せず、望ましくないアーチファクトを排除し、よって、より少ない計算リソースを必要とする比較的単純な方法によって実行することができる。第二に、そのような近視野補正は、処理される入力データの量が限られているため、処理要件がさらに軽減される。このような分離は、算術的に実行される。最も単純な方法では、ある半径内のすべてのPSF値が近距離部分を形成し、この半径外のすべてのPSF値が遠距離部分を形成する。しかしながら、実際には、それらの2つの部分の間には、滑らかな遷移領域が存在する。
遠視野部分(76)は、高周波数で振幅がゼロであるが低周波数で単位値に近づくウィンドウによって、周波数成分を乗算することによって得られる。ガウスの2D分布は、そのようなウィンドウの都合の良い例であろう。2D逆変換は、空間領域の遠視野部分(76)を得るために採用される。遠視野補正は高周波数の空間成分を持たないため、その適用では高周波数ノイズ成分の増幅は生じない。したがって、遠視野カーネル構築手順(75)は単純であり、周知の方法で実現することができる。
好ましい実施形態で使用される方法は、入力画像からの結果の減算に続いて、得られた遠視野PSFでの入力画像のコンボリューションを利用する。このような(比較的単純な)アプローチは、光学システムによって引き起こされる一次ぼやけおよび収差を効果的に補正するであろう。
なお、(処理に使用される)入力画像が既に収差を有しているという事実のために、いわゆる二次収差が依然として誘発される可能性があることに留意されたい。しかしながら、典型的な光学システムでは、遠視野効果は振幅が小さいため、そのような前述の補正の二次効果は無視できる程度である。
遠視野カーネル(75)が構築されると、その係数が光学システムプロファイルに渡される。その後、カーネルは入力画像タイルピクセルデータとコンボリューションされ(77)、その結果、(図6の(64)~(66)として示されている)遠視野補正の別の出力が得られる。この出力は、近視野収差のみを含むタイルである(78)。
図8は、HMDで使用される単一の従来の(プラスチック)要素(82)(通常のレンズまたはフレネル)が、光学システムの高い分散をもたらし、その結果、高いレベルの色収差を引き起こすという事実を例示している。横方向の色収差は、様々な場所で網膜に当たる様々なカラーチャネルとして現れる。図8は、このような横方向の色収差のユーザの眼の位置に対する依存性、具体的には、ユーザの眼(81)が光軸上に配置された場合(図8a)と、アイボックス内の軸外に眼の位置がある場合(図8b)における依存性を示している。拡大されたインレイ(83)に示されるように、(網膜に当たる光線の広がりとして示される)光学収差の量は、これらの2つの場合で異なる。
眼の位置に依存する収差に対処するために、アイトラッキングデータが、表示される視覚情報を事前に補正するために使用される。本発明の好ましい実施形態の手順IIは、図9を参照して詳述するように、リアルタイムのアイトラッキングデータを取得して、入力画像に先に説明したDLを適用することに基づいている。
アイトラッキングデータは、アイトラッキングシステムによるユーザの瞳孔位置の測定値である。本発明の好ましい実施形態では、例えばBohnによる米国特許第8,998,414号に記載されている、透過(ビデオまたは光学の何れか)、ニアアイ、複合現実ディスプレイデバイスの共有光学系を使用して、アイトラッキング(カメラベースまたはカメラレスの何れか)とディスプレイ機能を統合するための技術が提供される。図9に示すように、瞳孔位置/視線データ(993)は、NN(990)に提供され(図4の(47)も参照)、任意選択的には、遠視野補正(95)に提供される。
以下、DLアプリケーションについて詳細に説明する。図9に示すように、画像処理への入力は、入力画像(92)と光学システムプロファイル(96)である。元の画像ピクセルデータは、(任意選択的には)タイルに分割される(94)。それは、任意選択的には、光学システムプロファイル(96)からのカーネル係数を用いた遠視野補正(95)を受ける。
その後、ピクセルデータは、LF/HF分離(97)を通過し、この(97)の出力は、ニューラルネットワーク(990)への入力として提供され、LF空間周波数を含むピクセルデータは直接、HF空間周波数を含むピクセルデータは、データ調整(991)を経て、NN(990)に渡される。NN(990)へのさらに別の入力は、ピクセルデータの(画像平面内またはタイル内の)座標であり、これは(94)から直接与えられるか、タイリングステップが使用されない場合には(92)から与えられる。NN(990)の重みおよびバイアスは、光学システムプロファイル(96)から所与のタイルについて得られる。
前述したように、瞳孔位置/視線データ(993)は、リアルタイムでNN(990)に提供され、任意選択的には、遠視野補正(95)に提供される。
NN(990)の出力は、データ再調整(993)を受け、LF/HF分離フィルタ(97)からのLF出力と合計される(88)。合計された結果は、(タイルリングステップが使用された場合)個々のタイルから単一の画像に再結合され(93)、そのような再結合が、補正された出力画像(91)を形成する。
任意の入力シーンの処理(手順Iでプロファイル(96)がこのシステムのために既に準備されている)は、手順I(光学システムプロファイリング)と同様の処理を使用して実行され、データフローに僅かな変更があるだけである。
入力(92)は、処理される入力シーンであり、手順Iで説明したものと同様の方法で(図6および図7を参照)、タイリング手順(94)に渡される。
その後、遠視野補正(95)は、任意選択的には、手順Iで説明したものと同様の方法で(図7の(76)も参照されたい)実行される。手順Iで説明したものとの違いは、遠視野補正カーネルが光学システムプロファイル(手順I)から取得されていることにより既に知られているという点である。
その後、画像データは、手順Iで説明したLF/HF分離手順(図6の(66)を参照)と同様に、LF部分とHF部分に分離される(97)。HF部分はさらに、手順Iで説明した調整と同様に、ピクセルデータ調整手順(991)に渡される。
説明した手順(92)、(94)および(95)は、(手順Iで得られた)光学システムプロファイル(96)とともに、NN(990)のための入力データを形成する。それは、処理されるピクセルのLF部分と、特定の近傍のピクセル内のHF部分とを有するピクセル座標に関して、システムプロファイリングステップで手順Iの間に形成されたものと類似したデータである。
NN(990)の出力に続く処理は、最終的に、HMD光学システムを介して表示されたときに、収差が予め補償され、観察者によって見られる表示画像に現れないような「完全」な画像(91)を(タイル結合(93)を介して)形成する。具体的には、NN(990)の出力値は、本発明の好ましい実施形態ではデータ調整手順(990)の算術的逆数である「データ再調整」手順(992)に渡される。この結果は、処理されるピクセルのLF部分(97)と、手順(98)によって合計される。
最後に、入力画像のすべての処理済みタイル(93)は、単一の出力画像(91)を形成するために再結合される。本発明の好ましい実施形態では、(93)で結合されたタイルは、重複領域を有することが好ましい。これらの領域では、処理(93)の結果が、最終画像(91)への結合中に目に見える継ぎ目を排除するために、タイルからタイルへと滑らかに減衰される。そのような目に見える継ぎ目は、補正された出力からのタイル間の見かけ上の差異によって引き起こされる。
いくつかの例示的な実施形態を本明細書に開示および記載したが、当業者であれば、本発明の趣旨および範囲から逸脱することなく、数多くの修正および変更が可能であることを認識するであろう。また、本発明は、添付の特許請求の範囲のみによって規定されることが意図されている。

Claims (17)

  1. ヘッドマウントディスプレイ(HMD)であって、
    光学システムと、
    コンピュータで生成された画像、実世界の画像、またはそれらの任意の組合せである複合データと、
    前記光学システムによって取得され、前記複合データによって形成される入力画像と、
    前記光学システムによって前記入力画像に導入される光学収差と、
    アイトラッキングシステムと、
    前記光学収差を補正するための非ブラインド・デコンボリューションを有するデジタルレンズとを備え、
    前記デジタルレンズが、前記光学システムの光学収差を最適に補正するための第1の手順および第2の手順をさらに含み、前記第1の手順が、前記第2の手順に先立って実行され、
    前記第1の手順が、
    アイボックスデータを収集するステップと、
    光学システムプロファイルを作成するステップであって、前記光学システムプロファイルが前記アイボックスデータを含む、ステップとを含み、
    前記第2の手順が、
    前記アイトラッキングシステムによって取得されるアイトラッキングデータを形成するステップと、
    前記光学システムプロファイルおよび前記アイトラッキングデータを適用することにより補正画像を形成するステップであって、前記補正画像は、前記光学収差が補正された入力画像であるステップと、
    前記補正画像をユーザに表示することにより、表示画像を形成するステップとを含み、
    前記第2の手順が、
    NNを開始するステップと、
    NN出力値を計算するステップと、
    NN出力値から再調整されたNN出力を計算するステップと、
    再調整されたNN出力値と元の低周波(LF)部分とを合算するステップとをさらに含むことを特徴とするヘッドマウントディスプレイ。
  2. 請求項1に記載のシステムにおいて、
    前記第1の手順が、
    点像分布関数(PSF)を抽出するステップと、
    ニューラルネットワーク(NN)トレーニングを開始するステップと、
    NNの全てのNN重み係数を抽出するステップとをさらに含むことを特徴とするシステム。
  3. 請求項1に記載のシステムにおいて、
    前記光学システムプロファイルが、NN重み係数を含むデータであることを特徴とするシステム。
  4. 請求項1に記載のシステムにおいて、
    前記光学システムが、ハーフミラーベースのシステムであることを特徴とするシステム。
  5. 請求項1に記載のシステムにおいて、
    前記光学システムが、プリズムベースのシステムであることを特徴とするシステム。
  6. 請求項1に記載のシステムにおいて、
    前記光学システムが、導波路ベースのシステムであることを特徴とするシステム。
  7. 請求項1に記載のシステムにおいて、
    前記光学システムが、網膜スキャンベースのシステムであることを特徴とするシステム。
  8. 請求項1に記載のシステムにおいて、
    前記表示画像が、ユーザの左眼および右眼のために別々に形成されることを特徴とするシステム。
  9. 請求項1に記載のシステムにおいて、
    前記アイトラッキングデータが、ユーザの眼の瞳孔の3次元座標であることを特徴とするシステム。
  10. 請求項1に記載のシステムにおいて、
    前記アイトラッキングデータが、中心窩イメージングを含むことを特徴とするシステム。
  11. 請求項1に記載のシステムにおいて、
    前記アイトラッキングデータが、ユーザの視線方向であることを特徴とするシステム。
  12. 請求項1に記載のシステムにおいて、
    前記アイトラッキングデータが、ユーザの眼球の3次元座標であることを特徴とするシステム。
  13. ヘッドマウントディスプレイ(HMD)であって、
    光学システムと
    コンピュータで生成された画像、実世界の画像、またはそれらの任意の組合せである複合データと、
    前記光学システムによって取得され、前記複合データによって形成される入力画像と、
    前記光学システムによって前記入力画像に導入される光学収差と、
    アイトラッキングシステムと、
    前記光学収差を補正するための非ブラインド・デコンボリューションを有するデジタルレンズとを備え、
    前記デジタルレンズが、前記光学システムの光学収差を最適に補正するための第1の手順および第2の手順をさらに含み、前記第1の手順が、前記第2の手順に先立って実行され、
    前記第1の手順が、
    アイボックスデータを収集するステップと、
    光学システムプロファイルを作成するステップであって、前記光学システムプロファイルが前記アイボックスデータを含む、ステップとを含み、
    前記第2の手順が、
    前記アイトラッキングシステムによって取得されるアイトラッキングデータを形成するステップと、
    前記光学システムプロファイルおよび前記アイトラッキングデータを適用することにより補正画像を形成するステップであって、前記補正画像は、前記光学収差が補正された入力画像である、ステップと、
    前記補正画像をユーザに表示することにより、表示画像を形成するステップとを含み、
    前記第1の手順が、
    PSFを2つの部分に分割するステップであって、前記2つの部分が近視野部分と遠視野部分である、ステップと、
    前記遠視野部分から遠視野カーネルを計算するステップと、
    遠視野補正画像を生成するステップとをさらに含むことを特徴とするヘッドマウントディスプレイ
  14. ヘッドマウントディスプレイ(HMD)から光学収差を除去するための光学イメージング方法であって、
    HMDが、
    光学システムと、
    コンピュータで生成された画像、実世界の画像、またはそれらの任意の組合せである複合データと、
    前記光学システムによって取得され、前記複合データによって形成される入力画像と、
    前記光学システムによって前記入力画像に導入される光学収差と、
    アイトラッキングシステムと、
    前記光学収差を補正するための非ブラインド・デコンボリューションを有するデジタルレンズとを備え、
    前記デジタルレンズが、前記光学システムの光学収差を最適に補正するための第1の手順および第2の手順をさらに含み、前記第1の手順が、前記第2の手順に先立って実行され、
    前記第1の手順が、
    アイボックスデータを収集するステップと、
    光学システムプロファイルを作成するステップであって、前記光学システムプロファイルが前記アイボックスデータを含む、ステップとを含み、
    前記第2の手順が、
    前記アイトラッキングシステムによって取得されたアイトラッキングデータを形成するステップと、
    前記光学システムプロファイルおよび前記アイトラッキングデータを適用することにより補正画像を形成するステップであって、前記補正画像は、前記光学収差が補正された入力画像である、ステップと、
    前記補正画像をユーザに表示することにより、表示画像を形成するステップとを含み、
    前記第2の手順が、
    NNを開始するステップと、
    NN出力値を計算するステップと、
    NN出力値から再調整されたNN出力を計算するステップと、
    再調整されたNN出力値と元のLF部分とを合計するステップとをさらに含むことを特徴とする方法。
  15. 請求項14に記載の方法において、
    前記第1の手順が、
    PSFを抽出するステップと、
    NNトレーニングを開始するステップと、
    NNの全てのNN重み係数を抽出するステップとをさらに含むことを特徴とする方法。
  16. 請求項14に記載の方法において、
    前記光学システムプロファイルが、NN重み係数を含むデータであることを特徴とする方法。
  17. 請求項14に記載の方法において、
    前記表示画像が、ユーザの左眼および右眼のために別々に形成されることを特徴とする方法。
JP2021502427A 2018-04-28 2018-12-27 デジタル収差補正を有する複合現実光学システム Active JP7426118B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
RU2018116223A RU2679915C9 (ru) 2018-04-28 Оптическая система гибридной реальности с цифровой коррекцией аберраций
RU2018116223 2018-04-28
PCT/IB2018/060631 WO2019207350A1 (ru) 2018-04-28 2018-12-27 Оптическая система гибридной реальности с цифровой коррекцией аберраций

Publications (2)

Publication Number Publication Date
JP2021526700A JP2021526700A (ja) 2021-10-07
JP7426118B2 true JP7426118B2 (ja) 2024-02-01

Family

ID=65442831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021502427A Active JP7426118B2 (ja) 2018-04-28 2018-12-27 デジタル収差補正を有する複合現実光学システム

Country Status (6)

Country Link
US (1) US11372243B2 (ja)
EP (1) EP3789812A4 (ja)
JP (1) JP7426118B2 (ja)
KR (1) KR20210005555A (ja)
CN (1) CN112055827A (ja)
WO (1) WO2019207350A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6725733B2 (ja) * 2018-07-31 2020-07-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
US11347056B2 (en) 2018-08-22 2022-05-31 Microsoft Technology Licensing, Llc Foveated color correction to improve color uniformity of head-mounted displays
US11287655B2 (en) * 2019-06-21 2022-03-29 Samsung Electronics Co.. Ltd. Holographic display apparatus and method for providing expanded viewing window
CN111246118B (zh) * 2020-04-27 2020-08-21 成都派沃特科技股份有限公司 Ar元素的显示方法、装置、设备及存储介质
CN116711297A (zh) * 2021-01-14 2023-09-05 索尼集团公司 图像显示设备和图像显示系统
US11768375B2 (en) * 2021-09-03 2023-09-26 Microsoft Technology Licensing, Llc Control of variable-focus lenses in a mixed-reality device for presbyopes
WO2024058436A1 (ko) * 2022-09-13 2024-03-21 삼성전자 주식회사 영상을 표시하는 전자 장치 및 이의 제어 방법
JP7442774B1 (ja) 2023-07-11 2024-03-05 国立大学法人富山大学 リハビリ支援システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004233867A (ja) 2003-01-31 2004-08-19 Nikon Corp 画像表示装置
US20130293761A1 (en) 2012-05-07 2013-11-07 Microsoft Corporation Image enhancement via calibrated lens simulation
US20170293146A1 (en) 2016-04-07 2017-10-12 Oculus Vr, Llc Accommodation based optical correction
JP2018501498A (ja) 2014-09-30 2018-01-18 株式会社ソニー・インタラクティブエンタテインメント 眼追跡によるリアルタイムレンズ収差補正

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5576548A (en) * 1995-06-05 1996-11-19 University Of South Florida Nuclear imaging enhancer
US6603885B1 (en) 1998-04-30 2003-08-05 Fuji Photo Film Co., Ltd. Image processing method and apparatus
US6272392B1 (en) * 1998-12-04 2001-08-07 Advanced Micro Devices, Inc. Methodology for extracting effective lens aberrations using a neural network
US6623346B2 (en) * 1999-12-23 2003-09-23 Georgia Tech Research Corporation Automated transfer of live objects to shackle line method and apparatus
US6529331B2 (en) 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
EP1943583B1 (en) 2005-10-28 2019-04-10 Tobii AB Eye tracker with visual feedback
US20090002574A1 (en) * 2007-06-29 2009-01-01 Samsung Electronics Co., Ltd. Method and a system for optical design and an imaging device using an optical element with optical aberrations
JP5341462B2 (ja) * 2008-10-14 2013-11-13 キヤノン株式会社 収差補正方法、画像処理装置および画像処理システム
RU2431889C1 (ru) 2010-08-06 2011-10-20 Дмитрий Валерьевич Шмунк Способ суперразрешения изображений и нелинейный цифровой фильтр для его осуществления
US8998414B2 (en) 2011-09-26 2015-04-07 Microsoft Technology Licensing, Llc Integrated eye tracking and display system
US9075249B2 (en) 2012-03-07 2015-07-07 Google Inc. Eyeglass frame with input and output functionality
US9841537B2 (en) * 2012-07-02 2017-12-12 Nvidia Corporation Near-eye microlens array displays
US9380287B2 (en) * 2012-09-03 2016-06-28 Sensomotoric Instruments Gesellschaft Fur Innovative Sensorik Mbh Head mounted system and method to compute and render a stream of digital images using a head mounted display
US9658453B1 (en) 2013-04-29 2017-05-23 Google Inc. Head-mounted display including diffractive combiner to integrate a display and a sensor
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20180084232A1 (en) 2015-07-13 2018-03-22 Michael Belenkii Optical See-Through Head Worn Display
KR20180097718A (ko) 2015-12-24 2018-08-31 스타브리즈 아이피 럭스 투 에스.에이.알.엘. 가상 현실 헤드 마운티드 디스플레이
WO2017151752A1 (en) * 2016-03-01 2017-09-08 Mirus Llc Augmented visualization during surgery
US10373297B2 (en) * 2016-10-26 2019-08-06 Valve Corporation Using pupil location to correct optical lens distortion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004233867A (ja) 2003-01-31 2004-08-19 Nikon Corp 画像表示装置
US20130293761A1 (en) 2012-05-07 2013-11-07 Microsoft Corporation Image enhancement via calibrated lens simulation
JP2018501498A (ja) 2014-09-30 2018-01-18 株式会社ソニー・インタラクティブエンタテインメント 眼追跡によるリアルタイムレンズ収差補正
US20170293146A1 (en) 2016-04-07 2017-10-12 Oculus Vr, Llc Accommodation based optical correction

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DO, Yongtae,Optical Aberration Correction by Divide-and-Learn for Accurate Camera Calibration,2014 International Conference on Computational Science and Computational Inteligence,IEEE,2014年05月29日,pp. 178-182,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6822104
ITOH, Yuta et al.,Gaussian Light Field: Estimation of Viewpoint-Dependent Blur for Optical See-Through Head-Mounted Displays,IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS,IEEE,2016年11月,VOL. 22, NO. 11,pp. 2368-2376,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7523375

Also Published As

Publication number Publication date
US11372243B2 (en) 2022-06-28
WO2019207350A1 (ru) 2019-10-31
EP3789812A4 (en) 2022-02-09
US20210018751A1 (en) 2021-01-21
EP3789812A1 (en) 2021-03-10
KR20210005555A (ko) 2021-01-14
RU2679915C1 (ru) 2019-02-14
CN112055827A (zh) 2020-12-08
JP2021526700A (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
JP7426118B2 (ja) デジタル収差補正を有する複合現実光学システム
US10948726B2 (en) IPD correction and reprojection for accurate mixed reality object placement
US11614631B1 (en) Adaptive viewports for a hyperfocal viewport (HVP) display
Maimone et al. Holographic near-eye displays for virtual and augmented reality
Cholewiak et al. Chromablur: Rendering chromatic eye aberration improves accommodation and realism
US20200081530A1 (en) Method and system for registering between an external scene and a virtual image
JP6023801B2 (ja) シミュレーション装置
Ideses et al. Three methods that improve the visual quality of colour anaglyphs
JP7234057B2 (ja) 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、記憶媒体、および、画像処理システム
Itoh et al. Vision enhancement: defocus correction via optical see-through head-mounted displays
KR20190048241A (ko) 웨어러블 장치 및 이의 영상 처리 방법
Itoh et al. Gaussian light field: Estimation of viewpoint-dependent blur for optical see-through head-mounted displays
US9829721B2 (en) Method for determining a visual effect of an ophthalmic lens
Xu et al. Software based visual aberration correction for hmds
RU2679915C9 (ru) Оптическая система гибридной реальности с цифровой коррекцией аберраций
WO2012049022A1 (en) Method and device for digital image processing
Barsky et al. Vision correcting displays based on inverse blurring and aberration compensation
Oshima et al. Sharpview: Improved legibility of defocussed content on optical see-through head-mounted displays
Liu et al. Computational 3D displays
Zhdanov et al. Adaptive vergence reconstruction method for mixed reality systems
Liu Plenoptic Modeling and Measurements of Novel Displays
WO2023146882A1 (en) Display system with machine learning (ml) based stereoscopic view synthesis over a wide field of view
CN115867238A (zh) 视觉辅助
WO2024089497A1 (en) Method based on inverse blurring for immersive media devices to mitigate vergence accommodation conflict
CN117178221A (zh) 用于校准包括集成处方透镜的可佩戴平视显示器的方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240115

R150 Certificate of patent or registration of utility model

Ref document number: 7426118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150