JP2020504984A - 仮想光線追跡方法および光照射野の動的リフォーカス表示システム - Google Patents

仮想光線追跡方法および光照射野の動的リフォーカス表示システム Download PDF

Info

Publication number
JP2020504984A
JP2020504984A JP2019544763A JP2019544763A JP2020504984A JP 2020504984 A JP2020504984 A JP 2020504984A JP 2019544763 A JP2019544763 A JP 2019544763A JP 2019544763 A JP2019544763 A JP 2019544763A JP 2020504984 A JP2020504984 A JP 2020504984A
Authority
JP
Japan
Prior art keywords
virtual reality
refocus
image
processor
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019544763A
Other languages
English (en)
Other versions
JP6862569B2 (ja
Inventor
啓銘 虞
啓銘 虞
▲けん▼ 曹
▲けん▼ 曹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Plex VR Digital Technology Shanghai Co Ltd
Original Assignee
Plex VR Digital Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Plex VR Digital Technology Shanghai Co Ltd filed Critical Plex VR Digital Technology Shanghai Co Ltd
Publication of JP2020504984A publication Critical patent/JP2020504984A/ja
Application granted granted Critical
Publication of JP6862569B2 publication Critical patent/JP6862569B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本発明は仮想光線追跡方法および光照射野の動的リフォーカス表示システムに関し、全焦点画像上の画素をランダムに検索して光線情報を収集することにより光線に対するサンプリングを減少し、および/または、物体表面が滑らかであると仮定して交差点の検索を簡略化し、仮想現実表示内容プロセッサ、仮想現実表示装置、眼球追跡装置、眼球追跡情報プロセッサおよび光照射野リフォーカスプロセッサを含む。本発明によれば、計算の複雑性を低減し、間違ったサンプリングを自動的に置き換えるため、真実で正確にリフォーカスでき、人間の目の注視方向によって動的にフォーカスし、ユーザが距離の異なる物体にフォーカスできるため、人間の目の観察特徴に適合する。【選択図】図9

Description

本発明は画像生成技術分野に関し、具体的には、仮想の光線追跡方法および光照射野(Light Field)の動的リフォーカス表示システムに関する。
光線追跡(Ray Tracing)アルゴリズムは1980年に提出された迫真性のある画像の生成方法であって、高品質の迫真性画像を生成することができ、現在は三次元迫真性画像の一般的なアルゴリズムの1つである。光線追跡アルゴリズムは、実質的には光照射の物理過程の近似逆過程であり、物体間の鏡面反射光線および正透過を追跡することができ、理想な表面における光伝搬をシミュレーションする。
図1の(a)にはピンホールによる画像および深度図における光線追跡方法が示されており、仮想被写界深度範囲は[z,z](z>z>0)であり、ここで、zは無限大であってもよく、感光板からピンホールまでの距離はsである。
続いて、図1の(b)に示すように、被写界深度効果をレンダリングする際、ピンホールの位置に仮想の薄レンズを設けると仮定する場合、仮想の薄レンズの焦点距離はfであり、fは1/f=(1/s)+(1/z)を満たし、即ち、最も遠い平面zは感光板にフォーカスされる。さらに、レンズの直径がRであると仮定する場合、このような仮想の結像システムにおいて、平面z∈[z,z]内の点は感光板においてぼやけた画像に結像され、その錯乱円の大きさは、
k=s×R×((1/z)−(1/z)) (2)
である。
式(2)から分かるように、平面z上の点が感光板において結像される錯乱円の半径は最大でK=s×R×((1/z)−(1/z))であり、同時に錯乱円の半径の大きさは光線円錐(例えば、図1の(b)における大円錐)をz平面で切断する円形切断面にもよる。図1の(b)に示すように、相似三角形の変換関係によれば、円形切断面の半径はR×(z−z)/zまたは(z/s)×Kであってよい。
上記システム設定に基づき、我々は感光板の位置sを動的に調整することによって平面zにフォーカスされる画像をレンダリングすることができ、ここで、zは(1/s)+(1/z)=1/fを満たす。図1の(c)に示すように、画素を使用して原画像をインデックスして中央光線の光円錐指数(light cone size)を算出する。このようにすれば、レンダリング後の画像と原画像とが同じ解像度を有するように保証することができ、同じ画素の位置が空間においても同じ位置に対応するように保証する。
最終的な結像結果において、各画素pの最終色は光円錐内の全ての光線の積分によって得られる。従来の光線追跡アルゴリズムでは、各光線をシーンまで追跡しなければならない。しかし、画像空間における光線追跡アルゴリズムでは、1本の光線をシーンまで追跡し、シーンにおける三次元座標によって原画像まで逆追跡する。ランバート(lambertian)反射に基づき、画素の色を逆追跡された光線の色として直接使用することができる。
該光線の色を決定するためには、光線と空間における物体との交差点を位置決めすることが不可欠である。光照射野に基づくアルゴリズムにおいて、光線追跡は主に前方湾曲に基づいて取得され、中央図に対してその深度図を使用して周りの光照射野図を歪める。該方法の適用可能な前提としては、光線が高密度にサンプリングされなければならない。他の態様において、1枚の画像をレンダリングするたびには大量の仮想視角を作成する必要があるため、アルゴリズムは非常に複雑である。このため、光線追跡リフォーカスの計算の複雑性を低減する必要がある。
また、光線追跡計算方法の具体的な適用として、従来の仮想現実装置は全焦点画像または全焦点仮想現実シーンしか表示することができず、体験者の頭部が向いている方向の内容しか表示せず、人間の目の結像原理に適合する体験内容および人間の目の関心領域の内容を提供することができない。このため、完全に人間の目の注視方向に従って内容の表示およびリフォーカスを実現することができない。図13に示すように、人間の目310における毛様体筋は拡張および収縮することができるため、人間の目310を距離が異なる物体にフォーカスさせることができ、人間の目310は異なる半径の球面にフォーカスすることを選択することができる。遠い所(即ち、半径が大きい球面320)にフォーカスする際は毛様体筋が拡張し、近い所(即ち、半径が小さい球面340、330)にフォーカスする際は毛様体筋が収縮する。しかし、従来の仮想現実装置には効果的なデータ処理方法が欠けているため、人間の目310は全焦点または固定焦点平面の画像しか見ることができない。図12に示す固定焦点画像のように、リフォーカスすることができず、これは人間の目310の三次元世界を見る視覚特性に適合せず、人間の目310の仮想現実内容を見る視覚体験を低下させる。このため、計算の複雑性を簡略化する必要があるほか、人間の目の注視方向によって動的にフォーカスすることにより複数の固定焦点面が見れる仮想現実表示システムを開発することが切実に必要である。
本発明は上記従来技術における問題点に鑑みてなされたものであり、仮想光線追跡方法および光照射野の動的リフォーカス表示システムを提供することを目的とする。
本発明に係る仮想光線追跡方法は、
全焦点画像およびその深度情報を得るステップと、
全焦点画像における画素をランダムに検索することにより光線のサンプリング数を低減させる、および/または、物体表面が滑らかであると仮定して交差点の検索を簡略化させることによって光線情報を収集するステップと、
上記光線情報に基づいて混色を行い、最終表示結果を得るステップと、
を含む。
光線の収集は、絞りを複数の等分領域に分割し、各前記等分領域内において1つの画素を収集するといった振動サンプリングにより行われる。
前記交差点の検索を簡略化させることは、lpq=(r/R)×K×(d−d)および固定のdによってlpqを直接計算し、半径r内の光線をサンプリングし、lpq0画素のオフセットとして1つのd を初期化し、l pq画素の変位がl pqに等しい場合、交差点の位置を決定でき、そうでない場合、そのl pq画素の変位をd(t+1) に設定して、結果が|lpq−(r/R)×K×(d−d)|≦1の式を満たすまで反復計算し、反復計算終了の際の画素の色をリターンする。
本発明に係る仮想現実光照射野の動的リフォーカス表示システムは、
仮想現実表示内容プロセッサと、
仮想現実表示装置と、
眼球回転方向を得ることができる眼球追跡装置と、
眼球追跡情報プロセッサと、
光照射野の動的リフォーカス処理機能を有する光照射野リフォーカスプロセッサと、
を含み、
仮想現実表示内容プロセッサは表示内容を取得し、仮想現実表示装置、眼球追跡装置、眼球追跡情報プロセッサおよび光照射野リフォーカスプロセッサとこの順にデータ線によって接続されている。
仮想現実表示装置は、左右の目に対応する結像ディスプレイ、拡大機能を有する光学レンズおよび位置決めセンサを含み、仮想現実表示内容プロセッサの処理によって得られる両目の三次元画像を表示する。
前記仮想現実表示装置において、光学レンズの周縁にはマイクロLEDランプが設けられており、光学レンズの上方には人間の目の画像を収集するカメラが設けられている。
従来技術と比較すれば、本発明はランダムに検索することによって光線情報に対するサンプリング数を低減しおよび交差点の検索過程を簡略化することによって計算の複雑性を低減し、かつ自動的に間違ったサンプリングを置き換えることができるため、真実で正確にリフォーカスを行なえる。また、仮想現実光照射野の動的リフォーカス表示システムは、人間の目の注視方向に基づいて動的にフォーカスすることができるため、使用者は距離の異なる物体にフォーカスでき、人間の肉眼の観察特徴に適合する。
(a)はピンホールによる結像原理を示す図であり、(b)は仮想の薄レンズを加える結像方法を示す図であり、(c)は画像空間における光像追跡を示す図であり、(d)は本発明に係る方法を示す図である。 光線の振動サンプリングを示す図である。 (a)および(b)は光線の間違ったサンプリングの分析を示す図である。 (a)はgamma2.2曲線および勾配図であり、(b)はトーンマッピング矯正画像の輝度を示す図である。 本発明の実施例における異なる色の混色効果を示す図である。 レンダリング効果の比較図である。 一眼レフカメラおよびLytroカメラの被写界深度効果図を比較するための図である。 本発明の実施例に係るレンダリングの特別フォーカス効果図である。 仮想現実光照射野の動的リフォーカス表示システムの構成を示す図である。 仮想現実ヘルメットの構成を示す図である。 仮想現実表示装置の構成を示す図である。 単一固定焦点面を示す図である。 複数の固定焦点面を示す図である。
以下、図面を参照しながら本発明についてさらに説明する。
本実施例は従来の光線追跡アルゴリズムと異なって、一枚の全焦点写真およびそれに対応する被写界深度図だけで同じ効果を実現することができ、計算が大幅に簡略化される。下記の説明においては、事前確率(prior probability)を統計するランダム検索アルゴリズムを示すことにより、最終的には一眼レフカメラに匹敵する効果を生成することができる仮想光線追跡方法を完全に説明する。
現実の世界において、人間の目310で三次元世界を見る際には、上、下直筋、内、外直筋および上、下斜紋筋により眼球の回転を制御することができるため、人間の目310は異なる方向のシーンまたは目標を見ることができる。しかし、従来の仮想現実ヘルメットは人間の目の回転方向に位置決められることができないため、内蔵または外部のセンサを介して人間の頭部の回転方向を決定することにより人間の目310の注視方向を判断するしかできないが、人間の目310の柔軟性により人間の目310の注視方向と頭部の方向とは完全一致にならず、人間の目の注視方向の情報が正確に得られず、さらには正確な画像を表示することができない。
図9乃至図11に示すように、上記問題を解決するための本発明の実施例に係る仮想現実光照射野の動的リフォーカス表示システムは、主に五つのモジュールとして、仮想現実表示内容プロセッサ100と、仮想現実表示装置200(仮想現実ヘルメット、たとえばHTC VIVEのようなVR表示ヘルメット)と、眼球回転方向を得ることができる眼球追跡装置110と、眼球追跡情報プロセッサ120と、光照射野の動的リフォーカス処理機能を有する光照射野リフォーカスプロセッサ130と、を含む。
ここで、仮想現実表示内容プロセッサ100は、主に表示内容におけるシーンをコンピュータ視覚におけるカメラ結像原理に基づき投影変換して左、右両眼に対する2枚の異なる画像を取得する。画像間には視差が有るため、表示される画像にシーンの三次元情報を記憶する。
図11、図10に示すように、仮想現実表示装置200は、主に左右の目に対応する結像ディスプレイ2101、拡大機能を有する光学レンズ2201およびジャイロスコープ等の位置決めセンサを含み、仮想現実表示内容プロセッサの処理によって得られる両目の三次元画像を表示する。光学レンズ2201の周縁にはマイクロLEDランプ1102が設けられており、光学レンズ1102の上方には人間の目の画像を収集するカメラ1101が設けられている。
眼球の回転方向を検出する眼球追跡装置110は、主に仮想現実設備におけるカメラ1101により人間の目310の回転状況を監視し、リアルタイムに眼部の画像を収集して眼球方向情報プロセッサ120に送信する。
眼球方向情報プロセッサ120は、主に人間の目の領域画像2202に基づいて眼球運動追跡技術によって眼球の回転方向情報を取得し、Oeyeと記録し、即ち、現在の体験者が興味を持っている方向である。
人間の目310の注視方向情報を取得した後、方向情報によって人間の目の視線と表示システムの内部の表示内容(即ち、表示される画像)との交差点位置Pを決定することができ、さらに、Pの位置によって、Pが位置するシーンの深度情報、即ち、フォーカス平面の位置を知ることができる。そして、仮想光線追跡アルゴリズムを利用して人間の目の関心領域または関心平面のリフォーカス結像結果を算出し、無関心領域においてはファジー処理を行うことにより、現実の世界における人間の目の視覚効果を実現する。この部分の作業は、主に最後の光照射野リフォーカスプロセッサ130において行われる。
光照射野リフォーカスプロセッサ130によって処理された後の表示内容を得た後、表示内容を仮想現実表示内容プロセッサ100に伝送して処理し、シーンの両目の三次元画像を取得することにより、最終的な仮想現実光照射野の動的リフォーカス表示を実現する。
本実施例に係る装置の部分は、人間の目310の回転方向情報を検出することで、人間の目の関心領域に基づいて表示内容に対して光照射野の動的リフォーカス処理を行うことができ、表示された内容が人間の目の注視原理に適応するようにし、体験者が体験する際により優れた体験を得ることができるようにする。
本実施例に係る上記装置に基づき、方法に係る部分は主に、全焦点画像およびその深度情報を得るステップと、全焦点画像における画素をランダムに検索することにより光線のサンプリング数を低減させる、および/または、物体表面を滑らかであると仮定して交差点の検索を簡略化させることによって光線情報を収集するステップと、上記光線情報に基づいて混色を行い、最終表示結果を得るステップと、を含む。
一般的に、上記操作において、光線方向に沿って離散的に交差点を決定することができるが、その目的は光線方向における各離散深度zが空間における点に対応しているか否かを決定するためであり、点が存在する場合、該点を画像に逆投影させ、該画素の深度をzに決定することができる。光線が薄レンズの中心からr離れるところで「停止する」と仮定する場合、該光線方向には深度がz∈(z,z)である点Qが存在し、相似三角形に基づくと、Qの薄レンズの中間軸からの距離はr×(z−z)/zである。従って、画像の中心画素をpと仮定する場合、Qの画像における投影点はqであり、p、qの距離はlpq=(s/z)×r×(z−z)/z=s×r×((1/z)−(1/z))である。
シーンの深度範囲は[z,z]であり、図1の(d)に示すように、異なる深度の光線部分は線[q,q]に投影され、q、qはそれぞれQ、Qの画像における投影点であり、その深度はそれぞれz、zである。画像における光線追跡アルゴリズムでは、我々は画像から光線と空間における物体との最も近い交差点に対応する画素q∈[q,q]を見つけなければならない。最も近い交差点の投影点がqであると仮定する場合、qは、
pq=s×r×((1/z)−(1/z)) (3)
を満たす。ここで、zの大きさは深度図から抽出することができる。
上記全ての分析は深度情報に基づいて行ったものであり、続いて深度情報を画像における画素のオフセットに変換する。相似三角形関係d=1/zによってオフセットを[0,1]に正規化し、オフセット0は∞の深度を表し、1は最も近い深度を表す。大きさがK(=s×R)であるマスクを使用すると仮定する場合、式(3)を、
pq=(r/R)×K×(d−d) (4)
に簡略化することができる。ここで、d=1/z、d=1/zである。式(4)の左右両側はいずれも深度情報によって算出することができ、画像空間における光線追跡はシーンの三次元モデルを再構築することが避けられる。
事実上、このような計算方法の複雑性はO(NMK)であり、Nは入力画像の画素数であり、Mはマスクの画素数であり(Mは絞りの大きさと一致し、即ち、Kに正比例する)、Kは最も近い交差点の検出に関わる。三次元モデルの光線追跡アルゴリズムと異なって、画像における光線追跡アルゴリズムには2つの主な問題がある。
本実施例では色画像および深度画像を二次元空間に離散させると仮定しているため、式(3)の制約条件を満たしても、光線が空間における物体と交差すると確保することができない。この問題を解決するために、本実施例では制約条件を、
|lpq−(r/R)×K×(d−d)|≦1 (5)
まで制約を緩和している。
即ち、1つの画素より小さい。本発明は1枚の色画像だけ入力するため、シーンの遮蔽領域の内容(色および幾何)を検出することができない。本実施例の解決手段は、表面(幾何および模様)が薄膜レンズの中心に対して対称すると仮定しており、lpqが遮蔽されたと仮定しており、本実施例では−lpqの画素を使用している。
本発明の画像フィールドにおける光線追跡は従来の幾何空間における光線追跡に類似し、その計算の複雑性はいずれも高く、特にリフォーカスの適用において高い。上記説明においてMがKに正比例するため、計算の複雑性は半径の拡大に伴って(O(NMK)=O(NK)のように指数成長する。大口径の絞りに対し、計算の複雑性が非常に高くなり、リアルタイムなレンダリング効果に達することが難しい。
光線情報収集において、ランダムにサンプリングする方式によって光線情報に対するサンプリングを減少させることで、Mを大幅に減少させることができる。図2に示すように、本実施例では振動サンプリングの方式を採用する。
第1ステップであって、絞りを複数の格子に均等に分割する。
第2ステップであって、各格子において1つの画素をランダムにサンプリングする。
格子のサイズが元の絞りのサイズの1/a倍であると仮定する場合、計算の複雑性はO(NMK/a)に減少する。
しかしながら、振動によるランダムなサンプリングは各サンプリングポイントの正確性を保証することができるが、サンプリングの稀およびランダム性はシーンのコントラストが高く色が豊富である場合において比較的に良い視覚効果を生成する。しかし、下記のような問題も存在する。まず、各格子を1本の光線だけで示すべきでない。次に、ランダムなサンプリングはサンプリング光線の品質を保証することができない。この2つの原因により、隣接する2つの画素のファジー度が一致せず、ランダムなノイズが生じてしまう。
本発明はさらに交差点の検索を簡略化するプロセスを提供し、即ちKを減少させ、空間における物体の表面が滑らかであると仮定することにより交差点の検索を加速化させている。交差点を検出する際にq∈[q,q]のように各画素に対してqが式(4)の制約を満たすか否かを検出するのではなく、式(4)と固定のdとによって直接lpqを計算する。図1の(d)に示すように、半径r以内の光線をサンプリングし、lpq0画素のオフセットとして1つのd (tは反復の回数である)を初期化する。1つのd を与えるとl pqを計算することができ、l pq画素の変位がl pqに等しい場合、交差点の位置を決定することができ、そうでない場合、そのl pq画素の変位をd(t+1) と設定し、結果が式(5)を満たすまで、反復計算し、反復計算終了の際の画素の色をリターンする。
現実のシーンにおいて、物体表面は通常は滑らかであり連続しているため、隣接する画素は同じ深度値を有する確率が非常に大きい。即ち、l pq=d(t+1) の可能性が非常に高く、この場合、反復の回数が少ない間に交差点を見つけることができる。
図3の(a)、(b)に示すように、さらに、本発明はランダム検索の方法によって加速化することができ、1本の光線をランダムに検索するだけで毎回完全に正確な交差点を見つけることができるとは保証できないが、ミスの確率は非常に低い。それはミスをリターンする画素が他の光線に対する正確なサンプリングであるかも知れず、即ち、1つの間違ったサンプリングを異常値と見なす必要がなく、それが交差点である可能性は依然として非常に高く、最後のリフォーカスレンダリングに対して依然として有効である。
前の被写体にフォーカスされる場合をより好適に処理するために、リターンされる画素qが間違った交差点であり、同時にq点の深度がp点に対してさらに深いと仮定する場合、即ちd>dである場合、pの色値によってqを置き換える。従って、交差点のランダムな検索が間違った交差点値をリターンしても、全てのサンプリング光線が融合した後、依然として比較的に真実で正確なリフォーカス効果を得ることができ、同時に計算の複雑性もO(NM)に低下される。
図3の(a)、(b)は、本実施例に係る方法によって光線をサンプリングする結果を示し、本実施例では様々な色シェーディングによって正確なサンプリングおよび間違ったサンプリングを区別している。上記のように、間違ったサンプリングポイントはファジー畳み込みカーネルの外部にある可能性があり、間違ったサンプリングはすべての光線サンプリングに対して非常に少ない。
実際の撮影において、高い動的範囲で圧縮されるため、線形シーンラジオシティJがデジタル画像強度Iに変転されることは高度の非線形的なものである。一眼レフデジタルカメラにおけるこのような非線形圧縮プロセスは関数f:I=f(J)で表示することができる。最も好ましい深度合成はJ=f−1(I)であり、最後の画像I’は積分I’(p)=g(I)=f((1/|Ω|)×ΣqεΩp−1(I(q)))によって得ることができ、p、qは画像における座標を表し、Ωは中心点のpにおける畳み込みカーネルを表し、g(I)は画像に対するすべての変換を表す。
しかしながら、g(I)を直接計算するには下記のような2つの問題がある。まず、入力画像の応答関数が未知であり、通常はgamma色調曲線パラメータが2.2に等しいことで近似することを示すが、カメラの応答関数はgamma2.2と差がある。次に、単一応答関数は色処理モデルを表示するのに不十分である。図5に示すように、gamma2.2によって近似する結果を示し、結果に色収差があることがわかる。色収差および非線形効果を低減するために、画像内容に基づき画素の色に対して直接重み付けて積分することにより得られる。
本実施例では、先ず、gamma2.2関数曲線によってg(I)を近似する応答の性能を分析し、図4の(a)に示すように、曲線の高輝度領域における勾配は、低輝度領域における勾配よりも険しく、これは高輝度領域がより多く圧縮されることを意味し、相対的に強度を直接積分する。図4の(b)に示すように、gamma2.2曲線が高輝度および低輝度を融合する際に、高輝度部分に更に高い重みをつける。本実施例では、式
I’(p)=(1/w)×ΣqεkpI(q)、w=exp(−(I(q)max−255)/2σ) (6)
を用いて混色を行う。
ここで、I(q)max=max{I(q),I(q),I(q)}は、該積分画素の色チャネルの最大値である。Σqεkpおよびσの値は色の表現を制御することができる。図5は様々な混色方法を示し、線形混合は直接積分領域に対する平均値を取ることであり、gamma2.2は色を青味にすることができ、本実施例ではガウス重みによる混色が好ましく、その混合効果は比較的に迫真性がある。
図7、図6に示すように、比較によって本実施例は品質の非常に高い被写界深度効果を実現することができることがわかり、特に、一眼レフ、Lytroカメラと効果が同じであるが、本実施例では普通の携帯用カメラだけでも上記効果(図面におけるグレースケール効果であっても、本発明の技術的優位性を表現することができる。以下同様)を実現することができる。図8に示すように、さらに、本発明はTilt−shift撮影に適用されることができ、Tilt−shift撮影とは特に小さいシーンにフォーカスする必要のある技術である。図8における4組の比較図からわかるように、従来技術のように一般的に特別なレンズによってTilt−shift効果を取得する必要がなく、ユーザが深度図を簡単に補正すればよく、本発明は非常に簡単にTilt−shift効果をシミュレーションすることができる。そのプロセスは上記と同様であるため、説明を省略する。
要するに、本実施例はランダムに検索することによって光線情報に対するサンプリングを減少させるおよび交差点の検索プロセスを簡略化させることによって計算の複雑性を低減し、間違ったサンプリングを自動的に置き換えるため、真実で正確にリフォーカスできる。また、仮想現実光照射野の動的リフォーカス表示システムは、人間の目の注視方向によって動的にフォーカスし、ユーザが距離の異なる物体にフォーカスできるため、人間の目の観察特徴に適合する。
以上、図面および実施例に合わせて本発明の実施形態を説明したが、実施例により提供される構造は本発明を限定するものではなく、当業者であれば必要に応じて様々な調整を行うことができ、特許請求の範囲内で行われた様々な変形や補正はいずれも本発明の保護範囲内である。
100 仮想現実表示内容プロセッサ、
200 仮想現実表示装置、
110 眼球追跡装置、
120 眼球方向情報プロセッサ、
130 光照射野のリフォーカスプロセッサ、
1101 カメラ、
1102 マイクロLEDランプ、
2201 光学レンズ、
310 人間の目、
2101 結像ディスプレイ、
2202 人間の目の領域画像、
5101 左目の画像、
5102 右目の画像。

Claims (6)

  1. 仮想光線追跡方法であって、
    全焦点画像およびその深度情報を得るステップと、
    全焦点画像における画素をランダムに検索することにより光線のサンプリング数を低減させる、および/または、物体表面が滑らかであると仮定して交差点の検索を簡略化させることによって光線情報を収集するステップと、
    上記光線情報に基づいて混色を行い、最終表示結果を得るステップと、
    を含む、ことを特徴とする仮想光線追跡方法。
  2. 光線の収集は、絞りを複数の等分領域に分割し、各前記等分領域内において1つの画素を収集するといった振動サンプリングにより行われる、ことを特徴とする請求項1に記載の仮想光線追跡方法。
  3. 前記交差点の検索を簡略化させることは、lpq=(r/R)×K×(d−d)および固定のdによってlpqを直接計算し、半径r内の光線をサンプリングし、lpq0画素のオフセットとして1つのd を初期化し、l pq画素の変位がl pqに等しい場合、交差点の位置を決定でき、そうでない場合、そのl pq画素の変位をd(t+1) に設定して、結果が|lpq−(r/R)×K×(d−d)|≦1の式を満たすまで反復計算し、反復計算終了の際の画素の色をリターンする、ことを特徴とする請求項1に記載の仮想光線追跡方法。
  4. 請求項1〜3のいずれか一項に記載の仮想光線追跡方法を採用する仮想現実光照射野の動的リフォーカス表示システムであって、
    仮想現実表示内容プロセッサと、
    仮想現実表示装置と、
    眼球回転方向を得ることができる眼球追跡装置と、
    眼球追跡情報プロセッサと、
    光照射野の動的リフォーカス処理機能を有する光照射野リフォーカスプロセッサと、
    を含み、
    仮想現実表示内容プロセッサは表示内容を取得し、仮想現実表示装置、眼球追跡装置、眼球追跡情報プロセッサおよび光照射野リフォーカスプロセッサとこの順にデータ線によって接続されている、ことを特徴とする仮想現実光照射野の動的リフォーカス表示システム。
  5. 仮想現実表示装置は、左右の目に対応する結像ディスプレイ、拡大機能を有する光学レンズおよび位置決めセンサを含み、仮想現実表示内容プロセッサの処理によって得られる両目の三次元画像を表示する、ことを特徴とする請求項4に記載の仮想現実光照射野の動的リフォーカス表示システム。
  6. 前記仮想現実表示装置において、光学レンズの周縁にはマイクロLEDランプが設けられており、光学レンズの上方には人間の目の画像を収集するカメラが設けられている、ことを特徴とする請求項4に記載の仮想現実光照射野の動的リフォーカス表示システム。
JP2019544763A 2017-03-09 2018-03-06 仮想光線追跡方法および光照射野の動的リフォーカス表示システム Active JP6862569B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710137526.8A CN107452031B (zh) 2017-03-09 2017-03-09 虚拟光线跟踪方法及光场动态重聚焦显示系统
CN201710137526.8 2017-03-09
PCT/CN2018/078098 WO2018161883A1 (zh) 2017-03-09 2018-03-06 虚拟光线跟踪方法及光场动态重聚焦显示系统

Publications (2)

Publication Number Publication Date
JP2020504984A true JP2020504984A (ja) 2020-02-13
JP6862569B2 JP6862569B2 (ja) 2021-04-21

Family

ID=60486245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019544763A Active JP6862569B2 (ja) 2017-03-09 2018-03-06 仮想光線追跡方法および光照射野の動的リフォーカス表示システム

Country Status (5)

Country Link
US (1) US10852821B2 (ja)
JP (1) JP6862569B2 (ja)
KR (1) KR102219624B1 (ja)
CN (1) CN107452031B (ja)
WO (1) WO2018161883A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107452031B (zh) * 2017-03-09 2020-06-26 叠境数字科技(上海)有限公司 虚拟光线跟踪方法及光场动态重聚焦显示系统
CN109242900B (zh) * 2018-08-01 2021-09-21 曜科智能科技(上海)有限公司 焦平面定位方法、处理装置、焦平面定位系统及存储介质
CN109360235B (zh) * 2018-09-29 2022-07-19 中国航空工业集团公司上海航空测控技术研究所 一种基于光场数据的混合深度估计方法
CN110365965B (zh) * 2019-06-26 2020-11-06 北京邮电大学 三维光场图像生成方法及装置
CN110689498B (zh) * 2019-09-27 2024-03-12 西北大学 一种基于对非关注点部分分级模糊的高清视频优化方法
CN111650754B (zh) * 2020-07-17 2022-08-12 北京耐德佳显示技术有限公司 一种平视显示设备
KR20220067950A (ko) 2020-11-18 2022-05-25 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
CN112967370B (zh) * 2021-03-03 2022-06-21 北京邮电大学 三维光场重建方法、装置及存储介质
CN113256783A (zh) * 2021-03-29 2021-08-13 北京航空航天大学 基于眼动跟踪的立即辐射度渲染方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6028606A (en) * 1996-08-02 2000-02-22 The Board Of Trustees Of The Leland Stanford Junior University Camera simulation system
US8493383B1 (en) * 2009-12-10 2013-07-23 Pixar Adaptive depth of field sampling
US20160148415A1 (en) * 2014-11-24 2016-05-26 Adobe Systems Incorporated Depth of field synthesis using ray tracing approximation
JP2016520908A (ja) * 2013-04-24 2016-07-14 クアルコム,インコーポレイテッド 拡張現実用のラジアンス伝達サンプリングのための装置および方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020013573A1 (en) * 1995-10-27 2002-01-31 William B. Telfair Apparatus and method for tracking and compensating for eye movements
JP3629243B2 (ja) * 2002-02-13 2005-03-16 Necマイクロシステム株式会社 モデリング時の距離成分を用いてレンダリング陰影処理を行う画像処理装置とその方法
US20100110069A1 (en) * 2008-10-31 2010-05-06 Sharp Laboratories Of America, Inc. System for rendering virtual see-through scenes
US8493432B2 (en) * 2010-06-29 2013-07-23 Mitsubishi Electric Research Laboratories, Inc. Digital refocusing for wide-angle images using axial-cone cameras
JP6141584B2 (ja) * 2012-01-24 2017-06-07 アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ 小型視線追従型ヘッドマウントディスプレイ
US9171394B2 (en) * 2012-07-19 2015-10-27 Nvidia Corporation Light transport consistent scene simplification within graphics display system
CA2931776A1 (en) * 2013-11-27 2015-06-04 Magic Leap, Inc. Virtual and augmented reality systems and methods
WO2016115872A1 (zh) 2015-01-21 2016-07-28 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
CN106408643A (zh) * 2016-08-31 2017-02-15 上海交通大学 一种基于图像空间的图像景深模拟方法
CN107452031B (zh) * 2017-03-09 2020-06-26 叠境数字科技(上海)有限公司 虚拟光线跟踪方法及光场动态重聚焦显示系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6028606A (en) * 1996-08-02 2000-02-22 The Board Of Trustees Of The Leland Stanford Junior University Camera simulation system
US8493383B1 (en) * 2009-12-10 2013-07-23 Pixar Adaptive depth of field sampling
JP2016520908A (ja) * 2013-04-24 2016-07-14 クアルコム,インコーポレイテッド 拡張現実用のラジアンス伝達サンプリングのための装置および方法
US20160148415A1 (en) * 2014-11-24 2016-05-26 Adobe Systems Incorporated Depth of field synthesis using ray tracing approximation

Also Published As

Publication number Publication date
US10852821B2 (en) 2020-12-01
WO2018161883A1 (zh) 2018-09-13
KR20190043590A (ko) 2019-04-26
KR102219624B1 (ko) 2021-02-23
JP6862569B2 (ja) 2021-04-21
US20200057492A1 (en) 2020-02-20
CN107452031B (zh) 2020-06-26
CN107452031A (zh) 2017-12-08

Similar Documents

Publication Publication Date Title
JP6862569B2 (ja) 仮想光線追跡方法および光照射野の動的リフォーカス表示システム
EP3101624B1 (en) Image processing method and image processing device
WO2018019282A1 (zh) 双目全景图像获取方法,装置及存储介质
US20130335535A1 (en) Digital 3d camera using periodic illumination
US10657664B2 (en) Method and system for image-based image rendering using a multi-camera and depth camera array
JP2021503133A (ja) カメラおよび回折光学要素の外因性較正のためのシステムおよび方法
CN107534731B (zh) 图像处理装置和图像处理方法
CN110213491B (zh) 一种对焦方法、装置及存储介质
JP5809607B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2019104670A1 (zh) 深度值确定方法和装置
JP2010176325A (ja) 任意視点画像生成装置及び任意視点画像生成方法
KR20140041012A (ko) 다중 패턴 빔을 이용하는 3차원 촬영 장치 및 방법
WO2016175043A1 (ja) 画像処理装置及び画像処理方法
US10496238B2 (en) 3D display ray principles and methods, zooming, and real-time demonstration
US20230334806A1 (en) Scaling neural representations for multi-view reconstruction of scenes
WO2016175045A1 (ja) 画像処理装置及び画像処理方法
JP6684454B2 (ja) 画像処理装置及び画像処理方法
KR20190026014A (ko) 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법
Sevcik et al. Crime scene testimony in virtual reality applicability assessment
KR102402432B1 (ko) 픽셀 빔을 표현하는 데이터를 생성하기 위한 장치 및 방법
Mardanbegi et al. An investigation of the distribution of gaze estimation errors in head mounted gaze trackers using polynomial functions
Zhang et al. [Poster] an accurate calibration method for optical see-through head-mounted displays based on actual eye-observation model
Corke et al. Image Formation
Corke et al. Image Formation
TW202338749A (zh) 用於判定雙眼凝視點的方法和主機

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200923

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210331

R150 Certificate of patent or registration of utility model

Ref document number: 6862569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250