JP2018085727A - 3d映像レンダリング方法及び装置 - Google Patents

3d映像レンダリング方法及び装置 Download PDF

Info

Publication number
JP2018085727A
JP2018085727A JP2017224795A JP2017224795A JP2018085727A JP 2018085727 A JP2018085727 A JP 2018085727A JP 2017224795 A JP2017224795 A JP 2017224795A JP 2017224795 A JP2017224795 A JP 2017224795A JP 2018085727 A JP2018085727 A JP 2018085727A
Authority
JP
Japan
Prior art keywords
optical
pixel
viewpoint position
display panel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017224795A
Other languages
English (en)
Other versions
JP7098307B2 (ja
Inventor
柱 容 朴
Ju Yong Park
柱 容 朴
東 ▲きょん▼ 南
Dong Kyung Nam
東 ▲きょん▼ 南
奎 煥 崔
Kyu Hwan Choi
奎 煥 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2018085727A publication Critical patent/JP2018085727A/ja
Application granted granted Critical
Publication of JP7098307B2 publication Critical patent/JP7098307B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/315Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being time-variant
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Generation (AREA)

Abstract

【課題】 3D映像レンダリング方法及び装置を提供する。
【解決手段】 一実施形態による3D映像レンダリング方法は、視聴領域の候補視点位置に関する光学像を決定し、前記光学像に基づいてディスプレイパネル上のピクセルを通過する仮想の光線を決定し、仮想の光線と光学レイヤとの間の交点及び前記決定された光学レイヤの光学成分の間のそれぞれの距離に基づいてピクセルにピクセル値を割り当てるステップを含む。
【選択図】 図1

Description

以下の実施形態は3D映像レンダリング方法及び装置に関する。
3D映像を認知するための要因のうち最も支配的な要因は、ユーザの両目に見える映像の差である。ユーザの両目に互いに異なる映像を見せるための方法として、偏光を用いた分割、時分割、原色の波長を相異にした波長分割などを所望する映像をフィルタリングするメガネ式の方法と、パララックスバリア(parallax barrier)、レンチキュラーレンズ(lenticular lens)、又は、方向性バックライトユニット(directional BLU)などの3D変換装置を用いて各映像を特定空間でのみ見ることのできる無メガネ式の方法がある。無メガネ式の方法の場合、メガネ着用の不便を減らし得る長所がある。このような3D映像は、鏡及びレンズなどの光学系によって提供され得る。この場合、光学系によって光の方向が変更されるため、3D映像レンダリング時光の方向変化が考慮される必要がある。
実施形態は、3D映像レンダリング方法及び装置を提供することにある。
一側面によれば、3D映像レンダリング方法は、視聴領域の候補視点位置に関する光学像を決定するステップと、前記決定された光学像に基づいて、ディスプレイパネル上のピクセルを通過する仮想の光線を決定するステップと、前記仮想の光線と光学レイヤとの間の交点を決定するステップと、前記交点及び前記光学レイヤの光学成分の間のそれぞれの距離に基づいて、前記ピクセルにピクセル値を割り当てるステップとを含む。
前記光学像を決定するステップは、前記候補視点位置に光学変換を適用して前記光学像を決定するステップを含み得る。前記光学変換は、凹面鏡あるいは凸レンズの光学的特性に基づいて実行され得る。前記仮想の光線を決定するステップは、前記光学レイヤと前記ディスプレイパネルの間の媒質の第1屈折率、及び前記光学レイヤ及び前記ディスプレイパネルを含む3D表示装置外部の媒質の第2屈折率を考慮して前記仮想の光線を決定するステップを含み得る。前記光学像は、前記ディスプレイパネルの後面方向に位置し得る。
前記交点を決定するステップは、前記光学レイヤと前記ディスプレイパネルの間の媒質の第1屈折率、及び前記光学レイヤ及び前記ディスプレイパネルを含む3D表示装置外部の媒質の第2屈折率による前記仮想の光線の入射角及び屈折角を考慮して前記交点を決定するステップを含み得る。前記交点を決定するステップは、前記光学像の座標及び前記ピクセルの座標に基づいて、光学像とピクセルをつなぐ直線をx−y平面で投影したr軸上で、前記光学像と前記ピクセルとの間の距離を算出するステップと、前記光学レイヤと前記ディスプレイパネルの間の媒質の第1屈折率、及び前記光学レイヤ及び前記ディスプレイパネルを含む3D表示装置外部の媒質の第2屈折率に基づいて、前記r軸上で前記ピクセル及び前記交点の間の距離を算出するステップと、前記光学像と前記ピクセルとの間の距離、及び前記ピクセルと前記交点との間の距離に基づいて前記交点の座標を決定するステップとを含み得る。
前記ピクセル値を割り当てるステップは、前記交点のうち隣接する光学成分との距離が最も近い交点を決定するステップと、前記決定された交点に対応する視点位置のピクセル値を前記ピクセルに割り当てるステップとを含み得る。前記候補視点位置は、単一ユーザのための左側視点位置及び右側視点位置を含むか、あるいはマルチビューのための予め決定された数の視点位置を含み得る。
前記候補視点位置が単一ユーザのための左側視点位置及び右側視点位置を含むことによって、前記仮想の光線は、前記左側視点位置に照射される第1仮想の光線及び前記右側視点位置に照射される第2仮想の光線を含み、前記ピクセル値を割り当てるステップは、前記第1仮想の光線による第1交点と前記第1交点に隣接する光学成分の間の距離、及び前記第2仮想の光線による第2交点と前記第2交点に隣接する光学成分の間の距離に基づいて、前記ピクセルに前記左側視点位置のピクセル値又は前記右側視点位置のピクセル値を割り当てるステップを含み得る。前記候補視点位置がマルチビューのための予め決定された数の視点位置を含むことによって、前記仮想の光線は、前記予め決定された数の視点位置に照射される光線を含み、前記ピクセル値を割り当てるステップは、前記光線それぞれによる交点と前記交点に隣接する光学成分の間の距離に基づいて、前記ピクセルに前記予め決定された数の視点位置のいずれか1つに対応するピクセル値を割り当てるステップを含み得る。
他の一実施形態によると、3D映像レンダリング方法は、視聴領域の候補視点位置に関する光学像を決定するステップと、ディスプレイパネルのピクセル及び光学レイヤの光学成分を通過する光線を決定するステップと、前記光線の方向と前記光学像の位置とを比較するステップと、前記比較結果に基づいて前記ピクセルにピクセル値を割り当てるステップとを含む。
前記光学像を決定するステップは、前記候補視点位置に光学変換を適用して前記光学像を決定するステップを含み得る。前記光線を決定するステップは、前記光学レイヤと前記ディスプレイパネルの間の媒質の第1屈折率、及び前記光学レイヤ及び前記ディスプレイパネルを含む3D表示装置外部の媒質の第2屈折率を考慮して前記光線を決定するステップを含み得る。前記光線の方向と前記光学像の位置とを比較するステップは、前記光線の屈折方向に基づいて基準線を決定するステップと、前記基準線と前記光学像の位置とを比較するステップとを含み得る。前記ピクセルにピクセル値を割り当てるステップは、前記基準線及び前記視聴領域の交差点をそれぞれ決定するステップと、前記交差点及び前記光学像のそれぞれの距離に基づいて前記ピクセルに前記ピクセル値を割り当てるステップとを含み得る。
一実施形態によると、3D映像レンダリング装置は、プロセッサと、コンピュータで読込みできる命令語を含むメモリとを含み、前記命令語が前記プロセッサで実行されれば、前記プロセッサは、視聴領域の候補視点位置に関する光学像を決定し、前記決定された光学像に基づいてディスプレイパネル上のピクセルを通過する仮想の光線を決定し、既光線及び光学レイヤの間の交点を決定し、前記交点及び前記光学レイヤの光学成分の間のそれぞれの距離に基づいて前記ピクセルにピクセル値を割り当てる。
本発明によると、3D映像レンダリング方法及び装置を提供することができる。
一実施形態に係る3D映像レンダリングシステムを示す図である。 一実施形態に係る凹面鏡を用いた3D映像レンダリング過程を示す図である。 一実施形態に係る凹面鏡を用いた3D映像レンダリング過程を示す図である。 一実施形態に係る凸レンズを用いた3D映像レンダリング過程を示す図である。 一実施形態に係る凸レンズを用いた3D映像レンダリング過程を示す図である。 一実施形態に係る光線の方向を算出して視点位置を割り当てる過程を示す図である。 他の実施形態に係る光線の方向を算出して視点位置を割り当てる過程を示す図である。 一実施形態に係る仮想の光線と光学レイヤの交点を用いて視点位置を割り当てる過程を示す図である。 一実施形態に係る交点の決定過程を示す図である。 一実施形態に係る3D映像レンダリング装置を示すブロック図である。 一実施形態に係る3D映像レンダリング方法を示した動作フローチャートである。 他の実施形態に係る3D映像レンダリング方法を示した動作フローチャートである。
本明細書で開示されている本発明の概念による実施形態に対して特定の構造的又は機能的な説明は、単に本発明の概念による実施形態を説明するための目的として例示したものであり、本発明の概念による実施形態は様々な形態で実施され、本明細書に説明された実施形態に限定されることはない。
第1又は第2などの用語を複数の構成要素を説明するために用いることができるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、実施形態を添付する図面を参照しながら詳細に説明する。各図面に提示された同じ参照符号は同じ部材を示し、これに対する重複説明は省略することにする。
図1は、一実施形態に係る3D映像レンダリングシステムを示す図である。図1を参照すると、3D映像レンダリングシステム100は、3D映像レンダリング装置110、3D表示装置120、及び反射屈折光学系(catadioptric system)130を含む。
3D表示装置120は、ディスプレイパネル及び光学レイヤを含む。光学レイヤは、パララックスバリア、レンチキュラーレンズ、及び方向性バックライトユニットのいずれか1つであり得る。ディスプレイパネルは複数のピクセルを含んでもよく、3D映像レンダリング装置110は、入力映像に基づいて予め決定された数の視点位置に対応するピクセル値を複数のピクセルに割り当てる。例えば、3D映像レンダリング装置110は、第1ピクセルには第1視点位置141に対応するピクセル値を割り当て、第2ピクセルには第2視点位置143に対応するピクセル値を割り当てる。以下で、ピクセル値割当の対象となる第1視点位置141及び第2視点位置143は候補視点位置として称される。実施形態により、候補視点位置は、単一ユーザのための左側視点位置及び右側視点位置を含んだり、あるいは、マルチビューのための予め決定された数の視点位置を含む。ディスプレイパネルは、3D映像レンダリング装置110によって割り当てられたピクセル値に基づいてパネル映像を表示する。
ディスプレイパネルのピクセルには、光源による光が提供される。例えば、光源は、ディスプレイパネルの後面に位置するバックライトユニット、あるいは光学レイヤの一例である方向性バックライトユニットであり得る。ピクセルに光が提供されることにより、ピクセルのピクセル値に対応する光がユーザに見られる。ここで、光学レイヤは、ユーザによって光が見られる方向を制限する。具体的に、パララックスバリアは、一定の間隔のスリットによって光を制限された方向に出力し、レンチキュラーレンズは、レンズの屈曲によって光を制限された方向に出力する。また、方向性バックライトユニットは、ディスプレイパネルに制限された方向の光を提供する。
例えば、第1視点位置141によるピクセル値が割り当てられたピクセルには第1視点位置141方向の光が提供され、第2視点位置143によるピクセル値が割り当てられたピクセルには第2視点位置143方向の光が提供される。視聴領域140に位置するユーザは、第1視点位置141によって第1視点位置141に対応する映像を視聴し、第2視点位置143によって第2視点位置143に対応する映像を視聴する。第1視点位置141は右側の目に対応し、第2視点位置143は左側目に対応する場合、ユーザは、両側の目を用いて互いに異なる映像を視聴することで立体感を感じることができる。
3D表示装置120によって出力された映像は反射屈折光学系130を介してユーザに提供される。反射屈折光学系130は、反射光学系に該当する鏡、あるいは屈折光学系に該当するレンズを含む。実施形態によって、3D表示装置120は小型スクリーンを介して実現され、反射屈折光学系130は3D表示装置120に出力された映像を拡大する。例えば、3D表示装置120及び反射屈折光学系130は、ヘッドアップディスプレイ(head up display:HUD)の一部として実現し得る。この場合、反射屈折光学系130は、凹面鏡、あるいは凸レンズを含んでもよく、凹面鏡は半透明な性質を有する。
3D映像レンダリング装置110は、ディスプレイパネルのピクセルにピクセル値を割り当てるために当該ピクセルを通過する光の経路を把握する。以下で、ディスプレイパネルのピクセルを通過する光は光線のように称する。例えば、第1ピクセルを通過する光線が第1視点位置141に提供される場合、3D映像レンダリング装置110は、第1ピクセルに第1視点位置141に対応するピクセル値を割り当てる。
3D映像レンダリング装置110は、ディスプレイ装置120の屈折率を考慮する。ディスプレイパネルと光学レイヤとの間の媒質の第1屈折率及び3D表示装置120外部の媒質の第2屈折率は互いに異なってもよい。例えば、ディスプレイパネルと光学レイヤとの間には、ディスプレイパネル及び光学レイヤを互いに付着させる媒質が満たされ、3D表示装置120の外部には空気が存在する。この場合、第1屈折率は、ディスプレイパネルと光学レイヤとの間に存在する媒質によって決定され、第2屈折率は空気の屈折率である「1」に決定される。3D映像レンダリング装置110は、このような屈折率差による光線の屈折を考慮して光線の経路を決定する。
ディスプレイパネルと光学レイヤとの間の媒質の屈折率は、ディスプレイパネルの屈折率及び/又は光学レイヤの屈折率に類似する。また、ディスプレイパネルの厚さ及び/又は光学レイヤの厚さは、ディスプレイパネルと光学レイヤとの間の距離に比べて極めて小さい。そのため、一実施形態によれば、光の屈折を考慮するときディスプレイパネル121の屈折率及び/又は光学レイヤ123の屈折率は無視される。他の実施形態によれば、ディスプレイパネルと光学レイヤとの間の媒質の屈折率は、ディスプレイパネルの屈折率及び/又は光学レイヤ123の屈折率をともに考慮した屈折率の代表値であり得る。
スネルの法則によれば、光が屈折率が互いに異なる媒質の境界を通過するとき、入射角のサイン値と反射角のサイン値は媒質の屈折率に応じて決定される。一般的に、パララックスバリアやレンチキュラーレンズの厚さ、及び媒質の屈折率による近似値を用いて光線の方向が予測される。しかし、このような近似値は、サイン値の比率ではない、タンジェント値の比率が屈折率の比率に反比例する演算に基づいているため、サイン値がタンジェント値に近似化できない場合に誤差が発生する恐れがある。
例えば、ノーマル方向と屈折された方向との差が小さい場合、近似値による誤差は小さいものの、ノーマル方向と屈折された方向との差が大きい場合には近似値と実際の屈折された方向との差が大きくなり、3D映像でアーチファクト(artifact)が観察される。このような近似値によるアーチファクトは、3D表示装置120の大きさが大きくなるほど増加する。3D映像レンダリング装置110は、屈折率による演算をディスプレイパネルの全てのピクセルに個別的に適用することでアーチファクトの発生を最小化する。
3D表示装置120から出力された光線の経路は、反射屈折光学系130によって変更される。例えば、反射屈折光学系130は、イメージを拡大する方向に光線の経路を変更させ得る。3D映像レンダリング装置110は、光線に対する反射屈折光学系130の影響を考慮してピクセル値を割り当てる。3D表示装置120から出力された映像の光学像及び実際の視点位置141、143を用いてピクセル値を割り当てるためには複雑な演算が求められる。3D映像レンダリング装置110は、実際の視点位置141、143に関する光学像を決定し、実際の視点位置141、143の光学像と3D表示装置120との間の位置関係を用いてピクセル値を割り当てる。そのため、比較的に少ない演算量で光線に対する反射屈折光学系130の影響を反映することができる。
光線の方向が決定された場合、3D映像レンダリング装置110は、ディスプレイパネルのピクセルにピクセル値を割り当てる。一実施形態によれば、3D映像レンダリング装置110は、光線の方向と視点位置141、143に対応する光学像の位置を比較し、ピクセルに対応する視点位置を直接的に決定する。下記で詳細に説明するが、視点位置141、143に対応する光学像は3D表示装置120の後面方向に位置する。3D映像レンダリング装置110は、光線を3D表示装置120の後面方向に延びていることで、視点位置141、143に対応する光学像のうちいずれかの像に近いか否かを判断する。例えば、3D表示装置120の後面方向に延びている第1光線が第1視点位置141に対応する光学像の近所に向かう場合、3D映像レンダリング装置110は、第1光線を出力するピクセルに第1視点位置141に対応するピクセル値を割り当てる。
他の実施形態によれば、3D映像レンダリング装置110は、視点位置141、143を基準とする仮想の光線と光学成分の間の距離に基づいて、ピクセルに対応する視点位置を間接的に決定してもよい。光学成分は、パララックスバリアのスリットやレンチキュラーレンズの屈曲のように制限された方向の光を通過させる成分を称する。例えば、3D映像レンダリング装置110は、特定ピクセルと視点位置141を通過する第1仮想の光線及び当該ピクセルと視点位置143を通過する第2仮想の光線を決定する。3D映像レンダリング装置110は、第1仮想の光線及び第1仮想の光線に隣接する光学成分の間の距離が、第2仮想の光線及び第2仮想の光線に隣接する光学成分の間の距離よりも近い場合、当該ピクセルに視点位置141のピクセル値を割り当てる。
図2及び図3は、一実施形態による凹面鏡を用いた3D映像レンダリング過程を示す図である。図2を参照すると、3D表示装置によって仮想のオブジェクト210が出力される。したがって、仮想のオブジェクト210の位置は、3D表示装置の位置に対応する。仮想のオブジェクト210に光学変換を適用して仮想のオブジェクト210の投射された(projected)位置230が決定される。仮想のオブジェクト210が凹面鏡220の焦点fの中に位置するため、仮想のオブジェクト210の投射された位置230は拡大した正立虚像であってもよい。光学変換は、焦点f及び屈曲などを含む凹面鏡220の光学的特性に基づいて実行される。図2及び図3には1つの凹面鏡が図示されているが、1つの凹面鏡の代わりに、当該の凹面鏡に類似する光学的な効果を発生させる様々な光学系を用いることができる。
ユーザは、視点位置240で仮想のオブジェクト210の投射された位置230を観察する。3D表示装置は、矢印215方向に仮想のオブジェクト210に関する映像を出力するが、ユーザは、矢印235方向に仮想のオブジェクト210の投射された位置230を観察する。したがって、ディスプレイパネルの特定ピクセルに対応する視点位置を決定することにおいて、凹面鏡220による影響が考慮されなければならない。ここで、3D映像レンダリング装置は、ディスプレイパネルの全てのピクセルに関して凹面鏡220による影響を考慮する代わりに、視点位置240に光学変換を適用して、仮想の視点位置及び仮想のオブジェクト210の関係でディスプレイパネルにピクセルを割り当てる。仮想の視点位置は、光学変換が適用された視点位置を意味する。
図3を参照すると、視点位置310に関する仮想の視点位置320が図示されている。3D映像レンダリング装置は、別途のカメラなどを通した視点追跡方式を用いて視点位置310の位置を決定し、視点位置310の位置に光学変換を適用して仮想の視点位置320の位置を決定する。仮想の視点位置320は、投射された位置350と同様に、凹面鏡340の光学的特性による光学変換によって決定される。したがって、視点位置310及び投射された位置350の間の光学的関係と、仮想の視点位置320及び仮想のオブジェクト330の間の光学的関係は互いに対応する。3D映像レンダリング装置は、視点位置310及び投射された位置350の代わりに、仮想の視点位置320及び仮想のオブジェクト330を用いてディスプレイパネルのピクセルにピクセルを割り当てる。この場合、3D映像レンダリング装置は、ディスプレイパネルのピクセルに関して光学変換を適用することなく、仮想の視点位置320を用いてディスプレイパネルのピクセルに対応する視点位置を決定し得る。したがって、凹面鏡340の影響を考慮することにおいて、演算量を減少させることができる。
図4及び図5は、一実施形態に係る凸レンズを用いた3D映像レンダリング過程を示す図である。図4を参照すると、3D表示装置によって仮想のオブジェクト410が出力される。したがって、仮想のオブジェクト410の位置は、3D表示装置の位置に対応する。仮想のオブジェクト410に光学変換を適用して仮想のオブジェクト410の投射された位置430が決定される。光学変換は、焦点f及び屈曲などを含む凸レンズ420の光学的特性に基づいて実行される。図4及び図5には1つの凸レンズが図示されているが、1つの凸レンズの代わりに当該の凸レンズと類似の光学的効果を発生させる様々な光学系を用いてもよい。
図2及び図3を参照して説明された実施形態と同様に、3D映像レンダリング装置は、ディスプレイパネルの全てのピクセルに関して凸レンズ420による影響を考慮する代わりに、視点位置440の仮想の視点位置450及び仮想のオブジェクト410の関係でディスプレイパネルにピクセルを割り当てる。凸レンズ420の場合、投射された位置430がディスプレイパネルの後方に結像し得る。この場合、ユーザが投射された位置430を観察し難しい位置に存在する。したがって、ユーザが投射された位置430を観察するよう追加的な光学系を用いてもよい。
図5を参照すると、3D表示装置に出力された仮想のオブジェクト510、凸レンズ520、仮想のオブジェクト510の投射された位置530、平面鏡540及びユーザの視点位置550が図示されている。平面鏡540は、ユーザが仮想のオブジェクト510の投射された位置530を観察するよう、仮想のオブジェクト510の投射された位置530による光線を反射させることができる。したがって、ユーザは、適所で仮想のオブジェクト510の投射された位置530を観察することができる。例えば、図5に示されたシステムはHUDの一部として実現され、矢印555は車両の前方を示す。この場合、鏡540は半透明な性質を有する。したがって、ユーザは、車両の前方を注目しながら仮想のオブジェクト510の投射された位置530を観察できる。
図6は、一実施形態による光線の方向を算出して視点位置を割り当てる過程を示す図である。図6を参照すると、ディスプレイパネル640のピクセル及び光学レイヤ630の光学成分を通過する光線が図示されている。図6は、光学レイヤ630がディスプレイパネル640の後面に位置する実施形態を示している。光学レイヤ630は、ディスプレイパネル640の後面に位置するため方向性バックライトであってもよい。
3D映像レンダリング装置は、ディスプレイパネル640のピクセル及び光学レイヤの光学成分を通過する光線を決定し、光線の方向及び光学像615、625の位置に基づいて、ディスプレイパネル640のピクセルに対応する視点位置を決定する。光学像615、625は、候補視点位置に関する光学変換によって決定される。例えば、光学像615は第1視点位置に関する光学変換によって決定され、光学像625は第2視点位置に関する光学変換によって決定される。光学像615、625は、光学レイヤ630及びディスプレイパネル640の後面方向に位置する。予め決定した大きさの視聴領域610、620は光学像615、625を含む。視聴領域610、620は光学像615、625の位置に基づいて定義される。
3D映像レンダリング装置は、基準線に基づいて光線の方向及び光学像615、625の位置を比較する。基準線は光線の屈折方向に基づいて決定される。例えば、3D映像レンダリング装置は、ピクセル661、663、665を通過する光線に基づいて基準線651、653、655を決定する。上述したように、光学レイヤ630とディスプレイパネル640との間の媒質の屈折率、及び3D表示装置外部の媒質の屈折率が互いに異なるため、光線はディスプレイパネル640を通過するとき屈折率の大きい媒質の方向に屈折される。光線の屈折方向とは、光線が屈折された以後に進行する方向を意味する。矢印10は光線の屈折方向を示し、矢印20は光線の屈折方向の反対方向を示す。基準線は、光線の屈折方向の反対方向に進行する線として決定される。
3D映像レンダリング装置は、基準線651、653、655及び光学像615、625の位置を比較する。一実施形態によれば、3D映像レンダリング装置は、位置する視聴領域610、620に基づいて基準線651、653、655及び光学像615、625の位置を比較する。より具体的に、基準線651は視聴領域610と交差し、基準線653は視聴領域620を通過する。したがって、3D映像レンダリング装置は、基準線653に対応するピクセル663に光学像615に対応する視点位置のピクセル値を割り当て、基準線651、655に対応するピクセル661、665に光学像625に対応する視点位置のピクセル値を割り当てる。
実施形態によって、1つのピクセルによる光線のうち2以上の光線が視聴領域610、620を通過してもよい。この場合、3D映像レンダリング装置は、予め決定した条件に応じて視聴領域610、620を通過する2以上の候補光線のいずれか1つの候補光線を選択する。一実施形態によれば、3D映像レンダリング装置は、視聴領域610、620を通過する2以上の光線のうち視聴領域610、620の中心に近い1つの光線を選択する。視聴領域610、620の中心は、視聴領域610と視聴領域620の境界に存在する。
他の実施形態によれば、3D映像レンダリング装置は、視聴領域610、620を通過する2以上の光線のうち、視聴領域610、620それぞれの中心に近い1つの光線を選択してもよい。例えば、第1ピクセルを通過する第1光線が視聴領域610の中心を通過し、第1ピクセルを通過する第2光線が視聴領域620を通過するが、視聴領域620の中心から離れた場合に3D映像レンダリング装置は第1光線を選択する。
また、実施形態によって、第2ピクセルによる光線の全てが視聴領域610、620を通過しなくてもよい。この場合、3D映像レンダリング装置は、予め決定した条件に応じて第2ピクセルにピクセル値を割り当てる。一実施形態によれば、3D映像レンダリング装置は、予め一定の範囲で最も小さいピクセル値を第2ピクセルに割り当てる。例えば、ピクセル値の範囲は0〜255であってもよい。もし、第2ピクセルによる光線の全てが視聴領域610、620を通過しない場合、3D映像レンダリング装置は、第2ピクセルに0のピクセル値を割り当てる。
他の実施形態によれば、3D映像レンダリング装置は、視聴領域610、620の視点位置のうち第2ピクセルによる光線に最も近い視聴領域の視点位置に対応するピクセル値を第2ピクセルに割り当ててもよい。例えば、第2ピクセルによる第1光線及び第2光線の全てが視聴領域610を通過しないが、第1光線と視聴領域610の距離が第2光線と視聴領域620の距離よりも近い場合、3D映像レンダリング装置は、視聴領域610の視点位置に対応するピクセル値を第2ピクセルに割り当てる。
光学像615、625は、左側視点位置及び右側視点位置に対応する。図6では、候補視点位置が単一ユーザのための2つの視点位置を含んでいる実施形態について説明したが、実施形態によって、候補視点位置は、マルチビューのための予め決定された数の視点位置を含んでもよい。候補視点位置がマルチビューのための予め決定された数の視点位置を含むことによって、3D映像レンダリング装置は、ディスプレイパネルのピクセル及び光学レイヤの光学成分を通過する光線を決定し、光線の方向及び予め決定された数の視点位置に対応する光学像の位置に基づいてピクセルにピクセル値を割り当てる。予め決定された数の視点位置は、ユーザの目とは異なって固定された位置に存在し、予め決定された数の位置それぞれは予め決定された代表位置によって特定される。3D映像レンダリング装置は、代表位置に基づいて予め決定された数の視点位置に関する光学像を決定できる。
図7は、他の実施形態による光線の方向を算出して視点位置を割り当てる過程を示す図である。図7を参照すると、光学レイヤ740の光学成分及びディスプレイパネル730のピクセルを通過する光線が図示されている。図7は、光学レイヤ740がディスプレイパネル730の前面に位置する実施形態を示す。光学レイヤ740は、ディスプレイパネル730の前面に位置しているため、パララックスバリア又はレンチキュラーレンズであり得る。
光学レイヤがディスプレイパネルの前面に位置する場合にも、3D映像レンダリング装置は、光学レイヤがディスプレイパネルの後面に位置する場合と類似な方式に基づいて視点位置を割り当てる。具体的に、3D映像レンダリング装置は、光線の屈折方向に基づいて基準線751、753、755を決定し、基準線751、753、755及び光学像715、725の位置に基づいてディスプレイパネル730のピクセルに視点位置を割り当てる。基準線755は視聴領域710と交差し、基準線751、753は視聴領域720と交差する。したがって、3D映像レンダリング装置は、基準線755に対応するピクセル765に光学像715に対応する視点位置のピクセル値を割り当て、基準線751、753に対応するピクセル761、763に光学像725に対応する視点位置のピクセル値を割り当てる。
図8は、一実施形態による仮想の光線と光学レイヤの交点を用いて視点位置を割り当てる過程を示す図である。図8を参照すると、ディスプレイパネル830のピクセル835及び光学レイヤ840を通過する仮想の光線851、853が図示されている。
3D映像レンダリング装置は、光学像810、820を基準とする仮想の光線851、853と光学成分との間の距離に基づいて、ピクセルに対応する視点位置を間接的に決定する。ピクセルを通過する実際の光線の経路は、光学成分の中心を通過するが、3D映像レンダリング装置は、特定のサブピクセルと特定の候補視域を通過する仮想の候補光線を用いることができる。
より具体的に、3D映像レンダリング装置は、候補視点位置に基づいて光学像810、820を決定し、光学像810、820に基づいて仮想の光線851、853を決定する。3D映像レンダリング装置は、仮想の光線851、853の屈折方向の反対方向に光学像810、820が位置するように、仮想の光線851、853を決定する。3D映像レンダリング装置は、仮想の光線851、853を決定するため仮想の光線851、853が屈折された方向の反対方向に進行する基準線855、857を用いる。より具体的に、3D映像レンダリング装置は、基準線855、857と光学像810、820が交差するように仮想の光線851、853を決定する。3D映像レンダリング装置は、ディスプレイパネル830と光学レイヤ840との間の媒質の第1屈折率、及びディスプレイパネル830及び光学レイヤ840を含む3D表示装置外部の媒質の第2屈折率を考慮して、仮想の光線851、853を決定できる。
仮想の光線851、853が決定されれば、3D映像レンダリング装置は、仮想の光線851、853及び光学レイヤ840の間の交点841、843を決定する。3D映像レンダリング装置は、第1屈折率及び前記第2屈折率による仮想の光線851、853の入射角及び屈折角を考慮して交点841、843を決定する。交点841、843を決定する具体的な過程については図9を参照して後述する。
交点841、843が決定されれば、3D映像レンダリング装置は、交点841、843及び光学レイヤ840の光学成分845、847の間の距離D1、D2に基づいて、ピクセル835に対応する視点位置を決定する。3D映像レンダリング装置は、交点841、843のうち隣接する光学成分との距離が最も近い交点を決定し、決定された交点に対応する視点位置のピクセル値をピクセル835に割り当てる。ここで、隣接する光学成分とは、光学レイヤ840の光学成分のうち交点に最も近い光学成分を意味する。例えば、光学成分845が交点841の隣接する光学成分に当該し、光学成分847が交点843の隣接する光学成分に該当する。交点841と光学成分845との間の距離D1が、交点843と光学成分847との間の距離D2よりも近い場合、3D映像レンダリング装置は、ピクセル835に光学像810に対応する視点位置のピクセル値を割り当てる。ピクセル835が仮想の光線853周辺の実際の光線より仮想の光線853周辺の実際の光線によって観察される可能性が高いためである。
光学像810、820は、左側視点位置及び右側視点位置に対応する。図8では候補視点位置が単一ユーザのための2つの視点位置を含む実施形態について説明したが、実施形態によって候補視点位置は、マルチビューのための予め決定された数の視点位置を含んでもよい。候補視点位置がマルチビューのための予め決定された数の視点位置を含むことによって、3D映像レンダリング装置は、予め決定された数の視点位置に照射される仮想の光線を決定し、決定された仮想の光線それぞれによる交点及び交点に隣接する光学成分の間の距離に基づいて、ピクセルに前記予め決定された数の視点位置のいずれか1つに対応するピクセル値を割り当てる。予め決定された数の視点位置は、ユーザの目と異なって固定された位置に存在し、予め決定された数の視点位置の位置それぞれは予め決定された代表位置によって特定される。3D映像レンダリング装置は、代表位置に基づいて予め決定された数の視点位置に関する光学像を決定できる。
図9は、一実施形態による交点の決定過程を示す図である。図9を参照すると、r−z平面上の光学像E、ピクセルP、及び交点Bが図示されている。r軸は光学像EとピクセルPをつなぐ直線をx−y平面で投影した直線に該当する軸として定義される。
上述したように、3D映像レンダリング装置は、光学像Eに基づいてピクセルP及び光学レイヤを通過する仮想の光線を決定し、仮想の光線と光学レイヤの交点Bを決定する。光学像Eの位置はx、y、zに示し、ピクセルPの位置はx、y、zに示す。ここで、r軸上において光学像EとピクセルPの間の距離rは数式(1)のように示すことができる。
また、スネルの法則により数式(2)が成立する。
ここで、nはディスプレイ装置と光学レイヤとの間の屈折率を示し、nは3D表示装置外部の屈折率を示し、θは入射角を示し、θは屈折角を示す。数式(2)により数式(3)を取得し、数式(3)を展開して数式(4)を取得できる。
ここで、rはr軸上でピクセルPと交点Bとの間の距離を示し、dはz軸上で光学像Eと交点Bとの間の距離を示し、dはz軸上でピクセルPと交点Bとの間の距離を示す。数式(4)を整理すると、数式(5)を取得できる。
ここで、係数は次のように示すことができる。
数式(5)によると、4個の解を取得できる。3D映像レンダリング装置は、この中に最も小さい正数の解を最終的な解として決定する。一方、x−yの2次元平面上で、光学像Eが投影された点、ピクセルPが投影された点、及び交点Bが投影された点は直線をなしているため、交点Bのx座標及びy座標を次のように求めることができる。
3D映像レンダリング装置は、数式(1)によって求めたr、数式(5)によって求めたrの最終的な解、光学像Eの座標、ピクセルPの座標を数式(6)及び数式(7)に代入することによって、交点Bのx座標及びy座標を求めることができる。交点Bのz座標は、ピクセルPのz座標、及びディスプレイパネルと光学レイヤとの間の距離により求めることができる。
図10は、一実施形態による3D映像レンダリング装置を示すブロック図である。図10を参照すると、3D映像レンダリング装置は、プロセッサ1010、センサ1020及びメモリ1030を含む。プロセッサ1010、センサ1020及びメモリ1030は、バス1040を介して通信する。
センサ1020はユーザの目を検出したり追跡する。センサ1020は、イメージセンサ、近接センサ、及び赤外線センサのうち少なくとも1つを含む。センサ1020は、周知の方式(例えば、光学イメージを前記信号に変換する方式など)でユーザの目を検出又は追跡する。センサ1020は、撮影されたカラー映像、深度映像及び赤外線映像のうち少なくとも1つをプロセッサ1010及びメモリ1030のうち少なくとも1つに伝達する。
プロセッサ1010は、上述した少なくとも1つの装置を含むか、上述した少なくとも1つの方法を行ってもよい。例えば、プロセッサ1010は、上述した3D映像レンダリングに関する動作を処理する。より具体的に、プロセッサ1010は、視聴領域の候補視点位置に関する光学像を決定し、光学像に基づいてディスプレイパネル上のピクセルを通過する仮想の光線を決定し、仮想の光線と光学レイヤとの間の交点を決定し、交点と光学レイヤの光学成分の間の距離に基づいてピクセルにピクセル値を割り当てる。あるいは、プロセッサ1010は、視聴領域の候補視点位置に関する光学像を決定し、ディスプレイパネルのピクセル及び光学レイヤの光学成分を通過する光線を決定し、光線の方向及び光学像の位置を比較し、比較結果に基づいてピクセルにピクセル値を割り当てる。
メモリ1030は、コンピュータで読み込み命令語を格納する。メモリ1030に格納された命令語がプロセッサ1010で実行されれば、プロセッサ1010は3D映像レンダリングに関する動作を処理する。また、メモリ1030は、上述した3D映像レンダリングに関するデータを格納する。
プロセッサ1010は命令語やプログラムを実行したり、3D映像レンダリング装置を制御する。3D映像レンダリング装置は、入出力装置(図示せず)によって外部装置(例えば、パーソナルコンピュータ又はネットワーク)に接続され、データを交換する。3D映像レンダリング装置は、移動電話、スマートフォン、PDA、タブレットコンピュータ、ラップトップコンピュータなどのモバイル装置、パーソナルコンピュータ、タブレットコンピュータ、ネットブックなどのコンピューティング装置、又は、テレビ、スマートテレビ、ゲート制御のためのセキュリティー装置などの電子製品の少なくとも一部として実現される。また、3D映像レンダリング装置は、HUDの一部として実現される。その他に、3D映像レンダリング装置については上述した内容が適用され得るため、より詳細な説明は省略する。
図11は、一実施形態による3D映像レンダリング方法を示した動作フローチャートである。図11を参照すると、ステップS1110において、3D映像レンダリング装置は、視聴領域の候補視点位置に関する光学像を決定する。ステップS1120において、3D映像レンダリング装置は、光学像に基づいてディスプレイパネル上のピクセルを通過する候補光線を決定する。ステップS1130において、3D映像レンダリング装置は、候補光線と光学レイヤとの間の交点を決定する。ステップS1140において、3D映像レンダリング装置は、交点と光学レイヤの光学成分の間の距離に基づいてピクセルにピクセル値を割り当てる。その他に、3D映像レンダリング方法に関しては、上述した内容が適用され得るため、より詳細な説明は省略する。
図12は、他の実施形態による3D映像レンダリング方法を示した動作フローチャートである。ステップS1210において、3D映像レンダリング装置は、視聴領域の候補視点位置に関する光学像を決定する。ステップS1220において、3D映像レンダリング装置は、ディスプレイパネルのピクセル及び光学レイヤの光学成分を通過する候補光線を決定する。ステップS1230において、3D映像レンダリング装置は、候補光線の方向と光学像の位置を比較する。ステップS1240において、3D映像レンダリング装置は、比較結果に基づいてピクセルにピクセル値を割り当てる。その他に、3D映像レンダリング方法に関しては、上述した内容が適用され得るため、より詳細な説明は省略する。
以上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技の術分野で通常の知識を有する者であれば、前記に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で実行されたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組合わせられたり、他の構成要素又は均等物によって置き換えたり置換されても適切な結果を達成することができる。
本発明は、3D映像レンダリング方法及び装置に関する。
3D映像を認知するための要因のうち最も支配的な要因は、ユーザの両目に見える映像の差である。ユーザの両目に互いに異なる映像を見せるための方法として、偏光を用いた分割、時分割、原色の波長を相違にした波長分割などを所望する映像をフィルタリングするメガネ式の方法と、パララックスバリア(parallax barrier)、レンチキュラーレンズ(lenticular lens)、又は、方向性バックライトユニット(directional BLU)などの3D変換装置を用いて各映像を特定空間でのみ見ることのできる無メガネ式の方法がある。無メガネ式の方法の場合、メガネ着用の不便を減らし得る長所がある。このような3D映像は、鏡及びレンズなどの光学系によって提供され得る。この場合、光学系によって光の方向が変更されるため、3D映像レンダリング時光の方向変化が考慮される必要がある。
実施形態は、3D映像レンダリング方法及び装置を提供することにある。
一側面によれば、3D映像レンダリング方法は、視聴領域の候補視点位置に関する光学像を決定するステップと、前記決定された光学像に基づいて、ディスプレイパネル上のピクセルを通過する仮想の光線を決定するステップと、前記仮想の光線と光学レイヤとの間の交点を決定するステップと、前記交点及び前記光学レイヤの光学成分の間のそれぞれの距離に基づいて、前記ピクセルにピクセル値を割り当てるステップとを含む。
前記光学像を決定するステップは、前記候補視点位置に光学変換を適用して前記光学像を決定するステップを含み得る。前記光学変換は、凹面鏡あるいは凸レンズの光学的特性に基づいて実行され得る。前記仮想の光線を決定するステップは、前記光学レイヤと前記ディスプレイパネルの間の媒質の第1屈折率、及び前記光学レイヤ及び前記ディスプレイパネルを含む3D表示装置外部の媒質の第2屈折率を考慮して前記仮想の光線を決定するステップを含み得る。前記光学像は、前記ディスプレイパネルの後面方向に位置し得る。
前記交点を決定するステップは、前記光学レイヤと前記ディスプレイパネルの間の媒質の第1屈折率、及び前記光学レイヤ及び前記ディスプレイパネルを含む3D表示装置外部の媒質の第2屈折率による前記仮想の光線の入射角及び屈折角を考慮して前記交点を決定するステップを含み得る。前記交点を決定するステップは、前記光学像の座標及び前記ピクセルの座標に基づいて、光学像とピクセルをつなぐ直線をx−y平面で投影したr軸上で、前記光学像と前記ピクセルとの間の距離を算出するステップと、前記光学レイヤと前記ディスプレイパネルの間の媒質の第1屈折率、及び前記光学レイヤ及び前記ディスプレイパネルを含む3D表示装置外部の媒質の第2屈折率に基づいて、前記r軸上で前記ピクセル及び前記交点の間の距離を算出するステップと、前記光学像と前記ピクセルとの間の距離、及び前記ピクセルと前記交点との間の距離に基づいて前記交点の座標を決定するステップとを含み得る。
前記ピクセル値を割り当てるステップは、前記交点のうち隣接する光学成分との距離が最も近い交点を決定するステップと、前記決定された交点に対応する視点位置のピクセル値を前記ピクセルに割り当てるステップとを含み得る。前記候補視点位置は、単一ユーザのための左側視点位置及び右側視点位置を含むか、あるいはマルチビューのための予め決定された数の視点位置を含み得る。
前記候補視点位置が単一ユーザのための左側視点位置及び右側視点位置を含むことによって、前記仮想の光線は、前記左側視点位置に照射される第1仮想の光線及び前記右側視点位置に照射される第2仮想の光線を含み、前記ピクセル値を割り当てるステップは、前記第1仮想の光線による第1交点と前記第1交点に隣接する光学成分の間の距離、及び前記第2仮想の光線による第2交点と前記第2交点に隣接する光学成分の間の距離に基づいて、前記ピクセルに前記左側視点位置のピクセル値又は前記右側視点位置のピクセル値を割り当てるステップを含み得る。前記候補視点位置がマルチビューのための予め決定された数の視点位置を含むことによって、前記仮想の光線は、前記予め決定された数の視点位置に照射される光線を含み、前記ピクセル値を割り当てるステップは、前記光線それぞれによる交点と前記交点に隣接する光学成分の間の距離に基づいて、前記ピクセルに前記予め決定された数の視点位置のいずれか1つに対応するピクセル値を割り当てるステップを含み得る。
他の一実施形態によると、3D映像レンダリング方法は、視聴領域の候補視点位置に関する光学像を決定するステップと、ディスプレイパネルのピクセル及び光学レイヤの光学成分を通過する光線を決定するステップと、前記光線の方向と前記光学像の位置とを比較するステップと、前記比較結果に基づいて前記ピクセルにピクセル値を割り当てるステップとを含む。
前記光学像を決定するステップは、前記候補視点位置に光学変換を適用して前記光学像を決定するステップを含み得る。前記光線を決定するステップは、前記光学レイヤと前記ディスプレイパネルの間の媒質の第1屈折率、及び前記光学レイヤ及び前記ディスプレイパネルを含む3D表示装置外部の媒質の第2屈折率を考慮して前記光線を決定するステップを含み得る。前記光線の方向と前記光学像の位置とを比較するステップは、前記光線の屈折方向に基づいて基準線を決定するステップと、前記基準線と前記光学像の位置とを比較するステップとを含み得る。前記ピクセルにピクセル値を割り当てるステップは、前記基準線及び前記視聴領域の交差点をそれぞれ決定するステップと、前記交差点及び前記光学像のそれぞれの距離に基づいて前記ピクセルに前記ピクセル値を割り当てるステップとを含み得る。
一実施形態によると、3D映像レンダリング装置は、プロセッサと、コンピュータで読込みできる命令語を含むメモリとを含み、前記命令語が前記プロセッサで実行されれば、前記プロセッサは、視聴領域の候補視点位置に関する光学像を決定し、前記決定された光学像に基づいてディスプレイパネル上のピクセルを通過する仮想の光線を決定し、既光線及び光学レイヤの間の交点を決定し、前記交点及び前記光学レイヤの光学成分の間のそれぞれの距離に基づいて前記ピクセルにピクセル値を割り当てる。
本発明によると、3D映像レンダリング方法及び装置を提供することができる。
一実施形態に係る3D映像レンダリングシステムを示す図である。 一実施形態に係る凹面鏡を用いた3D映像レンダリング過程を示す図である。 一実施形態に係る凹面鏡を用いた3D映像レンダリング過程を示す図である。 一実施形態に係る凸レンズを用いた3D映像レンダリング過程を示す図である。 一実施形態に係る凸レンズを用いた3D映像レンダリング過程を示す図である。 一実施形態に係る光線の方向を算出して視点位置を割り当てる過程を示す図である。 他の実施形態に係る光線の方向を算出して視点位置を割り当てる過程を示す図である。 一実施形態に係る仮想の光線と光学レイヤの交点を用いて視点位置を割り当てる過程を示す図である。 一実施形態に係る交点の決定過程を示す図である。 一実施形態に係る3D映像レンダリング装置を示すブロック図である。 一実施形態に係る3D映像レンダリング方法を示動作フローチャートである。 他の実施形態に係る3D映像レンダリング方法を示動作フローチャートである。
本明細書で開示されている本発明の概念による実施形態に対して特定の構造的又は機能的な説明は、単に本発明の概念による実施形態を説明するための目的として例示したものであり、本発明の概念による実施形態は様々な形態で実施され、本明細書に説明された実施形態に限定されることはない。
第1又は第2などの用語を複数の構成要素を説明するために用いることができるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素も命名することができる。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義がされない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、実施形態を添付する図面を参照しながら詳細に説明する。各図面に提示された同じ参照符号は同じ部材を示し、これに対する重複説明は省略することにする。
図1は、一実施形態に係る3D映像レンダリングシステムを示す図である。図1を参照すると、3D映像レンダリングシステム100は、3D映像レンダリング装置110、3D表示装置120、及び反射屈折光学系(catadioptric system)130を含む。
3D表示装置120は、ディスプレイパネル及び光学レイヤを含む。光学レイヤは、パララックスバリア、レンチキュラーレンズ、及び方向性バックライトユニットのいずれか1つであり得る。ディスプレイパネルは複数のピクセルを含んでもよく、3D映像レンダリング装置110は、入力映像に基づいて予め決定された数の視点位置に対応するピクセル値を複数のピクセルに割り当てる。例えば、3D映像レンダリング装置110は、第1ピクセルには第1視点位置141に対応するピクセル値を割り当て、第2ピクセルには第2視点位置143に対応するピクセル値を割り当てる。以下で、ピクセル値割当の対象となる第1視点位置141及び第2視点位置143は候補視点位置として称される。実施形態により、候補視点位置は、単一ユーザのための左側視点位置及び右側視点位置を含んだり、あるいは、マルチビューのための予め決定された数の視点位置を含む。ディスプレイパネルは、3D映像レンダリング装置110によって割り当てられたピクセル値に基づいてパネル映像を表示する。
ディスプレイパネルのピクセルには、光源による光が提供される。例えば、光源は、ディスプレイパネルの後面に位置するバックライトユニット、あるいは光学レイヤの一例である方向性バックライトユニットであり得る。ピクセルに光が提供されることにより、ピクセルのピクセル値に対応する光がユーザによって見られる。ここで、光学レイヤは、ユーザによって光が見られる方向を制限する。具体的に、パララックスバリアは、一定の間隔のスリットによって光を制限された方向に出力し、レンチキュラーレンズは、レンズの屈曲によって光を制限された方向に出力する。また、方向性バックライトユニットは、ディスプレイパネルに制限された方向の光を提供する。
例えば、第1視点位置141によるピクセル値が割り当てられたピクセルには第1視点位置141方向の光が提供され、第2視点位置143によるピクセル値が割り当てられたピクセルには第2視点位置143方向の光が提供される。視聴領域140に位置するユーザは、第1視点位置141によって第1視点位置141に対応する映像を視聴し、第2視点位置143によって第2視点位置143に対応する映像を視聴する。第1視点位置141は右側の目に対応し、第2視点位置143は左側目に対応する場合、ユーザは、両側の目を用いて互いに異なる映像を視聴することで立体感を感じることができる。
3D表示装置120によって出力された映像は反射屈折光学系130を介してユーザに提供される。反射屈折光学系130は、反射光学系に該当する鏡、あるいは屈折光学系に該当するレンズを含む。実施形態によって、3D表示装置120は小型スクリーンを介して実現され、反射屈折光学系130は3D表示装置120に出力された映像を拡大する。例えば、3D表示装置120及び反射屈折光学系130は、ヘッドアップディスプレイ(head up display:HUD)の一部として実現し得る。この場合、反射屈折光学系130は、凹面鏡、あるいは凸レンズを含んでもよく、凹面鏡は半透明な性質を有する。
3D映像レンダリング装置110は、ディスプレイパネルのピクセルにピクセル値を割り当てるために当該ピクセルを通過する光の経路を把握する。以下で、ディスプレイパネルのピクセルを通過する光光線のように称する。例えば、第1ピクセルを通過する光線が第1視点位置141に提供される場合、3D映像レンダリング装置110は、第1ピクセルに第1視点位置141に対応するピクセル値を割り当てる。
3D映像レンダリング装置110は、ディスプレイ装置120の屈折率を考慮する。ディスプレイパネルと光学レイヤとの間の媒質の第1屈折率及び3D表示装置120外部の媒質の第2屈折率は互いに異なってもよい。例えば、ディスプレイパネルと光学レイヤとの間には、ディスプレイパネル及び光学レイヤを互いに付着させる媒質が満たされ、3D表示装置120の外部には空気が存在する。この場合、第1屈折率は、ディスプレイパネルと光学レイヤとの間に存在する媒質によって決定され、第2屈折率は空気の屈折率である「1」に決定される。3D映像レンダリング装置110は、このような屈折率差による光線の屈折を考慮して光線の経路を決定する。
ディスプレイパネルと光学レイヤとの間の媒質の屈折率は、ディスプレイパネルの屈折率及び/又は光学レイヤの屈折率に類似する。また、ディスプレイパネルの厚さ及び/又は光学レイヤの厚さは、ディスプレイパネルと光学レイヤとの間の距離に比べて極めて小さい。そのため、一実施形態によれば、光の屈折を考慮するときディスプレイパネル121の屈折率及び/又は光学レイヤ123の屈折率は無視される。他の実施形態によれば、ディスプレイパネルと光学レイヤとの間の媒質の屈折率は、ディスプレイパネルの屈折率及び/又は光学レイヤ123の屈折率をともに考慮した屈折率の代表値であり得る。
スネルの法則によれば、光が屈折率が互いに異なる媒質の境界を通過するとき、入射角のサイン値と反射角のサイン値は媒質の屈折率に応じて決定される。一般的に、パララックスバリアやレンチキュラーレンズの厚さ、及び媒質の屈折率による近似値を用いて光線の方向が予測される。しかし、このような近似値は、サイン値の比率ではない、タンジェント値の比率が屈折率の比率に反比例する演算に基づいているため、サイン値がタンジェント値に近似化できない場合に誤差が発生する恐れがある。
例えば、ノーマル方向と屈折された方向との差が小さい場合、近似値による誤差は小さいものの、ノーマル方向と屈折された方向との差が大きい場合には近似値と実際の屈折された方向との差が大きくなり、3D映像でアーチファクト(artifact)が観察される。このような近似値によるアーチファクトは、3D表示装置120のサイズが大きくなるほど増加する。3D映像レンダリング装置110は、屈折率による演算をディスプレイパネルの全てのピクセルに個別的に適用することでアーチファクトの発生を最小化する。
3D表示装置120から出力された光線の経路は、反射屈折光学系130によって変更される。例えば、反射屈折光学系130は、イメージを拡大する方向に光線の経路を変更させ得る。3D映像レンダリング装置110は、光線に対する反射屈折光学系130の影響を考慮してピクセル値を割り当てる。3D表示装置120から出力された映像の光学像及び実際の視点位置141、143を用いてピクセル値を割り当てるためには複雑な演算が求められる。3D映像レンダリング装置110は、実際の視点位置141、143に関する光学像を決定し、実際の視点位置141、143の光学像と3D表示装置120との間の位置関係を用いてピクセル値を割り当てる。そのため、比較的に少ない演算量で光線に対する反射屈折光学系130の影響を反映することができる。
光線の方向が決定された場合、3D映像レンダリング装置110は、ディスプレイパネルのピクセルにピクセル値を割り当てる。一実施形態によれば、3D映像レンダリング装置110は、光線の方向と視点位置141、143に対応する光学像の位置を比較し、ピクセルに対応する視点位置を直接的に決定する。下記で詳細に説明するが、視点位置141、143に対応する光学像は3D表示装置120の後面方向に位置する。3D映像レンダリング装置110は、光線を3D表示装置120の後面方向に延びていることで、視点位置141、143に対応する光学像のうちいずれかの像に近いか否かを判断する。例えば、3D表示装置120の後面方向に延びている第1光線が第1視点位置141に対応する光学像の近所に向かう場合、3D映像レンダリング装置110は、第1光線を出力するピクセルに第1視点位置141に対応するピクセル値を割り当てる。
他の実施形態によれば、3D映像レンダリング装置110は、視点位置141、143を基準とする仮想の光線と光学成分の間の距離に基づいて、ピクセルに対応する視点位置を間接的に決定してもよい。光学成分は、パララックスバリアのスリットやレンチキュラーレンズの屈曲のように制限された方向の光を通過させる成分を称する。例えば、3D映像レンダリング装置110は、特定ピクセルと視点位置141を通過する第1仮想の光線及び当該ピクセルと視点位置143を通過する第2仮想の光線を決定する。3D映像レンダリング装置110は、第1仮想の光線及び第1仮想の光線に隣接する光学成分の間の距離が、第2仮想の光線及び第2仮想の光線に隣接する光学成分の間の距離よりも近い場合、当該ピクセルに視点位置141のピクセル値を割り当てる。
図2及び図3は、一実施形態による凹面鏡を用いた3D映像レンダリング過程を示す図である。図2を参照すると、3D表示装置によって仮想のオブジェクト210が出力される。したがって、仮想のオブジェクト210の位置は、3D表示装置の位置に対応する。仮想のオブジェクト210に光学変換を適用して仮想のオブジェクト210の投射された(projected)位置230が決定される。仮想のオブジェクト210が凹面鏡220の焦点fの内側に位置するため、仮想のオブジェクト210の投射された位置230は拡大した正立虚像であってもよい。光学変換は、焦点f及び屈曲などを含む凹面鏡220の光学的特性に基づいて実行される。図2及び図3には1つの凹面鏡が図示されているが、1つの凹面鏡の代わりに、当該凹面鏡に類似する光学的な効果を発生させる様々な光学系を用いることができる。
ユーザは、視点位置240で仮想のオブジェクト210の投射された位置230を観察する。3D表示装置は、矢印215方向に仮想のオブジェクト210に関する映像を出力するが、ユーザは、矢印235方向に仮想のオブジェクト210の投射された位置230を観察する。したがって、ディスプレイパネルの特定ピクセルに対応する視点位置を決定することにおいて、凹面鏡220による影響が考慮されなければならない。ここで、3D映像レンダリング装置は、ディスプレイパネルの全てのピクセルに関して凹面鏡220による影響を考慮する代わりに、視点位置240に光学変換を適用して、仮想の視点位置及び仮想のオブジェクト210の関係でディスプレイパネルにピクセルを割り当てる。仮想の視点位置は、光学変換が適用された視点位置を意味する。
図3を参照すると、視点位置310に関する仮想の視点位置320が図示されている。3D映像レンダリング装置は、別途のカメラなどを通した視点追跡方式を用いて視点位置310の位置を決定し、視点位置310の位置に光学変換を適用して仮想の視点位置320の位置を決定する。仮想の視点位置320は、投射された位置350と同様に、凹面鏡340の光学的特性による光学変換によって決定される。したがって、視点位置310及び投射された位置350の間の光学的関係と、仮想の視点位置320及び仮想のオブジェクト330の間の光学的関係は互いに対応する。3D映像レンダリング装置は、視点位置310及び投射された位置350の代わりに、仮想の視点位置320及び仮想のオブジェクト330を用いてディスプレイパネルのピクセルにピクセルを割り当てる。この場合、3D映像レンダリング装置は、ディスプレイパネルのピクセルに関して光学変換を適用することなく、仮想の視点位置320を用いてディスプレイパネルのピクセルに対応する視点位置を決定し得る。したがって、凹面鏡340の影響を考慮することにおいて、演算量を減少させることができる。
図4及び図5は、一実施形態に係る凸レンズを用いた3D映像レンダリング過程を示す図である。図4を参照すると、3D表示装置によって仮想のオブジェクト410が出力される。したがって、仮想のオブジェクト410の位置は、3D表示装置の位置に対応する。仮想のオブジェクト410に光学変換を適用して仮想のオブジェクト410の投射された位置430が決定される。光学変換は、焦点f及び屈曲などを含む凸レンズ420の光学的特性に基づいて実行される。図4及び図5には1つの凸レンズが図示されているが、1つの凸レンズの代わりに当該凸レンズと類似の光学的効果を発生させる様々な光学系を用いてもよい。
図2及び図3を参照して説明された実施形態と同様に、3D映像レンダリング装置は、ディスプレイパネルの全てのピクセルに関して凸レンズ420による影響を考慮する代わりに、視点位置440の仮想の視点位置450及び仮想のオブジェクト410の関係でディスプレイパネルにピクセルを割り当てる。凸レンズ420の場合、投射された位置430がディスプレイパネルの後方に結像し得る。この場合、ユーザ投射された位置430を観察し難しい位置に存在する。したがって、ユーザが投射された位置430を観察するよう追加的な光学系を用いてもよい。
図5を参照すると、3D表示装置に出力された仮想のオブジェクト510、凸レンズ520、仮想のオブジェクト510の投射された位置530、平面鏡540及びユーザの視点位置550が図示されている。平面鏡540は、ユーザが仮想のオブジェクト510の投射された位置530を観察するよう、仮想のオブジェクト510の投射された位置530による光線を反射させることができる。したがって、ユーザは、適所で仮想のオブジェクト510の投射された位置530を観察することができる。例えば、図5に示されたシステムはHUDの一部として実現され、矢印555は車両の前方を示す。この場合、鏡540は半透明な性質を有する。したがって、ユーザは、車両の前方を注目しながら仮想のオブジェクト510の投射された位置530を観察できる。
図6は、一実施形態による光線の方向を算出して視点位置を割り当てる過程を示す図である。図6を参照すると、ディスプレイパネル640のピクセル及び光学レイヤ630の光学成分を通過する光線が図示されている。図6は、光学レイヤ630がディスプレイパネル640の後面に位置する実施形態を示している。光学レイヤ630は、ディスプレイパネル640の後面に位置するため方向性バックライトであってもよい。
3D映像レンダリング装置は、ディスプレイパネル640のピクセル及び光学レイヤの光学成分を通過する光線を決定し、光線の方向及び光学像615、625の位置に基づいて、ディスプレイパネル640のピクセルに対応する視点位置を決定する。光学像615、625は、候補視点位置に関する光学変換によって決定される。例えば、光学像615は第1視点位置に関する光学変換によって決定され、光学像625は第2視点位置に関する光学変換によって決定される。光学像615、625は、光学レイヤ630及びディスプレイパネル640の後面方向に位置する。予め決定した大きさの視聴領域610、620は光学像615、625を含む。視聴領域610、620は光学像615、625の位置に基づいて定義される。
3D映像レンダリング装置は、基準線に基づいて光線の方向及び光学像615、625の位置を比較する。基準線は光線の屈折方向に基づいて決定される。例えば、3D映像レンダリング装置は、ピクセル661、663、665を通過する光線に基づいて基準線651、653、655を決定する。上述ように、光学レイヤ630とディスプレイパネル640との間の媒質の屈折率、及び3D表示装置外部の媒質の屈折率が互いに異なるため、光線はディスプレイパネル640を通過するとき屈折率の大きい媒質の方向に屈折される。光線の屈折方向とは、光線が屈折された以後に進行する方向を意味する。矢印10は光線の屈折方向を示し、矢印20は光線の屈折方向の反対方向を示す。基準線は、光線の屈折方向の反対方向に進行する線として決定される。
3D映像レンダリング装置は、基準線651、653、655及び光学像615、625の位置を比較する。一実施形態によれば、3D映像レンダリング装置は、位置する視聴領域610、620に基づいて基準線651、653、655及び光学像615、625の位置を比較する。より具体的に、基準線651は視聴領域610と交差し、基準線653は視聴領域620を通過する。したがって、3D映像レンダリング装置は、基準線653に対応するピクセル663に光学像615に対応する視点位置のピクセル値を割り当て、基準線651、655に対応するピクセル661、665に光学像625に対応する視点位置のピクセル値を割り当てる。
実施形態によって、1つのピクセルによる光線のうち2以上の光線が視聴領域610、620を通過してもよい。この場合、3D映像レンダリング装置は、予め決定した条件に応じて視聴領域610、620を通過する2以上の候補光線のいずれか1つの候補光線を選択する。一実施形態によれば、3D映像レンダリング装置は、視聴領域610、620を通過する2以上の光線のうち視聴領域610、620の中心に近い1つの光線を選択する。視聴領域610、620の中心は、視聴領域610と視聴領域620の境界に存在する。
他の実施形態によれば、3D映像レンダリング装置は、視聴領域610、620を通過する2以上の光線のうち、視聴領域610、620それぞれの中心に近い1つの光線を選択してもよい。例えば、第1ピクセルを通過する第1光線が視聴領域610の中心を通過し、第1ピクセルを通過する第2光線が視聴領域620を通過するが、視聴領域620の中心から離れた場合に3D映像レンダリング装置は第1光線を選択する。
また、実施形態によって、第2ピクセルによる光線の全てが視聴領域610、620を通過しなくてもよい。この場合、3D映像レンダリング装置は、予め決定した条件に応じて第2ピクセルにピクセル値を割り当てる。一実施形態によれば、3D映像レンダリング装置は、予め一定の範囲で最も小さいピクセル値を第2ピクセルに割り当てる。例えば、ピクセル値の範囲は0〜255であってもよい。もし、第2ピクセルによる光線の全てが視聴領域610、620を通過しない場合、3D映像レンダリング装置は、第2ピクセルに0のピクセル値を割り当てる。
他の実施形態によれば、3D映像レンダリング装置は、視聴領域610、620の視点位置のうち第2ピクセルによる光線に最も近い視聴領域の視点位置に対応するピクセル値を第2ピクセルに割り当ててもよい。例えば、第2ピクセルによる第1光線及び第2光線の全てが視聴領域610を通過しないが、第1光線と視聴領域610の距離が第2光線と視聴領域620の距離よりも近い場合、3D映像レンダリング装置は、視聴領域610の視点位置に対応するピクセル値を第2ピクセルに割り当てる。
光学像615、625は、左側視点位置及び右側視点位置に対応する。図6では、候補視点位置が単一ユーザのための2つの視点位置を含んでいる実施形態について説明したが、実施形態によって、候補視点位置は、マルチビューのための予め決定された数の視点位置を含んでもよい。候補視点位置がマルチビューのための予め決定された数の視点位置を含むことによって、3D映像レンダリング装置は、ディスプレイパネルのピクセル及び光学レイヤの光学成分を通過する光線を決定し、光線の方向及び予め決定された数の視点位置に対応する光学像の位置に基づいてピクセルにピクセル値を割り当てる。予め決定された数の視点位置は、ユーザの目とは異なって固定された位置に存在し、予め決定された数の位置それぞれは予め決定された代表位置によって特定される。3D映像レンダリング装置は、代表位置に基づいて予め決定された数の視点位置に関する光学像を決定できる。
図7は、他の実施形態による光線の方向を算出して視点位置を割り当てる過程を示す図である。図7を参照すると、光学レイヤ740の光学成分及びディスプレイパネル730のピクセルを通過する光線が図示されている。図7は、光学レイヤ740がディスプレイパネル730の前面に位置する実施形態を示す。光学レイヤ740は、ディスプレイパネル730の前面に位置しているため、パララックスバリア又はレンチキュラーレンズであり得る。
光学レイヤがディスプレイパネルの前面に位置する場合にも、3D映像レンダリング装置は、光学レイヤがディスプレイパネルの後面に位置する場合と類似する方式に基づいて視点位置を割り当てる。具体的に、3D映像レンダリング装置は、光線の屈折方向に基づいて基準線751、753、755を決定し、基準線751、753、755及び光学像715、725の位置に基づいてディスプレイパネル730のピクセルに視点位置を割り当てる。基準線755は視聴領域710と交差し、基準線751、753は視聴領域720と交差する。したがって、3D映像レンダリング装置は、基準線755に対応するピクセル765に光学像715に対応する視点位置のピクセル値を割り当て、基準線751、753に対応するピクセル761、763に光学像725に対応する視点位置のピクセル値を割り当てる。
図8は、一実施形態による仮想の光線と光学レイヤの交点を用いて視点位置を割り当てる過程を示す図である。図8を参照すると、ディスプレイパネル830のピクセル835及び光学レイヤ840を通過する仮想の光線851、853が図示されている。
3D映像レンダリング装置は、光学像810、820を基準とする仮想の光線851、853と光学成分との間の距離に基づいて、ピクセルに対応する視点位置を間接的に決定する。ピクセルを通過する実際の光線の経路は、光学成分の中心を通過するが、3D映像レンダリング装置は、特定のサブピクセルと特定の候補視域を通過する仮想の候補光線を用いることができる。
より具体的に、3D映像レンダリング装置は、候補視点位置に基づいて光学像810、820を決定し、光学像810、820に基づいて仮想の光線851、853を決定する。3D映像レンダリング装置は、仮想の光線851、853の屈折方向の反対方向に光学像810、820が位置するように、仮想の光線851、853を決定する。3D映像レンダリング装置は、仮想の光線851、853を決定するため仮想の光線851、853が屈折された方向の反対方向に進行する基準線855、857を用いる。より具体的に、3D映像レンダリング装置は、基準線855、857と光学像810、820が交差するように仮想の光線851、853を決定する。3D映像レンダリング装置は、ディスプレイパネル830と光学レイヤ840との間の媒質の第1屈折率、及びディスプレイパネル830及び光学レイヤ840を含む3D表示装置外部の媒質の第2屈折率を考慮して、仮想の光線851、853を決定できる。
仮想の光線851、853が決定されれば、3D映像レンダリング装置は、仮想の光線851、853及び光学レイヤ840の間の交点841、843を決定する。3D映像レンダリング装置は、第1屈折率及び前記第2屈折率による仮想の光線851、853の入射角及び屈折角を考慮して交点841、843を決定する。交点841、843を決定する具体的な過程については図9を参照して後述する。
交点841、843が決定されれば、3D映像レンダリング装置は、交点841、843及び光学レイヤ840の光学成分845、847の間の距離D1、D2に基づいて、ピクセル835に対応する視点位置を決定する。3D映像レンダリング装置は、交点841、843のうち隣接する光学成分との距離が最も近い交点を決定し、決定された交点に対応する視点位置のピクセル値をピクセル835に割り当てる。ここで、隣接する光学成分とは、光学レイヤ840の光学成分のうち交点に最も近い光学成分を意味する。例えば、光学成分845が交点841の隣接する光学成分に当該し、光学成分847が交点843の隣接する光学成分に該当する。交点841と光学成分845との間の距離D1が、交点843と光学成分847との間の距離D2よりも近い場合、3D映像レンダリング装置は、ピクセル835に光学像810に対応する視点位置のピクセル値を割り当てる。ピクセル835が仮想の光線853周辺の実際の光線より仮想の光線853周辺の実際の光線によって観察される可能性が高いためである。
光学像810、820は、左側視点位置及び右側視点位置に対応する。図8では候補視点位置が単一ユーザのための2つの視点位置を含む実施形態について説明したが、実施形態によって候補視点位置は、マルチビューのための予め決定された数の視点位置を含んでもよい。候補視点位置がマルチビューのための予め決定された数の視点位置を含むことによって、3D映像レンダリング装置は、予め決定された数の視点位置に照射される仮想の光線を決定し、決定された仮想の光線それぞれによる交点及び交点に隣接する光学成分の間の距離に基づいて、ピクセルに前記予め決定された数の視点位置のいずれか1つに対応するピクセル値を割り当てる。予め決定された数の視点位置は、ユーザの目と異なって固定された位置に存在し、予め決定された数の視点位置の位置それぞれは予め決定された代表位置によって特定される。3D映像レンダリング装置は、代表位置に基づいて予め決定された数の視点位置に関する光学像を決定できる。
図9は、一実施形態による交点の決定過程を示す図である。図9を参照すると、r−z平面上の光学像E、ピクセルP、及び交点Bが図示されている。r軸は光学像EとピクセルPをつなぐ直線をx−y平面で投影した直線に該当する軸として定義される。
上述ように、3D映像レンダリング装置は、光学像Eに基づいてピクセルP及び光学レイヤを通過する仮想の光線を決定し、仮想の光線と光学レイヤの交点Bを決定する。光学像Eの位置はx、y、zに示し、ピクセルPの位置はx、y、zに示す。ここで、r軸上において光学像EとピクセルPの間の距離rは数式(1)のように示すことができる。
また、スネルの法則により数式(2)が成立する。
ここで、nはディスプレイ装置と光学レイヤとの間の屈折率を示し、nは3D表示装置外部の屈折率を示し、θは入射角を示し、θは屈折角を示す。数式(2)により数式(3)を取得し、数式(3)を展開して数式(4)を取得できる。
ここで、rはr軸上でピクセルPと交点Bとの間の距離を示し、dはz軸上で光学像Eと交点Bとの間の距離を示し、dはz軸上でピクセルPと交点Bとの間の距離を示す。数式(4)を整理すると、数式(5)を取得できる。
ここで、係数は次のように示すことができる。
数式(5)によると、4個の解を取得できる。3D映像レンダリング装置は、この中に最も小さい正数の解を最終的な解として決定する。一方、x−yの2次元平面上で、光学像Eが投影された点、ピクセルPが投影された点、及び交点Bが投影された点は直線をなしているため、交点Bのx座標及びy座標を次のように求めることができる。
3D映像レンダリング装置は、数式(1)によって求めたr、数式(5)によって求めたrの最終的な解、光学像Eの座標、ピクセルPの座標を数式(6)及び数式(7)に代入することによって、交点Bのx座標及びy座標を求めることができる。交点Bのz座標は、ピクセルPのz座標、及びディスプレイパネルと光学レイヤとの間の距離により求めることができる。
図10は、一実施形態による3D映像レンダリング装置を示すブロック図である。図10を参照すると、3D映像レンダリング装置は、プロセッサ1010、センサ1020及びメモリ1030を含む。プロセッサ1010、センサ1020及びメモリ1030は、バス1040を介して通信する。
センサ1020はユーザの目を検出したり追跡する。センサ1020は、イメージセンサ、近接センサ、及び赤外線センサのうち少なくとも1つを含む。センサ1020は、周知の方式(例えば、光学イメージを前記信号に変換する方式など)でユーザの目を検出又は追跡する。センサ1020は、撮影されたカラー映像、深度映像及び赤外線映像のうち少なくとも1つをプロセッサ1010及びメモリ1030のうち少なくとも1つに伝達する。
プロセッサ1010は、上述少なくとも1つの装置を含むか、上述少なくとも1つの方法を行ってもよい。例えば、プロセッサ1010は、上述3D映像レンダリングに関する動作を処理する。より具体的に、プロセッサ1010は、視聴領域の候補視点位置に関する光学像を決定し、光学像に基づいてディスプレイパネル上のピクセルを通過する仮想の光線を決定し、仮想の光線と光学レイヤとの間の交点を決定し、交点と光学レイヤの光学成分の間の距離に基づいてピクセルにピクセル値を割り当てる。あるいは、プロセッサ1010は、視聴領域の候補視点位置に関する光学像を決定し、ディスプレイパネルのピクセル及び光学レイヤの光学成分を通過する光線を決定し、光線の方向及び光学像の位置を比較し、比較結果に基づいてピクセルにピクセル値を割り当てる。
メモリ1030は、コンピュータで読み取り可能な命令語を格納する。メモリ1030に格納された命令語がプロセッサ1010で実行されれば、プロセッサ1010は3D映像レンダリングに関する動作を処理する。また、メモリ1030は、上述3D映像レンダリングに関するデータを格納する。
プロセッサ1010は命令語やプログラムを実行したり、3D映像レンダリング装置を制御する。3D映像レンダリング装置は、入出力装置(図示せず)によって外部装置(例えば、パーソナルコンピュータ又はネットワーク)に接続され、データを交換する。3D映像レンダリング装置は、移動電話、スマートフォン、PDA、タブレットコンピュータ、ラップトップコンピュータなどのモバイル装置、パーソナルコンピュータ、タブレットコンピュータ、ネットブックなどのコンピューティング装置、又は、テレビ、スマートテレビ、ゲート制御のためのセキュリティー装置などの電子製品の少なくとも一部として実現される。また、3D映像レンダリング装置は、HUDの一部として実現される。その他に、3D映像レンダリング装置については上述内容が適用され得るため、より詳細な説明は省略する。
図11は、一実施形態による3D映像レンダリング方法を示した動作フローチャートである。図11を参照すると、ステップS1110において、3D映像レンダリング装置は、視聴領域の候補視点位置に関する光学像を決定する。ステップS1120において、3D映像レンダリング装置は、光学像に基づいてディスプレイパネル上のピクセルを通過する候補光線を決定する。ステップS1130において、3D映像レンダリング装置は、候補光線と光学レイヤとの間の交点を決定する。ステップS1140において、3D映像レンダリング装置は、交点と光学レイヤの光学成分の間の距離に基づいてピクセルにピクセル値を割り当てる。その他に、3D映像レンダリング方法に関しては、上述内容が適用され得るため、より詳細な説明は省略する。
図12は、他の実施形態による3D映像レンダリング方法を示した動作フローチャートである。ステップS1210において、3D映像レンダリング装置は、視聴領域の候補視点位置に関する光学像を決定する。ステップS1220において、3D映像レンダリング装置は、ディスプレイパネルのピクセル及び光学レイヤの光学成分を通過する候補光線を決定する。ステップS1230において、3D映像レンダリング装置は、候補光線の方向と光学像の位置を比較する。ステップS1240において、3D映像レンダリング装置は、比較結果に基づいてピクセルにピクセル値を割り当てる。その他に、3D映像レンダリング方法に関しては、上述内容が適用され得るため、より詳細な説明は省略する。
実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組せで具現される。例えば、実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述ように実施形態をたとえ限定された図面によって説明したとしても、当該技術分野で通常の知識を有する者であれば、前記に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で実行されたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組合わせられたり、他の構成要素又は均等物によって置き換えたり置換されても適切な結果を達成することができる。

Claims (20)

  1. 視聴領域の候補視点位置に関する光学像を決定するステップと、
    前記決定された光学像に基づいて、ディスプレイパネル上のピクセルを通過する仮想の光線を決定するステップと、
    前記仮想の光線と光学レイヤとの間の交点を決定するステップと、
    前記交点及び前記光学レイヤの光学成分の間のそれぞれの距離に基づいて、前記ピクセルにピクセル値を割り当てるステップと、
    を含む3D映像レンダリング方法。
  2. 前記光学像を決定するステップは、前記候補視点位置に光学変換を適用して前記光学像を決定するステップを含む、請求項1に記載の3D映像レンダリング方法。
  3. 前記光学変換は、凹面鏡あるいは凸レンズの光学的特性に基づいて実行される、請求項2に記載の3D映像レンダリング方法。
  4. 前記仮想の光線を決定するステップは、前記光学レイヤと前記ディスプレイパネルの間の媒質の第1屈折率、及び前記光学レイヤ及び前記ディスプレイパネルを含む3D表示装置外部の媒質の第2屈折率を考慮して前記仮想の光線を決定するステップを含む、請求項1に記載の3D映像レンダリング方法。
  5. 前記光学像は、前記ディスプレイパネルの後面方向に位置する、請求項1に記載の3D映像レンダリング方法。
  6. 前記交点を決定するステップは、前記光学レイヤと前記ディスプレイパネルの間の媒質の第1屈折率、及び前記光学レイヤ及び前記ディスプレイパネルを含む3D表示装置外部の媒質の第2屈折率による前記仮想の光線の入射角及び屈折角を考慮して前記交点を決定するステップを含む、請求項1に記載の3D映像レンダリング方法。
  7. 前記交点を決定するステップは、
    前記光学像の座標及び前記ピクセルの座標に基づいて、光学像とピクセルをつなぐ直線をx−y平面で投影したr軸上で、前記光学像と前記ピクセルとの間の距離を算出するステップと、
    前記光学レイヤと前記ディスプレイパネルの間の媒質の第1屈折率、及び前記光学レイヤ及び前記ディスプレイパネルを含む3D表示装置外部の媒質の第2屈折率に基づいて、前記r軸上で前記ピクセル及び前記交点の間の距離を算出するステップと、
    前記光学像と前記ピクセルとの間の距離、及び前記ピクセルと前記交点との間の距離に基づいて前記交点の座標を決定するステップと、
    を含む、請求項1に記載の3D映像レンダリング方法。
  8. 前記ピクセル値を割り当てるステップは、
    前記交点のうち隣接する光学成分との距離が最も近い交点を決定するステップと、
    前記決定された交点に対応する視点位置のピクセル値を前記ピクセルに割り当てるステップと、
    を含む、請求項1に記載の3D映像レンダリング方法。
  9. 前記候補視点位置は、単一ユーザのための左側視点位置及び右側視点位置を含むか、あるいはマルチビューのための予め決定された数の視点位置を含む、請求項1に記載の3D映像レンダリング方法。
  10. 前記候補視点位置が単一ユーザのための左側視点位置及び右側視点位置を含むことによって、前記仮想の光線は、前記左側視点位置に照射される第1仮想の光線及び前記右側視点位置に照射される第2仮想の光線を含み、
    前記ピクセル値を割り当てるステップは、前記第1仮想の光線による第1交点と前記第1交点に隣接する光学成分の間の距離、及び前記第2仮想の光線による第2交点と前記第2交点に隣接する光学成分の間の距離に基づいて、前記ピクセルに前記左側視点位置のピクセル値又は前記右側視点位置のピクセル値を割り当てるステップを含む、請求項1に記載の3D映像レンダリング方法。
  11. 前記候補視点位置がマルチビューのための予め決定された数の視点位置を含むことによって、前記仮想の光線は、前記予め決定された数の視点位置に照射される光線を含み、
    前記ピクセル値を割り当てるステップは、前記光線それぞれによる交点と前記交点に隣接する光学成分の間の距離に基づいて、前記ピクセルに前記予め決定された数の視点位置のいずれか1つに対応するピクセル値を割り当てるステップを含む、請求項1に記載の3D映像レンダリング方法。
  12. 視聴領域の候補視点位置に関する光学像を決定するステップと、
    ディスプレイパネルのピクセル及び光学レイヤの光学成分を通過する光線を決定するステップと、
    前記光線の方向と前記光学像の位置とを比較するステップと、
    前記比較結果に基づいて前記ピクセルにピクセル値を割り当てるステップと、
    を含む3D映像レンダリング方法。
  13. 前記光学像を決定するステップは、前記候補視点位置に光学変換を適用して前記光学像を決定するステップを含む、請求項12に記載の3D映像レンダリング方法。
  14. 前記光線を決定するステップは、前記光学レイヤと前記ディスプレイパネルの間の媒質の第1屈折率、及び前記光学レイヤ及び前記ディスプレイパネルを含む3D表示装置外部の媒質の第2屈折率を考慮して前記光線を決定するステップを含む、請求項12に記載の3D映像レンダリング方法。
  15. 前記光線の方向と前記光学像の位置とを比較するステップは、
    前記光線の屈折方向に基づいて基準線を決定するステップと、
    前記基準線と前記光学像の位置とを比較するステップと、
    を含む、請求項12に記載の3D映像レンダリング方法。
  16. 前記ピクセルにピクセル値を割り当てるステップは、
    前記基準線及び前記視聴領域の交差点をそれぞれ決定するステップと、
    前記交差点及び前記光学像のそれぞれの距離に基づいて前記ピクセルに前記ピクセル値を割り当てるステップと、
    を含む、請求項15に記載の3D映像レンダリング方法。
  17. ハードウェアと結合して請求項1〜請求項16のいずれか一項に記載の方法を実行させるために媒体に格納されたコンピュータプログラム。
  18. プロセッサと、
    コンピュータで読込みできる命令語を含むメモリと、
    を含み、
    前記命令語が前記プロセッサで実行されれば、前記プロセッサは、視聴領域の候補視点位置に関する光学像を決定し、前記決定された光学像に基づいてディスプレイパネル上のピクセルを通過する仮想の光線を決定し、前記光線及び光学レイヤの間の交点を決定し、前記交点及び前記光学レイヤの光学成分の間のそれぞれの距離に基づいて前記ピクセルにピクセル値を割り当てる3D映像レンダリング装置。
  19. 前記プロセッサは、前記候補視点位置に光学変換を適用して前記光学像を決定する、請求項18に記載の3D映像レンダリング装置。
  20. 前記光学像は、前記光線が屈折された方向の反対方向に位置する、請求項18に記載の3D映像レンダリング方法。
JP2017224795A 2016-11-22 2017-11-22 3d映像レンダリング方法及び装置 Active JP7098307B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0155689 2016-11-22
KR1020160155689A KR102564478B1 (ko) 2016-11-22 2016-11-22 3d 영상 렌더링 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2018085727A true JP2018085727A (ja) 2018-05-31
JP7098307B2 JP7098307B2 (ja) 2022-07-11

Family

ID=60450436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017224795A Active JP7098307B2 (ja) 2016-11-22 2017-11-22 3d映像レンダリング方法及び装置

Country Status (5)

Country Link
US (2) US10521953B2 (ja)
EP (1) EP3324621A1 (ja)
JP (1) JP7098307B2 (ja)
KR (1) KR102564478B1 (ja)
CN (1) CN108090941B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020189319A1 (ja) * 2019-03-19 2020-09-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102397089B1 (ko) 2017-07-28 2022-05-12 삼성전자주식회사 이미지 처리 방법 및 이미지 처리 장치
KR102565277B1 (ko) 2017-11-24 2023-08-09 삼성전자주식회사 영상 복원 장치 및 방법
US11619826B2 (en) 2018-04-17 2023-04-04 Samsung Electronics Co., Ltd. Augmented reality (AR) display apparatus and method
KR102652943B1 (ko) 2018-12-03 2024-03-29 삼성전자주식회사 3차원 영상 출력 방법 및 그 방법을 수행하는 전자 장치
KR102650332B1 (ko) 2018-12-12 2024-03-22 삼성전자주식회사 3차원 영상을 표시하는 장치 및 방법
US11938817B2 (en) 2020-08-24 2024-03-26 Samsung Electronics Co., Ltd. Method and apparatus for controlling head-up display based on eye tracking status

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011085790A (ja) * 2009-10-16 2011-04-28 Seiko Epson Corp 電気光学装置及び電子機器
JP2014121097A (ja) * 2012-12-18 2014-06-30 Lg Display Co Ltd マルチビュー無眼鏡立体映像表示装置とその最適視聴距離の制御方法
WO2015198607A1 (en) * 2014-06-25 2015-12-30 Sharp Kabushiki Kaisha Variable barrier pitch correction

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6525699B1 (en) * 1998-05-21 2003-02-25 Nippon Telegraph And Telephone Corporation Three-dimensional representation method and an apparatus thereof
DE10359403B4 (de) 2003-12-18 2005-12-15 Seereal Technologies Gmbh Autostereoskopisches Multi-User-Display
JP2009229752A (ja) 2008-03-21 2009-10-08 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ
US20110188116A1 (en) 2010-02-02 2011-08-04 Nikolay Ledentsov Ledentsov Device for generation of three-demensional images
KR101544524B1 (ko) 2010-12-16 2015-08-17 한국전자통신연구원 차량용 증강현실 디스플레이 시스템 및 차량용 증강현실 디스플레이 방법
JP5874197B2 (ja) * 2011-05-26 2016-03-02 ソニー株式会社 表示装置および方法、並びにプログラム
KR101953686B1 (ko) 2011-11-30 2019-05-23 삼성전자주식회사 부화소를 렌더링하는 영상 처리 장치 및 방법
WO2015045251A1 (ja) * 2013-09-27 2015-04-02 パナソニックIpマネジメント株式会社 裸眼立体視映像装置
US20150145977A1 (en) 2013-11-22 2015-05-28 Samsung Display Co., Ltd. Compensation technique for viewer position in autostereoscopic displays
KR102071693B1 (ko) 2014-02-07 2020-01-30 엘지전자 주식회사 헤드 업 디스플레이 장치
US20160073098A1 (en) 2014-09-10 2016-03-10 Continental Automotive Systems, Inc. Head-up display system using auto-stereoscopy 3d transparent electronic display
JP6917378B2 (ja) * 2015-09-17 2021-08-11 ファゾム・オプティクス・インコーポレイテッド マルチビューディスプレイ並びに関連するシステム及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011085790A (ja) * 2009-10-16 2011-04-28 Seiko Epson Corp 電気光学装置及び電子機器
JP2014121097A (ja) * 2012-12-18 2014-06-30 Lg Display Co Ltd マルチビュー無眼鏡立体映像表示装置とその最適視聴距離の制御方法
WO2015198607A1 (en) * 2014-06-25 2015-12-30 Sharp Kabushiki Kaisha Variable barrier pitch correction

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020189319A1 (ja) * 2019-03-19 2020-09-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11785203B2 (en) 2019-03-19 2023-10-10 Sony Group Corporation Information processing apparatus, information processing method, and program
JP7472899B2 (ja) 2019-03-19 2024-04-23 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
KR102564478B1 (ko) 2023-08-07
US20200134912A1 (en) 2020-04-30
CN108090941B (zh) 2024-03-15
US11457194B2 (en) 2022-09-27
CN108090941A (zh) 2018-05-29
KR20180057263A (ko) 2018-05-30
US10521953B2 (en) 2019-12-31
EP3324621A1 (en) 2018-05-23
JP7098307B2 (ja) 2022-07-11
US20180144542A1 (en) 2018-05-24

Similar Documents

Publication Publication Date Title
JP7098307B2 (ja) 3d映像レンダリング方法及び装置
KR102447101B1 (ko) 무안경 3d 디스플레이를 위한 영상 처리 방법 및 장치
US11048090B2 (en) Tiled waveguide display with a wide field-of-view
EP2988497B1 (en) Image processing method and apparatus
JP7097685B2 (ja) ユーザの目のための3dレンダリング方法及び装置
JP6797672B2 (ja) バックライトユニット及びこれを含むディスプレイ装置
US10595001B2 (en) Apparatus for replaying content using gaze recognition and method thereof
US11675192B2 (en) Hybrid coupling diffractive optical element
US11711502B2 (en) Method of outputting three-dimensional image and electronic device performing the method
KR102570277B1 (ko) 3d 영상 장치의 왜곡 보정 방법 및 그 방법을 이용하는 장치
US20200351483A1 (en) Three-dimensional display apparatus
KR102655810B1 (ko) 3d 영상 렌더링 방법 및 장치
KR20170031384A (ko) 광학 레이어, 이를 포함하는 디스플레이 장치 및 백라이트 유닛
KR20190050737A (ko) 표시 장치와 방법
TW202339496A (zh) 立體顯示系統及方法
KR20230146431A (ko) 3d 영상을 표시하기 위한 전자 장치 및 전자 장치의 동작 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220629

R150 Certificate of patent or registration of utility model

Ref document number: 7098307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150