JP2016032298A - 映像レンダリング装置及び方法 - Google Patents

映像レンダリング装置及び方法 Download PDF

Info

Publication number
JP2016032298A
JP2016032298A JP2015145009A JP2015145009A JP2016032298A JP 2016032298 A JP2016032298 A JP 2016032298A JP 2015145009 A JP2015145009 A JP 2015145009A JP 2015145009 A JP2015145009 A JP 2015145009A JP 2016032298 A JP2016032298 A JP 2016032298A
Authority
JP
Japan
Prior art keywords
video
pixel
display
model
disparity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015145009A
Other languages
English (en)
Other versions
JP6717576B2 (ja
Inventor
英 珠 鄭
Yong Ju Jung
英 珠 鄭
良 鎬 趙
Yang-Ho Cho
良 鎬 趙
東 ▲ぎょん▼ 南
Dong-Kyung Nam
東 ▲ぎょん▼ 南
朴 斗 植
Du-Sik Park
斗 植 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2016032298A publication Critical patent/JP2016032298A/ja
Application granted granted Critical
Publication of JP6717576B2 publication Critical patent/JP6717576B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/229Image signal generators using stereoscopic image cameras using a single 2D image sensor using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/317Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】 立体映像をレンダリングする映像レンダリング装置及び方法を提供する。
【解決手段】 映像レンダリング装置は入力映像に含まれた映像ピクセルのディスパリティを推定する。映像ピクセルのディスパリティに基づいて映像ピクセルが有する視点方向が決定されてもよい。映像レンダリング装置は多視点映像を生成することなく、映像ピクセルの視点方向に対応する視点方向を有する1つ又は複数のディスプレイピクセルに当該映像ピクセルのピクセル値を割り当てて立体映像をレンダリングしてもよい。
【選択図】 図1

Description

以下の説明は、立体映像をレンダリングする映像処理技術に関する。
3D(dimensional)ディスプレイ装置が3D映像を表示する方式は、立体映像を視聴するために3Dメガネを必要とするメガネ方式と、3Dメガネが求められることなく、立体映像を実現する無メガネ方式がある。メガネ方式では、偏光を用いた分割、時分割、原色(primary color)の波長を相異にした波長分割などを用いて所望する映像をフィルタリングする。無メガネ方式では、パララックスバリア(parallax barrier)又はレンチキュラーレンズ(lenticular lens)などを用いて各映像が特定視点だけで見えるように表示される。無メガネ方式のうち、ライトフィールド(light field)を再現する方式として、一定空間に存在する点などから様々な方向に出力される光線をディスプレイを用いてそのまま再現する。ライトフィールドを再現する方式として、他の位置と他の角度の利用可能な映像を取得し、取得された映像を用いて現在の視点に適切な映像をレンダリングする。一般に、ライトフィールドを再現する方式としては、表示される複数の映像を生成するために一般的に2つ以上の入力映像に基づいてN個の中間映像を生成し、生成されたN個の中間映像に基づいて3Dディスプレイ装置の各ピクセルで出力する3D映像情報を決定する。
本発明の目的は、別途の多視点映像を生成しなくても直接3D映像を生成することで、処理速度とリソースの利用率を改善させることにある。
一実施形態に係る複数のディスプレイピクセルを含むディスプレイ装置を介して表示される立体映像をレンダリングする映像レンダリング方法は、入力映像に含まれた映像ピクセルのディスパリティを推定するステップと、多視点映像を生成することなく、前記映像ピクセルの視点方向に対応する視点方向を有する少なくとも1つのディスプレイピクセルに前記映像ピクセルのピクセル値を割り当てるステップとを含む。
一実施形態に係る映像レンダリング方法において、前記映像ピクセルのピクセル値を割り当てるステップは、前記ディスプレイピクセルの視点方向に対する第1モデル、及び前記映像ピクセルのディスパリティに基づいた前記映像ピクセルの視点方向に対する第2モデルを用いて、前記映像ピクセルのピクセル値を割り当てる少なくとも1つのディスプレイピクセルを決定するステップを含んでもよい。
ここで、前記第1モデルは、前記ディスプレイピクセルの位置と視点方向との間の対応関係に基づいたモデルであってもよい。
ここで、前記第2モデルは、前記入力映像内前記映像ピクセルの位置を基準として、前記映像ピクセルから出力される光線の方向をモデリングしたモデルであってもよい。
前記映像ピクセルのピクセル値を割り当てるステップは、前記第1モデルと前記第2モデルと間の対応関係に基づいて、前記映像ピクセルの視点方向と同一の視点方向を有するディスプレイピクセルを識別し、前記識別されたディスプレイピクセルに前記映像ピクセルのピクセル値を割り当てるステップを含んでもよい。
少なくとも1つのディスプレイピクセルを決定するステップは、前記第1モデルと複数の映像ピクセルに対する第2モデルを用いて、前記映像ピクセルのピクセル値を割り当てる少なくとも1つのディスプレイピクセルを決定するステップを含み、前記複数の映像ピクセルは、互いに隣接する映像ピクセルであってもよい。
前記映像ピクセルのピクセル値を割り当てるステップは、前記決定された少なくとも1つのディスプレイピクセルに前記複数の映像ピクセルのピクセル値を補間して割り当てるステップを含んでもよい。
前記複数のディスプレイピクセルは、予め決定された個数の互いに異なる視点方向のいずれか1つの視点方向を有してもよい。
前記ディスプレイピクセルの視点方向は、前記ディスプレイ装置に含まれたレンチキュラーレンズの構造的な特徴に基づいて決定されてもよい。
前記ディスパリティを推定するステップは、深度映像に含まれた深度情報を用いて前記映像ピクセルのディスパリティを推定するステップを含んでもよい。
前記ディスパリティを推定するステップは、前記入力映像が撮影された視点と他の視点で撮影された映像の参照映像と前記入力映像との間の視点差に基づいて、前記映像ピクセルのディスパリティを推定するステップを含んでもよい。
一実施形態に係るディスプレイ装置は、予め決定された視点方向を有する複数のディスプレイピクセルを介して立体映像を表示するディスプレイ部と、多視点映像を生成することなく、入力映像の映像ピクセルが有する視点方向に基づいて、決定された少なくとも1つのディスプレイピクセルに前記映像ピクセルのピクセル値を割り当てて前記立体映像をレンダリングする映像レンダリング部とを含む。
前記映像レンダリング部は、前記ディスプレイピクセルの視点方向に対する第1モデル及び前記映像ピクセルの視点方向に対する第2モデルを用いて、前記少なくとも1つのディスプレイピクセルを決定してもよい。
前記映像レンダリング部は、前記第1モデルと複数の映像ピクセルに対する第2モデルを用いて前記映像ピクセルのピクセル値を割り当てる少なくとも1つのディスプレイピクセルを決定し、前記複数の映像ピクセルは、互いに隣接する映像ピクセルであってもよい。
前記映像レンダリング部は、他の視点で撮影された参照映像と前記入力映像との間の視点差に基づいて前記映像ピクセルのディスパリティを推定し、前記映像ピクセルが有する視点方向は、前記推定されたディスパリティに基づいて決定されてもよい。
前記映像レンダリング部は、深度映像に示された深度情報を用いて前記映像ピクセルのディスパリティを推定し、前記映像ピクセルが有する視点方向は、前記推定されたディスパリティに基づいて決定されてもよい。
前記ディスプレイ部は、前記ディスプレイピクセルの上部に備えられるレンチキュラーレンズを含み、前記ディスプレイピクセルの視点方向は、前記レンチキュラーレンズにより決定されてもよい。
一実施形態に係る映像レンダリング装置は、入力映像に含まれた映像ピクセルのディスパリティを推定するディスパリティ推定部と、多視点映像を生成することなく、前記映像ピクセルの視点方向に対応する視点方向を有する少なくとも1つのディスプレイピクセルに前記映像ピクセルのピクセル値を割り当てて立体映像をレンダリングする映像レンダリング部とを含み、前記映像ピクセルの視点方向は、前記映像ピクセルのディスパリティに基づいて決定されることを特徴とする。
ここで、前記ディスプレイピクセルは、所定の視点方向を有し、前記映像レンダリング部は、前記映像ピクセルの視点方向及びディスプレイピクセルの視点方向に基づいて、複数のディスプレイピクセルのうち前記映像ピクセルのピクセル値を割り当てるディスプレイピクセルを探索してもよい。
一実施形態に係るディスプレイ装置は、複数のディスプレイピクセルを含むディスプレイと、前記ディスプレイピクセルの視点方向と位置に対する第1モデルを取得し、映像ピクセルに対応する映像データを受信し、少なくとも1つの映像ピクセルのディスパリティに関する第2モデルを取得し、前記第1モデル及び前記第2モデルに基づいて前記ディスプレイピクセルのうち少なくとも1つにディスプレイ値を適用するプロセッサとを含む。
ここで、前記プロセッサは、多視点映像を生成することなく、前記ディスプレイ値をディスプレイピクセルに割り当ててもよい。
また、前記プロセッサは、前記ディスプレイ値に基づいて3Dディスプレイを生成してもよい。
一実施形態によると、別途の多視点映像を生成しなくても直接3D映像を生成することができ、処理速度とリソースの利用率を改善させることができる。
一実施形態に係るディスプレイ装置の動作を説明するための図である。 一実施形態に係る映像レンダリング装置の動作を説明するための図である。 一実施形態に係るディスプレイピクセルが有する視点方向を説明するための図である。 一実施形態に係る第1モデルを説明するための図である。 一実施形態に係る第1モデルを説明するための図である。 一実施形態に係る第2モデルを説明するための図である。 一実施形態に係る第1モデル及び第2モデルに基づいて立体映像をレンダリングする過程を説明するための図である。 他の実施形態に係る第1モデル及び第2モデルに基づいて立体映像をレンダリングする過程を説明するための図である。 一実施形態に係る映像レンダリング方法の動作を説明するためのフローチャートである。
以下、実施形態を添付する図面を参照しながら詳細に説明する。以下の特定の構造的ないし機能的な説明は、単に実施形態を説明するための目的で例示されたものであり、権利範囲が本文に説明された実施形態に限定されると解釈されることはない。関連技術分野で通常の知識を有する者であれば、このような記載から様々な修正及び変形が可能である。また、各図面に提示された同一の参照符号は同一の部材を示し、公知された機能及び構造は省略するようにする。
図1は、一実施形態に係るディスプレイ装置の動作を説明するための図である。
ディスプレイ装置110は、入力映像を受信し、立体映像(又は、3D映像)を表示する。ディスプレイ装置110は、表示しようとする立体映像に対応する光線分布(又は、ライトフィールド)を再生する方式で立体映像を表示している。例えば、ディスプレイ装置110は、位置別及び方向ごとの光線分布をディスプレイ面で再生することで立体映像を実現することができる。
ディスプレイ装置110は、レンチキュラーレンズのような光学部材を用いて立体映像を実現してもよい。例えば、ディスプレイ装置110は、レンチキュラーレンズで発生する光の屈折によりユーザの左眼と右眼にそれぞれ互いに異なる映像を出力してもよく、ユーザは、左眼を用いて認知した映像と右眼を用いて認知した映像間の視点差に基づいて立体感を認知することができる。
一実施形態によると、ディスプレイ装置110は、入力映像でカラー映像を受信し、当該カラー映像に対する深度映像をともに受信してもよい。深度映像(depth image)は、映像が撮影された位置から被写体までの距離を示す深度情報を含んでもよい。他の実施形態によると、ディスプレイ装置110は、入力映像でカラー映像を受信し、入力映像の視点と異なる視点で撮影された参照映像をともに受信してもよい。参照映像は、入力映像が撮影された視点と異なる視点で撮影された映像を示し、1つ又は複数の映像を含んでもよい。
ディスプレイ装置110は、立体映像を表示するために多視点映像を生成することなく、立体映像を直接レンダリングしてもよい。ディスプレイ装置110は、ディスプレイピクセルが有する視点情報及び入力映像内の映像ピクセルが有するディスパリティ情報に基づいて、各ディスプレイピクセルに入力映像のピクセル値を直接割り当ててもよい。ディスプレイピクセルが有する視点情報は、ディスプレイピクセルの位置情報及びディスプレイピクセルが有する視点方向情報を含んでもよい。ディスプレイ装置110は、中間映像で多視点映像を生成することなく、ディスプレイピクセルに直接立体映像のピクセル値をマッチングするため、立体映像のレンダリング過程で求められるリソース量を減らし、複雑度を低減させ得る。
図1を参照すると、ディスプレイ装置110は、ディスプレイ部120及び映像レンダリング部130を含む。
ディスプレイ部120は、複数のディスプレイピクセルを含む。例えば、ディスプレイピクセルはR(red)サブピクセル、G(green)サブピクセル、及びB(blue)サブピクセルに当該する。また、ディスプレイ部120は、立体映像を実現するためのレンチキュラーレンズを含んでもよい。レンチキュラーレンズは、ディスプレイピクセルの上部に備えられる。ディスプレイピクセルから放射される光線は、レンチキュラーレンズによって屈折又は通過してもよい。
ディスプレイ装置110は、例えば、3Dテレビ、3Dスマートフォン、3Dタブレット又は3Dデジタル情報ディスプレイ(DID、digital information display)であってもよい。
ディスプレイ部120に含まれた各ディスプレイピクセルは、所定の視点方向を有する。ディスプレイ部120は、所定の視点方向を有する複数のディスプレイピクセルを介して立体映像を表示してもよい。ディスプレイピクセルの視点方向は、レンチキュラーレンズによって決定されてもよい。ディスプレイピクセルが有する視点方向は、レンチキュラーレンズの構造的な特徴によりディスプレイピクセルのグループ単位で周期性又は反復性を有する。レンチキュラーレンズの構造的な特徴により各ディスプレイピクセルで放射される光線の移動経路が決定される。
例えば、ディスプレイピクセルから出力される光線の移動経路は、レンチキュラーレンズとディスプレイピクセルとの間の距離、レンチキュラーレンズのピッチ及び傾き、光線が屈折されるレンチキュールの特性などにより決定されてもよい。ディスプレイピクセルで放射される光線は、レンチキュラーレンズを用いて屈折又は通過して3D空間上の特定位置に向かって移動し、当該光線が移動する方向が当該ディスプレイピクセルが有する視点方向に当該する。
ディスプレイピクセルが有する視点方向は、ディスプレイ装置110の設計過程で予め決定されてもよい。ディスプレイピクセルは、予め決定された個数の互いに異なる視点方向のいずれか1つの視点方向を有してもよく、当該の視点方向は、ディスプレイ装置110の設計過程で予め決定されてもよい。例えば、ディスプレイ装置110は、第1視点方向から第N(1よりも大きい自然数)視点方向まで表現され、ディスプレイ装置110に含まれた各ディスプレイピクセルは、第1視点方向ないし第N視点方向のいずれか1つの視点方向を有してもよい。
映像レンダリング部130は、入力映像からディスプレイ部120を用いて表示する立体映像をレンダリングする。入力映像は、複数の映像ピクセルを含んでもよい。映像ピクセルのディスパリティに基づいて当該映像ピクセルが有する視点方向が決定されてもよい。映像ピクセルのディスパリティは、左映像と右映像のステレオ映像で互いに対応する映像ピクセル間の視点差又は距離を示す。例えば、入力映像は左映像に対応し、左映像と左映像に対応する右映像間の対応関係に基づいて、左映像に含まれた映像ピクセルのディスパリティを決定してもよい。
映像レンダリング部130は、入力映像に含まれた映像ピクセルのディスパリティを推定する。推定されたディスパリティに基づいて、映像ピクセルが有する視点方向が決定されてもよい。入力映像に含まれた各映像ピクセルごとに映像ピクセルで出力する光線に関するディスパリティ関数が決定されてもよい。ディスパリティ関数は、映像ピクセルと当該映像ピクセルのディスパリティが表現するライトフィールドの表現式を示す。
一実施形態によると、ディスプレイ装置110は、入力映像として左映像を受信し、参照映像として右映像を受信してもよい。ディスプレイ装置110は左映像及び右映像を含むステレオ映像を受信し、映像レンダリング部130はステレオ映像に基づいて立体映像をレンダリングしてもよい。参照映像は、同一の被写体を入力映像が撮影された視点と異なる視点で撮影した映像を示す。映像レンダリング部130は、入力映像と参照映像との間の視点差に基づいて映像ピクセルのディスパリティを推定してもよい。映像レンダリング部130は、左映像と右映像に対するステレオ整合により深度情報を推定し、深度情報から入力映像に含まれた映像ピクセルのディスパリティを推定してもよい。ステレオ整合は、ステレオ映像で対応する映像ピクセルの視点差又は距離を用いて深度情報を取得する方法である。
他の実施形態によると、ディスプレイ装置110は、入力映像としてカラー映像を受信し、ディスパリティ映像として深度映像を受信してもよい。映像レンダリング部130は、深度映像からカラー映像の特定映像ピクセルが有する深度情報を識別し、識別された深度情報に基づいて当該映像ピクセルのディスパリティを推定してもよい。
映像レンダリング部130は、入力映像の映像ピクセルが有する視点方向に基づいて決定された1つ又は複数のディスプレイピクセル(又は、立体映像内の位置)に当該映像ピクセルのピクセル値(又は、カラー値)を割り当てて立体映像をレンダリングしてもよい。映像レンダリング部130は、入力映像に含まれた映像ピクセルのディスパリティを推定した後、ディスプレイピクセルの視点方向に対する第1モデル及び映像ピクセルの視点方向に対する第2モデルを決定してもよい。
ディスプレイピクセルの視点方向に対する第1モデルは、ディスプレイ装置110が示すライトフィールド関数として、ディスプレイピクセルから出力される光線が有する視点方向又は視点位置に関する関数を示す。各ディスプレイピクセルが有する視点方向に対する視点情報は予め格納されてもよく、映像レンダリング部130は当該視点情報に基づいて第1モデルを決定してもよい。一実施形態によると、第1モデルは、ディスプレイ部120に含まれた全体ディスプレイピクセルのうち、垂直方向又は水平方向のいずれか1つのラインに含まれたディスプレイピクセルの視点方向に基づいて決定されてもよい。
映像ピクセルの視点方向に対する第2モデルは、映像ピクセルが示すライトフィールド関数として、映像ピクセルから出力される光線が有する視点方向又は視点位置に関する関数として、当該光線が有する視点方向又は視点位置は映像ピクセルのディスパリティに基づいて決定されてもよい。映像レンダリング部130は、映像ピクセルに対して推定されたディスパリティに基づいて、映像ピクセルから出力される光線の視点方向を決定してもよい。第2モデルは、それぞれの映像ピクセルごとに決定されてもよい。
映像レンダリング部130は、ディスプレイピクセルの視点方向に対する第1モデル及び映像ピクセルの視点方向に対する第2モデルを用いて、当該映像ピクセルのピクセル値を割り当てるディスプレイピクセルを決定してもよい。映像レンダリング部130は、第1モデル及び第2モデル間の対応関係を用いて映像ピクセルのピクセル値を割り当てるディスプレイピクセルを決定し、決定されたディスプレイピクセルに第2モデルの対象である特定映像ピクセルのピクセル値を割り当て立体映像をレンダリングしてもよい。このように、映像レンダリング部130は、立体映像を表示するために多視点映像を利用することなく、立体映像を直接生成してもよい。
映像レンダリング部130は、特定ラインに位置するディスプレイピクセルの視点方向情報と位置情報に基づいて第1モデルを決定してもよい。映像レンダリング部130は、ディスプレイピクセルの位置と当該ディスプレイピクセルが有する視点方向(又は、視点位置)間の対応関係を示す複数の基準点を設定し、設定された基準点を通過する中間関数を決定することで第1モデルをモデリングしてもよい。例えば、映像レンダリング部130は基準点を通過し、互いに同じ傾きを有する線形関数の集合を中間関数として決定してもよい。
基準点は、ディスプレイ装置110に含まれた全体ディスプレイピクセルのうち、垂直方向のいずれか1つのラインに位置するディスプレイピクセル、又は水平方向のいずれか1つのラインに位置するディスプレイピクセルの単位で設定されてもよい。例えば、基準点は、ディスプレイ装置110の全体ディスプレイピクセルのいずれか1つの行(row)又はいずれか1つの列(column)に位置するディスプレイピクセル単位で設定されてもよい。
映像レンダリング部130は、映像ピクセルが有するディスパリティに基づいて第2モデルを決定してもよい。映像レンダリング部130は、映像ピクセルから出力される光線の視点方向に関する関数のディスパリティ関数を決定することで、第2モデルをモデリングしてもよい。ディスパリティ関数は、各映像ピクセルごとに決定されてもよい。
一実施形態によると、映像レンダリング部130は、中間関数とディスパリティ関数との間の交差点を決定し、中間関数とディスパリティ関数との間の交差点に基づいて、映像ピクセルのピクセル値が割り当てられる1つ又は複数のディスプレイピクセルを決定してもよい。例えば、映像レンダリング部130は、中間関数に含まれた基準点のうち、中間関数とディスパリティ関数との間の交差点と最も近い距離にある基準点を決定し、決定された基準点に対応するディスプレイピクセルに当該映像ピクセルのピクセル値を割り当ててもよい。
例えば、映像ピクセルPのディスパリティ関数がQであり、中間関数とディスパリティ関数Qとの間の交差点に最も近い距離にある基準点を基準点Rであると仮定すると、映像レンダリング部130は、基準点Rに対応するディスプレイピクセルKに映像ピクセルPのピクセル値を割り当ててもよい。立体映像が表示されるとき、ディスプレイピクセルKを介して映像ピクセルのPのピクセル値を出力してもよい。
他の実施形態によると、映像レンダリング部130は、複数の第2モデルを用いて立体映像をレンダリングしてもよい。映像レンダリング部130は、複数の映像ピクセルのディスパリティ関数を用いてピクセル値が割り当てられるディスプレイピクセルを決定してもよい。映像レンダリング部130は、ディスプレイピクセルの位置と当該ディスプレイピクセルが有する視点方向との間の対応関係を示す基準点を設定し、複数の基準点を通過する中間関数を決定してもよい。映像レンダリング部130は、互いに隣接する映像ピクセルそれぞれに対するディスパリティ関数を決定してもよい。映像レンダリング部130は、複数のディスパリティ関数の間の領域とオーバラップされる中間関数の基準点を識別し、識別された基準点に対応するディスプレイピクセルに当該映像ピクセルのピクセル値を補間して割り当ててもよい。
例えば、映像レンダリング部130は、映像ピクセルAに関するディスパリティ関数Bと映像ピクセルCに関するディスパリティ関数Dを決定し、ディスパリティ関数Bとディスパリティ関数Dとの間の領域に含まれる中間関数の基準点を識別してもよい。その後、映像レンダリング部130は、識別された基準点に対応するディスプレイピクセルに映像ピクセルAのピクセル値及び映像ピクセルCのピクセル値を補間して割り当ててもよい。
ディスプレイピクセルに対する第1モデルは、ディスプレイ部120に含まれた全体ディスプレイピクセルのうち、水平方向又は垂直方向のいずれか1つのラインに位置するディスプレイピクセルに基づいて定義されてもよい。映像ピクセルに対する第2モデルは、上記ディスプレイピクセルのラインに対応する位置に含まれた映像ピクセルのいずれか1つの映像ピクセルに対して定義されてもよい。例えば、第1モデルがディスプレイ部120に含まれた全体ディスプレイピクセルのうち、i行に位置するディスプレイピクセルを対象として決定されたとすると、第2モデルは上記のi行に対応する位置にある各映像ピクセルに対して決定されてもよい。
映像レンダリング部130は、他のラインに位置するディスプレイピクセル及び映像ピクセルに対して上記過程を繰り返し行うことで、ディスプレイ部120を介して表示する立体映像を生成することができる。
図2は、一実施形態に係る映像レンダリング装置の動作を説明するための図である。映像レンダリング装置210は、映像レンダリング部130であってもよい。
映像レンダリング装置210は、立体映像をレンダリングする。映像レンダリング装置210は、立体映像をレンダリングするためにマルチビュー映像を生成することなく、ディスプレイピクセルに直接映像ピクセルのピクセル値を割り当てて立体映像を生成してもよい。一実施形態によると、映像レンダリング装置210は、3Dテレビ、3Dスマートフォン、3Dタブレット、3D DID(digital information display)などの3Dレンダリング機器で動作する。
図2を参照すると、映像レンダリング装置210は、ディスパリティ推定部220及び映像レンダリング部230を含む。
ディスパリティ推定部220は、入力映像に含まれた映像ピクセルのディスパリティを推定する。映像ピクセルのディスパリティに基づいて、当該映像ピクセルが有する視点方向が決定されてもよい。例えば、ディスパリティ推定部220は、他の視点で撮影された映像の参照映像と入力映像との間の視点差に基づいて、映像ピクセルのディスパリティを推定してもよい。ディスパリティ推定部220は、入力映像に含まれた全ての映像ピクセルに対して参照映像で対応する映像ピクセルを探索し、入力映像と参照映像との間で対応する映像ピクセル間の距離を算出して、入力映像内の全ての映像ピクセルに対して距離/ディスパリティ値を含む映像を取得してもよい。他の例として、ディスパリティ推定部220は、深度映像に示された深度情報を用いて当該映像ピクセルのディスパリティを推定してもよい。推定されたディスパリティは、深度マップ(depth map)又はディスパリティマップ(disparity map)の形態として表現されてもよい。
映像レンダリング部230は、映像ピクセルの視点方向に対応する視点方向を有する1つ又は複数のディスプレイピクセルに映像ピクセルのピクセル値を割り当てて立体映像をレンダリングしてもよい。ディスプレイピクセルは、予め決定された視点方向を有してもよく、予め決定された個数の互いに異なる視点方向のいずれか1つの視点方向を有してもよい。ディスプレイピクセルの視点方向は、立体映像を表示するディスプレイ装置に含まれたレンチキュラーレンズの構造的な特徴に基づいて決定されてもよい。レンチキュラーレンズの構造的な特徴により、各ディスプレイピクセルから放射される光線の移動経路を決定してもよい。
映像レンダリング部230は、映像ピクセルの視点方向及びディスプレイピクセルの視点方向に基づいて、複数のディスプレイピクセルのうち映像ピクセルのピクセル値を割り当てるディスプレイピクセルを探索してもよい。映像レンダリング部230は、ディスプレイピクセルの視点方向に対する第1モデルと映像ピクセルの視点方向に対する第2モデルに基づいて、マルチビュー映像を利用することなく、立体映像を直接レンダリングしてもよい。
映像レンダリング部230は、ディスプレイピクセルの視点方向に対する第1モデルを決定してもよい。映像レンダリング部230は、ディスプレイピクセルの位置と視点方向との間の対応関係に基づいて第1モデルを決定してもよい。映像レンダリング部230は、ディスプレイパネルに配置されたディスプレイピクセルの位置と各ディスプレイピクセルに割り当てられた視点方向との間の対応関係に基づいて第1モデルを決定してもよい。映像レンダリング部230は、ディスプレイピクセルの位置と当該ディスプレイピクセルが有する視点方向との間の対応関係を示す複数の基準点を設定し、設定された基準点を通過する中間関数を決定することで第1モデルをモデリングする。
映像レンダリング部230は、ディスパリティ推定部220により推定された映像ピクセルのディスパリティに基づいて、映像ピクセルの視点方向に対する第2モデルを決定してもよい。映像レンダリング部230は、入力映像内の映像ピクセルの位置を基準として映像ピクセルから出力される光線の方向をモデリングして第2モデルを決定してもよい。映像レンダリング部230は、第2モデルとして映像ピクセルから出力される光線の視点方向に関する関数のディスパリティ関数を決定してもよい。ディスパリティ関数は、各映像ピクセルごとに決定されてもよい。
映像レンダリング部230は、第1モデル及び第2モデルを用いて当該映像ピクセルのピクセル値を割り当てる1つ又は複数のディスプレイピクセルを決定してもよい。映像レンダリング部230は、第1モデル及び第2モデル間の対応関係を用いて映像ピクセルのピクセル値を割り当てるディスプレイピクセルを決定し、決定されたディスプレイピクセルに第2モデルの対象である特定映像ピクセルのピクセル値を割り当て、立体映像をレンダリングする。
一実施形態によると、映像レンダリング部230は、中間関数とディスパリティ関数との間の交差点を決定し、中間関数とディスパリティ関数との間の交差点に基づいて、映像ピクセルのピクセル値が割り当てられる1つ又は複数のディスプレイピクセルを決定してもよい。例えば、映像レンダリング部230は、中間関数に含まれた基準点のうち、中間関数とディスパリティ関数との間の交差点と最も近い距離にある基準点を決定し、決定された基準点に対応するディスプレイピクセルに当該映像ピクセルのピクセル値を割り当ててもよい。または、映像レンダリング部230は、映像ピクセルのディスパリティに基づいて決定されたピクセル領域に含まれる基準点を識別し、識別された基準点に対応するディスプレイピクセルに当該映像ピクセルのピクセル値を割り当ててもよい。
他の実施形態によると、映像レンダリング部230は、第1モデルと複数の映像ピクセルに対する第2モデルを用いて、映像ピクセルのピクセル値を割り当てる1つ又は複数のディスプレイピクセルを決定してもよい。映像ピクセルは、互いに隣接する映像ピクセルであってもよい。映像レンダリング部230は、複数の映像ピクセルのディスパリティ関数を用いてピクセル値が割り当てられるディスプレイピクセルを決定してもよい。映像レンダリング部230は、ディスプレイピクセルの位置と当該ディスプレイピクセルが有する視点方向間の対応関係を示す基準点を設定し、複数の基準点を通過する中間関数を決定してもよい。映像レンダリング部230は、互いに隣接する映像ピクセルそれぞれに対するディスパリティ関数を決定してもよい。映像レンダリング部230は、複数のディスパリティ関数の間の領域とオーバラップされる中間関数の基準点を識別し、識別された基準点に対応するディスプレイピクセルに当該映像ピクセルのピクセル値を補間して割り当ててもよい。基準点が複数が識別された場合、映像レンダリング部230は、それぞれの基準点に対応するディスプレイピクセルに当該映像ピクセルのピクセル値を補間して割り当ててもよい。
図3は、一実施形態に係るディスプレイピクセルが有する視点方向を説明するための図である。
立体映像を表示するディスプレイ装置のディスプレイパネル310は、複数のディスプレイピクセル332、334、336、338、340を含む。例えば、各ディスプレイピクセル332、334、336、338、340はRサブピクセル、Gサブピクセル、及びBサブピクセルのいずれか1つであってもよい。ディスプレイ装置は、ディスプレイパネル310以外に立体映像を実現するためのレンチキュラーレンズ320を含んでもよい。レンチキュラーレンズ320は、ディスプレイパネル310の上部に備えられている。
一実施形態によると、レンチキュラーレンズ320は、複数のレンチキュールドゥルを含んでもよく、対角線方向に傾いた形態を有してもよい。各ディスプレイピクセル332、334、336、338、340から出力された光線は、レンチキュラーレンズ320により屈折又は通過して3D空間上の特定位置に移動する。レンチキュラーレンズ320の構造的な特徴により、各ディスプレイピクセル332、334、336、338、340から出力された光線の移動経路が決定されてもよく、そのため、ディスプレイピクセル332、334、336、338、340は予め設定された視点方向を有してもよい。
各ディスプレイピクセル332、334、336、338、340ごとに、どのような視点方向のピクセル情報が出力されなければならないかを予め決定してもよい。例えば、ディスプレイ装置が立体映像を正常に表示するためには、ディスプレイピクセル332、334、336、338、340がそれぞれ第1視点方向のピクセル情報、第2視点方向のピクセル情報、第3視点方向のピクセル情報、第4視点方向のピクセル情報、及び第5視点方向のピクセル情報を出力することが、レンチキュラーレンズ320の構造的な特徴により予め決定されてもよい。
ディスプレイピクセル332から出力される光線は、レンチキュラーレンズ320を経由して第1視点方向に移動し、ディスプレイピクセル334から出力される光線は、レンチキュラーレンズ320を経由して第2視点方向に移動する。同様に、ディスプレイピクセル336から出力される光線は、レンチキュラーレンズ320を経由して第3視点方向に移動し、ディスプレイピクセル338から出力される光線は、レンチキュラーレンズ320を経由して第4視点方向に移動し、ディスプレイピクセル340から出力される光線はレンチキュラーレンズ320を経由して第5視点方向に移動する。
レンチキュラーレンズ320の構造的な特徴により、ディスプレイピクセルが有する視点方向は反復性又は周期性を有する。例えば、図3に示すように、ディスプレイパネル310の1列に位置するディスプレイピクセルは、第1視点方向、第2視点方向、第3視点方向、第4視点方向、及び第5視点方向が継続的に反復されるパターンを有してもよい。
ディスプレイパネル310に含まれたディスプレイピクセルが有する視点方向は、ディスプレイ装置の設計過程で予め決定され、ディスプレイパネル310の全体ディスプレイピクセルの視点方向に関する情報を予め格納してもよい。映像レンダリング装置は、ディスプレイピクセルに関する情報を用いて第1モデルを決定してもよい。例えば、ディスプレイピクセルに関する情報は、各ディスプレイピクセルのディスプレイパネル310上の位置情報及び各ディスプレイピクセルが有する視点方向情報を含んでもよい。
また、図3に示すように、映像処理回路345は入力映像を受信し、入力映像に含まれた映像ピクセルのピクセル値をディスプレイピクセル332、334、336、338、340に割り当ててもよい。その後、映像処理回路345は、プロセッサ350、ゲートドライバ355、信号ドライバ360、及びメモリ365を用いて割り当てられたピクセル値をディスプレイピクセル332、334、336、338、340に供給する。映像処理回路345は、映像レンダリング部130及び映像レンダリング装置210の機能を行う。
例えば、プロセッサ350は、メモリ365に格納された命令を実行することで、映像レンダリング部130及び映像レンダリング装置210の機能を行うことができる。プロセッサ350は、ゲートドライバ335及び信号ドライバ360にディスプレイピクセル332、334、336、338、340を選択するタイミング情報と割り当てられたピクセル値情報を提供する。
図4及び図5は、一実施形態に係る第1モデルを説明するための図である。
ディスプレイ装置のライトフィールド関数に対応する第1モデルは、ディスプレイピクセルの位置と各ディスプレイピクセルが有する視点方向との間の対応関係に基づいて決定されてもよい。図4は、ディスプレイピクセルの位置とディスプレイピクセルが有する視点方向との間の対応関係を示す座標平面を示している。図4に示す座標平面で、x軸はディスプレイピクセルの位置を示し、y軸はディスプレイピクセルが有する視点方向を示す。ここでは、説明の便宜のためにディスプレイピクセルが有する視点方向が総5個であると仮定する。座標平面でディスプレイピクセルの位置と当該ディスプレイピクセルの視点方向に対応する点を基準点と定義する。
第1モデルは、特定ライン上に配置されたディスプレイピクセルに基づいてモデリングする。図4には、水平方向のいずれか1つの行(row)に配置された10個のディスプレイピクセルの位置と、各ディスプレイピクセルが有する視点方向との間の対応関係を示す10個の基準点が図示されている。基準点は、ディスプレイ装置が表現できる光線を示す。ディスプレイ装置は、全てのライトフィールド、言い換えれば、実際の世界の全ての光線を表現できないため、特定構造を有するライトフィールドに光線を出力するようになる。
図5は、レンチキュラーレンズを用いて立体映像を実現するディスプレイ装置のライトフィールドを示す。図5において、ディスプレイ装置のライトフィールドは「X」符号と表示し、「X」符号は基準点510に対応する。ディスプレイ装置のライトフィールドは、ディスプレイ装置に含まれたディスプレイピクセルの位置と当該ディスプレイピクセルから出力される光線の視点位置に基づいて決定されてもよい。図5において、x軸はディスプレイ装置で垂直方向又は水平方向のいずれか1つのラインに位置するディスプレイピクセルの位置を示し、y軸は各ディスプレイピクセルが有する視点方向を示す。
実際のディスプレイ装置は、無限のディスプレイピクセルではない、サブピクセルという限定した光源を用いるため、ディスプレイ装置のライトフィールドは、図5に示す「X」符号のようにサンプリングされた基準点510に表現してもよい。基準点510は、ディスプレイ装置のディスプレイピクセルが有する視点方向に基づいて決定されてもよい。映像レンダリング装置は、基準点510に対応するディスプレイピクセルのライトフィールドを生成することで立体映像を生成できる。
ディスプレイ装置が表現する連続的なライトフィールド関数fLF(x)は、次の数式(1)のように示すことができる。
ここで、xは3Dディスプレイ装置に含まれたディスプレイピクセルで垂直方向又は水平方向の一ラインに含まれたディスプレイピクセルの位置を識別するための変数である。fはレンチキュラーレンズの焦点距離を示し、Dはディスプレイ装置からの視聴距離を示す。vn(x)はx位置のディスプレイピクセルから出力された光線がレンチキュラーレンズのn番目のレンチキュールを通過した後に達する視点位置を示す。
例えば、図5に示す基準点510は、次の数式(2)のように示すことができる。
数式(2)のfLF(i,s)は、サンプリングされた値を有するディスプレイ装置のライトフィールド関数を示す。上記にサンプリングされた値は基準点510に対応する。数式(2)は、視聴領域Vとレンチキュラーレンズの特性を考慮して数式(1)を再定義した数式である。レンチキュラーレンズを用いるディスプレイ装置のライトフィールド関数は、数式(2)のように離散的な形態を有してもよい。視聴領域Vは、左眼の視点位置VLと右眼の視点位置Vの間の領域を示し、fはレンチキュラーレンズの焦点距離を示す。Dはディスプレイ装置からの視聴距離を示し、mod(a,b)はaをbに割ったときの残りを出力する関数を示す。
iは3Dディスプレイ装置に含まれたディスプレイピクセルで垂直方向又は水平方向の一ラインに含まれたディスプレイピクセルの位置を識別するための変数を示し、1、2、…、n(自然数)の値を有する。sはi*3の次元を有する変数を示し、1、2、…、m(自然数)の値を有する。x(s)はsによるディスプレイピクセルの位置値を示す。vs(i)はディスプレイピクセルiから出力された光線がレンチキュラーレンズのs番目のレンチキュールを通過した後に達する視点位置を示す。レンチキュラーレンズが対角方向に傾いた形態を有する場合、レンチキュールの開始点v(s=1)はiによって変わるため、vs(i)はiの関数に表現される。
ディスプレイピクセルが有する視点方向は、ディスプレイ装置内で特定ディスプレイピクセルを識別するための位置インデックスと、特定ディスプレイピクセルが有する視点方向を識別するための視点インデックスに基づいて一定のパターンで示すことができる。ディスプレイピクセルに対する位置インデックス及び視点インデックスに基づいて各ディスプレイピクセルの視点方向を示すパターンを織物パターン(weaving pattern)と定義する。織物パターンは、ディスプレイ装置で水平方向又は垂直方向のいずれか1つのラインに位置するディスプレイピクセルが有する視点方向又は視点位置を示す。織物パターンは、ディスプレイピクセルの位置と当該ディスプレイピクセルの視点方向との間の対応関係を示す複数の基準点510を含んでもよい。レンチキュラーレンズの構造的な特性による周期性を利用すると、各ディスプレイピクセルに対応する視点方向を図5に示すようなパターンに示すことができる。
映像レンダリング装置は、ディスプレイピクセルによる視点方向を示す基準点510に基づいて中間関数520を決定してもよい。中間関数520は、1つ又は複数の基準点510を通過する関数として表現されてもよい。ディスプレイピクセルに対する第1モデルは、基準点510を通過する複数の中間関数520にモデリングされる。一実施形態によると、映像レンダリング装置は、次の数式(3)に基づいて中間関数を決定してもよい。数式(3)によると、中間関数は、基準点を通過する複数の線形関数に定義されてもよい。
数式(3)において、pは織物パターンを複数の線形関数にグループ化するために用いられる変数を示し、1、2、…、q(自然数)の値を有する。iはディスプレイ装置に含まれたディスプレイピクセルで垂直方向又は水平方向のいずれか1つのラインに含まれたディスプレイピクセルの位置を識別するための変数を示し、1、2、…、n(自然数)の値を有する。sはi*3の次元を有する変数を示し、1、2、…、m(自然数)の値を有する。fwp(s,p,i)は変数s、p、iの値に基づいて決定される中間関数を示す。awpはfwp(s,p,i)の傾きを示し、次の数式(4)のように定義される。
数式(4)において、fLF(i,c+nwp)は数式(2)のサンプリングされた値を有する3Dディスプレイ装置のライトフィールド関数に対応する。iは3Dディスプレイ装置に含まれたディスプレイピクセルで垂直方向又は水平方向のいずれか1つのラインに含まれたディスプレイピクセルの位置を識別するための変数を示し、1、2、…、n(自然数)の値を有する。cは一般定数であり、1、2、…、w(自然数)の値を有する。nwpは同一の中間関数に含まれた基準点のうち互いに隣接する基準点が有するs方向にの離隔距離を示す。
wp(i)はiによるfwp(s,p,i)関数のy切片を示し、次の数式(5)のように定義される。
数式(5)において、fLF(i,1)は数式(2)のサンプリングされた値を有するディスプレイ装置のライトフィールド関数に対応する。awpは数式(4)の変数s、p、iの値に基づいて決定される中間関数fwp(s,p,i)の傾きに対応する。
数式(3)で、aはfwp(s,p,i)が示す複数の中間関数520で隣接する中間関数が互いにどれ程離れているかを示す。apは次の数式(6)のように定義される。
数式(6)において、fLF(i,c+nmr)は数式(2)のサンプリングされた値を有する3Dディスプレイ装置のライトフィールド関数に対応し、awpは数式(4)の変数s、p、iの値に基づいて決定される中間関数fwp(s,p,i)の傾きに対応する。cは一般定数を示し、1、2、…、w(自然数)の値を有する。nmrは数式(3)のfwp(s,p,i)でpによる中間関数の開始点の間の離隔距離を示す。例えば、p=1である中間関数の開始点をaと仮定すると、p=2である中間関数の開始点はa+nmrとなる。
図6は、一実施形態に係る第2モデルを説明するための図である。
3D空間で特定視点の光線をキャプチャーしたカメラ映像が入力映像として映像レンダリング装置に入力されてもよい。入力映像のライトフィールドは、様々な方法により表現してもよい。入力映像のライトフィールドは、入力映像内の映像ピクセルの位置と映像ピクセルから出力される光線の視点方向に基づいて決定されてもよい。映像ピクセルから出力される光線の視点方向は、当該映像ピクセルが有するディスパリティに基づいて決定されてもよい。
入力映像でカラー値とディスパリティを有する映像ピクセルのライトフィールドは、左視点と右視点との間の距離を視聴領域Vであると仮定した場合、「V/ディスパリティ」の傾きを有し、本来の映像位置を通過する直線方程式のディスパリティ関数にモデリングしてもよい。図6に示す座標平面で、ディスパリティ関数630は「V/ディスパリティ」の傾きを有し、本来の映像位置(a,VL)を通過する直線方程式で図示されている。「VL」620は視聴領域で左眼の視点位置を示し、「VR」610は視聴領域で右眼の視点位置を示す。
映像レンダリング装置は、入力映像の映像ピクセルが有するディスパリティに基づいて映像ピクセルと映像ピクセルのディスパリティが表現するディスパリティ関数630を決定してもよい。映像ピクセルが有するディスパリティ関数630によって当該映像ピクセルに対する第2モデルが決定されてもよい。
例えば、映像レンダリング装置は、次の数式(7)に基づいて(i,j)に位置する映像ピクセルのディスパリティ関数を決定してもよい。
左視点VLと右視点VRとの間の距離を視聴領域Vといい、入力映像が左映像であると仮定した場合、映像レンダリング装置は、x方向のディスパリティ間のVの傾きを有して映像ピクセルの本来位置(3j,VL)を通過する直線方程式をディスパリティ関数として決定してもよい。数式(7)は、入力映像で位置(i,j)の映像ピクセルが有するディスパリティ関数を示す。iは入力映像で映像ピクセルの行(row)位置を識別するための変数であり、jは入力映像で映像ピクセルの列(column)位置を識別するための変数である。sはディスプレイピクセルの位置が3つのサブピクセル(Rサブピクセル、Gサブピクセル、及びBサブピクセル)に基づいて設定されることで、ディスプレイ装置のライトフィールド関数と次元を合わせるための変数として、j*3の次元を有する。dは、入力映像で位置(i,j)の映像ピクセルが有するディスパリティを示す。
図7は、一実施形態に係る第1モデル及び第2モデルに基づいて立体映像をレンダリングする過程を説明するための図である。
映像レンダリング装置は、ディスプレイピクセルに対する第1モデルと映像ピクセルに対する第2モデルに基づいて立体映像をレンダリングする。第1モデルは、ディスプレイピクセルの位置とディスプレイピクセルが有する視点方向との間の対応関係を示す基準点に基づいてモデリングしてもよく、第2モデルは、映像ピクセルが有するディスパリティによるディスパリティ関数に基づいてモデリングしてもよい。映像レンダリング装置は、映像ピクセルの視点方向に対応する視点方向を有する1つ又は複数のディスプレイピクセルに当該映像ピクセルのピクセル値を割り当ててもよい。
一実施形態によると、ディスプレイパネルに含まれたディスプレイピクセルを用いて出力される立体映像710は、ライン単位でレンダリングされてもよい。図7に示された図では、出力される立体映像710でライン720の位置に対応するディスプレイピクセルに対して第1モデルが決定されてもよい。映像レンダリング装置は、ライン720の位置に配置されたディスプレイピクセルの位置と、当該ディスプレイピクセルが有する視点方向に基づいて第1モデルを決定してもよい。第1モデルは、数式(3)ないし数式(6)に基づいて決定された中間関数520により決定されてもよく、中間関数520は複数の基準点510を連結する関数を示す。
映像レンダリング装置は、入力映像でライン720に対応する位置に存在する映像ピクセルのいずれか1つの映像ピクセルに対するディスパリティ関数630に基づいて第2モデルを決定してもよい。第2モデルは、数式(7)に基づいてモデリングされてもよい。
映像レンダリング装置は、複数の中間関数520とディスパリティ関数630との間の交差点を決定してもよい。映像レンダリング装置は、交差点に対応するディスプレイピクセルを決定し、決定されたディスプレイピクセルにディスパリティ関数630の対象となる映像ピクセルのピクセル値を割り当ててもよい。
一実施形態によると、映像レンダリング装置は、交差点と最も近い基準点を決定し、決定された基準点に対応するディスプレイピクセルにディスパリティ関数630の対象となる映像ピクセルのピクセル値を割り当ててもよい。映像レンダリング装置は、中間関数520とディスパリティ関数630との間の全ての交差点に対して上記過程を繰り返し行ってもよい。基準点510は、レンチキュラーレンズの構造的な特徴による周期性を有するため、2つの交差点の間の差に基づいて他の交差点を決定してもよい。
他の実施形態によると、ディスパリティ関数630は領域に表現されてもよく、映像レンダリング装置は、ディスパリティ関数630が示す領域に含まれる基準点を識別し、識別された基準点に対応するディスプレイピクセルにディスパリティ関数630の対象となる映像ピクセルのピクセル値を割り当ててもよい。
図7では、中間関数520とディスパリティ関数630との間の交差点に対応する基準点が6個決定され、各基準点に対応するディスプレイピクセルの位置732、734、736、738、740、742にディスパリティ関数630の対象となる映像ピクセルのピクセル値が割り当てられてもよい。
例えば、ディスパリティ関数630が映像ピクセル「A」に対するディスパリティ関数であれば、ディスプレイピクセルの位置732、734、736、738、740、742には映像ピクセル「A」が有するピクセル値が割り当てられてもよい。その後、入力映像でライン720に対応する位置に存在する映像ピクセルのうち、映像ピクセル「A」ではない他の映像ピクセル「B」に対する第2モデルが決定され、再びライン720の位置に対応するディスプレイピクセルに対する第1モデルと映像ピクセル「B」に対する第2モデルに基づいて、映像ピクセル「B」のピクセル値を割り当てるディスプレイピクセルが決定されてもよい。映像ピクセル「B」に対する第2モデルは、映像ピクセル「B」に対して推定されたディスパリティに基づいて決定されてもよい。
ライン720に対応する位置に存在する映像ピクセルに対して上記過程が実行されれば、映像レンダリング装置は、ライン720の次のラインに位置するディスプレイピクセルに対して第1モデルを決定し、次のラインに対応する位置に存在する映像ピクセルに対して再び上記過程を継続的に行ってもよい。前述したように映像レンダリング装置は、入力映像に含まれたそれぞれの映像ピクセルのピクセル値をディスプレイピクセルに直接マッピングすることで、多視点映像を生成しなくても立体映像を直接レンダリングしてもよく、立体映像のレンダリング過程で求められる算出量とリソース量を著しく減らし得る。
図8は、他の実施形態に係る第1モデル及び第2モデルに基づいて立体映像をレンダリングする過程を説明するための図である。
映像レンダリング装置は、複数の映像ピクセルが有する複数の第2モデルを用いて立体映像をレンダリングしてもよい。映像レンダリング装置は、複数の第2モデルを用いて映像ピクセルのピクセル値を割り当てるディスプレイピクセルを決定してもよい。図8は、隣接する映像ピクセルに対する複数のディスパリティ関数830、840を用いる実施形態に関し、ディスパリティ関数830は、いずれか1つの映像ピクセルに対するディスパリティ関数を示し、ディスパリティ関数840は、上記映像ピクセルに隣接する映像ピクセルに対するディスパリティ関数を示す。映像レンダリング装置は、ディスパリティ関数830とディスパリティ関数840との間の領域に基づいて、映像ピクセルのピクセル値を割り当てるディスプレイピクセルを決定してもよい。
映像レンダリング装置は、ディスプレイピクセルの位置とディスプレイピクセルが有する視点方向との間の対応関係を示す基準点810に基づいて中間関数820を決定し、中間関数820とディスパリティ関数830、840に基づいて映像ピクセルのピクセル値を割り当てるディスプレイピクセルを決定してもよい。映像レンダリング装置は、決定されたディスプレイピクセルに映像ピクセルのピクセル値が補間されたピクセル値を割り当ててもよい。
一実施形態によると、基準点810を含む中間関数820は数式(3)によって決定され、映像ピクセルのディスパリティ関数830、840は数式(7)に基づいて決定される。映像レンダリング装置は、ディスパリティ関数830とディスパリティ関数840との間の領域にオーバラップされる中間関数820の基準点860を決定してもよい。映像レンダリング装置は、ディスパリティ関数830とディスパリティ関数840との間の領域にオーバラップされる各基準点860に対応するディスプレイピクセルにディスパリティ関数830、840に対応する映像ピクセルのピクセル値を補間して割り当ててもよい。例えば、ディスパリティ関数830が映像ピクセル「A」に対するディスパリティ関数であり、ディスパリティ関数840が映像ピクセル「B」に対するディスパリティ関数とすると、基準点860に対応するディスプレイピクセルには、映像ピクセル「A」のピクセル値と映像ピクセル「B」に対するピクセル値が補間されて割り当てられてもよい。映像レンダリング装置は、他のディスプレイピクセル及び他の映像ピクセルに対しても上記過程を行ってもよい。
図9は、一実施形態に係る映像レンダリング方法の動作を説明するためのフローチャートである。
ステップS910で、映像レンダリング装置は、入力映像に含まれた映像ピクセルのディスパリティを推定する。映像ピクセルのディスパリティに基づいて当該映像ピクセルが有する視点方向が決定される。例えば、映像レンダリング装置は、他の視点で撮影された映像の参照映像と入力映像との間の視点差に基づいて、映像ピクセルのディスパリティを推定してもよい。映像レンダリング装置は、入力映像に含まれた全ての映像ピクセルに対して参照映像で対応する映像ピクセルを探索し、入力映像と参照映像との間で対応する映像ピクセルの間の距離を算出して映像ピクセルのディスパリティを推定してもよい。他の例として、映像レンダリング装置は、深度映像に示された深度情報を用いて当該映像ピクセルのディスパリティを推定してもよい。
ステップS920で、映像レンダリング装置は、映像ピクセルの視点方向に対応する視点方向を有する1つ又は複数のディスプレイピクセルに映像ピクセルのピクセル値を割り当てて立体映像をレンダリングする。ディスプレイピクセルは、所定の視点方向を有してもよく、予め決定された個数の互いに異なる視点方向のいずれか1つの視点方向を有してもよい。ディスプレイピクセルの視点方向は、立体映像を表示するディスプレイ装置に含まれたレンチキュラーレンズの構造的な特徴に基づいて決定されてもよい。
映像レンダリング装置は、映像ピクセルの視点方向及びディスプレイピクセルの視点方向に基づいて、複数のディスプレイピクセルのうち映像ピクセルのピクセル値を割り当てるディスプレイピクセルを探索してもよい。映像レンダリング装置は、ディスプレイピクセルの視点方向に対する第1モデルと映像ピクセルの視点方向に対する第2モデルに基づいてマルチビュー映像を利用することなく、立体映像を直接レンダリングしてもよい。
映像レンダリング装置は、ディスプレイパネルに配置されたディスプレイピクセルの位置と各ディスプレイピクセルに割り当てられた視点方向との間の対応関係に基づいて第1モデルを決定してもよい。映像レンダリング装置は、ディスプレイピクセルの位置と当該ディスプレイピクセルが有する視点方向との間の対応関係を示す複数の基準点を設定し、設定された基準点を通過する中間関数を決定してもよく、第1モデルをモデリングしてもよい。
映像レンダリング装置は、映像ピクセルのディスパリティに基づいて映像ピクセルの視点方向に対する第2モデルを決定してもよい。映像レンダリング装置は、入力映像内の映像ピクセルの位置を基準として映像ピクセルから出力される光線の方向をモデリングして第2モデルを決定してもよい。映像レンダリング装置は、映像ピクセルから出力される光線の視点方向に関する関数のディスパリティ関数を決定することで第2モデルをモデリングしてもよい。
映像レンダリング装置は、第1モデル及び第2モデルを用いて当該映像ピクセルのピクセル値を割り当てる1つ又は複数のディスプレイピクセルを決定してもよい。映像レンダリング装置は、第1モデル及び第2モデル間の対応関係を用いて映像ピクセルのピクセル値を割り当てるディスプレイピクセルを決定し、決定されたディスプレイピクセルに第2モデルの対象である特定映像ピクセルのピクセル値を割り当てて立体映像をレンダリングしてもよい。
一実施形態によると、映像レンダリング装置は、第1モデルと1つの映像ピクセルに対する第2モデルを用いて、映像ピクセルのピクセル値を割り当てる1つ又は複数のディスプレイピクセルを決定してもよい。映像レンダリング装置は、中間関数とディスパリティ関数との間の交差点を決定し、中間関数とディスパリティ関数との間の交差点に基づいて、映像ピクセルのピクセル値が割り当てられる1つ又は複数のディスプレイピクセルを決定してもよい。例えば、映像レンダリング装置は、中間関数に含まれた基準点のうち中間関数とディスパリティ関数との間の交差点と最も近い距離にある基準点を決定し、決定された基準点に対応するディスプレイピクセルに当該映像ピクセルのピクセル値を割り当ててもよい。または、映像レンダリング装置は、映像ピクセルのディスパリティに基づいて決定されたピクセル領域に含まれる基準点を識別し、識別された基準点に対応するディスプレイピクセルに当該映像ピクセルのピクセル値を割り当ててもよい。
他の実施形態によると、映像レンダリング装置は、第1モデルと複数の映像ピクセルに対する第2モデルを用いて映像ピクセルのピクセル値を割り当てる1つ又は複数のディスプレイピクセルを決定してもよい。映像ピクセルは、互いに隣接する映像ピクセルであってもよい。映像レンダリング装置は、複数の映像ピクセルのディスパリティ関数を用いて、ピクセル値が割り当てられるディスプレイピクセルを決定してもよい。映像レンダリング装置は、ディスプレイピクセルの位置と当該ディスプレイピクセルが有する視点方向との間の対応関係を示す基準点を設定し、複数の基準点を通過する中間関数を決定してもよい。映像レンダリング装置は、複数のディスパリティ関数の間の領域とオーバラップされる中間関数の基準点を識別し、識別された基準点に対応するディスプレイピクセルに当該映像ピクセルのピクセル値を補間して割り当ててもよい。
以上で説明された実施形態は、ハードウェア構成要素、ソフトウェア構成要素、及び/またはハードウェア構成要素及びソフトウェア構成要素の組合で実現してもよい。例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、または、命令(instruction)を実行して応答できる異なる装置のように、1つ以上の汎用コンピュータまたは特殊目的のコンピュータを用いて実現されてもよい。処理装置は、運用体制(OS)及び前記運用体制上で行われる1つ以上のソフトウェアアプリケーションを行ってもよい。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理及び生成してもよい。理解の便宜のために、処理装置は1つ使用されるものと説明された場合もあるが、当該の技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/または複数類型の処理要素を含んでいることが分かる。例えば、処理装置は、複数のプロセッサまたは1つのプロセッサ及び1つのコントローラを含んでもよい。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアはコンピュータプログラム、コード、命令、またはこのうちの1つ以上の組合を含んでもよく、希望の通りに動作するよう処理装置を構成したり独立的または結合的に処理装置を命令してもよい。ソフトウェア及び/またはデータは、処理装置によって解釈されたり処理装置に命令またはデータを提供するためどのような類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体または装置、送信される信号波に永久的または一時的に具体化できる。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散し、分散された方法で格納されたり実行されてもよい。ソフトウェア及びデータは1つ以上のコンピュータで読み出し可能な記録媒体に格納されてもよい。
実施形態に係る方法は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうち1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例には、コンパイラによって作られるような機械語コードだけでなく、インタープリタなどを用いてコンピュータによって実行できる高級言語コードが含まれる。前記したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆も同様である。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
110:ディスプレイ装置
120:ディスプレイ部
130:映像レンダリング部
210:映像レンダリング装置
220:ディスパリティ推定部
230:映像レンダリング部

Claims (30)

  1. 複数のディスプレイピクセルを含むディスプレイ装置を介して表示される立体映像をレンダリングする映像レンダリング方法において、
    入力映像に含まれた映像ピクセルのディスパリティを推定するステップと、
    前記映像ピクセルの視点方向に対応する視点方向を有する少なくとも1つのディスプレイピクセルに前記映像ピクセルのピクセル値を割り当てるステップであって、前記映像ピクセルの視点方向は、前記映像ピクセルのディスパリティに基づいて決定される、ステップと、
    を含むことを特徴とする映像レンダリング方法。
  2. 前記映像ピクセルのピクセル値を割り当てるステップは、
    前記ディスプレイピクセルの視点方向に対する第1モデルを取得するステップと、
    前記映像ピクセルのディスパリティに基づいた前記映像ピクセルの視点方向に対する第2モデルを取得するステップと、
    を含み、
    前記割り当てるステップは、前記取得した第1モデル及び前記取得した第2モデルに基づくことを特徴とする請求項1に記載の映像レンダリング方法。
  3. 前記第1モデルは、各ディスプレイピクセルの位置と各ディスプレイピクセルの視点方向との間の関係に基づいたモデルであることを特徴とする請求項2に記載の映像レンダリング方法。
  4. 前記第2モデルを取得するステップは、前記入力映像内の前記映像ピクセルの位置を基準として、前記映像ピクセルから出力される光線の方向をモデリングして前記第2モデルを取得することを特徴とする請求項2または請求項3に記載の映像レンダリング方法。
  5. 前記映像ピクセルのピクセル値を割り当てるステップは、前記第1モデルと前記第2モデルと間の対応関係に基づいて、前記映像ピクセルの視点方向と同一の視点方向を有するディスプレイピクセルを識別し、前記識別されたディスプレイピクセルに前記映像ピクセルのピクセル値を割り当てるステップを含むことを特徴とする請求項2ないし請求項4のいずれか一項に記載の映像レンダリング方法。
  6. 前記映像ピクセルは複数の映像ピクセルのいずれか1つであり、
    前記映像ピクセルのピクセル値を割り当てるステップは、
    複数のディスプレイピクセルの視点方向に対する第1モデルを取得するステップと、
    前記複数の映像ピクセルそれぞれの視点方向に関する第2モデルを取得するステップと、を含み、
    前記割り当てるステップは、前記取得した第1モデル及び前記取得した第2モデルに基づく
    ことを特徴とする請求項2ないし請求項5のいずれか一項に記載の映像レンダリング方法。
  7. 前記映像ピクセルのピクセル値を割り当てるステップは、複数の映像ピクセルのピクセル値を補間し、補間されたピクセル値のいずれか1つを前記ディスプレイピクセルに割り当てるステップを含むことを特徴とする請求項6に記載の映像レンダリング方法。
  8. 前記複数のディスプレイピクセルそれぞれは、予め決定された個数の互いに異なる視点方向のいずれか1つの視点方向を有することを特徴とする請求項1ないし請求項7のいずれか一項に記載の映像レンダリング方法。
  9. 前記ディスプレイピクセルの視点方向は、前記ディスプレイ装置に含まれたレンチキュラーレンズの構造的な特徴に基づくことを特徴とする請求項1ないし請求項8のいずれか一項に記載の映像レンダリング方法。
  10. 前記ディスパリティを推定するステップは、前記入力映像に関する深度映像に含まれた深度情報を用いて前記映像ピクセルのディスパリティを推定するステップを含むことを特徴とする請求項1ないし請求項9のいずれか一項に記載の映像レンダリング方法。
  11. 前記ディスパリティを推定するステップは、参照映像と前記入力映像との間の視点差に基づいて、前記映像ピクセルのディスパリティを推定するステップを含むことを特徴とする請求項1ないし請求項10のいずれか一項に記載の映像レンダリング方法。
  12. 前記映像ピクセルのピクセル値を割り当てるステップは、多視点映像を生成しないことを特徴とする請求項1ないし請求項11のいずれか一項に記載の映像レンダリング方法。
  13. 前記映像ピクセルのピクセル値を割り当てるステップは、前記ディスプレイピクセルに前記映像ピクセルのピクセル値を直接割り当てることを特徴とする請求項1ないし請求項12のいずれか一項に記載の映像レンダリング方法。
  14. コンピュータに、請求項1ないし請求項13のいずれか一項に記載の方法を実行させるコンピュータプログラム。
  15. 複数のディスプレイピクセルを介して立体映像を表示するディスプレイ部であって、前記ディスプレイピクセルそれぞれは対応する視点方向を有するディスプレイ部と、
    入力映像の映像ピクセルが有する視点方向に基づいて、決定された少なくとも1つのディスプレイピクセルに前記映像ピクセルのピクセル値を割り当てて前記立体映像をレンダリングする映像レンダリング部と、
    を含むことを特徴とするディスプレイ装置。
  16. 前記映像レンダリング部は、前記ディスプレイピクセルの視点方向に対する第1モデル及び前記映像ピクセルの視点方向に対する第2モデルを用いて、前記少なくとも1つのディスプレイピクセルを決定することを特徴とする請求項15に記載のディスプレイ装置。
  17. 前記映像ピクセルは複数の映像ピクセルのいずれか1つであり、
    前記映像ピクセルの視点方向に関する第2モデルは、複数の映像ピクセルに関する複数の第2モデルのいずれか1つであり、
    前記映像レンダリング部は、前記第1モデルと前記複数の第2モデルを用いて前記映像ピクセルのピクセル値を割り当てる少なくとも1つのディスプレイピクセルを決定することを特徴とする請求項16に記載のディスプレイ装置。
  18. 前記映像レンダリング部は、参照映像と前記入力映像との間の視点差に基づいて前記映像ピクセルのディスパリティを推定し、
    前記映像ピクセルが有する視点方向は、前記推定されたディスパリティに基づくことを特徴とする請求項15ないし請求項17のいずれか一項に記載のディスプレイ装置。
  19. 前記映像レンダリング部は、入力映像に関する深度映像に示された深度情報を用いて前記映像ピクセルのディスパリティを推定し、
    前記映像ピクセルが有する視点方向は、前記推定されたディスパリティに基づくことを特徴とする請求項15ないし請求項18のいずれか一項に記載のディスプレイ装置。
  20. 前記ディスプレイ部は、前記ディスプレイピクセルの上部に備えられるレンチキュラーレンズを含み、
    前記ディスプレイピクセルの視点方向は、前記レンチキュラーレンズに基づくことを特徴とする請求項15ないし請求項18のいずれか一項に記載のディスプレイ装置。
  21. 前記映像レンダリング部は、多視点映像を生成しないことを特徴とする請求項15ないし請求項20のいずれか一項に記載のディスプレイ装置。
  22. 前記映像レンダリング部は、前記ディスプレイピクセルに前記映像ピクセルのピクセル値を直接割り当てることを特徴とする請求項15ないし請求項21のいずれか一項に記載のディスプレイ装置。
  23. 入力映像に含まれた映像ピクセルのディスパリティを推定するディスパリティ推定部と、
    前記映像ピクセルの視点方向に対応する視点方向を有する少なくとも1つのディスプレイピクセルに前記映像ピクセルのピクセル値を割り当てて立体映像をレンダリングする映像レンダリング部と、
    を含み、
    前記映像ピクセルの視点方向は、前記映像ピクセルのディスパリティに基づくことを特徴とする映像レンダリング装置。
  24. 前記映像レンダリング部は、前記映像ピクセルの視点方向及びディスプレイピクセルの視点方向に基づいて、複数のディスプレイピクセルのうち前記映像ピクセルのピクセル値を割り当てるディスプレイピクセルを探索し、
    前記ディスプレイピクセルは、複数のディスプレイピクセルのいずれか1つであることを特徴とする請求項23に記載の映像レンダリング装置。
  25. 複数のディスプレイピクセルを含むディスプレイと、
    前記ディスプレイピクセルの視点方向と位置に対する第1モデルを取得し、映像ピクセルに対応する映像データを受信し、少なくとも1つの映像ピクセルのディスパリティに関する第2モデルを取得し、前記第1モデル及び前記第2モデルに基づいて前記ディスプレイピクセルのうち少なくとも1つにディスプレイ値を適用するプロセッサと、
    を含むことを特徴とするディスプレイ装置。
  26. 前記プロセッサは、前記ディスプレイ値に基づいて3Dディスプレイを生成することを特徴とする請求項25に記載のディスプレイ装置。
  27. 前記第2モデルは線形関数であり、
    前記プロセッサは、前記線形関数を前記第1モデルに適用し、前記第1モデルと前記第2モデルとの間の少なくとも1つの交差点を決定し、前記決定された少なくとも1つの交差点に基づいて前記ディスプレイ値を決定することを特徴とする請求項25に記載のディスプレイ装置。
  28. 前記少なくとも1つの交差点は、前記複数のディスプレイピクセルのいずれか1つに関するものであることを特徴とする請求項27に記載のディスプレイ装置。
  29. 前記ディスプレイピクセルは視点方向に関し、
    前記第1モデルは複数の中間関数を含み、
    それぞれの中間関数は、前記複数の視点方向のいずれか1つに関するものであることを特徴とする請求項25に記載のディスプレイ装置。
  30. 前記プロセッサは、多視点映像を生成することなく、前記ディスプレイ値をディスプレイピクセルに割り当てることを特徴とする請求項25に記載のディスプレイ装置。
JP2015145009A 2014-07-29 2015-07-22 映像レンダリング装置及び方法 Active JP6717576B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140096251A KR102240564B1 (ko) 2014-07-29 2014-07-29 영상 렌더링 장치 및 방법
KR10-2014-0096251 2014-07-29

Publications (2)

Publication Number Publication Date
JP2016032298A true JP2016032298A (ja) 2016-03-07
JP6717576B2 JP6717576B2 (ja) 2020-07-01

Family

ID=52573610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015145009A Active JP6717576B2 (ja) 2014-07-29 2015-07-22 映像レンダリング装置及び方法

Country Status (5)

Country Link
US (1) US10721460B2 (ja)
EP (1) EP2981080B1 (ja)
JP (1) JP6717576B2 (ja)
KR (1) KR102240564B1 (ja)
CN (1) CN105323574B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102647351B1 (ko) * 2017-01-26 2024-03-13 삼성전자주식회사 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
WO2021133139A1 (en) * 2019-12-27 2021-07-01 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
WO2021146978A1 (zh) * 2020-01-22 2021-07-29 华为技术有限公司 显示系统、图形处理器gpu、显示控制器以及显示方法
CN111839681A (zh) * 2020-07-08 2020-10-30 胡飞青 利用内容解析的压迫区域识别平台及方法
CN115022612B (zh) * 2022-05-31 2024-01-09 北京京东方技术开发有限公司 一种显示装置的驱动方法、装置及显示设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030026474A1 (en) * 2001-07-31 2003-02-06 Kotaro Yano Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program
JP2003044880A (ja) * 2001-07-31 2003-02-14 Canon Inc 立体画像形成装置、立体画像形成方法、プログラム、及び記憶媒体
JP2009147508A (ja) * 2007-12-12 2009-07-02 Hitachi Ltd 立体視画像生成方法、その装置、及び立体視画像表示装置
KR20090107748A (ko) * 2008-04-10 2009-10-14 포항공과대학교 산학협력단 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법
US20120139902A1 (en) * 2010-12-03 2012-06-07 Tatsuro Fujisawa Parallax image generating apparatus, stereoscopic picture displaying apparatus and parallax image generation method
US20140118512A1 (en) * 2012-10-31 2014-05-01 Samsung Electronics Co., Ltd. Image processing method and image processing apparatus

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3966830B2 (ja) 2003-03-28 2007-08-29 株式会社東芝 立体表示装置
US7746377B2 (en) 2003-11-28 2010-06-29 Topcon Corporation Three-dimensional image display apparatus and method
CA2511040A1 (en) * 2004-09-23 2006-03-23 The Governors Of The University Of Alberta Method and system for real time image rendering
JP4212564B2 (ja) * 2005-02-28 2009-01-21 ザイオソフト株式会社 画像処理方法および画像処理プログラム
JP4755565B2 (ja) * 2006-10-17 2011-08-24 シャープ株式会社 立体画像処理装置
GB0716776D0 (en) * 2007-08-29 2007-10-10 Setred As Rendering improvement for 3D display
KR101105244B1 (ko) 2010-03-11 2012-01-13 중앙대학교 산학협력단 3차원 격자구조에서의 교점을 이용한 곡면 모델링 장치 및 방법
JP5660361B2 (ja) 2010-03-26 2015-01-28 ソニー株式会社 画像処理装置および方法、並びにプログラム
WO2011121397A1 (en) * 2010-04-01 2011-10-06 Nokia Corporation Method, apparatus and computer program for selecting a stereoscopic imaging viewpoint pair
US8582865B2 (en) 2010-04-28 2013-11-12 General Electric Company Ultrasound imaging with ray casting and software-based image reconstruction
JP5594067B2 (ja) * 2010-11-02 2014-09-24 ソニー株式会社 画像処理装置および画像処理方法
BR112014010846A8 (pt) * 2011-11-09 2017-06-20 Koninklijke Philips Nv dispositivo de exibição, e painel de exibição
JP6019568B2 (ja) * 2011-11-28 2016-11-02 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
CN103425806A (zh) 2012-05-17 2013-12-04 鸿富锦精密工业(深圳)有限公司 三次元编程产品模拟系统及方法
KR101402185B1 (ko) 2012-06-01 2014-06-19 광운대학교 산학협력단 색상 성분 보정을 위한 특징점 기반 다시점 비디오의 전처리 방법

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030026474A1 (en) * 2001-07-31 2003-02-06 Kotaro Yano Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program
JP2003044880A (ja) * 2001-07-31 2003-02-14 Canon Inc 立体画像形成装置、立体画像形成方法、プログラム、及び記憶媒体
JP2009147508A (ja) * 2007-12-12 2009-07-02 Hitachi Ltd 立体視画像生成方法、その装置、及び立体視画像表示装置
KR20090107748A (ko) * 2008-04-10 2009-10-14 포항공과대학교 산학협력단 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법
US20110026809A1 (en) * 2008-04-10 2011-02-03 Postech Academy-Industry Foundation Fast multi-view three-dimensional image synthesis apparatus and method
JP2011519209A (ja) * 2008-04-10 2011-06-30 ポステック・アカデミー‐インダストリー・ファウンデーション 眼鏡なし3次元立体テレビのための高速多視点3次元立体映像の合成装置及び方法
US20120139902A1 (en) * 2010-12-03 2012-06-07 Tatsuro Fujisawa Parallax image generating apparatus, stereoscopic picture displaying apparatus and parallax image generation method
JP2012120109A (ja) * 2010-12-03 2012-06-21 Toshiba Corp 視差画像生成装置、立体映像表示装置及び視差画像生成方法
US20140118512A1 (en) * 2012-10-31 2014-05-01 Samsung Electronics Co., Ltd. Image processing method and image processing apparatus
CN103795998A (zh) * 2012-10-31 2014-05-14 三星电子株式会社 图像处理方法和图像处理设备
JP2014093779A (ja) * 2012-10-31 2014-05-19 Samsung Electronics Co Ltd 映像処理方法及び映像処理装置

Also Published As

Publication number Publication date
KR20160014260A (ko) 2016-02-11
EP2981080A1 (en) 2016-02-03
US10721460B2 (en) 2020-07-21
KR102240564B1 (ko) 2021-04-15
CN105323574A (zh) 2016-02-10
CN105323574B (zh) 2019-05-10
US20160037153A1 (en) 2016-02-04
EP2981080B1 (en) 2019-04-17
JP6717576B2 (ja) 2020-07-01

Similar Documents

Publication Publication Date Title
JP6886253B2 (ja) 複数のユーザのためのレンダリング方法及び装置
KR101944911B1 (ko) 영상 처리 방법 및 영상 처리 장치
KR102240568B1 (ko) 영상 처리 방법 및 장치
JP6717576B2 (ja) 映像レンダリング装置及び方法
KR101334187B1 (ko) 다시점 렌더링 장치 및 방법
US9349073B2 (en) Apparatus and method for image matching between multiview cameras
KR20110090958A (ko) 이미지 속성들에 대한 오클루젼 데이터의 생성
EP2787734B1 (en) Apparatus and method for forming light field image
KR20170044953A (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
CN104349155A (zh) 模拟立体图像显示方法及显示设备
US20190385323A1 (en) A method for generating layered depth data of a scene
JP2015070618A (ja) ユーザの目の位置に基づくレイヤードディスプレイ方式のための映像生成装置及びディスプレイ装置
US20170116777A1 (en) Image processing method and apparatus
KR101208767B1 (ko) 곡면 투사를 이용한 입체 영상 생성 방법, 장치 및 시스템, 이를 위한 기록 매체
JP7416573B2 (ja) 立体画像生成装置及びそのプログラム
KR102006079B1 (ko) 육각 렌즈를 이용한 집적영상 시스템의 시점영상 매핑 방법
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム
US20160163093A1 (en) Method and apparatus for generating image
KR101831978B1 (ko) 회전된 렌티큘러시트를 부착한 디스플레이에 표시되는 요소영상콘텐츠 생성 방법
KR102608466B1 (ko) 영상 처리 방법 및 영상 처리 장치
JP2014186587A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
KR20110090488A (ko) 시차 서페이스 렌더링을 이용하여 시점을 생성하는 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200611

R150 Certificate of patent or registration of utility model

Ref document number: 6717576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250