JP2012141975A - 3dディスプレイのためのマルチビュー画像の生成方法および装置 - Google Patents

3dディスプレイのためのマルチビュー画像の生成方法および装置 Download PDF

Info

Publication number
JP2012141975A
JP2012141975A JP2011279644A JP2011279644A JP2012141975A JP 2012141975 A JP2012141975 A JP 2012141975A JP 2011279644 A JP2011279644 A JP 2011279644A JP 2011279644 A JP2011279644 A JP 2011279644A JP 2012141975 A JP2012141975 A JP 2012141975A
Authority
JP
Japan
Prior art keywords
image
view image
depth
warping
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011279644A
Other languages
English (en)
Other versions
JP5789185B2 (ja
Inventor
Kyu Young Hwang
圭 榮 黄
Hoyoung Lee
晧 榮 李
Yang-Ho Cho
良 鎬 趙
Yong Ju Jung
英 珠 鄭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2012141975A publication Critical patent/JP2012141975A/ja
Application granted granted Critical
Publication of JP5789185B2 publication Critical patent/JP5789185B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Abstract

【課題】マルチビュー3Dディスプレイへの入力画像を用いて複数の画像をレンダリングする、また、マルチビューレンダリング時にオブジェクトの境界で発生する画質の劣化を減少させる装置および方法を提供する。
【解決手段】第1参照ビューの参照ビュー画像および深度/両眼視差情報に基づいて特定の視点における出力ビュー画像を生成する画像処理装置において、前記参照ビュー画像内のエラー疑い領域を検出するエラー疑い領域設定部と、前記参照ビュー画像のうち前記エラー疑い領域に対応する部分を前景と見なす前景優先ワーピングを行うことによって、前景優先画像を生成する前景優先ワーピング部と、前記参照ビュー画像のうち前記エラー疑い領域に対応する部分をワーピングから除外する背景優先ワーピングを行うことによって背景優先画像を生成する背景優先ワーピング部と、画像を混合することによって前記出力ビュー画像を生成する混合部とを備える。
【選択図】図8

Description

本発明の実施形態は、マルチビュー3Dディスプレイのために入力参照マルチビュー画像に基づいて複数の画像を生成およびレンダリングする方法および装置に関する。
3D(dimensional)ディスプレイ装置は立体画像を出力することのできる装置である。3Dディスプレイ装置は、3D環境において視聴者が検知したリアリティーおよび没入感を増大させることができる。
3Dディスプレイ装置は、ステレオ方式がある。ステレオ方式において、分離された左側および右側画像が、例えば、フィルタリングメガネを介して左側または右側の目にそれぞれ個別に見られるため、単一な視点における視聴者に表示される。3Dディスプレイ装置は、マルチビュー(multi−view)方式がある。マルチビュー方式において、相異なる視点のための多重画像が表示される。視点は視野(view)の地点(point)として、イメージがまるで視聴者がその地点で画像を見るように感じられる。マルチビュー方式で、それぞれ表示された画像はオブジェクトの画像データをキャッチャする分離されたカメラによって生成されてもよく、オブジェクトに対する相異なる指向性(orientation)を有するように繰り返して移動した単一カメラによって生成されてもよい。各表示画像は、上記の観点(perspective)から(すなわち、相異なる視点から)のオブジェクトの相異なるビューを提供する。
しかし、マルチイメージが入力および表示されなければならないため、マルチビュー方式は多量の入力データを要求する。
米国登録特許第7、015、926号 韓国登録特許第960、694号 韓国登録特許第926、520号 韓国登録特許第953、076号
本発明の一実施形態の目的は、マルチビュー3Dディスプレイのために入力画像に基づいて複数の画像をレンダリングおよび生成する装置および方法を提供することにある。
本発明の一実施形態の他の目的は、マルチビューレンダリングが行われる時オブジェクトの境界で発生する画質の劣化を減少させる装置および方法を提供することにある。
本発明の一実施形態によれば、参照視点のための第1参照ビューの参照ビュー画像および前記参照ビュー画像に対する深度/両眼視差情報に基づいて特定の視点のための出力ビュー画像を生成する画像処理装置において、前記参照ビュー画像のうち検出されたエラー疑い領域に対応する部分が前記参照ビュー画像の前景に含まれたものと見なす前記参照ビュー画像の前景優先ワーピングを行うことによって前景優先画像を生成する前景優先ワーピング部(前記検出されたエラー疑い領域は、前記参照ビュー画像の前記深度/両眼視差情報に基づいて深度両眼視差エラーの決められて増加された確率を有する前記参照ビュー画像の1つ以上である領域)と、前記参照ビュー画像のうち前記エラー疑い領域に対応する部分を除外する前記参照ビュー画像の背景の背景優先ワーピングを行うことによって背景優先画像を生成する背景優先ワーピング部と、前記出力ビュー画像を生成するために前記前景優先画像と前記背景優先画像とを混合する混合部とを備える画像処理装置が提供される。
本発明の他の一実施形態によれば、参照視点のための第1参照ビューの参照ビュー画像および前記参照ビュー画像に対する深度/両眼視差情報に基づいて特定の視点のための出力ビュー画像を生成する画像処理方法において、前記参照ビュー画像のうち検出されたエラー疑い領域に対応する部分が前記参照ビュー画像の前景に含まれるものと見なす前記参照ビュー画像の前景優先ワーピングを行うことによって前景優先画像を生成する前景優先ワーピングステップ(前記検出されたエラー疑い領域は、前記参照ビュー画像の前記深度/両眼視差情報に基づいて深度両眼視差エラーの決められて増加された確率を有する前記参照ビュー画像の1つ以上である領域)と、前記参照ビュー画像のうち前記エラー疑い領域に対応する部分を除外する前記参照ビュー画像の背景の背景優先ワーピングを行うことによって背景優先画像を生成する背景優先ワーピングステップと、前記出力ビュー画像を生成するために前記前景優先画像と前記背景優先画像とを混合する混合ステップとを含む画像処理方法が提供される。
本発明の更なる一実施形態によれば、少なくとも1つのオブジェクトを表す第1参照視点における第1参照ビュー画像に基づいて、前記第1参照ビュー画像の深度/両眼視差情報に基づいて中央視点のための第1中間中央ビュー画像を生成する画像処理装置において、前記第1参照視点と相異なる中間視点に対する前記第1中間中央ビュー画像を生成するために、前記第1参照ビュー画像の少なくとも1つの決められた前景および前記第1参照ビュー画像の少なくとも1つの決められた背景をそれぞれワーピングすることによって、前記第1参照ビュー画像をワーピングする第1ワーピングユニット(前記第1参照ビュー画像の前記少なくとも1つの前景および前記少なくとも1つの背景の前記ワーピングは、前記第1参照ビュー画像の検出されたエラー疑い領域に基づいて異なって行われ、前記検出されたエラー疑い領域は、前記参照ビュー画像の前記深度/両眼視差情報に基づいて深度両眼視差エラーの決められて増加された確率を有する前記参照ビュー画像の1つ以上の領域である)と、前記第1中間中央ビュー画像を前記中央視点における前記少なくとも1つのオブジェクトを含む追加的なビュー画像として出力する出力部とを備える画像処理装置が提供される。
本発明の更なる一実施形態によれば、少なくとも1つのオブジェクトを表す第1参照視点における第1参照ビュー画像に基づいて、前記第1参照ビュー画像の深度/両眼視差情報に基づいて中央視点のための第1中間中央ビュー画像を生成する画像処理方法において、前記第1参照視点と相異なる中間視点に対する前記第1中間中央ビュー画像を生成するために、前記第1参照ビュー画像の少なくとも1つの決められた前景および前記第1参照ビュー画像の少なくとも1つの決められた背景をそれぞれワーピングするステップ(前記第1参照ビュー画像の前記少なくとも1つの前景および前記少なくとも1つの背景の前記ワーピングは、前記第1参照ビュー画像の検出されたエラー疑い領域に基づいて異なって行われ、前記検出されたエラー疑い領域は、前記参照ビュー画像の前記深度/両眼視差情報に基づいて深度両眼視差エラーの決められて増加された確率を有する前記参照ビュー画像の1つ以上の領域である)と、前記第1中間中央ビュー画像を前記中央視点における前記少なくとも1つのオブジェクトを含む追加的なビュー画像として出力するステップとを含む画像処理方法が提供される。
本発明は、マルチビュー3Dディスプレイのために入力画像を用いて複数の画像をレンダリングする装置および方法を提供することができる。
本発明は、マルチビューレンダリングが行われる時オブジェクトの境界で発生する画質の劣化を減少させる装置および方法を提供することができる。
本発明の一実施形態に係る画像処理装置の構造図である。 本発明の一実施形態に係るビュー画像および深度/両眼視差画像の例を示す。 本発明の一実施形態に係るビュー画像および深度/両眼視差画像間の一致しない例を示す。 本発明の一実施形態に係る中間視点のビューを生成する方法を示す。 本発明の一実施形態に係る中間ビューの画像内に生成された人為構造を示す。 本発明の一実施形態に係る前景優先ワーピングおよび背景優先ワーピングを説明する。 本発明の一実施形態に係る前景優先画像および背景優先画像の混合を説明する。 本発明の一実施形態に係る画像処理装置の構造図である。 本発明の一実施形態に係るエラー疑い領域設定部の構造図である。 本発明の一実施形態に係る画像処理方法のフローチャートである。
以下は、本発明の一実施形態を添付された図面を参照して詳細に説明する。しかし、本発明が実施形態によって制限されたり限定されることはない。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、本発明の一実施形態に係る画像処理装置の構造図である。画像処理装置100は、例えば、ビュー画像を介して互いに異なる視点からのビューを表示する。ビュー画像は3D情報が投影された2次元(2D)平面(例えば、スクリーンまたはモニタ表面)をそれぞれ表すビュー平面画像のように命名される。相異なるビューは同時に表示されてもよく、相異なる視点は各ビューの平面に関連して相異なる水平、垂直、および深さの差を有し得る。
すなわち、画像処理装置100は、互いに異なる視点における複数の画像(image)を出力することのできるマルチビュー方式の画像処理装置である。
例えば、画像処理装置100は、13個の互いに異なる視点(すなわち、13個の相異なるビュー平面の画像)に対するビュー101〜113を視聴者に提供してもよい。画像処理装置100は、第1視聴者190の位置に応じて第1視聴者190の右眼には第2ビュー102を提供し、左眼には第3ビュー103を提供する。また、画像処理装置100は、第2視聴者192の位置に応じて、第2視聴者192の右眼には第5ビュー105を提供し、左眼には第6ビュー106を提供する。
相異なる視点に対する分離された画像を観測することによって、第1視聴者190および第2視聴者192はそれぞれ自身の両眼に提供された2つのビューの表示された画像によって立体画像を認識することができる。マルチビュースキーム(scheme)では、相異なる視点イメージを視点イメージそれぞれの視点で投影されるように構成された画像処理装置は3D表示要素を含んでもよい。一方、立体的な画像は相異なる画像を単一な視点に投影することができる。ここで、単一な視点は分離され左眼画像および右眼画像のためのものである。
参照ビュー103、107、111に対する各画像データ、およびこの参照ビュー103、107、111の画像に対する深度(depth)/両眼視差(disparity)情報123、127および131が画像処理装置100から入力される。参照ビュー103、107および111は画像処理装置100から入力される入力ビューである。
参照ビューに対する深度情報または対応する深度画像は、例えば、深さの識別可能であるか、定義されたグラデーションまたはレベルを通じて参照ビューに対する画像データのピクセルの深さを表すことができる。深度画像は、相異なる深さを浅いカラーから濃厚なカラーを介して表してもよく、グレースケール(gray−scale)の値を通じて表してもよい。両眼視差情報は、オブジェクトがカメラから遠方から近いところに移動すると、左側画像と右側画像との間の差異は増加するという前提(premise)に基づく。例えば、左側画像および右側画像内でキャプチャされたオブジェクト上の点の位置間の座標差は極めて遠く離隔されたオブジェクトに対しては微細な値であるか0であり得る。同じ座標差は、上記のオブジェクトがカメラに近く移動したり、前記カメラがオブジェクトに近く移動することによって増加する。深度/両眼視差情報は、画像処理装置に入力されてもよい。また、例えば、画像処理装置がビデオカメラであれば、画像処理装置が深度/両眼視差情報を決定することができる。
画像処理装置100に入力される参照ビュー103、107および111は、画像処理装置100がビュー画像またはビュー平面から出力するビュー101〜113の一部または全てを生成するために用いられてもよい。
したがって、画像処理装置100は、3つの参照ビュー103、107、111のうち1つ以上およびこの参照ビュー103、107、111それぞれに対応する深度/両眼視差情報123、127、131を用いて、異なるビュー101、102、104〜106、108〜110、112および113を生成する。
画像処理装置100は、参照ビュー103、107、111、および深度/両眼視差情報123、127、131を用いるビュー内挿(view interpolation)によって参照ビュー103、107、111の間のビュー104、105、106、108、109および110の画像を生成する。画像処理装置100は、参照ビュー103、107、111および深度/両眼視差情報123、127、131を用いるビュー外挿(view extrapolation)によって参照ビュー103、107および111の外側にあるビュー101、102、112、113の画像を生成する。
ビュー内挿およびビュー外挿は、参照ビュー画像(すなわち、入力ビュー103、107、111の画像)および対応する深度/両眼視差情報を用いて特定の視点で見られる画像を生成する。このような画像の生成は3Dワーピング(warping)によって行われる。
一般に、3Dシステムにおいて、矯正(rectification)された画像が用いられる。参照ビュー画像のピクセルのx座標をピクセルの深度/両眼視差を用いて移動させることによって3Dワーピングが行われる。ピクセルのx座標値は対応するx−y座標系の原点に相対的な水平変位に対応し、ピクセルのy座標値は原点に相対的な垂直変位に対応する。また、代案的な座標系をも用いてもよい。
参照ビュー画像の第1ピクセルに対する3Dワーピングは下記の式(1)に基づいて行われてもよい。
ここで、uは参照ビュー画像内における第1ピクセルのx座標である。uυは出力ビュー画像内における第2ピクセルのx座標である。出力ビュー画像内の第2ピクセルは、参照ビュー画像内の第1ピクセルに対応するピクセルである。すなわち、出力ビュー画像は、参照ビューの視点とは相異なる視点を表すために生成されるため、出力ビュー画像の第2ピクセルは、参照ビュー画像内の同じオブジェクトの同じ点または領域でありながらも、相異なる座標を有してもよい。すなわち、参照ビュー画像内の特定ピクセルのx座標は、uυに位置する予め定義されたピクセルをもって新たなビューを生成するために下記の式(1)によってuからuυに変更される。
αは第1ピクセルの位置比率情報である。αは参照ビューの視点および出力ビューの視点間の座標距離に比例する値を有する。dは第1ピクセルの両眼視差である。dは参照ビュー画像の深度/両眼視差情報から獲得される。両眼視差はピクセルの深度情報であり、カメラパラメータ(camera parameter)を用いることによって獲得されてもよい。視点間の座標距離は、視点間の垂直距離または水平距離を意味する。
一般に、ピクセル(または画像)の深度および両眼視差は互いに反比例する。したがって、本発明の実施形態において「深度」を用いる内容は「両眼視差」に代替されてもよく、その逆も成立する。例えば、3Dワーピングは、1つ以上の参照ビュー画像の深度情報および/または両眼視差情報を用いて行われてもよい。
図2は、本発明の一実施形態に係るビュー画像および深度/両眼視差画像の例を示す。ビュー画像210は、図1に示す参照ビュー103、107および111の画像であってもよい。ビュー画像210は1つ以上のピクセルに構成される。1つ以上の各ピクセルはカラー値を有する。ビュー画像210は、カラーコンポーネント座標によって表すカラー値を有するカラー画像であってもよい。ここで、カラーコンポーネント座標は、R、G、Bのように表示されるレッド(Red;R)、グリーン(Green;G)、およびブルー(Blue;B)の値である。
ビュー画像210の相異なるピクセルはそれぞれのビュー画像210の異なる特定オブジェクト(object)の点または領域を表してもよい。例えば、石膏像212を示すピクセルおよびカップ214を示すピクセルがビュー画像210内にある。ビュー画像210に対する深度/両眼視差画像220は、ビュー画像210の存在する深度/両眼視差情報を画像として表したものである。
深度/両眼視差画像220は1つ以上のピクセルに構成される。深度/両眼視差画像220の1つ以上の各ピクセルは、ビュー画像210の1つ以上のピクセルのうち1つのピクセルに対応する。ビュー画像210の解像度および深度/両眼視差画像220の画像度は同一であってもよく、異なってもよい。深度/両眼視差画像220のピクセルのカラー値は、ピクセルに対応するビュー画像210のピクセルの深度値(または両眼視差値)を表す。
ビュー画像210のピクセルがビューの視点から近いオブジェクトを表すほど、深度/両眼視差画像220の対応するピクセルのカラーは薄い(または白黒として白に近い)。一方、ビュー画像210のピクセルが遠いオブジェクトを表すほど、深度/両眼視差画像220の対応するピクセルのカラーは濃い(または白黒として黒に近い)。
すなわち、深度/両眼視差画像220のピクセルのカラー値は、ピクセルの深度/両眼視差値を表す。ピクセルのカラーが濃いことはピクセルの深度値が大きい(すなわち、両眼視差値が小さい)ことを表す。
例えば、石膏像212に対応する深度/両眼視差画像220のピクセル222は、カップ214に対応する深度/両眼視差画像220のピクセル224よりも濃いカラー値を有する。
また、机216は下方に行くほどビューの視点に近づく。したがって、深度/両眼視差画像220で机を表す部分226は下方に行くほど薄くなる。
図3は、本発明の一実施形態に係るビュー画像およびビュー画像の深度/両眼視差画像間の一致しない例を示す。ビュー画像310は、中間に位置するオブジェクト(または前景)および背景に構成される。
ビュー画像の深度/両眼視差画像320は、オブジェクトに対応する薄い部分322および背景に対応する濃い部分324に構成される。
オブジェクトのエッジは、ビュー画像310においてオブジェクトおよび背景間の境界部分である。
深度/両眼視差画像320内の不連続ポイント(discontinuity point)は、深度/両眼視差画像320において深度値が不連続的な地点である。例えば、不連続ポイントは深度/両眼視差画像320において薄い部分322および濃い部分324が接する地点である。
理想的には、ビュー画像310のオブジェクトエッジおよび深度/両眼視差画像320の不連続ポイントは正確に一致しなければならない。
しかし、深度カメラ(depth camera)を用いて獲得された深度画像や、ステレオマッチング(stereo matching)を用いて算出された両眼視差画像は、末端においてビュー画像310と正確に一致しない場合がある。
すなわち、深度/両眼視差画像320内のピクセルのうち、ビュー画像310のオブジェクトに対応する全てのピクセルが薄いカラー値を有するものではない。また、深度/両眼視差画像320内のピクセルのうち、ビュー画像310の背景に対応する全てのピクセルが濃いカラー値を有するものではない。例えば、ビュー画像310内のオブジェクトの下方の部分(深度/両眼視差画像320内でも真っ直ぐの端として表す)真っ直ぐの端を有することに比べて、深度/両眼視差画像320のうち下方の段部分に対応する部分は真っ直ぐの端でない。また、深度/両眼視差画像320の不連続ポイントは概ねオブジェクトの形だけきれいではない。
深度/両眼視差のエラーは、このようなオブジェクトエッジおよび不連続ポイントの間の不一致を意味するために用いられてもよい。または、特定ピクセルの深度/両眼視差のエラーはビュー画像310内の特定ピクセルが誤った深度値または両眼視差値を有することを意味する。深度/両眼視差のエラーは、ビュー画像310のオブジェクトの境界で主に発生する。
ビュー内挿またはビュー外挿が行われるとき、下記で説明するもののように、このような深度/両眼視差のエラーは人為構造を生成することがある。
このような人為構造は画質の劣化を発生させて、3D画像の視聴者は人為構造によって異質感を感じることがある。また、3D効果が減少されることがある。
図4は、本発明の一実施形態に係る中間視点のビューを生成する方法を示す。中間視点は2個の異なる視点間の位置に想定された(envisioned)視点であってもよい。中間視点に対応する生成されたビューは2個の異なる視点からのオブジェクトのビューとは異なるオブジェクトのビューであってもよい。2個の異なる視点はそれぞれ2個の参照ビューである。
中央ビュー(center view)490は、2つの入力ビュー410および420、この入力ビュー410および420の深度/両眼視差情報を用いることによって生成される。2つの入力ビュー410および420はそれぞれ参照ビューであってもよい。中央ビュー490の視点は、2つの入力ビュー410および420の視点の間にある。中央ビュー490の視点を中央視点であると称する。
すなわち、2つの入力ビューは、左側ビュー410(例えば、第7ビュー107)および右側ビュー420(例えば、第3ビュー103)である。左側ビュー410からの第1中間ビュー(intermediate view)430は、左側ビュー410および左側ビューの深度/両眼視差情報を用いる前方向ワーピングによって生成されたビューである。第1中間ビュー430の視点は前述した中央視点である。左側ビュー410の画像のオブジェクト412は、前述された式(1)のようなワーピングによって左側に移動する。
左側ビュー410の画像の背景414の両眼視差値は0(または極めて小さい値)である。したがって、ワーピングによっても背景414は左側に全く(または、ほとんど)移動しない。
第1中間ビュー430において、背景414に比べてオブジェクト412がより左側に移動するため、左側ビュー410の画像ではオブジェクト412によって遮られた部分434が現れる。このような遮られた部分434を非閉塞(disocclusion)領域という。非閉塞領域はホール(hole)に処理される。
第2中間ビュー(intermediate view)440は、右側ビュー420および右側ビューの深度/両眼視差情報を用いる前方向ワーピングによって生成されたビューである。第2中間ビュー440の視点は前述した中央視点である。第2中間ビュー440において、背景424に比べてオブジェクト422がさらに右側に移動するため、右側ビュー420の画像ではオブジェクト422によって遮られた部分444が現れる。
第1中間ビュー430の画像および第2中間ビュー440の画像を混合(blending)することによって第3中間ビュー450の画像が生成される。
非閉塞領域434および444は混合できない。したがって、第3中間ビュー450の画像は第1中間ビュー430の画像の非閉塞領域434および第2中間ビュー440の画像の非閉塞領域444を含む。非閉塞領域434および444は、左側ビュー410の画像および右側ビュー420の画像を用いて満たされてもよい。
第1中間ビュー430の画像の非閉塞領域434は、右側ビュー420の画像の背景424の情報(すなわち、ピクセル)を参照することによって満たされてもよい。
第2中間ビュー440の画像の非閉塞領域444は、左側ビュー410の画像の背景414の情報(すなわち、ピクセル)を参照することによって満たされてもよい。
すなわち、第1参照ビューの画像に対するワーピングを行うことによって発生した非閉塞領域(または、ホール)は他の第2参照ビューの画像を参照することによって満たされてもよい。
左側ビュー410および右側ビュー420を参照して第3中間ビュー450の非閉塞領域434および444を満たすことで中央ビュー490が生成される。
ビューレンダリングは、前述したような特定ビューの画像およびこの特定ビューの画像の深度/両眼視差情報を用いて他の視点におけるビューを生成することを意味する。また、画像レンダリングは、特定ビューの画像および該特定ビューの画像の深度/両眼視差情報を用いて他の視点におけるビューの画像を生成することを意味する。
図5は、本発明の一実施形態に係る中間ビューの画像内に生成された人為構造を示す。ビューレンダリングによって生成された第1画像510および第2画像520は、それぞれ人為構造512または522を含む。ビューレンダリングは、参照ビューのような特定ビューの画像および対応する画像の深度/両眼視差情報を用いる。
画像および画像の深度/両眼視差情報間に深度/両眼視差のエラーがある場合、エラーのある画像および深度/両眼視差情報を用いたビューレンダリングによって生成された画像は人為構造を含むことがある。
深度/両眼視差情報のエラーによって前景(foreground)(すなわち、オブジェクト)に該当する誤ったピクセルが背景に該当する深度値を有することがある。このような場合、前景に該当するピクセルはワーピングによって全く(または、ほとんど)移動しない。したがって、対応する前景の情報(すなわち、オブジェクトを表すピクセル)が背景に誤って残る境界ノイズ(boundary noise)が発生する。第1画像510の人為構造512は前景の情報が背景に誤って残ることによって生成した。
深度/両眼視差情報がオブジェクトの境界と正確に一致しない場合、エイリアシング(aliasing)の問題が発生する。エイリアシング問題が発生する場合、オブジェクトの一部が損失されることがあり、損失された部分が背景に満たされることがある。第2画像520の人為構造522は、エイリアシング問題によって生成した。
このような人為構造512および522は、マルチビューディスプレイによって生成された画像の画質を画像処理装置に提供された参照画像データの本来の品質に比べて低下する恐れがある。
図6は、本発明の一実施形態に係る前景優先ワーピングおよび背景優先ワーピングを説明する。第1深度/両眼視差画像610は、前景領域612および背景領域614に分かれる。ビュー画像のうち深度/両眼視差画像610の前景領域612に対応する部分は前景であり、背景領域614に対応する部分は背景である。
前景領域612は、深度値が予め定義された閾値よりも小さい部分であってもよい(または、前景領域612は、両眼視差値が予め定義された閾値以上である部分であってもよい)。背景領域614は、深度値が予め定義された閾値以上である部分であってもよい(または、背景領域614は、両眼視差値が予め定義された閾値よりも小さい部分であってもよい)。すなわち、前景領域612および背景領域614は、深度値(または、両眼視差値)を予め定義された閾値に比較することによって区分することができる。
背景領域614は深度値が最大値の部分であってもよい。または、背景領域614は、両眼視差値が最小値(例えば0)である部分であってもよい。前景領域612は背景領域614が除外された残り部分であってもよい。背景領域614は、深度/両眼視差値が予め定義された第1範囲内の値である部分であってもよい。前景領域612は、背景領域614が除外された残り部分であってもよく、深度/両眼視差値が予め定義された第2範囲内の値の部分であってもよい。
前景領域612および背景領域614は相対的に分類され得る。すなわち、相対的に大きい深度値(または、小さい両眼視差値)を有する部分が背景領域614になり、相対的に小さい深度値(または、大きい両眼視差値)を有する部分または背景領域614が除外された部分が前景領域612になる。その他、前景領域612および背景領域614を区分するための様々な方法が用いられる。
点線は不連続な部分616を示す。不連続な部分616は深度/両眼視差値が不連続の地点を意味する。
不連続な部分は前景領域612および背景領域614が接する地点(すなわち、前景領域612および背景領域614の境界)であってもよい。不連続な部分は前述したオブジェクトの境界に対応する部分であってもよい。
第2深度/両眼視差画像620はエラー疑い領域622および624を表す。エラー疑い領域622および624は、深度/両眼視差値にエラーがあると疑われる領域である。エラー疑い領域は、参照ビュー画像のうち深度/両眼視差のエラーによって実際に前景である部分が背景として誤って現れる可能性のある部分、または実際に背景である部分が前景として誤って現れる可能性のある部分である。
一般に、オブジェクトの境界に隣接した部分にて深度/両眼視差のエラーが発生する可能性が高い。
したがって、不連続な部分616に隣接した部分がエラー疑い領域であると設定されてもよい。不連続な部分616から一定の距離(例えば、座標距離)内にある部分(またはピクセル)がエラー疑い領域として設定または検出されてもよい。例えば、不連続な部分616から2ピクセル内にあるピクセルがエラー疑い領域であると設定されてもよい。例えば、ピクセル間の座標距離は、ピクセル間の水平距離または垂直距離を意味する。
エラー疑い領域622および624は、第1深度/両眼視差画像610の前景領域612に含まれる領域622、および第1深度/両眼視差画像610の背景領域614に含まれる領域624がある。エラー疑い領域622および624内の深度情報は、第1深度/両眼視差画像610の前景領域612または背景領域614のいずれか1つに含まれ、例えば、画像処理装置によって予め定義されたり観測されて決定された増加の確率を有する。
第2深度/両眼視差画像620内において、エラー疑い領域622、624ではない部分は確実な前景領域626または確実な背景領域628としてさらに高い信頼度をもって判断することができる。すなわち、エラー疑い領域622および624は、全体のビュー画像で深度/両眼視差エラーがあるものと疑われる領域が分離されたものである。
前景優先ワーピング深度/両眼視差画像630は前景優先ワーピング深度/両眼視差情報を画像として表したものである。前景優先ワーピング深度/両眼視差情報は、エラー疑い領域622および624を前景として見なすことによって生成される。
第1深度/両眼視差画像610の前景領域612の深度/両眼視差情報をエラー疑い領域622、624を含むように拡張することによって、前景優先ワーピング深度/両眼視差画像630の前景領域632が生成される。
前述した前景領域612の拡張の一例として、エラー疑い領域622および624の深度/両眼視差値は、前景領域612の深度/両眼視差値と同じ値を有するものと見なし得る。また、エラー疑い領域622および624の深度/両眼視差値は前景領域612の深度/両眼視差値のうち最大値または最小値を有するものと見なし得る。また、エラー疑い領域622および624内のピクセルの深度/両眼視差値は、前景領域612内で最も隣接したピクセルの深度/両眼視差値と同じ値を有するものと見なし得る。また、エラー疑い領域622および624の見なされた深度/両眼視差値は、前景領域612の深度/両眼視差値の分布または変化度に基づいて決定され得る。
前景優先ワーピング深度/両眼視差画像630の背景領域628は、第2深度/両眼視差画像620(エラー疑い領域622および624のない)の背景領域628である。したがって、前景優先ワーピング深度/両眼視差画像630の背景領域628の深度/両眼視差値は、第1深度/両眼視差画像610の対応する領域の深度/両眼視差値と同一である。
背景優先ワーピング深度/両眼視差画像640は、背景優先ワーピング深度/両眼視差情報を画像として表したものである。
エラー疑い領域622および624をホール642として見なすことによって、背景優先ワーピング深度/両眼視差画像640が生成される。ホール642はワーピングから除外される。背景優先ワーピング深度/両眼視差情報を用いたワーピングによってビュー画像が生成されるとき、生成されたビュー画像内のホール642に対応する部分は、他の参照ビューの画像および深度/両眼視差情報を用いることによって復元されてもよい。
第1深度/両眼視差画像610の背景領域614の深度/両眼視差情報をエラー疑い領域622および624を含むように拡張することによって、背景優先ワーピング深度/両眼視差画像640の背景領域628が生成される。
背景優先ワーピング深度/両眼視差画像640の前景領域626は、第2深度/両眼視差画像620(エラー疑い領域622および624のない)の前景領域626である。したがって、背景優先ワーピング深度/両眼視差画像640の前景領域626の深度/両眼視差値は、第1深度/両眼視差画像610の対応する領域の深度/両眼視差値と同一である。
ビュー画像および対応する前景優先ワーピング深度/両眼視差情報を用いた前景優先ワーピングを行うことによって、前景情報が深度/両眼視差のエラーによって損失されない前景優先画像が生成される。すなわち、深度/両眼視差のエラーを考慮しない普通のワーピングが行われる場合、深度/両眼視差のエラーによって前景情報が損失されることがあるが、前景優先画像はこのような前景情報の損失を防止することができる。
ビュー画像および対応する背景優先ワーピング深度/両眼視差情報を用いた背景優先ワーピングを行うことによって、境界ノイズが除去された背景優先画像が生成され得る。すなわち、深度/両眼視差のエラーを考慮しない普通のワーピングが行われる場合、深度/両眼視差のエラーによって境界ノイズが生成することがあるが、背景優先画像はこのような境界ノイズを減少させることができる。
背景優先画像は信頼できる背景のみを生成してもよい。背景優先画像で欠如した部分(すなわち、信頼できない背景)は異なるビュー画像を参照することによって補充できる。
図7は、本発明の一実施形態に係る前景優先画像および背景優先画像の混合を説明する。特定の視点のビューに対する2つの画像が生成されたため、生成された2つの画像が混合された1つの画像を生成しなければならない。
前景優先画像および背景優先画像が混合されることによって出力ビュー画像が生成される。
前述されたように、前景優先ワーピング深度/両眼視差情報および背景ワーピング深度/両眼視差情報は、エラー疑い領域622および624に対応する部分において互いに異なる値を有する。したがって、エラー疑い領域622および624に対応する、前景優先画像の領域および背景優先画像の領域は互いに異なる。
もし、このような異なる領域の全てまたは一部に対して、前景優先画像または背景優先画像のうち1つを選択的に用いることによって、出力ビュー画像が生成されれば(すなわち、出力ビュー画像内でエラー疑い領域622および624に対応する領域内のピクセルのカラー値が前景優先画像内の同一座標のピクセルのカラー値、または背景優先画像内の同一座標のピクセルのカラー値であれば)、このような異なる領域で不自然なエイリアシングが発生する恐れがある。
前景優先画像および背景優先画像を一定の比率に混合することによって、オブジェクトの境界領域などで発生するエイリアシングが解決できる。
アルファマット(alpha matting)はこのような混合することを意味する。
ここで、Iは出力ビュー画像内の第1ピクセルのカラー値である。
Fは、第1ピクセルに対応する前景優先画像内の第2ピクセルのカラー値である。第1ピクセルおよび第2ピクセルは同一の座標値を有してもよい。
Bは、第1ピクセルに対応する背景優先画像内の第3ピクセルのカラー値である。第1ピクセルおよび第3ピクセルは同一の座標値を有してもよい。
すなわち、第1ピクセルのカラー値は、第2ピクセルのカラー値および第3ピクセルのカラー値をアルファマットすることによって生成されてもよい。第1ピクセルのカラー値は、第1ピクセルのカラー値および第2ピクセルのカラー値の加重値が加えられた和(weighted sum)であってもよい。このとき、第2ピクセルのカラー値に対する加重値は混合係数αであり、第3ピクセルのカラー値に対する加重値は1−αである。
αは0以上、1以下の値である。
第1グラフ710はαの値が0または1である時の出力ビュー画像を表す。第1グラフ710では、前景優先画像のピクセルのカラー値および背景優先画像のピクセルのカラー値のうち1つが出力ビュー画像のピクセルのカラー値として選択される。
すなわち、αが1である部分712では前景優先画像のみを用いて出力ビュー画像を生成し、αが0である部分714では背景優先画像のみを用いて出力ビュー画像を生成する。
このような場合、出力ビュー画像内において、前景優先画像および背景優先画像が互いに独立的に存在する。したがって、出力ビュー画像のうち、αの値が変わる(0から1に、または1から0に)境界地点716に対応する部分でエイリアシングが発生する。このようなエイリアシングの発生部分は不自然に見える。
第2グラフ720は、αの値が0以上、1以下であるときの出力ビュー画像を表す。第2グラフ720において、出力ビュー画像のピクセルのカラー値は、前景優先画像のピクセルのカラー値および背景優先画像のピクセルのカラー値が一定の比率に混合した値である。
αの値は出力ビュー画像のうちエラー疑い領域に対応する部分に対してのみ算出されてもよい。エラー疑い領域に対応しない部分は前景優先画像および背景優先画像が同一の本体のカラーを有するためである。
αの値はカラーの一貫性(color consistency)に基づいて算出されてもよい。
第4ピクセルは、参照ビュー画像内のピクセルのうちエラー疑い領域内のピクセルである。
第5ピクセルは、参照ビュー画像の前景領域内のピクセルのうち第4ピクセルと最も隣接したピクセルである。
第6ピクセルは、参照ビュー画像の背景領域内のピクセルのうち第4ピクセルと最も隣接したピクセルである。
第4ピクセルのカラー値および第5ピクセルのカラー値の間のカラーの一貫性が高い場合、αの値は1に近い値を有してもよい。すなわち、両ピクセルのカラー値が類似する場合、第4ピクセルが前景(すなわち、オブジェクト)を表す可能性が高い。したがって、αが1に近い値を有することによって混合されるとき、前景優先画像のピクセルのカラー値をさらに多く反映することができる。
第4ピクセルのカラー値および第5ピクセルのカラー値の間のカラーの一貫性は、第4ピクセルのカラー値のカラーコンポーネント座標および第5ピクセルのカラー値のカラーコンポーネント座標間の第1ユークリッド距離(Euclidean distance)であってもよい。
例えば、RGB座標またはYCbCr座標のような、カラーを表すための多様なカラーコンポーネント座標がユークリッド距離を算出するため用いられる。
第4ピクセルのカラー値および第6ピクセルのカラー値間のカラーの一貫性が高い場合、αの値は0に近い値を有してもよい。すなわち、両ピクセルのカラー値が類似する場合、第4ピクセルが背景を表す可能性が高い。したがって、αが0に近い値を有することによって混合されるとき、背景優先画像のピクセルのカラー値をさらに多く反映することができる。
第4ピクセルのカラー値および第6ピクセルのカラー値間のカラーの一貫性は、第4ピクセルのカラー値のカラーコンポーネント座標および第6ピクセルのカラー値のカラーコンポーネント座標間の第2ユークリッド距離であってもよい。
したがって、αの値は、第1ユークリッド距離および第2ユークリッド距離間の比率によって決定される。
また、αの値は前景距離および背景距離に基づいて決定されてもよい。
前景距離は、第4ピクセルおよび参照ビュー画像の前景領域間の最短座標距離である。すなわち、前景距離は第4ピクセルおよび第5ピクセル間の座標距離である。
背景距離は第4ピクセルおよび参照ビュー画像の背景領域間の最短座標距離である。すなわち、背景距離は第4ピクセルおよび第6ピクセル間の座標距離である。
したがって、αの値は前景距離および背景距離間の比率によって決定される。
図8は、本発明の一実施形態に係る画像処理装置の構造図ある。
画像処理装置800は、深度/両眼視差のエラーのためにビューレンダリングで発生したり観測される人為構造を防止するか回避し、高画質マルチビュー画像を生成する。
画像処理装置800は、第1参照ビューの参照ビュー画像および該参照ビュー画像に対する深度/両眼視差情報に基づいて出力ビュー画像を生成する。出力ビューは特定の視点におけるビューである。
画像処理装置800は、エラー疑い領域設定部810、前景優先ワーピング部820、背景優先ワーピング部830、および混合部840を備える。エラー疑い領域設定部810は、参照ビュー画像の深度/両眼視差情報に基づいて参照ビュー画像内のエラー疑い領域を検出する。
前景優先ワーピング部820は、参照ビュー画像に対する前景優先ワーピングを行うことによって前景優先画像を生成する。背景優先ワーピング部830は、参照ビュー画像に対する背景優先ワーピングを行うことによって背景優先画像を生成する。背景優先ワーピング部830は、第2参照ビューにそれぞれ対応する少なくとも1つの参照ビュー画像を参照することによって背景優先画像のうちエラー疑い領域に対応する部分を生成する。
混合部840は、前景優先画像および背景優先画像を混合することによって出力ビュー画像を生成する。混合部840は、出力ビュー画像のエラー疑い領域内のピクセルのカラー値を生成する場合、前景優先画像内の第1ピクセルのカラー値および第1ピクセルに対応する背景優先画像内の第2ピクセルのカラー値をアルファマットすることによって、第1ピクセルに対応する出力ビュー画像内の第3ピクセルのカラー値を生成する。第2ピクセルの位置および第3ピクセルの位置は第1ピクセルに対応する。
第3ピクセルのカラー値は、第1ピクセルのカラー値および第2ピクセルのカラー値の加重値が加えられた和であってもよい。第1ピクセルのカラー値に対する加重値は混合係数αであってもよく、第2ピクセルのカラー値に対する加重値は1−αであってもよい。
画像処理装置はαを決定する混合係数決定部850をさらに備えることができる。
混合係数決定部850は、第1カラーの一貫性および第2カラーの一貫性に基づいてαを決定する。第1カラーの一貫性は、第3ピクセルに対応する参照ビュー画像内の第4ピクセルのカラー値のカラーコンポーネント座標、および前記第4ピクセルと隣接した前景のカラー値のカラーコンポーネント座標間のユークリッド距離に基づいて算出される。第2カラーの一貫性は、前記第4ピクセルのカラー値のカラーコンポーネント座標および前記第4ピクセルと隣接した背景のカラー値のカラーコンポーネント座標間のユークリッド距離に基づいて算出される。第4ピクセルの位置は第3ピクセルの位置に対応する。
混合係数決定部850は、第1距離および第2距離に基づいてαを決定してもよい。第1距離は第3ピクセルおよび前景間の最短座標距離であり、第2距離は第3ピクセルおよび背景間の最短座標距離である。
画像処理装置800によって、ステレオ画像またはマルチビュー画像が生成される。画像処理装置800は、ビュー内挿および/またはビュー外挿を行うことによってステレオ画像またはマルチビュー画像を生成する。
すなわち、ビュー内挿またはビュー外挿を行うための一連のステップまたは方法が本発明の一実施形態に係る画像処理装置800の動作と結合され得る。
上記の図1〜図7に基づいて説明した本発明の一実施形態に係る技術的な内容が本実施形態にもそのまま適用されてもよい。したがって、より詳細な説明は以下には省略する。
図9は、本発明の一実施形態に係るエラー疑い領域設定部810の構造図ある。エラー疑い領域設定部810は、深度/両眼視差不連続分析部910、疑い領域設定部920、前景優先ワーピング深度/両眼視差情報生成部930、および背景優先ワーピング深度/両眼視差情報生成部940を備える。
深度/両眼視差不連続分析部910は、参照ビュー画像に対応する深度/両眼視差情報のうち不連続な部分を検出する。
疑い領域設定部920は、検出された不連続な部分に基づいて参照ビュー画像内のエラー疑い領域を設定する。疑い領域設定部920は、参照ビュー画像内において、不連続な部分から一定の距離内にある部分をエラー疑い領域として設定してもよい。
前景優先ワーピング深度/両眼視差情報生成部930は、前景優先ワーピング深度/両眼視差情報を生成する。前景優先ワーピング深度/両眼視差情報生成部930は、不連続な部分に隣接した前景部分の深度/両眼視差情報をエラー疑い領域に拡張することによって、前景優先ワーピング深度/両眼視差情報を生成する。
背景優先ワーピング深度/両眼視差情報生成部940は、背景優先ワーピング深度/両眼視差情報を生成する。背景優先ワーピング深度/両眼視差情報生成部940は、エラー疑い領域をワーピングから除外する背景優先ワーピング深度/両眼視差情報を生成する。背景優先ワーピング深度/両眼視差情報生成部940は、不連続な部分をホールと見なすことによって不連続な部分をワーピングから除外してもよく、上記のホールを満たしてもよい。
前景優先ワーピング部820は、生成された前景優先ワーピング深度/両眼視差情報に基づいて前景優先画像を生成してもよく、背景優先ワーピング部830は、生成された背景優先ワーピング深度/両眼視差情報に基づいて背景優先画像を生成してもよい。
上記の図1〜図8に基づいて説明された本発明の一実施形態に係る技術的な内容が本実施形態にもそのまま適用されてもよい。したがって、より詳細な説明は以下には省略する。
図10は、本発明の一実施形態に係る画像処理方法のフローチャートである。画像処理方法は、参照地点における第1参照ビューの参照ビュー画像および参照ビュー画像に対する深度/両眼視差情報に基づいて特定の視点における出力ビュー画像を生成する。
まず、エラー疑い領域を設定するステップS1010〜S1040が行われる。エラー疑い領域設定ステップS1010〜S1040において、深度/両眼視差情報に基づいて参照ビュー画像内のエラー疑い領域が検出される。検出されたエラー疑い領域内で複数のエラー疑い領域をさらに決定してもよい。
深度/両眼視差不連続を分析するステップS1010において、深度/両眼視差情報のうち不連続な部分が検出される。
疑い領域を設定するステップS1020において、検出された不連続な部分に基づいて参照ビュー画像内のエラー疑い領域が設定される。
参照ビュー画像内で不連続な部分から一定の座標距離内にある部分がエラー疑い領域として設定される。
前景優先ワーピング深度/両眼視差情報を生成するステップS1030において、不連続な部分に隣接した前景部分の深度/両眼視差情報をエラー疑い領域に拡張することによって、前景優先ワーピング深度/両眼視差情報が生成される。
背景優先ワーピング深度/両眼視差情報を生成するステップS1040において、エラー疑い領域をワーピングから除外する背景優先ワーピング深度/両眼視差情報が生成される。
不連続な部分をホールと見なすことによって不連続な部分がワーピングから除外されてもよく、満たされてもよい。
前景優先ワーピングステップS1050において、参照ビュー画像のうちエラー疑い領域に対応する部分を前景と見なす前景優先ワーピングを行うことによって前景優先画像が生成される。
前景優先ワーピング深度/両眼視差情報に基づいて前記前景優先画像が生成される。
背景優先ワーピングステップS1060において、参照ビュー画像のうちエラー疑い領域に対応する部分をワーピングから除外される背景優先ワーピングを行うことによって背景優先画像が生成される。
第2参照ビューの参照ビュー画像を参照することによって、背景優先画像のうちエラー疑い領域に対応する部分が生成される。
背景優先ワーピング深度/両眼視差情報に基づいて背景優先画像が生成される。
混合係数を決定するステップS1070において、混合係数αが決定される。
αは、第1カラーの一貫性および第2カラーの一貫性に基づいて決定される。
第1ピクセルは前景優先画像内のピクセルである。第2ピクセルは第1ピクセルに位置的に対応する背景優先画像内のピクセルである。第3ピクセルは第1ピクセルに位置的に対応する出力ビュー画像内のピクセルである。
第1カラーの一貫性は、第3ピクセルに位置的に対応する参照ビュー画像内の第4ピクセルのカラー値のカラーコンポーネント座標、および前記第4ピクセルと隣接した前景のカラー値のカラーコンポーネント座標間のユークリッド距離に基づいて算出されてもよい。
第2カラーの一貫性は、第4ピクセルのカラー値のカラーコンポーネント座標および第4ピクセルと隣接した背景のカラー値のカラーコンポーネント座標間のユークリッド距離に基づいて算出されてもよい。
αは、第1距離および第2距離に基づいて決定されてもよい。前記第1距離は前記第3ピクセルおよび前景間の最短座標距離であり、前記第2距離は前記第3ピクセルおよび背景間の最短座標距離である。
混合ステップS1080において、前景優先画像と前記背景優先画像とを混合することによって出力ビュー画像が生成される。混合ステップS1080において、出力ビュー画像のエラー疑い領域内のピクセルのカラー値が生成される場合、第1ピクセルのカラー値および第2ピクセルのカラー値をアルファマットすることによって第3ピクセルのカラー値を生成する。
第3ピクセルのカラー値は、第1ピクセルのカラー値および第2ピクセルのカラー値の加重値が加えられた和であってもよい。第1ピクセルのカラー値に対する加重値はαであってもよい。第2ピクセルのカラー値に対する加重値は1−αであってもよい。
上記の図1〜図9に基づいて説明された本発明の一実施形態に係る技術的な内容が本実施形態にもそのまま適用されてもよい。したがって、より詳細な説明は以下には省略する。
本発明の一実施形態に係る方法は、コンピュータにより実現される多様な動作を実行するためのプログラム命令形態で実現され、コンピュータで読取可能な記録媒体に記録されてもよい。前記コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含むものでもよい。前記媒体に記録されるプログラム命令は、本発明の目的のために特別に設計され構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知であり使用可能なものであってもよい。コンピュータで読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスクおよび磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードを含む。上述のハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェア階層で作動するように構成されてもよい。
上述したように、本発明は、一例として限定された実施形態と図面とによって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような記載から多様な修正および変形が可能である。
したがって、本発明の範囲は説明された実施形態に限定されてはならず、後述する特許請求の範囲だけでなく、この特許請求の範囲と均等なものなどによって定められなければならない。
100、800 画像処理装置
810 エラー疑い領域設定部
820 前景優先ワーピング部
830 背景優先ワーピング部
840 混合部
910 深度/両眼視差不連続分析部
920 疑い領域設定部
930 前景優先ワーピング深度/両眼視差情報生成部
940 背景優先ワーピング深度/両眼視差情報生成部

Claims (23)

  1. 参照視点のための第1参照ビューの参照ビュー画像および前記参照ビュー画像に対する深度/両眼視差情報に基づいて特定の視点のための出力ビュー画像を生成する画像処理装置において、
    前記参照ビュー画像のうち検出されたエラー疑い領域に対応する部分が前記参照ビュー画像の前景に含まれたものと見なす前記参照ビュー画像の前景優先ワーピングを行うことによって前景優先画像を生成する前景優先ワーピング部(前記検出されたエラー疑い領域は、前記参照ビュー画像の前記深度/両眼視差情報に基づいて深度両眼視差エラーの決められて増加された確率を有する前記参照ビュー画像の1つ以上である領域)と、
    前記参照ビュー画像のうち前記エラー疑い領域に対応する部分を除外する前記参照ビュー画像の背景の背景優先ワーピングを行うことによって背景優先画像を生成する背景優先ワーピング部と、
    前記出力ビュー画像を生成するために前記前景優先画像と前記背景優先画像とを混合する混合部と、
    を備えることを特徴とする画像処理装置。
  2. 前記混合部は、前記出力ビュー画像のエラー疑い領域内のピクセルのカラー値を生成する場合、前記前景優先画像内の第1ピクセルのカラー値および前記背景優先画像内の第2ピクセルのカラー値をアルファマットすることによって、前記出力ビュー画像内の第3ピクセルのカラー値を生成し、前記第2ピクセルの位置および前記第3ピクセルの位置は前記第1ピクセルの位置に対応することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第3ピクセルのカラー値は、前記第1ピクセルのカラー値および前記第2ピクセルのカラー値の加重値が加えられた和であり、前記第1ピクセルのカラー値に対する加重値は混合係数αであり、前記第2ピクセルのカラー値に対する加重値は1−αであることを特徴とする請求項2に記載の画像処理装置。
  4. 前記αを決定する混合係数決定部をさらに備え、
    前記混合係数決定部は、第1カラーの一貫性および第2カラーの一貫性に基づいて前記αを決定し、前記第1カラーの一貫性は前記第3ピクセルに対応する前記参照ビュー画像内の第4ピクセルのカラー値のカラーコンポーネント座標、および前記第4ピクセルと隣接した前景のカラー値のカラーコンポーネント座標間のユークリッド距離に基づいて算出され、前記第2カラーの一貫性は、前記第4ピクセルのカラー値のカラーコンポーネント座標および前記第4ピクセルと隣接した背景のカラー値のカラーコンポーネント座標間のユークリッド距離に基づいて算出されることを特徴とする請求項3に記載の画像処理装置。
  5. 前記αを決定する混合係数決定部をさらに備え、
    前記混合係数決定部は、第1距離および第2距離に基づいて前記αを決定し、前記第1距離は前記第3ピクセルおよび前記前景間の最短距離であり、前記第2距離は前記第3ピクセルおよび前記背景間の最短距離であることを特徴とする請求項3に記載の画像処理装置。
  6. 前記背景優先ワーピング部は、第2参照視点のための第2参照ビューの参照ビュー画像を参照することによって前記背景優先画像のうち前記エラー疑い領域に対応する部分を生成することを特徴とする請求項1に記載の画像処理装置。
  7. 前記エラー疑い領域設定部は、
    前記参照ビュー画像の前記深度/両眼視差情報のうち不連続な部分を検出する深度/両眼視差不連続分析部と、
    前記不連続な部分に基づいて前記参照ビュー画像内のエラー疑い領域を設定する疑い領域設定部と、
    前記不連続な部分に隣接した前景部分の前記深度/両眼視差情報に基づいて前記エラー疑い領域の深度/両眼視差情報を選択的に調整するために、前記前景部分の深度/両眼視差情報を前記エラー疑い領域を含むように拡張することによって、前景優先ワーピング深度/両眼視差情報を生成する前景優先ワーピング深度/両眼視差情報生成部と、
    前記エラー疑い領域をワーピングから除外する前記背景の背景優先ワーピング深度/両眼視差情報を生成する背景優先ワーピング深度/両眼視差情報生成部と、
    を備え、
    前記前景優先ワーピング部は、前記前景優先ワーピング深度/両眼視差情報に基づいて前記前景優先画像を生成し、前記背景優先ワーピング部は、前記背景優先ワーピング深度/両眼視差情報に基づいて前記背景優先画像を生成することを特徴とする請求項1に記載の画像処理装置。
  8. 前記疑い領域設定部は、前記参照ビュー画像内において前記不連続な部分から一定の距離内にある部分を前記エラー疑い領域として設定することを特徴とする請求項7に記載の画像処理装置。
  9. 前記背景優先ワーピング深度/両眼視差情報生成部は、前記不連続な部分をホールと見なし、前記不連続な部分を前記背景優先ワーピングから除外し、他の参照ビュー画像から背景情報に基づいて前記ホールを代替することを特徴とする請求項7に記載の画像処理装置。
  10. 参照視点のための第1参照ビューの参照ビュー画像および前記参照ビュー画像に対する深度/両眼視差情報に基づいて特定の視点のための出力ビュー画像を生成する画像処理方法において、
    前記参照ビュー画像のうち検出されたエラー疑い領域に対応する部分が前記参照ビュー画像の前景に含まれるものと見なす前記参照ビュー画像の前景優先ワーピングを行うことによって前景優先画像を生成する前景優先ワーピングステップ(前記検出されたエラー疑い領域は、前記参照ビュー画像の前記深度/両眼視差情報に基づいて深度両眼視差エラーの決められて増加された確率を有する前記参照ビュー画像の1つ以上である領域)と、
    前記参照ビュー画像のうち前記エラー疑い領域に対応する部分を除外する前記参照ビュー画像の背景の背景優先ワーピングを行うことによって背景優先画像を生成する背景優先ワーピングステップと、
    前記出力ビュー画像を生成するために前記前景優先画像と前記背景優先画像とを混合する混合ステップと、
    を含むことを特徴とする画像処理方法。
  11. 前記混合ステップは、前記出力ビュー画像のエラー疑い領域内のピクセルのカラー値を生成する場合、前記前景優先画像内の第1ピクセルのカラー値および前記背景優先画像内の第2ピクセルのカラー値をアルファマットすることによって、前記出力ビュー画像内の第3ピクセルのカラー値を生成し、前記第2ピクセルの位置および前記第3ピクセルの位置は前記第1ピクセルの位置に対応することを特徴とする請求項10に記載の画像処理方法。
  12. 前記第3ピクセルのカラー値は、前記第1ピクセルのカラー値および前記第2ピクセルのカラー値の加重値が加えられた和であり、前記第1ピクセルのカラー値に対する加重値は混合係数αであり、前記第2ピクセルのカラー値に対する加重値は1−αであることを特徴とする請求項11に記載の画像処理方法。
  13. 前記αを決定する混合係数決定ステップをさらに含み、
    前記αは、第1カラーの一貫性および第2カラーの一貫性に基づいて決定され、前記第1カラーの一貫性は、前記第3ピクセルに対応する前記参照ビュー画像内の第4ピクセルのカラー値のカラーコンポーネント座標および前記第4ピクセルと隣接した前景のカラー値のカラーコンポーネント座標間のユークリッド距離に基づいて算出され、前記第2カラーの一貫性は、前記第4ピクセルのカラー値のカラーコンポーネント座標および前記第4ピクセルと隣接した背景のカラー値のカラーコンポーネント座標間のユークリッド距離に基づいて算出されることを特徴とする請求項12に記載の画像処理方法。
  14. 前記αを決定する混合係数決定ステップをさらに含み、
    前記αは第1距離および第2距離に基づいて決定され、前記第1距離は前記第3ピクセルおよび前記前景間の最短距離であり、前記第2距離は前記第3ピクセルおよび前記背景間の最短距離であることを特徴とする請求項12に記載の画像処理方法。
  15. 前記背景優先ワーピングステップは、第2参照視点のための第2参照ビューの参照ビュー画像を参照することによって、前記背景優先画像のうち前記エラー疑い領域に対応する部分を生成することを特徴とする請求項10に記載の画像処理方法。
  16. 前記エラー疑い領域設定ステップは、
    前記参照ビュー画像の前記深度/両眼視差情報のうち不連続な部分を検出する深度/両眼視差不連続分析ステップと、
    前記不連続な部分に基づいて前記参照ビュー画像内のエラー疑い領域を設定する疑い領域設定ステップと、
    前記不連続な部分に隣接した前景部分の前記深度/両眼視差情報に基づいて前記エラー疑い領域の深度/両眼視差情報を選択的に調整するために、前記前景部分の深度/両眼視差情報を前記エラー疑い領域を含むように拡張することによって、前景優先ワーピング深度/両眼視差情報を生成する前景優先ワーピング深度/両眼視差情報生成ステップと、
    前記エラー疑い領域をワーピングから除外する前記背景の背景優先ワーピング深度/両眼視差情報を生成する背景優先ワーピング深度/両眼視差情報生成ステップと、
    を含み、
    前記前景優先ワーピングステップは、前記前景優先ワーピング深度/両眼視差情報に基づいて前記前景優先画像を生成し、前記背景優先ワーピングステップは、前記背景優先ワーピング深度/両眼視差情報に基づいて前記背景優先画像を生成することを特徴とする請求項10に記載の画像処理方法。
  17. 前記疑い領域設定ステップは、前記参照ビュー画像内で前記不連続な部分から一定の距離内にある部分を前記エラー疑い領域として設定することを特徴とする請求項16に記載の画像処理方法。
  18. 前記背景優先ワーピング深度/両眼視差情報生成ステップは、前記不連続な部分をホールと見なし、前記不連続な部分を前記背景優先ワーピングから除外し、他の参照ビュー画像からの背景情報に基づいて前記ホールを代替することを特徴とする請求項16に記載の画像処理方法。
  19. 請求項10〜請求項18のうちいずれか一項の画像処理方法を行うプログラムを収録したコンビュータ読み出し可能な記録媒体。
  20. 少なくとも1つのオブジェクトを表す第1参照視点における第1参照ビュー画像に基づいて、前記第1参照ビュー画像の深度/両眼視差情報に基づいて中央視点のための第1中間中央ビュー画像を生成する画像処理装置において、
    前記第1参照視点と相異なる中間視点に対する前記第1中間中央ビュー画像を生成するために、前記第1参照ビュー画像の少なくとも1つの決められた前景および前記第1参照ビュー画像の少なくとも1つの決められた背景をそれぞれワーピングすることによって、前記第1参照ビュー画像をワーピングする第1ワーピングユニット(前記第1参照ビュー画像の前記少なくとも1つの前景および前記少なくとも1つの背景の前記ワーピングは、前記第1参照ビュー画像の検出されたエラー疑い領域に基づいて異なって行われ、前記検出されたエラー疑い領域は、前記参照ビュー画像の前記深度/両眼視差情報に基づいて深度両眼視差エラーの決められて増加された確率を有する前記参照ビュー画像の1つ以上の領域である)と、
    前記第1中間中央ビュー画像を前記中央視点における前記少なくとも1つのオブジェクトを含む追加的なビュー画像として出力する出力部と、
    を備えることを特徴とする画像処理装置。
  21. 少なくとも1つのオブジェクトを表す第2参照視点における第2参照ビュー画像に基づいて、前記第2参照ビュー画像の深度/両眼視差情報に基づいて前記中央視点に対する第2中間中央ビュー画像を生成するために、
    前記第2参照視点と相異なる中間視点に対する前記第2中間中央ビュー画像を生成するために前記第1参照ビュー画像の少なくとも1つの決められた前景および前記第2参照ビュー画像の少なくとも1つの決められた背景をそれぞれワーピングすることによって、前記第1参照ビュー画像をワーピングする第2ワーピングユニット(前記第2参照ビュー画像の前記少なくとも1つの前景および前記少なくとも1つの背景の前記ワーピングは前記第2参照ビュー画像の検出されたエラー疑い領域に基づいて異なって行われ、前記検出されたエラー疑い領域は、前記参照ビュー画像の前記深度/両眼視差情報に基づいて深度両眼視差エラーの決められて増加された確率を有する前記参照ビュー画像の1つ以上の領域である)と、
    前記中央視点における中央ビュー画像を生成するために前記第1中間中央ビュー画像を前記第2中間中央ビュー画像と混合する混合部とをさらに備え、
    前記出力部は、前記中央ビュー画像を前記中央視点における前記少なくとも1つのオブジェクトを含む追加的なビュー画像として出力することを特徴とする請求項20に記載の画像処理装置。
  22. 少なくとも1つのオブジェクトを表す第1参照視点における第1参照ビュー画像に基づいて、前記第1参照ビュー画像の深度/両眼視差情報に基づいて中央視点のための第1中間中央ビュー画像を生成する画像処理方法において、
    前記第1参照視点と相異なる中間視点に対する前記第1中間中央ビュー画像を生成するために、前記第1参照ビュー画像の少なくとも1つの決められた前景および前記第1参照ビュー画像の少なくとも1つの決められた背景をそれぞれワーピングするステップ(前記第1参照ビュー画像の前記少なくとも1つの前景および前記少なくとも1つの背景の前記ワーピングは、前記第1参照ビュー画像の検出されたエラー疑い領域に基づいて異なって行われ、前記検出されたエラー疑い領域は、前記参照ビュー画像の前記深度/両眼視差情報に基づいて深度両眼視差エラーの決められて増加された確率を有する前記参照ビュー画像の1つ以上の領域である)と、
    前記第1中間中央ビュー画像を前記中央視点における前記少なくとも1つのオブジェクトを含む追加的なビュー画像として出力するステップと、
    を含むことを特徴とする画像処理方法。
  23. 少なくとも1つのオブジェクトを表す第2参照視点における第2参照ビュー画像に基づいて、前記第2参照ビュー画像の深度/両眼視差情報に基づいて前記中央視点に対する第2中間中央ビュー画像を生成するために、
    前記第2参照視点と相異なる中間視点に対する前記第2中間中央ビュー画像を生成するために前記第1参照ビュー画像の少なくとも1つの決められた前景および前記第2参照ビュー画像の少なくとも1つの決められた背景をそれぞれワーピングするステップ(前記第2参照ビュー画像の前記少なくとも1つの前景および前記少なくとも1つの背景の前記ワーピングは、前記第2参照ビュー画像の検出されたエラー疑い領域に基づいて異なって行われ、前記検出されたエラー疑い領域は、前記参照ビュー画像の前記深度/両眼視差情報に基づいて深度両眼視差エラーの決められて増加された確率を有する前記参照ビュー画像の1つ以上の領域である)と、
    前記中央視点における中央ビュー画像を生成するために前記第1中間中央ビュー画像を前記第2中間中央ビュー画像と混合するステップと、
    前記中央ビュー画像を前記中央視点における前記少なくとも1つのオブジェクトを含む追加的なビュー画像として出力するステップと、
    をさらに含むことを特徴とする請求項22に記載の画像処理方法。
JP2011279644A 2011-01-03 2011-12-21 画像処理装置及び画像処理方法 Active JP5789185B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0000228 2011-01-03
KR1020110000228A KR101798408B1 (ko) 2011-01-03 2011-01-03 3d 디스플레이를 위한 고품질 멀티-뷰 영상의 생성 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2012141975A true JP2012141975A (ja) 2012-07-26
JP5789185B2 JP5789185B2 (ja) 2015-10-07

Family

ID=46380374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011279644A Active JP5789185B2 (ja) 2011-01-03 2011-12-21 画像処理装置及び画像処理方法

Country Status (3)

Country Link
US (1) US9445071B2 (ja)
JP (1) JP5789185B2 (ja)
KR (1) KR101798408B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015141615A (ja) * 2014-01-29 2015-08-03 キヤノン株式会社 画像処理装置およびその方法
JP2015534766A (ja) * 2012-09-24 2015-12-03 サムスン エレクトロニクス カンパニー リミテッド 多視点映像生成方法及び多視点映像ディスプレイ装置

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2533212A1 (en) * 2011-06-10 2012-12-12 Samsung Electronics Co., Ltd. Reference layer for hole recovery within an output image.
KR20130073459A (ko) * 2011-12-23 2013-07-03 삼성전자주식회사 멀티-뷰 생성 방법 및 장치
CN103634584B (zh) * 2012-08-29 2015-10-21 广州市朗辰电子科技有限公司 一种多视点3d视频合成方法
JP2014082541A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラムおよび装置
EP2765774A1 (en) * 2013-02-06 2014-08-13 Koninklijke Philips N.V. System for generating an intermediate view image
KR20150010230A (ko) * 2013-07-18 2015-01-28 삼성전자주식회사 단일 필터를 이용하여 대상체의 컬러 영상 및 깊이 영상을 생성하는 방법 및 장치.
IN2013CH05313A (ja) * 2013-11-18 2015-05-29 Nokia Corp
KR101532642B1 (ko) * 2014-03-04 2015-06-30 광주과학기술원 깊이정보 확장장치 및 방법
CN105023259B (zh) * 2014-04-18 2019-06-25 腾讯科技(深圳)有限公司 图片融合方法、装置、终端和计算机可读存储介质
EP3158536B1 (en) * 2014-06-19 2019-01-02 Koninklijke Philips N.V. Method and apparatus for generating a three dimensional image
CN104574311B (zh) * 2015-01-06 2017-08-11 华为技术有限公司 图像处理方法和装置
US10334223B2 (en) 2015-01-30 2019-06-25 Qualcomm Incorporated System and method for multi-view video in wireless devices
WO2017043331A1 (ja) * 2015-09-09 2017-03-16 ソニー株式会社 画像処理装置、及び、画像処理方法
KR101920113B1 (ko) * 2015-12-28 2018-11-19 전자부품연구원 임의시점 영상생성 방법 및 시스템
CN109844813B (zh) * 2016-10-19 2023-11-07 索尼公司 图像处理装置和图像处理方法
KR102608466B1 (ko) * 2016-11-22 2023-12-01 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
KR101993962B1 (ko) * 2016-12-22 2019-07-01 전자부품연구원 중간시점 영상합성에서의 n-시점 블렌딩 기반 홀 채움 방법
EP3340618A1 (en) * 2016-12-22 2018-06-27 Thomson Licensing Geometric warping of a stereograph by positional constraints
JP7250493B2 (ja) * 2018-12-03 2023-04-03 キヤノン株式会社 画像処理装置、三次元形状データの生成方法およびプログラム
BR102020027013A2 (pt) * 2020-12-30 2022-07-12 Samsung Eletrônica da Amazônia Ltda. Método para gerar uma imagem multiplano adaptativa a partir de uma única imagem de alta resolução
CN114937050A (zh) * 2022-06-28 2022-08-23 北京字跳网络技术有限公司 绿幕抠图方法、装置及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
JP2006012161A (ja) * 2004-06-28 2006-01-12 Microsoft Corp 対話式視点ビデオシステムおよびプロセス
JP2006024206A (ja) * 2004-06-28 2006-01-26 Microsoft Corp シーンの2レイヤ3d表現を生成するシステムおよび処理
JP2007095073A (ja) * 2005-09-29 2007-04-12 Mitsubishi Electric Research Laboratories Inc シーンから収集される画像からアルファマットを抽出するための方法及びシステム
WO2010037512A1 (en) * 2008-10-02 2010-04-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Intermediate view synthesis and multi-view data signal extraction

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100926520B1 (ko) 2006-12-05 2009-11-12 한국전자통신연구원 객체/배경 분리 및 영상분할을 이용한 양안/다시점스테레오 정합 장치 및 그 방법
KR100953076B1 (ko) 2007-12-13 2010-04-13 한국전자통신연구원 객체 또는 배경 분리를 이용한 다시점 정합 방법 및 장치
US8106924B2 (en) * 2008-07-31 2012-01-31 Stmicroelectronics S.R.L. Method and system for video rendering, computer program product therefor
KR100960694B1 (ko) 2008-11-04 2010-06-01 광주과학기술원 다시점 영상 매팅 시스템과 방법 및 이를 수록한 저장매체
US8379972B1 (en) * 2009-12-01 2013-02-19 Adobe Systems Incorporated Color decontamination for image compositing
US8773427B2 (en) * 2010-12-22 2014-07-08 Sony Corporation Method and apparatus for multiview image generation using depth map information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
JP2006012161A (ja) * 2004-06-28 2006-01-12 Microsoft Corp 対話式視点ビデオシステムおよびプロセス
JP2006024206A (ja) * 2004-06-28 2006-01-26 Microsoft Corp シーンの2レイヤ3d表現を生成するシステムおよび処理
JP2007095073A (ja) * 2005-09-29 2007-04-12 Mitsubishi Electric Research Laboratories Inc シーンから収集される画像からアルファマットを抽出するための方法及びシステム
WO2010037512A1 (en) * 2008-10-02 2010-04-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Intermediate view synthesis and multi-view data signal extraction

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015534766A (ja) * 2012-09-24 2015-12-03 サムスン エレクトロニクス カンパニー リミテッド 多視点映像生成方法及び多視点映像ディスプレイ装置
JP2015141615A (ja) * 2014-01-29 2015-08-03 キヤノン株式会社 画像処理装置およびその方法

Also Published As

Publication number Publication date
US20120169722A1 (en) 2012-07-05
KR20120078924A (ko) 2012-07-11
KR101798408B1 (ko) 2017-11-20
JP5789185B2 (ja) 2015-10-07
US9445071B2 (en) 2016-09-13

Similar Documents

Publication Publication Date Title
JP5789185B2 (ja) 画像処理装置及び画像処理方法
TWI714690B (zh) 用於處理深度圖之裝置與方法及相關電腦程式產品
US9786253B2 (en) Conversion of a digital stereo image into multiple views with parallax for 3D viewing without glasses
US20130162634A1 (en) Image processing method and apparatus using multi-layer representation
CN106664397B (zh) 用于生成三维图像的方法和装置
US9398289B2 (en) Method and apparatus for converting an overlay area into a 3D image
US20110205226A1 (en) Generation of occlusion data for image properties
KR20110015452A (ko) 입체 이미지의 블러 향상
JP2015522198A (ja) 画像に対する深度マップの生成
US20100289815A1 (en) Method and image-processing device for hole filling
Reel et al. Joint texture-depth pixel inpainting of disocclusion holes in virtual view synthesis
Schmeing et al. Depth image based rendering
Lee et al. Boundary filtering on synthesized views of 3D video
KR20140080893A (ko) 하이브리드 멀티-뷰 랜더링 방법 및 장치
Jantet et al. Joint projection filling method for occlusion handling in depth-image-based rendering
KR102490985B1 (ko) 깊이 맵을 처리하기 위한 장치 및 방법
Gunnewiek et al. Coherent spatial and temporal occlusion generation
JP2014150401A (ja) 表示装置及びプログラム
Tian et al. A trellis-based approach for robust view synthesis
JP2014150402A (ja) 表示装置及びプログラム
Jeong et al. Depth image‐based rendering for multiview generation
Zhao et al. Virtual view synthesis and artifact reduction techniques
WO2023235273A1 (en) Layered view synthesis system and method
Cheng et al. An Image Inpainting Method for Stereoscopic Images Based on Filling Route
KR20130008435A (ko) 홀 렌더링을 사용하는 멀티-뷰 영상 처리 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150731

R150 Certificate of patent or registration of utility model

Ref document number: 5789185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250