JP2007502454A - マルチビュー画像の生成 - Google Patents

マルチビュー画像の生成 Download PDF

Info

Publication number
JP2007502454A
JP2007502454A JP2006522460A JP2006522460A JP2007502454A JP 2007502454 A JP2007502454 A JP 2007502454A JP 2006522460 A JP2006522460 A JP 2006522460A JP 2006522460 A JP2006522460 A JP 2006522460A JP 2007502454 A JP2007502454 A JP 2007502454A
Authority
JP
Japan
Prior art keywords
input image
view image
depth
edge
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006522460A
Other languages
English (en)
Other versions
JP4644669B2 (ja
Inventor
デ ベーク マルク ジェイ アール オプ
ファビアン イー アーンスト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2007502454A publication Critical patent/JP2007502454A/ja
Application granted granted Critical
Publication of JP4644669B2 publication Critical patent/JP4644669B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Image Analysis (AREA)

Abstract

入力画像に基づいてマルチビュー画像を生成するマルチビュー画像生成ユニット(100)が開示される。生成ユニット(100)は、前記入力画像におけるエッジを検出するエッジ検出手段(102)と、前記エッジに基づいて前記入力画像についての深度マップを生成する深度マップ生成手段(104)とを有し、前記深度マップの要素の第1の群が、前記マルチビュー画像の観測者に関して、第1の深度値を持つエッジに対応し、前記エッジの近隣に位置する前記入力画像の領域に対応する深度マップの要素の第2の群が、前記マルチビュー画像の観測者に関して、第2の深度値を持ち、前記第1の深度値が前記第2の深度値よりも小さく、前記生成ユニットは更に、前記入力画像及び前記深度マップに基づいて前記マルチビュー画像をレンダリングするレンダリング手段(106)を有する。

Description

本発明は、入力画像に基づいてマルチビュー画像を生成するマルチビュー画像生成ユニットに関する。
本発明は更に、
−入力画像に対応する信号を受信する受信手段と、
−前記入力画像に基づいてマルチビュー画像を生成する、かようなマルチビュー画像生成ユニットと、
を有する画像処理機器に関する。
本発明は更に、入力画像に基づいてマルチビュー画像を生成する方法に関する。
本発明は更に、コンピュータ装置によってロードされるコンピュータプログラムであって、入力画像に基づいてマルチビュー画像を生成する命令を有し、前記コンピュータ装置は処理手段及びメモリを有するコンピュータプログラムに関する。
マルチビュー(multi-view)表示装置において3次元の印象を生成するためには、異なる仮想的な視点からの画像がレンダリングされる必要がある。このことは、複数の入力ビュー又は何らかの3次元(3D)即ち深度情報が存在することが必要とされる。該深度情報は、マルチビューカメラシステムから生成され記録されても良いし、又は従来の2次元(2D)ビデオマテリアルから生成され記録されても良い。2Dビデオから深度情報を生成するために、動きからの構造、フォーカス情報、幾何的な形状及び動的な咬合のような幾つかのタイプの深度の手掛かりが利用されることができる。密な深度マップ、即ち画素毎に1つの深度値を持つ深度マップを生成することが目的となる。該深度マップは次いで、観測者に奥行の印象を与えるために、マルチビュー画像のレンダリングの際に利用される。P. A. Redert、E. A. Hendriks及びJ.Biemondによる論文「Synthesis of multi viewpoint images at non-intermediate positions」(「International Conference on Acoustics, Speech and Signal Processing」のプロシーディング、Vol. IV、ISBN0-8186-7919-0、2749-2752頁、「IEEE Computer Society」、Los Alamitos、California、1997年)において、深度情報を抽出し、入力画像及び深度マップに基づいてマルチビュー画像をレンダリングする方法が開示されている。
引用した方法の不利な点は、深度マップの生成がしばしば適切な結果に帰着せず、最終的に満足できない奥行の印象に帰着することである。
本発明の目的は、比較的限られた深度情報に基づいて、知覚的に納得できる奥行の印象を伴うマルチビュー画像をレンダリングするように構成された、最初のパラグラフに記載された種類のマルチビュー画像生成ユニットを提供することにある。
本発明の本目的は、マルチビュー画像生成ユニットであって、
前記入力画像におけるエッジを検出するエッジ検出手段と、
前記エッジに基づいて前記入力画像についての深度マップを生成する深度マップ生成手段と、
を有し、前記深度マップの要素の第1の群が、前記マルチビュー画像の観測者に関して、第1の深度値を持つエッジに対応し、前記エッジの近隣に位置する前記入力画像の領域に対応する深度マップの要素の第2の群が、前記マルチビュー画像の観測者に関して、第2の深度値を持ち、前記第1の深度値が前記第2の深度値よりも小さく、前記生成ユニットは更に、
前記入力画像及び前記深度マップに基づいて前記マルチビュー画像をレンダリングするレンダリング手段を有するマルチビュー画像生成ユニットによって達成される。その結果、実行されるマルチビュー画像のレンダリングは、エッジが周囲のエリアよりも観測者に近くに知覚されるように、即ちエッジにおいて深度差が生成されるように為される。人間の知覚の観点からは、エッジが前景のオブジェクトに属するように見える。従って局所的に、深度の順序が、前景のオブジェクトが実際に背景の前にあるように見える。本発明者は、人間の知覚がこのとき、この非常に限られた部分的な深度情報を、完全な奥行の印象へと統合することを認識した。
エッジとは、必ずしも1画素幅の変わり目を意味するものではないことは留意されるべきである。エッジは、幾つかの画素に亘って延在するソフトエッジ(soft-edge)であっても良い。
本発明によるマルチビュー画像生成ユニットの実施例においては、前記エッジ検出手段は、前記入力画像の第1の画素値と、第2の入力画像の対応する第2の画素値との間の画素値の差を計算することにより、前記エッジを検出するように構成され、前記入力画像及び前記第2の入力画像はビデオ画像のシーケンスに属する。ビデオ画像のシーケンスの後続する画像の減算に基づくエッジの検出は、比較的容易である。本実施例の利点は、比較的単純な計算リソースを用いてリアルタイムの実装が実現されることができる点である。画素値は、色又は輝度のような可視の情報を表す。
画素値の差を計算することによりエッジを検出するように構成された、本発明によるマルチビュー画像生成ユニットの実施例においては、前記第1の深度値は、前記画素値の差の第1のものの関数である。換言すれば、前記計算された画素値の差が、深度値を決定するために利用される。好ましくは、前記計算された画素値の差は、前記深度値に比例する。任意に、前記画素値の差の計算の中間結果に対してフィルタリングが適用される。前記フィルタリングは、空間的、時間的又は空間−時間的なローパスフィルタリングを含んでも良い。代替として、比較的低い前記画素値の差をフィルタリングにより除去するため、閾値が利用される。これら比較的低い画素値の差は、このときノイズとして解釈される。
本発明によるマルチビュー画像生成ユニットの実施例においては、前記エッジ検出手段は、前記入力画像及び前記第2の入力画像に基づいて計算された動きベクトル場に基づいて前記エッジを検出するように構成され、前記入力画像及び前記第2の入力画像はビデオ画像のシーケンスに属する。好ましくは、前記エッジ検出手段は、前記動きベクトル場の隣接する動きベクトルの動きベクトル差を計算することにより前記エッジを検出するように構成される。動きベクトル場を計算することは、例えばビデオ圧縮、デインタレーシング(de-interlacing)又は時間的な上方変換について知られた、一般的な手法である。一般に、動きベクトル場における不連続、即ち前記動きベクトル場の隣接する動きベクトル間の比較的大きな差は、捕捉された場面における移動するオブジェクトの境界、それ故関連するエッジに対応する。本発明による本実施例の利点は、異なるタイプのエッジ間を区別する、即ち略静的なオブジェクトに属するエッジと、移動するオブジェクトに属するエッジとの間を区別するように構成された点である。特に、後者のタイプのエッジは重要である。なぜなら、これらのエッジは一般に前景のオブジェクトに対応するからである。
動きベクトル場に基づいてエッジを検出するように構成された、本発明によるマルチビュー画像生成ユニットの実施例においては、前記第1の深度値は、前記動きベクトル差の第1のものの関数である。換言すれば、計算された動きベクトルの差が、深度値を決定するために利用される。好ましくは、前記計算された動きベクトルの差は、前記深度値に比例する。
本発明の更なる目的は、比較的限られた深度情報に基づいて、知覚的に納得できる奥行の印象を伴うマルチビュー画像をレンダリングするように構成された、最初のパラグラフに記載された種類のマルチビュー画像生成ユニットを有する画像処理機器を提供することにある。
本発明の本目的は、マルチビュー画像生成ユニットであって、
前記入力画像におけるエッジを検出するエッジ検出手段と、
前記エッジに基づいて前記入力画像についての深度マップを生成する深度マップ生成手段と、
を有し、前記深度マップの要素の第1の群が、前記マルチビュー画像の観測者に関して、第1の深度値を持つエッジに対応し、前記エッジの近隣に位置する前記入力画像の領域に対応する深度マップの要素の第2の群が、前記マルチビュー画像の観測者に関して、第2の深度値を持ち、前記第1の深度値が前記第2の深度値よりも小さく、前記生成ユニットは更に、
前記入力画像及び前記深度マップに基づいて前記マルチビュー画像をレンダリングするレンダリング手段を有する、マルチビュー画像生成ユニットによって達成される。
任意に、前記画像処理機器は、前記マルチビュー画像を表示するためのマルチビュー表示装置を更に有する。
本発明の更なる目的は、比較的限られた深度情報に基づいて、知覚的に納得できる奥行の印象を伴うマルチビュー画像をレンダリングする、最初のパラグラフに記載された種類の方法を提供することにある。
本発明の本目的は、前記入力画像におけるエッジを検出するステップと、
前記エッジに基づいて前記入力画像についての深度マップを生成するステップと、
を有する方法であって、前記深度マップの要素の第1の群が、前記マルチビュー画像の観測者に関して、第1の深度値を持つエッジに対応し、前記エッジの近隣に位置する前記入力画像の領域に対応する深度マップの要素の第2の群が、前記マルチビュー画像の観測者に関して、第2の深度値を持ち、前記第1の深度値が前記第2の深度値よりも小さく、前記方法は更に、
前記入力画像及び深度マップに基づいて前記マルチビュー画像をレンダリングするステップを有する方法によって達成される。
本発明の更なる目的は、比較的限られた深度情報に基づいて、知覚的に納得できる奥行の印象を伴うマルチビュー画像をレンダリングする、最初のパラグラフに記載された種類のコンピュータプログラムを提供することにある。
本発明の本目的は、前記入力画像におけるエッジを検出するステップと、
前記エッジに基づいて前記入力画像についての深度マップを生成するステップと、
を実行する機能を前記処理手段に備えさせるコンピュータプログラムであって、前記深度マップの要素の第1の群が、前記マルチビュー画像の観測者に関して、第1の深度値を持つエッジに対応し、前記エッジの近隣に位置する前記入力画像の領域に対応する深度マップの要素の第2の群が、前記マルチビュー画像の観測者に関して、第2の深度値を持ち、前記第1の深度値が前記第2の深度値よりも小さく、前記コンピュータプログラムは更に、ロードされた後に、
前記入力画像及び深度マップに基づいて前記マルチビュー画像をレンダリングするステップを実行する機能を前記処理手段に備えさせるコンピュータプログラムによって達成される。
マルチビュー画像生成ユニットの変更及び変形例は、記載された画像処理機器、方法及びコンピュータプログラムの変更及び変形例に対応しても良い。
本発明によるマルチビュー画像生成ユニット、画像処理機器、方法及びコンピュータプログラムのこれらの及び他の態様は、以下に説明される実装及び実施例に関して、及び添付する図を参照しながら説明され、明らかとなるであろう。
図を通して、同一の参照番号が類似の部分を示すために利用される。
図1は、本発明によるマルチビュー画像生成ユニット100の実施例を模式的に示す。マルチビュー画像生成ユニット100は、ビデオ画像のシーケンスに基づいて、マルチビュー画像のシーケンスを生成するように構成される。図3は、前記ビデオ画像のシーケンスの入力画像を模式的に示す。マルチビュー画像生成ユニット100は、入力コネクタ108においてビデオ画像のストリームを供給され、出力コネクタ110及び112において2つの関連付けられたビデオ画像のストリームを供給する。これら2つの関連付けられたビデオ画像のストリームは、前記関連付けられたビデオ画像のストリームのうちの第1のものに基づいて第1の一連のビューを視覚化し、前記関連付けられたビデオ画像のストリームの第2のものに基づいて第2の一連のビューを視覚化するように構成された、マルチビュー表示装置に供給される。ユーザが左目で前記第1の一連のビューを観測し、右目で前記第2の一連のビューを観測すると、該ユーザは3次元の印象を認識する。前記関連付けられたビデオ画像のストリームの第1のものが、受信されたビデオ画像のシーケンスに対応し、前記関連付けられたビデオ画像のストリームの第2のものが、前記受信されたビデオ画像のシーケンスに基づいてレンダリングされるものであっても良い。好ましくは、両方の前記ビデオ画像のストリームが、受信されたビデオ画像のシーケンスに基づいてレンダリングされる。前記レンダリングは、例えばP. A. Redert、E. A. Hendriks及びJ.Biemondによる論文「Synthesis of multi viewpoint images at non-intermediate positions」(「International Conference on Acoustics, Speech and Signal Processing」のプロシーディング、Vol. IV、ISBN0-8186-7919-0、2749-2752頁、「IEEE Computer Society」、Los Alamitos、California、1997年)に記載されたようなものである。代替としては、前記レンダリングは、R. P. Berretty及びF. E. Ernstによる「High-quality images from 2.5D video」(「Proceedings Eurographics」、Granada、2003年、Short Note 124)に記載されたようなものである。
マルチビュー画像生成ユニット100は、
−入力画像におけるエッジを検出するエッジ検出ユニット102と、
−前記検出されたエッジに基づいてそれぞれの前記入力画像について深度マップを生成する深度マップ生成ユニット104と、
−前記入力画像及びそれぞれの前記深度マップに基づいて、マルチビュー画像をレンダリングするレンダリングユニット106と、
を有する。
エッジの検出は、個々の入力画像の空間的なハイパスフィルタリングに基づくものであっても良い。しかしながら、前記エッジは好ましくは、複数の入力画像の相互の比較、とりわけビデオ画像のシーケンスの連続する画像の画素値の差の計算に基づいて検出される。画素値の差S(x,y,n)の計算の第1の例は、式1に与えられる。
S(x,y,n)=|I(x,y,n)−I(x,y,n−1)| ・・・(1)
ここでI(x,y,n)は、時間nにおける画像の座標x及びyを持つ画素の輝度値である。代替としては、画素値の差S(x,y,n)は色値に基づいて計算される。
S(x,y,n)=|C(x,y,n)−C(x,y,n−1)| ・・・(2)
ここでC(x,y,n)は、時間nにおける画像の座標x及びyを持つ画素の色値である。式3において、3つの異なる色成分R(赤)、G(緑)及びB(青)に基づく、画素値の差S(x,y,n)の計算のための更なる代替が与えられる。
S(x,y,n)=max(|R(x,y,n)−R(x,y,n−1)|,|G(x,y,n)−G(x,y,n−1)|,|B(x,y,n)−B(x,y,n−1)|)・・・(3)
任意に、画素の値の差信号
Figure 2007502454
が、所定の閾値を下回る全ての画素値の差を、例えばゼロのような一定値にクリッピングすることにより、フィルタリングされる。任意に、全ての空間的に小さなエッジを除去するため、モルフォロジック(morphologic)フィルタ操作が適用される。モルフォロジックフィルタは、一般的な非線形画像処理ユニットである。例えばP. W. Verbeek、H. A. Vrooman及びL. J. van Vlietによる論文「Low-level image processing by max-min filters」(「Signal Processing」、vol.15、no.3、249-258頁、1988年)を参照されたい。
前記フィルタリングされた画素値の差信号
Figure 2007502454
の計算の後、深度マップが決定される。このことは式4において規定される。
D(x,y,n)=F(S(x,y,n)) ・・・(4)
ここでD(x,y,n)は、時間nにおける画像の座標x及びyを持つ画素の深度値である。関数F(j)は、画素値の差S(x,y,n)の深度値D(x,y,n)への線形又は非線形の変換である。該関数F(j)は、所定の定数による画素値の差S(x,y,n)の単純な乗算であっても良い。即ち、
D(x,y,n)=α・S(x,y,n) ・・・(5)
代替としては、関数F(j)は、重み因子W(i)による画素値の差S(x,y,n)の乗算に対応する。ここで重み因子W(i)は、対象となる画素と、該対象となる画素の空間的な近隣における第2の画素との間の空間的な距離iに関連する。重み因子W(i)は、局所的な最大値を持つ。前記第2の画素は、前記エッジの中央に位置することが仮定される。
D(x’,y’,n)=W(x,y,x’,y’)*S(x,y,n) ・・・(6)
図5Aは、エッジに対する深度割り当てのための適切な関数、即ち空間的な距離iの関数としての重み因子W(i)を模式的に示す。
上述した演算の結果は、前記エッジに対応する特定の深度マップの要素の第1の群が、マルチビュー画像の観測者に関して、第1の深度値を持つこと、及び前記エッジの近隣に位置する特定の入力画像の領域に対応する深度マップの要素の第2の群が、前記マルチビュー画像の観測者に関して、第2の深度値を持つこと、並びに前記第1の値が前記第2の値よりも小さいことである。又は換言すれば、前記エッジに対応する深度マップの要素は、前記深度マップの他の要素よりも前記観測者への近い距離を表す値を持つ。
図4Aは、連続する入力画像の間の色差に基づく深度マップの例を模式的に示す。該深度マップは、上述の式2及び5において示されたように決定されるが、フィルタリングを用いない。
エッジ検出ユニット102、深度マップ生成ユニット104及びレンダリングユニット106は、1つのプロセッサを利用して実装されても良い。通常、これらの機能は、ソフトウェアプログラムの制御下で実行される。実行の間、通常前記ソフトウェアプログラムは、RAMのようなメモリにロードされ、該メモリから実行される。前記プログラムは、ROM、ハードディスク又は磁気及び/又は光記憶装置のようなバックグラウンドメモリからロードされても良いし、又はインターネットのようなネットワークを介してロードされても良い。任意に、特定用途向け集積回路が、開示される機能を提供する。
図2は、本発明によるマルチビュー画像生成ユニット200の他の実施例を模式的に示す。マルチビュー画像生成ユニット200は、ビデオ画像のシーケンスに基づきマルチビュー画像のシーケンスを生成するように構成される。マルチビュー画像生成ユニット200は、入力コネクタ108においてビデオ画像のストリームを供給され、出力コネクタ110及び112において2つの関連付けされたビデオ画像のストリームを供給する。マルチビュー画像生成ユニット200は、
−入力画像の動きベクトル場を計算する動き推定ユニット202と、
−それぞれの前記動きベクトル場に基づいて入力画像におけるエッジを検出するエッジ検出ユニット102と、
−前記検出されたエッジに基づいてそれぞれの前記入力画像について深度マップを生成する深度マップ生成ユニット104と、
−前記入力画像及び前記それぞれの深度マップに基づいてマルチビュー画像をレンダリングするレンダリングユニット106と、
を有する。
動き推定ユニット202は例えば、G. de Haanらによる論文「True-Motion Estimation with 3-D Recursive Search Block Matching」(「IEEE Transactions on circuits and systems for video technology」、vol.3、no.5、1993年10月、368-379頁)において記載されたようなものである。
エッジ検出ユニット102は、動き推定ユニット202によって計算された動きベクトル場を供給される。エッジ検出ユニット102は、動きベクトル場の不連続を決定するように構成される。このことは、該エッジ検出ユニット102が、比較的大きな動きベクトルのコントラストを持つ動きベクトル場における領域を検出するように構成されることを意味する。これらの領域は、対応する画像におけるエッジに対応する。任意にエッジ検出ユニット102は、前記入力画像の画素値、即ち色及び輝度値をも供給される。種々の入力を適切に組み合わせることにより、前記画像におけるセグメントが実現される。該処理はまた、F. Ernstによる「2D-to-3D video conversion based on time-consistent segmentation」(ICOB (Immersive Communication and Broadcast Systems)ワークショップのプロシーディング、Heinrich-Herz-Institut、Berlin、2003年1月)に記載されている。前記画像におけるセグメントの検出されたエッジの座標に加えて、前記セグメントのトポロジ情報もがエッジ検出ユニット102によって供給されても良い。それ故、前記エッジのどちらの側が前景のオブジェクトに属し、どちらの側が背景に属するかが知られ得る。
エッジ検出の後、深度値の割り当てが実行される。好ましくは、前記深度値の割り当ては、図5B及び5Cに示されたような重み因子W(i)に基づく。これらの図5B及び5Cにおいては、左部が前景に対応することが仮定されている。図5Bは非対称の割り当てを示し、深度ジャンプが前景に方向に偏りをつけられている。図5Cは歪んだ割り当てを示し、深度ジャンプが背景において、より急速に降下している。一方、エッジの周囲の深度の図5Aにおいて示されたような対称の割り当ては、適切な知覚のために十分であるように見える。他の何らかの深度の手掛かりから、付加的な深度情報がある場合には、該情報がエッジに対する深度値の割り当てに適用されることが好ましい。深度値の割り当ては好ましくは、前記エッジの前景側が、前記エッジの背景側よりも幾分前方にレンダリングされるように、僅かに偏りをつけられる。上述したように、エッジ検出ユニット102は、前記セグメントのトポロジについての情報を提供するように構成される。それ故、前記エッジのどちらの側が前景に属し、どちらの側が背景に属するかが知られる。図4Bは、本発明による本実施例の深度マップ生成ユニット104によって提供される動きの不連続に基づく深度マップを模式的に示す。
動き推定ユニット202、エッジ検出ユニット102、深度マップ生成ユニット104及びレンダリングユニット106は、1つのプロセッサを利用して実装されても良い。
要約すると、マルチビュー画像生成ユニット100及び200は、深度の不連続の優れた候補である、入力画像におけるエッジを検出し、前記エッジが周囲のエリアよりも観測者に近くに知覚されるようにこれらの画像をレンダリングすることにより、マルチビュー画像をレンダリングするように構成される。
深度の割り当ては主にエッジ検出に基づくため、実装が容易であり安定性がある。特に、色、輝度、テクスチャ又は動きに基づいて、エッジ検出が比較的容易であるからである。好ましくは、例えば前記エッジは、エッジごとの深度割り当てを時間経過に対して安定性のあるものに保つため、例えば時間不変なセグメンテーションによって、時間とともに追跡される。
図6は、本発明による画像処理機器600の実施例を模式的に示す。該画像処理機器600は、
−入力画像を表すビデオ信号を受信する受信ユニット602と、
−図1及び2のいずれかと共に説明されたような、前記受信された入力画像に基づいてマルチビュー画像を生成するマルチビュー画像生成ユニット604と、
−マルチビュー画像生成ユニット604によって供給された前記マルチビュー画像を表示するマルチビュー表示装置606と、
を有する。
前記ビデオ信号は、アンテナ又はケーブルを介して受信される放送信号であっても良いが、VCR(Video Cassette Recorder)又はディジタル・バーサタイル・ディスク(DVD)のような記憶装置からの信号であっても良い。前記信号は入力コネクタ610において供給される。画像処理機器600は、例えばTVであっても良い。代替として、画像処理機器600は、任意の表示装置を有しないが、表示装置606を有する機器に前記出力画像を供給する。このとき画像処理機器600は、例えばセットトップボックス、衛星チューナ、VCRプレイヤ、DVDプレイヤ又はレコーダであっても良い。任意に、画像処理機器600は、ハードディスクのような記憶手段、又は例えば光ディスクのような着脱可能な媒体に記憶するための手段を有する。画像処理機器600は、映画スタジオ又は放送局によって利用されるシステムであっても良い。
上述の実施例は、本発明を限定するものではなく説明するものであって、当業者は添付される請求の範囲から逸脱することなく代替の実施例を設計することが可能であろうことは留意されるべきである。請求項において、括弧に挟まれたいずれの参照記号も、請求の範囲を限定するものとして解釈されるべきではない。「有する(comprising)」なる語は、請求項に列挙されていない要素又はステップの存在を除外するものではない。要素に先行する「1つの(a又はan)」なる語は、複数のかような要素の存在を除外するものではない。本発明は、幾つかの別個の要素を有するハードウェアによって、及び適切にプログラムされたコンピュータによって実装されても良い。幾つかの手段を列記するユニット請求項において、これらの手段の幾つかは、同一のハードウェアのアイテムによって実施化されても良い。
本発明によるマルチビュー画像生成ユニットの実施例を模式的に示す。 本発明によるマルチビュー画像生成ユニットの他の実施例を模式的に示す。 ビデオ画像のシーケンスの入力画像を模式的に示す。 連続する入力画像間の色差に基づく深度マップを模式的に示す。 動きの不連続に基づく深度マップを模式的に示す。 エッジに対する深度の割り当てのための第1の関数を模式的に示す。 エッジに対する深度の割り当てのための第2の関数を模式的に示す。 エッジに対する深度の割り当てのための第3の関数を模式的に示す。 本発明による画像処理機器の実施例を模式的に示す。

Claims (11)

  1. 入力画像に基づいてマルチビュー画像を生成するマルチビュー画像生成ユニットであって、前記生成ユニットは、
    前記入力画像におけるエッジを検出するエッジ検出手段と、
    前記エッジに基づいて前記入力画像についての深度マップを生成する深度マップ生成手段と、
    を有し、前記深度マップの要素の第1の群が、前記マルチビュー画像の観測者に関して、第1の深度値を持つエッジに対応し、前記エッジの近隣に位置する前記入力画像の領域に対応する深度マップの要素の第2の群が、前記マルチビュー画像の観測者に関して、第2の深度値を持ち、前記第1の深度値が前記第2の深度値よりも小さく、前記生成ユニットは更に、
    前記入力画像及び前記深度マップに基づいて前記マルチビュー画像をレンダリングするレンダリング手段を有する、マルチビュー画像生成ユニット。
  2. 前記エッジ検出手段は、前記入力画像の第1の画素値と、第2の入力画像の対応する第2の画素値との間の画素値の差を計算することにより、前記エッジを検出するように構成され、前記入力画像及び前記第2の入力画像はビデオ画像のシーケンスに属する、請求項1に記載のマルチビュー画像生成ユニット。
  3. 前記第1の画素値は、色及び輝度のうちの一方を表す、請求項2に記載のマルチビュー画像生成ユニット。
  4. 前記第1の深度値は、前記画素値の差の第1のものの関数である、請求項2に記載のマルチビュー画像生成ユニット。
  5. 前記エッジ検出手段は、前記入力画像及び前記第2の入力画像に基づいて計算された動きベクトル場に基づいて前記エッジを検出するように構成され、前記入力画像及び前記第2の入力画像はビデオ画像のシーケンスに属する、請求項1に記載のマルチビュー画像生成ユニット。
  6. 前記エッジ検出手段は、前記動きベクトル場の隣接する動きベクトルの動きベクトル差を計算することにより前記エッジを検出するように構成された、請求項5に記載のマルチビュー画像生成ユニット。
  7. 前記第1の深度値は、前記動きベクトル差の第1のものの関数である、請求項6に記載のマルチビュー画像生成ユニット。
  8. 入力画像に対応する信号を受信する受信手段と、
    請求項1に記載の、前記入力画像に基づいてマルチビュー画像を生成するマルチビュー画像生成ユニットと、
    を有する、画像処理機器。
  9. 前記マルチビュー画像を表示するマルチビュー表示装置を更に有する、請求項8に記載の画像処理機器。
  10. 入力画像に基づいてマルチビュー画像を生成する方法であって、前記方法は、
    前記入力画像におけるエッジを検出するステップと、
    前記エッジに基づいて前記入力画像についての深度マップを生成するステップと、
    を有し、前記深度マップの要素の第1の群が、前記マルチビュー画像の観測者に関して、第1の深度値を持つエッジに対応し、前記エッジの近隣に位置する前記入力画像の領域に対応する深度マップの要素の第2の群が、前記マルチビュー画像の観測者に関して、第2の深度値を持ち、前記第1の深度値が前記第2の深度値よりも小さく、前記方法は更に、
    前記入力画像及び深度マップに基づいて前記マルチビュー画像をレンダリングするステップを有する方法。
  11. 入力画像に基づいてマルチビュー画像を生成する命令を有する、コンピュータ装置によってロードされるコンピュータプログラムであって、前記コンピュータ装置は処理手段及びメモリを有し、前記コンピュータプログラムは、ロードされた後に、
    前記入力画像におけるエッジを検出するステップと、
    前記エッジに基づいて前記入力画像についての深度マップを生成するステップと、
    を実行する機能を前記処理手段に備えさせ、前記深度マップの要素の第1の群が、前記マルチビュー画像の観測者に関して、第1の深度値を持つエッジに対応し、前記エッジの近隣に位置する前記入力画像の領域に対応する深度マップの要素の第2の群が、前記マルチビュー画像の観測者に関して、第2の深度値を持ち、前記第1の深度値が前記第2の深度値よりも小さく、前記コンピュータプログラムは更に、ロードされた後に、
    前記入力画像及び深度マップに基づいて前記マルチビュー画像をレンダリングするステップを実行する機能を前記処理手段に備えさせるコンピュータプログラム。
JP2006522460A 2003-08-05 2004-07-28 マルチビュー画像の生成 Expired - Fee Related JP4644669B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP03102431 2003-08-05
PCT/IB2004/051315 WO2005013623A1 (en) 2003-08-05 2004-07-28 Multi-view image generation

Publications (2)

Publication Number Publication Date
JP2007502454A true JP2007502454A (ja) 2007-02-08
JP4644669B2 JP4644669B2 (ja) 2011-03-02

Family

ID=34112498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006522460A Expired - Fee Related JP4644669B2 (ja) 2003-08-05 2004-07-28 マルチビュー画像の生成

Country Status (6)

Country Link
US (1) US7764827B2 (ja)
EP (1) EP1654884A1 (ja)
JP (1) JP4644669B2 (ja)
KR (1) KR101038452B1 (ja)
CN (1) CN1830217B (ja)
WO (1) WO2005013623A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009148038A1 (ja) 2008-06-06 2009-12-10 ソニー株式会社 立体視画像生成装置、立体視画像生成方法およびプログラム
WO2011030399A1 (ja) * 2009-09-08 2011-03-17 株式会社 東芝 画像処理方法及び装置
JP2013504089A (ja) * 2009-09-02 2013-02-04 サムスン エレクトロニクス カンパニー リミテッド バックライト・ユニット、ディスプレイ装置及びバックライト・ユニット制御方法

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7499494B2 (en) * 2003-12-23 2009-03-03 Genesis Microchip Inc. Vector selection decision for pixel interpolation
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
US7457438B2 (en) * 2003-12-23 2008-11-25 Genesis Microchip Inc. Robust camera pan vector estimation using iterative center of mass
US7346109B2 (en) * 2003-12-23 2008-03-18 Genesis Microchip Inc. Motion vector computation for video sequences
FI117369B (fi) * 2004-11-26 2006-09-15 Imbera Electronics Oy Menetelmä elektroniikkamoduulin valmistamiseksi
CN101107644B (zh) * 2005-01-18 2010-11-24 皇家飞利浦电子股份有限公司 多视图显示设备
KR100913173B1 (ko) 2005-07-05 2009-08-19 삼성모바일디스플레이주식회사 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
KR100932977B1 (ko) 2005-07-05 2009-12-21 삼성모바일디스플레이주식회사 입체 영상 표시 장치
KR100898287B1 (ko) 2005-07-05 2009-05-18 삼성모바일디스플레이주식회사 입체 영상 표시 장치
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
US8279221B2 (en) 2005-08-05 2012-10-02 Samsung Display Co., Ltd. 3D graphics processor and autostereoscopic display device using the same
WO2007063478A2 (en) * 2005-12-02 2007-06-07 Koninklijke Philips Electronics N.V. Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input
US8253740B2 (en) * 2006-02-27 2012-08-28 Koninklijke Philips Electronics N.V. Method of rendering an output image on basis of an input image and a corresponding depth map
US8331711B2 (en) 2006-10-04 2012-12-11 Koninklijke Philips Electronics N.V. Image enhancement
GB2445982A (en) * 2007-01-24 2008-07-30 Sharp Kk Image data processing method and apparatus for a multiview display device
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
CA2627999C (en) * 2007-04-03 2011-11-15 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
DE102007021518B4 (de) * 2007-05-04 2009-01-29 Technische Universität Berlin Verfahren zum Verarbeiten eines Videodatensatzes
US8953684B2 (en) * 2007-05-16 2015-02-10 Microsoft Corporation Multiview coding with geometry-based disparity prediction
KR101483660B1 (ko) * 2007-07-26 2015-01-16 코닌클리케 필립스 엔.브이. 깊이-관련 정보 전파를 위한 방법 및 장치
CN105979270B (zh) * 2007-10-05 2019-05-28 汤姆森特许公司 将视频可用性信息并入多视图视频编码系统的方法和装置
US20090094173A1 (en) * 2007-10-05 2009-04-09 Adaptive Logic Control, Llc Intelligent Power Unit, and Applications Thereof
EP2061004A1 (en) * 2007-11-14 2009-05-20 Sony Corporation Object boundary accurate motion detection using hierarchical block splitting and motion segmentation
KR101560182B1 (ko) 2008-01-07 2015-10-15 삼성전자주식회사 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
KR101524465B1 (ko) * 2008-01-10 2015-06-02 삼성전자주식회사 색차 보상을 이용한 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
EP2804376A1 (en) 2008-04-10 2014-11-19 GVBB Holdings S.A.R.L Method and apparatus for content replacement in live production
EP2269378A2 (en) 2008-04-25 2011-01-05 Thomson Licensing Multi-view video coding with disparity estimation based on depth information
US8184196B2 (en) * 2008-08-05 2012-05-22 Qualcomm Incorporated System and method to generate depth data using edge detection
JP5566385B2 (ja) * 2008-08-20 2014-08-06 トムソン ライセンシング 洗練された奥行きマップ
US9225965B2 (en) * 2008-11-07 2015-12-29 Telecom Italia S.P.A. Method and system for producing multi-view 3D visual contents
KR101506926B1 (ko) 2008-12-04 2015-03-30 삼성전자주식회사 깊이 추정 장치 및 방법, 및 3d 영상 변환 장치 및 방법
KR20110126103A (ko) 2009-01-07 2011-11-22 톰슨 라이센싱 조인트 깊이 추정
JP5909187B2 (ja) 2009-10-14 2016-04-26 トムソン ライセンシングThomson Licensing フィルタ処理およびエッジ符号化
KR101281961B1 (ko) * 2009-12-21 2013-07-03 한국전자통신연구원 깊이 영상 편집 방법 및 장치
TWI387934B (zh) * 2009-12-31 2013-03-01 Ind Tech Res Inst 多視角影像之建構方法及系統
US20110216065A1 (en) * 2009-12-31 2011-09-08 Industrial Technology Research Institute Method and System for Rendering Multi-View Image
US8345958B2 (en) * 2009-12-31 2013-01-01 Industrial Technology Research Institute Method and system for developing new-view image
JP5784729B2 (ja) 2010-08-27 2015-09-24 サムスン エレクトロニクス カンパニー リミテッド マルチビュー生成のためのレンダリング装置およびその方法
US9305398B2 (en) * 2010-10-08 2016-04-05 City University Of Hong Kong Methods for creating and displaying two and three dimensional images on a digital canvas
JP5549566B2 (ja) * 2010-12-07 2014-07-16 コニカミノルタ株式会社 ステレオ撮影装置
KR101336956B1 (ko) * 2010-12-27 2013-12-04 주식회사 넥시아 디바이스 2차원 영상을 스테레오 영상으로 변환하는 방법
CN102918355B (zh) * 2011-04-22 2017-05-31 松下知识产权经营株式会社 三维摄像装置、图像处理装置
EP2717572B1 (en) 2011-06-24 2018-08-08 LG Electronics Inc. Encoding/decoding method and apparatus using a skip mode
KR101966920B1 (ko) * 2012-07-10 2019-04-08 삼성전자주식회사 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치
US20140267616A1 (en) * 2013-03-15 2014-09-18 Scott A. Krig Variable resolution depth representation
WO2014163465A1 (ko) * 2013-04-05 2014-10-09 삼성전자 주식회사 깊이맵 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
GB2514557A (en) * 2013-05-28 2014-12-03 Snell Ltd Image processing
KR102135914B1 (ko) * 2013-11-29 2020-07-20 엘지디스플레이 주식회사 영상 데이터 처리 방법과 이를 이용한 멀티 뷰 무안경 입체 영상 표시장치
CN105631848B (zh) * 2014-10-31 2018-11-09 联想(北京)有限公司 一种信息处理方法和电子设备
WO2016202837A1 (en) 2015-06-16 2016-12-22 Koninklijke Philips N.V. Method and apparatus for determining a depth map for an image

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10276455A (ja) * 1997-03-28 1998-10-13 Sony Corp 映像表示方法および映像表示装置
WO1999003068A1 (en) * 1997-07-07 1999-01-21 Reveo, Inc. Method and apparatus for monoscopic to stereoscopic image conversion
JP2000502234A (ja) * 1995-12-22 2000-02-22 ゼノテック リサーチ プロプライエタリー リミテッド イメージ変換及び符号化技術
JP2001526477A (ja) * 1997-12-05 2001-12-18 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド 画像変換および符号化技術
WO2003005727A1 (en) * 2001-07-06 2003-01-16 Koninklijke Philips Electronics N.V. Methods of and units for motion or depth estimation and image processing apparatus provided with such motion estimation unit
JP2004520660A (ja) * 2001-05-23 2004-07-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 深度マップの計算

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
WO2004042662A1 (en) * 2002-10-15 2004-05-21 University Of Southern California Augmented virtual environments
WO2004107266A1 (en) * 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000502234A (ja) * 1995-12-22 2000-02-22 ゼノテック リサーチ プロプライエタリー リミテッド イメージ変換及び符号化技術
JPH10276455A (ja) * 1997-03-28 1998-10-13 Sony Corp 映像表示方法および映像表示装置
WO1999003068A1 (en) * 1997-07-07 1999-01-21 Reveo, Inc. Method and apparatus for monoscopic to stereoscopic image conversion
JP2001526477A (ja) * 1997-12-05 2001-12-18 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド 画像変換および符号化技術
JP2004520660A (ja) * 2001-05-23 2004-07-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 深度マップの計算
WO2003005727A1 (en) * 2001-07-06 2003-01-16 Koninklijke Philips Electronics N.V. Methods of and units for motion or depth estimation and image processing apparatus provided with such motion estimation unit

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009148038A1 (ja) 2008-06-06 2009-12-10 ソニー株式会社 立体視画像生成装置、立体視画像生成方法およびプログラム
US9507165B2 (en) 2008-06-06 2016-11-29 Sony Corporation Stereoscopic image generation apparatus, stereoscopic image generation method, and program
JP2013504089A (ja) * 2009-09-02 2013-02-04 サムスン エレクトロニクス カンパニー リミテッド バックライト・ユニット、ディスプレイ装置及びバックライト・ユニット制御方法
WO2011030399A1 (ja) * 2009-09-08 2011-03-17 株式会社 東芝 画像処理方法及び装置
JP4892113B2 (ja) * 2009-09-08 2012-03-07 株式会社東芝 画像処理方法及び装置
US8289376B2 (en) 2009-09-08 2012-10-16 Kabushiki Kaisha Toshiba Image processing method and apparatus

Also Published As

Publication number Publication date
CN1830217A (zh) 2006-09-06
US20060232666A1 (en) 2006-10-19
US7764827B2 (en) 2010-07-27
JP4644669B2 (ja) 2011-03-02
EP1654884A1 (en) 2006-05-10
WO2005013623A1 (en) 2005-02-10
KR20060119864A (ko) 2006-11-24
CN1830217B (zh) 2010-06-09
KR101038452B1 (ko) 2011-06-01

Similar Documents

Publication Publication Date Title
JP4644669B2 (ja) マルチビュー画像の生成
US8036451B2 (en) Creating a depth map
KR101168384B1 (ko) 깊이 맵을 생성하는 방법, 깊이 맵 생성 유닛, 이미지 처리 장치, 및 컴퓨터 프로그램 제품
JP4762994B2 (ja) 視差マップ
US8384763B2 (en) Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
JP2007520822A (ja) 奥行きマップの生成
KR101249236B1 (ko) 깊이 인식
EP2836985A1 (en) Generation of a depth map for an image
KR20090071624A (ko) 이미지 개선
WO2006003577A1 (en) Creating a depth map
Ceulemans et al. Efficient MRF-based disocclusion inpainting in multiview video
Doan et al. A spatial-temporal hole filling approach with background modeling and texture synthesis for 3D video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100630

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100707

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101206

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees