JP4485951B2 - 3次元ビデオ信号後処理方法 - Google Patents

3次元ビデオ信号後処理方法 Download PDF

Info

Publication number
JP4485951B2
JP4485951B2 JP2004546237A JP2004546237A JP4485951B2 JP 4485951 B2 JP4485951 B2 JP 4485951B2 JP 2004546237 A JP2004546237 A JP 2004546237A JP 2004546237 A JP2004546237 A JP 2004546237A JP 4485951 B2 JP4485951 B2 JP 4485951B2
Authority
JP
Japan
Prior art keywords
pixel
parallax map
video signal
processing method
digital video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004546237A
Other languages
English (en)
Other versions
JP2006513596A5 (ja
JP2006513596A (ja
Inventor
アウベルガー ステファン
ピカルド ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2006513596A publication Critical patent/JP2006513596A/ja
Publication of JP2006513596A5 publication Critical patent/JP2006513596A5/ja
Application granted granted Critical
Publication of JP4485951B2 publication Critical patent/JP4485951B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、視差マップに関連した複数の視野を有するデジタルビデオ信号後処理方法に関する。
そのような方法は、例えば、MPEG規格内の3次元ビデオアプリケーション用のビデオ通信システムに用いることができる。
3次元シーンと称される3次元ビデオ信号の大抵の表示は、深さマップ及び視差マップに依存する。一般に、互いに相違する視点に対応する所定の3次元シーンのイメージのセットから開始し、その各々は、可能な場合には深さマップやテクスチャのような互いに相違する関連の特徴とともに到来する。視点の深さマップは、グレースケールイメージであり、その画素はそれぞれ、シーンを撮影するカメラに対する距離を有する。単に視野とも称されるシーンの新たな視点を生成することを所望するとき、他の視点、その深さマップ、固有のカメラパラメータ、及びカメラがこの視点から他の視点に行くことによって経る変化のパラメータ(変位、回転、レンズの変更)が与えられた場合には、その一部の領域を演算することができる。このプロセスは「再構成」と称され、形成される新たな視点は、再構成視野(又は再構成イメージ)と称される。シーンのポイントPが両方の視点から見える場合、変換ベクトルは、新たな視点の画素座標を元の視点の画素座標から与える。これらベクトルは視差ベクトルと称される。文献”three dimensional computer vision − O. Faugeras MIT Press 1993”に開示されているような投影幾何学の結果は、視差マップの視差ベクトルと深さマップの深さ値との間の簡単な関係を確立する。
ビデオ信号の送信中、当業者に周知であるマルチビュー又はステレオ符号化形態は、一般に、所定の範囲の視点をカバーするのに必要なテクスチャ及び深さマップを圧縮によって符号化する。テクスチャを、損失符号化の場合には周知のアーティファクトを生じうる標準的な方法を用いて符号化できるのに対して、深さ(又は視差)符号化の場合は幾分扱いにくく、元の態様と視覚的に同様な態様を有する符号化された深さマップに対して、必ずしも同一の再構成特性を有することを意味しない。新たな視野発生プロセスにおいて、ポイント又は領域が(誤った視差ベクトルのために)誤った場所に変換されうる。これによってテクスチャが不連続になり、かかる不連続は、符号化されたマップの「視覚的な」態様が予測したものに比べて更に顕著になる。さらに、密集した深さマップは非常に大きなファイルとなり、深さマップのサイズを理想的な範囲(すなわち、テクスチャのビットレートの20%未満)に保持することを所望する場合には、損失圧縮をほとんど回避することができない。したがって、アーティファクト及び不適切な深さ/視差値を処理する必要があり、ビデオ信号の復号化後の後処理及び向上したアルゴリズムを設計する必要がある。
MPEG−4規格内では、深さマップを、(”Amendment 1: Visual extensions, ISO/IEC JTC 1/SC 29/WG 11 N 3056, December 1999”に記載されているような)複数補助素子ツール(Multiple Auxiliary Component tool (MAC))を用いて符号化することができ、この場合、当業者に周知な従来のルミナンスイメージ符号化と同様にブロックに基づいて符号化されたDCTとなる。存在するアーティファクトの特別な処理は提案されていないが、既に説明したように、テクスチャに良好であるが必ずしも深さマップに良好でない従来のMPEGツールが提案されている。したがって、例えば、テクスチャ再構成イメージでは、これによって分離テクスチャ画素沿いにファジィエッジが生じることがあり、さらに、二つの影響が、同一方向に動く視点間で時間的な整合性がない。
したがって、本発明の目的は、深さマップ(又は視差マップ)符号化アーティファクトを修正する、視差マップに関連した複数の視野を有するデジタルビデオ信号後処理方法を提供することである。
このために、請求項1に規定した方法が提供される。
分離された投影画素を除去することによって、投影された元の視差マップの関連のない値が除去されることを詳細に見ることができる。
本発明による方法の一例は、請求項2で規定したステップを具える。
本発明による方法の他の例は、請求項3で規定したステップを具える。
本発明による方法の他の例は、請求項4で規定したステップを具える。
本発明による方法の他の例は、請求項5で規定したステップを具える。
本発明による方法の他の例は、請求項6で規定したステップを具える。
ホール境界を包囲する投影画素を考慮することによって、本発明は、圧縮が原因の誤ったホール境界値からの誤った値での前記ホールのパディングを回避する利点を有する。
本発明による方法の他の例は、請求項7で規定したステップを具える。
これは、空間中で整合しない規定されていない値に対する補間を回避するという利点を有する。
本発明の他の目的、特徴及び利点を、以下の詳細な説明を読むとともに添付図面を参照しながら明らかにする。
対応する参照番号を、説明を通じて対応する素子に対して用いる。
以下の説明において、当業者に周知の機能又は構成を詳細に説明しない。その理由は、これらが不要な詳細において発明を不明瞭にするからである。
本発明は、デジタルビデオ信号の後処理方法に関する。
そのような方法は、MPEG4の3次元ビデオアプリケーション用のビデオ通信システム内で用いられる。
3次元ビデオ信号は、形状、テクスチャ、動きベクトル、視差マップ、深さマップ、色等の互いに相違する関連の特徴を有する複数の視点を具える。
ビデオ信号が送信されると、ビデオ信号が符号化される。符号化プロセス中、その互いに相違する特徴は符号化され、特に、視差マップ及び深さマップは、圧縮アルゴリズムが適用される。この圧縮によって、アーティファクトを有する劣化した視差マップ及び深さマップとなることがある。
ビデオ信号送信後、ビデオ信号が符号化され、全てのビデオ信号の視野は、復号化された視差の後処理を含むアルゴリズム中に再構成される。シーンの新たな視点を発生することを所望するとき、他の視点、深さマップ、固有のカメラパラメータ、及びカメラがこの視点から新たな視点に行くことによってベル変化のパラメータ(移動、回転、レンズ変更)が与えられた場合には、その一部の領域を計算することができる。
後処理方法は、他の視野からの新しい視野及び劣化した深さマップの再構成中、後に説明するように、深さマップが所定の変換(例えば、投影)を経て、疑わしい値(problematic value)の検出が元の復号化マップを用いるときに比べて容易になる、という事実に基づく。
先ず、深さと視差との間の一致(投影幾何学)が存在する場合、視差マップ上で作業を行う。例えば当業者に周知であるとともに文献”O. Faugeras, Three-dimensional computer vision, MIT Press, 1993”に記載されたエピ極線制約に従った元のステレオ対の修正によって、常に、全てが同一方向に従う視差ベクトルを有することができるので、水平方向の視差ベクトルを用いた方法(ビデオカメラの「平行ステレオ設定」(parallel stereo setting)の通常のケース)を説明する。当然、これに制約されるものではない。この場合において、視差ベクトルは単一の値として規定される。したがって、視差ベクトルを「視差値」とも称する。
以下、Iを、元のテクスチャ画像とし、Iを、新たに再構成した視野とする。dを、視差マップとし、d(x、y)を、画素(x,y)における視差値とする。新たな視野が元の視野の左側又は右側に存在するとともに(多少元の市やから離間した)所定の基線を有することは、係数αによって表現される。視野の各画素(x,y)に対して、以下の関係を有する。
(x,y)=I(x+α.d(x,y),y)
再構成プロセスを、複数の方法で行うことができ、(文献”Disparity field and depth map coding for multi-view 3D image generation, by D. Tzovaras, N. Grammalidis, G. Strinzis, Signal processing: Image Communication 11 (1998) page 205-230”に記載されたような)これらの方法のうちの通常の方法を、後に説明するような以下の主要ステップに分割することができる。
1.投影された視差マップの生成。
2.投影された視差マップのホール充填。
3.ホールが充填されている投影された視差マップに基づく最終的なI視野の生成。
再構成プロセスに基づいて、視点の後処理を以下のように行い、それを図1に示す。
第1ステップ1)において、投影された視差マップは、視点の下の視差マップから生成される。視野のN画素は、将来の視野の1画素に投影される。Nは任意の値をとることができる。
−画素が投影されない場合には、0。この場合、再構成された視野の対応する画素は、元の視野から妨害された新たな視野の部分(オクルージョン領域)に存在する。
−1画素のみがこの画素又はそれ以外に投影される場合には、1。元の視野の一部の画素が、再構成された視野の同一画素に対してこれらの画素を投影する視差値を有する。
したがって、視差視差値のリストは、将来の視野のこの画素に対応する。再構成された視野の各画素に対応するリストのセットは、投影された視差マップとなる。
主要な概念は、投影プロセスが連続的であるために投影された視差マップが多かれ少なかれ元の視差マップと同一の規則性を有する必要があることである。それは、元の視差マップがある程度不規則性を有する場合には投影された視差マップが同一の不規則性を有することも意味する。
各画素に投影されたポイントの数を考察する場合、ある種の規則性も存在する必要がある。特に、ホールの中間において、分離された投影画素が存在してはいけない。しかしながら、視差マップを復号化するのに用いられるDTC量子化プロセスのために、一部の画素値が変更され、一旦投影されると、これらの画素は、もはや元の包囲する画素に近接しない。そのような画素は、分離された投影画素(isolated projected pixel)と称される。図2からわかるように、同一値do1及びdo2を有する二つの画素領域を有する元の視差マップDoが存在する。投影された視差マップDpは、対応する二つの画素領域dp1,dp2を有するが、「ホール」の領域Hp1,Hp2を有する。
所定の圧縮アーティファクトのために、一部の画素は、誤ってこれらホール領域に投影されることがある。これらの画素は、分離画素(isolated pixel)と称される。
後処理方法は、第1フィルタ処理F1を用いることによってこれらの分離された投影画素を除去する。第1の制限されない実施の形態において、フィルタ処理は、以下のように行われる。投影された視差マップの各画素Ppに対して、ホールとして規定された包囲画素Ppsの数を計数する(「包囲画素」(surrounding pixel)の表記は、アプリケーションに依存する。それを、画素を中心に正方形、円形、矩形等の隣接部とすることができる。)。この数が、所定のしきい値T1を超える、例えば、隣接部に含まれる画素数の半分を超える場合には、考察される分離された画素は「ホール」としてセットされ、この画素に導く元の視差マップの任意の画素は、「誤った視差値」としてマークされる。
この第1の実施の形態を図3に示す。元の視差マップDoの第1の誤った画素Po2は、投影された視差マップDpの領域Dp2に対応する分離された投影画素Pp2を有する。元の視差マップDoの第2画素Po11及び第3画素Po12は、投影された視差マップDpの領域Dp1に同一の対応する分離された投影画素Pp1を有する。破線の窓は、ここではホールとして規定された、Pp2の包囲画素Ppsを規定し、これによって、Pp2は、分離された画素となる。同一のことはPp1に当てはまる。その結果、Pp1及びPp2並びにPo11及びPo12に対応する元の視差マップDoの画素はそれぞれ、「誤った値」としてセットされる。
そのようなフィルタ処理は、視差マップの量子化の予測される効果に対して好適である。その理由は、かかる量子化が圧縮の1ステップであるとともに視差マップのアーティファクトの原因の一つとなるからである。視差量子化エラーは、主に視差マップの先鋭エッジに生じ、この場合、(主にオブジェクト境界で)直線によって分離された互いに大幅に相違する二つのグレーレベルの均質領域(homogeneous area)が存在する。これらのほぼ同一の領域は、投影された視差マップに大きなホールを発生する領域であり、分離された「誤った視差値」を正確に示すのに適している。
第2の制限されない実施の形態において、フィルタ処理は以下のように行われる。投影された画素値の数に関連する限り、投影されたマップの他の分離された画素をチェックすることによって、誤った値を検出することもできる。分離された投影画素は、包囲画素の特徴に関連しない特徴を有する画素である。
例えば、3の値を含む画素が、2の値を含む画素によって包囲されている場合、それは、少なくとも一つの誤り値を含みそうである。このセットの値とそれに隣接するものとを比較することによって、リスト中の誤った値を検出することができる。
投影された視差マップの画素の値の数は、0とnとの間である(nは、元の視差マップに依存する。)。分離された画素の検出に要求される精度は、処理を所望するのはどの種類の分離された画素であるかを決定し、分離された画素は、ホールによって包囲され、2以上の値を有し、1の値のみを含む画素によって包囲され、等々。処理するケースが増加すると、視差マップの精度が増加するだけでなく、アルゴリズムを更にコンピュータに集約する。精度と効率との間のトレードオフは、所望されるアプリケーションの種類に依存する。
このフィルタ処理プロセスを向上させる方法は、係数αに対して互いに相違する値をチェックすることによるものであり、相することによって、更に多くの誤った値を検出することができる。係数αを変更する互いに相違する二つの方法がある。
・符号を変更することよって、投影方向を変更する。この方法を、視野内のオブジェクトの両側で強めることができる。例えば、視野が山を含み、「右投影」を行う場合、山の右側に対するホールをフィルタ処理し、「左」投影に対して、山の右側に対するホールをフィルタ処理する。
・大きさを変更することによって、視差の劣化を加速し、更に小さい大きさのために十分見えないものの一部を検出することができ、この場合、大きなホールを利用する。
αの互いに相違する値に対するフィルタ処理を実行することによって、検出効率が向上するが、複雑さが増大する。テストすべき値の数の選択もアプリケーションに依存する。
第2ステップ2)において、投影された視差マップのホールの充填がある。
再構成プロセス中、投影された視差マップ生成に続く第2ステップは、補間によるこの視差間マップのホールの充填からなる。一般に、最終的に再構成された視野において、ホールが(「実生活」で最も一般的なケースである)前景オブジェクトでははく背景に属するものに対応することを考察することによって、補間タイプが選択される。一例を以下で説明する。投影された視差範囲において、パッデイングプロセスを通じて、ホールの全ラインに亘ってホール境界視差値を繰り返す。パッデイングプロセスは、ホールに最も近くてホールの全ラインにパッドする境界視差値を取り出すことからなる。
いずれの場合にも、補間は、大幅にホール境界視差値に依存する。圧縮された(すなわち、劣化した)視差マップを用いるときの問題は、このパッデイングプロセスに対して用いられるホール境界値が圧縮アルゴリズムによって僅かに変更され、したがって、誤りが生じる場合があることであり、さらに、あるラインから他のラインに変化するに際し、パッデイングプロセスが、これらの誤った値に基づいて実行され、これは、ホールの全ラインに亘って伝播される。視覚的には、それは、再構成された視野において「ウォーンエッジ」(worn edge)と称するものを形成することができる。
本発明の方法によれば、ホール境界地に対して新たな特有の後処理フィルタF2が適用され、これによって、上記問題を回避する。それは、ホールの境界に適用され、ホールそれ自体には適用されない。
先ず、あるホールが、顕著な誤った補間値を導くのに十分大きくない場合(例えば、1画素幅のホール)、フィルタ処理は、所定の(アプリケーションに依存する)しきい値T2、例えば、3画素より大きいホールの境界のみに対して行われる。
その後、これら選択された全てのホールHに対して、図4に示すように、(当然ホールを除く)投影された包囲画素値を考慮しながら、中間値フィルタ処理が境界画素値で実行される。
図4の例において、投影された視差マップDpは二つの領域を具え、一方は画素Pを有し、他方はホールHを有する。
ホールH1は、投影された視差マップDpで選択される。(ホールでない)画素値の窓Wは、考察されるホールH1の境界画素値Vk1の周辺で取り出される。一旦、窓W内の全ての画素値が格納されると、中間値が取り出され、境界画素値Vk1を置換する。
画素値Vk1が中間値フィルタ処理を通じて変更された後、規則的なパディングプロセスは、新たな画素値Vk1によってホールH1それ自体で実行される。
この中間値フィルタ処理によって境界画素値に変化が生じる場合、元の視差マップの境界画素値は、それに応じて誤った値としてマークされ、新たな値Vk1が割り当てられる場合にホールH1の境界画素に投影された元の視差マップの画素は、新たな値Vk1が割り当てられる。これらの変更を、(既に説明したように符号又は大きさが変化するときに)αに対して互いに相違する値を用いるときに行うこともできる。
例えば、投影された視差マップDpの選択されたホールの境界画素は、値10を有する画素番号11である。元の視差マップD0の対応する画素は、値10を有する画素番号1である。境界画素番号11の中間値フィルタ処理後、新たな値は5となる。したがって、元の視差マップDoの対応する画素番号1は、「誤った」値を取り出す。さらに、新たな値5が割り当てられる場合に境界画素番号11に投影される元の視差マップDoの画素は、新たな値5が割り当てられる。実際には、元の視差マップDoの画素番号6は、値5が割り当てられる。
第3ステップ3)において、最終的な調整が好適に実行される。それは、ライン上の中間値フィルタ処理F3による投影視差マップの調整からなる(これによって、投影された視差は、更に規則的になるとともに、以前のフィルタ処理によって検出することができなかった不規則性を円滑にする。その理由は、例えば、それらは、視差の大きな不連続の付近に配置されていないからである。)。以前の通り、あり得る変化は、元の視差マップに変換されえる。
第4ステップ4)において、最終的な視野Iを、ホールが充填された投影視差マップに基づいて生成する。
既に説明した互いに相違する処理ステップは、投影された視差領域で実行された。したがって、第1の制限されていない実施の形態において、最終的に再構成された視野R_VIEWを、文献”Display field and depth map coding for multi-view 3D image generation, by D. Tzovaras, N. Grammalidis, G. Strinzis, Signal Processing: Image Communication 11 (1998) pages 205-230”に記載されたような当業者には周知のこのフィルタ処理された投影視差マップから生成することができる。
第2の制限されていない実施の形態において、再構成された視野は、後に説明するように元の視差マップの変形から生成される。
ステップ1及び2の種々のフィルタ処理プロセス中、画素が投影視差マップにおいて変形され又は「誤った視差値」としてラベルを付されると常に、元の視差マップは、マークされ及び変形されるとともに、上記のように記載される。したがって、これら変形され又はラベル付けされた画素は、元の視差マップに変換される。
規定されていない値WV又は「誤った視差値」のリストが取得される。
このリストは、最終的に向上した視差マップを取得するために「ホール充填」手順中に置換する必要がある。それを行う更に信頼性のある手順は、次の通りである。
規定されていない値を有する復号化された元の視差マップ、すなわち、変形された元の視差マップは、ライン上で走査される。規定されていない値を満たすために、規定されていない値の境界画素値の一つがコピーされる。一般に、選択すべきあり得る二つの境界画素値候補が存在し、一方は、規定されていない値を有する画素の左に存在し、他方は、規定されていない値を有する画素の右に存在する。一つの選択は、共一次補間又は最近傍補間を用いることであるが、ホールのサイズが可変であるために、補間が空間中で一致しないことがある。したがって、好適には、復号化された元の視差マップの元の画素に対して最も近い値を有する境界画素が選択される。圧縮によって元の非圧縮値が実際には1ビットしか変化していないとしても、最終的な値は、一般的には同一オブジェクトの包囲画素に更に近くなり、取得される後処理された視差マップは、圧縮されていない元のものに近くなる(この種の補間によって実験結果は更に良好になった。)。
図5に示すように、元の復号化視差マップDco及び規定されていない値を有する変形された元の復号化視差マップDccoを見ることができる。後者の視差マップDccoにおいて、修正する必要がある一つの規定されていない値WV1を見ることができる。それは、元の復号化視差マップDcoの画素Pco1に対応する。規定されていない値WV1に対して二つの境界画素候補Ps1及びPs2が存在する。Ps1は、元の復号化視差マップDcoの対応する元の画素Pco1から最も近い値を有する画素である。上記画素Ps1は、規定されていない値WV1を置換する。
一旦補間が行われると、元の非圧縮視差マップに近い修正視差マップが生成される。そのようなマップを生成する利点は、以下の二つである。
・修正視差マップを、視野再構成プロセスに対しても使用することができる。アーティファクトがこの修正視野マップから除去されるので、修正視差マップを、(推測によれば調整ステップ3を除いて更にフィルタ処理する必要なく)最終的な再構成に使用することができる。修正視差マップは、投影された視差マップを用いる場合に比べて良好な再構成視野を与える。
・生成された修正マップは、一般的に著しくシャープであり、異常な値を有しなく、これによって、当業者に周知の合成やZキーイングのような深さ/視差値に基づく他のアプリケーションに対して更に適切になる。
本発明は、上記実施の形態に限定されるものではなく、添付した請求の範囲に規定したような本発明の範囲を逸脱することなく変更及び変形を行うことができる。これに関連して、以下で結びの言及を行う。
本発明は、上記ビデオアプリケーションに限定されない。本発明を、圧縮視差マップを考慮する信号を処理するシステムを用いる任意のアプリケーション内で用いることができる。特に、本発明は、視差マップ符号化に適用する場合には、他のMPEG規格ファミリー(MPEG−1,MPEG−2)のビデオ圧縮アルゴリズム及びITU H26Xファミリー(H261,H263及びその拡張。H261が今日では最新である。参照番号Q15−K−59)に適用される。
本発明による方法は、上記の実現に限定されるものではない。
ハードウェア又はソフトウェアの単一アイテムが複数の機能を事項できる場合には、ハードウェア、ソフトウェア又はその両方のアイテムによって本発明による方法の機能を実現する複数の方法がある。それは、ハードウェア、ソフトウェア又はその両方のアイテムのアッセンブリが機能を実行することを除外するものではなく、したがって、本発明によるビデオ信号後処理方法を変更することなく単一機能を形成する。
上記ハードウェア又はソフトウェアのアイテムを、有線電子回路又は適切にプログラムされた集積回路によるような複数の方法で実現することができる。集積回路を、コンピュータ又はデコーダに含めることができる。後者の場合、デコーダは、既に説明したように、ビデオ信号後処理方法のステップ1,2,3及び4を実行する手段を具え、その手段を、既に説明したようなハードウェア又はソフトウェアとする。
集積回路は、命令のセットを具える。したがって、例えば、コンピュータプログラミングメモリ又はデコーダメモリに含まれる命令のセットによって、コンピュータ又はデコーダは、後処理方法の互いに相違するステップを実行することができる。
命令のセットを、ディスクのようなデータ担体を読み出すことによってプログラミングメモリにロードすることができる。サービスプロバイダは、インターネットのような通信ネットワークを通じて利用できる命令のセットを作成することができる。
動詞「具える」及びその接続詞の使用は、任意の請求項に規定したもの以外のステップ又は素子の存在を除外するものではない。素子又はステップは、複数の素子又はステップの存在を除外するものではない。
本発明によるビデオ信号後処理方法の線形図である。 図1のビデオ信号後処理方法の第1ステップによって生成された、投影視差マップのホールを示す。 図1のビデオ信号後処理方法の第1ステップ中の投影視差マップのホールのフィルタ処理を示す。 図1のビデオ信号後処理方法の第2ステップ中の投影視差マップのホールのフィルタ処理を示す。 図1のビデオ信号後処理方法の第3ステップ中の規定されていない画素値のフィルタ処理を示す。

Claims (12)

  1. 視差マップに関連した複数の視野を有するデジタルビデオ信号後処理方法において、元の視差マップから、投影される視差マップを生成する第1ステップと、前記投影された視差マップ内のホールをフィルタ処理する第2ステップとを具え、前記第1ステップが、前記投影された視差マップ上の孤立投影画素を第1フィルタ処理によって除去するサブステップを具えることを特徴とするデジタルビデオ信号後処理方法。
  2. 前記第1フィルタ処理が、ホールによって包囲される孤立投影画素の選択によって実行されることを特徴とする請求項1記載のデジタルビデオ信号後処理方法。
  3. 前記第1フィルタ処理が、包囲される画素の特徴に関連しない特徴を有する孤立投影画素の選択によって実行されることを特徴とする請求項1記載のデジタルビデオ信号後処理方法。
  4. 前記第1フィルタ処理を、投影された視差マップの両方の投影方向に適用することを特徴とする請求項2又は3記載のデジタルビデオ信号後処理方法。
  5. 前記第1フィルタ処理が、前記視差マップの投影の大きさを変更することを特徴とする請求項2又は3記載のデジタルビデオ信号後処理方法。
  6. 選択した前記孤立投影画素をホールとして設定し、これら選択した投影画素となる前記元の視差マップの対応する画素を誤りとしてマークして、変更した元の視差マップとすることを特徴とする請求項1から5のうちのいずれか1項に記載のデジタルビデオ信号後処理方法。
  7. 前記第2ステップが、
    − しきい値より大きいホールを選択するステップと、
    − 選択したホールの選択した境界画素値を、前記ホールの境界画素値の包囲する投影画素を考慮しながら中間値フィルタ処理するステップと、
    − 前記ホールを、前記中間値フィルタ処理の結果を用いてパディングするステップとを具えることを特徴とする請求項1から6のうちのいずれか1項に記載のデジタルビデオ信号後処理方法。
  8. 選択した境界画素が前記フィルタ処理から新たな値を選択すると、選択した前記境界画素となる前記元の視差マップの対応する画素を誤りとしてマークし、前記新たな値を有する境界画素に対応する元の視差マップの画素に前記新たな値を割り当てて、変更した元の視差マップとすることを特徴とする請求項7記載のデジタルビデオ信号後処理方法。
  9. 前記変更した元の視差マップの誤った画素を、前記元の視差マップの元の画素に最も近い値を有する境界画素値の一つによってフィルタ処理する第3ステップを更に具えることを特徴とする請求項6又は8記載のデジタルビデオ信号後処理方法。
  10. 視野を、前記変更した元の視差マップから再構成することを特徴とする請求項9記載のデジタルビデオ信号後処理方法。
  11. デコーダ用のコンピュータプログラムであって、前記デコーダにロードされると前記デコーダが請求項1〜10の方法を実行する命令のセットを具えることを特徴とするコンピュータプログラム。
  12. コンピュータ用のコンピュータプログラムであって、前記コンピュータにロードされると前記コンピュータが請求項1〜10の方法を実行する命令のセットを具えることを特徴とするコンピュータプログラム。
JP2004546237A 2002-10-23 2003-10-01 3次元ビデオ信号後処理方法 Expired - Fee Related JP4485951B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP02292623 2002-10-23
PCT/IB2003/004363 WO2004039086A2 (en) 2002-10-23 2003-10-01 Method for post-processing a 3d digital video signal

Publications (3)

Publication Number Publication Date
JP2006513596A JP2006513596A (ja) 2006-04-20
JP2006513596A5 JP2006513596A5 (ja) 2010-02-12
JP4485951B2 true JP4485951B2 (ja) 2010-06-23

Family

ID=32116329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004546237A Expired - Fee Related JP4485951B2 (ja) 2002-10-23 2003-10-01 3次元ビデオ信号後処理方法

Country Status (7)

Country Link
US (1) US7224355B2 (ja)
EP (1) EP1574079B1 (ja)
JP (1) JP4485951B2 (ja)
KR (1) KR100960294B1 (ja)
CN (1) CN100584039C (ja)
AU (1) AU2003263557A1 (ja)
WO (1) WO2004039086A2 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE430422T1 (de) * 2004-04-30 2009-05-15 Research In Motion Ltd System und verfahren zum administrieren einer digitalen zertifikatprüfung
KR100603601B1 (ko) * 2004-11-08 2006-07-24 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
US8270768B2 (en) * 2005-01-12 2012-09-18 Koninklijke Philips Electronics N. V. Depth perception
KR101244911B1 (ko) * 2005-10-11 2013-03-18 삼성전자주식회사 카메라 파라미터를 이용한 다시점 동영상 부호화 및 복호화장치 및 방법과 이를 수행하기 위한 프로그램이 기록된기록매체
WO2007047736A2 (en) * 2005-10-19 2007-04-26 Thomson Licensing Multi-view video coding using scalable video coding
WO2007052216A1 (en) * 2005-11-04 2007-05-10 Koninklijke Philips Electronics N.V. Rendering of image data for multi-view display
US8624964B2 (en) 2005-12-02 2014-01-07 Koninklijke Philips N.V. Depth dependent filtering of image signal
KR100747598B1 (ko) * 2005-12-09 2007-08-08 한국전자통신연구원 디지털방송 기반의 3차원 입체영상 송수신 시스템 및 그방법
US7683910B2 (en) * 2006-06-29 2010-03-23 Microsoft Corporation Strategies for lossy compression of textures
US7714873B2 (en) * 2006-06-29 2010-05-11 Microsoft Corporation Strategies for compressing textures
GB2445982A (en) * 2007-01-24 2008-07-30 Sharp Kk Image data processing method and apparatus for a multiview display device
WO2009011492A1 (en) * 2007-07-13 2009-01-22 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image
WO2009023156A2 (en) * 2007-08-15 2009-02-19 Thomson Licensing Method and apparatus for error concealment in multi-view coded video
KR100918862B1 (ko) * 2007-10-19 2009-09-28 광주과학기술원 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체
FR2932911A1 (fr) * 2008-06-24 2009-12-25 France Telecom Procede et dispositif de remplissage des zones d'occultation d'une carte de profondeur ou de disparites estimee a partir d'au moins deux images.
EP2308232B1 (en) 2008-07-20 2017-03-29 Dolby Laboratories Licensing Corp. Encoder optimization of stereoscopic video delivery systems
EP2316109B1 (en) 2008-07-28 2017-12-13 Koninklijke Philips N.V. Use of inpainting techniques for image correction
WO2010025458A1 (en) * 2008-08-31 2010-03-04 Mitsubishi Digital Electronics America, Inc. Transforming 3d video content to match viewer position
KR100940833B1 (ko) * 2009-01-02 2010-02-04 김일용 보행시 공기통풍 및 운동효과를 갖는 기능성 신발의 밑창과중창의 결합구조
JP5647242B2 (ja) * 2009-07-27 2014-12-24 コーニンクレッカ フィリップス エヌ ヴェ 3dビデオ及び補助データの結合
KR101626057B1 (ko) * 2009-11-19 2016-05-31 삼성전자주식회사 3뷰 영상의 디스패리티 추정 방법 및 장치
US8488870B2 (en) * 2010-06-25 2013-07-16 Qualcomm Incorporated Multi-resolution, multi-window disparity estimation in 3D video processing
WO2012063540A1 (ja) * 2010-11-12 2012-05-18 シャープ株式会社 仮想視点画像生成装置
US8773427B2 (en) * 2010-12-22 2014-07-08 Sony Corporation Method and apparatus for multiview image generation using depth map information
US20120162394A1 (en) * 2010-12-23 2012-06-28 Tektronix, Inc. Displays for easy visualizing of 3d disparity data
US9582928B2 (en) 2011-01-13 2017-02-28 Samsung Electronics Co., Ltd. Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
CN103416059A (zh) * 2011-03-18 2013-11-27 索尼公司 图像处理设备,图像处理方法和程序
EP2547111B1 (en) 2011-07-12 2017-07-19 Samsung Electronics Co., Ltd. Method and apparatus for processing multi-view image using hole rendering
US8817073B2 (en) * 2011-08-12 2014-08-26 Himax Technologies Limited System and method of processing 3D stereoscopic image
KR20130057764A (ko) * 2011-11-24 2013-06-03 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
JP6167525B2 (ja) * 2012-03-21 2017-07-26 株式会社リコー 距離計測装置及び車両
US9076249B2 (en) 2012-05-31 2015-07-07 Industrial Technology Research Institute Hole filling method for multi-view disparity maps
TWI547904B (zh) * 2012-05-31 2016-09-01 財團法人工業技術研究院 多視角視差圖的補洞方法
DE102012209316A1 (de) * 2012-06-01 2013-12-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
US9237326B2 (en) * 2012-06-27 2016-01-12 Imec Taiwan Co. Imaging system and method
US9117290B2 (en) * 2012-07-20 2015-08-25 Samsung Electronics Co., Ltd. Apparatus and method for filling hole area of image
RU2535183C1 (ru) * 2013-07-25 2014-12-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС") Устройство предобработки карты глубины стереоизображения
US9756312B2 (en) 2014-05-01 2017-09-05 Ecole polytechnique fédérale de Lausanne (EPFL) Hardware-oriented dynamically adaptive disparity estimation algorithm and its real-time hardware
CN109242901B (zh) * 2017-07-11 2021-10-22 深圳市道通智能航空技术股份有限公司 应用于三维相机的图像校准方法和装置
US11535545B2 (en) 2020-02-07 2022-12-27 Mcfadden Engineering, Inc. Anaerobic and aerobic treatment system and process for landfill wastewater

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5982390A (en) * 1996-03-25 1999-11-09 Stan Stoneking Controlling personality manifestations by objects in a computer-assisted animation environment
US6084979A (en) * 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
WO2000034919A1 (en) * 1998-12-04 2000-06-15 Interval Research Corporation Background estimation and segmentation based on range and color
US7224357B2 (en) * 2000-05-03 2007-05-29 University Of Southern California Three-dimensional modeling based on photographic images
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
GB0125774D0 (en) * 2001-10-26 2001-12-19 Cableform Ltd Method and apparatus for image matching

Also Published As

Publication number Publication date
WO2004039086A2 (en) 2004-05-06
WO2004039086A3 (en) 2005-12-01
US7224355B2 (en) 2007-05-29
KR20050061550A (ko) 2005-06-22
EP1574079B1 (en) 2013-03-13
AU2003263557A1 (en) 2004-05-13
CN100584039C (zh) 2010-01-20
CN1799266A (zh) 2006-07-05
JP2006513596A (ja) 2006-04-20
US20060082575A1 (en) 2006-04-20
EP1574079A2 (en) 2005-09-14
KR100960294B1 (ko) 2010-06-07

Similar Documents

Publication Publication Date Title
JP4485951B2 (ja) 3次元ビデオ信号後処理方法
JP2006513596A5 (ja)
JP6633694B2 (ja) 多視点信号コーデック
US10070115B2 (en) Methods for full parallax compressed light field synthesis utilizing depth information
JP5932332B2 (ja) 画像補正に対する修復技術の使用
JP5351038B2 (ja) 画像データ及び深度データの組合せを処理する画像処理システム
EP1991958B1 (en) Directional hole filling in images
EP2991347B1 (en) Hybrid video coding supporting intermediate view synthesis
US20110261050A1 (en) Intermediate View Synthesis and Multi-View Data Signal Extraction
CN110830802A (zh) 基于机器学习的视频压缩
KR20100095420A (ko) 깊이-맵을 프로세싱하는 방법 및 디바이스
US5696551A (en) Three-dimension picture coding system
JP7477528B2 (ja) 点群の処理
JP4796072B2 (ja) 画像セグメンテーションに基づく画像レンダリング
KR101008525B1 (ko) 디지털 비디오 시퀀스 인코딩 방법, 인코더용 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체, 컴퓨터용 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체, 디지털 비디오 시퀀스를 인코딩하는 인코더 및 비디오 통신 시스템
US11989919B2 (en) Method and apparatus for encoding and decoding volumetric video data
Pająk et al. Perceptual depth compression for stereo applications
KR102636044B1 (ko) 뷰 합성
Amado Assuncao et al. Spatial error concealment for intra-coded depth maps in multiview video-plus-depth
Robert et al. Disparity-compensated view synthesis for s3D content correction
Cai et al. Intermediate view synthesis based on edge detecting
Jin et al. Framework of contour based depth map coding system
Do et al. Warping error analysis and reduction for depth-image-based rendering in 3DTV
Jovanov et al. Wavelet-based stereo images reconstruction using depth images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060928

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061116

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090624

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091110

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20091110

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20091218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100325

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees