JP5011319B2 - 画像における指向性の穴埋め - Google Patents

画像における指向性の穴埋め Download PDF

Info

Publication number
JP5011319B2
JP5011319B2 JP2008556879A JP2008556879A JP5011319B2 JP 5011319 B2 JP5011319 B2 JP 5011319B2 JP 2008556879 A JP2008556879 A JP 2008556879A JP 2008556879 A JP2008556879 A JP 2008556879A JP 5011319 B2 JP5011319 B2 JP 5011319B2
Authority
JP
Japan
Prior art keywords
pixel
pixel values
region
values
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008556879A
Other languages
English (en)
Other versions
JP2009528747A (ja
Inventor
フンネヴィーク レイニール ビー エム クレイン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009528747A publication Critical patent/JP2009528747A/ja
Application granted granted Critical
Publication of JP5011319B2 publication Critical patent/JP5011319B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/49Analysis of texture based on structural texture description, e.g. using primitives or placement rules

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像処理に関し、より詳細には、画像内の割り当てられていないピクセル位置へのピクセル値の割り当てに関する。
互換性のある二次元表示機上に、画像系列を含むビデオ情報を表示する際の奥行き知覚の提供は、関心の高まっている分野である。奥行き知覚を提供する可能な方法は、互いに少し離れた2つの位置から見た同じ場面の少なくとも2つの画像を、閲覧者に提示することによるものである。2つの異なる位置から見た同じ場面の対象物の明らかな変位又は明らかな方向の違いは、視差と呼ばれている。視差によって、当該閲覧者は、場面における対象物の深さを知覚することが可能になる。異なる仮想位置から見た同じ場面の複数の画像は、二次元画像の各ピクセル値に関する深さデータと一緒に供給される二次元画像の変換によって得られることができる。当該場面の各点に対して、前記点の、前記画像捕捉装置まで、他の基準点まで、又は投影スクリーンのような平面までの距離が、ピクセル値に加えて捕捉される。このような形式は、通常、2.5次元(画像+深さ)ビデオ形式と称されている。
2.5次元ビデオ形式を、異なる位置から見た複数の画像に変換する場合、或る出力ピクセルに対して、入力データが利用可能でないことが起こり得る。従って、これらの出力ピクセルは、自身のピクセル位置に割り当てられる如何なる確定値も有していない。これらの割り当てられていないピクセル値が、変換された画像において「穴」と呼ばれるアーチファクトを生じる。本明細書において、「穴」又は「ピクセルが割り当てられていない領域」なる語は、区別無く、割り当てられていないピクセル値のピクセル位置を含む領域を参照するのに使用される。穴の不利な視覚効果は、閉塞領域内で更に目立つ。ビデオ情報内の閉塞及び非閉塞領域は、背景領域に対する前景対象物の動きによって生じる。深さデータにおける不連続性は、典型的には、前景から背景への遷移において生じ、前記背景の非閉塞を生じ、この結果、変換された複数の画像における穴を生じる。穴埋めアルゴリズムが、これらのアーチファクトを克服するために使用されることができる。
穴は、前方向の動き補償を使用する良く知られているビデオ圧縮手法によってエンコードされた画像系列を含む二次元ビデオ情報のデコードされた出力においても生じ得る。このようなビデオ圧縮方式において、フレーム内のピクセルの領域は、前のフレームのピクセルの投影されている領域から予測される。これは、シフト動き予測方式と呼ばれる。この予測の方式において、一部の領域は、重複し、一部の領域は、前記フレーム内の対象物の動きによって、ばらばらにされる。このばらばらの領域におけるピクセル位置は、確定したピクセル値を割り当てられていない。従って、画像系列を含む二次元ビデオ情報のデコードされた出力において、穴が生じる。更に、背景及び前景が別個に符号化される対象物ベースのビデオエンコード手法(例えば、MPEG−4)において、参照されていない領域が、前記背景内に存在し得て、穴を生じる。穴埋めアルゴリズムは、これらのアーチファクトを克服するために使用されることができる。
穴埋めのための幾つかのアルゴリズムは、C. Fehnによる記事「三次元テレビジョン装置における新しい取り組みのための深さ‐画像ベースのレンダリング(DIBR)、圧縮及び伝送」(SPIE立体表示機及び仮想現実感システムの会報XI、93-104頁、San Jose、CA、USA 2004年1月)において議論されている。議論されている前記アルゴリズムは、場面の前景と背景との間の線形的な色の内挿、場面の背景の簡単な外挿、及び閉塞領域の境界に沿った背景の色情報のミラーリングを含む。適切なガウスフィルタによる深さ情報の平滑化も、提案されている。これらの技術の全ては、明らかに、表示されている画像における視覚の歪み量の変化を生じる。
表示されている画像においてあまり視覚歪みを生じない画像内の穴埋めの方法を提供することが望ましい。
従って、穴埋め、即ち画像内の割り当てられていないピクセル値のピクセル位置を含む領域におけるピクセル値の割り当ての方法において、第1ピクセル位置は、割り当てられていないピクセル値の領域に隣接している第1近傍内で選択される。前記第1ピクセル位置を含む第2近傍も、選択される。前記第1ピクセル位置に対する画像フィーチャの方向は、前記第2近傍からの第1集合のピクセル値を使用して推定される。第2集合のピクセル値は、前記第1ピクセル位置から推定された方向におけるピクセル位置から選択される。第3集合のピクセル値は、
第2集合のピクセル値から計算される。少なくとも、割り当てられていないピクセルのピクセル位置を含む領域の一部は、前記第3集合のピクセル値を使用することによってピクセル値を割り当てられる。
表示されている画像において視覚歪みをあまり生じない画像における穴埋めのための画像処理装置を提供することも、望ましい。
従って、穴埋め、即ち画像内の割り当てられていないピクセル値のピクセル位置を含む領域におけるピクセル位置へのピクセル値の割り当てのための装置が、提供される。前記装置は、第1セレクタ、第2セレクタ、推定器、第3セレクタ、第1プロセッサ及び第2プロセッサを有している。前記第1セレクタは、割り当てられていないピクセル値の領域に隣接している第1近傍における第1ピクセル位置を選択する。前記第2セレクタは、前記第1ピクセル位置を含む第2近傍を選択する。前記推定器は、前記第2近傍の第1集合のピクセル値を使用して、前記第1ピクセル位置に対する画像フィーチャの方向を推定する。前記第3セレクタは、前記第1ピクセル位置から推定された方向におけるピクセル位置から第2集合のピクセル値を選択する。前記第1プロセッサは、第2集合のピクセル値から第3集合のピクセル値を計算する。前記第2プロセッサは、前記第3集合のピクセル値を使用して、少なくとも、割り当てられていないピクセル値のピクセル位置を有する領域の一部のピクセル位置に、ピクセル値を割り当てる。
一連の画像を表現する信号を受信する受信機と、前記一連の画像を表示するための表示装置とを含む穴埋めのための画像処理装置を提供することも好ましい。
従って、一連の画像を表現する信号を受信する受信機と、穴埋め、即ち前記一連の画像に属する少なくとも1つの画像内の割り当てられていないピクセル値のピクセル位置を有する領域内のピクセル位置へのピクセル値の割り当てのための装置とを含む画像処理装置が、提供される。前記画像処理装置は、前記一連の画像を表示する表示装置を含んでいる。
変位された画像内に視覚歪みをあまり生じない画像における穴埋めのための符号化手段を含むコンピュータプログラムを提供することも望ましい。
従って、開示される当該方法の全てによる穴埋め、即ち画像内の割り当てられていないピクセル値のピクセル位置を有する領域における又はピクセル位置へのピクセル値の割り当てのためのプログラム符号化手段を有するコンピュータプログラムが、提供される。
画像内の割り当てられていないピクセル値のピクセル位置を有する領域内のピクセル位置にピクセル値を割り当てる方法及び装置のこれら及び他の見地は、以下で記載される実施化及び実施例を参照し、添付図面を参照して、明らかになり、説明されるであろう。これらの図は、開示される方法及び装置の多くの例のうちの一つの模式的な表現である。
図1は、割り当てられていないピクセル値のピクセル位置を含む領域110と関連する近傍とを有する一例の画像100である。当該一例の画像は、更に、領域110の第1近傍130から選択された第1ピクセル120、第1ピクセル位置120に対する画像フィーチャ160の推定された方向140と、これらのピクセル値が推定の方向140において使用されている第2近傍150とを示している。2.5次元画像データを変換する場合、閉塞領域における深さデータの不連続性は、領域110が生じる原因の1つとなり得る。領域110は、例えば、ステレオペアからの10個の多視点画像の集合の計算のような、少ない数の多視点画像から多視点画像の集合を計算する場合に生じ得る。領域110は、例えば、MPEG−4のような、良く知られているビデオ圧縮方式における対象物ベースの符号化方式又はシフト動き予測方式の結果としても生じ得る。領域110は、穴とも呼ばれ得る。穴110は、一般に、描画されている画像における視覚アーチファクトを生じるランダム又はゼロピクセル値を含んでいる。
第1近傍130は、ここから選択される第1ピクセル位置120が、実質的に閉じており、遷移領域内のピクセルを回避するように穴110の境界から十分に離れているように、選択される。この例において、第1近傍130は、穴110の周囲の周りの幾つかのピクセル幅の狭い細片として示されている。前景対象物が背景領域に対して動いている場合、第1近傍130は、前記背景領域のみから選択される。場面における前景及び背景領域が、既に識別されていることが仮定されている。画像フィーチャ160とは、例えば、画像100内に存在する線形フィーチャ又はテクスチャフィーチャのような、代表的なフィーチャである。第1ピクセル位置120に対する画像フィーチャ160の方向140は、第2近傍150内の第1集合のピクセル値を使用して推定される。第2近傍150内の第1集合のピクセル値は、穴110の割り当てられていないピクセル値を除外することによって選択される。前記第2近傍150は、第1近傍130とも重複し得て、穴110とも重複し得ることに留意されたい。
図2は、一例の画像100の一部150の拡大図である。第1領域210及び幾つかの候補領域220、230、240も、示されている。これらの候補領域は、第1ピクセル120に対する画像フィーチャ160の方向140の推定において使用される。第1領域210は、第1ピクセル位置120を含み、穴110と重複しているように示されている。複数の候補領域220、230、240は、第1領域210に隣接しており、第2近傍150内に位置されている。第1領域210及び候補領域220、230、240は、互いに、隣接している、重複している又はばらばらになっていても良い。これらの領域の形状は、示されている正方形に限定される必要はない。幾つかの形状、例えば、長方形又は前記画像内の対象物に対応した不規則な形状が、可能である。示されている例において、画像のフィーチャ140は、第1領域210内と、候補領域のうちの1つ230内とに存在する。候補領域230の位置は、近傍150内のピクセル値から決定される。
図3は、画像内の穴埋めの方法300を示すフローチャートである。割り当てられていないピクセル値の1つ以上の領域を含む画像100が、開始ステップ301において利用可能にされる。第1ピクセル位置120は、第1ステップ310において第1近傍130内で選択される。次のステップ320において、第2近傍150が、第1ピクセル位置120を含むように選択される。第2近傍150は、画像フィーチャ160(例えば、画像内のテクスチャ又は線形フィーチャ)の方向140を識別する及び推定するのが可能であるように選択される。画像フィーチャ160の方向140は、次のステップ330において、第2近傍150のピクセル値から推定される。方向の推定の詳細は、図4の記載において説明されるであろう。次のステップ340において、第2集合のピクセル値が、推定された方向140において選択される。選択されたピクセルの連続した順序は、次の使用のために保持される。ステップ350において、第3集合のピクセル値が、前記第2集合のピクセル値から計算される。前記実施例の1つにおいて、前記第3集合のピクセル値は、前記第2集合のピクセル値の値を内挿することによって得ることができる。他の実施例において、前記第3集合のピクセル値は、前記第2集合のピクセル値の値から外挿されることができる。前記第2集合及び前記第3集合内のピクセルの数は、同じである必要はない。ピクセル値の集合をピクセル値の他の集合から導出する多くのよく知られている内挿技術の1つ(例えば、多項式曲線近似)が、適用されることができる。領域110の一部は、次のステップ360において、前記第3集合のピクセル値から得られたピクセル値を割り当てられる。前記実施例の1つにおいて、画像フィーチャ160の方向140におけるピクセル値は、領域110を埋めるように拡張される。前記第1ピクセル位置に関して前記画像フィーチャの拡張された方向にあるピクセル位置は、第3集合のピクセル値を使用して埋められる。前景対象物が、背景領域に対して動いている場合、前記前景対象物は、前記背景領域の所定の領域を晒す。このような場合において作られる前記穴は、典型的には、前記背景領域から得られた前記ピクセルによって埋められる。前記画像フィーチャの連続性は、拡張された方向に知覚され、視覚歪みは、最小化される。前記実施例の1つにおいて、前記推定された方向からのピクセル値は、領域110内の前記割り当てられていないピクセル位置を埋めるために逆順(ミラーリング)で使用される。提案されている実施例から得られる結果は、横又は縦方向のような固定された方向において選択されたピクセル値のにじみ又は外挿若しくは内挿よりも良好である。ステップ310−360は、前記第1近傍内の複数の選択された第1ピクセルに対して繰り返され、当該穴は、徐々に埋められる。制御ステップ370は、領域110が完全に埋められるまで、方法300が繰り返されることを保証するために設けられている。制御ステップ370は、ピクセル値が割り当てられていない前記領域の全てが、前記実施例の1つによって適切なピクセル値によって埋められることも保証する。幾つかの隔離されたピクセル位置は、デジタルグリッド内の方向の表現によって生じるエラーにより、いまだ、割り当てられていないこともあり得る。最も隣接しているものからのピクセル値は、このような隔離されているピクセルを埋めるのに使用されることができる。割り当てられていないピクセル値の前記領域内が適切なピクセル値によって埋められた後、画像100は、方法300の出力371において利用可能にされる。
背景領域に対する前景対象物の動きによって生じる閉塞領域内の穴を埋めるために、前記前景対象物は、最初に、識別されなければならない。3Dディスプレイ用のフレームを描画している間、前記前景/背景情報は、深さマップ及び描画アルゴリズムから得られることができる。動き補償されたビデオ圧縮システムの場合、同じ情報が、動きベクトル場及び閉塞領域から得られることができる。
図4は、画像フィーチャ160の方向140を推定するステップ400を説明しているフローチャートである。穴110、第1ピクセル位置120、第1近傍130及び第2近傍150穴110を有する領域100が、ステップ400の入力401において利用可能にされる。第1ステップ410において、第1ピクセル位置120の周りの第1領域210が、選択される。第1領域210は、画像フィーチャ160の一部を含んでいる。複数の候補領域220、230、240は、次のステップ420において選択される。前記候補領域は、第1領域210からの所定の、固定された距離において選択されることができる。候補領域220、230、240は、領域100と重複しても良く、又は重複しなくても良い。多数の候補領域が、画像フィーチャ160の拡張を見つけるために選択されても良い。第1領域210のピクセル値は、前記候補領域の各1つについてのピクセル値との類似値の計算において使用される。領域210に属する前記割り当てられていないピクセル値は、前記類似値の前記計算において除外される。
類似値が、次のステップ430において、前記候補領域の各1つに対して、第1領域210の利用可能であるピクセルを候補領域220、230、240の各1つについての対応するピクセルと比較することにより、計算される。このような類似値は、例えば、ピクセルの相関測定、又は前記対応するピクセルの平均絶対偏差の規格化された和に基づくものであることができる。ピクセル値から得られる幾つかの値に基づいた相関測定(例えば、平均強度又は分散)は、類似値の計算においても使用されることができる。計算された類似値の集合から、第1領域210と最良に整合する特定の候補領域230が、次のステップ440において識別される。最良に整合する候補領域230は、典型的には、画像フィーチャ160の拡張を含んでおり、特定の候補領域230の位置は、画像フィーチャ160の取り得る方向を示している。次のステップ450において、画像フィーチャ160の方向は、第1領域210の位置と最良に整合する領域230の位置とから推定される。
図5は、第1領域500及び複数の候補領域の相対的な位置を示している。この例において、第1ピクセル501は、原点(0,0)に位置されていると仮定されている。第1領域500は、前記原点に位置されている8×8ピクセルの正方形のブロックとして実線で示されている。8つの可能な候補領域510−580の集合が、第1領域500の近傍における8×8ピクセルの正方形のブロックとして、不連続線で示されている。この例において、候補領域の位置は、白丸で示されている。これらの位置は、前記第1ピクセル位置からの絶対的な距離が、横及び縦方向の何れかにおいて又は両方において、8つのピクセル単位であるように、選択される。更なる候補領域は、黒丸として示されている中間の位置において選択されることができる。合計64個の可能な位置(白及び黒丸)が、前記第1領域の近傍に示されている。穴の境界590が、示されている。自身の位置が、例えば、前記穴内にある(-8、8)、(8、8)である前記候補領域は、必ずしも類似値の計算に加わる必要がない。前記類似値は、典型的には、前記穴の境界590の外側の全ての黒丸及び白丸に位置されている前記候補領域に関して計算される。類似値の前記集合から、第1領域510と密接に整合する候補領域が、選択される。選択された前記候補領域の位置から、前記第1ピクセルに対する方向が、推定される。前記選択された候補領域が、例えば、(8、0)に位置されている場合、(0、0)と(8、0)とを結ぶ線の方向504は、この例において、(8、0)として表されることができる。(0、0)と、(8、−1)及び(8、+1)とを結ぶ線の方向503、505の更なる2つの例も、図5に示されている。
図6は、前記穴の第1近傍上のピクセルに対して画像フィーチャの方向を見つけた後に穴を埋める方法を示している。この埋めることは、図6(a)、(b)、(c)及び(d)において四段階で実証されている。空白の正方形は、割り当てられていない値のピクセル位置を表しており、影付きの正方形は、既知の値のピクセル位置を表している。影付きの正方形の領域は、1つ以上の画像フィーチャを含むように仮定されている。このような空白の及び影付きの領域は、200から209までの行番号と、99から105までの列番号とを有するデジタル画像の一部を形成している。左角の座標は、(91、200)である。列105において、当該列内のそれぞれのピクセル位置における画像フィーチャの方向が、示されている。方向(8、1)、(8、0)及び(8、−1)は、図5の記載において説明されている表記法に従っている。前記穴内のピクセル位置は、まず、前記画像の影付きの正方形からの既知のピクセル値の行及び列番号によって埋められる。最初のステップにおいて、座標が埋められ、次のステップにおいて、実際のピクセル値が、埋められる。一実施例において、各ピクセル位置において記載されている方向(例えば、列105内の(8、0))における既知のピクセル値が、最初に選択される。選択された前記ピクセルは、逆方向において逆順(ミラーリング)に空白の正方形を埋めるのに使用されている。デジタルグリッド上で、不連続性は、縦横方向以外の方向を表現している際に、生じ得る。前記不連続性により、前記ピクセル値は、区分的(piece-wise)線形の態様において埋められる。図6(a)及び(b)において、方向(8、0)は横であり、前記穴の下部における3つの行207、208、209は、如何なる不連続性も伴わずに埋められる。(8、1)の延長部における次の2つの行は、区分的な線形の態様で埋められる。図6(b)に示されているように、行206において、列105に近い4つのピクセルが、最初に埋められる。残っている2つのピクセルは、1行だけ上にずらされており、従って、空白の空間が、位置(91、207)及び(100、206)において観測される。行202及び203において、方向(8、-1)からのピクセルが、空白の位置を埋めるのに使用される。行202、203内の列91、100内の4つのピクセル位置は、既に、方向(8、1)からのピクセルによって埋められている。これらの4つの位置は、方向(8、1)からか、又は方向(8、−1)からかの何れかのピクセルによって、埋められることができる。複数の選択のこのような状況において、画像フィーチャのより強い方向(高い類似値を有する)からのピクセルが、選択されることができる。前記推定された方向において選択されたピクセルの数は、前記穴を埋めるのに必要とされるピクセルの数に等しいものである必要はない。未知のピクセルの必要な数は、より少ない又はより多い数の既知のピクセルから、よく知られている内挿又は外挿方法の何れによっても、導出されることができる。
図7は、画像内の穴埋めのための画像処理装置700の実施例である。装置700は、第1セレクタ710、第2セレクタ720、推定器730、第3セレクタ740、第1プロセッサ750及び第2プロセッサ760を有している。第1セレクタ710は、第1ピクセル120及び前記第1近傍130を選択するように配されている。第2セレクタ720は、第2近傍150を選択するように配されている。推定器730は、第1ピクセル位置120に対する画像フィーチャ160の方向140を推定する。第3セレクタ740は、推定された方向140におけるそれぞれのピクセル位置からの第2集合のピクセル値を選択する。第1プロセッサ750は、前記第2集合のピクセル値から、第3集合のピクセル値を計算する。第2プロセッサ760は、前記第3集合のピクセル値からのピクセル値を、前記割り当てられていないピクセル値に割り当てる。
図8は、穴埋めのための装置、受信機810及び表示装置830を含んでいる画像処理装置800の実施例である。受信機810は、一連の画像を表す信号を受信する。装置700は、前記一連の画像に属する少なくとも1つの画像内の割り当てられていないピクセル値のピクセル位置を有する領域内のピクセル位置に、ピクセル値を割り当てる。前記一連の画像は、ケーブル、地上若しくは衛生伝送システム、又は、インターネットのような、デジタルネットワークによって受け取られることができる。画像処理装置800は、例えば、出力画像を表示するための表示装置830のような、付加的な構成要素を含んでいても良い。代替的には、装置800は、装置800の外側の表示機へ画像を供給しても良い。装置800は、テレビジョン装置、セットトップボックス、VCR/VCP、衛星チューナ、DVDプレーヤ/レコーダのような付加的な手段を組み込むことによる消費者及び専門家用装置の種類の1つ以上を支持することができる。オプション的には、装置800は、ハードディスクのような記憶手段、又は光学ディスクのような取り外し可能な媒体上の記憶のための手段を有する。画像処理装置800は、映画スタジオ、放送者又はリトランスミッタによって利用されるシステムであることもできる。
前記コンピュータプログラムは、組み込みソフトウェアとして、集積回路又は計算機のような装置内に埋め込まれていても良く、又は標準的な記憶装置又はメモリ装置の1つから予めロードされているのを保持されている若しくはロードされるのを保持されていても良い。前記コンピュータプログラムは、標準的に含まれている、又は、例えば、フラッシュメモリ、ハードディスク又はCDのような、脱着式の記憶装置内で、取り扱われることができる。前記コンピュータプログラムは、機械レベルのコード、アセンブリ言語又はより高いレベルの言語のような、既知のコードの如何なるものにおいても表現されることができ、ハンドヘルド装置、パーソナルコンピュータ又はサーバのような、利用可能であるプラットホームの如何なるものにおいても動作させられることができる。
上述の実施例は、本発明を制限するものとみなしてはならず、当業者であれば、添付請求項の範囲から逸脱することなく、代替的な実施例を設計することができるであろうことに留意されたい。前記請求項において、括弧内に置かれた如何なる符号も、請求項を限定するようにみなしてはならない。「有する」という語は、請求項に記載されていない構成要素又はステップの存在を排除するものではない。単数形の構成要素は、複数のこのような構成要素を排除するものではない。本発明は、幾つか別個の構成要素を有するハードウェアによって、及び適当にプログラムされたコンピュータによって実施化することができる。いくつかの手段を列挙している装置請求項において、これらの手段の幾つかは1つの同じハードウェアの項目によって、実施化することができる。
割り当てられていないピクセル値のピクセル位置及び関連する近傍を有する領域を有する一例の画像である。 前記一例の画像の一部の拡大図である。 画像内の穴埋めの方法を示しているフローチャートである。 画像フィーチャの方向を推定するステップを示しているフローチャートである。 第1領域と複数の候補領域との相対位置を示している。 穴の第1近傍上のピクセルに対する画像フィーチャの方向を見つけた後に穴を埋める方法を示している。 画像内の穴埋めのための装置の実施例である。 穴埋めのための装置、受信機及び表示装置を含む画像処理装置の実施例である。

Claims (7)

  1. 画像内の割り当てられていないピクセル値のピクセル位置を有する領域内のピクセル位置に、ピクセル値を割り当てる方法であって、
    − 割り当てられていないピクセル値の前記領域に隣接している第1近傍内の第1ピクセル位置を選択するステップと、
    − 前記第1ピクセル位置を含む第2近傍を選択するステップと、
    − 前記第1ピクセル位置に対する画像フィーチャの方向を推定するために前記第2近傍のうち、前記第1ピクセル位置を含み割り当てられていないピクセル値の前記ピクセル位置を除く第1集合のピクセル値を使用するステップと、
    − 前記第1ピクセル位置から前記推定された方向におけるそれぞれのピクセル位置からの第2集合のピクセル値を選択するステップと、
    前記第1ピクセル位置に対して前記画像フィーチャの前記推定された方向と逆方向に沿って前記第2集合のピクセル値からのピクセル値がミラーリングされるように、前記逆方向における割り当てられていないピクセル値のピクセル位置に割り当てるための第3集合のピクセル値を前記第2集合のピクセル値から計算するステップと、
    − 前記第3集合のピクセル値を使用して、少なくとも、割り当てられていないピクセル値のピクセル位置を有する前記領域の一部のピクセル位置にピクセル値を割り当てるステップと、
    を有する方法。
  2. 前記方向を推定するステップが、
    − 前記第1ピクセル位置を含む第1領域を選択するステップと、
    − 前記第2近傍内の複数の候補領域を選択するステップと、
    − 前記候補領域の各1つ及び前記第1領域対する類似値を、前記候補領域の各1つのピクセル値と前記第1領域の対応するピクセル値とを比較することによって計算するステップと、
    − 対応する類似値に基づいて、特定の候補領域を選択するステップと、
    − 前記特定の候補領域の位置から、前記第1ピクセル位置に対する前記画像フィーチャの前記方向を推定するステップと、
    を有する請求項1に記載の方法。
  3. 前記類似値を計算するステップが、前記第1領域に関して選択された前記候補領域の各1つの対応するピクセル値の領域補正値を計算することによって実施される、請求項2に記載の方法。
  4. 割り当てられていないピクセル値の前記領域の第1近傍内の第1ピクセル位置を選択する第1セレクタと、
    前記第1ピクセル位置を含む第2近傍を選択する第2セレクタと、
    前記第2近傍のうち、前記第1ピクセル位置を含み割り当てられていないピクセル値の前記ピクセル位置を除く第1集合のピクセル値を使用して、前記第1ピクセル位置に対する画像フィーチャの方向を推定する推定器と、
    前記第1ピクセル位置からの前記推定された方向における対応するピクセル位置から、第2集合のピクセル値を選択する第3セレクタと、
    前記第1ピクセル位置に対して前記画像フィーチャの前記推定された方向と逆方向に沿って前記第2集合のピクセル値からのピクセル値がミラーリングされるように、前記逆方向における割り当てられていないピクセル値のピクセル位置に割り当てるための第3集合のピクセル値を前記第2集合のピクセル値から計算する第1プロセッサと、
    前記第3集合のピクセル値を使用して、少なくとも、割り当てられていないピクセル値のピクセル位置を有する領域の一部のピクセル位置にピクセル値を割り当てる第2プロセッサと、
    を有する画像処理装置。
  5. 一連の画像を表している信号を受け取る受信機を含んでいる、請求項に記載の画像処理装置。
  6. 一連の画像を表示する表示装置を含んでいる、請求項に記載の画像処理装置。
  7. コンピュータプログラムであって、コンピュータで実行されて、前記コンピュータに請求項1乃至3の何れか一項に記載の方法の各ステップを実行させるコンピュータプログラム。
JP2008556879A 2006-02-28 2007-02-05 画像における指向性の穴埋め Active JP5011319B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP06110492.3 2006-02-28
EP06110492 2006-02-28
PCT/IB2007/050376 WO2007099465A2 (en) 2006-02-28 2007-02-05 Directional hole filling in images

Publications (2)

Publication Number Publication Date
JP2009528747A JP2009528747A (ja) 2009-08-06
JP5011319B2 true JP5011319B2 (ja) 2012-08-29

Family

ID=38459413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008556879A Active JP5011319B2 (ja) 2006-02-28 2007-02-05 画像における指向性の穴埋め

Country Status (5)

Country Link
US (1) US8073292B2 (ja)
EP (1) EP1991958B1 (ja)
JP (1) JP5011319B2 (ja)
CN (1) CN101395634B (ja)
WO (1) WO2007099465A2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011512717A (ja) 2008-01-24 2011-04-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 穴充填のための方法及び画像処理デバイス
WO2010013171A1 (en) 2008-07-28 2010-02-04 Koninklijke Philips Electronics N.V. Use of inpainting techniques for image correction
FR2936025A1 (fr) * 2008-09-16 2010-03-19 Renault Sas Dispositif d'injection de fuide.
US8773595B2 (en) 2008-12-24 2014-07-08 Entropic Communications, Inc. Image processing
WO2011039679A1 (en) 2009-10-02 2011-04-07 Koninklijke Philips Electronics N.V. Selecting viewpoints for generating additional views in 3d video
US8643701B2 (en) * 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
KR101731343B1 (ko) * 2010-07-14 2017-04-28 엘지전자 주식회사 이동 단말기 및 그 제어방법
EP2609575B1 (en) * 2010-08-27 2019-02-27 Samsung Electronics Co., Ltd. Rendering apparatus and method for generating multi-views
US9865083B2 (en) * 2010-11-03 2018-01-09 Industrial Technology Research Institute Apparatus and method for inpainting three-dimensional stereoscopic image
KR20120049636A (ko) * 2010-11-09 2012-05-17 삼성전자주식회사 영상 처리 장치 및 방법
KR20120059367A (ko) * 2010-11-30 2012-06-08 삼성전자주식회사 에너지값을 이용한 이미지 처리 장치와 그 이미지 처리 방법 및 디스플레이 방법
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
JP5983935B2 (ja) * 2011-11-30 2016-09-06 パナソニックIpマネジメント株式会社 新視点画像生成装置および新視点画像生成方法
US8934707B2 (en) * 2012-03-21 2015-01-13 Industrial Technology Research Institute Image processing apparatus and image processing method
TWI473038B (zh) * 2012-03-21 2015-02-11 Ind Tech Res Inst 影像處理裝置及影像處理方法
US9117290B2 (en) 2012-07-20 2015-08-25 Samsung Electronics Co., Ltd. Apparatus and method for filling hole area of image
US9514522B2 (en) 2012-08-24 2016-12-06 Microsoft Technology Licensing, Llc Depth data processing and compression
KR102156410B1 (ko) * 2014-04-14 2020-09-15 삼성전자주식회사 오브젝트 움직임을 고려한 영상 처리 장치 및 방법
US9311735B1 (en) * 2014-11-21 2016-04-12 Adobe Systems Incorporated Cloud based content aware fill for images
US10567739B2 (en) * 2016-04-22 2020-02-18 Intel Corporation Synthesis of transformed image views
CN106028020B (zh) * 2016-06-21 2017-11-17 电子科技大学 一种基于多方向预测的虚拟视角图像空洞填补方法
CN111383185B (zh) * 2018-12-29 2023-09-22 海信集团有限公司 一种基于稠密视差图的孔洞填充方法及车载设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5475769A (en) * 1992-07-13 1995-12-12 Polaroid Corporation Method and apparatus for recovering image data through the use of a color test pattern
US6134352A (en) * 1996-05-21 2000-10-17 Lucent Technologies Inc. Spatial error concealment for image processing
JP2001256482A (ja) * 2000-03-08 2001-09-21 Fuji Xerox Co Ltd 視差画像生成装置および視差画像生成方法
US6665450B1 (en) * 2000-09-08 2003-12-16 Avid Technology, Inc. Interpolation of a sequence of images using motion analysis
US6930681B2 (en) * 2001-08-14 2005-08-16 Mitsubishi Electric Research Labs, Inc. System and method for registering multiple images with three-dimensional objects
EP1437898A1 (en) 2002-12-30 2004-07-14 Koninklijke Philips Electronics N.V. Video filtering for stereo images
JP4179938B2 (ja) * 2003-02-05 2008-11-12 シャープ株式会社 立体画像生成装置、立体画像生成方法、立体画像生成プログラムおよび立体画像生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004318696A (ja) * 2003-04-18 2004-11-11 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置及び画像処理プログラム
EP1494175A1 (en) 2003-07-01 2005-01-05 Koninklijke Philips Electronics N.V. Selection of a mipmap level
JP3938120B2 (ja) * 2003-09-17 2007-06-27 ノーリツ鋼機株式会社 画像処理装置、方法、及びプログラム
TWI220363B (en) * 2003-10-06 2004-08-11 Sunplus Technology Co Ltd Directional interpolation method and device for increasing resolution of an image

Also Published As

Publication number Publication date
CN101395634A (zh) 2009-03-25
US8073292B2 (en) 2011-12-06
EP1991958A2 (en) 2008-11-19
CN101395634B (zh) 2012-05-16
WO2007099465A2 (en) 2007-09-07
WO2007099465A3 (en) 2008-04-17
US20090016640A1 (en) 2009-01-15
EP1991958B1 (en) 2017-01-11
JP2009528747A (ja) 2009-08-06

Similar Documents

Publication Publication Date Title
JP5011319B2 (ja) 画像における指向性の穴埋め
JP7036599B2 (ja) 奥行き情報を用いて全方向視差を圧縮したライトフィールドを合成する方法
EP2745269B1 (en) Depth map processing
CA2305735C (en) Improved image conversion and encoding techniques
US8994722B2 (en) Method for enhancing depth images of scenes using trellis structures
WO2008041178A2 (en) Image enhancement
EP1815441B1 (en) Rendering images based on image segmentation
Farid et al. Depth image based rendering with inverse mapping
US20120206440A1 (en) Method for Generating Virtual Images of Scenes Using Trellis Structures
Plath et al. Adaptive image warping for hole prevention in 3D view synthesis
KR101458986B1 (ko) 키넥트 기반 실시간 다시점 영상 생성 방법
CN107005688B (zh) 三维图像的视差处理
Lee et al. Real-time stereo view generation using kinect depth camera
Knorr et al. Stereoscopic 3D from 2D video with super-resolution capability
JP7159198B2 (ja) 奥行きマップを処理するための装置及び方法
US9787980B2 (en) Auxiliary information map upsampling
US20120206442A1 (en) Method for Generating Virtual Images of Scenes Using Trellis Structures
Wang et al. Block-based depth maps interpolation for efficient multiview content generation
US20130229408A1 (en) Apparatus and method for efficient viewer-centric depth adjustment based on virtual fronto-parallel planar projection in stereoscopic images
Tian et al. A trellis-based approach for robust view synthesis
US20240323330A1 (en) Image generation
Zinger et al. Recent developments in free-viewpoint interpolation for 3DTV
Solh Depth-based 3D videos: Quality measurement and synthesized view enhancement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

R150 Certificate of patent or registration of utility model

Ref document number: 5011319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250