JP2010218549A - 深度画像をフィルタリングする方法 - Google Patents

深度画像をフィルタリングする方法 Download PDF

Info

Publication number
JP2010218549A
JP2010218549A JP2010034830A JP2010034830A JP2010218549A JP 2010218549 A JP2010218549 A JP 2010218549A JP 2010034830 A JP2010034830 A JP 2010034830A JP 2010034830 A JP2010034830 A JP 2010034830A JP 2010218549 A JP2010218549 A JP 2010218549A
Authority
JP
Japan
Prior art keywords
depth
window
pixel
image
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010034830A
Other languages
English (en)
Other versions
JP5230669B2 (ja
JP2010218549A5 (ja
Inventor
Sehoon Yea
セフーン・イェー
Kwan-Jung Oh
クワン・ジュン・オー
Vetro Anthony
アンソニー・ヴェトロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2010218549A publication Critical patent/JP2010218549A/ja
Publication of JP2010218549A5 publication Critical patent/JP2010218549A5/ja
Application granted granted Critical
Publication of JP5230669B2 publication Critical patent/JP5230669B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

【課題】方法は、深度画像をフィルタリングする。
【解決手段】各深度画像は、位置(x,y)におけるピクセルのアレイを含み、各ピクセルは、深度を有する。深度画像内のピクセルに、動くウインドウが適用される。このウインドウのサイズは、各ピクセルを中心として1組のピクセルに及ぶ。ウインドウ内の1組のピクセルからの単一の代表深度がピクセルに割り当てられ、処理された深度画像が生成される。その後、処理された深度画像内の各ピクセルをフィルタリングして、深度不連続部を不鮮明にすることなく異常値深度が補正され、フィルタリングされた深度画像が生成される。
【選択図】図1

Description

本発明は、包括的には画像処理に関し、より詳細には、深度画像のための再構成フィルタに関する。
深度画像
深度画像は、カメラから3D空間内のシーン要素までの距離を表す。深度画像を効率的に符号化することは、3Dビデオおよびフリービューテレビジョン(FTV)にとって重要である。FTVは、利用者が視点をインタラクティブに制御して、任意の3D像点から、動的なシーンの新たな仮想画像を生成できるようにする。
大部分の従来の画像ベースレンダリング(IBR)方式は、ステレオまたはマルチ画像によるビデオと共に、深度画像を用いて、3DおよびFTVを可能にする。H.264/AVC標準規格のマルチ画像ビデオ符号化(MVC)拡張規格は、マルチ画像によるビデオのための符号化効率を向上させるために、画像間予測に対応する。しかしながら、MVCは、深度画像のためのいかなる符号化も、特に明記していない。
深度を効率的に推定し、符号化することは、復号器において高品質の仮想画像を合成できるようにするのに、極めて重要である。
深度再構成フィルタ
従来の画像とは異なり、深度画像は、深度不連続部を除いて、空間的に単調である。従って、復号化誤差は、深度不連続部付近に集中する傾向があり、深度不連続部を保持し損なうと、仮想画像の品質が著しく劣化することになる。図7(A)および図7(B)を参照されたい。
ダウン/アップサンプラ
解像度を下げた深度を符号化すると、ビットレートを大幅に低減することができるが、解像度が失われることによって、深度不連続部のような高頻度の領域において、特に、深度マップの品質も劣化する。結果として生成される画像レンダリングアーティファクトは、視覚的に気になるものとなる。従来のダウン/アップサンプラは、いずれも、ローパスフィルタまたは補間フィルタを用いて品質劣化を抑えている。すなわち、従来のフィルタは、フィルタリングされた各ピクセルを得るために、フィルタによって覆われるいくつかのピクセルの深度を何らかの方法で合成する。そのフィルタリングは、多数の深度に依存するので、深度不連続部を「汚す」、すなわち不鮮明にする。
深度ビデオおよび画像レンダリングの結果は、特に、深度不連続部において、空間および時間の変化の影響を受けやすいので、従来の深度再構成は、仮想画像合成の場合に、特に不十分である。
方法は、深度画像をフィルタリングする。各深度画像は、位置(x,y)におけるピクセルのアレイを含み、各ピクセルは、深度を有する。深度画像内のピクセルに、動くウインドウが適用される。このウインドウのサイズは、各ピクセルを中心として1組のピクセルに及ぶ。ウインドウ内の1組のピクセルからの単一の代表深度がピクセルに割り当てられ、処理された深度画像が生成される。その後、処理された深度画像内の各ピクセルをフィルタリングして、深度不連続部を不鮮明にすることなく異常値深度が補正され、フィルタリングされた深度画像が生成される。
発明された深度再構成フィルタは、頻度近接フィルタと、後続のバイラテラルフィルタとを含む。頻度近接フィルタは、非線形フィルタであり、深度画像の特徴を考慮に入れて、符号化誤差を低減し、一方、バイラテラルフィルタは、深度不連続部を保存しながら、残存する異常値を低減するようになっている。
本発明の実施の形態を用いる、視点合成を含むビデオ符号化システムのブロック図である。 本発明の実施の形態を用いる、深度画像のための符号化システムのブロック図である。 本発明の実施の形態を用いる符号器のブロック図である。 本発明の実施の形態を用いる復号器のブロック図である。 本発明の一1つの実施の形態の場合における深度フィルタのブロック図である。 本発明の別の実施の形態の場合の深度フィルタのブロック図である。 本発明の実施の形態による深度フィルタリングの方法の流れ図である。 本発明の実施の形態による頻度近接フィルタのブロック図である。 本発明の実施の形態による頻度近接フィルタのブロック図である。 本発明の実施の形態による頻度近接フィルタのブロック図である。 本発明の実施の形態による低高フィルタのブロック図である。 従来技術の画像、および本発明の実施の形態による従来技術の画像である。 本発明の実施の形態によるアップサンプリングのブロック図である。 本発明の実施の形態による仮想画像合成のブロック図である。 本発明の実施の形態による深度前処理のブロック図である。 本発明の実施の形態による仮想画像合成のブロック図である。 本発明の実施の形態によるグラフである。 本発明の実施の形態によるインペインティングの概略図である。
本発明の実施の形態は、入力としてビデオ5を取得し、このビデオは、一連のテクスチャ画像と、対応する一連の深度画像とを含む。本発明のある実施の形態は、仮想画像合成のために、解像度を下げたビデオにおいて深度画像をフィルタリングすることおよび深度画像を適当に再構成することに焦点を合わせており、一方、本発明の他の実施の形態は、一連のテクスチャ画像および対応する一連の深度画像から仮想画像合成を実行する方法を示す。
図1は、入力テクスチャ画像111と入力深度画像101とを含む入力ビデオ5を示しており、このビデオは、テクスチャ/深度符号器110によって符号化され、チャネル30を通してテクスチャ/深度復号器120に送られる。テクスチャ/深度復号器120は、再構成されたテクスチャ画像112および再構成された深度画像102を出力し、これらの画像は、視点合成130への入力として用いられ、合成された仮想テクスチャ画像103が生成される。
図2は、入力ビデオの各入力深度画像101を深度符号化する方法(200)を示す。符号化(20)する前に、深度画像のサイズを縮小するように、深度画像がダウンサンプリングされる(10)。解像度を下げた深度画像がチャネル30を通して深度復号器40に送られ、深度復号器40では、アップサンプリングし、メディアンフィルタによって処理し、深度再構成フィルタを適用することによって、画像が再構成される(102)。その後、再構成された深度画像102を、仮想画像合成のために用いることができる。
システム200において復号化された(40)後に、再構成過程102が適用されることが重要である。図3は、再構成が符号器301および復号器302の予測ループ内にある、本発明の代替の実施の形態を示す。
図3Aは、ビデオ符号器301、例えば、修正されたH.264/AVC符号器をさらに詳細に示す。この符号器は、本発明の実施の形態による深度再構成フィルタ370を用いる。入力は、入力ビデオの現在の画像101と、基準画像105とを含む。出力は、符号化ビットストリーム103と、再構成されたフレーム104とを含む。入力ビデオのフレームまたは画像毎に、対応する深度画像がある。一連の深度画像のための符号化過程が説明される。テクスチャの符号化は、従来の手段によって実行される。
現在の深度画像は、動き推定(ME)310と、後続の動き補償(MC)315とによって予測されるか、または、セレクタ316に従ってイントラ予測317によって予測される。現在の深度画像と予測される深度画像との間の差が変換され(320)、量子化され(330)、エントロピー符号化され(335)、ビットストリーム103が生成される。
量子化器の出力は、逆量子化され(340)、逆変換される(350)。逆変換の後に、デブロッキングフィルタ360および再構成フィルタ370が用いられ、再構成された深度画像104が生成され、この画像は、入力ビデオの後続のフレームによって、基準画像105としても用いられる。
図3Bは、対応する復号器302を示す。入力は、基準画像105およびビットストリーム103である。出力は、再構成された深度画像104である。その構成要素は、エントロピー復号器375、逆量子化340、逆変換350、デブロッキングフィルタ360、再構成フィルタ370、イントラ予測317、および動き補償315を含む。デブロッキングは、厳密な復号化が望まれる場合を除いて、オプションとすることができる。
エントロピー復号器375は別として、復号器302は、符号器301にも含まれる。これは、MPEG−2およびH.264のような任意の予測ベースビデオ標準規格の典型である。これは、現在の画像を予測するために、符号器および復号器の両方によって同一の先行フレームが用いられるのを保証する。
深度再構成
本発明によるフィルタリングは、スライディングウインドウ内で単一の代表深度を選択して、欠けているかまたは歪んでいる深度を再生し、かつ深度不連続部にある深度画像内の構造、例えば、物体境界およびエッジを不鮮明にすることなく、異常値を除去する。
フィルタI
図4Aは、復号化誤差を除去するための適応メディアンフィルタ411と、復号化された画像から深度不連続部を再生するための適応min−maxフィルタ412と、任意の残存する誤差を除去するための3×3メディアンフィルタ413とを含む、本発明の深度再構成フィルタ401の一1つの実施の形態を示す。
適応メディアンフィルタ
メディアンフィルタ411は、雑音を低減するために用いられる非線形フィルタである。メディアンフィルタは、平均フィルタのように、深度中央値に大きく影響を及ぼさない。さらに、フィルタが深度不連続部をまたぐときに、中央値は、新たな非現実的ピクセル深度を生じる原因にはならない。しかしながら、メディアンフィルタの安定性は、ウインドウサイズによるので、本発明では、ウインドウサイズを適応的に調整する。
深度復号化誤差の分布は、量子化パラメータ(QP)に依存するので、適応メディアンフィルタも、深度画像を符号化するために用いられるQPに従ってウインドウサイズを調整する。本発明では、QPを、以下に説明されるように、3つの群(低、中、高)に分類し、群毎に3×3、5×5および7×7メディアンフィルタを適用する。
Figure 2010218549
ただし、QPminおよびQPmaxは、最小QP深度および最大QP深度であり、上式中の
Figure 2010218549
は、天井関数であり、
Figure 2010218549
以上の最も小さな整数を返すものである。
適応min−maxフィルタ
適応min−maxフィルタは、適応メディアンフィルタと同じサイズである。このフィルタは、以下の通りである。
Figure 2010218549
ただし、Aは、長方形領域であり、I(x、y)は、その領域内の(x、y)におけるピクセルのピクセル深度であり、関数minおよびmaxは、最小深度および最大深度を返す。
深度画像において、ピクセル強度は、実際には深度を表すことを理解されたい。従って、本明細書において、用語「強度」および「深度」は、同義語である。
メディアンフィルタ
最後の3×3メディアンフィルタリングは、異常値深度を補正する。
フィルタII
図4Bは、頻度近接フィルタ421およびバイラテラルフィルタ422を含む、本発明の深度再構成フィルタ402における1つの実施の形態を示す。
頻度近接フィルタ
図5に示されるように、本発明では、最初に、前処理された入力深度画像501に頻度近接(FC)フィルタ421を適用して、中間深度画像502を生成し、その後、中間深度画像は、バイラテラルフィルタ422によって処理され、出力深度画像503が生成される。
頻度近接フィルタは、以下のように定義される非線形フィルタである。
Figure 2010218549
ただし、Aはピクセルの長方形領域を表し、I(x、y)は、A内の(x、y)におけるピクセルの深度であり、FCfirstおよびFCsecondは、それぞれ、領域A内の深度の最も高い出現頻度および2番目に高い出現頻度のピクセル深度である。
言い換えると、I(x、y)は、頻度近接フィルタにおいて2つの代表深度FCfirstおよびFCsecondのうちの近い方によって割り当てられる。
図6A〜図6Cは、3×3FCの一例601を示す。動くウインドウを左から右および上から下に向かって走査しながら、9個のピクセルが次々にフィルタリングされる。ウインドウ内の各ピクセル深度の出現頻度がカウントされ、中央ピクセルの深度が、どちらに近いかによって、最も頻度が高い深度または2番目に頻度が高い深度に変更される。
頻度近接フィルタは、他の線形フィルタよりも優れた以下の利点を有する。このフィルタは、異常値ピクセルを正確にフィルタリングする。隣接するピクセルと同じような深度を有しない単一のピクセルは、頻度近接深度に大きく影響を及ぼさない。
頻度近接深度は、その近辺にあるピクセルのうちのただ1つのピクセルの深度であるので、頻度近接フィルタは、フィルタが深度不連続部、例えば、物体境界またはエッジをまたぐときに、非現実的なピクセル深度を生成することはない。
フィルタIII
頻度低高フィルタ
図6Dに示されるように、頻度低高フィルタの基本的な動作は、以下の通りである。フィルタウインドウW609内のピクセルのための中央値611が求められる(610)。その後、その中央値を用いて、ピクセルが2つの集合、すなわち、Slow621およびShigh622に分割され(620)、集合Slowが中央値よりも小さな深度を有するピクセルを含み、集合Shighが、中央値よりも大きな深度を有するピクセルを含むようにする。
集合毎に、それぞれ「高」および「低」の場合に、それらの集合内の最も高い出現頻度を有する深度、すなわちνlowを選択する。ウインドウ内の中央ピクセル毎の頻度低高フィルタの出力640は、νhigh632およびνlow631のうちのピクセル深度に近い方である。
より形式的には、本発明では、m×nウインドウW(i、j)609を定義する。ただし、mおよびnは、奇数である。
ウインドウW内のピクセルは、その深度によって以下のように並べ替えられる。
Figure 2010218549
ここで、ウインドウWの深度中央値611は、以下の通りである。
Figure 2010218549
ウインドウW内のピクセルは、以下のようにmedian(W)に従って、低集合(Slow)群および高集合(Shigh)群に分割される。
Figure 2010218549
集合Slow内のピクセルkの場合に、本発明では、Slowに属する各深度νの確率を以下のように計算する。
Figure 2010218549
確率Plow(ν)から、本発明では、最も高い確率を有する深度を選択し、そして、深度νlowを、以下のように定義する。
Figure 2010218549
ただし、関数maxは、最も大きな深度を返す。
すなわち、νlowは、1組のピクセル強度の中で最も高い出現頻度を有するピクセル深度であり、それらは、ウインドウWの深度中央値よりも小さい。
同じようにして、本発明では、Phigh(ν)およびνhighを定義する。
所与のピクセルの場合の代表深度は、以下の通りである。
Figure 2010218549
ただし、W(x、y)は、ウインドウW内の中央ピクセルであり、ピクセルW(x、y)は、2つの代表深度νlowおよびνhighのうちの近い方が割り当てられる。
本発明による頻度低高フィルタは、線形フィルタよりも優れた以下の利点を有する。このフィルタは、異常値ピクセルを正確に処理する。隣接するピクセルと同じような深度を有しない単一のピクセルが、頻度低高深度に大きく影響を及ぼさない。頻度低高深度は、その近辺にある複数のピクセルのうちの1つのピクセルの深度であるので、その深度は、フィルタが深度不連続部をまたぐときに、非現実的なピクセル深度を生成することはない。
バイラテラルフィルタ
上記のフィルタを用いて、再構成された深度画像を処理した後に、アーティファクトとして現れる多少の誤差が深度不連続部に依然として残存する可能性がある。残存する誤差を低減するために、本発明では、中間画像502にバイラテラルフィルタ422を適用して、出力深度画像503を生成する。
本発明の実施の形態による図7(C)および図7(D)内の画像は、深度不連続部に沿って、従来技術の画像図7(A)および図7(B)よりもアーティファクトが少ないことは明らかである。
一般的に、バイラテラルフィルタは、画像処理のために有用なエッジ保存フィルタである。多くのフィルタが、ピクセル間の幾何学的距離にのみ基づく、画像領域内の畳み込みであるのに対して、バイラテラルフィルタは、ピクセル深度も考慮に入れる。バイラテラルフィルタは、ピクセルの深度を、隣接するピクセルの重み付き平均で置き換える。しかしながら、その重みは、幾何学的距離に基づくだけでなく、ピクセル深度の差にも基づいて求められる。バイラテラルフィルタは、不連続部周囲に残存する誤差を除去し、隣接するピクセル深度の非線形結合によって、深度不連続部を保存する。これは、深度不連続部を横切るピクセルの影響を系統的に制限することによって成し遂げられる。
本発明によるバイラテラルフィルタは、2つのパラメータ、色σ(σ)および空間σ(σ)を有し、これらのパラメータは、2つのフィルタカーネルの強度を決定し、各カーネルは、それぞれ入力ピクセルの測光距離および幾何学的距離に関連する。
ダウン/アップサンプリング
2D画像をダウンサンプリングするために、ある特定のウインドウ内のピクセル深度の中の代表深度が選択される。本発明では、以下の深度中央値を選択する。
Figure 2010218549
ただし、dは、ダウンサンプリング係数を表す。また、下式は、ウインドウ内のピクセル深度の2Dアレイを表す。
Figure 2010218549
図8に示されるように、アップサンプリング800は、以下のステップ、すなわち、画像アップスケーリング810、画像膨張820、メディアンフィルタリング830、画像収縮840およびmin−maxフィルタリング850を含む。
膨張および収縮
形態的膨張および収縮は、画像処理の技術分野においてよく知られている用語である。出力画像における任意の所与のピクセルの状態は、入力画像内の対応するピクセルおよびその隣接ピクセルに、ある規則を適用することによって決定される。
膨張規則の場合、出力ピクセルの深度は、入力ピクセルの近辺にある全てのピクセルの最大深度である。膨張は、一般的に、物体のサイズを大きくし、穴および破損したエリアを埋め、小さな空間によって分離されるエリアを接続する。グレースケール画像では、膨張は、近辺の最大値を取ることによって、物体の輝度を高める。2値画像の場合、膨張は、構造化要素よりも小さな距離だけ分離されるエリアを接続し、各画像物体の周辺にピクセルを追加する。
収縮
収縮規則の場合、出力ピクセルの深度は、近辺にある全てのピクセルの最小深度である。収縮は、一般的に、物体のサイズを小さくし、構造化要素よりも小さな半径を有する物体を取り去ることによって、小さな異常を除去する。グレースケール画像では、収縮は、近辺の最小値を取ることによって、暗い背景上の明るい物体の輝度を小さくし、それゆえ、サイズを小さくする。
画像アップスケーリングは、以下の通りである。
Figure 2010218549
ただし、uは、アップサンプリング係数を表し、これは、ダウンサンプリングにおけるdと同じである。本発明では、アップサンプリングの最初のステップにおいて、簡単な手法を用いるので、中間画像内にブロッキングアーティファクトが存在する可能性がある。
ステップ820、830および840は、ブロッキングアーティファクトを除去する。画像領域A上で作用する構造化要素Bを用いる、A内の(x、y)における画像膨張および収縮演算の出力ピクセル深度は、それぞれ下式(1)および(2)において与えられる。
Figure 2010218549
ただし、Aは、(x、y)を中心にして構造化要素Bによって覆われるエリア内の全てのピクセルの集合であり、max[・]およびmin[・]は、それぞれ、[・]内にある集合内のピクセル深度の最大値および最小値を表す。すなわち、(x、y)における膨張による出力ピクセルの深度は、A内の全てのピクセルの最大深度である。
同様に、(x、y)における収縮による出力ピクセルの深度は、A内の全てのピクセルの最小深度である。本発明では、u√2に設定された円板半径を有する円形の構造化要素を用いる。本発明では、半径u√2を有する円形の構造化要素を用いる。
深度不連続部を再生するmin−maxフィルタリングは、以下の通りである。
Figure 2010218549
ただし、Aは、3×3長方形領域であり、I(x、y)は、A内の(x、y)におけるピクセルの深度である。
仮想画像合成
本明細書において定義される場合、仮想画像は、入力ビデオ内に存在しない画像、例えば、入力ビデオを取得するときに存在しないカメラ視点からのシーンの画像である。
図9に示されるように、本発明による合成は、以下のステップ、すなわち、深度前処理910、深度ベース3Dワーピング920、深度ベースヒストグラムマッチング930、基本画像と補助画像とのブレンディング940、および深度ベースインペインティング950を有し、これらは、全て後にさらに詳細に説明される。
深度前処理は、誤差を補正し、深度の空間的および時間的整合性を高めるために、取得されたシーン深度データに対して実行される。深度ベース3Dワーピングは、テクスチャを直接ワーピングする際に、丸め誤差によって引き起こされる不連続問題を補正する。深度ベースワーピングは、シーンの幾何学的形状を記述するカメラパラメータを用いる。
深度ベースヒストグラムマッチングは、2つの基準画像間の照度差を小さくする。
基本画像と補助画像とのブレンディングは、深度およびカメラパラメータが正確でなくても、2つの3Dワーピング済み基準画像をブレンドし、仮想画像を生成する。
深度ベースインペインティングは、仮想画像内に残存する任意の穴を埋める。
図11は、第1の画像1101および第2の画像1102から合成された仮想画像1103を生成するためのステップを示す。典型的には、第1および第2の画像は、所望の仮想画像のための画像の左および右にある。
深度前処理
一般的に、深度データは、深度または距離カメラおよびコンピュータグラフィックツールを用いて取得することができるか、または好ましい深度推定手順によって求めることができる。
図10に示されるように、深度前処理は、時間フィルタリング1010、初期誤差補償1020および空間フィルタリング1030を含む。本発明では、平均化フィルタの代わりに、メディアンフィルタリングを適用する。これは、平均化フィルタは、結果として、初期深度画像内に存在しない新たなピクセル深度を生成し、それがレンダリングの品質を劣化させるためである。
第1のステップとして、本発明では、連続した深度画像フレームの同じ場所にあるピクセルに沿って1Dメディアンフィルタを適用し、同じ物体または背景に属する深度の時間的な不整合を低減する。そのメディアンフィルタは、以下の通りである。
Figure 2010218549
ただし、Xi、j、tは、時刻tにおいて空間位置(i、j)にあるピクセルの深度であり、Ji、j、tは、時空間位置(i、j、t)を中心とした3×3×3ウインドウ内の1組のピクセルであり、γは、フィルタが適用されるか否かを判断するための深度しきい値である。
次のステップは、初期誤差を補償し、この誤差は、典型的な深度推定過程における前景および背景の融合に誤りがあることによって引き起こされる可能性がある。通常、その誤差は、前景および背景が同じようなテクスチャを有し、それらのテクスチャが、視覚的に区別するのは容易であるが、除去するのが難しいときに生じる。
本発明では、以下のように定義される画像膨張および収縮を用いることによって初期誤差を補正する。
Figure 2010218549
ただし、Aは、画像を表し、Bは、A上で作用する構造化要素である。Aは、Bで覆われた領域であり、(x、y)は、画像A内のピクセルである。本発明では、半径5の円板を有する円形の構造化要素を用いる。
最後のステップは、2Dメディアンフィルタを用いて、推定された深度画像内の異常値をフィルタリングし、雑音を除去する。5×5フィルタは、Yi、j=median(Ji、j)である。ただし、Ji、jは、位置(i、j)を中心とした5×5ウインドウ内の1組のピクセルである。
深度ベース3Dワーピング
大部分の従来の仮想画像合成法は、対応する深度マップを用いて、テクスチャ画像をワーピングする。しかしながら、隣接する画像のテクスチャ画像を仮想画像平面内に直接3Dワーピングすると、多くの場合に、合成された仮想画像内に偽りの黒い輪郭が生成される。これらの輪郭は、仮想画像の座標の整数表現に関わる丸め誤差によって、また、誤った初期深度によって引き起こされる。
逆ワーピングによって、仮想画像に対応する深度画像が得られた後に、本発明では、この深度画像を用いて、合成された仮想画像内に偽りの黒い輪郭を生成することなく、隣接する画像からの適当なテクスチャ強度を特定することができる。仮想画像に対応する深度画像を得るために、本発明では、最初に、対応する基準画像の深度画像をワーピングする。3Dワーピングにおいて、基準画像内のピクセルは、3D空間に逆投影され、シーンの幾何学的形状を記述するカメラパラメータを用いて、目標仮想画像上に再投影される。
基準画像内の点(u、ν、1)を3D空間内の座標(x、y、z)に逆投影することは、以下の通りである。
Figure 2010218549
ただし、A、Rおよびtは、基準画像のカメラパラメータであり、dは、逆投影される必要がある3D空間内の点の深度を表し、Tは、転置演算子である。
その後、本発明では、以下のように、上記の3D点から再投影される仮想画像内の対応する座標(l、m、n)を特定する。
Figure 2010218549
ただし、A、Rおよびtは、仮想画像のカメラパラメータである。座標(l、m、n)は、(l/n、m/n、1)に正規化され、その後、仮想画像内の整数座標(U、V)として表される。
テクスチャワーピングの場合と全く同じ理由から、ワーピング済み深度画像内に現れる偽りの黒い輪郭を除去するために、本発明では、メディアンフィルタリングを適用する。
深度ベースヒストグラムマッチング
仮想画像合成のための2つの基準画像を有する場合に、本発明では、最初に、2つ、すなわち、各画像1101および1102から1つずつの3Dワーピング済み画像を合成することができる。これらの2つのワーピング済み画像をブレンドする前に、本発明では、ヒストグラムマッチングを適用して、合成された画像の不整合を引き起こす場合がある、2つの画像間の照度差および色差を低減する。
2つの3Dワーピング済み基準画像のピクセル強度のヒストグラムが、同じような分布を有するように調整される。この過程は、ピクセル強度が表現されるRGBデータフォーマットの成分毎に適用される。
2つの3Dワーピング済み画像が、全く同じ対応する場所に穴が存在するように変更され、その後、メディアンフィルタを適用して雑音が低減される。結果として、2つのワーピング済み画像は、その照度がわずかに異なることを除いて、同じようなテクスチャを有する。画像内に穴が存在することは、ヒストグラムの形状に大きな影響を及ぼすので、この変更は、ヒストグラムマッチングの精度を大幅に高める。
次に、本発明では、ワーピング済みの第1および第2の画像のヒストグラムを構成する。
[m、n]が、第1の画像の振幅を表すものとする。その際、ヒストグラムは、以下のようになる。
Figure 2010218549
ただし、wは、画像幅を表し、hは、画像高である。νの強度は、0〜255の範囲にある。マッピング関数Mを生成するために、2つのステップが必要である。最初に、左画像の累積ヒストグラムC[ν]が、以下のように構成される。
Figure 2010218549
右画像のヒストグラムh[ν]および累積ヒストグラムC[ν]も同じようにして構成される。
それらの累積ヒストグラムに基づいて、本発明では、以下の式を用いて、仮想画像のための累積ヒストグラムC[ν]を構成する。
Figure 2010218549
ただし、CおよびCは、ワーピング済みの左画像および右画像のための累積ヒストグラムである。一般的に、重み係数αは、基線距離に基づく。
Figure 2010218549
ただし、tは、画像毎の並進ベクトルである。
図12に示されるように、左画像と仮想画像との間のマッピング関数は、基準画像内の出現回数を仮想画像内の出現回数と一致させることによって得られる。
Figure 2010218549
マッピング関数は、左画像y[m、n]および右画像y[m、n]に適用され、結果として、以下のように、ヒストグラムマッチング済みの画像yHML[m、n]およびyHMR[m、n]が生成される。
Figure 2010218549
一般的に、カメラ毎に照明が異なると、照度差および色差が生じ、各物体および色成分に異なる影響が及ぼされる。本発明では、局所的にヒストグラムマッチングを適用し、それらの領域は、深度を用いて分割される。
基本画像と補助画像とのブレンディング
2つの3Dワーピング済み画像は、重み付けられた(α)和を用いて合成することができる。
Figure 2010218549
ただし、IおよびIは、3Dワーピング済み基準テクスチャ画像であり、Iは、仮想画像である。
しかしながら、カメラパラメータに起因して、基準画像からの一致しない深度および強度がワーピング済み画像に寄与している可能性があり、それにより、多くの場合に二重エッジアーティファクトおよび平滑化に繋がる。
その問題を避けるために、本発明では、画像ブレンディングのための基本画像および補助画像を定義する。基本画像は、ピクセル強度の大部分がワーピングされる主基準画像である。補助画像は、インペインティングのための補助的な基準画像として用いられる。仮想画像により近い方の基準画像が、基本画像Iとして選択され、他方の画像が、補助画像Iとして選択され、仮想画像Iは、以下の通りである。
Figure 2010218549
ただし、αは、基本画像I内の非穴領域の場合に1、穴領域の場合に0である。
深度を用いるインペインティング
画像ブレンディングは、大部分の遮蔽物除去領域を効率的に埋める。遮蔽物除去領域は、基準画像内では見ることができないが、合成された画像内に存在するエリアである。しかしながら、残存する遮蔽物除去領域および不良の深度に起因して、いくつかの穴が依然として残る。
多くの既存のインペインティング法は、画像補間または穴埋め技法を使用し、幾何学的距離に基づいて、隣接するピクセルを用いて残存する穴を埋める。
図13において、概略的に示されるように、修復されるべき領域Ω1301は、境界∂Ω1302を有する。領域Ωに属するピクセルpは、隣接する領域Bε(p)1303内のピクセルを用いて修復される。
しかしながら、仮想画像合成における穴は、遮蔽物除去エリアに相当し、このエリアは、明らかに背景に属するので、前景ピクセルよりも背景ピクセルを用いて穴を埋めるほうが、道理に適っている。
それゆえ、本発明によるインペインティングは、以下のように、前景ピクセルよりも背景ピクセルを選ぶ。
Figure 2010218549
ただし、fgおよびbgは、それぞれ、前景および背景を表す。
言い換えると、ある特定の穴の∂Ωが前景および背景の両方に属するとき、本発明では、インペインティングによって穴が最終的に背景エリアに対応する強度で埋められるように、前景に面する境界領域のピクセル強度を、穴の向こう側に位置する背景領域のピクセル強度で置き換える。
穴境界上の特定のピクセルが前景に属するか、または背景に属するかを判断するために、本発明では、対応する深度データを用いる。言い換えると、境界の両側に2つのピクセルがある場合に、本発明では、より大きい深度を有する方のピクセルを前景に属するものと見なし、より小さい深度を有する方のピクセルを背景に属するものと見なす。

Claims (18)

  1. 深度画像をフィルタリングする方法であって、各深度画像は、位置(x,y)におけるピクセルのアレイを含み、各ピクセルは、深度を有し、該方法のステップを実行するためのプロセッサを備え、該方法は、ピクセル毎に、
    前記深度画像内の複数の前記ピクセルにわたって各ピクセルを中心とした1組のピクセルに及ぶサイズとしてウインドウをスライドさせるステップと、
    処理された深度画像を生成するために、前記ピクセルに、前記ウインドウ内の前記1組のピクセルから単一の代表深度を割り当てるステップと、
    深度不連続部を不鮮明にすることなく異常値深度を補正し、フィルタリングされた深度画像を生成するために、前記処理された深度画像内の各ピクセルをフィルタリングするステップと
    を含む方法。
  2. 前記割り当てるステップは、各ピクセルに適応メディアンフィルタを適用して復号化誤差を除去し、適応min−maxフィルタを適用して前記深度不連続部を再生することによって実行される
    請求項1に記載の方法。
  3. 前記フィルタリングするステップは、メディアンフィルタを適用して前記異常値深度を除去することによって実行される
    請求項1に記載の方法。
  4. 前記ウインドウの前記サイズは、前記深度画像を符号化するために用いられる量子化パラメータに応じて、3×3、5×5又は7×7ピクセルに設定される
    請求項1に記載の方法。
  5. 前記min−maxフィルタは、前記ウインドウ内の前記ピクセルの最小深度と該ウインドウの中心における深度との間の差の絶対値が、該ウインドウ内の最大深度と該ウインドウの該中心における深度との間の差の絶対値よりも小さいときに、該ウインドウ内の前記ピクセルの最小深度を割り当てる
    請求項2に記載の方法。
  6. 前記min−maxフィルタは、前記ウインドウ内の前記ピクセルの最小深度と該ウインドウの中心における深度との間の差の絶対値が、該ウインドウ内の最大深度と該ウインドウの該中心における深度との間の差の絶対値以上であるときに、該ウインドウの前記ピクセルの最大深度を割り当てる
    請求項2に記載の方法。
  7. 前記割り当てるステップは、各ピクセルに頻度近接フィルタを適用することによって実行される
    請求項1に記載の方法。
  8. 前記頻度近接フィルタは、前記ウインドウ内の前記ピクセルの最も出現頻度が高い深度と該ウインドウの中心における深度との間の差の絶対値が、前記ウインドウ内の前記ピクセルの2番目に出現頻度が高い深度と該ウインドウの該中心における深度との間の差の絶対値よりも小さいときに、前記ウインドウ内の前記ピクセルの2番目に出現頻度が高い深度を割り当てる
    請求項7に記載の方法。
  9. 前記頻度近接フィルタは、前記ウインドウ内の前記ピクセルの最も出現頻度が高い深度と該ウインドウの中心における深度との間の差の絶対値が、前記ウインドウ内の前記ピクセルの2番目に出現頻度が高い深度と該ウインドウの該中心における深度との間の差の絶対値以上であるときに、前記ウインドウ内の前記ピクセルの2番目に出現頻度が高い深度を割り当てる
    請求項7に記載の方法。
  10. 前記フィルタリングは、バイラテラルフィルタである
    請求項1に記載の方法。
  11. 前記フィルタリングは、3×3メディアンフィルタである
    請求項1に記載の方法。
  12. 前記割り当てるステップは、各ピクセルに頻度低高フィルタを適用することによって実行される
    請求項1に記載の方法。
  13. ウインドウ内のピクセルのための深度中央値を求めるステップと、
    前記中央値に従って、前記ウインドウ内の前記ピクセルを集合Slow及びShighに分割するステップと、
    前記集合Slow及びShighにおいてそれぞれ最も高い出現頻度を有する深度νlow及び深度νhighを求めるステップと、
    前記ピクセルの深度により近い、前記最も高い出現頻度の深度を選択するステップと
    をさらに含む請求項12に記載の方法。
  14. 前記深度画像の前記フィルタリングは、復号器の出力である再構成された深度画像において実行される
    請求項1に記載の方法。
  15. 前記深度画像の前記フィルタリングは、復号器の予測ループ内の深度画像において実行され、復号化される後続の深度画像を予測するために用いられる基準画像が生成される
    請求項1に記載の方法。
  16. 前記深度画像は、低い解像度からアップサンプリングされる
    請求項1に記載の方法。
  17. 前記深度画像は、量子化される
    請求項1に記載の方法。
  18. 前記深度画像は、推定過程からの雑音を含む
    請求項1に記載の方法。
JP2010034830A 2009-03-17 2010-02-19 深度画像をフィルタリングする方法 Expired - Fee Related JP5230669B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/405,864 US8270752B2 (en) 2009-03-17 2009-03-17 Depth reconstruction filter for depth coding videos
US12/405,864 2009-03-17

Publications (3)

Publication Number Publication Date
JP2010218549A true JP2010218549A (ja) 2010-09-30
JP2010218549A5 JP2010218549A5 (ja) 2013-03-07
JP5230669B2 JP5230669B2 (ja) 2013-07-10

Family

ID=42144831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010034830A Expired - Fee Related JP5230669B2 (ja) 2009-03-17 2010-02-19 深度画像をフィルタリングする方法

Country Status (3)

Country Link
US (1) US8270752B2 (ja)
EP (1) EP2230640B1 (ja)
JP (1) JP5230669B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123799A (ja) * 2010-12-03 2012-06-28 Nagoya Univ 仮想視点画像合成方法及び仮想視点画像合成システム
WO2013081383A1 (ko) * 2011-11-29 2013-06-06 삼성전자주식회사 깊이 영상을 고해상도로 변환하는 방법 및 장치
CN104756490A (zh) * 2012-09-18 2015-07-01 Iee国际电子工程股份公司 深度图像增强方法
JP2015530777A (ja) * 2012-07-20 2015-10-15 コーニンクレッカ フィリップス エヌ ヴェ 奥行きフィルタリング用のメタデータ
US9613293B2 (en) 2011-11-29 2017-04-04 Samsung Electronics Co., Ltd. Method and apparatus for converting depth image in high resolution
JP2018036897A (ja) * 2016-08-31 2018-03-08 キヤノン株式会社 画像処理装置、画像処理方法
WO2021014799A1 (ja) * 2019-07-19 2021-01-28 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120269458A1 (en) * 2007-12-11 2012-10-25 Graziosi Danillo B Method for Generating High Resolution Depth Images from Low Resolution Depth Images Using Edge Layers
US8189943B2 (en) * 2009-03-17 2012-05-29 Mitsubishi Electric Research Laboratories, Inc. Method for up-sampling depth images
KR20120003147A (ko) * 2010-07-02 2012-01-10 삼성전자주식회사 루프 필터를 이용한 깊이 영상 부호화 장치 및 복호화 장치
US8774267B2 (en) * 2010-07-07 2014-07-08 Spinella Ip Holdings, Inc. System and method for transmission, processing, and rendering of stereoscopic and multi-view images
US8902283B2 (en) * 2010-10-07 2014-12-02 Sony Corporation Method and apparatus for converting a two-dimensional image into a three-dimensional stereoscopic image
KR20120057216A (ko) * 2010-11-26 2012-06-05 삼성전자주식회사 깊이 센서, 상기 깊이 센서의 노이즈 감소 방법, 및 상기 깊이 센서를 포함하는 신호 처리 시스템
US20120207386A1 (en) * 2011-02-11 2012-08-16 Microsoft Corporation Updating A Low Frame Rate Image Using A High Frame Rate Image Stream
WO2012111757A1 (ja) * 2011-02-18 2012-08-23 ソニー株式会社 画像処理装置および画像処理方法
WO2012114236A1 (en) * 2011-02-23 2012-08-30 Koninklijke Philips Electronics N.V. Processing depth data of a three-dimensional scene
TWI462569B (zh) * 2011-04-22 2014-11-21 Mstar Semiconductor Inc 三維影像攝相機及其相關控制方法
WO2013014177A1 (en) * 2011-07-25 2013-01-31 Sony Corporation In-painting method for 3d stereoscopic views generation
US8682087B2 (en) * 2011-12-19 2014-03-25 Cisco Technology, Inc. System and method for depth-guided image filtering in a video conference environment
US20130202194A1 (en) * 2012-02-05 2013-08-08 Danillo Bracco Graziosi Method for generating high resolution depth images from low resolution depth images using edge information
JP5362878B2 (ja) * 2012-05-09 2013-12-11 株式会社日立国際電気 画像処理装置及び画像処理方法
US9307252B2 (en) 2012-06-04 2016-04-05 City University Of Hong Kong View synthesis distortion model for multiview depth video coding
US20150181204A1 (en) * 2012-07-18 2015-06-25 Sony Corporation Image processing apparatus, image processing method, and image display device
WO2014015460A1 (en) * 2012-07-23 2014-01-30 Thomson Licensing 3d video representation using information embedding
KR101896301B1 (ko) 2013-01-03 2018-09-07 삼성전자주식회사 깊이 영상 처리 장치 및 방법
US9064295B2 (en) * 2013-02-04 2015-06-23 Sony Corporation Enhanced video encoding using depth information
US10080036B2 (en) 2013-05-16 2018-09-18 City University Of Hong Kong Method and apparatus for depth video coding using endurable view synthesis distortion
KR102115066B1 (ko) * 2013-07-23 2020-06-05 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 비디오 안정화를 위한 적응적 경로 평활화
US9953400B2 (en) 2013-07-23 2018-04-24 Microsoft Technology Licensing, Llc Adaptive path smoothing for video stabilization
JP2015035658A (ja) * 2013-08-07 2015-02-19 キヤノン株式会社 画像処理装置、画像処理方法、および撮像装置
US9076236B2 (en) 2013-09-12 2015-07-07 At&T Intellectual Property I, L.P. Guided image upsampling using bitmap tracing
US20150077575A1 (en) * 2013-09-13 2015-03-19 Scott Krig Virtual camera module for hybrid depth vision controls
US9736455B2 (en) 2014-06-30 2017-08-15 Nokia Technologies Oy Method and apparatus for downscaling depth data for view plus depth data compression
CN104683783B (zh) * 2015-01-08 2017-03-15 电子科技大学 一种自适应深度图滤波方法
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
EP3351899B1 (en) * 2017-01-24 2020-06-17 Leica Geosystems AG Method and device for inpainting of colourised three-dimensional point clouds
EP3462408A1 (en) 2017-09-29 2019-04-03 Thomson Licensing A method for filtering spurious pixels in a depth-map
EP3462415A1 (en) * 2017-09-29 2019-04-03 Thomson Licensing Method and device for modifying attributes of points of a 3d scene
CN108182666B (zh) * 2017-12-27 2021-11-30 海信集团有限公司 一种视差校正方法、装置和终端
CN110827209A (zh) * 2019-09-26 2020-02-21 西安交通大学 一种联合颜色与深度信息的自适应深度图像修复方法
US11430179B2 (en) 2020-02-24 2022-08-30 Microsoft Technology Licensing, Llc Depth buffer dilation for remote rendering

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5848189A (en) * 1996-03-25 1998-12-08 Focus Automation Systems Inc. Method, apparatus and system for verification of patterns
US5963675A (en) * 1996-04-17 1999-10-05 Sarnoff Corporation Pipelined pyramid processor for image processing systems
DE69824230T2 (de) * 1997-04-08 2005-07-07 Koninklijke Philips Electronics N.V. Verarbeitungssystem einer verrauschten Bildsequenz und medizinisches Untersuchungsgerät mit einem solchen System
US7133569B1 (en) * 2000-07-31 2006-11-07 Polaroid Corporation Aliasing artifact attenuation system
US6816627B2 (en) * 2001-04-12 2004-11-09 Lockheed Martin Corporation System for morphological image fusion and change detection
US6973218B2 (en) * 2001-04-25 2005-12-06 Lockheed Martin Corporation Dynamic range compression
US7085401B2 (en) * 2001-10-31 2006-08-01 Infowrap Systems Ltd. Automatic object extraction
US6847728B2 (en) * 2002-12-09 2005-01-25 Sarnoff Corporation Dynamic depth recovery from multiple synchronized video streams
US20110097010A1 (en) * 2006-12-13 2011-04-28 Jian Wang Method and system for reducing noise in images in video coding
US7889949B2 (en) * 2007-04-30 2011-02-15 Microsoft Corporation Joint bilateral upsampling

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6013007736; Om Prakash Gangwal、Robert-Paul Berretty: 'Depth map post-processing for 3D-TV' Consumer Electronics, 2009. ICCE '09. Digest of Technical Papers International Conference on , 20090110 *
JPN6013007737; Chia-Ming Cheng、外3名: 'Improved novel view synthesis from depth image with large baseline' Pattern Recognition, 2008. ICPR 2008. 19th International Conference , 20081208 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123799A (ja) * 2010-12-03 2012-06-28 Nagoya Univ 仮想視点画像合成方法及び仮想視点画像合成システム
WO2013081383A1 (ko) * 2011-11-29 2013-06-06 삼성전자주식회사 깊이 영상을 고해상도로 변환하는 방법 및 장치
US9613293B2 (en) 2011-11-29 2017-04-04 Samsung Electronics Co., Ltd. Method and apparatus for converting depth image in high resolution
JP2015530777A (ja) * 2012-07-20 2015-10-15 コーニンクレッカ フィリップス エヌ ヴェ 奥行きフィルタリング用のメタデータ
CN104756490A (zh) * 2012-09-18 2015-07-01 Iee国际电子工程股份公司 深度图像增强方法
US10275857B2 (en) 2012-09-18 2019-04-30 Iee International Electronics & Engineering S.A. Depth image enhancement method
JP2018036897A (ja) * 2016-08-31 2018-03-08 キヤノン株式会社 画像処理装置、画像処理方法
WO2021014799A1 (ja) * 2019-07-19 2021-01-28 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法

Also Published As

Publication number Publication date
EP2230640B1 (en) 2013-07-10
US8270752B2 (en) 2012-09-18
JP5230669B2 (ja) 2013-07-10
EP2230640A1 (en) 2010-09-22
US20100239180A1 (en) 2010-09-23

Similar Documents

Publication Publication Date Title
JP5230669B2 (ja) 深度画像をフィルタリングする方法
JP5448912B2 (ja) 画像をアップサンプリングする方法
JP5419744B2 (ja) 仮想画像を合成する方法
JP5270573B2 (ja) ブロックアーチファクトを検出する方法及び装置
US8213500B2 (en) Methods and systems for processing film grain noise
EP2123051B1 (en) Image compression and decompression
US7076113B2 (en) Apparatus and method for adaptive spatial segmentation-based noise reducing for encoded image signal
EP2327219B1 (en) Reducing digital image noise
US20130202194A1 (en) Method for generating high resolution depth images from low resolution depth images using edge information
CA2616875A1 (en) Apparatus and method for adaptive 3d artifact reducing for encoded image signal
US20190289329A1 (en) Apparatus and a method for 3d video coding
KR20110020242A (ko) 텍스처 합성을 이용하는 이미지 코딩 방법
CN115362675A (zh) Hdr成像中的盲局部整形
JP2006128744A (ja) ブロック歪み低減装置
JP5180550B2 (ja) 画像処理装置及び画像処理方法
WO2011157593A1 (en) Method for coding and decoding a video picture
EP1570678B1 (en) Method of measuring blocking artefacts
CN111031313B (zh) 基于次级参考块和次级估计组的滤波方法和装置
Saito et al. Image denoising with hard color-shrinkage and grouplet transform
Oh Texture processing for image/video coding and super-resolution applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130117

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130319

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees