JP2010218547A - 画像をアップサンプリングする方法 - Google Patents

画像をアップサンプリングする方法 Download PDF

Info

Publication number
JP2010218547A
JP2010218547A JP2010034815A JP2010034815A JP2010218547A JP 2010218547 A JP2010218547 A JP 2010218547A JP 2010034815 A JP2010034815 A JP 2010034815A JP 2010034815 A JP2010034815 A JP 2010034815A JP 2010218547 A JP2010218547 A JP 2010218547A
Authority
JP
Japan
Prior art keywords
depth
image
filter
window
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010034815A
Other languages
English (en)
Other versions
JP5448912B2 (ja
Inventor
Sehoon Yea
セフーン・イェー
Kwan-Jung Oh
クワン・ジュン・オー
Vetro Anthony
アンソニー・ヴェトロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2010218547A publication Critical patent/JP2010218547A/ja
Application granted granted Critical
Publication of JP5448912B2 publication Critical patent/JP5448912B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

【課題】解像度を下げたビデオ内の画像をアップサンプリングする方法。
【解決手段】各画像I(x、y)は、ピクセル位置(x、y)における深度dを格納する。各深度画像をスケールアップして対応するアップスケーリングされた画像が生成される。その後、対応する膨張した画像を生成するために、画像膨張が適用され、対応する中央値画像を生成するために、メディアンフィルタが適用され、対応する収縮した画像を生成するために、画像収縮が適用され、対応するアップサンプリングされた画像を生成するために、min−maxフィルタが適用される。
【選択図】図1

Description

本発明は、包括的には画像処理に関し、より詳細には、ビデオをアップサンプリングおよびダウンサンプリングすることに関する。
深度画像
深度画像は、カメラから3D空間内のシーン要素までの距離を表す。深度画像を効率的に符号化することは、3Dビデオおよびフリービューテレビジョン(FTV)にとって重要である。FTVは、利用者が視点をインタラクティブに制御して、任意の3D像点から、動的なシーンの新たな仮想画像を生成できるようにする。
大部分の従来の画像ベースレンダリング(IBR)方式は、ステレオまたはマルチ画像によるビデオと共に、深度画像を用いて、3DおよびFTVを可能にする。H.264/AVC標準規格のマルチ画像ビデオ符号化(MVC)拡張規格は、マルチ画像によるビデオのための符号化効率を向上させるために、画像間予測に対応する。しかしながら、MVCは、深度画像のためのいかなる符号化も、特に明記していない。
深度を効率的に推定し、符号化することは、復号器において高品質の仮想画像を合成できるようにするのに、極めて重要である。
深度再構成フィルタ
従来の画像とは異なり、深度画像は、深度不連続部を除いて、空間的に単調である。従って、復号化誤差は、深度不連続部付近に集中する傾向があり、深度不連続部を保持し損なうと、仮想画像の品質が著しく劣化することになる。図7(A)および図7(B)を参照されたい。
ダウン/アップサンプラ
解像度を下げた深度を符号化すると、ビットレートを大幅に低減することができるが、解像度が失われることによって、深度不連続部のような高頻度の領域において、特に、深度マップの品質も劣化する。結果として生成される画像レンダリングアーティファクトは、視覚的に気になるものとなる。従来のダウン/アップサンプラは、いずれも、ローパスフィルタまたは補間フィルタを用いて品質劣化を抑えている。すなわち、従来のフィルタは、フィルタリングされた各ピクセルを得るために、フィルタによって覆われるいくつかのピクセルの深度を何らかの方法で合成する。そのフィルタリングは、多数の深度に依存するので、深度不連続部を「汚す」、すなわち不鮮明にする。
深度ビデオおよび画像レンダリングの結果は、特に、深度不連続部において、空間および時間の変化の影響を受けやすいので、従来の深度再構成は、仮想画像合成の場合に、特に不十分である。
解像度を下げたビデオ内の画像をアップサンプリングする方法であって、各画像I(x、y)は、ピクセル位置(x、y)における深度dを格納する。各深度画像をスケールアップして対応するアップスケーリングされた画像が生成される。その後、対応するアップサンプリングされた画像を生成するために、画像膨張、メディアンフィルタ、画像収縮およびmin−maxフィルタが適用される。
発明された深度再構成フィルタは、頻度近接フィルタと、後続のバイラテラルフィルタとを含む。頻度近接フィルタは、非線形フィルタであり、深度画像の特徴を考慮に入れて、符号化誤差を低減し、一方、バイラテラルフィルタは、深度不連続部を保存しながら、残存する異常値を低減するようになっている。
本発明の実施の形態を用いる、視点合成を含むビデオ符号化システムのブロック図である。 本発明の実施の形態を用いる、深度画像のための符号化システムのブロック図である。 本発明の実施の形態を用いる符号器のブロック図である。 本発明の実施の形態を用いる復号器のブロック図である。 本発明の一1つの実施の形態の場合における深度フィルタのブロック図である。 本発明の別の実施の形態の場合の深度フィルタのブロック図である。 本発明の実施の形態による深度フィルタリングの方法の流れ図である。 本発明の実施の形態による頻度近接フィルタのブロック図である。 本発明の実施の形態による頻度近接フィルタのブロック図である。 本発明の実施の形態による頻度近接フィルタのブロック図である。 本発明の実施の形態による低高フィルタのブロック図である。 従来技術の画像、および本発明の実施の形態による従来技術の画像である。 本発明の実施の形態によるアップサンプリングのブロック図である。 本発明の実施の形態による仮想画像合成のブロック図である。 本発明の実施の形態による深度前処理のブロック図である。 本発明の実施の形態による仮想画像合成のブロック図である。 本発明の実施の形態によるグラフである。 本発明の実施の形態によるインペインティングの概略図である。
本発明の実施の形態は、入力としてビデオ5を取得し、このビデオは、一連のテクスチャ画像と、対応する一連の深度画像とを含む。本発明のある実施の形態は、仮想画像合成のために、解像度を下げたビデオにおいて深度画像をフィルタリングすることおよび深度画像を適当に再構成することに焦点を合わせており、一方、本発明の他の実施の形態は、一連のテクスチャ画像および対応する一連の深度画像から仮想画像合成を実行する方法を示す。
図1は、入力テクスチャ画像111と入力深度画像101とを含む入力ビデオ5を示しており、このビデオは、テクスチャ/深度符号器110によって符号化され、チャネル30を通してテクスチャ/深度復号器120に送られる。テクスチャ/深度復号器120は、再構成されたテクスチャ画像112および再構成された深度画像102を出力し、これらの画像は、視点合成130への入力として用いられ、合成された仮想テクスチャ画像103が生成される。
図2は、入力ビデオの各入力深度画像101を深度符号化する方法(200)を示す。符号化(20)する前に、深度画像のサイズを縮小するように、深度画像がダウンサンプリングされる(10)。解像度を下げた深度画像がチャネル30を通して深度復号器40に送られ、深度復号器40では、アップサンプリングし、メディアンフィルタによって処理し、深度再構成フィルタを適用することによって、画像が再構成される(102)。その後、再構成された深度画像102を、仮想画像合成のために用いることができる。
システム200において復号化された(40)後に、再構成過程102が適用されることが重要である。図3は、再構成が符号器301および復号器302の予測ループ内にある、本発明の代替の実施の形態を示す。
図3Aは、ビデオ符号器301、例えば、修正されたH.264/AVC符号器をさらに詳細に示す。この符号器は、本発明の実施の形態による深度再構成フィルタ370を用いる。入力は、入力ビデオの現在の画像101と、基準画像105とを含む。出力は、符号化ビットストリーム103と、再構成されたフレーム104とを含む。入力ビデオのフレームまたは画像毎に、対応する深度画像がある。一連の深度画像のための符号化過程が説明される。テクスチャの符号化は、従来の手段によって実行される。
現在の深度画像は、動き推定(ME)310と、後続の動き補償(MC)315とによって予測されるか、または、セレクタ316に従ってイントラ予測317によって予測される。現在の深度画像と予測される深度画像との間の差が変換され(320)、量子化され(330)、エントロピー符号化され(335)、ビットストリーム103が生成される。
量子化器の出力は、逆量子化され(340)、逆変換される(350)。逆変換の後に、デブロッキングフィルタ360および再構成フィルタ370が用いられ、再構成された深度画像104が生成され、この画像は、入力ビデオの後続のフレームによって、基準画像105としても用いられる。
図3Bは、対応する復号器302を示す。入力は、基準画像105およびビットストリーム103である。出力は、再構成された深度画像104である。その構成要素は、エントロピー復号器375、逆量子化340、逆変換350、デブロッキングフィルタ360、再構成フィルタ370、イントラ予測317、および動き補償315を含む。デブロッキングは、厳密な復号化が望まれる場合を除いて、オプションとすることができる。
エントロピー復号器375は別として、復号器302は、符号器301にも含まれる。これは、MPEG−2およびH.264のような任意の予測ベースビデオ標準規格の典型である。これは、現在の画像を予測するために、符号器および復号器の両方によって同一の先行フレームが用いられるのを保証する。
深度再構成
本発明によるフィルタリングは、スライディングウインドウ内で単一の代表深度を選択して、欠けているかまたは歪んでいる深度を再生し、かつ深度不連続部にある深度画像内の構造、例えば、物体境界およびエッジを不鮮明にすることなく、異常値を除去する。
フィルタI
図4Aは、復号化誤差を除去するための適応メディアンフィルタ411と、復号化された画像から深度不連続部を再生するための適応min−maxフィルタ412と、任意の残存する誤差を除去するための3×3メディアンフィルタ413とを含む、本発明の深度再構成フィルタ401の一1つの実施の形態を示す。
適応メディアンフィルタ
メディアンフィルタ411は、雑音を低減するために用いられる非線形フィルタである。メディアンフィルタは、平均フィルタのように、深度中央値に大きく影響を及ぼさない。さらに、フィルタが深度不連続部をまたぐときに、中央値は、新たな非現実的ピクセル深度を生じる原因にはならない。しかしながら、メディアンフィルタの安定性は、ウインドウサイズによるので、本発明では、ウインドウサイズを適応的に調整する。
深度復号化誤差の分布は、量子化パラメータ(QP)に依存するので、適応メディアンフィルタも、深度画像を符号化するために用いられるQPに従ってウインドウサイズを調整する。本発明では、QPを、以下に説明されるように、3つの群(低、中、高)に分類し、群毎に3×3、5×5および7×7メディアンフィルタを適用する。
Figure 2010218547
ただし、QPminおよびQPmaxは、最小QP深度および最大QP深度であり、上式中の
Figure 2010218547
は、天井関数であり、
Figure 2010218547
以上の最も小さな整数を返すものである。
適応min−maxフィルタ
適応min−maxフィルタは、適応メディアンフィルタと同じサイズである。このフィルタは、以下の通りである。
Figure 2010218547
ただし、Aは、長方形領域であり、I(x、y)は、その領域内の(x、y)におけるピクセルのピクセル深度であり、関数minおよびmaxは、最小深度および最大深度を返す。
深度画像において、ピクセル強度は、実際には深度を表すことを理解されたい。従って、本明細書において、用語「強度」および「深度」は、同義語である。
メディアンフィルタ
最後の3×3メディアンフィルタリングは、異常値深度を補正する。
フィルタII
図4Bは、頻度近接フィルタ421およびバイラテラルフィルタ422を含む、本発明の深度再構成フィルタ402における1つの実施の形態を示す。
頻度近接フィルタ
図5に示されるように、本発明では、最初に、前処理された入力深度画像501に頻度近接(FC)フィルタ421を適用して、中間深度画像502を生成し、その後、中間深度画像は、バイラテラルフィルタ422によって処理され、出力深度画像503が生成される。
頻度近接フィルタは、以下のように定義される非線形フィルタである。
Figure 2010218547
ただし、Aはピクセルの長方形領域を表し、I(x、y)は、A内の(x、y)におけるピクセルの深度であり、FCfirstおよびFCsecondは、それぞれ、領域A内の深度の最も高い出現頻度および2番目に高い出現頻度のピクセル深度である。
言い換えると、I(x、y)は、頻度近接フィルタにおいて2つの代表深度FCfirstおよびFCsecondのうちの近い方によって割り当てられる。
図6A〜図6Cは、3×3FCの一例601を示す。動くウインドウを左から右および上から下に向かって走査しながら、9個のピクセルが次々にフィルタリングされる。ウインドウ内の各ピクセル深度の出現頻度がカウントされ、中央ピクセルの深度が、どちらに近いかによって、最も頻度が高い深度または2番目に頻度が高い深度に変更される。
頻度近接フィルタは、他の線形フィルタよりも優れた以下の利点を有する。このフィルタは、異常値ピクセルを正確にフィルタリングする。隣接するピクセルと同じような深度を有しない単一のピクセルは、頻度近接深度に大きく影響を及ぼさない。
頻度近接深度は、その近辺にあるピクセルのうちのただ1つのピクセルの深度であるので、頻度近接フィルタは、フィルタが深度不連続部、例えば、物体境界またはエッジをまたぐときに、非現実的なピクセル深度を生成することはない。
フィルタIII
頻度低高フィルタ
図6Dに示されるように、頻度低高フィルタの基本的な動作は、以下の通りである。フィルタウインドウW609内のピクセルのための中央値611が求められる(610)。その後、その中央値を用いて、ピクセルが2つの集合、すなわち、Slow621およびShigh622に分割され(620)、集合Slowが中央値よりも小さな深度を有するピクセルを含み、集合Shighが、中央値よりも大きな深度を有するピクセルを含むようにする。
集合毎に、それぞれ「高」および「低」の場合に、それらの集合内の最も高い出現頻度を有する深度、すなわちνlowを選択する。ウインドウ内の中央ピクセル毎の頻度低高フィルタの出力640は、νhigh632およびνlow631のうちのピクセル深度に近い方である。
より形式的には、本発明では、m×nウインドウW(i、j)609を定義する。ただし、mおよびnは、奇数である。
ウインドウW内のピクセルは、その深度によって以下のように並べ替えられる。
Figure 2010218547
ここで、ウインドウWの深度中央値611は、以下の通りである。
Figure 2010218547
ウインドウW内のピクセルは、以下のようにmedian(W)に従って、低集合(Slow)群および高集合(Shigh)群に分割される。
Figure 2010218547
集合Slow内のピクセルkの場合に、本発明では、Slowに属する各深度νの確率を以下のように計算する。
Figure 2010218547
確率Plow(ν)から、本発明では、最も高い確率を有する深度を選択し、そして、深度νlowを、以下のように定義する。
Figure 2010218547
ただし、関数maxは、最も大きな深度を返す。
すなわち、νlowは、1組のピクセル強度の中で最も高い出現頻度を有するピクセル深度であり、それらは、ウインドウWの深度中央値よりも小さい。
同じようにして、本発明では、Phigh(ν)およびνhighを定義する。
所与のピクセルの場合の代表深度は、以下の通りである。
Figure 2010218547
ただし、W(x、y)は、ウインドウW内の中央ピクセルであり、ピクセルW(x、y)は、2つの代表深度νlowおよびνhighのうちの近い方が割り当てられる。
本発明による頻度低高フィルタは、線形フィルタよりも優れた以下の利点を有する。このフィルタは、異常値ピクセルを正確に処理する。隣接するピクセルと同じような深度を有しない単一のピクセルが、頻度低高深度に大きく影響を及ぼさない。頻度低高深度は、その近辺にある複数のピクセルのうちの1つのピクセルの深度であるので、その深度は、フィルタが深度不連続部をまたぐときに、非現実的なピクセル深度を生成することはない。
バイラテラルフィルタ
上記のフィルタを用いて、再構成された深度画像を処理した後に、アーティファクトとして現れる多少の誤差が深度不連続部に依然として残存する可能性がある。残存する誤差を低減するために、本発明では、中間画像502にバイラテラルフィルタ422を適用して、出力深度画像503を生成する。
本発明の実施の形態による図7(C)および図7(D)内の画像は、深度不連続部に沿って、従来技術の画像図7(A)および図7(B)よりもアーティファクトが少ないことは明らかである。
一般的に、バイラテラルフィルタは、画像処理のために有用なエッジ保存フィルタである。多くのフィルタが、ピクセル間の幾何学的距離にのみ基づく、画像領域内の畳み込みであるのに対して、バイラテラルフィルタは、ピクセル深度も考慮に入れる。バイラテラルフィルタは、ピクセルの深度を、隣接するピクセルの重み付き平均で置き換える。しかしながら、その重みは、幾何学的距離に基づくだけでなく、ピクセル深度の差にも基づいて求められる。バイラテラルフィルタは、不連続部周囲に残存する誤差を除去し、隣接するピクセル深度の非線形結合によって、深度不連続部を保存する。これは、深度不連続部を横切るピクセルの影響を系統的に制限することによって成し遂げられる。
本発明によるバイラテラルフィルタは、2つのパラメータ、色σ(σ)および空間σ(σ)を有し、これらのパラメータは、2つのフィルタカーネルの強度を決定し、各カーネルは、それぞれ入力ピクセルの測光距離および幾何学的距離に関連する。
ダウン/アップサンプリング
2D画像をダウンサンプリングするために、ある特定のウインドウ内のピクセル深度の中の代表深度が選択される。本発明では、以下の深度中央値を選択する。
Figure 2010218547
ただし、dは、ダウンサンプリング係数を表す。また、下式は、ウインドウ内のピクセル深度の2Dアレイを表す。
Figure 2010218547
図8に示されるように、アップサンプリング800は、以下のステップ、すなわち、画像アップスケーリング810、画像膨張820、メディアンフィルタリング830、画像収縮840およびmin−maxフィルタリング850を含む。
膨張および収縮
形態的膨張および収縮は、画像処理の技術分野においてよく知られている用語である。出力画像における任意の所与のピクセルの状態は、入力画像内の対応するピクセルおよびその隣接ピクセルに、ある規則を適用することによって決定される。
膨張規則の場合、出力ピクセルの深度は、入力ピクセルの近辺にある全てのピクセルの最大深度である。膨張は、一般的に、物体のサイズを大きくし、穴および破損したエリアを埋め、小さな空間によって分離されるエリアを接続する。グレースケール画像では、膨張は、近辺の最大値を取ることによって、物体の輝度を高める。2値画像の場合、膨張は、構造化要素よりも小さな距離だけ分離されるエリアを接続し、各画像物体の周辺にピクセルを追加する。
収縮
収縮規則の場合、出力ピクセルの深度は、近辺にある全てのピクセルの最小深度である。収縮は、一般的に、物体のサイズを小さくし、構造化要素よりも小さな半径を有する物体を取り去ることによって、小さな異常を除去する。グレースケール画像では、収縮は、近辺の最小値を取ることによって、暗い背景上の明るい物体の輝度を小さくし、それゆえ、サイズを小さくする。
画像アップスケーリングは、以下の通りである。
Figure 2010218547
ただし、uは、アップサンプリング係数を表し、これは、ダウンサンプリングにおけるdと同じである。本発明では、アップサンプリングの最初のステップにおいて、簡単な手法を用いるので、中間画像内にブロッキングアーティファクトが存在する可能性がある。
ステップ820、830および840は、ブロッキングアーティファクトを除去する。画像領域A上で作用する構造化要素Bを用いる、A内の(x、y)における画像膨張および収縮演算の出力ピクセル深度は、それぞれ下式(1)および(2)において与えられる。
Figure 2010218547
ただし、Aは、(x、y)を中心にして構造化要素Bによって覆われるエリア内の全てのピクセルの集合であり、max[・]およびmin[・]は、それぞれ、[・]内にある集合内のピクセル深度の最大値および最小値を表す。すなわち、(x、y)における膨張による出力ピクセルの深度は、A内の全てのピクセルの最大深度である。
同様に、(x、y)における収縮による出力ピクセルの深度は、A内の全てのピクセルの最小深度である。本発明では、u√2に設定された円板半径を有する円形の構造化要素を用いる。本発明では、半径u√2を有する円形の構造化要素を用いる。
深度不連続部を再生するmin−maxフィルタリングは、以下の通りである。
Figure 2010218547
ただし、Aは、3×3長方形領域であり、I(x、y)は、A内の(x、y)におけるピクセルの深度である。
仮想画像合成
本明細書において定義される場合、仮想画像は、入力ビデオ内に存在しない画像、例えば、入力ビデオを取得するときに存在しないカメラ視点からのシーンの画像である。
図9に示されるように、本発明による合成は、以下のステップ、すなわち、深度前処理910、深度ベース3Dワーピング920、深度ベースヒストグラムマッチング930、基本画像と補助画像とのブレンディング940、および深度ベースインペインティング950を有し、これらは、全て後にさらに詳細に説明される。
深度前処理は、誤差を補正し、深度の空間的および時間的整合性を高めるために、取得されたシーン深度データに対して実行される。深度ベース3Dワーピングは、テクスチャを直接ワーピングする際に、丸め誤差によって引き起こされる不連続問題を補正する。深度ベースワーピングは、シーンの幾何学的形状を記述するカメラパラメータを用いる。
深度ベースヒストグラムマッチングは、2つの基準画像間の照度差を小さくする。
基本画像と補助画像とのブレンディングは、深度およびカメラパラメータが正確でなくても、2つの3Dワーピング済み基準画像をブレンドし、仮想画像を生成する。
深度ベースインペインティングは、仮想画像内に残存する任意の穴を埋める。
図11は、第1の画像1101および第2の画像1102から合成された仮想画像1103を生成するためのステップを示す。典型的には、第1および第2の画像は、所望の仮想画像のための画像の左および右にある。
深度前処理
一般的に、深度データは、深度または距離カメラおよびコンピュータグラフィックツールを用いて取得することができるか、または好ましい深度推定手順によって求めることができる。
図10に示されるように、深度前処理は、時間フィルタリング1010、初期誤差補償1020および空間フィルタリング1030を含む。本発明では、平均化フィルタの代わりに、メディアンフィルタリングを適用する。これは、平均化フィルタは、結果として、初期深度画像内に存在しない新たなピクセル深度を生成し、それがレンダリングの品質を劣化させるためである。
第1のステップとして、本発明では、連続した深度画像フレームの同じ場所にあるピクセルに沿って1Dメディアンフィルタを適用し、同じ物体または背景に属する深度の時間的な不整合を低減する。そのメディアンフィルタは、以下の通りである。
Figure 2010218547
ただし、Xi、j、tは、時刻tにおいて空間位置(i、j)にあるピクセルの深度であり、Ji、j、tは、時空間位置(i、j、t)を中心とした3×3×3ウインドウ内の1組のピクセルであり、γは、フィルタが適用されるか否かを判断するための深度しきい値である。
次のステップは、初期誤差を補償し、この誤差は、典型的な深度推定過程における前景および背景の融合に誤りがあることによって引き起こされる可能性がある。通常、その誤差は、前景および背景が同じようなテクスチャを有し、それらのテクスチャが、視覚的に区別するのは容易であるが、除去するのが難しいときに生じる。
本発明では、以下のように定義される画像膨張および収縮を用いることによって初期誤差を補正する。
Figure 2010218547
ただし、Aは、画像を表し、Bは、A上で作用する構造化要素である。Aは、Bで覆われた領域であり、(x、y)は、画像A内のピクセルである。本発明では、半径5の円板を有する円形の構造化要素を用いる。
最後のステップは、2Dメディアンフィルタを用いて、推定された深度画像内の異常値をフィルタリングし、雑音を除去する。5×5フィルタは、Yi、j=median(Ji、j)である。ただし、Ji、jは、位置(i、j)を中心とした5×5ウインドウ内の1組のピクセルである。
深度ベース3Dワーピング
大部分の従来の仮想画像合成法は、対応する深度マップを用いて、テクスチャ画像をワーピングする。しかしながら、隣接する画像のテクスチャ画像を仮想画像平面内に直接3Dワーピングすると、多くの場合に、合成された仮想画像内に偽りの黒い輪郭が生成される。これらの輪郭は、仮想画像の座標の整数表現に関わる丸め誤差によって、また、誤った初期深度によって引き起こされる。
逆ワーピングによって、仮想画像に対応する深度画像が得られた後に、本発明では、この深度画像を用いて、合成された仮想画像内に偽りの黒い輪郭を生成することなく、隣接する画像からの適当なテクスチャ強度を特定することができる。仮想画像に対応する深度画像を得るために、本発明では、最初に、対応する基準画像の深度画像をワーピングする。3Dワーピングにおいて、基準画像内のピクセルは、3D空間に逆投影され、シーンの幾何学的形状を記述するカメラパラメータを用いて、目標仮想画像上に再投影される。
基準画像内の点(u、ν、1)を3D空間内の座標(x、y、z)に逆投影することは、以下の通りである。
Figure 2010218547
ただし、A、Rおよびtは、基準画像のカメラパラメータであり、dは、逆投影される必要がある3D空間内の点の深度を表し、Tは、転置演算子である。
その後、本発明では、以下のように、上記の3D点から再投影される仮想画像内の対応する座標(l、m、n)を特定する。
Figure 2010218547
ただし、A、Rおよびtは、仮想画像のカメラパラメータである。座標(l、m、n)は、(l/n、m/n、1)に正規化され、その後、仮想画像内の整数座標(U、V)として表される。
テクスチャワーピングの場合と全く同じ理由から、ワーピング済み深度画像内に現れる偽りの黒い輪郭を除去するために、本発明では、メディアンフィルタリングを適用する。
深度ベースヒストグラムマッチング
仮想画像合成のための2つの基準画像を有する場合に、本発明では、最初に、2つ、すなわち、各画像1101および1102から1つずつの3Dワーピング済み画像を合成することができる。これらの2つのワーピング済み画像をブレンドする前に、本発明では、ヒストグラムマッチングを適用して、合成された画像の不整合を引き起こす場合がある、2つの画像間の照度差および色差を低減する。
2つの3Dワーピング済み基準画像のピクセル強度のヒストグラムが、同じような分布を有するように調整される。この過程は、ピクセル強度が表現されるRGBデータフォーマットの成分毎に適用される。
2つの3Dワーピング済み画像が、全く同じ対応する場所に穴が存在するように変更され、その後、メディアンフィルタを適用して雑音が低減される。結果として、2つのワーピング済み画像は、その照度がわずかに異なることを除いて、同じようなテクスチャを有する。画像内に穴が存在することは、ヒストグラムの形状に大きな影響を及ぼすので、この変更は、ヒストグラムマッチングの精度を大幅に高める。
次に、本発明では、ワーピング済みの第1および第2の画像のヒストグラムを構成する。
[m、n]が、第1の画像の振幅を表すものとする。その際、ヒストグラムは、以下のようになる。
Figure 2010218547
ただし、wは、画像幅を表し、hは、画像高である。νの強度は、0〜255の範囲にある。マッピング関数Mを生成するために、2つのステップが必要である。最初に、左画像の累積ヒストグラムC[ν]が、以下のように構成される。
Figure 2010218547
右画像のヒストグラムh[ν]および累積ヒストグラムC[ν]も同じようにして構成される。
それらの累積ヒストグラムに基づいて、本発明では、以下の式を用いて、仮想画像のための累積ヒストグラムC[ν]を構成する。
Figure 2010218547
ただし、CおよびCは、ワーピング済みの左画像および右画像のための累積ヒストグラムである。一般的に、重み係数αは、基線距離に基づく。
Figure 2010218547
ただし、tは、画像毎の並進ベクトルである。
図12に示されるように、左画像と仮想画像との間のマッピング関数は、基準画像内の出現回数を仮想画像内の出現回数と一致させることによって得られる。
Figure 2010218547
マッピング関数は、左画像y[m、n]および右画像y[m、n]に適用され、結果として、以下のように、ヒストグラムマッチング済みの画像yHML[m、n]およびyHMR[m、n]が生成される。
Figure 2010218547
一般的に、カメラ毎に照明が異なると、照度差および色差が生じ、各物体および色成分に異なる影響が及ぼされる。本発明では、局所的にヒストグラムマッチングを適用し、それらの領域は、深度を用いて分割される。
基本画像と補助画像とのブレンディング
2つの3Dワーピング済み画像は、重み付けられた(α)和を用いて合成することができる。
Figure 2010218547
ただし、IおよびIは、3Dワーピング済み基準テクスチャ画像であり、Iは、仮想画像である。
しかしながら、カメラパラメータに起因して、基準画像からの一致しない深度および強度がワーピング済み画像に寄与している可能性があり、それにより、多くの場合に二重エッジアーティファクトおよび平滑化に繋がる。
その問題を避けるために、本発明では、画像ブレンディングのための基本画像および補助画像を定義する。基本画像は、ピクセル強度の大部分がワーピングされる主基準画像である。補助画像は、インペインティングのための補助的な基準画像として用いられる。仮想画像により近い方の基準画像が、基本画像Iとして選択され、他方の画像が、補助画像Iとして選択され、仮想画像Iは、以下の通りである。
Figure 2010218547
ただし、αは、基本画像I内の非穴領域の場合に1、穴領域の場合に0である。
深度を用いるインペインティング
画像ブレンディングは、大部分の遮蔽物除去領域を効率的に埋める。遮蔽物除去領域は、基準画像内では見ることができないが、合成された画像内に存在するエリアである。しかしながら、残存する遮蔽物除去領域および不良の深度に起因して、いくつかの穴が依然として残る。
多くの既存のインペインティング法は、画像補間または穴埋め技法を使用し、幾何学的距離に基づいて、隣接するピクセルを用いて残存する穴を埋める。
図13において、概略的に示されるように、修復されるべき領域Ω1301は、境界∂Ω1302を有する。領域Ωに属するピクセルpは、隣接する領域Bε(p)1303内のピクセルを用いて修復される。
しかしながら、仮想画像合成における穴は、遮蔽物除去エリアに相当し、このエリアは、明らかに背景に属するので、前景ピクセルよりも背景ピクセルを用いて穴を埋めるほうが、道理に適っている。
それゆえ、本発明によるインペインティングは、以下のように、前景ピクセルよりも背景ピクセルを選ぶ。
Figure 2010218547
ただし、fgおよびbgは、それぞれ、前景および背景を表す。
言い換えると、ある特定の穴の∂Ωが前景および背景の両方に属するとき、本発明では、インペインティングによって穴が最終的に背景エリアに対応する強度で埋められるように、前景に面する境界領域のピクセル強度を、穴の向こう側に位置する背景領域のピクセル強度で置き換える。
穴境界上の特定のピクセルが前景に属するか、または背景に属するかを判断するために、本発明では、対応する深度データを用いる。言い換えると、境界の両側に2つのピクセルがある場合に、本発明では、より大きい深度を有する方のピクセルを前景に属するものと見なし、より小さい深度を有する方のピクセルを背景に属するものと見なす。

Claims (9)

  1. 解像度を下げたビデオ内の画像をアップサンプリングする方法であって、各画像I(x、y)は、ピクセル位置(x、y)における深度dを格納し、該方法のステップを実行するためのプロセッサを備え、該方法は、
    対応するアップスケーリングされた画像を生成するために、各深度画像をスケールアップするステップと、
    対応する膨張した画像を生成するために、前記アップスケールされた各画像に画像膨張を適用するステップと、
    対応する中央値画像を生成するために、前記膨張した各画像にメディアンフィルタを適用するステップと、
    対応する収縮した画像を生成するために、前記各中央値画像に画像収縮を適用するステップと、
    対応するアップサンプリングされた画像を生成するために、前記収縮した各画像にmin−maxフィルタを適用するステップと
    を含む方法。
  2. 前記アップスケーリングは、下式
    Figure 2010218547
    であり、ここで、uはアップサンプリング係数を表す
    請求項1に記載の方法。
  3. 前記画像膨張および前記画像収縮は、それぞれ下式
    Figure 2010218547
    であり、ここで、Aは、位置(x、y)を中心にして構造化要素Bによって覆われるエリア内の全てのピクセルの集合を表し、max[・]およびmin[・]は、それぞれ、[・]内の集合内の深度の最大値および最小値を表す
    請求項1に記載の方法。
  4. 前記構造化要素は、u√2の半径を有する
    請求項3に記載の方法。
  5. 前記min−maxフィルタは、ウインドウ内のピクセルの最小深度と該ウインドウの中心における深度との間の差の絶対値が、該ウインドウ内の最大深度と該ウインドウの該中心における深度との間の差の絶対値よりも小さいときに、該ウインドウ内の該ピクセルの最小深度を割り当てる
    請求項1に記載の方法。
  6. 前記min−maxフィルタは、ウインドウ内のピクセルの最小深度と該ウインドウの中心における深度との間の差の絶対値が、該ウインドウ内の最大深度と該ウインドウの該中心における深度との間の差の絶対値以上であるときに、該ウインドウ内の該ピクセルの最大深度を割り当てる
    請求項1に記載の方法。
  7. 前記深度画像を用いて仮想画像を合成する
    ことをさらに含む請求項1に記載の方法。
  8. 前記深度画像の前記アップサンプリングは、復号器の出力である再構成された深度画像に対して実行される
    請求項1に記載の方法。
  9. 復号化される後続の深度画像を予測するために用いられる基準画像を生成するために、前記深度画像の前記アップサンプリングは、復号器の予測ループ内の深度画像に対して実行される
    請求項1に記載の方法。
JP2010034815A 2009-03-17 2010-02-19 画像をアップサンプリングする方法 Expired - Fee Related JP5448912B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/405,884 US8189943B2 (en) 2009-03-17 2009-03-17 Method for up-sampling depth images
US12/405,884 2009-03-17

Publications (2)

Publication Number Publication Date
JP2010218547A true JP2010218547A (ja) 2010-09-30
JP5448912B2 JP5448912B2 (ja) 2014-03-19

Family

ID=42219824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010034815A Expired - Fee Related JP5448912B2 (ja) 2009-03-17 2010-02-19 画像をアップサンプリングする方法

Country Status (3)

Country Link
US (2) US8189943B2 (ja)
EP (1) EP2230856B1 (ja)
JP (1) JP5448912B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020158646A1 (ja) * 2019-01-30 2020-08-06 日本電信電話株式会社 深度超解像装置、深度超解像方法、及びプログラム

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120269458A1 (en) * 2007-12-11 2012-10-25 Graziosi Danillo B Method for Generating High Resolution Depth Images from Low Resolution Depth Images Using Edge Layers
WO2011046607A2 (en) * 2009-10-14 2011-04-21 Thomson Licensing Filtering and edge encoding
US8885890B2 (en) * 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
KR20110135044A (ko) * 2010-06-10 2011-12-16 삼성전자주식회사 3d영상 처리 장치 및 그 방법
KR20120003147A (ko) * 2010-07-02 2012-01-10 삼성전자주식회사 루프 필터를 이용한 깊이 영상 부호화 장치 및 복호화 장치
KR20120014876A (ko) * 2010-08-10 2012-02-20 삼성전자주식회사 영상 처리 장치 및 방법
TWI402768B (zh) * 2010-08-13 2013-07-21 Primax Electronics Ltd 產生高解析度影像之方法
US8755625B2 (en) 2010-11-19 2014-06-17 Analog Devices, Inc. Component filtering for low-light noise reduction
US8699813B2 (en) * 2010-11-19 2014-04-15 Analog Devices, Inc Adaptive filter for low-light noise reduction
EP2466898B1 (en) * 2010-12-20 2017-10-18 Vestel Elektronik Sanayi ve Ticaret A.S. A method and apparatus for calibration of stereo images
US9661301B2 (en) 2011-02-18 2017-05-23 Sony Corporation Image processing device and image processing method
US9113145B2 (en) * 2011-03-25 2015-08-18 Semiconductor Components Industries, Llc Contrast matching for stereo image
US8934026B2 (en) 2011-05-12 2015-01-13 Cisco Technology, Inc. System and method for video coding in a dynamic environment
KR101248808B1 (ko) * 2011-06-03 2013-04-01 주식회사 동부하이텍 경계 영역의 잡음 제거 장치 및 방법
US9047681B2 (en) 2011-07-07 2015-06-02 Samsung Electronics Co., Ltd. Depth image conversion apparatus and method
US8837816B2 (en) * 2011-09-27 2014-09-16 Mediatek Inc. Method and apparatus for generating final depth information related map that is reconstructed from coarse depth information related map through guided interpolation
KR101863626B1 (ko) 2011-11-02 2018-07-06 삼성전자주식회사 영상 처리 장치 및 방법
KR101978172B1 (ko) 2011-11-29 2019-05-15 삼성전자주식회사 깊이 영상을 고해상도로 변환하는 방법 및 장치
US8682087B2 (en) * 2011-12-19 2014-03-25 Cisco Technology, Inc. System and method for depth-guided image filtering in a video conference environment
US20130202194A1 (en) * 2012-02-05 2013-08-08 Danillo Bracco Graziosi Method for generating high resolution depth images from low resolution depth images using edge information
CA2870308A1 (en) * 2012-04-19 2013-10-24 Telefonaktiebolaget L M Ericsson (Publ) View synthesis using low resolution depth maps
JP5362878B2 (ja) * 2012-05-09 2013-12-11 株式会社日立国際電気 画像処理装置及び画像処理方法
WO2014013805A1 (ja) * 2012-07-18 2014-01-23 ソニー株式会社 画像処理装置及び画像処理方法、並びに画像表示装置
US9014474B2 (en) * 2012-09-06 2015-04-21 Cyberlink Corp. Systems and methods for multi-resolution inpainting
US9681154B2 (en) 2012-12-06 2017-06-13 Patent Capital Group System and method for depth-guided filtering in a video conference environment
US9214138B2 (en) 2012-12-28 2015-12-15 Microsoft Technology Licensing, Llc Redundant pixel mitigation
US9135742B2 (en) 2012-12-28 2015-09-15 Microsoft Technology Licensing, Llc View direction determination
TWI602144B (zh) * 2013-10-02 2017-10-11 國立成功大學 包裝彩色圖框及原始景深圖框之方法、裝置及系統
US20150097827A1 (en) * 2013-10-09 2015-04-09 Adobe Systems Incorporated Target Region Fill Utilizing Transformations
KR20150055441A (ko) * 2013-11-13 2015-05-21 삼성디스플레이 주식회사 입체 영상 표시 장치 및 입체 영상 표시 방법
CN106144862B (zh) 2015-04-03 2020-04-10 奥的斯电梯公司 用于乘客运输门控制的基于深度传感器的乘客感测
CN106144797B (zh) 2015-04-03 2020-11-27 奥的斯电梯公司 用于乘客运输的通行列表产生
CN108141593B (zh) * 2015-07-31 2022-05-03 港大科桥有限公司 用于针对深度视频的高效帧内编码的基于深度不连续的方法
CN105260989B (zh) * 2015-09-10 2019-01-29 安徽工业大学 基于多图配准复原三维图像的方法
KR20170040571A (ko) 2015-10-05 2017-04-13 한국전자통신연구원 깊이 정보 생성 장치 및 방법
CN105354805B (zh) * 2015-10-26 2020-03-06 京东方科技集团股份有限公司 深度图像的去噪方法和去噪设备
GB2543776B (en) * 2015-10-27 2019-02-06 Imagination Tech Ltd Systems and methods for processing images of objects
RU2646358C2 (ru) * 2016-04-07 2018-03-02 Николай Дмитриевич Егоров Способ устранения избыточности при сжатии последовательности изображений
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
EP3351899B1 (en) * 2017-01-24 2020-06-17 Leica Geosystems AG Method and device for inpainting of colourised three-dimensional point clouds
US10694181B2 (en) * 2017-01-27 2020-06-23 Qualcomm Incorporated Bilateral filters in video coding with reduced complexity
US10445861B2 (en) * 2017-02-14 2019-10-15 Qualcomm Incorporated Refinement of structured light depth maps using RGB color data
EP3635957B1 (en) 2017-06-29 2024-05-22 Huawei Technologies Co., Ltd. Apparatuses and methods for encoding and decoding a video coding block of a multiview video signal
CN108537753B (zh) * 2018-04-10 2021-12-03 武汉大学 一种基于上下文特征空间约束的图像修复方法
JP2020009180A (ja) 2018-07-09 2020-01-16 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
US11164339B2 (en) * 2019-11-12 2021-11-02 Sony Interactive Entertainment Inc. Fast region of interest coding using multi-segment temporal resampling
US11210774B2 (en) * 2020-03-31 2021-12-28 Disney Enterprises, Inc. Automated pixel error detection using an inpainting neural network
CN113938665B (zh) * 2020-07-14 2023-10-13 宏达国际电子股份有限公司 用于传输缩减的深度信息的方法和电子装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01161581A (ja) * 1987-12-18 1989-06-26 Hitachi Ltd 局所画像処理方法
JPH08331565A (ja) * 1995-05-30 1996-12-13 Matsushita Electric Ind Co Ltd 画像符号化方法とその装置
JP2004046777A (ja) * 2002-05-15 2004-02-12 Nec Corp 画像処理装置及びそれに用いる画像処理方法並びにそのプログラム
WO2008068707A2 (en) * 2006-12-04 2008-06-12 Koninklijke Philips Electronics N.V. Image processing system for processing combined image data and depth data

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2904671B2 (ja) * 1993-03-03 1999-06-14 大日本スクリーン製造株式会社 多階調画像の修正装置
JPH07299053A (ja) * 1994-04-29 1995-11-14 Arch Dev Corp コンピュータ診断支援方法
US5659626A (en) * 1994-10-20 1997-08-19 Calspan Corporation Fingerprint identification system
JPH11501538A (ja) * 1995-03-03 1999-02-09 アーチ ディヴェロプメント コーポレイション 医用画像において病巣を検出する方法及びシステム
US6487317B1 (en) * 1996-01-16 2002-11-26 Eastman Kodak Company Conjugate-channel compression of images to be multitoned
DE69721913T2 (de) * 1996-03-13 2004-05-13 Koninklijke Philips Electronics N.V. Filterverfahren und dazugehöriges filtersystem
US5848189A (en) * 1996-03-25 1998-12-08 Focus Automation Systems Inc. Method, apparatus and system for verification of patterns
US6192160B1 (en) * 1996-09-19 2001-02-20 Hyundai Microelectronics Co., Ltd. Hardware architectures for image dilation and erosion operations
EP0871143B1 (fr) * 1997-04-08 2004-06-02 Koninklijke Philips Electronics N.V. Système de traitement d'une séquence d'images bruitées, et appareil d'examen médical incluant un tel système
US5999639A (en) * 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
US6061476A (en) * 1997-11-24 2000-05-09 Cognex Corporation Method and apparatus using image subtraction and dynamic thresholding
US20050146521A1 (en) * 1998-05-27 2005-07-07 Kaye Michael C. Method for creating and presenting an accurate reproduction of three-dimensional images converted from two-dimensional images
US6195659B1 (en) * 1998-07-14 2001-02-27 Trw Inc. Method and apparatus for morphological clustering having multiple dilation and erosion of switchable grid data cells
WO2000019372A1 (en) * 1998-09-28 2000-04-06 Orbotech Ltd. Pixel coding and image processing method
IL131092A (en) * 1999-07-25 2006-08-01 Orbotech Ltd Optical inspection system
AUPQ849200A0 (en) * 2000-06-30 2000-07-27 Cea Technologies Inc. Unsupervised scene segmentation
US6741755B1 (en) * 2000-12-22 2004-05-25 Microsoft Corporation System and method providing mixture-based determination of opacity
US6603882B2 (en) * 2001-04-12 2003-08-05 Seho Oh Automatic template generation and searching method
US6813373B1 (en) * 2001-04-03 2004-11-02 Koninklijke Philips Electronics, N.V. Image segmentation of embedded shapes using constrained morphing
US6816627B2 (en) * 2001-04-12 2004-11-09 Lockheed Martin Corporation System for morphological image fusion and change detection
AU2002341671A1 (en) * 2001-09-14 2003-04-01 Cornell Research Foundation, Inc. System, method and apparatus for small pulmonary nodule computer aided diagnosis from computed tomography scans
US7194143B2 (en) * 2002-04-26 2007-03-20 Pegasus Imaging Corporation Method of enhancement of the visual display of images and other visual data records
US7143005B2 (en) * 2002-05-06 2006-11-28 Veeco Instruments Inc. Image reconstruction method
US20040208390A1 (en) * 2003-04-18 2004-10-21 Medispectra, Inc. Methods and apparatus for processing image data for use in tissue characterization
US7580556B2 (en) * 2004-01-26 2009-08-25 Drvision Technologies Llc Image region partitioning using pre-labeled regions
US7308137B2 (en) * 2004-06-08 2007-12-11 Benq Corporation Method of determining color composition of an image
US8520253B2 (en) * 2005-03-22 2013-08-27 Infoprint Solutions Company, Llc Method and system for scaling with dot gain control
GB2430026A (en) * 2005-09-09 2007-03-14 Qinetiq Ltd Automated selection of image regions
US7804986B2 (en) * 2005-09-13 2010-09-28 Siemens Medical Solutions Usa, Inc. System and method for detecting intervertebral disc alignment using vertebrae segmentation
WO2008022005A2 (en) * 2006-08-09 2008-02-21 Fotonation Vision Limited Detection and correction of flash artifacts from airborne particulates
US8135230B2 (en) * 2007-07-30 2012-03-13 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
EP2327061A4 (en) * 2008-08-15 2016-11-16 Univ Brown METHOD AND DEVICE FOR ESTIMATING BODY SHAPES
US8270752B2 (en) * 2009-03-17 2012-09-18 Mitsubishi Electric Research Laboratories, Inc. Depth reconstruction filter for depth coding videos
US8395642B2 (en) * 2009-03-17 2013-03-12 Mitsubishi Electric Research Laboratories, Inc. Method for virtual image synthesis

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01161581A (ja) * 1987-12-18 1989-06-26 Hitachi Ltd 局所画像処理方法
JPH08331565A (ja) * 1995-05-30 1996-12-13 Matsushita Electric Ind Co Ltd 画像符号化方法とその装置
JP2004046777A (ja) * 2002-05-15 2004-02-12 Nec Corp 画像処理装置及びそれに用いる画像処理方法並びにそのプログラム
WO2008068707A2 (en) * 2006-12-04 2008-06-12 Koninklijke Philips Electronics N.V. Image processing system for processing combined image data and depth data

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020158646A1 (ja) * 2019-01-30 2020-08-06 日本電信電話株式会社 深度超解像装置、深度超解像方法、及びプログラム
JP2020123114A (ja) * 2019-01-30 2020-08-13 日本電信電話株式会社 深度超解像装置、深度超解像方法、及びプログラム
JP7074090B2 (ja) 2019-01-30 2022-05-24 日本電信電話株式会社 深度超解像装置、深度超解像方法、及びプログラム

Also Published As

Publication number Publication date
US20100239187A1 (en) 2010-09-23
US8374456B2 (en) 2013-02-12
EP2230856B1 (en) 2017-01-18
US20120269457A1 (en) 2012-10-25
JP5448912B2 (ja) 2014-03-19
US8189943B2 (en) 2012-05-29
EP2230856A2 (en) 2010-09-22
EP2230856A3 (en) 2013-09-04

Similar Documents

Publication Publication Date Title
JP5448912B2 (ja) 画像をアップサンプリングする方法
JP5230669B2 (ja) 深度画像をフィルタリングする方法
JP5419744B2 (ja) 仮想画像を合成する方法
EP2123051B1 (en) Image compression and decompression
JP5270573B2 (ja) ブロックアーチファクトを検出する方法及び装置
Song et al. Video super-resolution algorithm using bi-directional overlapped block motion compensation and on-the-fly dictionary training
US8213500B2 (en) Methods and systems for processing film grain noise
US8615042B2 (en) Pre-processing method and system for data reduction of video sequences and bit rate reduction of compressed video sequences using spatial filtering
US20040120597A1 (en) Apparatus and method for adaptive spatial segmentation-based noise reducing for encoded image signal
US20130202194A1 (en) Method for generating high resolution depth images from low resolution depth images using edge information
CA2616875A1 (en) Apparatus and method for adaptive 3d artifact reducing for encoded image signal
US20190289329A1 (en) Apparatus and a method for 3d video coding
Dai et al. Film grain noise removal and synthesis in video coding
KR20110020242A (ko) 텍스처 합성을 이용하는 이미지 코딩 방법
CN115362675A (zh) Hdr成像中的盲局部整形
KR20110017336A (ko) 다계층의 저해상도 영상을 이용한 고해상도 영상 생성 방법 및 그 장치
US20130208807A1 (en) Method for coding and method for reconstruction of a block of an image sequence and corresponding devices
Wada et al. Extended joint bilateral filter for the reduction of color bleeding in compressed image and video
CN109754370B (zh) 图像去噪方法及装置
Koloda et al. Iterative denoising-based mesh-to-grid reconstruction with hyperparametric adaptation
Oh Texture processing for image/video coding and super-resolution applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131224

R150 Certificate of patent or registration of utility model

Ref document number: 5448912

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees