JP2010506287A - 画像強調 - Google Patents

画像強調 Download PDF

Info

Publication number
JP2010506287A
JP2010506287A JP2009530990A JP2009530990A JP2010506287A JP 2010506287 A JP2010506287 A JP 2010506287A JP 2009530990 A JP2009530990 A JP 2009530990A JP 2009530990 A JP2009530990 A JP 2009530990A JP 2010506287 A JP2010506287 A JP 2010506287A
Authority
JP
Japan
Prior art keywords
sample
characteristic
samples
resolution
time stamp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009530990A
Other languages
English (en)
Other versions
JP4875162B2 (ja
Inventor
ピー ガンワル,オム
ペー フンケ,エリック
ファレカンプ,クリスティアーン
エス ベ ジェ ブヴィエ,ミカエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2010506287A publication Critical patent/JP2010506287A/ja
Application granted granted Critical
Publication of JP4875162B2 publication Critical patent/JP4875162B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Picture Signal Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本発明は、第三のサンプルの構造S3に基づいて、第一のサンプルの構造S1を第二のサンプルの構造S2に強調する画像強調装置及び方法に関し、第一のサンプルの構造と第二のサンプルの構造の両者は、あるシーンの第一の特性を表し、第一の解像度を有し、第三のサンプルの構造は、第二の特性を表し、第一の解像度を有し、第一の特性と第二の特性は、実質的に同じシーンの異なる特性をそれぞれ表す。本方法は、第一のサンプルの構造S1の第一のサンプルをダウンスケーリングして、第四のサンプルの構造S4のサンプルを形成することで、第一の特性を表す第四のサンプルの構造を生成するステップを含む。第四のサンプルの構造は、第一の解像度よりも低い第二の解像度を有する。本方法は、第三のサンプルの構造に基づいて、第一の特性を表す第四のサンプルの構造を、第二のサンプルの構造にアップスケーリングするステップを含む。アップスケーリングするステップは、第三のサンプルの構造のサンプルに基づいて、第四のサンプルの構造のそれぞれのサンプルに重み付けファクタを割り当てるステップ、第四のサンプルの構造のサンプル及びそれぞれ割り当てられた重み付けファクタを使用して、第二のサンプルの構造のサンプルを計算するステップを含む。本発明は、本発明に係る画像強調装置を含む画像処理装置、及びコンピュータプログラムに関する。

Description

本発明は、第一のサンプルの構造を第二のサンプルの構造に強調する方法に関するものであり、第一のサンプルの構造及び第二のサンプル構造の両者は、第一のあるシーンの特性を表しており、第一の解像度を有するものである。
また、本発明は、第一のサンプルの構造を第二のサンプルの構造に強調する画像強調装置に関するものであり、第一のサンプルの構造及び第二のサンプル構造の両者は、第一のあるシーンの特性を表しており、第一の解像度を有するものである。
さらに、本発明は、係る画像強調装置を有する画像処理装置に関する。
さらに、本発明は、コンピュータ読み取り可能な媒体に記憶されるプログラムコードを含むコンピュータプログラムに関し、前記プログラムコードは、前記プログラムコードがコンピュータで実行されたとき、前記方法のステップを実行するために構成される。
動きベクトル場及び動画からの視差マップの生成は、家電業界と同様に、研究の注目を長く惹きつけている。動きベクトルの生成における関心は、ビデオ圧縮における動き予測及び補償技術の使用から、大きな後押しを受けている。
3次元テレビジョン及び/又はマルチビューレンダリング機器の係属中の導入は、深さマップ(depth map)及び視差マップ(disparity map)の生成における関心を同様に増加している。視差マップ及び深さマップは、1つのビデオ画像の系列からマルチビュー画像生成で一般的に使用され、2次元のビデオコンテンツの3次元テレビジョン及び/又はマルチビューレンダリング機器に適したフォーマットへの変換を可能にする。
動き予測は、深さ予測のための開始ポイントとして使用することができる。動きベクトル場の予測方法は、連続する画像の同様の画像部分の判定に依存することがある。1つの画素値は類似性を確定するために識別するのに不十分であるので、典型的に、連続する画像の画像部分間の対応関係を確立するため、画素のグループが使用される。結果として、係る予測方法から得られる動きベクトル場は、一般に、原画像よりも低い解像度を有する。動きベクトル場を計算する技術は、8×8画素のグリッドについて動きベクトルを計算する。結果として、深さマップを計算するために係る動きベクトル場が使用されるとき、解像度は、一般に、高品質のレンダリングのためにあまりに粗く、オブジェクトのエッジでハローとして目に見える可視のアーチファクトが得られる。
WO2005/013623“Multi-view Image Generation”で与えられるような深さマップの生成の他の技術は、比較的低い計算コストでフル解像度の深さマップの予測を提供する。ある画像で第一のエッジが確定され、これに基づいて、それぞれの深さマップの値をそれぞれのエッジのサイドに割り当てることで、深さマップが生成される。係る深さマップの解像度は、ブロックに基づく深さマップの解像度よりも有意に高いが、結果的に得られる深さマップの品質は、更に改善される。
WO2005/013623“Multi-view Image Generation”
本発明の目的は、平均して、強調されたサンプルの構造を生成する第一の特性を表す第一のサンプルの構造を強調する方法を提供することにある。
本発明の目的は、請求項1記載の方法により達成される。請求項1記載の方法は、第一のサンプルの構造を強調し、結果的に、第二のサンプルの構造が得られる。第一及び第二の構造の両者は、第一の特性(たとえば深さ)を表し、第一及び第二の構造の両者は、第一の解像度を有する。第一の構造は、第一の解像度を有する第二の特性(たとえば色)を表す第三のサンプルの構造に基づいて強調される。第一の特性及び第二の特性は、実質的に同じシーンの異なる特性をそれぞれ表す。
第一のサンプルの構造は、入力構造として見ることができ、第二のサンプルの構造は、出力構造を表す。第一及び第二の構造の両方のサンプルは、深さマップ、視差マップ、又は動きベクトル場のような、シーンの同一の特性のサンプルを表す。第三のサンプルの構造は、第二のサンプルの構造を生成するために使用される参照構造として見ることができる。参照構造は、シーンの輝度、色、又はテクスチャのような異なる特性を表す。第一、第二、及び第三の構造は、同じ解像度を全て有する。
第一のサンプルの構造を強調するため、第一のサンプルの構造のサンプルをダウンスケーリングして、第四のサンプルの構造のサンプルを形成することで、第一の特性を表す第四のサンプルの構造のサンプルが生成される。第四のサンプルの構造は、第一の構造をダウンスケーリングすることから得られる中間構造として見ることができる。第一の構造をダウンスケーリングすることで、第一のサンプルの構造の幾つかのサンプルは、第四のサンプルの構造のそれぞれのサンプルに寄与する。結果として、第四の構造のそれぞれのサンプルにより表現される予測の品質は、個々の画素におけるノイズが除かれるので、平均して、第一の構造の個々のサンプルの品質よりも高くなることが期待される。この品質におけるゲインは、空間解像度における低減を犠牲にする。
第三の構造の形式において公知の構造を使用することで、オブジェクトの境界に関する正確な情報を提供する第一の解像度で、第四の構造の高い品質のサンプルは、第三の構造からの細かな詳細を使用して、画像に適応する方式でアップスケーリングされる。結果として、平均して、第四の構造の高い品質のサンプルを使用して細かな詳細が再び導入され、平均して、第一の解像度での第一の特性の改善された予測値が得られる。さらに、このアプローチは、オブジェクトの内部に存在する更に繊細なテクスチャを除く。結果として、エッジにより定義されるオブジェクトは、更に一様な内容を有する。
典型的に、サンプルの構造は、データエレメントのマトリクスに対応する。しかし、サンプルの構造は、データエレメントの代替的なコンフィギュレーションに対応する場合がある。
本発明の更なる目的は、画像強調(image enhancement)を提供する、画像強調装置、画像処理装置、及び開始節で記載された種類のコンピュータプログラムを提供することにある。
これらの目的は、請求項16,17及び18のそれぞれに記載される、画像強調装置、画像処理装置及びコンピュータプログラムにより達成される。
好適な実施の形態では、第四のサンプルの構造のそれぞれのサンプルに割り当てられる重みファクタは、サンプルの第三の構造のサンプルと第三のサンプルの構造のロウパスフィルタでフィルタリングされたサンプルとの間の差に基づく。第三の構造のそれぞれのサンプルと第三の構造のそれぞれのロウパスフィルタでフィルタリングされたサンプルとの間の差は、低い空間解像度での第二の特性のサンプルが第一の解像度でのサンプルにどのように関連するかに関する指示を与える。
より詳細には、ロウパスフィルタによるフィルタリングは、第一の解像度から第二の解像度に第三の構造のサンプルのダウンスケーリングを含む。結果として、第四のサンプルの構造で記憶される第一の特性の更に信頼できる予測値は、第二の特性を表す第二のサンプルの構造から構造的な情報に基づいてアップスケーリングされ、これにより、アップスケーリングは、第三のサンプルの構造で発見されるオブジェクトの境界に実質的に適合することができる。
より詳細には、第二の特性を表す第五のサンプルの構造が生成され、第五の構造は、第二の解像度を有する。第五の構造は、第三のサンプルの構造のサンプルをダウンスケーリングして、第五のサンプルの構造のサンプルを形成することで形成される。第四のサンプルの構造のそれぞれのサンプルに割り当てられた重みファクタは、第五のサンプルの構造のサンプルと第三のサンプルの構造のサンプルとの間の差に基づく。第三の構造のそれぞれのサンプルと第五の構造のサンプルとの間の差は、第二の解像度での第二の特性のサンプルが第一の解像度でのサンプルにどのように関連するかに関する更に信頼できる指示を与える。
更なる実施の形態では、第一のサンプルの構造は、第一のタイムスタンプでのシーンの第一の特性を表しており、第三のサンプルの構造は、第二のタイムスタンプでのシーンの第二の特性を表しており、第二のタイムスタンプは、第一のタイムスタンプに時間的に近接しており、第一のサンプルの構造は、第二のタイムスタンプで第一の特性を表す更なるサンプルの構造の予測値を形成する。この実施の形態は、たとえば、現在の深さマップを生成する予測値として、以前の(又は将来の)深さマップの使用を可能にする。第一の構造をダウンスケーリングして第四の構造を得て、第一の構造のサンプルについてではなく、第四の構造のサンプルについて重み付けファクタを計算することで、現在の深さマップを予測するために必要とされる計算の数を低減することができる。
本発明の画像強調装置の変更及び変形は、以下に記載される画像処理装置、方法及びコンピュータプログラムの変更及び変形に対応する。
本発明に係る画像強調装置、画像処理装置、方法及びコンピュータプログラムのこれらの特性及び他の特性は、以下に記載される実現及び実施の形態に関して、及び添付図面を参照して明らかにされるであろう。同じ参照符号は、図面を通して同じ部材を示すために使用される。
フル解像度での輝度画像を示す図である。 フル解像度での予測される深さマップを示す図である。 低解像度での予測される深さマップのダウンスケーリングされたバージョンを示す図である。 画像1A及び1Cを使用した、本発明に従って生成された強調された深さマップを示す図である。 5つのサンプルの構造を概念的に示す図であり、ここで第二のサンプルの構造の値は未だ計算されていない。 第一の出力サンプルの計算のために適用されるため、第一の差に基づく第一の重み付けファクタの割り当てを概念的に示す図である。 それぞれの差に基づく多数の重み付けファクタの割り当てを概念的に示す図である。 第二の出力サンプルの計算のために適用されるため、第一の差に基づく第一の重み付けファクタの割り当てを概念的に示す図である。 図2Aの5つのサンプルの構造を概念的に示す図であり、ここで第二のサンプルの構造の値は計算されている。 5つのサンプルの構造を概念的に示す図であり、このうちの2つが第二のサンプルの構造のサンプルを計算するために必要とされる。 7つのサンプルの構造を概念的に示す図である。 第一のフィルタアパーチャを概念的に示す図である。 第二のフィルタアパーチャを概念的に示す図である。 予測される深さマップ、視差マップ、又は動きベクトル場を強調するため、本発明の実施の形態を概念的に示す図である。 深さマップを強調するため、本発明の実施の形態を概念的に示す図である。 本発明に係る画像強調装置を概念的に示す図である。 本発明に係る画像強調装置を概念的に示す図である。 マルチビュー画像生成ユニットを概念的に示す図である。 本発明に係る画像処理装置を概念的に示す図である。
本発明で実施される画像強調の可能性は、一連の画像を使用して最良に例示される。図1Aは、フル解像度での輝度画像を示す。図1Bは、同じ解像度での予測される深さマップを示す。見る人に近いオブジェクトは高い輝度を示し、見る人から遠いオブジェクトは暗い。領域201内で、様々なエッジがハイライト表示されており、その領域201で、深さマップの値が含まれており、図1Bに示される深さマップに類似する深さマップは、“Multi-view Image Generation”と題されたWO2005/013623及び“Creating a depth map”と題されたWO2005/083630に従う方法を使用して生成される。領域202は、あるオブジェクト内の構造を表す幾つかの更に微妙なエッジを示し、係るエッジは、同一のオブジェクトの一部である。この画像から、予測の間、実際の深さを正しく反映しない深さにおける更に微妙な変化と同様に、エッジが導入されることが明らかである。
図1Bに示される深さの予測は、8であるダウンスケーリングファクタを使用して、ここではダウンスケーリングされる。図1Cは、ダウンスケーリングされた画像を表し、ダウンスケーリングされた画像は、サンプルの複製を使用して拡張されて示され、他と同じ寸法をもつ画像が得られる。続いて、ダウンスケーリングされた深さマップの予測は、図1Aからの輝度情報を使用して画像に適応する方法(image-adaptive manner)でアップスケーリングされ、図1Dが得られる。領域201及び202内のエッジが実質的に除かれ、それぞれのオブジェクト内に位置される深さの値は、オブジェクト全体にわたり実質的に伝播される。図1Dで示される結果的に得られる深さマップは、図1Bに示される深さマップに対する改善を与える。
8であるダウンスケーリングファクタが特に有効であるが、2から16の範囲におけるダウンスケーリングファクタを使用したときに改善が見られる。オリジナルの解像度及び結果的に得られる深さマップの所望の粒状度に依存して、更なる詳細の損失を犠牲にして、より高いダウンスケーリングファクタが使用される。
図2A〜図2Fに関連して、本発明に係る方法の実施の形態が記載される。図2Aから図2Fは、以下の点を概念的に示す。第一のサンプルの構造S1は、第一の特性を表し、第一の構造は第一の解像度を有する。第二のサンプルの構造S2は、第一の特性を表し、第二のサンプルの構造S2は第一の解像度を有する。第三のサンプルの構造S3は、第二の特性を表し、第三のサンプルの構造S3は第一の解像度を有する。第四のサンプルの構造S4は、第一の特性を表し、第四のサンプルの構造S4は第二の解像度を有しており、第二の解像度は、第一の解像度よりも低い。第五のサンプルの解像度S5は、第二の特性を表し、第五のサンプルの構造S5は、第二の解像度を有する。
本発明に係る方法は、以下のステップにより、第一のサンプルの構造S1を強調して、第二のサンプルの構造S2を得ることを狙いとする。第一のサンプルの構造S1のうちの第一のサンプルをダウンスケーリングして、第四のサンプルの構造S4のうちの第四のサンプルを形成することで、第四のサンプルの構造S4のうちの第四のサンプルを生成するステップ。第三のサンプルの構造S3のうちの第三のサンプルをダウンスケーリングして、第五のサンプルの構造S5のうちの第五のサンプルを形成することで、第五のサンプルの構造S5のうちの第五のサンプルを生成するステップ。第三のサンプルの構造S3及び第五のサンプルの構造S5に基づいて、第四のサンプルの構造S4を第二のサンプルの構造S2にアップスケーリングするステップ。
このアップスケーリングは、以下のステップを含む。i)第三のサンプルの構造S3のうちの第三のサンプルと第五のサンプルの構造S5のうちの第五のサンプルとの間の差に基づいて、第四のサンプルの構造S4のうちのそれぞれの第一のサンプルに重み付けファクタを割り当てるステップ。ii)第四のサンプルの構造S4のうちの第四のサンプルとそれぞれ割り当てられた重み付けファクタとに基づいて、第二のサンプルの構造S2のうちの第二のサンプルを計算するステップ。
図2Aは、5つのサンプルの構造S1〜S5を概念的に示しており、第二のサンプルの構造S2の値は、未だ計算されていない。これは、第一及び第三のサンプルの構造のダウンスケーリング後の状況として見ることができる。
典型的に、第一のサンプルの構造S1のうちの第一のサンプルに基づいて、第四の構造S4のうちの第四のサンプルが計算される。言い換えれば、第一のサンプルの構造S1をロウパスフィルタでフィルタリングすること、すなわちダウンスケーリングすることで、サンプルの構造S4が計算される。ダウンサンプリングが後続する、たとえばsin(x)/xフィルタ又はボックスアベレージフィルタを使用して、第四の構造S4のうちの第四のサンプルが生成される。さらに、このダウンスケーリングフィルタは、第一のサンプルの構造S1のうちの第一のサンプルのサブセットのみに適用される。
典型的に、第五のサンプルの構造S5のうちの第五のサンプルは、第三のサンプルの構造S3のうちの第三のサンプルに基づいて計算される。言い換えれば、第五のサンプルの構造S5をロウパスフィルタでフィルタリングすることで、サンプルの構造S5が計算される。第五の構造S5のうちの第五のサンプルは、ダウンサンプリングが後続する、たとえばsin(x)/xフィルタ又はボックスアベレージフィルタを使用して生成される。さらに、このダウンスケーリングフィルタは、第三のサンプルの構造S3のうちの第三のサンプルのサブセットのみに適用される。
明確さのため、全体の第四の構造S4及び第五の構造S5は事前に計算されるが、第四及び第五のサンプルは、それぞれの第四及び第五のサンプルが必要とされるとき、オンザフライで計算することができる。結果として、ストレージの要件は、潜在的な計算の重複を犠牲にして低減することができる。
第一の特性は、深さの値、視差の値、又は動きベクトルに対応する場合がある。したがって、第四のサンプルの構造S4は、予測された、合成された、深さマップ、視差マップ、又は動きベクトル場に対応する。代替的に、第四のサンプルの構造S4は、その部分的な深さマップに対応する場合がある。
第二の特性は、輝度、色及び/又はテクスチャに対応する。第三のサンプルの構造S3は、典型的に、高解像度の輝度/カラー画像に対応する。代替的に、第三のサンプルの構造S3は、比較的に高解像度の輝度/カラー画像の一部に対応する。第五のサンプルの構造S5は、比較的に低解像度の輝度/カラー画像に対応する。これは、第三の構造S3の解像度よりも低い解像度を意味する。代替的に、第五のサンプルの構造S5は、比較的に低解像度の輝度/カラー画像の一部に対応する。
図2A〜図2Fにおける異なるグレイ値は、輝度/色及び深さの値/動きベクトルのそれぞれのような、第一の特性と第二の特性の異なる値を表す。
図2Bは、第一の差に基づいた第四のサンプル306のうちの第一のサンプルの重み付けファクタのうちの第一のファクタの割り当てを概念的に示し、重み付けファクタのうちの第一のファクタは、第一の出力サンプル300の計算のために利用される。第一の出力サンプル300は、第二のサンプルの構造S2のうちの第二のサンプルのうちの1つに対応する。
第四のサンプル306のうちの第一のサンプルの重み付けファクタのうちの第一のファクタの割り当ては、第三のサンプル302のうちの第一のサンプルと第五のサンプル304のうちの第一のサンプルとの間の第一の差に基づく。好ましくは、以下の異なるサンプル間の関係が適用される。
第四のサンプル306のうちの第一のサンプルと第五のサンプル304のうちの第一のサンプルのそれぞれの座標は相互に等しい。それぞれの座標間の対応は、第四のサンプル306の第一のサンプルと第五のサンプル304のうちの第一のサンプルとの間で参照符号307による破線で示される。
第三のサンプル302のうちの第一のサンプルと第二のサンプル300のうちの第一のサンプルのそれぞれの座標は相互に等しい。それぞれの座標間の対応は、第三のサンプル302の第一のサンプルと第二のサンプル300のうちの第一のサンプルとの間で参照符号309による破線で示される。
第五のサンプル304の第一のサンプルと第三のサンプル302の第一のサンプルの間の第一の差は比較的低いため、重み付けファクタのうちの第一のファクタは、比較的高い。これは、第四のサンプル306のうちの第一のサンプルについて「親指を立てるサイン」により、図2Bで示される。
更なる第一のサンプルの更なる重み付けファクタの割り当ては、図2Cで概念的に示される。たとえば、第四のサンプル318のうちの第二のサンプルの重み付けファクタのうちの第二のファクタの割り当ては、第五のサンプル308のうちの第二のサンプルと第三のサンプル302のうちの第一のサンプルとの間の第二の差に基づく。第一のサンプル318のうちの第二のサンプルと第五のサンプル308のうちの第二のサンプルのそれぞれの座標は、相互に等しい。それぞれの座標間の対応関係は、参照符号311で破線により示される。第五のサンプル308のうちの第二のサンプルと第三のサンプル302のうちの第一のサンプルとの間の第二の差は比較的に小さいため、重み付けファクタのうちの第二のファクタは、比較的に高い。これは、第四のサンプル318のうちの第二のサンプルについて「親指を立てるサイン」により、図2Cで示される。
第四のサンプル316のうちの第三のサンプルの重み付けファクタのうちの第三のファクタの割り当ては、第五のサンプル310のうちの第三のサンプルと第三のサンプル302のうちの第一のサンプルとの間の第三の差に基づく。第四のサンプル316のうちの第三のサンプルと第五のサンプル310のうちの第三のサンプルのそれぞれの座標は、相互に等しい。それぞれの座標間の対応は、参照符号313により破線で示される。第五のサンプル310のうちの第三のサンプルと第三のサンプル302のうちの第一のサンプルとの間の第三の差は比較的に大きいため、重み付けファクタのうちの第三のファクタは比較的に小さい。これは、第四のサンプル316のうちの第三のサンプルについて「親指を下げるサイン」により、図2Cで示される。
重み付けファクタを割り当てた後、第二のサンプルの構造S2のうちの第二のサンプルは、第四のサンプルの構造S4のうちの第四のサンプルとそれぞれ割り当てられた重みファクタとに基づいて計算される。
次に、第二の構造S2の第二のサンプルの計算が数学的に記載される。第四の特性が深さに対応し、第四のサンプルがd2 jにより示され、dは深さを表し、添字2は第二の解像度を示し、添字jは第四のサンプルの構造におけるインデックスに対応するものとする。第二のサンプルは、
Figure 2010506287
により示され、dは深さを表し、添字1は第一の解像度を示し、添字iは第二のサンプルの構造におけるインデックスに対応する。予測される深さの値
Figure 2010506287
を計算するため、周囲の深さの値d2 jが使用される。好ましくは、重み付けされたアベレージフィルタが使用される。
Figure 2010506287
この式は、深さの値
Figure 2010506287
すなわち第二のサンプル構造S2のうちの第二のサンプルの値を計算するために使用される。それぞれの深さの値
Figure 2010506287
について、j番目の周囲の深さの値d2 jが使用される。第二の特性に対応する値の間の差に基づいて重み付けファクタwijが決定される。たとえば、第二の特性は、輝度に対応する。これは、第五の構造S5の輝度値l2 jが第三の構造S3の輝度値l1 iに比較されることを意味する。好ましくは、重み付けファクタの計算のため、以下の指数関数が使用される。
Figure 2010506287
ここでαは1/8の値を典型的に有する。
RGB(赤、緑、青)データの場合、すなわち第二の特性が色に対応する場合、それぞれの色成分は、重み付けファクタに寄与する。
Figure 2010506287
YUVデータの場合、U及びVデータの寄与は、Yに対応する輝度データlの寄与よりも重要ではない。
Figure 2010506287
色差とは別に、他の画像特性は、画像の内容における差を示すことができる。本発明者は、シンプルなテクスチャの手段の追加により結果が改善されることを認識している。テクスチャt2 jは、サンプルのグループにおける最大の輝度値と最小の輝度値の間の絶対差として定義される。次いで、重み付けファクタは、以下のように定義することができる。
Figure 2010506287
第二のサンプルの構造S2の全てのサンプルが計算される必要があることは明らかである。第二のサンプルの構造S2の第二のサンプルのうちの第一のサンプル300の計算の後、第二のサンプルの構造S2の第二のサンプルのうちの第二のサンプル322が計算される。再び、これは、割り当てられた重み付けファクタに基づくフィルタリングにより後続される重み付けファクタの割り当てに基づく。
図2Dは、第二の出力サンプル、すなわち第二のサンプルの構造S2の第二のサンプルのうちの第二のサンプル322の計算のために適用される、更なる差に基づいた更なる重み付けファクタの割り当てを概念的に示す。
第四のサンプル306の第一のサンプルの重み付けファクタの更なるファクタの割り当ては、第五のサンプル304の第一のサンプルと第三のサンプル320の第二のサンプルとの間の更なる差に基づく。好ましくは、以下の異なるサンプル間の関係が適用される。
第四のサンプル306の第一のサンプルと第五のサンプル304の第一のサンプルのそれぞれの座標は、相互に等しい。それぞれの座標間の対応関係は、第四のサンプル306の第一のサンプルと第五のサンプル304の第一のサンプルとの間の参照符号307により破線で示される。
第三のサンプル320の第二のサンプルと第二のサンプル322の第二のサンプルのそれぞれの座標は、相互に等しい。それぞれの座標間の対応は、第三のサンプル320の第二のサンプルと第二のサンプル322のうちの第二のサンプルとの間の参照符号321により破線で示される。
第五のサンプル304の第一のサンプルと第三のサンプル320の第二のサンプルとの間の更なる差は比較的に小さいため、重み付けファクタのうちの更なるファクタは比較的に大きい。これは、第一のサンプル306の第一のサンプルについて「親指を立てるサイン」により図2Dで示される。
図2Cに関して上述された事実と同様に、第二のサンプル構造S2の第二のサンプルのうちの第二のサンプル322の計算のための後続する重み付けファクタが計算される。
図2Eは、計算された第二のサンプルの構造の値と同様に、図2Aのサンプルの構造を概念的に示す。言い換えれば、図2Eは、第二のサンプル構造S2の第二のサンプルの計算の結果を概念的に示す。図2Eは、第二のサンプルの値は第四の構造S4の第四のサンプルの値(グレイ値)に基づくことを概念的に示す。第二の構造S2における「オブジェクト」の「形状」は、第三の構造S3における「オブジェクト」の「形状」に対応し、ダウンサンプルされた入力画像の深さの値は、対応する画像の輝度値に適合される。
任意に、様々な重みファクタwijを重み付けするため、余分のファクタが適用され、これにより、余分のファクタは、第一のサンプルの値の信頼性に関連する。
Figure 2010506287
次いで、前に規定された重み付けファクタ(式2〜5を参照)の代わりに、変更された重み付けファクタが使用される。係る信頼性のファクタは、たとえば、動き予測子/深さ予測子から得られる。予測子は、非閉塞(de-occlusion)領域が何処であるかを判定することができる。これらの領域における値は、信頼できるとされず、したがって小さな重みでカウントされる。代替的に、信頼性ファクタは、予測子の入力画像の輝度値に直接に基づいており、一様な画像領域に関連する動きベクトル及び深さの値は、信頼性が低い。また、信頼性ファクタは深さ信号から導出され、深さ信号をデコードするデコーダは、エンコードの間に高い量子化が適用されたときを示し、その場合、深さは信頼性が低い。
図2Fは、5つのサンプルの構造を示す。図2A〜図2Eから観察することができるように、第二のサンプルの構造S2の第二のサンプルを計算するために使用される全ての情報は、第一のサンプルの構造S1及び第三のサンプルの構造S3に含まれる。第二のサンプルの構造のサンプルを計算するため、ここでは破線の表現を使用して示される第四及び第五のサンプルの構造である、2つの中間のサンプル構造が計算される。第四及び第五の構造が明示的に生成されず、メモリに記憶されないときでさえ、本発明に係る計算及び後続するサンプルの使用は、本発明に範囲にあることは明らかである。
前の例では、明確さのため、第五のサンプルの構造S5が生成されたが、第五のサンプルの構造S5に含まれる全ての情報が第三のサンプルの構造S3から導出される。厳密に言えば、第五のサンプルの構造S5の計算が必要とされず、第四のサンプルの構造の第四のサンプルの重み付けファクタは、第三のサンプルの構造のみに基づいて割り当てられる。
たとえば、第二のサンプルの構造S2の第二のサンプル390を確定するため、破線391により示される関係を使用して、第三のサンプルの構造S3の対応する第三のサンプル393をはじめに確定する。
続いて、第四のサンプルの構造S4のそれぞれのサンプルの重み付けファクタが計算される。そのように行う1つの方法は、第三のサンプルの構造S3のサンプルが第四のサンプルの構造S4のそれぞれのサンプルにどのように関係するかをはじめに確定することである。この例では、第四の構造S4のサンプルは、グリッド392により示されるように、第三の構造S3の4つのサンプルに対応する。第四のサンプルの構造S4の第四のサンプル394のそれぞれの重み付けファクタは、第三のサンプル393を、第四のサンプルの構造S4の第四のサンプル394に対応する第三の構造のサンプルと相互に関連付けることで決定される。
この場合、第四のサンプルの構造S4に対応する4つのサンプル395は、第三のサンプル393と同じである。これは、高い相関を明らかに表し、結果として、比較的高い重み付けファクタは、「親指を立てるサイン」により示される第四のサンプル394に割り当てられる。この相関を確立するために様々なやり方が考えられ、そのうちの1つは、第三のサンプル393からの予め決定された閾値内にあるサンプル395からのサンプルの一部の判定である。
このように、第二のサンプルの構造S2の第二のサンプル390は、第五のサンプルの構造に対応する第五のサンプルを明示的に確定するのを必要とすることなしに計算される。
図3は、サンプルS1〜S7の7つの構造を概念的に示す。図3A〜図3Fに関連して説明されるように、本発明に係る方法は、はじめに第一のサンプル構造をダウンスケーリングして第四のサンプル構造を取得すること、次いで第三のサンプル構造S3及び第五のサンプル構造S5に基づいて、第四のサンプルの構造S4を第二のサンプルの構造S2にアップスケーリングすることで、第一のサンプルの構造S1を強調することを狙いとする。典型的に、第四のサンプル構造S4をアップスケーリングすることは、複数のステップを含んでおり、そのうちの1つは、第一のステップU1である。第一のアップスケーリングステップU1の後、第二のアップスケーリングステップU2が続く。2を超えるアップスケーリングステップが実行される場合がある(図示せず)。第二のアップスケーリングステップU2は、第一のアップスケーリングステップU1と同様である。したがって、第二のアップスケーリングステップU2は、第六のサンプルの構造S6及び第三のサンプルの構造S3に基づいて、第七のサンプルの構造S7を第二のサンプルの構造S2にアップスケールすることを意味する。次いで、第一のアップスケーリングステップU1の出力、すなわち第七のサンプルの構造S7は、第二のアップスケーリングステップU2の入力として使用される。
典型的に、第二の特性のサンプルは、全体のスケーリングプロセスの開始で、比較的に高い解像度で利用可能である。たとえば、1024×1024素子のマトリクスである、サンプルの構造S3により表される入力画像が存在する。ダウンスケーリング、又は任意にダウンスケーリングステップD2及びD3のカスケードにより、多数の更なるサンプルの構造S6及びS5が計算される。これらは、本発明に係る方法に含まれるそれぞれのアップスケーリングステップU1及びU2のために必要とされる。たとえば、第三のサンプルの構造S3は、ファクタ2により、512×512素子のマトリクスである、第六のサンプルの構造S6にダウンスケーリングされる。続いて、第六のサンプル構造S6は、ファクタ2によりダウンスケーリングされ、256×156素子のマトリクスである、第五のサンプルの構造S5が得られる。代替的に、第三のサンプルの構造S3は、ファクタ4により直接的にダウンスケーリングされ、第五のサンプルの構造S5が得られる。
対応する解像度のアップスケーリングのために異なる特性のサンプルが必要とされるので、ダウンスケーリングステップはアップスケーリングステップに関連することは明らかである。たとえば8×8から4×4に、4×4から2×2に、2×2から1×1にといった、反復的にアップスケーリングを実行することが好ましいが、たとえば8×8から1×1にといった1つのステップでアップスケーリングを実行することもできる。ここでx×xは、それぞれの低解像度のサンプルに対応する高解像度のサンプルの数を示す。
本発明に係るイメージエンハンスメントで適用される画像適応アップスケーリングは、典型的に、多数の入力サンプル、すなわち第四のサンプルの構造S4の第四のサンプルをフィルタリングして、出力サンプル、すなわち第二のサンプル構造S2の第二のサンプルを計算することに基づく。先に記載されたように、入力サンプルは、第二の特性に関連されるサンプル間の差に基づく、それぞれの重みファクタで重み付けされる。特定の出力サンプルの計算が考慮される入力サンプルのコンフィギュレーションは、フィルタアパーチャと呼ばれる。フィルタアパーチャは、特定の出力サンプルの計算において、どの入力サンプルが使用されるかを判定する。図4Aは、第一のフィルタアパーチャを概念的に示し、図4Bは、第二のフィルタアパーチャを概念的に示し、フィルタアパーチャにおけるグレイの画素は、出力画素に寄与する。
第一のアップスケーリングU1(たとえば8×8から4×4)におけるエラーは、更なるアップスケーリングステップと同様に、多数の出力画素に影響を及ぼすため、この第一のステップにおける誤りを回避しようと試みることに多くの労力を費やすことは、論理にかなう。さらに、この第一のステップは、粗いグリッドで実行され、したがって、処理されるべきサンプルの量は、比較的少ない。それぞれのアップスケーリングステップで、包含されるサンプル数である解像度が増加する。(両方向において)アップスケーリングファクタが2である場合、サンプル数は4倍に増加する。結果として、多数の色成分を使用すること、及び/又は粗い解像度での信頼性のファクタを使用することのような、重みファクタを確定する更に発展された方法を利用することが有利である。係る更に発展された方法は、信頼できない画素が重み付けファクタに有する影響を制限する点で、重み付けファクタの品質を改善する。これら更に発展された方法により、より広いフィルタのアパーチャを使用することができる。例として、8つの方向で6つのサンプル(8×8)の範囲を使用できることがわかっている。これは、図4Aにおける影付きのブロックにより例示される。対照的に、図4Bは、後続するアップスケーリングステップにおいて、細かい解像度に適した簡略化されたアパーチャを示す。
図5Aは、画像の系列における1つの画像について深さマップの予測を強化するために使用される、本発明に係る画像強調装置610の形式における更なる実施の形態を与える。先の実施の形態では、本発明に係る方法は、第二の特性を表す第三のサンプルの構造S3を使用して、第一の特性の予測を表す第一のサンプルの構造S1を強調するために使用された。図5Aに示される実施の形態は、時間的な態様を含む点で異なる。
図5Aに示される画像強調装置610は、第一のタイムスタンプで第一の特性を表す第一のサンプルの構造S1(t1)を、第二のタイムスタンプでの第一の特性の更なる第一の構造の予測として使用する。本発明は、タイムスタンプt2での第二の特性を表す第三のサンプルの構造S3(t2)に基づいて、この予測を強化するために続けて使用される。
図5Aに示される実施の形態は、タイムスタンプt1でのシーンに関連される第一の深さマップを、タイムスタンプt2でのシーンに関連される第二の深さマップの予測として使用する。第一の深さマップS1(t1)を第二の深さマップの予測として使用する根拠は、ある系列の隣接する画像において、対応する深さマップ間に典型的に強い相関があることによる。しかし、たとえばシーンにおける変化及び/又はシーンが画像形成される方式(たとえばパン及び/又はズーム)における変化の結果として、第一のタイムスタンプt1での深さマップは、一般に、第二のタイムスタンプt2での深さマップに同じではないが、第二のタイムスタンプt2での深さマップの予測を与えるのみである。たとえばタイムスタンプが隣接するフレームに関連するか、互いの予め決定された閾値にある場合といった、第一のタイムスタンプ及び第二のタイムスタンプが時間的に十分に近いと仮定すると、第一の深さマップS1(t1)は、第二のタイムスタンプt2での深さマップの予測として典型的に使用される。
本発明は、タイムスタンプt2でのシーンをレンダリングするための深さマップ
Figure 2010506287
として使用することができる強調された深さマップを生成するため、第二のタイムスタンプt2でカラーマップS3(t2)を使用して、本発明に従って第一のタイムスタンプt1で第一の深さマップS1(t1)を強調するために使用される。第一のタイムスタンプt1での第一の深さマップS1(t1)は、はじめにダウンスケーリングされ(620)、第一のタイムスタンプt1で第四のサンプルの構造S4(t1)が得られる。次いで、第一のタイムスタンプt1での第四のサンプルの構造S4は、アップスケーリングされ、第二のタイムスタンプt2での第三のサンプルの構造S3(t2)に基づいて、第二のタイムスタンプt2で第二のサンプルの構造S2(t2)が得られる。任意に、エンハンスされた深さマップの品質を更に改善するため、第二のタイムスタンプt2で、第二の構造S2(t2)を深さマップの更なる予測Sn(t2)と結合して(640)、第二のタイムスタンプt2で深さマップの最終的な予測
Figure 2010506287
を得ることができる。
先の実施の形態は、深さマップの時間的な予測を強化するために本発明がどのように使用することができるかを説明する。また、本発明は、視差マップ又は動きベクトル場を強調するために有利に適用することができる。さらに、本発明は、タイムスタンプt1がt2に進むときに適用することができるが、タイムスタンプt2がt1に進むときにも使用することができる。
図5Bは、第二のタイムスタンプt2で第三のサンプルの構造S3(t2)を使用するだけでなく、第一のタイムスタンプt1で第五のサンプルの構造S5(t1)をも使用して、タイムスタンプt1で第四の構造S4(t1)をアップスケーリングする(630)。第二のタイムスタンプt2で第三の構造S3(t2)から導出される第二のタイムスタンプt2での第五の構造S5(t2)の代わりに、第一のタイムスタンプt1での第五の構造S5(t1)が使用される。第一のタイムスタンプt1での第五の構造S5(t1)を使用する論理的な根拠は、第四及び第五の構造の両者からのサンプルが同じタイムスタンプt1に関連することである。続いて、第二のタイムスタンプt2での第三の構造S3(t2)と第一のタイムスタンプt1での第五の構造S5(t1)との間の差が決定されたとき、この差は、第一のタイムスタンプt1で第四の構造S4(t1)を重み付けする更に正確な重みファクタを与え、平均して改善された強調が得られる。
図5Bに示された実施の形態は、ダウンスケーリングユニット620が後続する、タイムスタンプt1で第三のサンプルの構造S3(t1)の入力をもつ画像強調装置610を示すが、これは強制的なものではない。任意に、代替的な画像強調装置610は、タイムスタンプt1で第五の構造S5(t1)の入力をもつことが考えられる。
特定の有利な実施の形態では、第二のタイムスタンプt2での深さマップの最終的な予測
Figure 2010506287
は、以下を使用して生成される。
第一のタイムスタンプt1での第一の構造S1(t1):強調されて、結果的に、第二のタイムスタンプt2での第二の構造S2(t2)が得られる(図5Bを参照)。
更なる構造Sn(t2):第二のタイムスタンプt2での第三のサンプルの構造に基づいて、第二のタイムスタンプt2で第一の特性を表す。
先の実施の形態の例では、第一の特性は深さであり、第二の特性は輝度である。更なる構造Sn(t2)は、図2A〜図2Fに関連して記載されるように、本発明に係る方法を使用した、タイムスタンプt2で深さマップの予測を強調することで生成される深さマップを表す。この予測は、たとえばWO2005/013623に係る深さマップの生成の方法を適用することで生成される。
構造S2(t2)及びSn(t2)は、2つの構造を混合して、第二のタイムスタンプt2で深さマップの最終的な予測
Figure 2010506287
を形成することで結合される(640)。第一のタイムスタンプt1から時間的に伝播される深さマップの情報を、第二のタイムスタンプt2について新たに予測される深さマップと結合することで、誤った深さマップの情報の誤った伝播が制限され、結果的に得られる深さマップの時間的な一貫性が改善される。結果的に、この実施の形態は、ビデオ系列について深さマップを生成するために特に有利である。図6Aは、本発明に係る画像強調装置700を概念的に示す。画像強調装置700は、第二の特性を表す第三のサンプルの構造S3に基づいて、第一の特性を表す第一のサンプルの構造S1を、第一の特性を表す第二のサンプルの構造S2に強調するために構成され、第一の構造S1は、第一の解像度を有し、第二の構造S2は、第二の解像度を有する。
画像強調装置700は、第一のサンプルの構造S1の第一のサンプルを受ける第一の入力コネクタ714、第三のサンプルの構造S3の第三のサンプルを受ける第二の入力コネクタ710、及び第二のサンプルの構造S2の第二のサンプルを供給する第一の出力コネクタ716を有する。
画像強調装置700は、以下を有する。第一の特性を表す第四のサンプルの構造S4の第四のサンプルを生成する生成ユニット740。第四の構造S4は、第一のサンプルの構造S1の第一のサンプルをダウンスケーリングして、第四のサンプルの構造S4の第四のサンプルを形成することで、第一の解像度よりも低い第二の解像度を有する。第三のサンプルの構造S3に基づいて、第一の特性を表す第四のサンプルの構造S4を第二の構造S2にアップスケーリングするために構成されるアップスケーリングユニット750。
アップスケーリングユニット750は、以下を有する。第三のサンプルの構造S3の第三のサンプルに基づいて、第四のサンプルの構造S4のそれぞれの第四のサンプルに重み付けファクタを割り当てるために構成される重み付けファクタ割り当てユニット702。第四のサンプルの構造S4の第四のサンプルとそれぞれの重み付けファクタとに基づいて、第二のサンプルの構造S2の第二のサンプルを計算するために構成される。
好ましくは、重み付けファクタ割り当てユニット702は、第三のサンプルの構造S3の第三のサンプルと第三のサンプルの構造S3のロウパスフィルタでフィルタリングされた第三のサンプルとの間の差を計算するために構成される第二の計算ユニット708を有する。より詳細には、ロウパスフィルタでのフィルタリングは、第三のサンプルの構造S3をダウンスケーリングすることで、第五のサンプルの構造S5の生成を含む。
好ましくは、重み付けファクタ割り当てユニット702は、第二の計算ユニット708により計算された差をそれぞれの重みファクタにマッピングするマッピングユニット706を更に有する。より詳細には、マッピングユニット706は、入力値、すなわち差を出力値、すなわち重みファクタにマッピングする非線形関数を実行するために構成される。好ましくは、非線形関数は、比較的大きな差を比較的小さな重みファクタに変換する指数関数である。好ましくは、マッピングユニット706は、LUT(ルックアップテーブル)により実現される。
任意に、画像強調装置700は、式6に関連して記載されるように、信頼性の値を受信する第四の入力コネクタ718を有する。
生成ユニット740及びアップスケーリングユニット750は、1つのプロセッサを使用して実現される。通常、これらの機能は、ソフトウェアプログラムの制御化で実行される。実行の間、通常、ソフトウェアプログラムは、RAMのようなメモリにロードされ、そこから実行される。プログラムは、ROM、ハードディスク、或いは、磁気及び/又は光ストレージのようなバックグランドメモリからロードされるか、又は、インターネットのようなネットワークを介してロードされる場合がある。特定用途向け集積回路は、開示された機能を提供する。
図6Bは、第一の解像度を有する第一の特性を表す更なる構造を表す更なるサンプルの構造Sxを受ける更なる入力コネクタ722が設けられる、本発明に係る更なる画像強調装置700を示す。第一の構造S1及び更なる構造Sxは、たとえば重み付け加算により結合され、更なる処理の前に1つのサンプルの構造となる(730)。このように、多数の深さマップの予測値は、有利にも結合される。
図7は、以下を有するマルチビュー画像生成装置800を概念的に示す。画像に基づいてそれぞれの入力画像について深さマップを生成する深さマップ生成装置802。深さマップは、見る人への距離を表す深さの値を含み、深さマップの解像度は、入力画像の解像度に等しい。入力画像に基づいて、深さマップを強調して、強調された深さマップにする、図6Aに関して記載された画像強調装置700。強調された深さマップの解像度は、入力画像の解像度に対応する。入力画像と、画像強調装置800により供給されるそれぞれ改善された深さマップに基づいて、マルチビュー画像をレンダリングするレンダリングユニット806。
マルチビュー画像生成装置800は、ビデオ画像の系列に基づいて、マルチビュー画像の系列を生成する。マルチビュー画像生成装置800には、入力コネクタ808でビデオ画像のストリームが提供され、出力コネクタ810及び812のそれぞれで、2つの相関されたビデオ画像のストリームを供給する。これら2つの相関されたビデオ画像のストリームは、マルチビュー表示装置に印加され、この表示装置は、相関されたビデオ画像のストリームの第一のストリームに基づいて第一のビューの系列を可視化し、相関されたビデオ画像のストリームの第二のストリームに基づいて第二のビューの系列を可視化する。ユーザ、すなわち見る人が、同時に、彼の左の目を使用して第一のビューの系列を観察し、彼の右の目を使用して第二のビューの系列を観察する場合、彼(彼女)は3次元の印象を知覚することができる。相関されたビデオ画像のストリームの第一のストリームは、受信されたとき、ビデオ画像の系列に対応し、相関されたビデオ画像のストリームの第二のストリームは、受信されたとき、ビデオ画像の系列に基づいてレンダリングされる。好ましくは、両方のビデオ画像のストリームは、受信されたとき、ビデオ画像の系列に基づいてレンダリングされる。レンダリングは、たとえば、P.A.Redert, E.A.Hendriks及びJ.Biemondによる文献“Synthesis of multi viewpoint images at non-intermediate positions”, Proceedings of International Conference on Acoustics, Speech, and Signal Processing, Vol.IV, ISBN 0-8186-7919-0, page2749-2752, IEEE Computer Society, Los Alamitos, California, 1997に記載される。更なる実施の形態では、レンダリングは、R.P.Berretty and F.E.Ernstによる論文“High-quality images from 2.5D video”, Proceedings Eurographics, Granada, 2003, Short Note 124に記載される。
図8は、以下を有する、本発明に係る画像処理装置900の実施の形態を概念的に示す。入力画像を表す信号を受ける受信手段902。図7に関して記載されるマルチビュー画像生成装置800。マルチビュー画像生成装置800の出力画像を表示する表示装置906。
信号は、アンテナ又はケーブルを介して受信されたブロードキャスト信号であるが、VCR(ビデオカセットレコーダ)又はDVD(デジタルバーサティルディスク)のような記憶装置からの信号である場合がある。この信号は、入力コネクタ910で供給される。画像処理装置900は、たとえばTVである場合がある。代替的に、画像処理装置900は、任意の表示装置を有さないが、表示装置906を有する装置に出力画像を与える。次いで、画像処理装置900は、たとえばセットトップボックス、サテライトチューナ、VCRプレーヤ、DVDプレーヤ又はレコーダである。任意に、画像処理装置900は、ハードディスクのような記憶手段であるか、たとえば光ディスクといった取り外し可能な媒体での記憶手段を有する。画像処理装置900は、フィルムスタジオ又はブロードキャスタにより利用されるシステムである。
上述された実施の形態は、本発明を限定するものではなく例示するものであり、当業者であれば、特許請求の範囲から逸脱することなしに代替的な実施の形態を設計することができるであろう。請求項では、括弧間に配置される参照符号は、請求項を限定するものとして解釈されるべきではない。単語「有する“comprise”」は、請求項に列挙されていないエレメント又はステップの存在を排除するものではない。エレメントに先行する単語“a”又は“an”は、複数の係るエレメントの存在を排除するものではない。本発明は、幾つかの個別のエレメントを含むハードウェアにより、適切にプログラムされたコンピュータにより実現される。幾つかの手段を列挙する装置の請求項では、これらの手段の幾つかが同一アイテムのハードウェア又はソフトウェアにより実施される。第一、第二及び第三といった単語の使用は、任意の順序付けを示さない。これらの単語は、名称として解釈されるべきである。特定のステップのシーケンスは、特に示されない場合には必要とされないことが意図される。

Claims (19)

  1. 第三のサンプルの構造に基づいて、第一のサンプルの構造を第二のサンプルの構造に強調する方法であって、
    前記第一のサンプルの構造と前記第二のサンプルの構造の両者は、あるシーンの第一の特性を表し、第一の解像度を有し、
    前記第三のサンプルの構造は、第二の特性を表し、前記第一の解像度を有し、
    前記第一の特性と前記第二の特性は、実質的に同じシーンの異なる特性をそれぞれ表し、
    当該方法は、
    前記第一のサンプルの構造の第一のサンプルをダウンスケーリングして、前記第四のサンプルの構造のサンプルを形成することで、前記第一の特性を表す第四のサンプルの構造を生成するステップと、前記第四のサンプルの構造は、前記第一の解像度よりも低い第二の解像度を有し、
    前記第三のサンプルの構造に基づいて、前記第一の特性を表す前記第四のサンプルの構造を、前記第二のサンプルの構造にアップスケーリングするステップとを含み、
    前記アップスケーリングするステップは、
    i)前記第三のサンプルの構造のサンプルに基づいて、前記第四のサンプルの構造のそれぞれのサンプルに重み付けファクタを割り当てるステップと、
    ii)前記第四のサンプルの構造のサンプル及びそれぞれ割り当てられた重み付けファクタを使用して、前記第二のサンプルの構造のサンプルを計算するステップと、
    を含むことを特徴とする方法。
  2. 前記第四のサンプルの構造のそれぞれのサンプルに割り当てられた重み付けファクタは、前記第三のサンプルの構造の第三のサンプルと、前記第三のサンプルの構造のロウパスフィルタでフィルタリングされた第三のサンプルとの間の差に基づく、
    請求項1記載の方法。
  3. 前記第四のサンプルの構造のそれぞれのサンプルに重み付けファクタを割り当てるステップは、
    前記第三のサンプルの構造のサンプルをダウンスケーリングして、第五のサンプルの構造のサンプルを形成することで、前記第二の特性を表す第五のサンプルの構造を生成するステップを更に含み、前記第五の構造は、前記第二の解像度を有し、
    前記第四のサンプルの構造のそれぞれのサンプルに割り当てられた重み付けファクタは、前記第五のサンプルの構造のサンプルと前記第三のサンプルの構造のサンプルとの間の差に基づく、
    請求項2記載の方法。
  4. 前記重み付けファクタは、前記差の非線形関数に基づいて決定される、
    請求項1記載の方法。
  5. 前記非線形関数は、指数関数である、
    請求項1記載の方法。
  6. 前記関数は、比較的大きな差を比較的小さな重み付けファクタに変換する、
    請求項4又は5記載の方法。
  7. 前記第二の構造のサンプルのうちの第一のサンプルを計算するために使用される、前記第四の構造のサンプルのうちの第一のサンプルの重み付けファクタのうちの第一のファクタを割り当てることは、前記第三の構造のサンプルのうちの第一のサンプルと前記第五の構造のサンプルのうちの第一のサンプルとの間の第一の差に基づいており、
    前記第二の構造のサンプルのうちの第一のサンプルと前記第三の構造のサンプルのうちの第一のサンプルのそれぞれの座標は相互に等しい、
    請求項2乃至6の何れか記載の方法。
  8. 前記第二の構造のサンプルのうちの第一のサンプルを計算するために使用される、前記第四の構造のサンプルのうちの第一のサンプルの重み付けファクタのうちの第一のファクタを割り当てることは、前記第三の構造のサンプルのうちの第一のサンプルと前記第五の構造のサンプルのうちの第一のサンプルとの間の第一の差に基づいており、
    前記第五の構造のサンプルのうちの第一のサンプルと前記第四の構造のサンプルのうちの第一のサンプルのそれぞれの座標は相互に等しい、
    請求項2乃至7の何れか記載の方法。
  9. 前記アップスケーリングするステップは、多数のスケーリングステップを含み、
    前記多数のスケーリングステップは、
    前記第一の特性を表す中間のサンプルの構造を取得するスケーリングステップと、前記中間のサンプルの構造は、前記第二の解像度よりも高く、前記第一の解像度よりも低い中間の解像度を有し、
    前記中間のサンプルの構造に基づいて前記第二のサンプルの構造を取得する更なるスケーリングステップとを含む、
    請求項1記載の方法。
  10. 前記第一の特性は、深さ、視差、動きのうちの1つである、
    請求項1記載の方法。
  11. 前記第二の特性は、色、輝度及びカラーテクスチャのうちの1つである、
    請求項1記載の方法。
  12. 前記第四のサンプルの構造からサンプルを生成するステップは、前記第一のサンプルの構造から多数のサンプルを結合するステップを含む、
    請求項1記載の方法。
  13. ダウンスケーリングは、ボックスフィルタの使用を含む、
    請求項1記載の方法。
  14. 前記第一のサンプルの構造は、第一のタイムスタンプで前記シーンの前記第一の特性を表し、
    前記第三のサンプルの構造は、第二のタイムスタンプで前記シーンの前記第二の特性を表し、
    前記第二のタイムスタンプは、前記第一のタイムスタンプでの前記第一のサンプルの構造が前記第二のタイムスタンプでの前記第一の特性を表す前記第二のサンプルの構造の予測を形成するように、前記第一のタイムスタンプに時間的に近い、
    請求項1記載の方法。
  15. 前記第一のタイムスタンプで前記第四のサンプルの構造のそれぞれのサンプルに重み付けファクタを割り当てるステップは、
    前記第一のタイムスタンプで第三のサンプルの構造のサンプルをダウンスケーリングして、前記第一のタイムスタンプで前記第五のサンプルの構造のサンプルを形成することで、前記第一のタイムスタンプで前記第二の特性を表す第五のサンプルの構造を生成するステップを含み、前記第一のタイムスタンプで前記第五のサンプルの構造は、前記第二の解像度を有し、
    前記第一のタイムスタンプで前記第四のサンプルの構造のそれぞれのサンプルに割り当てられた重み付けファクタは、前記第一のタイムスタンプでの前記第五のサンプルの構造と前記第二のタイムスタンプでの前記第三のサンプルの構造のサンプルとの間の差に基づく、
    請求項14記載の方法。
  16. 第三のサンプルの構造に基づいて、第一のサンプルの構造を第二のサンプルの構造にエンハンスする画像強調装置であって、
    前記第一のサンプルの構造と前記第二のサンプルの構造の両者は、あるシーンの第一の特性を表し、第一の解像度を有し、
    前記第三のサンプルの構造は、第二の特性を表し、前記第一の解像度を有し、
    前記第一の特性と前記第二の特性は、実質的に同じシーンの異なる特性をそれぞれ表し、
    当該画像強調装置は、
    前記第一のサンプルの構造の第一のサンプルをダウンスケーリングして、前記第四のサンプルの構造のサンプルを形成することで、前記第一の特性を表す第四のサンプルの構造のサンプルを生成する生成手段と、前記第四のサンプルの構造は、前記第一の解像度よりも低い第二の解像度を有し、
    前記第三のサンプルの構造に基づいて、前記第一の特性を表す前記第四のサンプルの構造を、前記第二のサンプルの構造にアップスケーリングするアップスケール手段とを含み、
    前記アップスケーリング手段は、
    前記第三のサンプルの構造のサンプルに基づいて、前記第四のサンプルの構造のそれぞれのサンプルに重み付けファクタを割り当てる重み付けファクタ割り当て手段と、
    前記第四のサンプルの構造のサンプル及びそれぞれ割り当てられた重み付けファクタを使用して、前記第二のサンプルの構造のサンプルを計算する第一の計算手段と、
    を有することを特徴とする画像強調装置。
  17. 請求項16記載の画像強調装置を含む画像処理装置。
  18. 請求項16記載の画像強調装置を含むビデオ表示装置。
  19. コンピュータ読み取り可能な媒体に記憶されるプログラムコードを含む、コンピュータによりロードされるコンピュータプログラムであって、
    前記プログラムコードは、前記コンピュータで実行されたとき、請求項1乃至15の何れか記載の方法のステップを実行する、
    ことを特徴とするコンピュータプログラム。
JP2009530990A 2006-10-04 2007-10-02 画像強調 Expired - Fee Related JP4875162B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP06301011.0 2006-10-04
EP06301011 2006-10-04
PCT/IB2007/053995 WO2008041178A2 (en) 2006-10-04 2007-10-02 Image enhancement

Publications (2)

Publication Number Publication Date
JP2010506287A true JP2010506287A (ja) 2010-02-25
JP4875162B2 JP4875162B2 (ja) 2012-02-15

Family

ID=39111278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009530990A Expired - Fee Related JP4875162B2 (ja) 2006-10-04 2007-10-02 画像強調

Country Status (7)

Country Link
US (1) US8331711B2 (ja)
EP (1) EP2074586B1 (ja)
JP (1) JP4875162B2 (ja)
KR (1) KR20090071624A (ja)
CN (1) CN101523434B (ja)
AT (1) ATE523861T1 (ja)
WO (1) WO2008041178A2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012096065A1 (ja) * 2011-01-13 2012-07-19 富士フイルム株式会社 視差画像表示装置及び視差画像表示方法
WO2012096054A1 (ja) * 2011-01-13 2012-07-19 富士フイルム株式会社 視差画像表示装置、視差画像表示方法及び視差画像表示プログラム
WO2013031573A1 (ja) * 2011-08-31 2013-03-07 ソニー株式会社 符号化装置および符号化方法、復号装置および復号方法
WO2013031575A1 (ja) * 2011-08-31 2013-03-07 ソニー株式会社 画像処理装置および画像処理方法
JP2013516892A (ja) * 2010-01-07 2013-05-13 トムソン ライセンシング ディスプレイにビデオ・コンテンツを供給する方法および装置
JP2013527646A (ja) * 2010-06-08 2013-06-27 エスケー プラネット カンパニー、リミテッド 立体映像エラー改善方法及び装置
WO2013115024A1 (ja) * 2012-01-31 2013-08-08 ソニー株式会社 画像処理装置および画像処理方法
JP2013533714A (ja) * 2010-08-11 2013-08-22 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 多視点信号コーデック
US9615079B2 (en) 2011-03-18 2017-04-04 Sony Corporation Image processing apparatus and image processing method

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009047681A1 (en) 2007-10-11 2009-04-16 Koninklijke Philips Electronics N.V. Method and device for processing a depth-map
US8121351B2 (en) * 2008-03-09 2012-02-21 Microsoft International Holdings B.V. Identification of objects in a 3D video using non/over reflective clothing
EP2291825B1 (en) 2008-05-28 2013-09-25 Thomson Licensing System and method for depth extraction of images with forward and backward depth prediction
KR101502365B1 (ko) * 2008-11-06 2015-03-13 삼성전자주식회사 삼차원 영상 생성기 및 그 제어 방법
JP4844664B2 (ja) * 2009-09-30 2011-12-28 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US8537200B2 (en) 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
EP2553933B1 (en) 2010-03-31 2018-10-24 Thomson Licensing 3d disparity maps
JP5604173B2 (ja) * 2010-04-30 2014-10-08 三洋電機株式会社 再生装置、表示装置、記録装置及び格納媒体
KR101671927B1 (ko) * 2010-07-21 2016-11-04 삼성전자주식회사 이미지 처리 장치 및 방법
US8908964B2 (en) 2010-09-20 2014-12-09 Canon Kabushiki Kaisha Color correction for digital images
JP2012138787A (ja) * 2010-12-27 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
KR101810845B1 (ko) 2011-05-26 2017-12-22 톰슨 라이센싱 스케일-독립적인 맵
JP6029021B2 (ja) 2012-01-27 2016-11-24 パナソニックIpマネジメント株式会社 画像処理装置、撮像装置および画像処理方法
US8922654B2 (en) * 2012-03-22 2014-12-30 Exelis, Inc. Algorithm for adaptive downsampling to an irregular grid
US9349169B2 (en) * 2012-05-17 2016-05-24 The Regents Of The University Of California Sampling-based multi-lateral filter method for depth map enhancement and codec
TWI464692B (zh) * 2012-07-03 2014-12-11 Wistron Corp 操作物辨識方法、操作物深度資訊建立方法及電子裝置
US9299130B2 (en) 2013-03-15 2016-03-29 Trustees Of Tufts College Methods and apparatus for image processing and analysis
KR20180065135A (ko) * 2016-12-07 2018-06-18 삼성전자주식회사 셀프 구조 분석을 이용한 구조 잡음 감소 방법 및 장치
US11373338B2 (en) 2019-01-09 2022-06-28 Samsung Electronics Co., Ltd. Image padding in video-based point-cloud compression CODEC

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6285798B1 (en) * 1998-07-06 2001-09-04 Eastman Kodak Company Automatic tone adjustment by contrast gain-control on edges
US6869750B2 (en) * 1999-10-28 2005-03-22 Fujitsu Limited Structure and method for forming a multilayered structure
US6731823B1 (en) * 1999-12-22 2004-05-04 Eastman Kodak Company Method for enhancing the edge contrast of a digital image independently from the texture
US7376688B1 (en) * 2001-01-09 2008-05-20 Urbain A. von der Embse Wavelet multi-resolution waveforms
DE10139708A1 (de) * 2001-08-11 2003-02-20 Philips Corp Intellectual Pty Vorrichtung und Verfahren zur Verarbeitung von Digitalbildern
US6885801B1 (en) * 2001-12-06 2005-04-26 Clear Image Technology Llc Enhancement of fiber based images
US20060045384A1 (en) * 2002-09-11 2006-03-02 Koninklijke Philips Electronics N.V. Unit for and method of image conversion
US7764827B2 (en) 2003-08-05 2010-07-27 Koninklijke Philips Electronics N.V. Multi-view image generation
CN100568281C (zh) 2004-02-17 2009-12-09 皇家飞利浦电子股份有限公司 创建深度图
JP4641784B2 (ja) * 2004-10-29 2011-03-02 パナソニック株式会社 階調変換処理装置、階調変換処理方法、画像表示装置、テレビジョン、携帯情報端末、カメラ、集積回路および画像処理プログラム
JP4600011B2 (ja) * 2004-11-29 2010-12-15 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4517300B2 (ja) * 2006-01-06 2010-08-04 ソニー株式会社 表示装置および表示方法、学習装置および学習方法、並びにプログラム

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013516892A (ja) * 2010-01-07 2013-05-13 トムソン ライセンシング ディスプレイにビデオ・コンテンツを供給する方法および装置
US9185383B2 (en) 2010-01-07 2015-11-10 Thomson Licensing System and method for providing optimal display of video content
US8503765B2 (en) 2010-06-08 2013-08-06 Sk Planet Co., Ltd. Method and apparatus for correcting errors in stereo images
JP2013527646A (ja) * 2010-06-08 2013-06-27 エスケー プラネット カンパニー、リミテッド 立体映像エラー改善方法及び装置
JP2013533714A (ja) * 2010-08-11 2013-08-22 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 多視点信号コーデック
US11330242B2 (en) 2010-08-11 2022-05-10 Ge Video Compression, Llc Multi-view signal codec
US11843757B2 (en) 2010-08-11 2023-12-12 Ge Video Compression, Llc Multi-view signal codec
US10674134B2 (en) 2010-08-11 2020-06-02 Ge Video Compression, Llc Multi-view signal codec with reusing coding parameters
US10110903B2 (en) 2010-08-11 2018-10-23 Ge Video Compression, Llc Multi-view signal codec with reusing coding parameters
US9648298B2 (en) 2010-08-11 2017-05-09 Ge Video Compression, Llc Multi-view signal codec
WO2012096054A1 (ja) * 2011-01-13 2012-07-19 富士フイルム株式会社 視差画像表示装置、視差画像表示方法及び視差画像表示プログラム
WO2012096065A1 (ja) * 2011-01-13 2012-07-19 富士フイルム株式会社 視差画像表示装置及び視差画像表示方法
US10389997B2 (en) 2011-03-18 2019-08-20 Sony Corporation Image processing apparatus and image processing method
US10218958B2 (en) 2011-03-18 2019-02-26 Sony Corporation Image processing apparatus and image processing method
US9615079B2 (en) 2011-03-18 2017-04-04 Sony Corporation Image processing apparatus and image processing method
US9712802B2 (en) 2011-03-18 2017-07-18 Sony Corporation Image processing apparatus and image processing method
US9900595B2 (en) 2011-08-31 2018-02-20 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
JPWO2013031575A1 (ja) * 2011-08-31 2015-03-23 ソニー株式会社 画像処理装置および画像処理方法
WO2013031575A1 (ja) * 2011-08-31 2013-03-07 ソニー株式会社 画像処理装置および画像処理方法
WO2013031573A1 (ja) * 2011-08-31 2013-03-07 ソニー株式会社 符号化装置および符号化方法、復号装置および復号方法
JPWO2013115024A1 (ja) * 2012-01-31 2015-05-11 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および記録媒体
WO2013115024A1 (ja) * 2012-01-31 2013-08-08 ソニー株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
KR20090071624A (ko) 2009-07-01
US8331711B2 (en) 2012-12-11
CN101523434A (zh) 2009-09-02
CN101523434B (zh) 2012-05-30
EP2074586A2 (en) 2009-07-01
WO2008041178A3 (en) 2008-07-03
US20100002948A1 (en) 2010-01-07
JP4875162B2 (ja) 2012-02-15
ATE523861T1 (de) 2011-09-15
EP2074586B1 (en) 2011-09-07
WO2008041178A2 (en) 2008-04-10

Similar Documents

Publication Publication Date Title
JP4875162B2 (ja) 画像強調
JP7012642B2 (ja) アーチファクトを意識したビュー合成のための補助データ
JP4949463B2 (ja) アップスケーリング
TWI748949B (zh) 用於使用深度資訊之全視差壓縮光場合成之方法
Tian et al. A benchmark of DIBR synthesized view quality assessment metrics on a new database for immersive media applications
US9525858B2 (en) Depth or disparity map upscaling
KR102263625B1 (ko) 티어드 신호 품질 계층에서의 모션 맵들 및 다른 보조 맵들의 업샘플링 및 다운샘플링
JP5243833B2 (ja) 画像信号処理回路、画像表示装置、および画像信号処理方法
KR101385514B1 (ko) 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
EP2214137B1 (en) A method and apparatus for frame interpolation
Dziembowski et al. IV-PSNR—the objective quality metric for immersive video applications
JP3055438B2 (ja) 3次元画像符号化装置
JP2012019513A (ja) 2d画像を3d画像に変換するための方法および装置
Mao et al. Expansion hole filling in depth-image-based rendering using graph-based interpolation
Mieloch et al. Overview and efficiency of decoder-side depth estimation in MPEG immersive video
Ceulemans et al. Efficient MRF-based disocclusion inpainting in multiview video
RU2583725C1 (ru) Способ и система для обработки изображения
JP2015087851A (ja) 画像処理装置及び画像処理プログラム
Simone et al. Omnidirectional video communications: new challenges for the quality assessment community
KR101098300B1 (ko) 공간 신호 변환
US20120170841A1 (en) Image processing apparatus and method
EP3743882A1 (en) Enhancing image data with appearance controls
CN114897681A (zh) 基于实时虚拟视角插值的多用户自由视角视频方法及系统
Jung Lossless embedding of depth hints in JPEG compressed color images
KR102414377B1 (ko) 색상요소분할 전처리 기반의 플렌옵틱 영상 디코딩 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees