JP6998388B2 - 画像特性マップを処理するための方法及び装置 - Google Patents

画像特性マップを処理するための方法及び装置 Download PDF

Info

Publication number
JP6998388B2
JP6998388B2 JP2019542199A JP2019542199A JP6998388B2 JP 6998388 B2 JP6998388 B2 JP 6998388B2 JP 2019542199 A JP2019542199 A JP 2019542199A JP 2019542199 A JP2019542199 A JP 2019542199A JP 6998388 B2 JP6998388 B2 JP 6998388B2
Authority
JP
Japan
Prior art keywords
value
image characteristic
map
image
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019542199A
Other languages
English (en)
Other versions
JP2020506484A5 (ja
JP2020506484A (ja
Inventor
クリスティアン ヴァーエカンプ
パトリック ルク エルス バンドワール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2020506484A publication Critical patent/JP2020506484A/ja
Publication of JP2020506484A5 publication Critical patent/JP2020506484A5/ja
Application granted granted Critical
Publication of JP6998388B2 publication Critical patent/JP6998388B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Description

本発明は、画像特性マップを処理するための方法及び装置に関し、排他的ではないが、より詳細には、深度マップ又は視差マップの処理に関する。
従来、デジタル画像及びビデオ・フレームは、単に、シーンの光特性を反映する光強度情報(色を含む)を提供する単一の画像から構成されていた。しかし、近年、画像の表現は、しばしば、異なるいくつかの特性を表す更なる情報を有してますます複雑になっている。例えば、単に、単一の光強度画像である画像ではなく、シーンの多くの表現は、今や、更なる光強度画像、深度マップ、透明度マップ、信頼度マップ、その他を備える。
そのような更なる情報は、受取り/レンダリング端が、レンダリングされている画像に対してより大きい柔軟性及び制御を有することを可能にするために提供される。一例が、例えば、光強度画像のための深度マップ(又は、均等なこととして、視差マップ)の備えなどの、更なる深度情報の備えである。このことは、受け取る側/レンダリングする側が、視点移動を実行すること、又は、例えば、3Dビューイングのための立体画像を生成することを可能にすることができる。
しかし、多くの実際的なシナリオにおいて、画像特性は、不完全であり、かつノイズ又は誤差による影響を受ける。例えば、深度情報が、所望されるほど正確ではないことがある。実際、多くのシナリオにおいて、深度情報は、異なる視認方向に対するビュー画像同士を比較することによって深度値を推定すること、及び抽出することによって生成される。しかし、そのような推定は、ノイズ及び誤差を比較的被りやすい傾向にある。
特に、多くの適用形態において、3次元シーンは、わずかに異なる位置において2つのカメラを使用して立体画像としてキャプチャされる。次に、特定の深度値が、2つの画像における対応する画像オブジェクトの間の視差を推定することによって生成される。しかし、そのような深度抽出及び深度推定は、問題があり、理想的でない深度値をもたらす傾向にある。このことが、アーチファクト、及び劣化した3次元画像品質を更にまたもたらすことがある。
3次元画像劣化及びアーチファクトは、異なる画像オブジェクトの間の遷移に関して特に大きい傾向にある。更に、関連する画像に関する視差推定に基づく深度情報の決定もまた、通常、画像オブジェクトの特性に配慮することと関係する。通常、視差推定アルゴリズムは、左画像におけるポイントと右画像におけるそのポイントに対応するポイントの間の色差を局所的に比較することによって、左画像と右画像の間の対応関係を探索する。しかし、画像特性及びプロセスは、比較的ノイズが多く、生成される深度マップも比較的ノイズが多いことをもたらす。
そのような深度マップを改良するために、深度マップのポストフィルタリングが提案されている。特定のポストフィルタリング・アプローチは、フィルタリング・カーネルが画像の視覚特性を反映するように適応させられる、バイラテラル色及び/又は輝度適応フィルタである。そのようなバイラテラル・フィルタは、深度マップが、画像の特徴により密接に従うように適応させられることをもたらし、かつ推定される視差の向上した一貫性及び経時安定性をもたらす、又は、例えば、異なる画像オブジェクトの間のより鮮明な深度遷移をもたらす。
合同バイラテラル・フィルタリングは、アップサンプリングを含み、関連する光強度画像が「誘導」信号として与えられて、例えば、深度マップをフィルタリングするのに、又はアップサンプリングするのに使用される技法である。全体的な考え方は、「誘導」信号は、ノイズがより少なく、又はより高い分解能のものであること、及び、そのため、「誘導」信号は、フィルタリングすべきピクセルの典型的には時空間的な近傍の重み付けされた平均において、いずれのサンプルにより低い重み、又はより高い重みが与えられるべきかと関係する情報を提供することができる。
しかし、そのようなフィルタリング、及び特にバイラテラル・フィルタリングは、フィルタリングされている画像特性マップを改良するものの、最適なパフォーマンスをもたらさない傾向にあり、もたらされる画像特性マップは、アーチファクト、誤差、不正確さ、及び/又はノイズを依然として含むことがある。
したがって、画像特性マップを処理するための改良されたアプローチが、有利であり、特に、より高い柔軟性、より円滑な実装、より低い複雑度、より小さいアーチファクト/誤差/不正確さ及び/若しくは雑音、並びに/又は向上した品質及び/若しくはパフォーマンスを可能にするアプローチが、有利である。
したがって、本発明は、好ましくは、前述した欠点のうちの1つ又は複数を単独で、又は任意の組合せで緩和すること、軽減すること、又は解消することを追求する。
本発明の態様によれば、画像特性マップを処理するための装置が提供され、装置は、光強度画像、信頼度マップ、及び画像特性マップを受信するための受信機であって、光強度画像は、光強度画像のピクセルに関する光強度値を備え、画像特性マップは、光強度画像のピクセルに関する画像特性値を備え、かつ信頼度マップは、画像特性値に関する信頼度値を備える、受信機と、光強度画像及び信頼度マップに応じて、画像特性マップをフィルタリングして、フィルタリングされた画像特性マップを生成するように構成されたフィルタ・ユニットとを備え、フィルタリングされた画像特性マップにおける第1の位置に関して、フィルタ・ユニットは、近傍画像特性値の重み付けされた組合せが、第1の位置の周囲の近傍における画像特性値であることに応答して、組み合わされた近傍画像特性値を決定し、第2の位置における第1の近傍画像特性値に関する重みは、第1の近傍画像特性値に関する信頼度値、及び第1の位置に関する光強度値と第2の位置に関する光強度値との間の差に依存し、フィルタ・ユニットは、第1の位置に関する第1のフィルタリングされた画像特性値を、画像特性マップにおける第1の位置における第1の画像特性値と、組み合わされた近傍画像特性値との組合せとして決定し、フィルタ・ユニットは、第1の近傍画像特性値に関する信頼度値と第1の画像特性値に関する信頼度値とに関する差測度に応答して、第1の近傍画像特性値に関する重みを決定するように構成される。
本発明は、改良された画像特性マップが生成されることを可能にする。フィルタリングされた画像特性マップは、異なる特性及びモダリティに応答して決定され、多くのシナリオ及び実施形態において正しい画像特性値のより正確な反映をもたらす。例えば、多くの実施形態において、深度マップの改良されたフィルタリングが実現されることが可能であり、例えば、もたらされるより高い画像品質を伴って視点移動を実行するのに使用され得る、出力されたフィルタリングされた深度マップをもたらす。このため、改良されたユーザ体験は、しばしば、もたらされるフィルタリングされた画像特性マップに基づいて実現され得る。
このアプローチは、信頼度値及び光強度値の両方が、深度マップなどの画像特性マップのフィルタリングを制御し、かつ誘導するのに同時に使用されることが可能な、改良されたフィルタリングを提供する。異なる特性に配慮することは、組み合わされた同時の統合された操作に組み込まれる。このことは、品質を低減するが、向上したパフォーマンスをもたらす。例えば、この特定のアプローチは、信頼度値及び光強度値の両方に合同で配慮することを可能にし、これらが互いに望ましくなく干渉することも、誤差若しくはアーチファクトをもたらすこともない。
第1の位置に関する光強度値と第2の位置に関する光強度値との間の差は、任意の適切な差測度により決定される。例えば、この差は、光強度値の間の差に関するノルムとして決定される。
近傍画像特性値の重み付けされた組合せは、特に、近傍画像特性値の重み付けされた合計である。一部の実施形態において、近傍画像特性値の重み付けされた組合せは、近傍の範囲内の全ての近傍画像特性値を含む。他の実施形態において、この組合せは、それらの値のサブセットだけを含み、例えば、サブサンプリングが、近傍における近傍画像特性値に適用される。
画像特性マップにおける第1の位置における第1の画像特性値と組み合わされた近傍画像特性値の組合せは、重み付けされた合計である。
近傍は、第1の位置を含む近傍/領域である。そのような近傍/領域は、カーネルとも呼ばれる。
第1の近傍画像特性値に関する重みは、第1の近傍画像特性値に関する信頼度値の単調増加関数である(ここで、信頼度値は、増加する信頼度に対して増加する値を有する)。
第1の近傍画像特性値に関する重みは、第1の位置に関する光強度値と第2の位置に関する光強度値との間の差の単調減少関数である。
第1の近傍画像特性値に関する信頼度値は、信頼度マップにおける第2の位置における信頼度値である。
信頼度値に関する差測度は、任意の適切な差測度である。
本発明のオプションの特徴によれば、フィルタ・ユニットは、
第1の画像特性値に関する信頼度値に応答して、組み合わされた近傍画像特性値に関する重みを基準として第1の画像特性値に関する重みを決定するように構成される。
このことは、多くのシナリオ及び実施形態において改良されたフィルタリングされた画像特性マップが生成されることをもたらす。
画像特性マップにおける第1の位置における第1の画像特性値と組み合わされた近傍画像特性値の組合せに関する重みは、第1の画像特性値に関する/信頼度マップにおける第1の位置における信頼度値に依存する。
組み合わされた近傍画像特性値に関する重みを基準とした第1の画像特性値に関する重みは、第1の画像特性値に関する信頼度値の単調増加関数である。
本発明のオプションの特徴によれば、フィルタ・ユニットは、組み合わされた近傍画像特性値を、実質的に
Figure 0006998388000001
として決定するように構成され、ここで、fは、第2の位置に関する光強度値と第2の位置における近傍画像特性値に関する光強度値とに関する差測度を表し、gは、第1の深度値Dに関する信頼度値Cと第2の位置における近傍画像特性値に関する信頼度値とに関する信頼度差測度を表し、Dは、第2の位置における近傍画像特性値を表し、αは、設計パラメータを表し、かつ合計は、近傍に属する全ての位置jにわたる。
このことは、多くの実施形態において特に有利な操作を提供し、かつ多くのシナリオ及び実施形態において改良されたフィルタリングされた画像特性マップが生成されることを特にもたらす。
設計パラメータαは、例えば、第1の位置と第2の位置の間の距離などの、他のパラメータに依存する。
本発明のオプションの特徴によれば、重みの決定は、第1の近傍画像特性値に関する信頼度値と第1の画像特性値とに関する信頼度値に関して非対称である。
このことは、多くの実施形態において特に有利な操作を提供し、かつ多くのシナリオ及び実施形態において改良されたフィルタリングされた画像特性マップが生成されることを特にもたらす。
本発明のオプションの特徴によれば、差測度は、最小値に限定され、第1の近傍画像特性値に関する信頼度値が、第1の画像特性値に関する信頼度値を閾値より超えた場合に限って超えられる。
このことは、多くの実施形態において特に有利な操作を提供し、かつ多くのシナリオ及び実施形態において改良されたフィルタリングされた画像特性マップが生成されることを特にもたらす。
最小値は、0であり、及び/又は閾値は、0である。
本発明のオプションの特徴によれば、光強度画像、信頼度マップ、及び画像特性マップは、時系列の光強度画像、信頼度マップ、及び画像特性マップの一部であり、かつ近傍は、時間的拡張を有する。
このことは、多くの実施形態において向上したパフォーマンスをもたらし、かつ、特に、向上した経時安定性及び一貫性をもたらす。
本発明のオプションの特徴によれば、フィルタ・ユニットは、画像特性値に対して、この値がフィルタリングされた画像特性値である場合、信頼度値を増加させるように構成される。
このことは、多くの実施形態において特に有利な操作を提供し、かつ多くのシナリオ及び実施形態において改良されたフィルタリングされた画像特性マップが生成されることを特にもたらす。
画像特性値は、多くの実施形態において、その値が、一連の画像特性マップのうちの画像特性マップの前のフィルタリングによって生成された、フィルタリングされた画像特性マップの一部である場合、フィルタリングされた画像特性マップと見なされる。
本発明のオプションの特徴によれば、近傍は、第1の位置に関して空間的に非対称である。
このことは、多くの実施形態において向上したパフォーマンスをもたらす。
本発明のオプションの特徴によれば、画像特性マップは、第1の視点を表す第1の画像と第2の視点を表す第2の画像とにおける視差推定から決定された深度値を備え、かつ第1の視点を視差推定に関する基礎として有する深度表示マップであり、近傍は、第1の視点から第2の視点に向かう方向と比べて、第2の視点から第1の視点に向かう方向においてより大きく延びる。
このことは、視差推定が使用される、多くのシナリオ及び実施形態において改良されたフィルタリングされた画像特性マップをもたらす。このことは、異なる視点に対応する画像の間の基礎をなす視差推定における非対称を反映する。
本発明のオプションの特徴によれば、重みは、第1の位置と第2の位置との間の距離に更に依存する。
このことは、多くのシナリオ及び実施形態において改良されたフィルタリングされた画像特性マップをもたらす。
本発明のオプションの特徴によれば、受信機は、第2の画像特性マップ及び第2の信頼度マップを受信するように更に構成され、第2の信頼度マップは、第2の画像特性マップの第2の画像特性値に関する第2の信頼度値を備え、かつフィルタ・ユニットは、第2の位置に関する第2の画像特性値、及び第2の位置に関する第2の信頼度値に応答して、第1の近傍画像特性値に関する重みを決定するように更に構成される。
このことは、多くの実施形態において特に有利な操作を提供し、かつ多くのシナリオ及び実施形態において改良されたフィルタリングされた画像特性マップが生成されることを特にもたらす。
本発明のオプションの特徴によれば、画像特性マップは、深度マップ、視差マップ、モーション推定マップ、及び透明度マップのうちの1つである。
本発明は、多くの実施形態において、改良された深度マップ、視差マップ、モーション推定マップ、又は透明度マップが生成されることを可能にする。このことは、例えば、光強度画像の向上した後続の画像処理を可能にし、そのため、画像品質を向上させ、かつ向上したユーザ体験をもたらす。
本発明の態様によれば、画像特性マップを処理する方法が提供され、方法は、光強度画像、信頼度マップ、及び画像特性マップを受信するステップであって、光強度画像は、光強度画像のピクセルに関する光強度値を備え、画像特性マップは、光強度画像のピクセルに関する画像特性値を備え、かつ信頼度マップは、画像特性値に関する信頼度値を備える、ステップと、光強度画像及び信頼度マップに応じて、フィルタリングされた画像特性マップを生成すべく画像特性マップをフィルタリングするステップとを含み、フィルタリングするステップは、フィルタリングされた画像特性マップにおける第1の位置に関して、近傍画像特性値の重み付けされた組合せが、第1の位置の周囲の近傍における画像特性値であることに応答して、組み合わされた近傍画像特性値を決定するステップであって、第2の位置における第1の近傍画像特性値に関する重みは、第1の近傍画像特性値に関する信頼度値、及び第1の位置に関する光強度値と第2の位置に関する光強度値との間の差に依存する、ステップと、第1の位置に関する第1のフィルタリングされた画像特性値を、画像特性マップにおける第1の位置における第1の画像特性値と、組み合わされた近傍画像特性値との組合せとして決定するステップとを含み、組み合わされた近傍画像特性値を決定するステップは、第1の近傍画像特性値に関する信頼度値と第1の画像特性値に関する信頼度値とに関する差測度に応答して、第1の近傍画像特性値に関する重みを決定するステップを含む。
本発明のこれら、及びその他の態様、特徴、及び利点は、後段に説明される実施形態から明白となり、それらの実施形態を用いて説明される。
本発明の実施形態が、単に例として、図面を参照して説明される。
本発明の一部の実施形態による、深度マップなどの画像特性マップを処理するための装置の要素の例を示す図である。 図1の装置によって使用されるカーネルの例を示す図である。
以下の説明は、深度マップの形態の画像特性マップの処理に適用可能な本発明の実施形態に焦点を合わせる。しかし、本発明は、この適用形態に限定されず、他の多くのタイプの画像特性マップに適用されることが認識されよう。
図1は、特定の例において深度マップである、画像特性マップを処理するための装置の例を示す。
装置は、光強度画像と、関連付けられた信頼度マップと、特に深度マップである画像特性マップとを備える画像データを受信するように構成された受信機101を備える。
光強度画像は、ディスプレイによってレンダリング/表示されるべき画像の個々のピクセルに関する光強度値を反映する値を備える。
光強度値は、光強度を示す任意の値であること、及び特に、例えば、1つの色チャネルに関する光強度であることが認識されよう。例えば、光強度値は、RGB表現のR値、G値、若しくはB値であり、又は、例えば、Yuv表現のY値であり、又は、実際、そのようなYuv表現のu値若しくはv値である。u値及びv値は、クロマ値であること、及びこれらは、レンダリングするとき、個々の色チャネルの光強度と関係する情報も提供することに留意されたい。このため、光強度値は、色表現の輝度、クロミナンス、又は、実際、クロマ値である。典型的には、光強度画像は、対応するピクセルに関するクロミナンス特性を示す光強度ピクセル値を備える。ピクセルに関するクロミナンス特性は、ピクセルの輝度特性、クロマ特性、又はクロマ特性と輝度特性の両方を示す。
画像特性マップは、光強度画像のピクセル/位置に関する画像特性値を備える。特定の例において、画像特性マップは、光強度画像におけるピクセルの深度についての情報を備える深度マップである。深度マップは、z座標などの、光強度画像の光強度値に関する深度を直接に示す深度値を特に備える。
視差情報は、一種の深度情報であること、及び深度マップは、均等なこととして、視差マップであることが認識されよう。一部の実施形態において、深度マップは、光強度画像の光強度値に関する視差値を備える。以下の説明において深度について述べることは、直接深度/z値を使用する実施形態と視差値を使用する実施形態に等しく当てはまることが認識されよう。
以下の説明は、画像特性が深度特性である実施形態に焦点を合わせるものの、このアプローチは、他の画像特性に適用されることが可能であり、このため、他の実施形態において、画像特性マップは、異なる画像特性を示すマップである。特に、画像特性マップは、光強度画像のピクセルの透明度を示すデータ値を備える透明度マップである。そのような透明度マップは、典型的には、当技術分野においてαマップとしても知られる。
信頼度マップは、画像特性値に関する、すなわち、画像特性マップの深度値又は透明度値に関する信頼度値を備える。パラメータの信頼性又は精度を反映する信頼度値の概念は、画像処理の技術分野においてよく知られていることが認識されよう。画像特性値に関する信頼度値は、画像特性値が正しい値を有する(推定される)尤度を示す。信頼度値は、パラメータ値を推定しよう、又は決定しようと努める多くの推定プロセスの結果として生成される。例えば、深度推定は、典型的には、推定される深度を表す深度推定を生成するだけでなく、推定されている画像オブジェクトの実際の深度を反映する深度推定の信頼度を示す信頼度値も生成する。
多くの実施形態において、画像特性マップは、光強度画像の各光強度値に関する個別の画像特性値を備える。しかし、多くの実施形態において、画像特性値は、例えば、複数の光強度値に共通である。例えば、多くの実施形態において、画像特性マップは、光強度画像と比べて、より低い分解能のものであり、かつ、実際、以下に説明されるプロセスは、画像特性マップをアップサンプリングするのに使用される。
同様に、信頼度マップは、光強度画像とは異なる分解能を有し、実際、一部の実施形態において、画像特性マップとも異なる分解能を有する。一部の実施形態において、信頼度マップの値は、画像特性マップの複数の画像特性値に共通であり、このため、より低い分解能を有する。しかし、ほとんどの実施形態において、信頼度マップは、画像特性値と同一の分解能を有し、各画像特性値に関する信頼度値を備える。
一部の実施形態において、受信機101は、(少なくとも)光強度画像、並びに関連付けられた画像特性マップ及び信頼度マップの単一の独立したセットを受信する。光強度画像と、画像特性マップ及び信頼度マップ(並びに、場合により、例えば、他の視点に関する、他の関連付けられた画像特性マップ若しくは光強度画像)を含む関連付けられたデータとのセットは、合成画像と呼ばれる。合成画像は、このため、特定の瞬間と関係する全ての画像データのセットと見なされる。
一部の実施形態において、合成画像は、時系列の合成画像の一部分である。このため、光強度画像は、時系列の光強度画像の一部であり、かつ各光強度画像は、関連する1つ又は複数の画像特性マップ及び信頼度マップを有する。したがって、現在の光強度画像に関する画像特性マップ及び信頼度マップは、時系列の画像特性マップ及び信頼度マップの一部でもある。
特に、合成画像は、典型的には、各画像が、関連付けられた画像特性マップと、信頼度マップとを有している画像のビデオ・シーケンスの一部である。
受信機101は、光強度画像及び信頼度マップの両方に依存して画像特性マップをフィルタリングするように構成されたフィルタ・ユニット103に結合される。後段で詳細に説明されるとおり、フィルタ・ユニット103は、画像特性マップに関する光強度値と信頼度値との両方を考慮に入れる画像特性マップのフィルタリングを実行する。したがって、フィルタリングは、画像特性値自体に加えて、異なる2つのモダリティを同時に考慮に入れる。
フィルタ・ユニット103は、図1の特定の例において、フィルタリングされた光強度画像から適切な出力信号を生成し、かつその信号を適切なソースに送信するように構成された送信機105に結合される。例えば、送信機105は、配信のための適切な信号を生成すべく光強度画像に適切な画像符号化プロセス又はビデオ符号化プロセスを適用するように構成される。例えば、送信機は、フィルタリングされた光強度画像にMPEG符号化を適用して、もたらされるビットストリームが配信されることを可能にする。画像特性値、及び、場合により、信頼度マップが、多くの実施形態において出力ビットストリームに含められる。他の例において、送信機105は、フィルタリングされた画像特性マップに基づいて光強度画像をレンダリングし、かつ提示するようにディスプレイを駆動すべく、ディスプレイに直接に供給されることが可能である適切なディスプレイ駆動信号を生成するように構成される。
光強度特性又は信頼度特性などの、別の特性に基づく画像特性マップの改良は、画像特性マップの品質を向上させる。しかし、従来のアプローチは、通常、1つだけのパラメータを考慮するように設計され、異なるモダリティ及び特性を組み合わせることは、複雑で困難な問題である。これを行うことは、リソース要求及びリソース複雑度の大幅な増加を要求するだけでなく、予測できず、かつ望ましくない効果(例えば、異なるモダリティに関する異なるプロセスは、場合により、予測できない様態で、典型的には、互いに干渉する可能性もある)も有する。
図1のシステムにおいて、フィルタ・ユニット103は、光強度値及び信頼度値の両方に基づく画像特性マップの組み合わされ、統合された、同時の処理を実行するように構成される。特に、本発明者らは、異なる特性に基づいて画像特性マップを処理することが可能であるだけでなく、望ましいことにも気づいただけでなく、必要である、若しくは適切であると考えられるとおりに順次のプロセスを実行するのではなく、異なる特性及びモダリティによってもたらされる情報を同時に組み合わせることができる、統合され、かつ組み合わされたフィルタリングを実行することが可能であることにも気づいた。
この操作が、フィルタリングされる深度マップを特に考慮して以下に説明される。
フィルタ・ユニット103は、画像特性マップのフィルタリングされた出力値を決定するように構成された結合器107を特に備える。特定の例において、入力される画像特性マップともたらされる出力されるフィルタリングされた画像特性マップの分解能は、同一の分解能である。したがって、フィルタリングされた画像特性値の位置は、入力される画像特性マップの画像特性値と直接の対応関係を有する、又は、言い換えると、入力される画像特性マップと出力されるフィルタリングされた画像特性マップは、直接に対応するピクセルを有する。現在の値が決定される出力されるフィルタリングされた画像特性マップにおける位置は、以降、第1の位置として、インデックスiを使用して参照される。そのような参照及びインデックスは、入力される画像特性マップにおける対応する位置にも、又は、実際、信頼度マップ若しくは光強度画像における対応する位置にも同一の様態で関係することが認識されよう。同様に、第1の位置iの近傍における位置は、第2の位置jとして参照される。出力されるフィルタリングされた画像特性マップにおける位置は、入力される画像特性マップ、信頼度マップ、及び光強度画像において対応する位置を有することが認識されよう。実際、合成/組み合わされた画像の異なる画像及びマップは、全てのマップ/画像において(これらが異なる分解能である場合でさえ)対応する位置を有することが、当技術分野において標準的な慣行であることに留意されたい。
第1の位置における入力される第1の画像特性値と出力される第1のフィルタリングされた画像特性値とは、インデックスiによって参照される。このため、深度マップである画像特性マップに関して、インデックスiは、入力される第1の深度値D、及び出力される第1のフィルタリングされた深度値Di,outを表す。
また、位置は、一般に、ピクセルと互いに関係し、このため、位置という用語とピクセルという用語とは、適宜、互換的に使用されることも認識されよう。特に、インデックスiを有するピクセル又は値は、第1の位置における対応する値を表し、インデックスjを有するピクセル又は値は、第2の位置における対応する値を表す。
この第1のフィルタリングされた深度値Di,outの場合(したがって、第1の位置の場合)、結合器107は、入力値D、及び位置/ピクセルiの周囲、すなわち、Di,outの出力値及び第1の深度値Dの位置の周囲の近傍における深度/画像特性値に基づいて決定される深度/画像特性値に依存する出力値Di,out、を生成する。位置iの周囲の領域において決定されるこの値は、組み合わされた近傍画像特性/深度値Di,neighborsとして参照される。
したがって、フィルタ・ユニット103は、値/ピクセル/位置/インデックスiに関するフィルタリングされた第1の画像特性値を、入力される第1の深度値Dと組み合わされた近傍深度値Di,neighborsの組合せとして決定するように構成される。したがって、結合器107は、フィルタリングされた出力値を、
i,out=f(Di,in,Di,neighbors
として決定し、ここで、f()は、重み付けされた組合せである。
一部の実施形態において、例えば、
i,out=αD+(1-α)Di,neighbors
のような単純な所定の組合せが使用され、ここで、αは、0から1までの間の所定の定数である。
組み合わされた近傍深度値Di,neighborsは、フィルタ・ユニット103の一部であり、かつ結合器107に結合される近傍プロセッサ109によって決定される。
近傍プロセッサ109は、出力される深度マップにおける各深度値iに関して、組み合わされた近傍深度値Di,neighborsを、所与の近傍における深度値の重み付けされた組合せとして決定するように構成される。そのような重み付けされた組合せは、フィルタリングに対応するものと見なされ、フィルタリングは、特に、空間的近傍だけが考慮される場合、空間フィルタリングであり、時間的近傍だけが考慮される場合、時間フィルタリングであり、空間的近傍と時間的近傍の両方が考慮される場合、空間フィルタリングと時間フィルタリングの両方である。また、カーネルという用語が、フィルタリングの基礎を形成するそのような近傍に関して、しばしば、当技術分野において使用され、したがって、近傍という用語とカーネルという用語はともに、このコンテキストにおいて適宜、近傍を指すのに使用されることも認識されよう。
このため、カーネル又は近傍が定義されるシステムにおいて、近傍プロセッサ109が、フィルタリングされた深度値が決定される深度値の位置の周囲のカーネル/近傍に属する深度値を組み合わせることによって、組み合わされた近傍深度値Di,neighborsを生成することができる。したがって、組み合わされた近傍深度値Di,neighborsは、カーネル/近傍における深度値の重み付けされた平均と見なされ得る。
したがって、組み合わされた近傍深度値Di,neighborsは、
i,neighbors=Cj∈Ki(w,Dj)
として決定されることが可能であり、ここで、Kは、深度マップにおけるピクセル/位置i(すなわち、第1の位置)に対応する信頼度マップ及び光強度画像における位置に関するカーネル/近傍を表し、かつjは、近傍ピクセル位置(すなわち、第2の位置)に対して使用されるインデックスである。Cj∈Kは、wによって与えられる所与の近傍深度値Dに関する重みを有するピクセル/位置iに関するカーネル/近傍K内にある(典型的には、全ての)インデックスjにわたる重み付けされた組合せを表す。
特に、多くの実施形態において、組み合わされた近傍深度値Di,neighborsは、以下のとおり近傍深度値Dの重み付けされた合計によって与えられる。
Figure 0006998388000002
このため、組み合わされた近傍深度値Di,neighborsは、第1の深度値Dの位置の周囲の近傍における近傍深度値Dの重み付けされた平均によって決定される。
このアプローチにおいて、この組合せに関する重みは、光強度画像と信頼度マップの両方に基づいて決定される。特に、第1の近傍深度値Dの場合、組合せにおける重みwは、位置jに関する信頼度値Cと、位置jに関する光強度値Iと位置iに関する光強度値Iの間の差の両方に依存し、すなわち、重みwは、第1の近傍深度値Dに関する信頼度値、及び第1の近傍深度値Dに関する光強度値Iと第1深度値Dに関する光強度値Iの間の差に依存する。特に、組合せにおける重みwは、組み合わされた近傍深度値Di,neighborsが決定されるピクセル/位置iに関する信頼度値を基準とした位置jに関する信頼度値Cに依存し、すなわち、重みwは、信頼度値Cを基準とした信頼度値Cの値に基づいて決定される。重みwは、近傍画像特性値Cに関する信頼度値と「アンカ」位置若しくは「アンカ」値に関する信頼度値の間の差測度に基づいて決定される。この重みは、特に、
=f(d(Cj;);d(Ij;))
として決定されることが可能であり、ここで、fは、特定の実施形態に依存する適切な関数であり、d(Cj;)は、それぞれ位置i及び位置jにおける信頼度値の適切な差測度を表し、かつd(Ij;)は、それぞれ位置i及び位置jにおける光強度値に関する適切な差測度を表す。強度値に関する適切な差測度は、例えば、光強度に基づくに基づく適切なノルム||Ii;I||であり、特に光強度差ベクトルI-Iに基づくノルム、すなわち、||Ii-I||である。同様に、強度値に関する適切な差測度もまた、例えば、適切なノルムである。多くの実施形態において、単純な引き算によって得られる直接の差の値、例えば、d(Cj;)=C-Cが使用される。
所与の近傍深度値Dに関する重みは、典型的には、参照信頼度値Cを基準とした増加する信頼度値Cに対して増加し、すなわち、現在、フィルタリングされているピクセルに関する元の深度の信頼性を基準とした近傍深度値Dの信頼性がより高いと考えられるほど、組合せにおいて近傍深度値Dにより大きい重みが付けられる。特に、近傍深度値Dに関する重みは、典型的には、近傍深度値Dに関する信頼度値Cの単調増加関数であり、かつ、典型的には、位置iの深度値に関する信頼度値Cの単調減少関数である。多くの実施形態において、重みは、それぞれ位置i及び位置jにおける信頼強度値に関する差測度の単調増加関数である。
所与の近傍深度値Dに関する重みは、典型的には、増加する差の値に対して減少し、すなわち、位置jに関する光強度値Iと位置iに関する光強度値Iとの間の差が大きいほど、組合せにおいて近傍深度値Dにより小さい重みが付けられる。特に、近傍深度値Dに関する重みwは、典型的には、位置jに関する光強度値Iと位置iに関する光強度値Iとの間の差を示す差測度/値の単調減少関数である。特に、関数fは、ノルム||Ii;I||、特に、||Ii-I||の単調減少関数である。
このため、このアプローチは、信頼度値が、現在の位置に関する元の深度値に関する信頼度値を基準として高く、かつ現在のピクセルの信号強度に対する光強度の差が小さい近傍深度値Dからより大きい寄与を有する組み合わされた近傍深度値Di,neighborsを決定する。このため、アプローチは、個々の値によって行われる寄与の効率的で、同時の合同の調整及び変化を可能にし、この変化は、異なる特性及びモダリティに依存する。
フィルタ・ユニット103は、フィルタリングされた深度マップを生成すべく、深度マップの全ての位置/ピクセルに対してこのフィルタリング操作を実行するように進むよう構成される。
このアプローチは、多くの実施形態において改良された深度マップをもたらす。特に、このアプローチは、複数の特性及びモダリティに基づくクロスフィルタリングをもたらす。更に、このアプローチは、実施において、優れた結果をもたらすことが判明しており、計算効率のよいプロセスを可能にするだけでなく、異なるモダリティに基づくフィルタリング操作の間の干渉及び相互依存を緩和し、小さくすることもする。このアプローチは、カスケードされた順次の処理及びバイラテラル・フィルタリングを実行するより単純明快で、より直観的なアプローチと比べて、実質的に向上したパフォーマンスをもたらすことが判明している。
多くの実際的なシナリオに関して、より正確、かつより信頼できる画像特性マップ、特にそのような深度マップが、生成されて、例えば、光強度画像の後続の画像処理のための向上したサポートをもたらすことが判明している。例えば、向上した画像品質及び向上したユーザ体験につながる向上した画像視点切換えが、多くの実際的なシナリオにおいて見られる。
前述したとおり、結合器107は、第1の深度値Dと組み合わされた近傍深度値Di,neighborsを組み合わせることによって出力されるフィルタリングされた深度値Di,outを生成するように構成される。一部の実施形態において、この組合せは、例えば、出力されるフィルタリングされた深度値Di,outを、第1の深度値Dと組み合わされた近傍深度値Di,neighborsの平均として決定するなどの、所定の重みを有する重み付けされた組合せである。
しかし、多くの実施形態において、組み合わされた近傍深度値Di,neighborsを基準とした第1の深度値Dに関する重みは、第1の信頼度値Cとして参照される第1の深度値Dに関する信頼度値に応じて決定される。組み合わされた近傍深度値Di,neighborsを基準とした第1の深度値Dに関する重みは、典型的には、第1の信頼度値Cの単調増加関数である。このため、既存の深度値に対する信頼度が高いほど、近傍における深度値に基づく潜在的な変更は小さくなる。
第1の深度値Dと組み合わされた近傍深度値Di,neighborsとの間の相対的重み付けは、第1の深度値Dの重み、組み合わされた近傍深度値Di,neighborsの重み、又は、実際、第1の深度値Dと組み合わされた近傍深度値Di,neighborsとの両方の重みを変更することによって変更されることが認識されよう。
多くの実施形態において、出力されるフィルタリングされた深度値Di,outは、特に、
i,out=C+(1-C)Di,neighbors
として決定される。このため、そのような例において、例えば、第1の深度値Dを生成するのに使用される視差推定が信頼度(C=1)であると考えられる事例において、近傍ピクセルは、出力されるフィルタリングされた深度値Di,outに寄与しない。現在の値にまったく信頼度がない(C=0)他方の極端において、出力されるフィルタリングされた深度値Di,outは、近傍ピクセルだけに基づく。
一部の実施形態において、近傍プロセッサ109は、組み合わされた近傍深度値Di,neighborsに関する近傍信頼度値を決定するように更に構成される。この近傍信頼度値は、近傍深度値Dに関する信頼度値(すなわち、近傍ピクセルの信頼度値C)に基づいて決定される。例えば、近傍信頼度値の平均が、決定される、又は、例えば、重みwが考慮に入れられる重み付けされた平均が、決定される。
そのような事例において、組み合わされた近傍深度値Di,neighborsを基準とした第1の深度値Dの重み付けは、近傍信頼度値を基準とした第1の深度値Dに関する信頼度レベルに基づいて決定される。例えば、出力されるフィルタリングされた深度値Di,outは、
Figure 0006998388000003
として決定され、ここで、Ci,neighborは、近傍信頼度値を表す。
異なる実施形態において異なるアプローチ及び機能が、組み合わされた近傍深度値Di,neighborsを決定すべく組合せを実行するために使用されることが認識されよう。
一部の実施形態において、近傍深度値Dに関する重みwは、近傍深度値Dに関する信頼度値には依存するが、光強度値には依存しない値gに比例するように決定される。更に、重みwは、光強度値に関する差測度には依存するが、信頼度値には依存しない値fに比例するように決定される。このため、一部の実施形態において、信頼度マップと光強度画像に基づいて別々の測度が決定され、これらの測度が、重みwを決定するときに乗算によって組み合わされる。
一部の実施形態において、所与の第1の深度値Dに関する組み合わされた近傍深度値Di,neighborsは、
Figure 0006998388000004
として決定され、ここで、fは、第1の深度値Dに関する光強度値Iと近傍深度値Dに関する光強度値Iとに関する差測度を表し、gは、第1の深度値Dに関する信頼度値Cと近傍深度値Dに関する信頼度値Cとに関する差測度を表し、かつαは、設計パラメータを表す。合計は、近傍のピクセル/値にわたり、すなわち、j∈Kであり、ここで、Kは、位置iに関する近傍/カーネルである。
このため、一部の実施形態において、組み合わされた近傍深度値Di,neighborsは、
i,neighbors=Σw.D
として決定され、ここで、
Figure 0006998388000005
である。一部の実施形態において、αは、単に1に設定され、すなわち、
Figure 0006998388000006
であり、ここで、gは、CとCとの間の差に依存し、かつfは、典型的には、色差ベクトル、I-Iに関するノルムに依存する。
測度f及びgを求めるための異なるアプローチが、異なる実施形態において使用されることが認識されよう。
例えば、値fを決定するための特に有利なアプローチが、多くの実施形態において、
Figure 0006998388000007
によって与えられ、ここで、||I-I||は、色差ベクトル、I-Iに関する適切なノルムであり、γは、信頼度値を基準とした光強度差の相対的重要度を制御するのに使用される設計パラメータである。
値gを決定するための特に有利なアプローチが、多くの実施形態において、
Figure 0006998388000008
であり、ここで、βは、光強度差を基準とした信頼度値の相対的重要度を制御するのに使用される設計パラメータである。
したがって、重みwは、信頼度値Cに依存するだけでなく、第1の深度値Dに関する信頼度値Cにも依存する。特に、重みwは、多くの実施形態において、信頼度値Cと信頼度値Cの間の差測度に有利に依存する。このことは、例えば、値gを信頼度値C及び信頼度値Cの両方に、特に、これらの間の差、例えば、
=f(C-C
に依存させることによって実現される。
関数f(C-C)は、特に、信頼度値Cが信頼度値Cを超えて大きくなるのに比例して近傍深度値Dに大きい重みを与える非線形関数である。このため、このアプローチは、第1の深度値Dと比べてより高い信頼度を有する近傍深度値Dにより焦点が合わせられるようにする。このため、多くの実施形態において、重みwは、信頼度値Cと信頼度値Cとに関して非対称である非対称的な重みとして決定される。重みwは、特に、これらの間の絶対差に過ぎないのではなく、符号も重要であり、生成される重みwに影響を与える。
多くの実施形態において、重みwは、信頼度値Cと信頼度値Cとの間の差を示す差測度に依存し、差測度は、最小値に限定され、信頼度値Cが信頼度値Cを閾値より超えた場合に限って超えられる。最小値及び閾値は、特に0であり、かつ差測度は、例えば、
max(C-C,0)
として決定される。
そのような実施形態において、重みwは、
=f(max(C-C,0))
によって与えられる近傍深度値Dに関する信頼度値Cからの寄与に基づき、ここで、f()は、例えば、
Figure 0006998388000009
などの適切な関数である。
一部の実施形態において、重みwは、第1のフィルタリングされた深度値Di,outの位置iと近傍深度値Dの位置の間の距離にも依存する。
例えば、値αが、インデックスiに対応する位置とインデックスjに対応する位置の間の距離に依存させられる。特に、適切なノルムに基づく距離測度などの、任意の適切な距離測度が使用されることが認識されよう。特定の例として、αは、
Figure 0006998388000010
などの距離関数を反映し、ここで、ψは、設計パラメータであり、かつx、yは、インデックスi及びインデックスjに対応するユークリッド位置を反映する。
前述したとおり、光強度画像、信頼度マップ、及び画像特性マップは、時系列の光強度画像、信頼度マップ、及び画像特性マップの一部であり、すなわち、受信機101は、一連の組み合わされた画像を受信する。特に、受信機101は、一連の組み合わされた画像を備えるビデオ信号を受信し、かつ、特に、各光強度画像は、ビデオ・シーケンスのフレームである。
そのような例において、近傍、すなわち、カーネルは、時間的拡張を有し、すなわち、近傍は、典型的には、現在のフレーム/瞬間に先立つフレーム/瞬間に関する深度マップからの深度値を含む(近傍が、後続のフレーム/瞬間に属する深度値を含むことも可能であるものの)。
そのような実施形態において、近傍の空間的延長は、異なるフレーム/瞬間に関して異なる。典型的には、近傍の空間的延長は、画像特性マップがフィルタリングされているのと同一の瞬間に関してもたらされる光強度画像及び信頼度マップに関して、他の瞬間と比べて、より大きい。
時間的拡張は、向上したパフォーマンスをもたらし、かつ、特に、向上した空間的一貫性、及びより小さい知覚される時間的ノイズをもたらす。
一部の実施形態において、別の瞬間に関する画像特性マップは、既にフィルタリングされているものである。例えば、装置は、前のフレーム/瞬間に関する画像特性マップも含む近傍/カーネルに基づいて現在の画像特性マップをフィルタリングするように構成される。しかし、前のフレーム/瞬間に関する画像特性マップは、フィルタ・ユニット103によって既に処理されているので、したがって、フィルタリングされた画像特性マップである。このアプローチは、フィルタリングされた画像特性マップの画像特性値の方が、フィルタリングに起因してより信頼できるので、向上したパフォーマンスをもたらす。
フィルタ・ユニット103は、そのような向上した信頼性を反映するように信頼度値を変更するように更に構成される。特に、フィルタ・ユニット103は、画像特性値に関する信頼度値を、この画像特性値がフィルタリングされた画像特性値である場合、増加するように構成される。この増加は、一部の実施形態において、特定のオフセットを加えること(例えば、信頼度値を0.5だけ増加させること(結果が、1.0の最大値に制限されて))などの、相対的増加であり、又は値を1.0に設定することなどの絶対的設定である。
そのようなアプローチは、前のフィルタリングに起因してより信頼できると見なされる画像特性値のより高い重み付けをもたらし、したがって、現在の画像特性マップの向上したフィルタリングをもたらす。
多くの実施形態に適切である近傍/カーネル201の例が、図2に示される。
特定の例において、所与の第1の深度値Dに関するカーネル201が、第1の深度値Dの位置203に最も近い20のピクセル位置のグループ205を備える。ピクセル位置のこのグループ205は、現在の深度マップ、及び前の深度マップに関してカーネル201に備えられる空間的ピクセル位置を反映し、すなわち、このグループ205は、カーネル201が時間的拡張も有するピクセルの空間的グループを反映する。
カーネルの残りの部分は、現在の瞬間/フレームに関してカーネル201にだけ含まれる49のピクセル位置を定義する。このため、これら49のピクセル位置に関して、カーネル201は、時間的拡張を有さない。
この例において、深度値は、サブサンプリングされる、すなわち、カーネル201は、カーネルの領域内に全ての深度値を含むのではなく、深度値のサブセットだけを定義することにも留意されたい。特定の例において、サブサンプリングは、3分の1で行われ、このため、3番目ごとの深度値だけが、フィルタリング/カーネル201に関して考慮される。
したがって、カーネル201は、69の空間的位置から成るものの、カーネル201は、深度マップにおける40×13ピクセルに対応する領域又は区域を範囲に含む。そのようなサブサンプリングは、より低い複雑度及び処理リソース要件を可能にしながら、より大きい区域がフィルタリングによって考慮されることを可能にし、言い換えると、サブサンプリングは、より大きいフィルタ・カーネルを保ちながら、計算を低減する。
例において、近傍/カーネル201は、第1のフィルタリングされた深度値Di,outの位置に関して更に非対称であり、このため、第1の深度値Dに関して非対称である(すなわち、近傍/カーネル201は、現在のピクセルの位置203に関して、すなわち、位置iに関して非対称である)。
この非対称は、例えば、深度マップが少なくとも2つの画像における視差推定に基づいて生成されるシナリオに特に適している。特に、深度マップ(深度が視差によって表現される視差マップを含む)は、異なる視点を有する2つの画像の間の視差推定によって生成されている深度値を備える。例えば、視差推定は、左目画像と右目画像との間で実行される。
そのような例において、光強度画像は、左目視点に関して与えられ、かつフィルタリングされた深度マップは、左目光強度画像を基礎として使用して、この左目視点に関して生成される。しかし、そのような事例において、光強度画像、及び、実際、入力される深度マップは、左目視点が、右目視点に関してふさがれる前景オブジェクトの左側に見られることを可能にするので、前景オブジェクトの左側と比べて、前景オブジェクトの右側にふさがれた領域を有する可能性がより高い。
その逆が、右目視点に関して当てはまり、すなわち、この事例において、ふさがれる区域は、前景オブジェクトの左側に、右側と比べてより大きく広がる傾向にある。
このため、そのようなシナリオにおいて、視差推定は、左目画像においてふさがれていない背景に対応する画像区域を、右目画像において見出すことが、右目画像においてその区域がふさがれているので、できないことがある。その結果、視差推定は、前景画像の左側に高い不確かさの区域を生成する傾向にある。更に、これらの領域に関する正しい深度値は、その区域の左側が、前景オブジェクトよりも背景を反映する可能性がより高いので、その区域の右側と比べて、左側にある可能性が高い。
このことが、空間的に非対称のカーネルを有することによって考慮に入れられる。
特に、左目画像を参照として使用して、カーネルは、多くの実施形態において、図2の例に実際、反映されるとおり、右方向と比べて、左方向で有利により大きく広がる。明らかに、対称的な状況は、右目画像が視差推定のための基礎として使用される場合に生じ、したがって、そのような例におけるカーネルは、左側と比べて、右側により大きく広がる。
このため、深度マップが、第1の視点を表す第1の画像と第2の視点を表す第2の画像における視差推定から決定された深度値を備え、かつ第1の視点を視差推定に関する基礎とするシナリオにおいて、近傍/カーネルは、第1の視点から第2の視点に向かう方向と比べて、第2の視点から第1の視点に向かう方向において、より大きく広がるように設計される。
(赤外線)構造化光源と(赤外線)画像センサが、深度キャプチャのためのベースラインを形成すべくセンサ筐体において異なる空間的位置を有する構造化光ベースの深度センサにおいて、類似した状況が生じる。このシナリオにおいて、センサによる画像となるシーンのいくつかの部分が、光源によって照明されない(センサと光源の間のベースラインに起因して)。この場合も、構造化光源とセンサの間の3D方向ベクトルの知識が、フィルタ・カーネルを非対称に成形するのに使用されることが可能である。
前段の説明は、全ての画像及びマップが同一の分解能を有すると見なされるシナリオに焦点を合わせている。しかし、説明される原理は、分解能が異なるシナリオにも同様に適用可能であり、特に、例えば、より高い分解能の光強度画像に基づく画像特性マップのアップサンプリングに適していることが認識されよう。
例において、深度/視差マップは、深度値の信頼度を示す関連付けられた信頼度マップによって実現される。例えば、深度マップは、視差推定を表し、信頼度マップは、もたらされる推定がどれだけ信頼できるかを数量化する。別の例が、典型的には測定精度を数量化する信頼度マップをも出力する赤外線ベースの深度センサである。
典型的には、光強度画像は、そのような画像は、通常、直接にキャプチャされ、若しくは生成され、かつどこでも完全に信頼性のあるものと想定されるので、関連付けられた信頼度マップも、信頼度指標も有さない。しかし、一部の実施形態において、フィルタリングは、深度マップのための光強度値及び信頼度値に加えて、第3の特性に応答する。そのような例において、第3の特性は、関連付けられた信頼度値も有する。例えば、第3の特性は、モーション推定特性であり、例えば、各ピクセルに関して、モーション・ベクトル、及び関連付けられたモーション信頼度が与えられる。近傍深度値Dに関する重みの決定は、これらの値に基づいて更に行われる。
特に、一部の実施形態において、したがって、受信機は、第2の画像特性マップ、及び第2の信頼度マップも受信し、ここで、第2の信頼度マップは、第2の画像特性マップの第2の画像特性値に関する第2の信頼度値を備える。例えば、合成画像は、モーション・ベクトル・マップと、モーション信頼度マップも備える。
そのような実施形態において、近傍深度値Dの重みwの決定は、第2の画像特性値、特にモーション・ベクトルと、第2の信頼度値、特に位置jに関して(及び一部の実施形態において、位置iに関しても)モーション信頼度値の両方にも応じる。
例えば、赤外線ベースの深度センサ(構造化光又は飛行時間)が深度マップをキャプチャするのに使用されるシナリオが考慮される。センサが、色画像センサも包含する場合、この色画像センサは、典型的には、はるかに高い空間分解能を有する。更に、ここで、センサを移動させること(スキャン)によって一連の、例えば、静的シーンをキャプチャするようにセンサ(深度微及び画像)を経時的に使用する場合、画像センサは、フレームkとフレームk+1の間のピクセル精密モーション・フィールドνk,k+1を推定するのに使用されることが可能である。このモーション・フィールドにおける遷移は、典型的には、深度不連続性(センサが並進させられた)とともに変化するので、モーション・フィールドは、例えば、赤外線センサの深度マップをアップスケールする/フィルタリングするのに使用されることが可能である。しかし、モーション・フィールドは、画像IとIk+1の間の対応関係推定プロセスの結果であり、したがって、空間的に変化する信頼度値を有する。
このモーション・フィールドは、モーション・ベクトル・マップによって表され、モーション信頼度値は、モーション信頼度マップによって表される。すると、所与の近傍深度値Dに関する重みは、位置jにおけるこれらのマップの値に依存し、場合により、位置iにおけるこれらのマップの値にも依存する。
特に、組み合わされた近傍深度値Di,neighborsは、
Figure 0006998388000011
として決定されることが可能であり、ここで、hは、位置jにおけるモーション値と位置jにおける信頼度レベルの両方に依存する値を表す。典型的には、hは、位置jにおけるモーション値と位置iにおけるモーション値の間の差に依存する。例えば、hは、
Figure 0006998388000012
として与えられ、ここで、ρは、全体的なフィルタリングにおいてモーション・データの重みを変化されるように設定されることが可能な設計パラメータであり、||v-v||は、位置iにおけるモーション値と位置jにおけるモーション値の間の差を反映し、かつCvi及びCvjは、それぞれ、位置iにおけるモーション信頼度値、及び位置jにおけるモーション信頼度値を表す。
この項に重み付けするのに(Cvi,Cvj)を使用することは、モーションが中心位置iと近傍位置jの両方において信頼できる場合、差||v-v||が信頼できる可能性が高いので、1つの論理的なソリューションである。i又はjが低い信頼度を有する場合、差||v-v||は、それほど信頼できない可能性が高い。しかし、他のアプローチが他の実施形態において使用されることが可能であることが認識されよう。
例えば、そのようなシナリオにおいて、説明されるフィルタリングは、出力される画像特性マップにおける各位置に関して、すなわち、高分解能深度マップにおける各位置に関して実行される。近傍は、この高分解能で決定され、この高分解能近傍における各ピクセルに関して、組み合わされた近傍画像特性値に対する寄与が、決定される。そのような事例において、同一の低分解能ピクセル内の全ての高分解能位置に関して、同一の入力画像特性値及び信頼度値が使用される。しかし、光強度値は、光強度値がより高い分解能で与えられるので、異なり、このため、高分解能光強度画像に基づいて、受信される低分解能画像特性マップの効果的なアップサンプリングが実現されることが可能である。
前述の説明は、明瞭にするため、様々な機能回路、ユニット、及びプロセッサを参照して本発明の実施形態を説明してきたことが認識されよう。しかし、本発明を逸脱することなく、様々な機能回路、ユニット、又はプロセッサの間で機能の任意の適切な配分が使用されてよいことが明白であろう。例えば、別々のプロセッサ又はコントローラによって実行されるように例示される機能は、同一のプロセッサ又はコントローラによって実行されてよい。したがって、特定の機能ユニット又は回路に対する参照は、厳密な論理的又は物理的な構造又は編成を示すものではなく、説明される機能を提供するための適切な手段に対する参照とのみ見なされるべきである。
本発明は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの任意の組合せを含む任意の適切な形態で実施されることが可能である。本発明は、オプションとして、少なくとも部分的に、1つ若しくは複数のプロセッサ及び/又はデジタル・シグナル・プロセッサ上で実行されるコンピュータ・ソフトウェアとして実施されてよい。本発明の実施形態の要素及び構成要素は、任意の適切な様態で物理的、機能的、及び論理的に実装される。実際、機能は、単一のユニットとして実装されても、複数のユニットとして実装されても、又は他の機能ユニットの一部として実装されてもよい。このため、本発明は、単一のユニットとして実装されても、又は異なるユニット、回路、及びプロセッサの間で物理的、及び機能的に分散されてもよい。
本発明は、一部の実施形態に関連して説明されてきたものの、本発明は、本明細書に記載される特定の形態に限定されることは意図されない。むしろ、本発明の範囲は、添付の特許請求の範囲だけによって限定される。更に、特徴は、特定の実施形態に関連して説明されるように見えるものの、説明される実施形態の様々な特徴が本発明により組み合わされてよいことが、当業者には認識されよう。特許請求の範囲において、「備える」という用語は、他の要素又はステップの存在を排除しない。
ピクセルは、一般的な従来技術においてサブピクセルと呼ばれるもの、すなわち、例えば、赤のピクセルのような単一色のピクセルと見なされることが可能である。しかし、前述の発明において、ピクセルという用語は、グループのサブピクセルを備えると見なされてもよく、このため、例えば、ピクセルは、RGBピクセル、RGBYピクセル、その他であってよい。
更に、個々にリストアップされるものの、複数の手段、要素、回路、又は方法のステップは、例えば、単一の回路、ユニット、又はプロセッサによって実施されてよい。更に、個々の特徴が異なるクレームに含まれるものの、これらの特徴は、場合により、有利に組み合わされてよく、異なるクレームに含まれることは、特徴の組合せが実現可能でないこと、及び/又は有利でないことを暗示するわけではない。また、クレームの1つのカテゴリに或る特徴が含まれることも、このカテゴリへの限定を暗示するわけではなく、むしろ、適宜、その特徴が他のクレームのカテゴリに同様に当てはまることを示す。更に、クレームにおける特徴の順序は、それらの特徴が働かされなければならない、いずれの特定の順序を暗示するわけでもなく、特に、方法クレームにおける個々のステップの順序は、それらのステップがこの順序で実行されなければならないことを暗示するわけではない。むしろ、ステップは、任意の適切な順序で実行されてよい。更に、単数形の参照は、複数形を排除しない。このため、「或る」、「第1の」、「第2の」などの参照は、複数形を除外するわけではない。クレームにおける参照符号は、明確にする例として与えられるに過ぎず、いずれの様態においてであれ、特許請求の範囲を限定するものと解釈されるべきではない。

Claims (13)

  1. 画像特性マップを処理するための装置であって、当該装置は、
    光強度画像、信頼度マップ、及び画像特性マップを受信するための受信機であって、前記光強度画像は、当該光強度画像のピクセルに関する光強度値を備え、前記画像特性マップは、前記光強度画像の前記ピクセルに関する画像特性値を備え、かつ前記信頼度マップは、前記画像特性値に関する信頼度値を備える、受信機と、
    前記光強度画像及び前記信頼度マップに応じて、前記画像特性マップをフィルタリングして、フィルタリングされた画像特性マップを生成するフィルタ・ユニットとを備え、
    前記フィルタリングされた画像特性マップにおける第1の位置に関して、
    前記フィルタ・ユニットは、近傍画像特性値の重み付けされた組合せが、前記第1の位置の周囲の近傍における画像特性値であることに応答して、組み合わされた近傍画像特性値を決定し、第2の位置における第1の近傍画像特性値に関する重みは、当該第1の近傍画像特性値に関する信頼度値、及び前記第1の位置に関する光強度値と前記第2の位置に関する光強度値との間の差に依存し、
    前記フィルタ・ユニットは、前記第1の位置に関する第1のフィルタリングされた画像特性値を、前記画像特性マップにおける前記第1の位置における第1の画像特性値と、前記組み合わされた近傍画像特性値との組合せとして決定し、
    前記フィルタ・ユニットは、前記第1の近傍画像特性値に関する前記信頼度値と前記第1の画像特性値に関する信頼度値とに関する差測度に応答して、前記第1の近傍画像特性値に関する前記重みを決定し、前記重みの決定は、前記第1の近傍画像特性値に関する前記信頼度値と前記第1の画像特性値に関する前記信頼度値とに関して非対称であり、前記重みは前記差測度の符号に依存している、
    装置。
  2. 前記フィルタ・ユニットは、前記第1の画像特性値に関する信頼度値に応答して、前記組み合わされた近傍画像特性値に関する重みに対して前記第1の画像特性値に関する重みを決定する、請求項1に記載の装置。
  3. 前記フィルタ・ユニットは、前記組み合わされた近傍画像特性値を、実質的に
    Figure 0006998388000013
    として決定し、ここで、fは、前記第2の位置に関する光強度値と前記第2の位置における近傍画像特性値に関する光強度値とに関する差測度を表し、gは、第1の深度値に関する信頼度値と前記第2の位置における前記近傍画像特性値に関する信頼度値とに関する信頼度差測度を表し、Dは、前記第2の位置における前記近傍画像特性値を表し、αは、設計パラメータを表し、かつ合計は、前記近傍に属する全ての位置jにわたる、請求項1又は2に記載の装置。
  4. 前記差測度は、前記第1の近傍画像特性値に関する前記信頼度値が、前記第1の画像特性値に関する前記信頼度値を閾値まで超えない場合、最小値に限定され、前記差測度は、前記第1の近傍画像特性値に関する前記信頼度値が、前記第1の画像特性値に関する前記信頼度値を閾値より超えた場合、前記最小値を超える、請求項1から3の何れか一項に記載の装置。
  5. 前記光強度画像、前記信頼度マップ、及び前記画像特性マップは、時系列の光強度画像、信頼度マップ、及び画像特性マップの一部であり、かつ前記近傍は、時間的拡張を有する、請求項1から4の何れか一項に記載の装置。
  6. 前記フィルタ・ユニットは、画像特性値に対して、この値がフィルタリングされた画像特性値である場合、信頼度値を増加させる、請求項1から5の何れか一項に記載の装置。
  7. 前記近傍は、前記第1の位置に関して空間的に非対称である、請求項1から6の何れか一項に記載の装置。
  8. 前記画像特性マップは、第1の視点を表す第1の画像と第2の視点を表す第2の画像とにおける視差推定から決定された深度値を備え、かつ前記第1の視点を前記視差推定に関する基礎として有する深度表示マップであり、前記近傍は、前記第1の視点から前記第2の視点に向かう方向と比べて、前記第2の視点から前記第1の視点に向かう方向において大きく延びる、請求項に記載の装置。
  9. 前記重みは、前記第1の位置と前記第2の位置との間の距離に更に依存する、請求項1から8の何れか一項に記載の装置。
  10. 前記受信機は、第2の画像特性マップ及び第2の信頼度マップを受信し、前記第2の信頼度マップは、前記第2の画像特性マップの第2の画像特性値に関する第2の信頼度値を備え、かつ前記フィルタ・ユニットは、前記第2の位置に関する第2の画像特性値、及び前記第2の位置に関する第2の信頼度値に応答して、前記第1の近傍画像特性値に関する前記重みを決定する、請求項1から9の何れか一項に記載の装置。
  11. 前記画像特性マップは、
    深度マップ、
    視差マップ、
    モーション推定マップ、及び
    透明度マップ
    のうちの1つである、請求項1から10の何れか一項に記載の装置。
  12. 画像特性マップを処理する方法であって、当該方法は、
    光強度画像、信頼度マップ、及び画像特性マップを受信するステップであって、前記光強度画像は、当該光強度画像のピクセルに関する光強度値を備え、前記画像特性マップは、前記光強度画像の前記ピクセルに関する画像特性値を備え、かつ前記信頼度マップは、前記画像特性値に関する信頼度値を備える、ステップと、
    前記光強度画像及び前記信頼度マップに応じて、前記画像特性マップをフィルタリングして、フィルタリングされた画像特性マップを生成するステップと
    を含み、前記フィルタリングするステップは、前記フィルタリングされた画像特性マップにおける第1の位置に関して、
    近傍画像特性値の重み付けされた組合せが、前記第1の位置の周囲の近傍における画像特性値であることに応答して、組み合わされた近傍画像特性値を決定するステップであって、第2の位置における第1の近傍画像特性値に関する重みは、当該第1の近傍画像特性値に関する信頼度値、及び前記第1の位置に関する光強度値と前記第2の位置に関する光強度値との間の差に依存する、ステップと、
    前記第1の位置に関する第1のフィルタリングされた画像特性値を、前記画像特性マップにおける前記第1の位置における第1の画像特性値と、前記組み合わされた近傍画像特性値との組合せとして決定するステップとを含み、
    組み合わされた近傍画像特性値を決定するステップは、前記第1の近傍画像特性値に関する前記信頼度値と前記第1の画像特性値に関する信頼度値とに関する差測度に応答して、前記第1の近傍画像特性値に関する前記重みを決定するステップを含み、前記重みの決定は、前記第1の近傍画像特性値に関する前記信頼度値と前記第1の画像特性値に関する前記信頼度値とに関して非対称であり、前記重みは前記差測度の符号に依存している、
    方法
  13. コンピュータ上で動作するときに、請求項12に記載の方法の全てのステップを実行するコンピュータプログラムコード手段を有する、コンピュータプログラム。
JP2019542199A 2017-02-07 2018-01-31 画像特性マップを処理するための方法及び装置 Active JP6998388B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17155076.7 2017-02-07
EP17155076.7A EP3358844A1 (en) 2017-02-07 2017-02-07 Method and apparatus for processing an image property map
PCT/EP2018/052318 WO2018145961A1 (en) 2017-02-07 2018-01-31 Method and apparatus for processing an image property map

Publications (3)

Publication Number Publication Date
JP2020506484A JP2020506484A (ja) 2020-02-27
JP2020506484A5 JP2020506484A5 (ja) 2021-03-11
JP6998388B2 true JP6998388B2 (ja) 2022-01-18

Family

ID=58046495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019542199A Active JP6998388B2 (ja) 2017-02-07 2018-01-31 画像特性マップを処理するための方法及び装置

Country Status (9)

Country Link
US (1) US10944952B2 (ja)
EP (2) EP3358844A1 (ja)
JP (1) JP6998388B2 (ja)
KR (1) KR102464523B1 (ja)
CN (1) CN110268712B (ja)
BR (1) BR112019016041A2 (ja)
RU (1) RU2019127916A (ja)
TW (1) TWI767985B (ja)
WO (1) WO2018145961A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10271033B2 (en) * 2016-10-31 2019-04-23 Verizon Patent And Licensing Inc. Methods and systems for generating depth data by converging independently-captured depth maps
EP3358844A1 (en) * 2017-02-07 2018-08-08 Koninklijke Philips N.V. Method and apparatus for processing an image property map
US10802117B2 (en) 2018-01-24 2020-10-13 Facebook Technologies, Llc Systems and methods for optical demodulation in a depth-sensing device
US10735640B2 (en) 2018-02-08 2020-08-04 Facebook Technologies, Llc Systems and methods for enhanced optical sensor devices
US10805594B2 (en) * 2018-02-08 2020-10-13 Facebook Technologies, Llc Systems and methods for enhanced depth sensor devices
CN111193918B (zh) * 2018-11-14 2021-12-28 宏达国际电子股份有限公司 影像处理系统及影像处理方法
EP3671530A1 (en) * 2018-12-17 2020-06-24 Koninklijke Philips N.V. Device, system and method for object recognition
EP3696773A1 (en) 2019-02-15 2020-08-19 Koninklijke Philips N.V. Apparatus and method for generating a light intensity image
KR20220079931A (ko) * 2019-10-10 2022-06-14 디티에스, 인코포레이티드 심도를 이용한 공간 오디오 캡처
CN111737511B (zh) * 2020-06-17 2022-06-07 南强智视(厦门)科技有限公司 基于自适应局部概念嵌入的图像描述方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000121319A (ja) 1998-10-15 2000-04-28 Sony Corp 画像処理装置および画像処理方法、並びに提供媒体
JP2011216087A (ja) 2010-03-19 2011-10-27 Canon Inc 情報処理方法及び情報処理装置
US20110273529A1 (en) 2009-01-30 2011-11-10 Thomson Licensing Coding of depth maps
JP2013140437A (ja) 2011-12-28 2013-07-18 Canon Inc 画像処理装置および画像処理方法
US20140079336A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
US20140093159A1 (en) 2012-03-29 2014-04-03 Panasonic Corporation Image processing apparatus and image processing method
WO2016067541A1 (en) 2014-10-27 2016-05-06 Canon Kabushiki Kaisha Data processing apparatus, imaging apparatus and data processing method

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6751338B1 (en) * 2000-12-15 2004-06-15 Cognex Corporation System and method of using range image data with machine vision tools
US9582889B2 (en) * 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
TWI423166B (zh) * 2009-12-04 2014-01-11 Huper Lab Co Ltd 判斷輸入影像是否為霧化影像之方法、判斷輸入影像的霧級數之方法及霧化影像濾清方法
WO2011104151A1 (en) * 2010-02-26 2011-09-01 Thomson Licensing Confidence map, method for generating the same and method for refining a disparity map
JP5577939B2 (ja) * 2010-08-20 2014-08-27 ソニー株式会社 撮像装置、収差補正方法、および、プログラム
US8629913B2 (en) * 2010-09-30 2014-01-14 Apple Inc. Overflow control techniques for image signal processing
KR101669819B1 (ko) * 2010-11-11 2016-10-27 삼성전자주식회사 깊이 영상의 고정밀 복원을 위한 필터링 장치 및 방법
US8682087B2 (en) 2011-12-19 2014-03-25 Cisco Technology, Inc. System and method for depth-guided image filtering in a video conference environment
US8913825B2 (en) * 2012-07-16 2014-12-16 Mitsubishi Electric Research Laboratories, Inc. Specular edge extraction using multi-flash imaging
WO2014031795A1 (en) * 2012-08-21 2014-02-27 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras
JP6158929B2 (ja) * 2012-09-06 2017-07-05 ノキア テクノロジーズ オーユー 画像処理装置、方法及びコンピュータプログラム
CN104125445B (zh) * 2013-04-25 2016-03-02 奇景光电股份有限公司 影像景深调整装置与影像景深调整方法
EP3207698B1 (en) * 2014-10-14 2022-04-13 Koninklijke Philips N.V. Processing of disparity of a three dimensional image
JP6715864B2 (ja) * 2015-05-21 2020-07-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像に対する深度マップを決定するための方法及び装置
CA2988360A1 (en) * 2015-06-16 2016-12-22 Koninklijke Philips N.V. Method and apparatus for determining a depth map for an image
US10462446B2 (en) * 2015-12-21 2019-10-29 Koninklijke Philips N.V. Processing a depth map for an image
US10462445B2 (en) * 2016-07-19 2019-10-29 Fotonation Limited Systems and methods for estimating and refining depth maps
EP3358844A1 (en) * 2017-02-07 2018-08-08 Koninklijke Philips N.V. Method and apparatus for processing an image property map

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000121319A (ja) 1998-10-15 2000-04-28 Sony Corp 画像処理装置および画像処理方法、並びに提供媒体
US20110273529A1 (en) 2009-01-30 2011-11-10 Thomson Licensing Coding of depth maps
JP2011216087A (ja) 2010-03-19 2011-10-27 Canon Inc 情報処理方法及び情報処理装置
JP2013140437A (ja) 2011-12-28 2013-07-18 Canon Inc 画像処理装置および画像処理方法
US20140093159A1 (en) 2012-03-29 2014-04-03 Panasonic Corporation Image processing apparatus and image processing method
US20140079336A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
WO2016067541A1 (en) 2014-10-27 2016-05-06 Canon Kabushiki Kaisha Data processing apparatus, imaging apparatus and data processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Ruth Bergman et al.,Comprehensive solutions for automatic removal of dust and scratches from images,[online],2008年,https://www.spiedigitallibrary.org/journals/journal-of-electronic-imaging/volume-17/issue-1/013010/Comprehensive-solutions-for-automatic-removal-of-dust-and-scratches-from/10.1117/1.2899845.full?SSO=1

Also Published As

Publication number Publication date
CN110268712A (zh) 2019-09-20
US10944952B2 (en) 2021-03-09
US20190356895A1 (en) 2019-11-21
CN110268712B (zh) 2022-04-29
TWI767985B (zh) 2022-06-21
RU2019127916A (ru) 2021-03-09
EP3358844A1 (en) 2018-08-08
EP3580924B1 (en) 2021-11-24
BR112019016041A2 (pt) 2020-03-31
WO2018145961A1 (en) 2018-08-16
KR20190113943A (ko) 2019-10-08
TW201841139A (zh) 2018-11-16
KR102464523B1 (ko) 2022-11-07
JP2020506484A (ja) 2020-02-27
EP3580924A1 (en) 2019-12-18

Similar Documents

Publication Publication Date Title
JP6998388B2 (ja) 画像特性マップを処理するための方法及び装置
US9525858B2 (en) Depth or disparity map upscaling
EP3385903B1 (en) Method and apparatus for refining depth image
CN109360235B (zh) 一种基于光场数据的混合深度估计方法
US9036007B2 (en) System and method for converting two dimensional to three dimensional video
JP2015522198A (ja) 画像に対する深度マップの生成
WO2008041178A2 (en) Image enhancement
JP2013545200A (ja) グローバル動きに基づく深度の推定
EP3281400A1 (en) Automated generation of panning shots
CA2988360A1 (en) Method and apparatus for determining a depth map for an image
JP2011060282A (ja) 動き領域の非線形スムージングを用いた動き検出方法およびシステム
KR101629746B1 (ko) 움직임 보상 기반 비디오 코딩을 보조하는 깊이 정보의 사용
EP3065107A1 (en) Coherent motion estimation for stereoscopic video
US20160180514A1 (en) Image processing method and electronic device thereof
JP6148154B2 (ja) 画像処理装置及び画像処理プログラム
EP3616399B1 (en) Apparatus and method for processing a depth map
US9787980B2 (en) Auxiliary information map upsampling
US20130050420A1 (en) Method and apparatus for performing image processing according to disparity information
KR20150101856A (ko) 디지털 시네마에서 스테레오 카메라로 획득한 좌우 영상의 색 일치 방법 및 그 장치
Guleryuz et al. Visual conditioning for augmented-reality-assisted video conferencing
CN112422825A (zh) 智能拍照方法、装置、设备及计算机可读介质
CN115601409A (zh) 图像处理方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211220

R150 Certificate of patent or registration of utility model

Ref document number: 6998388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150