JP2016508652A - 画像シーケンスにおける物体のオクルージョンの決定 - Google Patents

画像シーケンスにおける物体のオクルージョンの決定 Download PDF

Info

Publication number
JP2016508652A
JP2016508652A JP2015560170A JP2015560170A JP2016508652A JP 2016508652 A JP2016508652 A JP 2016508652A JP 2015560170 A JP2015560170 A JP 2015560170A JP 2015560170 A JP2015560170 A JP 2015560170A JP 2016508652 A JP2016508652 A JP 2016508652A
Authority
JP
Japan
Prior art keywords
image
occlusion map
occlusion
normalized
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015560170A
Other languages
English (en)
Inventor
セラン,ビディア
ガディ,ウィリアム,エル.
Original Assignee
エー2ゼットロジックス,インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エー2ゼットロジックス,インコーポレーテッド filed Critical エー2ゼットロジックス,インコーポレーテッド
Publication of JP2016508652A publication Critical patent/JP2016508652A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Abstract

一対の画像間におけるオクルージョン領域の検出及び測定のための方法及びシステムが開示される。処理デバイスは第1の画像及び第2の画像を受信する。処理デバイスは、第1の画像と第2の画像との間の動きベクトル場を推定する。処理デバイスは、第2の画像に向けて第1の画像を動き補償して、動き補償された画像を取得する。処理デバイスは、動き補償された画像の複数のピクセル値と第1の画像の複数のピクセルとを比較して、誤差場を推定する。処理デバイスは、誤差場を重み付き誤差コスト関数に入力して、初期オクルージョンマップを取得する。処理デバイスは、初期オクルージョンマップを正規化して、正規化されたオクルージョンマップを取得する。【選択図】図4

Description

[関連出願の相互参照]
本出願は、2013年2月26日に出願された米国仮特許出願第61/769311号に対する優先権を主張する。この米国仮特許出願の開示は、引用することにより本明細書の一部をなす。
本発明は、包括的にはデジタル画像処理に関し、より詳細には、一対の画像間のオクルージョン領域の存在、場所、及び種類を自動決定する方法及びシステムに関する。
2つの画像間で、特に、ビデオフレーム及び/又はビデオフィールドのシーケンスについてオプティカルフロー又は動きベクトル場を決定することは、符号化、フレームレート変換、ノイズ除去等の多くの高価値なビデオ処理作業で頻繁に直面する。オプティカルフローを計算する従来の方法は、幾つかの障害に直面し、これらの障害のうちの多くの解決策が特許文献1に記載され、この特許文献1は引用することによりその全体が本明細書の一部をなす。特許文献1で教示されているように、物体のオクルージョンは、オプティカルフロー推定システム等のあらゆる動き推定システムにとっての課題を提示している。
図1は、前景物体115が運動している背景105及び前景110を有し、オクルージョン領域120及び脱オクルージョン領域125を示す画像対100a、100bの一例を示している。前景物体115がビデオシーケンス内で運動するとき、運動前方方向にある画像100bの背景ピクセル(本明細書ではオクルージョン又はオクルージョン領域120として知られる)は隠される一方で、運動の後方にある画像100bの背景ピクセル(本明細書では脱オクルージョン又は脱オクルージョン領域125として知られる)は明らかにされる。画像の遮蔽されたエリアでは、背景に帰せられる確定的な運動は存在せず、同時に、画像の露出された領域では、前景物体に帰せられる確定的な運動は存在しない。一対の画像内におけるこれらの2種類のエリア(本明細書では集合的にオクルージョン領域として知られる)は、一般に、動き推定、特に多くのオプティカルフローシステムにとって非常に問題となる。なぜならば、これらの領域における誤った動きベクトル値は非オクルージョン領域に波及する傾向があり、オプティカルフロー推定の全体の正確性に悪影響を及ぼすからである。オクルージョン領域の決定は、オプティカルフロー及び動き推定の改善に加えて、視差推定及び深度推定、画像分割、物体認識、並びに3D変換及び3D投影等の他の高価値なビデオ分析作業にとって多くの利得を有する。
オクルージョンの検出は、動き推定、深度推定、及び画像/ビデオ分割に関連して多くの注目を受けている。オクルージョンは、明示的に又は暗黙的に推定することもできるし、計算することもできる。オクルージョン境界は、それ自体が3Dシーン再構成に対して強力な手がかりを与える。非特許文献1及び非特許文献2に記載されるような方法は、過剰分割及び教師あり学習によって、単一のフレームを用いてオクルージョン境界を発見することを提案する。動き情報を全く用いないと、オクルージョン境界検出は本質的に曖昧な問題である。他の方法は、入力ビデオを柔軟なスプライトにレイヤー化し、遮蔽されたピクセル/領域を推定するように試みる(例えば、非特許文献3を参照)。レイヤー化方法はオクルージョン境界の現実的なモデル化を与えるが、これらの方法は連続領域、表面の相対的順序、及び所定の動きを有する必要がある。非特許文献4に記載される方法は、オクルージョンを明示的にモデル化し、得られる結果は比較的正確性が高いが、この方法は膨大な計算負荷を有する。オクルージョン領域を発見することは、マルチビュー3Dの投影及び表示方法における共通の問題を表わす。このエリアにおいて研究された最新の方法は、これらの領域で背景又は前景の基礎をなしているピクセルデータが均一であるか、又はテクスチャ情報を全く有しないときに、依然として大きな誤りを受けやすい。
非特許文献5(以下、Alvarez)では、拡散テンソル及びその後の固有値解析の役割に一時的な興味が向けられているが、これはオプティカルフロー解決の前方対称性及び後方対称性を分析するためにのみ使用されており、オプティカルフロー計算の正確性を直接的に向上させるために使用されているわけでも、オクルージョン計算の正確性を直接的に向上させるために使用されているわけでもない。
非特許文献6(以下、「Ince」)は、オプティカルフロー及びオクルージョンの一体的な決定のための方法及びシステムを開示しているが、システムは結合されており、この方法はブロックマッチング等の非オプティカルフロー動き推定システムに結合するためには適用することができない。さらに、Inceは、ロバスト性を改善するために、画像の拡散テンソルの概念か又は構造テンソルの概念を考慮していない。
モーションキューはオクルージョン領域及び境界を識別するために非常に重要である。上述したように、いかなる動き推定の目的も、2つの連続フレームにおける点の運動を表す流れ場を計算することであり、最も正確性が高い動き推定技法はオクルージョンを扱うことが可能であるべきである。Alvarez及びInceに記載されているような、運動に基づく幾つかのオクルージョン検出作業は、後方運動及び前方運動を一体的に推定し、一貫性のないピクセルを遮蔽された領域としてマーキングする。そのような状況では、オクルージョンは暗黙的に検出され、オクルージョン検出は動き推定方法それ自体と結合されている。これらの方法は、非常に粗い画像エリア内では問題に直面し、大きな変位又はオクルージョン領域では成功しない。
非特許文献7は、オプティカルフロー及びオクルージョンを計算する別の一体的な方法を開示するが、その2つの計算は一体的な正規化フレームワークに密接に結合されている。さらに、この方法は開示された正規化関数の収束のために複数回の反復を必要とし、そのため1080及び4K等の現代的なビデオ解像度についてはリアルタイム計算に適していない。
オクルージョン検出システムと結びついた従来の最良の動き推定方法でさえ、2つの主要な不都合に悩まされている。第一に、これらの方法はリアルタイム処理にはあまりにも計算上複雑である。第二に、これらの方法が生み出すオクルージョン領域マップは本質的にノイズを有する。オクルージョンとしてマーキングされたピクセルが、誤検出又は検出漏れである場合が頻繁にあり、これらを後のビデオ処理及び分析作業に使用することを困難又は不可能にしている。
米国特許第8355534号明細書
A. Saxena、M. Sun及びA. Y. Ng「Make3D: Learning 3D Scene structure form a Single Image」 PAMI, 31: 824-840, 2009 D. Hoiem、A. A. Efros及びA.Hebert「Recovering Occlusion Boundaries from an Image」 International Journal on Computer Vision, pages 1-19, 2010 N. Jojic及びB. J. Frey「Learning Flexible Sprites in Video layers」 CVPR, 2001 Sun, D.、Sudderth, E. B.及びBlack, M. J.「Layered image motion with explicit occlusions, temporal consistency, and depth ordering」 Advances in Neural Information Processing Systems, pp. 2226-2234 (2010) Alvarez他「Symmetrical dense optical flow estimation with occlusions detection」 International Journal of Computer Vision 75(3), 371-385 (2007) Ince, S及びKonrad, J「Occlusion-aware optical flow estimation」 IEEE Trans. Image Processing 17(8), 1443-1451 (2008) Xiao他「Bilateral Filtering-Based Optical Flow Estimation with Occlusion Detection」 Leonardis, A., Bischof, H., Pinz, A. (eds.) ECCV 2006, Part I. LNCS, vol. 3951, pp. 211-224, Springer, Heidelberg (2006)
したがって、正確性が高く、精密で、計算上の複雑性が低いオクルージョン推定システム及び方法であって、大きな運動と結果として生じる大きなオクルージョン領域とが存在する中で、動き推定システムと連動して、そのようなシステムのロバスト性及び正確性を増加させるオクルージョン推定システム及び方法が必要とされている。
一対の画像間のオクルージョン領域検出及び測定のための方法及びシステムを提供することによって、当該技術分野における上記の問題が対処され、技術的解決策が達成される。処理デバイスは第1の画像と第2の画像とを受信する。処理デバイスは、第1の画像と第2の画像との間の動きベクトル場を推定する。処理デバイスは第2の画像に向けて第1の画像を動き補償し、動き補償された画像を取得する。処理デバイスは、動き補償された画像の複数のピクセル値を、第1の画像の複数のピクセルと比較し、誤差場を推定する。処理デバイスは、誤差場を重み付き誤差コスト関数に入力し、初期オクルージョンマップを取得する。処理デバイスは、初期オクルージョンマップを正規化して、正規化されたオクルージョンマップを取得する。
1つの例では、正規化することは、正規化された誤差場を取得することを更に含むことができる。1つの例では、比較することと正規化することは、正規化されたオクルージョンマップ又は正規化された誤差場のうちの少なくとも1つに基づく値が閾値未満になるまで繰り返すことができる。1つの例では、第2の画像に向けて第1の画像を動き補償することは、第1の画像から第2の画像に向けて動きベクトル場を画像ワーピングすることを含む。1つの例では、初期オクルージョンマップ及び正規化されたオクルージョンマップはそれぞれ、重み付き誤差コスト関数に基づく。重み付き誤差コスト関数は、差分二乗和測度、局所的にスケーリングされた差分二乗和測度、正規化相互相関測度、ゼロ平均正規化相互相関測度のうちの少なくとも1つとすることができる。重み付き誤差コスト関数は、局所的なサポート領域にわたる局所的な重み付けに基づくことができる。1つの例では、局所的なサポート領域にわたる局所的な重み付けは、動き補償された画像の局所構造テンソルの固有値解析に基づくことができる。別の例では、局所的なサポート領域にわたる局所的な重み付けは、局所的なサポート領域にわたる勾配エネルギー重み付けである。局所的なサポート領域にわたる勾配エネルギー重み付けは、局所的なサポート領域にわたる統計的分散又は局所的なコントラストの和とすることができる。
1つの例では、オクルージョンマップを正規化して正規化されたオクルージョンマップを取得することは、オクルージョンマップにマルチシグマ正規化を適用することを含むことができる。オクルージョンマップにマルチシグマ正規化を適用することは、オクルージョンマップに4因子シグマフィルターを適用することを含むことができる。多因子シグマフィルターへの入力重みは、粗い初期オクルージョン場推定値、第1の画像と第2の画像との間の色値若しくは輝度の1つ若しくは複数の類似度、動きベクトル方向の角度値の類似度、又は動きベクトルの大きさの類似度を含むことができる。多因子シグマフィルターは、深度又は目標範囲となるフィールドの不連続点等の1つ又は複数の重みを組み込むことができる。
本開示の例は、シーンタイプ、動きタイプ、又は監督される学習データセットに依拠する何らの仮定を置くことなく、オクルージョン領域を検出し、特徴づける方法及びシステムを提供する。本開示の例は、正確で精密なオクルージョン領域マップを提供する。オクルージョン検出は、動き推定それ自体からは切り離され、任意の適切なオプティカルフロー又は動き推定のシステム又は方法に柔軟な追加を提供する。
前景物体が運動している背景及び前景を有し、オクルージョン領域及び脱オクルージョン領域を示す画像対の一例を示す図である。 画像シーケンスにおける1つ又は複数のオクルージョン領域を検出し、本開示の例が動作することができる、一例示の計算システムのブロック図である。 例示的なオクルージョン場/マップを示す図である。 図2の計算システムを用いて、画像のシーケンスにおけるオクルージョン領域及び/又は脱オクルージョン領域を検出する方法の一例を示す流れ図である。 図4の方法を実装するモジュール間の一例示のデータフローのブロック図である。 図5の重み付き距離場モジュールを実装するモジュール間の一例示のデータフローのブロック図である。 図5の正規化モジュールにおいて用いられる4因子シグマフィルターを通じた一例示のデータフローのブロック図である。 本明細書において論述した方法論のうちの任意の1つ又は複数をマシンに実行させる一組の命令を実行することができる例示の形態のコンピューターシステムにおける上記マシンの図的表現を示す図である。
当該技術分野において、動き推定が広範に研究されてきており、画像間の正確な動きベクトルを決定することは依然として困難な問題である。単純なブロックマッチング、階層的ブロックマッチング、及びオプティカルフロー推定等の、幾つかの解決策が動き推定のためにこれまで用いられてきた。正確な動きベクトル場を推定するために、オクルージョン問題には明示的に取り組む必要がある。オクルージョン検出はまた、ステレオマッチングのための視差マップを推定する上でも非常に重要である。オクルージョンのマーキングは、動き推定及び視差マップ推定を超えて、ビデオ監視物体選別/物体除去、並びにマルチビュービデオ及びイメージの再投影等の、独立した用途を有する。また、オクルージョンのマーキングは、画像分割、動き分割、画像修復、及び視差修復にとって非常に有用である。
オクルージョンは、次の条件のうちの1つの下で発生する。すなわち、カメラ若しくはキャプチャシステムがズームイン/アウトするか、新たな物体がフレーム内に出現するか、又は古い物体がフレーム外へ消失し、運動している前景物体が背景ピクセルを明らかにすることである。例えば、立体画像対では、2つの画像が異なるアングルから捉えられ、幾つかのピクセルは1つのビューのみに存在する。本明細書で用いるとき、これらのピクセルは遮蔽されたピクセルとして知られる。同様に、ビデオ監視では、カメラから遠ざかる人又はカメラの前に出現する新たな人はオクルージョンを導入する。
図2は、本開示の例が動作することができる、画像シーケンスにおける1つ又は複数のオクルージョン領域を検出するための一例示の計算システム200のブロック図である。非限定的な例として、計算システム200はビデオカメラ、静止カメラ、オンライン記憶デバイス、又は伝送媒体等の1つ又は複数のデータソース205からデータを受信する。計算システム200はデジタルビデオキャプチャシステム210及び計算プラットフォーム215も備えることができる。デジタルビデオキャプチャシステム210は、デジタルビデオストリームを計算プラットフォーム215によりデータソース205として処理することができる形式に処理、すなわち、アナログビデオをデジタルビデオに変換する。計算プラットフォーム215は、1つ又は複数の中央処理装置230a〜230n等の、例えば、処理デバイス225を備えることができるホストシステム220を備える。処理デバイス225は、ホストメモリ235に接続される。
処理デバイスは、グラフィックス処理装置240(GPU)を更に実装することができる。当業者は、GPUに加えて、限定することなく、DSP、FPGA、ASIC又は処理デバイス225それ自体の補助的な固定機能部等の、他のコプロセッサアーキテクチャを利用することができることを認識するであろう。当業者は更に、移動電話及びタブレット等で見られる「APU」としても知られるように、GPU240は中央処理装置230a〜230nと同じ物理チップ又は論理デバイス上に配置することができることを認識するであろう。別個のGPU及びCPUの機能が、GPUが物理拡張カードであるコンピューターサーバーシステム、パーソナルコンピューターシステム、及びラップトップ上に見ることができる。GPU240はGPUメモリ237を備えることができる。当業者は、ホストメモリ235及びGPUメモリ237を、APU上等の、同一の物理チップ(複数の場合もある)又は論理デバイス上に配置することもできることを認識するであろう。
処理デバイス225は、画像のシーケンス内におけるオクルージョン領域及び/又は脱オクルージョン領域を検出するためのオクルージョンマップ生成器245を実装するように構成される。オクルージョンマップ生成器245は、データソース205からデータ(例えば、第1の画像及び第2の画像)を受信するとともに、画像バッファ255としてGPUメモリ237に転送される画像データバッファ250を受信するように構成することができる。1つの例では、処理デバイス225は、オクルージョンマップ生成器245をGPU240の構成要素として実装することができる。オクルージョンマップ生成器245は、図3に示すように、画像バッファ255から正規化されたオクルージョンマップを取得するように構成される。本明細書で用いるとき、所与の画像に対する遮蔽された領域の全体をオクルージョンマップと言う。1つの例では、正規化されたオクルージョンマップはディスプレイ270上に表示することができる。別の例では、オクルージョンマップ生成器245は、正規化されたオクルージョンマップを1つ又は複数の下流デバイス290に直接的に又はネットワーク295を通じて送信することができる。
図4は、画像のシーケンスにおけるオクルージョン領域及び/又は脱オクルージョン領域を検出するための方法400の一例を示す流れ図である。この方法400は、図2のコンピューターシステム200によって実行することができ、ハードウェア(例えば、回路、専用ロジック、プログラマブルロジック、マイクロコード等)、ソフトウェア(例えば、処理デバイス上で実行される命令)、又はそれらの組み合わせを備えることができる。1つの例では、方法400は、図2の計算システム200のオクルージョンマップ生成器245によって実行される。
図4に示すように、画像のシーケンスから、正規化されたオクルージョンマップを生成することを計算システム200に許可するために、ブロック410において、オクルージョンマップ生成器245は、画像バッファ255から受信したデータに基づいて、第1の画像と第2の画像との間の動きベクトル場を推定する。ブロック420において、オクルージョンマップ生成器245は、動きベクトル場に作用して、第2の画像に向けて第1の画像を動き補償し、動き補償された画像を取得する。1つの例では、オクルージョンマップ生成器245が第2の画像に向けて第1の画像を動き補償するとき、オクルージョンマップ生成器245は第1の画像から第2の画像に向けて動きベクトル場の画像ワーピングを行う。
ブロック430において、オクルージョンマップ生成器245は、動き補償された画像の複数のピクセル値と第1の画像の複数のピクセルとを比較して、誤差場を推定する。ブロック440において、オクルージョンマップ生成器245は、誤差場を重み付き誤差コスト関数に入力し、初期オクルージョンマップを取得する。1つの例では、重み付き誤差コスト関数は、差分二乗和測度、局所的にスケーリングされた差分二乗和測度、正規化相互相関測度、ゼロ平均正規化相互相関測度のうちの少なくとも1つとすることができる。1つの例では、重み付き誤差コスト関数は、局所的なサポート領域にわたる局所的な重み付けに基づくことができる。局所的なサポート領域にわたる局所的な重み付けは、動き補償された画像の局所構造テンソルの固有値解析に基づくことができる。1つの例では、局所的なサポート領域にわたる局所的な重み付けは、局所的なサポート領域にわたる勾配エネルギー重み付けとすることができる。或る例では、局所的なサポート領域にわたる勾配エネルギー重み付けは、局所的なサポート領域にわたる統計的分散又は局所的なコントラストの和とすることができる。
ブロック450において、オクルージョンマップ生成器245は初期オクルージョンマップを正規化し、正規化されたオクルージョンマップを取得する。1つの例では、オクルージョンマップ生成器245が初期オクルージョンマップを正規化するとき、オクルージョンマップ生成器245は更に誤差場を正規化することができる。
1つの例では、オクルージョンマップを正規化して正規化されたオクルージョンマップを取得することは、オクルージョンマップ及び誤差場にマルチシグマ正規化を適用することを含むことができる。1つの例では、オクルージョンマップ及び誤差場にマルチシグマ正規化を適用することは、オクルージョンマップに4因子シグマフィルターを適用することを含むことができる。
ブロック460において、正規化されたオクルージョンマップ又は正規化された誤差場のうちの少なくとも1つに基づく値が閾値を超えている場合、オクルージョンマップ生成器245は比較ステップ及び正規化ステップ(すなわち、ステップ430〜460を繰り返す)を繰り返し、そうでなければ、処理は終了する。
f(x,y,t)を、フレームを示す現在のフレームとし、f(x,y,t−1)を前回のフレームとする。f(x,y,t)とf(x,y,t−1)との間の関係は式1のように示すことができる。
Figure 2016508652
ここで、Wt−>(t−1)は、フレームf(x,y,t−1)からフレームf(x,y,t)への動き補償されたマッピングを示す。
そのため、この演算子は2つのフレーム間のピクセルごとのマッピングを与え、これは任意の動きモデル及び視差マップの推定に適用することができる。式(1)は、遮蔽された領域o(x,y,t−l)を除くビデオフレームのいずれの場所においても当てはまる。所与の画像について遮蔽された領域の全体をオクルージョンマップと言う。このマップは、グレースケールの画像マスクを表すか、代替的には、理想的な状況下で各ピクセルが遮蔽されていると正確に識別する、正値2次元マトリックスを表す。ここで、中間範囲の値は、遮蔽している物体(複数の場合もある)の信頼度の変動を表すか、代替的には遮蔽している物体(複数の場合もある)の透明度を表すことができる。本開示では、対処される問題は、画像のシーケンスの遮蔽された領域を発見し、結果として得られるオクルージョンマップを正規化することで、経時安定性を達成し、反復的な誤差の伝播を防ぐことである。
図5は、図3のオクルージョンマップ生成器245を備えるモジュール500のシーケンスを通じたデータフローの一例のブロック図である。動き推定モジュール508は、第一のフレーム504(例えば、前回のフレーム504)f(x,y,t−1)から第2のフレーム506(例えば、元のフレーム506)フレームf(x,y,t)への動きベクトル場502の動きベクトルを推定する。動き推定モジュール508は、例えば、サブピクセルの階層的ブロックベースの方法、オプティカルフロー、又は双眼写真の反復的な視差推定とすることができる動き推定方法を実装することができる。計算された動きベクトルmv(x,y,t−1)及びmv(x,y,t−1)に基づいて、動き補償ワーピングモジュール510は、動き補償ワーピング関数Wt−>(t−1)を動きベクトル場502に適用し、動きワーピングされた第1のフレーム512(例えば、動きワーピングされた前回のフレーム512)を取得することができる。或る例では、関数Wt−>(t−1)は式2のように展開することができる。
Figure 2016508652
当業者は、任意の数の動き補償方式を用いることができ、上記の例は説明を明確にするために提供されていることを認識するであろう。遮蔽された領域は、動き推定システムが全く情報を利用できないため、正しい動きベクトルを持たない。理想的な動き推定システムは、これらの領域に大きさ0の動きベクトルを設定することができるか、又は少なくとも、信頼度マップを伝達すること等による帯域外の方法によって、それらの正確性に関する信頼度の欠如をシグナリングすることができる。
通常の動き補償方式を用いて説明されるワーピング方法を区別することは重要である。ほとんどの動き補償システムにおいて、
Figure 2016508652
を満たすような「収集」方法が適用される。
式3のような方式は、補償における全ての対象ピクセルがアクセスされることを確実にし、高密度な画像を確保する一方で、オクルージョンを考慮に入れない。比較すると、式2のワーピング方法は、補償された画像の全てのピクセルがアクセスされるとは限らないか、又は埋められるとは限らない「散乱」方法と言うことができる。補償される画像のバッファを単一の値で事前に埋めることにより、散乱ベースのワーピング操作においてアクセスされない領域は、この単一の値が妨げられることなく、残される。これはその後、オクルージョンマップ514の出発点を形成する。
次に、第2の又は元の(正しい)f(x,y,t)フレーム506は既知であるため、重み付け関数ブロック516は重み付け関数を動きワーピングされた第1の(例えば、前回の)フレーム512に適用して、各ピクセルの誤差コスト関数解析に適用されることになる重みのその後の処理ステップを通知する重み付け場513を取得することができる。或る例では、重み付け場513は動きワーピングされた第1の(例えば、前回の)フレーム512の別個のデータバッファ、アルファチャネル、又は第四のチャネルにおいて保存することができる。重み付け関数は、単純な恒等関数を含むこともできるし、局所構造テンソルの固有値解析等のより複雑な関数を含むこともできる。
重み付き誤差コスト関数ブロック518は、重み付け場513によって提供された重みを用いて、重み付き誤差コスト関数を適用することができる。動きワーピングされた第1の(例えば、前回の)フレーム512のエラーピクセルは、重み付き誤差コスト関数から計算することができ、それにより、遮蔽された領域は、既にマーキングされた領域を避けつつ、更にマーキングすることができる。
それにもかかわらず、誤差を推定するために誤差コスト関数を選ぶ際には特別な考慮が必要とされる。なぜならば、単純なピクセルごとの差分(一般的に差分絶対値和として知られている)又は重み付られていない差分二乗和は、均一な領域及び低いテクスチャを有する物体については検出漏れのマーキングをし、強いコントラスト及びエッジを有する画像領域では誤検出のマーキングをする場合があるからである。フレームにおける各ピクセルについてエラーピクセルを推定するための以下の相関ベースの類似度測度(例えば、Nuno Roma、Jose Santos-Victor、Jose Tome「A Comparative Analysis Of Cross-Correlation Matching Algorithms Using a Pyramidal Resolution Approach」2002を参照されたい)は、好ましい実施形態の目的のために有益であるが、これは限定的な例ではない。
差分二乗和(SSD)、
Figure 2016508652
局所的にスケーリングされた差分二乗和(LSSD)、
Figure 2016508652
正規化相互相関(NCC)、
Figure 2016508652
及び、ゼロ平均正規化相互相関(ZNCC)、
Figure 2016508652
上に示した式(4)〜(7)について、Rは相関マッチングで考慮されるサポート領域であり、Rを3×3ピクセルとして選択することは、リアルタイム処理に適している場合があり、5×5ピクセルはオフライン処理に適している場合がある。当業者は、基礎となるシステムのスピードと複雑さとが増加するにつれて、時間と共に、より大きなサポート領域がリアルタイム処理及びオフライン処理のために用いられる場合があることを認識するであろう。3×3及び5×5サポート領域は、例として提供することができる。
相関ベースのマッチングメトリックは、非常に計算上高くつくものであるが、動きベクトルは既に外部システムから推定されているため、差分メトリックはより小さな領域について推定することができ、より大きなピクセルサポート領域での検索は必要としない。
上記の式4〜7で開示されるような大域的平均及び局所的平均等の局所的な重み付けを求めるための数値的な方法に加えて、固有値解析を利用して、より精密で正確な重み付けを提供することができる。特許文献1に記載される方法は、引用することにより本明細書の一部をなすが、特に有益であり、特にここで注意することは、局所的なサポート領域の勾配構造テンソルの固有値を使用して、その領域が等方性を有するか、均一な領域であるか、著しい画像テクスチャを含むか、又は強いコントラストエッジを含むかを判定することである。そのようなテンソル解析に基づき、均一で等方性を有する領域画像の差分は、例えば、より高いテクスチャを有する領域よりも小さく重み付けられる。
オプティカルフロー動きベクトル及び視差マップは、共通して正規化ステップ及び平坦化ステップを使用して、不連続点及び外れ値を平坦化し、ビデオの場合には、時間軸に沿って動きベクトル場を安定化させることに更に役立つ。オクルージョン及び誤差場は、動きベクトル場及び画像フィールドとは別に、正規化モジュール520を用いて、同様な方法で別個の扱いから利得を得ることに注意されたい。
最終的に結果として得られるオクルージョンマップ514における、従来技術のノイズ、誤検出、及び検出漏れの問題に対処するために、重み付け関数516及び重み付き誤差コスト関数518は、図6に描かれるような固有値解析を含むことができる。まず、特許文献1で教示されるように、時空勾配推定630を前回のフレーム610及び今回のフレーム620のピクセルのフィールドに適用することができ、結果として二次元勾配場640が得られる。ここで、勾配導関数を、例えば式9において推定することができる。
Figure 2016508652
勾配場640は勾配テンソル解析650に入力され、ここで勾配値はテンソルに入力され、テンソルは式10のような固有値解析を受ける。
Figure 2016508652
式10の固有値解析は、それぞれの及び全てのピクセルについての2つの固有値λ及びλをもたらし、ここで各固有値の組み合わせは、前述した任意のピクセルを取り囲む画像の局所構造を識別する。
勾配テンソル解析650から取得された固有値は、固有値場660をもたらし、入力画像610及び620の各ピクセルについて局所構造テンソルの固有値を識別する。それぞれの及び全てのピクセルについての2つの固有値λ及びλは、高い均一性(例えば、低いλ及びλ)及び低いエッジ支配(例えば、λに対して低いλ)を有する領域における誤差値を差し引くことによって、重み付け関数670に影響を与えることができる。
重み付けサポート領域670で重み付け場675を計算した後に、重み付き誤差コスト関数680は、図5の重み付け関数ブロック516に記載されているように、重み付き誤差場690を計算する。
図7を参照すると、前回のフレーム710、今回のフレーム720、結果として得られる誤差場730、及び初期オクルージョンマップ740は多因子シグマフィルター750に入力することができ、この多因子シグマフィルター750は初期オクルージョンマップ740及び場730に作用する(Tomasi他「Bilateral filtering for gray and color images」 International Conference on Computer Vision, (1998) pp 839-846」において教示されるような既知の2因子バイラテラルフィルターと同様に)が、これは4つ以上のシグマ(因子)を含むことができる。すなわち、前回のフレーム710と、今回のフレーム720と、重み付き距離場730に基づく2D動きベクトルについての方向距離関数と、重み付き距離場730に基づく2D動きベクトルについての大きさ距離関数と、初期オクルージョンマップ740で最初にマーキングされたようなオクルージョンとに基づく画像色距離関数(RGB/YUV)である。
空間上の平坦化が適用されるときにピクセル位置が遮蔽されているとマーキングされている場合、フィルターバンク係数への寄与に重いペナルティを与えることができ、それによって物体の境界におけるいかなる望まない歪みも避けるように、多因子シグマフィルター750を実装することができる。加えて、関連付けられた動きベクトルの方向又は大きさによる外見上異なる動き領域からの差分データは、それらが外見上似ていない場合にペナルティを与えることができる。元の提案されたフィルターは2つのパラメーター、すなわち空間半径及び画像の色差しか用いていないため、多因子シグマフィルター750は多くの点でバイラテラルフィルター及びそれらの派生物とは異なる。1つの例では、多因子シグマフィルター750は式11のような式の形式で表すことができる。
Figure 2016508652
ここで、e()は画像の誤差場690であり、o()はワーピング補償510によって提供された初期オクルージョン場685を表し、e’()は結果的に得られる正規化されたオクルージョンマップ760であり、さらにここでg()は式12のようなガウスの空間距離関数である。
Figure 2016508652
ここで、式11のr()はラジオシティ関数であり、この関数は色差及び/又は輝度値を観測し、式12のr()は式13のような画像Iに存在するRGB又はYUVの値に基づく適切な色差関数である。
Figure 2016508652
ここで、式13のfC()は、式14〜19のように、1つの例では、RGB又はYUVの値をHSV色空間の表現に変換することができる。
Figure 2016508652
Figure 2016508652
Figure 2016508652
Figure 2016508652
Figure 2016508652
Figure 2016508652
そして、ここで関数fC()は、1つの例では式20のように、HSV色空間における色類似度を測定する。
Figure 2016508652
ここで、a、b及びcはユーザーによって提供された重み付け値であり、これは非限定的な例として、それぞれ0.5、0.5、及び1.0とすることができる。そして、ここで式11の関数d()は動きベクトルの類似度を測定し、これは例えば、式21のような単純な大きさ差分測定関数を含むことができる。
Figure 2016508652
ここで、d()は動きベクトル間の単純なユークリッド距離を測定する関数であり、D()は式22〜25のような関数である。これにより、動きベクトル方向の類似度を独立して評価する方法が提供される。
Figure 2016508652
Figure 2016508652
フレームからフレームへの動きベクトル間の方向差分の測度として、式24のように、互いに反対を指す動きベクトル(180度反対)が最も異なると考えられる。2つのそのようなベクトルは方向(シータ)及び大きさ(距離、すなわちD)において差分を有し得る。
Figure 2016508652
さらに、動きベクトルの角度差を数値的に強調するために、角度差は対数尺度に変換される。特定の空間位置についての動きベクトルの向きが大きく変化する場合、その差分D()は式25のような対数重み付け尺度において計算される。
Figure 2016508652
そして、各空間位置のそれぞれのオプティカルフローベクトルの式21の大きさ差分d()は対数尺度に変換される。これは、小さな差分に対して大きな差分を強調する。1つの例では、これらについての値は、式26のように計算される。
Figure 2016508652
式11の出力されたオクルージョン場の値o()及び誤差場の値e’()の正規化は、単に考慮されている半径を用いるだけではなく、動きベクトルの差分、画像輝度及びオクルージョンのマーキングも含む。これは、作用から、遮蔽された領域を除外し、不完全な動き推定ベクトルに起因する歪みを一切導入しない。
そして、このとき誤差場は単純で一貫性のある閾値操作によく調整されており、それによって所与の閾値を下回る誤差場の値に対応するオクルージョン場ピクセルが、最終的なオクルージョンマップO()における非オクルージョンとしてマーキングされ、この閾値を上回る誤差場の値に対応するオクルージョン場ピクセルが最終的なオクルージョンマップO()におけるオクルージョンとして断定的にマーキングされる。非限定的な例が式27において提供される。
Figure 2016508652
ここで、関数O()の計算は、図5に示されるように、最終的な洗練されたオクルージョンマップをもたらし、非限定的な例として、通常の閾値は0.003から0.006の範囲である。
図8は、本明細書において論述した方法論のうちの任意の1つ又は複数をマシンに実行させる一組の命令を実行することができるコンピューターシステム800の例示の形態のマシンの図的表現を示している。幾つかの例では、このマシンは、LAN、イントラネット、エクストラネット、又はインターネット内の他のマシンに接続(例えば、ネットワーク接続)することができる。このマシンは、クライアントサーバーネットワーク環境ではサーバーマシンの資格で動作することができる。このマシンは、パーソナルコンピューター(PC)、セットトップボックス(STB)、サーバー、ネットワークルーター、ネットワークスイッチ、若しくはネットワークブリッジ、又はそのマシンによって行われる動作を指定する一組の命令(逐次又は別の方法)を実行することが可能な任意のマシンとすることができる。さらに、単一のマシンしか図示されていないが、「マシン」という用語は、本明細書において論述した方法論のうちの任意の1つ又は複数を実行する一組(又は複数組)の命令を個々に又は共同で実行するマシンの任意の集合体も含むものと解釈されるものとする。
この一例示のコンピューターシステム800は、処理デバイス(プロセッサ)802、メインメモリ804(例えば、読み出し専用メモリ(ROM)、フラッシュメモリ、同期DRAM(SDRAM)等のダイナミックランダムアクセスメモリ(DRAM))、スタティックメモリ806(例えば、フラッシュメモリ、スタティックランダムアクセスメモリ(SRAM))、及びデータ記憶デバイス816を備える。これらは、バス808を介して互いに通信する。
プロセッサ802は、マイクロプロセッサ、中央処理装置等の1つ又は複数の汎用処理デバイスを表している。より詳細には、プロセッサ802は、複合命令セットコンピューティング(CISC)マイクロプロセッサ、縮小命令セットコンピューティング(RISC)マイクロプロセッサ、超長命令語(VLIW)マイクロプロセッサ、又は他の命令セットを実装するプロセッサ若しくは命令セットの組み合わせを実装するプロセッサとすることができる。プロセッサ802は、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、ネットワークプロセッサ等の1つ又は複数の専用処理デバイスとすることもできる。図2に示すオクルージョンマップ生成器245は、本明細書において論述した動作及びステップを実行するように構成されたプロセッサ802によって実行することができる。
コンピューターシステム800は、ネットワークインターフェースデバイス822を更に備えることができる。コンピューターシステム800は、ビデオディスプレイユニット810(例えば、液晶ディスプレイ(LCD)又は陰極線管(CRT))、英数字入力デバイス812(例えば、キーボード)、カーソル制御デバイス814(例えば、マウス)、及び信号発生デバイス820(例えば、スピーカー)も備えることができる。
ドライブユニット816は、本明細書において説明した方法論又は機能のうちの任意の1つ又は複数を具現化する一組又は複数組の命令(例えば、オクルージョンマップ生成器245の命令)が記憶されているコンピューター可読媒体824を備えることができる。オクルージョンマップ生成器245の命令は、コンピューターシステム800によるこれらの命令の実行中は、メインメモリ804及び/又はプロセッサ802内にも完全に又は少なくとも部分的に存在することができ、メインメモリ804及びプロセッサ802もコンピューター可読媒体を構成する。オクルージョンマップ生成器245の命令は、ネットワークインターフェースデバイス822を介してネットワーク上で更に送信又は受信することができる。
コンピューター可読記憶媒体824は、一例では、単一の媒体であるとして示されているが、「コンピューター可読記憶媒体」という用語は、一組又は複数組の命令を記憶する単一の非一時的媒体又は複数の非一時的媒体(例えば、集中型若しくは分散型のデータベース、及び/又は関連付けられたキャッシュ及びサーバー)を含むものと解釈されるべきである。「コンピューター可読記憶媒体」という用語は、マシンによって実行される一組の命令を記憶、符号化、又は担持することが可能であるとともに、本開示の方法論のうちの任意の1つ又は複数をマシンに実行させる任意の媒体も含むものと解釈されるものとする。「コンピューター可読記憶媒体」という用語は、したがって、固体メモリ、光媒体、及び磁気媒体を含むが、これらに限定されるものではないものと解釈されるものとする。
上記説明では、多数の詳細が述べられている。しかしながら、この開示の利益を有する当業者には、これらの特定の詳細がなくても、この開示の例を実施することができることは明らかである。幾つかの場合には、よく知られた構造及びデバイスは、説明を分かりにくくしないように、詳細には示されず、ブロック図の形態で示されている。
詳細な説明の幾つかの部分は、コンピューターメモリ内のデータビットに対する操作のアルゴリズム及びシンボル表現の点から提示されている。これらのアルゴリズム的な記述及び表現は、データ処理技術における当業者が、自身の作業を他の当業者に最も効果的に伝達するのに用いる手段である。アルゴリズムは、本明細書において及び一般的には、所望の結果をもたらす自己矛盾のないステップのシーケンスであると考えられる。これらのステップは、物理量の物理的な操作を必要とするものである。必ずしもそうとは限らないが通常、これらの量は、記憶、転送、組み合わせ、比較、及びそれ以外の操作が可能な電気信号又は磁気信号の形態を取る。主として共通使用の理由から、これらの信号を、ビット、値、要素、シンボル、文字、項、数等と呼ぶことが時に便利であることが分かっている。
しかしながら、これらの用語及び類似の用語の全ては、適切な物理量と関連付けられるべきであり、これらの量に適用された便利なラベルにすぎないことに留意すべきである。特に別段の指定がない限り、上記論述から明らかであるように、この説明全体を通じて、「受信する」、「書き込む」、「維持する」等の用語を利用している論述は、コンピューターシステムのレジスター及びメモリ内の物理(例えば、電子)量として表されたデータを、新たな座標系に対して操作して、そのコンピューターシステムのメモリ若しくはレジスター、又は他のそのような情報記憶デバイス、伝送デバイス、若しくはディスプレイデバイス内の物理量として同様に表される他のデータに変換するコンピューターシステム又は同様の電子コンピューティングデバイスの動作及びプロセスを指すことが理解される。
本開示の例は、本明細書における動作を実行する装置にも関係している。この装置は、必要とされる目的用に特別に構築することもできるし、コンピューターに記憶されたコンピュータープログラムによって選択的にアクティブ化又は再構成される汎用コンピューターを含むこともできる。知覚品質及び/又は既存画像の伝送率又は格納率を向上させる本明細書に開示されるハイスループットのシステム及び方法と、ビデオ圧縮又は伝送のシステム及び方法とは、多くのフィールドにおける問題を解決し、ほんの数例として、限度を超えたビデオ送達のリアルタイムの効率性、移動デバイスからビデオデータ及び画像データを同時にアップロード及びダウンロードするときの公衆無線アクセスネットワークの輻輳に対する費用対効果に優れたリアルタイムの削減、リアルタイムの通過帯域テレビ送達容量の増加、衛星トランスポンダー容量の増加、コンテンツマネジメントシステム及びネットワークDVRアーキテクチャの保存コストの削減、並びに分配ネットワークコアにおける画像及びビデオのハイスループット処理がある。
そのようなコンピュータープログラムは、コンピューター可読記憶媒体に記憶することができる。このコンピューター可読記憶媒体は、フロッピーディスク、光ディスク、CD−ROM、及び光磁気ディスクを含む任意のタイプのディスク、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード若しくは光カード、又は電子命令を記憶するのに適した任意のタイプの媒体等であるが、これらに限定されるものではない。
本明細書において提示したアルゴリズム及び表示は、本質的には、どの特定のコンピューターにも他の装置にも関係付けられていない。様々な汎用システムを、本明細書における教示によるプログラムとともに用いることもできるし、必要とされる方法ステップを実行するより特殊化された装置を構築することが便利であると分かる場合もある。様々なこれらのシステムの例示の構造は、本明細書における説明から見えてくる。加えて、本開示は、どの特定のプログラミング言語に関しても説明されていない。様々なプログラミング言語を、本明細書において説明した開示の教示内容を実施するのに用いることができることが理解されるであろう。
上記説明は、限定ではなく例示であるように意図されていることが理解されるべきである。上記説明を読んで理解すると、他の多くの例が当業者には明らかであろう。したがって、本開示の範囲は、添付の特許請求の範囲が権利を有する均等なものの全範囲とともに、そのような特許請求の範囲に関して決定されるべきである。

Claims (25)

  1. オクルージョン領域検出のための方法であって、
    処理デバイスで第1の画像及び第2の画像を受信することと、
    前記処理デバイスを用いて、前記第1の画像と前記第2の画像との間の動きベクトル場を推定することと、
    前記処理デバイスを用いて、前記第2の画像に向けて前記第1の画像を動き補償して、動き補償された画像を取得することと、
    前記処理デバイスを用いて、前記動き補償された画像の複数のピクセル値と前記第一1の画像の複数のピクセルとを比較して、誤差場を推定することと、
    前記処理デバイスを用いて、前記誤差場を重み付き誤差コスト関数に入力して、初期オクルージョンマップを取得することと、
    前記処理デバイスを用いて、前記初期オクルージョンマップを正規化して、正規化されたオクルージョンマップを取得することと、
    を含む、方法。
  2. 正規化することは、正規化された誤差場を取得することをさらに含む、請求項1に記載の方法。
  3. 前記正規化されたオクルージョンマップ又は前記正規化された誤差場のうちの少なくとも1つに基づく値が閾値を下回るまで、前記比較することと前記正規化することとを繰り返すことをさらに含む、請求項2に記載の方法。
  4. 前記第2の画像に向けて前記第1の画像を動き補償することは、前記第1の画像から前記第2の画像に向けて前記動きベクトル場を画像ワーピングすることを含む、請求項1に記載の方法。
  5. 前記初期オクルージョンマップ及び前記正規化されたオクルージョンマップは、それぞれ重み付き誤差コスト関数に基づく、請求項1に記載の方法。
  6. 前記重み付き誤差コスト関数は、差分二乗和測度、局所的にスケーリングされた差分二乗和測度、正規化相互相関測度、又はゼロ平均正規化相互相関測度のうちの少なくとも1つである、請求項5に記載の方法。
  7. 前記重み付き誤差コスト関数は、局所的なサポート領域にわたる局所的な重み付けに基づく、請求項6に記載の方法。
  8. 前記局所的なサポート領域にわたる局所的な重み付けは、前記動き補償された画像の前記局所構造テンソルの固有値解析に基づく、請求項7に記載の方法。
  9. 前記局所的なサポート領域にわたる局所的な重み付けは、前記局所的なサポート領域にわたる勾配エネルギー重み付けである、請求項7に記載の方法。
  10. 前記局所的なサポート領域にわたる勾配エネルギー重み付けは、前記局所的なサポート領域にわたる統計的分散又は局所的なコントラストの和である、請求項9に記載の方法。
  11. 前記オクルージョンマップを正規化して、正規化されたオクルージョンマップを取得することは、マルチシグマフィルターを前記オクルージョンマップに適用することを含む、請求項1に記載の方法。
  12. マルチシグマフィルターを前記オクルージョンマップに適用することは、4因子シグマフィルターを前記オクルージョンマップに適用することを含む、請求項11に記載の方法。
  13. 前記多因子シグマフィルターへの入力重みは、粗い初期オクルージョン場推定値、及び前記第1の画像と前記第2の画像との間の色値若しくは輝度の1つ若しくは複数の類似度、動きベクトル方向の角度値の類似度、又は動きベクトルの大きさの類似度を含む、請求項12に記載の方法。
  14. 前記多因子シグマフィルターは、深度又は目標範囲となるフィールドの不連続点等の1つ又は複数の重みを組み込む、請求項13に記載の方法。
  15. システムであって、
    メモリと、
    前記メモリに接続され、該メモリを利用する処理デバイスと、
    を備え、前記処理デバイスは、
    第1の画像及び第2の画像を受信し、
    前記第1の画像と前記第2の画像との間の動きベクトル場を推定し、
    前記第2の画像に向けて前記第1の画像を動き補償して、動き補償された画像を取得し、
    前記動き補償された画像の複数のピクセル値と前記第1の画像の複数のピクセルとを比較して、誤差場を推定し、
    前記誤差場を重み付き誤差コスト関数に入力して、初期オクルージョンマップを取得し、
    前記初期オクルージョンマップを正規化して、正規化されたオクルージョンマップを取得する、システム。
  16. 正規化することは、正規化された誤差場を取得することをさらに含む、請求項15に記載のシステム。
  17. 前記正規化されたオクルージョンマップ又は前記正規化された誤差場のうちの少なくとも1つに基づく値が閾値を下回るまで、前記比較することと前記正規化することとを繰り返すことをさらに含む、請求項16に記載のシステム。
  18. 命令を含む非一時的なコンピューター可読記憶媒体であって、前記命令は、処理デバイスによってアクセスされると、前記処理デバイスに、
    第1の画像及び第2の画像を受信することと、
    前記第1の画像と前記第2の画像との間の動きベクトル場を推定することと、
    前記第2の画像に向けて前記第1の画像を動き補償して、動き補償された画像を取得することと、
    前記動き補償された画像の複数のピクセル値と前記第1の画像の複数のピクセルとを比較して、誤差場を推定することと、
    前記誤差場を重み付き誤差コスト関数に入力して、初期オクルージョンマップを取得することと、
    前記初期オクルージョンマップを正規化して、正規化されたオクルージョンマップを取得することと、
    を含む操作を実行させる、非一時的なコンピューター可読記憶媒体。
  19. 正規化することは、正規化された誤差場を取得することをさらに含む、請求項18に記載の非一時的なコンピューター可読記憶媒体。
  20. 前記正規化されたオクルージョンマップ又は前記正規化された誤差場のうちの少なくとも1つに基づく値が閾値を下回るまで、前記比較することと前記正規化することとを繰り返すことをさらに含む、請求項19に記載の非一時的なコンピューター可読記憶媒体。
  21. 前記初期オクルージョンマップ及び前記正規化されたオクルージョンマップは、それぞれ重み付き誤差コスト関数に基づく、請求項18に記載の非一時的なコンピューター可読記憶媒体。
  22. 前記重み付き誤差コスト関数は、局所的なサポート領域にわたる局所的な重み付けに基づく、請求項21に記載の非一時的なコンピューター可読記憶媒体。
  23. 前記局所的なサポート領域にわたる局所的な重み付けは、前記動き補償された画像の前記局所構造テンソルの固有値解析に基づく、請求項22に記載の非一時的なコンピューター可読記憶媒体。
  24. 前記オクルージョンマップを正規化し、正規化されたオクルージョンマップを取得することは、マルチシグマフィルターを前記オクルージョンマップに適用することを含む、請求項18に記載の非一時的なコンピューター可読記憶媒体。
  25. マルチシグマフィルターを前記オクルージョンマップに適用することは、4因子シグマフィルターを前記オクルージョンマップに適用することを含む、請求項24に記載の非一時的なコンピューター可読記憶媒体。
JP2015560170A 2013-02-26 2013-10-29 画像シーケンスにおける物体のオクルージョンの決定 Pending JP2016508652A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361769311P 2013-02-26 2013-02-26
US61/769,311 2013-02-26
PCT/US2013/067189 WO2014133597A1 (en) 2013-02-26 2013-10-29 Determination of object occlusion in an image sequence

Publications (1)

Publication Number Publication Date
JP2016508652A true JP2016508652A (ja) 2016-03-22

Family

ID=50552869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015560170A Pending JP2016508652A (ja) 2013-02-26 2013-10-29 画像シーケンスにおける物体のオクルージョンの決定

Country Status (7)

Country Link
US (2) US8718328B1 (ja)
EP (1) EP2962247A4 (ja)
JP (1) JP2016508652A (ja)
KR (1) KR20150122715A (ja)
CN (1) CN105074726A (ja)
CA (1) CA2899401A1 (ja)
WO (1) WO2014133597A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2962247A4 (en) * 2013-02-26 2016-09-14 A2Zlogix Inc DETERMINING THE OCCLUSION OF AN OBJECT IN A PICTURE SEQUENCE
CN104735360B (zh) * 2013-12-18 2017-12-22 华为技术有限公司 光场图像处理方法和装置
KR102214934B1 (ko) * 2014-07-18 2021-02-10 삼성전자주식회사 단항 신뢰도 및 쌍별 신뢰도 학습을 통한 스테레오 매칭 장치 및 방법
EP2975850A1 (en) * 2014-07-18 2016-01-20 Thomson Licensing Method for correcting motion estimation between at least two frames of a video sequence, corresponding device, computer program and non-transitory computer-readable medium
US10423858B2 (en) 2014-07-21 2019-09-24 Ent. Services Development Corporation Lp Radial histogram matching
CN104700432B (zh) * 2015-03-24 2017-11-03 银江股份有限公司 一种自适应的粘连车辆分割方法
JP7036599B2 (ja) * 2015-04-23 2022-03-15 オステンド・テクノロジーズ・インコーポレーテッド 奥行き情報を用いて全方向視差を圧縮したライトフィールドを合成する方法
CN104867133B (zh) * 2015-04-30 2017-10-20 燕山大学 一种快速的分步立体匹配方法
PL412844A1 (pl) * 2015-06-25 2017-01-02 Politechnika Poznańska System oraz sposób kodowania obszaru odsłoniętego w strumieniu danych sekwencji wielowidokowych
US20190318188A1 (en) * 2016-01-29 2019-10-17 Ent. Services Development Corporation Lp Image skew identification
WO2017151414A1 (en) * 2016-03-02 2017-09-08 Covidien Lp Systems and methods for removing occluding objects in surgical images and/or video
US10277844B2 (en) * 2016-04-20 2019-04-30 Intel Corporation Processing images based on generated motion data
CN106023250B (zh) * 2016-05-16 2018-09-07 长春理工大学 一种图像识别与跟踪中目标遮蔽强度的评价方法
CN106204597B (zh) * 2016-07-13 2019-01-11 西北工业大学 一种基于自步式弱监督学习的视频物体分割方法
US10586308B2 (en) * 2017-05-09 2020-03-10 Adobe Inc. Digital media environment for removal of obstructions in a digital image scene
CN107292912B (zh) * 2017-05-26 2020-08-18 浙江大学 一种基于多尺度对应结构化学习的光流估计方法
US11720745B2 (en) 2017-06-13 2023-08-08 Microsoft Technology Licensing, Llc Detecting occlusion of digital ink
CN107507232B (zh) * 2017-07-14 2020-06-16 天津大学 基于多尺度迭代的立体匹配方法
CN107798694B (zh) * 2017-11-23 2021-06-29 海信集团有限公司 一种像素点视差值计算方法、装置及终端
US11200405B2 (en) 2018-05-30 2021-12-14 Samsung Electronics Co., Ltd. Facial verification method and apparatus based on three-dimensional (3D) image
CN109087332B (zh) * 2018-06-11 2022-06-17 西安电子科技大学 一种基于分块相关的遮挡检测方法
WO2020050828A1 (en) * 2018-09-05 2020-03-12 Hewlett-Packard Development Company, L.P. Optical flow maps
CN111275801A (zh) * 2018-12-05 2020-06-12 中国移动通信集团广西有限公司 一种三维画面渲染方法及装置
CN110069990B (zh) * 2019-03-18 2021-09-17 北京中科慧眼科技有限公司 一种限高杆检测方法、装置以及自动驾驶系统
CN111462191B (zh) * 2020-04-23 2022-07-19 武汉大学 一种基于深度学习的非局部滤波器无监督光流估计方法
US20220414841A1 (en) * 2021-06-23 2022-12-29 Apple Inc. Point-of-View Image Warp Systems and Methods
US11663772B1 (en) 2022-01-25 2023-05-30 Tencent America LLC Occluder generation for structures in digital applications
CN114928730B (zh) * 2022-06-23 2023-08-22 湖南国科微电子股份有限公司 图像处理方法和图像处理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6157747A (en) * 1997-08-01 2000-12-05 Microsoft Corporation 3-dimensional image rotation method and apparatus for producing image mosaics
EP1437898A1 (en) * 2002-12-30 2004-07-14 Koninklijke Philips Electronics N.V. Video filtering for stereo images
US7408986B2 (en) * 2003-06-13 2008-08-05 Microsoft Corporation Increasing motion smoothness using frame interpolation with motion analysis
US7957466B2 (en) * 2005-09-16 2011-06-07 Sony Corporation Adaptive area of influence filter for moving object boundaries
WO2009032255A2 (en) * 2007-09-04 2009-03-12 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
JP5657391B2 (ja) * 2007-12-20 2015-01-21 クゥアルコム・インコーポレイテッドQualcomm Incorporated ハローを低減する画像補間
US9626769B2 (en) * 2009-09-04 2017-04-18 Stmicroelectronics International N.V. Digital video encoder system, method, and non-transitory computer-readable medium for tracking object regions
WO2011094871A1 (en) * 2010-02-05 2011-08-11 Sensio Technologies Inc. Method and apparatus of frame interpolation
JP4991890B2 (ja) * 2010-03-01 2012-08-01 株式会社東芝 補間フレーム生成装置及び方法
US20120312961A1 (en) * 2011-01-21 2012-12-13 Headwater Partners Ii Llc Setting imaging parameters for image guided radiation treatment
US9445076B2 (en) * 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
EP2962247A4 (en) * 2013-02-26 2016-09-14 A2Zlogix Inc DETERMINING THE OCCLUSION OF AN OBJECT IN A PICTURE SEQUENCE

Also Published As

Publication number Publication date
EP2962247A1 (en) 2016-01-06
US8831288B1 (en) 2014-09-09
US8718328B1 (en) 2014-05-06
US20140241582A1 (en) 2014-08-28
KR20150122715A (ko) 2015-11-02
CN105074726A (zh) 2015-11-18
CA2899401A1 (en) 2014-09-04
EP2962247A4 (en) 2016-09-14
WO2014133597A1 (en) 2014-09-04

Similar Documents

Publication Publication Date Title
US8718328B1 (en) Digital processing method and system for determination of object occlusion in an image sequence
US10621783B2 (en) Image processing method and apparatus using depth value estimation
Pradeep et al. MonoFusion: Real-time 3D reconstruction of small scenes with a single web camera
US10628949B2 (en) Image processing with iterative closest point (ICP) technique
US9269003B2 (en) Diminished and mediated reality effects from reconstruction
JP6491517B2 (ja) 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置
US10853960B2 (en) Stereo matching method and apparatus
EP2751777A1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
Hua et al. Extended guided filtering for depth map upsampling
Lo et al. Joint trilateral filtering for depth map super-resolution
KR20150027291A (ko) 광류 추적 방법 및 장치
JP6240706B2 (ja) グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング
Huang et al. S3: Learnable sparse signal superdensity for guided depth estimation
Chen et al. A color-guided, region-adaptive and depth-selective unified framework for Kinect depth recovery
Al Ismaeil et al. Real-time non-rigid multi-frame depth video super-resolution
Deng et al. Texture edge-guided depth recovery for structured light-based depth sensor
Stentoumis et al. Implementing an adaptive approach for dense stereo-matching
Afzal et al. Full 3D reconstruction of non-rigidly deforming objects
KR101373982B1 (ko) 스테레오 비전에서 탐색 영역 예측을 통한 빠른 스테레오 정합 방법 및 장치와 이를 이용한 스테레오 비전 시스템
Kim et al. A high quality depth map upsampling method robust to misalignment of depth and color boundaries
Huang et al. A lightweight neural network based human depth recovery method
Min et al. Edge-preserving joint motion-disparity estimation in stereo image sequences
Raju et al. Motion detection and optical flow
Balure et al. Depth image super-resolution with local medians and bilateral filtering
US8867843B2 (en) Method of image denoising and method of generating motion vector data structure thereof