JP6489551B2 - 画像のシーケンスにおいて前景を背景から分離する方法およびシステム - Google Patents

画像のシーケンスにおいて前景を背景から分離する方法およびシステム Download PDF

Info

Publication number
JP6489551B2
JP6489551B2 JP2016014082A JP2016014082A JP6489551B2 JP 6489551 B2 JP6489551 B2 JP 6489551B2 JP 2016014082 A JP2016014082 A JP 2016014082A JP 2016014082 A JP2016014082 A JP 2016014082A JP 6489551 B2 JP6489551 B2 JP 6489551B2
Authority
JP
Japan
Prior art keywords
sequence
images
depth
group
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016014082A
Other languages
English (en)
Other versions
JP2016149125A5 (ja
JP2016149125A (ja
Inventor
ドン・ティアン
ハッサン・マンソール
アンソニー・ヴェトロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2016149125A publication Critical patent/JP2016149125A/ja
Publication of JP2016149125A5 publication Critical patent/JP2016149125A5/ja
Application granted granted Critical
Publication of JP6489551B2 publication Critical patent/JP6489551B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、包括的には、画像処理に関し、より詳細には、画像のシーケンスにおいて、前景コンテンツを背景コンテンツから分離することに関する。
前景/背景(FG/BG)分離は、前景コンテンツが背景コンテンツと異なる運動を有するビデオ監視、ヒューマンコンピューターインターラクション、およびパノラマ写真等の用途において用いることができる。例えば、FG/BG分離は、物体検出、物体分類、軌道分析、および通常でない運動の検出を改善し、画像のシーケンス(ビデオ)に表された事象の高レベルの理解をもたらすことができる。
ロバスト主成分分析(RPCA)がこの分離に用いられるとき、RPCAは、観察されたビデオ信号
Figure 0006489551
を、低ランク成分
Figure 0006489551
と、補完的なスパース成分
Figure 0006489551
とに分解することができることを前提としている。このため、FG/BG分離は、XおよびSの最適化問題として、下式(1)により定式化することができ、
Figure 0006489551
ここで、||・||は、行列の核ノルムであり、||・||は、行列をベクトル化したもののlノルムであり、λは、正則化パラメーターである。RPCA問題の解法は、完全なまたは部分的な特異値分解(SVD)を反復ごとに計算することを伴う。
複雑度を低減するために、低ランク行列フィッティング(LMaFit:Law−Rank Matrix Fitting)等のいくつかの技法が、低ランク因数を用いて説明されており、計算複雑度を制限するために、それらの因数にわたって最適化を行う。低ランク成分に関する行列の因数分解は、X=LRを表し、ここで、
Figure 0006489551
であり、
Figure 0006489551
であり、r≧rank(X)である。
因数分解に基づくRPCA法は、以下のような拡張ラグランジュ交互方向法(ADM)を用いて、下式(2)により定式化して解くことができ、
Figure 0006489551
ここで、||・||は、行列のフロベニウスノルムであり、λは、正則化パラメーターであり、Yは、ラグランジュ双対変数であり、μは、拡張ラグランジュパラメーターであり、E=B−LR−Sである。式(1)における核ノルム||X||は、
Figure 0006489551
という知見に基づいて、式(2)では、
Figure 0006489551
に置き換えられていることに留意されたい。ここで、X=LRであり、Tは、転置演算子である。
図3は、式(2)を解くのに用いられる反復のためのアルゴリズム1の擬似コードを示している。ステップ5におけるソフト閾値処理演算子は、
Figure 0006489551
であることに留意されたい。ここで、
Figure 0006489551
は、スパース成分に構造を課さない。
近年、構造化されたスパース性の技法が、RPCA法に適用されている。スパース技法は、過完備基底を学習して、データを効率的に表す。この技術では、スパース行列は、要素のほとんどがゼロである行列である。これとは対照的に、要素のほとんどが非ゼロである場合、行列は、密とみなされる。行列におけるゼロ要素(非ゼロの要素)の割合は、スパース性(密度)と呼ばれる。これは、スパースデータがランダムに位置していないことが多く、密集する傾向を有するという知見によって、主に動機付けられている。
例えば、動的グループスパース性(DGS)と呼ばれる1つの学習定式化は、局所的クラスタリングに有利であるスパース成分を選択する際に、プルーニング(pruning)ステップを用いる。もう1つの手法は、式(1)におけるlノルムを以下のように定義される混合型のl2、1ノルムに置き換えることによって、グループスパース性を実施し、
Figure 0006489551
ここで、Sは、グループgに対応する成分であり、g=1、・・・、sであり、wは、各グループに関連付けられた重みである。その結果得られる問題を定式化したものは、以下となる。
Figure 0006489551
PCAファミリーの最新のFG/BG分離手法は、静止カメラを用いて取得された画像シーケンスおよび大部分が静的な背景にかなり効果的である。しかしながら、分離性能は、移動するカメラを用いた画像シーケンスの場合に低下し、その結果、運動ジッターが制限されていても、背景に仮現運動が生じる場合がある。そこで、RPCAに基づくFG/BG分離方法を適用する前に、大域的運動補償(MC)によって、画像が位置合わせされる。
移動するカメラのシーケンスでは、背景内の運動は、もはや低ランク仮定を満たさない。したがって、RPCAを適用するために、RPCAを用いる前の画像シーケンスに対する事前処理ステップにおいて、ホモグラフィーモデルを用いた大域的運動補償を用いることができる。
大域的運動補償を実行する1つの手法は、画像シーケンスのホモグラフィーモデルを計算することである。8パラメーターホモグラフィーモデルh=[h、h、・・・、hでは、現在の画像内の対応するピクセルX=(x、yと、その基準画像内のピクセルX=(x、yとが、以下の式に従って関係付けられる。
Figure 0006489551
現在の画像内のピクセルロケーション(x、y)を基準画像内のそれに対応するロケーション(x、y)に関連付ける局所的運動情報が与えられると、最小二乗(LS)フィッティング:b=Ahによってホモグラフィーモデルhを推定することができる。ここで、bは、ベクトルXをスタックすることによって構成されるベクトルであり、各Xに対応するAの行は、以下のように指定される。
Figure 0006489551
対応する奥行きマップを有する画像シーケンスは、特に、マイクロソフト社のKinect(商標)のような奥行きセンサーの急速な成長および立体画像からの奥行き推定アルゴリズムの進歩に伴って、今や一般的である。奥行きデータおよびカラーデータを併せて用いることによって、優れた分離結果が生成される。また、奥行き強調は、照明の変化、陰影、反射、およびカモフラージュを、より良好に取り扱うことができる。
本発明の実施の形態は、画像のシーケンスを処理する方法を提供する。本方法は、背景差分問題を解くのに、奥行きに基づくグループスパース性を用いた新規なPCA枠組みを有する代数分解を用いる。
本方法は、画像のシーケンス、例えば、ビデオ内のグループオブピクチャ(GOP)を、低ランク成分とグループスパース前景成分との和に分解する。低ランク成分は、シーケンスにおける背景を表し、グループスパース成分は、シーケンスにおける前景の移動する物体を表す。
移動するカメラを用いてシーンから取得されたビデオの場合、まず、運動ベクトルがビデオから抽出される。例えば、このビデオは、運動ベクトルを有するビットストリームとして符号化されている。次に、関連付けられた奥行きマップが、運動ベクトルと組み合わされて、ビデオ内の画像ごとの大域的運動を照合する14個のパラメーターを有するパラメトリック透視投影モデルが計算される。
本発明の実施の形態による画像のシーケンスを処理する方法の流れ図である。 本発明の実施の形態に従って画像を位置合わせおよびワープする流れ図である。 従来技術の因数分解型RPCAアルゴリズムのブロック図である。 本発明の実施の形態による奥行き重み付きグループ単位アルゴリズムのブロック図である。
RPCA問題の定式化では、ビデオ背景は、低ランク成分Xを用いてモデル化することができる小さな変化を有するものと仮定される。Sによって表される、例えば、移動する物体等の前景コンテンツは、スパースであり、背景とは異なるタイプの運動を有すると仮定される。
従来技術のFG/BG分離アルゴリズムは、一般に、分離の際に前景物体の構造を組み込まない。
本実施の形態は、例えば、移動するカメラによって取得されたシーケンスに対する大域的運動補償における位置合わせ不良を原因とする、背景におけるより大きな変化を克服することができる構造化されたグループスパース性に基づくPCA法を提供する。
奥行き重み付きグループ単位PCA
実際の画像シーケンスでは、前景物体(スパース成分)は、均一に分布しているのではなく、空間的および時間的の双方において密集する傾向を有する。この知見が、RPCA手法へのグループスパース性の導入につながり、スパース成分を、より構造化されたグループに移すことになった。
本発明者らの方法は、ビデオの奥行きマップを用いて、奥行き重み付きグループ単位PCA(DG−PCA)法におけるグループ構造を定義する。
構造化されたスパース性を取り扱うために、因数分解されたRPCA問題におけるlノルムは、式(5)に定義された混合型のl2、1ノルムに置き換えられる。このl2、1ノルムは、奥行きマップにおける奥行きの単調増加関数に基づいている。その結果得られる問題は、以下のものとなる。
Figure 0006489551
図1は、画像のシーケンス(ビデオ)において前景コンテンツを背景コンテンツから分離する方法105を示している。この方法は、本発明の実施の形態による奥行き重み付きグループ単位PCA(DG−PCA)110を用いる。カメラ150は、実世界のシーン151のビデオVを取得する。カメラは、静止させておくこともできるし、移動させることもできる(155)。カメラは、カラーセンサーと、ビデオと同期した奥行きマップDを取得する奥行きセンサーとを用いてカラー画像を取得するKinect(登録商標)とすることができる。
ビデオ内の背景は、事前処理ステップにおいて位置合わせすることができる(160)(図2参照)。背景が位置合わせされたビデオB=A(Y) 101および奥行きに基づくピクセルグループG 102が、方法105に入力される。DG−PCA110は、主として背景コンテンツ111に対応する低ランク成分X 111と、主として前景コンテンツ121に対応するスパース成分S 121とを出力する。出力ステップ140は、所定の閾値よりも大きな値を有するS内のピクセルを前景141としてマーク付けし、それ以外のピクセルは、背景142としてマーク付けされる。
図4は、本発明者らのDG−PCA手法の1つの好ましい実施の形態を記述したアルゴリズム2の擬似コードのブロック図を示している。このアルゴリズムへの入力は、背景が位置合わせされた画像シーケンスB 101および対応する奥行きグループG 102を含む。
奥行きマップDを用いてピクセルグループGを定義するために、演算子G(D)は、以下の手順を用いて奥行きマップをs個のグループ102にセグメンテーションする。本発明の1つの実施の形態では、奥行きレベルが0〜255の範囲を有すると仮定すると、奥行きdを有するピクセルは、グループ
Figure 0006489551
に分類される。
その結果、B内のピクセルは、g∈{1、・・・、s}を有するBグループにクラスタリングすることができる。各Bは、セグメントg内にマーク付けされたBからの要素からなる。同様に、L、R、およびラグランジュ乗数Yもグループ化される。
次に、アルゴリズム2のステップ3および4が、X=LRを用いて低ランク成分(背景)を求める。
次に、アルゴリズム2のステップ5において、演算子Sλ/μ、gは、下式(10)によるグループ単位ソフト閾値処理であり、
Figure 0006489551
ここで、
Figure 0006489551
であり、εは、0による除算を回避するための小さな定数であり、wは、式(5)におけるグループ重みを定義する。前景物体は、背景物体よりもカメラに近い、すなわち、背景物体よりも大きな奥行きを有する確率がより高いので、以下の式を用いて、グループ重みが設定され、
Figure 0006489551
ここで、cは、ある定数であり、dは、グループg内のピクセルの平均奥行きである。wは、カメラに最も近い物体、すなわち、d=255の場合には、1に等しく、カメラに最も遠い物体、すなわち、d=0の場合にはcに等しい。cの選択によって、前景ピクセルをそれらの対応する奥行きに基づいて選択することを可能にする閾値が制御される。Sがグループgごとに計算された後、全てのSを総計することによって、スパース成分Sが取得される。
上記ステップは、アルゴリズムが収束するまで、または最大反復回数に達するまで反復される。
S内で大きな値を有するピクセル、例えば、所定の閾値よりも大きな値を有するピクセルは、前景ピクセル141として出力される。
本方法は、前景コンテンツ、例えば、物体がカメラのより近くにある場合に、グループ構造に有利である。空間的に接続されて、一定の奥行きを有するピクセルのセット、または一定の奥行き勾配を有する接続されたピクセルのセットとしてグループを定義することも、本発明者らの枠組みの範囲内で可能である。
式(9)における核ノルムに等価な項目
Figure 0006489551
が、アルゴリズム2を数値的に安定にすることについて言及することは、意味がある。核ノルムがない場合、アルゴリズム2のステップ3における
Figure 0006489551
は、
Figure 0006489551
になる。これは、行列
Figure 0006489551
が特異であるとき、例えば、画像が、B、L、R≒0である比較的暗いときに不安定である。
奥行き強調ホモグラフィーモデル
実際には、ピクセルロケーションを関連付ける局所的運動情報は、多くの場合、不正確である。この場合、式(7)における完全な8パラメーターモデルは、運動情報内の誤差の影響を受け易い。したがって、ホモグラフィーモデルにおいてパラメーターの数を削減したものが好ましく、このため、シーン151内の運動のタイプが制限される。
例えば、2パラメーターモデル、4パラメーターモデル、および6パラメーターモデルは、hにおけるいくつかの係数を0に設定することによって、それぞれ並進のみのモデル、幾何モデル、およびアフィンモデルに対応する。本発明者らは、4パラメーターの幾何モデルを本発明者らの出発点として選択する。ここで、h=[h、h、h、0、0、h、0、0]である。
しかしながら、ビデオシーケンス内の運動は、一般に平面的ではない。したがって、従来のホモグラフィーモデルを慎重に選択した後であっても、大きな運動推定誤差を有する可能性があり、これは、その後のPCAと同様の手順における検出率を劇的に低下させる。したがって、本発明者らは、奥行き強調ホモグラフィーモデルを用いる。具体的には、奥行きに関係した6つの新たなパラメーターが追加され、h=[h、・・・、h、h、・・・、h14が得られる。zおよびzが、対応するピクセルの奥行きを意味するものとすると、現在の画像内の対応するピクセルX=(x、y、zと、その基準画像内のピクセルX=(x、y、zとは、本発明者らの奥行き強調ホモグラフィーモデルによって、下式(12)により関係付けられる。
Figure 0006489551
式(12)において、奥行き値0は、物体がカメラから遠いこと、例えば、∞にあることを意味する。奥行きが大きいほど、物体がカメラのより近くにあることを意味する。ビデオシーケンスをより簡略にするために、ある特定の簡略化が可能である。例えば、z=zである場合、運動は、同じ奥行き平面内にあるように制限される。
奥行き強調ホモグラフィーモデルhが、式(12)のように定義される場合、この問題は、最小二乗フィッティングを用いて解くことができる。現在の画像内のピクセルロケーション(x、y)と、基準画像内の対応するロケーション(x、y)とを関連付ける局所的運動情報が与えられると、ホモグラフィーモデルhは、最小二乗(LS)フィッティング:b=Ahを解くことによって推定することができる。ここで、bは、ベクトルXをスタックすることによって構成されるベクトルであり、各Xに対応するAの行は、以下のように指定される。
Figure 0006489551
図2は、上述した奥行き強調ホモグラフィーモデルを用いてビデオVを位置合わせするステップ160を示している。入力は、運動ベクトルMVx、MVy、および奥行きマップ201を含む。背景からのものである可能性がより高いMVが識別される(210)。選択されたMVおよび入力された奥行きを用いて、ホモグラフィーモデルのパラメーターhが、例えば、最小二乗フィッティングを介して求められる(220)。位置合わせされていない画像のグループが入力202として得られ、推定されたホモグラフィーモデルを用いてワープする(230)ことによって、位置合わせされる。最後に、背景が位置合わせされた画像シーケンス101が、さらなる処理105のために出力される。

Claims (17)

  1. 画像のシーケンスにおいて前景を背景から分離する方法であって、
    カメラによって前記画像のシーケンスおよびシーンの奥行きマップを取得するステップと、
    前記奥行きマップに基づいてピクセルのスパース性グループを求めるステップと、
    前記画像のシーケンスにおける仮現運動および前記スパース性グループに従って、前記画像のシーケンスをスパース前景成分と低ランク背景成分とに分解するステップと
    を含み、
    前記スパース性グループ内の前記ピクセルは、空間的に接続され、一定の奥行き勾配を有し、
    前記ステップは、前記画像のシーケンスおよび前記奥行きマップを記憶するメモリに接続されたプロセッサにおいて実行される、方法。
  2. 前記画像の背景は、位置合わせされていない、請求項1に記載の方法。
  3. 前記画像のシーケンスから取得された運動ベクトルと、前記奥行きマップから取得された奥行きとを用いて前記背景を識別するステップと、
    前記背景のホモグラフィックベクトルを求めるステップと、
    前記ホモグラフィックベクトルを用いて前記画像のシーケンスをワープするステップと
    をさらに含む、請求項2に記載の方法。
  4. 最小二乗フィッティングを用いてホモグラフィーモデルの前記ホモグラフィックベクトルを求めるステップ
    をさらに含む、請求項3に記載の方法。
  5. 前記ホモグラフィックベクトルは、奥行きが強調され、前記方法は、
    前記奥行きマップを組み込むことによって前記ホモグラフィーモデルを3次元モデルに拡張するステップ
    をさらに含む、請求項4に記載の方法。
  6. 前記カメラは、静止している、請求項1に記載の方法。
  7. 前記カメラは、移動している、請求項2に記載の方法。
  8. 前記スパース前景成分を閾値処理するステップ
    をさらに含む、請求項1に記載の方法。
  9. 前記奥行きマップ内のピクセルを用いて前記画像内のピクセルをセグメンテーションするステップ
    をさらに含む、請求項1に記載の方法。
  10. 前記スパース性グループ内の前記ピクセルは、空間的に接続され、一定の奥行きを有する、請求項1に記載の方法。
  11. 前記画像のシーケンスは、グループオブピクチャである、請求項1に記載の方法。
  12. 前記分解は、l2、1ノルムを用いる、請求項1に記載の方法。
  13. 前記l2、1ノルムにおける重みは、前記奥行きマップにおける奥行きの単調増加関数に基づいている、請求項12に記載の方法。
  14. 前記カメラは、カラーセンサーおよび奥行きセンサーを備える、請求項1に記載の方法。
  15. 前記ピクセルのスパース性グループは、前記カメラまでの異なる距離における前記シーン内の物体に対応する、請求項1に記載の方法。
  16. 前記奥行きマップを運動ベクトルと組み合わせて、前記画像のシーケンス内の画像ごとに大域的運動を照合するパラメトリック透視投影モデルを求めるステップ
    をさらに含む、請求項3に記載の方法。
  17. 画像のシーケンスにおいて前景を背景から分離するシステムであって、
    前記画像のシーケンスおよびシーンの奥行きマップを取得するカメラと、
    前記画像のシーケンスおよび奥行きマップを記憶するメモリと、
    前記奥行きマップに基づいてピクセルのスパース性グループを求め、前記画像のシーケンスにおける仮現運動および前記スパース性グループに従って、前記画像のシーケンスをスパース前景成分と低ランク背景成分とに分解する、前記メモリに接続されたプロセッサであって、前記スパース性グループは、奥行きに基づいており、前記スパース性グループ内の前記ピクセルは、空間的に接続され、一定の奥行き勾配を有する、プロセッサと
    を備える、システム。
JP2016014082A 2015-02-12 2016-01-28 画像のシーケンスにおいて前景を背景から分離する方法およびシステム Active JP6489551B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/620,324 US9679387B2 (en) 2015-02-12 2015-02-12 Depth-weighted group-wise principal component analysis for video foreground/background separation
US14/620,324 2015-02-12

Publications (3)

Publication Number Publication Date
JP2016149125A JP2016149125A (ja) 2016-08-18
JP2016149125A5 JP2016149125A5 (ja) 2018-11-15
JP6489551B2 true JP6489551B2 (ja) 2019-03-27

Family

ID=56621250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016014082A Active JP6489551B2 (ja) 2015-02-12 2016-01-28 画像のシーケンスにおいて前景を背景から分離する方法およびシステム

Country Status (2)

Country Link
US (1) US9679387B2 (ja)
JP (1) JP6489551B2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106447668B (zh) * 2016-08-25 2019-06-25 南京理工大学 红外场景下基于随机取样和稀疏矩阵恢复的小目标检测方法
CN106384356A (zh) * 2016-09-22 2017-02-08 北京小米移动软件有限公司 分离视频序列的前景与背景的方法及装置
CN106709904A (zh) * 2016-11-21 2017-05-24 天津大学 一种基于主动视觉的高值目标细微变化检测方法
US10003787B1 (en) * 2016-12-21 2018-06-19 Canon Kabushiki Kaisha Method, system and apparatus for refining a depth map
US10445861B2 (en) * 2017-02-14 2019-10-15 Qualcomm Incorporated Refinement of structured light depth maps using RGB color data
CN106886797B (zh) * 2017-02-24 2019-11-19 电子科技大学 一种对复合材料脱粘缺陷的高分辨率检测与识别方法
US10096122B1 (en) 2017-03-28 2018-10-09 Amazon Technologies, Inc. Segmentation of object image data from background image data
CN108985161B (zh) * 2018-06-08 2021-08-03 广东工业大学 一种基于拉普拉斯正则化的低秩稀疏表征图像特征学习方法
US10666954B2 (en) 2018-06-19 2020-05-26 International Business Machines Corporation Audio and video multimedia modification and presentation
CN109359525B (zh) * 2018-09-07 2021-01-29 西安电子科技大学 基于稀疏低秩的判别谱聚类的极化sar图像分类方法
CN109460788B (zh) * 2018-10-29 2020-12-08 西安电子科技大学 基于低秩-稀疏信息组合网络的高光谱图像分类方法
JP6593785B1 (ja) * 2019-01-04 2019-10-23 公立大学法人北九州市立大学 口腔内カメラ用光学アタッチメント及び口腔内画像撮像システム
RU2737343C2 (ru) * 2019-01-10 2020-11-27 Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж) Министерства обороны Российской Федерации Способ определения характера движения объекта на кадрах видеопоследовательности
CN111429475B (zh) * 2020-03-27 2023-04-18 南京信息职业技术学院 一种基于鲁棒低秩稀疏分解的视频前背景分离方法
US11657529B2 (en) * 2020-10-12 2023-05-23 Black Sesame Technologies Inc. Multiple camera system with flash for depth map generation
CN117124587A (zh) * 2023-01-12 2023-11-28 珠海视熙科技有限公司 基于深度图像的背景建模方法及装置、介质、计算设备

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5500904A (en) * 1992-04-22 1996-03-19 Texas Instruments Incorporated System and method for indicating a change between images
US6956573B1 (en) * 1996-11-15 2005-10-18 Sarnoff Corporation Method and apparatus for efficiently representing storing and accessing video information
US6081278A (en) * 1998-06-11 2000-06-27 Chen; Shenchang Eric Animation object having multiple resolution format
US6873723B1 (en) * 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
US6611268B1 (en) * 2000-05-30 2003-08-26 Microsoft Corporation System and process for generating 3D video textures using video-based rendering techniques
US6873724B2 (en) * 2001-08-08 2005-03-29 Mitsubishi Electric Research Laboratories, Inc. Rendering deformable 3D models recovered from videos
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US7024054B2 (en) * 2002-09-27 2006-04-04 Eastman Kodak Company Method and system for generating a foreground mask for a composite image
US8073196B2 (en) * 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
US8131012B2 (en) * 2007-02-08 2012-03-06 Behavioral Recognition Systems, Inc. Behavioral recognition system
US8248410B2 (en) * 2008-12-09 2012-08-21 Seiko Epson Corporation Synthesizing detailed depth maps from images
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
US9445119B2 (en) * 2009-10-29 2016-09-13 Vestel Elektronik Sanayi Ve Ticaret A.S. Method and device for processing a video sequence
US8515134B2 (en) * 2009-12-11 2013-08-20 Nxp B.V. System and method for motion estimation using image depth information
IL208910A0 (en) * 2010-10-24 2011-02-28 Rafael Advanced Defense Sys Tracking and identification of a moving object from a moving sensor using a 3d model
US8509545B2 (en) * 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US9584806B2 (en) * 2012-04-19 2017-02-28 Futurewei Technologies, Inc. Using depth information to assist motion compensation-based video coding
US20130335528A1 (en) * 2012-05-15 2013-12-19 Board Of Regents Of The University Of Texas System Imaging device capable of producing three dimensional representations and methods of use
US9659235B2 (en) * 2012-06-20 2017-05-23 Microsoft Technology Licensing, Llc Low-dimensional structure from high-dimensional data
WO2014020364A1 (en) * 2012-07-30 2014-02-06 Zinemath Zrt. System and method for generating a dynamic three-dimensional model
EP2706503A3 (en) * 2012-09-11 2017-08-30 Thomson Licensing Method and apparatus for bilayer image segmentation
US9098911B2 (en) * 2012-11-01 2015-08-04 Google Inc. Depth map generation from a monoscopic image based on combined depth cues
JP6114572B2 (ja) * 2013-02-26 2017-04-12 ヤマハ発動機株式会社 対象物領域推定方法、対象物領域推定装置およびそれを備えた対象物検出装置、車両。
KR101431373B1 (ko) * 2013-02-26 2014-08-18 경북대학교 산학협력단 스테레오 정합을 이용한 차량의 움직임 측정 장치
EP2806401A1 (en) * 2013-05-23 2014-11-26 Thomson Licensing Method and device for processing a picture
US9418318B2 (en) * 2013-08-30 2016-08-16 Siemens Aktiengesellschaft Robust subspace recovery via dual sparsity pursuit
US9939253B2 (en) * 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US9595112B2 (en) * 2014-05-27 2017-03-14 Stc.Unm Incremental principal component pursuit for video background modeling
US9674406B2 (en) * 2014-08-15 2017-06-06 University Of Washington Using dynamic mode decomposition for real-time background/foreground separation in video

Also Published As

Publication number Publication date
US9679387B2 (en) 2017-06-13
JP2016149125A (ja) 2016-08-18
US20160239980A1 (en) 2016-08-18

Similar Documents

Publication Publication Date Title
JP6489551B2 (ja) 画像のシーケンスにおいて前景を背景から分離する方法およびシステム
JP6438403B2 (ja) 結合された深度キューに基づく平面視画像からの深度マップの生成
RU2426172C1 (ru) Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине
JP6395555B2 (ja) シーンから取得されたビデオを処理する方法
KR102483641B1 (ko) 양안 시차 영상의 처리 방법 및 장치
CN110493488B (zh) 视频稳像方法、视频稳像装置和计算机可读存储介质
Guizilini et al. Full surround monodepth from multiple cameras
US20150138322A1 (en) Image processing device and its control method, imaging apparatus, and storage medium
EP3769265A1 (en) Localisation, mapping and network training
CA2729106A1 (en) System and method for depth extraction of images with motion compensation
US11030478B1 (en) System and method for correspondence map determination
JP2018101408A (ja) 画像処理のためのシステムおよび方法
JP6611681B2 (ja) 画像をセグメント化する方法およびシステム
CN109661815B (zh) 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
CN114556422A (zh) 来自双相机与双像素的联合深度预测
Eichhardt et al. Affine correspondences between central cameras for rapid relative pose estimation
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
US10346949B1 (en) Image registration
JP6429466B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
Prasad et al. Epipolar geometry based learning of multi-view depth and ego-motion from monocular sequences
CN113592706B (zh) 调整单应性矩阵参数的方法和装置
Da Silveira et al. Indoor depth estimation from single spherical images
CN117523100A (zh) 基于神经网络与多视图一致性的三维场景重建方法和装置
CN109741245B (zh) 平面信息的插入方法及装置
Haque et al. Robust feature-preserving denoising of 3D point clouds

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181004

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181004

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190219

R150 Certificate of patent or registration of utility model

Ref document number: 6489551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250