JP2016149125A - 画像のシーケンスにおいて前景を背景から分離する方法およびシステム - Google Patents

画像のシーケンスにおいて前景を背景から分離する方法およびシステム Download PDF

Info

Publication number
JP2016149125A
JP2016149125A JP2016014082A JP2016014082A JP2016149125A JP 2016149125 A JP2016149125 A JP 2016149125A JP 2016014082 A JP2016014082 A JP 2016014082A JP 2016014082 A JP2016014082 A JP 2016014082A JP 2016149125 A JP2016149125 A JP 2016149125A
Authority
JP
Japan
Prior art keywords
sequence
images
depth
group
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016014082A
Other languages
English (en)
Other versions
JP6489551B2 (ja
JP2016149125A5 (ja
Inventor
ドン・ティアン
Dong Tian
ハッサン・マンソール
Mansour Hassan
アンソニー・ヴェトロ
Vetro Anthony
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2016149125A publication Critical patent/JP2016149125A/ja
Publication of JP2016149125A5 publication Critical patent/JP2016149125A5/ja
Application granted granted Critical
Publication of JP6489551B2 publication Critical patent/JP6489551B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像のシーケンスにおいて前景を背景から分離する方法およびシステムを提供する。
【解決手段】カメラによって画像のシーケンスおよびシーンの奥行きマップを最初に取得することによって、画像のシーケンスにおいて前景を背景から分離する。ピクセルのグループが、奥行きマップに基づいて求められる。次に、画像のシーケンスは、当該画像のシーケンスにおける仮現運動および上記グループに従って、スパース前景成分と低ランク背景成分とに分解される。
【選択図】図1

Description

本発明は、包括的には、画像処理に関し、より詳細には、画像のシーケンスにおいて、前景コンテンツを背景コンテンツから分離することに関する。
前景/背景(FG/BG)分離は、前景コンテンツが背景コンテンツと異なる運動を有するビデオ監視、ヒューマンコンピューターインターラクション、およびパノラマ写真等の用途において用いることができる。例えば、FG/BG分離は、物体検出、物体分類、軌道分析、および通常でない運動の検出を改善し、画像のシーケンス(ビデオ)に表された事象の高レベルの理解をもたらすことができる。
ロバスト主成分分析(RPCA)がこの分離に用いられるとき、RPCAは、観察されたビデオ信号
Figure 2016149125
を、低ランク成分
Figure 2016149125
と、補完的なスパース成分
Figure 2016149125
とに分解することができることを前提としている。このため、FG/BG分離は、XおよびSの最適化問題として、下式(1)により定式化することができ、
Figure 2016149125
ここで、||・||は、行列の核ノルムであり、||・||は、行列をベクトル化したもののlノルムであり、λは、正則化パラメーターである。RPCA問題の解法は、完全なまたは部分的な特異値分解(SVD)を反復ごとに計算することを伴う。
複雑度を低減するために、低ランク行列フィッティング(LMaFit:Law−Rank Matrix Fitting)等のいくつかの技法が、低ランク因数を用いて説明されており、計算複雑度を制限するために、それらの因数にわたって最適化を行う。低ランク成分に関する行列の因数分解は、X=LRを表し、ここで、
Figure 2016149125
であり、
Figure 2016149125
であり、r≧rank(X)である。
因数分解に基づくRPCA法は、以下のような拡張ラグランジュ交互方向法(ADM)を用いて、下式(2)により定式化して解くことができ、
Figure 2016149125
ここで、||・||は、行列のフロベニウスノルムであり、λは、正則化パラメーターであり、Yは、ラグランジュ双対変数であり、μは、拡張ラグランジュパラメーターであり、E=B−LR−Sである。式(1)における核ノルム||X||は、
Figure 2016149125
という知見に基づいて、式(2)では、
Figure 2016149125
に置き換えられていることに留意されたい。ここで、X=LRであり、Tは、転置演算子である。
図3は、式(2)を解くのに用いられる反復のためのアルゴリズム1の擬似コードを示している。ステップ5におけるソフト閾値処理演算子は、
Figure 2016149125
であることに留意されたい。ここで、
Figure 2016149125
は、スパース成分に構造を課さない。
近年、構造化されたスパース性の技法が、RPCA法に適用されている。スパース技法は、過完備基底を学習して、データを効率的に表す。この技術では、スパース行列は、要素のほとんどがゼロである行列である。これとは対照的に、要素のほとんどが非ゼロである場合、行列は、密とみなされる。行列におけるゼロ要素(非ゼロの要素)の割合は、スパース性(密度)と呼ばれる。これは、スパースデータがランダムに位置していないことが多く、密集する傾向を有するという知見によって、主に動機付けられている。
例えば、動的グループスパース性(DGS)と呼ばれる1つの学習定式化は、局所的クラスタリングに有利であるスパース成分を選択する際に、プルーニング(pruning)ステップを用いる。もう1つの手法は、式(1)におけるlノルムを以下のように定義される混合型のl2、1ノルムに置き換えることによって、グループスパース性を実施し、
Figure 2016149125
ここで、Sは、グループgに対応する成分であり、g=1、・・・、sであり、wは、各グループに関連付けられた重みである。その結果得られる問題を定式化したものは、以下となる。
Figure 2016149125
PCAファミリーの最新のFG/BG分離手法は、静止カメラを用いて取得された画像シーケンスおよび大部分が静的な背景にかなり効果的である。しかしながら、分離性能は、移動するカメラを用いた画像シーケンスの場合に低下し、その結果、運動ジッターが制限されていても、背景に仮現運動が生じる場合がある。そこで、RPCAに基づくFG/BG分離方法を適用する前に、大域的運動補償(MC)によって、画像が位置合わせされる。
移動するカメラのシーケンスでは、背景内の運動は、もはや低ランク仮定を満たさない。したがって、RPCAを適用するために、RPCAを用いる前の画像シーケンスに対する事前処理ステップにおいて、ホモグラフィーモデルを用いた大域的運動補償を用いることができる。
大域的運動補償を実行する1つの手法は、画像シーケンスのホモグラフィーモデルを計算することである。8パラメーターホモグラフィーモデルh=[h、h、・・・、hでは、現在の画像内の対応するピクセルX=(x、yと、その基準画像内のピクセルX=(x、yとが、以下の式に従って関係付けられる。
Figure 2016149125
現在の画像内のピクセルロケーション(x、y)を基準画像内のそれに対応するロケーション(x、y)に関連付ける局所的運動情報が与えられると、最小二乗(LS)フィッティング:b=Ahによってホモグラフィーモデルhを推定することができる。ここで、bは、ベクトルXをスタックすることによって構成されるベクトルであり、各Xに対応するAの行は、以下のように指定される。
Figure 2016149125
対応する奥行きマップを有する画像シーケンスは、特に、マイクロソフト社のKinect(商標)のような奥行きセンサーの急速な成長および立体画像からの奥行き推定アルゴリズムの進歩に伴って、今や一般的である。奥行きデータおよびカラーデータを併せて用いることによって、優れた分離結果が生成される。また、奥行き強調は、照明の変化、陰影、反射、およびカモフラージュを、より良好に取り扱うことができる。
本発明の実施の形態は、画像のシーケンスを処理する方法を提供する。本方法は、背景差分問題を解くのに、奥行きに基づくグループスパース性を用いた新規なPCA枠組みを有する代数分解を用いる。
本方法は、画像のシーケンス、例えば、ビデオ内のグループオブピクチャ(GOP)を、低ランク成分とグループスパース前景成分との和に分解する。低ランク成分は、シーケンスにおける背景を表し、グループスパース成分は、シーケンスにおける前景の移動する物体を表す。
移動するカメラを用いてシーンから取得されたビデオの場合、まず、運動ベクトルがビデオから抽出される。例えば、このビデオは、運動ベクトルを有するビットストリームとして符号化されている。次に、関連付けられた奥行きマップが、運動ベクトルと組み合わされて、ビデオ内の画像ごとの大域的運動を照合する14個のパラメーターを有するパラメトリック透視投影モデルが計算される。
本発明の実施の形態による画像のシーケンスを処理する方法の流れ図である。 本発明の実施の形態に従って画像を位置合わせおよびワープする流れ図である。 従来技術の因数分解型RPCAアルゴリズムのブロック図である。 本発明の実施の形態による奥行き重み付きグループ単位アルゴリズムのブロック図である。
RPCA問題の定式化では、ビデオ背景は、低ランク成分Xを用いてモデル化することができる小さな変化を有するものと仮定される。Sによって表される、例えば、移動する物体等の前景コンテンツは、スパースであり、背景とは異なるタイプの運動を有すると仮定される。
従来技術のFG/BG分離アルゴリズムは、一般に、分離の際に前景物体の構造を組み込まない。
本実施の形態は、例えば、移動するカメラによって取得されたシーケンスに対する大域的運動補償における位置合わせ不良を原因とする、背景におけるより大きな変化を克服することができる構造化されたグループスパース性に基づくPCA法を提供する。
奥行き重み付きグループ単位PCA
実際の画像シーケンスでは、前景物体(スパース成分)は、均一に分布しているのではなく、空間的および時間的の双方において密集する傾向を有する。この知見が、RPCA手法へのグループスパース性の導入につながり、スパース成分を、より構造化されたグループに移すことになった。
本発明者らの方法は、ビデオの奥行きマップを用いて、奥行き重み付きグループ単位PCA(DG−PCA)法におけるグループ構造を定義する。
構造化されたスパース性を取り扱うために、因数分解されたRPCA問題におけるlノルムは、式(5)に定義された混合型のl2、1ノルムに置き換えられる。このl2、1ノルムは、奥行きマップにおける奥行きの単調増加関数に基づいている。その結果得られる問題は、以下のものとなる。
Figure 2016149125
図1は、画像のシーケンス(ビデオ)において前景コンテンツを背景コンテンツから分離する方法105を示している。この方法は、本発明の実施の形態による奥行き重み付きグループ単位PCA(DG−PCA)110を用いる。カメラ150は、実世界のシーン151のビデオVを取得する。カメラは、静止させておくこともできるし、移動させることもできる(155)。カメラは、カラーセンサーと、ビデオと同期した奥行きマップDを取得する奥行きセンサーとを用いてカラー画像を取得するKinect(登録商標)とすることができる。
ビデオ内の背景は、事前処理ステップにおいて位置合わせすることができる(160)(図2参照)。背景が位置合わせされたビデオB=A(Y) 101および奥行きに基づくピクセルグループG 102が、方法105に入力される。DG−PCA110は、主として背景コンテンツ111に対応する低ランク成分X 111と、主として前景コンテンツ121に対応するスパース成分S 121とを出力する。出力ステップ140は、所定の閾値よりも大きな値を有するS内のピクセルを前景141としてマーク付けし、それ以外のピクセルは、背景142としてマーク付けされる。
図4は、本発明者らのDG−PCA手法の1つの好ましい実施の形態を記述したアルゴリズム2の擬似コードのブロック図を示している。このアルゴリズムへの入力は、背景が位置合わせされた画像シーケンスB 101および対応する奥行きグループG 102を含む。
奥行きマップDを用いてピクセルグループGを定義するために、演算子G(D)は、以下の手順を用いて奥行きマップをs個のグループ102にセグメンテーションする。本発明の1つの実施の形態では、奥行きレベルが0〜255の範囲を有すると仮定すると、奥行きdを有するピクセルは、グループ
Figure 2016149125
に分類される。
その結果、B内のピクセルは、g∈{1、・・・、s}を有するBグループにクラスタリングすることができる。各Bは、セグメントg内にマーク付けされたBからの要素からなる。同様に、L、R、およびラグランジュ乗数Yもグループ化される。
次に、アルゴリズム2のステップ3および4が、X=LRを用いて低ランク成分(背景)を求める。
次に、アルゴリズム2のステップ5において、演算子Sλ/μ、gは、下式(10)によるグループ単位ソフト閾値処理であり、
Figure 2016149125
ここで、
Figure 2016149125
であり、εは、0による除算を回避するための小さな定数であり、wは、式(5)におけるグループ重みを定義する。前景物体は、背景物体よりもカメラに近い、すなわち、背景物体よりも大きな奥行きを有する確率がより高いので、以下の式を用いて、グループ重みが設定され、
Figure 2016149125
ここで、cは、ある定数であり、dは、グループg内のピクセルの平均奥行きである。wは、カメラに最も近い物体、すなわち、d=255の場合には、1に等しく、カメラに最も遠い物体、すなわち、d=0の場合にはcに等しい。cの選択によって、前景ピクセルをそれらの対応する奥行きに基づいて選択することを可能にする閾値が制御される。Sがグループgごとに計算された後、全てのSを総計することによって、スパース成分Sが取得される。
上記ステップは、アルゴリズムが収束するまで、または最大反復回数に達するまで反復される。
S内で大きな値を有するピクセル、例えば、所定の閾値よりも大きな値を有するピクセルは、前景ピクセル141として出力される。
本方法は、前景コンテンツ、例えば、物体がカメラのより近くにある場合に、グループ構造に有利である。空間的に接続されて、一定の奥行きを有するピクセルのセット、または一定の奥行き勾配を有する接続されたピクセルのセットとしてグループを定義することも、本発明者らの枠組みの範囲内で可能である。
式(9)における核ノルムに等価な項目
Figure 2016149125
が、アルゴリズム2を数値的に安定にすることについて言及することは、意味がある。核ノルムがない場合、アルゴリズム2のステップ3における
Figure 2016149125
は、
Figure 2016149125
になる。これは、行列
Figure 2016149125
が特異であるとき、例えば、画像が、B、L、R≒0である比較的暗いときに不安定である。
奥行き強調ホモグラフィーモデル
実際には、ピクセルロケーションを関連付ける局所的運動情報は、多くの場合、不正確である。この場合、式(7)における完全な8パラメーターモデルは、運動情報内の誤差の影響を受け易い。したがって、ホモグラフィーモデルにおいてパラメーターの数を削減したものが好ましく、このため、シーン151内の運動のタイプが制限される。
例えば、2パラメーターモデル、4パラメーターモデル、および6パラメーターモデルは、hにおけるいくつかの係数を0に設定することによって、それぞれ並進のみのモデル、幾何モデル、およびアフィンモデルに対応する。本発明者らは、4パラメーターの幾何モデルを本発明者らの出発点として選択する。ここで、h=[h、h、h、0、0、h、0、0]である。
しかしながら、ビデオシーケンス内の運動は、一般に平面的ではない。したがって、従来のホモグラフィーモデルを慎重に選択した後であっても、大きな運動推定誤差を有する可能性があり、これは、その後のPCAと同様の手順における検出率を劇的に低下させる。したがって、本発明者らは、奥行き強調ホモグラフィーモデルを用いる。具体的には、奥行きに関係した6つの新たなパラメーターが追加され、h=[h、・・・、h、h、・・・、h14が得られる。zおよびzが、対応するピクセルの奥行きを意味するものとすると、現在の画像内の対応するピクセルX=(x、y、zと、その基準画像内のピクセルX=(x、y、zとは、本発明者らの奥行き強調ホモグラフィーモデルによって、下式(12)により関係付けられる。
Figure 2016149125
式(12)において、奥行き値0は、物体がカメラから遠いこと、例えば、∞にあることを意味する。奥行きが大きいほど、物体がカメラのより近くにあることを意味する。ビデオシーケンスをより簡略にするために、ある特定の簡略化が可能である。例えば、z=zである場合、運動は、同じ奥行き平面内にあるように制限される。
奥行き強調ホモグラフィーモデルhが、式(12)のように定義される場合、この問題は、最小二乗フィッティングを用いて解くことができる。現在の画像内のピクセルロケーション(x、y)と、基準画像内の対応するロケーション(x、y)とを関連付ける局所的運動情報が与えられると、ホモグラフィーモデルhは、最小二乗(LS)フィッティング:b=Ahを解くことによって推定することができる。ここで、bは、ベクトルXをスタックすることによって構成されるベクトルであり、各Xに対応するAの行は、以下のように指定される。
Figure 2016149125
図2は、上述した奥行き強調ホモグラフィーモデルを用いてビデオVを位置合わせするステップ160を示している。入力は、運動ベクトルMVx、MVy、および奥行きマップ201を含む。背景からのものである可能性がより高いMVが識別される(210)。選択されたMVおよび入力された奥行きを用いて、ホモグラフィーモデルのパラメーターhが、例えば、最小二乗フィッティングを介して求められる(220)。位置合わせされていない画像のグループが入力202として得られ、推定されたホモグラフィーモデルを用いてワープする(230)ことによって、位置合わせされる。最後に、背景が位置合わせされた画像シーケンス101が、さらなる処理105のために出力される。

Claims (18)

  1. 画像のシーケンスにおいて前景を背景から分離する方法であって、
    カメラによって前記画像のシーケンスおよびシーンの奥行きマップを取得するステップと、
    前記奥行きマップに基づいてピクセルのグループを求めるステップと、
    前記画像のシーケンスにおける仮現運動および前記グループに従って、前記画像のシーケンスをスパース前景成分と低ランク背景成分とに分解するステップと
    を含み、前記ステップは、前記画像のシーケンスおよび前記奥行きマップを記憶するメモリに接続されたプロセッサにおいて実行される、方法。
  2. 前記画像の背景は、位置合わせされていない、請求項1に記載の方法。
  3. 前記画像のシーケンスから取得された運動ベクトルと、前記奥行きマップから取得された奥行きとを用いて前記背景を識別するステップと、
    前記背景のホモグラフィックベクトルを求めるステップと、
    前記ホモグラフィックベクトルを用いて前記画像のシーケンスをワープするステップと
    をさらに含む、請求項2に記載の方法。
  4. 最小二乗フィッティングを用いてホモグラフィーモデルの前記ホモグラフィックベクトルを求めるステップ
    をさらに含む、請求項3に記載の方法。
  5. 前記ホモグラフィックベクトルは、奥行きが強調され、前記方法は、
    前記奥行きマップを組み込むことによって前記ホモグラフィーモデルを3次元モデルに拡張するステップ
    をさらに含む、請求項4に記載の方法。
  6. 前記カメラは、静止している、請求項1に記載の方法。
  7. 前記カメラは、移動している、請求項2に記載の方法。
  8. 前記スパース前景成分を閾値処理するステップ
    をさらに含む、請求項1に記載の方法。
  9. 前記奥行きマップ内のピクセルを用いて前記画像内のピクセルをセグメンテーションするステップ
    をさらに含む、請求項1に記載の方法。
  10. 前記グループ内の前記ピクセルは、空間的に接続され、一定の奥行きを有する、請求項1に記載の方法。
  11. 前記グループ内の前記ピクセルは、空間的に接続され、一定の奥行き勾配を有する、請求項1に記載の方法。
  12. 前記画像のシーケンスは、グループオブピクチャである、請求項1に記載の方法。
  13. 前記分解は、l2、1ノルムを用いる、請求項1に記載の方法。
  14. 前記l2、1ノルムにおける重みは、前記奥行きマップにおける奥行きの単調増加関数に基づいている、請求項13に記載の方法。
  15. 前記カメラは、カラーセンサーおよび奥行きセンサーを備える、請求項1に記載の方法。
  16. 前記ピクセルのグループは、前記カメラまでの異なる距離における前記シーン内の物体に対応する、請求項1に記載の方法。
  17. 前記奥行きマップを前記運動ベクトルと組み合わせて、前記画像のシーケンス内の画像ごとに大域的運動を照合するパラメトリック透視投影モデルを求めるステップ
    をさらに含む、請求項3に記載の方法。
  18. 画像のシーケンスにおいて前景を背景から分離するシステムであって、
    前記画像のシーケンスおよびシーンの奥行きマップを取得するカメラと、
    前記画像のシーケンスおよび奥行きマップを記憶するメモリと、
    前記奥行きマップに基づいてピクセルのグループを求め、前記画像のシーケンスにおける仮現運動および前記グループに従って、前記画像のシーケンスをスパース前景成分と低ランク背景成分とに分解する、前記メモリに接続されたプロセッサであって、前記グループは、奥行きに基づいている、プロセッサと
    を備える、システム。
JP2016014082A 2015-02-12 2016-01-28 画像のシーケンスにおいて前景を背景から分離する方法およびシステム Active JP6489551B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/620,324 US9679387B2 (en) 2015-02-12 2015-02-12 Depth-weighted group-wise principal component analysis for video foreground/background separation
US14/620,324 2015-02-12

Publications (3)

Publication Number Publication Date
JP2016149125A true JP2016149125A (ja) 2016-08-18
JP2016149125A5 JP2016149125A5 (ja) 2018-11-15
JP6489551B2 JP6489551B2 (ja) 2019-03-27

Family

ID=56621250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016014082A Active JP6489551B2 (ja) 2015-02-12 2016-01-28 画像のシーケンスにおいて前景を背景から分離する方法およびシステム

Country Status (2)

Country Link
US (1) US9679387B2 (ja)
JP (1) JP6489551B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020108624A (ja) * 2019-01-04 2020-07-16 公立大学法人北九州市立大学 口腔内カメラ用光学アタッチメント及び口腔内画像撮像システム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106447668B (zh) * 2016-08-25 2019-06-25 南京理工大学 红外场景下基于随机取样和稀疏矩阵恢复的小目标检测方法
CN106384356A (zh) * 2016-09-22 2017-02-08 北京小米移动软件有限公司 分离视频序列的前景与背景的方法及装置
CN106709904A (zh) * 2016-11-21 2017-05-24 天津大学 一种基于主动视觉的高值目标细微变化检测方法
US10003787B1 (en) * 2016-12-21 2018-06-19 Canon Kabushiki Kaisha Method, system and apparatus for refining a depth map
US10445861B2 (en) * 2017-02-14 2019-10-15 Qualcomm Incorporated Refinement of structured light depth maps using RGB color data
CN106886797B (zh) * 2017-02-24 2019-11-19 电子科技大学 一种对复合材料脱粘缺陷的高分辨率检测与识别方法
US10096122B1 (en) 2017-03-28 2018-10-09 Amazon Technologies, Inc. Segmentation of object image data from background image data
CN108985161B (zh) * 2018-06-08 2021-08-03 广东工业大学 一种基于拉普拉斯正则化的低秩稀疏表征图像特征学习方法
US10666954B2 (en) 2018-06-19 2020-05-26 International Business Machines Corporation Audio and video multimedia modification and presentation
CN109359525B (zh) * 2018-09-07 2021-01-29 西安电子科技大学 基于稀疏低秩的判别谱聚类的极化sar图像分类方法
CN109460788B (zh) * 2018-10-29 2020-12-08 西安电子科技大学 基于低秩-稀疏信息组合网络的高光谱图像分类方法
RU2737343C2 (ru) * 2019-01-10 2020-11-27 Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж) Министерства обороны Российской Федерации Способ определения характера движения объекта на кадрах видеопоследовательности
CN111429475B (zh) * 2020-03-27 2023-04-18 南京信息职业技术学院 一种基于鲁棒低秩稀疏分解的视频前背景分离方法
US11657529B2 (en) * 2020-10-12 2023-05-23 Black Sesame Technologies Inc. Multiple camera system with flash for depth map generation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130346082A1 (en) * 2012-06-20 2013-12-26 Microsoft Corporation Low-dimensional structure from high-dimensional data
JP2014164564A (ja) * 2013-02-26 2014-09-08 Yamaha Motor Co Ltd 対象物領域推定方法、対象物領域推定装置およびそれを備えた対象物検出装置、車両。

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5500904A (en) * 1992-04-22 1996-03-19 Texas Instruments Incorporated System and method for indicating a change between images
US6956573B1 (en) * 1996-11-15 2005-10-18 Sarnoff Corporation Method and apparatus for efficiently representing storing and accessing video information
US6081278A (en) * 1998-06-11 2000-06-27 Chen; Shenchang Eric Animation object having multiple resolution format
US6873723B1 (en) * 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
US6611268B1 (en) * 2000-05-30 2003-08-26 Microsoft Corporation System and process for generating 3D video textures using video-based rendering techniques
US6873724B2 (en) * 2001-08-08 2005-03-29 Mitsubishi Electric Research Laboratories, Inc. Rendering deformable 3D models recovered from videos
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US7024054B2 (en) * 2002-09-27 2006-04-04 Eastman Kodak Company Method and system for generating a foreground mask for a composite image
US8073196B2 (en) * 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
CN101622652B (zh) * 2007-02-08 2012-03-21 行为识别系统公司 行为识别系统
US8248410B2 (en) * 2008-12-09 2012-08-21 Seiko Epson Corporation Synthesizing detailed depth maps from images
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
JP5791618B2 (ja) * 2009-10-29 2015-10-07 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. ビデオ・シーケンスを処理する方法及び装置
US8515134B2 (en) * 2009-12-11 2013-08-20 Nxp B.V. System and method for motion estimation using image depth information
IL208910A0 (en) * 2010-10-24 2011-02-28 Rafael Advanced Defense Sys Tracking and identification of a moving object from a moving sensor using a 3d model
US8509545B2 (en) * 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US9584806B2 (en) * 2012-04-19 2017-02-28 Futurewei Technologies, Inc. Using depth information to assist motion compensation-based video coding
US20130335528A1 (en) * 2012-05-15 2013-12-19 Board Of Regents Of The University Of Texas System Imaging device capable of producing three dimensional representations and methods of use
WO2014020364A1 (en) * 2012-07-30 2014-02-06 Zinemath Zrt. System and method for generating a dynamic three-dimensional model
EP2706503A3 (en) * 2012-09-11 2017-08-30 Thomson Licensing Method and apparatus for bilayer image segmentation
US9098911B2 (en) * 2012-11-01 2015-08-04 Google Inc. Depth map generation from a monoscopic image based on combined depth cues
KR101431373B1 (ko) * 2013-02-26 2014-08-18 경북대학교 산학협력단 스테레오 정합을 이용한 차량의 움직임 측정 장치
EP2806401A1 (en) * 2013-05-23 2014-11-26 Thomson Licensing Method and device for processing a picture
US9418318B2 (en) * 2013-08-30 2016-08-16 Siemens Aktiengesellschaft Robust subspace recovery via dual sparsity pursuit
US9939253B2 (en) * 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US9595112B2 (en) * 2014-05-27 2017-03-14 Stc.Unm Incremental principal component pursuit for video background modeling
US9674406B2 (en) * 2014-08-15 2017-06-06 University Of Washington Using dynamic mode decomposition for real-time background/foreground separation in video

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130346082A1 (en) * 2012-06-20 2013-12-26 Microsoft Corporation Low-dimensional structure from high-dimensional data
JP2014164564A (ja) * 2013-02-26 2014-09-08 Yamaha Motor Co Ltd 対象物領域推定方法、対象物領域推定装置およびそれを備えた対象物検出装置、車両。

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Depth extended online RPCA with spatiotemporal constraints for robust background subtraction", 2015 21ST KOREA-JAPAN JOINT WORKSHOP ON FRONTIERS OF COMPUTER VISION (FCV), JPN6019000905, 28 January 2015 (2015-01-28) *
"Foreground detection based on low-rank and block-sparse matrix decomposition", 2012 19TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING, JPN6019000906, 2012 *
"Video background subtraction using semi-supervised robust matrix completion", 2014 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP), JPN6019000902, 2014 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020108624A (ja) * 2019-01-04 2020-07-16 公立大学法人北九州市立大学 口腔内カメラ用光学アタッチメント及び口腔内画像撮像システム

Also Published As

Publication number Publication date
JP6489551B2 (ja) 2019-03-27
US9679387B2 (en) 2017-06-13
US20160239980A1 (en) 2016-08-18

Similar Documents

Publication Publication Date Title
JP6489551B2 (ja) 画像のシーケンスにおいて前景を背景から分離する方法およびシステム
JP6438403B2 (ja) 結合された深度キューに基づく平面視画像からの深度マップの生成
RU2426172C1 (ru) Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине
JP6395555B2 (ja) シーンから取得されたビデオを処理する方法
CN110493488B (zh) 视频稳像方法、视频稳像装置和计算机可读存储介质
KR102483641B1 (ko) 양안 시차 영상의 처리 방법 및 장치
Guizilini et al. Full surround monodepth from multiple cameras
WO2019180414A1 (en) Localisation, mapping and network training
CA2729106A1 (en) System and method for depth extraction of images with motion compensation
JP2011138500A (ja) ステレオ映像内の視差探索範囲を求めるための方法及びシステム
US11030478B1 (en) System and method for correspondence map determination
JP2018101408A (ja) 画像処理のためのシステムおよび方法
JP6611681B2 (ja) 画像をセグメント化する方法およびシステム
CN109661815B (zh) 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
Lu et al. Deep unsupervised learning for simultaneous visual odometry and depth estimation
Crispell et al. Pix2face: Direct 3d face model estimation
Eichhardt et al. Affine correspondences between central cameras for rapid relative pose estimation
CN114556422A (zh) 来自双相机与双像素的联合深度预测
US10346949B1 (en) Image registration
Prasad et al. Epipolar geometry based learning of multi-view depth and ego-motion from monocular sequences
Da Silveira et al. Indoor depth estimation from single spherical images
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
CN109978928B (zh) 一种基于加权投票的双目视觉立体匹配方法及其系统
JP2023065296A (ja) 平面検出装置及び方法
CN108062741B (zh) 双目图像处理方法、成像装置和电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181004

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181004

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190219

R150 Certificate of patent or registration of utility model

Ref document number: 6489551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250