JP2016110653A - ビデオストリーム内のコンテンツを分割及び追跡する方法 - Google Patents

ビデオストリーム内のコンテンツを分割及び追跡する方法 Download PDF

Info

Publication number
JP2016110653A
JP2016110653A JP2015238600A JP2015238600A JP2016110653A JP 2016110653 A JP2016110653 A JP 2016110653A JP 2015238600 A JP2015238600 A JP 2015238600A JP 2015238600 A JP2015238600 A JP 2015238600A JP 2016110653 A JP2016110653 A JP 2016110653A
Authority
JP
Japan
Prior art keywords
subspace
low
measurement data
matrix
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015238600A
Other languages
English (en)
Other versions
JP2016110653A5 (ja
Inventor
ハッサン・マンソール
Mansour Hassan
シン・ジアン
Xin Jiang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2016110653A publication Critical patent/JP2016110653A/ja
Publication of JP2016110653A5 publication Critical patent/JP2016110653A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2134Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
    • G06F18/21345Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis enforcing sparsity or involving a domain transformation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】ビデオストリーム内のコンテンツを分割及び追跡する方法を提供する。【解決手段】測定データにおけるコンテンツの動きを特徴付ける適応ステップサイズパラメーター及び低次元部分空間が初期化される。低次元部分空間によって特徴付けられたコンテンツの動きとは異なるコンテンツの動きを特徴付ける疎成分を表す疎ベクトルが求められる。測定データの低次元部分空間における変化が、近接点反復及び上記パラメーターを用いて求められ、このパラメーターは、この変化に従って更新される。低次元部分空間を表す低ランク部分空間行列が、上記変化及び上記パラメーターに従って更新される。次に、低次元部分空間を表す低ランク行列及び疎ベクトルが出力される。【選択図】図1

Description

本発明は、包括的には、コンピュータービジョンに関し、より詳細には、ビデオ内のコンテンツを分割及び追跡することに関する。
高次元データに組み込まれた低次元部分空間を分割及び追跡する問題は、背景セグメンテーション、異常検出、動きセグメンテーション、及び、ターゲット位置特定等の多くの用途において発生する。例えば、固定カメラ又は移動カメラによって取得されたシーンは、このシーン内の比較的静止した背景を特徴付ける部分空間にまたがる低ランク成分と、このビデオシーン内の通常は前景における移動物体に対応する疎成分(スパース成分(sparse component))とに分割することができる。
この問題は、あらゆる時間ステップt、例えば、画像のシーケンス内の各画像において、不完全で雑音を有する測定値
Figure 2016110653
からランクr行列
Figure 2016110653
の列によってスパンされたr≪nを有する
Figure 2016110653
内のr次元部分空間
Figure 2016110653
を特定することである。ここで、Ωは、時刻tにおける1つ又は複数の画像のセットのサブセットを指定する選択演算子であり、
Figure 2016110653
は、部分空間Uの列の線形結合を指定する係数であり、
Figure 2016110653
は、スパース異常値(又は、スパース外れ値)のベクトルである。
部分空間
Figure 2016110653
が静止しているとき、下付き文字tはUから省略され、上記問題は、行列補完、又は、主成分解析(PCA)に置き換えられる。なお、主成分解析とは、タスクが、不完全な測定値
Figure 2016110653
を用いて、行列
Figure 2016110653
を、低ランク成分UAと疎成分Sとに分離する解析方法のことである。
行列A及びSの列は、それぞれ、全てのt∈{1...m}について水平に積み重ねられたベクトルa及びsであり、選択演算子Ωは、行列Bにおける測定データを指定する。
低次元部分空間特定の従来の方法は、まず、測定データを行列に編成し、次いで、様々な技法、例えば低ランク行列因数分解を用いて部分空間にまたがる基底ベクトルを求める。
それらの方法を拡張したものは、行列を、部分空間に対応する低ランク成分と、雑音を表す疎成分とに因数分解する。
しかしながら、データの次元数が、ビデオの場合のように大きくなったとき、レイテンシー(latency)が問題となる。したがって、データがリアルタイムで取得又は処理されるとき、そのデータが不完全であり、疎雑音によって破損していても、低次元部分空間を分割及び追跡することができる方法を提供することが必要である。別の問題は、低次元部分空間(背景)が時間とともに変動する可能性があるということである。その場合、全てのデータが1つの行列にグループ化されているとき、部分空間は、低ランク行列によって表すことができない。例えば、戸外のシーンにおける背景は、日中の照明が変動する可能性がある。同様に、監視ビデオでは、以前移動していた物体が、当該物体が静止した状態で背景に追加されたり、背景から取り除かれたりする可能性がある。
1つの従来技術の方法である特許文献1は、動画ビデオに表されるような物体の適応型確率的追跡の方法を記載している。この方法は、追跡されている物体を表す固有基底を特定する。この固有基底の現在の推定値を用いて、物体ロケーションの最大事後推定値が求められる。固有基底は、その後、ターゲット物体の外観の変化を考慮するために更新される。
別の従来技術である特許文献2は、長い時間的経過にわたって学習される安定したモデル構成要素と、比較的短い時間的経過にわたって学習される一時的な構成要素との双方を含む外観モデルの学習を記載している。モデルパラメーターは、オンライン期待値最大化(EM(expectation-maximization))アルゴリズムを用いて時間とともに適応される。
特許文献3は、姿勢モデル、アライメント確信度スコア(alignment confidence score)、及び適応項値に基づいて物体の追跡状態を求めることによって、ビデオに表された物体を追跡することを記載している。この追跡状態は、ビデオ内の以前のフレームのセットにおける物体が存在する可能性の高い位置(the object's likely position)を所与として、フレーム内の物体が存在する可能性の高い位置を定義する。
グラスマンランク1更新部分空間推定(GROUSE:Grassmannian Rank-One Update Subspace Estimation)は、不完全なデータからのリアルタイム部分空間推定を取り扱うことができる1つの方法である。これについては、非特許文献1を参照されたい。GROUSEは、グラスマン多様体上で部分空間のランク1更新を用いる。しかしながら、GROUSEは、極小値(local minima)において捕捉される可能性がある。
並列部分空間推定及び再帰的最小二乗による追跡(PETRELS:Parallel Subspace Estimation and Tracking by Recursive Least Squares)も、リアルタイムで低次元部分空間を特定することができる。これについては、非特許文献2を参照されたい。PETRELSは、時間ステップごとのデータに関する射影残差の幾何級数的にディスカウントされる合計(geometrically discounted sum)を、部分空間行列の各行を考慮しない再帰的手順を用いて並列に最小化する。GROUSE及びPETRELSの双方は、破損したデータ及び非ガウス雑音を受けるデータを正しく取り扱うことができない。
グラスマンロバスト適応型部分空間追跡アルゴリズム(GRASTA:Grassmannian Robust Adaptive Subspace Tracking Algorithm)は、GROUSEと類似している。これについては、非特許文献3を参照されたい。GRASTAも、グラスマン多様体を更新するが、GROUSEのlコスト関数をlノルムコスト関数に置き換える。このコスト関数は、データ内の異常値を正しく取り扱いながら、絶対誤差の合計を最小化する。
別のリアルタイムな方法は、再帰的射影圧縮センシング(ReProCS:Recursive Projected Compressive Sensing)である。これについては、非特許文献4を参照されたい。ReProCSは、データを部分空間の直交補空間上に再帰的に射影し、その後、スパース復元(疎復元)を行って異常値を求める。しかしながら、その方法は、部分空間の正確な初期推定値を必要とする。
米国特許第7463754号「Adaptive probabilistic visual tracking with incremental subspace update」 米国特許出願公開第2003/0108220号「Robust, on-line, view-based appearance models for visual motion analysis and visual tracking」 米国特許第8477998号「Object tracking in video with visual constraints」
Balzano他,「Online identification and tracking of subspaces from highly incomplete information」,48th Annual Allerton Conference on Communication, Control, and Computing (Allerton), pp. 704−711, Sep. 2010 Chi他,「Petrels: Parallel subspace estimation and tracking by recursive least squares from partial observations」,IEEE Transactions on Signal Processing, vol. 61, no. 23, pp. 5947−5959, 2013 Cornell University, arXiv:1109.3827, Sep. 2011 Qiu他,「ReProCS: A missing link between recursive robust PCA and recursive sparse recovery in large but correlated noise」,CoRR, vol. abs/1106.3286, 2011
本発明の実施の形態は、ビデオの時間変化するコンテンツをリアルタイムで分割及び追跡する方法及びシステムを提供する。このコンテンツは、支配的成分(dominant component)及び疎成分を含むことができる。支配的成分は、例えば、低次元部分空間として表される大部分が静止した背景を含むことができる。疎成分は、疎ベクトルによって表される移動物体を含むことができる。
ビデオは、不完全な測定値から、雑音を有する異常値の存在下で取得することができる。本方法は、測定値と、それらの測定値を部分空間の推定値上に射影したものとの間のlノルムコスト関数を最小化する。
例えば乗算器の交番方向法(ADMM:alternating direction method of multipliers)を用いて、射影の係数及びスパース異常値が、部分空間の現在の推定値について最初に求められ、この部分空間の推定値は、適応ステップサイズパラメーター(adaptive step-size parameter)とともに近接点反復手順(proximal point iterative procedure)を用いて更新される。近接点反復手順は、ニュートン法と類似しており、高次元データを伴う制約無し平滑最小化問題(unconstrained smooth minimization problems)を解く。
本発明の1つの実施の形態では、測定値は、ビデオ内の画像のシーケンスである。1つ又は複数の画像のセットが、時間ステップごとに処理される。例えば、このセットは、グループオブピクチャ(GoP:group of pictures)とすることができる。本方法は、ビデオの支配的な静止した背景を低次元部分空間として特徴付け、この比較的大きな背景を、ビデオ内の通常は前景におけるそれよりも小さな移動物体を通常特徴付けるスパース物体から分離する。
本発明の別の実施の形態では、測定値は、圧縮ビデオ内の画像のシーケンスから抽出された動きベクトルである。これらの動きベクトルは、ビデオ内のオプティカルフローを表すことができる。この実施の形態による方法は、低次元部分空間を用いてビデオ内の支配的なオプティカルフローを特定及び追跡し、この支配的なオプティカルフローを、交互に変化する(alternate)オプティカルフロー、例えば、支配的なオプティカルフローと異なるオプティカルフローから分離する。
別の実施の形態では、測定データは、ストリーミングビデオにおいて抽出及び追跡される特徴記述子(feature descriptors)を有する特徴点(interest points)に対応する。1つの例では、抽出された特徴点のサブセットのみが追跡される。受信されたビデオ画像にわたって画像内の特徴記述子間の類似点(affinities)を特徴付ける隣接行列(adjacency matrix)が構築される。この実施の形態による方法は、グラフのスペクトルの一部分を占有する部分空間のうちの1つ又はそれらの結合体によって表される特徴点のクラスターを特定及び追跡する。
本発明の実施形態によるビデオを処理する方法及びシステムのブロック図である。 図1の方法の擬似コードのブロック図である。
本発明の実施形態は、データストリームの測定値を用いて、低次元部分空間に存在するデータストリーム内の物体を分割及び追跡するための方法及びシステムを提供する。例えば、ビデオ内の物体の大きな集合体が、静的であるか又はゆっくりと変化する支配的な動き軌道(dominant motion trajectory)を有するとともに、ビデオ内の他の物体は支配的な軌道とは異なる動き軌道を有するビデオストリーム内の画像のシーケンスを考える。
1つの実施形態では、本発明において説明する方法は、画像が取得された後にプロセッサに達したビデオの画像の形態における、測定値の静止した比較的大きな背景成分を、ビデオ内の通常は前景における、より小さな移動物体を特徴付ける、典型的な疎な物体(typically sparse objects)から分離する。
本発明の別の実施形態では、測定値は、非ガウス雑音によって破損されている可能性がある圧縮ビデオ内の画像のシーケンスから抽出された動きベクトルである。これらの動きベクトルは、ビデオ内の物体の大きな集合体の動きを追跡するビデオ内のオプティカルフローを表す。本方法は、低次元部分空間又は複数の低次元部分空間の結合体(a union of low-dimensional subspaces)を用いて、支配的なオプティカルフローを分割及び追跡する。
更に別の実施形態では、測定値は、欠落したデータ点を有する。例えば、動きベクトルが、圧縮ビデオ内の画像のシーケンスのサブセットのみから抽出される場合、本発明の方法は、低次元部分空間又は複数の低次元部分空間の結合体を特定した後、支配的なオプティカルフローに対応する欠落したデータ点を求める。
図1に示すように、本方法及びシステムは、測定データ101、例えば、カメラ103によってシーン102から取得されたビデオ101内の画像のシーケンスを処理する。カメラは、静止している場合もあるし、移動している場合もある。画像は、リアルタイムで、例えば、画像が取得された速度と同じフレームレート(24fps又は60fps)で処理することができる。本方法は、当該技術分野において知られているようにバスによってメモリ及び入出力インターフェースに接続されたプロセッサ100において実行される。このメモリは、画像を表す測定データに加えて、本方法によって用いられるベクトル、行列及びパラメーター等の他のデータ構造体も記憶するのに用いられる。
ストリーム内の最初の測定データ104、例えばビデオシーケンス内の最初の画像について、初期部分空間行列131及び初期ステップサイズパラメーター126が初期化される(105)。疎ベクトルの形態における疎成分111、及び、部分空間係数112が、反復的ソルバー(iterative solver)、例えば乗算器の交番方向法(ADMM:alternating direction method of multipliers)を用いて、第1の測定データから求められる(110)。次に、部分空間における変化121が、最初の測定データ104、疎成分111、及び、部分空間係数112に従って求められる(120)。適応ステップサイズパラメーター126が、部分空間における変化121に従って更新される(125)。次に、部分空間行列131は、部分空間における変化121及び更新された適応ステップサイズパラメーター126を用いて更新される(130)。ストリーム内の2番目の測定データ及び後続のあらゆる測定データについて、更新された部分空間行列131及び更新された適応ステップサイズパラメーターが、初期部分空間行列及び初期ステップサイズパラメーターとして用いられる。このプロセスは、データストリームからの全ての測定データ101が処理されるまで反復的に繰り返される。
ストリームからのあらゆる新たな測定データの到着後、疎ベクトルによって表される移動物体108は、現在の部分空間行列131において表される背景から既に分離されている。
図2は、本方法の詳細なステップの擬似コードを示している。この擬似コードによって用いられる変数は、以下に定義されている。
1つの実施形態では、測定データは、ビデオシーケンス内の特徴点(interest points)の特徴に対応する。特徴点の間にエッジ及び重みを割り当てるために、グラフが、特徴点に対応する、スケール不変特徴変換(SIFT:Scale Invariant Feature Transform)、高速網膜キーポイント(FREAK:Fast Retina Keypoint)、バイナリーロバスト不変スケーラブルキーポイント(BRISK:Binary Robust Invariant Scalable Keypoints)等の特徴記述子を用いて、測定データから構築される。本方法は、次に、グラフのスペクトルの一部分を占有するとともに特徴点の間の支配的な関連付けを特徴付ける低次元部分空間のうちの1つ又はそれらの結合体を特定する。また、本方法は、グラフスペクトルに存在する疎な関連付け又は非ガウス分布の関連付けから支配的な関連付けをセグメンテーションする。
リアルタイム部分空間推定
非ガウス雑音によって破損される場合がある不完全なストリーミング測定値101、例えば圧縮ビデオからの低次元部分空間行列131のリアルタイム推定を説明する。まず、本発明の課題を説明するとともに、用いられる表記を定義する。次に、測定値の間のlノルムコスト関数を最小化すること、及び、それらの測定値を部分空間上に射影して部分空間係数112及びスパース異常値(または、スパース外れ値)111を求めることを説明する。次に、部分空間は、最小二乗推定を用いることに基づく近接点反復手順を用いて更新される(130)とともに、適応ステップサイズパラメーター126が更新される(125)。
利点として、本発明の方法は、従来技術のように部分空間更新をグラスマン多様体に制限せず、適応ステップサイズを用いる。加えて、本方法は、部分空間の正確な初期推定値を必要とせず、例えば、部分空間は、ランダムな部分空間に設定される。
拡張ラグランジアンに基づく近接点反復手順
本方法は、lノルムコスト関数を用いて拡張ラグランジアンを最小化し、変数(U,s,a,y)に関する以前の部分空間推定値への更新の近接性を維持する平滑化項を用いる。目的コストは、以下の式によって表すことができる。
Figure 2016110653
ここで、eは、Ω(e)=0であり、かつ
Figure 2016110653
であるように、
Figure 2016110653
で表される、選択演算子Ωの補演算子(complement)によって支えられている(supported on)。
式(2)は、変数U及びaに関して非凸である。したがって、本発明は、変数(s,a,y)及びその後の変数Uにわたる最小化を交番するPETRELS手法及びGRASTA手法に従うものとする。Uを固定することによって、式(2)の複数の最小点(minimizers)は等しくなる。すなわち、以下の式となる。
Figure 2016110653
次に、部分空間Uは、適応ステップサイズμを用いて、以下の関数を最小化するように勾配ステップを選ぶことによって更新される。
Figure 2016110653
方法
図2の擬似コードによって示すように、準備段階の後、第1段階(ステップ4〜11)は、反復的方法、例えばADMMを用いて、式(3)を解く。変数a、s、及びyは、終了条件が満たされるまで、以下の更新シーケンスを反復することによって求められる(ステップ7〜10)。
Figure 2016110653
ここで、
Figure 2016110653
は、閾値τを用いた要素単位のソフト閾値処理演算子を示し、kは反復数を示し、†は行列のムーア・ペンローズ擬似逆行列を表す。
第2段階(ステップ12〜17)では、以下の式を用いて式(4)を最小化することによって、部分空間Uが更新される(ステップ19)。
Figure 2016110653
ここで、Iは、r×r単位行列であり、ステップサイズμ 126は、適応的に更新される。
適応ステップサイズパラメーター
適応ステップサイズパラメーターについて、本方法は、正則化項(regularizer)μを用いて、部分空間131の推定の収束の速度を制御する。特に、μの値が小さいほど、変化する部分空間に対するUのより高速な適応、すなわち、降下方向がより大きくなることが可能になるのに対して、μの値が大きいほど、Uのより低速な変化しか可能でない。
降下方向
Figure 2016110653
を考慮し、以前の部分空間推定値の直交補空間上へのこの降下方向の射影を求めて、以下の式の部分空間における変化121が取得される。
Figure 2016110653
次に、適応ステップサイズパラメーターμ 126を、以下の式に従って更新することができる(125)。
Figure 2016110653
ここで、
Figure 2016110653
であり、l∈{−1,0,1,2}は、ηの所定の閾値に従って設定される。ここで、或る事前に規定されたfについて、sigmoid(x)=f+2f/(1+e10x)である。
GRASTAと同様に、そのような更新ルールを選択することの背後にある直観は、2つの連続した部分空間更新Gt−1及びGが同じ方向を有する場合、すなわち、〈Gt−1,G〉>0である場合、ターゲットの部分空間が依然として現在の部分空間推定値から遠く離れているという考えに由来している。その結果、更新されるステップサイズμは、高速な適応を可能にするようにより小さくあるべきであり、これは、ηを増加させることによって達成される。同様に、〈Gt−1,G〉<0であるとき、部分空間更新は、ターゲットの部分空間を中心にして発振する可能性があり、したがって、より大きなμが必要とされる。部分空間更新のノルムの積(||Gt−1||・||G||)が過度に小さいとき、例えば、10−6よりも小さいとき、現在の部分空間推定値はターゲット部分空間に近いと仮定され、ηがシグモイドの大きさだけ強制的に減少されることに留意されたい。

Claims (9)

  1. ビデオストリーム内のコンテンツを分割及び追跡する方法であって、前記ビデオは、画像のシーケンスを含み、該方法は、前記ビデオストリーム内の1つ又は複数の画像の各セットについて、各時間ステップにおいて、
    前記セットから測定データを求めるステップと、
    前記測定データにおける前記コンテンツの動きを特徴付けるパラメーター及び低次元部分空間を初期化するステップであって、前記パラメーターは、適応ステップサイズパラメーターである、初期化するステップと、
    前記低次元部分空間によって特徴付けられた前記コンテンツの前記動きと異なる前記コンテンツの前記動きを特徴付ける疎成分を表す疎ベクトルを求めるステップと、
    近接点反復及び前記パラメーターを用いて、前記測定データの前記低次元部分空間における変化を求めるステップと、
    前記変化に従って前記パラメーターを更新するステップと、
    前記変化及び前記パラメーターに従って、前記低次元部分空間を表す低ランク部分空間行列を更新するステップと、
    前記低次元部分空間を表す前記低ランク部分空間行列、及び、前記疎ベクトルを出力するステップと、
    を含み、
    各前記ステップは、前記測定データを記憶するメモリに接続されたプロセッサが実行し、
    前記ビデオストリームは、カメラによってシーンから取得される、
    ビデオストリーム内のコンテンツを分割及び追跡する方法。
  2. 前記低ランク部分空間行列の推定値及び前記パラメーターの推定値が利用可能であり、
    前記測定データと、前記測定データを前記低ランク部分空間行列の前記推定値上に射影したものとの間の相違を定量化するデータミスフィット関数を求めることと、
    前記データミスフィット関数を最小化する前記疎ベクトル及び部分空間係数ベクトルを求めることと、
    を更に含む、請求項1に記載の方法。
  3. 前記測定データは事前に処理され、新たな測定データが利用可能であり、
    前記更新された低ランク部分空間行列及び前記事前に処理された測定データの前記パラメーターから、前記低ランク部分空間行列の前記推定値及び前記パラメーターの前記推定値を求めること、
    を更に含む、請求項2に記載の方法。
  4. 前記低次元部分空間の推定値を用いて前記測定データから欠落したデータ点を決定するエラー成分を求めること、
    を更に含む、請求項1に記載の方法。
  5. 前記更新された低ランク部分空間行列と、以前の測定データの推定された値との間の相違を前記低次元部分空間の直交補空間上に射影することによって、前記変化を求めることと、
    前記低次元部分空間が速く変化するときは前記パラメーターを減少させ、前記低次元部分空間がゆっくりと変化するときは前記パラメーターを増加させることによって、前記パラメーターを更新することと、
    を更に含む、請求項1に記載の方法。
  6. 前記測定データは、前記セットのピクセル値、前記セット内のオプティカルフロー動きベクトル、前記セット内の特徴点の動き軌道、及び、それらの組み合わせからなる群から選択される、請求項1に記載の方法。
  7. 前記ビデオストリームは圧縮され、前記方法は、
    前記測定データを、各画像の圧縮された動きベクトルとして求めることと、
    前記ビデオストリーム内の支配的な動きフローを特徴付ける前記低次元部分空間を求めることと、
    前記支配的な動きフローから交互に変化する動きフローを特徴付ける前記疎成分を求めることと、
    前記支配的な動きフローを表す低ランク行列及び前記交互に変化する動きフローを表す前記疎ベクトルを出力することと、
    を更に含む、請求項1に記載の方法。
  8. グラフが、前記測定データから構築され、前記方法は、
    グラフ隣接行列及びグラフラプラシアンのうちの一方又はそれらの組み合わせからグラフ行列を求めることと、
    前記グラフ行列のスペクトルの一部分を占有する部分空間のうちの1つ又はそれらの結合体から前記低次元部分空間を求めることと、
    を更に含む、請求項1に記載の方法。
  9. 前記データミスフィット関数は、lノルムコスト関数である、請求項2に記載の方法。
JP2015238600A 2014-12-08 2015-12-07 ビデオストリーム内のコンテンツを分割及び追跡する方法 Pending JP2016110653A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/562,861 2014-12-08
US14/562,861 US9697614B2 (en) 2014-12-08 2014-12-08 Method for segmenting and tracking content in videos using low-dimensional subspaces and sparse vectors

Publications (2)

Publication Number Publication Date
JP2016110653A true JP2016110653A (ja) 2016-06-20
JP2016110653A5 JP2016110653A5 (ja) 2018-11-08

Family

ID=56094531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015238600A Pending JP2016110653A (ja) 2014-12-08 2015-12-07 ビデオストリーム内のコンテンツを分割及び追跡する方法

Country Status (2)

Country Link
US (1) US9697614B2 (ja)
JP (1) JP2016110653A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021533427A (ja) * 2019-07-04 2021-12-02 浙江大学Zhejiang University 経験的直交関数分解法による静止海色衛星データの再構築方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106530330B (zh) * 2016-12-08 2017-07-25 中国人民解放军国防科学技术大学 基于低秩稀疏的视频目标跟踪方法
CN108288021A (zh) * 2017-12-12 2018-07-17 深圳市深网视界科技有限公司 一种人群异常事件检测方法、电子设备和存储介质
CN108021950B (zh) * 2017-12-28 2021-05-25 河南科技大学 基于低秩稀疏表示的图像分类方法
CN108616720B (zh) * 2018-03-06 2020-02-07 西安大衡天成信息科技有限公司 一种多台站频谱监测数据压缩处理方法
CN109215780B (zh) * 2018-08-24 2022-05-31 齐鲁工业大学 高拉普拉斯正则化低秩表示的多模态数据分析方法及系统
US10824935B2 (en) * 2018-10-17 2020-11-03 Mitsubishi Electric Research Laboratories, Inc. System and method for detecting anomalies in video using a similarity function trained by machine learning
SE1851573A1 (en) 2018-12-13 2020-06-14 Mat Ab A method, computer program, computer program product and system for representing visual information
CN110189356B (zh) * 2019-04-24 2023-05-12 沈阳大学 一种反向低秩稀疏约束下的融合Lasso目标跟踪方法
CN110109114B (zh) * 2019-05-09 2020-11-10 电子科技大学 一种扫描雷达超分辨成像检测一体化方法
CN110232705B (zh) * 2019-05-17 2023-05-12 沈阳大学 一种融合分数阶变分调整的反向低秩稀疏学习目标跟踪方法
CN111553416B (zh) * 2020-04-28 2024-05-28 江苏理工学院 一种低秩稀疏空间子空间聚类方法
CN113936196B (zh) * 2021-09-29 2024-05-14 江苏大学 一种基于低秩拉普拉斯图学习的鲁棒数据降维方法
CN115236208B (zh) * 2022-06-27 2023-04-07 哈尔滨工业大学 一种基于信息增强与变步长稀疏表达的钢轨健康监测方法
CN115690869B (zh) * 2022-09-15 2026-03-20 华东理工大学 一种基于稀疏特征选择的多视角人脸识别系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058205B2 (en) 2001-12-07 2006-06-06 Xerox Corporation Robust, on-line, view-based appearance models for visual motion analysis and visual tracking
US7463754B2 (en) 2003-11-13 2008-12-09 Honda Motor Co. Adaptive probabilistic visual tracking with incremental subspace update
US8085982B1 (en) 2008-06-20 2011-12-27 Google Inc. Object tracking in video with visual constraints
US9251438B2 (en) * 2012-10-24 2016-02-02 Regents Of The University Of Minnesota Convex minimization and data recovery with linear convergence

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JUN HE ET AL.: "Online Robust Subspace Tracking from Partial Information", INFORMATION THEORY, JPN7019000015, 20 September 2011 (2011-09-20), US, pages 1 - 28 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021533427A (ja) * 2019-07-04 2021-12-02 浙江大学Zhejiang University 経験的直交関数分解法による静止海色衛星データの再構築方法
JP7004844B2 (ja) 2019-07-04 2022-01-21 浙江大学 経験的直交関数分解法による静止海色衛星データの再構築方法
US11790580B2 (en) 2019-07-04 2023-10-17 Zhejiang University Method for reconstructing geostationary ocean color satellite data based on data interpolating empirical orthogonal functions

Also Published As

Publication number Publication date
US9697614B2 (en) 2017-07-04
US20160162577A1 (en) 2016-06-09

Similar Documents

Publication Publication Date Title
JP2016110653A (ja) ビデオストリーム内のコンテンツを分割及び追跡する方法
Dosovitskiy et al. Generating images with perceptual similarity metrics based on deep networks
JP6395555B2 (ja) シーンから取得されたビデオを処理する方法
Chatterjee et al. Efficient and robust large-scale rotation averaging
JP6489551B2 (ja) 画像のシーケンスにおいて前景を背景から分離する方法およびシステム
CN105590091B (zh) 一种面部识别方法及其系统
EP2352128B1 (en) Mobile body detection method and mobile body detection apparatus
US20110243381A1 (en) Methods for tracking objects using random projections, distance learning and a hybrid template library and apparatuses thereof
US10019801B2 (en) Image analysis system and method
Ait Jellal et al. LS-ELAS: Line segment based efficient large scale stereo matching
Mansour et al. Video background subtraction using semi-supervised robust matrix completion
CN111028282A (zh) 一种无监督位姿与深度计算方法及系统
CN109614933B (zh) 一种基于确定性拟合的运动分割方法
WO2021027543A1 (zh) 基于单目图像的模型训练方法、装置及数据处理设备
US12450755B2 (en) Systems and methods for motion estimation and view prediction
CN112861830A (zh) 特征提取方法、装置、设备、存储介质以及程序产品
Li et al. Projective factorization of multiple rigid-body motions
CN119131265A (zh) 基于多视角一致性的三维全景场景理解方法及装置
Javed et al. Robust background subtraction to global illumination changes via multiple features-based online robust principal components analysis with Markov random field
CN114170558B (zh) 用于视频处理的方法、系统、设备、介质和产品
Lu et al. SLAM-supported self-training for 6D object pose estimation
Chen et al. Usp-gaussian: unifying spike-based image reconstruction, pose correction and gaussian splatting
Cheng et al. Semi-supervised 3d hand-object pose estimation via pose dictionary learning
Liu et al. Robust online matrix completion with Gaussian mixture model
Guerreiro et al. Factorization with missing data for 3D structure recovery

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180921

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190313

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190709