JP5058010B2 - シーン中に置き去りにされた物体を検出する方法 - Google Patents

シーン中に置き去りにされた物体を検出する方法 Download PDF

Info

Publication number
JP5058010B2
JP5058010B2 JP2008026672A JP2008026672A JP5058010B2 JP 5058010 B2 JP5058010 B2 JP 5058010B2 JP 2008026672 A JP2008026672 A JP 2008026672A JP 2008026672 A JP2008026672 A JP 2008026672A JP 5058010 B2 JP5058010 B2 JP 5058010B2
Authority
JP
Japan
Prior art keywords
background
pixel
image
term
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008026672A
Other languages
English (en)
Other versions
JP2008257693A (ja
Inventor
ファティー・エム・ポリクリ
ユリ・エイ・イバノブ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2008257693A publication Critical patent/JP2008257693A/ja
Application granted granted Critical
Publication of JP5058010B2 publication Critical patent/JP5058010B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Description

本発明は、包括的には、カメラによりシーンに関して取得された画像シーケンスを背景部分と前景部分に分割することに関し、特に、シーン中に置き去りにされた物体を検出することに関する。
ビデオ監視用途では一般に、カメラによりシーンに関して取得された画像シーケンスを背景部分と前景部分に分割して、シーン中の物体を検出及び追跡できるようにする。背景部分は完全に静止しているか、又はゆっくりと若しくは周期的に変化しており、前景部分は、背景部分の画素よりもずっと高速で変化する隣接画素群に対応すると仮定されることが多い。
照明、画素ノイズ、カメラ位置等の変化に頑健ないくつかの背景差分法が知られている。単純な方法は、前景物体のないシーンの画像の画素と異なる値を有する画像の画素をマーキングする。このような方法は、照明及びシーンの幾何形状を厳密に制御することのできる屋内シーンに用いられることが多い。
マルチモーダルな背景を扱う場合、背景モデルを用いることができる。多くの場合、このモデルはガウス分布の形態である。背景モデルは、連続する画像又はフレーム毎に反復更新メカニズム、例えばオンライン期待値最大化(EM)により更新される。しかし、オンラインEMは、弱いモードをより強いモードにブレンドし、モデル平均値を歪めてしまう。
背景モデルの正確な適応を達成するために、ベイズ更新手順を用いることができ、この手順は、必要なモデル数も推定することができる。この手順は、シーン中の照明の変化及び他の任意の変化を扱うことができる。また、画像勾配とオプティカルフロー情報とを用いるモデル背景の混合の変形もある。モデル混合手法は、十分な観測値が与えられれば、あらゆる任意の分布に収束し得る。しかし、混合するモデル数が増えるほど、計算コストは指数関数的に増える。
別の背景モデル化方法は、ノンパラメトリックカーネル密度推定を用いる。その方法は、背景モデルをフレーム毎に反復的に更新するのではなく、シーケンス中の画像の画素の色値を記憶し、全てのデータを用いて一組のカーネル関数の寄与を推定する。記憶容量及び計算コストは共に画像数に比例する。結果として、カーネルベースの方法は、画像を長期にわたって連続的に取得するリアルタイム用途には実用的でない。
別の3D幾何形状ベースの方法は、照明の任意の変化を許容するが、背景が幾何学的に静止しているものと仮定する。その方法はステレオカメラを用いる。何もないシーンの事前に計算される差異モデルに反する画素は前景としてマーキングされる。
頻度ベースの技法は、背景の動きがごく周期的である場合に良好な結果を生じる。例えば、沿岸監視システムは、海の波の周期性を考慮に入れ、観測値の画素単位の周期性を明示的にモデル化することによって、その影響を実質的に除去することができる。
別の分割方法は、前景物体の色組成に適応しつつ背景のモデルを保持する。その方法は、画素ベースの技法、動きベースの技法、及び領域ベースの技法の利点を組み合わせることを目的とするが、周期的な動き及び非凸状の物体に関して問題がある。事前知識を背景検出に組み込むことができる。完全な共分散行列を計算することにより、特徴空間を変更して動き情報等の他の情報源を含めることができる。
しかし、従来の2クラスの分割方法では解決することができない一種の問題がある。常識的に、公共の場所に置き去りにされた物体、例えばスーツケース、バックパック、又は包みは、大きな安全上の危険を招き得るものであると分かる。残念ながら、このような物体は、背景とも前景とも見なされない。シーンに入ってくる時、その物体は前景である。置き去りにされた後、その物体は背景となる。しかし、この物体を完全に無視しないことが重要である。さらに、その後で、その物体は持ち去られる可能性がある。したがって、シーン中のその存在が忘れられてはならない。
置き去り物体を検出することができる方法は知られている(J. D. Courtney著「物体の動き解析による自動ビデオインデックス付け(Automatic video indexing via object motion analysis)」(PR 30(4), pp. 607-625, 1997)、E. Auvinet、E. Grossmann、C. Rougier、M. Dahmane、及びJ. Meunier著「ホモグラフィ及び簡単な発見法を用いる置き去り荷物検出(Left-luggage detection using homographies and simple heuristics)」(PETS, pp. 51-58, 2006)、J. M. del Rincn、J. E. Herrero-Jaraba、J. R. Gmez、及びC. Orrite-Uruuela著「マルチカメラUKFを用いる自動での置き去り荷物の検出及び追跡(Automatic left luggage detection and tracking using multi-camera ukf)」(PETS, pp. 59-66, 2006)、P. T. N. Krahnstoever、T. Sebastian、A. Perera、及びR. Collins著「大量輸送環境における旅行者及び荷物の多視点による検出及び追跡(Multi-view detection and tracking of travelers and luggage in mass transit environments)」(PETS, pp. 67-74, 2006)、K. Smith、P. Quelhas、及びD. Gatica-Perez著「公衆空間における放置荷物の検出(Detecting abandoned luggage items in a public space)」(PETS, pp. 75-82, 2006)、並びにS. Guler及びM. K. Farrow著「混雑した場所における放置物体検出(Abandoned object detection in crowded places)」(PETS, pp. 99-106, 2006))。
ほとんどの従来技術の方法の主な欠点は、置き去りにされた物体に対応するビデオ画像の部分を識別するために、中間ステップとして、物体追跡又は物体検出という遥かに難しい問題を解くことを必要とするという事実である。複雑な実世界のシーンにおけるリアルタイムでの物体追跡は困難である。
本発明の実施の形態は、カメラによりシーンに関して取得された画像シーケンスを背景部分と前景部分に分割することによって、置き去り物体を検出する方法を提供する。例えば、画像シーケンスは監視ビデオを含み、前景の全部ではないが一部が置き去りにされた物体に対応し得る。
一つの利点として、本方法は物体追跡を必要とせず、追跡手順でよく起こるフレーム間の対応付けの失敗の可能性をなくす。しかし、本方法は、追跡手順と統合して、置き去り物体の検出方法の精度を高めることができる。
本方法は、シーン又は物体のモデルを必要としない。本方法は主に、画素変化の時間的側面に係る。したがって、本方法は、特定の撮影条件、例えばカメラの角度、照明等を補償するように準備を整える(train)必要がない。本方法は、並列化を用いて処理時間を短縮することができる。
本方法は、シーン中の動きを複数の時間スケールで解析し、ガウス分布の画素毎の混合として実施される長期背景モデル及び短期背景モデルを構築する。次に、ベイズ更新メカニズムを用いて両モデルを適応させる。その後、本方法は、各画像を長期背景モデル及び短期背景モデルと比較することによって、長期背景統計値及び短期背景統計値を反復的に推定する。これらの統計値は、シーンの主に静止した背景部分と、動的な前景部分と、或る時間にわたって静止している置き去り物体とに属する画素を区別するために用いられる。
この置き去り物体の検出方法は、ベイズ更新による背景生成のために、シーン中の人物の不規則な動き、照明の変化、カメラの振動、及び他のアーティファクトに対して頑健である。本発明の方法は追跡に依拠しないため、シーン中の1つ1つの物体の検出及び識別を必要とする追跡手法で使用されることが多い、事前に定義された事象検出発見法(すなわち、人物が物体を運んできて、或る一定の距離だけ離れる等)により制限されない。
従来の動きベクトル解析に基づく手法とは異なり、本発明では、置き去り物体のような事象の発生を検出するだけでなく、置き去り物体の境界を正確に検出する。本発明の方法は、置き去り物体の最大数に限定されない。本発明の方法は、一部の置き去り物体がシーンから持ち去られ、他の置き去り物体が依然として残っている場合を検出することができる。置き去り物体が後に別の物体又は人物により遮蔽されても、本発明の方法は依然としてその置き去り物体を検出することができる。
さらに、単一のカメラを用いる本発明の方法の検出性能は、マルチカメラベースの方法と同等である。上記の利点に加えて、本発明の方法は、リアルタイム用途に計算上適している。本発明の方法は、複数の個別の画素毎の演算に分割することができるため、並列処理にも適している。
図1は、本発明の実施形態による、シーン20中に置き去りにされた物体10を検出する方法100を示す。カメラ30がシーンの画像シーケンス101を取得する。例えば、カメラは監視カメラである。
本発明の置き去り物体の検出方法は、画素色の経時的進展の推測に基づく。置き去り物体は、以前にはそこになかったシーン中の静止物体として考えることができる。この所見は、長期的な静止背景領域を示す背景のモデル化(120)及び前景のモデル化(130)により、画像シーケンスの画素が置き去り物体に対応するか否かを推測することができることを示す。物体が長時間にわたって置き去りにされている場合、警報を発する(160)ことができる。
本発明の方法は、監視ビデオ中の変化する画素強度の経時的進展を複数の時間スケール102で解析する。したがって、本発明では、複数の時間スケールでの背景モデルのパラメータ110を保持する。本方法は、新たな画像を処理する毎に1つ時間を進める。
後述するように、パラメータ110は複数の層として保持される。すなわち、各画素は経時的に、3D多変量ガウス分布の層として表される。パラメータ110は、任意の時点、例えばシーケンス中の各画像におけるガウス分布を定義する。本明細書中で使用する場合、画像は既知のフレームレートで取得されるため、時間及び画像は実質的に同義である。
背景モデルを更新(120)した後、前景モデルを判定する(130)ことができる。この前景モデルは、動き画像103を保持する(200)ために用いられる(図2を参照)。証拠規則151を動き画像103に適用し(150)、置き去り物体が検出された場合、警報を発する(160)ことができる。
時間スケール
主概念は、画像シーケンス101を複数の時間スケール102で解析する場合、短期静止物体10を背景及び前景の両方から分割することができることである。本発明の適応的な背景更新(120)は、適応の遅い背景画素及び適応の速い前景画素をビデオから除去する。残った画素は、動きが背景よりも速いか又は頻繁であるが、前景よりは遅い物体クラスに属するため、置き去り物体に対応する画素のみが動き画像103に残る。
時間スケールは完全に相対的であり、用途及び検出される物体のクラスに大きく依存する。人物及び物体が比較的速く移動する駅の監視等の監視用途の場合、短期は数分の1分であり、長期は5分〜10分であり得る。無断駐車監視システムでは、短期は15分である場合があり、長期は数時間とすることができる。駐車施設が空港にある場合、放置車両を検出するために長期は1週間を超える可能性がある。解剖学的流体(fluids)を撮像するMRIスキャン及びCATスキャン等の医療用途の場合、期間は数分又は数時間程度であり得る。
背景モデル
シーン背景は、期間設定に応じて長時間、例えば数十分にわたって統計的に一貫した情報を抽出するモデルにより表される。断続的な前景画素は、その画素が短期であるという証拠値を動き画像103中に保持することによって置き去り物体10と区別される。したがって、本発明では、シーン中の動きを複数の時間スケール102で解析し、2つの部分から成る2つの背景モデルを構築する。
背景モデルは、長期背景(B)モデル及び短期背景(B)モデルを含む。これらの2つのモデルは、ガウス分布の混合を用いる。分布は1D、2D又はより高い次元数とすることができる。本発明では、ベイズ更新(120)メカニズムを用いて、モデルを正確に適応させる。統計値を用いて、シーンの静止背景部分に適切に属する画素と、動的な前景に属する画素と、長時間にわたって静止している置き去り物体に属する画素とを区別する。全ての連続するフレーム又は画像において、本発明では、現フレームIをBモデル及びBモデルと比較することによって長期統計値及び短期統計値を推定する。
前景マスク
本発明では前景モデルも判定する(130)(図2を参照)。このモデルもまた2つの部分、すなわち、長期前景(F)マスク201及び短期前景(F)マスク202を有する。マスクの画素F(x,y)及びF(x,y)は0又は1であり得る。すなわち、マスクは2値画像である。Fマスクは、現画像に関して、以前の画像ではそこになかったシーンの変化、例えば、移動物体、一時的な静止物体、動く人影、背景モデルが適応できない突然の劇的な照明の変化、例えばノイズを示す。Fマスクは、移動していて、その後に短時間だけ静止した物体に対応する。画素もまたFマスクと同様に、ノイズによる突然の変化を示し得る。
マスク仮説
証拠規則151に従って前景マスクから4つの仮説を立てることができる。
1)F(x,y)=0且つF(x,y)=0である。画素(x,y)は背景に対応し、現画像中の対応する画素I(x,y)はBモデル及びBモデルの両方で表される。
2)F(x,y)=1且つF(x,y)=1である。画素(x,y)は移動物体に対応し、Bモデル又はBモデルのいずれでも表されない。
3)F(x,y)=0且つF(x,y)=1である。画素(x,y)はシーン背景に対応し、現画像の画素I(x,y)はBモデルでのみ表される。
4)F(x,y)=1且つF(x,y)=0である。画素(x,y)は置き去り物体に対応する可能性があり、Bモデルで表され得る。
信頼値
上述のように、本発明の背景モデルは、ガウス分布の混合を用いる。モデルには統計的信頼値が関連付けられる。比較的短時間のみにわたって強度変化がある画素の場合、Bモデルの信頼度もBモデルの信頼度も、それらの画素を有効な背景画素とするのに十分に上がらない。したがって、それらの画素は前景と判定される(130)。Bモデルが画素を背景に「ブレンドする」にもかかわらず、Bモデルがなおそれらの画素を前景としてマーキングする場合、その画素は置き去り物体の画素と見なされる。画素強度の変化により時間がかかる場合、両モデルはそれらの画素を背景と見なす。
動き画像
検出感度に時間的制約を課すと共に、ノイズによるアーティファクトを除去するために、証拠規則151を用いて画素毎の証拠値を動き画像M(x,y)103中で以下のように増減すること(200)によって、画像毎の検出結果を動き画像103中に保持する(200)。
Figure 0005058010
ここで、証拠閾値max203及び減衰定数k222は正の数である。
証拠規則151は、長期マスク及び短期マスクの対応する画素が置き去り物体に関連する可能性がある場合、動き画像の画素の証拠値を増分する(220)。可能性がない場合、動き画像の画素の証拠値を定数kだけ減分する(221)。動き画像の証拠値が0よりも小さくなった場合(231)、証拠値を再び0に設定する(241)。
証拠閾値
画素毎に、動き画像M103は、置き去り物体の証拠値を保持する。この証拠値が閾値max203よりも大きい場合(すなわちM(x,y)>max230)、その画素を置き去り物体の画素としてマーキングし、オプションの警報信号を生成する(240)。証拠閾値max203は、連続する画像数、すなわち時間に関して定められる。この閾値は、本発明の方法の所望の応答性及びノイズ特性に依存し得る。画像がノイズで汚染されている場合、高い値のmaxが好ましい。このような高い値はまた、誤警報率を下げる。
証拠閾値maxの典型的な範囲は、[10,300]の連続画像である。減衰定数k222は、置き去り物体がシーンから持ち去られた場合に起こるべきことを調整する。物体が持ち去られた直後に警報を発する必要がある場合、減衰定数kの値は大きくすべきである(例えば、k=max)、すなわち、警報及び減衰に同一のパラメータを用いることができる。
比較的大きな値の減衰定数は、満足な結果を生じる。なお、背景モデルもそれらの混合モデルも上記閾値には依存しない。これは、検出がこの用途に特有の証拠及び減衰定数の変化に対して頑健であることを意味する。したがって、これらのパラメータ値は任意の好適な値に無理なく設定することができる。
逐次ベイズ更新
背景モデルの長期部分及び短期部分はベイズ更新手順により適応させられる(図3を参照)。ベイズ更新は、Tuzel他による2006年11月23日付で公開された米国特許出願第20060262959号「ベイズ推定による低フレームレートビデオのモデル化(Modeling low frame rate videos with Bayesian estimation)」(参照により本明細書中に援用される)により詳細に記載されている。
本発明の更新手順は、背景モデルのマルチモダリティを保つ。更新の度に、現観測値(画像I)から最大で1つの層を更新する。これにより、層への重なりを確実に最小化する。本発明ではまた、各画素にいくつの層が必要かを求め、前景分割段階の間はそれらの層のみを用いる。これは、埋め込まれた信頼度を用いて行う。
各画素は、3D多変量ガウス分布の複数の層として定義される。各層は、画素の異なる外観に対応する。本発明の演算はRGB色空間で行う。本発明では、ベイズ手法を用いて各層の平均及び分散を推定しない。その代わり、本発明では、平均及び分散の確率分布を推定する。
本発明では、確率分布から平均及び分散に関する統計情報を抽出することができる。次に、平均及び分散の期待値を変化の検出に用い、平均の分散を本発明の信頼測度として用いる。
層モデル
画像データ、すなわち画素強度は、平均μ及び共分散Σを有する正規分布であると仮定する。平均及び分散は未知であり、ランダム変数としてモデル化される。ベイズ理論を用いて、同時事後密度を次のように書くことができる。
Figure 0005058010
新たな観測値を用いて再帰的ベイズ推定を行うために、同時事前確率p(μ,Σ)は同時事後密度p(μ,Σ|X)と同じ形を有する。分散を条件として、同時事前密度は次のようになる。
Figure 0005058010
上記条件は、逆ウィシャート分布を共分散に仮定すると共に、この共分散を条件として多変量正規分布を平均に仮定する場合に実現される。逆ウィシャート分布は、スケーリングした逆χ分布の多変量一般化である。共分散及び平均をパラメータ化すると、それぞれ次のようになる。
Figure 0005058010
ここで、νt−1は自由度であり、Λt−1は逆ウィシャート分布のスケール行列であり、θt−1は事前平均であり、κt−1は事前測定値の数である。これらの仮定により、3次元特徴空間の同時事前密度は次のようになる。
Figure 0005058010
本発明では、この密度を次のようにラベル付けする。
Figure 0005058010
事前密度に通常の尤度を掛け、項を整えると、同時事後密度は
normal−inverse−Wishart(θ,Λ/κ;ν,Λ
となり、パラメータは次のように更新される。
Figure 0005058010
新たなパラメータは、事前情報を観測サンプルと結合する。事後平均θは、事前平均及びサンプル平均の加重平均である。なお、サンプル値は、画素強度、画素色、又は強度勾配の大きさのいずれかとすることができる。事後自由度は、事前自由度にサンプルサイズを加えた値に等しい。
式(8)において、第1項は現在の背景に対応し、第2の加算項は、現画像により背景がどれだけ変化するかに影響する。両項の分母は同じであることに留意されたい。κt−1である場合、nが制御パラメータとなる。
上式において、重みnは、分布のパラメータを「学習する」時間スケールに関係する。この学習パラメータすなわち重みnが低い場合、現画像が背景画像に加える衝撃は比較的小さく、背景はシーンの短期的な進展を反映し、重みnが大きい場合、現画像は背景をより劇的に変化させ、シーンの長期的な進展を反映する。
本方法は以下の初期パラメータで開始する。
Figure 0005058010
ここで、Iは3次元単位行列である。
同時事後密度を共分散Σに関して積分すると、平均の周辺事後密度が得られる。
Figure 0005058010
ここで、tνt−2は、ν−2自由度の多変量t分布である。
平均及び共分散の周辺事後分布の期待値を、時刻(画像)tにおける本発明のモデルパラメータとして用いる。周辺事後平均の期待値、すなわち多変量t分布の期待値は
Figure 0005058010
となり、周辺事後共分散の期待値、すなわち逆ウィシャート分布の期待値は次のようになる。
Figure 0005058010
層の本発明の信頼測度は、μ|Xの共分散の行列式分の1に等しい。
Figure 0005058010
本発明では、カラーチャネルの独立性を仮定することにより処理時間を短縮することができる。したがって、本発明では、RGBカラーチャネルを分離し、各チャネルを個別に処理する。単一層の多変量ガウスを有する代わりに、本発明では、各カラーチャネルに対応する3つの一変量ガウス分布を用いる。各カラーチャネルを個別に更新した後、分散を結合して、以下の対角共分散行列を生成する。
Figure 0005058010
一変量ガウス分布毎に、スケーリングされた逆χ分布を分散に仮定すると共に、この分散を条件として一変量正規分布を平均に仮定する。
背景の更新
本発明の方法を、画素毎にk個の層で初期化する。例えば、シーンの動態及び複雑性に応じて、kは3〜5である。より多くの層を用いることもできる。本発明では、新たなサンプルを画素毎に処理する際に、本発明の背景モデルのパラメータを更新する。本発明のモデルの最も信頼度の高い層から更新を始める。観測サンプルが現モデルの99%信頼区間内にある場合、式(7)、(8)及び(9)に表されるようにモデルのパラメータを更新する。信頼度の低いモデルは更新しない。背景のモデル化には、以前の観測値ほどモデルに及ぼす影響が小さくなるような「忘却」メカニズムを設けることが有用である。忘却は、不一致モデルの以前の観測値数のパラメータを減らすことによって行われる。現サンプルが信頼区間内にない場合、以前の測定値数のパラメータを次のように更新し、
κ=κt−1−n (16)
次に信頼度の高い層の更新に進む。本発明では、κを初期値である10未満にはしない。どのモデルも更新されない場合、最も信頼度の低い層を削除し、現サンプルを有する新たなモデルを平均及び初期分散として初期化する。
単一画素の更新手順の疑似コードを図3に示す。新たなサンプルxに関して、背景層は以下のように表される。
Figure 0005058010
これらの層は、式(14)で定義される信頼測度に従ってソートされ、Iは1に初期化され、i<kである間、以下のマハラノビス距離を測定する。
Figure 0005058010
サンプルxが99%信頼区間内にある場合、モデルパラメータを式(7)、(8)、(9)に従って更新し、停止する。そうでない場合、モデルパラメータを式(16)に従って更新し、iを増分する。層kを削除し、式(10)に定義されるパラメータを有する新たな層を初期化する。
したがって、本発明は、本発明のモデルをノイズ又は前景画素で変形させず、照明効果のような滑らかな強度変化に容易に適応する。埋め込まれた信頼度は、使用する層数を決め、不要な層を避ける。通常、二次層は、背景画素の影が差した形態、又はシーンの移動領域の様々な色に対応する。シーンがユニモーダルである場合、最初の層以外の層の信頼度は非常に低くなる。
前景の分割
背景統計値を用いて、シーンの変化した領域、例えば前景物体を検出する。画素を表すために必要な層数は事前には分からない。したがって、背景は、必要であるよりも多い数の層で初期化される。本発明では、信頼度を用いて、いくつの層が各画素に対して重要であるかを判定する。式(14)の信頼度に従って層を順序付け、所定の層閾値Tを超える信頼値を有する層を選択する。本明細書中では、これらの層を信頼層と呼ぶ。
閾値Tは、画素の平均の共分散に依存するため、画素の色域に依存する。本発明では、本発明の演算を[0−255]の範囲の画素強度値に対して行い、T=1.0を選択する。他の範囲に関しては、閾値Tを変更することができる。本発明では、信頼層から観測色(RGB強度)のマハラノビス距離を測定する。背景の全信頼層の99%信頼区間外の画素は前景画素と見なされる。
連結成分解析
本発明では、連結成分解析を動き画像に適用して、物体のサイズ又はパターン(形状)を求めることもできる。例えば本方法を、小さな物体(例えば鞄若しくは人物)又は大きな物体(置き去り車両等)のみを検出するように調整することができる。置き去り物体が検出されたら、物体認識を画像シーケンスに適用することもできる。
方法の検証
この二重前景方法を試験するために、いくつかの公的に利用可能なデータセット、例えば、PETS2006及びAVSS2007から入手可能なよく知られた監視ビデオを用いた。試験したシーケンスの総数は32であった。テストデータは様々な画素解像度、例えば、180×144、320×240、640×480、及び720×576を含む。シナリオは、昼食室から地下鉄の駅まで様々であった。ほとんどのシーケンスは小さな(10×10画素の)置き去り物体を含む。いくつかのシーケンスは複数の置き去り物体を有する。シーケンスの半分は、比較的少数(例えば3人まで)の人物がいるシーンに対応する。シーケンスの残り半分は、複数の座っている人、立っている人、歩いている人がいるより複雑なシナリオを有する。いずれの場合にも、人物は可変速度を示す。物体は、様々な時間、例えば10秒間〜2分間にわたって置き去りにされる。
性能を定量化するために、各シーケンスについて擬陽性の数及び誤警報数をカウントした。結果を次の表Aに示す。
Figure 0005058010
セット1は地下鉄の駅のものである。セット2及び3は食堂の広角カメラから録画されている。セット4、5、6は昼食室の異なるカメラのものである。セット7は待合室のものである。セット8はレストランの並ぶ大きな閉鎖空間のプラットフォームのものである。
誤警報率及び検出率を次の表Bに示すように求める。
Figure 0005058010
本発明の結果は、本発明の方法が、非常に低い誤警報率を達成する一方で、ほとんど全ての置き去り物体を無事に検出することを示す。本方法は、97.92の検知率で毎秒0.27%の誤警報率を有する。本発明では、物体分類器を用いることにより置き去りにされた物体を識別することができる。
本発明を好ましい実施の形態の例として説明してきたが、本発明の精神及び範囲内で様々な他の適応及び修正を行うことができることが理解される。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲に入る変形及び修正を全て網羅することである。
本発明の一実施の形態による、シーン中に置き去りにされた物体を検出する方法のフロー図である。 本発明の一実施の形態による、動き画像を保持する手順のフロー図である。 本発明の一実施の形態による、背景モデルパラメータを更新する手順の擬似コードのブロック図である。

Claims (21)

  1. 各背景モデルは、長期背景モデルB 及び短期背景モデルB を含み、ベイズ推定を用いて短期から長期にわたる異なる時間スケールで更新され、カメラによりシーンに関して取得された画像シーケンスを用いて各前記背景モデルを更新するステップであって、前記ベイズ推定を用いて前記背景モデルを更新するときに、動き画像の各画素を複数の層として定義し、各層の平均及び分散の確率分布を推定する、ステップと、
    前記背景モデルの更新後に、シーンの変化した領域を前景物体として検出することにより、前記シーケンスの特定の画像に関して各背景モデルから前景マスクを判定するステップと、
    動き画像の各画素は、当該画素の値である証拠値を有し
    各前景マスクは、長期前景マスクF 及び短期前景マスクF を含み、
    各前景マスクは、0及び1の画素値を有する2値画像であり、前記1の画素値は、前記画像シーケンス中のあり得る前景物体を表し、
    (x,y)=0且つF (x,y)=0である場合には、前記画素(x,y)は前記シーン中の背景に対応し、現画像中の対応する画素I(x,y)は対応する前記背景モデルB 及びB の両方で表され、
    (x,y)=1且つF (x,y)=1である場合には、前記画素(x,y)は前記シーン中の移動物体に対応し、前記背景モデルB 又はB のいずれでも表されず、
    (x,y)=0且つF (x,y)=1である場合には、前記画素(x,y)はシーン背景に対応し、前記現画像の前記画素I(x,y)は前記B モデルでのみ表され、かつ
    (x,y)=1且つF (x,y)=0である場合には、前記画素(x,y)は前記置き去り物体に対応し得る、
    という証拠規則に従った、長期前景マスクF 及び短期前景マスクF を用いた仮説を用いて、次式に従って、前記証拠値M(x,y)を求めることにより、前記動き画像を更新するステップと、
    Figure 0005058010
    ここで、証拠閾値max 及び減衰定数kは正の数である、
    前記証拠値を証拠閾値max と比較して、前記証拠値Mが証拠閾値max よりも大きい場合に、前記シーン中に置き去りにされた物体を検出して知らせるステップと
    を含む、シーン中に置き去りにされた物体を検出する方法。
  2. 前記検出は、経時的に進展する前記画像シーケンスの画素の強度の推測に基づく
    請求項1記載の方法。
  3. 前記時間スケールは、前記画像シーケンスが処理されるフレームレートに基づく
    請求項1記載の方法。
  4. 前記時間スケールは、前記シーケンス中の全画像が前記更新中に使用される場合には短期であり、前記時間スケールは、処理すべき前記画像が前記シーケンスからサブサンプリングされる場合には長期である
    請求項3記載の方法。
  5. 前記時間スケールは、前記一組の背景モデルのパラメータが更新される学習速度である
    請求項1記載の方法。
  6. 前記時間スケールは、前記画像シーケンスが処理されるフレームレートと、前記一組の背景モデルのパラメータが更新される学習速度とに基づく
    請求項1記載の方法。
  7. 前記時間スケールは、対応する前記背景モデルが同一学習速度において前記長期の前記背景モデルよりも頻繁に更新される場合に短期である
    請求項6記載の方法。
  8. 各背景モデルは一組の層として保持され、各層は多変量ガウス分布であり、パラメータが前記更新中の任意の時点の各ガウス分布を定義する
    請求項1記載の方法。
  9. 前記ガウス分布は、多次元である
    請求項8記載の方法。
  10. 前記時間スケールは、前記パラメータが更新されるレートである
    請求項5記載の方法。
  11. 前記動き画像の前記更新は、適応の遅い背景画素及び適応の速い前景画素に対応する前記動き画像の画素を除去し、前記動き画像の残りの画素が前記置き去り物体に対応するようにする
    請求項1記載の方法。
  12. 前記時間スケールは、用途に依存する
    請求項1記載の方法。
  13. 前記一組の背景モデルの前記更新は、
    各層の前記パラメータの平均及び分散の確率分布を推定することを含む、ベイズメカニズムを用いる
    請求項8記載の方法。
  14. 前記平均及び分散の期待値を前記置き去り物体の検出に用い、前記平均の分散を前記証拠値の信頼度として用いる
    請求項13記載の方法。
  15. 前記証拠閾値maxは、前記シーケンスの[10,300]の連続画像の範囲内にある
    請求項記載の方法。
  16. k=maxである
    請求項記載の方法。
  17. 前記背景モデルの一部は、前記シーケンス中のあらゆる画像に関して更新される
    請求項10記載の方法。
  18. 各組の層数は、前記信頼度に従って適応される
    請求項14記載の方法。
  19. 前記一組の背景モデルは、前記背景モデルが更新される前記時間スケールを除いて同一である
    請求項1記載の方法。
  20. 前記動き画像の前記画素に連結成分解析を適用すると共に、サイズ制約に従って前記置き去り物体を検出して知らせるステップをさらに含む
    請求項1記載の方法。
  21. 前記動き画像の前記画素に連結成分解析を適用すると共に、パターン制約に従って前記置き去り物体を検出して知らせるステップをさらに含む
    請求項1記載の方法。
JP2008026672A 2007-04-05 2008-02-06 シーン中に置き去りにされた物体を検出する方法 Active JP5058010B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/697,052 2007-04-05
US11/697,052 US7813528B2 (en) 2007-04-05 2007-04-05 Method for detecting objects left-behind in a scene

Publications (2)

Publication Number Publication Date
JP2008257693A JP2008257693A (ja) 2008-10-23
JP5058010B2 true JP5058010B2 (ja) 2012-10-24

Family

ID=39627410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008026672A Active JP5058010B2 (ja) 2007-04-05 2008-02-06 シーン中に置き去りにされた物体を検出する方法

Country Status (4)

Country Link
US (1) US7813528B2 (ja)
EP (1) EP1978470B1 (ja)
JP (1) JP5058010B2 (ja)
CN (1) CN101281596B (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014192441A1 (ja) * 2013-05-31 2014-12-04 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
WO2015186347A1 (ja) * 2014-06-03 2015-12-10 日本電気株式会社 検出システム、検出方法及びプログラム記憶媒体
US9761012B2 (en) 2014-07-08 2017-09-12 Nec Corporation Object tracking device, object tracking method, and computer-readable medium
US9934576B2 (en) 2013-08-27 2018-04-03 Nec Corporation Image processing system, image processing method, and recording medium
US10262421B2 (en) 2014-08-04 2019-04-16 Nec Corporation Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
US10885641B2 (en) 2016-10-19 2021-01-05 Nec Corporation Image processing device, stationary object tracking system, image processing method, and recording medium
US11003961B2 (en) 2014-06-03 2021-05-11 Nec Corporation Image processing system, image processing method, and program storage medium

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8284249B2 (en) 2008-03-25 2012-10-09 International Business Machines Corporation Real time processing of video frames for triggering an alert
JP5264582B2 (ja) * 2008-04-04 2013-08-14 キヤノン株式会社 監視装置、監視方法、プログラム、及び記憶媒体
US8121968B2 (en) * 2008-09-11 2012-02-21 Behavioral Recognition Systems, Inc. Long-term memory in a video analysis system
US8126833B2 (en) * 2008-09-11 2012-02-28 Behavioral Recognition Systems, Inc. Detecting anomalous events using a long-term memory in a video analysis system
TWI368185B (en) * 2008-11-06 2012-07-11 Ind Tech Res Inst Method for detecting shadow of object
US9373055B2 (en) * 2008-12-16 2016-06-21 Behavioral Recognition Systems, Inc. Hierarchical sudden illumination change detection using radiance consistency within a spatial neighborhood
US8285046B2 (en) * 2009-02-18 2012-10-09 Behavioral Recognition Systems, Inc. Adaptive update of background pixel thresholds using sudden illumination change detection
FR2944629B1 (fr) * 2009-04-17 2017-01-20 Univ De Tech De Troyes Systeme et procede de localisation de cible par un reseau de cameras
JP5305520B2 (ja) * 2009-05-19 2013-10-02 パナソニック株式会社 監視カメラシステム
KR101605168B1 (ko) * 2010-01-04 2016-03-22 삼성전자주식회사 이미지 처리 장치 및 방법
CN102201121A (zh) * 2010-03-23 2011-09-28 鸿富锦精密工业(深圳)有限公司 视频场景中的物件侦测系统与方法
JP5464489B2 (ja) * 2010-03-31 2014-04-09 サクサ株式会社 置き去り又は持ち去り判定装置
CN102256104B (zh) * 2010-05-20 2013-12-11 鸿富锦精密工业(深圳)有限公司 手持装置及利用其动态监控特定区域的方法
US8630455B2 (en) * 2010-07-20 2014-01-14 SET Corporation Method and system for audience digital monitoring
US8483481B2 (en) 2010-07-27 2013-07-09 International Business Machines Corporation Foreground analysis based on tracking information
US9154747B2 (en) 2010-12-22 2015-10-06 Pelco, Inc. Stopped object detection
KR101237970B1 (ko) 2011-01-17 2013-02-28 포항공과대학교 산학협력단 영상 감시 시스템, 및 이의 방치 및 도난 검출 방법
AU2011201582B2 (en) * 2011-04-07 2014-05-01 Canon Kabushiki Kaisha Immortal background modes
US20130027549A1 (en) * 2011-07-29 2013-01-31 Technische Universitat Berlin Method and device for video surveillance
US20130027550A1 (en) * 2011-07-29 2013-01-31 Technische Universitat Berlin Method and device for video surveillance
JP2013033317A (ja) 2011-08-01 2013-02-14 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
CN102314695B (zh) * 2011-08-23 2012-12-26 北京黄金视讯科技有限公司 一种基于计算机视觉的遗留物检测方法
US8744123B2 (en) 2011-08-29 2014-06-03 International Business Machines Corporation Modeling of temporarily static objects in surveillance video data
JP2013065151A (ja) 2011-09-16 2013-04-11 Sony Corp 画像処理装置、画像処理方法、および、プログラム
US8873852B2 (en) * 2011-09-29 2014-10-28 Mediatek Singapore Pte. Ltd Method and apparatus for foreground object detection
US8675917B2 (en) * 2011-10-31 2014-03-18 International Business Machines Corporation Abandoned object recognition using pedestrian detection
AU2011265429B2 (en) * 2011-12-21 2015-08-13 Canon Kabushiki Kaisha Method and system for robust scene modelling in an image sequence
DE102012200504A1 (de) 2012-01-13 2013-07-18 Robert Bosch Gmbh Analysevorrichtung zur Auswertung einer Überwachungsszene, Verfahren zur Analyse der Überwachungsszenen sowie Computerprogramm
EP2826020A4 (en) 2012-03-15 2016-06-15 Behavioral Recognition Sys Inc STANDARDIZING AN ALERT VOLUME IN A VIDEO SURVEILLANCE SYSTEM
US9260122B2 (en) * 2012-06-06 2016-02-16 International Business Machines Corporation Multisensor evidence integration and optimization in object inspection
US9113143B2 (en) 2012-06-29 2015-08-18 Behavioral Recognition Systems, Inc. Detecting and responding to an out-of-focus camera in a video analytics system
US9111353B2 (en) 2012-06-29 2015-08-18 Behavioral Recognition Systems, Inc. Adaptive illuminance filter in a video analysis system
US9317908B2 (en) 2012-06-29 2016-04-19 Behavioral Recognition System, Inc. Automatic gain control filter in a video analysis system
WO2014004901A1 (en) 2012-06-29 2014-01-03 Behavioral Recognition Systems, Inc. Unsupervised learning of feature anomalies for a video surveillance system
US9911043B2 (en) 2012-06-29 2018-03-06 Omni Ai, Inc. Anomalous object interaction detection and reporting
US9723271B2 (en) 2012-06-29 2017-08-01 Omni Ai, Inc. Anomalous stationary object detection and reporting
US9104918B2 (en) 2012-08-20 2015-08-11 Behavioral Recognition Systems, Inc. Method and system for detecting sea-surface oil
CN102867175B (zh) * 2012-08-31 2015-01-28 浙江捷尚视觉科技股份有限公司 一种基于立体视觉的atm机行为分析方法
US9256803B2 (en) * 2012-09-14 2016-02-09 Palo Alto Research Center Incorporated Automatic detection of persistent changes in naturally varying scenes
CN103729613A (zh) * 2012-10-12 2014-04-16 浙江大华技术股份有限公司 一种视频图像的检测方法及装置
US9232140B2 (en) 2012-11-12 2016-01-05 Behavioral Recognition Systems, Inc. Image stabilization techniques for video surveillance systems
US9020190B2 (en) 2013-01-31 2015-04-28 International Business Machines Corporation Attribute-based alert ranking for alert adjudication
CN103226712B (zh) * 2013-05-19 2016-01-20 南京新方向智能技术有限公司 一种基于有限状态机的遗留物检测方法
EP2833637A1 (en) * 2013-07-31 2015-02-04 Thomson Licensing Method for processing a current image of an image sequence, and corresponding computer program and processing device
EP3030981A4 (en) 2013-08-09 2016-09-07 Behavioral Recognition Sys Inc SYSTEM FOR DETECTING A COGNITIVE NEUROLINGUISTIC BEHAVIOR FOR FUSING DATA OF MULTIPLE SENSORS
CN103646544B (zh) * 2013-11-15 2016-03-09 天津天地伟业数码科技有限公司 基于云台和相机设备的车辆行为分析识别方法
US9754178B2 (en) 2014-08-27 2017-09-05 International Business Machines Corporation Long-term static object detection
US20160110091A1 (en) * 2014-10-16 2016-04-21 Sony Corporation Fast and natural one-touch deletion in image editing on mobile devices
US10409910B2 (en) 2014-12-12 2019-09-10 Omni Ai, Inc. Perceptual associative memory for a neuro-linguistic behavior recognition system
US10409909B2 (en) 2014-12-12 2019-09-10 Omni Ai, Inc. Lexical analyzer for a neuro-linguistic behavior recognition system
JP6230748B2 (ja) * 2015-02-26 2017-11-15 三菱電機株式会社 画像処理装置
US9844881B2 (en) * 2015-06-22 2017-12-19 GM Global Technology Operations LLC Robotic device including machine vision
EP3113107B1 (en) * 2015-07-02 2018-12-05 Continental Automotive GmbH Static soiling detection and correction
US9443316B1 (en) * 2015-07-21 2016-09-13 Sony Corporation Semi-automatic image segmentation
CN106408554B (zh) * 2015-07-31 2019-07-09 富士通株式会社 遗留物检测装置、方法和系统
CN105243355A (zh) * 2015-09-09 2016-01-13 大连理工大学 一种基于事件驱动的煤层气井站异常场景远程无线安全监测方法
US20170148291A1 (en) * 2015-11-20 2017-05-25 Hitachi, Ltd. Method and a system for dynamic display of surveillance feeds
CN105551014A (zh) * 2015-11-27 2016-05-04 江南大学 基于具有时空联合信息的信念传播算法的图像序列变化检测方法
EP3405927A1 (en) 2016-01-20 2018-11-28 Carrier Corporation A building management system using object detection and tracking in a large space with a low resolution sensor
JP2017151536A (ja) * 2016-02-22 2017-08-31 株式会社メガチップス 画像処理装置、制御プログラム及び領域特定方法
US10375399B2 (en) 2016-04-20 2019-08-06 Qualcomm Incorporated Methods and systems of generating a background picture for video coding
EP3246874B1 (en) * 2016-05-16 2018-03-14 Axis AB Method and apparatus for updating a background model used for background subtraction of an image
DE102016210632A1 (de) 2016-06-15 2017-12-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Überprüfen eines Medienverlustes eines Kraftfahrzeuges sowie Kraftfahrzeug und System zum Ausführen eines solchen Verfahrens
CN106683077A (zh) * 2016-12-07 2017-05-17 华南理工大学 一种扶梯口楼层板上大件物滞留检测方法
CN106778595B (zh) * 2016-12-12 2020-04-07 河北工业大学 基于高斯混合模型的人群中异常行为的检测方法
US10296601B2 (en) 2017-02-17 2019-05-21 International Business Machines Corporation Identifying abandoned objects
US10049308B1 (en) * 2017-02-21 2018-08-14 A9.Com, Inc. Synthesizing training data
US10671881B2 (en) 2017-04-11 2020-06-02 Microsoft Technology Licensing, Llc Image processing system with discriminative control
CN109255797B (zh) * 2017-07-14 2021-08-06 富士通株式会社 图像处理装置及方法、电子设备
US20200410312A1 (en) * 2018-02-08 2020-12-31 Digimarc Corporation Methods and arrangements for localizing machine-readable indicia
US10958807B1 (en) * 2018-02-08 2021-03-23 Digimarc Corporation Methods and arrangements for configuring retail scanning systems
CN108765470A (zh) * 2018-06-17 2018-11-06 天津理工大学 一种针对目标遮挡改进的kcf跟踪算法
MX2021003719A (es) 2018-09-28 2021-07-21 I D Systems Inc Sensores de carga, unidades de detección de carga, sistemas de ' detección de carga y sus metodos de uso.
WO2020118430A1 (en) * 2018-12-12 2020-06-18 Avigilon Corporation Object left behind detection
CN109636795B (zh) * 2018-12-19 2022-12-09 安徽大学 实时无跟踪的监控视频遗留物检测方法
CN109544838B (zh) * 2019-01-14 2020-09-08 博拉网络股份有限公司 一种用于特殊区域的人工智能认知识别系统
DE102019105275A1 (de) * 2019-03-01 2020-09-03 Connaught Electronics Ltd. Verfahren und System zum Detektieren eines Objekts auf einer Oberfläche eines Fahrzeugs
TWI698803B (zh) * 2019-06-17 2020-07-11 晶睿通訊股份有限公司 影像辨識方法及其監控攝影機與監控攝影系統
US11164007B2 (en) * 2019-07-23 2021-11-02 Conduent Business Services, Llc Method and system for detecting the owner of an abandoned object from a surveillance video
US11216666B2 (en) * 2019-12-11 2022-01-04 Fujifilm Business Innovation Corp. Understanding normality of an environment using semantic information from images
CN110897635B (zh) * 2019-12-31 2021-01-15 中国海洋大学 真实场景下心电图信号提取和识别的方法
KR102333418B1 (ko) * 2020-02-20 2021-12-01 한국기술교육대학교 산학협력단 조도 변화시 유기된 물체의 감시 방법
CN111401269B (zh) * 2020-03-19 2023-07-14 成都云盯科技有限公司 基于监控视频的商品热点检测方法、装置和设备
JP7377346B2 (ja) 2020-03-31 2023-11-09 ヌヴォトンテクノロジージャパン株式会社 情報処理方法、プログラム、情報処理システム
CN111832470A (zh) * 2020-07-15 2020-10-27 中兴飞流信息科技有限公司 一种融合多种模型的遗留物检测方法
WO2022093004A1 (en) * 2020-10-30 2022-05-05 Mimos Berhad System and method for computing motion information from detected moving objects
CN114022468B (zh) * 2021-11-12 2022-05-13 珠海安联锐视科技股份有限公司 一种安防监控中物品遗留丢失检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7466842B2 (en) * 2005-05-20 2008-12-16 Mitsubishi Electric Research Laboratories, Inc. Modeling low frame rate videos with bayesian estimation

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9953240B2 (en) 2013-05-31 2018-04-24 Nec Corporation Image processing system, image processing method, and recording medium for detecting a static object
JPWO2014192441A1 (ja) * 2013-05-31 2017-02-23 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
WO2014192441A1 (ja) * 2013-05-31 2014-12-04 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
US9934576B2 (en) 2013-08-27 2018-04-03 Nec Corporation Image processing system, image processing method, and recording medium
JPWO2015186347A1 (ja) * 2014-06-03 2017-04-27 日本電気株式会社 検出システム、検出方法及びプログラム
WO2015186347A1 (ja) * 2014-06-03 2015-12-10 日本電気株式会社 検出システム、検出方法及びプログラム記憶媒体
US10115206B2 (en) 2014-06-03 2018-10-30 Nec Corporation Detection system, detection method, and program storage medium
US11003961B2 (en) 2014-06-03 2021-05-11 Nec Corporation Image processing system, image processing method, and program storage medium
US9761012B2 (en) 2014-07-08 2017-09-12 Nec Corporation Object tracking device, object tracking method, and computer-readable medium
US10262421B2 (en) 2014-08-04 2019-04-16 Nec Corporation Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
US10776931B2 (en) 2014-08-04 2020-09-15 Nec Corporation Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
US10885641B2 (en) 2016-10-19 2021-01-05 Nec Corporation Image processing device, stationary object tracking system, image processing method, and recording medium
US11049260B2 (en) 2016-10-19 2021-06-29 Nec Corporation Image processing device, stationary object tracking system, image processing method, and recording medium
US11288817B2 (en) 2016-10-19 2022-03-29 Nec Corporation Image processing device, stationary object tracking system, image processing method, and recording medium

Also Published As

Publication number Publication date
US7813528B2 (en) 2010-10-12
EP1978470A1 (en) 2008-10-08
CN101281596A (zh) 2008-10-08
CN101281596B (zh) 2010-10-13
JP2008257693A (ja) 2008-10-23
EP1978470B1 (en) 2010-02-10
US20080247599A1 (en) 2008-10-09

Similar Documents

Publication Publication Date Title
JP5058010B2 (ja) シーン中に置き去りにされた物体を検出する方法
Porikli et al. Robust abandoned object detection using dual foregrounds
McHugh et al. Foreground-adaptive background subtraction
US9454819B1 (en) System and method for static and moving object detection
Porikli et al. Bayesian background modeling for foreground detection
Pless et al. Evaluation of local models of dynamic backgrounds
Mazinan et al. Applying mean shift, motion information and Kalman filtering approaches to object tracking
Porikli Detection of temporarily static regions by processing video at different frame rates
US10984252B2 (en) Apparatus and method for analyzing people flows in image
JP4619987B2 (ja) シーンをモデル化する方法
Tuzel et al. A bayesian approach to background modeling
US20140355829A1 (en) People detection apparatus and method and people counting apparatus and method
Zhao et al. Stochastic human segmentation from a static camera
US20170006215A1 (en) Methods and systems for controlling a camera to perform a task
Subudhi et al. Statistical feature bag based background subtraction for local change detection
Al-Najdawi et al. An automated real-time people tracking system based on KLT features detection.
Hu et al. A novel approach for crowd video monitoring of subway platforms
Jeong et al. A method for counting moving and stationary people by interest point classification
Pece From cluster tracking to people counting
Greenhill et al. Occlusion analysis: Learning and utilising depth maps in object tracking
Dorudian et al. Moving object detection using adaptive blind update and RGB-D camera
CN107665495B (zh) 对象跟踪方法及对象跟踪装置
Frejlichowski et al. Extraction of the foreground regions by means of the adaptive background modelling based on various colour components for a visual surveillance system
JP2014203133A (ja) 画像処理装置、画像処理方法
Chong et al. Visual based fall detection with reduced complexity horprasert segmentation using superpixel

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120731

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5058010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250