JP2009545223A - イベント検出方法及び上記方法を用いたビデオ監視システム - Google Patents

イベント検出方法及び上記方法を用いたビデオ監視システム Download PDF

Info

Publication number
JP2009545223A
JP2009545223A JP2009521364A JP2009521364A JP2009545223A JP 2009545223 A JP2009545223 A JP 2009545223A JP 2009521364 A JP2009521364 A JP 2009521364A JP 2009521364 A JP2009521364 A JP 2009521364A JP 2009545223 A JP2009545223 A JP 2009545223A
Authority
JP
Japan
Prior art keywords
image
learning
matrix
phase
verification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009521364A
Other languages
English (en)
Inventor
ジャンバティスタ・ジェンナーリ
ジョルジョ・ラッカネリ
ルッジェーロ・フレッツァ
アンジェロ・チェネデーセ
エンリコ・カンパーナ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Videotec SpA
Original Assignee
Videotec SpA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Videotec SpA filed Critical Videotec SpA
Publication of JP2009545223A publication Critical patent/JP2009545223A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Burglar Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)

Abstract

ビデオ監視システムのためのイベント検出方法と、関連したビデオ監視システムを開示する。本方法は、検出可能なイベントが存在しない複数の異なる時点において監督されるエリアに係る複数の学習画像を取得する学習フェーズと、上記エリアの現在の画像を取得する動作検出フェーズとを含む。本方法は、各学習画像を近似するか又は各学習画像に一致する複数の基準画像にてなる線形結合に対応する画像に対して、現在の画像を比較することにより、イベントの検出を行う。

Description

本発明は、請求項1の前段に記載のイベント検出方法に関し、また上記方法を用いたビデオ監視システムに関する。
本願において、用語「ビデオ監視システム」とは、少なくとも1つの画像取得装置を用い、かつある監督されるエリアから複数の画像にてなるシーケンスを取得できる監視システムを示す。
一般に、既知のビデオ監視システムは、異常なイベント(事象)が発生したときにアラームを発生することができるイベント検出システムを含む。
既知のシステムの一部では、ビデオ信号中の2つのフレームや、あるカメラにより異なる時点で撮影された2つの画像のような、2つの連続した画像の画素における輝度の変動(ユーザによって定義された所定のしきい値を超えるもの)が検出されるにすぎない。
このようなシステムに存在する欠点は、例えば移動する雲もしくは水面の反射に起因する突然の光の変動や、又は監督されるエリア内における自然な運動(例えば、風によって動く木の枝や、又は許可を受けて通りを通過する自動車)がいくつもの偽アラームを発生させうるということにある。
これらの欠点を克服するために、学習フェーズを備えたビデオ監視システムが知られている。この学習フェーズでは、システムは、監督されるエリアのモデルを、正常な状況において、すなわちアラームが発生させられるはずのない状況において構築する。動作フェーズ中において、撮影された画像の画素は、モデルの画素と比較される。画素の差分が、オペレータによって定義された所定のしきい値を超えたとき、アラームが発生される。
監督されるエリアの正常な状況に関するモデルを作成したとしても、アラームを発生させるには単一の画素がモデルから相違しているだけで十分なので、取得された画像とモデルとを画素毎に比較することの有効性はしばしば損なわれる。
これにより、多数の偽アラームが発生することになる。
偽アラームが発生する問題は、いくつかの既知の方法(特許文献1)によって取り組まれ、これらは事実上、学習フェーズ中に(例えば監視下の場面における自然な運動に起因して)強度の変動を示す画素を検出から減ずる。
このようなあまり有効ではない方法は、(特許文献1におけるように)ワークステーションにおけるプレゼンス検出のような、選ばれた状況下でのみ使用可能である。
特許文献2によって開示されるもののような、より高度な他の方法では、まず、(関連した平均及び分散を有する)各画素の静的なモデルの作成を準備し、続いてイベント検出フェーズ中に、検出された物体/人物の画像を外挿して、それを、許可された物体のモデルにてなる集合に対して比較する。
しかしながら、この方法には、場面のモデル及び許可された複数の物体のモデルを格納するために使用可能な大量のメモリを必要とし、また、検出された物体を許可された物体に対して比較することで画像全体を実時間で解析するために大きな計算パワーを必要とするという欠点がある。
米国特許第5,892,856号明細書。 米国特許出願公開第2004/0246336号明細書。
既知のすべての方法に共通する問題点は、2つの連続したフレームにおける画素の輝度又は色差がオペレータにより定義された所定のしきい値を超えたときにアラームが発生されるという事実に起因する。この結果として、システムの効率はオペレータの技能に依存することになり、このことは、オペレータが熟練者でないときに問題となる。
本発明の主な目的は、従来技術の欠点を克服し、特に、偽アラームの回数を低減しかつ好ましくは使用可能なメモリ及び計算パワーに関して高性能を必要とすることなく、より効率的なイベント検出を行うことができるビデオ監視システム及びイベント検出方法を提供することにある。
本発明のさらなる目的は、高度に自動化されたシステムであって、ある画素の正常な変動をアラーム条件から区別しなければならないときの基準となる誤差しきい値を自動的に計算できるシステムを提供することにある。
本発明の目的はまた、メモリ使用を最適化することができ、学習フェーズ中に監督されるエリアに存在する動的変化に依存して計算複雑度を変化させることができるビデオ監視システム及びイベント検出方法を提供することにある。
本発明の上記目的及び他の目的は、本明細書と一体と考えられる添付の請求の範囲に記載のビデオ監視システム及び方法によって達成される。
本発明は、現在の画像の各画素を1つずつ、基準画像の各画素又は画素モデルに対して比較するという従来のアプローチをやめるという着想に基づいている。
特に、本発明は、画像の複数の領域、すなわち複数の画素にてなる複数のグループを考慮し、これによりイベントを検出するときに画素間の相関も考慮することを目的とし、この結果、偽アラームの回数を低減することができる。
本発明に係るビデオ監視システムは、監督されるエリアの画像を取得し、当該画像の領域を1つずつ、正常な状況を表す各「モデル」に対して比較する。当該モデルは、学習フェーズ中に取得される複数の画像であって、監視下の場面の正常な状況に関する複数の画像にてなる空間の形式で構築される。
画像又は領域は画像ベクトルのように取り扱われ、正常な状況からのその差分は、正常な状況において監督されるエリアの「モデル」を表す複数の画像にてなる空間への画像ベクトルの投影誤差として測定される。
「モデル」は、学習フェーズ中に正常な状況下にあるエリアを撮影することで取得された複数の画像にてなる集合に基づいて構築される。
学習フェーズは、モデル検証フェーズを含んでもよく、これは実質的に、動作検出フェーズのシミュレーションに存する。検証フェーズでは、学習フェーズ中に取得された正常な状況下の場面の複数の画像を用い、構築されたばかりのモデルの良否をチェックする。
イベントを検出するために、本発明に係る方法は、特に、主成分分析(PCA)の特性を利用する。
有利なことには、本方法はまた、取得される画像の情報内容の適切な削減を行い、これにより、場面内で発生する小さな現象を無視して偽アラームの回数を低減する。
本発明のさらなる目的及び利点は、以下の詳細な説明及び添付の図面から明らかになるであろう。
本発明の実施形態に係るビデオ監視システムを示す図である。 本発明に係るビデオ監視システムによって取得された画像に対して行われる処理のブロック図である。 本発明に係るビデオ監視システムによって取得された画像に対して行われる処理のブロック図である。 取得されて複数の領域に分割された画像を示す図である。 イベント検出の例を示す図である。 投影誤差を評価することによるイベント検出の概念を示す図である。
図1はビデオ監視システム1を示す。モニタ3を通じて、オペレータ2は、画像取得装置5によって取得された画像6を監視する。
図1において、画像取得装置は、出力ビデオ、すなわち複数の画像にてなる連続シーケンスを提供することができるビデオカメラである。ただし、本発明の目的のためには、ビデオカメラは、他の任意の等価な手段、例えば定期的な時間間隔で画像を取得するようにプログラミングされたディジタルカメラで置き換え可能であるということが理解されよう。
従って、ある画像は、ビデオカメラによって取得されたビデオ信号の1つもしくは半分のフレーム、ディジタルカメラによって取得された静止画像、CCDセンサの出力、又はより一般的には上記のものの一部に対応するものであってもよい。
よく知られたように、ディジタル画像又はアナログ画像は、画素、すなわち画像の基本構成要素に分解することができる。
従って、各画像には、アナログビデオ信号の電圧値又は画素の輝度もしくは色値を要素とする1つ又は複数の行列を関連付けることが可能である。
カラービデオカメラが使用されるとき、取得される画像は3次元行列に対応し、ここで、行列の各要素(すなわち各画素)は、RGB信号の値に対応する3つ組の値に対応する。
グレースケール画像では、行列の各要素は、対応する画素のグレー値に対応する値に関連付けられる。
本明細書の説明では、画像行列の関連づけは明示的にはしないが、以下、例えば画像の行及び列を参照する。
再び図1を参照すると、ビデオカメラ5は、あるエリアの撮影、この特定の場合では廊下の撮影を行ってビデオ信号を送り、ビデオ信号はモニタ3上に表示されることができる。
本発明によれば、監視システム1は、ビデオカメラ5によって取得された画像に基づいてイベントを検出することができる画像処理装置4を含む。
図1において、画像処理装置4は、ビデオカメラによって送られたビデオ信号を受信して処理し、画像をモニタに表示するために、ビデオカメラ5及びモニタ3に接続された電子計算機として表されている。
好ましい実施形態では、画像処理装置4はビデオサーバであり、すなわち、画像取得装置からビデオ信号を受信し、本発明の方法に従ってそれを処理し、接続された1つ又は複数の端末にビデオ信号を転送する数値計算機である。端末は、特に、オペレータのワークステーションである。
当然ながら、他の多くの方法が同様に可能であり、例えば、画像処理装置4はビデオカメラ5に組み込まれていてもよく(このような場合、これは画像取得装置及び画像処理装置を含む)、これはモニタ3に、直接接続又はビデオスイッチを介した接続のいずれかで接続される。
画像処理装置4は、以下に説明するイベント検出方法を実施することができるコード部分を含むソフトウェアを備える。
上記方法によれば、学習フェーズが設置時に少なくとも1回実行され、ここで、システムは、監視下の場面の、正常な状況における「モデル」を構築する。
ただし、上記方法によれば、学習フェーズは、異なる環境条件下(光、交通など)で数回繰り返されることの利益を受けてもよい。これにより、1つ又は複数のモデルを構築することが可能になる。
例えば、例えば、いくつかのモデルが、1日のうちの異なる時刻に構築されてもよい。この場合、所定の時刻に取得された画像は、その時刻の有効なモデルに対して比較される。
正常な状況において、すなわち検出可能ないかなるイベントも存在しない場合において、オペレータ2はソフトウェア学習フェーズを開始し、ここで、監督されるエリアの複数の画像が取得され、これらを以下では「学習画像」と呼ぶ。
以下に説明する好ましい実施形態では、取得される画像は、ビデオカメラ5によって生成されるビデオ信号のフレームに対応する。
このフェーズ中において、取得される複数の画像が互いに相違するように、例えば木の葉、又は場面の背景で通りを移動する乗り物のような、移動する物体を撮影することができる。
従って、モデルは、監視下の場面を、動的に変化する状況において、いかなるイベントの検出もなしに表すことができる。
図2aに示すように、イベント検出方法の学習フェーズにおける最初のステップは、ビデオカメラによって取得されたビデオ信号201に基づくN個のフレームF,…,Fにてなる集合を選択することである(202)。好ましくは、これらのフレームに対しては所定の画像処理演算が実行され、例えば、取り扱われるデータのサイズを削減するためにグレースケール変換(203)が実行され、可能であれば追加的又は代替的に、検出されるべきではないすべての高周波変動を除去又は平滑化するためにガウス核を用いた低域通過フィルタ処理(204)が実行され、これにより、取り扱われる画像の情報内容を削減し、画像の情報内容のうちの関心部分に集中して検出を行うことができる。
このように修正されたフレームは、次いで、学習バッファに挿入される(205)。
代替として、図2bに示すように、上述の画像処理ステップは、取得されたフレームの各々に対して周期的に繰り返されてもよい。この場合、最初にパラメータnが1に設定され、画像が取得され(202b)、これは次いで、グレースケール変換され(203b)、低域通過フィルタによってフィルタ処理され(204c)、バッファに格納される(205c)。続いて、nの値がインクリメントされ、これらのステップは、N個の画像がバッファに格納されるまで繰り返される。
学習バッファの内容は、いったん生成されると、2つの部分に細分される。その第1のグループに含まれるフレームは「トレーニングフレーム」と呼ばれ、これらに対して主成分分析(PCA)が実行される。その第2のグループに含まれるフレームは「検証フレーム」と呼ばれ、これらは、PCAで得られた結果を検証するために使用される。
従って、学習フェーズは、対応して、トレーニングフェーズ及び検証フェーズを含む。
好ましい実施形態によれば、トレーニングフェーズ中において、トレーニングフレームFの各々(本実施例において、その個数はSである)と、好ましくは学習バッファに格納されたフレームの各々とは、予め定義されたグリッドによって、最大でM×M=m個の画素を有する複数の領域(すなわち好ましくは正方形又は矩形形状を有する小さな画像)Ri,jに細分される。
その結果は、図3に示すように、各フレームから得られる複数の画像部分になる。
グリッドのサイズは、監視下の場面において発見されるべき目標物の典型的な寸法に依存する。
ここで、上記グリッドは、撮影時の視野及びオペレータの必要性に依存して設置時に設置者により設定されてもよく、さもなければ工場で予め定義されてもよい。
フレームFの各領域Ri,jについて、対応する列ベクトルIRi,j(F)が得られる。
ベクトルIRi,j(F)は、実質的には、行列Ri,jの要素(すなわち領域の画素の値)を漸進的に入力することによって得られ、これらは、列を左上からスクロールするときにともに生じる。従って、要素IRi,j(F)(2)は、画像Ri,jの第2行第1列に位置する画素に対応する。
同じ領域Ri,jの列ベクトルを並置することにより、対応する正常性行列Yi,j=(IRi,j(F),IRi,j(F),…,IRi,j(F))が生成される。
正常性行列の列成分は、画像のベクトル空間を生成する。
列成分は、異なる複数のインスタンス及び正常な状況における、監視下の場面のある領域に関する情報を含む。それに対して、各共分散行列の自己ベクトル(autovector)は、その主成分、言い換えるとYi,jすなわち収集された画像の列成分の分散が大きくなる方向である。
いったん行列Yi,jが得られると、特異値分解(SVD)が行われて、次式を満たす3つの行列Ui,j,Vi,j,Σi,jが得られる。
i,j=Ui,j・Σi,j・Vi,j
ただし、
i,j=[u,…,u
Σi,j=diag(σ,…,σ
i,j=[v,…,v
ここで、u(これは実数上のm次元空間に属するベクトルである)は、Yi,jの共分散行列の自己ベクトルであり、σ,…,σは、Yi,jの特異値である。
知られているように、SVD分解を用いるとき、対角行列Σi,jの要素は以下の関係式によって拘束される。
σ≧…≧σ≧σr+1≧…σ≧0
本発明によれば、イベントの検出を最適化し、画像における関連した情報内容に集中するために、行列Yi,jを次式の行列により近似する。
i,j =Ui,j ・Σi,j ・(Vi,j
ただし、
i,j =[u,…,u
Σi,j =diag(σ,…,σ
i,j =[v,…,v
ここで、Yi,j を構築するために考慮される特異値の個数rは、所定のしきい値未満のすべての特異値を無視することによって得られる。
行列Yi,j は、行列Yi,jと同じ次元を有するが、行列Yi,jの最初のr個の主成分に関する情報のみを含む。
行列Ui,j の列u,…,uは、行列Yi,jの主成分である。
しきい値を決定するために、いくつかのテストが行われているが、このようなテストに関しては、Yi,j(すなわち行列を構築するために使用される画像部分Ri,j)のエネルギーの20%〜30%、好ましくは25%を無視することでYi,jの情報内容を近似したときに、良好なイベント検出を達成可能であることが示されている。
特異値に関する既知の特性に起因して、(S個の特異値を有する)行列Yi,jの最初のr個の主成分に拘束されたエネルギーの割合(パーセンテージ)%E(r)は、次式で与えられる。
Figure 2009545223
これらの考慮事項に基づき、領域Ri,jの各々について、rの各値が決定されてYi,j が構築されるが、これは、学習フェーズ中に何が学習されたかということに関する本質を表す。
この時点において、正常な状況における監視下の場面を複数のトレーニングフレームにてなる学習集合が十分に表しているかということを確認する目的で、検証フェーズが実行される。
上記確認では、動作検出フェーズのシミュレーションを行い、ここでは、監督されるエリアの現在の画像は、少なくとも1つの検証フレームFVALによって、すなわち学習集合には属さず従って正常性行列Yi,jの構築には使用されない学習画像によって置き換えられる。
実際には、検証は少なくとも1つの検証フレームFVALを用いて実行され、上記検証フレームFVALは、トレーニングフレームを細分する際にすでに用いたものと同じグリッドを用いて複数の領域Ri,j(FVAL)に細分される。
領域Ri,j(FVAL)の各々について、対応するベクトルIRi,j(FVAL)が、トレーニングフレームについてすでに実行したときと同様に生成される。
続いて、ベクトルIRi,j(FVAL)は、複数の学習画像にてなる空間に投影され、検証画像と、行列Yi,j において合成された正常な状況との「距離」が決定される。
知られているように、m次元の実数ベクトルを要素とする行列Yi,j =(y ,y ,…,y )が与えられたとき、行y ,y ,…,y にてなるすべての線形結合からなり、実数上のm次元空間の部分空間である空間Range(Yi,j )を定義することができる。既知の線形代数の定理によれば、部分空間Range(Yi,j )は、Ui,j の列、すなわちYi,jの最初のr個の主成分にてなるすべての線形結合からなる部分空間Range(Ui,j )と一致する。
従って、フレームFVALの画像部分Ri,j、すなわちm次元の実数ベクトルであるベクトルIRi,jの、Yi,jの主成分に対する投影は、次式に定義される投影演算子を用いて得られる。
Figure 2009545223
いったん上記演算子が計算されると、画像部分Ri,jの各々について、投影Proj(IRi,j)及び投影誤差err_Proj(IRi,j)が次式により計算される。
Proj(IRi,j)=Ui,j ・(Ui,j ・IRi,j
err_Proj(IRi,j)=‖Proj(IRi,j)―IRi,j
投影誤差が各しきい値よりも大きくなったとき、すなわち次式の関係が満たされたとき、監視下の場面に関して異常状態の信号が発生される(すなわちイベントが検出される)。
err_Proj(IRi,j)≧Thri,j
好ましい実施形態によれば、しきい値Thri,jは自動的に決定されて、行列Yi,jのr+1番目の特異値σr+1、すなわち次式の関係を満たす特異値のうちで添字が最も大きいものに設定される。
Figure 2009545223
有利なことには、画像中に存在するすべての背景ノイズを考慮するように、k>1を用いて、しきい値はkσr+1に設定することができる。
検証フレームFVALは正常な状況における場面を表すはずであるので、最悪の条件下であってもイベントが検出されることはないであろう。さもなければ、取得された複数のトレーニングフレームにてなる集合は、正常な状況における場面を表すものではなく、本方法によれば、この場合には、異なる学習集合を選択して行列Yi,j を再構築することが必要になるであろう。
(トレーニングフレームがではなく)検証フレームが実際に正常な状況を表していないことを原因として良好なトレーニングフレームにてなる集合を廃棄してしまうことを防止する目的で、好ましい有利な実施形態では、本方法は、複数の検証フレームに対してイベント検出のシミュレーションを行う。
本方法のこの実施形態によれば、合計測定回数に対して計算される予め設定された割合、例えば25%よりも多い所定回数のイベントが検出されたときに、複数のトレーニングフレームにてなる集合は変更される。例えば、検証フェーズにおいて100個の検証フレームを確認して25個のイベントを検出したとき、本方法は、学習集合の再構築を要求する。
さらに有利な実施形態によれば、複数の検証画像に係る平均投影誤差
Figure 2009545223
がしきい値Thri,j以上であるとき、正常性行列Yi,jは、新たな学習集合に基づいて再生成される。
平均投影誤差は次式により計算される。
Figure 2009545223
ここで、「media」とは、検証画像の投影誤差err_Proj1,err_Proj2,err_Proj3,…を受信してそれらの平均値を出力する関数である。
他の実施形態では、複数の検証画像に係る投影誤差のうちで最大の投影誤差
Figure 2009545223
を計算することができる。この誤差が予め設定されたしきい値を超えているとき、新たな学習集合を再構築することでトレーニングフェーズが繰り返される。
好ましい実施形態では、追加されるフレームの個数は、平均投影誤差
Figure 2009545223
としきい値との差に依存する。
代替として、バッファ中の使用可能なメモリに依存する予め決められた個数のフレームが追加されてもよい。
好ましくは、学習集合に追加されるフレームのすべてが連続したものではない。
学習集合の最大サイズは、使用可能なメモリ及び計算パワーの関数として(設置時又は製造時において)定義されてもよい。
学習フェーズ中に、本方法は、イベントを検出するために有用な複数の情報の格納を行う。特に、以下の情報が格納される。
・行列Ui,j =[u,…,u
・しきい値Thri,j
・行列Yi,jを最適化する各領域Ri,jの主成分の個数r
いったん学習フェーズが終了すると、ビデオ監視システムは、任意のイベントを検出するために、監督されるエリアの現在の画像を取得することにより実際の動作フェーズを開始することができる。ビデオカメラ5を通じて、監督されるエリアの現在の画像が取得され、特にビデオカメラによって生成されたビデオ信号のフレームF*が取得される。
フレームF*は、学習フェーズ中にすでに使用されたものと同じグリッドにより、複数の領域Ri,j(F*)に細分される。
領域Ri,j(F*)の各々について、対応するベクトルIRi,j(F*)が生成され、次にこれは、Yi,jの主成分に対して、すなわち複数の学習画像にてなる空間に対して投影され、これにより、検証フェーズで説明したように次式の投影誤差を評価する。
err_Proj(IRi,j)=‖Proj(IRi,j)―IRi,j
各領域Ri,j内において、システムにより同じ領域Ri,jについて選択されたしきい値よりも投影誤差が大きいとき、イベントの検出が行われる。
これらのステップは、学習フェーズ中に格納された情報を用いる。
図4は、イベント検出の一例を示す。分析されるフレームF*は、図1及び図3に示したものと同じ廊下を示し、ここでは2人の人物が存在し、彼らの輪郭がフレームの一部を占有している。図4の例では、人物の輪郭は7個の領域Ri,jを占有している。
人物によって占有されたこれらの領域Ri,j(白い輪郭線で強調した)のみが、許容されるしきい値よりも大きな誤差を有し、従ってアラームを発生させる。
上述のアルゴリズムは画像をベクトルとして取り扱うが、明らかに、このような操作の物理的意味を見逃すべきではなく、このような操作は、異なる方法及び異なるステップによっても達成可能である。
画像のベクトル空間Range(Yi,j )における画像ベクトルの投影誤差を評価することによりイベントを検出することは、各学習画像を近似するか又は各学習画像に一致する複数の基準画像にてなる線形結合に対応する画像に対して、現在の画像Ri,j(F*)を比較することに対応する。
この概念は、図5を参照すると明らかになるであろう。
空間Range(Yi,j )は平面Γによって表され、この平面Γにおいて、基準画像y ,…,y と、このような基準画像にてなるすべての線形結合C,C,C,…とが存在している。
現在の画像Ri,j(F*)を平面Γ上に投影することは、上記画像を、L2ノルムの意味で画像Ri,j(F*)に近接する基準画像にてなる線形結合に対して比較することを含意する。
これは、画素毎の比較ではなく、画像毎の比較である。このことは、画像の画素値が考慮されることに加えて、主成分分析を通じてその相関も考慮されることを意味する。
この比較は、本発明の好ましい有利な実施形態によれば、画像の空間Range(Yi,j )において現在の画像に対応するベクトルを投影するステップによって合成される。ただし当然ながら、この比較は、代替として、最初に単一の画素の値を比較し、次いで、現在の画像の画素と、学習フェーズ中に構築された画像であって、正常な状況で取得された画像の近似又は一致画像にてなる線形結合に対応する画像の画素との間の関係を比較することによって達成されてもよい。
本発明の利点は、以上の説明から明らかであろう。
提案するアプローチ、すなわち現在の画像の部分(すなわち画素のグループ)と学習フェーズ中に構築された各モデルとの比較に基づくアプローチは、画素間の空間的相関も考慮することができるので、各画素の比較に基づく既知の方法よりも高い信頼性を有することがわかる。
さらに、ある画素の正常な状況を表すために統計的モデルを用いる既知の方法とは異なり、本発明に係るモデルは、学習フェーズで得られた画像中の1つの領域にそれぞれ関連する複数のベクトル空間にてなる集合に基づいている。
従って、結果的に、本発明に係るモデルは、平均及び分散のような統計的パラメータではなく画像を用いるので、従来技術の方法よりもずっと正確に正常性を表すことができる。
また、PCAは、元のデータを再構築できる(これは、既存の方法で用いられる統計的方法では不可能である)情報圧縮方法であり、よって、正常性を記述する際に用いる品質を損なうことなく、また高い信頼性で検出を行うことができる。
提案するアプローチではまた、システムのプログラミング及び設定の際に任意の選択を必要とする従来のアプローチとは異なり、高度の自動化を提供する。
特に、検出のしきい値は、学習データに基づいて自動的に計算される。
さらに、提案するアプローチでは、学習フェーズ中に監視下の場面に存在する動的変化に依存して、学習バッファの長さを自律的に選択する。特に、本アルゴリズムは、使用可能なメモリと場面の動的変化との間における折衷的な解決方法を選択する。
さらに、ベクトル空間を表すために使用される主成分の最小個数もまた、場面の動的変化の関数として変化するものであり、これもまた、本アルゴリズムによって計算される。
以上の説明では、好ましい実施形態に係るビデオ監視システム及びイベント検出方法を開示しているが、これはシステムの実現及び方法の実装に係る限定的ではない例示を表しているということは明らかであろう。
特に、行列Yi,jの情報内容の削減を可能にする、最適な要素数ri,jの選択は、いくつかの異なる方法で実行可能である。
例えば、行列Yi,jの最大の特異値(σ)の所定割合(好ましくは1〜4%の範囲であり、より好ましくは2%)よりも大きな特異値に関連付けられたものを選ぶことにより、ri,j個の主成分を選択してもよい。
例えば、行列Yi,jが特異値σ=100,σ=20,σ=10,σ=1,σ=0.5,σ=0.3,…を有するとき、σの2%よりも大きな特異値を受理することにより、最初の3個の主成分u,u,uのみが考慮されることになる。
さらに、好ましい実施形態ではerr_Proj(IRi,j)=‖Proj(IRi,j)―IRi,jにより計算された投影誤差は、区別なく、次式のような任意のLpノルムで計算されてもよい。
err_Proj(IRi,j)=‖Proj(IRi,j)―IRi,jLp

Claims (27)

  1. ビデオ監視システムのためのイベント検出方法であって、上記方法は、
    検出可能なイベントが存在しない複数の異なる時点において監督されるエリアに係る複数の学習画像を取得する学習フェーズと、
    上記エリアの現在の画像を取得する動作検出フェーズとを含み、
    各学習画像を近似するか又は各学習画像に一致する複数の基準画像にてなる線形結合に対応する画像に対して、現在の画像を比較することにより、イベントの検出を行うことを特徴とする方法。
  2. 上記基準画像は、複数の学習画像にてなる学習集合に対して主成分分析方法を用いて取得されることを特徴とする請求項1記載の方法。
  3. 上記学習集合は、上記学習画像の画素を列成分に含む正常性行列に構成され、
    上記基準画像は、上記正常性行列(Yi,j)を近似する行列(Yi,j )の列成分である請求項2記載の方法。
  4. 上記主成分分析方法は、上記正常性行列を特異値に分解するステップを含み、上記分解は以下の3つの行列
    i,j=[u,…,u
    Σi,j=diag(σ,…,σ
    i,j=[v,…,v
    を生成し、上記正常性行列Yi,jは次式:
    i,j=Ui,j・Σi,j・Vi,j
    によって得られることを特徴とする請求項3記載の方法。
  5. 上記正常性行列を近似する行列は、
    i,j =Ui,j ・Σi,j ・(Vi,j
    であり、ここで、
    i,j =[u,…,u
    Σi,j =diag(σ,…,σ
    i,j =[v,…,v
    であり、行列Ui,j ,Σi,j ,Vi,j の列の個数rは、行列Ui,j,Σi,j,Vi,jの列の個数Sよりも小さい請求項4記載の方法。
  6. 上記正常性行列を近似する行列は、その特異値の総和が、上記正常性行列の特異値の総和に対して予め設定された割合、好ましくは75%未満になるようにされる請求項3〜5のいずれか1つに記載の方法。
  7. 上記正常性行列を近似する行列の特異値は、上記正常性行列の最大の特異値に対して予め設定された割合、好ましくは2%〜4%より大きい請求項3〜5のいずれか1つに記載の方法。
  8. 上記比較は、上記基準画像にてなる線形結合のすべてによって全体として定義されるベクトル空間において、上記現在の画像に対応する画像ベクトルを投影するステップを含むことを特徴とする請求項1〜7のいずれか1つに記載の方法。
  9. Thrが所定のしきい値であり、err_Proj(IR)が、ベクトルIRとProj(IR)との差の基準として計算された投影誤差であり、IRが画像ベクトルであり、Proj(IR)が上記ベクトル空間におけるIRの投影に対応するベクトルであるとき、次式の関係:
    err_Proj(IR)≧Thr
    が満たされるとき、イベントが検出されることを特徴とする請求項8記載の方法。
  10. 上記正常性行列及び上記近似する行列は共通した複数の特異値を有し、
    選択される上記しきい値は、共有されない最大の特異値に等しいことを特徴とする、請求項8が請求項2〜7のいずれか1つに従属したときの請求項9記載の方法。
  11. 上記正常性行列及び上記近似する行列は共通した複数の特異値を有し、
    選択される上記しきい値は、予め設定された1より大きな実数で乗算された、共有されない最大の特異値に等しいことを特徴とする、請求項8が請求項2〜7のいずれか1つに従属したときの請求項9記載の方法。
  12. 上記選択されたしきい値は、上記正常性行列の最大の特異値に対して、2%〜4%の間の予め設定された割合に等しいことを特徴とする請求項10記載の方法。
  13. 上記学習フェーズはトレーニングフェーズ及び検証フェーズを含み、
    上記トレーニングフェーズでは、上記各学習画像にてなる学習集合を選択し、
    上記検証フェーズでは、上記学習集合が、検出可能なイベントが存在しないときの上記エリアを表すモデルであることを確認することを特徴とする請求項1〜12のいずれか1つに記載の方法。
  14. 上記検証フェーズは、上記動作フェーズのシミュレーションを行うための少なくとも1つのシミュレーションステップを含み、上記シミュレーションは、上記基準画像にてなる線形結合に対して検証画像を比較することによって実行され、上記検証画像は、上記学習集合に属さない学習画像であることを特徴とする請求項13記載の方法。
  15. 上記トレーニングフェーズは、上記検証フェーズでイベントを検出したとき、上記学習集合を変更して繰り返されることを特徴とする請求項13又は14記載の方法。
  16. 上記検証フェーズは、
    上記基準画像にてなる線形結合のすべてによって全体として定義されるベクトル空間において、複数の検証画像に対応する複数の画像ベクトルを投影するステップ
    投影する毎に、1つの画像ベクトルと、上記ベクトル空間における当該画像ベクトルの投影に対応するベクトルとの間の差の基準として定義される投影誤差を検出するステップとを含む請求項13又は14記載の方法。
  17. 上記方法は、
    平均投影誤差を次式
    Figure 2009545223
    により計算することを含み、ここで、「media」は、上記検証画像の投影誤差err_Proj1,err_Proj2,err_Proj3,…を受信してそれらの平均値を返す関数であり、
    複数の検証画像に係る上記平均投影誤差
    Figure 2009545223
    が所定のしきい値以上であるとき、上記学習集合を変更してトレーニングフェーズを繰り返すことを含むことを特徴とする請求項16記載の方法。
  18. 上記方法は、
    上記複数の画像ベクトルのすべての投影に係る最大の投影誤差
    Figure 2009545223
    を決定することと、
    上記最大の投影誤差
    Figure 2009545223
    が所定のしきい値以上であるとき、上記学習集合を変更してトレーニングフェーズを繰り返すことを含むことを特徴とする請求項16記載の方法。
  19. 上記トレーニングフェーズは、上記検証フェーズにおいて、予め設定されたしきい値よりも大きな割合のイベントを検出したとき、上記学習集合を変更してトレーニングフェーズを繰り返すことを含むことを特徴とする請求項13又は14記載の方法。
  20. 上記学習フェーズ及びイベント検出フェーズの実行中の両方に、画像処理ステップを実行することを特徴とする請求項1〜19のいずれか1つに記載の方法。
  21. 上記画像処理ステップは、上記画像をグレースケールに削減するステップを含む請求項20記載の方法。
  22. 上記画像処理ステップは、好ましくはガウス核を用いた、低域通過フィルタ処理を含む請求項20又は21記載の方法。
  23. 上記学習画像及び上記現在の画像は、ビデオ信号のフレーム又は半分のフレームを予め定義されたグリッドによって細分することによって得られる複数の画素にてなるグループである請求項1〜22のいずれか1つに記載の方法。
  24. 電子計算機のメモリ領域にロードされることが可能であり、上記計算機によって実行されたときに請求項1〜23のいずれか1つに記載の方法を実施するコード部分を含む情報技術製品。
  25. 画像処理装置に接続された少なくとも1つの画像取得装置を備えたビデオ監視システムであって、上記画像処理装置は、請求項1〜23のいずれか1つに記載の方法の少なくとも一部、特にそのすべてを実施するビデオ監視システム。
  26. 好ましい有利な実施形態を示す本願明細書及び添付の図面の新規な教示内容に係る方法。
  27. 好ましい有利な実施形態を示す本願明細書及び添付の図面の新規な教示内容に係るシステム。
JP2009521364A 2006-07-27 2007-07-20 イベント検出方法及び上記方法を用いたビデオ監視システム Pending JP2009545223A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IT000556A ITTO20060556A1 (it) 2006-07-27 2006-07-27 Metodo di rilevazione eventi e sistema di video sorveglianza utilizzante il metodo
PCT/IB2007/002050 WO2008012631A1 (en) 2006-07-27 2007-07-20 Event detection method and video surveillance system using said method

Publications (1)

Publication Number Publication Date
JP2009545223A true JP2009545223A (ja) 2009-12-17

Family

ID=38670734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009521364A Pending JP2009545223A (ja) 2006-07-27 2007-07-20 イベント検出方法及び上記方法を用いたビデオ監視システム

Country Status (11)

Country Link
US (1) US20090310855A1 (ja)
EP (1) EP1908016B1 (ja)
JP (1) JP2009545223A (ja)
CN (1) CN101501729A (ja)
AT (1) ATE472142T1 (ja)
BR (1) BRPI0714646A2 (ja)
CA (1) CA2658020A1 (ja)
DE (1) DE602007007267D1 (ja)
IT (1) ITTO20060556A1 (ja)
RU (1) RU2009106852A (ja)
WO (1) WO2008012631A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8947495B2 (en) * 2011-12-06 2015-02-03 Alcatel Lucent Telepresence apparatus for immersion of a human image in a physical environment
KR102217186B1 (ko) * 2014-04-11 2021-02-19 삼성전자주식회사 요약 컨텐츠 서비스를 위한 방송 수신 장치 및 방법
GB201512283D0 (en) 2015-07-14 2015-08-19 Apical Ltd Track behaviour events
CN106407657A (zh) * 2016-08-31 2017-02-15 无锡雅座在线科技发展有限公司 事件捕获方法和装置
US10157319B2 (en) 2017-02-22 2018-12-18 Sas Institute Inc. Monitoring, detection, and surveillance system using principal component analysis with machine and sensor data
CN113111843B (zh) * 2021-04-27 2023-12-29 北京赛博云睿智能科技有限公司 一种图像数据的远程采集方法及系统
CN115767040B (zh) * 2023-01-06 2023-04-25 松立控股集团股份有限公司 基于交互式持续学习的360度全景监控自动巡航方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2409029A (en) 2003-12-11 2005-06-15 Sony Uk Ltd Face detection

Also Published As

Publication number Publication date
EP1908016B1 (en) 2010-06-23
CA2658020A1 (en) 2008-01-31
CN101501729A (zh) 2009-08-05
ATE472142T1 (de) 2010-07-15
BRPI0714646A2 (pt) 2013-10-01
WO2008012631A1 (en) 2008-01-31
DE602007007267D1 (de) 2010-08-05
RU2009106852A (ru) 2010-09-10
US20090310855A1 (en) 2009-12-17
EP1908016A1 (en) 2008-04-09
ITTO20060556A1 (it) 2008-01-28

Similar Documents

Publication Publication Date Title
JP3981391B2 (ja) 監視装置
CN109167997B (zh) 一种视频质量诊断系统及方法
US20210295485A1 (en) Inspection device and inspection method
JP2009545223A (ja) イベント検出方法及び上記方法を用いたビデオ監視システム
EP1801757A1 (en) Abnormal action detector and abnormal action detecting method
KR102195706B1 (ko) 침입 탐지방법 및 그 장치
EP2352128B1 (en) Mobile body detection method and mobile body detection apparatus
CN102348128A (zh) 具有摄像机异常检测装置的监视用摄像机系统
JP2007209008A (ja) 監視装置
KR101548639B1 (ko) 감시 카메라 시스템의 객체 추적장치 및 그 방법
JP2012089929A (ja) 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム
TW200915196A (en) Method for detecting water regions in video
CN110399908A (zh) 基于事件型相机的分类方法和装置、存储介质、电子装置
JP7222231B2 (ja) 行動認識装置、行動認識方法及びプログラム
JP3910626B2 (ja) 監視装置
US8125522B2 (en) Spurious motion filter
CN110390226B (zh) 人群事件识别方法、装置、电子设备及系统
KR101799143B1 (ko) 타깃 사이즈를 추정하기 위한 시스템 및 방법
CN113496176A (zh) 动作识别方法、装置以及电子设备
KR101394473B1 (ko) 이동 물체 탐지 방법 및 그 감시 시스템
KR102600548B1 (ko) 구조물 건전성 경보 시스템 및 이를 이용한 경보 방법
KR101158728B1 (ko) 실시간 전경 영상 검출시스템 및 방법
US20070223818A1 (en) Method and apparatus for predicting the accuracy of virtual Scene based on incomplete information in video
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
WO2023112214A1 (ja) 注目映像検出装置、方法およびプログラム