JP4456867B2 - ビデオ中の異常イベントを検出する方法およびシステム - Google Patents

ビデオ中の異常イベントを検出する方法およびシステム Download PDF

Info

Publication number
JP4456867B2
JP4456867B2 JP2003546581A JP2003546581A JP4456867B2 JP 4456867 B2 JP4456867 B2 JP 4456867B2 JP 2003546581 A JP2003546581 A JP 2003546581A JP 2003546581 A JP2003546581 A JP 2003546581A JP 4456867 B2 JP4456867 B2 JP 4456867B2
Authority
JP
Japan
Prior art keywords
video
frame
zero run
run length
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003546581A
Other languages
English (en)
Other versions
JP2005510909A (ja
Inventor
ディヴァカラン、アジェイ
ラドクリシュナン、レギュナータン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2005510909A publication Critical patent/JP2005510909A/ja
Application granted granted Critical
Publication of JP4456867B2 publication Critical patent/JP4456867B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Description

本発明は、包括的にはビデオフレームシーケンスから動きベクトルを抽出することに関し、特にビデオ中の異常イベントを検出することに関する。
圧縮ビデオフォーマット
デジタルカラービデオ信号の帯域幅を圧縮する基本的な規格がモーションピクチャーエキスパーツグループ(MPEG)によって採用されている。MPEG規格は、画像のフルフレームの情報を時々にのみ作成することによって高いデータ圧縮率を達成する。画像のフルフレーム、すなわちフレーム内符号化フレームは、しばしば「Iフレーム」または「アンカー(anchor)フレーム」と呼ばれるもので、他のあらゆるフレームとは独立してフルフレームの情報を含む。画像差分フレーム、すなわちフレーム間符号化フレームは、しばしば「Bフレーム」および「Pフレーム」、または「予測フレーム」と呼ばれるもので、Iフレーム間で符号化され、基準フレームに関する画像差分すなわち残差(residue)のみを反映する。
通常、ビデオシーケンス中の各フレームは、より小さな画像要素(すなわち画素)データブロックに分割される。各ブロックは離散コサイン変換(DCT)関数にかけられ、統計的に依存した空間領域の画素が独立した周波数領域のDCT係数に変換される。それぞれの8×8または16×16の画素ブロックは、「マクロブロック」と呼ばれ、DCT関数にかけられて符号化信号をもたらす。
DCT係数は、通常エネルギーが集中するため、マクロブロック中で画像情報の主要部分を含むのは少数の係数のみである。例えば、あるマクロブロックがオブジェクトのエッジ境界を含む場合、そのブロックの変換後の、すなわちDCT係数で表されるエネルギーは、係数行列全体で比較的大きなDC係数とランダムに分布するAC係数とを含む。
一方、エッジでないマクロブロックは通常、同様に大きなDC係数と、そのブロックに関連付けられた他の係数よりも実質的に大きい少数の隣接するAC係数によって特徴付けられる。DCT係数は通常、適応的量子化にかけられた後、伝送媒体のためにランレングス符号化および可変長符号化される。したがって、伝送データのマクロブロックは通常、8×8より小さい符号語行列を含む。
フレーム間符号化フレームデータ、すなわち符号化されたPまたはBフレームデータのマクロブロックは、予測画素とマクロブロック中の実際の画素との間の差分のみを表すDCT係数を含む。フレーム内符号化およびフレーム間符号化データのマクロブロックはまた、使用した量子化レベル、マクロブロックのアドレスまたは位置インジケータ、およびマクロブロックのタイプといった情報も含む。この後者の情報はしばしば「ヘッダ」または「オーバーヘッド」情報と呼ばれる。
各Pフレームは、最も最後に現れたIフレームまたはPフレームから予測される。各Bフレームは、このBフレームが挟まれているIフレームまたはPフレームから予測される。予測符号化プロセスは、しばしば「動きベクトル」と呼ばれる変位ベクトルを生成することを含む。この変位ベクトルは、現在符号化中のBフレームまたはPフレームのマクロブロックに最もよく適合するIフレームのマクロブロックの変位の大きさを示す。Iフレーム中の適合ブロックの画素データを符号化中のPフレームまたはBフレームのブロックから画素毎に引き、残差を生じる。変換した残差およびベクトルは、PフレームおよびBフレームの符号化データの一部をなす。
従来のビデオ規格、例えばISO MPEG−1およびMPEG−2は、ビデオ信号の時間的および空間的圧縮を主に扱う比較的低レベルの仕様である。これらの規格を用いることにより、広範な用途にわたり高い圧縮率を達成することができる。より新しいビデオ符号化規格、例えばMPEG−4(「Information TechnologyGeneric coding of audio/visual objects」(ISO/IEC FDIS 14496-2 (MPEG4 Visual), Nov. 1998)を参照)は、任意形状のオブジェクトを別個のビデオオブジェクトプレーン(VOP)として符号化および復号化することを可能にする。これらの新たに出現した規格は、自然な素材と合成素材が統合された、アクセスがユニバーサルであるマルチメディア用途、例えば双方向ビデオを可能にするものである。例えば、特定タイプのビデオオブジェクトから特徴を抽出したい、あるいは特定クラスのビデオオブジェクトを処理したい(perform for)と思うかもしれない。
インターネット上でのビデオ配信といった新たなデジタルビデオサービスの出現に伴い、ビデオシーケンス中の情報をフレームレベルまたはオブジェクトレベルで特定する、例えばアクティビティを特定する信号処理技法がますます必要とされている。
特徴の抽出
圧縮データからビデオを索引付けするための特徴抽出の従来の研究は主に、DC係数の抽出に重点を置いていた。「Rapid Scene Analysis on Compressed Video」という題名の論文(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 5, No. 6, December 1995, page 533-544)において、YeoおよびLiuは、MPEG−2圧縮のビデオ領域においてシーン変化を検出する手法を記載している。著者らはまた、未圧縮の全画像データのシーケンスに基づくシーン変化の検出における以前の成果、および他者による様々な圧縮ビデオ処理技法を概説している。YeoおよびLiuは、原画像を空間的に縮小したもの、いわゆるDC画像と、圧縮ビデオから抽出したDCシーケンスとを使用してシーン解析操作を容易にすることを発表した。彼らの「DC画像」は原画像のブロック中の画素の平均値である画素で構成され、DCシーケンスはDC画像の減少させた数の画素の組み合わせである。DC画像の抽出に基づく技法は、IフレームからのDC値の抽出が比較的簡単であるため、Iフレームに関して優れていることに留意すべきである。しかしながら、他のタイプのフレームに関しては、さらなる計算が必要となる。
Wonらは、Proc. SPIE Conf. on Storage and Retrieval for Image and Video Databases, January 1998に発表した論文において、DC係数に費やされるビットを利用してフレーム中のエッジを見つけ出すことによって、圧縮したMPEG−2ビデオから特徴を抽出する方法を記載している。しかしながら、彼らの研究はIフレームのみに限定されている。
Koblaらは同論文集(Proceedings)に、YeoらのDC画像抽出を使用して、ビデオクリップを特徴付けるビデオトレイル(video trail)を形成する方法を記載している。
Fengら(IEEE International Conference on Image Processing, Vol. II, pp.821-824, Sept. 16-19, 1996)は、MPEG−2フレームのマクロブロック全体にビット割り当てを用いて、DC画像を抽出することなく、急激なシーン変化を検出する。Fengらの技法は、圧縮ビットストリームの解析に必要である以上の著しい計算を必要としないため、最も計算が単純である。
米国特許出願「Methods of scene change detection and fade detection for indexing of video sequences」(出願第09/231,698号、1999年1月14日提出)、「Methods of scene fade detection for indexing of video sequences」(出願第09/231,699号、1999年1月14日提出)、「Methods of Feature Extraction for Video Sequences」(出願第09/236,838号、1999年1月25日)は、Fengらの手法とYeoらの手法のある種の側面を踏まえて精確で単純なシーン変化の検出を行う、計算が単純な技法を記載している。
推測されるシーンまたはオブジェクトの変化を連続するフレーム群中で、DC画像の抽出に基づく技法を用いて精確に見つけ出した後、適切なビット割り当て技法および/または適切なDC残差係数処理技法を、見つけ出したシーンの近傍のPフレームまたはBフレーム情報に適用することによって、カット点が迅速かつ精確に見つけ出される。この複合方法は、MPEG−2のフレームシーケンスまたはMPEG−4の複数のオブジェクトシーケンスに適用可能である。MPEG−4の場合、各オブジェクトの領域を重み係数として用いて、フレームの各オブジェクトにおける変化の重み付き和を使用することが有利である。
米国特許出願第09/345,452号「Compressed Bit-Stream Segment Identification and Descriptor」(Divakaranら、1999年7月1日提出)は、フレーム間符号化フレームの変位の大きさをそのフレーム間符号化フレームに関連付けられた圧縮ビットストリーム中のビット数を基に求める技法を記載している。フレーム間符号化フレームはマクロブロックを含む。各マクロブロックは、そのマクロブロックから最もよく適合するフレーム内符号化フレームへの変位を表すフレーム間符号化フレームのビットのそれぞれの部分に関連付けられる。変位の大きさは、フレーム間符号化フレームに関連付けられた全マクロブロックの変位の大きさの平均である。変位の大きさの平均よりも小さいマクロブロックの変位の大きさはゼロに設定される。変位の大きさがゼロであるマクロブロックのランレングス数を求めて、1番目のフレーム間符号化フレームを特定する。
アクティビティ
これまでの研究は、動き情報の抽出と、動き情報をシーン変化の検出といった低レベルの用途に用いることに重点を置いてきた。高レベル用途向けの特徴を抽出する必要が依然としてある。例えば、ビデオシーケンス内のアクティビティの性質および非常イベントを示す特徴を抽出する必要がある。ビデオすなわちアニメーションシーケンスは、低速シーケンス、高速シーケンス、アクションシーケンス等と考えることができる。
高アクティビティの例には、サッカーの試合でゴールを決める、バスケットボールの試合で得点が入る、高速のカーチェイスといったシーンがある。一方、ニュースアナウンサーの映像(shot)、インタビューシーン、あるいは静止映像といったシーンは、低アクション映像と考えられる。静止映像は、フレーム間でアクティビティの変化がほとんどない映像である。ビデオの内容は一般に、アクティビティの高いものから低いものまでの全範囲にわたる。観察されるアクティビティに関連するビデオ中の非常イベントを特定できることも有用であろう。非常イベントは用途により、アクティビティの突然の増減、または他の一時的なアクティビティの変動であり得る。
方法およびシステムが、ビデオ中の非常イベントを検出する。あるシーンについてカメラが取得したビデオ中の各フレームから動きベクトルを抽出する。この動きベクトルから各フレームのゼロランレングスパラメータを求める。ビデオの所定の時間間隔にわたってゼロランレングスパラメータを合計し、現在の時間間隔のゼロランレングスの合計と、前の時間間隔のゼロランレングスの合計との間の距離を求める。次に、この距離が所定の閾値よりも大きい場合に非常イベントを検出する。
ゼロランレングスパラメータは、短いゼロランレングス、中間のゼロランレングス、および長いゼロランレングスに分類することができ、ビデオの各フレームの幅について正規化され、ビデオ中の別個の移動オブジェクトの数、サイズ、および形状を表すようになっている。
本発明は、以下の本発明の好適な実施形態の詳細な説明を添付図面とともに考慮すればより容易に明らかとなるであろう。
アクティビティ記述子
図1は、本発明による、ビデオ102中の非常イベントを検出するために用いられるアクティビティ記述子100を示す。ビデオ102は、「映像」103を形成するフレームシーケンス(f、...、f)を含む。以降、ビデオの映像またはセグメントは、何らかのまとまりのあるフレームの組、例えばレンズを開いて閉じるまでの間に撮影された全フレームを意味する。本発明は、ビデオ102中の空間、時間、方向、および強度情報を解析する。
空間情報は、映像中の移動領域のサイズおよび数をフレーム毎に表す。空間情報は、少数の大きな移動領域を有する「疎な(sparse)」映像(例えば「話者の顔(talking head)」)と、多数の小さな移動領域を有する「密な(dense)」映像(例えばフットボールの試合)とを区別する。したがって、アクティビティレベルが疎である映像は少数の大きな移動領域を有すると言え、アクティビティレベルが密である映像は多数の小さな移動領域を有すると言える。
時間分布情報は、映像中の各アクティビティレベルの持続時間を表す。時間情報は、動きアクティビティの強度を時間の次元において拡張したものである。情報の方向は、8個の等間隔の方向の組における動きの優勢方向を表す。方向情報は、ビデオ中の動きベクトルの角度(方向)の平均から抽出することができる。
したがって、アクティビティ記述子100は、ビデオシーケンス102中のアクティビティレベルの強度111、方向112、空間113、および時間114の属性を組み合わせる(110)。
動きベクトルの大きさ
アクティビティ記述子100のパラメータを、次のようにビデオの動きベクトルの大きさから導き出す。オブジェクトまたはフレームについて、「アクティビティ行列(activity matrix)」Cmvは次のように定められる。
mv={B(i,j)}
ここで
Figure 0004456867
ここで(xi,j,yi,j)は、(i,j)番目のブロックBに関連付けられた動きベクトルである。MPEGビデオにおいてアクティビティ記述子100を抽出する目的で、フレームまたはオブジェクトの記述子は以下のステップに従って構築される。
アクティビティ記述子の抽出
図2は、アクティビティ属性100の抽出方法200を示す。ステップ210において、フレーム内符号化ブロックB(i,j)211をゼロにセットする。
ステップ220では、フレーム/オブジェクトの各ブロックBについて、動きベクトルの大きさの平均Cmv avg221、すなわち、「動きの複雑さの平均」を次のように求める。
Figure 0004456867
M=ブロック数で表した幅
N=ブロック数で表した高さ
ステップ230では、Cmv avgの分散σ231を次のように求める。
Figure 0004456867
M=ブロック数で表した幅
N=ブロック数で表した高さ
ステップ240では、アクティビティ行列の閾値として平均を用いることにより、動きベクトルアクティビティ行列Cmvの「ランレングス」パラメータ241を次のように求める。
Figure 0004456867
以下の説明のために、ラスタ走査長(raster-scan length)についてはゼロランレングスパラメータのみを扱う。
ゼロランレングスパラメータを3つの種類、すなわち短いもの、中間のもの、および長いものに分類する。ゼロランレングスパラメータをオブジェクト/フレームの幅について正規化する。短いゼロランレングスはフレームの幅の1/3以下であると定義し、中間のゼロランレングスはフレームの幅の1/3より長く2/3未満であると意義する。長いゼロランレングスはフレームの幅以上である、すなわちランレングスは連続する数本のラスタ走査線にわたって延びる。「ゼロランレングス」のさらなる説明については、米国特許出願第09/236,838号「Methods of Feature Extraction of Video」(Divakaraら、1999年1月25日出願、参照により本明細書中に援用する)を参照。
以下の表記では、パラメータNsrを短いゼロランレングスの数として用い、中間のゼロランレングス、および長いゼロランレングスも同様にそれぞれNmrおよびNlrとして定義する。ゼロランレングスパラメータを量子化し、回転、平行移動、反転等に関して何らかの不変性を得る。
したがって、フレーム/オブジェクトのアクティビティパラメータ100は次の要素を含む。
Figure 0004456867
ゼロランレングス
図3および図4に示すように、ゼロランレングスパラメータ241は、フレーム中の別個の移動オブジェクトの数、サイズ、および形状、ならびにそれらのフレーム全体における分布を表すことができる。図3および図4において、横線は概してラスタスキャンの順序を示す。少数すなわち疎な数の大きな移動領域(例えば話者の顔300)を有するフレームの場合、比較的短いランレングス301の数は長いランレングス302の数と比べて比較的多い。長いランレングスは、フレーム上部に1箇所、下部に1箇所の2箇所しかないことに留意されたい。数個の小さなオブジェクト400を有するフレームの場合、短いランレングス401の数は中間のランレングスおよび長いランレングス402の数と比べて比較的少ない。
非常イベントの検出
図5は、各フレームのゼロランレングスパラメータを用いて非常イベントを検出する方法500を示す。ステップ510において、ビデオシーケンスから動きベクトルを抽出する。ステップ520では、各フレームについて短いゼロランレングス、中間のゼロランレングス、および長いゼロランレングスを求める。ステップ530では、各時間間隔tにわたってランレングスパラメータを合計する。例えば各時間間隔tは1分、すなわち30フレーム毎秒で1800フレームである。
ステップ540では、現在の時間間隔におけるランレングスパラメータの合計と、前の時間間隔のランレングスパラメータの合計との間の「距離」を求める。この距離が所定の閾値Tよりも大きい場合は非常イベントが起こっており(544)、そうでなければ起こっていない(542)。非常イベントの場合は警報装置550を作動させることができる。
距離メトリック(metric)はランレングスに対して作用するある種の関数f、すなわちf(S,Sn−1)>Tである。単純な例では、短いランレングスのみが考慮され、距離は短いランレングスの合計の差の絶対値、すなわち|S(Nsr)−Sn−1(Nsr)|である。検出すべき非常イベントのタイプに応じ、異なる関数を用いることができる。例えば、短いゼロランレングスと長いゼロランレングスのみが考慮され、距離は二乗の差である。
例えば、カメラが通常はシーン(例えば誰もいない玄関)を観察する監視用途では、ランレングスの合計の変化を非常イベント、すなわち侵入者の突然の立ち入りとみなす。
ハイウェイの交通監視カメラも同様に、ある時間間隔にわたる移動オブジェクトの平均数が突然減少すると、おそらくはシーン外の「下流の」事故に起因する交通渋滞を検出することができる。ここで、非常イベントすなわち下流の事故は、従来技術の交通監視用途のようにカメラによって直接観察されるのではなく推定されることに留意すべきである。
本発明は、リアルタイムビデオにおいて非常イベントを検出するか、あるいは事後にビデオを処理できることに留意すべきである。
好ましい実施形態を例として本発明を記載してきたが、本発明の精神および範囲内で他の様々な適用および変更がなされ得ることが理解される。したがって、添付の特許請求の範囲の目的は、本発明の真の精神および範囲に入る変形および変更をすべて網羅することである。
本発明によるアクティビティ記述子のブロック図である。 フレームの動きベクトルの大きさからアクティビティ記述子を抽出する方法のフロー図である。 ビデオ中のアクティビティが疎であるフレームの図である。 ビデオ中のアクティビティが密であるフレームの図である。 ビデオ中の非常イベントを検出する方法のフロー図である。

Claims (12)

  1. ビデオ中の異常イベントを検出する方法であって、
    ビデオ中の各フレームから動きベクトルを抽出すること、
    前記動きベクトルから各フレームのゼロのランレングスを求めること、
    前記ビデオの所定の時間間隔にわたって前記ゼロのランレングスを合計すること、
    現在の時間間隔のゼロのランレングスの合計と、前の時間間隔のゼロのランレングスの合計との間の所定の関数で定義される差分を求めること、
    前記差分が所定の閾値よりも大きい場合に前記異常イベントを信号で知らせること、
    を含むビデオ中の異常イベントを検出する方法。
  2. 前記ゼロのランレングスは、短いゼロのランレングス、中間のゼロのランレングス、および長いゼロのランレングスに分類される請求項1に記載のビデオ中の異常イベントを検出する方法。
  3. 前記ゼロのランレングスは、前記ビデオの各フレームの幅について正規化される請求項2に記載のビデオ中の異常イベントを検出する方法。
  4. 短いゼロのランレングスが前記フレームの幅の3分の1以下であると定義され、中間のゼロのランレングスが前記フレームの幅の3分の1より長く3分の2未満であり、長いゼロのランレングスが前記フレームの幅以上である請求項2に記載のビデオ中の異常イベントを検出する方法。
  5. 前記差分は、前記短いランレングスの合計の差の絶対値である請求項2に記載のビデオ中の異常イベントを検出する方法。
  6. 前記差分は、前記短いゼロのランレングスの合計の二乗と前記長いゼロのランレングスの合計の二乗との差である請求項2に記載のビデオ中の異常イベントを検出する方法。
  7. 前記ビデオは移動オブジェクトのないシーンのものであり、前記異常イベントは前記ビデオのシーンに現れた移動オブジェクトである請求項1に記載のビデオ中の異常イベントを検出する方法。
  8. 前記ビデオはハイウェイ上の車の通行を含むシーンのものであり、前記異常イベントは交通渋滞である請求項1に記載のビデオ中の異常イベントを検出する方法。
  9. 前記交通渋滞はシーン外の事故に起因するものである請求項1に記載のビデオ中の異常イベントを検出する方法。
  10. 前記異常イベントは、直接観察されるのではなく推定される請求項1に記載のビデオ中の異常イベントを検出する方法。
  11. リアルタイムビデオにおいて前記異常イベントを検出することをさらに含む請求項1に記載のビデオ中の異常イベントを検出する方法。
  12. ビデオ中の異常イベントを検出するシステムであって、
    シーンのビデオを取得するカメラ、
    前記ビデオ中の各フレームから動きベクトルを抽出する手段、
    前記動きベクトルから各フレームのゼロのランレングスを求める手段、
    前記ビデオの所定の時間間隔にわたって前記ゼロのランレングスを合計する手段、
    現在の時間間隔のゼロのランレングスの合計と、前の時間間隔のゼロのランレングスの合計との間の所定の関数で定義される差分を求める手段、および
    前記差分が所定の閾値よりも大きい場合に前記異常イベントを信号で知らせる警報装置、
    を備えるビデオ中の異常イベントを検出するシステム。
JP2003546581A 2001-11-19 2002-11-12 ビデオ中の異常イベントを検出する方法およびシステム Expired - Fee Related JP4456867B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/997,497 US6823011B2 (en) 2001-11-19 2001-11-19 Unusual event detection using motion activity descriptors
PCT/JP2002/011791 WO2003045070A1 (en) 2001-11-19 2002-11-12 Feature extraction and detection of events and temporal variations in activity in video sequences

Publications (2)

Publication Number Publication Date
JP2005510909A JP2005510909A (ja) 2005-04-21
JP4456867B2 true JP4456867B2 (ja) 2010-04-28

Family

ID=25544093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003546581A Expired - Fee Related JP4456867B2 (ja) 2001-11-19 2002-11-12 ビデオ中の異常イベントを検出する方法およびシステム

Country Status (5)

Country Link
US (1) US6823011B2 (ja)
EP (1) EP1446957A1 (ja)
JP (1) JP4456867B2 (ja)
CN (1) CN1224272C (ja)
WO (1) WO2003045070A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6847680B2 (en) * 2001-12-17 2005-01-25 Mitsubishi Electric Research Laboratories, Inc. Method for detecting talking heads in a compressed video
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US8724891B2 (en) * 2004-08-31 2014-05-13 Ramot At Tel-Aviv University Ltd. Apparatus and methods for the detection of abnormal motion in a video stream
US7667596B2 (en) * 2007-02-16 2010-02-23 Panasonic Corporation Method and system for scoring surveillance system footage
JP4775306B2 (ja) * 2007-04-23 2011-09-21 ソニー株式会社 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム
CN101339561B (zh) * 2008-08-07 2011-12-28 北京中星微电子有限公司 一种监控视频图像的检索方法、装置和监控系统
CN101685014B (zh) * 2008-09-22 2011-06-29 财团法人车辆研究测试中心 物体位置侦测装置及方法
US9299229B2 (en) 2008-10-31 2016-03-29 Toshiba Global Commerce Solutions Holdings Corporation Detecting primitive events at checkout
US8253831B2 (en) 2008-11-29 2012-08-28 International Business Machines Corporation Location-aware event detection
KR101726682B1 (ko) * 2011-04-27 2017-04-13 한화테크윈 주식회사 객체 정보 산출 방법 및 장치
CN102254329A (zh) * 2011-08-18 2011-11-23 上海方奥通信技术有限公司 基于运动向量归类分析的异常行为检测方法
US20150030252A1 (en) * 2011-12-16 2015-01-29 The Research Foundation For The State University Of New York Methods of recognizing activity in video
JP6494903B2 (ja) * 2013-02-14 2019-04-03 ソニー株式会社 分析システム、分析プログラム及び分析方法
GB201512283D0 (en) 2015-07-14 2015-08-19 Apical Ltd Track behaviour events
CN105912652B (zh) * 2016-04-08 2019-05-31 华南师范大学 基于关联规则和用户属性的异常行为检测方法和系统
TW201904265A (zh) * 2017-03-31 2019-01-16 加拿大商艾維吉隆股份有限公司 異常運動偵測方法及系統
US10902626B2 (en) 2018-04-11 2021-01-26 International Business Machines Corporation Preventing intrusion during video recording or streaming
JP6995083B2 (ja) * 2019-05-15 2022-01-14 Kddi株式会社 原映像ストリームから有意映像ストリームを生成するプログラム、装置及び方法
US11776319B2 (en) * 2020-07-14 2023-10-03 Fotonation Limited Methods and systems to predict activity in a sequence of images
CN112991476B (zh) * 2021-02-18 2021-09-28 中国科学院自动化研究所 基于深度压缩域特征的场景分类方法、系统及设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5495555A (en) * 1992-06-01 1996-02-27 Hughes Aircraft Company High quality low bit rate celp-based speech codec
US5847776A (en) * 1996-06-24 1998-12-08 Vdonet Corporation Ltd. Method for entropy constrained motion estimation and coding of motion vectors with increased search range
US6483944B1 (en) * 1998-07-01 2002-11-19 Victor Company Of Japan, Limited Data coding method and apparatus therefor
US6618507B1 (en) * 1999-01-25 2003-09-09 Mitsubishi Electric Research Laboratories, Inc Methods of feature extraction of video sequences
EP1065877A1 (en) * 1999-07-01 2001-01-03 Mitsubishi Denki Kabushiki Kaisha Segment identification for compressed video bit-streams
US6553150B1 (en) * 2000-04-25 2003-04-22 Hewlett-Packard Development Co., Lp Image sequence compression featuring independently coded regions
US6507618B1 (en) * 2000-04-25 2003-01-14 Hewlett-Packard Company Compressed video signal including independently coded regions

Also Published As

Publication number Publication date
US20030095602A1 (en) 2003-05-22
WO2003045070A1 (en) 2003-05-30
US6823011B2 (en) 2004-11-23
CN1224272C (zh) 2005-10-19
JP2005510909A (ja) 2005-04-21
CN1488224A (zh) 2004-04-07
EP1446957A1 (en) 2004-08-18

Similar Documents

Publication Publication Date Title
JP4456867B2 (ja) ビデオ中の異常イベントを検出する方法およびシステム
US6449392B1 (en) Methods of scene change detection and fade detection for indexing of video sequences
US7003038B2 (en) Activity descriptor for video sequences
US6618507B1 (en) Methods of feature extraction of video sequences
EP1211644B1 (en) Method for describing motion activity in video
US7933333B2 (en) Method and apparatus for detecting motion in MPEG video streams
US9424747B2 (en) Vehicle counting methods and systems utilizing compressed video streams
US8625671B2 (en) Look-ahead system and method for pan and zoom detection in video sequences
US6327390B1 (en) Methods of scene fade detection for indexing of video sequences
US20060045334A1 (en) Method and apparatus for detecting scene changes in video using a histogram of frame differences
JP4225912B2 (ja) 圧縮ビデオにおけるトーキングヘッドの検出方法
JP4173099B2 (ja) シーンカットを検出する方法および装置
JP2002064823A (ja) 圧縮動画像のシーンチェンジ検出装置、圧縮動画像のシーンチェンジ検出方法及びそのプログラムを記録した記録媒体
JP3711022B2 (ja) 動画像内の特定物体認識方法及び装置
Ramakrishna et al. Blind forensics method for GOP period detection in motion compensated video
Fernando et al. DFD based scene segmentation for H. 263 video sequences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051101

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140212

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees