JP2005243019A - 圧縮ビデオにおいて交通事象を検出する方法 - Google Patents

圧縮ビデオにおいて交通事象を検出する方法 Download PDF

Info

Publication number
JP2005243019A
JP2005243019A JP2005044494A JP2005044494A JP2005243019A JP 2005243019 A JP2005243019 A JP 2005243019A JP 2005044494 A JP2005044494 A JP 2005044494A JP 2005044494 A JP2005044494 A JP 2005044494A JP 2005243019 A JP2005243019 A JP 2005243019A
Authority
JP
Japan
Prior art keywords
traffic
motion
compressed video
frame
hidden markov
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005044494A
Other languages
English (en)
Other versions
JP4451330B2 (ja
Inventor
Faith M Porikli
ファティー・エム・ポリクリ
Xiaokun Li
シャオクン・リ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2005243019A publication Critical patent/JP2005243019A/ja
Application granted granted Critical
Publication of JP4451330B2 publication Critical patent/JP4451330B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】圧縮ビデオにおいて交通事象を検出する方法。
【解決手段】圧縮ビデオから特徴ベクトルを抽出する。この特徴ベクトルをガウス混合隠れマルコフモデルに供給する。次に、ガウス混合隠れマルコフモデルの最尤値を求め、複数の特徴ベクトルを交通事象として分類する。
【選択図】図1

Description

本発明は、包括的にはビデオ中の事象の検出に関し、特に圧縮ビデオから抽出した特徴に基づく事象の分類に関する。
高度道路交通システムでは、コンピュータビジョンと人工知能技法を交通データに適用する。交通データは様々なセンサによって取得することができる。Masaki著「高度な道路交通のためのマシンビジョンシステム:オートスコープシステム(Machine-vision System for Intelligent Transportation: The Autoscope system)」(IEEE Transaction Vehicle Technology, Vol. 40, pp. 21-29, 1991)を参照のこと。交通の管理および管制は、リアルタイムで交通パラメータを推定するセンサにも頼っている。現在の交通管理システムの主要な技術は、道路の中または上に設置されて個々の通過車両をカウントするループ検出器および空気圧センサである。
ビデオ監視システムにはより多くの利点がある。Beymer等著「交通パラメータを測定するリアルタイムコンピュータビジョンシステム(A Real-time computer vision system for Measuring Traffic Parameters)」(CVPR, pp. 495-501, 1997)を参照のこと。第1に、より多くの交通パラメータを推定することができる。第2に、カメラの設置はループ検出器や空気圧センサよりも妨害的でなくコストが低い。視覚ベースの交通監視システムの場合、カメラは通常、道路を見下ろすポールや他の高い構造物に設置される。交通状態は圧縮ビデオ(例えばMPEG)に取り込まれデジタル化される。この圧縮ビデオは交通管理センター(TMC)に送信され、マルチチャネル統計解析と事象の検出が行われる。Beymerは、グループ化した副特徴セットを用いて、交通渋滞の中で車両を追跡するという問題を克服する。
交通を監視するほとんどのコンピュータビジョンベースのシステムは、定置カメラに頼っており、カメラの視野を通過する車両を追跡することによって交通を調べる。或るシステムでは、車両が地平面(ground plane)を移動している間に3Dで車両の位置を見つけ追跡する。シーンの静止部分や車両間の混雑(occlusion)により車両の混雑を考慮しながら軌跡を分類する。Sullivan著「地平面の制約を用いた交通シーンのモデルベースのビジョン(Model-based Vision for Traffic Scenes using the Ground-plane Constraint)」(Real-time Computer Vision, D. Terzopoulos and C. Brown (Eds.), Cambridge University Press, 1994)を参照のこと。
別のシステムでは、輪郭トラッカ(contour tracker)およびアフィン動きモデルベースのカルマンフィルタを用いて車両の軌跡を抽出する。動的信念ネットワークを用いて交通事象に関する推定を行う。Koller等著「頑強なリアルタイムの自動交通シーン解析に向けて(Towards Robust Automatic Traffic Scene Analysis in Real-time)」(ICPR, pp. 126-131, 1994)を参照のこと。
別のシステムでは、視覚データに対する規則ベースの推論(reasoning)により都市部の交通シーン中の車両を検出する。Cucchiara等著「交通監視システムのための画像解析および規則ベースの推論(Image Analysis and Rule-Based Reasoning for a Traffic Monitoring System)」(IEEE Transactions on Intelligent Transportation Systems, Vol. 1, No. 2, pp. 119-130, 2000)を参照のこと。Cucchiara等のシステムでは6タイプの交通事象を定義し試験する。
Kamijo等は、「交差点における交通の監視および事故の検出(Traffic Monitoring and Accident Detection at Intersections)」(IEEE Transactions on Intelligent Transportation Systems, Vol. 1, No. 2, pp. 108-118, 2000)において、交差点における交通検出のための拡張可能な交通監視システムを記載している。Kamijo等は3タイプの交通事象および離散HMMを用いる。
交通監視および車両追跡は、移動車に取り付けられたカメラを用いて行うこともできる。Ferryman等著「移動車の視覚的監視(Visual Surveillance for Moving Vehicles)」(International Journal of Computer Vision, pp. 187-197, 2000)、Dellaert等著「道路フォロワと一体化したモデルベースの車両追跡(Model-based car tracking integrated with a road follower)」(Proceedings International Conference on Robotics and Automation, pp. 1189-1194, 1998)、Dikmanns著「ダイナミックビジョンが可能な車両(Vehicles Capable of Dynamic Vision)」(Proceedings International Joint Conference on Artificial Intelligence, pp. 1577-1592, 1997)、およびZhao等著「距離画像からの定性的および定量的な車両追跡(Qualitative and Quantitative Car Tracking from a Range Image)」(CVPR, pp. 496-501, 1998)を参照のこと。Zhao等は、拡張カルマンフィルタに組み込まれる3つの動きモデルを構築して、カメラと車両の両方の定量的追跡および動き推定を行う。Dellaert等は、箱で車両をモデル化してフィルタを設計し、車両の位置や寸法、道路の湾曲や幅、車両の動き、方向および速度、ならびにカメラの動き等のパラメータを推定する。Ferryman等は、画像間で地平面の特徴を照合することによってカメラの動きを推定する。次に、テンプレート相関を用いて車両検出および仮説生成を行い、車両の3Dワイヤーフレームモデルを画像にフィッティングする。車両の検出および識別後、動的フィルタリングを用いて車両を追跡する。
追突防止システムでは方向−時間(directional-temporal)変換(DTT)を用いる。このシステムは、時空間画像を方向−時間平面に変換する。Jung等著「自動交通監視のための意味的なシーン解釈を用いたコンテントベースの事象の取り出し(Content-Based Event Retrieval Using Semantic Scene Interpretation for Automated Traffic Surveillance)」(IEEE Transactions on Intelligent Transportation Systems, Vol. 2, No. 3, pp. 151-163, 2001)を参照のこと。
非パラメータ回帰(NPR)法を用いて、移動領域(moving area)から抽出した信号曲線から交通事象を予想することができる。Shuming等著「非パラメータ回帰に基づく交通事象検出アルゴリズム(Traffic Incident Detection Algorithm Based on Non-parameter Regression)」(IEEE International Conference on Intelligent Transportation Systems (ITS), pp. 714-719, 2002)を参照のこと。
別のシステムでは、多重アプローチ、オプティカルフロー、カルマンフィルタリング、およびブロブ結合(blob merging)を交通監視に用いる。Maurin等著「混雑した交通シーンの監視(Monitoring Crowded Traffic Scenes)」(IEEE International Conference on ITS, pp. 19-24)を参照のこと。
別のシステムは、MPEG圧縮ビデオから交通情報を抽出し、移動ブロックと全ブロックの比を用いて交通状態を推定する。Yu等著「Skycam MPEGビデオからの幹線道路交通情報の抽出(Highway Traffic Information Extraction from Skycam MPEG Video)」(IEEE International Conference on ITS, pp. 37-41, 2002)を参照のこと。
大きな交通シーンを解析することが望ましい。このような解析では、単一の通過車両インスタンスのみを検出する従来のセンサベースのシステムよりも多くの情報を得ることができる。
車両交通における事象の検出は、交通の流れの監視および管理に重要である。本発明は、圧縮ビデオにおいて交通事象を自動検出するリアルタイムで低コストのシステムを提供する。
従来技術のシステムと異なり、本発明によるシステムは、ガウス混合隠れマルコフモデル(GMHMM)を用いて交通事象を検出する。事象の特徴は、MPEG圧縮ビデオから直接抽出される。
本発明による方法は、符号化データから多次元特徴ベクトルを構築する。抽出した特徴には幾何補正を適用する。
1つの利点として、特徴ベクトルは、時間軸に沿って変化する動きエネルギーの分布を正確に記述する。特徴ベクトルは、フレームの基礎にあるマクロブロックのテクスチャ特性を効果的に取り込む。もう1つの重要な利点として、特徴ベクトルは、異なるシーン、すなわち、通り、道路、幹線道路、および照明の状態(例えば晴れ、曇り、および暗闇)に対して不変である。
GMHMMに基づくシステムでは、HMM連鎖における複数の異なる交通事象パターンを学習する(例えば5つ)。最尤推定によりHMM連鎖の出力から事象を検出する。さらに、事象の信頼度スコアを求めて評価する。
本システムは計算負荷の点で効率的である。また、モデルベースのシステムは、訓練データセットに新たなパターンを加えることによって、さらなる事象を認識するように容易に拡張することができる。実験結果は、本システムが高精度の検出レートを有し、6チャネルより多い30Hzで352×240の解像度のビデオストリームを2.8GHzのPentium(登録商標)−P4のパーソナルコンピュータ(PC)においてリアルタイムで処理できることを示している。
本発明のシステムは、圧縮MPEGビデオから抽出された特徴から交通事象をリアルタイムで直接検出する。本システムは一組のGMHMMを用いて交通状態をモデル化する。事象はML分類器を用いて検出される。特徴ベクトルは、変化する照明に対して不変である。幾何補正を適用して、本システムを異なる信号源およびカメラ設定に対して不変にすることができる。本発明のリアルタイムで低コストのシステムは、交通事象を高精度で検出することができる。さらに信頼度スコアにより、本システムのユーザが結果を解釈するのを助ける。本発明のモデルベースのシステムは、様々なシーン中のさらなる交通事象の検出に容易に拡張することができる。
本発明によるシステムは、交通シーンのマルチチャネルビデオを様々な監視ポイントから取得する。圧縮ビデオは交通管理センターに送信される。交通エンジニアの負担を軽減するために、本発明では、交通事象(例えば重度の(heavy)渋滞、軽度の(light)渋滞、および正常な(open)道路)を圧縮ビデオから自動的に検出するためのリアルタイムで低コストのシステムを提供する。
従来技術のように個々の車両を検出または追跡する代わりに、本発明では、事象の特徴を圧縮ビデオから直接抽出し、事象モデルを構築する。圧縮ビデオを復号化せずに圧縮データ領域において事象の特徴を抽出するため、計算負荷が非常に低い。したがって、複数のビデオを従来のPCにおいてリアルタイムで同時処理することができる。
ほとんどの現在の交通ビデオはMPEG−1規格により符号化されているため、本発明の方法はこの規格に基づく。しかし、MPEG−2規格およびMPEG−4規格、H263規格ならびにH.23xx規格のような他のビデオ符号化規格も使用できることを理解すべきである。
圧縮ビデオからの特徴の抽出は、圧縮ビデオを空間領域に復号化してから特徴の抽出および動きの検出を行う方法を上回るいくつかの利点を提供する。第1に、必要となる処理が実質的に少ない。第2に、圧縮ビデオは、空間エネルギー、テクスチャ、エッジ、平均色、動き情報のような多くの有用な情報を含むため、事象を検出する目的でビデオを復号化して空間領域で物体および動きの検出を行う必要がない。本発明では、圧縮ビデオ中で得ることのできる空間エネルギー、テクスチャ、エッジ、平均色および動き情報を組み合わせて、多次元の特徴ベクトルを構築する。また本発明では、7次元の特徴ベクトルフォーマットを提供する。
交通事象は、確率時間プロセスとしてモデル化することができる。複数の時間スケールにおけるモデルの特徴は確率プロセスのサンプルである。これらの特徴は、事象に関連する実験的な分布を構築するために用いることができる。
車両の交通のような確率プロセスには、交通事象の連続的な特性のために、隠れマルコフモデル(HMM)が適している。具体的には、本発明のシステムでは、交通事象のモデル化にガウス混合HMM(GMHMM)を用いる。
システムの構造
図1に示すように、本発明のシステムへの入力はMPEG圧縮ビデオのビットストリーム101である。このビットストリームを構文解析し110、関心領域(ROI)125(すなわち道路と道路上の車両)の離散コサイン変換(DCT)係数および動きベクトル(MV)のみを保持する。幾何補正120を適用して、カメラ座標から実世界の座標への変換を行う。IフレームのDCT係数の残差(residues)を求め130、MVを処理する140。
ピクチャグループ(GOP)毎に、処理されたDCT係数130およびMV140から特徴ベクトル(V)151を生成する150。MPEG−1において、GOPレートは1秒当たり2GOPである。1GOPは各特徴ベクトルにつき1つの時間インスタンスに等しい。
訓練目的で、特徴ベクトルをラベル付けし、訓練シーケンス160として記憶してGMHMM170を訓練する。ラベル付けは、後述する事象の分類に従う。
検出目的で、ラベル付けされていない特徴ベクトルを訓練されたGMHMMに送り、最尤分類器180を用いて交通事象102を検出する。
次に、上記のステップを詳細に説明する。
MPEGパーサ
MPEG圧縮方式は、離散コサイン変換(DCT)を用いることによって1つのフレーム内の空間的冗長性を減らすとともに、動き補償により連続するフレーム間の時間的冗長性を減らして、低ビットレートの圧縮を達成する。動き補償の結果は、ビデオ中に動きベクトルとして記憶される。
MPEGビデオは、複数のフレーム内符号化IフレームといくつかのBフレームおよびPフレームのシーケンスからなり、Pフレームは直前のIフレームまたはPフレームから予測され、Bフレームは、その前後の2つのIフレームまたはPフレームを用いて双方向補間される。シーケンスの基本単位はピクチャグループ(GOP)であり、通常の符号化順序はIBBPBBPBBPである。本発明では、Bフレーム情報がIフレームおよびPフレームに既に含まれているため、IフレームおよびPフレームのみを用いる。
パーサは、バイナリビットストリームをIフレームの対応するDCT係数およびPフレームのMVに変換する。
空間エネルギー、テクスチャ、およびエッジ特徴
DCT圧縮ビデオは、N×Nの画像領域{Ixy,0≦x<N,0≦y<N}のDCT係数{Cuv}を用いて、2D画像を次のように符号化する。
Figure 2005243019
ここで、uおよびvは水平周波数および垂直周波数(u,v=0,1,...,N−1)であり、N=8であり、
Figure 2005243019
である。
u=v=0かつK=K=1であるとき、この係数は、DCパラメータまたは画像エネルギーと呼ばれ、対応する色チャネル(すなわちY、U、またはV)の色平均であると見なされる。変数DC(i,j,t)は、GOPtのブロック(i,j)のDCパラメータを表す。DCパラメータは実際には、空間画像の1/64の縮小画像200である。u=1,...,N−1である他のDCT係数、またはu=1,...,N−1はAC係数と呼ばれる。AC係数は、空間周波数および方向性を記述し、図2に示す8×8ブロックの、左上のブロック200を除くDCTブロックマトリクスに分布している。
主なテクスチャおよびエッジ情報は1列目の1行目にあるため、本発明では、指数の低い(lower indexed)所定数のDCT係数のみを用いてAC平均値を次のように計算する。
Figure 2005243019
ここで、M≦Nは最大の周波数である。本発明の方法において、M=4である。本発明では、指向性ソーベルフィルタを用いて、同様に空間画像300の1/64のサイズを有するはっきりしたテクスチャおよびエッジマップを得る。
DCおよびAC平均値の特徴はIフレームのみに存在することに留意されたい。ビデオの大部分のエネルギーおよびグレイ情報を含むYチャネルデータのみを用いることも可能である。
動きベクトル
MVはPフレームとBフレームのみに存在する。ブロック毎にMVが1つずつある。PフレームのMVは次のような特性を有する。第1に、MVが0よりも大きいPフレームの移動領域は、空間領域の移動物体に対応する。第2に、移動領域における大部分のMVの方向の平均はその物体の動きの方向を反映し、MVの大きさの平均は物体の速度を示す。信頼できるMVを得るために、制約付き(constrained)平均値フィルタを用いてノイズを除去する。
Figure 2005243019
ここで、SortedMV(i,j,m)∈{MV(i,j)の8つの近傍}であり、L=9である。
画像エネルギー、テクスチャおよびエッジの特徴情報、ならびにMVを取得する前に、DCT係数とMVに所定のROIマスクを適用することに留意されたい。1つのROIは1車線に対応する。カメラは定置型であるため、この領域の識別およびマーク付は最初に1度だけ行う。ROI内の係数およびMVのみを用い、特徴ベクトルを抽出する際に他の係数は廃棄する。したがって、ROI125内のDCT係数およびMVのみを処理し、他の係数はゼロに設定する。
幾何補正
特徴抽出をより正確で、異なるデータ源に対して不変なものとするために、特徴データに幾何補正120を適用して、スケールや視角に関係なく、全ての交通シーンに対して1つのユニバーサルなパラメータセットを可能にする。先ず、回転行列Rおよび並進ベクトルTを用いたアフィン変換により、カメラ座標系の特徴データを基準座標系に変換する。
Figure 2005243019
ここで、V=[x/y]は元の原データであり、V=[x/y]は変換したデータであり、R=[cosθ,−sinθ/sinθ,cosθ]であり、θは道路の方向と基準座標系のY軸の間の角度であり、T=[D/D]であり、TはROIの中心と基準座標系の間のユークリッド距離である。(なお、2行1列の行列を[a11/a21]、2行2列の行列を[a11,a12/a21,a22]と表記する。)この変換により、各ROIの動きベクトルの方向が同じになり、基準系の原点が中心になる。この変換を行う前は、2本の対向車線に対応する2つの別個のROI内の動きベクトルの方向は反対であることに留意されたい。
次に、アフィン変換の前に、カメラ座標系のz軸に対応する基準座標系のy軸に沿って、領域ベースのスケーリングを空間エネルギー、テクスチャ、およびMVに適用する。透視投影の結果として、画像のマクロブロック内の可視の道路セグメントのサイズは小さくなり、当該ブロック内の車両の速度は遅くなる。したがって、対応する動きベクトルの大きさは小さくなる。この効果を補償するために、本発明では、MVをスケーリングする。この補償では、ROI内のブロックに重みパラメータを割り当て、ブロックの寄与がカメラの結像面からの距離に比例するようにする。例えば、道路の近い領域および遠い領域を示す2つのブロックのMVは、道路の対応する部分における交通の流れの速度が同じであれば一致するようになる。この補償を行う前は、遠くにある車両はより小さく見え、よって動きベクトルも小さくなるため、動きベクトルは異なる大きさを有することに留意されたい。
カメラ座標系のz軸を得るために、矩形の格子を用いることによってカメラの較正パラメータを繰り返し取得する。格子線の投影が実世界の道路標示と一致するまで格子を調節する。
特徴ベクトル
交通渋滞は、2つの重要な特性、すなわち交通の速度および交通の密度により定義される。したがって、本発明では、車両の速度および密度を正確に捉えるように特徴ベクトルを設計する。本発明の特徴抽出は、異なるデータ源および照明に対して変化する交通状況を正確に記述することを目的とする。ROI毎に、7次元の密度特徴ベクトルを作成して、時間インスタンス毎の動きエネルギーの分布を記述する。
或るGOPのROI毎に、1つの特徴ベクトルを以下のように作成する。
移動エネルギー:本発明では、2つの近傍Iフレームから構文解析される2つの近傍DCの残差率(rate of the residues)を求める130。
Figure 2005243019
ここで、Pdcは0より大きい残差を有する画素数であり、PはROI内の全画素数である。この成分は、DCパラメータの平均差を表し、交通の密度および速度を示す。この成分は、車両の速度が速くなり車両の数が多くなるほど大きくなる。
移動テクスチャおよびエッジ:本発明では、2つの近傍AC(−)の残差率を次のように求める。(なお、AC(−)は、ACの上に−があることを表す。)
Figure 2005243019
ここで、Pacは残差がゼロよりも大きい画素数であり、PはROI内の全画素数である。
MVの平均および分散:1つのGOP中の4つのPフレームからMVの平均および分散を求める140。
3つの帯域のMVの平均:また本発明では、MVの大きさを3つの帯域(高、中、および低)に分類し、各帯域の平均を求める。
したがって、次のような7次元の特徴ベクトル151が得られる。
Figure 2005243019
本発明の特徴ベクトルの1つの重要な利点として、時間方向に変化する動きエネルギー分布がある。動きエネルギー分布は、特徴ベクトル151によって正確に記述される。さらに、特徴ベクトルの全ての成分が密度パラメータであるため、ベクトルは関心領域のサイズに対して不変である。もう1つの利点として、密度パラメータは異なる照明の影響を受けない。
事象のモデル化および検出
交通事象は確率的な時間プロセスであり、HMMは時間の連続性を組み込むことができるため、多くのモデル化用途でHMMが用いられる(例えば音声認識)。HMMは、ビデオシーケンスにおける画像の分類、物体の追跡および認識、ならびに人間行動理解のようなコンピュータビジョン用途にも用いられる。本発明では、交通事象のモデル化および検出にGMHMMを用いる。
ガウス混合HMM(GMHMM)
HMMは一組の有限の状態を含む。各状態には通常、多次元の確率分布関数が関連付けられる。状態間の遷移は、一組の遷移確率関数によって支配される。特定の状態において、結果または観察は、関連する確率分布に応じて生成することができる。結果のみが観察でき、状態は隠れている。
本発明による交通事象は確率プロセスと見なされるため、本発明では連続HMMを用い、各状態における確率密度関数(PDF)のプロファイルはガウス関数の混合となる。
GMHMM
HMMのパラメータは次のように表すことができる。
λ={A,B,π}
ここで、初期の状態分布はπ={π...π...π}であり、1≦i≦Nについてπ=P(q=i)であり、Nは隠れた状態の数であり、q=I(時間t=1におけるi番目の状態)であり、状態遷移行列は次のように表される。
Figure 2005243019
ここで、1≦i,j,≦Nについてaij=P(qt+1=j|q=i)であり、観察確率分布はB=[b(ν)...b(ν)...b(ν)]であり、状態jにおいて次式が成り立つ。
Figure 2005243019
Vは特徴ベクトルであり、平均ベクトルは次式で表される。
Figure 2005243019
ここで、Mは混合におけるガウス関数の数である。
期待値最大化
GMHMMの未知のパラメータは、期待値最大化(EM)プロセスを用いることによって学習される。EMは、観察されたデータが不完全である場合に最尤推定値の計算を繰り返し行う。パラメータ学習の目的は、所与の観察データセットV151についてλ=arg max(log[p(V|λ)])を最大化するモデルパラメータλを見つけることである。具体的には、本発明では、よく知られたBaum-WelshのEMプロセスを用いて交通事象のモデルパラメータを学習する。
学習プロセスは、λの一連の推定値を生じる。所与の観察データセットVについて、推定値λのlog[p(V|λ)]の値は前の推定値λi−1よりも大きい。
EMプロセスは2つの部分、すなわち予備段階(preliminaries)と更新規則を含む。予備段階は次式を含む。
Figure 2005243019
ここで、V={v,...,v}は訓練シーケンス160であり、Tは訓練シーケンスの長さであり、ξ(i,j)およびγ(i)は、前向き−後向き(forward-backward)プロセスによって効率的に求めることができる。Rabiner著「隠れマルコフモデルに関するチュートリアルおよび音声認識における選択された応用(A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition)」(Proceedings of The IEEE, pp. 257-286, 1989)を参照のこと。
更新規則は次の通りである。
Figure 2005243019
λに初期値を設定した後、log[p(V|λ)]が極大値に達するまでパラメータ推定において式(8)〜(13)を繰り返す。
1つの利点として、EMプロセスは常に比較的短時間で、例えば10回以内の繰り返しで収束する。極大値は通常、データの適切なモデルである。
HMMトポロジ
図4に示すように、本発明では、Rabinerのergodicモデルの代わりに例えば4つの状態1〜4を有するleft−to−rightモデル400を用いる。本発明では、他のHMMトポロジ、異なる数の状態、および混合における異なる数のガウスモデルを用いて、上述の特徴ベクトルおよび枠組みを用いた交通事象の検出を行うこともできる。1つの利点として、本発明のモデルは、かなり簡単な方法で時間をモデルの状態と関連付けるため、モデルの計算効率が高い。
事象の定義
交通パターンは、大まかに2つの状態、すなわち、正常と渋滞に分類することができる。しかし、より詳細に理解されるよう、本発明では5つの交通パターン、すなわち、大(super)渋滞(SC)、重度の渋滞(HC)、軽度の渋滞(LC)、正常、および疎ら(near empty)(NE)を設ける。
大渋滞:ROIの車両が延々とつながり、進みが非常に遅い(例えば3マイル/時未満)か、完全に止まっている。
重度の渋滞:ROIの車両が混雑しており、進みが遅く、10マイル/時未満である。
軽度の渋滞:ほとんどの車両が通常の半分未満の速度で走行している。
正常:車両が通常速度で走行している。
疎ら:ROI内にある車両が4〜5台未満である。
最尤(ML)分類器
図5に示すように、5つのGMHMM501〜505を5つの所定の事象クラスについてそれぞれ訓練する。SC、HC、LC、およびNEの場合、HMMは4つの状態および2つのガウス混合により訓練され、正常の場合のHMMは8つの状態および3つのガウス混合により訓練される。ML分類器180は交通事象を検出するように設計される。
リアルタイムの特徴ベクトルの入力シーケンスV151が、訓練されたHMM501〜505に供給される。クラスi毎に、最も尤度の高い状態シーケンスと対応する尤度P(V|λ)510が、トレリスプロセスまたはビタビプロセスを用いて求められる。最後に、最も尤度の高いクラス520を選択して交通事象102を判定する。
トレリスプロセス
初期化:
Figure 2005243019
帰納(Induction):
Figure 2005243019
終端(Termination):
Figure 2005243019
信頼度のスコア付け
交通状態の確率特性のために、検出プロセスにおいて、特に交通状態が急速に変化する場合にエラーが生じる可能性がある。さらに、交通の分類は完全に客観的ではない。したがって、本発明では信頼度スコアを設ける。この信頼度スコアは、誤った事象では低く、正しい事象では高い。
図6は、本発明による信頼度の値600を示す。これらの値は、実際のデータに対する本発明のシステムの動作を観察することによって求めた。尤度の値Pは相対的な正確さを示す。値が高いほど正確さが増す。最尤値と2番目の最尤値(second highest likelihood)の間の距離Dも正確さの指標である。値Sは、一連の交通事象が連続的であるかどうかを反映する。
一組の重みを値セット600に割り当てる。重みは、任意の既知のブースティング方法により求めることができる。Duda等著「パターン分類(Pattern Classification)」(WSE Wiley, 2000)を参照のこと。信頼度スコアは次式から得ることができる。
Figure 2005243019
ここで、W=(w)はW←W/‖W‖によって正規化される重みの組であり、V=(Pt−1)は時間tにおける信頼度の値のセットである。
結果
実際の交通シーンのビデオに基づく本発明の結果は、本発明のシステムが、人間の目よりも敏感であることを示す。正検出率は97%を達成することができる。交通状態がゆっくりと変化する交通シーンの場合、正検出率は、最初の出力で98%、中央値でフィルタリングした出力では99%に改善される。また本発明では、偽アラームの場合に信頼度スコアが低くなり、不正確な推定を示すことも発見した。
本発明を好適な実施形態の例として記載してきたが、本発明の精神および範囲内で様々な他の適応および修正を行ってもよいことが理解されるべきである。したがって、添付の特許請求の範囲の目的は、本発明の精神および範囲に入る変形および修正をすべて網羅することである。
本発明による交通検出システムとその方法のブロック図である。 交通ビデオの画像のDCTブロックアレイである。 交通ビデオの1つの空間画像、および1つの関心領域である。 本発明によるガウス混合隠れマルコフモデルである。 本発明による分類器のブロック図である。 本発明による信頼度の値の表である。

Claims (16)

  1. 圧縮ビデオにおいて交通事象を検出する方法であって、
    前記圧縮ビデオから複数の特徴ベクトルを抽出すること、
    前記複数の特徴ベクトルをガウス混合隠れマルコフモデルに供給すること、
    及び
    前記ガウス混合隠れマルコフモデルの最尤値を求めて、前記複数の特徴ベクトルを交通事象として分類すること
    を含む圧縮ビデオにおいて交通事象を検出する方法。
  2. 前記圧縮ビデオのピクチャグループ毎に特徴ベクトルが1つずつある
    請求項1記載の方法。
  3. 各ピクチャグループは、少なくとも1つのIフレームと少なくとも1つのPフレームを含み、
    前記Iフレームは、DCT係数を含み、
    前記Pフレームは、動きベクトルを含む
    請求項2記載の方法。
  4. 前記DCT係数は、前記Iフレームの空間テクスチャ周波数を符号化し、
    前記動きベクトルは、前記Pフレーム中の物体の動きの方向を符号化する
    請求項3記載の方法。
  5. 前記動きベクトルに制約付き平均値フィルタを適用して、ノイズを除去することをさらに含む
    請求項4記載の方法。
  6. 前記複数の特徴ベクトルは、ビデオ中の関心領域から抽出される
    請求項1記載の方法。
  7. 前記特徴ベクトルをカメラ座標系から基準座標系に変換することをさらに含む
    請求項1記載の方法。
  8. 各特徴ベクトルは、画像エネルギーに基づく動きエネルギー、空間周波数に基づく移動テクスチャ、前記動きベクトルの平均、前記動きベクトルの分散、複数の帯域に分類される前記動きベクトルの大きさの平均を含む
    請求項4記載の方法。
  9. 各特徴ベクトルの各成分は、前記関心領域のサイズおよび照明に対して不変の密度パラメータである
    請求項6記載の方法。
  10. ラベル付けした特徴ベクトルにより前記ガウス混合隠れマルコフモデルを訓練することをさらに含む
    請求項1記載の方法。
  11. 前記ガウス混合隠れマルコフモデルは、一組の有限の状態を含み、
    各状態は、多次元の確率分布関数と関連付けられる
    請求項1記載の方法。
  12. 前記ガウス混合隠れマルコフモデルの未知のパラメータが、期待値最大化プロセスによって学習される
    請求項10記載の方法。
  13. 前記ガウス混合隠れマルコフモデルは、left−to−rightモデルである
    請求項1記載の方法。
  14. 前記交通事象は、大渋滞、重度の渋滞、軽度の渋滞、正常、および疎らとして分類される
    請求項1記載の方法。
  15. 前記交通事象のクラスは、トレリスプロセスを用いて判定される
    請求項14記載の方法。
  16. 検出した交通事象毎に信頼度スコアを求める
    請求項1記載の方法。
JP2005044494A 2004-02-26 2005-02-21 圧縮ビデオにおいて交通事象を検出する方法 Expired - Fee Related JP4451330B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/787,667 US7403664B2 (en) 2004-02-26 2004-02-26 Traffic event detection in compressed videos

Publications (2)

Publication Number Publication Date
JP2005243019A true JP2005243019A (ja) 2005-09-08
JP4451330B2 JP4451330B2 (ja) 2010-04-14

Family

ID=34886831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005044494A Expired - Fee Related JP4451330B2 (ja) 2004-02-26 2005-02-21 圧縮ビデオにおいて交通事象を検出する方法

Country Status (2)

Country Link
US (1) US7403664B2 (ja)
JP (1) JP4451330B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5895162B2 (ja) * 2010-10-28 2016-03-30 パナソニックIpマネジメント株式会社 交通事故検出装置及び交通事故検出方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140152823A1 (en) * 1998-11-30 2014-06-05 American Vehicular Sciences Llc Techniques to Obtain Information About Objects Around a Vehicle
JP4088274B2 (ja) * 2004-06-28 2008-05-21 株式会社東芝 メタデータの構造及びその編集方法
DE102007041727B4 (de) 2007-09-04 2021-09-23 Adc Automotive Distance Control Systems Gmbh Verfahren zur Spurzahlbestimmung
EP2187369A3 (en) * 2008-06-04 2012-03-28 Roads and Traffic Authority of New South Wales Traffic signals control system
US9141862B2 (en) * 2008-09-26 2015-09-22 Harris Corporation Unattended surveillance device and associated methods
US8649594B1 (en) * 2009-06-04 2014-02-11 Agilence, Inc. Active and adaptive intelligent video surveillance system
TW201136313A (en) * 2010-04-08 2011-10-16 Hon Hai Prec Ind Co Ltd 3D image monitor system and method
DE102010020984A1 (de) * 2010-04-20 2011-10-20 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung des Fahrbahnverlaufes für ein Kraftfahrzeug
US8923607B1 (en) 2010-12-08 2014-12-30 Google Inc. Learning sports highlights using event detection
US8929588B2 (en) 2011-07-22 2015-01-06 Honeywell International Inc. Object tracking
US9886552B2 (en) 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
US8582811B2 (en) 2011-09-01 2013-11-12 Xerox Corporation Unsupervised parameter settings for object tracking algorithms
CN102436739B (zh) * 2011-09-27 2013-10-23 重庆大学 基于视频检测技术的高速公路收费广场交通拥堵判别方法
US8855436B2 (en) * 2011-10-20 2014-10-07 Xerox Corporation System for and method of selective video frame compression and decompression for efficient event-driven searching in large databases
US9020203B2 (en) 2012-05-21 2015-04-28 Vipaar, Llc System and method for managing spatiotemporal uncertainty
US9710968B2 (en) 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
US9940750B2 (en) 2013-06-27 2018-04-10 Help Lighting, Inc. System and method for role negotiation in multi-reality environments
JP6282193B2 (ja) * 2014-07-28 2018-02-21 クラリオン株式会社 物体検出装置
CN107463890B (zh) * 2017-07-20 2019-11-29 浙江零跑科技有限公司 一种基于单目前视相机的前车检测与跟踪方法
CN107293120A (zh) * 2017-07-24 2017-10-24 重庆大学 一种基于遗传算法的交通事件检测算法的参数自整定方法
CN108597239B (zh) * 2018-04-28 2021-02-09 重庆大学 一种基于马尔科夫决策的交通灯控制系统及方法
CN109979193B (zh) * 2019-02-19 2021-01-19 浙江海康智联科技有限公司 一种基于马尔科夫模型的数据异常诊断方法
CN110428608B (zh) * 2019-06-18 2022-03-04 上海电科智能系统股份有限公司 一种基于交通大数据的道路通行能力提取方法
CN115171389B (zh) * 2022-07-22 2023-10-31 吉林大学 基于gmm-hmm的高速公路他车超车换道意图识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6751354B2 (en) * 1999-03-11 2004-06-15 Fuji Xerox Co., Ltd Methods and apparatuses for video segmentation, classification, and retrieval using image class statistical models
SG89282A1 (en) * 1999-05-28 2002-06-18 Kent Ridge Digital Labs Motion information extraction system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5895162B2 (ja) * 2010-10-28 2016-03-30 パナソニックIpマネジメント株式会社 交通事故検出装置及び交通事故検出方法

Also Published As

Publication number Publication date
US7403664B2 (en) 2008-07-22
JP4451330B2 (ja) 2010-04-14
US20050190975A1 (en) 2005-09-01

Similar Documents

Publication Publication Date Title
JP4451330B2 (ja) 圧縮ビデオにおいて交通事象を検出する方法
CN109819208B (zh) 一种基于人工智能动态监控的密集人群安防监控管理方法
Ke et al. Multi-dimensional traffic congestion detection based on fusion of visual features and convolutional neural network
Dick et al. Issues in automated visual surveillance
US9442176B2 (en) Bus lane infraction detection method and system
US9159137B2 (en) Probabilistic neural network based moving object detection method and an apparatus using the same
US9286516B2 (en) Method and systems of classifying a vehicle using motion vectors
US7747075B2 (en) Salient motion detection system, method and program product therefor
KR101515166B1 (ko) 객체인식 기반의 주차장 이벤트 검지 시스템
Ke et al. Motion-vector clustering for traffic speed detection from UAV video
CN108804992B (zh) 一种基于深度学习的人群统计方法
JP6915219B2 (ja) コンピュータ実施方法、撮像システム、及び画像処理システム
Ghahremannezhad et al. Robust road region extraction in video under various illumination and weather conditions
US20160142727A1 (en) System and method for achieving computationally efficient motion estimation in video compression based on motion direction and magnitude prediction
CN114926796A (zh) 一种基于新式混合注意力模块的弯道检测方法
Kornprobst et al. Tracking segmented objects using tensor voting
Vibha et al. Dynamic object detection, tracking and counting in video streams for multimedia mining
Song et al. All-day traffic states recognition system without vehicle segmentation
CN116311166A (zh) 交通障碍物识别方法、装置及电子设备
Chandrasekhar et al. A survey of techniques for background subtraction and traffic analysis on surveillance video
CN115565157A (zh) 一种多摄像头多目标车辆跟踪方法及系统
CN114912536A (zh) 一种基于雷达和双光电的目标识别方法
Zhao et al. Research on vehicle detection and vehicle type recognition under cloud computer vision
CN112580633A (zh) 一种公共交通客流统计装置及方法
Kogut et al. A wide area tracking system for vision sensor networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100127

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees