JP4746050B2 - ビデオデータを処理するための方法及びシステム - Google Patents

ビデオデータを処理するための方法及びシステム Download PDF

Info

Publication number
JP4746050B2
JP4746050B2 JP2007538498A JP2007538498A JP4746050B2 JP 4746050 B2 JP4746050 B2 JP 4746050B2 JP 2007538498 A JP2007538498 A JP 2007538498A JP 2007538498 A JP2007538498 A JP 2007538498A JP 4746050 B2 JP4746050 B2 JP 4746050B2
Authority
JP
Japan
Prior art keywords
pixel
foreground
candidate
pixels
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007538498A
Other languages
English (en)
Other versions
JP2008518344A (ja
Inventor
レイ、バンジュン
シュ、リ−キュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
British Telecommunications PLC
Original Assignee
British Telecommunications PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by British Telecommunications PLC filed Critical British Telecommunications PLC
Publication of JP2008518344A publication Critical patent/JP2008518344A/ja
Application granted granted Critical
Publication of JP4746050B2 publication Critical patent/JP4746050B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、限定されないが、特にインテリジェントビデオシステムにおいてビデオデータを処理するための方法及びシステムに関する。
インテリジェントビデオシステムは当分野で公知である。一般的に、このようなシステムはビデオフレームを入力として受信し、画像内における移動する被写体等のような関心のある被写体を、被写体を背景から区別するための背景減算技法を使用して検出しようと試みる。例えば動画をベースにした検出技法等の他の技法も使用されてよい。単一の入力フレームの中で被写体を検出してから、システムはさらに検出された被写体の特徴を用いて検出された被写体をフレームからフレームへ追跡するように動作してもよい。
典型的なインテリジェントビデオシステムは、図1に示されているように多くの処理段階を備えている。背景学習段階1では、ビデオデータの初期セグメントを使用して背景モデルが確立される。前景の被写体と比較して、背景シーンは一般的に静止したままであるので、この段階で、移動する前景被写体が視覚できない背景モデルを生成する。第2の段階3では、前景抽出及び背景適応が入信ビデオフレームごとに実行される。どの画像ピクセルが前景被写体を表し、どれが背景を表すのかを決定するために、入信フレームが背景モデルと比較される。各ピクセルは相応して分類され、結果として生じる画像が被写体マスクと呼ばれる。背景モデルの小さな変化も適応して更新される。第3の段階5では、被写体マスク内で識別される前景領域がフレームからフレームへ追跡される。現在のフレーム内の前景被写体と以前のフレームで既に追跡された前景被写体の間に対応が確立される。軌跡データベースは、例えば、ビデオの中の1つ以上の前景被写体によって取られる累積経路を示す追跡線を表示するさらに高水準のアプリケーションに各前景被写体の追跡履歴が使用できるように維持される。各前景被写体の形状を現実世界の被写体のデータベースと比較するために被写体分類アプリケーションを利用してもよい。一致が検出されると、前景被写体は例えば「人物」又は「車両」として適切に分類される。
各フレームを処理した後、通常は背景モデルに関する有効性チェックが、背景モデルが依然として有効であることを保証するために実行される。大きな変更又は突然の変更は、新しい背景モデルが学習されることを必要とする。
インテリジェントビデオシステムは、有利にビデオ監視で使用される。多くの監視状況では、人間のオペレータが多数のビデオシーンを同時に監視するのは現実的ではない。被写体を特定し、被写体のそれぞれの動きを経時的にモニタすることによって、オペレータが絶えずある特定のディスプレイをモニタする必要はない。オペレータがディスプレイをモニタしていない間に事象が発生すると、被写体によって取られた累積的な経路が視認可能であり、ビデオシステムは事象を見直すためにオフラインで使用することもできる。
ある公知のインテリジェントビデオシステムは、米国特許出願公開第2003/0053659A1号に開示されている。
従来技術での公知の問題は、入信ビデオでの陰影の出現によって引き起こされる。通常、陰影は画像領域をその真の輝度強度より暗く見せる。したがって前景抽出段階では、投げかけられた陰影領域のピクセルが実際に背景を表すときに該陰影領域が前景として誤って検出される場合がある。したがって、陰影によって前景抽出段階3による被写体マスクが前景形状の歪んだ表現を示すことになる。これはビデオシステムの以後の処理段階において、特にその段階で被写体の形状を特定する必要がある場合に明白な欠点となる。
同様の問題はハイライトの出現によっても生じる。この場合、ハイライトは、画像領域をその真の輝度強度より明るく見えるようにする。
陰影を特定し、取り除くために色彩恒常及び/又はテクスチャ情報を使用することが提案されている。しかしながら、このような技法には不利な点がある。すべてではない場合も、大部分の陰影が取り除かれることを保証するときに、真の前景領域も取り除かれる可能性がある。これは自己陰影、つまり被写体が被写体自体に投げかける陰影による独特の問題である。結果として、前景被写体が分裂して見える画像が生じる。以後の処理段階では分裂した各部分が別々の被写体して処理され得る。
公知の陰影除去方法は、HorprasertらによってIEEE ICCVフレームレートワークショップ、1999年、「リアルタイムの頑健な背景除去及び陰影の検出のための統計的な手法(A Statistical Approach for Real−Time Robust Background Subtraction and Shadow Detection)」に開示されている。
本発明の第1の態様によると、ビデオフレームのピクセルを表すデータを処理する方法が提供される。ピクセルは前景領域又は背景領域のどちらかに属するとして事前に分類されている。該方法は(a)ビデオフレームの中で、2つ以上の隣接する前景ピクセルを含む領域を特定することと、(b)ビデオフレームの中で、所定のアルゴリズムを使用することによって再分類のための候補であるとして1つ以上の前景ピクセルを特定することと、(c)背景ピクセルとして候補ピクセルを再分類し、前記再分類されたピクセルを含む比較フレームを生成することと、(d)比較フレームから、それぞれのフレーム位置がステップ(a)で特定された領域内にある前景ピクセルを特定することと、(d)ステップ(d)で特定される前景ピクセルを共通の前景被写体を表すものとして分類することとを備える。
この方法は、例えば、陰影除去動作において前景ピクセルを背景ピクセルとして再分類する有利な方法を提供する。再分類の前後における前景領域の重複を比較することにより、分裂した前景領域を特定し、前景領域をその後共通の(つまり同じ)前景被写体を表すものとして分類することが可能である。前景被写体は、被写体の形状という点でより良く定義され、以後の処理段階は分裂した領域を別々の被写体として扱わない。
本方法はビデオ監視において特に有利な点を提供する。複数のビデオフレームを表すデータはビデオカメラ等のソースから、前述されたステップを実行するように構成されたコンピュータシステムに送信される。ステップはリアルタイムで実行することができ、処理された画像データは画面上に表示できる。
本方法はビデオ監視アプリケーションに限定されない。実際には、本方法は背景からの前景領域の抽出を必要とする任意のアプリケーションで使用できる。バーチャルリアリティ(VR)システムは前景抽出を活用するアプリケーションの別の例である。
本明細書では、前景ピクセルは、フレーム内でのピクセルのそれぞれの位置が、方向に関係なく互いに隣である場合に隣接していると見なされる。
好ましくは、ステップ(b)は、基準フレームを占有する対応する基準ピクセルの輝度(Y)と異なる輝度(Y)を有する1つ以上の前景ピクセルを特定することと、候補ピクセルの色成分と基準ピクセルの色成分との間の所定の関係性に基づいて特定されたピクセル又はそれぞれの特定されたピクセルにパラメータを割り当てることと、パラメータを、ピクセルが候補ピクセルとして分類するべきかどうかを示す値の範囲に対して比較することとを含む。
基準フレームは、背景学習動作から獲得される、記憶されている背景フレームを備えてもよい。
前述されたパラメータは以下によって示されてもよく、
Figure 0004746050
ここでは、R、G、Bはそれぞれ前景ピクセルの赤、緑、及び青の色成分を表し、R、G、Bは基準ピクセルの赤、緑、及び青の色成分を表す。
あるいはさらに複雑な式が特定の説明で説明されるように、数値パラメータに使用されてもよい。
代替実施形態では、ステップ(b)は基準フレームを占有する対応する基準ピクセルの輝度(Y)と異なる輝度(Y)を有する1つ以上の前景ピクセルを特定することと、候補ピクセルの色成分と基準ピクセルの色成分の間のそれぞれ異なる第1の関係性と第2の関係性に基づいて特定されたピクセル又はそれぞれの特定されたピクセルに第1のパラメータと第2のパラメータを割り当てることと、ピクセルが候補ピクセルとして分類されるべきかどうかを示す値の第1の範囲及び第2の範囲のそれぞれに対して第1のパラメータと第2のパラメータを比較することとを含む。
代替実施形態では、第1のパラメータは以下によって示され、
Figure 0004746050
ここではα、β、及びγは輝度係数である。
ステップ(a)で特定された領域は、好ましくは、それぞれの隣接する前景ピクセルを含むほど十分な大きさの矩形のピクセルアレイを備えている。好ましくは、アレイの各端縁は隣接するピクセルの少なくとも1つを含む。
本発明の第2の態様によると、ビデオフレームのピクセルを表すデータを処理する方法が提供される。ピクセルは前景領域又は背景領域のどちらかに属すとして事前に分類される。該方法は(a)再分類のための候補であるとして1つ以上の前景ピクセルを特定することと、(b)候補ピクセルと基準ピクセルの間の所定の関係性に基づいて各候補ピクセルに数値パラメータを割り当てることと、(c)候補ピクセルごとに、候補ピクセルの数値パラメータを第1の範囲の値と比較し、パラメータが第1の範囲に入る場合に、背景ピクセルとしてピクセルを再分類することと、(d)候補ピクセルごとに、候補ピクセルのパラメータを、第1の範囲内にある第2の値の範囲に比較し、パラメータが第2の範囲に入る場合に、背景ピクセルとしてピクセルを再分類することと、(e)ステップ(c)及び(d)のそれぞれで再分類された各ピクセルを含む更新された画像データの第1の組及び第2の組を提供することと、(f)近接する前景ピクセルのクラスタを含む領域を、更新された画像データの第2の集合から特定することと、(g)それぞれの位置がステップ(f)で特定された領域内にある前景ピクセルを、更新された画像データの第1の組から特定し、その後1つの共通する被写体をあらわすものとして前記複数の前景ピクセルを分類することとを備える。
本発明の第3の態様によると、ビデオシーケンスのフレームを表すデータを処理する方法が提供される。各フレームは、それぞれが各フレーム位置を占める複数のピクセルを備える。該方法は(a)前景又は背景のどちらかとしてピクセル分類を示す第1のマスクを提供することと、(b)近接した前景ピクセルのクラスタを含む第1のマスクの中に領域を特定することと、(c)前景ピクセルごとに、前記ピクセルが再分割のための候補とならなければならないかどうかを、記憶されている基準フレーム内の同じフレーム位置を占める基準ピクセルと前記ピクセルを比較することによって特定することと、(d)ほぼすべての候補ピクセルを背景ピクセルとして再分類し、再分類後のピクセル分類を示す第2のマスクをそこから生成することと、(e)(b)で特定された領域に入る第2のマスク内の2つ以上の前景ピクセルを特定するために第1のマスクと第2のマスクを比較することと、(f)共通の被写体を表すものとして(e)で特定された前景ピクセルを特定する第3のマスクを提供することとを備える。
本発明の第4の態様によると、ビデオフレームのピクセルを表すデータを処理するように構成されたビデオ処理システムが提供される。ピクセルは前景領域又は背景領域のどちらかに属すとして事前に分類される。該システムは、(a)ビデオフレームの中で、(i)複数の近接した前景ピクセルを含む領域と、(ii)所定のアルゴリズムを使用することによって再分類のための候補であるとして1つ以上の前景ピクセルとを特定し、(b)背景ピクセルとして候補ピクセルを再分類し、前記再分類されたピクセルを含む比較フレームを生成し、(c)比較フレームから、それぞれのフレーム位置がステップ(a)で特定された領域内にある前景ピクセルを特定し、(d)共通する前景被写体を表すものとしてステップ(c)で特定された前景ピクセルを分類するように構成された手段を備える。
ビデオ処理システムはビデオ監視システムの一部を形成してもよい。
発明は、添付図面に関して一例として説明される。
図2を参照すると、インテリジェントビデオ監視システム10は、カメラ11と、パーソナルコンピュータ(PC)13と、ビデオモニタ15とを備えている。カメラ11は例えばLogitec(商標) Pro 4000 colour webcam等のウェブカメラである。例えば、デジタルカムコーダ又はアナログ/デジタル変換手段付きのアナログカメラ等のデジタル画像データを出力できる任意のタイプのカメラを使用できる。ウェブカメラ11は、ローカルエリアネットワーク(LAN)又はインターネット等の任意のネットワークであろうネットワーク14上でPC13と通信する。実際には、ウェブカメラ11、及びPC13はデジタル加入者回線(DSL)モデム等のそれぞれのネットワーク接続(図示しない)を介してネットワーク14に接続される。代わりに、ウェブカメラ11はPCのユニバーサルシリアルバス(USB)ポート12によってPC13に直接接続できるであろう。PC13は任意の標準コンピュータで構成されてもよい。この場合、PC13は1GHzのプロセッサ、512メガバイトのランダムアクセスメモリ(RAM)、及び40ギガバイトのハードディスクドライブを有するデスクトップコンピュータである。ビデオモニタ15は、標準ビデオコネクタによってPC13に接続された17”薄膜トランジスタ(TFT)モニタである。
ビデオ処理ソフトウェアはPC13のハードディスクドライブに提供される。ソフトウェアは、ウェブカメラ11から受信されるビデオデータに対して多くの処理動作を実行するように構成されている。ビデオデータは捕捉されたビデオの個々のフレームを表し、各フレームは複数のピクチャエレメント、又はピクセルから構成されている。この実施形態では、各フレームは320ピクセル(幅)×240ピクセル(高さ)の表示フォーマットを有する。代わりの表示フォーマットは、アプリケーションに応じて使用されてよい。ウェブカメラ11はカラーカメラであるため、各ピクセルは、フレームにおけるピクセルの位置を示すデータだけでなく、表示されている色を決定する、3つの色成分つまり、赤、緑及び青の成分のそれぞれの重み付けによっても表される。当分野において理解されるように、既定のピクセルの輝度Yは以下の式によって近似することができる。
Y=α・R+β・G+γ・B (1)
ここでは、α=0.114、β=0.587及びγ=0.299である。
R、G及びBはそれぞれ、赤、緑、及び青の色成分の値を表している。Yの代替式は公知であるが、出願人は上記の式が好ましいことに気付いた。
ビデオ処理ソフトウェアは、図3に示されているように多くの異なる段階を備えている。図3は図2に類似しており、陰影除去段階17及び被写体特徴付け段階18が加えられ、両方の段階とも前景抽出段階3と被写体追跡段階5の間に組み込まれている。
陰影除去段階17の目的は、陰影領域とハイライト領域のかなりの割合を各ビデオフレームから取り除くことである。このようにして、前景領域の形状を特定する以後の処理段階は、改善された信頼性を持って動作できる。
被写体特徴付け段階18の目的は、前景の抽出及び陰影の除去に続いて前景特徴を特定することである。出力は、被写体追跡段階5によって使用される被写体記述子の組をから成る。この段階18の詳細な理解は、本発明の理解には必須ではない。
最初に、ビデオ処理ソフトウェアは背景学習段階1を実行する。序論で述べたように、この段階の目的はビデオデータの初期のセグメントから背景モデルを確立することである。このビデオセグメントは、通常、200フレームを備える。任意の画像の背景シーンは(前景被写体と比較して)相対的に固定されたままである場合が多いので、この段階で前景被写体が視覚できない背景モデルを確立する。
図4は、前述された背景学習段階1の間に確立された背景モデル19を示す。この場合、ウェブカメラ11は駐車場に向けられていた。PC13のメモリでは、背景モデル19は、ピクセルの位置を表す記憶されているデータの組、及び各ピクセルの赤、緑及び青の色成分のそれぞれの重み付けによって表される。
背景モデル19を確立してから、入信ビデオフレームがPC13によって受信され、ビデオ処理ソフトウェアによって処理される。以後の前景抽出段階3、陰影除去段階17、被写体特徴付け段階18、被写体追跡段階5、及び高水準アプリケーション7はリアルタイムでビデオフレームを処理する。
前景抽出及び背景適応段階3(以後「前景抽出段階」と呼ぶ)は、現在フレームの各ピクセルを処理する。各ピクセルは、現在フレームのピクセルが前景被写体の一部を表すのか、あるいは背景の一部を表すのかを推定するために、背景モデル19内の対応する位置を占有するピクセルと比較される。背景モデル19の小さな変化は適応して更新される。背景モデル19のより深刻な変化又は突然の変化は、参照符号9によって示される試験を使用して実行される再学習動作を必要とする。
前景抽出段階3の詳細な説明は本発明の理解に必須ではないが、当業者は前景抽出3を実行するための公知の方法があることを理解するであろう。恐らく最も簡単なのは、各ピクセルの輝度を、背景モデル19内の対応する位置を占有するピクセルの輝度と比較することである。2つの間の差異が所定の閾値を超える場合は、現在のピクセルは前景ピクセルとして分類される。
特に有効な方法は、Stauffer及びGrimsonによってパターン分析及び機械インテリジェンスに関するIEEE会議録(IEEE Transctions on Pattern Analysis and Machine Intelligence)、第22巻、第8号、2000年8月、747から757頁、「リアルタイム追跡を使用する活動の学習パターン(Learning Paterns of Activity Using Real−Time Tracking)」、に詳細に説明されているいわゆるガウスの混合(Mixture of Gaussian(MoG))方法である。MoG方法の実現は米国特許出願公開第2003/0053658号にも説明されている。両方の参考資料とも、前述の背景モデル19を確立するために適切な背景学習方法を説明する。
要約すれば、MoG方法は、異なる混合ガウス(又は正規)静的分布として入信ビデオフレームの各ピクセルをモデル化することを必要とする。これは、同じシーンポイントのサンプルがガウスのノイズ分布を示す傾向にあるという前提を反映する。混合正規分布は、1つ以上のプロセスを経時的に観察できるという期待を反映する。混合分布のそれぞれの持続性及び不偏分散に基づいて、どの分散が現在の背景と一致し得るかが決定される。背景分散に適合しない分散は、対応し、多くのフレームにわたって構築される一貫した証拠によって裏付けられる分散があるまで、前景ピクセルとして分類される。
ここで説明されている実施形態の場合、前景抽出段階3は、好ましくは、MoG方法を使用して動作する。しかしながら、これは決して必須ではなく、任意の代替方法を使用することができる。
前景抽出段階3の動作は、ウェブカメラ11からの入信ビデオフレーム21を示す図5を参照することによってさらに良く理解される。ビデオフレーム21は(a)駐車場を横切って歩いている人物23と、(b)駐車場の下部を横断している車両25とを描いている。ビデオフレーム21の各ピクセルは、そのピクセルが前景ピクセルとして分類されるべきなのか、あるいは背景ピクセルとして分類されるべきなのかを判断するために、背景モデル19内の対応するピクセルと比較される。結果として、前景抽出段階3は前景マスクを生成する。マスクは、各ピクセルの分類に関する情報、つまりピクセルが前景を表すのか、あるいは背景を表すのかを含む画像データの組である。図6を参照すると、前景ピクセルが白で示され、背景ピクセルが黒で示されている前景マスク27の視覚表現が示されている。
前景マスク27は、第1及び第2の前景領域29、31を含む。しかしながら、前景領域29、31のどちらもその形状に関して特に良く画定されておらず、前景マスク27だけを使用しても、どの前景被写体が実際に表現されるのかを決定することは困難である。これは、図5に示されるように、人物23及び車両25によって背景の上に投げかけられる陰影の存在のためである。陰影を表すピクセルは背景モデル19において対応する位置を占有するピクセルより暗い輝度強度を有する。したがって、これらのピクセルは前景ピクセルとして間違って分類された。ピクセルがその対応する背景ピクセルの輝度より明るい輝度強度を有するハイライトの存在によっても同様な問題が引き起こされることがある。
陰影及びハイライトの結果として、以後の処理段階で問題が発生する可能性が高い。例えば、被写体特徴付け段階18が前景抽出段階3から直接的に前景マスク27を受け取る場合、被写体特徴付け段階は前景被写体の特徴を特定するのが困難である。これは後の処理段階でさらに問題を引き起こす可能性がある。被写体追跡段階5は、現在のフレームの前景被写体と、前のフレームで追跡された前景被写体の間の対応を行うのが困難である。ビデオ監視システム10が、被写体のそれぞれのマスクプロファイルがどの「現実世界の」被写体に似ているのかに応じて被写体が分類される、被写体分類段階を含む場合に、同様の問題が生じる可能性がある。
前述された問題を緩和するために、ビデオ処理ソフトウェアは陰影除去段階17を含む。
図7は、陰影除去段階17の主要機能要素を示している。弱い陰影除去32と強い陰影除去33を備える二分岐プロセスが利用されている。両方とも前景マスク27上で並列に動作し、そこからそれぞれ更新されたマスク及び部分領域マスクを生成する。
並列動作が本発明にとって必須ではないことが理解されなければならない。しかしながら、このリアルタイムビデオ監視システム10の目的のために、並列動作が好ましい。
弱い陰影除去32の目的は、現在のフレーム内に存在する最も激しい陰影だけを除去することである。実際には、極めて区別可能な陰影は2、3しか存在しないと推定される。しかしながら、フレームは、現実にはさまざまな輝度強度の多くの印影を有する可能性が高いので、弱い陰影除去32はそのままでは不十分であろう。結果として、多くのピクセルが依然として間違って、前景ピクセルとして分類される可能性がある。
逆に、強い陰影除去33の目的は、現在のフレーム内に存在する実質的にあらゆる陰影を除去することである。結果として、いくつかの真の前景領域が間違って陰影領域として検出される可能性がある。被写体自体の上に陰影を投げかける被写体、いわゆる自己陰影は特に脆弱である。例えば、人間の顔を示しているフレームは、頬の上に鼻によって投げかけられる自己陰影領域を含み得る。強い陰影除去33によって、この領域のピクセルが前景被写体、つまり顔の部分を実際に形成するにも関わらずこの領域が削除される。結果として、通常、同じ被写体の部分が互いから切り離されているように見える分裂した画像が生じる。以後の処理ステップは、各断片を別々の被写体として解釈し得る。
陰影除去段階17は弱い陰影除去と強い陰影除去29、30の両方からの出力を使用し、いわゆる被写体分類マスクを生じさせる。被写体分類マスクは、効果的に部分領域マスクを備え、部分領域マスクは、適切な場合には分裂した被写体部分が共通の被写体に属すとして識別されることを確実にするための追加の分類情報を持つ、前景被写体形状の改善された表現を提供する。これを達成するために、連結成分分析(CCA)動作34が、弱い陰影除去32に続く更新されたマスク上で利用される。CCA動作は、前景被写体形成段階35に送信される被写体マスクを生成する。CCA段階34及び前景被写体形成段階35の動作が後述される。
CCA動作34の目的は更新された前景マスクの中の画像ピクセルの1つ以上のクラスタを特定することである。クラスタは2つ以上の近接した、つまり隣接するピクセルから成り得る。これに続いて各クラスタを囲む最小の矩形領域を画定する境界がソフトウェアによって自動的に確立される。フレーム上での各矩形領域の位置は、被写体マスクを形成するために第1の更新されたマスクに加えられる。
上記のプロセスを説明するために、図6に示されている前景マスク27が陰影除去段階17に対する現在の入力であると仮定する。図8aは、弱い陰影除去32から生じる更新された前景マスク36を示している。予想されたように、いくつかの陰影は除去されたが、各被写体29’、31’の形状は不十分に画定されたままである。図8bは、それぞれのクラスタ29’と31’を囲む矩形の境界が加えられたCCA段階34によって生成される被写体マスク37を示す。
図8cは、強い陰影除去33後の部分領域マスク38を示している。各被写体29”、31”の形状が良く画定されていることが分かる。しかしながら、強い陰影除去33が背景ピクセルとして間違って分類されたいくつかの前景ピクセルを生じさせ、各被写体が多くの別々の部分に分裂したのは不可避である。
前景被写体形成段階35では、被写体マスク37と部分領域マスク38とが比較され、位置が被写体マスク37の共通矩形領域内に入る部分領域マスク38内の前景ピクセルを特定する。共通矩形領域内に入るすべての前景ピクセルは、同じ前景被写体に属すとして分類される。
前述されたように、前景被写体形成段階35によって生成される出力は被写体分類マスク39と呼ばれる。被写体分類マスク39は、強い陰影除去33を使用して前景被写体の改善された形状表現を提供する。前景領域の分裂による潜在的な問題は、弱い陰影除去32によってサイズが決定される既定の境界領域内に入る各部に共通のアイデンティティを割り当てることによって回避される。図8dは、前景被写体形成段階35によって得られる被写体分類マスク39の視覚表現を示している。
CCA段階34及び被写体形成段階35の動作原則は、図8eから図8hを参照することによってさらに良く理解される。図8eは弱い陰影除去32後の前景マスクのクローズアップ部分を示している。前景ピクセルの単一クラスタが存在する。図8fは、CCA段階34によって生成される被写体マスクのクローズアップ部分を示す。CCA段階34は、各前景ピクセルを囲むのにちょうど十分な大きさの矩形境界を画定した。図8gは、強い陰影除去33後の部分領域マスクのクローズアップ部分を示す。前景ピクセルの単一のクラスタが存在するというよりむしろ、2つの別々のクラスタがある。図8hは前景被写体形成段階35後の被写体分類マスクのクローズアップ部分を示す。CCA段階34によって画定される矩形境界内に入る部分領域マスク内のすべての前景ピクセルは、共通前景領域を表すものとして分類された。
完全さのために、陰影除去段階17のソフトウェアレベルの動作の詳細な説明がここで説明される。2つの実施形態が説明され、第1の実施形態は図9から図12に関して後述される。第2の実施形態はさらに図13から図16に関して説明される。
図9を参照すると、第1の実施形態では、第1のステップ41は現在のフレーム内の次の前景ピクセルを取得することである。続くステップ42では、ピクセル(Y)の輝度は、記憶されている背景モデル内の同じ位置を占有するピクセルの輝度(Y)と比較される。ピクセルが背景ピクセルより暗い輝度強度を有することを意味するY<Yである場合、ピクセルが陰影領域を占有するかどうかを判断するために試験が実行される。ピクセルが占有しない場合、ステップ43において、Y>Yであるかどうかを判断する追加試験が実行され、ここで、ピクセルがハイライト領域を占有するかどうかを判断する試験が実行される。これは、後述される。
<Yである場合、ピクセルは再分類のための候補と見なされてよい。次のステップ44は、候補ピクセルのためのいわゆる明度歪みパラメータ(BDP)を計算することである。BDPを計算するための単純な式は、以下により示され
Figure 0004746050
ここでは、R、G、Bはそれぞれ、候補ピクセルの赤、緑及び青の色成分を表し、R、G、Bはそれぞれ、背景モデル内の対応するピクセルの赤、緑及び青の色成分を表す。
BDPを計算するためのさらに複雑な式は、第2の実施形態に関して下記に詳説される。しかしながらこの代替式は第1の実施形態とともに使用できる。
候補ピクセルのためにBDPを計算してから、前述された弱い陰影除去動作と強い陰影除去動作32、33に対応するステップの2つの別々の組が実行される。これらが後述される。
ステップ45では、候補ピクセルのBDPが、図10aに表現されるようにBDP値の第1の範囲と比較される。範囲は閾値「Tshadow」によって2つの部分に分けられる。一般的な場合には、Tshadowは0と1の間の値となる。この実施形態では、0.9という値が選ばれている。BDPがTshadowの値に等しい、又は以下である場合には、候補ピクセルは前景ピクセルとして正しく分類されていると見なされる。しかしながら、BDPがTshadowの値を超えている場合、候補ピクセルは陰影領域の部分を表すと見なされるため、候補ピクセルはステップ47で背景ピクセルとして再分類される。
ステップ51では、候補ピクセルのBDPは、図10bに表されるようにBDP値の第2の範囲と比較される。この場合、Tshadowの値は0.7というさらに低い値に設定される。前述のように、BDPの値がTshadowの値を超えている場合、候補ピクセルが陰影領域の部分を表すために採取されるため、ステップ53では背景ピクセルとして再分類される。
第2の領域の「陰影」領域が第1より大きな値の範囲を対象とすると、ステップ45と46は弱い陰影除去32に対応し、ステップ51と53は強い陰影除去33に対応することになる。
前述されたステップの動作に続き、現在のフレーム内にあらゆる残りの候補ピクセルがあるかどうかが判断される(ステップ47、55)。すべての候補ピクセルがチェックされた場合、前のステップから再分類されたピクセルを含む更新されたマスクが生成される。ステップ49では弱い陰影動作後のピクセル分類を示す更新された前景マスクが生成され、ステップ57では、強い陰影除去後のピクセル分類を示す部分領域マスクが生成される。
ステップ59では、隣接した前景ピクセルのクラスタを囲む1つ以上の領域が更新された前景マスクから特定される。ステップ59はCCA動作に対応し、前述されたように、被写体マスクを生成する。続くステップ61では、部分領域マスク及び被写体マスクが、それぞれの位置が被写体マスク内に特定される共通領域内に入る部分領域マスク内のピクセルのグループを特定するために比較される。ステップ63では、1つの共通領域に入る前景ピクセルが単一の前景被写体を表すものとして分類される。結果として生じる被写体分類マスクは被写体追跡段階5に転送される。次のフレームがステップ65で要求され、プロセスはステップ41から繰り返す。
図10に示されているように、ステップ42で実行される試験が否定的である場合、Y>Yであるかどうかを判断するためにステップ43で追加試験が実行される。結果が肯定的であり、ピクセルの輝度強度が背景ピクセルより大きいことを意味する場合、ピクセルがハイライト領域の部分を占有するかどうかを判断するために追加試験が実行される。この試験で必要とされる段階は図11のフローチャートに示される。段階が図9に示される段階に本質的に同一であることが理解されるため、各ステップの詳細な説明は扱われない。しかしながら、ステップ44’で言及されたBDPがステップ44に関するのと同じ式を使用して計算されることに留意する価値があり、図9を参照すること。ステップ45’及び51’はそれぞれ弱い陰影除去ステップと強い陰影除去ステップ45と51に対応する。図12a及び図12bは、ステップ45’及び51’で使用されるそれぞれ第1のハイライト範囲及び第2のハイライト範囲を示す。この場合、各範囲は、1を超える値となる閾値「Thighlight」によって分割される。この実施形態では、1.05という値が第1のハイライト範囲について選ばれ、1.25という値が第2のハイライト範囲について選ばれる。いずれの場合も、BDPがThighlightの値以下である、つまり0とThighlightの間にある場合、候補ピクセルは、背景ピクセルとして再分類される。
shadow及びThighlightに選ばれる前述の値は、照明条件及び/又は気象条件における漸次の変化に関わりなく、大部分の監視状況において非常に効果的であることが実験を通して判明している。これらの値は、ビデオ監視システム10が動作中も固定したままであり、したがってPCの処理負荷を最小限に抑える。これは、リアルタイムシステムにおいては明らかに有利である。わずかな調整が望ましい場合には、手動の調整が画像処理ソフトウェアによって促進される。
陰影除去段階17の第2の実施形態が、ここで添付図面の図13から図16に関して説明される。
図13を参照すると、示されているステップの大部分は図9に示されているステップと同一であることが理解される。したがって、類似する参照符号は類似する要素に使用され、これらの特定のステップの詳細な説明は必要とされていない。主要な相違点は、ステップ42後の陰影試験手順にある。
ステップ42では、Y<Yである場合、次のステップ75は候補ピクセルのための2つの異なるパラメータを計算することである。第1はBDPであり、第2はいわゆる「陰影歪みパラメータ」(SDP)である。BDPとSDPは、前景ピクセルが正しく分類されているか、あるいは間違って分類されているのかを判断するために2つのそれぞれの試験で使用される。
この実施形態で使用されるBDPは、式(2)のBDPの代替バージョンであり、以下により示され、
Figure 0004746050
ここでは、α、β及びγの値が(1)に示されている同じ値である。式(3)は、輝度値Yを計算するために使用される前述された係数を考慮に入れるため、式(3)はさらに満足の行く結果を生じさせることが判明している。
式(1)又は(3)のどちらかはBDPを生成するために使用することができ、その使用は特定の一実施形態に限定されない。
SDPは、以下の式によって示される数値である。
Figure 0004746050
したがって3つの式が計算され、最大の値がSDPとして返される。
候補ピクセルのためにBDP及びSDPを計算した後、ステップ76で、比較動作が実行され、BDPが所定の範囲内にあるかどうかを判断する。この場合には、範囲は0.5と最大BDP値の間である。BDPが範囲内にない、つまり0.5未満である場合には、ピクセルは正しく分類されていると見なされ、次の前景ピクセルがステップ41で得られる。BDPが範囲内にある場合、前述された弱い陰影除去動作32と強い陰影除去動作33に対応するステップの2つの別々のセットが実行される。図14aは、ステップ76で使用されるBDP値の範囲を示している。
ステップ77では、候補ピクセルのSDPが、図14bに表されているようにSDP値の第1の範囲と比較される。第1の実施形態と同様に、範囲は閾値「Tshadow」によって2つの部分に分割される。一般的な場合、Tshadowは0と1の間の値となる。この実施形態では、0.9という値が選ばれる。SDPがTshadowという値に等しい又は未満の場合には、候補ピクセルは前景ピクセルとして正しく分類されていると見なされる。しかしながら、SDPがTshadowの値を上回っている場合は、候補ピクセルが陰影領域の部分を表すと見なされるため、ステップ46では、候補ピクセルは背景ピクセルとして再分類される。
ステップ78では、候補ピクセルのSDPは、図14cに表されているように、SDP値の第2の範囲と比較される。この場合、Tshadowの値は0.7というさらに低い値に設定される。前述されたように、SDPの値がTshadowの値を上回っている場合には、候補ピクセルは、陰影領域の部分を表すと解釈されるため、ステップ53で、背景ピクセルとして再分類される。
第2の範囲の「陰影」領域が第1の範囲よりさらに大きな範囲をカバーすることを考慮すると、当然、ステップ77及び46は弱い陰影除去32に対応し、ステップ78及び53は強い陰影除去33に対応する。
残りのステップは、図9に関して前述されたステップと同一である。
図13に示されているように、ステップ42で実行される試験が否定的である場合には、Y>Yであるかどうかを判断するために追加試験がステップ43で実行される。結果が肯定的であり、ピクセルの輝度強度が背景ピクセルより大きいことを意味する場合、候補ピクセルがハイライト領域の部分を占有するかどうかを判断するために追加試験が実行される。この試験に含まれる段階は図15のフローチャートに示されている。
図15が大部分は図13と同一であるため、各ステップの詳細な説明が扱われないことが分かる。ステップ75’で言及されたBDPは式(3)を使用して計算される。ステップ76’では、BDPが所定の範囲内、この場合には1.5とゼロの間にあるかどうかが判断される。図16aはBDP値のこの範囲を描く。BDPが範囲内にない場合、ピクセルは前景ピクセルとして正しく分類されていると見なされ、プロセスはステップ41から繰り返す。BDPが範囲内にある場合、弱い陰影除去及び強い陰影除去が、ステップ77’、78’で始まる以後のステップで実行される。
SDPパラメータを使用する代わりに、いわゆる「ハイライト歪みパラメータ」(HDP)がハイライト試験に使用される。HDPは以下の式を使用して計算される。
Figure 0004746050
3つの式が計算され、最小の値がHDPとして返される。
ステップ77’及び78’はそれぞれ弱い陰影除去ステップと強い陰影除去ステップ77と78に対応する。図16b及び図16bは、ステップ77’及び78’で使用されるそれぞれの第1のハイライト範囲及び第2のハイライト範囲を示す。この場合、各範囲は1を超える値となるであろう閾値「Thighlight」によって分割される。この実施形態では、第1のハイライト範囲に1.05という値が選ばれ、第2のハイライト範囲に1.25という値が選ばれている。候補ピクセルは、いずれの場合も、そのBDPがThighlightという値を下回る、つまり0とThighlightの間にある場合に、背景ピクセルとして再分類されるであろう。
したがって、第2の実施形態では、陰影試験、ハイライト試験のそれぞれは、2つの異なるパラメータの組を使用する。初期の試験は、より多くのBDP値が以後の試験を合格するように配列されるBDP閾値を使用する。陰影除去ステップ76では、例えば、BDP閾値は相対的に低い(0.5)。ステップ77及び78では、各追加試験が、ピクセルが事実上再分類を必要とするかどうかを判断するためにさらに狭い範囲の値に対してSDP式を使用する。式(4)が3つの副次式に起因する最高の値を取ることが留意される。各副次式は、3つの色成分の内の2つだけを含み、1つの色成分が偽の又はスプリアスな値を与える可能性を考慮に入れる。類似するコメントは、相対的に高いBDP閾値(1.5)を使用するハイライト除去ステップ76’に関連しても当てはまる。ステップ77’及び78’では、各追加試験はさらに狭い範囲の値に対するHDP値を使用する。式(5)は、3つの副次式に起因する最低の値を取り、各副次式は3つの色成分の内の2つだけを含む。
第2の実施形態で使用されている式は第1の実施形態で使用されている式よりさらに複雑に見えるが、以下のように式を簡略化できる。輝度値(Y)に関して、式(1)を以下のように書き換えることができる。
Y=114・R+587・G+299・B (6)
10で重み付け値を乗算することによって、浮動小数点計算及び除算計算を回避する。
同様に、BDP、SDP及びHDPを計算する際に、α、β及びγの値はそれぞれ0.012996、0.344569及び0.089401でなければならない。これらの値を四捨五入し、10で乗算し、それぞれα=130、β=3446、及びγ=894を得る。ここでも、浮動小数点計算及び除算計算が回避される。BDP、SDP及びHDPを計算する際に、繰り返す計算を回避するために6つの項目を事前にプログラミングできる。
Figure 0004746050
前記項目を事前にプログラミングすることにより、すべての除算計算が適切な乗算式及び加算式で置換できることが理解できる。例えば、第2の実施形態では、BD>0.5は2・(A+A+A)>(B+B+B)と書き換えることができ、BDP<1.5は2・(A+A+A)<3・(B+B+B)と書き換えることができる。SBD及びHBDを計算するとき、比較ステップは同様に実現できる。例えば、
Figure 0004746050
であるかどうかを判断することを希望する場合、(A+A)・(B+B)>(A+A)・(B+B)を使用できる。
要約すると、すべての計算において、整数ベースの加算及び乗算の実行のみが必要とされる。これにより陰影除去段階17の動作は非常に効率的になる。これは特にリアルタイムアプリケーションで重要である。
被写体特徴付け段階18は、陰影除去段階19から被写体分類マスク39を受信する。この段階は本発明を理解するためには重要ではないので、この段階の詳細な説明は示されない。要約すると、被写体特徴付け段階18は、被写体分類マスク39を分析し、以後の被写体追跡段階5で有用である場合がある前景被写体の特定の特徴を特定する。被写体特徴付け段階18からの出力は被写体記述子の形態を取る。例えば、「中心位置」、「寸法」、「色」及び「ピクセル密度」等の複数の種類の記述子が生成されてよい。
被写体追跡段階5は、被写体特徴付け段階18から被写体記述子を受け取る。前景被写体はフレームごとに追跡される。被写体記述子を使用して、現在フレーム内の前景被写体と、以前のフレームで既に追跡された前景被写体の間に対応が確立される。軌跡データベースは、1つ以上の高水準アプリケーション7に各前景被写体の追跡履歴が利用できるように維持される。例えば、高水準アプリケーション7は、ビデオの中の1つ以上の前景被写体によって取られる累積経路を示す追跡線を表示してもよい。複数の前景被写体がウェブカメラ11の視界に入ると、迅速な識別のために各追跡線に異なる色を割り当てることができる。
被写体分類アプリケーションは、各前景被写体の形状を現実世界の被写体のデータベースと比較するために利用されてよい。一致が検出されると、前景被写体は、適切に、例えば「人物」又は「車両」と分類される。
ビデオモニタ15上の画像データの表示は、PC13のハードドライブに記憶される表示制御アプリケーション70によって制御される。図17を参照すると、表示制御アプリケーション70は図3に示されているすべての処理段階からビデオデータを受信し、その後このビデオデータによって表される任意のビデオシーケンスを表示できる。実際には、オペレータは、単一画面上で複数の画像を見ることができる。例えば、オペレータが背景モデル19と被写体分類マスク39の両方を同時に見ることを希望することがある。オペレータにとって主な関心は、被写体追跡段階5及び高水準アプリケーション7から得られる、処理後のビデオデータであろう。処理後のフレーム70が図18に示されている。陰影除去段階17におけるピクセル再分類の結果として、以前に陰影領域を占有していたピクセルが現在背景の一部を形成することが留意される。さらに、各前景被写体23、25が、被写体追跡段階5によって特定され、追跡されてよい。追跡線71、73は、現在のフレームまでつながるビデオセグメントのコース上で被写体によって取られる累積経路を表している。各前景被写体は、高水準被写体分類アプリケーションの、記憶されている現実の被写体の集合の1つに一致した。
前述されたビデオ処理ソフトウェアは色ビデオデータに対して動作するが、当業者は、本発明が白黒ビデオシステムにも等しく適用可能であることを理解する。
従来の技術のインテリジェントビデオシステムにおける処理段階を示すブロック図である。 本発明によるインテリジェントビデオシステムの構成要素を示すブロック図である。 インテリジェントビデオシステムの処理段階を示すブロック図である。 ビデオシステムの前景抽出段階によって使用される背景モデルの画像の表示である。 前景抽出段階への入信ビデオフレームの表示である。 前景抽出段階によって生成される前景マスク画像の表示である。 ビデオシステムの陰影除去段階の機能要素を示すブロック図である。 陰影除去段階の異なる段階で生成されるマスク画像の表示を示す。 陰影除去段階の異なる段階で生成されるマスク画像の表示を示す。 陰影除去段階の異なる段階で生成されるマスク画像の表示を示す。 陰影除去段階の異なる段階で生成されるマスク画像の表示を示す。 陰影除去段階の異なる段階で生成されるマスク画像の表示を示す。 陰影除去段階の異なる段階で生成されるマスク画像の表示を示す。 陰影除去段階により実行される陰影除去動作の各ステップを示すフローチャートである。 図9のフローチャートの異なるステップによって使用されている値範囲を表す図である。 陰影除去段階によって実行されるハイライト除去動作の各ステップを示すフローチャートである。 図11のフローチャートの異なるステップによって使用される値範囲を表す図である。 第2の好ましい実施形態の陰影除去動作のステップを描くフローチャートである。 図13のフローチャートの異なる段階によって使用される値範囲を表す図である。 第2の好ましい実施形態におけるハイライト除去動作のステップを示すフローチャートである。 図15のフローチャートの異なる段階によって使用される値範囲を表す図である。 ビデオシステムの一部を形成するディスプレイ制御アプリケーションを示すブロック図である。 後処理されたビデオ画像の表示である。

Claims (7)

  1. ビデオフレームのピクセルを表すデータを処理する方法であって、
    前記ピクセルは前景領域又は背景領域のどちらかに属すとして事前に分類され、
    (a)再分類のための候補であるとして1つ以上の前景ピクセルを特定するステップと、
    (b)前記候補ピクセルの色成分値、対応する基準ピクセルの色成分値とに基づいて各候補ピクセルに対する数値パラメータを計算するステップと、
    (c)候補ピクセルごとに、前記候補ピクセルに対する数値パラメータを第1の範囲の値と比較し、前記数値パラメータが前記第1の範囲内に入る場合には背景ピクセルとして前記候補ピクセルを再分類するステップと、
    (d)候補ピクセルごとに、前記候補ピクセルに対する数値パラメータを、前記第1の範囲内にある第2の範囲の値と比較し、前記数値パラメータが前記第2の範囲内に入る場合に背景ピクセルとして前記候補ピクセルを再分類するステップと、
    (e)前記ステップ(c)及び(d)のそれぞれで再分類された各ピクセルを含む更新された画像データの第1の集合及び第2の集合を提供するステップと、
    (f)近接する前景ピクセルのクラスタを含む領域を、更新された画像データの前記第2の集合から特定するステップと、
    (g)前記ステップ(f)で特定された領域内にそれぞれ位置する複数の前景ピクセルを、更新された画像データの前記第1の集合から特定し、その後、前記複数の前景ピクセルを共通の被写体を表すものとして分類するステップと、
    を備え
    前記基準ピクセルは、基準フレームの一部を構成するピクセルであり、
    前記基準フレーム内の基準ピクセルの位置は、前記候補ピクセルの前記フレーム内の位置に対応する、方法。
  2. 前記ステップ(a)が、前記対応する基準ピクセル又はそれぞれの対応する基準ピクセルの輝度(Y)と異なる輝度(Y)を有する1つ以上の前景ピクセルを特定するステップを備える、請求項に記載の方法。
  3. 前記数値パラメータは、
    Figure 0004746050
    によって得られ、
    ここで、R 、G 、B がそれぞれ、候補ピクセルの赤、緑、及び青の色成分値を表し、R 、G 、B がそれぞれ前記対応する基準ピクセルの赤、緑、及び青の色成分値を表す、請求項1又は請求項2に記載の方法。
  4. 前記数値パラメータは、
    Figure 0004746050
    によって得られ、
    ここで、α、β及びγは輝度係数であり、
    、G 、B は候補ピクセルの赤、緑及び青の色成分値をそれぞれ表し、
    、G 、B は前記対応する基準ピクセルの赤、緑及び青の色成分値をそれぞれ表す、請求項1に記載の方法。
  5. 前記ステップ(b)において計算された前記数値パラメータは、第1のパラメータであって、
    前記候補ピクセルの色成分値と、前記対応する基準ピクセルの色成分値とに基づいて、前記候補ピクセルに対する第2のパラメータであって、前記第1のパラメータと異なる前記第2のパラメータを計算するステップと、
    候補ピクセルごとに、第2の範囲の値と、前記候補ピクセルに対する前記第2のパラメータとを比較し、前記第2のパラメータが前記第2の範囲内に入る場合には背景ピクセルとして前記候補ピクセルを再分類するステップと、
    を更に含む、請求項3又は請求項4に記載の方法。
  6. 前記第2のパラメータは、
    Figure 0004746050
    によって得られ、
    ここで、α、β及びγは輝度係数であり、
    、G 、B はそれぞれ候補ピクセルの赤、緑及び青の色成分値を表し、
    、G 、B がそれぞれ前記対応する基準ピクセルの赤、緑及び青の色成分値を表す、請求項5に記載の方法。
  7. 前記ステップ(f)で特定された前記領域は、前記クラスタの各ピクセルを含むために十分な大きさの矩形ピクセルアレイを備える、請求項乃至請求項のいずれか1項に記載の方法。
JP2007538498A 2004-10-28 2005-10-24 ビデオデータを処理するための方法及びシステム Active JP4746050B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB0424030.5 2004-10-28
GBGB0424030.5A GB0424030D0 (en) 2004-10-28 2004-10-28 A method and system for processing video data
PCT/GB2005/004111 WO2006046021A1 (en) 2004-10-28 2005-10-24 A method and system for processing video data

Publications (2)

Publication Number Publication Date
JP2008518344A JP2008518344A (ja) 2008-05-29
JP4746050B2 true JP4746050B2 (ja) 2011-08-10

Family

ID=33515766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007538498A Active JP4746050B2 (ja) 2004-10-28 2005-10-24 ビデオデータを処理するための方法及びシステム

Country Status (8)

Country Link
US (1) US7978917B2 (ja)
EP (1) EP1805715B1 (ja)
JP (1) JP4746050B2 (ja)
CN (1) CN101084527B (ja)
AT (1) ATE515004T1 (ja)
AU (1) AU2005298492B2 (ja)
GB (1) GB0424030D0 (ja)
WO (1) WO2006046021A1 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
US8928654B2 (en) 2004-07-30 2015-01-06 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
KR101323966B1 (ko) 2004-07-30 2013-10-31 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US8014590B2 (en) * 2005-12-07 2011-09-06 Drvision Technologies Llc Method of directed pattern enhancement for flexible recognition
US20080311997A1 (en) * 2007-06-15 2008-12-18 Microsoft Corporation Data capture for interactive operation
TW200926011A (en) * 2007-09-04 2009-06-16 Objectvideo Inc Background modeling with feature blocks
CN101236606B (zh) * 2008-03-07 2010-12-08 北京中星微电子有限公司 视频监控中的阴影消除方法及系统
AT506928B1 (de) * 2008-05-28 2012-07-15 Kiwisecurity Software Gmbh Verfahren zur videoanalyse
US8265380B1 (en) * 2008-08-14 2012-09-11 Adobe Systems Incorporated Reuse of image processing information
CA2735992A1 (en) * 2008-09-04 2010-03-11 Extreme Reality Ltd. Method system and software for providing image sensor based human machine interfacing
CN101686338B (zh) * 2008-09-26 2013-12-25 索尼株式会社 分割视频中的前景和背景的系统和方法
CN101398855B (zh) * 2008-10-24 2010-08-11 清华大学 一种视频关键帧提取方法和系统
US8548258B2 (en) * 2008-10-24 2013-10-01 Extreme Reality Ltd. Method system and associated modules and software components for providing image sensor based human machine interfacing
IL195848A0 (en) * 2008-12-10 2009-09-01 Artivision Technologies Ltd A method and device for processing video frames
KR101538910B1 (ko) 2009-05-21 2015-07-23 바셀 폴리올레핀 이탈리아 에스.알.엘 프로필렌 중합체 조성물
AT508624B1 (de) * 2009-08-06 2013-03-15 Kiwisecurity Software Gmbh Verfahren zur videoanalyse
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
JP2013505493A (ja) 2009-09-21 2013-02-14 エクストリーム リアリティー エルティーディー. 電子機器とのヒューマン・マシン・インタフェーシングの為の方法、回路、装置及びシステム
US8475050B2 (en) * 2009-12-07 2013-07-02 Honeywell International Inc. System and method for obstacle detection using fusion of color space information
CN102103751B (zh) * 2009-12-18 2012-12-19 华为技术有限公司 前景图像提取方法及装置
EP2339537B1 (en) * 2009-12-23 2016-02-24 Metaio GmbH Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method
KR101605168B1 (ko) * 2010-01-04 2016-03-22 삼성전자주식회사 이미지 처리 장치 및 방법
CN101853505B (zh) * 2010-05-13 2012-06-13 复旦大学 一种基于像素扩散的前景提取方法
JP2012027572A (ja) * 2010-07-21 2012-02-09 Sony Corp 画像処理装置および方法、並びにプログラム
CN102446346A (zh) * 2010-09-30 2012-05-09 北京中电兴发科技有限公司 快速去除运动图像阴影的方法
US8761510B2 (en) * 2011-11-19 2014-06-24 Nec Laboratories America, Inc. Object-centric spatial pooling for image classification
JP5899944B2 (ja) * 2012-01-17 2016-04-06 沖電気工業株式会社 車種判別装置
WO2014031615A1 (en) * 2012-08-20 2014-02-27 Behavioral Recognition Systems, Inc. Method and system for detecting sea-surface oil
EP2821967A1 (en) * 2013-07-03 2015-01-07 Kapsch TrafficCom AB Shadow detection in a multiple colour channel image
KR102161212B1 (ko) * 2013-11-25 2020-09-29 한화테크윈 주식회사 움직임 검출 시스템 및 방법
GB2523330A (en) * 2014-02-20 2015-08-26 Nokia Technologies Oy Method, apparatus and computer program product for segmentation of objects in media content
AU2014271236A1 (en) 2014-12-02 2016-06-16 Canon Kabushiki Kaisha Video segmentation method
US9652854B2 (en) 2015-04-09 2017-05-16 Bendix Commercial Vehicle Systems Llc System and method for identifying an object in an image
CN105574821A (zh) * 2015-12-10 2016-05-11 浙江传媒学院 基于数据的软性阴影去除方法
CN105868700A (zh) * 2016-03-25 2016-08-17 哈尔滨工业大学深圳研究生院 一种基于监控视频的车型识别与跟踪方法及系统
US10142568B2 (en) * 2017-02-13 2018-11-27 Semiconductor Components Industries, Llc Methods and apparatus for vignette and out-of-focus correction
US10049308B1 (en) * 2017-02-21 2018-08-14 A9.Com, Inc. Synthesizing training data
US10572767B2 (en) * 2017-04-12 2020-02-25 Netflix, Inc. Scene and shot detection and characterization
EP3582181B1 (en) * 2018-06-14 2020-04-01 Axis AB Method, device and system for determining whether pixel positions in an image frame belong to a background or a foreground
US20200193662A1 (en) * 2018-12-18 2020-06-18 Genvis Pty Ltd Video tracking system and data processing
US11887313B2 (en) 2020-09-30 2024-01-30 Splitmedialabs Limited Computing platform using machine learning for foreground mask estimation
US20230419526A1 (en) * 2022-06-22 2023-12-28 Geomagical Labs, Inc. Method, apparatus, and computer-readable medium for room layout extraction

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0335399A (ja) 1989-06-30 1991-02-15 Toshiba Corp 変化領域統合装置
US6037976A (en) 1995-10-31 2000-03-14 Sarnoff Corporation Method and apparatus for determining ambient conditions from an image sequence, such as fog, haze or shadows
GB0301434D0 (en) 2003-01-22 2003-02-19 Univ Brunel A new automatic thresholding algorithm based on multi-thresholds

Also Published As

Publication number Publication date
JP2008518344A (ja) 2008-05-29
AU2005298492B2 (en) 2010-08-26
WO2006046021A1 (en) 2006-05-04
CN101084527B (zh) 2010-07-07
ATE515004T1 (de) 2011-07-15
AU2005298492A1 (en) 2006-05-04
EP1805715A1 (en) 2007-07-11
GB0424030D0 (en) 2004-12-01
CN101084527A (zh) 2007-12-05
US7978917B2 (en) 2011-07-12
EP1805715B1 (en) 2011-06-29
US20080285859A1 (en) 2008-11-20

Similar Documents

Publication Publication Date Title
JP4746050B2 (ja) ビデオデータを処理するための方法及びシステム
EP1683105B1 (en) Object detection in images
Jung Efficient background subtraction and shadow removal for monochromatic video sequences
JP4722923B2 (ja) コンピュータビジョンによりシーンをモデル化する方法
JP4629364B2 (ja) シーンの背景を表現する背景画像を適応的に更新する方法
US20010040982A1 (en) Object extracting method using motion picture
WO2019197021A1 (en) Device and method for instance-level segmentation of an image
CN109903265B (zh) 一种图像变化区域侦测阀值设定方法、系统及其电子装置
CN115205194B (zh) 基于图像处理的粘虫板覆盖率检测方法、系统及装置
CN108921857A (zh) 一种面向监视场景的视频图像焦点区域分割方法
EP1730694A1 (en) Detecting hanging wires in color digital images
CN111274964A (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN114449362B (zh) 视频封面的选取方法、装置、设备及存储介质
CN113743378B (zh) 一种基于视频的火情监测方法和装置
JP3480408B2 (ja) 物体抽出システムと方法並びに物体抽出用プログラムを記憶した記憶媒体
CN113240611B (zh) 一种基于图片序列的异物检测方法
Chen et al. Background subtraction in video using recursive mixture models, spatio-temporal filtering and shadow removal
CN111311696A (zh) 一种基于高光谱解混技术的车牌真伪检测方法
Smolka et al. Fast noise reduction in cdna microarray images
KR20150055481A (ko) 영상 내 그림자 화소 제거를 위한 배경 기반 방법
Ouivirach et al. Extracting the object from the shadows: Maximum likelihood object/shadow discrimination
Jadav et al. Shadow Extraction and Elimination of Moving Vehicles for Tracking Vehicles
Hardas et al. Moving Object Detection for Video Surveillance using Different Color Spaces
JP2003337945A (ja) 画像分類プログラム及び画像分類方法
Nong et al. Motorcycle Image Evaluation by Contrast Stretching Method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110512

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4746050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250