JP2009533778A - 統計的画素モデリングを使った映像セグメント化 - Google Patents
統計的画素モデリングを使った映像セグメント化 Download PDFInfo
- Publication number
- JP2009533778A JP2009533778A JP2009506492A JP2009506492A JP2009533778A JP 2009533778 A JP2009533778 A JP 2009533778A JP 2009506492 A JP2009506492 A JP 2009506492A JP 2009506492 A JP2009506492 A JP 2009506492A JP 2009533778 A JP2009533778 A JP 2009533778A
- Authority
- JP
- Japan
- Prior art keywords
- region
- statistical model
- value
- background
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
映像データを前景部分と背景部分にセグメント化する方法は、画素の統計的モデリングを利用する。背景の統計モデルが各画素ごとに構築され、入力映像フレーム内の各画素がその画素の背景統計モデルと比較される。比較に基づき、画素が前景または背景であると判定される。映像データをセグメントする方法は、さらに、インテリジェント映像監視システムを実施する方法に組み込まれてもよい。映像データをセグメント化する方法は、ハードウェアとしても実施されてもよい。
【選択図】 図11
【選択図】 図11
Description
[0001]本発明は、例えば、セキュリティ、監視および関連する国土安全保障およびテロ対策システムで利用される閉回路テレビシステム(CCTV)の一部として、または同システムと連動させて使用されるインテリジェント映像監視(IVS)システム、市場調査目的で店内人間挙動の傾向を確認するために小売店における監視映像を処理するIVSシステム、誤った方向の通行、故障車両、事故および道路封鎖を検出するために車両交通を監視するIVSシステム、ならびに映像圧縮システムなどの映像処理システムで使用するための映像フレームの処理に関する。IVSシステムとは、映像セグメント化ステップの後で、前景オブジェクトを、動物、乗り物、その他の動く未分類オブジェクトといった一般的なクラスとして分類し、あるいは人間、小型もしくは大型の人間以外の動物、自動車、航空機、船、トラック、樹木、旗、または水域のようなより具体的なクラスとして分類するオブジェクト分類を行うために映像をさらに処理するシステムである。IVSシステムでは、このような映像セグメント化および分類が行われた後で、検出されたオブジェクトは、これらのオブジェクトの位置、動きおよび挙動がユーザ定義の仮想映像仕掛け線、および仮想関心領域(関心領域は視野全体または場面全体とすることもできる)にどのように関連するか判定するために処理される。次いで、発生したユーザ定義のイベントに、勤務中の保安警官または保安要員に伝えられる関心対象イベントとしてフラグが立てられる。このようなイベントの例には、人間もしくは乗り物が仮想映像仕掛け線を横切る、人もしくは乗り物が仮想関心領域もしくは場面を徘徊し、もしくはそこに入る、またはオブジェクトが仮想領域もしくは場面に放置され、もしくはそこから持ち去られるなどが含まれる。詳細には、本発明は、映像フレームを構成する各領域の統計的特性を使って、映像フレームをその構成部分にセグメント化する方法を扱う。
[0002]オブジェクトベースの映像圧縮、映像オブジェクトを検出し、追跡するための映像セグメント化、ならびに他の種類のオブジェクト指向映像処理では、入力映像が2つのストリームに分離される。一方のストリームは静止背景情報を表す情報を含み、他方のストリームは前景情報として表すべきである、映像の動く部分を表す情報を含む。背景情報は場面モデルを含む背景モデル、すなわち、例えば、映像フレームのシーケンスに見られるような、一連の関連画像から合成された合成画像として表される。また、背景モデルは追加のモデルおよびモデリング情報を含んでいてもよい。場面モデルは、(例えば点および/または領域をマッチさせるなど)画像を位置合わせし、画像間のオーバーラップを判定することによって生成される。効率のよい送信または格納方式では、場面モデルは一度送信されるだけでよく、前景情報は各フレームごとに送信される。例えば、パン、チルト、ロール、およびズーム型の移動だけを生じる観測装置(すなわち、映像源であるカメラなど)の場合には、場面モデルは一度送信されるだけでよい。というのは、場面モデルの外観は、観測装置の動きに基づいて明確に定義されるような変化以外には、フレームごとに変化せず、観測装置の動きは動きパラメータを送信することによって容易に説明することができるからである。このような技法は、パン、チルト、ロール、およびズーム以外の、別の移動形態の場合にも適用できることに留意されたい。IVSシステムにおいては、別々の動く前景オブジェクトと背景オブジェクトを作成することにより、カメラのパン、チルト、およびズーム移動により背景画素に明らかな動きが生じているときでさえも、システムに動く関心対象オブジェクトの分類を試みさせることが可能になる。
[0003]自動オブジェクト指向映像処理を実現できるようにするには、移動または変化している映像シーケンス中の各領域を区別し、これらの領域を静止背景領域から分離する(すなわちセグメント化する)ことができる必要がある。このセグメント化は、例えば、パン、チルト、ロール、および/またはズームする観測装置によって(または実際の観測装置の移動を含む別の移動関連の現象によって)誘発されるような、明白な動きが存在する中で行われなければならない。この動きを明らかにするために、まず画像が位置合わせされる。すなわち、前述のように、画像内の対応する位置(すなわち各フレーム)が特定される。この位置合わせの後、実際に移動または変化しているオブジェクトを、静止背景に対して、場面内の静止オブジェクトからセグメント化することができる。次いで、静止領域を使って場面モデルが作成(または更新)され、動く前景オブジェクトが各フレームごとに識別される。
[0004]動く前景と静止した背景である映像オブジェクトを識別し、自動的に区別するのは、特に、前述のような観測装置の動きがある場合には、容易ではない。さらに、最大限の圧縮度または別の映像処理技術の最大限の精密さまたは正確さを提供するには、前景オブジェクトを可能な限り細かくセグメント化することが望ましい。というのは、これにより、例えば、連続する映像フレーム間の滑らかさおよび個々のフレーム内の鮮明さを維持することを可能になるからである。しかしながら、公知の技術は、小さい前景オブジェクトでは使用するのが難しく、不正確であることが分かっており、過大な処理能力およびメモリを必要とする。したがって、従来技術の制限を受けずに、前景情報と背景情報との間の正確なセグメント化、および前景オブジェクトの正確で鮮明な表現を可能にする技術があれば望ましい。
[0005]本発明は、ソース映像の統計的特性に基づく、映像の前景情報と背景情報とへのセグメント化の方法を対象とする。より詳細には、この方法は、映像の各領域の特性に関する統計情報、および統計情報に基づくこれらの領域の(すなわち前景または背景としての)ラベル付けを作成し、更新することに基づくものである。例えば、一実施形態では、各領域は画素であり、特性は彩度である。以下で明らかになるように、他の多くの可能な方法も存在する。より特定の実施形態では、本発明は、本発明の映像セグメント化方法を使ってインテリジェント映像監視システムを実施する方法を対象とする。
[0006]本発明の実施形態では、少なくとも2つの構成要素を含む背景モデルが作成される。第1の構成要素は場面モデルであり、例えば、前述の米国特許出願で論じられているように構築され、更新され得る。第2の構成要素は背景統計モデルである。
[0007]第1の実施形態では、本発明の方法は2パスの映像セグメント化プロセスを備える。この実施形態の2つのパスは、背景統計モデルが構築され、更新される第1のパスと、フレーム内の各領域がセグメント化される第2のパスとを備える。第1のパスの一実施形態は、各映像フレームを場面モデルと位置合わせするステップと、位置合わせされたフレームデータに基づいて背景統計モデルを更新するステップとを備える。第2のパスの実施形態は、各フレームごとに、そのフレームの各領域にラベル付けするステップと、空間フィルタリングを行うステップとを備える。
[0008]第2の実施形態では、本発明の方法は1パスの映像セグメント化プロセスを備える。この単一のパスは、映像ストリームのフレームシーケンス内の各フレームごとに、フレームを場面モデルと位置合わせするステップと、背景統計モデルを構築するステップと、フレームの各領域にラベル付けするステップと、空間/時間フィルタリングを行うステップと、を備える。
[0009]別の実施形態では、本発明の方法は、前述の1パスの映像セグメント化プロセスの変形バージョンを備える。この実施形態は、背景統計モデルを構築するステップが、背景統計モデルおよび2次統計モデルを構築するステップと置き換えられることを除いて、前述の実施形態と同様である。
[0010]第4の実施形態では、本発明の方法は1パスの映像セグメント化プロセスを備える。この単一のパスは、リアルタイム映像ストリーム内の各フレームごとに、フレーム内の各画素にラベル付けするステップと、フレーム内の各画素の空間/時間フィルタリングを行うステップと、任意選択で画素ラベル付けを改良するステップと、背景および前景の統計モデルを構築/更新するステップと、背景統計モデルにオブジェクトを挿入するステップと、を備える。
[0011]これらの実施形態は、それぞれ、各実施形態のステップを実行するソフトウェアを走らせるコンピュータシステム、および各実施形態のステップを表現するソフトウェアを含むコンピュータ可読媒体として実施されてもよい。
[0012]これらの実施形態は、それぞれ、ハードウェア装置として実施されてもよい。
定義
定義
[0013]本発明を説明するに際して、(以上を含む)本明細書全体において以下の定義が適用される。
[0014]「コンピュータ」とは、構造化入力を受け入れ、規定の規則に従って構造化入力を処理し、処理の結果を出力として生成することのできる任意の装置をいう。コンピュータの例には、コンピュータ、汎用コンピュータ、スーパーコンピュータ、メインフレーム、スーパーミニコンピュータ、ミニコンピュータ、ワークステーション、マイクロコンピュータ、サーバ、双方向テレビ、コンピュータと双方向テレビのハイブリッド結合体、コンピュータおよび/またはソフトウェアをエミュレートする特定用途向けハードウェアがなど含まれる。コンピュータは単一のプロセッサまたは複数のプロセッサを有することができ、各プロセッサは並列に、および/または並列以外で動作することができる。また、コンピュータは、コンピュータ間で情報を送信し、または受信するためにネットワークを介して相互に接続されている2台以上のコンピュータもいう。このようなコンピュータの例には、ネットワークによってリンクされたコンピュータを介して情報を処理する分散コンピュータシステムが含まれる。
[0015]「コンピュータ可読媒体」とは、コンピュータからアクセス可能なデータを格納するのに使用される任意の記憶装置をいう。コンピュータ可読媒体の例には、磁気ハードディスク、フロッピーディスク、CD−ROMやDVDのような光ディスク、磁気テープ、およびメモリチップなどが含まれる。
[0016]「ソフトウェア」とはコンピュータを動作させるための規定された規則をいう。ソフトウェアの例には、ソフトウェア、コードセグメント、命令、コンピュータプログラム、およびプログラム論理などが含まれる。
[0017]「コンピュータシステム」とは、コンピュータを動作させるソフトウェアを実施するコンピュータ可読媒体を備えるコンピュータを有するシステムをいう。
[0018]「ネットワーク」とは、通信設備によって接続されている何台かのコンピュータおよび関連機器をいう。ネットワークは、ケーブルなどの永続的接続、または電話もしくはその他の通信リンクを介して行われる接続などの一時的接続を伴う。ネットワークの例には、インターネットなどの相互接続ネットワーク、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、および相互接続ネットワークやイントラネットといったネットワークの結合体などが含まれる。
[0019]「映像」とは、アナログおよび/またはディジタルの形で表される動画をいう。映像の例には、セキュリティ、監視およびテロ対策用途におけるCCTVシステムからの映像フィード、テレビ、映画、カメラまたはその他の観測装置からの画像シーケンス、コンピュータで生成される画像シーケンスなどが含まれる。これらの映像は、例えば、有線または無線のライブフィード、記憶装置、FireWireインターフェース、映像ディジタイザ、映像ストリーミングサーバ、機器もしくはソフトウェアコンポーネント、コンピュータグラフィックスエンジン、またはネットワーク接続などから獲得することができる。
[0020]「映像処理」とは、例えば圧縮や編集などを含む、任意の映像操作をいう。
[0021]「フレーム」とは、映像内の個々の画像またはその他の個別の単位をいう。
[0022]「ビデオカメラ」とは、可視記録のための装置をいう。ビデオカメラの例には、ビデオカメラ、ディジタルビデオカメラ、カラーカメラ、白黒カメラ、カメラ、カムコーダ、PCカメラ、ウェブカム、赤外線(IR)ビデオカメラ、低光量ビデオカメラ、熱映像カメラ、閉回路テレビ(CCTV)カメラ、パン、チルト、ズーム(PTZ)カメラ、映像感知機器のうちの1つ以上が含まれ得る。ビデオカメラは、関心領域の監視を行うように配置され得る。
[0023]次に本発明を、添付の図面と関連してさらに詳細に説明する。
[0039]同一のオブジェクトは、同一のオブジェクトを含むすべての図面において同じ符号でラベル付けされることに留意されたい。
[0040]前述のように、本発明は、映像ストリームの、動くオブジェクトに対応する前景情報と、映像の静止部分に対応する背景情報とへのセグメント化を対象とするものである。本発明は、いくつかの方法で実施することができ、以下では、そのうちの4つの具体的方法について論じる。これらの実施形態は、それだけに限定されるのではなく、例示のためのものである。
[0041]以下の考察では「画素」および「彩度」に言及する。しかしながら、本発明の方法はこれだけに限定されるものではない。そうではなく、処理は、画素のみならず(複数の画素を備える領域を含む)任意の種類の領域に関与し、彩度のみならず、そのような領域に対して測定され、またはそのような領域に関連する任意の種類の特性を使用し得る。
1.第1の実施形態 2パスのセグメント化
[0042]図1には本発明の第1の実施形態が示されており、これは2パスのセグメント化の方法に対応する。図1に示すように、この方法ではまず映像ストリームからフレーム(または映像)シーケンスを獲得する(ステップ1)。フレームシーケンスは、好ましくは、映像ストリームの2つ以上のフレームを含む。フレームシーケンスは、例えば、映像ストリームの一部または映像ストリーム全体とすることができる。映像ストリームの一部として、フレームシーケンスは、例えば、映像ストリームの1つの連続するフレームシーケンスまたは映像ストリームの2つ以上の不連続のフレームシーケンスなどとすることができる。また、位置合わせステップの一部として、場面モデルも構築され、更新される。
[0042]図1には本発明の第1の実施形態が示されており、これは2パスのセグメント化の方法に対応する。図1に示すように、この方法ではまず映像ストリームからフレーム(または映像)シーケンスを獲得する(ステップ1)。フレームシーケンスは、好ましくは、映像ストリームの2つ以上のフレームを含む。フレームシーケンスは、例えば、映像ストリームの一部または映像ストリーム全体とすることができる。映像ストリームの一部として、フレームシーケンスは、例えば、映像ストリームの1つの連続するフレームシーケンスまたは映像ストリームの2つ以上の不連続のフレームシーケンスなどとすることができる。また、位置合わせステップの一部として、場面モデルも構築され、更新される。
[0043]ステップ1の後、ステップ2で、すべてのフレームがすでに処理されているか否かが判定される。まだ処理されていない場合には、次のフレームが取り込まれ、下にある映像ストリームの場面モデルと位置合わせされる(ステップ3)。このような位置合わせについては前述しており、他の多数の参照文献でも論じられている。
[0044]本発明の方法は統計的モデリングを使って、個々の画素を前景オブジェクトまたは前景オブジェクトの一部であると分類すべきか、それとも背景または背景の一部であると分類すべきか判定することに基づくものである。ステップ4では、ステップ3で位置合わせされた各フレームを使った、背景の統計モデルの構築および更新を扱う。
[0045]本発明の統計モデルは、1次統計および2次統計を備える。以下の考察では、このような1次統計および2次統計として平均および標準偏差が使用される。しかしながら、これは単に、使用され得る統計を例示するものにすぎない。
[0046]一般には、Nサンプルの平均値
は、各サンプルの和を取り、これをNで割ることによって、すなわち、
によって算出され、式中、xiは所与の画素(または領域)に対応する個々のサンプルであり、この事例では、例えば、所与の画素(または領域)に対応する第iのサンプルの測定された彩度などとすることができる。この設定では、その場合、そのような平均値が各画素または領域ごとに算出される。
は、各サンプルの和を取り、これをNで割ることによって、すなわち、
によって算出され、式中、xiは所与の画素(または領域)に対応する個々のサンプルであり、この事例では、例えば、所与の画素(または領域)に対応する第iのサンプルの測定された彩度などとすることができる。この設定では、その場合、そのような平均値が各画素または領域ごとに算出される。
[0047]式(1)はサンプル平均値の一般式を与えるものであるが、この式を使用することが常に最適であるとは限らない。映像処理用途では、ある画素のサンプル値は、オブジェクトがその画素を通るときに急激に変化し、動くオブジェクトがもはやその画素内にはなくなった後で、その画素の元の値の前後の値に(急激に)戻ることがある。この種の問題に対処するために、本発明では、前の値に現在の値よりも多く重み付けする加重平均を利用する。詳細には、以下の式が使用される。
式中、Wpは過去の値の重みであり、Wnは最新の値に割り当てられる重みである。さらに、
は、Jサンプルにわたって取られる加重平均を表し、xKは第Kのサンプルを表す。WpおよびWnは、過去の値が最新の値より多く重み付けされるように、WpとWnの和が1であり、Wn<Wpであるような、0と1との間の任意の値の対に設定される。例えば、発明者らは、Wp=0.9およびWn=0.1を使って成功している。
式中、Wpは過去の値の重みであり、Wnは最新の値に割り当てられる重みである。さらに、
は、Jサンプルにわたって取られる加重平均を表し、xKは第Kのサンプルを表す。WpおよびWnは、過去の値が最新の値より多く重み付けされるように、WpとWnの和が1であり、Wn<Wpであるような、0と1との間の任意の値の対に設定される。例えば、発明者らは、Wp=0.9およびWn=0.1を使って成功している。
[0048]標準偏差σは、考慮される値の分散σ2の平方根として求められる。一般に、分散は、以下の式によって求められる。
式中、
はx2の平均を表す。したがって、標準偏差は、
によって与えられる。本発明の方法は実行中の統計を使用するため、これは、
になり、式中、
は、上記式(2)で定義されるとおりであり、
は、第Nのサンプルまでの各サンプルの二乗値の加重平均として定義され、
によって与えられる。各サンプル値の加重平均の場合と同様に、重みを使って、過去の値が現在の値よりも多く重み付けされるようにする。
式中、
はx2の平均を表す。したがって、標準偏差は、
によって与えられる。本発明の方法は実行中の統計を使用するため、これは、
になり、式中、
は、上記式(2)で定義されるとおりであり、
は、第Nのサンプルまでの各サンプルの二乗値の加重平均として定義され、
によって与えられる。各サンプル値の加重平均の場合と同様に、重みを使って、過去の値が現在の値よりも多く重み付けされるようにする。
[0049]以上が与えられるものと仮定して、ステップ4は、各フレームごとに、各画素ごとの式(4a)の値を算出することによって統計モデルを作成し、更新するように機能する。また、ステップ4では各画素の値が、(各画素が受け取られるように、すなわち、フレームごとにではなく)画素ごとに格納される。すなわち、一連の値がそのフレームシーケンスにわたって各画素ごとにコンパイルされる。代替の実施形態では、ステップ4ではこの値の格納を行うだけであることに留意されたい。
[0050]ステップ4に続き、方法はステップ2に戻って、すべてのフレームが処理されているか否かチェックする。すべてのフレームが処理されている場合、方法はステップ5に進み、この実施形態の第2のパスを開始する。
[0051]ステップ5では、統計的背景モデルが仕上げられる。これは、各画素ごとの格納された値を使用し、これらの値のモード、すなわち、最も頻繁に生じる値を求めることによって行われる。これは、例えば、格納された値のヒストグラムを取り、そのヒストグラムが最高値を有する値を選択することによって達成され得る。次いで、各画素のモードがその画素の背景統計モデルの値として割り当てられる。
[0052]ステップ5に続き、方法はステップ6に進み、すべてのフレームがすでに処理されているか否か判定する。まだ処理されていない場合、方法はステップ7に進み、そこでフレーム内の各画素が前景(FG)画素または背景(BG)画素であるとラベル付けされる。このステップの動作の2つの選択可能な実施形態を図2Aおよび図2Bのフローチャートに示す。
[0053]図2Aには2判定レベルの方法が示されている。図2Aでは、画素ラベル付けステップ7はステップ71から開始し、そこでフレーム内のすべての画素が処理されているか否かが判定される。まだ処理されていない場合、方法はステップ72に進んで次の画素を調べる。ステップ72では、画素が背景統計モデルとマッチするか否か、すなわち、画素の値がその画素のモデルとマッチするかどうかを判定する。これは、画素値とその画素の背景統計モデルの値(すなわちモード)との絶対差を取り、この絶対差を閾値と比較することによって行われる。すなわち、
が閾値θと比較される。式(6)において、xpixelは画素の値を表し、mpixelはその画素の統計的背景モデルの値を表す。
が閾値θと比較される。式(6)において、xpixelは画素の値を表し、mpixelはその画素の統計的背景モデルの値を表す。
[0054]閾値θは多くの方法で求められる。例えば、閾値θは、(所与の画素)の標準偏差σの関数であるとみなすこともできる。特定の例示的実施形態では、θ=3σである。別の実施形態では、θ=Kσであり、Kはユーザによって選択される。別の例として、θには(やはり各画素ごとに)所定の値、またはユーザが選択した値が割り当てられてもよい。
[0055]Δ≦θである場合、画素値は背景統計モデルとマッチするとみなされる。この場合、画素はステップ73で背景(BG)とラベル付けされ、アルゴリズムはステップ71に戻る。そうでなく、Δ>θである場合、画素値は背景統計モデルとマッチしないとみなされ、画素はステップ74で前景(FG)とラベル付けされる。この場合もやはり、アルゴリズムは次いでステップ71に戻る。ステップ71で(フレーム内の)すべての画素が処理されていると判定された場合、ステップ7は終了する。
[0056]図2Bには、7’と表示された3判定レベルの方法が示されている。図2Bでは、プロセスはやはり、すべての画素が処理されているか否か判定するステップであるステップ71から開始する。まだ処理されていない場合、プロセスは次の画素を処理されるものとみなし、処理中の画素が背景統計モデルとマッチするか否か判定するステップであるステップ72を実行する。これは、図2Aと同様に行われる。マッチする場合、画素がBGとラベル付けされ(ステップ73)、プロセスは折り返してステップ71に戻る。そうでない場合、プロセスはステップ75に進む。これが図2Bのプロセスを図2Aのプロセスと区別するステップである。
[0057]ステップ75では、プロセスは、考慮される画素が背景統計モデルとマッチするというには程遠いか否かを判定する。これは、ステップ72と同様の閾値テストによって達成され、ステップ75でのみ、θにはより大きな値が与えられる。ステップ72の場合と同様に、θはユーザよって割り当てられても、前もって決定されてもよい。一実施形態では、θ=Nσであり、Nは所定のまたはユーザ設定の数であり、N>Kである。別の実施形態では、N=6である。
[0058]ステップ75の結果がΔ≦θである場合、画素はFGとラベル付けされる(ステップ74)。そうでない場合、画素はステップ76で明確な前景(DFG)とラベル付けされる。いずれの場合も、プロセスは折り返してステップ71に戻る。ステップ71で、フレーム内のすべての画素が処理されていると判定した後で、ステップ7’が完了する。
[0059]図1に戻って、フレームのすべての画素にラベル付けされた後で、プロセスはステップ8に進み、そこで空間/時間フィルタリングが行われる。図1では連続したステップとして示されているが、ステップ8は代替としてステップ7と並列に行われてもよい。ステップ8の詳細を図3Aおよび図3Bのフローチャートに示す。
[0060]図3Aにおいて、ステップ8は、フレームのすべての画素が処理されているか否かに関するテストから開始する(ステップ81)。まだ処理されていない場合、ステップ85で、アルゴリズムは処理のための次の画素Piを選択し、ステップ82に進み、そこで画素がBGとラベル付けされているか否かが判定される。BGとラベル付けされている場合、プロセスはステップ81に戻る。そうでない場合、画素はステップ83およびステップ84においてさらに処理される。
[0061]ステップ83の近隣フィルタリングは、画像が位置合わせされたときの位置合わせ不良を補正するのに使用される。現在の画像が、作成中の背景統計モデルとわずかにずれている場合、特に強い縁部付近では、背景統計モデルを使用する本発明のセグメント化手順は、画素に前景とラベル付けすることになる。近隣フィルタリングはこれを補正する。ステップ83の一実施形態が図3Bのフローチャートに示されている。
[0062]図3Bにおいて、ステップ83はステップ831から開始し、そこでPiに対応する場面モデル位置Pmの判定が行われる。次に、場面モデル内のPmを取り囲む画素P’mを備える近隣が選択される(ステップ832)。次に、ステップ833で、近隣内のすべての画素が処理されているかどうか判定する。処理されている場合、ステップ83は完了し、Piのラベルは以前のままとされる。そうでない場合、プロセスはステップ834に進み、そこで次の近隣画素P’mが考慮される。次いで、ステップ835で、PiがP’mとマッチするか否か判定するテストを行う。このマッチテストは、Piを考慮中の画素として、P’mを「対応する」背景統計モデル点として使用する、変形された方式のラベル付けステップ(ステップ7またはステップ7’)を実行することによって達成される。ラベル付けステップがFGまたはDFGのラベルを返す場合には、マッチは存在せず、BGのラベルを返す場合には、マッチが存在する。マッチが存在しない場合、プロセスは折り返してステップ833に戻る。マッチが存在する場合、これは、Piが誤ってラベル付けされているおそれがあることを示すものであり、プロセスはステップ836に進む。ステップ836では、フレーム内のPiを取り囲む画素P’iを備える近隣が選択され、類似のプロセスが行われる。すなわち、ステップ833では、近隣内のすべての画素P’iが考慮されているか否かが判定される。考慮されている場合、ステップ83は完了し、Piのラベルは以前のままとされる。そうでない場合、プロセスはステップ838に進み、そこで次の近隣画素P’iが考慮される。ステップ839では、PmがP’iとマッチするかどうか判定するテストを行う。これは,ステップ833と同様に行われ、考慮中のP’iが考慮される画素として、PmがP’iの「対応する」背景統計モデル点として使用される。マッチしない場合、プロセスは折り返してステップ837に戻る。マッチする場合、PiはBGとラベル付けし直され、ステップ83が完了する。
[0063]図3Aに戻って、ステップ83に続いてステップ84が実行され、そこで形態学的侵食および膨張が行われる。まず、所定の回数nの侵食が行われ、誤ってラベル付けされた前景が除去される。DFGとラベル付けされた画素は、いずれにしてもほぼ確実に前景である画素を表すため、侵食されていないと考えられることに留意されたい。これに続いてn回の膨張が行われ、前景として正しくラベル付けされたが侵食された画素を復元する。最後に、第2の所定の回数mの膨張が行われて前景オブジェクト内の穴が充填される。侵食および膨張は、従来の侵食および膨張技術を使って行われ、ユーザ指定のパラメータに従って適用され、前述のように、DFGとラベル付けされた画素が侵食されないように修正される。
[0064]代替の実施形態では、ステップ84が、形態学的侵食および膨張の代わりに、またはこれらに加えてフィルタリング法を備えていてもよい。一般に、ステップ84は、任意の形態の空間および/または時間フィルタリングを用いる。
[0065]図1に戻って、ステップ8に続いて、アルゴリズムはステップ6に戻り、すべてのフレームが処理されているか否か判定する。処理されている場合、そのフレームシーケンスの処理が完了し、プロセスが終了する(ステップ9)。
[0066]この2パスの実施形態には、比較的簡単であるという利点があり、即座の、または低待ち時間の処理を必要としない用途に許容される手法である。このような用途の例には、オフライン映像圧縮、非線形映像編集ならびにセキュリティおよび監視映像の法科学的処理などが含まれる。他方、適時のイベント報告が不可欠である映像セキュリティおよび監視など他の多くの用途にはこのような要件があり、以下で論じる実施形態はこれらの要件に対処するように構成される。
2.第2の実施形態 1パスのセグメント化
[0067]図4に、本発明の第2の実施形態による1パスのセグメント化プロセスのフローチャートを示す。図4を図1(第1の実施形態)と比較すると、第2の実施形態には、各フレームシーケンスごとに単一の処理のパスしかないという違いがある。図4のステップ2、3、31、32、8に示すようなこの単一パスは、以下で論じるように、第2のパスの各プロセス(図1のステップ5〜8)と第1のパス(図1のステップ2〜4)とを、変形した形としてではあるが、合併したものである。
[0067]図4に、本発明の第2の実施形態による1パスのセグメント化プロセスのフローチャートを示す。図4を図1(第1の実施形態)と比較すると、第2の実施形態には、各フレームシーケンスごとに単一の処理のパスしかないという違いがある。図4のステップ2、3、31、32、8に示すようなこの単一パスは、以下で論じるように、第2のパスの各プロセス(図1のステップ5〜8)と第1のパス(図1のステップ2〜4)とを、変形した形としてではあるが、合併したものである。
[0068]第1の実施形態の場合と同様に、図4に示す第2の実施形態(1パスのプロセス)ではまず、フレームシーケンスを獲得する(ステップ1)。第1の実施形態の場合と同様に、次いでプロセスは、すべてのフレームが処理されているか否か判定するテストを行う(ステップ2)。また、第1の実施形態と同様に、判定結果がNOである場合、次に処理すべきフレームが場面モデルと位置合わせされる(ステップ3)。前述のように、背景モデルの場面モデル構成要素がステップ3の一部として構築、更新され、そのため、背景モデルの各位置ごとに、常に少なくとも1つの決定論的に決まる値がある。
[0069]この時点において、プロセスは、背景統計モデルを構築するステップを含む(ステップ31)。これは図5にさらに詳細に示すように、図1のステップ4とは異なる。プロセスは、処理中のフレーム内のすべての画素が処理されているか否か判定するステップから開始する(ステップ311)。まだ処理されていない場合、プロセスは、背景統計モデルが「成熟」しているか否か(ステップ312)、「安定」しているか否か(ステップ313)を判定する。
[0070]ステップ312およびステップ313を行う理由は、統計的背景モデルが、最初は、各画素の特性について正確な判定を行うのに十分なほど発達していないためである。これを克服するためには、画素がラベル付けされる前にいくつかのフレームを処理する必要がある(すなわち、背景統計モデルが「成熟」している必要がある)。本発明の一実施形態ではこれはユーザ定義のパラメータである。これは、「先読み」手順として実施されてもよく、先読み手順では、画素ラベル付けの前に、限られた数のフレームを使って背景統計モデルが累積される(図4のステップ32)。
[0071]成熟した統計モデルを提供するには単にユーザ定義の数のフレームを処理するだけで十分であるが、第2の問題は安定度であり(ステップ313)、これは背景統計モデルの標準偏差に依存する。詳細には、以下で論じるように、統計的背景モデルは各画素ごとの標準偏差を含む。(個々の画素の)統計モデルは、そのモデルの分散(すなわち、そのモデルの標準偏差)が適度に小さくなると「安定」していると定義される。本発明の一実施形態では、ステップ313で、標準偏差とユーザ定義の閾値パラメータとを比較することによってこれを判定する。標準偏差がこの閾値より小さい場合、(その画素の)統計的背景モデルは安定していると判定される。
[0072]ステップ31の流れに関して、図5で、背景統計モデルが成熟していると判定された場合(ステップ312)、背景統計モデルが安定しているか否かが判定される(ステップ313)。これらのテスト(ステップ312およびステップ313)のどちらかに失敗した場合、プロセスはステップ315に進み、そこで処理中の画素の背景統計モデルが、その画素の現在の値を使って更新される。ステップ315について以下でさらに説明する。
[0073]背景統計モデルが(ステップ312およびステップ313で)成熟しており、かつ安定していると判定された場合、プロセスはステップ314に進み、そこで処理中の画素が背景統計モデルとマッチするか否かが判定される。マッチする場合、背景統計モデルは現在の画素値を使って更新される(ステップ315)。マッチしない場合、プロセスは折り返しステップ311に戻って、フレーム内のすべての画素が処理されているかどうか判定する。
[0074]ステップ314は、現在の背景統計モデルに従って、現在の画素値が画素の平均値のある範囲内にあるか否か判定するように動作する。本発明の一実施形態では、この範囲はユーザ定義の範囲である。別の実施形態では、これはユーザ定義の数の標準偏差であると判定される。すなわち、画素値xは、
である場合に背景統計モデルとマッチし、式中、Kはユーザ定義の標準偏差σの数であり、xpixelは現在の画素値であり、
は背景統計モデルにおける現在の画素の平均値である。ステップ314を実行する目的は、可能な範囲で、背景統計モデルを作成し、更新するのに背景画素だけが使用されるようにするためである。
である場合に背景統計モデルとマッチし、式中、Kはユーザ定義の標準偏差σの数であり、xpixelは現在の画素値であり、
は背景統計モデルにおける現在の画素の平均値である。ステップ314を実行する目的は、可能な範囲で、背景統計モデルを作成し、更新するのに背景画素だけが使用されるようにするためである。
[0075]ステップ315で、背景統計モデルが更新される。この実施形態では、背景統計モデルは、(そのフレームシーケンスにおよぶ)各画素ごとの値の平均値および標準偏差からなる。これらは上記の式(2)および式(4a)に従って算出される。
[0076]ステップ315の後で、プロセスは折り返しステップ311に戻り、(現在のフレーム内の)すべての画素が処理されているかどうか判定する。すべての画素が処理された後で、プロセスはステップ316に進み、背景統計モデルが仕上げられる。この仕上げは、各画素に、その画素の現在の平均値および標準偏差(すなわち、その点までのすべてのフレームを処理した結果)を割り当てることからなる。
[0077]所与の画素の背景統計モデルが決して安定しないこともあり得ることに留意されたい。これは、一般に、その特定の画素がフレームシーケンスにおける背景画素ではなく、したがって、その画素に背景統計モデルのための値を割り当てる必要がないことを示すものである。前述のように、場面モデルもまた構築され、更新されることに留意すると、背景モデルにおいては、常に、各画素と関連付けられた、少なくとも1つの決定論的に決まる値がある。
[0078]ステップ316の後で、プロセスは図4に示すようにステップ32に進み、そこでフレーム内の各画素が、その画素の種類(すなわち明確な前景、前景または背景)に従ってラベル付けされる。ステップ32を図6Aおよび図6Bのフローチャートにさらに詳細に示す。
[0079]以下の概念は、後続のステップ32の説明において具体化される。理想的には、ラベル付けは常に、各画素を、背景統計モデル内のその画素に対応する点に対してテストすることによって行われるが、これは常に可能であるとは限らない。背景統計モデルが、処理されたフレームの数に基づいて使用できる状態(すなわち「成熟」状態)にない場合、プロセスは、場面モデル内の対応する点に対するテストに頼らなければならない。背景統計モデルが使用できる状態にあるが、まだ落ち着いていない(すなわち「安定」していない)場合、これは、その画素が変動しており、前景であるとラベル付けされるべきであるという兆候である。背景統計モデルが、何らかの理由で(すなわち、場面モデルとマッチしなかったため、または再度落ち着かない状態になったために)使用不能になった場合には、プロセスはこの場合もはやり場面モデルに対するテストに頼らなければならない。
[0080]図6Aに示すように、ステップ32はステップ321から開始し、そこで、(現在のフレーム内の)すべての画素が処理されているか否かが判定される。処理されている場合、ステップ32は完了する。そうでない場合、次の画素がステップ322以下のステップで処理される。
[0081]ステップ322では、背景統計モデルが成熟しているか否か判定する。これは、前述の図5のステップ312の場合と同様に行われる。成熟していない場合、プロセスはステップ323に進み、そこで、その画素が、場面モデルの対応する点の背景彩度データとマッチするか否かが判定される。
[0082]ステップ323は、所与の画素が、背景彩度データ値のある範囲内に入るか否か判定するテストを実行することによって行われる。これは図5のステップ314と同様であり、統計的平均値を背景彩度データ値で置き換える。閾値も同様に(前もって設定する、ユーザが設定するなど)決定され得る。
[0083]ステップ323で、画素が背景彩度データとマッチすると判定した場合には、図6Bのステップ329で(コネクタAに続いて)画素がBGとラベル付けされる。ステップ329からプロセスは折り返し(コネクタDを介して)ステップ321に戻る。
[0084]ステップ323で、画素が背景彩度データとマッチしないと判定した場合には、図6Bのステップ3210で(コネクタBに続いて)画素がFGとラベル付けされる。ステップ3210からプロセスは折り返し(コネクタDを介して)ステップ321に戻る。
[0085]ステップ322で、背景統計モデルが成熟していると判定した場合には、処理はステップ324に進み、背景統計モデルが安定しているか否か判定する。ステップ324はこのタスクを、前述の、図5のステップ313と同様に行う。安定していない場合、プロセスはステップ325に進み、そこで、背景統計モデルがかつて安定していたかどうか(すなわち、背景統計モデルが以前は安定していたが、今は不安定であるかどうか)が判定される。安定している場合、プロセスはステップ323に分岐し、プロセスはそこから前述のように進む。そうでない場合、図6Bのステップ3211で(コネクタCに続いて)画素がDFGとラベル付けされ、その後、プロセスは折り返し(コネクタDを介して)ステップ321に戻る。
[0086]ステップ324で、背景統計モデルが安定していると判定した場合、プロセスはステップ326に進む。ステップ326では、背景統計モデルが背景彩度データとマッチするかどうかテストする。前述のマッチテストと同様に、このテストは、画素の背景統計モデルの値(すなわち平均値)と画素の(すなわち場面モデルの)背景彩度データとの絶対差を取る。次いで、この絶対差が、前述のような(前もって設定された、ユーザによって設定されたなどの)何らかの閾値と比較される。
[0087]ステップ326で、背景統計モデルと背景彩度データとの間にマッチがないと判定された場合、プロセスはステップ323に分岐し、そこで、処理は前述と同様に進む。他方、ステップ326で、マッチがあると判定された場合には、プロセスはステップ327に進む。
[0088]ステップ327では、現在の画素が背景統計モデルとマッチするか否か判定する。このステップは、前述の、図5のステップ314と同様に行われる。現在の画素がマッチする場合(これは、前述のように、現在の画素を現在の画素に対応する平均値と比較することによって判定される)、図6Bのステップ329で(コネクタAに続いて)画素がBGとラベル付けされ、次いでプロセスは折り返し(コネクタDを介して)ステップ321に戻る。そうでない場合、ステップ328で次のテストが行われる。
[0089]ステップ328では、現在の画素値が、BG画素を表さないものと仮定して、FG画素を表すか、それともDFG画素を表すか判定する。これは、画素値が背景統計モデルとマッチするというには程遠いかどうか判定することによって行われる。前述のように、FG画素は、FG画素の値が特定の量、例えば、いくつかの標準偏差(式(7)参照)を超えるほど平均値と異なるかどうか判定することによって(ステップ325で)BG画素から区別される。ステップ328では、同じテストを、より大きな範囲を使用して適用する。この場合もやはり、閾値は、所定のパラメータとして、算出されるパラメータとして、またはユーザ定義のパラメータとして設定され、平均値からの標準偏差の数、すなわち、
として与えられ、式中、Nは式(7)のKより大きい数である。画素値が、例えば、式(8)などによって定義される範囲外にある場合には、図6Bのステップ3211で(コネクタCに続いて)画素がDFGとラベル付けされ、プロセスは折り返し(コネクタDを介して)ステップ321に戻る。画素値が範囲内にある場合には、図6Bのステップ3210で(コネクタBに続いて)画素がFGとラベル付けされ、プロセスは(コネクタDを介して)ステップ321に進む。
として与えられ、式中、Nは式(7)のKより大きい数である。画素値が、例えば、式(8)などによって定義される範囲外にある場合には、図6Bのステップ3211で(コネクタCに続いて)画素がDFGとラベル付けされ、プロセスは折り返し(コネクタDを介して)ステップ321に戻る。画素値が範囲内にある場合には、図6Bのステップ3210で(コネクタBに続いて)画素がFGとラベル付けされ、プロセスは(コネクタDを介して)ステップ321に進む。
[0090]ステップ32が完了した後、プロセスは図4に示すようにステップ8に進み、そこで、フレーム内の各画素に対して空間/時間フィルタリングが行われる。ステップ8は、本発明のこの実施形態では、図6Aおよび図6Bの画素ラベル付けアルゴリズムが(2パスの実施形態で使用される画素ラベル付けアルゴリズムとは異なり)ステップ83のステップ833およびステップ837に使用されることを除いて、2パスの実施形態に実施されるのと同様に実施される。ステップ8に続いて、プロセスは折り返しステップ2に戻り、そこで、すべてのフレームが処理されている場合、プロセスは終了する。
[0091]本明細書で提示するような単一パスの手法には、第2のパスを必要とせず、したがって、そのプロセスに伴う待ち時間が低減されるという利点がある。これは、例えば、テレビ会議、ウェブキャスティング、リアルタイムゲームなどのような、高待ち時間が有害となる用途では有用である。
3.第3の実施形態 変形の1パスのセグメント化
[0092]前述の1パスの手法は、2パスの手法より待ち時間が低いが、この手法には背景統計モデルに関して不利な点を有する。詳細には、本発明の1パスの実施形態で使用される累積的統計的モデリングの手法は、ある要素(すなわち、画素、領域など、考慮中の任意のサイズの要素)についての非代表的統計モデルで安定化することもある。映像場面の特定の要素に対応するフレーム要素の値(彩度値など)が根本的に変化した場合(すなわち、例えば、駐車した車が走り去る、走行中の車が駐車する、照明が変化するなど、何か映像を変化させることが発生した場合)、その場面モデル要素は、もはや、実際の場面を正確に表さなくなる。これには、背景統計モデルがいつでも映像に示される場面の実際の特性を正確に表すように、背景統計モデルを動的に更新する機構を利用することによって対処することができる。このような機構が、図7の本発明の実施形態に示されている。
[0092]前述の1パスの手法は、2パスの手法より待ち時間が低いが、この手法には背景統計モデルに関して不利な点を有する。詳細には、本発明の1パスの実施形態で使用される累積的統計的モデリングの手法は、ある要素(すなわち、画素、領域など、考慮中の任意のサイズの要素)についての非代表的統計モデルで安定化することもある。映像場面の特定の要素に対応するフレーム要素の値(彩度値など)が根本的に変化した場合(すなわち、例えば、駐車した車が走り去る、走行中の車が駐車する、照明が変化するなど、何か映像を変化させることが発生した場合)、その場面モデル要素は、もはや、実際の場面を正確に表さなくなる。これには、背景統計モデルがいつでも映像に示される場面の実際の特性を正確に表すように、背景統計モデルを動的に更新する機構を利用することによって対処することができる。このような機構が、図7の本発明の実施形態に示されている。
[0093]図7において、ステップ1〜3、32、8および9は、上記の1パスの実施形態で説明されているとおりである。図7は、所与のフレームが場面モデルと位置合わせされた(ステップ3)後で、プロセスがステップ310を実行し、そこで、背景統計モデル、および同時に、2次背景統計モデルが構築されるという点で図4の実施形態とは異なる。ステップ310について、図8Aおよび図8Bと関連してより詳細に説明する。
[0094]図8Aに示すように、ステップ310は、(同じ符号を使って示されている)図5のステップ31に示されているステップすべてを含み、すべての画素がすでに処理されているか否か判定するステップ(ステップ311)から開始する。まだ処理されていない場合にはステップ312に進んで次の画素が処理される。ステップ312で、背景統計モデルが成熟しているか否かが判定される。そうでない場合、プロセスはステップ315に分岐し、そこで、その画素を使って背景統計モデルが更新される。ステップ315に続き、プロセスは折り返しステップ311に戻る。
[0095]ステップ312で、背景統計モデルが成熟していると判定した場合、プロセスはステップ313に進み、そこで、背景統計モデルが安定しているか否かが判定される。安定していない場合、ステップ312における否定判定の場合と同様に、プロセスはステップ315に分岐する(次いで折り返しステップ311に戻る)。そうでない場合、プロセスはステップ314に進む。
[0096]ステップ314で、考慮中の画素が背景統計モデルとマッチするか否かが判定される。マッチする場合、プロセスはステップ315に進み(次いで折り返しステップ311に戻り)、そうでない場合、プロセスは図8Bに示す各ステップを実行し、2次背景統計モデルを構築し、更新する。この2次背景統計モデルは、図8Bに表すように、背景統計モデルと同時に構築され、背景統計モデルを構築し、更新するのに使用されるのと同じ手順を使用し、背景統計モデルとマッチしない画素値を表す。
[0097]ステップ314の否定判定に続いて、プロセスは、2次背景統計モデルが成熟しているか否かについての判定を行う(ステップ3107)。この判定は、ステップ313の場合と同様に行われる。成熟していない場合、プロセスはステップ3109に分岐し、そこで、2次背景統計モデルが、背景統計モデルの手順と同じ手順を使って更新される(ステップ315)。ステップ3109から、プロセスは折り返し(図8Aの)ステップ311に戻る。
[0098]ステップ3107で、2次背景統計モデルが成熟していると判定した場合、プロセスはステップ3108に進み、(ステップ314と同じ手順を使って)2次背景統計モデルが安定しているか否か判定する。安定していない場合、プロセスはステップ3109に(そこからステップ311に)進む。安定している場合、プロセスはステップ31010に分岐し、そこで、背景統計モデルが2次背景統計モデルと置き換えられ、その後プロセスは折り返しステップ311に戻る。加えて、ステップ31010における背景統計モデルの2次背景統計モデルによる置換えと同時に、場面モデルデータも、2次統計モデルの平均値と置き換えられる。この時点において、2次背景統計モデルはゼロにリセットされ、後続のデータを使って新しい2次背景統計モデルが構築される。
[0099]この変形された1パスの実施形態には、1パスの実施形態に優る改善された統計的正確さという利点があり、変化する背景画像の潜在的問題を解決する。この実施形態はこの利点を、2パスの実施形態に優る改善された待ち時間を維持しつつ、1パスの実施形態と比べて処理速度がほんのわずかに減少するだけで行う。
4.第4の実施形態:リアルタイム映像ストリームの1パスのセグメント化
[0100]第1、第2、および第3の例示的実施形態の中心は、圧縮用途のためのセグメント化である。圧縮用途では、その概念は、映像シーケンスまたは映像シーケンスの一部分を表す統計的背景モデルを保持するというものである。したがって、その概念は、背景モデルを作成し、次いで、映像シーケンスをセグメント化する期間にわたってその背景モデルを一定に保つというものである。
[0100]第1、第2、および第3の例示的実施形態の中心は、圧縮用途のためのセグメント化である。圧縮用途では、その概念は、映像シーケンスまたは映像シーケンスの一部分を表す統計的背景モデルを保持するというものである。したがって、その概念は、背景モデルを作成し、次いで、映像シーケンスをセグメント化する期間にわたってその背景モデルを一定に保つというものである。
[0101]監視用途では、処理は、一般に、映像シーケンス(すなわち有限な映像フレームセット)に対して行われるのではなく、リアルタイムの映像ストリーム(識別できる終点のない連続する映像フレームセット)に対して行われる。したがって、一般には、2つの理由で映像場面を表す背景モデルを作成することが不可能である。第1に、場面は、照明条件および(雨、影、雲、昼/夜の変化などによる)気象条件のために動的に変化しており、第2に、場面内の構成要素が変化する(車が駐車する、オブジェクトが追加され、除去され、または場面内で移動させるなど)。リアルタイム監視用途においてこれらの条件に適応するために、この実施形態では、1パスのアルゴリズムに対する、(1)背景モデルに加えて1つ以上の前景モデルが追加される、(2)背景または前景モデルが「成熟」しているという概念が排除される、(3)自動利得制御(AGC)補償が追加される、(4)オブジェクト挿入機構が追加される、(5)リアルタイム処理要件に対応するために処理順序が異なる、および(6)マスキング機構を使って処理される必要のある画素数が低減される、という6つの変更が用いられる。
[0102]6つの違いに関して、第1に、背景モデルに加えて、前景とラベル付けされる領域を記述するために前景モデルが使用される。前述の第3の実施形態では、2次背景モデルを使って、1次背景が「成熟」した後で発生する背景場面内の変化がモデル化される。第4の実施形態では、1つ(または複数の)前景モデルを使って、前景として検出された画素(またはオブジェクト)が記述される。1つ以上の前景モデルを作成する理由は、前景オブジェクト(車など)が場面のある領域内で停止する場合をカバーするためである。そのような場合には、前景オブジェクトをオブジェクト検出のための背景として扱い始めることが望ましくなる(車が駐車し、人がその車の前を歩く場合など)。前景モデルは、「前景」とラベル付けされた画素に適用される以外は、背景モデルと全く同じやり方で作成され、維持される。相互に遮蔽し合う複数のオブジェクトを記述するために複数の前景モデルを有することもあり得る。例えば、ある車が駐車し、1つの前景モデルでモデル化される。次に、別の車が第1の車の前に駐車し、第2の前景モデルでモデル化される。
[0103]第2に、第4の実施形態からは、モデルが成熟するという概念が排除される。この実施形態では、映像シーケンスではなく映像ストリームが処理され、モデルは、成熟するのではなく、あるいは、例えば、太陽が移動するにつれて影が短くなったり、長くなったりする;太陽が雲によって遮蔽され、または遮蔽から現れる;場面において雨、雪または霧が出始め、または止む;場面において昼と夜が交替するなどといった、ゆっくりとした環境変化に適応するように、絶えず、動的に変化するものと想定される。この実施形態では、背景モデル(および前景モデル)は、各モデルが、以前に作成され、ずっと以前の過去に作成されていた可能性さえもある成熟モデルに基づくのではなく、背景の「現在の」状態を最もよく反映するように、フレームごとまたは画素ごとに絶えず変更される。
[0104]第3に、第4の実施形態では、AGC補償が用いられる。AGCは、映像画像生成器が画像全体の輝度およびコントラストを自動的に調整して画像のダイナミックレンジを最適化しようとするためのプロセスである。このプロセスは非常に高速に行うことができ、実際には前景オブジェクトが存在しないときに背景画素が前景画素として表示されるように背景画素の強度を変更することができる。したがって、AGC補償要素が追加されるのは、映像画像におけるAGC調整の場合に背景モデルを変更するためである。
[0105]第4に、第4の実施形態には、外部信号に背景モデルにおけるオブジェクトの挿入を制御させるために、オブジェクト挿入機構が追加される。ここでの意図は、例えば、場面内で車が駐車するときには、その車を表すすべての画素の前景モデルが生じるというものである。外部プロセスは、これらの画素が車を表し、その車が実際に駐車していると判定してもよい。この判定が行われた後で、外部プロセスは、背景モデルに前景モデルを(「焼き付ける」など)追加すべきであると指示する通知を提供する。この前景モデルは、セグメント化のために背景の一部として扱われる。
[0106]第5に、リアルタイム処理では、(オフライン処理または待ち時間のある処理の場合のように)フレームが処理された後で戻って画素ラベル付けを改善する時間がない。したがって、リアルタイムアルゴリズムの各ステップの順序は異なる。最初に、新しいフレームが入力されると、既存の背景モデルが各画素をラベル付けするのに使用される。次に、他の様々なプロセス(例えば、空間/時間フィルタリングなど)を使ってラベル付けが改善され、次いで、モデルが更新される。この順序は、リアルタイム処理において各フレームごと優れたセグメント化結果を提供する。
[0107]第6に、第4の実施形態では、無視すべき画素を指定するためのマスクが追加される。この機能が追加されるのは、セグメント化を適用すべきでない映像画像の領域を設定するためである。これを行う理由は、リアルタイム性能を維持するように処理リソースを節約するためである。そのため、セグメント化が必要とされないことが事前に分かっている映像場面の領域(いわゆる「無関心領域」)がある場合、これらの画素にマスキングすることができる。(代替として、「関心領域」が画成されてもよい)。さらに、自動化されたアルゴリズムを用いて、セグメント化を適用する必要のないこれらの無関心領域を判定してもよい。このような無関心領域が存在し得るのは、カメラが、実際の画像データのない映像フレームの縁部の周囲に様々な「未使用の」画素を生成するためである。また、このような無関心領域は、処理が不要であり、またはあまり適切に機能しない(例えば空などの)場面の領域にも存在し得る。
[0108]図11に、本発明の第4の実施形態のフローチャートを示す。ブロック1101で、リアルタイム映像ストリームから映像フレームが抽出される。
[0109]任意選択のブロック1102(ブロックが任意選択であることは破線の輪郭で示されている)では、抽出されたフレームが、カメラの動き(例えば、ジッタや、パン、チルト、ズーム、並進運動といった意図的な動きなど)に適応するように場面モデルと位置合わせされてもよい。
[0110]ブロック1103で、フレーム内の各画素が、背景、前景、または明確な前景と(あるいは必要に応じてもっと多くの細分度に)ラベル付けされる。これは、フレームの背景構成要素と前景構成要素へのセグメント化を構成する。一実施形態では、図2Bに対して論じた背景統計モデルを用いる技法がブロック1103に使用されてもよい。別の実施形態では、背景統計モデルおよび/または前景統計モデルが使用されてもよい。
[0111]ブロック8で、結果を改善するために、セグメント化の空間/時間フィルタリングが行われる。
[0112]任意選択のブロック1104には、セグメント化に影響を与え、または改善し得る別のプロセスが含まれていてもよい。例えば、ブロック1104には、オブジェクトの追跡および分類が含まれていてもよい。別の例として、ブロック1104には、静止目標検出が含まれていてもよい。
[0113]ブロック1105で、セグメント化を使って各画素ごとに背景および前景の統計モデルが構築され、および/または更新される。
[0114]ブロック1106で、背景統計モデルにオブジェクトが挿入される。任意選択で、挿入を行うべきであることをブロック1107からの外部プロセスが判断してもよい。
[0115]任意選択のブロック1107では、静止目標検出器が、特定の画素グループが、場面内に移動してきて停止しているオブジェクト(車が場面に入ってきて駐車するなど)を表すと判定してもよい。プロセスはこれ以後、(これらの画素のところに停止したオブジェクトがあると判定されるため)これらの画素を背景として処理するべきであると判断してもよい。
[0116]図2に図11のブロック1103のフローチャートを示す。ブロック1201で、各フレームがしかるべく処理される。
[0117]任意選択のブロック1202で、AGC(または別の大域的照明変化)の補償が行われる。
[0118]ブロック1203で、フレーム内の各画素がしかるべく処理される。
[0119]ブロック1204で、フレーム内の各画素がすでに解析されている場合、フローはブロック1214に進む。そうでない場合、フローはブロック1205に進む。
[0120]任意選択のブロック1205で、画素が関心領域内にあるか否かが判定される。関心領域内の画素はラベル付けされ、関心領域外の画素はラベル付けされない。画素が関心領域内にあるかどうかの判定は、(任意選択のブロック1213からの)マスクまたは他の任意のそのような機構を用いて行われてもよい。マスクは(任意選択のブロック1212のように)手作業で生成されてもよく、(任意選択のブロック1211のように)関心領域がフレーム内であり得ると判定する自動プロセスによって生成されてもよい。関心領域はフレーム全体にわたって連続していても、連続していなくてもよく、フレーム内に1つ以上の画素グループを含んでいてもよい。画素が関心領域内にある場合、フローはブロック1206に進む。そうでない場合、フローはブロック1203に戻る。
[0121]ブロック1206〜ブロック1210では、前述の他の実施形態と同様の方式で画素のラベル付けを行う。ブロック1206で、画素の強度の値が背景統計モデル内のその画素の平均値に十分に近い場合、ブロック1209でその画素は背景とラベル付けされる。ブロック1207で、画素の強度の値は背景統計モデル内のその画素の平均値からさらに遠い場合、ブロック1210でその画素が前景とラベル付けされる。ブロック1208で、画素の強度の値が背景統計モデル内のその画素の平均値からはるかに遠い場合、その画素は明確な前景とラベル付けされる。ブロック1208、1209、および1210の後、フローはブロック1203に戻る。
[0122]数学的には、ブロック1206〜1210は以下のように要約されることができる。ブロック1206およびブロック1209について、
である場合、画素i(x)に背景とラベル付けし、式中、i(x)は位置xにおける画素強度であり、
は位置xにおける背景統計モデル平均値の平均値であり、Tiは閾値であり、σ(x)は位置xにおける背景統計モデルの標準偏差である。ブロック1207およびブロック1210について、
である場合、画素i(x)に前景とラベル付けし、式中、T2はT1より高い閾値である。ブロック1207およびブロック1208について、
である場合、画素i(x)に明確な前景とラベル付けする。
である場合、画素i(x)に背景とラベル付けし、式中、i(x)は位置xにおける画素強度であり、
は位置xにおける背景統計モデル平均値の平均値であり、Tiは閾値であり、σ(x)は位置xにおける背景統計モデルの標準偏差である。ブロック1207およびブロック1210について、
である場合、画素i(x)に前景とラベル付けし、式中、T2はT1より高い閾値である。ブロック1207およびブロック1208について、
である場合、画素i(x)に明確な前景とラベル付けする。
[0123]図13に、図11のブロック1105のフローチャートを示す。ブロック1301で、各フレームがしかるべく処理される。
[0124]任意選択のブロック1202で、AGC(または別の大域的照明変化)の補償が行われる。
[0125]ブロック1303で、フレーム内の各画素がしかるべく処理される。
[0126]ブロック1304で、フレーム内の各画素がすでに解析されている場合、フローはブロック1318に進む。そうでない場合、フローはブロック1305に進む。
[0127]任意選択のブロック1305で、画素が関心領域内にあるか否かが判定される。関心領域内の画素はラベル付けされ、関心領域外の画素はラベル付けされない。画素が関心領域内にあるかどうかの判定は(任意選択のブロック1313からの)マスクまたは他の任意のそうした機構を用いて行われてもよい。マスクは(任意選択のブロック1313のように)手作業で生成されてもよく、(任意選択のブロック1311のように)関心領域がフレーム内であり得ると判定する自動プロセスによって生成されてもよい。関心領域はフレーム全体にわたって連続していても、連続していなくてもよく、フレーム内に1つ以上の画素グループを含んでいてもよい。画素が関心領域内にある場合、フローはブロック1306に進む。そうでない場合、フローはブロック1303に戻る。
[0128]次に、図11のブロック1103、8および1104で生成された前景マスクをフィルタとして使って背景および前景の統計モデルが更新される。ブロック1316で、前景マスクが獲得される。
[0129]任意選択のブロック1317で、前景マスクは、前景オブジェクトの縁部上の画素が背景モデルを汚染しないようにするために、膨張など何らかの形態学的処理によってフィルタリングされてもよい。
[0130]ブロック1306で、画素が前景画素でも明確な前景画素でもない場合、フローはブロック1307に進む。そうでない場合、フローはブロック1308に進む。
[0131]ブロック1307で、背景統計モデルの平均値および分散が、その画素位置における現在のフレームからの情報を用いて更新される。背景統計モデルがまだ存在しない場合には、前述の実施形態における考察に基づいて背景統計モデルが構築され得る。
[0132]ブロック1308で、画素は前景または明確な前景の画素である。前景モデルが存在する場合、フローはブロック1309へと処理される。そうでない場合、フローはブロック1312に進む。
[0133]ブロック1312では、前景統計モデルが画素位置に存在せず、新しい前景統計モデルが作成される。モデルは、
の形のものであり、式中、
は画素位置xにおける前景統計モデルの平均値を表し、σf(x)は画素位置xにおける前景統計モデルの標準偏差を表し、Dはデフォルト値である。
の形のものであり、式中、
は画素位置xにおける前景統計モデルの平均値を表し、σf(x)は画素位置xにおける前景統計モデルの標準偏差を表し、Dはデフォルト値である。
[0134]ブロック1309では、前景統計モデルがこの位置に存在し、現在の画素からのデータを用いて更新される。
[0135]ブロック1310で、画素が長期間にわたって前景の状態にある場合、フローはブロック1311に進む。そうでない場合、フローはブロック1303に進む。
[0136]ブロック1311では、画素が長期間にわたって前景の状態にあり、背景とみなされ始め得る。このセグメント化の移動は、以下のように、背景モデルをこの位置の前景モデルと置き換えることによって行われる。
[0137]第4の実施形態では、前の3つの実施形態とは異なり、ブロック1307とブロック1309における背景モデルと前景モデルの更新が異なり得る。前述の実施形態では、実行中の平均値および標準偏差が使用される。(昼が夜になる、およびその逆などのように)背景が絶えず大きく変化し得るこの実施形態のリアルタイムの事例では、実行中の平均値および標準偏差は、正確であるはずのない統計モデルを提供することになる。このリアルタイムの実施形態では、現在の平均値および標準偏差は現在の時刻における背景を表す。したがって、古い情報よりも新しい情報により多くの重みが与えられるべきである。このために、以前の統計値を考慮するフィルタ、例えば、無限インパルス応答(IIR)フィルタなどを使って背景モデルおよび前景モデルが更新される必要がある。フィルタは以下のように適用され得る。
式中、αは混合定数である。混合定数αは、標準の混合時間定数にマップされ得る。
式中、αは混合定数である。混合定数αは、標準の混合時間定数にマップされ得る。
[0138]図14に、図12および図13のブロック1202のフローチャートを示す。ブロック1401で、各フレームがしかるべく処理される。
[0139]任意選択のブロック1402で、関心領域内の各画素がしかるべく処理される。関心領域は、任意選択のブロック1408によって提供され得る。
[0140]ブロック1403で、各背景画素がしかるべく処理される。背景画素は、ブロック1409で提供される前景マスクに含まれない画素であると判定され得る。
[0141]ブロック1404で、ブロック1411からの背景モデルとブロック1410からの現在のフレームとの間の差分ヒストグラムが生成される。この差分ヒストグラムは、背景モデル内の各画素強度ごとに背景モデルと現在のフレームとの間に存在する差の量を測定する。一例として、強度値10を有する背景モデル内の画素では、これらの画素と、現在のフレーム内のこれらの画素に対応する画素との間の平均強度差は5グレーレベル5と表される。強度値100を有する画素では、平均差は30グレーレベルである。
[0142]ブロック1405で、フレームは、任意の大域的AGC効果を検出するために解析される。フレームは、ヒストグラム値の平均を調べることによって解析される。ヒストグラム値がすべて相当に低い場合、これは、背景画素が、強度の点から見て、現在のフレームの画素と基本的にマッチすることを意味する。ヒストグラム値がすべて相当に高い場合、これは、平均して、現在のフレームと背景モデルとの間に大きな強度の差があり、したがって、フレームに大域的AGC効果(または大域的照明変化)があることを意味する。フレームにおいて大域的AGC効果が検出された場合、フローはブロック1406に進む。そうでない場合、フローはブロック1401に戻る。
[0143]ブロック1406で、AGC効果が検出され、背景モデルが更新される。背景モデルは、ブロック1404からの差分ヒストグラムをルックアップ表として使用することによって更新される。背景モデル内の各画素の平均値は、現在のフレームの強度データと(背景平均強度のこの値についての)背景モデルの強度データとの間の平均差によって調整される。この更新は以下のように要約される。
i(x)=H(i(x))+i(x)
式中、H(i)は背景モデル内の強度iの画素と現在のフレーム内のこれらに対応する画素との間の平均強度差である。
i(x)=H(i(x))+i(x)
式中、H(i)は背景モデル内の強度iの画素と現在のフレーム内のこれらに対応する画素との間の平均強度差である。
[0144]ブロック1407で、AGCが存在するためにモデルパラメータが調整される。例えば、AGCが検出された場合、図13のブロック1307およびブロック1309で更新に使用される混合定数αが減らされ得る。混合定数αを減らすことによって、ブロック1307とブロック1309で、それぞれ、背景モデルと前景モデルが更新されるときに、各モデルがより高速に更新され、大域的強度変化にあまり影響されないように、現在のフレームからのデータにより多くの重みが与えられる。AGCが検出されないとき、αは増化され、これによって、ブロック1307およびブロック1309のモデル更新プロセスはより強度変化の影響を受けやすくなる。
[0145]図5に、図11のブロック1106のフローチャートを示す。一例として、オブジェクトが検出、追跡されて、静止していると判定される場合(車が駐車するなど)には、背景モデルが引き続きその領域内で前景を検出してもよいようにこれらのオブジェクトを背景モデルに焼き付けるのが望ましい。
[0146]ブロック1502で、オブジェクトを背景モデルに挿入すべきかどうか判定される。任意選択で、オブジェクトを背景モデルに挿入すべきであることを(任意選択のブロック1107からの)外部プロセスが判定してもよい。オブジェクトが挿入されるべきである場合、フローはブロック1503に進む。そうでない場合、フローはブロック1505に進んで終了する。
[0147]ブロック1503で、オブジェクト内の各画素ごとに、フローはしかるべくすすむ。オブジェクトは、(任意選択のブロック1506からの)任意選択のオブジェクトマスクまたは他の任意の機構によって記述され得る。
[0148]ブロック1504で、マスク内の各画素ごとに、(ブロック1507からの)その位置にある背景モデルは、(ブロック1508からの)その位置にある前景モデルで置き換えられ、結果としてオブジェクト全体がまとめて1ステップで背景に挿入されることになる。
5.その他の実施形態および備考
[0149]以上の考察では2段階および3段階の画素ラベル付けアルゴリズムを考察しているが、この実施形態はこれらの事例だけに限定されるものではない。実際には、様々な範囲(すなわち閾値)に対応する任意の数の判定レベルが使用されてもよいことが企図されている。そのような場合、セグメント化プロセスの後続の各ステップにおいては、ファジィ論理または軟判定論理を使用して判定が行われる。
[0149]以上の考察では2段階および3段階の画素ラベル付けアルゴリズムを考察しているが、この実施形態はこれらの事例だけに限定されるものではない。実際には、様々な範囲(すなわち閾値)に対応する任意の数の判定レベルが使用されてもよいことが企図されている。そのような場合、セグメント化プロセスの後続の各ステップにおいては、ファジィ論理または軟判定論理を使用して判定が行われる。
[0150]以上の考察では、主に、画素および(RGB、YUV、強度などとすることのできる)彩度値について論じている。しかしながら、前述のように、本発明はこれらの量だけに限定されるものではない。画素以外の領域も使用されてもよく、彩度以外の量も使用されてもよい。
[0151]前述のように、本発明は、以上の各項で論じた実施形態すべてを含み、コンピュータシステムとしても、本発明を実施するソフトウェアを含むコンピュータ可読媒体としても実施され得る。これは、本発明のためのコンピュータシステムの平面図を示す図9に示されている。コンピュータ91は、本発明を実施するソフトウェアおよび/または本発明に従ってコンピュータ91を動作させるソフトウェアを実施するコンピュータ可読媒体92を含む。コンピュータ91は、図示のように、映像ストリームを受け取り、セグメント化された映像を出力する。代替として、セグメント化された映像がコンピュータ内でさらに処理されてもよい。
[0152]コンピュータおよびソフトウェアを用いて本明細書で述べる実施形態すべてを実施することに加えて、本明細書で論じる実施形態はすべて、回路および/またはハードウェアとしても実施され得る。回路には、例えば、フィールドプログラマブルゲートアレイ(FPGA)や、特定用途向け集積回路(ASIC)や、ディジタル信号プロセッサ(DSP)、汎用プロセッサ(GPP)またはその他の処理装置上の、またはこれらに結合されたハードウェアアクセラレータなどが含まれる。回路は、例えば、チップおよび/またはチップセットを用いて実施されてもよい。回路は、例えば、プリント回路基板上、アドオンカード上、および/またはアドオンスロット内に位置していてもよい。回路は、例えば、ビデオカメラ、映像ルータ、映像符号器、および/またはディジタル映像レコーダ(DVR)などに位置していてもよい。当業者には、他の回路ベースの実施形態および/またはハードウェアベースの実施形態も明らかになる。
[0153]また、以上で論じたように、前述の統計的画素モデリングの方法は、インテリジェント映像監視システムを実施する方法に組み込まれていてもよい。図10にそのような方法の一実施形態を示す。詳細には、ブロック1001が、たとえば、前述のような統計的画素モデリングの使用を表す。統計的画素モデリングが完了した後、ブロック1002でその結果を使ってオブジェクトを識別し、分類する。ブロック1002では、例えば、そのような識別および分類を行う統計的方法またはテンプレート指向の方法など使用する。識別および分類を行う際に、所与のオブジェクトが関心対象オブジェクトであるか否かが判定される。例えば、監視下にある領域を通る人々の動きを追跡しようとする場合には、人々が「関心対象オブジェクト」になる。ブロック1003で、関心対象オブジェクトの挙動が解析される。例えば、ある人が制限領域に入ったかどうかが判定され得る。最後に、ブロック1004で、必要な場合には、様々な通知が送出され、または他の適切な措置が取られる。
[0154]本明細書では本発明を好ましい実施形態に対して詳細に説明しているが、以上の説明を読めば当業者には、本発明の幅広い態様において本発明から逸脱することなく変更および改変が加えられ得ることが明らかになるであろう。したがって、本発明は、添付の特許請求の範囲で定義されるように、かかるすべての変更および改変を本発明の真の精神の範囲内にあるものとして包含するものである。
Claims (76)
- 映像の前景部分と背景部分とを区別する2パスの映像セグメント化の方法を行うように構成された回路であって、
前記方法が、
入力映像ストリームからフレームシーケンスを獲得するステップと、
前記フレームシーケンスの各フレームごとに、
前記フレームを場面モデルと位置合わせする工程と、
背景統計モデルを更新する工程と、
前記背景統計モデルを仕上げる工程と、
を備える第1のパスの方法を実行するステップと、
前記フレームシーケンスの各フレームごとに、
前記フレームの各領域にラベル付けする工程と、
前記フレームの前記領域の空間/時間フィルタリングを行う工程と
を備える第2のパスの方法を実行するステップと、
を備える、回路。 - 背景統計モデルを更新する前記ステップが、
前記フレームの前記領域に対応する値をコンパイルする工程と、
前記フレームの各領域ごとに標準偏差を算出する工程と、
を備える請求項1に記載の回路。 - 前記背景統計モデルを仕上げる前記ステップが、
前記フレームの各領域ごとに、コンパイルされた値に基づいて統計モードを決定する工程と、
各領域の前記統計モードを前記背景統計モデルにおける前記各領域の値として割り当てる工程と、
を備える、請求項1に記載の回路。 - 前記フレームの各領域にラベル付けする前記ステップが、
前記領域が前記背景統計モデルとマッチするか否か判定する工程と、
前記判定する工程の結果に基づいてラベルを割り当てる工程と、
を備える、請求項1に記載の回路。 - 判定する前記ステップが、前記フレームの前記領域の値が前記背景統計モデル内の前記領域の対応する値に関するある範囲内に入るかどうか判定する工程を備え、
ラベルを割り当てる前記ステップが、
前記フレームの前記領域の前記値が前記範囲内に入る場合に第1のラベルを割り当てる工程と、
前記フレームの前記領域の前記値が前記範囲内に入らない場合に第2のラベルを割り当てる工程と、
を備える、請求項4に記載の回路。 - 前記第1のラベルが背景であり、前記第2のラベルが前景である、請求項5に記載の回路。
- 判定する前記ステップが、
前記フレームの前記領域の値が前記背景統計モデル内の前記領域の対応する値に関する第1の範囲内に入るかどうか判定する工程と、
前記フレームの前記領域の前記値が前記第1の範囲内に入らない場合に、前記フレームの前記領域の前記値が前記背景統計モデル内の前記領域の前記対応する値に関する第2の範囲内に入るかどうか判定する工程と、
を備え、
ラベルを割り当てる前記ステップが、
前記フレームの前記領域の前記値が前記第1の範囲内に入る場合に、第1のラベルを割り当てる工程と、
前記フレームの前記領域の前記値が前記第1の範囲内に入らず、前記第2の範囲内にある場合に、第2のラベルを割り当てる工程と、
前記フレームの前記領域の前記値が前記第2の範囲内に入らない場合に、第3のラベルを割り当てる工程と、
を備える、請求項4に記載の回路。 - 前記第1のラベルが背景であり、前記第2のラベルが前景であり、前記第3のラベルが明確な前景である、請求項7に記載の回路。
- 前記フレームの各領域にラベル付けする前記ステップが、
前記領域が前記背景統計モデルとマッチするか否か判定する工程であり、前記フレームの前記領域の値が、前記背景統計モデル内の前記領域の対応する値に関する任意の数の範囲のそれぞれに入るか否かについての判定を行うことを備える前記工程と、
前記判定するステップの結果に基づいてラベルを割り当てる工程と、
を備える、請求項1に記載の回路。 - 空間/時間フィルタリングを行う前記ステップが、前記フレームの各領域ごとに、
近隣フィルタリングを行う工程と、
空間フィルタリング、時間フィルタリング、または前記空間フィルタリングと前記時間フィルタリングの組み合わせを行う工程と、
を備える、請求項1に記載の回路。 - 空間フィルタリング、時間フィルタリング、または前記空間フィルタリングと前記時間フィルタリングの組み合わせを行う前記ステップが、2次元または3次元で行われる形態学的侵食および膨張を行う工程を備える、請求項10に記載の回路。
- 形態学的侵食および膨張を行う前記ステップが、
明確な前景とラベル付けされた領域は侵食されないn回の侵食を行う工程と、
n回の侵食を行う前記工程に続いてn回の膨張を行う工程と、
n回の膨張を行う前記工程に続いて第2の回数、m回の膨張を行う工程と、
を備える、請求項11に記載の回路。 - 近隣フィルタリングを行う前記ステップが、背景とラベル付けされていない前記フレームの各領域Piごとに、
Piに対応する前記場面モデル内の位置Pmを求める工程と、
Pmの周囲の近隣領域P’mを求める工程と、
前記P’mのうちのいずれかがPiとマッチするかどうか判定する工程と、
前記P’mのうちのいずれかがPiとマッチする場合に、Piの周囲の近隣領域P’iを求める工程と、
前記P’iのいずれかがPmとマッチするかどうか判定する工程と、
前記P’mのいずれかがPiとマッチする場合に、Piに背景とラベル付けし直す工程と、
を備える、請求項10に記載の回路。 - 映像の前景部分と背景部分とを区別する1パスの映像セグメント化の方法を行うように構成された回路であって、
前記方法が、
映像ストリームからフレームシーケンスを獲得するステップと、
前記フレームシーケンス内の各フレームごとに、
前記フレームを場面モデルと位置合わせする工程と、
背景統計モデルを構築する工程と、
前記フレームの領域にラベル付けする工程と、
空間/時間フィルタリングを行う工程と、
を行うステップと、
を備える、回路。 - 空間/時間フィルタリングを行う前記ステップが、前記フレームの各領域ごとに、
近隣フィルタリングを行う工程と、
空間フィルタリング、時間フィルタリング、または前記空間フィルタリングと前記時間フィルタリングの組み合わせを行う工程と、
を備える、請求項14に記載の回路。 - 空間フィルタリング、時間フィルタリング、または前記空間フィルタリングと前記時間フィルタリングの組み合わせを行う前記ステップが、2次元または3次元で行われる形態学的侵食および膨張を行う工程を備える、請求項15に記載の回路。
- 形態学的侵食および膨張を行う前記ステップが、
明確な前景とラベル付けされた領域は侵食されないn回の侵食を行う工程と、
n回の侵食を行う前記工程に続いて、n回の膨張を行う工程と、
n回の膨張を行う前記工程に続いて、第2の回数、m回の膨張を行う工程と、
を備える、請求項16に記載の回路。 - 近隣フィルタリングを行う前記ステップが、背景とラベル付けされていない前記フレームの各領域Piごとに、
Piに対応する前記場面モデル内の位置Pmを求める工程と、
Pmの周囲の近隣領域P’mを求める工程と、
前記P’mのうちのいずれかがPiとマッチするかどうか判定する工程と、
前記P’mのうちのいずれかがPiとマッチする場合に、Piの近隣領域P’iを求める工程と、
前記P’iのうちのいずれかがPmとマッチするかどうか判定する工程と、
前記P’iのうちのいずれかがPmとマッチする場合に、Piを背景とラベル付けし直す工程と、
を備える、請求項15に記載の回路。 - 背景統計モデルを構築する前記ステップが、
前記フレームの各領域ごとに、
前記背景統計モデルが成熟しており、安定しているかどうか判定することと、
前記背景統計モデルが成熟しており、安定しているか場合に、前記領域の値が前記背景統計モデルの対応する値とマッチするかどうか判定することと、
前記領域の前記値が前記背景統計モデルの前記値とマッチする場合に、前記領域の前記値を使って前記背景統計モデルを更新することと、
を行う工程を備える、請求項14に記載の回路。 - 前記背景統計モデルが成熟しており、安定しているかどうか判定する前記ステップが、
前記背景統計モデルが成熟しているかどうか判定し、そうでない場合に、前記領域の前記値を使って前記背景統計モデルを更新する工程と、
前記背景統計モデルが成熟していると判定される場合に、前記背景統計モデルが安定しているかどうか判定する工程と、
前記背景統計モデルが安定していないと判定される場合に、前記領域の前記値を使って前記背景統計モデルを更新する工程と、
を備える、請求項19に記載の回路。 - 前記領域の前記値を使って前記背景統計モデルを更新する各ステップが、
前記領域の実行中の平均値を更新する工程と、
前記領域の実行中の標準偏差値を更新する工程と、
を備える、請求項20に記載の回路。 - 前記領域の前記値を使って前記背景統計モデルを更新する前記ステップが、
前記領域の実行中の平均値を更新する工程と、
前記領域の実行中の標準偏差値を更新する工程と、
を備える、請求項19に記載の回路。 - 背景統計モデルを構築する前記ステップが、前記背景統計モデルを仕上げる工程をさらに備える、請求項19に記載の回路。
- 前記フレームの前記領域にラベル付けする前記ステップが、前記フレームの各領域ごとに、
当該領域の前記背景統計モデルの成熟性および安定性についての判定を行う工程と、
当該領域の前記背景統計モデルの値が当該領域の場面モデルの値とマッチするかどうか判定する工程と、
前記領域の値が当該領域の前記場面モデルの前記値とマッチするかどうか判定する工程と、
前記領域の前記値が当該領域の前記背景統計モデルの前記値とどの程度までマッチするか判定する工程と、
を備え、前記判定する各工程の結果に基づいて前記領域にラベルが割り当てられる、請求項14に記載の方法。 - 前記背景統計モデルの成熟性および安定性についての判定を行う前記ステップが、
前記背景統計モデルが成熟しているか否か判定する工程と、
前記背景統計モデルが安定しているか否か判定する工程と、
前記背景統計モデルが安定していない場合に、前記背景統計モデルが以前に安定していたかどうか判定する工程と、
を備える、請求項24に記載の回路。 - 前記背景統計モデルが安定しているかどうか判定する前記ステップが、前記背景統計モデルが成熟していると判定される場合に限って実行され、前記背景統計モデルが成熟していないと判定される場合、前記領域の値が当該領域の前記場面モデルの前記値とマッチするかどうか判定する前記ステップが実行される、請求項25に記載の回路。
- 前記背景統計モデルが安定していると判定される場合、当該領域の前記背景統計モデルの値が当該領域の前記場面モデルの値とマッチするかどうか判定する前記ステップが実行される、請求項25に記載の回路。
- 前記背景統計モデルが以前に安定していたかどうか判定する前記ステップが肯定的結果を返す場合、前記領域の値が当該領域の前記場面モデルの前記値とマッチするかどうか判定する前記ステップが実行され、前記背景統計モデルが以前に安定していたかどうか判定する前記ステップが否定的結果を返す場合、前記領域が明確な前景とラベル付けされる、請求項25に記載の回路。
- 前記領域の値が当該領域の前記場面モデルの前記値とマッチするかどうか判定する前記ステップが肯定的結果を返す場合、前記領域が背景とラベル付けされ、否定的結果を返す場合、前記領域が前景とラベル付けされる、請求項24に記載の回路。
- 当該領域の前記背景統計モデルの値が当該領域の前記場面モデルの値とマッチするかどうか判定する前記ステップが肯定的結果を返す場合、前記領域の前記値が当該領域の前記背景統計モデルの前記値とどの程度までマッチするか判定する前記ステップが実行され、当該領域の前記背景統計モデルの値が当該領域の前記場面モデルの値とマッチするかどうか判定する前記ステップが否定的結果を返す場合、前記領域の値が当該領域の前記場面モデルの前記値とマッチするかどうか判定する前記ステップが実行される、請求項24に記載の回路。
- 前記領域の前記値が当該領域の前記背景統計モデルの前記値とどの程度までマッチするか判定する前記ステップが、
前記領域の前記値が当該領域の前記背景統計モデルの前記値とマッチするかどうか判定する工程と、
前記領域の前記値が当該領域の前記背景統計モデルの前記値とマッチするかどうか判定する前記ステップである場合、前記領域に背景とラベル付けする工程と、
前記領域の前記値が当該領域の前記背景統計モデルの前記値とマッチするかどうか判定する前記ステップが否定的結果を返す場合、前記領域の前記値が前記背景統計モデルと程遠いかどうか判定する工程と、
を備える、請求項24に記載の回路。 - 前記領域の前記値が前記背景統計モデルと程遠いかどうか判定する前記ステップが、閾値比較を行う工程を備え、
前記領域の前記値が前記背景統計モデルと程遠いかどうか判定する前記ステップが肯定的結果を返す場合、前記領域に明確な前景とラベル付けし、
前記領域の前記値が前記背景統計モデルと程遠いかどうか判定する前記ステップが否定的結果を返す場合、前記領域に前景とラベル付けする、請求項31に記載の回路。 - 映像の前景部分と背景部分とを区別する1パスの映像セグメント化の方法を行うように構成された回路であって、
前記方法が、
映像ストリームからフレームシーケンスを獲得するステップと、
前記フレームシーケンス内の各フレームごとに、
前記フレームを場面モデルと位置合わせする工程と、
背景統計モデルおよび2次統計モデルを構築する工程と、
前記フレームの前記領域にラベル付けする工程と、
空間/時間フィルタリングを行う工程と
を行うステップと、
を備える回路。 - 空間/時間フィルタリングを行う前記ステップが、前記フレームの各領域ごとに、
近隣フィルタリングを行う工程と、
空間フィルタリング、時間フィルタリング、または前記空間フィルタリングと前記時間フィルタリングの組み合わせを行う工程と、
を備える、請求項33に記載の回路。 - 空間フィルタリング、時間フィルタリング、または前記空間フィルタリングと前記時間フィルタリングの組み合わせを行う前記ステップが、2次元または3次元で行われる形態学的侵食および膨張を行う工程を備える、請求項34に記載の回路。
- 形態学的侵食および膨張を行う前記ステップが、
明確な前景とラベル付けされた領域は侵食されないn回の侵食を行う工程と、
n回の侵食を行う前記工程に続いて、n回の膨張を行う工程と、
n回の膨張を行う前記工程に続いて、第2の回数、m回の膨張を行う工程と、
を備える、請求項35に記載の回路。 - 近隣フィルタリングを行う前記ステップが、背景とラベル付けされていない前記フレームの各領域Piごとに、
Piに対応する前記場面モデル内の位置Pmを求める工程と、
Pmの周囲の近隣領域P’mを求める工程と、
P’mのうちのいずれかがPiにマッチするかどうか判定する工程と、
P’mのうちのいずれかがPiにマッチする場合に、Piの周囲の近隣領域P’iを求める工程と、
P’iのうちのいずれかがPmとマッチするかどうか判定する工程と、
P’iのうちのいずれかがPmとマッチする場合に、Piに背景とラベル付けし直す工程と、
を備える、請求項34に記載の回路。 - 背景統計モデルを構築する前記ステップが、
前記フレームの各領域ごとに、
前記背景統計モデルが成熟しており、安定しているかどうか判定することと、
前記背景統計モデルが成熟しており、安定している場合に、前記領域の値が前記背景統計モデルの対応する値とマッチするかどうか判定することと、
前記領域の前記値が前記背景統計モデルの前記値とマッチする場合に、前記領域の前記値を使って前記背景統計モデルを更新することと、
前記領域の前記値が前記背景統計モデルの前記値とマッチしない場合に、前記領域の前記値を使って前記2次統計モデルを更新することと、
を行う工程
を備える、請求項33に記載の回路。 - 前記背景統計モデルが成熟しており、安定しているかどうか判定する前記ステップが、
前記背景統計モデルが成熟しているかどうか判定し、そうでない場合に、前記領域の前記値を使って前記背景統計モデルを更新する工程と、
前記背景統計モデルが成熟していると判定される場合に、前記背景統計モデルが安定しているかどうか判定する工程と、
前記背景統計モデルが成熟していないと判定される場合に、前記領域の前記値を使って前記背景統計モデルを更新する工程と、
を備える、請求項38に記載の回路。 - 前記領域の前記値を使って前記背景統計モデルを更新する各ステップが、
前記領域の実行中の平均値を更新する工程と、
前記領域の実行中の標準偏差値を更新する工程と、
を備える、請求項39に記載の回路。 - 前記領域の前記値を使って前記背景統計モデルを更新する前記ステップが、
前記領域の実行中の平均値を更新する工程と、
前記領域の実行中の標準偏差値を更新する工程と、
を備える、請求項38に記載の回路。 - 前記2次統計モデルを更新する前記ステップが、
前記2次統計モデルが成熟しているかどうか判定する工程と、
前記2次統計モデルが成熟していない場合に、前記領域の前記値を使って前記2次統計モデルを更新する工程と、
前記2次統計モデルが成熟している場合に、前記2次統計モデルが安定しているかどうか判定する工程と、
前記2次統計モデルが安定していない場合に、前記領域の前記値を使って前記2次統計モデルを更新する工程と、
前記2次統計モデルが安定している場合に、前記領域の前記背景統計モデルを前記領域の前記2次統計モデルと置き換える工程と、
を備える、請求項38に記載の回路。 - 背景統計モデルを構築する前記ステップが、前記背景統計モデルを仕上げる工程をさらに備える、請求項38に記載の回路。
- 前記フレームの前記領域にラベル付けする前記ステップが、前記フレームの各領域ごとに、
当該領域の前記背景統計モデルの成熟性および安定性についての判定を行う工程と、
当該領域の背景統計モデルの前記値が当該領域の前記場面モデルの値とマッチするかどうか判定する工程と、
前記領域の値が当該領域の前記場面モデルの前記値とマッチするかどうか判定する工程と、
前記領域の前記値が当該領域の前記背景統計モデルの前記値とどの程度までマッチするか判定する工程と
を備え、前記判定する各判定する工程の結果に基づいて前記領域にラベルが割り当てられる、請求項33に記載の方法。 - 前記背景統計モデルの成熟性および安定性についての判定を行う前記ステップが、
前記背景統計モデルが成熟しているか否か判定する工程と、
前記背景統計モデルが安定しているか否か判定する工程と、
前記背景統計モデルが安定していない場合に、前記背景統計モデルが以前に安定していたかどうか判定する工程と
を備える、請求項44に記載の回路。 - 前記背景統計モデルが安定しているかどうか判定する前記ステップが、前記背景統計モデルが成熟していると判定される場合に限って実行され、前記背景統計モデルが成熟していないと判定される場合、前記領域の値が当該領域の前記場面モデルの前記値とマッチするかどうか判定する前記ステップが実行される、請求項45に記載の回路。
- 前記背景統計モデルが安定していると判定される場合、当該領域の前記背景統計モデルの値が当該領域の前記場面モデルの値とマッチするかどうか判定する前記ステップが実行される、請求項45に記載の回路。
- 前記背景統計モデルが以前に安定していたかどうか判定する前記ステップが肯定的結果を返す場合、前記領域の値が当該領域の前記場面モデルの前記値とマッチするかどうか判定する前記ステップが実行され、前記背景統計モデルが以前に安定していたかどうか判定する前記ステップが否定的結果を返す場合、前記領域が明確な前景とラベル付けされる、請求項45に記載の回路。
- 前記領域の値が当該領域の前記場面モデルの前記値とマッチするかどうか判定する前記ステップが肯定的結果を返す場合、前記領域が背景とラベル付けされ、否定的結果を返す場合、前記領域が前景とラベル付けされる、請求項44に記載の回路。
- 当該領域の前記背景統計モデルの値が当該領域の前記場面モデルの値とマッチするかどうか判定する前記ステップが肯定的結果を返す場合、前記領域の前記値が当該領域の前記背景統計モデルの前記値とどの程度までマッチするか判定する前記ステップが実行され、当該領域の前記背景統計モデルの値が当該領域の前記場面モデルの値とマッチするかどうか判定する前記ステップが否定的結果を返す場合、前記領域の値が当該領域の前記場面モデルの前記値とマッチするかどうか判定する前記ステップが実行される、請求項44に記載の回路。
- 前記領域の前記値が当該領域の前記背景統計モデルの前記値とどの程度までマッチするか判定する前記ステップが、
前記領域の前記値が当該領域の前記背景統計モデルの前記値とマッチするかどうか判定する工程と、
前記領域の前記値が当該領域の前記背景統計モデルの前記値とマッチするかどうか判定する前記ステップである場合に、前記領域に背景とラベル付けする工程と、
前記領域の前記値が当該領域の前記背景統計モデルの前記値とマッチするかどうか判定する前記ステップが否定的結果を返す場合に、前記領域の前記値が前記背景統計モデルと程遠いと判定する工程と
を備える、請求項44に記載の回路。 - 前記領域の前記値が前記背景統計モデルと程遠いかどうか判定する前記ステップが、閾値比較を行う工程を備え、
前記領域の前記値が前記背景統計モデルと程遠いかどうか判定する前記ステップが肯定的結果を返す場合、前記領域に明確な前景とラベル付けし、
前記領域の前記値が前記背景統計モデルと程遠いかどうか判定する前記ステップが否定的結果を返す場合、前記領域に前景とラベル付けする、請求項51に記載の回路。 - 映像の前景部分と背景部分とを区別する2パスの映像セグメント化の方法を行うように構成された回路であって、
前記方法が、
入力映像ストリームからフレームシーケンスを獲得するステップと、
前記フレームシーケンスの各フレームごとに、
前記フレームを場面モデルと位置合わせする工程と、
前記フレームシーケンスの各フレームの各領域に対応する値および前記領域の分散を備える背景統計モデルを更新する工程と、
前記背景統計モデルを仕上げる工程と、
を備える第1のパスの方法を実行するステップと、
前記フレームシーケンスの各フレームごとに、
前記フレームの各領域にラベル付けする工程と、
前記フレームの前記領域の空間/時間フィルタリングを行う工程と
を備える第2のパスの方法を実行するステップと、
を備える回路。 - 映像の前景部分と背景部分とを区別する1パスの映像セグメント化の方法を行うように構成された回路であって、
前記方法が、
映像ストリームからフレームシーケンスを獲得するステップと、
前記フレームシーケンス内の各フレームごとに、
前記フレームを場面モデルと位置合わせする工程と、
前記フレームシーケンスの各フレームの各領域に対応する値および前記領域の分散を備える背景統計モデルを構築する工程と、
前記フレームの前記領域にラベル付けする工程と、
空間/時間フィルタリングを行う工程と、
を行うステップと、
を備える回路。 - 映像の前景部分と背景部分とを区別する1パスの映像セグメント化の方法であって、
リアルタイム映像ストリームを獲得するステップと、
前記リアルタイムフレームストリーム内の各フレームごとに、
前記フレーム内の画素にラベル付けする工程と、
空間/時間フィルタリングを行う工程と、
前記画素がラベル付けされた後で背景統計モデルを更新する工程と、
前記画素がラベル付けされた後で、少なくとも1つの前景統計モデルを構築し、および/または更新する工程と、
を行うステップと、
を備える方法。 - 前記リアルタイムフレームストリーム内の各フレームごとに、
前記背景統計モデルにオブジェクトを挿入するステップ
をさらに行う、請求項55に記載の方法。 - 前記フレーム内の画素にラベル付けする前記ステップが、
前記フレームへの大域的照明変化を補償する工程
を備える、請求項55に記載の方法。 - 前記背景統計モデルおよび前記前景統計モデルを更新する前記ステップが、
前記フレームへの大域的照明変化を補償する工程
を備える、請求項55に記載の方法。 - 前記フレームにおいて前記フレーム内の関心領域の画素がラベル付けされる、請求項55に記載の方法。
- 前記背景統計モデルおよび前記前景統計モデルの画素が、前記フレーム内の関心領域について構築され、および/または更新される、請求項55に記載の方法。
- 前記背景統計モデルが前記背景統計モデルの以前の統計値に基づいて更新される、請求項55に記載の方法。
- 前記背景統計モデルが、前記背景統計モデルの以前の統計値に適用される無限インパルス応答フィルタに基づいて更新される、請求項61に記載の方法。
- 前記前景統計モデルが前記前景統計モデルの以前の統計値に基づいて更新される、請求項55に記載の方法。
- 前記前景統計モデルが、前記前景統計モデルの以前の統計値に適用される無限インパルス応答フィルタに基づいて更新される、請求項63に記載の方法。
- コンピュータと、
請求項55に記載の方法を実施するソフトウェアを含むコンピュータ可読媒体と、
を備えるコンピュータシステム。 - 請求項1に記載の方法を実施するソフトウェアを備えるコンピュータ可読媒体。
- 映像の前景部分と背景部分とを区別する1パスの映像セグメント化の方法を行うように構成された回路であって、
前記方法が、
リアルタイム映像ストリームを獲得するステップと、
前記リアルタイムフレームストリーム内の各フレームごとに、
前記フレーム内の画素にラベル付けする工程と、
空間/時間フィルタリングを行う工程と、
前記画素がラベル付けされた後で、背景統計モデルを更新する工程と、
前記画素がラベル付けされた後で、少なくとも1つの前景統計モデルを構築し、および/または更新する工程と、
を行うステップと、
を備える回路。 - 前記リアルタイムフレームストリーム内の各フレームごとに、
前記背景統計モデルにオブジェクトを挿入するステップ
をさらに行う、請求項67に記載の方法。 - 前記フレーム内の画素にラベル付けする前記ステップが、
前記フレームへの大域的照明変化を補償する工程
を備える、請求項67に記載の方法。 - 前記背景統計モデルおよび前記前景統計モデルを更新する前記ステップが、
前記フレームへの大域的照明変化を補償する工程
を備える、請求項67に記載の方法。 - 前記フレームにおいて前記フレーム内の関心領域の画素がラベル付けされる、請求項67に記載の方法。
- 前記背景統計モデルおよび前記前景統計モデルの画素が、前記フレーム内の関心領域について構築され、および/または更新される、請求項67に記載の方法。
- 前記背景統計モデルが前記背景統計モデルの以前の統計値に基づいて更新される、請求項67に記載の方法。
- 前記背景統計モデルが、前記背景統計モデルの以前の統計値に適用される無限インパルス応答フィルタに基づいて更新される、請求項73に記載の方法。
- 前記前景統計モデルが前記前景統計モデルの以前の統計値に基づいて更新される、請求項67に記載の方法。
- 前記前景統計モデルが、前記前景統計モデルの以前の統計値に適用される無限インパルス応答フィルタに基づいて更新される、請求項75に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US79231306P | 2006-04-17 | 2006-04-17 | |
PCT/US2007/005238 WO2007126525A2 (en) | 2006-04-17 | 2007-03-01 | Video segmentation using statistical pixel modeling |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009533778A true JP2009533778A (ja) | 2009-09-17 |
Family
ID=38655966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009506492A Pending JP2009533778A (ja) | 2006-04-17 | 2007-03-01 | 統計的画素モデリングを使った映像セグメント化 |
Country Status (9)
Country | Link |
---|---|
US (1) | US8457401B2 (ja) |
EP (1) | EP2013817A2 (ja) |
JP (1) | JP2009533778A (ja) |
KR (1) | KR101392294B1 (ja) |
CN (1) | CN101443789B (ja) |
CA (1) | CA2649389A1 (ja) |
IL (1) | IL194797A0 (ja) |
TW (1) | TW200802187A (ja) |
WO (1) | WO2007126525A2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013186818A (ja) * | 2012-03-09 | 2013-09-19 | Omron Corp | 画像処理装置、画像処理方法、および画像処理プログラム |
JP2013186817A (ja) * | 2012-03-09 | 2013-09-19 | Omron Corp | 画像処理装置、画像処理方法、および画像処理プログラム |
JP2013186819A (ja) * | 2012-03-09 | 2013-09-19 | Omron Corp | 画像処理装置、画像処理方法、および画像処理プログラム |
KR101438451B1 (ko) | 2013-04-17 | 2014-09-12 | 서울대학교산학협력단 | 비고정 카메라 영상에 대한 이중모드 sgm 기반의 이동체 고속 검출 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체 |
US9582928B2 (en) | 2011-01-13 | 2017-02-28 | Samsung Electronics Co., Ltd. | Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching |
Families Citing this family (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7424175B2 (en) * | 2001-03-23 | 2008-09-09 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
ES2522589T3 (es) | 2007-02-08 | 2014-11-17 | Behavioral Recognition Systems, Inc. | Sistema de reconocimiento conductual |
US8189905B2 (en) | 2007-07-11 | 2012-05-29 | Behavioral Recognition Systems, Inc. | Cognitive model for a machine-learning engine in a video analysis system |
WO2009032922A1 (en) * | 2007-09-04 | 2009-03-12 | Objectvideo, Inc. | Stationary target detection by exploiting changes in background model |
US8200011B2 (en) | 2007-09-27 | 2012-06-12 | Behavioral Recognition Systems, Inc. | Context processor for video analysis system |
US8175333B2 (en) * | 2007-09-27 | 2012-05-08 | Behavioral Recognition Systems, Inc. | Estimator identifier component for behavioral recognition system |
US8300924B2 (en) * | 2007-09-27 | 2012-10-30 | Behavioral Recognition Systems, Inc. | Tracker component for behavioral recognition system |
US8199215B2 (en) * | 2007-12-20 | 2012-06-12 | Nxp B.V. | Image filtering |
KR100925794B1 (ko) * | 2008-02-28 | 2009-11-11 | 숭실대학교산학협력단 | 영상의 지역 명암대비 개선을 통한 전역 명암대비 향상 방법 |
US9019381B2 (en) | 2008-05-09 | 2015-04-28 | Intuvision Inc. | Video tracking systems and methods employing cognitive vision |
US9633275B2 (en) | 2008-09-11 | 2017-04-25 | Wesley Kenneth Cobb | Pixel-level based micro-feature extraction |
JP5540002B2 (ja) * | 2008-10-24 | 2014-07-02 | エクストリーム リアリティー エルティーディー. | 画像センサ式ヒューマンマシンインターフェイスを提供するための方法、システムと関連モジュール、およびソフトウエアコンポーネント |
US9373055B2 (en) * | 2008-12-16 | 2016-06-21 | Behavioral Recognition Systems, Inc. | Hierarchical sudden illumination change detection using radiance consistency within a spatial neighborhood |
US20100158379A1 (en) * | 2008-12-18 | 2010-06-24 | Microsoft Corporation | Image background removal |
US8285046B2 (en) * | 2009-02-18 | 2012-10-09 | Behavioral Recognition Systems, Inc. | Adaptive update of background pixel thresholds using sudden illumination change detection |
US8416296B2 (en) * | 2009-04-14 | 2013-04-09 | Behavioral Recognition Systems, Inc. | Mapper component for multiple art networks in a video analysis system |
WO2011014138A1 (en) * | 2009-07-27 | 2011-02-03 | Utc Fire & Security Corporation | System and method for video-quality enhancement |
US8493409B2 (en) * | 2009-08-18 | 2013-07-23 | Behavioral Recognition Systems, Inc. | Visualizing and updating sequences and segments in a video surveillance system |
US20110043689A1 (en) * | 2009-08-18 | 2011-02-24 | Wesley Kenneth Cobb | Field-of-view change detection |
US8625884B2 (en) * | 2009-08-18 | 2014-01-07 | Behavioral Recognition Systems, Inc. | Visualizing and updating learned event maps in surveillance systems |
US8379085B2 (en) * | 2009-08-18 | 2013-02-19 | Behavioral Recognition Systems, Inc. | Intra-trajectory anomaly detection using adaptive voting experts in a video surveillance system |
US8295591B2 (en) * | 2009-08-18 | 2012-10-23 | Behavioral Recognition Systems, Inc. | Adaptive voting experts for incremental segmentation of sequences with prediction in a video surveillance system |
US8358834B2 (en) | 2009-08-18 | 2013-01-22 | Behavioral Recognition Systems | Background model for complex and dynamic scenes |
US8340352B2 (en) * | 2009-08-18 | 2012-12-25 | Behavioral Recognition Systems, Inc. | Inter-trajectory anomaly detection using adaptive voting experts in a video surveillance system |
US8280153B2 (en) * | 2009-08-18 | 2012-10-02 | Behavioral Recognition Systems | Visualizing and updating learned trajectories in video surveillance systems |
US9805271B2 (en) | 2009-08-18 | 2017-10-31 | Omni Ai, Inc. | Scene preset identification using quadtree decomposition analysis |
US8285060B2 (en) * | 2009-08-31 | 2012-10-09 | Behavioral Recognition Systems, Inc. | Detecting anomalous trajectories in a video surveillance system |
US8167430B2 (en) * | 2009-08-31 | 2012-05-01 | Behavioral Recognition Systems, Inc. | Unsupervised learning of temporal anomalies for a video surveillance system |
US8270733B2 (en) * | 2009-08-31 | 2012-09-18 | Behavioral Recognition Systems, Inc. | Identifying anomalous object types during classification |
US8786702B2 (en) | 2009-08-31 | 2014-07-22 | Behavioral Recognition Systems, Inc. | Visualizing and updating long-term memory percepts in a video surveillance system |
US8797405B2 (en) * | 2009-08-31 | 2014-08-05 | Behavioral Recognition Systems, Inc. | Visualizing and updating classifications in a video surveillance system |
US8270732B2 (en) * | 2009-08-31 | 2012-09-18 | Behavioral Recognition Systems, Inc. | Clustering nodes in a self-organizing map using an adaptive resonance theory network |
US8218819B2 (en) * | 2009-09-01 | 2012-07-10 | Behavioral Recognition Systems, Inc. | Foreground object detection in a video surveillance system |
US8218818B2 (en) * | 2009-09-01 | 2012-07-10 | Behavioral Recognition Systems, Inc. | Foreground object tracking |
US8170283B2 (en) * | 2009-09-17 | 2012-05-01 | Behavioral Recognition Systems Inc. | Video surveillance system configured to analyze complex behaviors using alternating layers of clustering and sequencing |
US8180105B2 (en) * | 2009-09-17 | 2012-05-15 | Behavioral Recognition Systems, Inc. | Classifier anomalies for observed behaviors in a video surveillance system |
KR101636370B1 (ko) | 2009-11-10 | 2016-07-05 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
WO2011090789A1 (en) * | 2010-01-22 | 2011-07-28 | Thomson Licensing | Method and apparatus for video object segmentation |
US8594482B2 (en) | 2010-05-13 | 2013-11-26 | International Business Machines Corporation | Auditing video analytics through essence generation |
US8771064B2 (en) | 2010-05-26 | 2014-07-08 | Aristocrat Technologies Australia Pty Limited | Gaming system and a method of gaming |
US8548203B2 (en) | 2010-07-12 | 2013-10-01 | International Business Machines Corporation | Sequential event detection from video |
US8648873B1 (en) * | 2010-11-19 | 2014-02-11 | Exelis, Inc. | Spatially variant dynamic range adjustment for still frames and videos |
US9268996B1 (en) | 2011-01-20 | 2016-02-23 | Verint Systems Inc. | Evaluation of models generated from objects in video |
US8824823B1 (en) * | 2011-01-20 | 2014-09-02 | Verint Americas Inc. | Increased quality of image objects based on depth in scene |
US8824791B2 (en) * | 2011-04-29 | 2014-09-02 | International Business Machine Corporation | Color correction for static cameras |
US8743205B2 (en) * | 2011-08-10 | 2014-06-03 | Nice Systems Ltd. | System and method for semantic video content analysis |
US8942913B2 (en) * | 2011-09-20 | 2015-01-27 | Infosys Limited | System and method for on-road traffic density analytics using video stream mining and statistical techniques |
US9672609B1 (en) * | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
WO2013138700A1 (en) | 2012-03-15 | 2013-09-19 | Behavioral Recognition Systems, Inc. | Alert volume normalization in a video surveillance system |
TWI559236B (zh) * | 2012-06-20 | 2016-11-21 | 原相科技股份有限公司 | 適用於影像處理的更新背景方法 |
KR20150029006A (ko) | 2012-06-29 | 2015-03-17 | 비헤이버럴 레코그니션 시스템즈, 인코포레이티드 | 비디오 감시 시스템을 위한 피처 이례들의 무감독 학습 |
US9911043B2 (en) | 2012-06-29 | 2018-03-06 | Omni Ai, Inc. | Anomalous object interaction detection and reporting |
US9113143B2 (en) | 2012-06-29 | 2015-08-18 | Behavioral Recognition Systems, Inc. | Detecting and responding to an out-of-focus camera in a video analytics system |
US9723271B2 (en) | 2012-06-29 | 2017-08-01 | Omni Ai, Inc. | Anomalous stationary object detection and reporting |
US9111353B2 (en) | 2012-06-29 | 2015-08-18 | Behavioral Recognition Systems, Inc. | Adaptive illuminance filter in a video analysis system |
US9317908B2 (en) | 2012-06-29 | 2016-04-19 | Behavioral Recognition System, Inc. | Automatic gain control filter in a video analysis system |
BR112015003444A2 (pt) | 2012-08-20 | 2017-07-04 | Behavioral Recognition Sys Inc | método e sistema para detectar óleo em superfície de mar |
US9213781B1 (en) | 2012-09-19 | 2015-12-15 | Placemeter LLC | System and method for processing image data |
KR102032173B1 (ko) | 2012-09-28 | 2019-10-15 | 삼성전자주식회사 | 영상 분할 장치 및 그 제어 방법 |
KR20150084939A (ko) | 2012-11-12 | 2015-07-22 | 비헤이버럴 레코그니션 시스템즈, 인코포레이티드 | 비디오 감시 시스템들에 대한 이미지 안정화 기술들 |
CN103116987B (zh) * | 2013-01-22 | 2014-10-29 | 华中科技大学 | 一种基于监控视频处理的车流统计和违规检测的方法 |
WO2014130815A2 (en) * | 2013-02-22 | 2014-08-28 | Ohio University | Reduction of sensor captured data streamed to an operator |
BR112016002281A2 (pt) | 2013-08-09 | 2017-08-01 | Behavioral Recognition Sys Inc | segurança de informação cognitiva usando um sistema de reconhecimento de comportamento |
JP5683663B1 (ja) * | 2013-09-27 | 2015-03-11 | パナソニックIpマネジメント株式会社 | 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法 |
RU2014110361A (ru) * | 2014-03-18 | 2015-09-27 | ЭлЭсАй Корпорейшн | Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях |
TWI518437B (zh) * | 2014-05-12 | 2016-01-21 | 晶睿通訊股份有限公司 | 動態對焦調整系統及其動態對焦調整方法 |
US10432896B2 (en) | 2014-05-30 | 2019-10-01 | Placemeter Inc. | System and method for activity monitoring using video data |
US9349054B1 (en) | 2014-10-29 | 2016-05-24 | Behavioral Recognition Systems, Inc. | Foreground detector for video analytics system |
US9460522B2 (en) | 2014-10-29 | 2016-10-04 | Behavioral Recognition Systems, Inc. | Incremental update for background model thresholds |
US9471844B2 (en) | 2014-10-29 | 2016-10-18 | Behavioral Recognition Systems, Inc. | Dynamic absorption window for foreground background detector |
US10424341B2 (en) | 2014-11-12 | 2019-09-24 | Massachusetts Institute Of Technology | Dynamic video summarization |
US10409910B2 (en) | 2014-12-12 | 2019-09-10 | Omni Ai, Inc. | Perceptual associative memory for a neuro-linguistic behavior recognition system |
US10409909B2 (en) | 2014-12-12 | 2019-09-10 | Omni Ai, Inc. | Lexical analyzer for a neuro-linguistic behavior recognition system |
US10043078B2 (en) | 2015-04-21 | 2018-08-07 | Placemeter LLC | Virtual turnstile system and method |
US11334751B2 (en) | 2015-04-21 | 2022-05-17 | Placemeter Inc. | Systems and methods for processing video data for activity monitoring |
US10997428B2 (en) | 2015-06-01 | 2021-05-04 | Placemeter Inc. | Automated detection of building entrances |
US20170083790A1 (en) * | 2015-09-23 | 2017-03-23 | Behavioral Recognition Systems, Inc. | Detected object tracker for a video analytics system |
AU2017222701A1 (en) | 2016-02-26 | 2018-08-30 | Iomniscient Pty Ltd | A method and apparatus for conducting surveillance |
CN107134006B (zh) * | 2016-02-29 | 2020-11-24 | 株式会社理光 | 创建物理场景模型的方法和装置、辅助驾驶的方法和装置 |
CN108289191B (zh) * | 2017-02-15 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 图像识别方法及装置 |
US10438072B2 (en) | 2017-02-27 | 2019-10-08 | Echelon Corporation | Video data background tracking and subtraction with multiple layers of stationary foreground and background regions |
US10373320B2 (en) * | 2017-03-17 | 2019-08-06 | Uurmi Systems PVT, LTD | Method for detecting moving objects in a video having non-stationary background |
CN108921086A (zh) * | 2018-06-29 | 2018-11-30 | Oppo广东移动通信有限公司 | 图像处理方法和装置、存储介质、电子设备 |
CN109996046A (zh) * | 2019-05-07 | 2019-07-09 | 广东省农业科学院茶叶研究所 | 基于图像识别的茶树萎芽病定位系统、方法、介质和设备 |
CN110766633B (zh) * | 2019-10-22 | 2022-06-28 | 北京数衍科技有限公司 | 视频数据滤波方法和装置 |
CN111160356A (zh) * | 2020-01-02 | 2020-05-15 | 博奥生物集团有限公司 | 一种图像分割分类方法和装置 |
Family Cites Families (237)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3812287A (en) * | 1969-05-12 | 1974-05-21 | J Lemelson | Video detection system |
US3812278A (en) * | 1972-02-01 | 1974-05-21 | Kustom Electronics | Special effect amplifier for electrical musical instruments |
US3988533A (en) | 1974-09-30 | 1976-10-26 | Video Tek, Inc. | Video-type universal motion and intrusion detection system |
DE2617111C3 (de) | 1976-04-17 | 1986-02-20 | Robert Bosch Gmbh, 7000 Stuttgart | Verfahren zum Feststellen einer Bewegung im Überwachungsbereich einer Fernsehkamera |
DE2715083C3 (de) * | 1977-04-04 | 1983-02-24 | Robert Bosch Gmbh, 7000 Stuttgart | System zur Diskrimination eines Videosignals |
US4257063A (en) * | 1979-03-23 | 1981-03-17 | Ham Industries, Inc. | Video monitoring system and method |
US4458266A (en) | 1980-10-22 | 1984-07-03 | The Commonwealth Of Australia | Video movement detector |
US4429207A (en) * | 1981-12-30 | 1984-01-31 | Southern Pacific Transportation Company | Method for welding railroad rails and means therefor |
IT1172823B (it) * | 1983-02-16 | 1987-06-18 | Veltronic Spa | Apparecchiatura di telesegnalazione, particolarmente adatta per funzioni di telesorveglianza |
JP2528789B2 (ja) | 1985-06-26 | 1996-08-28 | 中央電子 株式会社 | 映像情報管理装置 |
US4764971A (en) | 1985-11-25 | 1988-08-16 | Eastman Kodak Company | Image processing method including image segmentation |
US4941182A (en) | 1987-07-29 | 1990-07-10 | Phoenix Software Development Co. | Vision system and method for automated painting equipment |
US4949389A (en) | 1987-10-09 | 1990-08-14 | The United States Of America As Represented By The United States Department Of Energy | Optical ranked-order filtering using threshold decomposition |
US4857912A (en) | 1988-07-27 | 1989-08-15 | The United States Of America As Represented By The Secretary Of The Navy | Intelligent security assessment system |
JP2865697B2 (ja) | 1989-03-20 | 1999-03-08 | 株式会社日立製作所 | エクスチャ分離方法 |
US5099322A (en) * | 1990-02-27 | 1992-03-24 | Texas Instruments Incorporated | Scene change detection system and method |
US5048095A (en) | 1990-03-30 | 1991-09-10 | Honeywell Inc. | Adaptive image segmentation system |
US5091780A (en) * | 1990-05-09 | 1992-02-25 | Carnegie-Mellon University | A trainable security system emthod for the same |
JP3222456B2 (ja) | 1990-07-30 | 2001-10-29 | 株式会社東芝 | 映像監視システム、送信装置、受信装置、および映像監視方法 |
US5161107A (en) | 1990-10-25 | 1992-11-03 | Mestech Creation Corporation | Traffic surveillance system |
US5321396A (en) * | 1991-02-07 | 1994-06-14 | Xerox Corporation | Indexing of audio/video data |
US5296852A (en) * | 1991-02-27 | 1994-03-22 | Rathi Rajendra P | Method and apparatus for monitoring traffic flow |
US5159647A (en) | 1991-03-04 | 1992-10-27 | David Sarnoff Research Center, Inc. | Fast and efficient search method for graphical data |
US5576972A (en) | 1992-05-08 | 1996-11-19 | Harrison; Dana C. | Intelligent area monitoring system |
JP2894113B2 (ja) * | 1992-11-04 | 1999-05-24 | 松下電器産業株式会社 | 画像クラスタリング装置 |
US6167143A (en) | 1993-05-03 | 2000-12-26 | U.S. Philips Corporation | Monitoring system |
JPH08510373A (ja) | 1993-05-14 | 1996-10-29 | アールシーティー・システムズ・インコーポレーテッド | 商店等におけるビデオ通行モニタ装置 |
FR2706652B1 (fr) * | 1993-06-09 | 1995-08-18 | Alsthom Cge Alcatel | Dispositif de détection d'intrusions et d'usagers suspects pour ensemble informatique et système de sécurité comportant un tel dispositif. |
US5696503A (en) | 1993-07-23 | 1997-12-09 | Condition Monitoring Systems, Inc. | Wide area traffic surveillance using a multisensor tracking system |
US5801943A (en) | 1993-07-23 | 1998-09-01 | Condition Monitoring Systems | Traffic surveillance and simulation apparatus |
US5983251A (en) | 1993-09-08 | 1999-11-09 | Idt, Inc. | Method and apparatus for data analysis |
WO1995010915A1 (en) | 1993-10-12 | 1995-04-20 | Orad, Inc. | Sports event video |
US5586200A (en) | 1994-01-07 | 1996-12-17 | Panasonic Technologies, Inc. | Segmentation based image compression system |
US5491511A (en) * | 1994-02-04 | 1996-02-13 | Odle; James A. | Multimedia capture and audit system for a video surveillance network |
DE4407528C2 (de) | 1994-03-07 | 1998-04-09 | Sq Services Ag | Bewegungsmelder und Verfahren zur Bewegungsmeldung |
IL113434A0 (en) * | 1994-04-25 | 1995-07-31 | Katz Barry | Surveillance system and method for asynchronously recording digital data with respect to video data |
US5521634A (en) * | 1994-06-17 | 1996-05-28 | Harris Corporation | Automatic detection and prioritized image transmission system and method |
US5526133A (en) * | 1994-06-28 | 1996-06-11 | Sensormatic Electronics Corporation | System and method for logging and retrieving information on video cassettes in a computer controlled surveillance system |
US5774569A (en) * | 1994-07-25 | 1998-06-30 | Waldenmaier; H. Eugene W. | Surveillance system |
US5671294A (en) | 1994-09-15 | 1997-09-23 | The United States Of America As Represented By The Secretary Of The Navy | System and method for incorporating segmentation boundaries into the calculation of fractal dimension features for texture discrimination |
US5844603A (en) | 1994-09-21 | 1998-12-01 | Kabushiki Kaisha Toshiba | Image data processing apparatus having functions of dividing the image data, and method of processing image data |
KR960028217A (ko) * | 1994-12-22 | 1996-07-22 | 엘리 웨이스 | 움직임 검출 카메라 시스템 및 방법 |
US5485611A (en) * | 1994-12-30 | 1996-01-16 | Intel Corporation | Video database indexing and method of presenting video database index to a user |
US5666157A (en) | 1995-01-03 | 1997-09-09 | Arc Incorporated | Abnormality detection and surveillance system |
US6044166A (en) * | 1995-01-17 | 2000-03-28 | Sarnoff Corporation | Parallel-pipelined image processing system |
US5623249A (en) * | 1995-01-26 | 1997-04-22 | New Product Development, Inc. | Video monitor motion sensor |
US5708767A (en) * | 1995-02-03 | 1998-01-13 | The Trustees Of Princeton University | Method and apparatus for video browsing based on content and structure |
JP3569992B2 (ja) * | 1995-02-17 | 2004-09-29 | 株式会社日立製作所 | 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム |
US5724456A (en) * | 1995-03-31 | 1998-03-03 | Polaroid Corporation | Brightness adjustment of images using digital scene analysis |
US7076102B2 (en) * | 2001-09-27 | 2006-07-11 | Koninklijke Philips Electronics N.V. | Video monitoring system employing hierarchical hidden markov model (HMM) event learning and classification |
US5802203A (en) | 1995-06-07 | 1998-09-01 | Xerox Corporation | Image segmentation using robust mixture models |
US5684715A (en) | 1995-06-07 | 1997-11-04 | Canon Information Systems, Inc. | Interactive video system with dynamic video object descriptors |
US5926210A (en) | 1995-07-28 | 1999-07-20 | Kalatel, Inc. | Mobile, ground-based platform security system which transmits images that were taken prior to the generation of an input signal |
JPH0954883A (ja) | 1995-08-11 | 1997-02-25 | Toshiba Corp | 既知物体の進入検出方法およびその進入検出装置 |
JP3055438B2 (ja) | 1995-09-27 | 2000-06-26 | 日本電気株式会社 | 3次元画像符号化装置 |
US5768413A (en) * | 1995-10-04 | 1998-06-16 | Arch Development Corp. | Method and apparatus for segmenting images using stochastically deformable contours |
US5969755A (en) | 1996-02-05 | 1999-10-19 | Texas Instruments Incorporated | Motion based event detection system and method |
US6049363A (en) * | 1996-02-05 | 2000-04-11 | Texas Instruments Incorporated | Object detection method and system for scene change analysis in TV and IR data |
US5956081A (en) | 1996-10-23 | 1999-09-21 | Katz; Barry | Surveillance system having graphic video integration controller and full motion video switcher |
JP3435623B2 (ja) | 1996-05-15 | 2003-08-11 | 株式会社日立製作所 | 交通流監視装置 |
US6091846A (en) | 1996-05-31 | 2000-07-18 | Texas Instruments Incorporated | Method and system for anomaly detection |
US6205239B1 (en) * | 1996-05-31 | 2001-03-20 | Texas Instruments Incorporated | System and method for circuit repair |
JP3279479B2 (ja) | 1996-05-31 | 2002-04-30 | 株式会社日立国際電気 | 映像監視方法及び装置 |
US6084912A (en) | 1996-06-28 | 2000-07-04 | Sarnoff Corporation | Very low bit rate video coding/decoding method and apparatus |
GB9614837D0 (en) * | 1996-07-12 | 1996-09-04 | Rank Xerox Ltd | Interactive desktop system with multiple image capture and display modes |
US6078619A (en) * | 1996-09-12 | 2000-06-20 | University Of Bath | Object-oriented video system |
JPH10150656A (ja) | 1996-09-20 | 1998-06-02 | Hitachi Ltd | 画像処理装置及び侵入者監視装置 |
US5875305A (en) * | 1996-10-31 | 1999-02-23 | Sensormatic Electronics Corporation | Video information management system which provides intelligent responses to video data content features |
US5875304A (en) * | 1996-10-31 | 1999-02-23 | Sensormatic Electronics Corporation | User-settable features of an intelligent video information management system |
US5937092A (en) | 1996-12-23 | 1999-08-10 | Esco Electronics | Rejection of light intrusion false alarms in a video security system |
TR199700058A3 (tr) * | 1997-01-29 | 1998-08-21 | Onural Levent | Kurallara dayali hareketli nesne bölütlemesi. |
GB9702849D0 (en) * | 1997-02-12 | 1997-04-02 | Trafficmaster Plc | Traffic monitoring |
US6008865A (en) | 1997-02-14 | 1999-12-28 | Eastman Kodak Company | Segmentation-based method for motion-compensated frame interpolation |
US5764306A (en) * | 1997-03-18 | 1998-06-09 | The Metaphor Group | Real-time method of digitally altering a video data stream to remove portions of the original image and substitute elements to create a new image |
US6249613B1 (en) * | 1997-03-31 | 2001-06-19 | Sharp Laboratories Of America, Inc. | Mosaic generation and sprite-based coding with automatic foreground and background separation |
JP3812985B2 (ja) | 1997-04-04 | 2006-08-23 | 富士通株式会社 | 自動監視装置 |
EP0878965A3 (en) * | 1997-05-14 | 2000-01-12 | Hitachi Denshi Kabushiki Kaisha | Method for tracking entering object and apparatus for tracking and monitoring entering object |
US6456320B2 (en) | 1997-05-27 | 2002-09-24 | Sanyo Electric Co., Ltd. | Monitoring system and imaging system |
EP0986912B1 (de) | 1997-06-04 | 2001-10-31 | Ascom Systec AG | Verfahren zum überwachen eines vorgegebenen überwachungsbereiches |
US6195458B1 (en) * | 1997-07-29 | 2001-02-27 | Eastman Kodak Company | Method for content-based temporal segmentation of video |
US6097429A (en) | 1997-08-01 | 2000-08-01 | Esco Electronics Corporation | Site control unit for video security system |
US6188777B1 (en) * | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6091771A (en) | 1997-08-01 | 2000-07-18 | Wells Fargo Alarm Services, Inc. | Workstation for video security system |
US6069655A (en) * | 1997-08-01 | 2000-05-30 | Wells Fargo Alarm Services, Inc. | Advanced video security system |
FR2766946B1 (fr) * | 1997-08-04 | 2000-08-11 | Thomson Multimedia Sa | Procede et dispositif de pretraitement pour estimation de mouvement |
US6188381B1 (en) * | 1997-09-08 | 2001-02-13 | Sarnoff Corporation | Modular parallel-pipelined vision system for real-time video processing |
US6058210A (en) * | 1997-09-15 | 2000-05-02 | Xerox Corporation | Using encoding cost data for segmentation of compressed image sequences |
US6570610B1 (en) * | 1997-09-15 | 2003-05-27 | Alan Kipust | Security system with proximity sensing for an electronic device |
GB2329542B (en) * | 1997-09-17 | 2002-03-27 | Sony Uk Ltd | Security control system and method of operation |
US5990955A (en) | 1997-10-03 | 1999-11-23 | Innovacom Inc. | Dual encoding/compression method and system for picture quality/data density enhancement |
JP3567066B2 (ja) | 1997-10-31 | 2004-09-15 | 株式会社日立製作所 | 移動体組合せ検出装置および方法 |
US6349113B1 (en) * | 1997-11-03 | 2002-02-19 | At&T Corp. | Method for detecting moving cast shadows object segmentation |
US6304669B1 (en) | 1997-11-10 | 2001-10-16 | Asahi Kogaku Kogyo Kabushiki Kaisha | Photogrammetric analytical measurement system |
US6396961B1 (en) * | 1997-11-12 | 2002-05-28 | Sarnoff Corporation | Method and apparatus for fixating a camera on a target point using image alignment |
KR100248374B1 (ko) | 1997-11-25 | 2000-03-15 | 정선종 | 증강현실 시스템에서 카메라와 트랙커간의 오차 보정방법 |
US6182022B1 (en) * | 1998-01-26 | 2001-01-30 | Hewlett-Packard Company | Automated adaptive baselining and thresholding method and system |
US6697103B1 (en) * | 1998-03-19 | 2004-02-24 | Dennis Sunga Fernandez | Integrated network for monitoring remote objects |
US6411734B1 (en) | 1998-04-03 | 2002-06-25 | Cognex Corporation | Object image search using validated sub-model poses |
US6393054B1 (en) * | 1998-04-20 | 2002-05-21 | Hewlett-Packard Company | System and method for automatically detecting shot boundary and key frame from a compressed video data |
US6385772B1 (en) * | 1998-04-30 | 2002-05-07 | Texas Instruments Incorporated | Monitoring system having wireless remote viewing and control |
EP0967584B1 (en) | 1998-04-30 | 2004-10-20 | Texas Instruments Incorporated | Automatic video monitoring system |
US6201476B1 (en) * | 1998-05-06 | 2001-03-13 | Csem-Centre Suisse D'electronique Et De Microtechnique S.A. | Device for monitoring the activity of a person and/or detecting a fall, in particular with a view to providing help in the event of an incident hazardous to life or limb |
GB2337146B (en) | 1998-05-08 | 2000-07-19 | Primary Image Limited | Method and apparatus for detecting motion across a surveillance area |
US6278466B1 (en) | 1998-06-11 | 2001-08-21 | Presenter.Com, Inc. | Creating animation from a video |
EP0971242A1 (en) * | 1998-07-10 | 2000-01-12 | Cambridge Consultants Limited | Sensor signal processing |
US20030025599A1 (en) * | 2001-05-11 | 2003-02-06 | Monroe David A. | Method and apparatus for collecting, sending, archiving and retrieving motion video and still images and notification of detected events |
US6628835B1 (en) | 1998-08-31 | 2003-09-30 | Texas Instruments Incorporated | Method and system for defining and recognizing complex events in a video sequence |
JP2000090277A (ja) * | 1998-09-10 | 2000-03-31 | Hitachi Denshi Ltd | 基準背景画像更新方法及び侵入物体検出方法並びに侵入物体検出装置 |
DE19848490B4 (de) | 1998-10-21 | 2012-02-02 | Robert Bosch Gmbh | Bildinformationsübertragungsverfahren und -vorrichtung |
US6226388B1 (en) * | 1999-01-05 | 2001-05-01 | Sharp Labs Of America, Inc. | Method and apparatus for object tracking for automatic controls in video devices |
JP3900726B2 (ja) | 1999-01-18 | 2007-04-04 | 松下電工株式会社 | 転倒検知装置 |
JP2000207664A (ja) | 1999-01-18 | 2000-07-28 | Matsushita Electric Works Ltd | 転倒検知装置 |
US6490370B1 (en) | 1999-01-28 | 2002-12-03 | Koninklijke Philips Electronics N.V. | System and method for describing multimedia content |
ES2198233T3 (es) * | 1999-02-11 | 2004-02-01 | Societe De Technologie Michelin | Mejora de la duracion de neumaticos de carcasa radial por utilizacion de composiciones especificas cohesivas y de baja histeresis. |
US6396535B1 (en) * | 1999-02-16 | 2002-05-28 | Mitsubishi Electric Research Laboratories, Inc. | Situation awareness system |
JP2000253382A (ja) | 1999-02-25 | 2000-09-14 | Matsushita Electric Works Ltd | 転倒検知装置 |
US6404925B1 (en) | 1999-03-11 | 2002-06-11 | Fuji Xerox Co., Ltd. | Methods and apparatuses for segmenting an audio-visual recording using image similarity searching and audio speaker recognition |
JP2000285223A (ja) | 1999-03-30 | 2000-10-13 | Matsushita Electric Works Ltd | 転倒検知装置 |
JP3588564B2 (ja) | 1999-03-31 | 2004-11-10 | 株式会社東芝 | 映像データ記録装置 |
JP2000295600A (ja) | 1999-04-08 | 2000-10-20 | Toshiba Corp | 監視装置 |
US6201473B1 (en) * | 1999-04-23 | 2001-03-13 | Sensormatic Electronics Corporation | Surveillance system for observing shopping carts |
SG89282A1 (en) | 1999-05-28 | 2002-06-18 | Kent Ridge Digital Labs | Motion information extraction system |
US6437819B1 (en) | 1999-06-25 | 2002-08-20 | Rohan Christopher Loveland | Automated video person tracking system |
US6411724B1 (en) | 1999-07-02 | 2002-06-25 | Koninklijke Philips Electronics N.V. | Using meta-descriptors to represent multimedia information |
JP2001045465A (ja) | 1999-07-29 | 2001-02-16 | Nec Eng Ltd | 遠隔監視方式 |
US6545706B1 (en) * | 1999-07-30 | 2003-04-08 | Electric Planet, Inc. | System, method and article of manufacture for tracking a head of a camera-generated image of a person |
GB2352859A (en) * | 1999-07-31 | 2001-02-07 | Ibm | Automatic zone monitoring using two or more cameras |
US6539396B1 (en) * | 1999-08-31 | 2003-03-25 | Accenture Llp | Multi-object identifier system and method for information service pattern environment |
JP3738631B2 (ja) * | 1999-09-27 | 2006-01-25 | 三菱電機株式会社 | 画像検索システムおよび画像検索方法 |
US6754367B1 (en) | 1999-09-30 | 2004-06-22 | Hitachi Denshi Kabushiki Kaisha | Method and apparatus for automatically detecting intrusion object into view of image pickup device |
US6424370B1 (en) | 1999-10-08 | 2002-07-23 | Texas Instruments Incorporated | Motion based event detection system and method |
US6954859B1 (en) | 1999-10-08 | 2005-10-11 | Axcess, Inc. | Networked digital security system and methods |
US6698021B1 (en) * | 1999-10-12 | 2004-02-24 | Vigilos, Inc. | System and method for remote control of surveillance devices |
JP3785880B2 (ja) | 1999-11-18 | 2006-06-14 | 株式会社明電舎 | 映像監視システムおよび映像監視方法 |
US6297844B1 (en) | 1999-11-24 | 2001-10-02 | Cognex Corporation | Video safety curtain |
US6658136B1 (en) | 1999-12-06 | 2003-12-02 | Microsoft Corporation | System and process for locating and tracking a person or object in a scene using a series of range images |
US6707486B1 (en) * | 1999-12-15 | 2004-03-16 | Advanced Technology Video, Inc. | Directional motion estimator |
JP2001175868A (ja) | 1999-12-22 | 2001-06-29 | Nec Corp | 人物検出方法及び装置 |
US6738424B1 (en) * | 1999-12-27 | 2004-05-18 | Objectvideo, Inc. | Scene model generation from video for use in video processing |
JP2001189925A (ja) | 1999-12-28 | 2001-07-10 | Glowing Shinko:Kk | 移動物体監視システム |
US6697104B1 (en) * | 2000-01-13 | 2004-02-24 | Countwise, Llc | Video based system and method for detecting and counting persons traversing an area being monitored |
JP4140159B2 (ja) | 2000-01-19 | 2008-08-27 | 株式会社明電舎 | 監視カメラの監視エリア設定装置及びその方法 |
US6940998B2 (en) * | 2000-02-04 | 2005-09-06 | Cernium, Inc. | System for automated screening of security cameras |
US6509926B1 (en) * | 2000-02-17 | 2003-01-21 | Sensormatic Electronics Corporation | Surveillance apparatus for camera surveillance system |
AU2001250802A1 (en) * | 2000-03-07 | 2001-09-17 | Sarnoff Corporation | Camera pose estimation |
US20020008758A1 (en) * | 2000-03-10 | 2002-01-24 | Broemmelsiek Raymond M. | Method and apparatus for video surveillance with defined zones |
WO2001069536A2 (en) * | 2000-03-10 | 2001-09-20 | Sarnoff Corporation | Method and apparatus for qualitative spatiotemporal data processing |
JP2001266131A (ja) | 2000-03-23 | 2001-09-28 | Minolta Co Ltd | 監視システム |
US6570496B2 (en) * | 2000-04-04 | 2003-05-27 | Rick A. Britton | Networks and circuits for alarm system operations |
US6975220B1 (en) | 2000-04-10 | 2005-12-13 | Radia Technologies Corporation | Internet based security, fire and emergency identification and communication system |
AUPQ684600A0 (en) | 2000-04-11 | 2000-05-11 | Safehouse International Limited | An object monitoring system |
US7167575B1 (en) * | 2000-04-29 | 2007-01-23 | Cognex Corporation | Video safety detector with projected pattern |
US6469734B1 (en) | 2000-04-29 | 2002-10-22 | Cognex Corporation | Video safety detector with shadow elimination |
US20020063154A1 (en) * | 2000-05-26 | 2002-05-30 | Hector Hoyos | Security system database management |
US6807361B1 (en) | 2000-07-18 | 2004-10-19 | Fuji Xerox Co., Ltd. | Interactive custom video creation system |
US7082209B2 (en) | 2000-08-31 | 2006-07-25 | Hitachi Kokusai Electric, Inc. | Object detecting method and object detecting apparatus and intruding object monitoring apparatus employing the object detecting method |
CA2421111A1 (en) * | 2000-08-31 | 2002-03-07 | Rytec Corporation | Sensor and imaging system |
US7734724B2 (en) | 2000-09-06 | 2010-06-08 | Xanboo Inc. | Automated upload of content based on captured event |
JP3828349B2 (ja) * | 2000-09-27 | 2006-10-04 | 株式会社日立製作所 | 移動体検出測定方法、その装置および移動体検出測定プログラムを記録した記録媒体 |
US6792319B1 (en) | 2000-10-19 | 2004-09-14 | Destiny Networks, Inc. | Home automation system and method |
US7868912B2 (en) | 2000-10-24 | 2011-01-11 | Objectvideo, Inc. | Video surveillance system employing video primitives |
US20050146605A1 (en) | 2000-10-24 | 2005-07-07 | Lipton Alan J. | Video surveillance system employing video primitives |
US6954498B1 (en) | 2000-10-24 | 2005-10-11 | Objectvideo, Inc. | Interactive video manipulation |
US7035430B2 (en) * | 2000-10-31 | 2006-04-25 | Hitachi Kokusai Electric Inc. | Intruding object detection method and intruding object monitor apparatus which automatically set a threshold for object detection |
US20020082769A1 (en) * | 2000-11-21 | 2002-06-27 | Gary Church | Airport auditing and information system |
US6411209B1 (en) | 2000-12-06 | 2002-06-25 | Koninklijke Philips Electronics N.V. | Method and apparatus to select the best video frame to transmit to a remote station for CCTV based residential security monitoring |
US6930689B1 (en) | 2000-12-26 | 2005-08-16 | Texas Instruments Incorporated | Hardware extensions for image and video processing |
US6525663B2 (en) * | 2001-03-15 | 2003-02-25 | Koninklijke Philips Electronics N.V. | Automatic system for monitoring persons entering and leaving changing room |
US7424175B2 (en) * | 2001-03-23 | 2008-09-09 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
US6625310B2 (en) * | 2001-03-23 | 2003-09-23 | Diamondback Vision, Inc. | Video segmentation using statistical pixel modeling |
JP2002298142A (ja) | 2001-03-29 | 2002-10-11 | Minolta Co Ltd | 人物画像検出方法、この方法を実行するためのプログラムを記録した記録媒体、人物画像検出装置及びこの装置を備えた撮影装置 |
US20020171546A1 (en) | 2001-04-18 | 2002-11-21 | Evans Thomas P. | Universal, customizable security system for computers and other devices |
US20020163577A1 (en) | 2001-05-07 | 2002-11-07 | Comtrak Technologies, Inc. | Event detection in a video recording system |
US7423666B2 (en) | 2001-05-25 | 2008-09-09 | Minolta Co., Ltd. | Image pickup system employing a three-dimensional reference object |
US7768549B2 (en) | 2001-06-08 | 2010-08-03 | Honeywell International Inc. | Machine safety system with mutual exclusion zone |
US20030058111A1 (en) * | 2001-09-27 | 2003-03-27 | Koninklijke Philips Electronics N.V. | Computer vision based elderly care monitoring system |
US7110569B2 (en) * | 2001-09-27 | 2006-09-19 | Koninklijke Philips Electronics N.V. | Video based detection of fall-down and other events |
US6696945B1 (en) * | 2001-10-09 | 2004-02-24 | Diamondback Vision, Inc. | Video tripwire |
US6970083B2 (en) | 2001-10-09 | 2005-11-29 | Objectvideo, Inc. | Video tripwire |
DE10153484B4 (de) | 2001-10-22 | 2007-07-19 | Robert Bosch Gmbh | Video-/Audio-System und Auswertungsverfahren für Video-/Audio-Daten |
US7650058B1 (en) * | 2001-11-08 | 2010-01-19 | Cernium Corporation | Object selective video recording |
US6859803B2 (en) * | 2001-11-13 | 2005-02-22 | Koninklijke Philips Electronics N.V. | Apparatus and method for program selection utilizing exclusive and inclusive metadata searches |
EP1473426A4 (en) | 2001-12-10 | 2006-04-12 | Omron Co Ltd | OBJECT SENSOR AND CONTROLLER |
US20030126622A1 (en) | 2001-12-27 | 2003-07-03 | Koninklijke Philips Electronics N.V. | Method for efficiently storing the trajectory of tracked objects in video |
EP1472869A4 (en) | 2002-02-06 | 2008-07-30 | Nice Systems Ltd | SYSTEM AND METHOD FOR DETECTION, MONITORING AND ALARM MANAGEMENT BASED ON VIDEO CONTENT ANALYSIS |
US6975346B2 (en) | 2002-06-27 | 2005-12-13 | International Business Machines Corporation | Method for suspect identification using scanning of surveillance media |
KR20050082442A (ko) | 2002-07-05 | 2005-08-23 | 아스펙터스 엘티디 | 다수의 병렬 연속 영상에서 사건 감지를 효과적으로 수행하는 방법 및 시스템 |
US20030010345A1 (en) * | 2002-08-02 | 2003-01-16 | Arthur Koblasz | Patient monitoring devices and methods |
US7227893B1 (en) | 2002-08-22 | 2007-06-05 | Xlabs Holdings, Llc | Application-specific object-based segmentation and recognition system |
US20040143602A1 (en) | 2002-10-18 | 2004-07-22 | Antonio Ruiz | Apparatus, system and method for automated and adaptive digital image/video surveillance for events and configurations using a rich multimedia relational database |
US7602413B2 (en) | 2002-10-18 | 2009-10-13 | Sony Corporation | Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program |
DE60330898D1 (de) | 2002-11-12 | 2010-02-25 | Intellivid Corp | Verfahren und system zur verfolgung und verhaltensüberwachung von mehreren objekten, die sich durch mehrere sichtfelder bewegen |
DE10252731A1 (de) | 2002-11-13 | 2004-05-27 | Robert Bosch Gmbh | Verfahren zur Überwachung einer Szene mit wenigstens einem bildgebenden Sensor |
SE0203483D0 (sv) | 2002-11-21 | 2002-11-21 | Wespot Ab | Method and device for fall detection |
US7184777B2 (en) * | 2002-11-27 | 2007-02-27 | Cognio, Inc. | Server and multiple sensor system for monitoring activity in a shared radio frequency band |
US6987451B2 (en) * | 2002-12-03 | 2006-01-17 | 3Rd Millennium Solutions. Ltd. | Surveillance system with identification correlation |
US7400344B2 (en) | 2002-12-19 | 2008-07-15 | Hitachi Kokusai Electric Inc. | Object tracking method and object tracking apparatus |
US6999600B2 (en) * | 2003-01-30 | 2006-02-14 | Objectvideo, Inc. | Video scene background maintenance using change detection and classification |
US6940397B1 (en) | 2003-03-07 | 2005-09-06 | Benjamin E Le Mire | Vehicle surveillance system |
WO2004088592A2 (en) * | 2003-03-25 | 2004-10-14 | General Electric Company | Methods for processing color image data employing a chroma, hue, and intensity color representation |
US7224735B2 (en) | 2003-05-21 | 2007-05-29 | Mitsubishi Electronic Research Laboratories, Inc. | Adaptive background image updating |
US7817716B2 (en) | 2003-05-29 | 2010-10-19 | Lsi Corporation | Method and/or apparatus for analyzing the content of a surveillance image |
CA2529903A1 (en) | 2003-06-19 | 2004-12-29 | Sarnoff Corporation | Method and apparatus for providing a scalable multi-camera distributed video processing and visualization surveillance system |
US7310442B2 (en) * | 2003-07-02 | 2007-12-18 | Lockheed Martin Corporation | Scene analysis surveillance system |
JP2005092740A (ja) | 2003-09-19 | 2005-04-07 | Sony Corp | 監視システム、情報処理装置および方法、記録媒体、並びにプログラム |
CN1228984C (zh) * | 2003-09-29 | 2005-11-23 | 上海交通大学 | 基于运动检测的视频对象分割方法 |
US7373395B2 (en) * | 2004-02-04 | 2008-05-13 | Perseus Wireless, Inc. | Method and system for providing information to remote clients |
US7447331B2 (en) | 2004-02-24 | 2008-11-04 | International Business Machines Corporation | System and method for generating a viewable video index for low bandwidth applications |
JP2007531121A (ja) | 2004-03-24 | 2007-11-01 | セルニウム コーポレイション | エリアごとの分割ゲインの使用によるビデオ分析の改良 |
CN100337249C (zh) * | 2004-04-23 | 2007-09-12 | 中国科学院计算技术研究所 | 一种视频运动对象分割方法 |
US20050275549A1 (en) | 2004-06-14 | 2005-12-15 | Barclay Deborah L | Network support for emergency smoke detector/motion detector |
US7733369B2 (en) * | 2004-09-28 | 2010-06-08 | Objectvideo, Inc. | View handling in video surveillance systems |
US7424167B1 (en) | 2004-10-01 | 2008-09-09 | Objectvideo, Inc. | Tide filtering for video surveillance system |
US7583815B2 (en) | 2005-04-05 | 2009-09-01 | Objectvideo Inc. | Wide-area site-based video surveillance system |
US20080291278A1 (en) | 2005-04-05 | 2008-11-27 | Objectvideo, Inc. | Wide-area site-based video surveillance system |
US20070122000A1 (en) * | 2005-11-29 | 2007-05-31 | Objectvideo, Inc. | Detection of stationary objects in video |
US20090041297A1 (en) * | 2005-05-31 | 2009-02-12 | Objectvideo, Inc. | Human detection and tracking for security applications |
US7825954B2 (en) | 2005-05-31 | 2010-11-02 | Objectvideo, Inc. | Multi-state target tracking |
US7623677B2 (en) | 2005-06-17 | 2009-11-24 | Fuji Xerox Co., Ltd. | Methods and interfaces for visualizing activity across video frames in an action keyframe |
US7822224B2 (en) | 2005-06-22 | 2010-10-26 | Cernium Corporation | Terrain map summary elements |
US7796780B2 (en) | 2005-06-24 | 2010-09-14 | Objectvideo, Inc. | Target detection and tracking from overhead video streams |
US8026945B2 (en) * | 2005-07-22 | 2011-09-27 | Cernium Corporation | Directed attention digital video recordation |
US9036028B2 (en) | 2005-09-02 | 2015-05-19 | Sensormatic Electronics, LLC | Object tracking and alerts |
US7884849B2 (en) * | 2005-09-26 | 2011-02-08 | Objectvideo, Inc. | Video surveillance system with omni-directional camera |
US7956735B2 (en) | 2006-05-15 | 2011-06-07 | Cernium Corporation | Automated, remotely-verified alarm system with intrusion and video surveillance and digital video recording |
US7468662B2 (en) | 2006-06-16 | 2008-12-23 | International Business Machines Corporation | Method for spatio-temporal event detection using composite definitions for camera systems |
DE102006047892A1 (de) | 2006-10-10 | 2008-04-17 | Atlas Elektronik Gmbh | Verfahren zur Überwachung eines Sicherungsbereichs |
US7595815B2 (en) | 2007-05-08 | 2009-09-29 | Kd Secure, Llc | Apparatus, methods, and systems for intelligent security and safety |
WO2008147915A2 (en) | 2007-05-22 | 2008-12-04 | Vidsys, Inc. | Intelligent video tours |
GB2450478A (en) | 2007-06-20 | 2008-12-31 | Sony Uk Ltd | A security device and system |
WO2009045218A1 (en) | 2007-10-04 | 2009-04-09 | Donovan John J | A video surveillance, storage, and alerting system having network management, hierarchical data storage, video tip processing, and vehicle plate analysis |
GB2491987B (en) | 2008-03-03 | 2013-03-27 | Videoiq Inc | Method of searching data for objects identified by object detection |
WO2009120616A1 (en) | 2008-03-25 | 2009-10-01 | Wms Gaming, Inc. | Generating casino floor maps |
US8325228B2 (en) * | 2008-07-25 | 2012-12-04 | International Business Machines Corporation | Performing real-time analytics using a network processing solution able to directly ingest IP camera video streams |
EP2204783A1 (en) | 2008-12-31 | 2010-07-07 | Thales | Security system comprising sensors in a corridor for uncovering hazardous items |
FR2944934B1 (fr) | 2009-04-27 | 2012-06-01 | Scutum | Procede et systeme de surveillance |
IL201200A0 (en) | 2009-09-24 | 2011-07-31 | Elbit Systems Ltd | System and method for long-range surveillance of a scene and alerting of predetermined unusual activity |
-
2007
- 2007-03-01 CN CN2007800177620A patent/CN101443789B/zh active Active
- 2007-03-01 KR KR1020087027794A patent/KR101392294B1/ko active IP Right Grant
- 2007-03-01 US US12/297,396 patent/US8457401B2/en not_active Expired - Lifetime
- 2007-03-01 WO PCT/US2007/005238 patent/WO2007126525A2/en active Application Filing
- 2007-03-01 EP EP07751968A patent/EP2013817A2/en not_active Withdrawn
- 2007-03-01 CA CA002649389A patent/CA2649389A1/en not_active Abandoned
- 2007-03-01 JP JP2009506492A patent/JP2009533778A/ja active Pending
- 2007-03-12 TW TW096108429A patent/TW200802187A/zh unknown
-
2008
- 2008-10-22 IL IL194797A patent/IL194797A0/en unknown
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9582928B2 (en) | 2011-01-13 | 2017-02-28 | Samsung Electronics Co., Ltd. | Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching |
JP2013186818A (ja) * | 2012-03-09 | 2013-09-19 | Omron Corp | 画像処理装置、画像処理方法、および画像処理プログラム |
JP2013186817A (ja) * | 2012-03-09 | 2013-09-19 | Omron Corp | 画像処理装置、画像処理方法、および画像処理プログラム |
JP2013186819A (ja) * | 2012-03-09 | 2013-09-19 | Omron Corp | 画像処理装置、画像処理方法、および画像処理プログラム |
KR101438451B1 (ko) | 2013-04-17 | 2014-09-12 | 서울대학교산학협력단 | 비고정 카메라 영상에 대한 이중모드 sgm 기반의 이동체 고속 검출 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체 |
Also Published As
Publication number | Publication date |
---|---|
WO2007126525A2 (en) | 2007-11-08 |
CN101443789B (zh) | 2011-12-28 |
US20090297023A1 (en) | 2009-12-03 |
EP2013817A2 (en) | 2009-01-14 |
US8457401B2 (en) | 2013-06-04 |
IL194797A0 (en) | 2009-09-22 |
CN101443789A (zh) | 2009-05-27 |
WO2007126525A3 (en) | 2008-07-24 |
KR20090006851A (ko) | 2009-01-15 |
KR101392294B1 (ko) | 2014-05-27 |
TW200802187A (en) | 2008-01-01 |
WO2007126525B1 (en) | 2008-11-27 |
CA2649389A1 (en) | 2007-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009533778A (ja) | 統計的画素モデリングを使った映像セグメント化 | |
US9020261B2 (en) | Video segmentation using statistical pixel modeling | |
US7224852B2 (en) | Video segmentation using statistical pixel modeling | |
Mikic et al. | Moving shadow and object detection in traffic scenes | |
Elhabian et al. | Moving object detection in spatial domain using background removal techniques-state-of-art | |
Cheung et al. | Robust background subtraction with foreground validation for urban traffic video | |
JP4708343B2 (ja) | 背景領域および前景領域をモデリングする方法 | |
US8630442B2 (en) | Method and apparatus for maintaining a background image model in a background subtraction system using accumulated motion | |
Wang | Real-time moving vehicle detection with cast shadow removal in video based on conditional random field | |
WO2012022744A2 (en) | Multi-mode video event indexing | |
Zhang et al. | Moving vehicles segmentation based on Bayesian framework for Gaussian motion model | |
Cvejic et al. | The effect of pixel-level fusion on object tracking in multi-sensor surveillance video | |
Xu et al. | Segmentation and tracking of multiple moving objects for intelligent video analysis | |
Sharma | Human detection and tracking using background subtraction in visual surveillance | |
CN109948474A (zh) | Ai热成像全天候智能监控方法 | |
Hossain et al. | Fast-D: When non-smoothing color feature meets moving object detection in real-time | |
Roy et al. | A comprehensive survey on computer vision based approaches for moving object detection | |
Hardas et al. | Moving object detection using background subtraction shadow removal and post processing | |
Kumar et al. | Segmentation of moving objects using background subtraction method in complex environments | |
Hautiere et al. | Meteorological conditions processing for vision-based traffic monitoring | |
CN110858392A (zh) | 一种基于融合背景模型的监控目标定位方法 | |
Tavakkoli et al. | Automatic statistical object detection for visual surveillance | |
CN106485713B (zh) | 视频前景检测方法 | |
Kaur | Background subtraction in video surveillance | |
CN114612850A (zh) | 高空抛物检测方法、电子设备和存储介质 |