JP2005531844A - 改良された背景・前景分割のためのオブジェクト分類を採用する拡張背景モデル - Google Patents

改良された背景・前景分割のためのオブジェクト分類を採用する拡張背景モデル Download PDF

Info

Publication number
JP2005531844A
JP2005531844A JP2004517111A JP2004517111A JP2005531844A JP 2005531844 A JP2005531844 A JP 2005531844A JP 2004517111 A JP2004517111 A JP 2004517111A JP 2004517111 A JP2004517111 A JP 2004517111A JP 2005531844 A JP2005531844 A JP 2005531844A
Authority
JP
Japan
Prior art keywords
background
model
background model
image
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004517111A
Other languages
English (en)
Inventor
グッタ スリニヴァス
アントニオ ジェイ コルメナレズ
ミロスラヴ トライコヴィク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2005531844A publication Critical patent/JP2005531844A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

背景・前景分割において使用する拡張背景モデルを生成及び維持する方法及び装置が開示される。背景モデルは、典型的には静止しているオブジェクトの指標を含むように修正される。この後、もしオブジェクトが移動し、且つ典型的には静止しているオブジェクトとして以前に識別されていれば、前記オブジェクトは、背景・前景分割の間に不必要に前景の一部として識別されることはない。模範的実施において、移動しているオブジェクトは、2つのセットに分類される。第1セットは、典型的には独立に移動するオブジェクトを含み、第2セットは、典型的には静止しているオブジェクトを含む。一般に、一度オブジェクトが前記第2(静止しているオブジェクト)セットに割り当てられると、前記オブジェクトは、たとえ移動されたとしても、前記背景のままである(通常は、前記対象の移動は前記対象を前記前景の一部にする)。

Description

本発明は、コンピュータシステムにより実行される背景・前景分割(background-foreground segmentation)に関し、特に、背景・前景分割で用いる改良背景モデルの生成及び維持に関する。
背景・前景分割は、静止カメラの視野においてオブジェクトを検出するよく知られたコンピュータビジョンベースの技術である。最初に、システムは、オブジェクトが存在しないトレーニング段階の間にシーンを学習する。前記シーンの背景モデルは、前記シーンから捕えられた(captured)画像のシーケンスを使用して前記トレーニング段階の間に構築される。この後、通常動作中に、新しい画像が前記背景モデルと比較される。前記背景モデルからの大きな偏差を持つピクセル位置は、前景ピクセルとして分類され、残りのピクセルは背景ピクセルとしてラベル付けされる。このアルゴリズムの出力は、一般に前記シーンで見つかった前景オブジェクトの輪郭を表すバイナリ画像である。
従来の背景・前景分割技術は、駐車場のような広々とした戸外の領域、又は倉庫、事務所スペース若しくは地下鉄の駅のような閉鎖された広々とした施設において人々及び他のオブジェクトを分割及び追跡するために効果的に機能する。しかしながらこれらのシーンは、典型的な家のシーンとは全く異なる。例えば、住宅環境は典型的には、小さな領域に多数のオブジェクトを含む。加えて、住宅環境における多数のオブジェクトは、衣服及びカーテンのように非剛体であるか、又は家具及びブラインドのように変形可能であり、人々は、住宅環境において立った姿勢、座った姿勢及び寝ている姿勢のように頻繁に姿勢を変える傾向にある。
ほとんどの既存の背景・前景分割技術は、散らかった環境における下半身の隠蔽(occlusion)、非直立の体の姿勢、並びにドア、椅子及びテーブルのような大きな背景オブジェクトの任意の移動の存在下では効果的に機能しない。
従って、背景・前景分割で用いる改良背景モデルを生成及び維持する方法及び装置に対する要望が存在する。
一般に、背景・前景分割で用いる改良背景モデルを生成及び維持する方法及び装置が開示される。本発明の一態様によると、拡張背景モデルは、前景及び背景の分割を改良するために採用される。前記背景モデルは、典型的には静止しているオブジェクトの指標(indication)を含むように本発明により修正される。この後、もしオブジェクトが移動し、以前に典型的には静止しているオブジェクトとして識別されていれば、前記オブジェクトは、背景・前景分割の間に不必要に前記前景の一部として識別されることはない。
模範的な実施例において、移動するオブジェクトは、2つのセットに分類される。第1セットは、人間及び動物のような典型的には独立して移動するオブジェクトを含み、第2セットは、家具のような典型的には静止しているオブジェクトを含む。一般に、一度オブジェクトが前記第2(静止オブジェクト)セットに割り当てられると、前記オブジェクトは、たとえ前記オブジェクトが移動されたとしても、背景のままである(通常、前記オブジェクトの移動は、前記オブジェクトを前記前景の一部にする)。
本発明の拡張背景モデルは、背景・前景分割を改良するために採用されることができる。トレーニング手順の間に、前記背景モデルのパラメータが推定される。オブジェクトの移動が検出された場合、前記オブジェクトは、前記2つのセットの1つに分類される。通常動作中に、捕えられた画像の尤度確率(likelihood probability)は、前記背景モデルを使用して推定される。以前に静止オブジェクトとしてフラグを立てられていない背景シーンに属する低い尤度確率を持つピクセルは、前景として分類され、残りは背景としてラベル付けされる。
本発明のより完全な理解並びに本発明の他のフィーチャ及び利点は、以下の詳細な記述及び図面を参照することにより得られるだろう。
ここで図1を参照すると、背景・前景分割のために本発明の好適実施例により背景モデルを生成及び維持するビデオ処理システム120が示される。ビデオフィード107、デジタル多用途ディスク(DVD)110及びネットワーク115を介してカメラ105のような1つ又は複数のカメラと相互運用するビデオ処理システム120が、示される。ビデオ処理システム120は、プロセッサ130と、メディアインターフェース135と、ネットワークインターフェース140と、メモリ145とを有する。メモリ145は、画像グラバ(image grabber)150と、入力画像155と、背景モデル生成/維持処理部200/300と、背景モデルオブジェクト分類処理部400と、確率表165と、大域的閾値180と、ピクセル閾値195と、分割画像190とを有する。
前記模範的実施例において、前記背景モデルは、下で説明される、複数の確率表170−11乃至170−HWを有する確率表のセット165として実施される。エントリ175−11乃至175−NMを有する1つの確率表170−11が、図1に示される。背景モデルは、一般に各カメラに対して構築され、前景及び背景の速い分割を促進する。(前景オブジェクトとして扱うために)背景モデルが全てのオブジェクトを検出する必要を防ぐために、前記背景モデルは、典型的には静止しているオブジェクトの指標を含むように本発明により修正される。この後、もしオブジェクトが移動し、且つ以前に典型的には静止しているオブジェクトとして識別されていれば、前記オブジェクトは、背景・前景分割の間に不必要に前景の一部になることはない。
一実施例において、移動しているオブジェクトは、2つのセットの1つに分類される。第1セットは、人間及び動物のような典型的には独立に移動するオブジェクトを含む。前記第1セットからのオブジェクトが画像内で移動する場合、前記オブジェクトは、前記前景の一部となるべきである。第2セットは、家具のような典型的には静止しているオブジェクトを含む。一般に、一度オブジェクトが前記第2セットに割り当てられると、前記オブジェクトは、たとえ前記オブジェクトが移動されたとしても、前記背景のままである(通常は、前記オブジェクトの移動は、前記オブジェクトを前記前景の一部にする)。このように、背景オブジェクトは、移動された場合にも不必要に前記前景の一部にならない。
図1に示されるようにビデオ処理システム120は、ビデオフィード107をカメラ105から画像グラバ150に結合する。画像グラバ150は、ビデオフィード107から単一の画像を“つかみ取り(grab)”、一般に複数のピクセルである入力画像155を作成する。実例的に、入力画像155は、高さにHピクセル及び幅にWピクセルを有し、各ピクセルは、赤、緑及び青(RGB)情報のそれぞれに対して8ビット、合計24ビットのRGBピクセルデータを持つ。他のシステムが画像を表すために使用されることができるが、RGBは一般的に使用される。
背景・前景分割処理200、300は、前記背景モデルを生成し、背景・前景分割を実行する。背景・前景分割処理200は、ビデオ処理システム120の通常動作中に使用されるが、背景・前景分割処理300は、トレーニング中に使用され、前記背景モデルを生成する。1つの単一の処理が処理200及び300の両方を実行し、前記単一の処理が単純に通常動作モード又はトレーニングモードの何れかに設定されることが期待される。しかしながら、希望に応じて、別々の処理が使用されてもよい。
ビデオ処理システム120の通常動作中に、背景・前景分割処理200は、入力画像155におけるH×M個のピクセルのそれぞれに対して尤度確率を決定するために確率表165を使用する。前記尤度確率のそれぞれは、ピクセル閾値195と比較される。もし前記尤度確率がピクセル閾値195より低ければ、前記ピクセルは前記背景に属すると仮定される。ビデオ処理システム120が、もしピクセルに対する尤度確率がピクセル閾値195より大きければ、前記ピクセルが前記背景に属すると仮定することを可能にするために、背景・前景分割処理200により使用される確率モデルを修正することも可能である。ビデオ処理システム120は、もしピクセルに対する尤度確率がピクセル閾値の範囲内であれば、前記ピクセルを前記背景に割り当てることさえ可能である。しかしながら、ここで単純のため、もし尤度確率がピクセル閾値195より低ければ、ピクセルは前記背景に属すると仮定されると仮定されるであろう。
通常動作中に、背景・前景分割処理200は、確率表165及びピクセル閾値195を使用することにより前記入力画像から分割画像190を決定する。加えて、確率モデル(図示されない)は、各ピクセルに対して尤度確率を決定するために背景・前景分割処理200により使用される。好適確率モデルは、下で詳細に説明される。これらの確率モデルは、背景・前景分割処理200が前記モデルに従って一連のステップを実行するという意味で、背景・前景分割処理200(及び300)に“組み込まれる”。換言すると、背景・前景分割処理200は、確率モデル又は複数の確率モデルにより少なくとも部分的に定められたステップを持つ。単純のため、前記背景・前景分割を実行するために使用される前記確率モデル及び前記背景・前景分割処理は、交換可能であると見なされるだろう。しかしながら、前記背景・前景分割処理は、モデルにより確率を決定するために必要なステップを実行する間に、モデルによる確率の決定に関係しない追加ステップを有することができる。例えば、入力画像155からのデータの取り出し及びこのようなデータのデータ構造への記憶は、確率モデルによって実行されない1つの可能なステップである。
トレーニング中に、背景・前景分割処理300は、確率表170−11乃至170−HW(ここではまとめて“確率表170”)を定め、リファインする。好ましくは、入力画像155の各ピクセルに対して1つの確率表が存在する。各確率表は、M×Nマトリクスを持ち、確率表170−11に対してエントリ175−11乃至175−NM(ここではまとめて“エントリ175”)として図示される。各ピクセルに対してM個の大域的状態(global state)及びN個のガウシアンモードが存在する。一般に、各確率表170は、1つの大域的状態及び1つのガウシアンモードから開始し、トレーニング後には、M×N個のエントリ175を含むであろう。
トレーニング中に、大域的閾値180は、状態が追加されるべきか又は選択された状態のパラメータが修正されるべきかを決定するために背景・前景分割処理300により使用される。ピクセル閾値195は、他のガウシアンモードが追加されるべきか、又は選択されたガウシアンモードのパラメータが調整されるべきかを決定するためにトレーニング中に使用される。
模範的な背景・前景分割処理300は、トレーニングが付加的(incremental)であることを可能にすることに注意すべきである。模範的な背景・前景分割処理300は、画像が前記モデルに移されるたびに、又は所定数の画像が前記モデルに移された後に、前記モデルのパラメータが調整されることを可能にする。後者も可能であるが、前者が好ましい。
当技術分野で知られているように、ここで説明される方法及び装置は、これ自体がここで実施されるコンピュータ読取可能コード手段を持つコンピュータ読取可能媒体を有する製品として流通されることができる。前記コンピュータ読取可能プログラムコード手段は、ビデオ処理システム120のようなコンピュータシステムと併せて、ここに記述される前記方法を実行するステップ又は前記装置を作成するステップの全て又は幾つかを実行するように動作する。前記コンピュータ読取可能媒体は、記録可能媒体(例えば、フロッピー(登録商標)ディスク、ハードドライブ、メディアインターフェース135を介してアクセスされるDVD110のようなコンパクトディスク、又はメモリカード)であってもよく、又は伝送媒体(例えば、光ファイバ、ワールドワイドウェブ、ケーブル又は時分割多重アクセス、コード分割多重アクセス若しくは他の無線周波数チャネルを使用する無線チャネルを有するネットワーク115)であってもよい。コンピュータシステムとの使用に適した情報を記憶することができる既知の又は開発された媒体が、使用されることができる。前記コンピュータ読取可能コード手段は、磁気媒体上の磁気変化又はDVD110のようなコンパクトディスクの表面における高さの変化のようなデータ及び命令をコンピュータが読むことを可能にする機構である。
メモリ145は、ここで開示された方法、ステップ及び機能を実施するようにプロセッサ130を構成するであろう。メモリ145は分散型又はローカルであることができ、プロセッサ130は分散型又は単独型であることができる。メモリ145は、電子、磁気若しくは光学メモリ又はこれら若しくは他のタイプの記憶装置の組み合わせとして実施されることができる。用語“メモリ”は、プロセッサ130によりアクセスされるアドレス可能なスペースにおけるアドレスから読み取られる又はアドレスに書き込まれることができる情報を含むように十分幅広く解釈されるべきである。この定義を用いて、ネットワークインターフェース140を介してアクセスされるネットワーク115のようなネットワーク上の情報は、プロセッサ130が前記ネットワークから前記情報を取り出すことができるので、依然としてビデオ処理システム120のメモリ145内である。ビデオ処理システム120の全て又は一部が、プログラム可能な論理回路のような集積回路又は他の同様な装置内に作られることにも注意すべきである。
ここでシステムが説明されたので、大域的及び局所的ピクセル依存性及び付加的なトレーニングを提供することができる確率モデルが説明されるだろう。
確率モデル
好ましい確率的な枠組みにおいて、画像(即ち、ピクセル外観(pixel appearance)の2次元アレイ)は、高次元ランダム過程から得られたサンプルとして解釈される。この過程において、前記画像の複数のピクセルは、複数の次元を定める。より形式的には、I={Ix,y∈ΘWH}が観測空間Θの値(即ち、24ビット/ピクセルでのRGB値)を持つW×H個のピクセルの画像を表すとする。
ランダム過程に関連した確率分布P(I|Ω)は、前記シーン及び前記イメージングシステムの両方に関連した基礎をなす画像生成過程を捕えるであろう。これは、前記シーンに存在する色及びテクスチャ、並びに前記シーンにおける運動、光の変化、カメラの自動ゲイン制御及び他の画像変化のような画像変化の様々なソースを含む。
ほとんどの従来のアルゴリズムは、前記ピクセルのそれぞれが互いに独立であると仮定してシーンの画像をモデル化する。実際に、画像形成処理及び典型的なシーンの物理的特徴は、前記ピクセルを大域的な意味(即ち、前記画像全体又は一連の画像)及び局所的な意味(即ち、前記画像内の領域)の両方で非常に相互依存する状態にする複数の拘束条件を課す。
提案された模範的モデルは、シーンの観測の大域的状態を捕える隠された過程ξを導入することにより前記シーンの画像内のピクセル間の依存性を利用する。例えば、複数の可能な照度設定を持つシーンの場合に、離散的な変数ξは、有限個の可能な照度状態に対するポインタを表す。
前記提案されたモデルの裏にある基本的なアイデアは、前記画像における前記ピクセル間の依存性を捕えるモデル期間を前記ピクセルのそれぞれの外観を捕えるモデル期間から分離することであり、これにより問題はより扱いやすくなる。即ち、以下の式から前記画像の尤度確立を計算することは有益である。
P(I|Ω)=Σ∀ξP(I|ξ,Ω)P(ξ|Ω) {1}
ここで、P(ξ|Ω)は前記シーンの大域的状態の確率を表し、P(I|ξ,Ω)は、シーンξの大域的状態に調整された前記ピクセルの外観の尤度確率を表す。前記ピクセル間の依存性は第1期間により捕えられるので、シーンξの大域的状態に調整されて、画像Iのピクセルが互いに独立であると仮定することは妥当であることに注意する。従って、式{1}は以下のように書き直されることができる。
P(I|Ω)=Σ∀ξP(ξ|Ω)Π∀(x,y)P(Ix,y|ξ,Ω) {2}
ここでP(Ix,y|ξ,Ω)は、画像Iの(x,y)ピクセルをモデル化するのに使用された確率を表す。
シーンの観測の大域的状態を捕えるのに使用されたモデル、即ちP(ξ|Ω)の複雑さに依存して、実施された処理は、様々な応用シナリオ(application scenario)に存在する異なるタイプのイメージング変化を扱うことができるであろう。例えば、もしゲイン関数のパラメータ表現がξの表現において使用されるならば、カメラの自動ゲイン制御による変化に対してロバストな(robust)背景・前景分割処理を実施することは可能である。
単純のために、大域的状態ξに調整されたピクセル値のそれぞれP(Ix,y|ξ,Ω)は、3次元RGBカラー空間における完全な共分散マトリクスを持つ混合ガウス分布を使用してモデル化される。より形式的には、以下の式が使用されることができる。
Figure 2005531844
ここで
Figure 2005531844
及びΣa,x,yは、(x,y)ピクセルに対するa番目の混合ガウスモードの平均値及び共分散マトリクスである。これらのパラメータは、画像モデル全体を表すのに使用される記号パラメータ変数Ωのサブセットである。
以前の調査は、他のカラー空間が影のような問題に対処するのに好ましいことを示し、この調査は、希望に応じてここで使用されることができることに注意する。しかしながら、この記述は、前記シーンの大域的状態のモデル化を強調する。
シーンの観測の大域的状態は、好ましくは前記シーンの大域的及び局所的変化を捕える離散的変数ξ={1,2,…,M}を使用してモデル化され、これにより式{2}は以下のようになる。
Figure 2005531844
記述されたモデルと従来のガウシアンの混合との間の違いを示す。本発明のモデルは、ピクセルのそれぞれを独立にモデル化する混合ガウス分布と対照的に、大域的状態に関連して各ピクセルをモデル化するためにガウス分布の集合を使用する。
式3は、以下のように書き直されることができる。
Figure 2005531844
ここで、項G(ξ,ax,y)=P(ξ|Ω)(1/WH)P(ax,y)は、単純に画像モデルのピクセル位置のそれぞれに関連したM×Nマトリクスとして扱われることができる。本例において、Mは大域的状態の数であり、Nはガウシアンモードの数である。図1の例において、前記M×Nマトリクスは確率表165に記憶され、ここで各ピクセルに対して1つのM×Nマトリクス170が存在する。
分割手順
上で述べられた前記提案されたモデルの1つは、シーンからの画像観測のセットから首尾よくトレーニングされたと仮定すると、新しく観測された画像の分割手順は、単純に最大の尤度の分類に基づく。トレーニングは、次のセクションで説明される。
模範的な分割手順は、図2の方法200として示される。方法200は、背景・前景分割を実行するために通常動作中にシステムにより使用される。上で示されたように、トレーニングは、既に実行された。
方法200は、画像が取り出されるステップ20において開始する。一般に、各画像は、前記画像の各ピクセルに対して24ビットを使用して記憶され、この24ビットは、RGB値に対応する。上で述べたように、他のシステムが使用されることができるが、模範的方法200は、RGB値が使用されることを仮定する。
テスト画像Itが与えられ、この分割アルゴリズムは、以下のモデルを与えられて前記画像の尤度確率を最大化する大域的状態ξ*を決定する(ステップ220)。
ξ*=arg
maxP(ξ|Ω)Π∀(x,y)P(It x,y|ξ,Ω) {5}
この場合、前記背景・前景分割は、個別の尤度確率を使用して各ピクセルに対して独立に、しかし最も尤度の高い大域的状態ξ*のみを考慮して実行される。このステップを実行するために、ピクセルはステップ230において選択される。各ピクセルに対する個別の尤度確率は、最も尤度の高い大域的状態に対して決定され(ステップ240)、前記尤度確率は、各ピクセルが背景に割り当てられるべきか又は前景に割り当てられるべきかを決定する(ステップ250)ために以下の式において使用される。
Figure 2005531844
ここでs={sx,y ∀(x,y)}は、前記背景・前景分割のバイナリ画像を表し、非ゼロピクセルは、前景オブジェクトを示す。基本的に式{6}は、もしピクセルに対する尤度確率がピクセル閾値より小さければ(ステップ250=YES)、前記ピクセルが以前に本発明による背景モデルオブジェクト分類処理400により前記背景の一部としてフラグを立てられているかを決定するために、更に他のテストがステップ255の間に実行され、そうでなければ(ステップ250=NO)、前記ピクセルは背景に割り当てられる(ステップ270)。
もしステップ255の間に、前記ピクセルが以前に背景モデルオブジェクト分類処理400により前記背景の一部としてフラグを立てられたことが決定されるならば、前記ピクセルは、ステップ270の間に前記背景に割り当てられる。しかしながら、もしステップ255の間に、前記ピクセルが以前に背景モデルオブジェクト分類処理400により前記背景の一部としてフラグを立てられていないことが決定されるならば、前記ピクセルは、前記前景に割り当てられる(ステップ260)。
式{6}は、関心のある各ピクセル(一般的には、画像内の全てのピクセル)に対して実行される。従って、ステップ280において、もし前記画像内の全てのピクセルが前記背景又は前景に割り当てられていれば(ステップ280=NO)、方法200は終了し、そうでなければ(ステップ280=YES)、前記方法は、ステップ230に続き、式6は、新しく選択されたピクセルに対して実行される。
どのようにして、ピクセルのカラー値が、異なる大域的状態の下で前記背景の一部としてモデル化される場合でさえも、処理200が、前記ピクセルを前景として首尾よく分類することが可能であるのかを示す。例えば、もし赤いシャツを着た人が前記トレーニング手順の間に前記シーンの背景を通りかかるならば、赤い色は、この人のシャツによりぶつかられた全てのピクセルにおいて前記混合ガウシアンモードの1つにより捕えられることになる。後でテストの間に、もしこの人が前記シーンの背景を再び歩くならば(もちろん、大体同じ経路をたどる)、彼又は彼女は、前景として検出されないであろう。しかしながら、もしこの人が前記シーンの大域的状態を効果的に変化しながら前記カメラの近くに来るならば、彼又は彼女の赤いシャツは、赤が前記背景に関連付けられた画像領域でさえも正しく分割されるであろう。
追加の例として、前記背景の一部が(i)前記シーンにおいて暗い照明の下で黒く見え、(ii)前記シーンが適切に照らされるときに暗い緑に見える場合を考慮する。ピクセル間の全体的な依存性を利用する本発明のモデルは、前記シーンが照らされる場合の前記背景の黒いオブジェクト及び前記シーンが暗い場合の緑の前景オブジェクトを検出することができるであろう。従来のモデルにおいては、黒及び緑の両方は、背景色として見なされ、これによりこれらのオブジェクトは、完全に見逃されているであろう。
トレーニング手順
期待値最大化(EM)アルゴリズムを使用する、画像サンプル(例えばビデオセグメント)の所定のセットを有する前記提案されたモデルのオフライントレーニングは、容易である。例えば、個別のピクセルモデルP(It x,y*,Ω)のパラメータは、観測されたトレーニングデータの平均値の周辺でランダムに初期化されることができるが、個別の状態の確率は、一様に初期化されることができる。この場合、EMサイクルを使用して、前記モデルの全てのパラメータは、典型的には良い解である局所極大解に更新されることになる。前記EMアルゴリズムは、よく知られたアルゴリズムであり、例えば、参照によりここに組み込まれるA.
Dempster, N. Laird, and D. Rubin, “Maximum Likelihood From Incomplete Data via the EM Algorithm”, J. Roy. Statist. Soc. B 39:1-38 (1977)において記述される。
図3に記述された模範的トレーニング手順は、前記モデルを付加的にトレーニングし、自動的に大域的状態の適切な数を決定する。前記モデルの付加的トレーニングは、モデル化されたシーンの様々な画像変化全てを含むトレーニングサンプルの完全なセットを捕えるために、前記処理が長い時間期間にわたり連続的に実行することを可能にする。大域的状態の数の自動的な決定は、前記モデルのサイズを最小化し、これは、前記処理のメモリ所要量を減少し、前記背景・前景分割手順を加速する。
模範的トレーニング処理は、図3に示される。この模範的トレーニング処理は、無制限の数のトレーニングサンプルが前記モデルに移動されることができる付加的手順を有する。新しいサンプル画像が前記モデルに移動される(即ち、新しい画像Itがステップ305において前記モデルに移動される)たびに、処理300は、第一に最も尤度の高い大域的状態ξ*(ステップ310)及び前記画像の各ピクセルの最も尤度の高い混合ガウシアンモードax,y(ステップ315)を決定する予期ステップ(前記EMアルゴリズムからのEステップ)を実行する。これらのステップは分割手順処理200におけるステップと同様であることに注意する。
ステップ320において、選択された状態に対する同じ画像の尤度確率が決定される。この場合、前記選択された大域的状態に対する前記サンプル画像の前記尤度確率の値に依存して(ステップ325)、処理300は、前記選択された状態のパラメータの調整(ステップ335)、又は新しいパラメータの追加(ステップ330)の間で選択する。もし前記選択された状態に対する前記サンプル画像の前記尤度確率が、大域的閾値より大きければ(ステップ325=YES)、前記選択された状態のパラメータが調整される(ステップ335)。もし前記選択された状態に対する前記サンプル画像の前記尤度確率が大域的閾値以下であれば(ステップ325=NO)、新しい状態が追加される(ステップ330)。
ステップ340において、各ピクセル位置に対する選択された混合ガウシアンモードの個別の尤度確率が決定される。この場合、各ピクセル位置に対する前記選択された混合ガウシアンモードの前記個別の尤度確率に依存して、前記アルゴリズムは、前記選択されたモードの調整又は新しいモードの追加の間で選択する。これを行うためにステップ345においてピクセルが選択される。もしこのピクセル位置に対する選択された混合ガウシアンモードの個別の尤度確率が、ピクセル閾値より大きければ(ステップ350=YES)、前記選択されたモードが調整され(ステップ360)、そうでなければ(ステップ350=NO)、新しいモードが追加される(ステップ355)。もし更に多くのピクセルが存在すれば(ステップ365=YES)、方法300はステップ345に続き、そうでなければ(ステップ365=NO)、前記方法はステップ370に続く。もし更に多くの処理すべきサンプル画像が存在すれば(ステップ370=YES)、方法300はステップ305に続き、そうでなければ(ステップ370=NO)、前記方法は終了する。
模範的トレーニング方法300において2つの閾値が使用され、即ち一方は各ピクセル位置における決定に対する閾値であり、他方は前記画像の大域的状態についての決定に対する閾値であることに注意する。
ピクセル位置毎の各混合ガウシアンモードは、好ましくはパラメータを計算するのに使用されるサンプルの総数の経過を追い、これにより新しいサンプルが追加される場合に前記パラメータの再推定が付加的に実行される。例えば、前記混合ガウシアンモードの平均及び共分散は、以下の式を使用して単純に更新される。
Figure 2005531844
ここでKa,x,yはこの混合ガウシアンモードをトレーニングするために既に使用されたサンプル数である。
同様に、各大域的状態は、トレーニングに使用されたサンプルの総数の経過を追い、これによりサンプルが追加された場合に確率表G(ξ,ax,y)は、前記新しいサンプルの追加を考慮して混合ガウシアンモード及び個別の状態の使用統計(usage statistics)を使用して更新される。
有益に、全体的なモデルは、各ピクセル位置に対する1つの混合ガウシアンモード及び1つの状態のみを用いて初期化される。また、大域的状態及び/又は混合ガウシアンモードが予期ステップ(ステップ315及び320)において使用される前に、最小の10個のサンプルが必要とされるべきである。
背景モデルの拡張
以前に示されたように、背景・前景分割処理300は、トレーニング段階の間に確率表170−11乃至170−HW(まとめてここでは“確率表170”)を定め、リファインする。初めに、確率表170は、入力画像155の各ピクセルに対する確率表を有する。図4と併せて後で説明されるように、背景モデルオブジェクト分類処理400は、典型的には静止しているオブジェクトの指標を含むように前記背景モデルの確率表170を修正する。このように、もしオブジェクトが移動し、且つ典型的には静止しているオブジェクトとして以前に識別されていたならば、前記オブジェクトは、背景・前景分割の間に不必要に前記前景の一部にはならないであろう。
背景モデルオブジェクト分類処理400の模範的実施において、移動するオブジェクトは、2つのセットの1つに分類される。第1セットは、人間及び動物のような典型的には独立して移動するオブジェクトを含み、第2セットは、家具のような典型的には静止しているオブジェクトを含む。一般に、一度オブジェクトが前記第2オブジェクトに割り当てられると、前記オブジェクトは、たとえ移動されたとしても前記背景のままである(通常は、前記オブジェクトの移動は、前記オブジェクトを前記前景の一部にする)。このように、背景オブジェクトは、移動された場合に、不必要に前記前景の一部にはならない。
図4は、本発明のフィーチャを組み込む模範的な背景モデルオブジェクト分類処理400を記述するフローチャートである。図4に示されるように、背景モデルオブジェクト分類処理400は、最初は、ブロブ(blob)と称される剛体オブジェクトを形成する既知の接続された構成要素解析技術(connected
component analysis techniques)を使用してステップ405の間に各画像の前景におけるピクセルをグループ化する。
この場合、背景オブジェクトが指定された閾値T以上に移動したことが決定されるまで、ステップ410の間にテストが実行される。背景オブジェクトの移動は、例えば周知のオプティカルフロー法を使用して検出されることができる。一般に、前記背景は、2つの連続的な画像において抑制され、前記前景は、運動と、所定のオブジェクトがどれだけ移動したかと、前記運動の速度とを検出するために減算される。アスペクト比情報及び複数フレーム処理技術は、参照によりここに組み込まれる米国特許出願シリアル番号09/794,443、2001年2月27日出願、題“Classification
of Objects Through Model Ensembles”において記述されたように、採用されることができる。
一度、前記背景オブジェクトの運動がステップ410の間に検出されると、移動した前記背景オブジェクトが典型的には静止しているかを決定するために、更に他のテストがステップ420の間に実行される。例えば、上で参照された米国特許出願シリアル番号09/794,443、2001年2月27日出願、題“Classification
of Objects Through Model Ensembles”において記述された技術は、例えば、家具の一部のような無生物オブジェクトとしてオブジェクトを分類するために使用されることができ、ルールのセットは、特定の分類されたオブジェクトが典型的には静止しているかどうかを示すために確立されることができる。
もし移動した前記背景オブジェクトが典型的には静止していることが、ステップ420の間に決定されるならば、前記移動したオブジェクトが典型的には静止していることを示す前記オブジェクトに関連したピクセルに対してステップ430の間にフラグが立てられる。
しかしながら、もし移動した前記背景オブジェクトが典型的には静止していないことがステップ420の間に決定されるならば、前記移動したオブジェクトが典型的には独立に移動することを示す前記オブジェクトに関連したピクセルに対してステップ440の間にフラグが立てられる。プログラム制御は、この場合、前記背景オブジェクトの運動がステップ410の間に再び検出されるまでステップ460の間に完了する。
追加の実施例
和の必要性を除去するために最高の確率を持つガウシアンモードを用いて混合ガウシアンの確率を近似することは一般的な方法であり、これは、式の更に他の単純化を防止する。
この近似を両方のレベルで使用し、(a)各ピクセルに対する混合の和は、以下のようになり、
Figure 2005531844
(b)様々な大域的状態の和は以下のようになる。
Figure 2005531844
式{4}は以下のように単純化する。
Figure 2005531844
2重最大化に注目する。第1最大化はピクセルレベルにおいて、前記大域的状態のそれぞれの前(prior)を考慮して、最も良く合うガウシアンモードを決定するために使用される。第2最大化は画像レベルにおいて、観測の最大尤度確率を持つ状態を決定するために使用される。
このアルゴリズムのファミリの実施を加速する他の通常の方法は、実際の確率ではなく前記確率の対数の計算である。この場合、ガウス分布の指数関数の評価の必要が無く、式{7}の積は、対数の減少された範囲のために固定小数点演算を使用して実行されることができる和になる。
ここに記述されたモデルは修正されることができ、これによりもし確率が閾値より上であれば1つの機能を実行するようにこれまで書かれたテストステップは、修正されたルールの下で書き直されることができ、これにより同じテストステップは、もし確率が閾値以下であるか又は特定の値の範囲内であれば同じ機能を実行するであろうことに注意すべきである。前記テストステップは、単に説明されている特定の例のモデルに対する模範的例である。異なるモデルは、異なるテストステップを要する可能性がある。
ここに示され記述された実施例及び変更例は、単に本発明の原理を説明し、様々な修正例が本発明の範囲及び精神から外れることなく当業者により実施されうると理解されるべきである。
本発明の好適実施例による背景・前景分割を実行する模範的システムのブロック図である。 本発明の好適実施例による背景・前景分割を実行するシステムに対する入力画像を分類する方法のフローチャートである。 本発明の好適実施例による背景・前景分割を実行するシステムをトレーニングする方法のフローチャートである。 本発明の好適実施例による背景・前景分割を実行するシステムをトレーニングする方法のフローチャートである。 図1の背景モデルオブジェクト分類処理の模範的実施を説明するフローチャートである。

Claims (21)

  1. 複数のピクセルを有するシーンの画像を取り出すステップと、
    前記シーンの背景モデルを得るステップと、
    前記背景モデルにおいて前記背景モデル内のオブジェクトが典型的には静止していることを示す指標を与えるステップと、
    を有する方法。
  2. 移動されたオブジェクトに関連するピクセル情報を前記オブジェクトの新しい位置に転送するステップを更に有する、請求項1に記載の方法。
  3. 前記オブジェクトを背景として維持するステップを更に有する、請求項1に記載の方法。
  4. たとえ前記オブジェクトが移動されたとしても、前記オブジェクトを背景として維持するステップを更に有する、請求項1に記載の方法。
  5. 前記背景モデル内の前記オブジェクトの運動が、オプティカルフロー方法を使用して検出される、請求項4に記載の方法。
  6. 前記オプティカルフロー方法が、移動された前記オブジェクトの前記画像内の新しい位置を示す、請求項5に記載の方法。
  7. 前記背景モデル内のオブジェクトが典型的には静止していることを示す指標が、前記オブジェクトが指定された閾値より大きく移動された場合に与えられる、請求項1に記載の方法。
  8. 前記シーンの背景モデルを得るステップが更に、前記画像のピクセルに対応する少なくとも1つの確率分布を決定するステップであって、前記画像内の少なくとも幾つかのピクセルが他のピクセルに依存するようにモデル化されたモデルを使用することにより実行される当該決定するステップを有する、請求項1に記載の方法。
  9. 前記背景モデルが、前記シーンの大域的状態の確率を表す項と、前記シーンの前記大域的状態に対して調整されたピクセル外観の確率を表す項とを有する、請求項1に記載の方法。
  10. 前記モデルにトレーニング画像を供給するステップと、
    前記モデルのパラメータを決定するステップと、
    所定数のトレーニング画像に対して前記トレーニング画像を供給するステップ及び前記パラメータを決定するステップを実行するステップと、
    を有する、請求項1に記載の方法。
  11. コンピュータ読取可能コードを記憶するメモリと、
    前記メモリに動作的に結合されたプロセッサであって、
    複数のピクセルを有するシーンの画像を取り出し、
    前記シーンの背景モデルを得、
    前記背景モデルにおいて前記背景モデル内のオブジェクトが典型的には静止していることを示す指標を与える
    ように構成された前記コンピュータ読取可能コードを実行するように構成された当該プロセッサと、
    を有するシステム。
  12. 前記プロセッサが更に、移動されたオブジェクトに関連するピクセル情報を前記オブジェクトの新しい位置に転送するように構成される、請求項11に記載のシステム。
  13. 前記プロセッサが更に、前記オブジェクトを背景として維持するように構成される、請求項11に記載のシステム。
  14. 前記プロセッサが更に、たとえ前記オブジェクトが移動されたとしても前記オブジェクトを背景として維持するように構成される、請求項11に記載のシステム。
  15. 前記背景モデルにおける前記オブジェクトの運動が、オプティカルフローシステムを使用して検出される、請求項14に記載のシステム。
  16. 前記オプティカルフローシステムが、移動された前記オブジェクトの前記画像における新しい位置を示す、請求項15に記載のシステム。
  17. 前記背景モデル内のオブジェクトが典型的には静止していることを示す指標が、前記オブジェクトが指定された閾値より大きく移動された場合に与えられる、請求項11に記載のシステム。
  18. コンピュータ読取可能コード手段を持つコンピュータ読取可能媒体であって、前記コンピュータ読取可能コード手段が、
    複数のピクセルを有するシーンの画像を取り出すステップと、
    前記シーンの背景モデルを得るステップと、
    前記背景モデルにおいて前記背景モデル内のオブジェクトが典型的には静止していることを示す指標を与えるステップと、
    を有する、当該コンピュータ読取可能媒体、
    を有する製造品。
  19. 複数のピクセルを有するシーンの画像を取り出すステップと、
    前記シーンの背景モデルを得るステップと、
    前記背景モデル内のオブジェクトが無生物オブジェクトであることを前記背景モデル内に示す指標を与えるステップと、
    を有する方法。
  20. 前記無生物オブジェクトを背景として維持するステップを更に有する、請求項19に記載の方法。
  21. たとえ前記無生物オブジェクトが移動されたとしても、前記無生物オブジェクトを背景として維持するステップを更に有する、請求項19に記載の方法。
JP2004517111A 2002-06-28 2003-06-18 改良された背景・前景分割のためのオブジェクト分類を採用する拡張背景モデル Withdrawn JP2005531844A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/184,517 US7190809B2 (en) 2002-06-28 2002-06-28 Enhanced background model employing object classification for improved background-foreground segmentation
PCT/IB2003/002759 WO2004003847A2 (en) 2002-06-28 2003-06-18 Background-foreground segmentation based on object classification

Publications (1)

Publication Number Publication Date
JP2005531844A true JP2005531844A (ja) 2005-10-20

Family

ID=29779383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004517111A Withdrawn JP2005531844A (ja) 2002-06-28 2003-06-18 改良された背景・前景分割のためのオブジェクト分類を採用する拡張背景モデル

Country Status (7)

Country Link
US (1) US7190809B2 (ja)
EP (1) EP1520257A2 (ja)
JP (1) JP2005531844A (ja)
KR (1) KR20050013236A (ja)
CN (1) CN1777912A (ja)
AU (1) AU2003237023A1 (ja)
WO (1) WO2004003847A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008547097A (ja) * 2005-06-17 2008-12-25 マイクロソフト コーポレーション イメージセグメンテーション
JP2014041488A (ja) * 2012-08-22 2014-03-06 Canon Inc 物体検知装置及びその制御方法、プログラム、並びに記憶媒体

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040096102A1 (en) * 2002-11-18 2004-05-20 Xerox Corporation Methodology for scanned color document segmentation
US7956889B2 (en) * 2003-06-04 2011-06-07 Model Software Corporation Video surveillance system
US7280673B2 (en) * 2003-10-10 2007-10-09 Intellivid Corporation System and method for searching for changes in surveillance video
US7664292B2 (en) * 2003-12-03 2010-02-16 Safehouse International, Inc. Monitoring an output from a camera
US7486815B2 (en) * 2004-02-20 2009-02-03 Microsoft Corporation Method and apparatus for scene learning and three-dimensional tracking using stereo video cameras
US7359552B2 (en) * 2004-12-15 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Foreground detection using intrinsic images
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US8150155B2 (en) 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US7974456B2 (en) * 2006-09-05 2011-07-05 Drvision Technologies Llc Spatial-temporal regulation method for robust model estimation
US9141557B2 (en) 2006-12-08 2015-09-22 Ashish A. Pandya Dynamic random access memory (DRAM) that comprises a programmable intelligent search memory (PRISM) and a cryptography processing engine
US8300890B1 (en) * 2007-01-29 2012-10-30 Intellivision Technologies Corporation Person/object image and screening
WO2009006605A2 (en) 2007-07-03 2009-01-08 Pivotal Vision, Llc Motion-validating remote monitoring system
CN101389004B (zh) * 2007-09-13 2010-06-09 中国科学院自动化研究所 一种基于在线学习的运动目标分类方法
US8233676B2 (en) 2008-03-07 2012-07-31 The Chinese University Of Hong Kong Real-time body segmentation system
KR20100065677A (ko) * 2008-12-08 2010-06-17 한국전자통신연구원 고해상도 영상에서의 효과적인 움직이는 다중 물체 검출 방법 및 시스템
CN102576412B (zh) * 2009-01-13 2014-11-05 华为技术有限公司 图像处理以为图像中的对象进行分类的方法和系统
US20130121565A1 (en) * 2009-05-28 2013-05-16 Jue Wang Method and Apparatus for Local Region Selection
CN101751669B (zh) * 2009-12-17 2014-03-26 北京中星微电子有限公司 一种静止物体检测方法和装置
US8625897B2 (en) 2010-05-28 2014-01-07 Microsoft Corporation Foreground and background image segmentation
KR20120052767A (ko) * 2010-11-16 2012-05-24 한국전자통신연구원 영상 분리 장치 및 방법
US20130027550A1 (en) * 2011-07-29 2013-01-31 Technische Universitat Berlin Method and device for video surveillance
US20130027549A1 (en) * 2011-07-29 2013-01-31 Technische Universitat Berlin Method and device for video surveillance
US10678259B1 (en) * 2012-09-13 2020-06-09 Waymo Llc Use of a reference image to detect a road obstacle
US20140133753A1 (en) * 2012-11-09 2014-05-15 Ge Aviation Systems Llc Spectral scene simplification through background subtraction
CN103198470B (zh) * 2013-02-26 2017-02-15 清华大学 图像的分割方法及系统
DE102014225797A1 (de) 2014-12-15 2016-06-16 Bayerische Motoren Werke Aktiengesellschaft Vordergrund-Hintergrund Differenzierung im Fahrzeug
AU2014280948A1 (en) 2014-12-24 2016-07-14 Canon Kabushiki Kaisha Video segmentation method
WO2016157457A1 (ja) * 2015-03-31 2016-10-06 国立大学法人東北大学 画像処理装置、画像処理方法、及び、画像処理プログラム
TWI557691B (zh) * 2015-09-23 2016-11-11 睿緻科技股份有限公司 監視攝影裝置及其使用的區域式移動偵測方法
EP3255585B1 (en) * 2016-06-08 2018-05-09 Axis AB Method and apparatus for updating a background model
WO2018002221A1 (en) * 2016-06-29 2018-01-04 Koninklijke Philips N.V. Change detection in medical images
KR102579994B1 (ko) * 2016-10-24 2023-09-18 삼성에스디에스 주식회사 다중 배경 모델을 이용한 전경 생성 방법 및 그 장치
CN108460770B (zh) * 2016-12-13 2020-03-10 华为技术有限公司 抠图方法及装置
US10373316B2 (en) * 2017-04-20 2019-08-06 Ford Global Technologies, Llc Images background subtraction for dynamic lighting scenarios
KR20190004010A (ko) * 2017-07-03 2019-01-11 삼성에스디에스 주식회사 전경 추출 방법 및 장치
US10475191B2 (en) 2018-01-17 2019-11-12 Sensormatic Electronics, LLC System and method for identification and suppression of time varying background objects
CN109377509B (zh) * 2018-09-26 2021-03-26 达闼机器人有限公司 图像语义分割标注的方法、装置、存储介质和设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07117377B2 (ja) 1988-11-04 1995-12-18 松下電器産業株式会社 位置認識方法
EP0488458B1 (fr) * 1990-11-30 1997-10-08 Laboratoires D'electronique Philips S.A.S. Procédé de réalisation d'un filtre de mouvement pour cibles lentes
US5471544A (en) * 1992-05-18 1995-11-28 Markandey; Vishal Condition number-based smoothins of optical flow fields
KR100292138B1 (ko) 1993-07-12 2002-06-20 이데이 노부유끼 디지탈비디오신호용송신기및수신기
JP3123587B2 (ja) 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
US5666157A (en) * 1995-01-03 1997-09-09 Arc Incorporated Abnormality detection and surveillance system
US6049619A (en) 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
GB9719694D0 (en) 1997-09-16 1997-11-19 Canon Kk Image processing apparatus
US6184858B1 (en) 1998-02-06 2001-02-06 Compaq Computer Corporation Technique for updating a background image
US6542621B1 (en) * 1998-08-31 2003-04-01 Texas Instruments Incorporated Method of dealing with occlusion when tracking multiple objects and people in video sequences
US6570608B1 (en) * 1998-09-30 2003-05-27 Texas Instruments Incorporated System and method for detecting interactions of people and vehicles
US6424370B1 (en) * 1999-10-08 2002-07-23 Texas Instruments Incorporated Motion based event detection system and method
US20030058237A1 (en) * 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Multi-layered background models for improved background-foreground segmentation
US20030156759A1 (en) * 2002-02-19 2003-08-21 Koninklijke Philips Electronics N.V. Background-foreground segmentation using probability models that can provide pixel dependency and incremental training

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008547097A (ja) * 2005-06-17 2008-12-25 マイクロソフト コーポレーション イメージセグメンテーション
JP4898800B2 (ja) * 2005-06-17 2012-03-21 マイクロソフト コーポレーション イメージセグメンテーション
JP2014041488A (ja) * 2012-08-22 2014-03-06 Canon Inc 物体検知装置及びその制御方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
KR20050013236A (ko) 2005-02-03
CN1777912A (zh) 2006-05-24
US7190809B2 (en) 2007-03-13
US20040001612A1 (en) 2004-01-01
AU2003237023A1 (en) 2004-01-19
WO2004003847A3 (en) 2004-04-22
EP1520257A2 (en) 2005-04-06
WO2004003847A2 (en) 2004-01-08
AU2003237023A8 (en) 2004-01-19

Similar Documents

Publication Publication Date Title
JP2005531844A (ja) 改良された背景・前景分割のためのオブジェクト分類を採用する拡張背景モデル
US20030058237A1 (en) Multi-layered background models for improved background-foreground segmentation
Xu et al. Deep image matting
Berjón et al. Real-time nonparametric background subtraction with tracking-based foreground update
JP5036580B2 (ja) ブースト分類器を新たなサンプルに対して適応させる方法
JP4629364B2 (ja) シーンの背景を表現する背景画像を適応的に更新する方法
Wang et al. A dynamic conditional random field model for foreground and shadow segmentation
US7373359B2 (en) Methods and apparatus for extraction and tracking of objects from multi-dimensional sequence data
US8270732B2 (en) Clustering nodes in a self-organizing map using an adaptive resonance theory network
US20130022242A1 (en) Identifying anomalous object types during classification
Hu et al. Robust background subtraction with shadow and highlight removal for indoor surveillance
WO2003036557A1 (en) Method and apparatus for background segmentation based on motion localization
JP2006514363A (ja) 変化検出および分類を用いた映像シーン背景の維持
JP2006209755A (ja) シーンから取得されたフレームシーケンス中の移動オブジェクトを追跡する方法
JP2011054183A (ja) 画像処理方法及び装置
Vosters et al. Background subtraction under sudden illumination changes
Zhao et al. Deep fully convolutional regression networks for single image haze removal
JP2005509983A (ja) 確率的フレームワークを用いるブロブベースの分析のためのコンピュータビジョン方法およびシステム
JP2004046827A (ja) 動的システムにおける適応混合学習
Sun et al. Learning adaptive patch generators for mask-robust image inpainting
JP2005242759A (ja) 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US20030156759A1 (en) Background-foreground segmentation using probability models that can provide pixel dependency and incremental training
Liu et al. Scene background estimation based on temporal median filter with Gaussian filtering
CN111932683B (zh) 一种语义驱动的混合现实场景下的虚拟宠物行为生成方法
Zhang et al. Nonparametric on-line background generation for surveillance video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060616

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070712