JP2004348732A - シーンの背景を表現する背景画像を適応的に更新する方法 - Google Patents

シーンの背景を表現する背景画像を適応的に更新する方法 Download PDF

Info

Publication number
JP2004348732A
JP2004348732A JP2004148135A JP2004148135A JP2004348732A JP 2004348732 A JP2004348732 A JP 2004348732A JP 2004148135 A JP2004148135 A JP 2004148135A JP 2004148135 A JP2004148135 A JP 2004148135A JP 2004348732 A JP2004348732 A JP 2004348732A
Authority
JP
Japan
Prior art keywords
image
similarity score
background
background image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004148135A
Other languages
English (en)
Other versions
JP2004348732A5 (ja
JP4629364B2 (ja
Inventor
Faith M Porikli
ファティー・エム・ポリクリ
Oncel Tuzel
オンセル・チュゼル
Dirk Brinkman
ダーク・ブリンクマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2004348732A publication Critical patent/JP2004348732A/ja
Publication of JP2004348732A5 publication Critical patent/JP2004348732A5/ja
Application granted granted Critical
Publication of JP4629364B2 publication Critical patent/JP4629364B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】一般に、従来技術の背景画像更新には三つの主要な問題が存在する。第一に、全ての入力画像によって背景更新が生ずる。こらは時間を浪費する。第二に、各画像内の全ての画素が更新中に考慮される。これはよりいっそう時間を浪費する。第三に、背景画像を更新する仕方が固定されている。これは最適とはいえない。三つの全ての問題に対処する。
【解決手段】方法は、背景画像を入力画像と比較して、各入力画像に対する、類似スコアλを求めるようにする。次に、特定の画像に対する類似スコアが所定のしきい値未満である場合に限って、背景画像を更新する。カラーが変化しない任意の画素は静止背景の一部であり、実際に変化する任意の画素は移動オブジェクトの一部であると推定される。類似スコアは、入力画像が得点をつけられる時および背景画像が更新される仕方を制御する。
【選択図】図1

Description

本発明は、一般的には画像処理方法に関し、より詳細にはシーン内で変化する背景を表現する背景画像を更新する方法に関する。
ビジョンシステムにおいては、ビデオ信号から移動オブジェクトを抽出することは、基本的で重要な問題である。オブジェクト抽出が必要になる典型的な用途としては監視、交通モニター、遠隔会議、マン−マシンインタフェース、およびビデオ編集がある。静止画素から移動画素を区別することが重要な画像処理の用途は他にも多数存在する。移動オブジェクトは通常「前景」オブジェクトとも呼ばれている。しかしながら、オブジェクトが「背景」に対して移動する相対的な奥行きが評価要素ではないことを理解しておく必要がある。
背景減算は、移動オブジェクト抽出のための最も一般的な技法である。このアイデアは、一つのシーンで「背景」を表現する静止画から現在画像を減算することである。この減算により移動オブジェクトのシルエットが現れるはずである。背景減算は通常、オブジェクト認識と追跡に対する前処理ステップとして実行される。従来技術のほとんどの背景減算法は、2つの画像間の画素の強度値の差を求めることに基づいている。
従来技術の方法はうまく働くが、広域および局所のカラー強度の影響を受け易い。画像の背景部分のカラーが変化すると、それに従って画素強度レベルが変化し、背景部分は前景すなわち移動オブジェクトに関連するものとして誤って分類される可能性がある。このような変化によって、後続の処理、例えば認識および追跡処理が、うまくいかなくなってしまう。それはこれらのタスクには、精度および効率が重要だからである。
従来技術において、計算上の限界が、リアルタイムビデオ処理用途の複雑さを制限してきた。したがって、従来技術のほとんどのシステムは、あまりに遅くて実用的でないか、または制御された状況に限定された。
最近、より高速のコンピュータが、ビデオをリアルタイムに解析するより複雑でロバストなシステムを使用可能にした。こうしたシステムは、変動する条件下で実世界のプロセスを明らかにすることが可能である。実用的なシステムはカメラの配置、シーンの内容、または照明効果に依存すべきではない。システムは、古いオブジェクトがシーンを去り新しいオブジェクトが入る際、背景が移動し、オブジェクトが重なる、すなわち遮られ、オブジェクトが影になったり照明変動により影響を受けたりする複雑なシーンにおいて緩慢な移動オブジェクトを追跡できなければならない。
非適応背景減算法は、静止背景画像を取得するのに手動による初期化処理が必要になり、望ましくない。初期化処理がないと、背景の誤差が所定期間にわたって蓄積して、シーンの背景に著しい変化が存在する、監督されない長期の追跡用途には、非適応法は役に立たなくなる。
適応背景減算は、所定期間にわたって画素強度を平均して、背景画像を生成するようにし、その背景画像が任意の時刻での背景の近似である。適応背景減算はオブジェクトが連続して移動し、かつ、背景がその期間のかなりの期間見えている状況で有効であるが、移動オブジェクトが多い時、特に移動オブジェクトが緩慢に移動する場合にはうまくいかない。適応法はまた、マルチモーダル、すなわち複数の交互の背景を処理することができず、背景が覆われていず、全シーンに対して単一の所定のしきい値が用いられるときにはゆっくりと回復する。
照明の変化によって多くの背景減算法がうまくいかなくなる。Ridder等は「Adaptive background estimation and foreground detection using Kalman-filtering」(ICRAM(International Conference on Recent Advances in Mechatronics),1995)ではカルマンフィルタによって各画素をモデル化した。このモデル化によって著者等のシステムは照明の変化にあまり敏感でなくなった。この方法は、確かに画素単位の自動しきい値を有しているが、やはりゆっくりと回復する。
Koller等は、「Towards robust automatic traffic scene analysis in real-time」(Proceedings of the International Conference on Pattern Recognition,1994)において、自動交通モニター用途にカルマンフィルタリングを適用した。
各画素に単一のガウスフィルタを適用することによってオブジェクトを追跡するのに、マルチクラス統計モデルを使用することもできる。静止屋内シーンについて、適切な初期化を行うと、妥当な結果を得ることができる。屋外シーンに対する結果は得られていない。
Friedman等は、「Image segmentation in video sequences: A probabilistic approach」(Proc. of the Thirteenth Conf. on Uncertainty in Artificial Intelligence, 1997)において、移動車両を検出する、画素単位期待値最大化(EM)法を述べた。著者等の方法は、画素値を道路、影、および車両を表す三つの種類に明示的に分布させる。他の分類を用いると、著者等のシステムが画素に対してどう振舞うかは不明である。
所定の分布を用いる代わりに、Stauffer等は、「Adaptive background mixture models for real-time tracking」(Proc. IEEE Conf. on Computer Vision and Pattern Recognition, Vol.2, 1999)において、各画素をガウスフィルタを混合したものとしてモデル化した。各混合物の残像(persistence)と分散に基づいて、著者等は背景分布に対応すると考えられるガウスフィルタを求めた。背景分類を裏付けるのに十分で一貫性のある証拠を有するガウスフィルタが存在しない限り、背景分布に適合しない画素は前景であると考えられる。著者等の更新には四つの問題がある。著者等の更新は画像の全ての画素を考慮する。画素は独立に処理される。著者等の更新は、一定の学習係数を用い、背景画像は、更新を実際に必要としているか否かに関わらず、すべての入力画像に対して常に更新される。これは、更新がフレームレートで行われる場合非常に時間がかかる可能性がある。
Bowden等は、「An improved adaptive background mixture model for real-time tracking with shadow detection」(Proc. 2nd European Workshop on Advanced Video Based Surveillance Systems, AVBS01, Sept 2001)において、Grimson等の方法に基づくモデルを述べた。著者等は初期化過程での更新式にガウス混合モデルを合せるのに、EMプロセスを使用した。
Horprasert等は、「A statistical approach for real-time robust background subtraction and shadow detection」(IEEE ICCV'99 FRAME-RATE WORKSHOP,1999)において、影つき背景を、通常の背景または移動前景オブジェクトから区別するために、輝度歪および色度歪を考慮する計算を使用したカラーモデルを述べた。著者等はまた、画素分類およびしきい値選択のプロセスを述べた。
一般に、従来技術の背景画像更新には三つの主要な問題が存在する。第一に、全ての入力画像によって背景更新が生ずる。これは時間を浪費する。第二に、各画像内の全ての画素が更新中に考慮される。これはよりいっそう時間を浪費する。第三に、背景画像を更新する仕方が固定されている。これは最適とは言えない。本発明はこの三つの全ての問題に対処する。
本発明は、背景画像を入力画像と比較して、各入力画像に対する、類似スコアλを求める方法を提供する。次に、特定の画像に対する類似スコアが所定のしきい値未満である場合に限って、背景画像を更新する。そのカラーが変化しない画素は静止背景画像の一部であり、実際に変化する任意の画素は移動オブジェクトの一部であると推定される。類似スコアは、入力画像が得点をつけられる時および背景画像が更新される仕方を制御する。
序論
本発明による適応背景画像更新において、背景画像を入力画像と比較して、各入力画像に対する類似スコアλが求められる。次に、背景画像を、特定の画像に対する類似スコアが所定のしきい値未満である場合に限って更新する。そのカラーが変化しない任意の画素は静止背景の一部であり、実際に変化する任意の画素は移動オブジェクトの一部と推定される。類似スコアは、入力画像が得点をつけられる時および背景画像が更新される仕方を制御する。
したがって、第一の問題は背景画像を求めることである。長期の追跡において、背景画像は、シーンの照明条件の変化に従って更新されなければならない。したがって、第二の問題は類似スコアに従ってどの程度背景画像を更新するかである。
画像の差は移動オブジェクトがシーンの中に入って、次に止まることによる場合があることに留意しなければならない。こうした場合、背景の止まったオブジェクト部分を作ることが必要である。こうした場合、止まったオブジェクトのカラー値が隠れている、背景であったもののカラー値と単純に置き換わる可能性がある。光の方向および強度、例えば太陽の移動または太陽がないことによる多くのカラーの微妙な変化に対して、ある種の混合がよく用いられる。第三および第四の問題は、得点づけおよび考えられる更新のレート、ならびに、更新すべき必要画素の最小数を求めることである。
適応更新法
図1は、本発明に従って、シーンの背景を表現する背景画像B108を適応的に更新する方法を示す。方法に対する入力はシーンより得られた画像I101すなわちビデオ信号である。図2Aを参照。
背景生成ユニットは、以下により詳細に説明するように、背景画像108を初期化する(110)。図2Bを参照。本発明による背景画像108は、従来技術の背景画像とは下記の点で異なる。従来技術において用いられる場合、背景画像は、通常、背景シーンの一回限りの静止画である。これに対して、本発明に従って適応的に更新された背景画像は、期間中を通して、カラー変化を受ける背景部分のみが、必要な時にのみ、所定期間にわたって更新される(170)。背景画像108は、本明細書に記載するコンピュータにより実施される方法が背景画像を処理する間にコンピュータシステムのメモリ105内に保存されることができる。
背景画像の初期化
初期背景画像108は、ビデオ101の最初のフレームまたは最初の2、3フレームで構成されることができる。例えば、背景画像は最初の画像または最初の2、3枚の画像の平均である。あるいは、背景画像は空白またはランダム画像として初期化される。この場合、本明細書に示す更新によって、最初の入力画像が処理される時に初期背景画像が、自動的に置き換わるであろう。
基準モデル
好ましい実施形態では、背景画像108はメモリ105内に同様に保存される中間基準モデル(RM)109により導出される。本基準モデルは、本発明の基本操作には必要でないことを理解すべきである。
基準モデル109は、マルチモデル背景に対応する、画素単位で確率分布関数を混合したものの形態である。本発明者等は、ガウス分布の混合物によって各画素を表現することにより、カラーチャネルの履歴をモデル化する。
現在入力画像I101の画素のカラー値をI(p)で示す。フレ−ムtにおける単一チャネルで現在画素のカラー値を観察する確率は、
Figure 2004348732
であり、ここで、Nは分布の数であり、ω(t)は混合物のn番目のガウス分布の重みであり、μ(t)およびσ (t)はそれぞれフレームtにおける混合物のn番目のガウス分布の平均値および分散であり、gはガウス確率密度関数
Figure 2004348732
である。
上式において、カラーチャネルは互いに独立であると仮定している。共分散行列を用いることも考えられる。しかしながら、本行列によって、計算上の複雑さが大幅に増加して、最小の改善がもたらされるだけである。
オブジェクト追跡器
オブジェクト追跡器120は、各入力画像I101を背景画像B108と比較する。オブジェクト追跡器の目的は、移動オブジェクトに関連する画素を特定することである。計算負荷を減らすために、これらの画素は更新170の間には考慮してはならない。オブジェクト追跡器はバイナリマスクM202を生成する。図2Cを参照。本オブジェクト追跡器120は、移動オブジェクトに関連する画素を追跡するために、前と現在の画像に対して既知の平均値シフト操作を使用することができる。オブジェクト追跡器の目的は、更新のために、移動オブジェクトの一部である画素を考慮しないことである。
現在入力画像101の画素と背景画像108の対応する画素との間の距離d(p)は、
Figure 2004348732
で定義される。ここで、w (t,p)は画素pに対応する最良分布の重みを表す。この距離が、ある距離しきい値より大きい場合、画素は、可能性のある前景画素として、バイナリ1でマーキングされ、そうでない場合は0としてマーキングされる。マスク202を求めるのに、現在ではなく前の画像を用いることは有利である場合があることに留意しなければならない。さらに、オブジェクト追跡器は本発明の基本操作には必要とされないことを理解しなければならない。例えば、シーンに移動オブジェクトが存在するかどうかを判断するのに、他の検知手段を用いることもできる。
サンプリング
サンプラ130も入力画像101と背景画像108からの入力を取得する。サンプラ130は、比較すべき画素の所定数(S)を選択する。選択される画素は現在画像の移動オブジェクトに対応しない。選択はランダムであることができる。あるいは、サンプリングは画素の所定数Sに達するまで一様であることができる。移動オブジェクトに対応する画素はサンプリングプロセス130にて無視される。したがって、前景または移動オブジェクトの画素は更新170には影響しない。サンプリングプロセスによって得られた画素集合をQで示す。
サンプリング周波数C1s,C2sでの一様選択によって、
Figure 2004348732
である集合Qが生成され、ここで、B(x,y,c,t)は背景画像108であり、I(x,y,c,t)は現在画像101であり、M(x,y,t)は、画素(x,y,t)がオブジェクトに対応する場合Mが1となるような、オブジェクト追跡器120から得られるオブジェクトマスク202であり、cはカラーチャネルであり、tはフレーム番号であり、集合Qにて選択された画素数はs=1,・・・,Sである。出力サンプリング(130)すなわち集合Qは類似スコアλを求める(140)のに使用される。サンプラ130は類似スコアを求める(140)ための計算負荷を軽減する。サンプラ130は本発明の基本操作には必要ないことに留意しなければならない。
類似スコアを求める
類似スコアλは、入力画像が得点をつけられる時および背景画像108が更新される仕方を制御する。既に述べたように、更新は類似スコアが所定のしきい値未満である場合に限って起こる。さらに、分散が既に非常に小さい基準モデルの画素を更新する必要は存在しない。従来技術と同様に、所定または固定のレートで背景画像および基準モデルを更新する代わりに、本発明等は画像類似スコアλを求め、それに従って得点づけ(140)および更新(170)を制御する。
この目的のために、本発明者等は、移動オブジェクトに対応しない選択された画素集合Qに対して類似スコアλ(t)を求める。これらの画素は上述したサンプラ130によって選択された。類似スコアは画素のカラー属性から計算される。
得点づけプロセスを理解するために、生物によって認識されるカラー属性について短く述べる。いくつかのカラーモデルが知られている。人間指向モデルは、色相と色差と強度を用いる。色相は色の支配的波長であり、色差または彩度は例えば白のような中性色からの色の逸脱の程度であり、強度は色の放射エネルギーに関連する。
赤−緑−青(RGB)は三つの基本カラーの強度を加算混色したものである。YIQモデルはRGBモデルの変形である。これらの二つのモデルは通常、表示装置において使用される。シアン−マゼンタ−黄色−黒(CMY(K))モデルは印刷で多く使用されている減法混色モデルである。
YUVモデルでは、Yは強度を表し、UVは色相および彩度を表す。ここでUVは更に色差とも呼ばれる。HISモデルは、YUVモデルを極座標化したもので、色相Hは角度、彩度Sは半径方向成分を表し、強度はUV面に対して直交する。他のカラーモデル、HIS、HSV、CIE、LAB、およびXYZモデル等も使用することができる。本発明による得点づけはこれらカラー属性またはカラー属性の組合せのいずれをも考慮することができる。
例えば、RGBモデルに対して図3に示すように、求めること(140)は集合Qの選択された画素のカラー値(R,G,B)を評価し、類似スコアを比
Figure 2004348732
として表現する。ここでθ301は、画素sの入力カラーベクトルI(.)302と背景カラーベクトルB(.)303の間の角度である。
あるいは、カラーベクトルをYUVカラー領域に変換して、Yチャネル対UおよびVチャネルの類似度を、
Figure 2004348732
として評価することもできる。
他の方法として、
Figure 2004348732
によって選択された画素に対する類似スコアが求められる。
図4に示す機械学習を用いて、
Figure 2004348732
に従ってニューラルネットワークに学習させ、カラー変化パラメータを求めることもできる。
類似度学習データ401、相違点学習データ402、オブジェクト移動学習データ403、およびカラーモデル420により、ニューラルネットワーク410は学習し、推定カラーモデルパラメータα431が得られ(430)、選択された画素450と比較して、類似スコアλが求められる(440)。
更新制御器
更新制御器の目的は、更新モジュール170にパラメータ160すなわち、学習係数または混合重みα、集合Q、および更新モードMを提供することである。更新制御器はまた、入力画像が得点づけされるべき時を求めて、考えられる更新をもたらす。シーンの照度が急に変わる場合、得点づけレートはフレームレートに近くなければならない。逆に、シーンが比較的安定であれば得点づけは頻繁には起こらない可能性がある。
類似スコアλを解釈する一つの方法は下記の通りである。正規化スコアが[0,1]の範囲にある場合、スコア1は入力画像と背景画像は同一であることを意味し、スコア0は画像は全く異なることを意味する。しきい値は所望の感度に合うように[0,1]の範囲内の任意値に設定されることができる。
本発明者等は、三つのレート、すなわち、画像を取得するフレームレートr、入力画像の類似度を求める時を決める得点づけレートr、背景画像を実際に更新する頻度を反映する更新レートrを考える。本発明によれば、これらのレート間の関係は、r≦r≦rで表され、一方、従来技術では、この関係は、r=r/kとするのが普通である。フレームレートが比較的高く、背景が安定であり、k=1である場合、本発明ではrが0に近づくため、従来技術の方法に比べて大幅な時間の節約が可能である。
図5Aは更新制御器150のプロセスを示す。最初に、既に述べたように類似スコアλを求める(140)。得点づけには、オブジェクト追跡ステップ120とサンプリングステップ130が含まれるものと想定する。実際には、得点づけレートは、
Figure 2004348732
となるような時間間隔Δtとして表される。ここで、mは初期化後の更新総数であり、τ<τであり、Δtmaxは次回に画像が得点づけされる前に処理される最大画像数である。しきい値τは経験的に決めることができる。しきい値は更新プロセスの感度を制御する。このパラメータは画像中のノイズ量によって決まる可能性がある。
ステップ502にて、時刻tで類似スコアλ(t)の値が所定のしきい値τ未満である場合、学習または混合パラメータαは、
Figure 2004348732
として調整される。ここでsは集合Q内の画素数である。
学習係数または混合重みαは更新の仕方、すなわち、現在画像101のカラー値によって、基準モデルの画素のカラー値のどれだけが影響を受けるかを制御するパラメータとして役立つ。基準モデルと現在フレームの間のカラー類似スコアが比較的高い場合、学習係数には小さな値が割り当てられる。したがって、基準モデルは現在画像による影響をあまり受けない。学習係数が例えばα=1のように高くなると、オブジェクトが移動を止めると、移動オブジェクトが背景に「混合」される。
更新モード
図5Bに示すように、入力画像は可変および/または一定レートで連続して得点づけられる。例えば、画像は常に少なくともより低い「背景」レートで得点づけされ(510)、他の場合にはより高いレートで得点づけされる(511)。例えば、相違が比較的大きくなると得点づけはより頻繁に起こらなければならない。
図5Cに示すように、得点づけは必要であれば、可変レート521または一定レート522で間欠的に行われる。
基準モデル全体を更新する代わりに、更新プロセスは背景画像の特定の領域に適用することもできる。図6〜図8に示すように背景画像の部分的な更新のためのいくつかの方法を提供する。
インターレースされたビデオ601の場合、偶数フィールド611と奇数フィールド612は各々の更新サイクル621および622の間に更新されることができる。
インターレースされてないビデオ701の場合、画像をJ個の同じサイズの領域710に分割し(702)、領域710をJ個の更新サイクルの間に交互に更新することができる(720)。
代替プロセスは、インターレースされてないビデオ801をJ個の非重複の画素集合802に分割して(810)、その後交互に更新する(820)。ここで、画素集合は背景画像のランダムサンプリングで得ることができる。
モデルおよび背景画像の更新
実際の現在背景に対して、信頼性のある予想を行うのに十分な統計量を有する画素は存在しないため、最初は、モデル中の全ての画素についてその分散は大きな値に、その重みは小さな値に設定される。本基準モデルは、現在画素を既存のK個のガウス分布と比較することにより更新される。
現在画素のカラー値が分布の平均値に等しい場合、合致としてマーキングされる。距離しきい値は、モデルを形成するカラー値の95%を含むように2.5σに設定される。K<NであるK個の分布のいずれもが現在画素値に合致しない場合、新しい分布が初期化される。
K=Nである場合、最大の分散、すなわち最低の信頼度を有する分布は、現在画素値を平均値とし、大きな初期分散を持つ分布に置き換えられる。
合致した分布の平均値および分散は、学習係数αを用いて、
Figure 2004348732
のように定量的に更新され(170)、既存のK個の分布の重みω(t)、n=1,・・・,Kは、
Figure 2004348732
として調整される。ここで、I(p)は現在画素のカラー値である。このタイプの更新は、α‐混合としても知られていることがある。
基準モデル109における対応する画素から、カラーチャネルに対して、背景画像108の画素のカラー値を求めるために、最小の分散すなわち最大の信頼度を有し、かつ最大の重みを有するガウス分布が選択される。画素の平均が背景画像108内の対応する画素のカラー値として用いられる。
背景画像108は類似度がしきい値未満である場合に限って更新されるため、ガウス混合モデル手法をやはり利用しながら、計算全体が大幅に軽減される。
本発明を好ましい実施の形態の例として述べてきたが、その他の適応および変更が、本発明の精神と範囲内で行うことができることを理解するべきである。したがって、本発明の真の精神と範囲に入る変形および変更全てを網羅することが、添付の特許請求項の目的である。
一つのシーンでの変化する背景を表す背景画像を、本発明に従って適応的に更新する方法のブロック図である。 背景画像のブロック図である。 入力画像のブロック図である。 オブジェクトマスクのブロック図である。 本発明に従う、RGBカラー領域でのカラー評価のグラフである。 本発明に従う、カラーモデルのパラメータを予測するプロセスのブロック図である。 更新制御器のブロック図である。 本発明に従う、連続した更新のためのタイミング図である。 本発明に従う、間欠的更新のためのタイミング図である。 インターレースされたビデオを使用する更新制御器のブロック図である。 同サイズの領域に対する更新制御器のブロック図である。 画素のランダム集合を使用する更新制御器のブロック図である。

Claims (21)

  1. シーンの複数画像の各々に対して類似スコアを求めること、および
    特定の画像に対する類似スコアが所定のしきい値未満である場合に限って前記背景画像を更新すること
    を含むシーンの背景を表現する背景画像を適応的に更新する方法。
  2. 前記類似スコアを求めるレートは、前記類似スコアに基づく
    請求項1に記載の方法。
  3. 前記背景を更新する仕方は、前記類似スコアに基づく
    請求項1に記載の方法。
  4. 前記背景画像を前記複数画像中の最初の画像に初期化することをさらに含む
    請求項1に記載の方法。
  5. 前記背景画像を空白の画像に初期化することをさらに含む
    請求項1に記載の方法。
  6. 前記背景画像は、画素単位で確率分布関数を混合したものの形態で基準モデルにより導出される
    請求項1に記載の方法。
  7. 画像中で移動オブジェクトに関連する画素を特定すること、および
    該特定された画素を前記求めることおよび前記更新することより除外することをさらに含む
    請求項1に記載の方法。
  8. 前記特定された画素は、バイナリマスクで表現される
    請求項7に記載の方法。
  9. 各画像においてs個の画素の集合Qを選択すること、および
    該選択された画素集合に対してのみ前記求めることを実行することをさらに含む
    請求項1に記載の方法。
  10. 前記集合における画素は、ランダムに選択される
    請求項9に記載の方法。
  11. 前記集合Qにおける画素は、一様に選択される
    請求項9に記載の方法。
  12. 前記集合Qは、
    Figure 2004348732
    であり、ここで、B(x,y,c,t)は背景画像であり、I(x,y,c,t)は特定の画像であり、M(x,y,t)はオブジェクトマスクであり、c1s、c2sはサンプリング周波数であり、cはカラーチャネルであり、tは前記特定の画像に関連するフレーム番号であり、sは前記集合Q内の画素数である
    請求項11に記載の方法。
  13. 前記類似スコアは、比
    Figure 2004348732
    として表され、ここで、λは時刻tの画像に対する類似スコアであり、Bは前記背景画像であり、Iは前記特定の画像であり、θは位置(x,y)における画素のカラーベクトル間の角度であり、cはカラーチャネルである
    請求項1に記載の方法。
  14. 前記類似スコアは、比
    Figure 2004348732
    として表され、ここで、λは時刻tの画像に対する類似スコアであり、Bは前記背景画像であり、Iは前記特定の画像であり、(x,y)は画素位置であり、cはカラーチャネルである
    請求項1に記載の方法。
  15. 前記類似スコアは、比
    Figure 2004348732
    として表され、ここで、λは時刻tの画像に対する類似スコアであり、Bは前記背景画像であり、Iは前記特定の画像であり、(x,y)は画素位置であり、cはカラーチャネルである
    請求項1に記載の方法。
  16. 前記類似スコアは、学習型ニューラルネットワークで求められる
    請求項1に記載の方法。
  17. 前記レートは、時間間隔
    Figure 2004348732
    として表され、ここで、mは更新総数であり、τはしきい値で、τ<τとし、Δtmaxは次の類似スコアが求まる以前に処理する画像の最大数である
    請求項2に記載の方法。
  18. 混合(blending)パラメータを、
    Figure 2004348732
    として決めることをさらに含み、ここで、sは前記集合Q内の画素数であり、λは時刻tでの類似スコアであり、τは前記所定のしきい値である
    請求項12に記載の方法。
  19. 前記背景画像の特定の画素pは、
    Figure 2004348732
    に従って更新される
    請求項18に記載の方法。
  20. 類似スコアが可変および一定のレートで求められる
    請求項1に記載の方法。
  21. 前記背景画像の特定領域のみが更新される
    請求項1に記載の方法。
JP2004148135A 2003-05-21 2004-05-18 シーンの背景を表現する背景画像を適応的に更新する方法 Expired - Lifetime JP4629364B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/442,752 US7224735B2 (en) 2003-05-21 2003-05-21 Adaptive background image updating

Publications (3)

Publication Number Publication Date
JP2004348732A true JP2004348732A (ja) 2004-12-09
JP2004348732A5 JP2004348732A5 (ja) 2010-04-02
JP4629364B2 JP4629364B2 (ja) 2011-02-09

Family

ID=33450277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004148135A Expired - Lifetime JP4629364B2 (ja) 2003-05-21 2004-05-18 シーンの背景を表現する背景画像を適応的に更新する方法

Country Status (2)

Country Link
US (1) US7224735B2 (ja)
JP (1) JP4629364B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007066124A (ja) * 2005-09-01 2007-03-15 Hitachi Ltd 背景画像生成方法とその装置及び画像監視システム
JP2010033303A (ja) * 2008-07-29 2010-02-12 Sony Corp 画像データの分布モデル更新装置、画像処理装置、画像データの分布モデル更新方法およびプログラム
KR101392294B1 (ko) 2006-04-17 2014-05-27 오브젝트비디오 인코퍼레이티드 통계적인 픽셀 모델링을 이용한 비디오 분할
US10949717B2 (en) 2016-01-25 2021-03-16 Deepmind Technologies Limited Generating images using neural networks
US11144782B2 (en) 2016-09-30 2021-10-12 Deepmind Technologies Limited Generating video frames using neural networks

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7362374B2 (en) * 2002-08-30 2008-04-22 Altera Corporation Video interlacing using object motion estimation
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US8112326B2 (en) * 2005-02-03 2012-02-07 TimeSight Systems, Inc. Inventory management tracking control system
US20060197992A1 (en) * 2005-03-02 2006-09-07 Xerox Corporation Stochastic screens for rendering devices with high-addressability
US20060210159A1 (en) * 2005-03-15 2006-09-21 Yea-Shuan Huang Foreground extraction approach by using color and local structure information
US7676081B2 (en) * 2005-06-17 2010-03-09 Microsoft Corporation Image segmentation of foreground from background layers
US20070047834A1 (en) * 2005-08-31 2007-03-01 International Business Machines Corporation Method and apparatus for visual background subtraction with one or more preprocessing modules
US7944454B2 (en) * 2005-09-07 2011-05-17 Fuji Xerox Co., Ltd. System and method for user monitoring interface of 3-D video streams from multiple cameras
US7787011B2 (en) * 2005-09-07 2010-08-31 Fuji Xerox Co., Ltd. System and method for analyzing and monitoring 3-D video streams from multiple cameras
WO2007080834A1 (ja) * 2006-01-10 2007-07-19 Matsushita Electric Industrial Co., Ltd. 色補正処理装置および色補正処理方法、ならびに、動的なカメラ色補正装置およびそれを用いた映像検索装置
SG150527A1 (en) * 2006-07-11 2009-03-30 Agency Science Tech & Res Method and system for multi-object tracking
US7565334B2 (en) * 2006-11-17 2009-07-21 Honda Motor Co., Ltd. Fully bayesian linear regression
US20080198237A1 (en) * 2007-02-16 2008-08-21 Harris Corporation System and method for adaptive pixel segmentation from image sequences
US8442278B2 (en) * 2008-02-28 2013-05-14 Honeywell International Inc. Covariance based face association
RU2395787C2 (ru) * 2008-05-19 2010-07-27 Государственный Научный Центр России "Государственное Научное Учреждение "Центральный Научно-Исследовательский И Опытно-Конструкторский Институт Робототехники И Технической Кибернетики"(Цнии Ртк) Способ обнаружения объектов
US9805271B2 (en) * 2009-08-18 2017-10-31 Omni Ai, Inc. Scene preset identification using quadtree decomposition analysis
WO2013003026A2 (en) * 2011-06-30 2013-01-03 University Of Florida Research Foundation, Inc. Adaptive background estimation
US9682315B1 (en) * 2011-09-07 2017-06-20 Zynga Inc. Social surfacing and messaging interactions
KR101739025B1 (ko) * 2012-03-13 2017-05-24 한화테크윈 주식회사 영상 처리 방법
US8891870B2 (en) * 2012-11-09 2014-11-18 Ge Aviation Systems Llc Substance subtraction in a scene based on hyperspectral characteristics
US9196198B2 (en) * 2013-12-03 2015-11-24 Pixtronix, Inc. Hue sequential display apparatus and method
US9471844B2 (en) * 2014-10-29 2016-10-18 Behavioral Recognition Systems, Inc. Dynamic absorption window for foreground background detector
US9349054B1 (en) 2014-10-29 2016-05-24 Behavioral Recognition Systems, Inc. Foreground detector for video analytics system
US9460522B2 (en) * 2014-10-29 2016-10-04 Behavioral Recognition Systems, Inc. Incremental update for background model thresholds
US10497024B2 (en) * 2015-04-28 2019-12-03 Facebook, Inc. Identifying content to present to a group of online system users based on user actions and specified by a third-party system
CN106878668B (zh) * 2015-12-10 2020-07-17 微软技术许可有限责任公司 对物体的移动检测
CN108701249B (zh) * 2016-01-25 2023-04-14 渊慧科技有限公司 使用神经网络生成图像
CN107077507B (zh) * 2016-10-21 2021-06-04 达闼科技(北京)有限公司 一种信息推送方法、装置和系统
WO2018133101A1 (zh) * 2017-01-23 2018-07-26 富士通株式会社 图像前景检测装置及方法、电子设备
US10839259B2 (en) * 2017-10-27 2020-11-17 Google Llc Attention-based image generation neural networks
CN109146928B (zh) * 2017-12-29 2021-09-24 西安电子科技大学 一种梯度阈值判断模型更新的目标跟踪方法
US10776665B2 (en) * 2018-04-26 2020-09-15 Qualcomm Incorporated Systems and methods for object detection
CN109214996B (zh) * 2018-08-29 2021-11-12 深圳市元征科技股份有限公司 一种图像处理方法及装置
CN110244998A (zh) * 2019-06-13 2019-09-17 广州酷狗计算机科技有限公司 页面背景、直播页面背景的设置方法、装置及存储介质
CN116758081B (zh) * 2023-08-18 2023-11-17 安徽乾劲企业管理有限公司 一种无人机道路桥梁巡检图像处理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6468084A (en) * 1987-09-09 1989-03-14 Nippon Telegraph & Telephone Skip-watching device for moving image signal
JPH09139890A (ja) * 1995-11-15 1997-05-27 Nec Corp 背景画像生成方法および装置
JPH10313455A (ja) * 1997-05-12 1998-11-24 Mitsubishi Electric Corp 監視画像記録装置およびその再生装置
JP2000324477A (ja) * 1999-05-14 2000-11-24 Hitachi Ltd 画像監視方法および装置
JP2001014473A (ja) * 1999-06-30 2001-01-19 Toshiba Corp 画像監視方法および画像監視装置
JP2002024808A (ja) * 2000-07-07 2002-01-25 Meidensha Corp 静止障害物検出方式及びその装置
JP2002304677A (ja) * 2001-04-06 2002-10-18 Fujitsu General Ltd 侵入者検出方法および装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5012522A (en) * 1988-12-08 1991-04-30 The United States Of America As Represented By The Secretary Of The Air Force Autonomous face recognition machine
US6400846B1 (en) * 1999-06-04 2002-06-04 Mitsubishi Electric Research Laboratories, Inc. Method for ordering image spaces to search for object surfaces
US6307964B1 (en) * 1999-06-04 2001-10-23 Mitsubishi Electric Research Laboratories, Inc. Method for ordering image spaces to represent object shapes
US6826316B2 (en) * 2001-01-24 2004-11-30 Eastman Kodak Company System and method for determining image similarity
US6915011B2 (en) * 2001-03-28 2005-07-05 Eastman Kodak Company Event clustering of images using foreground/background segmentation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6468084A (en) * 1987-09-09 1989-03-14 Nippon Telegraph & Telephone Skip-watching device for moving image signal
JPH09139890A (ja) * 1995-11-15 1997-05-27 Nec Corp 背景画像生成方法および装置
JPH10313455A (ja) * 1997-05-12 1998-11-24 Mitsubishi Electric Corp 監視画像記録装置およびその再生装置
JP2000324477A (ja) * 1999-05-14 2000-11-24 Hitachi Ltd 画像監視方法および装置
JP2001014473A (ja) * 1999-06-30 2001-01-19 Toshiba Corp 画像監視方法および画像監視装置
JP2002024808A (ja) * 2000-07-07 2002-01-25 Meidensha Corp 静止障害物検出方式及びその装置
JP2002304677A (ja) * 2001-04-06 2002-10-18 Fujitsu General Ltd 侵入者検出方法および装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007066124A (ja) * 2005-09-01 2007-03-15 Hitachi Ltd 背景画像生成方法とその装置及び画像監視システム
JP4618058B2 (ja) * 2005-09-01 2011-01-26 株式会社日立製作所 背景画像生成方法とその装置及び画像監視システム
KR101392294B1 (ko) 2006-04-17 2014-05-27 오브젝트비디오 인코퍼레이티드 통계적인 픽셀 모델링을 이용한 비디오 분할
JP2010033303A (ja) * 2008-07-29 2010-02-12 Sony Corp 画像データの分布モデル更新装置、画像処理装置、画像データの分布モデル更新方法およびプログラム
US8358807B2 (en) 2008-07-29 2013-01-22 Sony Corporation Image-data-distribution-model updating apparatus, image processing apparatus, image-data-distribution-model updating method, and computer program
US10949717B2 (en) 2016-01-25 2021-03-16 Deepmind Technologies Limited Generating images using neural networks
US11462034B2 (en) 2016-01-25 2022-10-04 Deepmind Technologies Limited Generating images using neural networks
US11870947B2 (en) 2016-01-25 2024-01-09 Deepmind Technologies Limited Generating images using neural networks
US11144782B2 (en) 2016-09-30 2021-10-12 Deepmind Technologies Limited Generating video frames using neural networks

Also Published As

Publication number Publication date
US7224735B2 (en) 2007-05-29
JP4629364B2 (ja) 2011-02-09
US20040239762A1 (en) 2004-12-02

Similar Documents

Publication Publication Date Title
JP4629364B2 (ja) シーンの背景を表現する背景画像を適応的に更新する方法
Harville et al. Foreground segmentation using adaptive mixture models in color and depth
JP4746050B2 (ja) ビデオデータを処理するための方法及びシステム
Soriano et al. Using the skin locus to cope with changing illumination conditions in color-based face tracking
JP4722923B2 (ja) コンピュータビジョンによりシーンをモデル化する方法
Phung et al. A universal and robust human skin color model using neural networks
US20050104964A1 (en) Method and apparatus for background segmentation based on motion localization
CN113537099B (zh) 一种公路隧道火灾烟雾动态检测方法
Vosters et al. Background subtraction under sudden illumination changes
Ribeiro et al. Hand Image Segmentation in Video Sequence by GMM: a comparative analysis
US20070058837A1 (en) Video motion detection using block processing
CN112184759A (zh) 一种基于视频的运动目标检测与跟踪方法及系统
CN105809716B (zh) 融合超像素与三维自组织背景减除法的前景提取方法
Liu et al. Scene background estimation based on temporal median filter with Gaussian filtering
CN111460964A (zh) 一种广电传输机房低照度条件下运动目标检测方法
Huang et al. Random sampling-based background subtraction with adaptive multi-cue fusion in RGBD videos
Zang et al. Evaluation of an adaptive composite Gaussian model in video surveillance
Chen et al. Background subtraction in video using recursive mixture models, spatio-temporal filtering and shadow removal
RU2276407C2 (ru) Способ и устройство для сегментации фона на основе локализации движения
Guo et al. A robust foreground segmentation method by temporal averaging multiple video frames
Zhu et al. A transform domain approach to real-time foreground segmentation in video sequences
Liu et al. Self-adaptive visual background extraction with ghost regions elimination
Ghasemi et al. Unsupervised foreground-background segmentation using growing self organizing map in noisy backgrounds
Ganguly et al. Fusion of Mathematical Morphology with Adaptive Gamma Correction for Dehazing and Visibility Enhancement of Images
Zhu et al. Improved adaptive mixture of Gaussians model for moving objects detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20100215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100819

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4629364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250