JP6474854B2 - 背景モデルを更新するための方法及び装置 - Google Patents

背景モデルを更新するための方法及び装置 Download PDF

Info

Publication number
JP6474854B2
JP6474854B2 JP2017108872A JP2017108872A JP6474854B2 JP 6474854 B2 JP6474854 B2 JP 6474854B2 JP 2017108872 A JP2017108872 A JP 2017108872A JP 2017108872 A JP2017108872 A JP 2017108872A JP 6474854 B2 JP6474854 B2 JP 6474854B2
Authority
JP
Japan
Prior art keywords
background
pixel
image
samples
collection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017108872A
Other languages
English (en)
Other versions
JP2018022475A (ja
JP2018022475A5 (ja
Inventor
ヨアキム バルッセン,
ヨアキム バルッセン,
Original Assignee
アクシス アーベー
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー, アクシス アーベー filed Critical アクシス アーベー
Publication of JP2018022475A publication Critical patent/JP2018022475A/ja
Publication of JP2018022475A5 publication Critical patent/JP2018022475A5/ja
Application granted granted Critical
Publication of JP6474854B2 publication Critical patent/JP6474854B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は画像の背景差分の分野に関する。具体的には、画像の背景差分に使用される背景モデルの更新に関する。
ビデオ監視では、ビデオシーケンスに取り込まれたシーンの中で移動物体を検出できることが重要である。ビデオ内の運動を検出するためのツールは多数ある。これらのツールの中には、ビデオストリーム中の特徴を追うことによって、物体をフレームごとに追跡するものがある。他のツールは、ピクセルごとに現在のフレームと静止した背景フレームとの比較を行う。後者は背景差分の原理で、大きな変化が起こっているゾーンを検出することで移動物体を抽出すること目指している。静止物体が背景の一部であるのに対して、移動物体は前景とみなされる。
移動物体の背景からの分離は複雑な問題で、背景が動いている場合、例えば、風にそよぐ木々や水の波紋がある場合や、照明が変化している場合には、更に困難になる。特に、動的な背景は、移動物体の誤検出数を増大させる結果になることがある。
背景差分の方法の概要については、Thierry Bouwmans、Fatih Porikli、Benjamin Hoferlin、Antoine Vacavantの編集による教科書『Background Modeling and Foreground Detection for Video Surveillance』(CRC Press, Taylor & Francis Group, Boca Raton, 2015年刊)に記載されている。例えば、第1章及び第7章を参照のこと。
背景差分の方法は一般的に、ビデオストリームの現在のフレームと、移動物体のない参照背景フレーム又はモデルとの比較を含む。画像を背景フレーム又はモデルと比較することによって、画像中の各ピクセルが前景又は背景に属するか否かの判定が行われうる。このように、画像は2つの相補的なピクセルの組、すなわち、前景と背景に分割されうる。
背景差分には、基本的な背景モデルの定義、並びに背景の経時的な変化に対応するための更新戦略が必要となる。文献には多数の背景モデルが提唱されている。パラメトリックモデルとノンパラメトリックモデルもこれに含まれる。
パラメトリックモデルの例は、画像のピクセル位置で背景をガウス分布によってモデル化することである。これは静的なシーンでは十分に機能しうるが、背景ピクセルがマルチモーダル分布している場合、例えば、風にそよぐ木々が背景にある場合には、機能しない。
マルチモーダル分布している背景に対処するため、画像のピクセル位置で背景を混合ガウス分布によってモデル化することが提唱されてきた。このようなモデルは、マルチモーダル分布している背景のモデル化には有効であるが、欠点もある。例えば、ノイズの多い実際の環境ではパラメータの推定は困難で、自然の画像がガウス分布的な振る舞いを示すかどうかは疑問視されてきた。
このような欠点があるため、文献ではノンパラメトリックモデルが検討されている。例えば、過去のピクセル値の確率密度関数のノンパラメトリックカーネル密度推定が提唱されている。このようなモデルの強みは、背景の高頻度な事象に迅速に適応しうる点にある。欠点は、背景の中で異なる速度で展開する事象の処理が困難なことである。
別のタイプのノンパラメトリックモデルは、サンプルベースモデルと称されている。このようなモデルでは、各ピクセルの背景は、過去の背景サンプルの集合体(collection)によってモデル化されている。背景の経時的な変化に対応するため、現在のフレームのピクセルが背景に属すると分類されたときに、過去の背景サンプルの集合体は更新される。WangとSuter(“A consensus−based method for tracking: Modelling background scenario and foreground appearance”. Pattern Recognition, 40(3), 2007)は、ファーストインストアウトの原理に従って過去の背景サンプルの集合体を更新するように提唱している。これは、最も古い背景サンプルを集合体から取り除き、最新のフレームのピクセル値をこの集合体に追加するようにして、過去の背景サンプルの集合体が更新されることを意味している。US8009918B2には、背景サンプルの集合体の中からランダムに選択された背景サンプルを最新フレームのピクセル値で置き換える、代替的な更新アプローチが記載されている。
このような背景更新方法の欠点は、動きのあるマルチモーダル背景に対してロバストであるためには、ピクセルごとに多数の背景サンプルを保存することが必要であること、すなわち、モダリティ(modalities)の長期記憶を有するには多数の背景サンプルが必要になることである。これは、高度な処理とメモリを要求することになるため望ましくない。突風などの突発的な背景の動きに対処するためには、手に負えないほどの量の背景サンプルが必要になりうる。したがって、改良の余地がある。
上記に鑑みるならば、本発明の目的は、背景サンプルの数を低いレベルに抑えることができ、それによって、処理とメモリの要件を軽減し、同時にモデルとしてモダリティの長期記憶を有することを可能にするサンプルベース背景モデルのための更新機構を提供することになる。
本発明の第1の態様により、上記の目的は、
画像を受信すること、
画像の各ピクセルに対して背景サンプルの集合体を含む背景モデルを使用し、背景差分を実行することによって画像の各ピクセルを前景又は背景として分類すること、
画像の各ピクセルが背景として分類されることによって背景モデルを更新すること、
類似性条件を満たすピクセルに関連する背景サンプルの集合体の中から背景サンプルを選択すること、
類似性条件を満たす背景サンプルをピクセルの画像データで置き換えること
を含む、画像の背景差分で使用される背景モデルの更新のための装置で実行される方法によって実現される。
したがって、提唱した方法は、サンプルベース背景モデルを更新する方法である。新しい画像は時刻tに受信されるため、時刻t−1に構築された背景モデルを使用して、新しい画像のピクセルを背景又は前景として分類する。その後、背景モデルは新しい画像の背景サンプルによって更新される。
本方法は、背景として分類されたピクセルの画像データに類似した背景サンプルで置き換えることによって、背景モデルを更新することを提唱している。一般的には、これは、関連するピクセルと同じモダリティに属する背景サンプルとなる。このように、背景モデルの冗長な背景サンプルの数は最小限に抑えられうる。例えば、画像シーケンス中のあるピクセル位置で非常に一般的なモダリティであっても、背景モデルの単一の背景サンプルによって表わされることがありうる。その結果、背景モデルを使用して背景差分を実行するとき、保存及び処理しなければならない背景サンプルは少なくなるため、処理及びメモリの要件は低減される。その一方で、モダリティのメモリ、すなわち、背景モデルの一時メモリは低減されない。結論として、背景サンプル数の減少分は、これまでのソリューションとの対比では、モダリティの同一メモリを表わすのに使用されうる。
一般的に背景モデルが意味するのは、ピクセルレベルで画像の背景が表わすモデルのことである。
一般的に背景差分が意味するのは、背景モデルと画像の比較である。画像と背景モデルを比較することにより、画像の各ピクセルが前景又は背景に属するか否かの判定が行われうる。
一般的に背景サンプルが意味するのは、画像のサンプル、すなわち、背景に属すると分類されたピクセルにおける(場合により、幾つかのカラーチャネルでの)観測結果又は強度値である。
一般的に類似性条件が意味するのは、背景サンプル及び画像データに基づく任意の条件又は関数が、背景サンプルとピクセルの画像データとの類似性の基準をもたらすということである。例えば、類似性条件は、L1ノルム又はL2ノルムなどのノルムによって測定した、背景サンプルとピクセルの画像データとの間の数学的距離に基づきうる。類似性条件は、例えば、この距離が閾値(本書では類似性閾値と呼ぶ)よりも小さい場合に満たされうる。
特に、背景サンプルが、類似性閾値未満の値だけ、ピクセルの画像データと異なる場合には、類似性条件は背景サンプルに対して満たされうる。
類似性条件を満たす特定のピクセルに関連する背景サンプルの集合体の中から背景サンプルを見つけ出すため、異なるアプローチが用いられることもある。例えば、選択するステップは、類似性条件を満たす背景サンプルが見つかるまで、ピクセルに関連する背景サンプルの集合体を繰り返し検索することを含みうる。すなわち、類似性条件を満たす背景サンプルの集合体の繰り返し検索時に見つかった最初の背景サンプルが選択されうる。これは、類似性条件を満たす背景サンプルが見つかった時点で直ちに検索が終了されうるので、処理能力が温存される点で有利である。
類似性条件を満たす背景サンプルが見つかるまで、ピクセルの画像データを背景サンプルの集合体の中の背景サンプルと比較することによって、ピクセルに関連する背景サンプルの集合体は繰り返し検索されうる。したがって、繰り返し検索は、背景サンプルの集合体の中のある位置で開始され、類似性条件を満たす最初の背景サンプルが見つかるまで、背景サンプルの集合体を1つずつ、言い換えるならば、順次くまなく調べる。
背景が徐々に変化する(すなわち、画像シーケンス中の連続する画像間の段階的変化の)間に、背景サンプルの集合体の中の同じ位置が更新されるのを回避するため、背景モデルが更新されるたびに、繰り返し検索は、背景サンプルの集合体の中の異なる位置又はインデックスで開始されうる。
幾つかの実施形態では、集合体の中の開始位置はランダムに選択される。より詳細には、ピクセルに関連する背景サンプルの集合体はインデックス付けされてもよく、繰り返し検索は、背景サンプルの集合体の中のランダムに選択されたインデックスで開始される。
他の実施形態によれば、集合体の中の開始位置は、ピクセルの背景モデルの最後の更新に対して使用された開始位置とは異なるように設定される。より具体的には、画像は画像シーケンスの一部であってもよく、ピクセルに関連する背景サンプルの集合体はインデックス付けされてもよく、繰り返し検索は、画像シーケンス中の先行画像の対応するピクセルに対して繰り返し検索を開始するために使用されるインデックスとは異なる、背景サンプルの集合体の中のインデックスで開始される。
特に、繰り返し検索は、画像シーケンス中の先行画像のピクセルに対する繰り返し検索を開始するために使用されるインデックスに続く、背景サンプルの集合体の中のインデックスで開始されうる。このように、集合体の中のどの位置で検索を開始するかを記録することは容易になる。
先行する検索で使用された開始インデックスを優先する、現在の検索のための開始インデックスの選択など、検索の開始位置の選択には代替的な方法がありうることに留意されたい。更に、画像中の異なるピクセルに対して、異なる開始位置が使用されうることにも留意されたい。単純化と効率化のため、画像中のすべてのピクセルに対して、集合体の中の同一の開始位置が選択されることが望ましい。このように、開始位置の記録には、処理及びメモリの最小限の要件が使用される。
別のアプローチは、集合体の中で、ピクセルの画像データに最も類似した背景サンプルを置き換えるものである。より詳細には、選択するステップは、類似性条件を満たす背景サンプルの中から、ピクセルの画像データに最も類似した背景サンプルを選択することを含む。最も類似した背景サンプルを置き換えることによって、集合体の中の冗長な情報は最小限に抑えられる。しかしながら、これは、背景が徐々に変化する間に、集合体の中の同一背景サンプル位置を置き換えることを犠牲にすることによって、成り立ちうるものである。
集合体の中の最も類似した背景サンプルを選択するため、選択するステップは、ピクセルの画像データとの違いが最小になる背景サンプルを特定するように、ピクセルの画像データを背景サンプルの集合体の中のすべての背景サンプルと比較することを含む。
背景サンプルの集合体の中の背景サンプルが類似性条件を満たさない場合もありうる。このような状況では、類似性条件を満たさない背景サンプルが置き換えられることもありうる。例えば、背景サンプルをランダムに置き換えること、又は(背景サンプルが最後に更新されたのはいつかを記録することによって)集合体の中の最も古い背景サンプルを置き換えることを含む、従来技術のアプローチの1つに戻ることもありうる。別の可能性としては、背景サンプルの集合体の繰り返し検索中に遭遇した最後の背景サンプルを選択することもある。
本方法は更に、集合体の中に関係のなくなった背景サンプルを有することを避けるため、古くなったサンプルを置き換えるための機構を含みうる。
これは、所定の制限時間よりも古いサンプルを置き換えることによって、実現されうる。より具体的には、本方法は更に、画像の各ピクセルに対して、ピクセルに関連する背景サンプルの集合体の中に、各背景サンプルがどれだけの期間にわたって含まれていたかを記録することを含み、選択及び置き換えのステップは、所定の制限時間よりも長い期間にわたって背景サンプルの集合体の中に含まれていた背景サンプルはなかったという条件のもとで行われ、背景サンプルが所定の制限時間よりも長い期間にわたって集合体の中にあった場合には、所定の制限時間よりも長い期間にわたって背景サンプルの集合体の中にあった背景サンプルは、ピクセルの画像データによって置き換えられる。
別の方法として、背景サンプルは長時間経過したときに置き換えられてもよい。より詳細には、画像シーケンスの中で、更新機構は、大部分の画像に対して上述の類似性アプローチに基づくことができる。しかしながら、規則的な時間間隔で選択された一部の画像に関しては、背景サンプルの集合体の中のある位置(すべての集合体に対して同一の位置)は、画像の背景サンプルによって置き換えられうる。ある位置は、ランダムに又は確定的に選択されうる。例えば、(集合体の中のインデックスによって与えられる)ある位置は、規則的な時間間隔で更新が実行されるたびに、1ずつ増大しうる。より詳細には、本方法は更に、
画像シーケンスを受信して、画像シーケンス中の毎N番目の画像を除き、画像シーケンス中の各画像に対して分類するステップと更新するステップを繰り返すことであって、N>2では、背景モデルの更新は代わりに、背景として分類されたN番目の画像の各ピクセルによって行われる、繰り返すことと、
ピクセルに関連する背景サンプルの集合体の中の背景サンプルをピクセルの画像データによって置き換えることであって、置き換えられた背景サンプルは、N番目の画像の全ピクセルと同一の背景サンプルの集合体のインデックスを有する、置き換えること
を含む。
Nの値は一定である必要はなく、変動するように設定することもできる。例えば、画像シーケンスの開始時には、画像シーケンスのその後と比較して小さな値を有することができる。
画像のピクセルを前景又は背景のどちらかに属するように分類するため、ピクセルの画像データ(典型的には強度値)は一般的に、ピクセルに関連する背景サンプルの集合体と比較されうる。ピクセルの画像データが所定の数の背景サンプルと類似した場合には、ピクセルは背景に属する可能性が高い。そうでない場合には、ピクセルは前景に属する可能性が高い。
より具体的には、画像の各ピクセルを前景又は背景として分類するステップは、画像の各ピクセルに対して、
ピクセルの画像データを、ピクセルに関連する背景サンプルの集合体の中の各背景サンプルと比較することと、
分類閾値未満の値だけピクセルの画像データと異なる背景サンプルの数が所定の数を下回る場合には、ピクセルが前景であると判定することと
を含みうる。
先行技術の方法では、所定の数は典型的に2以上である。しかしながら、現在の方法では、所定の数は典型的に1に設定しうる。背景サンプルの集合体の冗長度が低減されるため、各モダリティを1つの背景サンプルだけで表わすことが可能である。したがって、所定の数を1に設定することは適切でありうる。
所定の数が1に等しいときには、特に、計算効率のよい分類ステップが実装されている。このようなケースで、ピクセルの画像データに類似した(閾値未満の差分によって画定される)背景サンプルの集合体の中に背景サンプルがない場合には、ピクセルは前景に属する。「類似した背景サンプルはない」という事象は、「少なくとも1つの背景サンプルも類似していない」という事象と同等である。集合体の中にN個の背景サンプルがあると仮定してみる。こうすると、「少なくとも1つの背景サンプルは類似している」という事象は、「『背景サンプル1は類似している』、又は『背景サンプル2は類似している』、又は・・・『背景サンプルNは類似している』」という事象として表現されうる。これは、和集合(union)
Figure 0006474854
として表現されうる。結論として、「類似した背景サンプルはない」という事象は、
Figure 0006474854
を否定する事象と同等となる。
このため、ピクセルが前景であると判定するステップは、ピクセルに関連する背景サンプルの少なくとも1つが、論理OR演算の実行による分類の閾値未満の値だけピクセルの画像データと異なるかどうかをチェックすること、そして、そうでない場合には、閾値未満の値だけピクセルの画像データと異なる背景サンプルの数が所定の数を下回ると判定し、これによってピクセルは前景であると判定すること、を含みうる。
論理演算は一般的に、加算とその後の閾値数との比較よりも、必要とする処理能力とメモリ使用量は少ないため、計算効率がよくなる。
本発明の第2の態様によれば、処理能力を有するデバイスによって実行されると第1態様の方法を実行するように保存されたコンピュータコード命令を有する(非一過性の)コンピュータ可読媒体を備える、コンピュータプログラム製品が提供される。
本発明の第3の態様によれば、
画像を受信するように構成された受信器と、
画像の各ピクセルに対する背景サンプルの集合体を含む背景モデルを用いて、背景差分を実行することによって、画像の各ピクセルを前景又は背景として分類するように構成された分類コンポーネントと、
背景として分類される画像の各ピクセルに対して、
類似性条件を満たすピクセルに関連する背景サンプルの集合体の中の背景サンプルを選択すること、
類似性条件を満たす背景サンプルをピクセルの画像データで置き換えること
によって、背景モデルを更新するように構成された背景更新コンポーネントと
を備える、画像の背景差分用に使用される背景モデルを更新するための装置が提供される。
第2及び第3の態様は、一般的に、第1態様と同じ特徴及び利点を有しうる。本発明は、別途明示的に記載されない限り、特徴のすべての可能な組み合わせに関することに、更に留意されたい。
上記の、並びに追加的な、本発明の目的、特徴、及び利点は、付随する図面を参照しつつ、本発明の好ましい実施形態の、以下の例示的かつ非限定的な詳細説明を通して、より明確に理解されるであろう。図面では、同じ参照番号が類似要素に対して使用される。
画像の背景差分に使用される背景モデルを更新するための装置を備えるカメラシステムを概略的に示している。 実施形態による背景モデルの背景サンプルを置き換えるための種々のアプローチを概略的に示している。 実施形態による背景モデルの背景サンプルを置き換えるための種々のアプローチを概略的に示している。 実施形態による背景モデルの背景サンプルを置き換えるための種々のアプローチを概略的に示している。 実施形態による背景モデルの背景サンプルを置き換えるための種々のアプローチを概略的に示している。 実施形態に従ってインジケータマップを更新するために使用される現在の画像と先行画像を概略的に示している。 実施形態による画像の背景差分に使用される背景モデルを更新するための方法のフロー図である。
これより、本発明の実施形態を示す添付図面を参照して、本発明をより網羅的に説明する。本書で開示されるシステム及びデバイスは、動作中のものが説明されることになる。
図1は、カメラ102で取り込まれた画像の背景差分に使用される背景モデルの更新のためのカメラ102と装置110を備えるカメラシステム100を示している。カメラ102は、例えば、有線又は無線のネットワーク104を介して、装置110に動作可能に接続されている。
カメラ102は、シーン120の画像シーケンスを取り込み、取り込んだ画像シーケンスを装置110に送信するように構成されている。特に、カメラ102は、例えば、シーン120の移動物体を追うために使用されうる監視カメラであってもよい。シーン120は種々の物体を含みうる。例えば、ここでは走る人物として示される移動物体122があり、画像シーケンスの中で追跡されることになるため、前景に属する。ここには、木の枝124と小道126として示される背景物体124と126もある。背景物体は、小道126などのように静的なことも、風が吹くと前後に揺れる枝124のように動的なこともある。
装置110は、受信器112、前景分類器114、及び背景更新コンポーネント118を含む。装置110の内部コンポーネント112、114、及び118は、ハードウェア、ソフトウェア、又はこれらの組み合わせの中に実装されうる。例えば、装置110はプロセッサと、プロセッサによって実行されると、本書に開示の方法を実行するためのソフトウェア命令を保存しうる非一過性のコンピュータ可読媒体(すなわち、メモリ)を含みうる。
これより、図1〜図6、及び図7のフロー図を参照して説明される装置110の動作を解説する。
ステップS02では、受信器112は、例えば、ネットワーク104を介して、カメラ102からシーン120を描写する画像220を受信する。画像220は、カメラ102から装置110へ送信された画像シーケンスの一部である。例えば、画像220はビデオシーケンスのフレームに対応しうる。画像220では、前景物体122と背景物体124、126が描写されている
ステップS04では、前景分類器114は各ピクセル228を、背景234又は前景232に属するとして分類する。このため、前景分類器114は背景モデルを利用する。背景モデルは、画像220の各ピクセルに対して背景サンプルの集合体240を含む。図2に示すように、ピクセル228は背景サンプルの集合体240に関連している。背景サンプルの集合体240はアレイに配置されることもあり、ここではベクトルによって示されている。各ピクセルに対する背景サンプルの集合体240は、10〜20個の背景サンプルを含みうる。この例では、集合体204の第1の背景サンプルはエイジ(age)2で、第1の背景サンプルはエイジ99となっている。この例で選択した数字は、説明のためのものにすぎない。実際には、この数字は、背景サンプルが集合体の中に含まれていたフレーム数、或いは、背景サンプルが集合体240の中に含まれていた(例えば、秒、分又は時間で測定した)時間単位数に対応しうる。
背景サンプルの集合体240はまた、幾つかの実施形態では、アレイなどのデータ構造250に関連することがあり、データ構造は集合体240の中の各背景サンプルのエイジ、すなわち、背景サンプルが集合体240の一部であった期間を記録する。
画像220の各ピクセル228を背景234又は前景232として分類するとき、前景分類器114は、例えば、WangとSuterの論文(“A consensus−based method for tracking: Modelling background scenario and foreground appearance”. Pattern Recognition, 40(3), 2007)に記載されている背景差分を適用しうる。図2の例では、前景分類器114は、背景差分を適用することによって、物体122の内側に入るピクセルを前景232として分類し、他のピクセルは背景234として分類される。この例では、ピクセル228は背景234として分類される。
より詳細には、x(m)は画像シーケンスの時刻tにおけるピクセルmの観測値を意味し、
Figure 0006474854
はピクセルmの背景サンプルの集合体を意味する。各観測値
Figure 0006474854
はkチャネル(例えば、RGBカラー空間内では、各観測値はR、G、Bの3つのチャネルで表現される)を有する。画像データが閾値T未満の値だけ各背景サンプルと異なるか否かを知るため、画像220の各ピクセル228に関して、前景分類器114は、画像データ、すなわち(該当する場合には各チャネルに対する)強度値を、ピクセル228に関連する集合体240の中の各背景サンプルと比較する。例えば、前景分類器114は、
Figure 0006474854
に従って、閾値T未満の値だけピクセルの画像データとは異なる背景サンプルを“1”に結び付けてもよく、他の背景サンプルは値“0”に結び付けられる。閾値T未満の値だけピクセルの画像データとは異なる集合体240の背景サンプルの数が、所定の数Tを上回るか等しい場合には、前景分類器114はピクセルが背景に属すると判定しうる。そうでない場合には、ピクセルは前景に属する。
これは、
Figure 0006474854
に従って、時刻tで背景ピクセルに対して値“1”を、前景ピクセルに対して値“0”を取るバイナリマスクBによって実装されうる。別の言い方をするならば、前景分類器114はこのように、閾値T未満の値だけピクセル228の画像データとは異なる集合体240の背景サンプルの数をカウントしてもよい。この数が所定の数Tに等しいか、これを超える場合には、前景分類器はピクセルが背景234に属し、それ以外のときには前景232に属すると判定する。したがって、前景分類器は、ピクセル228の画像データに(式1の意味で)類似する集合体240の中に少なくともT個の背景サンプルを検出する。
ピクセル228の画像データが1つの背景サンプルに類似する場合、すなわち、T=1となる場合には、充分であることが判明している。このような場合には、式2は論理OR演算を用いて、効率的な方法で実装されうる。特に、式2は次のように書き直してもよい。
Figure 0006474854
このように、前景分類器114は、論理OR演算(すなわち、第1の背景サンプル、又は第2の背景サンプル、又は第3の背景サンプルなど)の実行により、閾値未満の値だけピクセルの画像データとは異なるピクセルに関連する背景サンプルの少なくとも1つが、閾値T未満の値だけピクセル228の画像データと異なるかどうかをチェックしうる。上記が当てはまらない場合には、前景分類器114はピクセルを前景に属するとして分類する。このように、論理演算が必要とする処理能力とメモリ使用量は少ないため、計算の複雑性は軽減されうる。
前景分類器114は、背景モデルの更新では背景ピクセルだけがあとで使用されることを確かめるため、安全マージンを適用する。より詳細には、前景分類器114は、前景として分類された領域(前景領域232など)を空間的に拡張しうる。これは、例えば、画像内容を置き換える前に、分類結果にモルフォロジー演算を適用することによって実装されうる。例えば、前景領域上でのモルフォロジカル「膨張」演算は、前景領域を空間的に増大させ、これによって、潜在的な分類エラーを補償する安全マージンを付加する。
閾値Tは、画像220の全ピクセルに対して同一になりうる。しかしながら、幾つかの実施形態では、閾値Tは画像のピクセルの位置と共に変化しうる。したがって、異なるピクセルは異なる値の閾値Tを有しうる。更に、閾値Tは時間と共に変化しうる。一般的に、前景分類器114は、ピクセルの位置での背景サンプルが、画像シーケンス中の連続する画像間で値を変化させる頻度に応じて、閾値Tを設定しうる。特に、閾値Tは、背景が常にほとんど同じピクセルと比較した場合、背景が頻繁に値を変える傾向にあるピクセルに対して、大きくなるように設定されうる。このように、背景が頻繁に値を変える領域、すなわち、シーン内の風に揺れる枝などによって、1つのモダリティから別のモダリティへと遷移する領域では、感度が低くなるように分類を設定することができる。
これは更に図6で例示されている。閾値Tを設定するため、前景分類器114は、ピクセルの累積されたモダリティ遷移レベルの2次元マップ600を保持しうる。このマップはインジケータマップと称される。したがって、インジケータマップの値は、背景が画像シーケンス中のその後の画像間で強度値を変化させる傾向を示している。したがって、インジケータマップは、背景の動態の指標又は基準をもたらす。インジケータマップ中の値に応じて、前景分類器114は、インジケータマップの値と閾値との間の所定の関係に応じて、各ピクセルに対して閾値Tを設定しうる。この関係は一般的に、インジケータマップの低い値と比較すると、インジケータマップの大きな値に対して、大きな値の閾値Tを与える。例として、閾値TはT=T+aν(m)に従って選択されてもよい。ここで、Tは定数で、aは、インジケータマップによって与えられた背景の動態によって、Tがどの程度影響されるかを調整する係数である。
前景分類器114は更に、シーンの新しい条件、例えば、変化する風の条件に適応するため、インジケータマップを更新しうる。特に、前景分類器114は、現在の画像220と画像シーケンス中の先行画像620に基づいて、インジケータマップ600を更新しうる。このため、前景分類器114は、現在の画像x(220)と先行画像xt−1(620)との間の差分が所定の量Tを上回るかどうかをチェックし、上回る場合には、そのようなピクセルに対してインジケータマップ600の値を増加分だけ増やし、下回る場合には、インジケータマップ600の値を減少分だけ減らす。ピクセルmのインジケータマップ中での値をν(m)で表わすと、前景分類器はインジケータマップ600を
Figure 0006474854
のように更新しうる。背景の運動が起こった場合には、運動はすぐに再び起こる可能性が高いため、背景の新しい動的な変化に迅速に応答し、ゆっくりと減少するため、一般的に、νincrはνdecrよりも大きい。
インジケータマップ600は、背景ピクセルに対してのみ更新される。特に、インジケータマップは、現在の画像x(220)と先行画像xt−1(620)の背景に属すると分類されるピクセル(すなわち、現在の画像220の前景領域232と先行画像620の前景領域632に入るピクセル)に対してのみ更新される。更に、前景分類器114は、インジケータマップの更新に背景ピクセルだけが使用されることを保証するため、安全マージンを適用しうる。より詳細には、前景分類器114は、前景として分類された領域232、632に空間的に近接した背景ピクセルを無視しうる。これは、例えば、分類結果にモルフォロジー演算を適用することによって実装されうる。例えば、前景領域232、632へのモルフォロジカル「膨張」演算は、これらの領域を空間的に増大させ、これによって、潜在的な分類エラーを補償する安全マージンを付加する。
ステップS06では、背景更新コンポーネント118は背景モデルの更新に進む。背景モデルは、背景234として分類されたピクセルに対してのみ更新され、背景サンプルとなる。背景モデルの更新は、ピクセルごとに行われ、2つのステップを含む。最初に、当該ピクセルに関連する背景サンプルの集合体240から、置き換えられる背景サンプルが選択される(S06a)。次に、集合体240の中の選択された背景サンプルを置き換えるため、ピクセル228の画像データが使用される(S06b)。
背景更新コンポーネント118は一般的に、類似性条件を満たす背景サンプルを選択する。類似性条件は、例えば、ピクセル228の画像データが、類似性閾値未満の値だけ背景サンプルと異なること、すなわち、
Figure 0006474854
となりうる。類似性閾値は、上述の閾値Tと同等の大きさになりうる。例えば、類似性閾値は、前述の式T=T+aν(m)で用いられた定数Tと等しくなるように、或いはやや低くなるように設定されうる。
背景更新コンポーネント118は、置き換えられる背景サンプルを探し出すために、異なるアプローチを使用しうる。図2に示された一実施形態によれば、背景更新コンポーネント118は、類似性条件を満たす背景サンプル242を探し出すまで、背景サンプルの集合体240を検索する。より具体的には、背景更新コンポーネント118は、類似性条件を満たす背景サンプル242が見つかるまで(一致が見つからないまま集合体240の終端に到達した場合には、一致が見つかるまで、或いは集合体の中のすべての背景サンプルが調べられるまで)、ピクセル228の画像データを集合体240の背景サンプルと1つずつ比較する。類似性条件を満たす背景サンプル242が見つかると、検索は終了する。
検索は、本書では開始インデックスとも称される、集合体240の中の(黒で示された)開始位置244で開始される。開始位置244はランダムに選択されてもよい。代替的に、開始位置244は、画像シーケンス中の先行画像の対応するピクセルについて検索を開始するため、使用される開始位置に応じて選択されうる。一般的に、開始位置244は、先行画像の対応ピクセルに対して使用される開始位置とは異なるように選択されうる。例として、現在の画像での開始位置244は、先行画像で使用される開始位置244に対して、1だけ増やされることがある。同一の開始位置244が画像220のすべてのピクセルに対して使用されてもよい。代替的に、画像の異なるピクセルに対して、異なる開始位置244が選択されてもよい。
図3は異なるアプローチを示している。図3の実施形態では、背景更新コンポーネント118は、ピクセル228の画像データを集合体240の中のすべての背景サンプルと比較する。集合体240の中の複数の背景サンプルが類似性条件を満たす場合には、背景更新コンポーネント118は、ピクセル228の画像データに最も似通った背景サンプル342を選択する。「最も似通った」とは、一般的に、ピクセル228の画像データからの差異が最も小さい背景サンプル342が選択されることを意味する。より一般的には、「最も似通った」とは、所定のノルム(上記に例示したL1ノルム又はL2ノルム、すなわち、ユークリッドノルム)に従って、ピクセル228の画像データまでの最小距離を有する背景サンプルが選択されることを意味しうる。
集合体240の中の背景サンプルのエイジが記録される実施形態では、すなわち、背景サンプルが集合体240の中にある期間については、背景更新コンポーネント118は更にデータ構造250を更新しうる。所定の数の値が与えられる、新規追加された背景サンプル242、342に対応する位置での値を除き、データ構造250の各値には、所定の数(ここでは1)だけ加えられる。
背景更新コンポーネント118は、集合体240の中に類似性条件を満たす背景サンプルが存在しない状況に至ることがある。このような場合、背景更新コンポーネント118は、類似性条件を満たさない背景サンプルを置き換えてもよい。例えば、背景更新コンポーネント118は、ランダムに、或いは集合体240の中の最も古い背景サンプルを置き換えることによって、背景サンプルを置き換えてもよい。後者の場合、集合体240の中の最も古い背景サンプルは、背景サンプルのエイジを記録するデータ構造250を調べることによって、特定されうる。代替として、背景更新コンポーネント118は、繰り返し検索中に遭遇した最後の背景サンプルを置き換えてもよい。
集合体240の中に関係のなくなったサンプルを有するのを避けるため、背景更新コンポーネント118は更に、古くなり、期限を経過した背景サンプルを置き換える機構を実装しうる。
このような実施形態は図4に示されている。図4の例は、図2及び図3の続きである。図4は、ビデオシーケンス中の図2及び図3の画像220のその後の画像420を示している。この例では、集合体240の中に所定の制限時間(この例では99に設定される)を超えて存在する背景サンプルがないという条件で、ステップS06aとS06bが行われる。実際の例に従って、所定の制限時間は1時間の大きさの単位になりうる。すなわち、ステップS06aとS06bを実行する前に、背景更新コンポーネント118は、集合体240の中の背景サンプルが所定の制限時間よりも古いかどうかをチェックする。そうでない場合には、背景更新コンポーネント118は、上述のようにステップS06aとS06bを実行することに進む。
しかしながら、背景サンプルが集合体240の中に所定の制限時間よりも長い間あったことを、背景更新コンポーネント118が発見すると、当該背景サンプルはピクセル428の画像データで置き換えられる。図示した例では、背景サンプル442は、「エイジ」データ構造250に示したようにエイジ100を有する。これは、所定の制限時間99よりも長いため、背景サンプル442はピクセル428の画像データで置き換えられる。
古いサンプルを置き換える別のアプローチを図5に示す。背景更新コンポーネント118は一般的に、ステップS06aとS06bに関連して上述した内容に従って、背景サンプルの集合体240を更新しうる。しかしながら、シーケンス中のN番目の画像520ごとに、例えば、100番目の画像ごとに1回、又は15分ごとに1回などのように、周期的に、背景更新コンポーネント118は、画像520の背景534として分類されたすべてのピクセル528a、528b、528cに関連する背景サンプルの集合体520a、540b、540cの中の特定の位置又はインデックスを有する背景の置き換えに進んでもよい。ここでは、ピクセル528a、528b、528cにそれぞれ関連する集合体540a、540b、540cが示されている。簡略化するため、3つのピクセルと集合体のみを描いている。しかしながら、これは、背景534として分類された画像520のすべてのピクセルに当てはまる。集合体540a、540b、540cの同じ位置(ここでは、第2の位置)における背景サンプルは、それぞれピクセル528a、528b、528cの画像データによって選択され、置き換えられる。集合体540a、540b、540cの中の位置は、ランダムに選択されてもよく、確定的に選択されてもよい。例えば、第1の間隔では、集合体の中の第1の位置が選択され、第2の間隔では、集合体の中の第2の位置が選択されうる。このように、背景サンプルは遅かれ早かれ置き換えられうる。
実施形態によれば、前景分類器コンポーネント114は更に、種々の計画対象期間を有する幾つかの背景モデルを動作する。このように、長期変動も短期変動も改良された方法で扱われうる。例えば、(各ピクセルに対して背景サンプルの集合体を有する)上述のタイプの第1の背景モデルと、同じく上述のタイプである第2の背景モデルがありうる。第1の背景モデルの背景サンプルは、第1の間隔(例えば、最後の2秒間)に対応する画像シーケンスの画像から収集されうる。第2の背景モデルの背景サンプルは、第2の間隔(例えば、最後の30秒間)に対応する画像シーケンスの画像から収集されうる。
前景分類器コンポーネント114が幾つかの背景モデルで動作するとき、このコンポーネントは、例えば、式(1)に関連する上述の方法で、ピクセルの画像データを背景モデルの各々の背景サンプルと比較する。次に、閾値未満の値だけピクセルの強度値とは異なる(全体で見たときの全背景モデルの中の)背景サンプルの数が所定の数を下回る場合には、当該ピクセルは前景であると判定する。すなわち、式(2)の和又は式(3)の和集合は、全背景モデルの背景サンプルを超えている。
すべての背景モデルは、上述の内容に従って更新されうる。特に、画像シーケンスが受信されると、装置110は種々の背景モデルを交換可能なように更新しうる。すなわち、装置110は、受信画像ごとに背景モデルの(たかだか)1つを更新しうる。背景モデルが異なる計画対象期間(time horizons)を有することが可能となるように、種々の背景モデルは種々の頻度で更新されうる。計画対象期間が長くなればなるほど、更新頻度は低下する。上記の例では、2つの背景モデルにより、第2の背景モデルの計画対象期間は、第1の背景モデルの計画対象期間の15倍になる。したがって、第2の背景モデルの更新頻度は、第1の背景モデルの更新頻度の15分の1の低さになる。具体例では、第1の背景モデルと第2の背景モデルはそれぞれ、1ピクセルあたり10個の背景サンプルを有しうる。画像シーケンスの画像は、毎秒5回受信されうる。第2の背景モデルは、15番目の画像ごとに更新されうる。第1の背景モデルは、他のすべての画像に対して更新されうる。
当業者は、上述の実施形態を多くの方法で修正し、かつ、上記の実施形態において示されている本発明の利点を依然として使用することが可能であることを、理解するであろう。従って、本発明は、図示した実施形態に限定されるべきではなく、添付の特許請求の範囲によってのみ限定されるべきである。さらに、当業者が理解しているように、示された実施形態は組み合わされてもよい。

Claims (8)

  1. 画像(220)の背景差分に使用される背景モデルを更新するための装置(110)で実行される方法であって、
    画像シーケンスの一部である画像(220)を受信するステップ(S02)と、
    前記画像の各ピクセルに対する背景サンプルの集合体(240)を含む背景モデルを使用して背景差分を実行することにより、前記画像(220)の各ピクセル(228)を前景(232)又は背景(234)として分類するステップ(S04)であって、前記ピクセル(228)に関連する背景サンプルの前記集合体(240)はインデックス付けされる、分類するステップ(S04)と、
    背景として分類される前記画像の各ピクセルに対して、
    背景サンプルの前記集合体(240)の中から、前記ピクセルに関連する、類似性条件を満たす背景サンプル(242、342)を選択するステップ(S06a)であって、前記背景サンプルが類似性閾値未満の値だけ前記ピクセル(228)の前記画像のデータと異なる場合には、前記類似性条件は背景サンプル(242、342)に対して満たされる、選択するステップ(S06a)、
    前記類似性条件を満たす前記背景サンプルを前記ピクセルの画像データで置き換えるステップ(S06b)
    によって前記背景モデルを更新するステップ(S06)と
    を含み、
    前記選択するステップ(S06a)は、前記類似性条件を満たす背景サンプル(242)が見つかるまで、前記ピクセルの前記画像データを背景サンプルの前記集合体の中の前記背景サンプルと1つずつ比較することによって、前記ピクセル(228)に関連する背景サンプルの前記集合体(240)を繰り返し検索することを含み、
    前記繰り返し検索は、前記画像シーケンス中の先行画像のピクセルに関する繰り返し検索を開始するために使用されるインデックスに続く背景サンプルの前記集合体のインデックス(244)で開始される、方法。
  2. 背景サンプルの前記集合体(240)の中に前記類似性条件を満たす背景サンプルが1つもない場合には、前記類似性条件を満たさない背景サンプルが、前記ピクセル(228)の画像のデータで置き換えられる、請求項1に記載の方法。
  3. 前記画像(420)の各ピクセル(428)に対して、
    前記ピクセル(428)に関連する背景サンプルの前記集合体(240)の中に、各背景サンプルがどれだけの期間にわたって含まれていたかを記録することを更に含み、
    所定の制限時間よりも長い期間にわたって背景サンプルの前記集合体(240)の中に含まれていた背景サンプルはなかったという条件のもとで、前記選択するステップ(S06a)と置き換えるステップ(S06b)は行われ、
    背景サンプルが所定の制限時間よりも長い期間にわたって背景サンプルが前記集合体の中に含まれていた場合には、前記所定の制限時間よりも長い期間にわたって背景サンプルの前記集合体の中にあった前記背景サンプル(442)は前記ピクセル(428)の画像データによって置き換えられる、請求項1又は2に記載の方法。
  4. 画像シーケンスを受信して、前記画像シーケンス中の毎N番目の画像(520)を除き、前記画像シーケンス中の各画像に対して分類するステップ(S04)と更新するステップ(S06)を繰り返すことであって、N>2では、前記背景モデルの前記更新は代わりに、背景として分類されたN番目の画像(520)の各ピクセル(528a、520b、528c)によって行われる、繰り返すことと、
    前記ピクセルに関連する背景サンプルの前記集合体(540a、540b、540c)の中の背景サンプルを前記ピクセル(528a、520b、528c)の画像データによって置き換えることであって、番目の画像(520)の全ピクセル(528a、520b、528c)で置き換えられる前記集合体(540a、540b、540c)の前記各背景サンプルは同一のインデックスを有する、置き換えることと
    を更に含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記画像の各ピクセルに対して、前記画像の各ピクセル(228)を前景(232)又は背景(234)として分類するステップ(S04)は、
    前記ピクセル(228)の前記画像データを、前記ピクセルに関連する背景サンプルの前記集合体(240)の中の前記背景サンプルの各々と比較することと、
    前記ピクセル(228)の前記画像データと分類閾値未満の値だけ異なる背景サンプルの数が所定の数を下回る場合には、前記ピクセル(228)が前景(234)であると判定することと
    を含む、請求項1から4のいずれか一項に記載の方法。
  6. 前記所定の数が1に等しく、前記ピクセル(228)が前景(234)であると判定するステップは、
    前記ピクセル(228)に関連する前記背景サンプルの少なくとも1つが前記ピクセルの前記画像データと異なり、その差分が分類閾値未満の値である場合には、前記ピクセル(228)が背景であると判定し、そうでない場合には、記ピクセル(228)は前景であると判定すること
    を含む、請求項5に記載の方法。
  7. コンピュータに、請求項1から6のいずれか一項に記載の方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録
  8. 画像(220)の背景差分に使用される背景モデルを更新するための装置(110)であって、
    画像シーケンスの一部である画像(220)を受信するように構成された受信器(112)と、
    前記画像(220)の各ピクセル(228)に対する背景サンプルの集合体(240)を含む背景モデルを使用して背景差分を実行することにより、前記画像(220)の各ピクセル(228)を前景(232)又は背景(234)として分類するように構成された分類コンポーネント(114)であって、前記ピクセル(228)に関連する背景サンプルの前記集合体(240)はインデックス付けされる、分類コンポーネント(114)と、
    背景として分類される前記画像の各ピクセルに対して、
    背景サンプルの前記集合体(240)の中から、前記ピクセル(228)に関連する、類似性条件を満たす背景サンプル(242、342)を選択することであって、前記背景サンプルが、類似性閾値未満の値だけ前記ピクセル(228)の前記画像のデータと異なる場合には、前記類似性条件は背景サンプル(242、342)に対して満たされる、選択すること、
    前記類似性条件を満たす前記背景サンプル(242、342)を前記ピクセル(228)の画像データで置き換えること
    によって前記背景モデルを更新するように構成された背景更新コンポーネント(118)と
    を含み、
    背景サンプル(242、342)を前記選択することは、前記類似性条件を満たす背景サンプル(242)が見つかるまで、前記ピクセル(228)の前記画像データを背景サンプルの前記集合体(240)の中の前記背景サンプルと1つずつ比較することによって、前記ピクセル(228)に関連する背景サンプルの前記集合体(240)を繰り返し検索することを含み、
    前記繰り返し検索は、前記画像シーケンス中の先行画像のピクセルに関する繰り返し検索を開始するために使用されるインデックスに続く背景サンプルの前記集合体のインデックス(244)で開始される、装置(110)。
JP2017108872A 2016-06-08 2017-06-01 背景モデルを更新するための方法及び装置 Active JP6474854B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16173451.2 2016-06-08
EP16173451.2A EP3255585B1 (en) 2016-06-08 2016-06-08 Method and apparatus for updating a background model

Publications (3)

Publication Number Publication Date
JP2018022475A JP2018022475A (ja) 2018-02-08
JP2018022475A5 JP2018022475A5 (ja) 2018-06-14
JP6474854B2 true JP6474854B2 (ja) 2019-02-27

Family

ID=56117546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017108872A Active JP6474854B2 (ja) 2016-06-08 2017-06-01 背景モデルを更新するための方法及び装置

Country Status (6)

Country Link
US (1) US10489916B2 (ja)
EP (1) EP3255585B1 (ja)
JP (1) JP6474854B2 (ja)
KR (1) KR101891225B1 (ja)
CN (1) CN107481256B (ja)
TW (1) TWI660326B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204636B (zh) * 2016-06-27 2019-03-22 北京大学深圳研究生院 基于监控视频的视频前景提取方法
KR102629594B1 (ko) * 2018-04-09 2024-01-29 한화비전 주식회사 객체 및 배경 구분 방법
TWI668669B (zh) * 2018-05-31 2019-08-11 國立中央大學 物件追蹤系統及方法
EP3582181B1 (en) * 2018-06-14 2020-04-01 Axis AB Method, device and system for determining whether pixel positions in an image frame belong to a background or a foreground
EP3667557B1 (en) * 2018-12-13 2021-06-16 Axis AB Method and device for tracking an object
CN110018529B (zh) * 2019-02-22 2021-08-17 南方科技大学 降雨测量方法、装置、计算机设备和存储介质
WO2020251151A1 (ko) * 2019-06-14 2020-12-17 고려대학교 산학협력단 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치
CN110864412B (zh) * 2019-08-12 2021-02-12 珠海格力电器股份有限公司 空调控制方法及系统
EP3800615A1 (en) * 2019-10-01 2021-04-07 Axis AB Method and device for image analysis
US11361574B2 (en) * 2019-10-23 2022-06-14 Bendix Commercial Vehicle Systems Llc System and method for monitoring for driver presence and position using a driver facing camera
CN111588384B (zh) * 2020-05-27 2023-08-22 京东方科技集团股份有限公司 获得血糖检测结果的方法、装置及设备
CN113827233A (zh) * 2020-06-24 2021-12-24 京东方科技集团股份有限公司 用户特征值检测方法及装置、存储介质及电子设备

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109546A (ja) * 2000-09-29 2002-04-12 Toshiba Corp 背景画像の取得方法および装置
US7190809B2 (en) * 2002-06-28 2007-03-13 Koninklijke Philips Electronics N.V. Enhanced background model employing object classification for improved background-foreground segmentation
DE602007004841D1 (de) * 2007-07-08 2010-04-01 Univ Liege Extraktor für visuellen Hintergrund
AU2008200966B2 (en) * 2008-02-28 2012-03-15 Canon Kabushiki Kaisha Stationary object detection using multi-mode background modelling
US8948516B2 (en) 2009-12-21 2015-02-03 St-Ericsson Sa Method for regenerating the background of digital images of a video stream
JP2012033100A (ja) * 2010-08-02 2012-02-16 Canon Inc 画像処理装置、画像処理方法、及びコンピュータプログラム
JP5761954B2 (ja) * 2010-10-13 2015-08-12 セコム株式会社 画像センサ
EP2463821A1 (en) * 2010-12-08 2012-06-13 Alcatel Lucent Method and system for segmenting an image
US8873852B2 (en) * 2011-09-29 2014-10-28 Mediatek Singapore Pte. Ltd Method and apparatus for foreground object detection
AU2011265429B2 (en) * 2011-12-21 2015-08-13 Canon Kabushiki Kaisha Method and system for robust scene modelling in an image sequence
US20130308856A1 (en) * 2012-01-12 2013-11-21 Google Inc. Background Detection As An Optimization For Gesture Recognition
US10073543B2 (en) * 2014-03-07 2018-09-11 Htc Corporation Image segmentation device and image segmentation method
TWI518603B (zh) * 2014-05-22 2016-01-21 宏達國際電子股份有限公司 影像編輯方法與電子裝置
KR101643917B1 (ko) * 2014-09-15 2016-08-01 (주)인더스웰 실사 영상 기반의 스마트 피팅장치
US9471844B2 (en) * 2014-10-29 2016-10-18 Behavioral Recognition Systems, Inc. Dynamic absorption window for foreground background detector
EP3246874B1 (en) * 2016-05-16 2018-03-14 Axis AB Method and apparatus for updating a background model used for background subtraction of an image
TWI615806B (zh) * 2016-10-11 2018-02-21 威聯通科技股份有限公司 影像背景學習方法及電子裝置

Also Published As

Publication number Publication date
JP2018022475A (ja) 2018-02-08
KR20170138938A (ko) 2017-12-18
TWI660326B (zh) 2019-05-21
EP3255585A1 (en) 2017-12-13
TW201810186A (zh) 2018-03-16
CN107481256B (zh) 2019-05-14
KR101891225B1 (ko) 2018-08-24
CN107481256A (zh) 2017-12-15
US10489916B2 (en) 2019-11-26
US20170358093A1 (en) 2017-12-14
EP3255585B1 (en) 2018-05-09

Similar Documents

Publication Publication Date Title
JP6474854B2 (ja) 背景モデルを更新するための方法及び装置
JP6509275B2 (ja) 画像の背景差分に用いられる背景モデルを更新する方法及び装置
Sen-Ching et al. Robust techniques for background subtraction in urban traffic video
US9230175B2 (en) System and method for motion detection in a surveillance video
US10607098B2 (en) System of a video frame detector for video content identification and method thereof
CN108229456B (zh) 目标跟踪方法和装置、电子设备、计算机存储介质
US10373320B2 (en) Method for detecting moving objects in a video having non-stationary background
KR101764845B1 (ko) 다중 이동 물체의 겹침 제거 및 추적을 위한 영상 감시 장치 및 방법
Herrero et al. Background subtraction techniques: Systematic evaluation and comparative analysis
JP2002288658A (ja) 領域分割された映像の領域特徴値整合に基づいた客体抽出装置およびその方法
Ma et al. Detecting Motion Object By Spatio-Temporal Entropy.
Roy et al. Foreground segmentation using adaptive 3 phase background model
CN110969645A (zh) 面向拥挤场景的无监督异常轨迹检测方法和装置
KR101690050B1 (ko) 지능형 영상보안 시스템 및 객체 추적 방법
JP2014110020A (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR101137110B1 (ko) 영상 내 물체 감시 방법 및 장치
Bou et al. Reviewing ViBe, a popular background subtraction algorithm for real-time applications
CN112613516A (zh) 用于航拍视频数据的语义分割方法
Lindstrom et al. Background and foreground modeling using an online EM algorithm
Sun et al. Long-term Object Tracking Based on Improved Continuously Adaptive Mean Shift Algorithm.
KR102594422B1 (ko) 그라운드에 프로젝트된 오브젝트의 무게 중심을 예측하는 오브젝트 디텍터를 학습하는 방법, 학습된 오브젝트 디텍터를 이용하여 서로 다른 뷰잉 프러스텀을 가지는 복수의 카메라로부터 촬영된 특정 공간 내에서 동일한 오브젝트를 식별하는 방법, 그리고, 이를 이용한 학습 장치 및 오브젝트 식별 장치
Kiran et al. Real-time background subtraction using adaptive sampling and cascade of gaussians
Mould et al. A conservative scene model update policy
Teixeira et al. Cascaded change detection for foreground segmentation
JP2006146457A (ja) 動物体輪郭抽出方法及び装置並びに動物体輪郭抽出プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180427

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180723

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190130

R150 Certificate of patent or registration of utility model

Ref document number: 6474854

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250