JP2018010621A - 画像の背景差分に用いられる背景モデルを更新する方法及び装置 - Google Patents

画像の背景差分に用いられる背景モデルを更新する方法及び装置 Download PDF

Info

Publication number
JP2018010621A
JP2018010621A JP2017094328A JP2017094328A JP2018010621A JP 2018010621 A JP2018010621 A JP 2018010621A JP 2017094328 A JP2017094328 A JP 2017094328A JP 2017094328 A JP2017094328 A JP 2017094328A JP 2018010621 A JP2018010621 A JP 2018010621A
Authority
JP
Japan
Prior art keywords
background
image
pixel
foreground
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017094328A
Other languages
English (en)
Other versions
JP6509275B2 (ja
Inventor
ヨアキム バルッセン,
Baltsen Joakim
ヨアキム バルッセン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axis AB
Original Assignee
Axis AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Axis AB filed Critical Axis AB
Publication of JP2018010621A publication Critical patent/JP2018010621A/ja
Application granted granted Critical
Publication of JP6509275B2 publication Critical patent/JP6509275B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

【課題】画像の背景差分に用いられる背景モデルを更新する際の時間計算量を改善する。【解決手段】画像220と背景モデル240を用いた背景差分により、画像中の領域226を前景に分類する。背景モデルは、画像中の各画素228についての背景サンプル248a、248b、248c、248dのコレクションを含む。背景サンプルのコレクションは、背景画像242a、242b、242c、242dのリスト状に並べられている。更に、前景に分類された画像の領域226内の画像内容を、リスト内の背景画像中の対応する領域246の画像内容で置き換え、リスト内の背景画像のうちの1つをそれぞれ指しているポインタ244a、244b、244c、244dのコレクションを、ポインタのうちの1つが当該画像を指すように並べ替えることにより、当該画像を背景画像のリストに加える。【選択図】図2

Description

本発明は、画像の背景差分の分野に関する。具体的には、画像の背景差分に用いる背景モデルの更新に関する。
ビデオでの監視においては、ビデオシーケンスで捕捉したシーン中で動くオブジェクトを検出できることが重要である。ビデオでの動き検出ツールは数多く存在する。ビデオストリーム中の特徴を追うことでオブジェクトをフレームごとに追跡するものもある。現在のフレームを画素ごとに、静止した背景フレームと比較するものもある。後者は、有意な変化が生じた区域を検出することで動くオブジェクトを抽出しようとする、背景差分によるものである。静止しているオブジェクトが背景の一部であるのに対し、動いているオブジェクトは前景と称される。
動いているオブジェクトを背景から分離することは複雑な課題である。背景が動的である場合、例えば揺れている樹や水の波が背景に存在する場合、又は光が変化している場合には更に難しくなる。特に、背景が動的であることによって、動くオブジェクトが誤って検出されることが多くなり得る。
教本「Background Modeling and Foreground Detection for Video Surveillance」(Thierry Bouwmans、Fatih Porikli、Benjamin Hoferlin、Antoine Vacavant編)、CRC Press, Taylor & Francis Group, Boca Raton,2015年刊には、背景差分法のレビューが記載されている(例えば第1章及び第7章を参照)。
背景差分法は一般に、ビデオストリームの現在のフレームを、動くオブジェクトを含まない参照の背景フレーム又はモデルと比較することを含む。画像を背景フレーム又はモデルと比較することにより、画像中の各画素が前景に属するか背景に属するかが決定され得る。この方式で、画像が、2つの相補的な画素の組、すなわち前景と背景に区分され得る。
背景差分は、土台となる背景モデルと、経時的に変化する背景に適応する更新のストラテジーの定義を要する。当該文献では多数の背景モデルが提案されている。これにはパラメトリックモデルと非パラメトリックモデルが含まれている。
パラメトリックなモデルの一例は、ガウス分布によって背景を画像中の画素位置でモデリングすることである。これは静止したシーンではうまくいくものの、背景画素がマルチモーダルに分布している場合、例えば背景に揺れる樹が存在する場合には失敗することがある。
マルチモーダルに分布した背景に対処すべく、ガウス分布の混合によって、背景を画像中の画素位置でモデリングすることが提案されている。そのようなモデルはマルチモーダル分布の背景のモデリングには有効であるものの、その他の欠点を有する。例えば、現実世界のノイズに満ちた環境ではパラメータの推定が困難となり得、自然画像がガウス挙動を呈するかどうかが疑問視されている。
これらの欠点により、当該文献では非パラメトリックモデルが考察されている。例えば、過去の画素値の確率密度関数の、非パラメトリックなカーネル密度推定が提案されている。これらのモデルの強みは、背景中の高頻度イベントに、より迅速に適合し得ることである。欠点は、背景中の、異なる速度で進行しているイベントのハンドリングが困難であり得ることである。
別のタイプの非パラメトリックモデルは、サンプルベースのモデルと称される。そのようなモデルでは、各画素の背景が過去の背景サンプルのコレクションを用いてモデリングされる。経時的に変化する背景に適応するために、現在のフレーム中の画素が背景に属すると分類されると過去の背景サンプルのコレクションが更新される。Wang and Suter(「A consensus-based method for tracking: Modelling background scenario and foreground appearance」Pattern Recognition, 40(3),2007)は、過去の背景サンプルのコレクションを、先入れ先出しの原則に従って更新することを提案している。これは、最も旧い背景サンプルがコレクションから取り除かれ、現在のフレームの画素値がコレクションに加えられるように、過去の背景サンプルのコレクションが更新されることを意味する。US8009918B2では、現在のフレームの画素値が、背景サンプルのコレクション中の、ランダムに選択された背景サンプルに置き換わるという代替的な更新手法が記載されている。
これらの背景更新方法の欠点は、メモリ内で実際の背景サンプルを移動することが要求されるということである。例えば、順序づけられたN個の背景サンプルコレクションを先入れ先出し原則に則って更新する際、新しい背景サンプルをコレクションのポジション1に書き込む前に、コレクションのサンプル1から(N−1)を、コレクションのポジション2からNへと移動することが必要となる。これが、背景に属すると分類されたすべての画素位置について繰り返される必要がある。従って、サンプルベースの背景モデルの更新の時間計算量(time complexity)を改善する必要がある。
上記に鑑み、本発明は、サンプルベースの背景モデルを更新する際の時間計算量の改善を目的とする。
本発明の第一の態様によれば、上記の目的が、装置で実施される下記の方法によって達成される。画像の背景差分に用いる背景モデルを更新する方法であって、
画像を受け取ること、
当該画像中の各画素についての背景サンプルのコレクションを含む背景モデルを用いた背景差分を実施することによって、当該画像の領域を前景に分類することであって、背景サンプルのコレクションは、当該画像の各画素が、各背景画像において当該画像中の画素位置に対応する画素位置における背景サンプルを有するように、背景画像のリスト状に並べられている、分類すること、
当該画像の、前景に分類された領域内の画像内容を、リスト中の背景画像の対応する領域内の画像内容で置き換えること、及び
リスト内の背景画像のうちの1つをそれぞれ指しているポインタのコレクションを並べ替えることによって、ポインタのうちの1つが当該画像を指すように、当該画像を背景画像のリストに加えること
を含む、方法。
すなわち、提案する方法は、サンプルベースの背景モデルを更新する方法である。時間tで新しい画像が受け取られると、時間t−1にビルドされた背景モデルを使用して、新しい画像中の画素を背景又は前景として分類する。その後、背景モデルが新しい画像の背景サンプルで更新される。
背景モデルは背景画像のリストとして並べられている。背景画像は、画像のシーケンス中の新しい画像に先行する画像の背景サンプルを含む。背景画像中の背景サンプルは、必ずしも画像シーケンス中の同じ画像に由来しない。背景画像のリストは更に、ポインタのコレクションに関連付けられており、各ポインタは、リスト中の背景画像のうちの1つを指している。
本発明は、背景モデル即ち背景画像のリストの更新が、上記のようにメモリ内の背景サンプルを移動するのではなく、背景画像へのポインタを並べ替えることでなされれば、計算上の複雑さが低減し得ることが分かったことに端を発したものである。具体的には、ポインタのうちの1つが新しい画像を指すようにポインタを並べ替えることによって、新しい画像のすべての背景サンプルが一工程で背景モデルに加えられ得る。言い換えれば、更新が画素ごとに実施される必要がなく、メモリ内で移動を要する背景サンプルは存在しなくなる。
ポインタが並べ替えられると、新しい画像のすべてのサンプルが背景モデルに加えられる。保守的な(conservative)更新を保証するために、即ち前景ではないと分類されたサンプルのみが背景モデルに加えられるために、本方法は更に、前景に分類された画素において、画像内容、即ち前景に分類された画素内の輝度(intensity)値(可能な場合は幾つかの色チャンネルについて)を置き換えることを提案する。より具体的には、新しい画像中の、前景オブジェクトが存在すると判定された画素位置では、画像内容がリストの背景画像のうちの1つからコピーされる。これにより、保守的更新が求められる場合にも、計算上の複雑さが抑えられる。
背景モデルとは一般に、画像中の背景を画素レベルで表すモデルを意味する。
背景差分とは一般に、画像の、背景モデルとの比較を意味する。画像を背景モデルと比較することにより、画像中の各画素が前景に属するか背景に属するかが決定され得る。
背景サンプルとは一般に、画像のサンプル、即ち、背景に属すると分類された画素中の、観測(observation)又は輝度値(可能ならば幾つかの色チャンネルの)を意味する。
背景画像とは一般に、2次元データ構造に並べられた背景サンプルのコレクションを意味する。背景画像のサイズは、受け取った画像のサイズと同じである。従って、背景画像中の各画素は、受け取った画像中の画素に対応する。背景画像は、画像シーケンス中の先行する画像の背景サンプルを含む。しかし、背景画像中の背景サンプルは、必ずしも画像シーケンス中の同じ画像に由来しない。
背景画像のリストとは一般に、背景画像の順序づけられたコレクションを意味する。
ポインタとは一般に、プログラミング言語オブジェクトを意味し、その値は、コンピュータメモリ内の別のどこかに記憶されている別の値をそのアドレスを用いて参照、即ち指している。従ってポインタはメモリ内の位置を参照する。
背景モデルは、先入れ先出し原則に則って更新され得る。この方式で、最も新しい背景サンプルが典型的にはリストの最初に来て、最も旧い背景サンプルがリストの最後に来るという、リスト内の背景画像の時間的順序が存在する。より詳細には、画像の前景に分類された領域内の画像内容が、リスト内の最後の背景画像中の、対応する領域の画像内容で、置き換えられ得る。更に、当該画像が、背景画像のリストの最初に加えられ得る。これは、背景モデルに加えられるべき画像の前景画素が、リスト内の最後の背景画像からの背景サンプルによって置き換えられ得ることを意味する。
具体的には、リストの最初の背景画像を指しているポインタが当該画像を指し、残りの各ポインタが、ポインタが現在指しているリストの背景画像に先行するリストの背景画像を指すよう、並べ替えられるように、ポインタのコレクションを並べ替えることによって、画像が背景画像のリストの最初に加えられ得る。この方式で、画像がリストの最初に加えられ、ポインタを並べ替えることによって、リストの背景画像がリストの1つ下のレベルに移動される。結果として、リスト内の背景画像の数が一定に保たれるので、リスト内の最後の背景画像が背景モデルから取り除かれる。
最後の背景画像をリストからを取り除く前に、リスト内の最後の背景画像の画像内容が、前景に分類された領域内の新しい画像にコピーされることに留意されたい。この方式で、背景モデルから取り除かれたであろう背景サンプルが再利用される。背景モデル中の複製の背景サンプルの数を最小限に抑える。
前景又は背景に属する画像の画素を分類するために、一般的には画素の輝度値が、当該画素に関連付けられた背景サンプルのコレクションと比較され得る。画素中の輝度値が所定の数の背景サンプルと同様である場合、当該画素は背景に属する可能性がある。そうでない場合、前景に属する可能性がある。より具体的には、画像中の、前景である領域を分類するステップは、画像中の各画素について、当該画素の輝度値を当該画素に関連付けられた各背景サンプルと比較すること、及び、閾値よりも少ないぶんだけ当該画素の輝度値と異なる背景サンプルの数が、所定の数よりも少ない場合に、当該画素が画像中の前景である領域に属することを判定すること、を含む。この方式で、画像中の画素の分類に背景モデルがより効率的に使用され得る。
閾値よりも少ないぶんだけ当該画素の輝度値とは異なる背景サンプルの数は、画素閾値よりも少ないぶんだけ輝度値と異なる背景サンプルの数を、カウントすることにより計算され得る。
しかしながら、所定の数が1に等しい場合、計算上特に効率的な実装形態が存在する。そのような場合、背景サンプルコレクション中に、該画素中の輝度値と同様の(閾値より少ないぶんだけ異なる、と定義される)背景サンプルが存在しない場合、画素は前景に属する。「同様の背景サンプルがない」イベントは、「少なくとも1つでない背景サンプルが同様である(not at least one background sample is similar)」イベントに等しい。コレクション中にN個の背景サンプルが存在すると仮定する。そして「少なくとも1つの背景サンプルが同様である」イベントは、「(背景サンプル1が同様である)又は(背景サンプル2が同様である、又は、…又は(背景サンプルNが同様である)」イベントとして表され得る。これは、和集合
Figure 2018010621
として表され得る。結論として、「同様の背景サンプルがない」イベントは「
Figure 2018010621
でない」イベントに等しい。
このため、画素が画像中の前景である領域に属すると判定するステップは、画素に関連付けられた背景サンプルのうちの少なくとも1つが、閾値よりも少ないぶんだけ、当該画素の輝度値と異なるかどうかを、論理和演算を実施することによりチェックし、そうでない場合、閾値よりも少ないぶんだけ当該画素の輝度値と異なる背景サンプルの数が所定の数よりも少ないと判定し、それにより、当該画素が画像中の前景である領域に属すると判定すること、を含み得る。
典型的に、論理演算は、総和及びそれに続く閾値の数との比較よりも処理電力及びメモリ使用の必要が少ないので、これは計算上効率的であろう。
閾値(輝度値が背景サンプルにどの程度似ているかを判定するのに用いる)は、画像中の画素の位置によって変化し得る。具体的には、閾値は、画素の位置における背景が、画像シーケンスにおいて後続する画像間で値が変化する傾向に応じて変化し得る。一般に、値が変化する傾向が高いほど、より高い値の閾値が与えられ得る。このことは、前景分類が、揺れる樹々、水の波などの動的な背景に適合し得る点で有利である。例えば、分類の感度が動的な領域に比べて非動的な領域において向上し得る。
画素の位置における背景サンプルの、画像シーケンスにおいて後続する画像間で輝度値が変化する傾向は、インジケータマップによって与えられ得る。これにより、迅速かつ効率的な実装態様がもたらされる。具体的には、画像が画像シーケンスの部分を形成している場合、閾値は、インジケータマップに基づいて、画像中の各画素について計算され得る。インジケータマップは、画素の位置における背景サンプルの、画像シーケンスにおいて後続する画像間で輝度値が変化する傾向を画像中の各画素について示している。
背景の動態の変化に対応するために、インジケータマップは、現在受け取っている画像と画像シーケンスにおいて先行する画像を考慮して更新されるのが好ましい。インジケータマップは典型的に、現在の及び先行する画像中の、背景に属すると分類された画素についてのみ更新される。具体的には、方法は、下記によってインジケータマップを更新することを含み得る。当該画像中の前景と分類された領域にも、画像シーケンスにおいて先行する画像中の前景と分類された領域にも、属さない画素について、当該画素の位置における、当該画像と先行する画像との差が、所定量よりも大きいかどうかをチェックし、そうである場合には、当該画素についてインジケータマップの値を所定のインクリメント値ぶん増大させること、そうでない場合、当該画素についてインジケータマップの値を、所定のインクリメント値よりも小さい所定のデクリメント値ぶん減少させる。
インクリメント値はデクリメント値よりも大きいので、本方法は、シーン中で例えば風の条件が変わったことに起因し得る背景の新しい動態に素早く応答することが可能となる。同時に、インジケータマップ中に蓄積された値の減少は遅くなるであろう。このことは、動的な背景の運動が再び起こる可能性があるので有利である。
時間枠が異なる背景における動態を捉えるために、本方法は更に、1つよりも多い背景モデルを使用し得る。異なる対象期間(time horizon)を有する異なる背景モデルがデザインされ得る。例えば、短い対象期間を有する第1の背景モデルと、より長い対象期間を有する第2の背景モデルとが存在してもよい。具体的には、背景モデルが第1の背景モデルであり得、画像の領域を前景に分類するステップは、第1の背景モデルに加えて第2の背景モデルを用いて、背景差分を実施することを含み得、第1の背景モデルにおいては、各画素についての背景サンプルのコレクションが第1の時間間隔からサンプリングされた(即ち、受け取られた)画像に基づいており、第2の背景モデルにおいては、各画素についての背景サンプルのコレクションが第2の時間間隔からサンプリングされた画像に基づいており、第1の時間間隔は第2の時間間隔の部分である。
従って、第2の背景モデルは第1の背景モデルと同じタイプであり、違いは、第2の背景モデルがより長い対象期間を有していることである。ここで、対象期間とは、背景モデル中の背景サンプルが収集される時間間隔によって定められる。例示として、第1の背景モデルは、最後の2秒間でサンプリングされた画像からの背景サンプルを含み得、一方第2の背景モデルは、最後の30秒間でサンプリングされた画像からの背景サンプルを含み得る。
本方法は、第2の背景モデルを更新することを更に含み得る。従って、第1の背景モデルと第2の背景モデルの両方が更新され得る。好ましくは、背景モデル中の冗長な情報を避けるため、画像シーケンス中の受け取った各画像に対して、背景モデルのうちの1つのみが更新される。より具体的には、画像が画像シーケンスの部分を形成し、本方法が、シーケンス中の各画像について、第1の背景モデル及び第2の背景モデルのうちの一方を更新することを含み、第1の背景モデルは第2の背景モデルよりも高頻度で更新される。第1の背景モデルを第2の背景モデルよりも高頻度で更新することにより、異なる対象期間が達成され得る。
例示として、第1の背景モデルと第2の背景モデルとがそれぞれ10の背景画像を含み、画像シーケンスの画像が毎秒5回受け取られると仮定する。次いで、第2の背景モデルが15番目の画像ごとに更新され、受け取った他のすべての画像に対して、第1の背景モデルが更新され得る。このようにして、第1の背景モデルは2秒の対象期間を有し、第2の背景モデルは30秒の対象期間を有するであろう。
本発明の第2の態様によれば、上記の目的は、処理能力を有するデバイスによって実行されると第1態様の方法を実施するコンピュータコード指令を記憶したコンピュータ可読媒体を備える、コンピュータプログラム製品によって達成される。
本発明の第3の態様によれば、上記の目的は、画像の背景差分に用いる背景モデルを更新する装置によって達成される。装置は、
画像を受け取るように構成された受信器、
当該画像中の各画素についての背景サンプルのコレクションを含む背景モデルを用いて背景差分を実施することによって、当該画像の領域を前景に分類するように構成された、前景分類器であって、背景サンプルのコレクションは、当該画像の各画素が、各背景画像において当該画像中の画素位置に対応する画素位置における背景サンプルを有するように、背景画像のリスト状に並べられている、前景分類器、
前景に分類された、画像の領域内の画像内容を、リスト内の背景画像中の対応する領域の画像内容で置き換えるように構成された、前景置換コンポーネント、及び
リスト内の背景画像のうちの1つをそれぞれ指しているポインタのコレクションを、ポインタのうちの1つが当該画像を指すよう並べ替えることにより、当該画像を背景画像のリストに加えるように構成された、背景更新コンポーネント
を含む。
前景置換コンポーネントは更に、前景に分類された画像の領域内の画像内容を、リスト内の最後の背景画像中の対応する領域の画像内容で置き換えるように構成され得、背景更新コンポーネントは、当該画像を背景画像のリストの最初に加えるように構成され得る。
背景更新コンポーネントは、リストの最初の背景画像を指しているポインタが当該画像を指し、残りの各ポインタが、ポインタが現在指しているリスト内の背景画像に先行する、リスト内の背景画像を指すよう並べ替えられるよう、ポインタのコレクションを並べ替えることにより、当該画像を背景画像のリストの最初に加えるように構成され得る。
第2及び第3の態様は、一般的に、第1態様と同じ特徴及び利点を有し得る。本発明は、別途明記されない限り、起こり得る特徴の組み合わせ全てに関することに更に留意されたい。
本発明の上記及び更なる目的、特徴、利点は、添付図面を参照しつつ、本発明の実施形態の以下の例示的かつ非限定的な詳細説明を通じて、より明確に理解されるであろう。図面では類似要素に対して同じ参照番号が使用されている。
画像の背景差分に用いる背景モデルを更新する装置を含むカメラシステムを概略的に示す。 第1の実施形態による、画像の背景差分に用いる背景モデルを更新するために行われるステップのシーケンスを概略的に示す。 第2の実施形態による、画像の背景差分に用いる背景モデルを更新するために行われるステップのシーケンスを概略的に示す。 第3の実施形態による、画像の背景差分に用いる背景モデルを更新するために行われるステップのシーケンスを概略的に示す。 実施形態による、画像の背景差分に用いる背景モデルを更新する方法のフロー図である。 実施形態による、インジケータマップを更新するのに用いられる現在の画像及び先行する画像を概略的に示す。
これより、本発明の実施形態を示す添付図面を参照して、本発明をより網羅的に説明する。本明細書において開示されるシステム及びデバイスは、動作中のものが説明されることになる。
図1は、カメラ102と、カメラ102が捕捉した画像の背景差分に用いる背景モデルを更新する装置110とを含む、カメラシステム100を示す。カメラ102は例えば、有線又は無線ネットワーク104を介して装置110に動作可能に接続されている。
カメラ102は、シーン120の画像シーケンスを捕捉し、捕捉した画像シーケンスを装置110に送信するように構成されている。具体的には、カメラ102は、例えば、シーン120中の動くオブジェクトを追うために用いられ得る監視カメラであり得る。シーン120は、種々のオブジェクトを含み得る。例えば、画像シーケンス中で追跡されるべき、ゆえに前景に属する動くオブジェクト122(ここでは走行中の人物で示す)が存在し得る。また、背景オブジェクト124及び126(ここでは樹の枝124及び小道126で示す)が存在し得る。背景オブジェクトは小道126などの静止したものであってもよく、或いは、風が吹くと前後に揺れる枝124などの動くものであってもよい。
装置110は、受信器112、前景分類器114、前景置換コンポーネント116、及び背景更新コンポーネント118を含む。装置110の内部コンポーネント112、114、116、及び118は、ハードウェア、ソフトウェア、又はそれらの組み合わせで実装されてよい。例えば、装置110は、プロセッサと、プロセッサで実行すると本明細書に記載の何れかの方法を実行するソフトウェア指令を記憶し得る非一時的コンピュータ可読媒体(即ち、メモリ)を含み得る。
図1−4、及び図5のフロー図を参照して、装置110の動作について記載する。
ステップS02で、受信器112が、カメラ102から、シーン120を示す画像220を、例えばネットワーク104を介して受け取る。画像220 は、カメラ102から装置110へ送られた画像シーケンスの部分である。画像220中、前景オブジェクト122と背景オブジェクト124,126が示されている。
ステップS04で、前景分類器114が、各画素228を背景又は前景に属するとして分類する。この目的の為、前景分類器114は背景モデル240を利用する。背景モデルは、複数の背景画像242a、242b、242c、242dを含む。図示のため、4つの背景画像を示してある。しかしながら、典型的には約20の背景画像が存在する。各背景画像242a、242b、242c、242dは、カメラ102から受け取った画像220と同じ数の画素を有している。より具体的には、背景画像242a、242b、242c、242d中の各画素が、画像220中の対応する画素の背景サンプルを含む。例えば、背景画像242aの画素248aは、画像220の画素228に関連付けられた背景サンプルを含む。同様に、背景画像242b、242c、242dの画素248b、248c、248dそれぞれ、画像220の画素228に関連付けられた背景サンプルを含む。言い換えれば、画素248a、248b、248c、248d背景サンプルは、画像220の画素228についての背景サンプルのコレクションである。
背景画像242a、242b、242c、242dは、リストとして並べられている。このことは、これらの背景画像が背景画像の順序づけられたコレクションであることを意味する。従って、リスト最初の背景画像、この場合背景画像242aと、リスト内の最後の背景画像、この場合背景画像242dとが存在する。
背景モデルは更に、ポインタ244a、244b、244c、244dのコレクションを含む。ポインタはそれぞれ、リスト内の背景画像242a、242b、242c、242dのうちの1つを指す。ここで、コレクション中の最初のポインタであるポインタ244aは、リスト内の第1の背景画像242aを指す。同様に、コレクション中の2つめのポインタ244bはリスト内の第2の背景画像242bを指す、等となる。
画像220中の各画素228を背景又は前景に分類する際、前景分類器114は、例えばWang and Suter(「A consensus-based method for tracking: Modelling background scenario and foreground appearance」. Pattern Recognition, 40(3),2007)に記載のような背景差分を適用し得る。図2の例で、前景分類器114は、背景差分を適用することにより、オブジェクト122の内側にあたる画素を前景に属するとして分類するであろう。言い換えれば、画像220の、前景に分類された領域226が存在する。
より詳細には、画像シーケンスの時間tにおける画素m中の観測をx(m)で表し、画素mの背景サンプルのコレクションを{x(m)|i=1,・・・,N}で表す。各観測
Figure 2018010621
は、kチャンネル(例えば、RGB色空間で、各観測が3つのチャンネルR,G,Bで表現される)を有する。前景分類器114は、画像220中の各画素228について、(該当する場合には各チャンネルについて)輝度値を、画素228に関連付けられた各背景サンプル248a、248b、248c、248dと比較して、輝度値が各背景サンプルと閾値Tよりも少ないぶんだけ異なるかどうかを確認し得る。例えば、前景分類器114は、下記に従って、画素の輝度値と閾値Tよりも少ないぶんだけ異なる背景サンプルを値「1」と関連づけ、その他の背景サンプルは値「ゼロ」に関連づけられ得る。
Figure 2018010621
コレクション248a、248b、248c、248d中の、画素の輝度値とは閾値Tよりも少ないぶんだけ異なる背景サンプルの数が所定の数T以上である場合、前景分類器114は、当該画素が背景に属すると判定し得る。そうでない場合は前景に属する。
これは、時間tにおいて背景画素では値「1」をとり前景画素では「ゼロ」をとるバイナリマスクBを下記に従い計算することによって実施され得る。
Figure 2018010621
別の表現をすると、前景分類器114は、コレクション248a、248b、248c、248d中の、画素228の輝度値とは閾値Tよりも少ないぶんだけ異なる背景サンプルの数をカウントし得る。その数が所定の数T以上である場合、前景分類器は当該画素が背景に属すると判定し、そうでない場合は前景に属すると判定する。従って、前景分類器が、コレクション248a、248b、248c、248d中に、画素228中の輝度値と(方程式1の意味において)同様の少なくともT背景サンプルを見出す場合、画素228は背景に属すると分類され、そうでない場合は前景に属すると分類されるであろう。
画素228中の輝度値が1つの背景サンプル248a、248b、248c、248dと同様であれば、即ち、T=1であれば十分であり得ることが見出された。そのような場合、方程式2が論理和演算を用いて効率的な方式で実施され得る。具体的には、方程式2が下記のように書き換えられ得る。
Figure 2018010621
従って、前景分類器114は、論理和演算(即ち、背景サンプル248a、又は背景サンプル248b、又は背景サンプル248c、又は背景サンプル248dが画素228の輝度値と閾値Tよりも少ないぶんだけ異なるか)を実施することにより、画素に関連付けられた背景サンプルのうちの少なくとも1つが、画素の輝度値と閾値よりも少ないぶんだけ異なるかどうかをチェックし得る。そうでない場合、前景分類器114は当該画素を前景に属すると分類するであろう。この方式で、論理演算が必要とする処理電力及びメモリ使用はより少ないので、計算上の複雑さが節減され得る。
閾値Tは画像220中のすべての画素について同じであってもよい。しかしながら、ある実施形態では画像中の画素の位置により閾値Tが異なっていてもよい。従って、異なる画素は閾値Tの異なる値を有し得る。更に、閾値Tが時間とともに変化してもよい。一般に、前景分類器114は、画像シーケンス中の連続する画像間で、画素の位置における背景サンプルがどのくらいの頻度で値を変化させる傾向があるかに応じて、閾値Tを設定し得る。具体的には、閾値Tは、背景が頻繁に値を変化させる傾向にある画素においては、背景が常に多かれ少なかれ同じである画素に比べて、より大きく設定され得る。この方式で、分類を、背景が頻繁に値を変化させる領域、即ち、例えばシーン中の揺れる枝などに起因する1つのモダリティから別のモダリティへの移行では、感度がより低いように設定できる。
このことは図6で更に例示されている。閾値Tを設定するために、前景分類器114は、画素の蓄積されたモダリティ移行レベルの2次元マップ600を保持し得る。このマップをインジケータマップと称す。従って、インジケータマップの値は、背景の、画像シーケンス中の後続する画像間で輝度値が変化する傾向を示す。従って、インジケータマップは、背景の動態の指標又は尺度を提供する。インジケータマップの値に応じて、前景分類器114は、インジケータマップの値と閾値との間の所定の関係に従って、各画素の閾値Tを設定し得る。この関係は典型的に、インジケータマップのより大きな値について、インジケータマップのより低い値に比べて、閾値Tのより大きな値をもたらす。例示として、閾値Tは、Tr−+av(m)に従って選択され得る。式中、Tは定数であり、aは、インジケータマップによってもたらされる、Tが背景の動態にどの程度影響されるかを調整する係数である。
前景分類器114は、シーン中の新しい条件、例えば風の変化という条件に適応するために、インジケータマップ600を更に更新し得る。具体的には、前景分類器114は、画像シーケンス中の現在の画像220と先行する画像620とに基づいて、インジケータマップ600を更新し得る。この目的の為、前景分類器114は、現在の画像x220と先行する画像xt-1620との間の差が所定量Tよりも大きいかどうかをチェックし、大きい場合、そのような画素についてのインジケータマップ600中の値をインクリメント値ぶん増大させ、そうでない場合、インジケータマップ600中の値をデクリメント値ぶん減少させ得る。画素m中のインジケータマップの値をv(m)で表すと、前景分類器は、インジケータマップ600を下記ように更新し得る。
Figure 2018010621
典型的に、vincrはvdecrよりも大きい。背景中の新しい動的な変化に素早く対応し、背景の動きが発生したばかりである場合はすぐに再度発生する可能性があるので、ゆっくりと減少するためである。
インジケータマップ600は背景画素についてのみ更新される。具体的には、インジケータマップは、現在の画像x220及び先行する画像xt-1620中の、背景に属すると分類された画素についてのみ更新される(即ち、現在の画像220中の前景領域226及び先行する画像620の前景領域626の外側にあたる画素)。更に、前景分類器114は、インジケータマップの更新に背景画素のみが用いられることを保証するために、安全マージンを適用する。より詳細には、前景分類器114は、前景と分類された領域226,626に空間的に近い背景画素を無視し得る。これは例えば、分類結果に対してモルフォロジー演算を適用することにより実施され得る。例えば、前景領域226,626にモルフォロジーの「膨張(dilate)」演算を適用することで空間的に成長させ、それにより安全マージンを付加して潜在的な分類エラーを補償する。
次にステップS06で、前景置換コンポーネント116が、画像220の前景に分類された領域226内の画像内容、即ち輝度値を、リスト内の背景画像中の対応する領域246の画像内容で置き換える。領域226の画素が領域246の画素に対応している、即ち、これらの画素が画像中で同じ位置を有しているという点で、領域246は領域226に対応する。図2の例では、リスト内の最後である背景画像242dがこの目的のために選択される。しかしながら、背景モデル240中の背景画像242a、242b、242c、及び242のうちの任意の1つが選択されていてもよい。例えば、背景画像がリストからランダムに選択されてもよい。図3及び4の例がそのような場合であり、ランダム選択工程の後に第2の背景画像242bが選択された。
前景画素の領域226中の画像内容を、背景画像中の領域246からの画像内容で置き換えることにより、得られた画像230は、これらの背景サンプルは同じオリジナル画像からのものでないものの、背景サンプルのみを含む。この方式で、背景モデル240の更新に背景サンプルのみが用いられる。
前景置換コンポーネント116は、背景モデルの更新に背景画素のみが用いられることを保証するために、安全マージンを適用し得る。より詳細には、前景置換コンポーネント116もまた、前景と分類された領域226に空間的に近い画像220中の画素の画像内容を置き換え得る。これは例えば、画像内容を置き換える前に分類結果に対してモルフォロジー演算を適用することによって実施され得る。例えば、前景領域226にモルフォロジーの「膨張(dilate)」演算を適用することで空間的に成長させ、それにより安全マージンを付加して潜在的な分類エラーを補償する。
次いで、装置110はステップS08に進む。背景更新コンポーネント118が背景モデル240を更新する。より具体的には、背景更新コンポーネント118が画像230を背景画像のリストに加える。これは、ポインタのコレクションが背景画像を指しているという背景モデル240の構造により、ごく効率的な方式で行われ得る。画像230をリストに加えることは、以前背景画像242a、242b、242c、242dのうちの1つを指していたポインタのうちの1つが画像230を指すように、ポインタのコレクションを並べ替えることにすぎない。背景サンプルが装置110のメモリ内で移動される必要がなく、画像230の背景サンプルが背景モデル240に一工程で加えられ得る(画素についての更新が必要ない)ことに留意されたい。
ポインタの並べ替えが別の方式で行われてもよい。図2の例では、画像230が背景画像のリストの最初に加えられる。具体的には、ポインタ244aが画像230を指すように並べ替えられ、ポインタ244bが背景画像242aを指すように並べ替えられ、ポインタ244cが背景画像242bを指すように並べ替えられ、ポインタ244dが背景画像242cを指すように並べ替えられる。結果として、リスト内の最後の背景画像242d(これが画像220中の画像内容の置き換えに用いられた背景画像であること留意されたい)が背景モデルから取り除かれるであろう。得られた更新済みの背景モデル240’が図2の下部に示されている。
図3の例では、やや異なる手法がとられている。画像230を背景画像のリストの最初に加えるかわりに、画像220の前景領域226内の画像内容の置き換えに用いられた背景画像を置き換える。この例では、領域226内の画像内容を置き換えるのに、背景モデル中の第2の背景画像242bが用いられた。従って、背景更新コンポーネント118は、第2の背景画像244bを指していたポインタ244bが画像230を指すよう、ポインタのコレクション244a、244b、244c、244dを並べ替えるであろう。結果として、第2の背景画像244b(これが画像220中の画像内容の置き換えに用いられた背景画像である)が背景モデルから取り除かれる。得られた背景モデル340が図3の下部に示されている。
図4の例では、更に別の手法がとられている。画像230が背景画像のリストの最初に加えられ、画像220の前景領域226内の画像内容の置き換えに用いられた、ランダムに選択された背景画像242bが、背景画像のリストから取り除かれる。従って、背景更新コンポーネント118は、第1のポインタ244aが画像230を指し、第2のポインタ244bが第1の背景画像242aを指すよう並べ替えられるよう、ポインタのコレクション244a、244b、244c、244dを並べ替えるであろう。一般に、取り除かれる、ランダムに選択された背景画像を指すポインタに先行し且つ含むすべてのポインタはシフトされ、リストの前の背景画像を指す。新しい画像を指すであろうリスト内の第1のポインタは例外である。結果として、第2の背景画像244b(これが画像220中の画像内容の置き換えに用いられた背景画像である)が背景モデルから取り除かれる。得られた背景モデル440が図3の下部に示されている。
実施形態によれば、前景分類器コンポーネント114は更に、異なる対象期間を有する幾つかの背景モデルで動作してもよい。この方式で、長期間の変動と短期間の変動との両方に対応し得る。例えば、上記のようなタイプの(各画素についての背景サンプルのコレクションを有する)第1の背景モデルと、上記のようなタイプの第2の背景モデルとが存在し得る。第1の背景モデルの背景サンプルが、最後の2秒などの第1の時間間隔に対応する画像シーケンス中の画像から収集され得る。第2の背景モデルの背景サンプルが、最後の30秒などの第2の時間間隔に対応する画像シーケンス中の画像から収集され得る。
前景分類器コンポーネント114は、幾つかの背景モデルで動作する場合、例えば方程式(1)との関連で上記した方式で、画素の輝度値を各背景モデル中の背景サンプルと比較するであろう。次いで、画素の輝度値と閾値よりも少ないぶんだけ異なる背景サンプルの数が(まとめて見たときにすべての背景モデルで)所定の数よりも少ない場合に、画素が画像中の前景である領域に属すると判定する。言い換えれば、方程式(2)における和、又は方程式(3)における和集合が、すべての背景モデルにおける背景サンプルを超える。
上記で述べたことに従い、すべての背景モデルが更新されてもよい。具体的には、画像シーケンスが受け取られると、装置110は種々の背景モデルを交換可能に更新し得る。言い換えれば、装置110が、受け取った画像ごとに背景モデルのうちの(最大で)1つを更新し得る。背景モデルが異なる対象期間を有することを可能にするために、それらの異なる背景モデルが異なる頻度で(対象期間が長いほど更新頻度が低い)更新され得る。上記の例で、2つの背景モデルにより、第2の背景モデルの対象期間は第1の背景モデルの対象期間の15倍長い。従って、第2の背景モデルの更新頻度は、第1の背景モデルの更新頻度の、15よりも少ない倍数であるべきである。ある特定の例では、第1の背景モデルと第2の背景モデルがそれぞれ10の背景画像を有し得る。画像シーケンスの画像が毎秒5回受け取られ得る。第2の背景モデルは15番目の画像ごとに更新され得る。第1の背景モデルは、他のすべての画像に対して更新され得る。
当業者は、上記の実施形態を様々な方法で変更することができ、その上でなお上記の実施形態に示される本発明の利点を使用することができると理解するであろう。
従って、本発明は、図示した実施形態に限定されるべきではなく添付の特許請求の範囲によってのみ限定されるべきである。更に、示された実施形態は組み合わされ得ることが当業者には理解されよう。

Claims (15)

  1. 装置(110)において実施される、画像(220)の背景差分に用いる背景モデル(240)を更新する方法であって、
    画像シーケンスの部分を形成している画像(220)を受け取ること(S02)、
    前記画像中の各画素(228)についての背景サンプル(248a、248b、248c、248d)のコレクションを含む背景モデル(240)を用いた背景差分を実施することにより、前記画像の領域(226)を前景に分類すること(S04)であって、前記背景サンプルのコレクションは、前記画像の各画素が、前記背景画像の各々において前記画像中の画素位置に対応する画素位置における背景サンプルを有するように、背景画像(242a、242b、242c、242d)のリスト状に並べられており、前記背景画像は、前記画像シーケンス中の前記受け取った画像に先行する画像の背景サンプルを含む、分類すること(S04)、
    前記画像の、前景に分類された前記領域(226)内の画像内容を、前記リスト内の背景画像中の対応する領域(246)の画像内容で置き換えること(S06)、並びに
    前記リスト内の前記背景画像のうちの1つをそれぞれ指しているポインタ(244a、244b、244c、244d)のコレクションを、前記ポインタのうちの1つが前記画像を指すよう、並び替えることによって、前記画像を背景画像の前記リストに加えること(S08)
    を含む、方法。
  2. 前記画像の、前景に分類された前記領域(226)内の画像内容が、前記リスト内の最後の背景画像(242d)中の対応する領域(246)の画像内容で置き換えられ、前記画像が背景画像の前記リストの最初に加えられる、請求項1に記載の方法。
  3. 前記リストの最初の背景画像(242a)を指しているポインタ(242a)が前記画像を指し、残りの各ポインタ(242b、242c、242d)が、前記ポインタが現在指している前記リストの背景画像に先行する前記リストの背景画像を指すように並べ替えられるように、前記ポインタの前記コレクションを並べ替えることによって、前記画像が背景画像の前記リストの最初に加えられる、請求項2に記載の方法。
  4. 前記画像中の前景である領域を分類するステップ(S04)が、前記画像中の各画素について、
    前記画素(228)の輝度値を前記画素に関連付けられた各背景サンプル(248a、248b、248c、248d)と比較すること、及び
    閾値よりも少ないぶんだけ前記画素の前記輝度値と異なる背景サンプルの数が、所定の数よりも少ない場合に、前記画素(228)が前記画像中の前景である前記領域(226)に属すると判定すること
    を含む、請求項1から3の何れか一項に記載の方法。
  5. 閾値よりも少ないぶんだけ前記画素(228)の前記輝度値と異なる背景サンプル(248a、248b、248c、248d)の数が、閾値よりも少ないぶんだけ前記画素の前記輝度値と異なる背景サンプルの数をカウントすることによって計算される、請求項4に記載の方法。
  6. 前記所定の数が1に等しく、前記画素が前記画像中の前景である前記領域に属すると判定するステップが、
    前記画素に関連付けられた前記背景サンプルのうちの少なくとも1つが、閾値よりも少ないぶんだけ前記画素の前記輝度値と異なるかどうかを、論理和演算を実施することによりチェックし、そうでない場合、前記閾値よりも少ないぶんだけ前記画素の前記輝度値と異なる前記背景サンプルの数が前記所定の数よりも少ないと判定し、それにより、前記画素が前記画像中の前景である領域に属すると判定すること
    を含む、請求項4に記載の方法。
  7. 前記閾値が、前記画像中の前記画素の位置により異なる、請求項4から6の何れか一項に記載の方法。
  8. 前記閾値は、インジケータマップ(600)に基づいて、前記画像中の各画素について計算され、前記インジケータマップは、前記画素の前記位置における背景サンプルが、前記画像シーケンスにおいて後続する画像間で輝度値が変化する傾向を、前記画像(220)中の各画素について示している、請求項7に記載の方法。
  9. 前記画像(220)中の前景と分類された前記領域(226)にも、前記画像シーケンスにおいて先行する画像(620)中の前景と分類された領域(626)にも、属さない画素について、
    前記画素の位置における、前記画像(220)と前記先行する画像(620)との差が、所定量よりも大きいかどうかをチェックし、そうである場合には、前記画素について前記インジケータマップ(600)の値を所定のインクリメント値ぶん増大させ、そうでない場合、前記画素について前記インジケータマップの前記値を、前記所定のインクリメント値よりも小さい所定のデクリメント値ぶん減少させることによって、前記インジケータマップ(600)を更新することを更に含む、請求項8に記載の方法。
  10. 前記背景モデルが第1の背景モデルであり、前記画像の領域を前景に分類するステップが、前記第1の背景モデルに加えて第2の背景モデルを用いて背景差分を実施することを含み、
    前記第1の背景モデルにおいて、各画素についての前記背景サンプルのコレクションが第1の時間間隔からサンプリングされた画像に基づいており、
    前記第2の背景モデルにおいて、各画素についての背景サンプルのコレクションが第2の時間間隔からサンプリングされた画像に基づいており、前記第1の時間間隔は前記第2の時間間隔の部分である、請求項1から9の何れか一項に記載の方法。
  11. 前記画像シーケンス中の各画像について、前記第1の背景モデル及び前記第2の背景モデルのうちの一方を更新することを更に含み、前記第1の背景モデルは前記第2の背景モデルよりも高頻度で更新される、請求項10に記載の方法。
  12. 処理能力を有するデバイスにより実行する際に請求項1から11のいずれか一項に記載の方法を実行するためのコンピュータコード命令を記憶したコンピュータ可読媒体を含む、コンピュータプログラム製品。
  13. 画像(220)の背景差分に用いられる背景モデル(240)を更新する装置(110)であって、
    画像シーケンスの部分を形成している画像(220)を受け取るように構成された、受信器(112)、
    前記画像中の各画素(228)についての背景サンプル(248a、248b、248c、248d)のコレクションを含む背景モデル(240)を用いた背景差分を実施することにより、前記画像の領域(226)を前景に分類するように構成された前景分類器(114)であって、前記背景サンプルのコレクションは、前記画像の各画素が、前記画像中の画素位置に対応する画素位置における前記背景画像の各々の背景サンプルを有するように、背景画像(242a、242b、242c、242d)のリスト状に並べられており、前記背景画像は、前記画像シーケンス中の前記画像に先行する画像の背景サンプルを含む、前景分類器(114)、
    前記画像の、前景に分類された前記領域(226)内の画像内容を、前記リスト内の背景画像中の対応する領域(246)の画像内容で置き換えるように構成された、前景置換コンポーネント(116)、並びに
    前記リスト内の前記背景画像のうちの1つをそれぞれ指しているポインタ(244a、244b、244c、244d)のコレクションを、前記ポインタのうちの1つが前記画像を指すよう、並び替えることによって、前記画像を前記背景画像のリストに加えるように構成された、背景更新コンポーネント(118)
    を含む、装置(110)。
  14. 前記前景置換コンポーネント(116)は更に、前記画像の、前景に分類された前記領域(226)内の画像内容を、前記リスト内の最後の背景画像中の対応する領域(246)の画像内容で置き換えるように構成されており、前記背景更新コンポーネント(118)は、前記画像を背景画像の前記リストの最初に加えるように構成されている、請求項13に記載の装置(110)。
  15. 前記背景更新コンポーネント(118)は、前記リストの最初の背景画像(242a)を指しているポインタ(244a)が前記画像を指し、残りの各ポインタ(244b、244c、244d)が、前記ポインタが現在指している前記リストの背景画像に先行する前記リストの背景画像を指すように並べ替えられるように、前記ポインタ(244a、244b、244c、244d)の前記コレクションを並べ替えることによって、前記画像を背景画像の前記リストの最初に加えるように構成されている、請求項14に記載の装置。
JP2017094328A 2016-05-16 2017-05-11 画像の背景差分に用いられる背景モデルを更新する方法及び装置 Active JP6509275B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16169786.7A EP3246874B1 (en) 2016-05-16 2016-05-16 Method and apparatus for updating a background model used for background subtraction of an image
EP16169786.7 2016-05-16

Publications (2)

Publication Number Publication Date
JP2018010621A true JP2018010621A (ja) 2018-01-18
JP6509275B2 JP6509275B2 (ja) 2019-05-08

Family

ID=56081243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017094328A Active JP6509275B2 (ja) 2016-05-16 2017-05-11 画像の背景差分に用いられる背景モデルを更新する方法及び装置

Country Status (6)

Country Link
US (1) US10152645B2 (ja)
EP (1) EP3246874B1 (ja)
JP (1) JP6509275B2 (ja)
KR (1) KR101922683B1 (ja)
CN (1) CN107392932B (ja)
TW (1) TWI662512B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020022097A (ja) * 2018-08-01 2020-02-06 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3255585B1 (en) * 2016-06-08 2018-05-09 Axis AB Method and apparatus for updating a background model
CN108549855A (zh) * 2018-04-02 2018-09-18 南京邮电大学 面向智能家居场景的实时人形检测方法
EP3582181B1 (en) * 2018-06-14 2020-04-01 Axis AB Method, device and system for determining whether pixel positions in an image frame belong to a background or a foreground
CN109035190B (zh) * 2018-07-30 2021-05-25 安徽慧视金瞳科技有限公司 一种汽车仪表表盘背景合成方法
TWI661393B (zh) * 2018-11-08 2019-06-01 群邁通訊股份有限公司 影像分割方法、電腦程式、存儲介質及電子裝置
EP3667557B1 (en) * 2018-12-13 2021-06-16 Axis AB Method and device for tracking an object
CN110018529B (zh) * 2019-02-22 2021-08-17 南方科技大学 降雨测量方法、装置、计算机设备和存储介质
US11127140B2 (en) 2019-04-30 2021-09-21 Samsung Electronics Co., Ltd. Background identification for videos with large foreground objects
EP3800615A1 (en) * 2019-10-01 2021-04-07 Axis AB Method and device for image analysis
US11076111B1 (en) * 2019-11-13 2021-07-27 Twitch Interactive, Inc. Smart color-based background replacement
CN111062861A (zh) * 2019-12-13 2020-04-24 广州市玄武无线科技股份有限公司 一种陈列图像样本的生成方法及装置
CN111640123B (zh) * 2020-05-22 2023-08-11 北京百度网讯科技有限公司 无背景图像的生成方法、装置、设备及介质
CN112634247B (zh) * 2020-12-29 2022-04-12 浙江德源智能科技股份有限公司 基于图像分离的搬运对象识别方法及装置
CN113537196B (zh) * 2021-07-21 2023-04-07 拉扎斯网络科技(上海)有限公司 图片识别方法、装置、计算机设备及计算机可读存储介质
US11436708B1 (en) * 2021-08-19 2022-09-06 Unity Technologies Sf Removing moving objects from a video scene captured by a moving camera

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109546A (ja) * 2000-09-29 2002-04-12 Toshiba Corp 背景画像の取得方法および装置
JP2008192131A (ja) * 2007-01-31 2008-08-21 Fuji Xerox Co Ltd 特徴レベル・セグメンテーションを実行するシステムおよび方法
JP2008257693A (ja) * 2007-04-05 2008-10-23 Mitsubishi Electric Research Laboratories Inc シーン中に置き去りにされた物体を検出する方法
JP2009265827A (ja) * 2008-04-23 2009-11-12 Sanyo Electric Co Ltd 対象物検出装置及び方法、対象物検出システム、プログラム
JP2012048477A (ja) * 2010-08-26 2012-03-08 Canon Inc 画像処理装置、画像処理方法及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6870945B2 (en) * 2001-06-04 2005-03-22 University Of Washington Video object tracking by estimating and subtracting background
US20030058237A1 (en) * 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Multi-layered background models for improved background-foreground segmentation
KR100474848B1 (ko) * 2002-07-19 2005-03-10 삼성전자주식회사 영상시각 정보를 결합하여 실시간으로 복수의 얼굴을검출하고 추적하는 얼굴 검출 및 추적 시스템 및 방법
SG150527A1 (en) * 2006-07-11 2009-03-30 Agency Science Tech & Res Method and system for multi-object tracking
EP2015252B1 (en) 2007-07-08 2010-02-17 Université de Liège Visual background extractor
US20100158379A1 (en) 2008-12-18 2010-06-24 Microsoft Corporation Image background removal
TWI410843B (zh) * 2010-03-26 2013-10-01 Quanta Comp Inc 背景影像更新方法及觸控螢幕
CN102025981B (zh) 2010-12-23 2013-12-04 北京邮电大学 一种监控视频中的前景检测的方法
AU2011265429B2 (en) 2011-12-21 2015-08-13 Canon Kabushiki Kaisha Method and system for robust scene modelling in an image sequence
JP6046948B2 (ja) 2012-08-22 2016-12-21 キヤノン株式会社 物体検知装置及びその制御方法、プログラム、並びに記憶媒体
TWI526988B (zh) * 2014-06-10 2016-03-21 尚茂智能科技股份有限公司 基於移動變化量之適應性區域局部迭代更新之背景建立方法
KR101643917B1 (ko) * 2014-09-15 2016-08-01 (주)인더스웰 실사 영상 기반의 스마트 피팅장치
CN105279771B (zh) 2015-10-23 2018-04-10 中国科学院自动化研究所 一种视频中基于在线动态背景建模的运动目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109546A (ja) * 2000-09-29 2002-04-12 Toshiba Corp 背景画像の取得方法および装置
JP2008192131A (ja) * 2007-01-31 2008-08-21 Fuji Xerox Co Ltd 特徴レベル・セグメンテーションを実行するシステムおよび方法
JP2008257693A (ja) * 2007-04-05 2008-10-23 Mitsubishi Electric Research Laboratories Inc シーン中に置き去りにされた物体を検出する方法
JP2009265827A (ja) * 2008-04-23 2009-11-12 Sanyo Electric Co Ltd 対象物検出装置及び方法、対象物検出システム、プログラム
JP2012048477A (ja) * 2010-08-26 2012-03-08 Canon Inc 画像処理装置、画像処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020022097A (ja) * 2018-08-01 2020-02-06 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム

Also Published As

Publication number Publication date
TW201742005A (zh) 2017-12-01
KR20170129051A (ko) 2017-11-24
TWI662512B (zh) 2019-06-11
US10152645B2 (en) 2018-12-11
EP3246874A1 (en) 2017-11-22
EP3246874B1 (en) 2018-03-14
CN107392932B (zh) 2019-02-05
CN107392932A (zh) 2017-11-24
US20170330050A1 (en) 2017-11-16
JP6509275B2 (ja) 2019-05-08
KR101922683B1 (ko) 2019-02-20

Similar Documents

Publication Publication Date Title
JP6509275B2 (ja) 画像の背景差分に用いられる背景モデルを更新する方法及び装置
KR101891225B1 (ko) 배경 모델을 업데이트하기 위한 방법 및 장치
US9230175B2 (en) System and method for motion detection in a surveillance video
JP4668921B2 (ja) 画像中のオブジェクト検出
US7925053B2 (en) Motion detection method, motion detection program, storage medium in which motion detection program is stored, and motion detection apparatus
CN111062974B (zh) 一种使用去除鬼影对前景目标提取的方法及系统
US9247155B2 (en) Method and system for robust scene modelling in an image sequence
KR20190141577A (ko) 이미지 프레임에서의 픽셀 위치가 배경 또는 전경에 속하는지를 결정하기 위한 방법, 장치 및 시스템
Liu et al. Scene background estimation based on temporal median filter with Gaussian filtering
JP2020504383A (ja) 画像前景の検出装置、検出方法及び電子機器
JP2014110020A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20180089529A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN112581489A (zh) 一种视频压缩方法、装置及存储介质
JP6603123B2 (ja) 動物体の検出装置、検出方法及びプログラム
JP5241687B2 (ja) 物体検出装置及び物体検出プログラム
CN106485713B (zh) 视频前景检测方法
RU2676028C1 (ru) Способ обнаружения оставленного предмета в видеопотоке
JP2003256849A (ja) 物体抽出システム、物体抽出方法および物体抽出プログラム
JP4416607B2 (ja) 移動体画像抽出方法
Mould et al. A stochastic learning algorithm for pixel-level background models
JPH07160858A (ja) 移動体検出方法および装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180323

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190402

R150 Certificate of patent or registration of utility model

Ref document number: 6509275

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250