JP2018185635A - 動体検出装置およびその制御方法 - Google Patents

動体検出装置およびその制御方法 Download PDF

Info

Publication number
JP2018185635A
JP2018185635A JP2017086547A JP2017086547A JP2018185635A JP 2018185635 A JP2018185635 A JP 2018185635A JP 2017086547 A JP2017086547 A JP 2017086547A JP 2017086547 A JP2017086547 A JP 2017086547A JP 2018185635 A JP2018185635 A JP 2018185635A
Authority
JP
Japan
Prior art keywords
moving object
image
background model
input
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017086547A
Other languages
English (en)
Other versions
JP6944272B2 (ja
Inventor
智也 本條
Tomoya Honjo
智也 本條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017086547A priority Critical patent/JP6944272B2/ja
Priority to EP18165394.0A priority patent/EP3396626B1/en
Priority to KR1020180041343A priority patent/KR20180119484A/ko
Priority to US15/954,937 priority patent/US10769800B2/en
Priority to CN201810372540.0A priority patent/CN108734720A/zh
Publication of JP2018185635A publication Critical patent/JP2018185635A/ja
Application granted granted Critical
Publication of JP6944272B2 publication Critical patent/JP6944272B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】動体検出のための背景モデルの再生成の要否をより正確に判断できるようにする。【解決手段】動体検出装置は、撮像された画像を入力する入力部と、入力部により入力された画像の背景領域の特徴に基づいて背景モデルを生成および更新する生成部と、背景モデルに基づいて入力部により入力された画像から動体領域を検出する検出部と、入力部により入力された、異なる時刻に撮像された第1の画像と第2の画像について検出部が検出した動体領域の変化量に基づいて、生成部に背景モデルを新規に生成させるか否かを判定する判定部と、を有する。【選択図】 図1

Description

本発明は、動体検出装置およびその制御方法に関する。
近年、監視カメラにより撮像された画像を用いて物体の検出や追尾を行う画像解析、そのような画像解析の結果を用いたイベント解析等が行われている。画像解析で用いられる動体検出技術の一つに、背景差分法がある。背景差分法とは、動体が除かれた背景画像から背景モデルを作成し、その背景モデルと入力画像の差分から動体領域を検出するものである。
通常、物体が取り除かれた完全な背景画像を1枚の入力画像で得ることは難しく、また環境の変動によって背景画像も変化する。そのため、背景モデルを逐次更新することによって、背景モデルを環境の変化に追従させることが行われる。特許文献1には、照度変化に対応して背景画像を作成し直す際に、移動体により遮られたために背景が作成できない領域に対し、照度変化前後の輝度値を用いて背景モデルを推測する技術が開示されている。
特許第5391966号
しかしながら、例えば周期的な照度変化があった場合においては、照度変化前後の背景モデルを記憶しておき、照度に応じて記憶した背景モデルを再利用する方が、推測処理が省略できる分計算コストの観点からは有効である。すなわち、特許文献1のように常に背景モデルを推測して使用し続ける方法では、非効率となる場合がある。そこで、動体検出においては、今まで使用していた背景モデルの再生成が必要かどうか、あるいは、記憶されている背景モデルを再利用できるかどうかを正確に判断できるような技術が求められる。
本発明はこのような課題に鑑みてなされたものであり、動体検出のための背景モデルの再生成の要否をより正確に判断できるようにすることを目的とする。
上記の目的を達成するための本発明の一態様による動体検出装置は以下の構成を備える。すなわち、
撮像された画像を入力する入力手段と、
前記入力手段により入力された画像の背景領域の特徴に基づいて背景モデルを生成および更新する生成手段と、
前記背景モデルに基づいて前記入力手段により入力された画像から動体領域を検出する検出手段と、
前記入力手段により入力された、異なる時刻に撮像された第1の画像と第2の画像について前記検出手段が検出した動体領域の変化量に基づいて、前記生成手段に背景モデルを新規に生成させるか否かを判定する判定手段と、を備える。
本発明の構成によれば、動体検出のための背景モデルの再生成の要否をより正確に判断することができるので、無駄な背景モデルの再生成の実行を防止できる。
実施形態による動体検出システムの構成例を示すブロック図。 第1実施形態による動体検出装置が行う処理のフローチャート。 動体検出の処理結果例を示す図。 第2実施形態による動体検出システムが行う処理のフローチャート。 第3実施形態による動体検出システムが行う処理のフローチャート。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の一実施例である。
[第1実施形態]
第1実施形態に係る動体検出システムの構成例について、図1のブロック図を用いて説明する。動体検出システムは、動体検出装置100とカメラ101を有する。動体検出装置100は、入力部102、制御部103、出力部104、記憶部105、背景モデル生成部106、動体検出部107、比較部108を有する。動体検出装置100は、カメラ101により取得された画像から、背景差分法により動体を検出し、その検出結果をユーザに提示する。なお、背景差分法については公知の技術であるため、詳細な説明は省略する。
カメラ101は、設定された若しくは制御された姿勢でもって静止画像若しくは動画像を撮像する。本実施形態では、カメラ101はRGB映像を取得するモード(以下、RGBモードとする)と、赤外映像を取得するモード(以下、赤外モードとする)を有しているとする。カメラ101は、撮像した画像を、フレーム番号とともに出力する。
動体検出装置100において、入力部102は、カメラ101により撮像された画像を入力するカメラI/Fの機能を有する。また、入力部102は、ユーザからのコマンド(例えば、カメラ101に対してRGBモード/赤外モードの切り替えコマンド、パン・チルト・ズームの設定値を含んだ位置姿勢制御コマンド等)を受け取る。制御部103は、不図示のCPU、メモリを含み、CPUがメモリに格納されたプログラムを実行することで動体検出装置100の各部を制御する。例えば、制御部103は、入力部102で受け取ったコマンドを基にカメラ101の制御を行う。出力部104は、表示装置(不図示)と接続され、表示装置にカメラ101で撮像された画像を表示させたり、動体検出結果を重畳表示したりする。記憶部105は、例えばハードディスクで構成され、各部から出力される情報(例えば、カメラ101で撮像された画像や、背景モデル生成部106で生成された背景モデル等)を保存する。
背景モデル生成部106は、入力部102により入力された画像の背景領域の特徴に基づいて、背景差分法による動体検出処理で必要となる背景モデルを生成および更新する。ここで背景モデルとは、カメラ101で撮像され、入力部102を介して動体検出装置100に入力された、撮像された画像(以下、入力画像ともいう)を所定の分割数でブロック分割したときのブロック毎の画像特徴量である。本実施形態では、フロック毎の画像特徴量として、ブロック内の各画素のRGBそれぞれの色成分の平均(以下、RGB色平均)を用いる。
また、背景モデル生成部106は、学習期間フラグを保持している。学習期間フラグの初期値はONである。学習期間フラグがONの間、背景モデル生成部106は、入力画像に動体領域が無いものとみなして、入力画像から背景モデルを新規に生成する。具体的には、入力画像の各ブロックの特徴量とそのブロックに対応する背景モデルの特徴量の平均値を計算して、その計算結果を新規の背景モデルの特徴量として保存する。
所定期間が経過すると学習期間フラグはOFFになる。学習期間フラグがOFFのときは、入力画像の背景と判定されたブロックの特徴とそのブロックに対応する背景モデルの特徴量の平均を計算して、その計算結果を更新後の背景モデルの特徴量として保存する。こうして、背景モデルは逐次に更新される。以上のように、背景モデル生成部106は、学習期間フラグがONの間は背景モデルを新規に「生成」し、学習期間フラグがOFFの間は背景モデルを「更新」する。一般的に、背景が更新されて誤検知が抑制されるまでの時間と比較して、背景モデルの新規生成から動体検出を行うまでに要する時間は短めに設定される。これは、ノイズによる誤検知の影響をできるだけ低減すると同時に、起動時になるべく早く動体検知を開始できるようにするためである。
動体検出部107は、背景モデルを用いて入力画像から動体領域を検出する。動体検出部107は、まず、入力画像を所定の分割数でブロック分割し、それぞれのブロック領域内の各画素のRGB色平均を特徴量として取得する。そして、動体検出部107は、各ブロックの特徴量と、各ブロックに対応する背景モデルとの差分を計算する。動体検出部107は、差分が所定の閾値を超えないブロックを背景、差分が閾値を超えるブロックを前景(動体)と判定する。そして、動体検出部107は、ブロックごとに背景/動体を指定した2値の動体検出結果を出力する。
比較部108は、任意の2つの入力画像における動体検出結果について、画像全体に対する動体領域の面積の割合を算出し、それら割合の差分を計算する。本実施形態では、下記の式(1)に示す式に基づいて計算する。なお、下記の式(1)において、diffは任意の2つの動体検出結果の動体領域の面積の割合の差分、Σnは全ブロック数、Σf1、Σf2はそれぞれ各動体検出結果における動体と判定されたブロック数である。比較部108は、算出された動体領域の面積の割合の差分を閾値(本実施形態では固定値とする)と比較し、比較結果(閾値以上か、閾値未満か)を出力する。
Figure 2018185635
なお、動体検出装置100の上述された各部は相互に通信可能に接続されている。また、背景モデル生成部106、動体検出部107、比較部108は、専用のハードウエアにより実現されてもよいし、それらの機能一部あるいはすべてが、制御部103のCPUがメモリに格納されたプログラムを実行することにより実現されてもよい。
次に、動体検出装置100が行う処理について、図2のフローチャートに従って説明する。
ステップS201において、制御部103は、入力部102で入力されたコマンドに従ってカメラ101のパラメータを変更する。例えば、入力部102にて、RGBモードから赤外モードへの変更コマンドが発行された場合、制御部103は、カメラ101を赤外モードに変更する。パラメータの変更の指示がなければ、カメラ101の動作に変更は生じない。ステップS202において、背景モデル生成部106は、学習期間フラグがONになっているかどうかを判定する。学習期間フラグがONの場合、背景作成モードであると判定され、処理はステップS203へ移行する。他方、学習期間フラグがOFFの場合、処理はステップS204へ移行する。
ステップS203では、背景モデル生成部106はカメラ101から入力される入力画像から背景モデルを生成し、記憶部105に保存する。また、背景モデル生成部106は、学習期間フラグがONの状態で本ステップが最初に実行されてからの時間を計測し、所定期間(例えば10秒)後、学習期間フラグをOFFにし、背景作成モードを終了する。上記所定期間中は、動体検出装置100は動体検出を行わず、入力画像から背景モデルを作成し続けることになる。
ステップS204において、動体検出部107は、カメラ101からフレーム番号とともに送信される入力画像(図3(a))と、記憶部105に保存されている背景モデルとを用いて、動体検出処理を行う。動体検出結果は、入力画像のフレーム番号とともに記憶部105に保存される。この時の処理結果の例を図3(b)に示す。この後、背景モデル生成部106は背景と判定されたブロックに関して背景モデルの更新を行う。
ステップS205において、制御部103は、ステップS201でカメラ101が制御されたかどうか、すなわちパラメータが変更されたかどうか、を判定する。カメラ101のパラメータに変更があったと判定された場合、処理はステップS206へ移行し、パラメータに変更がないと判定された場合、処理はステップS209へ移行する。ステップS206〜S208では、異なる時刻に撮像された第1の画像と第2の画像について動体検出部107が検出した動体領域の変化量が算出され、算出された変化量に基づいて新規に背景モデルを生成するか否かが判定される。また、この判定は、入力部102からパラメータの変更が入力されたことに応じて実行される(S205)。
ステップS206において、比較部108は、記憶部105に保存されている1フレーム前(以下、前フレーム)の動体検出結果と、現在のフレーム(以下、現フレーム)の動体検出結果の動体領域の面積の割合の差分を上記の式(1)に従って計算する。例えば、前フレームでの動体検出結果(図3(b))の動体領域の面積が0.03、現フレームでの動体検出結果(図3(c))の動体領域の面積が0.1であったとする。この場合、動体検出結果の動体領域の差分は図3(d)のようになり、動体検出結果の動体領域の差分の面積の割合の差分は0.07である。
ステップS207において、背景モデル生成部106は、ステップS206で計算された動体領域の面積の割合の差分が閾値以上かどうかを判定する。差分が閾値以上と判定された場合には処理はステップS208へ移行し、差分が閾値未満と判定された場合には処理はステップS209へ移行する。
ステップS208では、背景モデル生成部106は、記憶部105にある背景モデルをクリアし(背景モデルのリセット)、学習期間フラグをONにする。この結果、処理がステップS201に戻ると背景モデル生成部106は、背景モデルを再生成する。こうして、パラメータの変更前に撮像された第1の画像とパラメータの変更後に撮像された第2の画像において検出された動体領域の変化量に基づいて、背景モデルの生成を行うか否かが判定される。すなわち、背景モデル生成部106は、カメラ101のパラメータが変更され、且つ、検出された動体領域の変化量が閾値以上の場合に背景モデルを再生成すると判定し、背景モデルを新規に生成する。そして、新たな背景モデルを生成すると判定された場合(学習期間フラグがONになると)、所定の期間(学習フラグがONの間)に入力される画像を背景画像として用いて背景モデルを生成する。
ステップS209において、出力部104は、ステップS204で記憶部105に保存された動体検出結果を入力画像とともに出力する。たとえば、出力部104は、表示装置に入力画像を表示させ、さらに動体検出結果を入力画像に重畳表示させる。ステップS210において、入力部102がユーザから終了コマンドを受け取った場合には、制御部103は本処理を終了する。それ以外の場合には、制御部103は、フレーム番号をインクリメントして処理をステップS201に戻す。
<変形例>
上述の実施形態では、パラメータの変更としてRGBモードと赤外モードというカメラのモードの変更を示したが、もちろんこれに限られるものではない。例えば、F値、シャッター速度、ISO感度、露出、フォーカスの変更、HDR(ハイダイナミックレンジ)モード、フィルタの切り替えなど、画像が変化する可能性のあるモード(パラメータ)であれば何でも良い。また、自動手動を問わず、カメラのホワイトバランスの設定値や撮像環境の照度変化に応じた露出の設定値変更を対象とすることも可能である。また、カメラのパン・チルト・ズームの変更による画像の変化を対象としても良い。
また、上述の実施形態では、背景モデルは、入力画像サイズを所定の分割数でブロック分割したときのブロック毎に設定される情報としたが、これに限られるものではない。たとえば、Superpixel等他の小領域分割方法を用いても良いし、もちろんピクセル単位に設定される情報としても良い。また、格納される画像特徴量はブロック内の各画素のRGB色平均としたが、これに限られるものではなく、RGBの色分散値等、他の特徴量を用いることもできる。
また、上述の実施形態では、任意の2つのフレーム画像の動体領域の面積の割合の差分の計算式を式(1)のように定義したが、これに限られるものではない。例えば動体判定されたブロックの集合体を包含する外接矩形を動体領域として管理し、その矩形面積を用いて動体領域の面積の割合の差分を計算するようにしても良い。
また、上述の実施形態では、背景モデルを再生成する必要があるかどうかを判断するための、動体領域の面積の割合の差分と比較される閾値は固定としたが、これに限られるものではない。例えば、以下のように、前フレームの状態に応じて変動する閾値であってもよい。
閾値=(前フレームの動体領域の割合)×x(%)。
[第2実施形態]
第2実施形態では、カメラ101の各モードに応じて背景モデルをセーブ/ロードする機能がある動体検出システムの動作について説明する。動体検出システム、動体検出装置100の構成は第1実施形態(図1)と同様である。以下では第1の実施形態との差分について重点的に説明する。また、第2実施形態では、説明を簡単にするため、カメラ101に対する制御(パラメータの変更)はRGBモードと赤外モードの切り替えのみを対象とする。
次に、第2実施形態の動体検出システムが行う処理について図4のフローチャートに従って説明する。
ステップS401からステップS405の処理は、第1実施形態(図2)のステップS201からステップS205の処理と同様である。すなわち、背景モデル生成部106は、学習期間フラグがONの間、入力画像から背景モデルを生成する(ステップS401〜S403)。学習期間フラグがOFFになると、動体検出部107は入力画像から動体検出を行い(ステップS404)、その後、カメラ101のモードが切り換えられたか否か(パラメータが変更されたか否か)を判定する(ステップS405)。
ステップS406では、比較部108は記憶部105に現在保存されている背景モデルを、カメラ101のモード切り替え前のモード(撮像のパラメータ)と対応付けて記憶部105の別領域(保存領域)に保存する。例えば、カメラ101のモードがRGBモードから赤外モードに変更されて本ステップが実行された場合、比較部108は、記憶部105に現在保存されている背景モデルをRGBモードの背景モデルとして、記憶部105の別領域に保存する。こうして、パラメータの変更に応じて現在使用されている背景モデルが変更前のパラメータと対応付けて保存される。
ステップS407、ステップS408は、それぞれステップS206、ステップS207と同様である。すなわち、比較部108が、記憶部105に保存された前フレームの動体検出結果と、現フレームの動体検出結果の動体領域の面積の割合の差分を計算し(ステップS407)、計算結果が閾値以上かどうかを判定する(ステップS408)。そして、動体領域の面積の割合が閾値以上の場合には処理はステップS409へ移行し、閾値未満の場合には処理はステップS415へ移行する。
ステップS409において、比較部108はパラメータ変更後のモードと対応付いた背景モデルが記憶部105に保存されているかを確認する。変更後のモードと対応付いた背景モデルが保存されていれば処理はステップS410へ移行し、保存されていなければ処理はS414へ移行する。例えば、RGBモードから赤外モードに変更されて本ステップが実行された場合、赤外モードに対応付いた背景モデルが記憶部105に保存されている場合に処理はステップS410へ移行し、保存されていない場合に処理はステップS414へ移行する。
ステップS410〜S411では、動体検出部107は、変更後のパラメータに対応した背景モデルを記憶部105の保存領域から取得して、入力画像から動体領域を検出する。すなわち、ステップS410において、比較部108はパラメータ変更後のモードと対応付いた背景モデルを記憶部105から読み込み、現在使用している背景モデルを置換する。ステップS411において、動体検出部107は、カメラ101からの入力画像と、ステップS410で置換された背景モデルとを用いて、動体検出処理を行う。ステップS412において、比較部108は、記憶部105に保存された前フレームの動体検出結果と、ステップS411で得られた動体検出結果の動体領域の面積の割合の差分を式(1)に従って計算する。
ステップS413からステップS416の処理は、図2におけるステップS207からステップS210の処理と同様である。すなわち、背景モデル生成部106は、ステップS412で計算された動体領域の面積の割合の差分が閾値以上の場合(ステップS413でYES)には、背景モデルをクリアし、学習期間フラグをONにする(ステップS414)。その後、出力部104は、動体検出結果を出力して(ステップS415)、制御部103は、ユーザからのコマンドに従って終了判定を行う(ステップS416)。
<変形例>
上述の第2実施形態では、動体検出部が変更前のパラメータに対応する背景モデルを用いて入力画像から検出した動体領域の変化量が閾値より小さい場合は、引き続き当該背景モデルを使用するようにしている。すなわち、カメラのモード(パラメータ)が変更されたことに応じて、動体検出を行ない、動体領域の変化量が閾値以上の場合に、変更後のモードに対応する背景モデルで動体検出を行い、背景モデルを再生成するかどうかを判断した。しかしながら、これに限られるものではない。モード変更されたことが検出された場合は直ちに現在の背景モデルをセーブして、変更後のモードに対応する背景モデルをロードして動体検出を行い、背景モデルを再生成するかどうかを判断するようにしても良い。この場合、図4のフローチャートでは、S404、S407、S408が省略され、S409でNOの場合にS414へスキップするようにすればよい。
また上述の第2実施形態では、カメラ101に対する制御はRGBモードと赤外モードの切り替えを対象としたがこれに限られるものではない。第1実施形態の変形例と同様に、画像が変化する可能性のあるモードであればいずれにも適用可能である。例えば、カメラのパン・チルト・ズームの変更を対象とすることも可能であり、その場合、カメラのパン・チルト・ズームに対する制御値に応じて背景モデルを保存するように構成される。
[第3実施形態]
第3実施形態では、複数枚の入力画像を使用して背景モデルを再生成するか否かの判断を行う。なお、第3実施形態の動体検出システムおよび動体検出装置100の構成は第1実施形態(図1)と同様である。以下では第1、2の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1、2の実施形態と同様であるものとする。
第3実施形態では、記憶部105は、判定回数および判定期間フラグを保持する。判定回数とは、前フレームと現フレームの動体検出結果の動体領域の面積の割合の差分が閾値以上となった回数を表す。判定期間フラグは、前フレームと現フレームの動体検出結果の動体領域の面積の割合の差分が閾値以上かどうかを判定する期間である場合はON、判定しない期間である場合はOFFとなるフラグである。これらにより例えば、「パラメータの変更が発生してから10フレーム目までの間に、前フレームと現フレームから検出された動体領域の面積の割合の差分が閾値以上と判定された回数が4を超えたら背景モデルを新規に生成する」という条件を設定できる。この場合、パラメータの変更が発生した段階で判定期間フラグはONとなる。そして、判定回数が4に満たないまま10フレーム目に到達するか、あるいは10フレーム目までに判定回数が4になった場合に判定期間フラグはOFFになる。
次に、第3実施形態の動体検出装置100が行う処理について、図5のフローチャートに従って説明する。
ステップS501からステップS504の処理は、第1実施形態(図2)のステップS201からステップS204の処理と同様である。すなわち、背景モデル生成部106は、学習期間フラグがONの間、入力画像から背景モデルを生成する(ステップS501〜S503)。学習期間フラグがOFFになると、動体検出部107は入力画像から動体検出を行う(ステップS504)。
ステップS505において、制御部103は、カメラ101が制御されたか否か(パラメータが変更されたか否か)、判定期間フラグがONになっているか否かを判断する。カメラ101が制御されたあるいは判定期間フラグがONの場合は、処理はステップS506へ移行し、カメラ101が制御されず且つ判定期間フラグがOFFの場合は、処理はステップS512へ移行する。
ステップS506の処理は、ステップS206と同様である。すなわち、比較部108が、記憶部105に保存された前フレームの動体検出結果と、現フレームの動体検出結果の動体領域の面積の割合の差分を計算する。ただし、前フレームの動体検出結果には、パラメータ変更前の画像から検出された動体領域の割合が用いられる。すなわち、ステップS506では、パラメータ変更後の最新のフレームの動体検出結果と、パラメータ変更の直前のフレームの動体検出結果とが用いられて、動体領域の面積の割合の差分が計算される。換言すると、パラメータの変更後の所定の期間内(判定期間フラグがONの間)に、パラメータ変更後に得られる複数の画像のうち、動体領域の割合の変化量が閾値以上となる画像の数に基づいて新たな背景モデルを生成するか否かが判定される。ステップS506で計算された動体領域の面積の割合が閾値以上の場合には、処理はステップS507からステップS507aへ移行する。また、ステップS506で計算された動体領域の面積の割合が閾値未満の場合には、処理はステップS507からステップS511へ移行する。ステップS507aでは、判定期間フラグがOFFの場合に、制御部103は、判定期間フラグをONにし、その時のフレーム番号を記憶部105に保存する。その後、処理は、ステップS508へ進む。
背景モデル生成部106は、ステップS508において判定回数をインクリメントし、ステップS509において判定回数が閾値を超えたかを判定する。閾値を超えていると判定された場合、処理ステップS510へ移行し、閾値を超えていないと判定された場合、処理はステップS511へ移行する。ステップS510では、ステップS208と同様に、背景モデル生成部106は、現在の背景モデルをクリアする。また、制御部103は、判定期間フラグをOFFにする。
ステップS511において、制御部103は、判定期間フラグの更新を行う。ステップS511の実行時に判定期間フラグがONの場合、判定期間フラグがONになったときからの経過フレーム数(差分発生回数)を計算し、経過フレーム数が一定数を超えれば差分発生カウントフラグをOFFにし、判定回数を0にする。ステップS511の実行時に差分発生カウントフラグがOFFの場合は何も行わない。
ステップS512、ステップS513は、図2におけるステップS209、ステップS210までと同様である。すなわち、動体検出結果を出力して、ユーザからのコマンドに従って終了判定を行う。以上のように、第3実施形態では、パラメータの変更後の所定の期間内(判定期間フラグがONの間)に入力された画像のうち、動体領域の変化量が閾値以上となる画像の数(判定回数)に基づいて、新たな背景モデルを生成するか否かが判定される。
以上のように、上記各実施形態によれば、動体領域の変化量に基づいて今まで使用していた背景モデルが有効かどうかを判断し、有効と判断した場合には背景モデルが再利用され、無効と判断した場合に背景モデルが再生成される。したがって、新規な背景モデルを生成する頻度が減少し、背景モデル生成のための学習期間を低減することが可能となる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:動体検出装置、101:カメラ、102:入力部、103:制御部、104:表示部、105:記憶部、106:背景モデル生成部、107:動体検出部、108:比較部

Claims (13)

  1. 撮像された画像を入力する入力手段と、
    前記入力手段により入力された画像の背景領域の特徴に基づいて背景モデルを生成および更新する生成手段と、
    前記背景モデルに基づいて前記入力手段により入力された画像から動体領域を検出する検出手段と、
    前記入力手段により入力された、異なる時刻に撮像された第1の画像と第2の画像について前記検出手段が検出した動体領域の変化量に基づいて、前記生成手段に背景モデルを新規に生成させるか否かを判定する判定手段と、を備えることを特徴とする動体検出装置。
  2. 前記入力手段は、さらに撮像のパラメータを入力し、
    前記判定手段は、前記入力手段により入力されたパラメータが変更されたことに応じて、背景モデルを新たに生成するか否かの判定を実行することを特徴とする請求項1に記載の動体検出装置。
  3. 撮像のパラメータと背景モデルを対応付けて保存する保存手段をさらに備え、
    前記第1の画像はパラメータの変更前に撮像された画像であり、前記第2の画像はパラメータの変更後に撮像された画像であり、
    前記検出手段は、変更後のパラメータに対応した背景モデルを前記保存手段から取得して、前記第2の画像から動体領域を検出することを特徴とする請求項2に記載の動体検出装置。
  4. 前記保存手段は、撮像のパラメータの変更に応じて、現在使用されている背景モデルを変更前のパラメータと対応付けて保存することを特徴とする請求項3に記載の動体検出装置。
  5. 前記判定手段は、前記検出手段が変更前のパラメータに対応する背景モデルを用いて前記第1の画像と前記第2の画像について検出した動体領域の変化量が閾値より小さい場合は、前記検出手段に引き続き当該背景モデルを使用させることを特徴とする請求項3または4に記載の動体検出装置。
  6. 前記判定手段は、前記変化量が閾値以上の場合に、前記生成手段に新たな背景モデルを生成させると判定することを特徴とする請求項1乃至4のいずれか1項に記載の動体検出装置。
  7. 前記判定手段が用いる前記閾値は、あらかじめ定められた固定値であることを特徴とする請求項6に記載の動体検出装置。
  8. 前記第1の画像は前記第2の画像よりも前に撮像された画像であり、前記判定手段が用いる前記閾値は、前記第1の画像における動体領域の割合に基づいて設定されることを特徴とする請求項6に記載の動体検出装置。
  9. 前記判定手段は、パラメータの変更後の所定の期間内に前記第2の画像として得られる複数の画像のうち、前記変化量が閾値以上となる画像の数に基づいて前記生成手段に新たな背景モデルを生成させるか否かを判定することを特徴とする請求項2に記載の動体検出装置。
  10. 前記判定手段は、前記画像の数が閾値以上の場合に、前記生成手段に新たな背景モデルを生成させると判定することを特徴とする請求項9に記載の動体検出装置。
  11. 前記判定手段により新たな背景モデルを生成すると判定された場合、前記生成手段は、所定の期間に入力される画像を背景画像として用いて背景モデルを生成することを特徴とする請求項1乃至10のいずれか1項に記載の動体検出装置。
  12. 動体検出装置の制御方法であって、
    撮像された画像を入力する入力工程と、
    前記入力工程で入力された画像の背景領域の特徴に基づいて背景モデルを生成および更新する生成工程と、
    前記背景モデルに基づいて前記入力工程で入力された画像から動体領域を検出する検出工程と、
    前記入力工程で入力された、異なる時刻に撮像された第1の画像と第2の画像について前記検出工程で検出された動体領域の変化量に基づいて、前記生成工程による新規な背景モデルの生成を実行させるか否かを判定する判定工程と、を有することを特徴とする動体検出装置の制御方法。
  13. コンピュータを、請求項1乃至11のいずれか1項に記載の動体検出装置の各手段として機能させるためのプログラム。
JP2017086547A 2017-04-25 2017-04-25 動体検出装置およびその制御方法 Active JP6944272B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017086547A JP6944272B2 (ja) 2017-04-25 2017-04-25 動体検出装置およびその制御方法
EP18165394.0A EP3396626B1 (en) 2017-04-25 2018-04-03 Moving object detection apparatus, control method for moving object detection apparatus, and program
KR1020180041343A KR20180119484A (ko) 2017-04-25 2018-04-10 이동체 검출장치, 이동체 검출장치의 제어방법, 컴퓨터 판독가능한 기억매체 및 프로그램
US15/954,937 US10769800B2 (en) 2017-04-25 2018-04-17 Moving object detection apparatus, control method for moving object detection apparatus, and non-transitory computer-readable storage medium
CN201810372540.0A CN108734720A (zh) 2017-04-25 2018-04-24 运动物体检测装置、其控制方法和计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017086547A JP6944272B2 (ja) 2017-04-25 2017-04-25 動体検出装置およびその制御方法

Publications (2)

Publication Number Publication Date
JP2018185635A true JP2018185635A (ja) 2018-11-22
JP6944272B2 JP6944272B2 (ja) 2021-10-06

Family

ID=62046620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017086547A Active JP6944272B2 (ja) 2017-04-25 2017-04-25 動体検出装置およびその制御方法

Country Status (5)

Country Link
US (1) US10769800B2 (ja)
EP (1) EP3396626B1 (ja)
JP (1) JP6944272B2 (ja)
KR (1) KR20180119484A (ja)
CN (1) CN108734720A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020184171A (ja) * 2019-05-07 2020-11-12 株式会社Hacarus 電子回路、ハードウェアコンポーネント、エッジ処理システム、エッジコンピューティングシステム、識別方法、識別プログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6851163B2 (ja) * 2016-09-23 2021-03-31 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7030534B2 (ja) * 2018-01-16 2022-03-07 キヤノン株式会社 画像処理装置および画像処理方法
JP2021047827A (ja) 2019-09-20 2021-03-25 キヤノン株式会社 デバイス、システム、制御方法、及びプログラム
JP7361551B2 (ja) 2019-09-20 2023-10-16 キヤノン株式会社 デバイス、制御方法、及びプログラム
US12086995B2 (en) * 2020-09-03 2024-09-10 Intel Corporation Video background estimation using spatio-temporal models
US20230306712A1 (en) * 2022-03-24 2023-09-28 Objectvideo Labs, Llc Dual descriptor data for object recognition in low light conditions

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129778A (ja) * 1993-11-08 1995-05-19 Oki Electric Ind Co Ltd 画像監視装置
JP2002158999A (ja) * 2000-08-31 2002-05-31 Hitachi Kokusai Electric Inc 物体検出方法及び物体検出装置並びに侵入物体監視装置
JP2003199099A (ja) * 2001-12-27 2003-07-11 Canon Inc 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2009123150A (ja) * 2007-11-19 2009-06-04 Sanyo Electric Co Ltd 対象物検出装置及び方法、対象物検出システム、プログラム
US20100296698A1 (en) * 2009-05-25 2010-11-25 Visionatics Inc. Motion object detection method using adaptive background model and computer-readable storage medium
JP2011209966A (ja) * 2010-03-29 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5391966B2 (ja) 2009-09-28 2014-01-15 サクサ株式会社 画像処理装置及び画像処理装置用プログラム
JP2011211628A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
GB201206772D0 (en) * 2012-04-18 2012-05-30 Geissler Michael P A Computer generated imagery compositors
RU2612378C1 (ru) * 2013-03-08 2017-03-09 ДиджитАрена СА Способ замены объектов в потоке видео
CN103208126B (zh) * 2013-04-17 2016-04-06 同济大学 一种自然环境下运动物体监测方法
CN103473792A (zh) * 2013-09-11 2013-12-25 清华大学深圳研究生院 一种运动目标检测方法
WO2015117072A1 (en) * 2014-01-31 2015-08-06 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting and tracking objects in a video stream
JP6602009B2 (ja) * 2014-12-16 2019-11-06 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
KR102366521B1 (ko) * 2015-01-19 2022-02-23 한화테크윈 주식회사 이동 물체 탐지 시스템 및 방법
KR102153607B1 (ko) * 2016-01-22 2020-09-08 삼성전자주식회사 영상에서의 전경 검출 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129778A (ja) * 1993-11-08 1995-05-19 Oki Electric Ind Co Ltd 画像監視装置
JP2002158999A (ja) * 2000-08-31 2002-05-31 Hitachi Kokusai Electric Inc 物体検出方法及び物体検出装置並びに侵入物体監視装置
JP2003199099A (ja) * 2001-12-27 2003-07-11 Canon Inc 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2009123150A (ja) * 2007-11-19 2009-06-04 Sanyo Electric Co Ltd 対象物検出装置及び方法、対象物検出システム、プログラム
US20100296698A1 (en) * 2009-05-25 2010-11-25 Visionatics Inc. Motion object detection method using adaptive background model and computer-readable storage medium
JP2011209966A (ja) * 2010-03-29 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FAN-CHIEH CHENG, 外2名: ""Illumination-Sensitive Background Modeling Approach for Accurate Moving Object Detection"", IEEE TRANSACTIONS ON BROADCASTING, vol. 第57巻, 第4号, JPN6021021678, 25 July 2011 (2011-07-25), US, pages 794 - 801, ISSN: 0004523311 *
野中陽介, 外3名: ""背景変動環境における事例ベース背景モデルの設計法"", 情報処理学会研究報告, vol. 第2012-CVIM-182巻, 第9号, JPN6021021677, 15 June 2012 (2012-06-15), JP, pages 1 - 8, ISSN: 0004523310 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020184171A (ja) * 2019-05-07 2020-11-12 株式会社Hacarus 電子回路、ハードウェアコンポーネント、エッジ処理システム、エッジコンピューティングシステム、識別方法、識別プログラム

Also Published As

Publication number Publication date
US10769800B2 (en) 2020-09-08
US20180308242A1 (en) 2018-10-25
EP3396626A1 (en) 2018-10-31
JP6944272B2 (ja) 2021-10-06
KR20180119484A (ko) 2018-11-02
EP3396626B1 (en) 2020-06-10
CN108734720A (zh) 2018-11-02

Similar Documents

Publication Publication Date Title
JP6944272B2 (ja) 動体検出装置およびその制御方法
US9330446B2 (en) Method and apparatus for processing image
CN110121882B (zh) 一种图像处理方法及装置
KR101290611B1 (ko) 촬상 장치, 피사체 추종 방법 및 기록 매체
KR101916355B1 (ko) 듀얼-렌즈 장치의 촬영 방법, 및 듀얼-렌즈 장치
CN103051841B (zh) 曝光时间的控制方法及装置
CN105960797B (zh) 一种处理图像的方法和装置
CN106961550B (zh) 一种摄像状态的切换方法及装置
EP2273450A2 (en) Target tracking apparatus, image tracking apparatus, methods of controlling operation of same, and digital camera
EP2938064B1 (en) Method and apparatus for determining exposure setting
JP2013097082A (ja) 画像信号処理装置
JP2018517369A (ja) オートホワイトバランスのための動的フレームスキップ
CN112954189A (zh) 电子设备、控制装置、控制方法及记录介质
WO2013064891A1 (en) Method and system for luminance adjustment of images in an image sequence
US9357130B2 (en) Dynamic bracketing operations for image stabilization
JP2020108101A (ja) 情報処理装置、撮像装置、情報処理方法および撮像装置の制御方法
JP7251425B2 (ja) 付着物検出装置および付着物検出方法
JPWO2019021412A1 (ja) 位置推定装置、位置推定方法及びプログラム記録媒体
JP2010074315A (ja) 被写体追尾方法及び撮像装置
CN111630839A (zh) 一种图像处理方法及装置
EP3799416A1 (en) Image processing apparatus and method, and image capturing apparatus
KR20190072643A (ko) 얼굴 검출 장치 및 그 제어 방법, 그리고 프로그램
CN113170038B (zh) 抖动校正控制装置、抖动校正控制装置的工作方法、存储介质及摄像装置
JP2021136671A (ja) 情報処理装置、撮像装置、方法、プログラム及び記憶媒体
JP2016219899A (ja) 撮像装置、撮像方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200403

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210910

R151 Written notification of patent or utility model registration

Ref document number: 6944272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151