JP2013254291A - 動体検出装置、動体検出方法およびプログラム - Google Patents

動体検出装置、動体検出方法およびプログラム Download PDF

Info

Publication number
JP2013254291A
JP2013254291A JP2012128612A JP2012128612A JP2013254291A JP 2013254291 A JP2013254291 A JP 2013254291A JP 2012128612 A JP2012128612 A JP 2012128612A JP 2012128612 A JP2012128612 A JP 2012128612A JP 2013254291 A JP2013254291 A JP 2013254291A
Authority
JP
Japan
Prior art keywords
moving object
background
image
block
background model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012128612A
Other languages
English (en)
Other versions
JP6076623B2 (ja
Inventor
Taizo Umezaki
太造 梅崎
Hayato Hirota
隼 廣田
Kenta Nishiyuki
健太 西行
Takashi Yamaguchi
孝志 山口
哲英 ▲高▼曽
Norihide Koso
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2012128612A priority Critical patent/JP6076623B2/ja
Publication of JP2013254291A publication Critical patent/JP2013254291A/ja
Application granted granted Critical
Publication of JP6076623B2 publication Critical patent/JP6076623B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】画像から動体を高精度に検出することが可能な技術を提供する。
【解決手段】動体検出装置1は、複数の背景画像から得られる複数の背景情報を、背景画像を分割して得られるブロックごとに、背景モデルとして記憶する背景モデル記憶部14と、入力画像中の或るブロックにおける画像情報と、背景モデルにおいて、或るブロックに対応するブロックの各背景情報とをそれぞれベクトルとして扱い、各背景情報それぞれのベクトルの中に、画像情報のベクトルと同じ方向を向いているベクトルが存在するか否かに基づいて、或るブロックから動体を検出する動体検出部122とを備える。
【選択図】図2

Description

本発明は、画像内の動体を検出する技術に関する。
画像から動体を検出する動体検出手法としては、例えば、背景差分法が存在する。背景差分法は、検出対象の動体を含まない背景画像を用意し、当該背景画像と入力画像との画素値の差分を算出し、算出結果に基づいて入力画像中の動体を検出する手法である。
当該背景差分法では、数フレーム前の入力画像を背景画像として用いて、動体を検出することができるが、動体が静止した場合には、当該動体を検出することができなくなる。
信頼性の高い背景情報を用いて動体検出を行う手法としては、例えば、コードブック(Codebook)法が存在する(非特許文献1)。コードブック法では、学習期間において、コードワード(Codeword)と呼ばれる複数の背景情報を画素ごとに記録し、入力画像とコードワードとを比較することによって、動体検出を行う手法である。
しかし、コードブック法は、入力画像の画素情報と背景情報との差分の結果を利用して、動体検出を行う手法であるため、日照変動、照明変動等の明るさの変動を受けやすい。
明るさの変動に対して或る程度頑健な動体検出手法としては、例えば、コリニア(Colinear)判定基準を使用した動体検出手法がある(非特許文献2,3)。この手法は、入力画像中の或るブロックにおける画像情報と、当該ブロックに関する背景情報とをそれぞれベクトルとして扱い、2つのベクトルが同じ方向を向いているか否かに基づいて動体検出を行う手法であるため、明るさの変動に対して比較的頑健な手法である。
K.Kim,T.Chalidabhongse,D.Harwood,and L.Davis,"Real-time foreground-background segmentation using codebook model"Real-Time Imaging,vol.11,no.3,pp.172-185,Jun.2005. P.Guha,D.Palai,K.S.Venkatesh,and A.Mukerjee,"A Multiscale Co-linearity Statistic Based Approach To Robust Background Modeling."ACCV,2006. R.Mester,T.Aach,and L.Dumbgen,"Illumination-invariant change detection using a statistical colinearity criterion"Proceedings of the 23rd DAGM-Symposium on Pattern Recognition,Springer-Verlag(2001)170-177
しかし、コリニア判定基準を使用した動体検出手法は、背景の更新を行わないため、大きな照明変動が起きた場合、または看板が置かれた場合等、環境が変化した場合に誤検出が生じる。
このように、画像から動体を検出する上記の各動体検出手法には、いずれも一長一短があり、画像から動体を高精度に検出することが難しかった。
そこで、本発明は、画像から動体を高精度に検出することが可能な技術を提供することを目的とする。
本発明に係る動体検出装置の第1の態様は、複数の背景画像から得られる複数の背景情報を、前記背景画像を分割して得られるブロックごとに、背景モデルとして記憶する記憶手段と、入力画像中の或るブロックにおける画像情報と、前記背景モデルにおいて、前記或るブロックに対応するブロックの各背景情報とをそれぞれベクトルとして扱い、前記各背景情報それぞれのベクトルの中に、前記画像情報のベクトルと同じ方向を向いているベクトルが存在するか否かに基づいて、前記或るブロックから動体を検出する動体検出手段とを備える。
また、本発明に係る動体検出装置の第2の態様は、上記第1の態様であって、順次に入力される前記入力画像の画像情報を用いて、前記背景モデルを更新する更新手段と、前記入力画像に存在する動体領域の割合に応じて、前記更新手段による前記背景モデルの更新間隔を調整する更新間隔調整手段とをさらに備える。
また、本発明に係る動体検出装置の第3の態様は、上記第2の態様であって、前記更新間隔調整手段は、前記動体領域の割合が大きいほど、前記更新間隔を短くする。
また、本発明に係る動体検出装置の第4の態様は、上記第1の態様から上記第3の態様のいずれかであって、前記動体検出手段による、前記各ブロックについての動体検出結果に基づいて、検出された動体が人であるか否かを判定する判定手段、をさらに備え、前記判定手段は、動体を含む各ブロックにおいて、連続して繋がったブロックが存在する場合、検出された動体は人であると判定する。
また、本発明に係る動体検出方法は、a)複数の背景画像から得られる複数の背景情報を、前記背景画像を分割して得られるブロックごとに、背景モデルとして記憶部に記憶する工程と、b)入力画像中の或るブロックにおける画像情報と、前記背景モデルにおいて、前記或るブロックに対応するブロックの各背景情報とをそれぞれベクトルとして扱い、前記各背景情報それぞれのベクトルの中に、前記画像情報のベクトルと同じ方向を向いているベクトルが存在するか否かに基づいて、前記或るブロックから動体を検出する工程とを備える。
また、本発明に係るプログラムは、入力画像から動体を検出する動体検出装置に内蔵されたコンピュータに、a)複数の背景画像から得られる複数の背景情報を、前記背景画像を分割して得られるブロックごとに、背景モデルとして記憶部に記憶する工程と、b)前記入力画像中の或るブロックにおける画像情報と、前記背景モデルにおいて、前記或るブロックに対応するブロックの各背景情報とをそれぞれベクトルとして扱い、前記各背景情報それぞれのベクトルの中に、前記画像情報のベクトルと同じ方向を向いているベクトルが存在するか否かに基づいて、前記或るブロックから動体を検出する工程とを実行させる。
本発明によれば、画像から動体を高精度に検出することが可能になる。
本発明の目的、特徴、局面、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
本実施形態に係る動体検出装置によって実行される2つの動作段階と、各動作段階における詳細な処理内容とを示す図である。 動体検出装置の構成を示すブロック図である。 動体検出装置の全体動作を示すフローチャートである。 背景モデルの詳細を示す図である。 コードワードに含まれる情報の内容を示す図である。 背景モデル生成処理の概要を示す概念図である。 背景モデル生成処理で実行される各工程を示すフローチャートである。 動体検出処理の概要を示す概念図である。 動体検出処理で実行される各工程を示すフローチャートである。 入力画像の注目ブロックおよび背景モデルの注目ブロックそれぞれからベクトルを抽出する様子を表した図である。 入力画像の注目ブロックから抽出されたベクトルと、背景モデルの注目ブロックから抽出されたベクトルとの関係を示す図である。 更新間隔規定値と、入力画像中の動体領域の割合との関係を示す図である。 背景モデル更新処理で実行される各工程を示すフローチャートである。 動体検出の対象となる画像を示す図である。 本実施形態の動体検出装置による動体検出結果を示す図である。 コリニア動体検出手法を用いて動体検出を行ったときの動体検出結果を示す図である。 コードブック動体検出手法を用いて動体検出を行ったときの動体検出結果を示す図である。 背景モデルの更新間隔を100フレームに固定した場合の動体検出結果と、入力画像中の動体領域の割合の変化に応じて背景モデルの更新間隔を調整した場合の動体検出結果との対比を示す図である。
以下、各実施形態について図面を参照して説明する。なお、異なる図面において同一の符号を付した要素は、同一または相応する要素を示すものとする。
<1.実施形態>
[1−1.概要]
図1は、本実施形態に係る動体検出装置1によって実行される2つの動作段階と、各動作段階における詳細な処理内容とを示す図である。
図1に示されるように、動体検出装置1では、まず、準備段階において、順次に入力される基準画像(初期画像)を用いて、背景モデルの生成処理が実行される。背景モデルは、同一のシーン(被写体)を撮影して得られた各基準画像に含まれる情報を集めて構成されたモデルであり、後述の動体検出処理において、時系列で順次に入力される各入力画像から動体を検出する際に利用される。なお、背景モデルの生成処理が実行される準備段階は、「学習段階」とも称され、動体検出の対象となる入力画像は、「動体検出対象画像」または「検出対象画像」とも称される。
背景モデルの生成が完了すると、動作段階は、準備段階から実動作段階へと移行される。実動作段階では、入力画像から動いている人を検出する動体検出処理と、背景モデルへの情報の追加判定を行う間隔(背景モデルの更新間隔)を調整する処理(背景モデルの更新間隔調整処理)と、背景モデルの更新処理とが実行される。
[1−2.構成]
図2は、動体検出装置1の構成を示すブロック図である。
図2に示されるように、動体検出装置1は、画像入力部11と、画像処理部12と、検出結果出力部13と、背景モデル記憶部14と、キャッシュモデル記憶部15とを備えている。
画像入力部11は、画像処理部12に画像を入力する機能を有している。具体的には、画像入力部11が、画像を撮像するための撮像部を有している場合は、画像入力部11は、撮像部によって取得される撮影画像を画像処理部12に入力させる。また、画像入力部11が、撮像部を有していない場合は、画像入力部11は、動体検出装置1の外部から入力された画像を画像処理部12に入力させる。
画像処理部12は、画像入力部11から入力される複数の基準画像を用いて背景モデルを生成する背景モデル生成機能と、画像入力部11から入力される入力画像から動いている人を検出する動体検出機能と、背景モデルを更新する背景モデル更新機能とを実現する。画像処理部12で実現される各機能は、ROMおよびRAM等が接続されたCPUにおいて所定のプログラムを実行して実現される態様であってもよく、或いは、論理回路を用いたハードウェアにおいて実現される態様であってもよい。
画像処理部12は、背景モデル生成部121と、動体検出部122と、判定部123と、背景更新間隔調整部124と、背景モデル更新部125とを有している。
背景モデル生成部121は、画像入力部11から入力される複数の基準画像を用いて背景モデルを生成する背景モデル生成機能を実現する。背景モデル生成部121によって生成された背景モデルは、後述の背景モデル記憶部14に記憶される。
動体検出部122は、画像入力部11から入力される入力画像と、背景モデルとを用いて、入力画像中の動体を検出する。
判定部(「人判定部」とも称する)123は、動体検出部122によって検出された動体が人であるか否かを判定する。
このように、動体検出部122および判定部123は、画像入力部11から入力される入力画像から動いている人を検出する動体検出機能を実現する。
背景更新間隔調整部124は、動体検出部122の動体検出結果に基づいて、背景モデルの更新間隔を調整する機能を有している。
背景モデル更新部125は、背景モデルの更新間隔で規定されるタイミングで、背景モデルの更新を行う機能を有している。背景モデルの更新の際には、背景モデル更新部125は、キャッシュモデルを生成して、当該キャッシュモデルを一時的に後述のキャッシュモデル記憶部15に記憶させる。そして、背景モデル更新部125は、キャッシュモデルに含まれる情報のうち、一定時間経過した情報を背景情報として、背景モデルに追加することによって、背景モデルの更新を行う。
このように、背景更新間隔調整部124および背景モデル更新部125は、背景モデルを更新する背景モデル更新機能を実現する。
背景モデル記憶部14は、フラッシュメモリ、EP−ROMまたはハードディスク(HD)等の書き換え可能な記憶手段で構成され、背景モデルを記憶する。
キャッシュモデル記憶部15は、フラッシュメモリ、EP−ROMまたはハードディスク(HD)等の書き換え可能な記憶手段で構成され、キャッシュモデルを記憶する。なお、図2では、背景モデル記憶部14と、キャッシュモデル記憶部15とは、別個独立の記憶部として図示されているが、共通の記憶部内で、記憶領域を分けて構成される態様であってもよい。
検出結果出力部13は、入力画像から動いている人が検出されたか否かの検出結果を出力する。検出結果は、例えば、動体検出装置1に設けられた表示部(不図示)に表示される態様であってもよく、音声等の音で通知される態様であってもよい。
また、検出結果は、他の外部装置に信号として出力されてもよい。この場合、動いている人を検出したことを示す信号を受け取った外部装置は、警報を発する等の検出結果に応じた動作を実行する。
[1−3.全体動作]
次に、動体検出装置1の全体動作について説明する。図3は、動体検出装置1の全体動作を示すフローチャートである。
図3に示されるように、ステップSP1において画像が入力されると、動作工程は、ステップSP2に移行される。
ステップSP2では、背景モデルが存在するか否かが判定される。背景モデルが存在しない場合、動作工程は、ステップSP3に移行される。
ステップSP3では、入力された画像を基準画像として、当該基準画像から背景モデルを生成する背景モデル生成処理が背景モデル生成部121によって実行される。
背景モデルの生成は、複数の基準画像に基づいて行われ、背景モデルの生成が完了するまで、ステップSP1〜ステップSP3の処理が繰り返し実行されることになる。
ここで、複数の基準画像を用いて生成される背景モデルについて詳述する。図4は、背景モデルの詳細を示す図である。図5は、コードワード(Codeword)に含まれる情報の内容を示す図である。
背景モデルは、画像を分割して得られる矩形領域(ブロック)ごとに、背景情報および当該背景情報に関連する背景関連情報を、複数の基準画像から集めたものである。
具体的には、図4に示されるように、背景モデルHMは、例えば、3画素×3画素の大きさのブロックごとに割り当てられた複数のコードブック(Codebook)CBを有している。各コードブックCBには、複数の基準画像KG1〜KG3から得られた各ブロックの画像情報を含むコードワードCWが複数保持されることになる。
例えば、複数の基準画像において、同じ位置の共通のブロックから、L個の画像情報が得られた場合、当該共通のブロックにおけるコードブックCBには、L個のコードワードCWが含まれることになる。図4には、背景モデルHMにおいて、ブロックBKのコードブックCBとして、複数の基準画像KG1〜SG3における共通のブロックから得られた3つのコードワードCW1〜CW3が含まれている様子が示されている。
なお、図5に示されるように、コードワードCWには、ブロック内の各画素の画素値PVが背景情報として含まれ、当該背景情報と入力画像の画像情報とが一致すると判定された最新の時刻(最新の一致時刻)Te、およびコードワードの生成時刻Tiが背景関連情報として含まれている。
動体検出装置1の全体動作の説明に戻って(図3)、背景モデルの生成が完了すると、動作工程は、ステップSP4に移行される。
ステップSP4では、入力された画像から動いている人を検出する動体検出処理が、動体検出部122および判定部123によって実行される。
次のステップSP5では、背景モデルの更新間隔調整処理が、背景更新間隔調整部124によって実行される。
ステップSP6では、背景モデルの更新処理が、背景モデル更新部125によって実行される。
以下では、ステップSP3の背景モデル生成処理、ステップSP4の動体検出処理、ステップSP5の背景モデルの更新間隔調整処理、およびステップSP6の背景モデルの更新処理について順次に詳述する。
[1−4.背景モデル生成処理]
まず、背景モデル生成処理について詳述する。図6は、背景モデル生成処理の概要を示す概念図である。図7は、背景モデル生成処理で実行される各工程を示すフローチャートである。
図6に示されるように、背景モデル生成処理では、順次に入力される基準画像KGと背景モデルHMとの間で、画像情報の一致判定がブロック単位で行われ、背景モデルHMに存在しない画像情報が、背景情報として背景モデルHMに追加される。
具体的には、図7に示されるように、まず、ステップSP11において、基準画像KG中の或るブロック(注目ブロック)に関するコードワードが、背景モデルHMに存在するか否かが判定される。なお、当該判定は、背景モデルHM中の注目ブロックにおけるコードブックが空か否かを判定していることに等しい。
注目ブロックに関するコードワードが背景モデルHMに存在しない場合、動作工程は、ステップSP14に移行される。ステップSP14では、当該注目ブロックに関する画像情報を含むコードワードが背景モデルHMに追加される。
一方、注目ブロックに関するコードワードが背景モデルHMに存在する場合、動作工程は、ステップSP12に移行される。
ステップSP12では、基準画像KG中の注目ブロックに関する画像情報が、背景モデルHM中の注目ブロックに関する既存のコードワードに含まれる背景情報と一致するか否かの判定が行われる。当該一致判定により、基準画像KG中の注目ブロックに関する画像情報が、背景モデルHM中の注目ブロックに関する既存のコードワードに含まれる背景情報と一致しないと判定された場合、動作工程は、ステップSP13からステップSP14に移行される。
ステップSP14では、当該注目ブロックに関する画像情報を含むコードワードが背景モデルHMに追加される。コードワードの追加が終了すると、動作工程は、ステップSP15に移行される。
一方、基準画像KG中の注目ブロックに関する画像情報が、背景モデルHM中の注目ブロックに関する既存のコードワードに含まれる背景情報と一致すると判定された場合、動作工程は、ステップSP13からステップSP15に移行される。
ステップSP15では、基準画像KG中の全てのブロックについて、ステップSP11〜ステップSP14の一連の処理が終了したか否かが判定される。全てのブロックについて処理が終了していない場合、動作工程は、ステップSP11に移行され、未処理のブロックについてステップSP11〜ステップSP14の一連の処理が実行されることなる。一方、全てのブロックについてステップSP11〜ステップSP14の一連の処理が終了した場合、背景モデルの生成処理は終了となる。
[1−5.動体検出処理]
次に、動体検出処理について詳述する。図8は、動体検出処理の概要を示す概念図である。図9は、動体検出処理で実行される各工程を示すフローチャートである。
上述のように、動体検出処理は、順次に入力される入力画像から動体を検出する処理であり、図8に示されるように、入力画像NGと背景モデルHMとの間で、画像情報の一致判定をブロック単位で行うことによって、ブロック単位で動体検出が行われる。そして、ブロック単位の動体検出結果に基づいて、検出された動体が人であるか否かが判定される。
具体的には、図9に示されるように、ステップSP21では、動体検出部122によって、入力画像NG中の或るブロック(注目ブロック)について動体検出が行われる。本実施形態の動体検出では、入力画像NG中の注目ブロックにおける画像情報が、背景モデルHM中の注目ブロックに関する各コードワードに含まれる背景情報と一致するか否かを判定することによって、入力画像NG中の注目ブロックに動体が存在するか否かが検出される。なお、動体検出の具体的手法については、後述する。
ステップSP22では、注目ブロックについての動体検出結果が、記憶部(不図示)に記憶される。
ステップSP23では、入力画像NG中の全てのブロックについて、動体検出が終了したか否かが判定される。全てのブロックについて動体検出が終了していない場合、動作工程は、ステップSP21に移行され、未処理のブロックについてステップSP21〜ステップSP23の処理が実行されることなる。一方、全てのブロックについて動体検出が終了した場合、動作工程は、ステップSP24に移行される。
ステップSP24では、判定部123によって、入力画像NG中の各ブロックについての動体検出結果に基づいて、検出された動体が人であるか否かが判定される。
動いている人が動体として検出される場合、動体を含むブロック(「動体検出ブロック」とも称する)は或る程度の塊になると想定される。そこで、判定部123は、各動体検出ブロックの中から、他の動体検出ブロックと連続しない単独の動体検出ブロックを除去することによって、連続した動体検出ブロックを特定する。そして、判定部123は、入力画像NG中に、連続した動体検出ブロックが存在する場合、当該入力画像NGにおいて検出された動体は、動いている人であると判定する。動いている人が検出された場合、判定部123は、動いている人を検出したことを示す結果を検出結果出力部13に対して出力する。
ここで、動体検出部122によって行われる動体検出の具体的手法について詳述する。図10は、入力画像NGの注目ブロックおよび背景モデルHMの注目ブロックそれぞれからベクトルを抽出する様子を表した図である。図11は、入力画像NGの注目ブロックから抽出されたベクトルと、背景モデルHMの注目ブロックから抽出されたベクトルとの関係を示す図である。
本実施形態では、注目ブロックに関する動体検出は、入力画像NG中の注目ブロックにおける画像情報と、背景モデルHM中の注目ブロックに関する各コードワードに含まれる背景情報とをそれぞれベクトルとして扱い、2つのベクトルが同じ方向を向いているか否かに基づいて行われる。2つのベクトルが同じ方向を向いている場合、入力画像NG中の注目ブロックは背景と変わらず、動体を含んでいないと判定される。一方、2つのベクトルが同じ方向を向いていない場合、入力画像NG中の注目ブロックは背景と異なり、動体を含んでいると判定される。
具体的には、まず、動体検出部122は、入力画像NG中の注目ブロックに含まれる各画素の画素値を成分とした、入力画像NGの画像情報に関するベクトル(画像ベクトル)xを生成する。例えば、図10には、9個の画素を有した注目ブロックMBnについて、各画素ごとの画素値を成分とした画像ベクトルxを抽出する様子が示されている。なお、ここでは、各画素は、R(赤)G(緑)B(青)それぞれの画素値を有している場合を想定しているため、画像ベクトルxは、27個の成分で構成されている。
同様に、動体検出部122は、背景モデルHMの注目ブロックに関する各コードワードに含まれる背景情報を用いて、背景情報に関するベクトル(背景ベクトル)を生成する。例えば、図10には、9個の画素を有した注目ブロックMBhについて、各画素ごとの画素値を成分とした背景ベクトルxを抽出する様子が示されている。なお、背景モデルHMを構成する各コードブックには、複数の基準画像から得られた複数のコードワードが含まれているため、背景ベクトルxは、複数のコードワードそれぞれを用いて複数抽出されることになる。
画像ベクトルxと背景ベクトルxとが同じ方向を向いている場合、入力画像NG中の注目ブロックの画像情報は、背景と変わらないことになるが、画像ベクトルxおよび背景ベクトルxには、或る程度のノイズ成分が含まれていると考えられる。よって、ここでは、或る程度のノイズを許容可能な基準を用いて、画像ベクトルxと背景ベクトルxとが同じ方向を向いているか否かを判定する。
画像ベクトルxおよび背景ベクトルxにノイズ成分が含まれていると仮定すると、真のベクトルuに対する画像ベクトルxと背景ベクトルxとの関係は、図11のように表すことができ、真のベクトルuは、下記の式(1)を最小化することで推定できる。
Figure 2013254291
ここで、行列Xを画像ベクトルxと背景ベクトルxとを用いて、式(2)のように表すと、式(1)で示されるDは、2×2行列XXの非ゼロの最小固有値となるため、Dを解析的に求めることができる。なお、Dが、2×2行列XXの非ゼロの最小固有値となることについての詳細は、上記の非特許文献3に記載されている。
Figure 2013254291
上述のように、背景ベクトルxは、複数のコードワードそれぞれを用いて複数抽出されることから、画像ベクトルxと背景ベクトルxとを用いて表されるDも、背景ベクトルxの数に応じて、複数得られることになる。
入力画像NG中の注目ブロックが背景であるか否かは、複数得られたDの最小値cと平均値μと標準偏差σとを用いて、式(3)で示されるチェビシェフ(Chebyshev)の不等式を満たすか否かに基づいて行われる。式(3)のチェビシェフの不等式を満たす場合、注目ブロックには動体が含まれると判定され、満たさない場合、注目ブロックには動体が含まれないと判定される。
Figure 2013254291
このように、本実施形態では、注目ブロックに関する動体検出は、入力画像NG中の注目ブロックにおける画像情報と、背景モデルHM中の注目ブロックに関する各コードワードに含まれる背景情報とをそれぞれベクトルとして扱い、2つのベクトルが同じ方向を向いているか否かに基づいて行われる。
本動体検出手法は、比較対象となる2つのブロックにおける画像情報から得られるベクトルの方向が同じか否かに基づいて、動体検出を行うため、日照変動、照明変動などの明るさの変動に対して比較的頑健な動体検出手法である。
[1−6.背景モデルの更新間隔調整処理]
次に、背景モデルの更新間隔調整処理について詳述する。
上述のように、背景モデルの更新間隔調整処理では、背景モデルへ情報を追加するか否かの判定を行う間隔が調整される。なお、背景モデルの更新間隔調整処理は、後述の背景モデル更新処理において用いられるパラメータ(更新間隔規定値)を調整する処理であり、背景モデル更新処理自体の実行間隔を調整する処理ではない。付言すると、背景モデル更新処理は、図3に示されるように、入力画像が入力される度に実行される処理である。図12は、更新間隔規定値Dtと、入力画像中の動体領域の割合Rdとの関係を示す図である。
時系列的に順次に入力される入力画像では、急激な明るさ変動等により、背景が急に変化する場合がある。そこで、本実施形態の動体検出装置1は、背景の変化に対応して背景モデルを更新するための背景モデルの更新間隔を調整する。
背景モデルの更新間隔は、更新間隔規定値によって規定され、当該更新間隔規定値は、画像のフレーム数を用いて表された値である。例えば、更新間隔規定値が「100」であった場合、100フレーム分の画像が入力される間、キャッシュモデル中のコードワードが削除されずに残っていたときに、そのコードワードを背景モデルに追加することによって、背景モデルが更新される。
動体検出装置1では、このような更新間隔規定値を調整することによって、背景モデルの更新間隔が調整される。
より詳細には、更新間隔規定値Dtは、入力画像中の動体領域の割合をRd、初期の更新間隔規定値(更新間隔初期値)をDi、固定しきい値をaとすると、以下の式(4)のように表される。
Figure 2013254291
当該式(4)で示される、更新間隔規定値Dtと、入力画像中の動体領域の割合Rdとの関係を図示すると、図12のようになる。図12にも示されるように、式(4)によれば、入力画像中の動体領域の割合Rdが大きくなるほど、更新間隔規定値Dtが小さくなって更新間隔が短くなる。特に、入力画像中の動体領域の割合Rdが、固定しきい値aを超えた場合、更新間隔規定値Dtが「1」となって、背景モデルの更新が急速に行われることになる。
なお、固定しきい値aは、入力画像の何パーセント以上の領域に動体が存在すると異常と考えられるかという基準に基づいて予め設定される値であり、撮影対象となる被写体に応じて個別に設定されることになる。
また、入力画像中の動体領域の割合Rdは、動体領域の画素数をPd、入力画像の全画素数をPaとすると、以下の式(5)となる。
Figure 2013254291
動体領域の画素数Pdは、動体を含むブロックの数に、1つのブロックに含まれる画素数を乗じることによって得ることができる。
このように、順次に入力される入力画像中の動体領域の割合に応じて、背景モデルの更新間隔を変更することによれば、急激な明るさ変動等により画像全体から動体を誤検出した場合でも、背景モデルを即座に更新することができるので、さらなる動体の誤検出を防止することができる。
[1−7.背景モデル更新処理]
次に、背景モデル更新処理について詳述する。図13は、背景モデル更新処理で実行される各工程を示すフローチャートである。
背景モデル更新処理は、上述のように、背景モデル更新部125によって行われる。具体的には、図13に示されるように、まず、ステップSP31において、入力画像における各ブロックの動体検出結果に基づいて、ブロックごとに動体を含むか否かが確認される。確認対象となったブロックが動体を含まない場合、動作工程は、ステップSP31からステップSP32に移行される。
ステップSP32では、確認対象となったブロックの動体検出(ステップSP21)において、一致すると判定された背景情報を含む、背景モデル中のコードワードの背景関連情報(ここでは、最新の一致時刻Te)が更新される。
一方、確認対象となったブロックが動体を含む場合、動作工程は、ステップSP31からステップSP33へと移行される。
ステップSP33では、動体を含むブロックの画像情報を用いて、キャッシュモデルの生成が行われる。具体的には、動体を含むブロックの画像情報が、既存のキャッシュモデル中のコードワードに含まれている場合、当該画像情報を含む、既存のキャッシュモデル中のコードワードの背景関連情報(最新の一致時刻Te)が更新される。これに対して、動体を含むブロックの画像情報が、既存のキャッシュモデル中のコードワードに含まれていない場合、当該画像情報を含むコードワードが新たに生成され、新たなコードワードがキャッシュモデルに追加される。
このように、ステップSP33では、不足している画像情報を含むコードワードのキャッシュモデルへの追加、或いは、キャッシュモデル中のコードワードの背景関連情報の更新が行われる。
次のステップSP34では、全ブロックについて動体を含むか否かの確認が終了したか否かが判定される。確認が終了していない場合、動作工程は、ステップSP31に移行され、全ブロックについて動体を含むか否かの確認が終了するまで、ステップSP31〜ステップSP34の各工程が繰り返し実行されることになる。一方、確認が終了している場合、動作工程は、ステップSP35に移行される。
ステップSP35では、所定期間更新されないキャッシュモデル中のコードワードが削除される。背景関連情報(最新の一致時刻Te)が所定期間更新されないコードワードは、動体の画像情報から生成されたものと考えられる。このため、所定期間更新されないコードワードを削除することによれば、キャッシュモデルから動体の画像情報に基づいて生成されたコードワードを省くことができる。換言すれば、背景の画像情報に基づいて生成されたコードワードをキャッシュモデルに残すことができる。
なお、ここでの所定期間は、日照変動、照明変動などの明るさ変動等による画像情報の変化と、検出対象とする人等の動体を検出したときの画像情報の変化とを区別するために予め設定される期間である。
ステップSP36では、キャッシュモデル中のコードワードのうち、背景モデルの更新間隔を経過して存在するキャッシュモデル中のコードワードが背景モデルに追加される。ここでの背景モデルの更新間隔は、上記の更新間隔既定値によって規定される間隔であり、上述のように、入力画像中の動体領域の割合に応じて変更される。
次のステップSP37では、入力画像の画像情報と一定期間にわたって一致しなかった背景情報を含むコードワードが背景モデルから削除される。これによれば、時系列的な環境変化により既に背景ではなくなった、画像情報を含むコードワードを背景モデルから削除することができるので、背景モデルの情報量を低減することができる。また、背景モデルの情報量の低減により、背景モデルを用いた動体検出の処理速度の低下を防ぐことができる。なお、上記一定期間を求める際の始期には、最新の一致時刻Te、或いは最新の一致時刻Teが存在しない場合は、コードワードの生成時刻Tiが用いられる。
このような背景モデルの更新処理を行うことによれば、明るさ変動等の環境変化に追従した背景モデルを用いて動体検出を行うことができるので、動体検出の精度を向上させることができる。
以上のように、動体検出装置1は、複数の背景画像から得られる複数の背景情報を、背景画像を分割して得られるブロックごとに、背景モデルとして記憶する背景モデル記憶部14と、入力画像中の或るブロックにおける画像情報と、背景モデルにおいて、或るブロックに対応するブロックの各背景情報とをそれぞれベクトルとして扱い、各背景情報それぞれのベクトルの中に、画像情報のベクトルと同じ方向を向いているベクトルが存在するか否かに基づいて、或るブロックから動体を検出する動体検出部122とを備える。
このように、動体検出装置1は、動体検出手法として、明るさの変動に頑健な手法を用いつつ、信頼性の高い背景情報に基づいて動体検出を行うので、動体を高精度に検出することが可能になる。
ここで、本実施形態の動体検出手法による動体検出結果と、他の動体検出手法を用いたときの動体検出結果との対比を行う。図14は、動体検出の対象となる画像を示す図であり、図15は、本実施形態の動体検出装置1による動体検出結果を示す図であり、図16は、既存のコリニア動体検出手法を用いて動体検出を行ったときの動体検出結果を示す図であり、図17は、既存のコードブック動体検出手法を用いて動体検出を行ったときの動体検出結果を示す図である。
例えば、図14に示されるような、動体としての人HTを含んだ画像G1を本実施形態の動体検出装置1に入力させた場合、図15に示される検出結果RU1を得ることがきる。これに対して、既存のコリニア動体検出手法を用いて画像G1から動体検出を行った場合は、図16に示される検出結果RU2が得られ、既存のコードブック動体検出手法を用いて画像G1から動体検出を行った場合は、図17に示される検出結果RU3が得られる。
各検出結果RU1〜RU3を対比すると、本実施形態の動体検出装置1の検出結果RU1が最も高精度であることが分かる。
既存のコードブック検出法では、背景情報を含むコードワードは、画像を構成する各画素ごとに存在していたが、本実施形態のコードワードは、各ブロックごとに存在する。
本実施形態のように、各ブロックごとにコードワードを生成すれば、当該コードワードには、同一の時刻に取得された各画素の画像情報が含まれることになる。これに対して、画素ごとにコードワードを生成すると、画素ごとの各コードワードには、必ずしも同一の時刻に取得された画素の画素情報が含まれることにはならない。
本実施形態の動体検出は、ブロックごとに行われるので、コードワードは、ブロックごとに生成する方が好ましい。本実施形態のように、コードワードをブロックごとに生成することによれば、同一の時刻に取得された各画素の画像情報を背景情報として用いて動体検出を行うことができるので、動体検出の精度を向上させることができる。
また、本実施形態の動体検出装置1では、入力画像中の動体領域の割合に応じて、背景モデルの更新間隔が調整される。これによれば、急激な明るさ変動が発生した場合でも、背景モデルを即座に更新することができるので、動体の検出精度を向上させることができる。
ここで、背景モデルの更新間隔を調整しなかった場合と、背景モデルの更新間隔を調整した場合との対比を行う。図18は、背景モデルの更新間隔を100フレームに固定した場合の動体検出結果と、入力画像中の動体領域の割合に応じて背景モデルの更新間隔を調整した場合の動体検出結果との対比を示す図である。
例えば、図18に示されるように、室内の照明を点灯させた明るい状態ST1から室内の照明を一斉に消灯させた場合、背景モデルの更新間隔を100フレームに固定したときの動体検出結果RK1では、非動体が動体として検出されている箇所(図中の斜線ハッチングで示される領域)が多くなっている。これに対して、画像中の動体領域の割合に応じて背景モデルの更新間隔を調整したときの動体検出結果RK2では、動体として検出される非動体が減少している。
このように、入力画像中の動体領域の割合に応じて、背景モデルの更新間隔を調整することによれば、急激な明るさ変動が発生した場合でも、背景モデルを即座に更新することができるので、動体の検出精度を向上させることができる。
<2.変形例>
以上、動体検出装置1の実施形態について説明したが、この発明は、上記に説明した内容に限定されるものではない。
例えば、上記実施形態では、画像を分割して得られるブロックの大きさを、3画素×3画素としていたが、これに限定されず、ブロックの大きさは、4画素×4画素、または5画素×5画素としてもよい。ブロックの大きさは、検出対象と想定する動体の画像内での大きさに応じて、適切な大きさに決定することが好ましい。
また、上記実施形態では、或るブロックについてのコードワードには、当該ブロック内の全ての画素の画素値が背景情報として含まれている場合を例示したが、これに限定されず、コードワードには、背景情報としてブロック内の全ての画素の画素値が含まれていなくてもよい。具体的には、ブロックの大きさが、3画素×3画素であった場合、当該ブロックのコードワードには、5画素分の画素値が背景情報として含まれていてもよい。このように、コードワード内の情報量を減らすことによれば、処理量を低減することができるので、動体検出処理を高速化することができる。
また、上記実施形態では、入力画像NG中の各画素が、R(赤)G(緑)B(青)それぞれの画素値を有している場合を想定していたが、これに限定されない。
具体的には、入力画像NG中の各画素の画素値は、RGB以外の他の色空間を用いて表されていてもよい。例えば、入力画像NGがYUV形式の画像データである場合、輝度信号Y、並びに2つの色差信号U,Vが、各画素の画素値として用いられることになる。
本発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得るものと解される。
1 動体検出装置
11 画像入力部
12 画像処理部
121 背景モデル生成部
122 動体検出部
123 判定部
124 背景更新間隔調整部
125 背景モデル更新部
13 検出結果出力部
14 背景モデル記憶部
15 キャッシュモデル記憶部
BK ブロック
CB コードブック
CW,CW1〜CW3 コードワード
Dt 更新間隔規定値
HM 背景モデル
KG,KG1〜KG3 基準画像
NG 入力画像
背景ベクトル
画像ベクトル

Claims (6)

  1. 複数の背景画像から得られる複数の背景情報を、前記背景画像を分割して得られるブロックごとに、背景モデルとして記憶する記憶手段と、
    入力画像中の或るブロックにおける画像情報と、前記背景モデルにおいて、前記或るブロックに対応するブロックの各背景情報とをそれぞれベクトルとして扱い、前記各背景情報それぞれのベクトルの中に、前記画像情報のベクトルと同じ方向を向いているベクトルが存在するか否かに基づいて、前記或るブロックから動体を検出する動体検出手段と、
    を備える動体検出装置。
  2. 順次に入力される前記入力画像の画像情報を用いて、前記背景モデルを更新する更新手段と、
    前記入力画像に存在する動体領域の割合に応じて、前記更新手段による前記背景モデルの更新間隔を調整する更新間隔調整手段と、
    をさらに備える請求項1に記載の動体検出装置。
  3. 前記更新間隔調整手段は、前記動体領域の割合が大きいほど、前記更新間隔を短くする請求項2に記載の動体検出装置。
  4. 前記動体検出手段による、前記各ブロックについての動体検出結果に基づいて、検出された動体が人であるか否かを判定する判定手段、
    をさらに備え、
    前記判定手段は、動体を含む各ブロックにおいて、連続して繋がったブロックが存在する場合、検出された動体は人であると判定する請求項1から請求項3のいずれかに記載の動体検出装置。
  5. a)複数の背景画像から得られる複数の背景情報を、前記背景画像を分割して得られるブロックごとに、背景モデルとして記憶部に記憶する工程と、
    b)入力画像中の或るブロックにおける画像情報と、前記背景モデルにおいて、前記或るブロックに対応するブロックの各背景情報とをそれぞれベクトルとして扱い、前記各背景情報それぞれのベクトルの中に、前記画像情報のベクトルと同じ方向を向いているベクトルが存在するか否かに基づいて、前記或るブロックから動体を検出する工程と、
    を備える動体検出方法。
  6. 入力画像から動体を検出する動体検出装置に内蔵されたコンピュータに、
    a)複数の背景画像から得られる複数の背景情報を、前記背景画像を分割して得られるブロックごとに、背景モデルとして記憶部に記憶する工程と、
    b)前記入力画像中の或るブロックにおける画像情報と、前記背景モデルにおいて、前記或るブロックに対応するブロックの各背景情報とをそれぞれベクトルとして扱い、前記各背景情報それぞれのベクトルの中に、前記画像情報のベクトルと同じ方向を向いているベクトルが存在するか否かに基づいて、前記或るブロックから動体を検出する工程と、
    を実行させるプログラム。
JP2012128612A 2012-06-06 2012-06-06 動体検出装置、動体検出方法およびプログラム Expired - Fee Related JP6076623B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012128612A JP6076623B2 (ja) 2012-06-06 2012-06-06 動体検出装置、動体検出方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012128612A JP6076623B2 (ja) 2012-06-06 2012-06-06 動体検出装置、動体検出方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2013254291A true JP2013254291A (ja) 2013-12-19
JP6076623B2 JP6076623B2 (ja) 2017-02-08

Family

ID=49951757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012128612A Expired - Fee Related JP6076623B2 (ja) 2012-06-06 2012-06-06 動体検出装置、動体検出方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6076623B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098527A1 (ja) * 2013-12-27 2015-07-02 株式会社メガチップス 検出装置、検出対象物の検出方法及び制御プログラム
WO2015129501A1 (ja) * 2014-02-25 2015-09-03 株式会社メガチップス 動体検出装置、動体検出方法及び制御プログラム
US10298928B2 (en) 2015-03-31 2019-05-21 Megachips Corporation Image processing system and image processing method
US10410079B2 (en) 2015-03-31 2019-09-10 Megachips Corporation Image processing system and image processing method
US10419780B2 (en) 2015-12-14 2019-09-17 Megachips Corporation Image processing system and image processing method
WO2021140844A1 (ja) * 2020-01-06 2021-07-15 オムロン株式会社 人体検出装置および人体検出方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020014051A (ja) 2018-07-13 2020-01-23 ローランド株式会社 情報処理方法、及び情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006024149A (ja) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science 画像上移動物体認識方法及び装置
JP2009265827A (ja) * 2008-04-23 2009-11-12 Sanyo Electric Co Ltd 対象物検出装置及び方法、対象物検出システム、プログラム
JP2011076311A (ja) * 2009-09-30 2011-04-14 Dainippon Printing Co Ltd 移動物体検出装置および画素の類否判定方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006024149A (ja) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science 画像上移動物体認識方法及び装置
JP2009265827A (ja) * 2008-04-23 2009-11-12 Sanyo Electric Co Ltd 対象物検出装置及び方法、対象物検出システム、プログラム
JP2011076311A (ja) * 2009-09-30 2011-04-14 Dainippon Printing Co Ltd 移動物体検出装置および画素の類否判定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016016156; Jing-Ming Guo et al.: 'Hierarchical Method for Foreground Detection Using Codebook Model' IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY VOL.21, NO.6, 201106, Pages 804-815, IEEE *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098527A1 (ja) * 2013-12-27 2015-07-02 株式会社メガチップス 検出装置、検出対象物の検出方法及び制御プログラム
JP2015125696A (ja) * 2013-12-27 2015-07-06 株式会社メガチップス 検出装置、検出対象物の検出方法及び制御プログラム
WO2015129501A1 (ja) * 2014-02-25 2015-09-03 株式会社メガチップス 動体検出装置、動体検出方法及び制御プログラム
JP2015158837A (ja) * 2014-02-25 2015-09-03 株式会社メガチップス 動体検出装置、動体検出方法及び制御プログラム
US10298928B2 (en) 2015-03-31 2019-05-21 Megachips Corporation Image processing system and image processing method
US10410079B2 (en) 2015-03-31 2019-09-10 Megachips Corporation Image processing system and image processing method
US10419780B2 (en) 2015-12-14 2019-09-17 Megachips Corporation Image processing system and image processing method
WO2021140844A1 (ja) * 2020-01-06 2021-07-15 オムロン株式会社 人体検出装置および人体検出方法

Also Published As

Publication number Publication date
JP6076623B2 (ja) 2017-02-08

Similar Documents

Publication Publication Date Title
JP6076623B2 (ja) 動体検出装置、動体検出方法およびプログラム
JP6509275B2 (ja) 画像の背景差分に用いられる背景モデルを更新する方法及び装置
JP6813055B2 (ja) 画像処理システム、画像処理方法及びプログラム記憶媒体
CA3077517A1 (en) Method and system for classifying an object-of-interest using an artificial neural network
JP6482195B2 (ja) 画像認識装置、画像認識方法及びプログラム
JP2008192131A (ja) 特徴レベル・セグメンテーションを実行するシステムおよび方法
KR102070956B1 (ko) 영상 처리 장치 및 방법
US10115206B2 (en) Detection system, detection method, and program storage medium
JP2006163452A (ja) 追跡装置および追跡方法
JP2010015469A (ja) 静止領域検出方法とその装置、プログラム及び記録媒体
CN111066061A (zh) 信息处理装置、信息处理方法和信息处理程序
EP3440630A1 (en) System and method for ghost removal in video footage using object bounding boxes
CN116363753A (zh) 一种基于运动历史图像的摔倒检测方法和装置、电子设备
US20160267356A1 (en) Image processing apparatus and image processing method of performing image segmentation
CN115062112A (zh) 一种基于文本描述的监控布防方法、装置及系统
JP6396051B2 (ja) エリア状態推定装置、エリア状態推定方法、プログラムおよび環境制御システム
US11954865B2 (en) Image processing apparatus, image processing method, and storage medium for foreground extraction
JP6362939B2 (ja) 検出装置、検出方法及び制御プログラム
US20210366129A1 (en) Image processing apparatus, image processing method, and storage medium
KR102536481B1 (ko) 오브젝트 인식을 위한 전자 장치 및 전자 장치의 제어 방법
CN114038067B (zh) 煤矿人员行为检测方法、设备及存储介质
US11601591B2 (en) Image processing apparatus for estimating action of subject and adding information indicating the action of the subject to an image, method for controlling the same, and storage medium
Singh et al. Moving object detection scheme for automated video surveillance systems
JP2010204941A (ja) 画像処理装置および影除去処理プログラム
JP6162492B2 (ja) 動体検出装置、動体検出方法及び制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170111

R150 Certificate of patent or registration of utility model

Ref document number: 6076623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees