JP2011096072A - 物体検出装置及び物体検出プログラム - Google Patents

物体検出装置及び物体検出プログラム Download PDF

Info

Publication number
JP2011096072A
JP2011096072A JP2009250584A JP2009250584A JP2011096072A JP 2011096072 A JP2011096072 A JP 2011096072A JP 2009250584 A JP2009250584 A JP 2009250584A JP 2009250584 A JP2009250584 A JP 2009250584A JP 2011096072 A JP2011096072 A JP 2011096072A
Authority
JP
Japan
Prior art keywords
change
target
likelihood
region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009250584A
Other languages
English (en)
Other versions
JP5241687B2 (ja
Inventor
Shotaro Miwa
祥太郎 三輪
Masahito Matsushita
雅仁 松下
Koichi Sasagawa
耕一 笹川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009250584A priority Critical patent/JP5241687B2/ja
Publication of JP2011096072A publication Critical patent/JP2011096072A/ja
Application granted granted Critical
Publication of JP5241687B2 publication Critical patent/JP5241687B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行う。
【解決手段】映像中の変化領域及び非変化領域を用いて学習部6が生成した変化対象検出器7を前段として用い、アピアランス変動及び環境変動にロバストな検出対象の候補領域抽出を実現し、後段として、事前学習した物体検出器10を組み合わせ、最終的に、対象尤度算出部9が変化対象検出器7を用いて算出した対象尤度と、対象尤度算出部11が物体検出器10を用いて算出した対象尤度を組み合わせた結合尤度を用いて結合尤度判定部13が閾値判定して物体検出を行う。
【選択図】図1

Description

この発明は、画像中から特定の対象物体を検出する物体検出装置及び物体検出プログラムに関するものである。
例えば、非特許文献1に記載の人物追跡方法では、人物検出器の学習をオンラインとオフラインで行っている。この方法では、人物検出結果が得られた後、次回の人物検出を行う際に、検出結果周辺の画像領域から正事例及び負事例の学習データを生成し、これら学習データを用いて、事前のオフライン学習時に求めておいた人物検出器データベースの中から最適なパラメータを持つ人物検出器を求める(オンライン学習)。そして、選択した最適なパラメータを持つ人物検出器を用いて、次回の人物検出を行う。
山下、藤吉、勞、川出「姿勢変化に対応したSoft Decision FeatureとOnline Real Boostingによる人物追跡」画像の認識・理解シンポジウム(MIRU2008)、pp.12〜19、2008
従来の人物追跡方法は以上のように構成されているので、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことが困難であるという課題があった。
この課題を具体的に説明すると、非特許文献1の場合、アピアランス変動に対するロバスト性に関しては、人物検出結果に基づいて収集した検出対象の正事例及び負事例を用いて、検出結果に対して最適なパラメータを持つ人物検出器を事前にオフライン学習した人物検出器群の中から選択して求める。このため、事前に、全ての想定されるアピアランス変動に対するオフライン学習を行っておく必要がある。さらに、次フレームの人物検出時には、現在の検出結果を用いてオンライン学習した人物検出器を用いることになるため、フレーム間での人物のアピアランス変化が大きい場合には、検出が失敗することになる。
また、環境変動に対するロバスト性に関しては、一般に、背景の複雑さが、人物の背景からの識別の困難さに直結する。このため、予測できない複雑な背景下では、人物検出性能が低下する。ここで、非特許文献1の場合、初期検出時に、人物がどのような照明環境下及び背景下にいるかを想定することが不可能であるため、オンライン学習を進めるために必要な初期の人物検出を安定して行うことができない。
さらに、従来のように、事前学習した人物検出器を用いて人物検出を行う場合、アピアランス変動及び環境変動を持つ人物の検出率を上げるために、例えば、画像に対象人物が存在するか否かを判定するための判定用閾値を下げることで対応することになる。しかし、閾値を下げると、検出率が上がると同時に検出対象以外の物体を検出してしまう誤検出率も上がってしまうという問題があった。このように、一般的に、あらゆるアピアランス変動及び環境変動に対して高い検出率を実現しようとした場合、誤検出率の増加が避けられなかった。
この発明は、上記のような課題を解決するためになされたもので、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことを目的とする。
この発明に係る物体検出装置は、映像中の変化領域を抽出する変化領域抽出部と、映像中の非変化領域を抽出する非変化領域抽出部と、変化領域及び非変化領域のデータを用いて、変化領域の特徴を学習して変化対象検出器を生成する学習部と、変化対象検出器を用いて、映像中の任意画像領域の変化領域らしさを表す尤度を算出する対象尤度算出部と、対象尤度算出部が算出した尤度を閾値と比較して、任意画像領域から検出対象物体を検出する尤度判定部とを備えるものである。
また、この発明に係る物体検出装置は、映像中の変化領域を抽出する変化領域抽出部と、映像中の非変化領域を抽出する非変化領域抽出部と、変化領域及び非変化領域のデータを用いて、変化領域の特徴を学習して変化対象検出器を生成する学習部と、変化対象検出器を用いて、映像中の任意画像領域の検出対象物体らしさを表す尤度を算出する第1の対象尤度算出部と、予め検出対象物体の特徴を学習した物体検出器を用いて、任意画像領域の検出対象物体らしさを表す尤度を算出する第2の対象尤度算出部と、第1及び第2の対象尤度算出部がそれぞれ算出した尤度を結合する結合尤度算出部と、結合尤度算出部が算出した結合尤度を閾値と比較して、任意画像領域から検出対象物体を検出する結合尤度判定部とを備えるものである。
また、この発明に係る物体検出プログラムは、コンピュータを、映像中の変化領域を抽出する変化領域抽出手段と、映像中の非変化領域を抽出する非変化領域抽出手段と、変化領域及び非変化領域のデータを用いて、変化領域の特徴を学習して変化対象検出器を生成する学習手段と、変化対象検出器を用いて、映像中の任意画像領域の変化領域らしさを表す尤度を算出する対象尤度算出手段と、対象尤度算出手段が算出した尤度を閾値と比較して、任意画像領域から検出対象物体を検出する尤度判定手段として機能させるものである。
また、この発明に係る物体検出プログラムは、コンピュータを、映像中の変化領域を抽出する変化領域抽出手段と、映像中の非変化領域を抽出する非変化領域抽出手段と、変化領域及び非変化領域のデータを用いて、変化領域の特徴を学習して変化対象検出器を生成する学習手段と、変化対象検出器を用いて、映像中の任意画像領域の検出対象物体らしさを表す尤度を算出する第1の対象尤度算出手段と、予め検出対象物体の特徴を学習した物体検出器を用いて、任意画像領域の検出対象物体らしさを表す尤度を算出する第2の対象尤度算出手段と、第1及び第2の対象尤度算出手段でそれぞれ算出した尤度を結合する結合尤度算出手段と、結合尤度算出手段で算出した結合尤度を閾値と比較して、任意画像領域から検出対象物体を検出する結合尤度判定手段として機能させるものである。
この発明によれば、検出対象物体は映像中で動いていることが多いという事実から変化領域を検出対象物体と仮定して、映像中の変化領域と非変化領域を用いて変化対象検出器を生成し、この変化対象検出器を用いて物体検出を行うようにしたので、変化領域をアピアランス変動及び環境変動に対してロバストに抽出でき、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことができる。
また、この発明によれば、検出対象物体は映像中で動いていることが多いという事実から変化領域を検出対象物体と仮定して、映像中の変化領域と非変化領域を用いて変化対象検出器を生成し、この変化対象検出器と事前学習した物体検出器とを用いて物体検出を行うようにしたので、変化領域をアピアランス変動及び環境変動に対してロバストに抽出でき、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことができる。
この発明の実施の形態1に係る物体検出装置の構成を示すブロック図である。 図1に示す変化領域検出部2の変化領域検出方法を説明する図であり、図2(a)はオプティカルフローを用いる場合、図2(b)は背景差分を用いる場合を示す。 図1に示す変化領域抽出部3及び非変化領域抽出部4が画像中から抽出する変化領域と非変化領域の例を示す図である。 図1に示す画像走査部8の画像ピラミッドを利用した画像走査方法を説明する図である。 この発明の実施の形態2に係る物体検出装置の構成を示すブロック図である。 図5に示す変化特性選択部14の変化特性選択方法を説明する図であり、図6(a)は変化領域の動き方向特性を用いる場合、図6(b)は変化領域の面積・位置特性を用いる場合、図6(c)は変化領域の縦横比特性を用いる場合を示す。 この発明の実施の形態3に係る物体検出装置の構成を示すブロック図である。 この発明の実施の形態1に係る物体検出装置において、画像走査部8を変化対象検出器7aに置き換えた構成を示すブロック図である。
実施の形態1.
図1は、この発明の実施の形態1に係る物体検出装置の構成を示すブロック図である。図1に示す物体検出装置は、映像中から物体を検出するための前処理として学習処理を行う映像入力部1、変化領域検出部2、変化領域抽出部3、非変化領域抽出部4、学習データ5、学習部6と、学習処理後に映像中から物体を検出する検出処理を行う変化対象検出器7、画像走査部8、対象尤度算出部(第1の対象尤度算出部)9、物体検出器10、対象尤度算出部(第2の対象尤度算出部)11、結合尤度算出部12、結合尤度判定部13とを備える。
映像入力部1は、カメラ等から出力される映像信号を受け付けて、変化領域検出部2へ出力する。
変化領域検出部2は、背景差分及びオプティカルフロー等(田村秀行「コンピュータ画像処理」オーム社、2002)を用いて、映像信号の各画像(フレーム)中から変化する画像領域を検出して、検出変化領域とする。図2は、変化領域検出部2の変化領域検出方法を説明する図であり、図2(a)はオプティカルフローを用いた場合、図2(b)は背景差分を用いた場合を示す。図2(a)に示すように、変化領域検出部2は、映像信号中の現フレーム21(t=t0)と次フレーム22(t=t1)からオプティカルフロー23を抽出し、オプティカルフロー23を用いて検出変化領域24を検出する。また、図2(b)に示すように、変化領域検出部2は、映像信号中の背景画像25と現フレーム26(t=t0)の差分を検出変化領域27として検出する。なお、検出変化領域の抽出は、アピアランス変動及び環境変動に対してロバストである。
変化領域抽出部3は、変化領域検出部2が検出した画像中の検出変化領域のうち、以下のような領域を変化領域として抽出し学習データ5に追加する。後述する画像走査部8による画像ピラミッドの縮小比率を1/s0、同じく後述する物体検出器10のサイズを幅w0ピクセル、高さh0ピクセルとすると、変化領域抽出部3は、変化領域検出部2で得られた幅wピクセル、高さhピクセルの検出変化領域から、h/h0≒w/w0≒s0n(n=0,1,2,・・・,N)となるnを求め、幅w0×s0nピクセル、高さh0×snピクセルの領域を抽出して変化領域とする。
他方、非変化領域抽出部4は、変化領域検出部2が検出した画像中の検出変化領域を全く含まない領域を非変化領域として取り出して、学習データ5に追加する。また、非変化領域抽出部4は、検出変化領域を一部に含む領域を非変化領域として取り出して、学習データ5に追加してもよい。変化領域抽出部3と同様に、後述する画像走査部8による画像ピラミッドの縮小比率を1/s0、同じく後述する物体検出器10のサイズを幅w0ピクセル、高さh0ピクセルとして、非変化領域抽出部4は、非変化領域のサイズ(幅w×高さh)を基本サイズから変化させてh=h0×s0n、w=w0×s0n(n=0,1,2,・・・,N)にしてその位置を画像中で移動させ、任意の位置と任意の大きさの非変化領域を抽出する。
図3は、画像中の変化領域と非変化領域の例を示す図である。図3に例示した画像では、変化領域抽出部3が変化領域31を抽出し、非変化領域抽出部4が変化領域31を部分的に含む領域である非変化領域41,42と、変化領域31をまったく含まない領域である非変化領域43,44とを抽出する。
学習部6は、変化領域(図3の例では変化領域31)を正事例、非変化領域(図3の例では非変化領域41〜44)を負事例の学習データ5に用いて変化領域の特徴を学習した変化対象検出器7を生成する。学習部6は、例えば、学習データ5に蓄積された正事例の個数が所定個数以上になった場合に学習を完了する。学習部6が用いる学習アルゴリズムとしては、例えば、Support Vector Machine(Vladimir Vapnik「Statistical Learning Theory」Wiley、NY、1998)等を使うことができる。
以上より、変化対象検出器7が生成される。変化領域の特徴を学習した変化対象検出器7を生成するのは、検出対象物体が映像中で動いていることが多いという事実に基づき、変化領域が検出対象物体を含むと考えられるためである。よって、この変化対象検出器7は、画像中から、対象物体が含まれる変化領域、即ち対象物体を検出する。また、変化領域の抽出は、アピアランス変動及び環境変動に対してロバストであるため、生成した変化対象検出器7もアピアランス変動及び環境変動に対してロバストである。また、この変化対象検出器7は計算負荷が低い。これは、変化対象検出器7が物体検出器10の補助的役割を果すので求められる検出精度が低く、従って、計算負荷が低い処理方法を用いることができるためである。
次に、生成した変化対象検出器7を用いた物体検出処理を説明する。
画像走査部8は、映像信号中の各画像に対して走査ウィンドウを移動させていく。図4は、画像走査部8の画像走査方法を説明する図である。図4に示すように、画像走査部8は、原画像81に対して走査ウィンドウ(任意画像領域)84を移動させていくと共に、逐次画像縮小処理を行って縮小画像82,83を生成し、縮小画像82,83に対しても同様に走査ウィンドウ84を移動させていく。なお、画像縮小処理において、画像ピラミッドの縮小比率は上述したように1/s0とする。
対象尤度算出部9は、画像を移動する走査ウィンドウに対して、学習部6が生成した変化対象検出器7をかけて得られる対象尤度P(v)を算出する。変化領域を対象物体と仮定しているので、この対象尤度P(v)は、変化対象検出器7から求まる対象物体らしさを示す。検出器を用いた尤度の算出方法としては、Thierryらの手法(Thierry Chatuau、Vincent Gay−Belille、Frederic Chausse、and Jean−Thierry Lapreste「Realtime tracking with classifiers」In Proc.of International Workshop on Dynamical Vision in conjunction with ECCV、2006)を使うことができる。
対象尤度算出部9が走査ウィンドウ内から対象物体を検出する際、走査ウィンドウが原画像のみならず縮小画像も移動するので、大きさの異なる対象物体を検出することができる。
なお、対象尤度算出部9が対象尤度P(v)を算出する際、学習部6が変化対象検出器7の学習を完了していない場合は、対象尤度P(v)を「1」として出力する。
物体検出器10は、対象物体を含むサンプル画像データを用いて事前に求めておいた検出器であり、対象物体そのものを検出する検出器である。この物体検出器10は従来の物体検出に用いられる物体検出器であり、一般的に、計算負荷が高く、また、アピアランス変動及び環境変動に弱い。物体検出器10の計算負荷が高いのは、画像ピラミッドのように画像の大きさを変え、かつ、各異なる大きさの画像内を全走査することにより、のべ検出処理回数が多くなるためである。物体検出器10は、一回の検出処理あたり、複数個のフィルタを適用したフィルタ出力値を計算し、この出力値を識別関数で処理する。この際、フィルタ計算関数は、計算量が多い複雑な関数が用いられることが多いため、結果として、物体検出器10がのべ検出処理回数が多く、かつ、各検出処理時の計算量も多くなり、計算負荷が高くなる。
事前に求める対象物体の検出アルゴリズムとしては、Violaらの手法(P.Viola、M.Jones、D.Snow「Detecting Prestrains Using Patterns of Motion and Appearance」IEEE International Conference on Computer Vision(ICCV)、Vol.2,pp.734〜741、October 2003)等を用いることができる。
対象尤度算出部11は、画像中を移動する走査ウィンドウに対して事前に求めておいた物体検出器10をかけて得られる対象尤度P(D)を算出する。この対象尤度P(D)は、走査ウィンドウ内の画像に、対象物体が含まれるかどうかを示す。なお、本実施の形態1では、対象尤度算出部9が同一の走査ウィンドウに対して変化対象検出器7を適用して対象尤度P(v)を算出した後、対象尤度算出部11が条件付確率として物体検出器10を用いて対象尤度P(D|v)を求める。
結合尤度算出部12は、同一の走査ウィンドウについて、対象尤度算出部9が算出した対象尤度と、対象尤度算出部11が算出した対象尤度とを用いて、結合尤度P(D,v)=P(D|v)×p(v)を求める。
結合尤度判定部13は、結合尤度算出部12が算出した結合尤度が、所定の閾値以上の場合には対象物体「検出」の結果を出力する。他方、結合尤度が閾値以下の場合には対象物体「未検出」の結果を出力する。
変化領域の抽出はアピアランス変動及び環境変動に対してロバストであり、また、検出対象となる物体は映像中で動いていることが多いという事実に基づいて学習部6が変化対象検出器7を生成するので、この変化対象検出器7を用いることで、画像中の走査ウィンドウに対して、変化領域に注目した、アピアランス変動及び環境変動にロバストな検出対象らしさの尤度算出を実現できる。
また、走査ウィンドウに対して変化対象検出器7を適用して対象尤度を算出した後、条件付確率として物体検出器10を用いて対象尤度を求め、変化対象検出器7と物体検出器10とを用いた同時確率を対象尤度とした物体検出を行うことで、従来の物体検出器10だけを用いた際に起きる誤検出率の増加を起こすことなく、アピアランス変動及び環境変動に対してロバストな物体検出が可能となる。
以上より、実施の形態1によれば、映像入力部1から入力した映像中から変化する画像領域を検出して検出変化領域とする変化領域検出部2と、変化領域検出部2の検出変化領域を用いて、映像中の変化領域を抽出する変化領域抽出部3と、映像中の非変化領域を抽出する非変化領域抽出部4と、抽出された変化領域及び非変化領域を蓄積した学習データ5を用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器7を生成する学習部6と、変化対象検出器7を用いて、画像走査部8が映像中を移動させる走査ウィンドウから変化領域らしさを表す対象尤度を算出する対象尤度算出部9と、予め検出対象物体の特徴を学習した物体検出器10を用いて、走査ウィンドウから検出対象物体らしさを表す対象尤度を算出する対象尤度算出部11と、対象尤度算出部9,11がそれぞれ算出した対象尤度を結合する結合尤度算出部12と、結合尤度算出部12が算出した結合尤度を閾値と比較して、走査ウィンドウから検出対象物体を検出する結合尤度判定部13とを備えるように構成した。
このため、アピアランス変動及び環境変動に対してロバストに抽出される変化領域であって、検出対象が含まれるであろう変化領域に着目した変化対象検出器7と、事前学習した物体検出器10とから得られる各対象尤度を結合した結合尤度を用いて物体検出を行うことができ、この結果、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことができる。
なお、上記実施の形態1の物体検出器10として、対象物体の部分的な領域を検出する部分物体検出器を用いる構成にしてもよい。この構成の場合には、対象尤度算出部11は、画像走査部8の走査ウィンドウ内の画像に対して部分物体検出器をかけて得られる尤度を算出する。
実施の形態2.
図5は、この発明の実施の形態2に係る物体検出装置の構成を示すブロック図であり、図1と同一又は相当の部分については同一の符号を付し説明を省略する。本実施の形態2の物体検出装置は、上記実施の形態1の物体検出装置に新たに変化特性選択部14を追加した構成であり、変化特性選択部14がある点が異なる。
物体検出において、検出対象とする物体の動きが予め分かっているケースは多い。そこで、変化特性選択部14は、変化領域検出部2が検出した変化領域のうち、対象物体が有する特性に一致する変化領域のみを選択して、変化領域抽出部3へ出力する。
図6は、変化特性選択部14の変化特性選択方法を説明する図である。例えば、横断歩道を渡る人物を対象物体として検出する場合、図6(a)に示すように、変化特性選択部14は動き方向特性に関して左右方向のみの動きを持つ変化領域を、選択特性領域141として選択する。
また、例えば、遠方から撮影したカメラの映像から、路上を歩く歩行者を対象物体として検出する場合、図6(b)に示すように、変化特性選択部14は面積・位置特性に関して地面近くに相当する範囲内で検出された変化領域のみを選択特性領域142として選択し、それ以外の変化領域は除外特性領域143,144とする。
また、例えば、歩行者を対象物体として検出する場合、図6(c)に示すように、変化特性選択部14は縦横比特性に関して所定の縦横比の変化領域を選択特性領域145として選択し、それ以外の変化領域は除外特性領域146とする。
なお、変化特性選択部14は、このような種々の特性を複数組み合わせて、該当する変化領域を選択してもよい。
変化特性選択部14が選択特性領域として選択した変化領域は、変化領域抽出部3へ出力され、変化領域抽出部3によって学習データ5に追加される。一方、変化特性選択部14が除外特性領域として選択した変化領域は、変化領域抽出部3へは出力されないため、学習データ5に追加されることはない。従って、検出対象と同じ特性を有する変化領域を含んだ学習データ5に基づいて、検出対象のみを含む変化領域を検出するための変化対象検出器7を生成することができる。この変化対象検出器7を物体検出器10と組み合わせることにより、高精度の物体検出を実現できる。
以上より、実施の形態2によれば、変化領域抽出部3が抽出した変化領域のうち、所定の特性を持つ変化領域を選択する変化特性選択部14を備え、学習部6は、変化特性選択部14が選択した変化領域及び非変化領域抽出部4が抽出した非変化領域を蓄積した学習データ5を用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器7を生成するように構成した。このため、変化特性選択部14が、検出対象以外の物体が存在する変化領域を学習データ5に追加することを防止するので、対象物体以外が存在する変化領域の特徴を持つ変化対象検出器7が生成されることを防止でき、この結果、高精度の変化対象検出器7の生成を実現できる。そのため、アピアランス変動及び環境変動に対してロバストな、高精度の物体検出を実現できる。
実施の形態3.
図7は、この発明の実施の形態3に係る物体検出装置の構成を示すブロック図であり、図1と同一又は相当の部分については同一の符号を付し説明を省略する。本実施の形態3の物体検出装置は、上記実施の形態1の物体検出装置に新たにクラスタリング部15、対象クラスタ選択部16及び物体サンプルデータ17を追加した構成であり、これらの構成がある点が異なる。
クラスタリング部15は、学習データ5のうち、変化領域抽出部3が出力した変化領域のデータに対してクラスタリング処理を行い、変化領域を複数のクラスタ(=物体クラス)に分類する。クラスタリング処理の手法としては、例えばk−meanクラスタリング(田村秀行「コンピュータ画像処理」オーム社、2002)を用いることができる。
対象クラスタ選択部16は、物体サンプルデータ17を用いて検出対象となる物体クラスの対象クラスタを選択し、学習データ5のうち、この対象クラスタに含まれる変化領域を正事例として学習部6に通知する。
学習部6は、学習データ5のうち、負事例については非変化領域をそのまま学習に用い、正事例については対象クラスタ選択部16から通知された変化領域のみを学習に用いて、変化対象検出器7を生成する。
物体サンプルデータ17には、検出候補として複数の物体クラスのサンプルデータを用意しておく。そして、上述したように、対象クラスタ選択部16が分類した物体クラスを物体サンプルデータ17に応じて切り替えることで、複数の物体クラスに対応することができる。例えば、上記実施の形態2では縦横比特性を用いて図6(c)の画像から人に相当する変化領域を選択特性領域145にして学習データ5に追加し、犬に相当する変化領域を除外特性領域146として学習データ5から除外していた。これに対して、本実施の形態3では、人及び犬の2つの物体クラスを物体サンプルデータ17に登録しておき、学習データ5に人及び犬に相当する変化領域を区別して追加することで、学習部6が人及び犬の2つの物体に対応した変化対象検出器7を生成する。
以上より、実施の形態3によれば、変化領域抽出部3が抽出した変化領域をクラスタリング処理により物体クラスに分類するクラスタリング部15と、検出対象物体を示す物体サンプルデータ17を用いて、当該検出対象物体に対応する物体クラスに分類された変化領域を選択する対象クラスタ選択部16とを備え、学習部6は、対象クラスタ選択部16が選択した変化領域及び非変化領域抽出部4が抽出した非変化領域のデータを用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器7を生成するように構成した。このため、対象クラスタ選択部16が、検出対象以外の物体クラスが存在する変化領域を学習データ5に追加することを防止するので、対象物体以外が存在する変化領域の特徴を持つ変化対象検出器7が生成されることを防止でき、この結果、高精度の変化対象検出器7の生成を実現できる。そのため、アピアランス変動及び環境変動に対してロバストな、高精度の物体検出を実現できる。
なお、上記実施の形態1の物体検出装置は、変化対象検出器7、物体検出器10、変化対象検出器7を用いて対象尤度を算出する対象尤度算出部9、物体検出器10を用いて対象尤度を算出する対象尤度算出部11、各対象尤度を結合する結合尤度算出部12、及び、結合した結合尤度を用いて閾値判定する結合尤度判定部13を備える構成であったが、物体検出器10、対象尤度算出部11及び結合尤度算出部12を備えず、変化対象検出器7、対象尤度算出部9、及び、対象尤度算出部9の対象尤度のみを用いて閾値判定する結合尤度判定部13(尤度判定部)を備える構成であってもよい。
学習部6は対象物体以外が存在する変化領域も正事例として学習する可能性があるため、この構成の場合には、対象物体以外が存在する変化領域の特徴も持つ変化対象検出器7が生成される可能性がある。ただし、変化領域の抽出自体は環境変動及びアピアランス変動に対してロバストなので、変化対象検出器7のみ用いた物体検出も環境変動及びアピアランス変動に対してロバストである。
なお、この構成を上記実施の形態2に適用した場合には、変化特性選択部14が、検出対象以外の物体が変化領域に含まれることを防止するので、対象物体以外が存在する変化領域の特徴を持つ変化対象検出器7が生成されることを防止でき、高精度の変化対象検出器7を生成可能となる。
また、この構成を上記実施の形態3に適用した場合には、対象クラスタ選択部16が、検出対象以外の物体が変化領域に含まれることを防止するので、対象物体以外が存在する変化領域の特徴を持つ変化対象検出器7が生成されることを防止でき、高精度の変化対象検出器7を生成可能となる。
また、上記実施の形態1〜3の物体検出装置において、画像走査部8を変化対象検出器7aに置き換える構成にすることもできる。図8は、実施の形態1に係る物体検出装置において画像走査部8を変化対象検出器7aに置き換えた構成を示すブロック図である。この変化対象検出器7aは、変化対象検出器7と同様の機能を有する。また、これらの変化対象検出器7,7aを、物体検出器10の補助的な検出器として用いる。そのため、変化対象検出器7,7aに求められる検出精度は低く、従って、計算負荷が低い処理を用いることができる。
前述したように、物体検出装置の各部の処理は学習処理と検出処理とに分けられるが、図8の物体検出装置の場合には学習部6での学習が終了し、変化対象検出器7,7aが生成された際に検出処理が適用可能であるものとする。検出処理において、画像走査部8の代わりに変化対象検出器7aを用いることにより、低い計算負荷で画像中から対象物体が含まれる変化領域、即ち対象物体を検出することができる。そして、変化対象検出部7を、より高精度の物体検出器10と組み合わせることにより、低計算負荷かつ高精度の物体検出を実現することができる。
このように、対象物体の検出時に、変化対象検出部7,7aを組み合わせることにより、変化対象検出部7が低い計算負荷で画像中から対象物体が含まれる変化領域、即ち対象物体を検出することができる。
なお、図示は省略するが、その他の実施の形態2,3の物体検出装置の画像走査部8を変化対象検出器7aに置き換えても、同様の効果を奏する。
なお、物体検出装置をコンピュータで構成する場合、映像入力部1、変化領域検出部2、変化領域抽出部3、非変化領域抽出部4、学習部6、変化対象検出器7、画像走査部8、物体検出器10、対象尤度算出部9,11、結合尤度算出部12、及び結合尤度判定部13の処理内容を記述している物体検出プログラムをコンピュータのメモリに格納し、コンピュータのCPUがメモリに格納されている物体検出プログラムを実行するようにしてもよい。
1 映像入力部、2 変化領域検出部、3 変化領域抽出部、4 非変化領域抽出部、5 学習データ、6 学習部、7,7a 変化対象検出器、8 画像走査部、9 対象尤度算出部(第1の対象尤度算出部)、10 物体検出器、11 対象尤度算出部(第2の対象尤度算出部)、12 結合尤度算出部、13 結合尤度判定部、14 変化特性選択部、15 クラスタリング部、16 対象クラスタ選択部、17 物体サンプルデータ、21 現フレーム、22 次フレーム、23 オプティカルフロー、24,27 検出変化領域、25 背景画像、26 現フレーム、31 変化領域、41〜44 非変化領域、141,142,145 選択特性領域、143,144,146 除外特性領域。

Claims (8)

  1. 映像中の変化領域を抽出する変化領域抽出部と、
    映像中の非変化領域を抽出する非変化領域抽出部と、
    前記変化領域及び前記非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成する学習部と、
    前記変化対象検出器を用いて、映像中の任意画像領域の前記変化領域らしさを表す尤度を算出する対象尤度算出部と、
    前記対象尤度算出部が算出した尤度を閾値と比較して、前記任意画像領域から前記検出対象物体を検出する尤度判定部とを備える物体検出装置。
  2. 映像中の変化領域を抽出する変化領域抽出部と、
    映像中の非変化領域を抽出する非変化領域抽出部と、
    前記変化領域及び前記非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成する学習部と、
    前記変化対象検出器を用いて、映像中の任意画像領域の前記検出対象物体らしさを表す尤度を算出する第1の対象尤度算出部と、
    予め前記検出対象物体の特徴を学習した物体検出器を用いて、前記任意画像領域の前記検出対象物体らしさを表す尤度を算出する第2の対象尤度算出部と、
    前記第1及び前記第2の対象尤度算出部がそれぞれ算出した尤度を結合する結合尤度算出部と、
    前記結合尤度算出部が算出した結合尤度を閾値と比較して、前記任意画像領域から前記検出対象物体を検出する結合尤度判定部とを備える物体検出装置。
  3. 変化領域抽出部が抽出した変化領域のうち、所定の特性を持つ変化領域を選択する変化特性選択部を備え、
    学習部は、前記変化特性選択部が選択した変化領域及び非変化領域抽出部が抽出した非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成することを特徴とする請求項1又は請求項2記載の物体検出装置。
  4. 変化領域抽出部が抽出した変化領域をクラスタリング処理により物体クラスに分類するクラスタリング部と、
    検出対象物体のサンプルデータを用いて、当該検出対象物体に対応する物体クラスに分類された変化領域を選択する対象クラスタ選択部とを備え、
    学習部は、前記対象クラスタ選択部が選択した変化領域及び非変化領域抽出部が抽出した非変化領域のデータを用いて、当該変化領域の特徴を学習して変化対象検出器を生成することを特徴とする請求項1又は請求項2記載の物体検出装置。
  5. コンピュータを、映像中の変化領域を抽出する変化領域抽出手段と、
    映像中の非変化領域を抽出する非変化領域抽出手段と、
    前記変化領域及び前記非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成する学習手段と、
    前記変化対象検出器を用いて、映像中の任意画像領域の前記変化領域らしさを表す尤度を算出する対象尤度算出手段と、
    前記対象尤度算出手段が算出した尤度を閾値と比較して、前記任意画像領域から前記検出対象物体を検出する尤度判定手段として機能させるための物体検出プログラム。
  6. コンピュータを、映像中の変化領域を抽出する変化領域抽出手段と、
    映像中の非変化領域を抽出する非変化領域抽出手段と、
    前記変化領域及び前記非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成する学習手段と、
    前記変化対象検出器を用いて、映像中の任意画像領域の前記検出対象物体らしさを表す尤度を算出する第1の対象尤度算出手段と、
    予め前記検出対象物体の特徴を学習した物体検出器を用いて、前記任意画像領域の前記検出対象物体らしさを表す尤度を算出する第2の対象尤度算出手段と、
    前記第1及び前記第2の対象尤度算出手段でそれぞれ算出した尤度を結合する結合尤度算出手段と、
    前記結合尤度算出手段で算出した結合尤度を閾値と比較して、前記任意画像領域から前記検出対象物体を検出する結合尤度判定手段として機能させるための物体検出プログラム。
  7. 変化領域抽出手段で抽出した変化領域のうち、所定の特性を持つ変化領域を選択する変化特性選択手段を備え、
    学習手段は、前記変化特性選択手段で選択した変化領域及び非変化領域抽出手段で抽出した非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成することを特徴とする請求項5又は請求項6記載の物体検出プログラム。
  8. 変化領域抽出手段で抽出した変化領域をクラスタリング処理により物体クラスに分類するクラスタリング手段と、
    検出対象物体のサンプルデータを用いて、当該検出対象物体に対応する物体クラスに分類された変化領域を選択する対象クラスタ選択手段とを備え、
    学習手段は、前記対象クラスタ選択手段で選択した変化領域及び非変化領域抽出手段で抽出した非変化領域のデータを用いて、当該変化領域の特徴を学習して変化対象検出器を生成することを特徴とする請求項5又は請求項6記載の物体検出プログラム。
JP2009250584A 2009-10-30 2009-10-30 物体検出装置及び物体検出プログラム Active JP5241687B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009250584A JP5241687B2 (ja) 2009-10-30 2009-10-30 物体検出装置及び物体検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009250584A JP5241687B2 (ja) 2009-10-30 2009-10-30 物体検出装置及び物体検出プログラム

Publications (2)

Publication Number Publication Date
JP2011096072A true JP2011096072A (ja) 2011-05-12
JP5241687B2 JP5241687B2 (ja) 2013-07-17

Family

ID=44112896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009250584A Active JP5241687B2 (ja) 2009-10-30 2009-10-30 物体検出装置及び物体検出プログラム

Country Status (1)

Country Link
JP (1) JP5241687B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101747216B1 (ko) * 2012-05-30 2017-06-15 한화테크윈 주식회사 표적 추출 장치와 그 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록 매체
JP2018170001A (ja) * 2017-03-29 2018-11-01 西日本電信電話株式会社 映像データ処理装置、映像データ処理方法、及びコンピュータプログラム
KR102197297B1 (ko) * 2019-09-27 2020-12-31 서울대학교산학협력단 순환형 3차원 완전 합성곱망을 활용한 초분광영상의 변화탐지 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03274983A (ja) * 1990-03-26 1991-12-05 Toshiba Corp 画像認識装置
JPH07262355A (ja) * 1994-03-18 1995-10-13 Fuji Electric Co Ltd 画像監視装置
JP2002150297A (ja) * 2000-11-07 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 動画像学習方法およびこのプログラムを記録した記録媒体
JP2006185206A (ja) * 2004-12-28 2006-07-13 Toshiba Corp オブジェクト検出方法、装置、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03274983A (ja) * 1990-03-26 1991-12-05 Toshiba Corp 画像認識装置
JPH07262355A (ja) * 1994-03-18 1995-10-13 Fuji Electric Co Ltd 画像監視装置
JP2002150297A (ja) * 2000-11-07 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 動画像学習方法およびこのプログラムを記録した記録媒体
JP2006185206A (ja) * 2004-12-28 2006-07-13 Toshiba Corp オブジェクト検出方法、装置、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101747216B1 (ko) * 2012-05-30 2017-06-15 한화테크윈 주식회사 표적 추출 장치와 그 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록 매체
JP2018170001A (ja) * 2017-03-29 2018-11-01 西日本電信電話株式会社 映像データ処理装置、映像データ処理方法、及びコンピュータプログラム
KR102197297B1 (ko) * 2019-09-27 2020-12-31 서울대학교산학협력단 순환형 3차원 완전 합성곱망을 활용한 초분광영상의 변화탐지 방법

Also Published As

Publication number Publication date
JP5241687B2 (ja) 2013-07-17

Similar Documents

Publication Publication Date Title
EP3358504A1 (en) A method and system for tracking an object
US8218819B2 (en) Foreground object detection in a video surveillance system
US8374393B2 (en) Foreground object tracking
JP4767595B2 (ja) 対象物検出装置及びその学習装置
EP3092619B1 (en) Information processing apparatus and information processing method
US20180114071A1 (en) Method for analysing media content
CN108171196B (zh) 一种人脸检测方法及装置
US7957560B2 (en) Unusual action detector and abnormal action detecting method
US11106903B1 (en) Object detection in image data
KR20160096460A (ko) 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
US20100150471A1 (en) Hierarchical sudden illumination change detection using radiance consistency within a spatial neighborhood
US20120057748A1 (en) Apparatus which detects moving object from image and method thereof
WO2009109127A1 (en) Real-time body segmentation system
CN111191535B (zh) 基于深度学习的行人检测模型构建方法及行人检测方法
Führ et al. Combining patch matching and detection for robust pedestrian tracking in monocular calibrated cameras
Muhammad et al. Domain generalization via ensemble stacking for face presentation attack detection
JP5241687B2 (ja) 物体検出装置及び物体検出プログラム
KR20060121503A (ko) 무인 감시 로봇에서 중요 얼굴 추적 장치 및 방법
CN109614841B (zh) 嵌入式系统中的快速人脸检测方法
Lee et al. Probabilistic background subtraction in a video-based recognition system.
Grabner et al. Time Dependent On-line Boosting for Robust Background Modeling.
Pandya et al. A novel approach for vehicle detection and classification
JP4741036B2 (ja) 特徴抽出装置、対象物検出装置、特徴抽出方法、および対象物検出方法
US11468676B2 (en) Methods of real-time spatio-temporal activity detection and categorization from untrimmed video segments
Zhao et al. Robust adapted object detection under complex environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5241687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250