JP5241687B2 - Object detection apparatus and object detection program - Google Patents

Object detection apparatus and object detection program Download PDF

Info

Publication number
JP5241687B2
JP5241687B2 JP2009250584A JP2009250584A JP5241687B2 JP 5241687 B2 JP5241687 B2 JP 5241687B2 JP 2009250584 A JP2009250584 A JP 2009250584A JP 2009250584 A JP2009250584 A JP 2009250584A JP 5241687 B2 JP5241687 B2 JP 5241687B2
Authority
JP
Japan
Prior art keywords
change
target
likelihood
detection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009250584A
Other languages
Japanese (ja)
Other versions
JP2011096072A (en
Inventor
祥太郎 三輪
雅仁 松下
耕一 笹川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009250584A priority Critical patent/JP5241687B2/en
Publication of JP2011096072A publication Critical patent/JP2011096072A/en
Application granted granted Critical
Publication of JP5241687B2 publication Critical patent/JP5241687B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、画像中から特定の対象物体を検出する物体検出装置及び物体検出プログラムに関するものである。   The present invention relates to an object detection apparatus and an object detection program for detecting a specific target object from an image.

例えば、非特許文献1に記載の人物追跡方法では、人物検出器の学習をオンラインとオフラインで行っている。この方法では、人物検出結果が得られた後、次回の人物検出を行う際に、検出結果周辺の画像領域から正事例及び負事例の学習データを生成し、これら学習データを用いて、事前のオフライン学習時に求めておいた人物検出器データベースの中から最適なパラメータを持つ人物検出器を求める(オンライン学習)。そして、選択した最適なパラメータを持つ人物検出器を用いて、次回の人物検出を行う。   For example, in the person tracking method described in Non-Patent Document 1, learning of a person detector is performed online and offline. In this method, after the person detection result is obtained, when performing the next person detection, learning data of positive cases and negative cases is generated from the image region around the detection result, and the learning data is used to generate the preliminary data. A person detector having an optimum parameter is obtained from the person detector database obtained during offline learning (online learning). Then, the next person detection is performed using the person detector having the selected optimum parameter.

山下、藤吉、勞、川出「姿勢変化に対応したSoft Decision FeatureとOnline Real Boostingによる人物追跡」画像の認識・理解シンポジウム(MIRU2008)、pp.12〜19、2008Yamashita, Fujikichi, Kaoru, Kawade “Person Tracking by Soft Decision Feature and Online Real Boosting for Posture Changes” Image Recognition and Understanding Symposium (MIRU2008), pp. 12-19, 2008

従来の人物追跡方法は以上のように構成されているので、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことが困難であるという課題があった。   Since the conventional person tracking method is configured as described above, it is difficult to perform robust object detection against appearance fluctuations caused by lighting environment and posture fluctuations, and environmental fluctuations under complicated backgrounds. There was a problem of being.

この課題を具体的に説明すると、非特許文献1の場合、アピアランス変動に対するロバスト性に関しては、人物検出結果に基づいて収集した検出対象の正事例及び負事例を用いて、検出結果に対して最適なパラメータを持つ人物検出器を事前にオフライン学習した人物検出器群の中から選択して求める。このため、事前に、全ての想定されるアピアランス変動に対するオフライン学習を行っておく必要がある。さらに、次フレームの人物検出時には、現在の検出結果を用いてオンライン学習した人物検出器を用いることになるため、フレーム間での人物のアピアランス変化が大きい場合には、検出が失敗することになる。   Specifically, in the case of Non-Patent Document 1, the robustness with respect to appearance variation is optimal for the detection result using the positive case and the negative case of the detection target collected based on the person detection result. A person detector having various parameters is selected from a group of person detectors learned offline in advance. For this reason, it is necessary to perform offline learning for all assumed appearance fluctuations in advance. In addition, when detecting a person in the next frame, a person detector that has been learned online using the current detection result is used. Therefore, if the appearance change of the person between frames is large, the detection fails. .

また、環境変動に対するロバスト性に関しては、一般に、背景の複雑さが、人物の背景からの識別の困難さに直結する。このため、予測できない複雑な背景下では、人物検出性能が低下する。ここで、非特許文献1の場合、初期検出時に、人物がどのような照明環境下及び背景下にいるかを想定することが不可能であるため、オンライン学習を進めるために必要な初期の人物検出を安定して行うことができない。   In terms of robustness against environmental fluctuations, in general, the complexity of the background is directly related to the difficulty of identifying the person from the background. For this reason, the human detection performance deteriorates under a complicated background that cannot be predicted. Here, in the case of Non-Patent Document 1, since it is impossible to assume under what lighting environment and background the person is at the time of initial detection, the initial person detection necessary for proceeding with online learning is possible. Cannot be performed stably.

さらに、従来のように、事前学習した人物検出器を用いて人物検出を行う場合、アピアランス変動及び環境変動を持つ人物の検出率を上げるために、例えば、画像に対象人物が存在するか否かを判定するための判定用閾値を下げることで対応することになる。しかし、閾値を下げると、検出率が上がると同時に検出対象以外の物体を検出してしまう誤検出率も上がってしまうという問題があった。このように、一般的に、あらゆるアピアランス変動及び環境変動に対して高い検出率を実現しようとした場合、誤検出率の増加が避けられなかった。   Furthermore, when performing human detection using a person detector that has been learned in advance as in the past, in order to increase the detection rate of persons with appearance fluctuations and environmental fluctuations, for example, whether or not the target person exists in the image This can be dealt with by lowering the threshold value for determination. However, when the threshold value is lowered, there is a problem that the detection rate increases, and at the same time, the false detection rate for detecting an object other than the detection target increases. As described above, generally, when a high detection rate is to be realized with respect to all appearance fluctuations and environmental fluctuations, an increase in the false detection rate is unavoidable.

この発明は、上記のような課題を解決するためになされたもので、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことを目的とする。   The present invention has been made in order to solve the above-described problems, and performs object detection that is robust against appearance fluctuations caused by illumination environment and attitude fluctuations, and environmental fluctuations under complex backgrounds. For the purpose.

この発明に係る物体検出装置は、映像中の変化領域を抽出する変化領域抽出部と、映像中の非変化領域を抽出する非変化領域抽出部と、変化領域及び非変化領域のデータを用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器を生成する学習部と、変化対象検出器を用いて、映像中の任意画像領域の変化領域らしさを表す尤度を算出する対象尤度算出部と、対象尤度算出部が算出した尤度を閾値と比較して、任意画像領域から検出対象物体を検出する尤度判定部とを備えるものである。 An object detection apparatus according to the present invention uses a change area extraction unit that extracts a change area in a video, a non-change area extraction unit that extracts a non-change area in a video, and data of the change area and the non-change area. A learning unit that learns the characteristics of a change area that is considered to contain a detection target object and generates a change target detector, and a likelihood that represents the likelihood of the change area of an arbitrary image area in the video using the change target detector And a likelihood determination unit that detects a detection target object from an arbitrary image region by comparing the likelihood calculated by the target likelihood calculation unit with a threshold value.

また、この発明に係る物体検出装置は、映像中の変化領域を抽出する変化領域抽出部と、映像中の非変化領域を抽出する非変化領域抽出部と、変化領域及び非変化領域のデータを用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器を生成する学習部と、変化対象検出器を用いて、映像中の任意画像領域の検出対象物体らしさを表す尤度を算出する第1の対象尤度算出部と、予め検出対象物体の特徴を学習した物体検出器を用いて、任意画像領域の検出対象物体らしさを表す尤度を算出する第2の対象尤度算出部と、第1及び第2の対象尤度算出部がそれぞれ算出した尤度を結合する結合尤度算出部と、結合尤度算出部が算出した結合尤度を閾値と比較して、任意画像領域から検出対象物体を検出する結合尤度判定部とを備えるものである。 The object detection apparatus according to the present invention includes a change area extraction unit that extracts a change area in a video, a non-change area extraction unit that extracts a non-change area in a video, and data of the change area and the non-change area. Using a learning unit that learns the characteristics of a change area that is considered to contain a detection target object and generates a change target detector, and using the change target detector, the likelihood of a detection target object in an arbitrary image area in a video is obtained. A first target likelihood calculating unit that calculates a likelihood to represent, and an object detector that has previously learned the characteristics of the detection target object, and calculates a likelihood that represents the likelihood of the detection target object in the arbitrary image region. The target likelihood calculating unit, the combined likelihood calculating unit that combines the likelihoods calculated by the first and second target likelihood calculating units, and the combined likelihood calculated by the combined likelihood calculating unit are compared with a threshold value. The combined likelihood of detecting the object to be detected from an arbitrary image area It is intended and a tough.

また、この発明に係る物体検出プログラムは、コンピュータを、映像中の変化領域を抽出する変化領域抽出手段と、映像中の非変化領域を抽出する非変化領域抽出手段と、検出対象物体を含むと考えられる変化領域及び非変化領域のデータを用いて、変化領域の特徴を学習して変化対象検出器を生成する学習手段と、変化対象検出器を用いて、映像中の任意画像領域の変化領域らしさを表す尤度を算出する対象尤度算出手段と、対象尤度算出手段が算出した尤度を閾値と比較して、任意画像領域から検出対象物体を検出する尤度判定手段として機能させるものである。 An object detection program according to the present invention includes a computer including a change area extraction unit that extracts a change area in a video, a non-change area extraction unit that extracts a non-change area in a video, and a detection target object. Learning means for learning the characteristics of a change area using data of possible change areas and non-change areas and generating a change target detector, and a change area of an arbitrary image area in a video using the change target detector A target likelihood calculating means for calculating likelihood representing likelihood, and a likelihood determining means for detecting a detection target object from an arbitrary image region by comparing the likelihood calculated by the target likelihood calculating means with a threshold It is.

また、この発明に係る物体検出プログラムは、コンピュータを、映像中の変化領域を抽出する変化領域抽出手段と、映像中の非変化領域を抽出する非変化領域抽出手段と、検出対象物体を含むと考えられる変化領域及び非変化領域のデータを用いて、変化領域の特徴を学習して変化対象検出器を生成する学習手段と、変化対象検出器を用いて、映像中の任意画像領域の検出対象物体らしさを表す尤度を算出する第1の対象尤度算出手段と、予め検出対象物体の特徴を学習した物体検出器を用いて、任意画像領域の検出対象物体らしさを表す尤度を算出する第2の対象尤度算出手段と、第1及び第2の対象尤度算出手段でそれぞれ算出した尤度を結合する結合尤度算出手段と、結合尤度算出手段で算出した結合尤度を閾値と比較して、任意画像領域から検出対象物体を検出する結合尤度判定手段として機能させるものである。
An object detection program according to the present invention includes a computer including a change area extraction unit that extracts a change area in a video, a non-change area extraction unit that extracts a non-change area in a video, and a detection target object. Learning means for generating a change target detector by learning features of the change area using data of possible change areas and non-change areas, and a detection target of an arbitrary image area in the video using the change target detector Using a first target likelihood calculating unit that calculates a likelihood that represents object-likeness and an object detector that has previously learned the characteristics of the detection target object, the likelihood that represents the detection target object-likeness of an arbitrary image region is calculated. The second target likelihood calculating means, the combined likelihood calculating means for combining the likelihoods calculated by the first and second target likelihood calculating means, and the combined likelihood calculated by the combined likelihood calculating means are set as threshold values. Any image compared to It is intended to function as a joint likelihood determination means for detecting the detection target object from the frequency.

この発明によれば、検出対象物体は映像中で動いていることが多いという事実から変化領域を検出対象物体と仮定して、映像中の変化領域と非変化領域を用いて変化対象検出器を生成し、この変化対象検出器を用いて物体検出を行うようにしたので、変化領域をアピアランス変動及び環境変動に対してロバストに抽出でき、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことができる。   According to the present invention, the change target detector is assumed to be a detection target object from the fact that the detection target object is often moving in the video, and the change target detector is used using the change region and the non-change region in the video. Since the object is detected using this change target detector, the change area can be extracted robustly to the appearance fluctuation and the environment fluctuation, and the appearance fluctuation caused by the lighting environment and the attitude fluctuation and the complicated It is possible to perform object detection that is robust against environmental fluctuations under a rough background.

また、この発明によれば、検出対象物体は映像中で動いていることが多いという事実から変化領域を検出対象物体と仮定して、映像中の変化領域と非変化領域を用いて変化対象検出器を生成し、この変化対象検出器と事前学習した物体検出器とを用いて物体検出を行うようにしたので、変化領域をアピアランス変動及び環境変動に対してロバストに抽出でき、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことができる。   Further, according to the present invention, it is assumed that the detection target object is moving in the video, and the change target is detected using the change region and the non-change region in the video, assuming the change region as the detection target object. Since the object is detected using this change target detector and the pre-learned object detector, the change area can be extracted robustly to appearance fluctuations and environmental fluctuations, and the lighting environment and posture Robust object detection can be performed against appearance fluctuations caused by fluctuations and the like, and environmental fluctuations under a complicated background.

この発明の実施の形態1に係る物体検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object detection apparatus which concerns on Embodiment 1 of this invention. 図1に示す変化領域検出部2の変化領域検出方法を説明する図であり、図2(a)はオプティカルフローを用いる場合、図2(b)は背景差分を用いる場合を示す。FIGS. 2A and 2B are diagrams for explaining a change area detection method of the change area detection unit 2 shown in FIG. 1. FIG. 2A shows a case where an optical flow is used, and FIG. 2B shows a case where a background difference is used. 図1に示す変化領域抽出部3及び非変化領域抽出部4が画像中から抽出する変化領域と非変化領域の例を示す図である。It is a figure which shows the example of the change area and non-change area which the change area extraction part 3 and the non-change area extraction part 4 which are shown in FIG. 1 extract from an image. 図1に示す画像走査部8の画像ピラミッドを利用した画像走査方法を説明する図である。It is a figure explaining the image scanning method using the image pyramid of the image scanning part 8 shown in FIG. この発明の実施の形態2に係る物体検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object detection apparatus which concerns on Embodiment 2 of this invention. 図5に示す変化特性選択部14の変化特性選択方法を説明する図であり、図6(a)は変化領域の動き方向特性を用いる場合、図6(b)は変化領域の面積・位置特性を用いる場合、図6(c)は変化領域の縦横比特性を用いる場合を示す。6A and 6B are diagrams for explaining a change characteristic selection method of the change characteristic selection unit 14 shown in FIG. 5, in which FIG. 6A shows the movement direction characteristic of the change area, and FIG. 6B shows the area / position characteristic of the change area. FIG. 6C shows a case where the aspect ratio characteristic of the change region is used. この発明の実施の形態3に係る物体検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object detection apparatus which concerns on Embodiment 3 of this invention. この発明の実施の形態1に係る物体検出装置において、画像走査部8を変化対象検出器7aに置き換えた構成を示すブロック図である。In the object detection apparatus according to Embodiment 1 of the present invention, it is a block diagram showing a configuration in which an image scanning unit 8 is replaced with a change target detector 7a.

実施の形態1.
図1は、この発明の実施の形態1に係る物体検出装置の構成を示すブロック図である。図1に示す物体検出装置は、映像中から物体を検出するための前処理として学習処理を行う映像入力部1、変化領域検出部2、変化領域抽出部3、非変化領域抽出部4、学習データ5、学習部6と、学習処理後に映像中から物体を検出する検出処理を行う変化対象検出器7、画像走査部8、対象尤度算出部(第1の対象尤度算出部)9、物体検出器10、対象尤度算出部(第2の対象尤度算出部)11、結合尤度算出部12、結合尤度判定部13とを備える。
Embodiment 1 FIG.
1 is a block diagram showing a configuration of an object detection apparatus according to Embodiment 1 of the present invention. The object detection apparatus shown in FIG. 1 includes a video input unit 1, a change region detection unit 2, a change region extraction unit 3, a non-change region extraction unit 4, a learning process that performs a learning process as preprocessing for detecting an object from a video. Data 5, a learning unit 6, a change target detector 7 that performs a detection process for detecting an object in the video after the learning process, an image scanning unit 8, a target likelihood calculation unit (first target likelihood calculation unit) 9, An object detector 10, a target likelihood calculating unit (second target likelihood calculating unit) 11, a combined likelihood calculating unit 12, and a combined likelihood determining unit 13 are provided.

映像入力部1は、カメラ等から出力される映像信号を受け付けて、変化領域検出部2へ出力する。
変化領域検出部2は、背景差分及びオプティカルフロー等(田村秀行「コンピュータ画像処理」オーム社、2002)を用いて、映像信号の各画像(フレーム)中から変化する画像領域を検出して、検出変化領域とする。図2は、変化領域検出部2の変化領域検出方法を説明する図であり、図2(a)はオプティカルフローを用いた場合、図2(b)は背景差分を用いた場合を示す。図2(a)に示すように、変化領域検出部2は、映像信号中の現フレーム21(t=t0)と次フレーム22(t=t1)からオプティカルフロー23を抽出し、オプティカルフロー23を用いて検出変化領域24を検出する。また、図2(b)に示すように、変化領域検出部2は、映像信号中の背景画像25と現フレーム26(t=t0)の差分を検出変化領域27として検出する。なお、検出変化領域の抽出は、アピアランス変動及び環境変動に対してロバストである。
The video input unit 1 receives a video signal output from a camera or the like and outputs it to the change area detection unit 2.
The change area detection unit 2 detects and detects an image area changing from each image (frame) of the video signal using background difference, optical flow, etc. (Hideyuki Tamura “Computer Image Processing” Ohm, 2002). Change area. 2A and 2B are diagrams for explaining a change area detection method of the change area detection unit 2. FIG. 2A shows a case where an optical flow is used, and FIG. 2B shows a case where a background difference is used. As shown in FIG. 2A, the change area detector 2 extracts the optical flow 23 from the current frame 21 (t = t0) and the next frame 22 (t = t1) in the video signal, and the optical flow 23 is extracted. The detection change area 24 is detected by using this. As shown in FIG. 2B, the change area detection unit 2 detects a difference between the background image 25 and the current frame 26 (t = t0) in the video signal as a detection change area 27. Note that the detection change region extraction is robust against appearance fluctuations and environmental fluctuations.

変化領域抽出部3は、変化領域検出部2が検出した画像中の検出変化領域のうち、以下のような領域を変化領域として抽出し学習データ5に追加する。後述する画像走査部8による画像ピラミッドの縮小比率を1/s0、同じく後述する物体検出器10のサイズを幅w0ピクセル、高さh0ピクセルとすると、変化領域抽出部3は、変化領域検出部2で得られた幅wピクセル、高さhピクセルの検出変化領域から、h/h0≒w/w0≒s0n(n=0,1,2,・・・,N)となるnを求め、幅w0×s0nピクセル、高さh0×snピクセルの領域を抽出して変化領域とする。 The change area extraction unit 3 extracts the following areas from the detected change areas in the image detected by the change area detection unit 2 as change areas and adds them to the learning data 5. If the reduction ratio of the image pyramid by the image scanning unit 8 to be described later is 1 / s0, and the size of the object detector 10 to be described later is a width w0 pixel and a height h0 pixel, the change region extraction unit 3 includes the change region detection unit 2. From the detection change region of width w pixels and height h pixels obtained in step 1, n is obtained such that h / h0≈w / w0≈s0 n (n = 0, 1, 2,..., N), and the width w0 × s0 n pixels, and the height h0 × s n pixels in the region extracted by the change area.

他方、非変化領域抽出部4は、変化領域検出部2が検出した画像中の検出変化領域を全く含まない領域を非変化領域として取り出して、学習データ5に追加する。また、非変化領域抽出部4は、検出変化領域を一部に含む領域を非変化領域として取り出して、学習データ5に追加してもよい。変化領域抽出部3と同様に、後述する画像走査部8による画像ピラミッドの縮小比率を1/s0、同じく後述する物体検出器10のサイズを幅w0ピクセル、高さh0ピクセルとして、非変化領域抽出部4は、非変化領域のサイズ(幅w×高さh)を基本サイズから変化させてh=h0×s0n、w=w0×s0n(n=0,1,2,・・・,N)にしてその位置を画像中で移動させ、任意の位置と任意の大きさの非変化領域を抽出する。 On the other hand, the non-change region extraction unit 4 extracts a region that does not include any detected change region in the image detected by the change region detection unit 2 as a non-change region and adds it to the learning data 5. Further, the non-change region extraction unit 4 may extract a region that includes the detected change region as a part as a non-change region and add it to the learning data 5. Similarly to the change area extraction unit 3, a non-change area extraction is performed with a reduction ratio of an image pyramid by an image scanning unit 8 described later as 1 / s0 and a size of an object detector 10 described later as a width w0 pixel and a height h0 pixel. The unit 4 changes the size (width w × height h) of the non-change region from the basic size to h = h0 × s0 n , w = w0 × s0 n (n = 0, 1, 2,..., N), the position is moved in the image, and a non-change area having an arbitrary position and an arbitrary size is extracted.

図3は、画像中の変化領域と非変化領域の例を示す図である。図3に例示した画像では、変化領域抽出部3が変化領域31を抽出し、非変化領域抽出部4が変化領域31を部分的に含む領域である非変化領域41,42と、変化領域31をまったく含まない領域である非変化領域43,44とを抽出する。   FIG. 3 is a diagram illustrating an example of a change area and a non-change area in an image. In the image illustrated in FIG. 3, the change area extraction unit 3 extracts the change area 31, and the non-change area extraction unit 4 includes non-change areas 41 and 42 that partially include the change area 31, and the change area 31. The non-change areas 43 and 44, which are areas that do not contain any at all, are extracted.

学習部6は、変化領域(図3の例では変化領域31)を正事例、非変化領域(図3の例では非変化領域41〜44)を負事例の学習データ5に用いて変化領域の特徴を学習した変化対象検出器7を生成する。学習部6は、例えば、学習データ5に蓄積された正事例の個数が所定個数以上になった場合に学習を完了する。学習部6が用いる学習アルゴリズムとしては、例えば、Support Vector Machine(Vladimir Vapnik「Statistical Learning Theory」Wiley、NY、1998)等を使うことができる。   The learning unit 6 uses the change region (the change region 31 in the example of FIG. 3) as the positive example and the non-change region (the non-change regions 41 to 44 in the example of FIG. 3) as the negative case learning data 5. A change target detector 7 having learned features is generated. The learning unit 6 completes learning when, for example, the number of positive cases accumulated in the learning data 5 becomes a predetermined number or more. As a learning algorithm used by the learning unit 6, for example, Support Vector Machine (Vladimir Vapnik “Statistical Learning Theory” Wiley, NY, 1998) can be used.

以上より、変化対象検出器7が生成される。変化領域の特徴を学習した変化対象検出器7を生成するのは、検出対象物体が映像中で動いていることが多いという事実に基づき、変化領域が検出対象物体を含むと考えられるためである。よって、この変化対象検出器7は、画像中から、対象物体が含まれる変化領域、即ち対象物体を検出する。また、変化領域の抽出は、アピアランス変動及び環境変動に対してロバストであるため、生成した変化対象検出器7もアピアランス変動及び環境変動に対してロバストである。また、この変化対象検出器7は計算負荷が低い。これは、変化対象検出器7が物体検出器10の補助的役割を果すので求められる検出精度が低く、従って、計算負荷が低い処理方法を用いることができるためである。   As described above, the change target detector 7 is generated. The reason why the change target detector 7 having learned the characteristics of the change area is generated is that the change area is considered to include the detection target object based on the fact that the detection target object often moves in the video. . Therefore, the change target detector 7 detects a change area including the target object, that is, the target object, from the image. In addition, since the extraction of the change region is robust against appearance fluctuations and environmental fluctuations, the generated change target detector 7 is also robust against appearance fluctuations and environmental fluctuations. Further, the change target detector 7 has a low calculation load. This is because the change target detector 7 plays an auxiliary role of the object detector 10 and hence the required detection accuracy is low, and therefore a processing method with a low calculation load can be used.

次に、生成した変化対象検出器7を用いた物体検出処理を説明する。
画像走査部8は、映像信号中の各画像に対して走査ウィンドウを移動させていく。図4は、画像走査部8の画像走査方法を説明する図である。図4に示すように、画像走査部8は、原画像81に対して走査ウィンドウ(任意画像領域)84を移動させていくと共に、逐次画像縮小処理を行って縮小画像82,83を生成し、縮小画像82,83に対しても同様に走査ウィンドウ84を移動させていく。なお、画像縮小処理において、画像ピラミッドの縮小比率は上述したように1/s0とする。
Next, an object detection process using the generated change target detector 7 will be described.
The image scanning unit 8 moves the scanning window for each image in the video signal. FIG. 4 is a diagram for explaining an image scanning method of the image scanning unit 8. As shown in FIG. 4, the image scanning unit 8 moves the scanning window (arbitrary image region) 84 with respect to the original image 81 and sequentially performs image reduction processing to generate reduced images 82 and 83. Similarly, the scanning window 84 is moved with respect to the reduced images 82 and 83. In the image reduction process, the reduction ratio of the image pyramid is 1 / s0 as described above.

対象尤度算出部9は、画像を移動する走査ウィンドウに対して、学習部6が生成した変化対象検出器7をかけて得られる対象尤度P(v)を算出する。変化領域を対象物体と仮定しているので、この対象尤度P(v)は、変化対象検出器7から求まる対象物体らしさを示す。検出器を用いた尤度の算出方法としては、Thierryらの手法(Thierry Chatuau、Vincent Gay−Belille、Frederic Chausse、and Jean−Thierry Lapreste「Realtime tracking with classifiers」In Proc.of International Workshop on Dynamical Vision in conjunction with ECCV、2006)を使うことができる。
対象尤度算出部9が走査ウィンドウ内から対象物体を検出する際、走査ウィンドウが原画像のみならず縮小画像も移動するので、大きさの異なる対象物体を検出することができる。
なお、対象尤度算出部9が対象尤度P(v)を算出する際、学習部6が変化対象検出器7の学習を完了していない場合は、対象尤度P(v)を「1」として出力する。
The target likelihood calculating unit 9 calculates a target likelihood P (v) obtained by applying the change target detector 7 generated by the learning unit 6 to the scanning window that moves the image. Since the change area is assumed to be the target object, the target likelihood P (v) indicates the target object likelihood obtained from the change target detector 7. The method of calculating the likelihood using a detector is the method of Thierry et al. (Thierry Chatau, Vincent Gay-Bellle, Frederickhause, and Jean-Thierry Instimate Int. junction with ECCV, 2006) can be used.
When the target likelihood calculating unit 9 detects the target object from the scanning window, the scanning window moves not only the original image but also the reduced image, so that target objects having different sizes can be detected.
When the target likelihood calculating unit 9 calculates the target likelihood P (v), if the learning unit 6 has not completed learning of the change target detector 7, the target likelihood P (v) is set to “1”. "Is output.

物体検出器10は、対象物体を含むサンプル画像データを用いて事前に求めておいた検出器であり、対象物体そのものを検出する検出器である。この物体検出器10は従来の物体検出に用いられる物体検出器であり、一般的に、計算負荷が高く、また、アピアランス変動及び環境変動に弱い。物体検出器10の計算負荷が高いのは、画像ピラミッドのように画像の大きさを変え、かつ、各異なる大きさの画像内を全走査することにより、のべ検出処理回数が多くなるためである。物体検出器10は、一回の検出処理あたり、複数個のフィルタを適用したフィルタ出力値を計算し、この出力値を識別関数で処理する。この際、フィルタ計算関数は、計算量が多い複雑な関数が用いられることが多いため、結果として、物体検出器10がのべ検出処理回数が多く、かつ、各検出処理時の計算量も多くなり、計算負荷が高くなる。   The object detector 10 is a detector that has been obtained in advance using sample image data including a target object, and is a detector that detects the target object itself. This object detector 10 is an object detector used for conventional object detection, and generally has a high calculation load and is weak against appearance fluctuations and environmental fluctuations. The calculation load of the object detector 10 is high because the total number of detection processes is increased by changing the size of the image as in an image pyramid and performing full scanning within images of different sizes. is there. The object detector 10 calculates a filter output value to which a plurality of filters are applied per detection process, and processes the output value with an identification function. At this time, the filter calculation function is often a complex function with a large amount of calculation. As a result, the object detector 10 has a large number of total detection processes, and the calculation amount at each detection process is also large. This increases the calculation load.

事前に求める対象物体の検出アルゴリズムとしては、Violaらの手法(P.Viola、M.Jones、D.Snow「Detecting Prestrains Using Patterns of Motion and Appearance」IEEE International Conference on Computer Vision(ICCV)、Vol.2,pp.734〜741、October 2003)等を用いることができる。   As a detection algorithm of a target object to be obtained in advance, a technique of Viola et al. , Pp. 734 to 741, October 2003) or the like.

対象尤度算出部11は、画像中を移動する走査ウィンドウに対して事前に求めておいた物体検出器10をかけて得られる対象尤度P(D)を算出する。この対象尤度P(D)は、走査ウィンドウ内の画像に、対象物体が含まれるかどうかを示す。なお、本実施の形態1では、対象尤度算出部9が同一の走査ウィンドウに対して変化対象検出器7を適用して対象尤度P(v)を算出した後、対象尤度算出部11が条件付確率として物体検出器10を用いて対象尤度P(D|v)を求める。   The target likelihood calculating unit 11 calculates a target likelihood P (D) obtained by applying the object detector 10 obtained in advance to the scanning window moving in the image. This target likelihood P (D) indicates whether or not the target object is included in the image within the scanning window. In the first embodiment, the target likelihood calculation unit 9 applies the change target detector 7 to the same scanning window to calculate the target likelihood P (v), and then the target likelihood calculation unit 11 Finds the target likelihood P (D | v) using the object detector 10 as a conditional probability.

結合尤度算出部12は、同一の走査ウィンドウについて、対象尤度算出部9が算出した対象尤度と、対象尤度算出部11が算出した対象尤度とを用いて、結合尤度P(D,v)=P(D|v)×p(v)を求める。   The combined likelihood calculating unit 12 uses the target likelihood calculated by the target likelihood calculating unit 9 and the target likelihood calculated by the target likelihood calculating unit 11 for the same scanning window, using the combined likelihood P ( D, v) = P (D | v) × p (v) is obtained.

結合尤度判定部13は、結合尤度算出部12が算出した結合尤度が、所定の閾値以上の場合には対象物体「検出」の結果を出力する。他方、結合尤度が閾値以下の場合には対象物体「未検出」の結果を出力する。
変化領域の抽出はアピアランス変動及び環境変動に対してロバストであり、また、検出対象となる物体は映像中で動いていることが多いという事実に基づいて学習部6が変化対象検出器7を生成するので、この変化対象検出器7を用いることで、画像中の走査ウィンドウに対して、変化領域に注目した、アピアランス変動及び環境変動にロバストな検出対象らしさの尤度算出を実現できる。
また、走査ウィンドウに対して変化対象検出器7を適用して対象尤度を算出した後、条件付確率として物体検出器10を用いて対象尤度を求め、変化対象検出器7と物体検出器10とを用いた同時確率を対象尤度とした物体検出を行うことで、従来の物体検出器10だけを用いた際に起きる誤検出率の増加を起こすことなく、アピアランス変動及び環境変動に対してロバストな物体検出が可能となる。
The combined likelihood determining unit 13 outputs the result of the target object “detection” when the combined likelihood calculated by the combined likelihood calculating unit 12 is equal to or greater than a predetermined threshold. On the other hand, when the joint likelihood is equal to or less than the threshold, the result of the target object “not detected” is output.
The change area extraction is robust against appearance fluctuations and environmental fluctuations, and the learning unit 6 generates the change target detector 7 based on the fact that the object to be detected often moves in the video. Therefore, by using this change target detector 7, it is possible to calculate the likelihood of the detection target that is robust to appearance fluctuations and environmental fluctuations focusing on the change area with respect to the scanning window in the image.
Further, after calculating the target likelihood by applying the change target detector 7 to the scanning window, the target likelihood is obtained using the object detector 10 as a conditional probability, and the change target detector 7 and the object detector are obtained. 10 is used to detect the appearance probability and the environment fluctuation without increasing the false detection rate that occurs when only the conventional object detector 10 is used. And robust object detection.

以上より、実施の形態1によれば、映像入力部1から入力した映像中から変化する画像領域を検出して検出変化領域とする変化領域検出部2と、変化領域検出部2の検出変化領域を用いて、映像中の変化領域を抽出する変化領域抽出部3と、映像中の非変化領域を抽出する非変化領域抽出部4と、抽出された変化領域及び非変化領域を蓄積した学習データ5を用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器7を生成する学習部6と、変化対象検出器7を用いて、画像走査部8が映像中を移動させる走査ウィンドウから変化領域らしさを表す対象尤度を算出する対象尤度算出部9と、予め検出対象物体の特徴を学習した物体検出器10を用いて、走査ウィンドウから検出対象物体らしさを表す対象尤度を算出する対象尤度算出部11と、対象尤度算出部9,11がそれぞれ算出した対象尤度を結合する結合尤度算出部12と、結合尤度算出部12が算出した結合尤度を閾値と比較して、走査ウィンドウから検出対象物体を検出する結合尤度判定部13とを備えるように構成した。
このため、アピアランス変動及び環境変動に対してロバストに抽出される変化領域であって、検出対象が含まれるであろう変化領域に着目した変化対象検出器7と、事前学習した物体検出器10とから得られる各対象尤度を結合した結合尤度を用いて物体検出を行うことができ、この結果、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことができる。
As described above, according to the first embodiment, the change region detection unit 2 that detects the image region that changes from the video input from the video input unit 1 and sets it as the detection change region, and the detection change region of the change region detection unit 2 , A change area extraction unit 3 that extracts a change area in the video, a non-change area extraction unit 4 that extracts a non-change area in the video, and learning data in which the extracted change areas and non-change areas are accumulated 5, the learning unit 6 that learns the characteristics of the change region that is considered to include the detection target object and generates the change target detector 7, and the change target detector 7 is used to display the image scanning unit 8 in the video. The target likelihood calculating unit 9 that calculates the target likelihood that represents the change area from the scanning window that moves the object, and the object detector 10 that has previously learned the characteristics of the detection target object are used to determine the likelihood of the detection target object from the scanning window. Calculate the target likelihood to represent The target likelihood calculating unit 11, the combined likelihood calculating unit 12 that combines the target likelihoods calculated by the target likelihood calculating units 9 and 11, and the combined likelihood calculated by the combined likelihood calculating unit 12 as a threshold value. In comparison, the apparatus is configured to include a joint likelihood determination unit 13 that detects a detection target object from the scanning window.
For this reason, a change target detector 7 that focuses on a change region that is robustly extracted with respect to appearance fluctuations and environmental fluctuations and that may include a detection target, and a pre-learned object detector 10 It is possible to perform object detection using the combined likelihood obtained by combining the target likelihoods obtained from the above, and as a result, the appearance fluctuation caused by the lighting environment and the posture fluctuation, etc., and the environmental fluctuation under a complicated background, etc. On the other hand, robust object detection can be performed.

なお、上記実施の形態1の物体検出器10として、対象物体の部分的な領域を検出する部分物体検出器を用いる構成にしてもよい。この構成の場合には、対象尤度算出部11は、画像走査部8の走査ウィンドウ内の画像に対して部分物体検出器をかけて得られる尤度を算出する。   The object detector 10 of the first embodiment may be configured to use a partial object detector that detects a partial region of the target object. In the case of this configuration, the target likelihood calculating unit 11 calculates the likelihood obtained by applying the partial object detector to the image within the scanning window of the image scanning unit 8.

実施の形態2.
図5は、この発明の実施の形態2に係る物体検出装置の構成を示すブロック図であり、図1と同一又は相当の部分については同一の符号を付し説明を省略する。本実施の形態2の物体検出装置は、上記実施の形態1の物体検出装置に新たに変化特性選択部14を追加した構成であり、変化特性選択部14がある点が異なる。
Embodiment 2. FIG.
FIG. 5 is a block diagram showing a configuration of an object detection apparatus according to Embodiment 2 of the present invention. The same or corresponding parts as those in FIG. The object detection apparatus according to the second embodiment has a configuration in which a change characteristic selection unit 14 is newly added to the object detection apparatus according to the first embodiment, and is different in that the change characteristic selection unit 14 is provided.

物体検出において、検出対象とする物体の動きが予め分かっているケースは多い。そこで、変化特性選択部14は、変化領域検出部2が検出した変化領域のうち、対象物体が有する特性に一致する変化領域のみを選択して、変化領域抽出部3へ出力する。
図6は、変化特性選択部14の変化特性選択方法を説明する図である。例えば、横断歩道を渡る人物を対象物体として検出する場合、図6(a)に示すように、変化特性選択部14は動き方向特性に関して左右方向のみの動きを持つ変化領域を、選択特性領域141として選択する。
また、例えば、遠方から撮影したカメラの映像から、路上を歩く歩行者を対象物体として検出する場合、図6(b)に示すように、変化特性選択部14は面積・位置特性に関して地面近くに相当する範囲内で検出された変化領域のみを選択特性領域142として選択し、それ以外の変化領域は除外特性領域143,144とする。
また、例えば、歩行者を対象物体として検出する場合、図6(c)に示すように、変化特性選択部14は縦横比特性に関して所定の縦横比の変化領域を選択特性領域145として選択し、それ以外の変化領域は除外特性領域146とする。
なお、変化特性選択部14は、このような種々の特性を複数組み合わせて、該当する変化領域を選択してもよい。
In object detection, there are many cases where the motion of an object to be detected is known in advance. Therefore, the change characteristic selection unit 14 selects only the change region that matches the characteristic of the target object from the change regions detected by the change region detection unit 2 and outputs the selected change region to the change region extraction unit 3.
FIG. 6 is a diagram for explaining a change characteristic selection method of the change characteristic selection unit 14. For example, when a person crossing a pedestrian crossing is detected as a target object, as shown in FIG. 6A, the change characteristic selection unit 14 selects a change area having only a left-right movement with respect to the movement direction characteristic. Choose as.
Further, for example, when detecting a pedestrian walking on the road as a target object from a camera image taken from a distance, as shown in FIG. 6B, the change characteristic selection unit 14 is close to the ground with respect to area / position characteristics. Only the change area detected within the corresponding range is selected as the selection characteristic area 142, and the other change areas are set as the exclusion characteristic areas 143 and 144.
Further, for example, when detecting a pedestrian as a target object, as shown in FIG. 6C, the change characteristic selection unit 14 selects a change area of a predetermined aspect ratio as the selection characteristic area 145 with respect to the aspect ratio characteristic, The other change area is an exclusion characteristic area 146.
Note that the change characteristic selection unit 14 may select a corresponding change area by combining a plurality of such various characteristics.

変化特性選択部14が選択特性領域として選択した変化領域は、変化領域抽出部3へ出力され、変化領域抽出部3によって学習データ5に追加される。一方、変化特性選択部14が除外特性領域として選択した変化領域は、変化領域抽出部3へは出力されないため、学習データ5に追加されることはない。従って、検出対象と同じ特性を有する変化領域を含んだ学習データ5に基づいて、検出対象のみを含む変化領域を検出するための変化対象検出器7を生成することができる。この変化対象検出器7を物体検出器10と組み合わせることにより、高精度の物体検出を実現できる。   The change region selected by the change property selection unit 14 as the selection property region is output to the change region extraction unit 3 and added to the learning data 5 by the change region extraction unit 3. On the other hand, the change area selected as the exclusion characteristic area by the change characteristic selection unit 14 is not output to the change area extraction unit 3 and is not added to the learning data 5. Therefore, the change target detector 7 for detecting the change area including only the detection target can be generated based on the learning data 5 including the change area having the same characteristics as the detection target. By combining this change target detector 7 with the object detector 10, high-precision object detection can be realized.

以上より、実施の形態2によれば、変化領域抽出部3が抽出した変化領域のうち、所定の特性を持つ変化領域を選択する変化特性選択部14を備え、学習部6は、変化特性選択部14が選択した変化領域及び非変化領域抽出部4が抽出した非変化領域を蓄積した学習データ5を用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器7を生成するように構成した。このため、変化特性選択部14が、検出対象以外の物体が存在する変化領域を学習データ5に追加することを防止するので、対象物体以外が存在する変化領域の特徴を持つ変化対象検出器7が生成されることを防止でき、この結果、高精度の変化対象検出器7の生成を実現できる。そのため、アピアランス変動及び環境変動に対してロバストな、高精度の物体検出を実現できる。   As described above, according to the second embodiment, the learning unit 6 includes the change characteristic selection unit 14 that selects a change area having a predetermined characteristic from among the change areas extracted by the change area extraction unit 3. Using the learning data 5 in which the changed region selected by the unit 14 and the non-changed region extracted by the non-changed region extracting unit 4 are accumulated, the features of the changed region that is considered to include the detection target object are learned, and the change target detector 7 was generated. For this reason, the change characteristic selection unit 14 prevents the change area in which an object other than the detection target exists from being added to the learning data 5, so that the change target detector 7 having the characteristics of the change area in which there is a non-target object exists. Can be prevented, and as a result, it is possible to realize the generation of the change target detector 7 with high accuracy. Therefore, it is possible to realize highly accurate object detection that is robust against appearance fluctuations and environmental fluctuations.

実施の形態3.
図7は、この発明の実施の形態3に係る物体検出装置の構成を示すブロック図であり、図1と同一又は相当の部分については同一の符号を付し説明を省略する。本実施の形態3の物体検出装置は、上記実施の形態1の物体検出装置に新たにクラスタリング部15、対象クラスタ選択部16及び物体サンプルデータ17を追加した構成であり、これらの構成がある点が異なる。
Embodiment 3 FIG.
FIG. 7 is a block diagram showing the configuration of the object detection apparatus according to Embodiment 3 of the present invention. The same or corresponding parts as those in FIG. The object detection apparatus according to the third embodiment has a configuration in which a clustering unit 15, a target cluster selection unit 16, and object sample data 17 are newly added to the object detection apparatus according to the first embodiment. Is different.

クラスタリング部15は、学習データ5のうち、変化領域抽出部3が出力した変化領域のデータに対してクラスタリング処理を行い、変化領域を複数のクラスタ(=物体クラス)に分類する。クラスタリング処理の手法としては、例えばk−meanクラスタリング(田村秀行「コンピュータ画像処理」オーム社、2002)を用いることができる。   The clustering unit 15 performs a clustering process on the change area data output from the change area extraction unit 3 in the learning data 5, and classifies the change areas into a plurality of clusters (= object classes). As a clustering method, for example, k-mean clustering (Hideyuki Tamura “Computer Image Processing” Ohm, 2002) can be used.

対象クラスタ選択部16は、物体サンプルデータ17を用いて検出対象となる物体クラスの対象クラスタを選択し、学習データ5のうち、この対象クラスタに含まれる変化領域を正事例として学習部6に通知する。   The target cluster selection unit 16 selects a target cluster of the object class to be detected using the object sample data 17 and notifies the learning unit 6 of the change area included in the target cluster in the learning data 5 as a positive example. To do.

学習部6は、学習データ5のうち、負事例については非変化領域をそのまま学習に用い、正事例については対象クラスタ選択部16から通知された変化領域のみを学習に用いて、変化対象検出器7を生成する。   The learning unit 6 uses the non-change region as it is for learning for the negative case in the learning data 5, and uses only the change region notified from the target cluster selection unit 16 for the positive case for learning. 7 is generated.

物体サンプルデータ17には、検出候補として複数の物体クラスのサンプルデータを用意しておく。そして、上述したように、対象クラスタ選択部16が分類した物体クラスを物体サンプルデータ17に応じて切り替えることで、複数の物体クラスに対応することができる。例えば、上記実施の形態2では縦横比特性を用いて図6(c)の画像から人に相当する変化領域を選択特性領域145にして学習データ5に追加し、犬に相当する変化領域を除外特性領域146として学習データ5から除外していた。これに対して、本実施の形態3では、人及び犬の2つの物体クラスを物体サンプルデータ17に登録しておき、学習データ5に人及び犬に相当する変化領域を区別して追加することで、学習部6が人及び犬の2つの物体に対応した変化対象検出器7を生成する。   In the object sample data 17, sample data of a plurality of object classes are prepared as detection candidates. As described above, by switching the object class classified by the target cluster selection unit 16 according to the object sample data 17, it is possible to correspond to a plurality of object classes. For example, in the second embodiment, the change area corresponding to the person is added to the learning data 5 from the image of FIG. 6C using the aspect ratio characteristic and is added to the learning data 5, and the change area corresponding to the dog is excluded. The characteristic area 146 is excluded from the learning data 5. On the other hand, in the third embodiment, two object classes of human and dog are registered in the object sample data 17, and change areas corresponding to human and dog are distinguished and added to the learning data 5. The learning unit 6 generates a change target detector 7 corresponding to two objects, a person and a dog.

以上より、実施の形態3によれば、変化領域抽出部3が抽出した変化領域をクラスタリング処理により物体クラスに分類するクラスタリング部15と、検出対象物体を示す物体サンプルデータ17を用いて、当該検出対象物体に対応する物体クラスに分類された変化領域を選択する対象クラスタ選択部16とを備え、学習部6は、対象クラスタ選択部16が選択した変化領域及び非変化領域抽出部4が抽出した非変化領域のデータを用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器7を生成するように構成した。このため、対象クラスタ選択部16が、検出対象以外の物体クラスが存在する変化領域を学習データ5に追加することを防止するので、対象物体以外が存在する変化領域の特徴を持つ変化対象検出器7が生成されることを防止でき、この結果、高精度の変化対象検出器7の生成を実現できる。そのため、アピアランス変動及び環境変動に対してロバストな、高精度の物体検出を実現できる。   As described above, according to the third embodiment, the detection is performed using the clustering unit 15 that classifies the change region extracted by the change region extraction unit 3 into the object class by the clustering process and the object sample data 17 indicating the detection target object. A target cluster selection unit 16 that selects a change region classified into an object class corresponding to the target object, and the learning unit 6 extracts the change region selected by the target cluster selection unit 16 and the non-change region extraction unit 4 The change target detector 7 is generated by learning the characteristics of the change region that is considered to include the detection target object using the non-change region data. For this reason, since the target cluster selection unit 16 prevents the change area where the object class other than the detection target exists from being added to the learning data 5, the change target detector having the characteristics of the change area where the other than the target object exists. 7 can be prevented, and as a result, the generation of the change target detector 7 with high accuracy can be realized. Therefore, it is possible to realize highly accurate object detection that is robust against appearance fluctuations and environmental fluctuations.

なお、上記実施の形態1の物体検出装置は、変化対象検出器7、物体検出器10、変化対象検出器7を用いて対象尤度を算出する対象尤度算出部9、物体検出器10を用いて対象尤度を算出する対象尤度算出部11、各対象尤度を結合する結合尤度算出部12、及び、結合した結合尤度を用いて閾値判定する結合尤度判定部13を備える構成であったが、物体検出器10、対象尤度算出部11及び結合尤度算出部12を備えず、変化対象検出器7、対象尤度算出部9、及び、対象尤度算出部9の対象尤度のみを用いて閾値判定する結合尤度判定部13(尤度判定部)を備える構成であってもよい。
学習部6は対象物体以外が存在する変化領域も正事例として学習する可能性があるため、この構成の場合には、対象物体以外が存在する変化領域の特徴も持つ変化対象検出器7が生成される可能性がある。ただし、変化領域の抽出自体は環境変動及びアピアランス変動に対してロバストなので、変化対象検出器7のみ用いた物体検出も環境変動及びアピアランス変動に対してロバストである。
The object detection apparatus of the first embodiment includes the change target detector 7, the object detector 10, the target likelihood calculation unit 9 that calculates the target likelihood using the change target detector 7, and the object detector 10. A target likelihood calculating unit 11 that calculates a target likelihood using the combined likelihood calculating unit 12 that combines the target likelihoods, and a combined likelihood determining unit 13 that determines a threshold using the combined combined likelihoods. Although it was configured, the object detector 10, the target likelihood calculation unit 11, and the combined likelihood calculation unit 12 are not provided, and the change target detector 7, the target likelihood calculation unit 9, and the target likelihood calculation unit 9 The structure provided with the joint likelihood determination part 13 (likelihood determination part) which determines a threshold value using only object likelihood may be sufficient.
Since there is a possibility that the learning unit 6 learns the change region where the object other than the target object exists as a positive example, in this configuration, the change target detector 7 having the characteristics of the change region where the object other than the target object exists is generated. There is a possibility that. However, since the extraction of the change region itself is robust against environmental fluctuations and appearance fluctuations, object detection using only the change target detector 7 is also robust against environmental fluctuations and appearance fluctuations.

なお、この構成を上記実施の形態2に適用した場合には、変化特性選択部14が、検出対象以外の物体が変化領域に含まれることを防止するので、対象物体以外が存在する変化領域の特徴を持つ変化対象検出器7が生成されることを防止でき、高精度の変化対象検出器7を生成可能となる。   Note that when this configuration is applied to the second embodiment, the change characteristic selection unit 14 prevents an object other than the detection target from being included in the change area. It is possible to prevent the change target detector 7 having characteristics from being generated, and to generate the change target detector 7 with high accuracy.

また、この構成を上記実施の形態3に適用した場合には、対象クラスタ選択部16が、検出対象以外の物体が変化領域に含まれることを防止するので、対象物体以外が存在する変化領域の特徴を持つ変化対象検出器7が生成されることを防止でき、高精度の変化対象検出器7を生成可能となる。   In addition, when this configuration is applied to the third embodiment, the target cluster selection unit 16 prevents objects other than the detection target from being included in the change area. It is possible to prevent the change target detector 7 having characteristics from being generated, and to generate the change target detector 7 with high accuracy.

また、上記実施の形態1〜3の物体検出装置において、画像走査部8を変化対象検出器7aに置き換える構成にすることもできる。図8は、実施の形態1に係る物体検出装置において画像走査部8を変化対象検出器7aに置き換えた構成を示すブロック図である。この変化対象検出器7aは、変化対象検出器7と同様の機能を有する。また、これらの変化対象検出器7,7aを、物体検出器10の補助的な検出器として用いる。そのため、変化対象検出器7,7aに求められる検出精度は低く、従って、計算負荷が低い処理を用いることができる。
前述したように、物体検出装置の各部の処理は学習処理と検出処理とに分けられるが、図8の物体検出装置の場合には学習部6での学習が終了し、変化対象検出器7,7aが生成された際に検出処理が適用可能であるものとする。検出処理において、画像走査部8の代わりに変化対象検出器7aを用いることにより、低い計算負荷で画像中から対象物体が含まれる変化領域、即ち対象物体を検出することができる。そして、変化対象検出部7を、より高精度の物体検出器10と組み合わせることにより、低計算負荷かつ高精度の物体検出を実現することができる。
このように、対象物体の検出時に、変化対象検出部7,7aを組み合わせることにより、変化対象検出部7が低い計算負荷で画像中から対象物体が含まれる変化領域、即ち対象物体を検出することができる。
なお、図示は省略するが、その他の実施の形態2,3の物体検出装置の画像走査部8を変化対象検出器7aに置き換えても、同様の効果を奏する。
Moreover, in the object detection apparatus of the said Embodiment 1-3, it can also be set as the structure which replaces the image scanning part 8 with the change object detector 7a. FIG. 8 is a block diagram showing a configuration in which the image scanning unit 8 is replaced with the change target detector 7a in the object detection apparatus according to the first embodiment. The change target detector 7 a has the same function as the change target detector 7. These change target detectors 7 and 7 a are used as auxiliary detectors of the object detector 10. Therefore, the detection accuracy required for the change target detectors 7 and 7a is low, and therefore, processing with a low calculation load can be used.
As described above, the processing of each part of the object detection device is divided into learning processing and detection processing. However, in the case of the object detection device of FIG. It is assumed that the detection process can be applied when 7a is generated. In the detection process, by using the change target detector 7a instead of the image scanning unit 8, it is possible to detect a change region including the target object from the image, that is, the target object with a low calculation load. Then, by combining the change target detection unit 7 with the object detector 10 with higher accuracy, it is possible to realize object detection with a low calculation load and high accuracy.
As described above, when the target object is detected, by combining the change target detection units 7 and 7a, the change target detection unit 7 detects a change region including the target object in the image, that is, the target object with a low calculation load. Can do.
Although illustration is omitted, the same effect can be obtained by replacing the image scanning unit 8 of the object detection devices of the second and third embodiments with the change target detector 7a.

なお、物体検出装置をコンピュータで構成する場合、映像入力部1、変化領域検出部2、変化領域抽出部3、非変化領域抽出部4、学習部6、変化対象検出器7、画像走査部8、物体検出器10、対象尤度算出部9,11、結合尤度算出部12、及び結合尤度判定部13の処理内容を記述している物体検出プログラムをコンピュータのメモリに格納し、コンピュータのCPUがメモリに格納されている物体検出プログラムを実行するようにしてもよい。   When the object detection device is configured by a computer, the video input unit 1, the change region detection unit 2, the change region extraction unit 3, the non-change region extraction unit 4, the learning unit 6, the change target detector 7, and the image scanning unit 8 are used. , The object detection program describing the processing contents of the object detector 10, the target likelihood calculating units 9, 11, the combined likelihood calculating unit 12, and the combined likelihood determining unit 13 is stored in the memory of the computer. The CPU may execute an object detection program stored in the memory.

1 映像入力部、2 変化領域検出部、3 変化領域抽出部、4 非変化領域抽出部、5 学習データ、6 学習部、7,7a 変化対象検出器、8 画像走査部、9 対象尤度算出部(第1の対象尤度算出部)、10 物体検出器、11 対象尤度算出部(第2の対象尤度算出部)、12 結合尤度算出部、13 結合尤度判定部、14 変化特性選択部、15 クラスタリング部、16 対象クラスタ選択部、17 物体サンプルデータ、21 現フレーム、22 次フレーム、23 オプティカルフロー、24,27 検出変化領域、25 背景画像、26 現フレーム、31 変化領域、41〜44 非変化領域、141,142,145 選択特性領域、143,144,146 除外特性領域。   DESCRIPTION OF SYMBOLS 1 Image | video input part, 2 Change area detection part, 3 Change area extraction part, 4 Non-change area extraction part, 5 Learning data, 6 Learning part, 7, 7a Change object detector, 8 Image scanning part, 9 Object likelihood calculation Part (first target likelihood calculating part), 10 object detector, 11 target likelihood calculating part (second target likelihood calculating part), 12 joint likelihood calculating part, 13 joint likelihood determining part, 14 change Characteristic selection unit, 15 Clustering unit, 16 Target cluster selection unit, 17 Object sample data, 21 Current frame, 22nd frame, 23 Optical flow, 24, 27 Detection change area, 25 Background image, 26 Current frame, 31 Change area, 41-44 non-change area, 141, 142, 145 selection characteristic area, 143, 144, 146 exclusion characteristic area.

Claims (8)

映像中の変化領域を抽出する変化領域抽出部と、
映像中の非変化領域を抽出する非変化領域抽出部と、
前記変化領域及び前記非変化領域のデータを用いて、検出対象物体を含むと考えられる前記変化領域の特徴を学習して変化対象検出器を生成する学習部と、
前記変化対象検出器を用いて、映像中の任意画像領域の前記変化領域らしさを表す尤度を算出する対象尤度算出部と、
前記対象尤度算出部が算出した尤度を閾値と比較して、前記任意画像領域から前記検出対象物体を検出する尤度判定部とを備える物体検出装置。
A change area extraction unit for extracting a change area in the video;
A non-change area extraction unit for extracting non-change areas in the video;
A learning unit that learns features of the change region that is considered to include a detection target object using the data of the change region and the non-change region, and generates a change target detector;
A target likelihood calculation unit that calculates a likelihood representing the likelihood of the change region of an arbitrary image region in a video using the change target detector;
An object detection apparatus comprising: a likelihood determination unit that detects the detection target object from the arbitrary image region by comparing the likelihood calculated by the target likelihood calculation unit with a threshold value.
映像中の変化領域を抽出する変化領域抽出部と、
映像中の非変化領域を抽出する非変化領域抽出部と、
前記変化領域及び前記非変化領域のデータを用いて、検出対象物体を含むと考えられる前記変化領域の特徴を学習して変化対象検出器を生成する学習部と、
前記変化対象検出器を用いて、映像中の任意画像領域の前記検出対象物体らしさを表す尤度を算出する第1の対象尤度算出部と、
予め前記検出対象物体の特徴を学習した物体検出器を用いて、前記任意画像領域の前記検出対象物体らしさを表す尤度を算出する第2の対象尤度算出部と、
前記第1及び前記第2の対象尤度算出部がそれぞれ算出した尤度を結合する結合尤度算出部と、
前記結合尤度算出部が算出した結合尤度を閾値と比較して、前記任意画像領域から前記検出対象物体を検出する結合尤度判定部とを備える物体検出装置。
A change area extraction unit for extracting a change area in the video;
A non-change area extraction unit for extracting non-change areas in the video;
A learning unit that learns features of the change region that is considered to include a detection target object using the data of the change region and the non-change region, and generates a change target detector;
Using the change target detector, a first target likelihood calculating unit that calculates the likelihood representing the likelihood of the detection target object in an arbitrary image region in the video;
A second target likelihood calculation unit that calculates a likelihood representing the likelihood of the detection target object in the arbitrary image region using an object detector that has previously learned the characteristics of the detection target object;
A combined likelihood calculation unit that combines the likelihoods calculated by the first and second target likelihood calculation units, respectively;
An object detection apparatus comprising: a combination likelihood determination unit configured to detect the detection target object from the arbitrary image region by comparing the combination likelihood calculated by the combination likelihood calculation unit with a threshold value.
変化領域抽出部が抽出した変化領域のうち、所定の特性を持つ変化領域を選択する変化特性選択部を備え、
学習部は、前記変化特性選択部が選択した変化領域及び非変化領域抽出部が抽出した非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成することを特徴とする請求項1又は請求項2記載の物体検出装置。
A change characteristic selection unit that selects a change area having a predetermined characteristic among the change areas extracted by the change area extraction unit,
The learning unit learns the characteristics of the change region using the change region selected by the change characteristic selection unit and the non-change region data extracted by the non-change region extraction unit, and generates a change target detector. The object detection device according to claim 1, wherein the object detection device is a device.
変化領域抽出部が抽出した変化領域をクラスタリング処理により物体クラスに分類するクラスタリング部と、
検出対象物体のサンプルデータを用いて、当該検出対象物体に対応する物体クラスに分類された変化領域を選択する対象クラスタ選択部とを備え、
学習部は、前記対象クラスタ選択部が選択した変化領域及び非変化領域抽出部が抽出した非変化領域のデータを用いて、当該変化領域の特徴を学習して変化対象検出器を生成することを特徴とする請求項1又は請求項2記載の物体検出装置。
A clustering unit that classifies the change region extracted by the change region extraction unit into an object class by clustering processing;
Using a sample data of a detection target object, and a target cluster selection unit that selects a change region classified into an object class corresponding to the detection target object,
The learning unit learns the characteristics of the change region using the change region selected by the target cluster selection unit and the non-change region data extracted by the non-change region extraction unit, and generates a change target detector. The object detection device according to claim 1, wherein the object detection device is a device.
コンピュータを、映像中の変化領域を抽出する変化領域抽出手段と、
映像中の非変化領域を抽出する非変化領域抽出手段と、
検出対象物体を含むと考えられる前記変化領域及び前記非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成する学習手段と、
前記変化対象検出器を用いて、映像中の任意画像領域の前記変化領域らしさを表す尤度を算出する対象尤度算出手段と、
前記対象尤度算出手段が算出した尤度を閾値と比較して、前記任意画像領域から前記検出対象物体を検出する尤度判定手段として機能させるための物体検出プログラム。
A change area extraction means for extracting a change area in a video;
Non-change area extraction means for extracting non-change areas in the video;
Learning means for generating a change target detector by learning features of the change area using data of the change area and the non-change area considered to include a detection target object ;
Using the change target detector, target likelihood calculation means for calculating likelihood representing the change area likelihood of an arbitrary image area in a video,
An object detection program for comparing the likelihood calculated by the target likelihood calculating means with a threshold value and functioning as a likelihood determining means for detecting the detection target object from the arbitrary image region.
コンピュータを、映像中の変化領域を抽出する変化領域抽出手段と、
映像中の非変化領域を抽出する非変化領域抽出手段と、
検出対象物体を含むと考えられる前記変化領域及び前記非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成する学習手段と、
前記変化対象検出器を用いて、映像中の任意画像領域の前記検出対象物体らしさを表す尤度を算出する第1の対象尤度算出手段と、
予め前記検出対象物体の特徴を学習した物体検出器を用いて、前記任意画像領域の前記検出対象物体らしさを表す尤度を算出する第2の対象尤度算出手段と、
前記第1及び前記第2の対象尤度算出手段でそれぞれ算出した尤度を結合する結合尤度算出手段と、
前記結合尤度算出手段で算出した結合尤度を閾値と比較して、前記任意画像領域から前記検出対象物体を検出する結合尤度判定手段として機能させるための物体検出プログラム。
A change area extraction means for extracting a change area in a video;
Non-change area extraction means for extracting non-change areas in the video;
Learning means for generating a change target detector by learning features of the change area using data of the change area and the non-change area considered to include a detection target object ;
First target likelihood calculating means for calculating a likelihood representing the likelihood of the detection target object in an arbitrary image region in a video using the change target detector;
A second target likelihood calculating means for calculating a likelihood representing the likelihood of the detection target object in the arbitrary image region using an object detector that has previously learned the characteristics of the detection target object;
A combined likelihood calculating means for combining the likelihoods calculated by the first and second target likelihood calculating means,
An object detection program for comparing the combined likelihood calculated by the combined likelihood calculating means with a threshold value to function as a combined likelihood determining means for detecting the detection target object from the arbitrary image region.
変化領域抽出手段で抽出した変化領域のうち、所定の特性を持つ変化領域を選択する変化特性選択手段を備え、
学習手段は、前記変化特性選択手段で選択した変化領域及び非変化領域抽出手段で抽出した非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成することを特徴とする請求項5又は請求項6記載の物体検出プログラム。
A change characteristic selection means for selecting a change area having a predetermined characteristic among the change areas extracted by the change area extraction means,
The learning means learns the characteristics of the change area using the change area selected by the change characteristic selection means and the non-change area data extracted by the non-change area extraction means, and generates a change target detector. The object detection program according to claim 5 or 6, wherein
変化領域抽出手段で抽出した変化領域をクラスタリング処理により物体クラスに分類するクラスタリング手段と、
検出対象物体のサンプルデータを用いて、当該検出対象物体に対応する物体クラスに分類された変化領域を選択する対象クラスタ選択手段とを備え、
学習手段は、前記対象クラスタ選択手段で選択した変化領域及び非変化領域抽出手段で抽出した非変化領域のデータを用いて、当該変化領域の特徴を学習して変化対象検出器を生成することを特徴とする請求項5又は請求項6記載の物体検出プログラム。
Clustering means for classifying the change area extracted by the change area extraction means into an object class by clustering processing;
Using the sample data of the detection target object, the target cluster selection means for selecting the change area classified into the object class corresponding to the detection target object,
The learning means learns the characteristics of the change area using the change area selected by the target cluster selection means and the non-change area data extracted by the non-change area extraction means, and generates a change target detector. The object detection program according to claim 5 or 6, wherein
JP2009250584A 2009-10-30 2009-10-30 Object detection apparatus and object detection program Active JP5241687B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009250584A JP5241687B2 (en) 2009-10-30 2009-10-30 Object detection apparatus and object detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009250584A JP5241687B2 (en) 2009-10-30 2009-10-30 Object detection apparatus and object detection program

Publications (2)

Publication Number Publication Date
JP2011096072A JP2011096072A (en) 2011-05-12
JP5241687B2 true JP5241687B2 (en) 2013-07-17

Family

ID=44112896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009250584A Active JP5241687B2 (en) 2009-10-30 2009-10-30 Object detection apparatus and object detection program

Country Status (1)

Country Link
JP (1) JP5241687B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101747216B1 (en) * 2012-05-30 2017-06-15 한화테크윈 주식회사 Apparatus and method for extracting target, and the recording media storing the program for performing the said method
JP2018170001A (en) * 2017-03-29 2018-11-01 西日本電信電話株式会社 Video data processing apparatus, video data processing method, and computer program
KR102197297B1 (en) * 2019-09-27 2020-12-31 서울대학교산학협력단 Change detection method using recurrent 3-dimensional fully convolutional network for hyperspectral image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2975629B2 (en) * 1990-03-26 1999-11-10 株式会社東芝 Image recognition device
JPH07262355A (en) * 1994-03-18 1995-10-13 Fuji Electric Co Ltd Image monitoring device
JP3639520B2 (en) * 2000-11-07 2005-04-20 日本電信電話株式会社 Moving image learning method and recording medium recording this program
JP4012200B2 (en) * 2004-12-28 2007-11-21 株式会社東芝 Object detection method, apparatus, and program

Also Published As

Publication number Publication date
JP2011096072A (en) 2011-05-12

Similar Documents

Publication Publication Date Title
US10540586B2 (en) Method and system for tracking an object
US10599228B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP4767595B2 (en) Object detection device and learning device thereof
EP3092619B1 (en) Information processing apparatus and information processing method
US7957560B2 (en) Unusual action detector and abnormal action detecting method
US8218819B2 (en) Foreground object detection in a video surveillance system
US9008365B2 (en) Systems and methods for pedestrian detection in images
US20180114071A1 (en) Method for analysing media content
US8374393B2 (en) Foreground object tracking
US8837773B2 (en) Apparatus which detects moving object from image and method thereof
CN108171196B (en) Face detection method and device
KR20160096460A (en) Recognition system based on deep learning including a plurality of classfier and control method thereof
WO2009109127A1 (en) Real-time body segmentation system
CN111191535B (en) Pedestrian detection model construction method based on deep learning and pedestrian detection method
JP2007156655A (en) Variable region detection apparatus and its method
CN111783665A (en) Action recognition method and device, storage medium and electronic equipment
JPWO2012046426A1 (en) Object detection apparatus, object detection method, and object detection program
EP3776464A1 (en) Method, system and computer readable medium for integration and automatic switching of crowd estimation techniques
JP5241687B2 (en) Object detection apparatus and object detection program
KR20060121503A (en) Apparatus and method for tracking salient human face in robot surveillance
Muhammad et al. Domain generalization via ensemble stacking for face presentation attack detection
KR20130067758A (en) Apparatus and method for detecting human by using svm learning
Grabner et al. Time Dependent On-line Boosting for Robust Background Modeling.
JP4741036B2 (en) Feature extraction device, object detection device, feature extraction method, and object detection method
US20220222940A1 (en) Methods of real-time spatio-temporal activity detection and categorization from untrimmed video segments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5241687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250