JP5241687B2 - Object detection apparatus and object detection program - Google Patents
Object detection apparatus and object detection program Download PDFInfo
- Publication number
- JP5241687B2 JP5241687B2 JP2009250584A JP2009250584A JP5241687B2 JP 5241687 B2 JP5241687 B2 JP 5241687B2 JP 2009250584 A JP2009250584 A JP 2009250584A JP 2009250584 A JP2009250584 A JP 2009250584A JP 5241687 B2 JP5241687 B2 JP 5241687B2
- Authority
- JP
- Japan
- Prior art keywords
- change
- target
- likelihood
- detection
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
この発明は、画像中から特定の対象物体を検出する物体検出装置及び物体検出プログラムに関するものである。 The present invention relates to an object detection apparatus and an object detection program for detecting a specific target object from an image.
例えば、非特許文献1に記載の人物追跡方法では、人物検出器の学習をオンラインとオフラインで行っている。この方法では、人物検出結果が得られた後、次回の人物検出を行う際に、検出結果周辺の画像領域から正事例及び負事例の学習データを生成し、これら学習データを用いて、事前のオフライン学習時に求めておいた人物検出器データベースの中から最適なパラメータを持つ人物検出器を求める(オンライン学習)。そして、選択した最適なパラメータを持つ人物検出器を用いて、次回の人物検出を行う。 For example, in the person tracking method described in Non-Patent Document 1, learning of a person detector is performed online and offline. In this method, after the person detection result is obtained, when performing the next person detection, learning data of positive cases and negative cases is generated from the image region around the detection result, and the learning data is used to generate the preliminary data. A person detector having an optimum parameter is obtained from the person detector database obtained during offline learning (online learning). Then, the next person detection is performed using the person detector having the selected optimum parameter.
従来の人物追跡方法は以上のように構成されているので、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことが困難であるという課題があった。 Since the conventional person tracking method is configured as described above, it is difficult to perform robust object detection against appearance fluctuations caused by lighting environment and posture fluctuations, and environmental fluctuations under complicated backgrounds. There was a problem of being.
この課題を具体的に説明すると、非特許文献1の場合、アピアランス変動に対するロバスト性に関しては、人物検出結果に基づいて収集した検出対象の正事例及び負事例を用いて、検出結果に対して最適なパラメータを持つ人物検出器を事前にオフライン学習した人物検出器群の中から選択して求める。このため、事前に、全ての想定されるアピアランス変動に対するオフライン学習を行っておく必要がある。さらに、次フレームの人物検出時には、現在の検出結果を用いてオンライン学習した人物検出器を用いることになるため、フレーム間での人物のアピアランス変化が大きい場合には、検出が失敗することになる。 Specifically, in the case of Non-Patent Document 1, the robustness with respect to appearance variation is optimal for the detection result using the positive case and the negative case of the detection target collected based on the person detection result. A person detector having various parameters is selected from a group of person detectors learned offline in advance. For this reason, it is necessary to perform offline learning for all assumed appearance fluctuations in advance. In addition, when detecting a person in the next frame, a person detector that has been learned online using the current detection result is used. Therefore, if the appearance change of the person between frames is large, the detection fails. .
また、環境変動に対するロバスト性に関しては、一般に、背景の複雑さが、人物の背景からの識別の困難さに直結する。このため、予測できない複雑な背景下では、人物検出性能が低下する。ここで、非特許文献1の場合、初期検出時に、人物がどのような照明環境下及び背景下にいるかを想定することが不可能であるため、オンライン学習を進めるために必要な初期の人物検出を安定して行うことができない。 In terms of robustness against environmental fluctuations, in general, the complexity of the background is directly related to the difficulty of identifying the person from the background. For this reason, the human detection performance deteriorates under a complicated background that cannot be predicted. Here, in the case of Non-Patent Document 1, since it is impossible to assume under what lighting environment and background the person is at the time of initial detection, the initial person detection necessary for proceeding with online learning is possible. Cannot be performed stably.
さらに、従来のように、事前学習した人物検出器を用いて人物検出を行う場合、アピアランス変動及び環境変動を持つ人物の検出率を上げるために、例えば、画像に対象人物が存在するか否かを判定するための判定用閾値を下げることで対応することになる。しかし、閾値を下げると、検出率が上がると同時に検出対象以外の物体を検出してしまう誤検出率も上がってしまうという問題があった。このように、一般的に、あらゆるアピアランス変動及び環境変動に対して高い検出率を実現しようとした場合、誤検出率の増加が避けられなかった。 Furthermore, when performing human detection using a person detector that has been learned in advance as in the past, in order to increase the detection rate of persons with appearance fluctuations and environmental fluctuations, for example, whether or not the target person exists in the image This can be dealt with by lowering the threshold value for determination. However, when the threshold value is lowered, there is a problem that the detection rate increases, and at the same time, the false detection rate for detecting an object other than the detection target increases. As described above, generally, when a high detection rate is to be realized with respect to all appearance fluctuations and environmental fluctuations, an increase in the false detection rate is unavoidable.
この発明は、上記のような課題を解決するためになされたもので、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことを目的とする。 The present invention has been made in order to solve the above-described problems, and performs object detection that is robust against appearance fluctuations caused by illumination environment and attitude fluctuations, and environmental fluctuations under complex backgrounds. For the purpose.
この発明に係る物体検出装置は、映像中の変化領域を抽出する変化領域抽出部と、映像中の非変化領域を抽出する非変化領域抽出部と、変化領域及び非変化領域のデータを用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器を生成する学習部と、変化対象検出器を用いて、映像中の任意画像領域の変化領域らしさを表す尤度を算出する対象尤度算出部と、対象尤度算出部が算出した尤度を閾値と比較して、任意画像領域から検出対象物体を検出する尤度判定部とを備えるものである。 An object detection apparatus according to the present invention uses a change area extraction unit that extracts a change area in a video, a non-change area extraction unit that extracts a non-change area in a video, and data of the change area and the non-change area. A learning unit that learns the characteristics of a change area that is considered to contain a detection target object and generates a change target detector, and a likelihood that represents the likelihood of the change area of an arbitrary image area in the video using the change target detector And a likelihood determination unit that detects a detection target object from an arbitrary image region by comparing the likelihood calculated by the target likelihood calculation unit with a threshold value.
また、この発明に係る物体検出装置は、映像中の変化領域を抽出する変化領域抽出部と、映像中の非変化領域を抽出する非変化領域抽出部と、変化領域及び非変化領域のデータを用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器を生成する学習部と、変化対象検出器を用いて、映像中の任意画像領域の検出対象物体らしさを表す尤度を算出する第1の対象尤度算出部と、予め検出対象物体の特徴を学習した物体検出器を用いて、任意画像領域の検出対象物体らしさを表す尤度を算出する第2の対象尤度算出部と、第1及び第2の対象尤度算出部がそれぞれ算出した尤度を結合する結合尤度算出部と、結合尤度算出部が算出した結合尤度を閾値と比較して、任意画像領域から検出対象物体を検出する結合尤度判定部とを備えるものである。 The object detection apparatus according to the present invention includes a change area extraction unit that extracts a change area in a video, a non-change area extraction unit that extracts a non-change area in a video, and data of the change area and the non-change area. Using a learning unit that learns the characteristics of a change area that is considered to contain a detection target object and generates a change target detector, and using the change target detector, the likelihood of a detection target object in an arbitrary image area in a video is obtained. A first target likelihood calculating unit that calculates a likelihood to represent, and an object detector that has previously learned the characteristics of the detection target object, and calculates a likelihood that represents the likelihood of the detection target object in the arbitrary image region. The target likelihood calculating unit, the combined likelihood calculating unit that combines the likelihoods calculated by the first and second target likelihood calculating units, and the combined likelihood calculated by the combined likelihood calculating unit are compared with a threshold value. The combined likelihood of detecting the object to be detected from an arbitrary image area It is intended and a tough.
また、この発明に係る物体検出プログラムは、コンピュータを、映像中の変化領域を抽出する変化領域抽出手段と、映像中の非変化領域を抽出する非変化領域抽出手段と、検出対象物体を含むと考えられる変化領域及び非変化領域のデータを用いて、変化領域の特徴を学習して変化対象検出器を生成する学習手段と、変化対象検出器を用いて、映像中の任意画像領域の変化領域らしさを表す尤度を算出する対象尤度算出手段と、対象尤度算出手段が算出した尤度を閾値と比較して、任意画像領域から検出対象物体を検出する尤度判定手段として機能させるものである。 An object detection program according to the present invention includes a computer including a change area extraction unit that extracts a change area in a video, a non-change area extraction unit that extracts a non-change area in a video, and a detection target object. Learning means for learning the characteristics of a change area using data of possible change areas and non-change areas and generating a change target detector, and a change area of an arbitrary image area in a video using the change target detector A target likelihood calculating means for calculating likelihood representing likelihood, and a likelihood determining means for detecting a detection target object from an arbitrary image region by comparing the likelihood calculated by the target likelihood calculating means with a threshold It is.
また、この発明に係る物体検出プログラムは、コンピュータを、映像中の変化領域を抽出する変化領域抽出手段と、映像中の非変化領域を抽出する非変化領域抽出手段と、検出対象物体を含むと考えられる変化領域及び非変化領域のデータを用いて、変化領域の特徴を学習して変化対象検出器を生成する学習手段と、変化対象検出器を用いて、映像中の任意画像領域の検出対象物体らしさを表す尤度を算出する第1の対象尤度算出手段と、予め検出対象物体の特徴を学習した物体検出器を用いて、任意画像領域の検出対象物体らしさを表す尤度を算出する第2の対象尤度算出手段と、第1及び第2の対象尤度算出手段でそれぞれ算出した尤度を結合する結合尤度算出手段と、結合尤度算出手段で算出した結合尤度を閾値と比較して、任意画像領域から検出対象物体を検出する結合尤度判定手段として機能させるものである。
An object detection program according to the present invention includes a computer including a change area extraction unit that extracts a change area in a video, a non-change area extraction unit that extracts a non-change area in a video, and a detection target object. Learning means for generating a change target detector by learning features of the change area using data of possible change areas and non-change areas, and a detection target of an arbitrary image area in the video using the change target detector Using a first target likelihood calculating unit that calculates a likelihood that represents object-likeness and an object detector that has previously learned the characteristics of the detection target object, the likelihood that represents the detection target object-likeness of an arbitrary image region is calculated. The second target likelihood calculating means, the combined likelihood calculating means for combining the likelihoods calculated by the first and second target likelihood calculating means, and the combined likelihood calculated by the combined likelihood calculating means are set as threshold values. Any image compared to It is intended to function as a joint likelihood determination means for detecting the detection target object from the frequency.
この発明によれば、検出対象物体は映像中で動いていることが多いという事実から変化領域を検出対象物体と仮定して、映像中の変化領域と非変化領域を用いて変化対象検出器を生成し、この変化対象検出器を用いて物体検出を行うようにしたので、変化領域をアピアランス変動及び環境変動に対してロバストに抽出でき、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことができる。 According to the present invention, the change target detector is assumed to be a detection target object from the fact that the detection target object is often moving in the video, and the change target detector is used using the change region and the non-change region in the video. Since the object is detected using this change target detector, the change area can be extracted robustly to the appearance fluctuation and the environment fluctuation, and the appearance fluctuation caused by the lighting environment and the attitude fluctuation and the complicated It is possible to perform object detection that is robust against environmental fluctuations under a rough background.
また、この発明によれば、検出対象物体は映像中で動いていることが多いという事実から変化領域を検出対象物体と仮定して、映像中の変化領域と非変化領域を用いて変化対象検出器を生成し、この変化対象検出器と事前学習した物体検出器とを用いて物体検出を行うようにしたので、変化領域をアピアランス変動及び環境変動に対してロバストに抽出でき、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことができる。 Further, according to the present invention, it is assumed that the detection target object is moving in the video, and the change target is detected using the change region and the non-change region in the video, assuming the change region as the detection target object. Since the object is detected using this change target detector and the pre-learned object detector, the change area can be extracted robustly to appearance fluctuations and environmental fluctuations, and the lighting environment and posture Robust object detection can be performed against appearance fluctuations caused by fluctuations and the like, and environmental fluctuations under a complicated background.
実施の形態1.
図1は、この発明の実施の形態1に係る物体検出装置の構成を示すブロック図である。図1に示す物体検出装置は、映像中から物体を検出するための前処理として学習処理を行う映像入力部1、変化領域検出部2、変化領域抽出部3、非変化領域抽出部4、学習データ5、学習部6と、学習処理後に映像中から物体を検出する検出処理を行う変化対象検出器7、画像走査部8、対象尤度算出部(第1の対象尤度算出部)9、物体検出器10、対象尤度算出部(第2の対象尤度算出部)11、結合尤度算出部12、結合尤度判定部13とを備える。
Embodiment 1 FIG.
1 is a block diagram showing a configuration of an object detection apparatus according to Embodiment 1 of the present invention. The object detection apparatus shown in FIG. 1 includes a video input unit 1, a change
映像入力部1は、カメラ等から出力される映像信号を受け付けて、変化領域検出部2へ出力する。
変化領域検出部2は、背景差分及びオプティカルフロー等(田村秀行「コンピュータ画像処理」オーム社、2002)を用いて、映像信号の各画像(フレーム)中から変化する画像領域を検出して、検出変化領域とする。図2は、変化領域検出部2の変化領域検出方法を説明する図であり、図2(a)はオプティカルフローを用いた場合、図2(b)は背景差分を用いた場合を示す。図2(a)に示すように、変化領域検出部2は、映像信号中の現フレーム21(t=t0)と次フレーム22(t=t1)からオプティカルフロー23を抽出し、オプティカルフロー23を用いて検出変化領域24を検出する。また、図2(b)に示すように、変化領域検出部2は、映像信号中の背景画像25と現フレーム26(t=t0)の差分を検出変化領域27として検出する。なお、検出変化領域の抽出は、アピアランス変動及び環境変動に対してロバストである。
The video input unit 1 receives a video signal output from a camera or the like and outputs it to the change
The change
変化領域抽出部3は、変化領域検出部2が検出した画像中の検出変化領域のうち、以下のような領域を変化領域として抽出し学習データ5に追加する。後述する画像走査部8による画像ピラミッドの縮小比率を1/s0、同じく後述する物体検出器10のサイズを幅w0ピクセル、高さh0ピクセルとすると、変化領域抽出部3は、変化領域検出部2で得られた幅wピクセル、高さhピクセルの検出変化領域から、h/h0≒w/w0≒s0n(n=0,1,2,・・・,N)となるnを求め、幅w0×s0nピクセル、高さh0×snピクセルの領域を抽出して変化領域とする。
The change
他方、非変化領域抽出部4は、変化領域検出部2が検出した画像中の検出変化領域を全く含まない領域を非変化領域として取り出して、学習データ5に追加する。また、非変化領域抽出部4は、検出変化領域を一部に含む領域を非変化領域として取り出して、学習データ5に追加してもよい。変化領域抽出部3と同様に、後述する画像走査部8による画像ピラミッドの縮小比率を1/s0、同じく後述する物体検出器10のサイズを幅w0ピクセル、高さh0ピクセルとして、非変化領域抽出部4は、非変化領域のサイズ(幅w×高さh)を基本サイズから変化させてh=h0×s0n、w=w0×s0n(n=0,1,2,・・・,N)にしてその位置を画像中で移動させ、任意の位置と任意の大きさの非変化領域を抽出する。
On the other hand, the non-change region extraction unit 4 extracts a region that does not include any detected change region in the image detected by the change
図3は、画像中の変化領域と非変化領域の例を示す図である。図3に例示した画像では、変化領域抽出部3が変化領域31を抽出し、非変化領域抽出部4が変化領域31を部分的に含む領域である非変化領域41,42と、変化領域31をまったく含まない領域である非変化領域43,44とを抽出する。
FIG. 3 is a diagram illustrating an example of a change area and a non-change area in an image. In the image illustrated in FIG. 3, the change
学習部6は、変化領域(図3の例では変化領域31)を正事例、非変化領域(図3の例では非変化領域41〜44)を負事例の学習データ5に用いて変化領域の特徴を学習した変化対象検出器7を生成する。学習部6は、例えば、学習データ5に蓄積された正事例の個数が所定個数以上になった場合に学習を完了する。学習部6が用いる学習アルゴリズムとしては、例えば、Support Vector Machine(Vladimir Vapnik「Statistical Learning Theory」Wiley、NY、1998)等を使うことができる。
The
以上より、変化対象検出器7が生成される。変化領域の特徴を学習した変化対象検出器7を生成するのは、検出対象物体が映像中で動いていることが多いという事実に基づき、変化領域が検出対象物体を含むと考えられるためである。よって、この変化対象検出器7は、画像中から、対象物体が含まれる変化領域、即ち対象物体を検出する。また、変化領域の抽出は、アピアランス変動及び環境変動に対してロバストであるため、生成した変化対象検出器7もアピアランス変動及び環境変動に対してロバストである。また、この変化対象検出器7は計算負荷が低い。これは、変化対象検出器7が物体検出器10の補助的役割を果すので求められる検出精度が低く、従って、計算負荷が低い処理方法を用いることができるためである。
As described above, the
次に、生成した変化対象検出器7を用いた物体検出処理を説明する。
画像走査部8は、映像信号中の各画像に対して走査ウィンドウを移動させていく。図4は、画像走査部8の画像走査方法を説明する図である。図4に示すように、画像走査部8は、原画像81に対して走査ウィンドウ(任意画像領域)84を移動させていくと共に、逐次画像縮小処理を行って縮小画像82,83を生成し、縮小画像82,83に対しても同様に走査ウィンドウ84を移動させていく。なお、画像縮小処理において、画像ピラミッドの縮小比率は上述したように1/s0とする。
Next, an object detection process using the generated
The
対象尤度算出部9は、画像を移動する走査ウィンドウに対して、学習部6が生成した変化対象検出器7をかけて得られる対象尤度P(v)を算出する。変化領域を対象物体と仮定しているので、この対象尤度P(v)は、変化対象検出器7から求まる対象物体らしさを示す。検出器を用いた尤度の算出方法としては、Thierryらの手法(Thierry Chatuau、Vincent Gay−Belille、Frederic Chausse、and Jean−Thierry Lapreste「Realtime tracking with classifiers」In Proc.of International Workshop on Dynamical Vision in conjunction with ECCV、2006)を使うことができる。
対象尤度算出部9が走査ウィンドウ内から対象物体を検出する際、走査ウィンドウが原画像のみならず縮小画像も移動するので、大きさの異なる対象物体を検出することができる。
なお、対象尤度算出部9が対象尤度P(v)を算出する際、学習部6が変化対象検出器7の学習を完了していない場合は、対象尤度P(v)を「1」として出力する。
The target
When the target
When the target
物体検出器10は、対象物体を含むサンプル画像データを用いて事前に求めておいた検出器であり、対象物体そのものを検出する検出器である。この物体検出器10は従来の物体検出に用いられる物体検出器であり、一般的に、計算負荷が高く、また、アピアランス変動及び環境変動に弱い。物体検出器10の計算負荷が高いのは、画像ピラミッドのように画像の大きさを変え、かつ、各異なる大きさの画像内を全走査することにより、のべ検出処理回数が多くなるためである。物体検出器10は、一回の検出処理あたり、複数個のフィルタを適用したフィルタ出力値を計算し、この出力値を識別関数で処理する。この際、フィルタ計算関数は、計算量が多い複雑な関数が用いられることが多いため、結果として、物体検出器10がのべ検出処理回数が多く、かつ、各検出処理時の計算量も多くなり、計算負荷が高くなる。
The
事前に求める対象物体の検出アルゴリズムとしては、Violaらの手法(P.Viola、M.Jones、D.Snow「Detecting Prestrains Using Patterns of Motion and Appearance」IEEE International Conference on Computer Vision(ICCV)、Vol.2,pp.734〜741、October 2003)等を用いることができる。 As a detection algorithm of a target object to be obtained in advance, a technique of Viola et al. , Pp. 734 to 741, October 2003) or the like.
対象尤度算出部11は、画像中を移動する走査ウィンドウに対して事前に求めておいた物体検出器10をかけて得られる対象尤度P(D)を算出する。この対象尤度P(D)は、走査ウィンドウ内の画像に、対象物体が含まれるかどうかを示す。なお、本実施の形態1では、対象尤度算出部9が同一の走査ウィンドウに対して変化対象検出器7を適用して対象尤度P(v)を算出した後、対象尤度算出部11が条件付確率として物体検出器10を用いて対象尤度P(D|v)を求める。
The target
結合尤度算出部12は、同一の走査ウィンドウについて、対象尤度算出部9が算出した対象尤度と、対象尤度算出部11が算出した対象尤度とを用いて、結合尤度P(D,v)=P(D|v)×p(v)を求める。
The combined
結合尤度判定部13は、結合尤度算出部12が算出した結合尤度が、所定の閾値以上の場合には対象物体「検出」の結果を出力する。他方、結合尤度が閾値以下の場合には対象物体「未検出」の結果を出力する。
変化領域の抽出はアピアランス変動及び環境変動に対してロバストであり、また、検出対象となる物体は映像中で動いていることが多いという事実に基づいて学習部6が変化対象検出器7を生成するので、この変化対象検出器7を用いることで、画像中の走査ウィンドウに対して、変化領域に注目した、アピアランス変動及び環境変動にロバストな検出対象らしさの尤度算出を実現できる。
また、走査ウィンドウに対して変化対象検出器7を適用して対象尤度を算出した後、条件付確率として物体検出器10を用いて対象尤度を求め、変化対象検出器7と物体検出器10とを用いた同時確率を対象尤度とした物体検出を行うことで、従来の物体検出器10だけを用いた際に起きる誤検出率の増加を起こすことなく、アピアランス変動及び環境変動に対してロバストな物体検出が可能となる。
The combined
The change area extraction is robust against appearance fluctuations and environmental fluctuations, and the
Further, after calculating the target likelihood by applying the
以上より、実施の形態1によれば、映像入力部1から入力した映像中から変化する画像領域を検出して検出変化領域とする変化領域検出部2と、変化領域検出部2の検出変化領域を用いて、映像中の変化領域を抽出する変化領域抽出部3と、映像中の非変化領域を抽出する非変化領域抽出部4と、抽出された変化領域及び非変化領域を蓄積した学習データ5を用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器7を生成する学習部6と、変化対象検出器7を用いて、画像走査部8が映像中を移動させる走査ウィンドウから変化領域らしさを表す対象尤度を算出する対象尤度算出部9と、予め検出対象物体の特徴を学習した物体検出器10を用いて、走査ウィンドウから検出対象物体らしさを表す対象尤度を算出する対象尤度算出部11と、対象尤度算出部9,11がそれぞれ算出した対象尤度を結合する結合尤度算出部12と、結合尤度算出部12が算出した結合尤度を閾値と比較して、走査ウィンドウから検出対象物体を検出する結合尤度判定部13とを備えるように構成した。
このため、アピアランス変動及び環境変動に対してロバストに抽出される変化領域であって、検出対象が含まれるであろう変化領域に着目した変化対象検出器7と、事前学習した物体検出器10とから得られる各対象尤度を結合した結合尤度を用いて物体検出を行うことができ、この結果、照明環境及び姿勢変動等に起因するアピアランス変動、並びに複雑な背景下等での環境変動に対してロバストな物体検出を行うことができる。
As described above, according to the first embodiment, the change
For this reason, a
なお、上記実施の形態1の物体検出器10として、対象物体の部分的な領域を検出する部分物体検出器を用いる構成にしてもよい。この構成の場合には、対象尤度算出部11は、画像走査部8の走査ウィンドウ内の画像に対して部分物体検出器をかけて得られる尤度を算出する。
The
実施の形態2.
図5は、この発明の実施の形態2に係る物体検出装置の構成を示すブロック図であり、図1と同一又は相当の部分については同一の符号を付し説明を省略する。本実施の形態2の物体検出装置は、上記実施の形態1の物体検出装置に新たに変化特性選択部14を追加した構成であり、変化特性選択部14がある点が異なる。
FIG. 5 is a block diagram showing a configuration of an object detection apparatus according to
物体検出において、検出対象とする物体の動きが予め分かっているケースは多い。そこで、変化特性選択部14は、変化領域検出部2が検出した変化領域のうち、対象物体が有する特性に一致する変化領域のみを選択して、変化領域抽出部3へ出力する。
図6は、変化特性選択部14の変化特性選択方法を説明する図である。例えば、横断歩道を渡る人物を対象物体として検出する場合、図6(a)に示すように、変化特性選択部14は動き方向特性に関して左右方向のみの動きを持つ変化領域を、選択特性領域141として選択する。
また、例えば、遠方から撮影したカメラの映像から、路上を歩く歩行者を対象物体として検出する場合、図6(b)に示すように、変化特性選択部14は面積・位置特性に関して地面近くに相当する範囲内で検出された変化領域のみを選択特性領域142として選択し、それ以外の変化領域は除外特性領域143,144とする。
また、例えば、歩行者を対象物体として検出する場合、図6(c)に示すように、変化特性選択部14は縦横比特性に関して所定の縦横比の変化領域を選択特性領域145として選択し、それ以外の変化領域は除外特性領域146とする。
なお、変化特性選択部14は、このような種々の特性を複数組み合わせて、該当する変化領域を選択してもよい。
In object detection, there are many cases where the motion of an object to be detected is known in advance. Therefore, the change characteristic selection unit 14 selects only the change region that matches the characteristic of the target object from the change regions detected by the change
FIG. 6 is a diagram for explaining a change characteristic selection method of the change characteristic selection unit 14. For example, when a person crossing a pedestrian crossing is detected as a target object, as shown in FIG. 6A, the change characteristic selection unit 14 selects a change area having only a left-right movement with respect to the movement direction characteristic. Choose as.
Further, for example, when detecting a pedestrian walking on the road as a target object from a camera image taken from a distance, as shown in FIG. 6B, the change characteristic selection unit 14 is close to the ground with respect to area / position characteristics. Only the change area detected within the corresponding range is selected as the selection
Further, for example, when detecting a pedestrian as a target object, as shown in FIG. 6C, the change characteristic selection unit 14 selects a change area of a predetermined aspect ratio as the selection
Note that the change characteristic selection unit 14 may select a corresponding change area by combining a plurality of such various characteristics.
変化特性選択部14が選択特性領域として選択した変化領域は、変化領域抽出部3へ出力され、変化領域抽出部3によって学習データ5に追加される。一方、変化特性選択部14が除外特性領域として選択した変化領域は、変化領域抽出部3へは出力されないため、学習データ5に追加されることはない。従って、検出対象と同じ特性を有する変化領域を含んだ学習データ5に基づいて、検出対象のみを含む変化領域を検出するための変化対象検出器7を生成することができる。この変化対象検出器7を物体検出器10と組み合わせることにより、高精度の物体検出を実現できる。
The change region selected by the change property selection unit 14 as the selection property region is output to the change
以上より、実施の形態2によれば、変化領域抽出部3が抽出した変化領域のうち、所定の特性を持つ変化領域を選択する変化特性選択部14を備え、学習部6は、変化特性選択部14が選択した変化領域及び非変化領域抽出部4が抽出した非変化領域を蓄積した学習データ5を用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器7を生成するように構成した。このため、変化特性選択部14が、検出対象以外の物体が存在する変化領域を学習データ5に追加することを防止するので、対象物体以外が存在する変化領域の特徴を持つ変化対象検出器7が生成されることを防止でき、この結果、高精度の変化対象検出器7の生成を実現できる。そのため、アピアランス変動及び環境変動に対してロバストな、高精度の物体検出を実現できる。
As described above, according to the second embodiment, the
実施の形態3.
図7は、この発明の実施の形態3に係る物体検出装置の構成を示すブロック図であり、図1と同一又は相当の部分については同一の符号を付し説明を省略する。本実施の形態3の物体検出装置は、上記実施の形態1の物体検出装置に新たにクラスタリング部15、対象クラスタ選択部16及び物体サンプルデータ17を追加した構成であり、これらの構成がある点が異なる。
FIG. 7 is a block diagram showing the configuration of the object detection apparatus according to
クラスタリング部15は、学習データ5のうち、変化領域抽出部3が出力した変化領域のデータに対してクラスタリング処理を行い、変化領域を複数のクラスタ(=物体クラス)に分類する。クラスタリング処理の手法としては、例えばk−meanクラスタリング(田村秀行「コンピュータ画像処理」オーム社、2002)を用いることができる。
The
対象クラスタ選択部16は、物体サンプルデータ17を用いて検出対象となる物体クラスの対象クラスタを選択し、学習データ5のうち、この対象クラスタに含まれる変化領域を正事例として学習部6に通知する。
The target
学習部6は、学習データ5のうち、負事例については非変化領域をそのまま学習に用い、正事例については対象クラスタ選択部16から通知された変化領域のみを学習に用いて、変化対象検出器7を生成する。
The
物体サンプルデータ17には、検出候補として複数の物体クラスのサンプルデータを用意しておく。そして、上述したように、対象クラスタ選択部16が分類した物体クラスを物体サンプルデータ17に応じて切り替えることで、複数の物体クラスに対応することができる。例えば、上記実施の形態2では縦横比特性を用いて図6(c)の画像から人に相当する変化領域を選択特性領域145にして学習データ5に追加し、犬に相当する変化領域を除外特性領域146として学習データ5から除外していた。これに対して、本実施の形態3では、人及び犬の2つの物体クラスを物体サンプルデータ17に登録しておき、学習データ5に人及び犬に相当する変化領域を区別して追加することで、学習部6が人及び犬の2つの物体に対応した変化対象検出器7を生成する。
In the
以上より、実施の形態3によれば、変化領域抽出部3が抽出した変化領域をクラスタリング処理により物体クラスに分類するクラスタリング部15と、検出対象物体を示す物体サンプルデータ17を用いて、当該検出対象物体に対応する物体クラスに分類された変化領域を選択する対象クラスタ選択部16とを備え、学習部6は、対象クラスタ選択部16が選択した変化領域及び非変化領域抽出部4が抽出した非変化領域のデータを用いて、検出対象物体を含むと考えられる変化領域の特徴を学習して変化対象検出器7を生成するように構成した。このため、対象クラスタ選択部16が、検出対象以外の物体クラスが存在する変化領域を学習データ5に追加することを防止するので、対象物体以外が存在する変化領域の特徴を持つ変化対象検出器7が生成されることを防止でき、この結果、高精度の変化対象検出器7の生成を実現できる。そのため、アピアランス変動及び環境変動に対してロバストな、高精度の物体検出を実現できる。
As described above, according to the third embodiment, the detection is performed using the
なお、上記実施の形態1の物体検出装置は、変化対象検出器7、物体検出器10、変化対象検出器7を用いて対象尤度を算出する対象尤度算出部9、物体検出器10を用いて対象尤度を算出する対象尤度算出部11、各対象尤度を結合する結合尤度算出部12、及び、結合した結合尤度を用いて閾値判定する結合尤度判定部13を備える構成であったが、物体検出器10、対象尤度算出部11及び結合尤度算出部12を備えず、変化対象検出器7、対象尤度算出部9、及び、対象尤度算出部9の対象尤度のみを用いて閾値判定する結合尤度判定部13(尤度判定部)を備える構成であってもよい。
学習部6は対象物体以外が存在する変化領域も正事例として学習する可能性があるため、この構成の場合には、対象物体以外が存在する変化領域の特徴も持つ変化対象検出器7が生成される可能性がある。ただし、変化領域の抽出自体は環境変動及びアピアランス変動に対してロバストなので、変化対象検出器7のみ用いた物体検出も環境変動及びアピアランス変動に対してロバストである。
The object detection apparatus of the first embodiment includes the
Since there is a possibility that the
なお、この構成を上記実施の形態2に適用した場合には、変化特性選択部14が、検出対象以外の物体が変化領域に含まれることを防止するので、対象物体以外が存在する変化領域の特徴を持つ変化対象検出器7が生成されることを防止でき、高精度の変化対象検出器7を生成可能となる。
Note that when this configuration is applied to the second embodiment, the change characteristic selection unit 14 prevents an object other than the detection target from being included in the change area. It is possible to prevent the
また、この構成を上記実施の形態3に適用した場合には、対象クラスタ選択部16が、検出対象以外の物体が変化領域に含まれることを防止するので、対象物体以外が存在する変化領域の特徴を持つ変化対象検出器7が生成されることを防止でき、高精度の変化対象検出器7を生成可能となる。
In addition, when this configuration is applied to the third embodiment, the target
また、上記実施の形態1〜3の物体検出装置において、画像走査部8を変化対象検出器7aに置き換える構成にすることもできる。図8は、実施の形態1に係る物体検出装置において画像走査部8を変化対象検出器7aに置き換えた構成を示すブロック図である。この変化対象検出器7aは、変化対象検出器7と同様の機能を有する。また、これらの変化対象検出器7,7aを、物体検出器10の補助的な検出器として用いる。そのため、変化対象検出器7,7aに求められる検出精度は低く、従って、計算負荷が低い処理を用いることができる。
前述したように、物体検出装置の各部の処理は学習処理と検出処理とに分けられるが、図8の物体検出装置の場合には学習部6での学習が終了し、変化対象検出器7,7aが生成された際に検出処理が適用可能であるものとする。検出処理において、画像走査部8の代わりに変化対象検出器7aを用いることにより、低い計算負荷で画像中から対象物体が含まれる変化領域、即ち対象物体を検出することができる。そして、変化対象検出部7を、より高精度の物体検出器10と組み合わせることにより、低計算負荷かつ高精度の物体検出を実現することができる。
このように、対象物体の検出時に、変化対象検出部7,7aを組み合わせることにより、変化対象検出部7が低い計算負荷で画像中から対象物体が含まれる変化領域、即ち対象物体を検出することができる。
なお、図示は省略するが、その他の実施の形態2,3の物体検出装置の画像走査部8を変化対象検出器7aに置き換えても、同様の効果を奏する。
Moreover, in the object detection apparatus of the said Embodiment 1-3, it can also be set as the structure which replaces the
As described above, the processing of each part of the object detection device is divided into learning processing and detection processing. However, in the case of the object detection device of FIG. It is assumed that the detection process can be applied when 7a is generated. In the detection process, by using the
As described above, when the target object is detected, by combining the change
Although illustration is omitted, the same effect can be obtained by replacing the
なお、物体検出装置をコンピュータで構成する場合、映像入力部1、変化領域検出部2、変化領域抽出部3、非変化領域抽出部4、学習部6、変化対象検出器7、画像走査部8、物体検出器10、対象尤度算出部9,11、結合尤度算出部12、及び結合尤度判定部13の処理内容を記述している物体検出プログラムをコンピュータのメモリに格納し、コンピュータのCPUがメモリに格納されている物体検出プログラムを実行するようにしてもよい。
When the object detection device is configured by a computer, the video input unit 1, the change
1 映像入力部、2 変化領域検出部、3 変化領域抽出部、4 非変化領域抽出部、5 学習データ、6 学習部、7,7a 変化対象検出器、8 画像走査部、9 対象尤度算出部(第1の対象尤度算出部)、10 物体検出器、11 対象尤度算出部(第2の対象尤度算出部)、12 結合尤度算出部、13 結合尤度判定部、14 変化特性選択部、15 クラスタリング部、16 対象クラスタ選択部、17 物体サンプルデータ、21 現フレーム、22 次フレーム、23 オプティカルフロー、24,27 検出変化領域、25 背景画像、26 現フレーム、31 変化領域、41〜44 非変化領域、141,142,145 選択特性領域、143,144,146 除外特性領域。 DESCRIPTION OF SYMBOLS 1 Image | video input part, 2 Change area detection part, 3 Change area extraction part, 4 Non-change area extraction part, 5 Learning data, 6 Learning part, 7, 7a Change object detector, 8 Image scanning part, 9 Object likelihood calculation Part (first target likelihood calculating part), 10 object detector, 11 target likelihood calculating part (second target likelihood calculating part), 12 joint likelihood calculating part, 13 joint likelihood determining part, 14 change Characteristic selection unit, 15 Clustering unit, 16 Target cluster selection unit, 17 Object sample data, 21 Current frame, 22nd frame, 23 Optical flow, 24, 27 Detection change area, 25 Background image, 26 Current frame, 31 Change area, 41-44 non-change area, 141, 142, 145 selection characteristic area, 143, 144, 146 exclusion characteristic area.
Claims (8)
映像中の非変化領域を抽出する非変化領域抽出部と、
前記変化領域及び前記非変化領域のデータを用いて、検出対象物体を含むと考えられる前記変化領域の特徴を学習して変化対象検出器を生成する学習部と、
前記変化対象検出器を用いて、映像中の任意画像領域の前記変化領域らしさを表す尤度を算出する対象尤度算出部と、
前記対象尤度算出部が算出した尤度を閾値と比較して、前記任意画像領域から前記検出対象物体を検出する尤度判定部とを備える物体検出装置。 A change area extraction unit for extracting a change area in the video;
A non-change area extraction unit for extracting non-change areas in the video;
A learning unit that learns features of the change region that is considered to include a detection target object using the data of the change region and the non-change region, and generates a change target detector;
A target likelihood calculation unit that calculates a likelihood representing the likelihood of the change region of an arbitrary image region in a video using the change target detector;
An object detection apparatus comprising: a likelihood determination unit that detects the detection target object from the arbitrary image region by comparing the likelihood calculated by the target likelihood calculation unit with a threshold value.
映像中の非変化領域を抽出する非変化領域抽出部と、
前記変化領域及び前記非変化領域のデータを用いて、検出対象物体を含むと考えられる前記変化領域の特徴を学習して変化対象検出器を生成する学習部と、
前記変化対象検出器を用いて、映像中の任意画像領域の前記検出対象物体らしさを表す尤度を算出する第1の対象尤度算出部と、
予め前記検出対象物体の特徴を学習した物体検出器を用いて、前記任意画像領域の前記検出対象物体らしさを表す尤度を算出する第2の対象尤度算出部と、
前記第1及び前記第2の対象尤度算出部がそれぞれ算出した尤度を結合する結合尤度算出部と、
前記結合尤度算出部が算出した結合尤度を閾値と比較して、前記任意画像領域から前記検出対象物体を検出する結合尤度判定部とを備える物体検出装置。 A change area extraction unit for extracting a change area in the video;
A non-change area extraction unit for extracting non-change areas in the video;
A learning unit that learns features of the change region that is considered to include a detection target object using the data of the change region and the non-change region, and generates a change target detector;
Using the change target detector, a first target likelihood calculating unit that calculates the likelihood representing the likelihood of the detection target object in an arbitrary image region in the video;
A second target likelihood calculation unit that calculates a likelihood representing the likelihood of the detection target object in the arbitrary image region using an object detector that has previously learned the characteristics of the detection target object;
A combined likelihood calculation unit that combines the likelihoods calculated by the first and second target likelihood calculation units, respectively;
An object detection apparatus comprising: a combination likelihood determination unit configured to detect the detection target object from the arbitrary image region by comparing the combination likelihood calculated by the combination likelihood calculation unit with a threshold value.
学習部は、前記変化特性選択部が選択した変化領域及び非変化領域抽出部が抽出した非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成することを特徴とする請求項1又は請求項2記載の物体検出装置。 A change characteristic selection unit that selects a change area having a predetermined characteristic among the change areas extracted by the change area extraction unit,
The learning unit learns the characteristics of the change region using the change region selected by the change characteristic selection unit and the non-change region data extracted by the non-change region extraction unit, and generates a change target detector. The object detection device according to claim 1, wherein the object detection device is a device.
検出対象物体のサンプルデータを用いて、当該検出対象物体に対応する物体クラスに分類された変化領域を選択する対象クラスタ選択部とを備え、
学習部は、前記対象クラスタ選択部が選択した変化領域及び非変化領域抽出部が抽出した非変化領域のデータを用いて、当該変化領域の特徴を学習して変化対象検出器を生成することを特徴とする請求項1又は請求項2記載の物体検出装置。 A clustering unit that classifies the change region extracted by the change region extraction unit into an object class by clustering processing;
Using a sample data of a detection target object, and a target cluster selection unit that selects a change region classified into an object class corresponding to the detection target object,
The learning unit learns the characteristics of the change region using the change region selected by the target cluster selection unit and the non-change region data extracted by the non-change region extraction unit, and generates a change target detector. The object detection device according to claim 1, wherein the object detection device is a device.
映像中の非変化領域を抽出する非変化領域抽出手段と、
検出対象物体を含むと考えられる前記変化領域及び前記非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成する学習手段と、
前記変化対象検出器を用いて、映像中の任意画像領域の前記変化領域らしさを表す尤度を算出する対象尤度算出手段と、
前記対象尤度算出手段が算出した尤度を閾値と比較して、前記任意画像領域から前記検出対象物体を検出する尤度判定手段として機能させるための物体検出プログラム。 A change area extraction means for extracting a change area in a video;
Non-change area extraction means for extracting non-change areas in the video;
Learning means for generating a change target detector by learning features of the change area using data of the change area and the non-change area considered to include a detection target object ;
Using the change target detector, target likelihood calculation means for calculating likelihood representing the change area likelihood of an arbitrary image area in a video,
An object detection program for comparing the likelihood calculated by the target likelihood calculating means with a threshold value and functioning as a likelihood determining means for detecting the detection target object from the arbitrary image region.
映像中の非変化領域を抽出する非変化領域抽出手段と、
検出対象物体を含むと考えられる前記変化領域及び前記非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成する学習手段と、
前記変化対象検出器を用いて、映像中の任意画像領域の前記検出対象物体らしさを表す尤度を算出する第1の対象尤度算出手段と、
予め前記検出対象物体の特徴を学習した物体検出器を用いて、前記任意画像領域の前記検出対象物体らしさを表す尤度を算出する第2の対象尤度算出手段と、
前記第1及び前記第2の対象尤度算出手段でそれぞれ算出した尤度を結合する結合尤度算出手段と、
前記結合尤度算出手段で算出した結合尤度を閾値と比較して、前記任意画像領域から前記検出対象物体を検出する結合尤度判定手段として機能させるための物体検出プログラム。 A change area extraction means for extracting a change area in a video;
Non-change area extraction means for extracting non-change areas in the video;
Learning means for generating a change target detector by learning features of the change area using data of the change area and the non-change area considered to include a detection target object ;
First target likelihood calculating means for calculating a likelihood representing the likelihood of the detection target object in an arbitrary image region in a video using the change target detector;
A second target likelihood calculating means for calculating a likelihood representing the likelihood of the detection target object in the arbitrary image region using an object detector that has previously learned the characteristics of the detection target object;
A combined likelihood calculating means for combining the likelihoods calculated by the first and second target likelihood calculating means,
An object detection program for comparing the combined likelihood calculated by the combined likelihood calculating means with a threshold value to function as a combined likelihood determining means for detecting the detection target object from the arbitrary image region.
学習手段は、前記変化特性選択手段で選択した変化領域及び非変化領域抽出手段で抽出した非変化領域のデータを用いて、前記変化領域の特徴を学習して変化対象検出器を生成することを特徴とする請求項5又は請求項6記載の物体検出プログラム。 A change characteristic selection means for selecting a change area having a predetermined characteristic among the change areas extracted by the change area extraction means,
The learning means learns the characteristics of the change area using the change area selected by the change characteristic selection means and the non-change area data extracted by the non-change area extraction means, and generates a change target detector. The object detection program according to claim 5 or 6, wherein
検出対象物体のサンプルデータを用いて、当該検出対象物体に対応する物体クラスに分類された変化領域を選択する対象クラスタ選択手段とを備え、
学習手段は、前記対象クラスタ選択手段で選択した変化領域及び非変化領域抽出手段で抽出した非変化領域のデータを用いて、当該変化領域の特徴を学習して変化対象検出器を生成することを特徴とする請求項5又は請求項6記載の物体検出プログラム。 Clustering means for classifying the change area extracted by the change area extraction means into an object class by clustering processing;
Using the sample data of the detection target object, the target cluster selection means for selecting the change area classified into the object class corresponding to the detection target object,
The learning means learns the characteristics of the change area using the change area selected by the target cluster selection means and the non-change area data extracted by the non-change area extraction means, and generates a change target detector. The object detection program according to claim 5 or 6, wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009250584A JP5241687B2 (en) | 2009-10-30 | 2009-10-30 | Object detection apparatus and object detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009250584A JP5241687B2 (en) | 2009-10-30 | 2009-10-30 | Object detection apparatus and object detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011096072A JP2011096072A (en) | 2011-05-12 |
JP5241687B2 true JP5241687B2 (en) | 2013-07-17 |
Family
ID=44112896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009250584A Active JP5241687B2 (en) | 2009-10-30 | 2009-10-30 | Object detection apparatus and object detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5241687B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101747216B1 (en) * | 2012-05-30 | 2017-06-15 | 한화테크윈 주식회사 | Apparatus and method for extracting target, and the recording media storing the program for performing the said method |
JP2018170001A (en) * | 2017-03-29 | 2018-11-01 | 西日本電信電話株式会社 | Video data processing apparatus, video data processing method, and computer program |
KR102197297B1 (en) * | 2019-09-27 | 2020-12-31 | 서울대학교산학협력단 | Change detection method using recurrent 3-dimensional fully convolutional network for hyperspectral image |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2975629B2 (en) * | 1990-03-26 | 1999-11-10 | 株式会社東芝 | Image recognition device |
JPH07262355A (en) * | 1994-03-18 | 1995-10-13 | Fuji Electric Co Ltd | Image monitoring device |
JP3639520B2 (en) * | 2000-11-07 | 2005-04-20 | 日本電信電話株式会社 | Moving image learning method and recording medium recording this program |
JP4012200B2 (en) * | 2004-12-28 | 2007-11-21 | 株式会社東芝 | Object detection method, apparatus, and program |
-
2009
- 2009-10-30 JP JP2009250584A patent/JP5241687B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011096072A (en) | 2011-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10540586B2 (en) | Method and system for tracking an object | |
US10599228B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
JP4767595B2 (en) | Object detection device and learning device thereof | |
EP3092619B1 (en) | Information processing apparatus and information processing method | |
US7957560B2 (en) | Unusual action detector and abnormal action detecting method | |
US8218819B2 (en) | Foreground object detection in a video surveillance system | |
US9008365B2 (en) | Systems and methods for pedestrian detection in images | |
US20180114071A1 (en) | Method for analysing media content | |
US8374393B2 (en) | Foreground object tracking | |
US8837773B2 (en) | Apparatus which detects moving object from image and method thereof | |
CN108171196B (en) | Face detection method and device | |
KR20160096460A (en) | Recognition system based on deep learning including a plurality of classfier and control method thereof | |
WO2009109127A1 (en) | Real-time body segmentation system | |
CN111191535B (en) | Pedestrian detection model construction method based on deep learning and pedestrian detection method | |
JP2007156655A (en) | Variable region detection apparatus and its method | |
CN111783665A (en) | Action recognition method and device, storage medium and electronic equipment | |
JPWO2012046426A1 (en) | Object detection apparatus, object detection method, and object detection program | |
EP3776464A1 (en) | Method, system and computer readable medium for integration and automatic switching of crowd estimation techniques | |
JP5241687B2 (en) | Object detection apparatus and object detection program | |
KR20060121503A (en) | Apparatus and method for tracking salient human face in robot surveillance | |
Muhammad et al. | Domain generalization via ensemble stacking for face presentation attack detection | |
KR20130067758A (en) | Apparatus and method for detecting human by using svm learning | |
Grabner et al. | Time Dependent On-line Boosting for Robust Background Modeling. | |
JP4741036B2 (en) | Feature extraction device, object detection device, feature extraction method, and object detection method | |
US20220222940A1 (en) | Methods of real-time spatio-temporal activity detection and categorization from untrimmed video segments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111012 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130402 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160412 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5241687 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |