JP2013117865A - Detection method for body and detection device for body using the method - Google Patents

Detection method for body and detection device for body using the method Download PDF

Info

Publication number
JP2013117865A
JP2013117865A JP2011265081A JP2011265081A JP2013117865A JP 2013117865 A JP2013117865 A JP 2013117865A JP 2011265081 A JP2011265081 A JP 2011265081A JP 2011265081 A JP2011265081 A JP 2011265081A JP 2013117865 A JP2013117865 A JP 2013117865A
Authority
JP
Japan
Prior art keywords
search range
image
hog feature
learning
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011265081A
Other languages
Japanese (ja)
Other versions
JP5901054B2 (en
Inventor
Seiji Ishikawa
聖二 石川
Yu Kui Tan
ジュークイ タン
Yusuke Ebara
悠介 江原
Takashi Morie
隆 森江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Original Assignee
Kyushu Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC filed Critical Kyushu Institute of Technology NUC
Priority to JP2011265081A priority Critical patent/JP5901054B2/en
Publication of JP2013117865A publication Critical patent/JP2013117865A/en
Application granted granted Critical
Publication of JP5901054B2 publication Critical patent/JP5901054B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a detection method and a detection device for body that can detect an object of detection in an image precisely in a short time.SOLUTION: In a detection device 10 for body including a learning mechanism 11 which structures a weak discriminator for discriminating an object of detection from a learning image 13, and a determination mechanism 12 which determines whether the object of detection is present within a search range 14 by RealAdaBoost using a discriminator composed of the weak discriminator while setting the search range 14 in an inspection image, the leaning mechanism 11 includes HOG feature quantity calculating means 16 of setting the search range 14 in the learning image and a plurality of sizes of cells 15 determining the size of a local area in the search range 14, and calculating HOG feature quantities A by the cells 15 of the respective sizes by arranging the cells 15 over entirely in the search range 14 while putting the cells 15 partially one over another so as to find HOG feature quantities B of the search range 14, and weak discriminator generation means 17 of selecting HOG feature quantities effective in discriminating the object of detection from the HOG feature quantities B using RealAdaBoost to obtain the weak discriminator.

Description

本発明は、撮像された画像中に検出対象物(例えば、人物、特定の物体等)が存在しているか否かを判定する物体の検出方法及びその方法を用いた物体の検出装置に関する。 The present invention relates to an object detection method for determining whether or not a detection target (for example, a person, a specific object, etc.) exists in a captured image, and an object detection apparatus using the method.

近年、ITS(Intelligent Transport System:高度交通システム)やロボットビジョン等を目的として、カメラ画像から物体を検出する技術が注目されている。特に、カメラ画像上で歩行者を検出することは、ITSの分野において、車両運転時のドライバーの不注意による歩行者の見落としを防止するシステムとして貢献できるため、車載カメラによって撮像されるカメラ画像中で、歩行者をIT(Information Technology)を用いて検知する歩行者検出についての研究が盛んに行われている。しかし、歩行者検出は、体形、着衣の色、障害物、及び明るさ変化等や、歩行者同士の重なり合い等が影響して容易でない。 In recent years, for the purpose of ITS (Intelligent Transport System), robot vision, and the like, a technique for detecting an object from a camera image has attracted attention. In particular, the detection of pedestrians on camera images can contribute as a system that prevents pedestrians from being overlooked by the driver's carelessness when driving a vehicle in the field of ITS. Therefore, research on pedestrian detection for detecting pedestrians using IT (Information Technology) has been actively conducted. However, pedestrian detection is not easy due to the influence of body shape, clothing color, obstacles, changes in brightness, overlapping of pedestrians, and the like.

一般に、検出対象物(即ち、カメラ画像内での局所領域)を表す特徴量にはさまざまな算出方法が提案されているが、どの特徴量が有効であるかは、検出対象物によって大きく変わる。例えば、HOG特徴量は、照明変化や形状変化に頑強な特徴量であることから歩行者検出に有効とされている(例えば、非特許文献1参照)。このため、歩行者(人物)の含まれている画像、歩行者の含まれていない画像からなる学習画像のHOG特徴量を算出し、得られたHOG特徴量のRealAdaBoostによる機械学習を行って、歩行者の各部位の検出に有効なHOG特徴量をそれぞれ選択することにより弱識別器を生成し、評価画像に歩行者が存在するか否かを判定する歩行者検出方法の研究が行われている(例えば、非特許文献2参照)。 In general, various calculation methods have been proposed for feature amounts representing a detection target (that is, a local region in a camera image). Which feature amount is effective varies greatly depending on the detection target. For example, the HOG feature value is effective for detecting pedestrians because it is a feature value that is robust against changes in illumination and shape (see Non-Patent Document 1, for example). For this reason, the HOG feature amount of the learning image consisting of the image that includes the pedestrian (person) and the image that does not include the pedestrian is calculated, and machine learning by RealAdaBoost of the obtained HOG feature amount is performed. Research has been conducted on pedestrian detection methods that generate weak classifiers by selecting HOG features that are effective for detecting each part of the pedestrian and determine whether there are pedestrians in the evaluation image. (For example, refer nonpatent literature 2).

N.Dalal、B.Triggs、「ヒストグラムズ オブ オリエンティッド グラディエンツ フォー ヒューマン ディテクション(Histograms of Oriented Gradients for Human Detection)」、アイイーイーイー シーブイピーアール(IEEE CVPR)、p.886−893、2005年N. Dalal, B.M. Triggs, “Histograms of Oriented Gradients for Human Detection”, IEEE CVPR, p. 886-893, 2005 山内悠嗣、藤吉弘亘、山下隆義、Boostingに基づく特徴量の共起表現による人検出、画像の認識・理解シンポジウム(MIRU2008)、p.180−187、2008年Satoshi Yamauchi, Hironobu Fujiyoshi, Takayoshi Yamashita, Human detection based on co-occurrence of features based on Boosting, Symposium on Image Recognition and Understanding (MIRU2008), p. 180-187, 2008

従来、評価画像において歩行者を検出する場合、評価画像全体に探索領域を大量に配置し、各探索領域にHOG特徴量を算出している。ここで、探索領域のHOG特徴量は、探索領域を予め設定した複数個の画素から構成されるセルに分割し、セル毎のHOG特徴量を算出し、これらを全て足し合わせることにより求めている。従って、探索領域に歩行者が存在するか否かの判定は、セル毎に算出したHOG特徴量を、機械学習により得られた各弱識別器を用いて判定し、各弱識別器の出力値(判定結果)の合計値が機械学習により求めた基準値より大きな場合は歩行者が存在すると判定し、合計値が基準値未満の場合は歩行者が存在したいと判定している。このため、評価画像内に歩行者が存在するか否かを判定するには、多量の計算を短時間で処理可能な計算機を用いる必要があり、計算コストの面で問題となっている。特に、ITSの分野においては、処理時間の短縮は、検出精度の向上と共に重要な開発要素となっている。
また、従来の歩行者の検出方法では、セルのサイズが固定されているため、評価画像から得られるHOG特徴量の数に限界があり、検出精度の向上面においても問題がある。
Conventionally, when detecting a pedestrian in an evaluation image, a large number of search areas are arranged in the entire evaluation image, and HOG feature values are calculated for each search area. Here, the HOG feature amount of the search region is obtained by dividing the search region into cells each composed of a plurality of preset pixels, calculating the HOG feature amount for each cell, and adding all of them. . Accordingly, whether or not there is a pedestrian in the search area is determined by using the weak classifier obtained by machine learning for the HOG feature amount calculated for each cell, and the output value of each weak classifier. When the total value of (judgment result) is larger than the reference value obtained by machine learning, it is determined that there is a pedestrian, and when the total value is less than the reference value, it is determined that there is a pedestrian. For this reason, in order to determine whether or not there is a pedestrian in the evaluation image, it is necessary to use a computer that can process a large amount of calculations in a short time, which is a problem in terms of calculation cost. In particular, in the field of ITS, shortening the processing time has become an important development factor as well as improved detection accuracy.
Further, in the conventional pedestrian detection method, since the cell size is fixed, the number of HOG feature amounts obtained from the evaluation image is limited, and there is a problem in improving detection accuracy.

本発明はかかる事情に鑑みてなされたもので、与えられた画像中で検出対象物を短時間で精度よく検出することが可能な物体の検出方法及び検出装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an object detection method and a detection apparatus capable of accurately detecting a detection target in a given image in a short time.

前記目的に沿う第1の発明に係る物体の検出方法は、検出対象物の画像及び非検出対象物の画像からなる学習画像を用いて該検出対象物を識別する複数の弱識別器を構築する学習過程と、検査画像中に探索範囲を設定しながら、前記弱識別器を用いたRealAdaBoostのアルゴリズムにより前記探索範囲内の画像に対して求めた識別器の出力値から該検出対象物の存否を決定する判定過程とを有する物体の検出方法において、
前記学習過程は、前記学習画像中に前記探索範囲を設定すると共に該探索範囲内の局所領域の大きさを決めるセルのサイズを複数設定し、各サイズの前記セルを順次用いて、該セルを、該セル同士を一部重ねながら前記探索範囲の全域に配置すると共に、配置した前記セル内の画像のHOG特徴量Aをそれぞれ算出し、前記探索範囲に配置した全ての前記セル毎の前記HOG特徴量Aを組み合せて前記探索範囲内の画像のHOG特徴量Bとする第1工程と、
前記HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、前記検出対象物の識別に有効なHOG特徴量を複数選択しそれぞれ前記弱識別器とする第2工程とを有する。
The object detection method according to the first aspect of the present invention that meets the above-described object constructs a plurality of weak classifiers that identify a detection target using a learning image composed of an image of a detection target and an image of a non-detection target. While setting the search range in the inspection image in the learning process, the presence / absence of the detection object is determined from the output value of the classifier obtained for the image within the search range by the RealAdaBoost algorithm using the weak classifier. In a method for detecting an object having a determination process for determining,
The learning process sets the search range in the learning image, sets a plurality of cell sizes that determine the size of the local region in the search range, and sequentially uses the cells of each size, The cells are arranged over the entire search range while partially overlapping each other, the HOG feature amount A of the image in the arranged cell is calculated, and the HOG for each of the cells arranged in the search range. A first step of combining the feature amount A into the HOG feature amount B of the image within the search range;
A second step of selecting a plurality of HOG feature quantities effective for identifying the detection object from the HOG feature quantity B using the RealAdaBoost algorithm, and using each as the weak classifier.

第1の発明に係る物体の検出方法において、前記判定過程では、前記検査画像中に設定する前記探索範囲に対して前記弱識別器を用いてRealAdaBoostのアルゴリズムによる識別処理を繰り返して判定を行う際に、前記識別器の出力値が前記識別処理の回数毎に予め設定した判定値未満の場合は前記識別処理を終了することにより、前記検査画像中に設定する前記探索範囲毎に、前記識別器を構成する前記弱識別器の個数を変えることが好ましい。 In the object detection method according to the first aspect of the present invention, in the determination process, when the determination process is performed by repeatedly using the weak classifier for the search range set in the inspection image by the RealAdaBoost algorithm. In addition, when the output value of the discriminator is less than a predetermined determination value for each number of the discriminating processes, the discriminator is terminated for each search range set in the inspection image by terminating the discriminating process. It is preferable to change the number of the weak classifiers constituting the.

第1の発明に係る物体の検出方法において、前記識別処理の回数毎に予め設定した前記判定値は、前記学習画像に設定した前記探索範囲に対して前記弱識別器を用いてRealAdaBoostのアルゴリズムによる学習処理を繰り返して前記検出対象物を検出した際に、前記学習処理の回数毎に求められる識別器から出力された出力値の最小値であることが好ましい。 In the object detection method according to the first aspect of the present invention, the determination value set in advance for each number of times of the identification process is based on the RealAdaBoost algorithm using the weak classifier for the search range set in the learning image. When the detection target is detected by repeating the learning process, it is preferably the minimum value of the output values output from the discriminator obtained every number of the learning processes.

前記目的に沿う第2の発明に係る物体の検出装置は、検出対象物の画像及び非検出対象物の画像からなる学習画像を用いて該検出対象物を識別する複数の弱識別器を構築する学習機構と、検査画像中に探索範囲を設定しながら、前記弱識別器を用いたRealAdaBoostのアルゴリズムにより前記探索範囲内の画像に対して求めた識別器の出力値から該検出対象物の存否を決定する判定機構とを有する物体の検出装置において、
前記学習機構は、前記学習画像中に前記探索範囲を設定すると共に該探索範囲内の局所領域の大きさを決めるセルのサイズを複数設定し、各サイズの前記セルを順次用いて、該セルを、該セル同士を一部重ねながら前記探索範囲の全域に配置すると共に、配置した前記セル内の画像のHOG特徴量Aをそれぞれ算出し、前記探索範囲に配置した全ての前記セル毎の前記HOG特徴量Aを組み合せて前記探索範囲内の画像のHOG特徴量Bを求めるHOG特徴量算出手段と、
前記HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、前記検出対象物の識別に有効なHOG特徴量を複数選択し前記弱識別器とする弱識別器生成手段とを有している。
The object detection apparatus according to the second invention that meets the above object constructs a plurality of weak classifiers that identify the detection object using a learning image composed of an image of the detection object and an image of the non-detection object. While setting the search range in the inspection image with the learning mechanism, the presence / absence of the detection object is determined from the output value of the classifier obtained for the image within the search range by the RealAdaBoost algorithm using the weak classifier. In an object detection apparatus having a determination mechanism for determining,
The learning mechanism sets the search range in the learning image and sets a plurality of cell sizes that determine the size of the local region in the search range, and sequentially uses the cells of each size to The cells are arranged over the entire search range while partially overlapping each other, the HOG feature amount A of the image in the arranged cell is calculated, and the HOG for each of the cells arranged in the search range. HOG feature quantity calculating means for obtaining the HOG feature quantity B of the image within the search range by combining the feature quantities A;
A weak classifier generating unit that selects a plurality of HOG feature quantities effective for identifying the detection target object from the HOG feature quantity B using the RealAdaBoost algorithm and uses the HOG feature quantity as the weak classifier;

第2の発明に係る物体の検出装置において、前記判定機構は、前記検査画像中に設定する前記探索範囲に対して前記弱識別器を用いてRealAdaBoostのアルゴリズムによる識別処理を繰り返して判定を行う際に、前記識別器の出力値が前記識別処理の回数毎に予め設定した判定値未満の場合は前記識別処理を終了することにより、前記検査画像中に設定する前記探索範囲毎に、前記識別器を構成する前記弱識別器の個数を変える識別処理管理手段を有していることが好ましい。 In the object detection apparatus according to the second invention, when the determination mechanism repeatedly performs identification processing by RealAdaBoost algorithm using the weak classifier for the search range set in the inspection image. In addition, when the output value of the discriminator is less than a predetermined determination value for each number of the discriminating processes, the discriminator is terminated for each search range set in the inspection image by terminating the discriminating process. It is preferable to have an identification processing management means for changing the number of the weak classifiers constituting the.

第2の発明に係る物体の検出装置において、前記学習機構は、前記学習画像に設定した前記探索範囲に対して前記弱識別器を用いてRealAdaBoostのアルゴリズムによる学習処理を繰り返して前記検出対象物を検出した際に、前記学習処理の回数毎に求められる識別器から出力された出力値の最小値を求める判定値生成手段を有し、
前記判定機構は、前記識別判定値生成手段で求めた各最小値を、前記識別処理の回数毎に予め設定した前記判定値とする判定値設定手段を有していることが好ましい。
In the object detection device according to the second invention, the learning mechanism repeats learning processing by the RealAdaBoost algorithm using the weak classifier with respect to the search range set in the learning image to detect the detection object. A determination value generating means for obtaining a minimum value of an output value output from the discriminator obtained for each number of learning processes when detected;
The determination mechanism preferably includes a determination value setting unit that sets each minimum value obtained by the identification determination value generation unit as the determination value set in advance for each number of identification processes.

第1の発明に係る物体の検出方法及び第2の発明に係る物体の検出装置においては、探索範囲内の局所領域の大きさを決めるセルのサイズを複数設定し、各サイズのセルを順次用いて、セルを、セル同士を一部重ねながら探索範囲の全域に配置するので、探索範囲内における種々の位置及び種々のサイズの局所領域の画像のHOG特徴量Aを用いて探索範囲内の画像のHOG特徴量Bを構成することができ、HOG特徴量BからRealAdaBoostのアルゴリズムを用いて検出対象物の識別に有効なHOG特徴量を複数選択すると、選択されたHOG特徴量は、検出対象物の各部位をそれぞれ一括で表すことに最適なHOG特徴量が含まれる。このため、検出対象物の各部位を(例えば検出対象物が人の場合、腕の部分に配置されたセルからは腕の形の特徴を、頭の部分に配置されたセルからは頭の形の特徴を)それぞれ一括で表すことに最適なHOG特徴量を弱識別器として、検出対象物を識別する識別器を構成すると、従来の手法(探索範囲に、サイズが同一のセルを、セル同士が重ならないように配置する手法)に比較して、識別器を構成する弱識別器の個数を大きく低減することができる。その結果、検査画像中に設定した探索範囲の識別に要する時間が短縮され、即ち、探索範囲の識別処理の高速化を図ることができる。 In the object detection method according to the first invention and the object detection apparatus according to the second invention, a plurality of cell sizes that determine the size of the local region within the search range are set, and cells of each size are sequentially used. Since the cells are arranged over the entire search range while partly overlapping the cells, the image within the search range using the HOG feature amount A of the images of the local regions of various positions and various sizes within the search range. If a plurality of HOG feature values effective for identifying a detection target object are selected from the HOG feature value B using the RealAdaBoost algorithm, the selected HOG feature value is determined as a detection target object. HOG feature values that are optimal for representing each part of the above are collectively included. For this reason, each part of the detection target (for example, when the detection target is a person, the shape of the arm from the cell arranged in the arm part, and the shape of the head from the cell arranged in the head part) If the classifier that identifies the detection object is configured by using the HOG feature quantity that is most suitable for representing each feature in a batch as a weak classifier, the conventional method (cells having the same size in the search range) The number of weak classifiers constituting the classifier can be greatly reduced as compared to a method in which the classifiers are arranged so as not to overlap. As a result, the time required to identify the search range set in the inspection image is shortened, that is, the search range identification process can be speeded up.

第1の発明に係る物体の検出方法及び第2の発明に係る物体の検出装置において、検査画像中に設定する探索範囲に対して弱識別器を用いてRealAdaBoostのアルゴリズムによる識別処理を繰り返して判定を行う際に、識別器の出力値が識別処理の回数毎に予め設定した判定値未満のときは識別処理を終了する場合、検査画像の探索範囲に検出対象物が存在しないという最終判定を識別処理の早期段階で行うことができ、探索範囲の識別に要する時間を大幅に短縮することができる。
更に、探索領域毎に弱識別器の個数が異なる識別器を用いて検出対象物の存否判定を行うので、例えば、背景領域は少ない弱識別器で構成された識別器で高速に識別され、検出対象物領域及び検出対象物に類似する領域では弱識別器の個数の多い識別器で識別されることになって、検出対象物の識別精度向上を達成することができる。
In the object detection method according to the first invention and the object detection apparatus according to the second invention, the identification process by the RealAdaBoost algorithm is repeatedly determined using the weak classifier for the search range set in the inspection image. When the identification process is terminated when the output value of the classifier is less than a predetermined determination value for each number of identification processes, the final determination that the detection target does not exist in the search range of the inspection image is identified. This can be performed at an early stage of processing, and the time required for identifying the search range can be greatly reduced.
Furthermore, since the presence / absence of the detection target is determined using a classifier having a different number of weak classifiers for each search area, for example, the background area is quickly identified and detected by a classifier composed of few weak classifiers. The object region and the region similar to the detection object are identified by a classifier having a large number of weak classifiers, thereby improving the identification accuracy of the detection object.

第1の発明に係る物体の検出方法及び第2の発明に係る物体の検出装置において、識別処理の回数毎に予め設定した判定値が、学習画像に設定した探索範囲に対して弱識別器を用いてRealAdaBoostのアルゴリズムによる学習処理を繰り返して検出対象物を検出した際に、学習処理の回数毎に求められる識別器から出力された出力値の最小値である場合、探索範囲の識別処理の終了判定を安全側で行うことができる。 In the object detection method according to the first invention and the object detection apparatus according to the second invention, a determination value preset for each number of identification processes is a weak classifier for a search range set in a learning image. When the detection object is detected by repeating the learning process using the RealAdaBoost algorithm, the search range identification process ends if the output value is the minimum value output from the discriminator obtained for each number of learning processes. Judgment can be made on the safe side.

本発明の第1の実施の形態に係る物体の検出方法を適用する物体の検出装置のブロック図である。1 is a block diagram of an object detection apparatus to which an object detection method according to a first embodiment of the present invention is applied. (A)本発明の第1の実施の形態に係る物体の検出方法による探索領域内に設定したセルの配置、(B)は従来の物体の検出方法による探索領域内に設定したセルの配置の説明図である。(A) Arrangement of cells set in the search area by the object detection method according to the first embodiment of the present invention, (B) shows the arrangement of cells set in the search area by the conventional object detection method. It is explanatory drawing. 弱識別器の個数と歩行者検出の正解率の関係を示すグラフである。It is a graph which shows the relationship between the number of weak discriminators, and the correct answer rate of a pedestrian detection. 本発明の第2の実施の形態に係る物体の検出方法を適用する物体の検出装置のブロック図である。It is a block diagram of the detection apparatus of the object to which the detection method of the object which concerns on the 2nd Embodiment of this invention is applied. 実施例及び比較例における弱識別器数と誤り率の関係を示すグラフである。It is a graph which shows the relationship between the number of weak discriminators and an error rate in an Example and a comparative example.

続いて、添付した図面を参照しつつ、本発明を具体化した実施の形態につき説明し、本発明の理解に供する。
先ず、本発明の第1の実施の形態に係る物体の検出方法を適用する物体の検出装置10について説明する。図1、図2(A)に示すように、物体の検出装置10は、検出対象物の一例である歩行者Pの画像及び非検出対象物の一例である背景(歩行者Pの背景)の画像からなる学習画像13を用いて歩行者Pを識別する弱識別器を構築する学習機構11と、図示しない検査画像中に探索範囲14を設定しながら、弱識別器を用いたRealAdaBoostのアルゴリズムにより、探索範囲14内の画像に対して求めた識別器の出力値から探索範囲14内の歩行者Pの存否を決定する判定機構12とを有している。以下、詳細に説明する。
Next, embodiments of the present invention will be described with reference to the accompanying drawings for understanding of the present invention.
First, the object detection apparatus 10 to which the object detection method according to the first embodiment of the present invention is applied will be described. As shown in FIGS. 1 and 2A, the object detection device 10 includes an image of a pedestrian P that is an example of a detection target and a background that is an example of a non-detection target (background of the pedestrian P). A learning mechanism 11 for constructing a weak classifier for identifying a pedestrian P using a learning image 13 composed of images, and a RealAdaBoost algorithm using a weak classifier while setting a search range 14 in a test image (not shown). And a determination mechanism 12 that determines the presence / absence of the pedestrian P in the search range 14 from the output value of the discriminator obtained for the image in the search range 14. Details will be described below.

学習機構11は、学習画像13中に探索範囲14を設定すると共に探索範囲14内の局所領域の大きさを決めるセル15のサイズを複数設定し、各サイズのセル15を順次用いて、セル15を、セル15同士を一部重ねながら探索範囲14の全域に配置すると共に、配置したセル15内の画像のHOG特徴量Aをそれぞれ算出し、探索範囲14に配置した全てのセル15毎のHOG特徴量Aを組み合せて探索範囲14内の画像のHOG特徴量Bを求めるHOG特徴量算出手段16と、HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、歩行者Pの識別に有効なHOG特徴量を複数選択し弱識別器とする弱識別器生成手段17とを有している。 The learning mechanism 11 sets the search range 14 in the learning image 13, sets a plurality of sizes of the cells 15 that determine the size of the local region in the search range 14, and sequentially uses the cells 15 of each size to obtain the cell 15. Are arranged over the entire search range 14 while partly overlapping the cells 15, HOG feature amounts A of the images in the arranged cells 15 are respectively calculated, and the HOG for every cell 15 arranged in the search range 14. The HOG feature quantity calculating means 16 for obtaining the HOG feature quantity B of the image within the search range 14 by combining the feature quantity A, and the HOG feature effective for identifying the pedestrian P from the HOG feature quantity B using the RealAdaBoost algorithm. Weak discriminator generating means 17 for selecting a plurality of quantities and using them as weak discriminators.

ここで、学習画像13は、図示しないカメラで撮影した歩行者の画像及び歩行者が存在しない画像を、例えば、縦60画素、横30画素のサイズにリサイズしたものを使用する。なお、学習画像13として、歩行者データデースのひとつであるINRIA Person Datasetを利用することもできる。また、探索範囲14のサイズは、検出対象物の形状に応じて設定する。例えば、図2(A)に示すように、検出対象物が歩行者Pの場合、探索範囲14は、学習画像13と同一サイズとなる縦60画素、横30画素のサイズとする。 Here, the learning image 13 uses a pedestrian image taken with a camera (not shown) and an image without a pedestrian, for example, resized to a size of 60 pixels in length and 30 pixels in width. As the learning image 13, an INRIA Person Dataset, which is one of pedestrian data databases, can be used. Further, the size of the search range 14 is set according to the shape of the detection target. For example, as illustrated in FIG. 2A, when the detection target is a pedestrian P, the search range 14 has a size of 60 pixels vertically and 30 pixels horizontally that is the same size as the learning image 13.

HOG特徴量算出手段16は、学習画像13を記憶する機能を備えた学習画像保存部18と、学習画像保存部18に保存された学習画像を取り出して学習用データを抽出するための探索範囲14を設定すると共に、探索範囲14内の局所領域の大きさを決めるセル15のサイズを複数設定し、各サイズのセル15を順次用いて、探索範囲14の全域にセル15を、セル15同士を一部重ねながら配置して、セル15内の画像のHOG特徴量Aを算出する第1のHOG特徴量算出部19と、探索範囲14に配置した全てのセル15毎のHOG特徴量Aを組み合せて(例えば、サイズ一定のセル15毎のHOG特徴量Aを探索範囲に配置したセル15の順番に並べたものを、更にセル15のサイズの順に並べることにより)探索範囲14内の画像のHOG特徴量Bを求める第2のHOG特徴量算出部20とを有している。
ここで、図2(A)に示すように、セル15のサイズ範囲は、探索範囲14内における検出対象物の占有率に応じて設定するが、例えば、検出対象物が歩行者Pの場合、セル15の縦幅は歩行者Pの最大縦幅の6〜80%、セル15の横幅は歩行者Pの最大横幅の13〜80%の範囲とする(例えば、セル15の最小サイズを縦4画素横4画素、最大サイズは縦48画素横24画素)。また、セル15同士を一部重ねながら配置する際の重ね代は、例えば、2〜46画素である。
The HOG feature amount calculation means 16 has a learning image storage unit 18 having a function of storing the learning image 13, and a search range 14 for extracting learning data by taking out the learning image stored in the learning image storage unit 18. And a plurality of sizes of the cells 15 that determine the size of the local region in the search range 14 are set, and the cells 15 of each size are sequentially used, and the cell 15 The first HOG feature quantity calculation unit 19 that calculates the HOG feature quantity A of the image in the cell 15 is arranged while being partially overlapped, and the HOG feature quantity A for every cell 15 arranged in the search range 14 is combined. (For example, by arranging the HOG feature quantities A for each cell 15 having a constant size in the order of the cells 15 arranged in the search range, in the order of the sizes of the cells 15) And a second HOG feature amount calculation unit 20 for obtaining the HOG features B.
Here, as shown in FIG. 2A, the size range of the cell 15 is set according to the occupancy rate of the detection object within the search range 14. For example, when the detection object is a pedestrian P, The vertical width of the cell 15 is 6 to 80% of the maximum vertical width of the pedestrian P, and the horizontal width of the cell 15 is 13 to 80% of the maximum horizontal width of the pedestrian P (for example, the minimum size of the cell 15 is 4 vertical) 4 pixels wide, maximum size is 48 pixels long and 24 pixels wide). Moreover, the overlap margin at the time of arrange | positioning partially overlapping cells 15 is 2-46 pixels, for example.

弱識別器生成手段17では、歩行者Pの特徴量(全てのサイズのセル15から得られる歩行者Pの特徴量であるHOG特徴量)の集合であるHOG特徴量Bの中から、RealAdaBoostのアルゴリズムを用いて、歩行者Pの識別に有効なHOG特徴量を複数選択して弱識別器とする。図3に、歩行者Pを検出する場合の、弱識別器の個数と歩行者検出の正解率の関係を示す。図3から、一定個数(例えば、少なくとも500個)の弱識別器を選択することで、歩行者Pを検出する際の正解率を一定値以上(95%以上)にすることができる。
更に、学習機構11は、学習画像13内に設定した探索範囲14に対して、弱識別器生成手段17から得られた弱識別器を用いてRealAdaBoostのアルゴリズムによる学習処理を繰り返して求めた識別器が歩行者Pを検出した際に出力する出力値(学習画像13内に設定した探索範囲14内のHOG特徴量が歩行者Pであることを示す数値)の最小値を求めて、この最小値を、識別器が歩行者Pを認識する(歩行者Pが存在すると判定する)際の判定値とする識別判定値生成手段21を有している。
In the weak classifier generation means 17, the RealAdaBoost of the RealAdaBoost is selected from the HOG feature quantity B that is a set of the feature quantities of the pedestrian P (the HOG feature quantities that are the feature quantities of the pedestrian P obtained from the cells 15 of all sizes). Using an algorithm, a plurality of HOG feature values effective for identifying the pedestrian P are selected to form a weak classifier. FIG. 3 shows the relationship between the number of weak classifiers and the accuracy rate of pedestrian detection when detecting pedestrians P. From FIG. 3, by selecting a certain number (for example, at least 500) of weak classifiers, the accuracy rate when detecting the pedestrian P can be made a certain value or more (95% or more).
Further, the learning mechanism 11 uses the weak classifier obtained from the weak classifier generation means 17 for the search range 14 set in the learning image 13 to repeatedly determine the classifier obtained by learning using the RealAdaBoost algorithm. Finds the minimum value of the output value (a numerical value indicating that the HOG feature value in the search range 14 set in the learning image 13 is the pedestrian P) output when the pedestrian P is detected. Is a determination value generation means 21 for determining a value when the classifier recognizes the pedestrian P (determines that the pedestrian P exists).

判定機構12は、検査画像中に探索範囲14を設定しながら、各サイズのセル15を順次用いて、探索画像14の全域にセル15を、セル15同士を一部重ねながら配置すると共に、配置したセル15内の画像のHOG特徴量をそれぞれ算出し、探索画像14の全域に配置した全てのセル15毎のHOG特徴量を組み合せて探索範囲14内の画像のHOG特徴量を求める検査用HOG特徴量算出手段22と、探索範囲14内の画像(探索範囲14内の画像のHOG特徴量)に対して、弱識別器生成手段17から得られた弱識別器を用いたRealAdaBoostのアルゴリズムによる識別処理を繰り返して求めた識別器からの最終出力値(選択された全ての弱識別器を用いたRealAdaBoostのアルゴリズムによる識別処理の結果得られた識別器からの出力値であって、探索範囲14内のHOG特徴量が歩行者Pであることを示す数値)を決定する識別手段23と、識別手段23の最終出力値と識別判定値生成手段21の判定値とを比較して、最終出力値が判定値以上である場合は、検査画像中に設定した探索範囲14内に歩行者Pが存在すると判定し、最終出力値が判定値未満である場合は、検査画像中に設定した探索範囲14内に歩行者Pが存在しないと判定する判定手段24とを有している。 The determination mechanism 12 sets the search range 14 in the inspection image, sequentially uses the cells 15 of each size, and arranges the cells 15 over the entire area of the search image 14 while partially overlapping the cells 15. The HOG feature value of the image in the search range 14 is calculated by calculating the HOG feature value of the image in the cell 15 and combining the HOG feature values of all the cells 15 arranged in the entire area of the search image 14. Discrimination by the RealAdaBoost algorithm using the weak discriminator obtained from the weak discriminator generation unit 17 for the feature amount calculation unit 22 and the image in the search range 14 (the HOG feature amount of the image in the search range 14) The final output value from the discriminator obtained by repeating the processing (the output value from the discriminator obtained as a result of discrimination processing by the RealAdaBoost algorithm using all selected weak discriminators). The numerical value indicating that the HOG feature amount in the search range 14 is a pedestrian P), the final output value of the identification means 23 and the determination value of the identification determination value generation means 21 are compared. When the final output value is greater than or equal to the determination value, it is determined that the pedestrian P exists within the search range 14 set in the inspection image, and when the final output value is less than the determination value, it is set in the inspection image. Determination means 24 for determining that there is no pedestrian P within the search range 14.

ここで、学習機構11は、HOG特徴量算出手段16、弱識別器生成手段17、及び識別判定値生成手段21の機能をそれぞれ発現するプログラムを、判定機構12は、検査用HOG特徴量算出手段22、識別手段23、及び判定手段24の機能をそれぞれ発現するプログラムを、コンピュータに搭載することにより構成できる。 Here, the learning mechanism 11 is a program that expresses the functions of the HOG feature quantity calculation means 16, the weak classifier generation means 17, and the discrimination determination value generation means 21, and the determination mechanism 12 is an inspection HOG feature quantity calculation means. 22, the program which expresses the function of the identification means 23 and the determination means 24, respectively, can be comprised by mounting in a computer.

続いて、本発明の第1の実施の形態に係る物体の検出方法について説明する。
本発明の第1の実施の形態に係る物体の検出方法は、歩行者Pの画像及び非歩行者の画像(歩行者Pの背景画像)からなる学習画像13を用いて、歩行者Pの識別に有効な複数の弱識別器を構築する学習過程と、検査画像中に探索範囲14を設定しながら、弱識別器を用いたRealAdaBoostのアルゴリズムにより探索範囲14内の画像(HOG特徴量)に対して求めた識別器の出力値から歩行者Pの存否を決定する判定過程とを有する。以下、詳細に説明する。
Next, an object detection method according to the first embodiment of the present invention will be described.
The object detection method according to the first embodiment of the present invention is to identify a pedestrian P using a learning image 13 including an image of a pedestrian P and an image of a non-pedestrian (background image of the pedestrian P). Learning process for constructing a plurality of weak classifiers effective for the image, and setting the search range 14 in the inspection image, the RealAdaBoost algorithm using the weak classifier is used for the image (HOG feature) in the search range 14 And a determination process for determining the presence or absence of the pedestrian P from the output value of the discriminator determined in this way. Details will be described below.

図2(A)に示すように、学習過程は、学習画像13中に探索範囲14を設定すると共に、探索範囲14内の局所領域の大きさを決めるセル15のサイズを複数設定し、各サイズのセル15を順次用いて、セル15を、セル15同士を一部重ねながら探索範囲14の全域に配置すると共に、配置したセル15内の画像のHOG特徴量Aをそれぞれ算出し、探索範囲14に配置した全てのセル15毎のHOG特徴量Aを組み合せて探索範囲14内の画像のHOG特徴量Bとする第1工程と、HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、歩行者Pの識別に有効なHOG特徴量を複数選択し弱識別器とする第2工程とを有する。 As shown in FIG. 2A, in the learning process, a search range 14 is set in the learning image 13, and a plurality of sizes of cells 15 that determine the size of the local region in the search range 14 are set. The cells 15 are sequentially used, and the cells 15 are arranged over the entire search range 14 while partially overlapping the cells 15, and the HOG feature amount A of the image in the arranged cell 15 is calculated, respectively. The first step of combining the HOG feature amount A for all the cells 15 arranged in the cell 15 into the HOG feature amount B of the image within the search range 14 and the HOG feature amount B from the pedestrian P using the RealAdaBoost algorithm And a second step of selecting a plurality of HOG feature values effective for identification as a weak classifier.

複数のサイズのセル15をそれぞれ用いて、各セル15をセル15同士が一部重なるように探索範囲14の全域に配置するので、例えば、歩行者Pの頭部右側を収容するセル15、歩行者Pの左肩部及び左腕上部を収容するように配置されるセル15、歩行者Pの右肩部及び右腕上部を収容するように配置されるセル15、歩行者Pの両腕下部及び胴体部を収容するように配置されるセル15、歩行者Pの上半身左側を収容するように配置されるセル15、歩行者Pの下半身左側を収容するように配置されるセル15、及び歩行者Pの下半身右側を収容するように配置されるセル15等のように、歩行者Pの比較的広い部位を1つのセル15で取り囲む場合が存在する。このため、探索範囲14のHOG特徴量Bは、歩行者Pの頭部右側の形の特徴を示すHOG特徴量A、歩行者Pの左肩部と左腕上部の形の特徴を示すHOG特徴量A、歩行者Pの右肩部と右腕上部の形の特徴を示すHOG特徴量A、歩行者Pの両腕下部と胴体部の形の特徴を示すHOG特徴量A、歩行者Pの上半身左側の形の特徴を示すHOG特徴量A、歩行者Pの下半身左側の形の特徴を示すHOG特徴量A、及び歩行者Pの下半身右側の形の特徴を示すHOG特徴量Aを含むことになる。 Since each cell 15 is arranged in the entire search range 14 so that the cells 15 partially overlap each other using the cells 15 of a plurality of sizes, for example, the cell 15 that accommodates the right side of the head of the pedestrian P, walking A cell 15 arranged to accommodate the left shoulder and upper left arm of the pedestrian P, a cell 15 arranged to accommodate the right shoulder and upper right arm of the pedestrian P, both lower arms and torso of the pedestrian P Of the pedestrian P, the cell 15 disposed to accommodate the upper left side of the pedestrian P, the cell 15 disposed to accommodate the lower left side of the pedestrian P, and the pedestrian P There is a case where a relatively wide part of the pedestrian P is surrounded by one cell 15 such as the cell 15 arranged so as to accommodate the right side of the lower body. For this reason, the HOG feature value B in the search range 14 includes the HOG feature value A indicating the shape of the right side of the head of the pedestrian P, and the HOG feature value A indicating the characteristics of the shape of the left shoulder and the upper left arm of the pedestrian P. HOG feature A indicating the shape of the shape of the right shoulder and upper right arm of the pedestrian P, HOG feature A indicating the characteristics of the lower and upper arms of the pedestrian P, and the left side of the upper body of the pedestrian P This includes the HOG feature value A indicating the feature of the shape, the HOG feature value A indicating the feature of the left side of the lower body of the pedestrian P, and the HOG feature amount A indicating the feature of the shape of the lower right side of the pedestrian P.

従って、弱識別器生成手段16により、歩行者Pの識別に有効なHOG特徴量を複数選択してそれぞれ弱識別器とすると、歩行者Pの頭部右側を識別するHOG特徴量、歩行者Pの左肩部と左腕上部を識別するHOG特徴量、歩行者Pの右肩部と右腕上部を識別するHOG特徴量、歩行者Pの両腕下部と胴体部を識別するHOG特徴量、歩行者Pの上半身左側を識別するHOG特徴量、歩行者Pの下半身左側を識別するHOG特徴量、及び歩行者Pの下半身右側を識別するHOG特徴量等のように、歩行者Pの比較的広い部位を一括して識別するHOG特徴量が、弱識別器として選択される。これにより、歩行者Pを識別する際に使用する弱識別器の個数を低減することができる。その結果、検査画像中に探索範囲14を順次設定しながら、探索範囲14内の画像(HOG特徴量B)に対して求めた識別器の出力値から歩行者Pの存否を判定することにより、検査画像中の歩行者Pの存否を決定する場合、1つの探索範囲14内の画像の識別に要する時間が短縮され(弱識別器の個数が少なくなるため、弱識別器の数を1つずつ増やしながら行う識別処理の回数が低下することに伴う総処理時間が短くなって)、検査画像中の歩行者Pの存否を短時間で決定することができる。 Accordingly, when a plurality of HOG feature quantities effective for identifying the pedestrian P are selected by the weak classifier generation means 16 and are respectively used as weak classifiers, the HOG feature quantity for identifying the right side of the head of the pedestrian P, the pedestrian P HOG feature that identifies the left shoulder and upper left arm of the pedestrian, HOG feature that identifies the right shoulder and upper right arm of the pedestrian P, HOG feature that identifies the lower arm and trunk of the pedestrian P, pedestrian P A relatively wide part of the pedestrian P, such as an HOG feature that identifies the left side of the upper body, an HOG feature that identifies the left side of the lower body of the pedestrian P, and an HOG feature that identifies the right side of the lower body of the pedestrian P HOG feature quantities that are collectively identified are selected as weak classifiers. Thereby, the number of weak classifiers used when identifying the pedestrian P can be reduced. As a result, while sequentially setting the search range 14 in the inspection image, by determining the presence or absence of the pedestrian P from the output value of the discriminator obtained for the image (HOG feature B) in the search range 14, When determining the presence / absence of a pedestrian P in the inspection image, the time required to identify an image in one search range 14 is shortened (the number of weak classifiers is reduced, so the number of weak classifiers is increased by one). The total processing time associated with a decrease in the number of identification processes performed while increasing) can be determined in a short time to determine the presence or absence of the pedestrian P in the inspection image.

一方、図2(B)に示すように、従来のHOG特徴量、例えば、非特許文献1のHOG特徴量(DalalとTriggsによるオリジナルHOG特徴量)は、探索領域25全域に一定サイズのセル26を隙間なく配置して、セル26毎に求めたHOG特徴量を組み合せて探索範囲25内の画像のHOG特徴量としている。このため、探索範囲25内に歩行者27が存在する場合、セル26を用いて歩行者27の輪郭をすべて覆うには、多くのセル16が必要になる。 On the other hand, as shown in FIG. 2B, the conventional HOG feature value, for example, the HOG feature value of Non-Patent Document 1 (original HOG feature value by Dalal and Triggs) is a cell 26 of a constant size in the entire search region 25. Are arranged without gaps, and the HOG feature values obtained for each cell 26 are combined to form the HOG feature value of the image within the search range 25. For this reason, when the pedestrian 27 exists in the search range 25, in order to cover all the outlines of the pedestrian 27 using the cell 26, many cells 16 are needed.

このため、探索範囲25内の画像のHOG特徴量から、RealAdaBoostのアルゴリズムを用いて、歩行者27の識別に有効なHOG特徴量を複数選択すると、例えば、歩行者27の頭部右側、左肩部と左腕上部、右肩部と右腕上部、両腕下部と胴体部量、上半身左側、下半身左側、及び下半身右側の形の特徴の識別には、それぞれ複数のHOG特徴量が選択される。このため、歩行者27の識別に使用する弱識別器の個数は多くなる。
その結果、検査画像中に探索範囲25を順次設定しながら、探索範囲25内の画像から歩行者の存否を判定することにより、検査画像中の歩行者の存否を決定する場合、1つの探索範囲25内の画像の判定に長時間を要し、検査画像中の歩行者の存否を短時間で決定することができない。
For this reason, when a plurality of HOG feature values effective for identifying the pedestrian 27 are selected from the HOG feature values of the image within the search range 25 using the RealAdaBoost algorithm, for example, the right side of the head of the pedestrian 27, the left shoulder portion. A plurality of HOG feature quantities are selected for identifying features of the upper left arm, right shoulder upper right arm, lower both arms and body part, upper body left side, lower body left side, and lower body right side. For this reason, the number of weak classifiers used for identifying the pedestrian 27 increases.
As a result, when determining the presence or absence of a pedestrian in an inspection image by determining the presence or absence of a pedestrian from the image within the search range 25 while sequentially setting the search range 25 in the inspection image, one search range It takes a long time to determine the image within 25, and the presence or absence of a pedestrian in the inspection image cannot be determined in a short time.

次に、本発明の第2の実施の形態に係る物体の検出方法を適用する物体の検出装置26について説明する。
図4に示すように、物体の検出装置26は、検出対象物の一例である歩行者Pの画像及び非検出対象物の一例である背景の画像からなる学習画像(図示せず)を用いて歩行者P(歩行者Pの各部位)を識別する弱識別器を構築する学習機構27と、検査画像(図示せず)中に探索範囲を設定しながら、弱識別器を用いたRealAdaBoostのアルゴリズムにより探索範囲内の画像に対して求めた識別器の出力値からの歩行者Pの存否を決定する判定機構28とを有している。
Next, an object detection apparatus 26 to which the object detection method according to the second embodiment of the present invention is applied will be described.
As shown in FIG. 4, the object detection device 26 uses a learning image (not shown) including an image of a pedestrian P that is an example of a detection target and a background image that is an example of a non-detection target. A learning mechanism 27 for constructing a weak classifier for identifying the pedestrian P (each part of the pedestrian P), and a RealAdaBoost algorithm using the weak classifier while setting a search range in an inspection image (not shown) And a determination mechanism 28 for determining the presence or absence of the pedestrian P from the output value of the discriminator obtained for the image within the search range.

ここで、物体の検出装置26は物体の検出装置10と比較して、識別判定値生成手段21の代わりに判定値生成手段29、識別手段23及び判定手段24の代わりに、判定値設定手段30及び識別処理管理手段31をそれぞれ設けたことが特徴となっている。このため、判定値生成手段29、判定値設定手段30、及び識別処理管理手段31についてのみ説明し、共通の手段については同一の符号を付して説明を省略する。 Here, the object detection device 26 is different from the object detection device 10 in that a determination value generation unit 29 instead of the identification determination value generation unit 21, a determination value setting unit 30 instead of the identification unit 23 and the determination unit 24. And the identification processing management means 31 are provided. For this reason, only the determination value generation means 29, the determination value setting means 30, and the identification process management means 31 will be described, and the same reference numerals will be given to common means, and description thereof will be omitted.

判定値生成手段29は、学習画像に設定した探索範囲内の画像のHOG特徴量Bに対して、弱識別器生成手段17から得られた弱識別器を用いたRealAdaBoostのアルゴリズムによる学習処理を繰り返して歩行者Pを検出した際に、学習処理の回数毎に求められる識別器から出力された出力値(学習画像内に設定した探索範囲内のHOG特徴量が歩行者Pであることを示す数値)の最小値を求める機能を備えている。
判定値設定手段30は、判定値生成手段29で求めた学習処理の回数毎の最小値を、それぞれ識別処理の回数毎の判定値に設定する機能を有している。
The determination value generation unit 29 repeatedly performs the learning process by the RealAdaBoost algorithm using the weak classifier obtained from the weak classifier generation unit 17 for the HOG feature amount B of the image within the search range set in the learning image. When the pedestrian P is detected, an output value (a numerical value indicating that the HOG feature amount within the search range set in the learning image is the pedestrian P is output from the discriminator obtained every number of learning processes. ) Is provided.
The determination value setting unit 30 has a function of setting the minimum value for each number of learning processes obtained by the determination value generation unit 29 as a determination value for each number of identification processes.

識別処理管理手段31は、検査画像中に設定する探索範囲内の画像のHOG特徴量に対して、弱識別器生成手段17から得られた弱識別器を用いたRealAdaBoostのアルゴリズムによる識別処理を繰り返す際に、識別処理の回数毎に求められる識別器の出力値が、判定値設定手段30で設定した識別処理の回数毎の判定値と比較して、判定値未満の場合は識別処理を終了し、識別器の出力値が判定値以上の場合は識別処理を継続し、識別処理の回数が、予め設定した回数行われた場合に、検査画像中に設定する探索範囲内に歩行者Pが存在すると判定する機能を有している。
ここで、識別処理は、弱識別器の数を1つずつ増やしながら行うので、予め設定した回数は、選択した弱識別器の個数と同数となる(即ち、選択した弱識別器全てを用いて識別処理が行われるまでの回数となる)。なお、歩行者検出の正解率は、弱識別器の個数が多いほど高くなるが、図3に示すように、弱識別器の個数が一定数を超えた場合、正解率の向上は非常に小さくなる(飽和傾向にある)ので、例えば、識別器の出力が飽和予想値の90%を超えた時点で、又は識別処理の回数が選択した弱識別器の個数の80%に到達した時点で、識別処理を終了するようにしてもよい。
その結果、検査画像中に順次設定する探索範囲内における歩行者Pの存在判定では、探索範囲毎に弱識別器の個数の異なる識別器を用いて歩行者Pの識別が行われることになる。
なお、判定値生成手段29、判定値設定手段30、及び識別処理管理手段31は、それぞれの機能を発現するプログラムを、コンピュータに搭載することにより構成できる。
The identification processing management unit 31 repeats the identification processing by the RealAdaBoost algorithm using the weak classifier obtained from the weak classifier generation unit 17 for the HOG feature amount of the image within the search range set in the inspection image. In this case, the output value of the discriminator obtained for each number of identification processes is compared with the determination value for each number of identification processes set by the determination value setting means 30. When the output value of the discriminator is equal to or greater than the determination value, the discrimination process is continued, and when the number of discrimination processes is performed a preset number of times, the pedestrian P exists within the search range set in the inspection image. Then, it has a function to determine.
Here, since the identification process is performed while increasing the number of weak classifiers one by one, the preset number of times is the same as the number of selected weak classifiers (that is, using all the selected weak classifiers). It is the number of times until identification processing is performed). The accuracy rate of pedestrian detection increases as the number of weak classifiers increases. As shown in FIG. 3, when the number of weak classifiers exceeds a certain number, the improvement in the accuracy rate is very small. Therefore, for example, when the output of the classifier exceeds 90% of the expected saturation value, or when the number of identification processes reaches 80% of the number of weak classifiers selected, The identification process may be terminated.
As a result, in the presence determination of the pedestrian P within the search range that is sequentially set in the inspection image, the pedestrian P is identified using discriminators having different numbers of weak classifiers for each search range.
Note that the determination value generation unit 29, the determination value setting unit 30, and the identification processing management unit 31 can be configured by installing a program that expresses each function in a computer.

続いて、本発明の第2の実施の形態に係る物体の検出方法について説明する。
本発明の第2の実施の形態に係る物体の検出方法は、歩行者Pの画像及び非歩行者の画像(歩行者Pの背景画像)からなる学習画像を用いて、歩行者Pの識別に有効な複数の弱識別器を構築する学習過程と、検査画像中に探索範囲を設定しながら、弱識別器を用いたRealAdaBoostのアルゴリズムにより探索範囲内の画像(HOG特徴量)に対して求めた識別器の出力値から歩行者Pの存否を決定する判定過程とを有する。
ここで、学習過程は、歩行者Pの画像及び非歩行者の画像(歩行者Pの背景画像)からなる学習画像中に探索範囲を設定すると共に、探索範囲内の局所領域の大きさを決めるセルのサイズを複数設定し、各サイズのセルを順次用いて、セルを、セル同士を一部重ねながら探索範囲の全域に配置してセル毎のHOG特徴量Aを算出して探索範囲内の画像のHOG特徴量Bとする第1工程と、HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、歩行者Pの識別に有効なHOG特徴量を複数選択しそれぞれ弱識別器とする第2工程とを有している。このため、探索範囲内に歩行者Pを示す画像が存在すると、歩行者Pの比較的広い部位を含むようなセルが存在する。
Next, an object detection method according to the second embodiment of the present invention will be described.
The object detection method according to the second embodiment of the present invention uses a learning image composed of an image of a pedestrian P and an image of a non-pedestrian (a background image of the pedestrian P) to identify the pedestrian P. The learning process for constructing a plurality of effective weak classifiers, and setting the search range in the inspection image, the RealAdaBoost algorithm using the weak classifier was used to determine the image within the search range (HOG feature) And a determination process for determining the presence or absence of the pedestrian P from the output value of the discriminator.
Here, the learning process sets a search range in a learning image including an image of a pedestrian P and a non-pedestrian image (background image of the pedestrian P), and determines the size of a local region within the search range. A plurality of cell sizes are set, cells of each size are used in sequence, cells are arranged over the entire search range while partially overlapping each other, and the HOG feature amount A for each cell is calculated to calculate the cell size within the search range. A first step of setting an HOG feature amount B of the image, and a second step of selecting a plurality of HOG feature amounts effective for identifying the pedestrian P from the HOG feature amount B using the RealAdaBoost algorithm and using each as a weak classifier And have. For this reason, when the image which shows the pedestrian P exists in the search range, the cell which contains the comparatively wide site | part of the pedestrian P exists.

その結果、弱識別器生成手段16により、歩行者Pの識別に有効なHOG特徴量を複数選択してそれぞれ弱識別器とすると、歩行者Pの比較的広い部位を一括して識別するHOG特徴量が、弱識別器として選択される。これにより、歩行者Pを識別する際に使用する弱識別器の個数を低減することができ、検査画像中に探索範囲を順次設定しながら、探索範囲内の歩行者Pの存否を判定することにより、検査画像中の歩行者Pの存否を決定する場合、1つの探索範囲内の画像の識別に要する時間が短縮され、検査画像中の歩行者Pの存否を短時間で決定することができる。 As a result, when a plurality of HOG feature quantities effective for identifying the pedestrian P are selected by the weak classifier generating means 16 and each is used as a weak classifier, the HOG features that collectively identify relatively wide parts of the pedestrian P are collected. A quantity is selected as the weak classifier. Thereby, the number of weak classifiers used when identifying the pedestrian P can be reduced, and the presence or absence of the pedestrian P within the search range is determined while sequentially setting the search range in the inspection image. Thus, when determining the presence or absence of the pedestrian P in the inspection image, the time required to identify the image within one search range is shortened, and the presence or absence of the pedestrian P in the inspection image can be determined in a short time. .

探索範囲内の画像に対して、弱識別器を用いたRealAdaBoostのアルゴリズムによる識別処理を繰り返して求められる識別器の出力値は、探索範囲内に歩行者Pが存在しておれば、識別処理の回数が多くなるほど、識別器から出力される出力値は大きくなる。そこで、識別器の出力値が識別処理の回数毎に予め設定した判定値未満の場合は、探索範囲内に歩行者Pが存在しないと判定して識別処理を終了することができる。その結果、検査画像中に順次設定する探索範囲内の画像(HOG特徴量)に対して、弱識別器を用いたRealAdaBoostのアルゴリズムによる識別処理を繰り返して求められる識別器の出力値から探索範囲における歩行者Pの存否判定を行う場合、探索範囲毎に、識別器を構成する弱識別器の個数が異なることになり、探索範囲内における歩行者Pの存否判定に要する時間、特に、探索範囲内に歩行者Pが存在しない判定に要する時間を大幅に短縮することができる。
一方、探索範囲内に歩行者Pが存在する場合は、識別処理の回数毎に識別器から出力される出力値は判定値以上となるため、識別器から最終出力値が出力されるまで識別処理が行われることになる。
If the pedestrian P exists in the search range, the output value of the discriminator obtained by repeatedly performing the discrimination process by the RealAdaBoost algorithm using the weak classifier on the image in the search range As the number of times increases, the output value output from the discriminator increases. Therefore, when the output value of the discriminator is less than a predetermined determination value for each number of identification processes, it is determined that there is no pedestrian P within the search range, and the identification process can be terminated. As a result, the image in the search range is obtained from the output value of the discriminator obtained by repeatedly performing discrimination processing by the RealAdaBoost algorithm using the weak discriminator for the images within the search range (HOG features) sequentially set in the inspection image. When the presence / absence determination of the pedestrian P is performed, the number of weak classifiers constituting the classifier is different for each search range, and the time required for the presence / absence determination of the pedestrian P in the search range, particularly within the search range Therefore, the time required for the determination that no pedestrian P is present can be greatly reduced.
On the other hand, when there is a pedestrian P within the search range, the output value output from the discriminator is greater than or equal to the determination value for each number of discriminating processes, so the discriminating process until the final output value is output from the discriminator. Will be done.

ここで、識別処理の回数毎に設定した判定値は、学習画像に設定した探索範囲内に歩行者Pが存在する場合において、弱識別器を用いたRealAdaBoostのアルゴリズムによる学習処理を繰り返して、学習処理の回数毎に求められる識別器が歩行者Pを認識(検出)した際に出力される出力値の最小値である。判定値を、識別器が歩行者Pを認識(検出)した際に出力される出力値の最小値とすることで、探索範囲内に歩行者Pが存在することの判定を、安全側で(誤判定の発生を抑制して)行うことができる。
更に、探索領域毎に弱識別器の個数が異なる識別器を用いて識別することは、例えば、背景領域は少ない弱識別器で構成された識別器で高速に識別され、歩行者Pが存在する領域及び歩行者Pに類似する領域では弱識別器の個数の多い識別器で識別されることになる。このため、結果的に歩行者Pの識別精度向上が達成される。
Here, when the pedestrian P exists within the search range set in the learning image, the determination value set for each number of times of the identification processing is obtained by repeating the learning processing by the RealAdaBoost algorithm using the weak classifier. This is the minimum value of the output value that is output when the discriminator obtained for each processing count recognizes (detects) the pedestrian P. By determining the determination value as the minimum value of the output value that is output when the classifier recognizes (detects) the pedestrian P, the determination that the pedestrian P exists within the search range can be made on the safe side ( (Suppressing the occurrence of erroneous determination).
Further, the identification using a classifier having a different number of weak classifiers for each search area, for example, the background area is identified at high speed by a classifier composed of a few weak classifiers, and there is a pedestrian P. The area and the area similar to the pedestrian P are identified by a classifier having a large number of weak classifiers. For this reason, the identification accuracy improvement of the pedestrian P is achieved as a result.

(実施例1)
第1の発明に係る物体の検出方法を用いて、歩行者データデースのひとつであるINRIA Person Datasetから、学習画像として、Positiveクラス画像(人物全身像の画像)を2416枚、Negativeクラス画像(人物以外の画像)を6000枚それぞれ選んで、RealAdaBoostを用いた機械学習により、人の各部位を認識する500個の弱識別器を選択した。次いで、500個の弱識別器を用いて人の識別器を構成し、INRIA Person Datasetから、検査画像として、Positiveクラス画像を1126枚、Negativeクラス画像を3000枚それぞれ選んで、人検出実験を行った。ここで、学習画像及び検査画像内に設定するセルの最小サイズは縦4画素横4画素、最大サイズは縦48画素横24画素である。
その結果、Positiveクラス画像をPositiveクラス画像として、Negativeクラス画像をNegativeクラス画像としてそれぞれ判定した割合を示す正答率は、96.3%であった。
また、検査画像中に設定した探索領域(縦60画素、横30画素)内の識別に要する処理時間は、Positiveクラス画像、Negativeクラス画像いずれに対しても28.96マイクロ秒であった。
更に、識別器を構成する弱識別器の個数と誤り率の関係を図5に示す。
Example 1
Using the object detection method according to the first invention, from the INRIA Person Dataset, which is one of the pedestrian data databases, 2416 positive class images (images of human whole body images), negative class images (persons) 6000 images) were selected, and 500 weak classifiers that recognize each part of a person were selected by machine learning using RealAdaBoost. Next, 500 weak classifiers are used to construct a human classifier. From the INRIA Person Dataset, 1126 positive class images and 3000 negative class images are selected as test images, and a human detection experiment is performed. It was. Here, the minimum size of the cells set in the learning image and the inspection image is 4 pixels vertically and 4 pixels horizontally, and the maximum size is 48 pixels vertically and 24 pixels horizontally.
As a result, the correct answer rate indicating the ratio of the positive class image determined as the positive class image and the negative class image determined as the negative class image was 96.3%.
In addition, the processing time required for identification within the search area (60 pixels long and 30 pixels wide) set in the inspection image was 28.96 microseconds for both the Positive class image and the Negative class image.
Further, FIG. 5 shows the relationship between the number of weak classifiers constituting the classifier and the error rate.

(実施例2)
第2の発明に係る物体の検出方法を用いて、実施例1と同一の検査画像に対して人検出実験を行い、正答率を求めた。また、実施例1と同一サイズの1つの探索領域内の識別に要する処理時間を求めた。なお、実施例2で使用する強識別器は、実施例1で使用した弱識別器と同一である。その結果、人検出実験の正答率は、97.1%であった。また、1つの探索領域内の識別に要する処理時間は、Positiveクラス画像は27.80マイクロ秒、Negativeクラス画像は0.99マイクロ秒であった。更に、識別器を構成する弱識別器の個数と誤り率の関係を図5に示す。
(Example 2)
Using the object detection method according to the second invention, a human detection experiment was performed on the same inspection image as in Example 1, and the correct answer rate was obtained. Further, the processing time required for identification within one search area having the same size as that of the first embodiment was obtained. The strong classifier used in the second embodiment is the same as the weak classifier used in the first embodiment. As a result, the correct answer rate of the human detection experiment was 97.1%. The processing time required for identification within one search area was 27.80 microseconds for the Positive class image and 0.99 microseconds for the Negative class image. Further, FIG. 5 shows the relationship between the number of weak classifiers constituting the classifier and the error rate.

(比較例)
比較例として、Dalalら(非特許文献1)のHOG特徴量を使用した物体の検出方法において、実施例1と同一の学習画像に対してRealAdaBoostを用いた機械学習により、人の各部位をそれぞれ認識する500個の弱識別器を選択し、500個の弱識別器を線型結合して強識別器とした。そして、実施例1と同一の検査画像に対して人検出実験を行い、正答率を求めた。また、実施例1と同一サイズの1つの探索領域内の識別に要する処理時間を求めた。ここで、学習画像及び検査画像内に設定するセルのサイズは、縦5画素横5画素である。
その結果、人検出実験の正答率は、94.8%であった。また、1つの探索領域内の識別に要する処理時間は、Positiveクラス画像、Negativeクラス画像いずれに対しても152.51マイクロ秒であった。更に、識別器を構成する弱識別器の個数と誤り率の関係を図5に示す。
(Comparative example)
As a comparative example, in the object detection method using the HOG feature amount of Dalal et al. (Non-Patent Document 1), each part of a person is obtained by machine learning using RealAdaBoost on the same learning image as in Example 1. 500 weak classifiers to be recognized were selected, and 500 weak classifiers were linearly combined to form a strong classifier. Then, a human detection experiment was performed on the same inspection image as in Example 1, and the correct answer rate was obtained. Further, the processing time required for identification within one search area having the same size as that of the first embodiment was obtained. Here, the size of the cell set in the learning image and the inspection image is 5 pixels vertically and 5 pixels horizontally.
As a result, the correct answer rate of the human detection experiment was 94.8%. The processing time required for identification within one search area was 152.51 microseconds for both the Positive class image and the Negative class image. Further, FIG. 5 shows the relationship between the number of weak classifiers constituting the classifier and the error rate.

実施例1、2、及び比較例の結果から、実施例1、2では処理時間の大幅な短縮が可能になることが確認できた。特に、実施例2では、Negativeクラス画像に対して、比較例と比較して約154倍の処理速度の向上が実現した。
実施例1、2では、大きなサイズのセルを用いて探索領域内の道路等エッジの少ない領域を高速に排除し、次に建造物や街路樹と歩行者を小さいサイズのセルを用いることによって精度よく分類している。このように、識別が簡単な領域ではセルサイズを大きくして弱識別器の数を少なくし、識別が難しい領域でセルのサイズを小さくして弱識別器の数を多くすることにより、図5に示すように、弱識別器数が少ない段階での誤り率の大幅な低下(識別精度の大幅な向上)が可能になった。
From the results of Examples 1 and 2 and the comparative example, it was confirmed that the processing time in Examples 1 and 2 can be significantly reduced. In particular, in Example 2, the processing speed was improved by about 154 times compared to the comparative example with respect to the negative class image.
In the first and second embodiments, a large-sized cell is used to quickly eliminate a region with few edges, such as a road in the search region, and then a building, a road tree, and a pedestrian are used for accuracy by using a small-sized cell. Well classified. In this way, by increasing the cell size to reduce the number of weak classifiers in a region where identification is easy, and by decreasing the cell size and increasing the number of weak classifiers in a region where identification is difficult, FIG. As shown in Fig. 2, it is possible to significantly reduce the error rate (a great improvement in the identification accuracy) when the number of weak classifiers is small.

以上、本発明を、実施の形態を参照して説明してきたが、本発明は何ら上記した実施の形態に記載した構成に限定されるものではなく、特許請求の範囲に記載されている事項の範囲内で考えられるその他の実施の形態や変形例も含むものである。
更に、本実施の形態とその他の実施の形態や変形例にそれぞれ含まれる構成要素を組合わせたものも、本発明に含まれる。
As described above, the present invention has been described with reference to the embodiment. However, the present invention is not limited to the configuration described in the above-described embodiment, and the matters described in the scope of claims. Other embodiments and modifications conceivable within the scope are also included.
Further, the present invention also includes a combination of components included in the present embodiment and other embodiments and modifications.

10:物体の検出装置、11:学習機構、12:判定機構、13:学習画像、14:探索範囲、15:セル、16:HOG特徴量算出手段、17:弱識別器生成手段、18:学習画像保存部、19:第1のHOG特徴量算出部、20:第2のHOG特徴量算出部、21:識別判定値生成手段、22:検査用HOG特徴量算出手段、23:識別手段、24:判定手段、25:探索範囲、26:物体の検出装置、27:学習機構、28:判定機構、29:判定値生成手段、30:判定値設定手段、31:識別処理管理手段 10: Object detection device, 11: Learning mechanism, 12: Determination mechanism, 13: Learning image, 14: Search range, 15: Cell, 16: HOG feature amount calculation means, 17: Weak classifier generation means, 18: Learning Image storage unit, 19: first HOG feature amount calculation unit, 20: second HOG feature amount calculation unit, 21: identification determination value generation unit, 22: inspection HOG feature amount calculation unit, 23: identification unit, 24 : Determination means, 25: search range, 26: object detection device, 27: learning mechanism, 28: determination mechanism, 29: determination value generation means, 30: determination value setting means, 31: identification process management means

Claims (6)

検出対象物の画像及び非検出対象物の画像からなる学習画像を用いて該検出対象物を識別する複数の弱識別器を構築する学習過程と、検査画像中に探索範囲を設定しながら、前記弱識別器を用いたRealAdaBoostのアルゴリズムにより前記探索範囲内の画像に対して求めた識別器の出力値から該検出対象物の存否を決定する判定過程とを有する物体の検出方法において、
前記学習過程は、前記学習画像中に前記探索範囲を設定すると共に該探索範囲内の局所領域の大きさを決めるセルのサイズを複数設定し、各サイズの前記セルを順次用いて、該セルを、該セル同士を一部重ねながら前記探索範囲の全域に配置すると共に、配置した前記セル内の画像のHOG特徴量Aをそれぞれ算出し、前記探索範囲に配置した全ての前記セル毎の前記HOG特徴量Aを組み合せて前記探索範囲内の画像のHOG特徴量Bとする第1工程と、
前記HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、前記検出対象物の識別に有効なHOG特徴量を複数選択しそれぞれ前記弱識別器とする第2工程とを有することを特徴とする物体の検出方法。
A learning process for constructing a plurality of weak classifiers for identifying the detection target object using a learning image composed of an image of the detection target object and an image of the non-detection target object, while setting a search range in the inspection image, In an object detection method comprising: a determination process for determining the presence / absence of the detection target from an output value of the classifier obtained for an image within the search range by RealAdaBoost algorithm using a weak classifier,
The learning process sets the search range in the learning image, sets a plurality of cell sizes that determine the size of the local region in the search range, and sequentially uses the cells of each size, The cells are arranged over the entire search range while partially overlapping each other, the HOG feature amount A of the image in the arranged cell is calculated, and the HOG for each of the cells arranged in the search range. A first step of combining the feature amount A into the HOG feature amount B of the image within the search range;
A second step of selecting a plurality of HOG feature values effective for identifying the detection object from the HOG feature value B using the RealAdaBoost algorithm, and using each as the weak classifier. Detection method.
請求項1記載の物体の検出方法において、前記判定過程では、前記検査画像中に設定する前記探索範囲に対して前記弱識別器を用いてRealAdaBoostのアルゴリズムによる識別処理を繰り返して判定を行う際に、前記識別器の出力値が前記識別処理の回数毎に予め設定した判定値未満の場合は前記識別処理を終了することにより、前記検査画像中に設定する前記探索範囲毎に、前記識別器を構成する前記弱識別器の個数を変えることを特徴とする物体の検出方法。 2. The object detection method according to claim 1, wherein, in the determination process, when performing the determination by repeatedly performing identification processing by RealAdaBoost algorithm using the weak classifier for the search range set in the inspection image. When the output value of the discriminator is less than a predetermined determination value for each number of the discriminating processes, the discriminator is terminated for each search range set in the inspection image by ending the discriminating process. An object detection method, wherein the number of weak classifiers to be configured is changed. 請求項2記載の物体の検出方法において、前記識別処理の回数毎に予め設定した前記判定値は、前記学習画像に設定した前記探索範囲に対して前記弱識別器を用いてRealAdaBoostのアルゴリズムによる学習処理を繰り返して前記検出対象物を検出した際に、前記学習処理の回数毎に求められる識別器から出力された出力値の最小値であることを特徴とする物体の検出方法。 3. The object detection method according to claim 2, wherein the determination value set in advance for each number of times of the identification processing is learned by a RealAdaBoost algorithm using the weak classifier for the search range set in the learning image. A method for detecting an object, comprising: a minimum value of an output value output from a discriminator obtained for each number of learning processes when the detection target is detected by repeating a process. 検出対象物の画像及び非検出対象物の画像からなる学習画像を用いて該検出対象物を識別する複数の弱識別器を構築する学習機構と、検査画像中に探索範囲を設定しながら、前記弱識別器を用いたRealAdaBoostのアルゴリズムにより前記探索範囲内の画像に対して求めた識別器の出力値から該検出対象物の存否を決定する判定機構とを有する物体の検出装置において、
前記学習機構は、前記学習画像中に前記探索範囲を設定すると共に該探索範囲内の局所領域の大きさを決めるセルのサイズを複数設定し、各サイズの前記セルを順次用いて、該セルを、該セル同士を一部重ねながら前記探索範囲の全域に配置すると共に、配置した前記セル内の画像のHOG特徴量Aをそれぞれ算出し、前記探索範囲に配置した全ての前記セル毎の前記HOG特徴量Aを組み合せて前記探索範囲内の画像のHOG特徴量Bを求めるHOG特徴量算出手段と、
前記HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、前記検出対象物の識別に有効なHOG特徴量を複数選択し前記弱識別器とする弱識別器生成手段とを有することを特徴とする物体の検出装置。
A learning mechanism for constructing a plurality of weak classifiers for identifying the detection target object using a learning image composed of an image of the detection target object and an image of the non-detection target object, while setting a search range in the inspection image, In an object detection apparatus having a determination mechanism for determining the presence or absence of the detection target object from an output value of the classifier obtained for the image within the search range by the RealAdaBoost algorithm using a weak classifier,
The learning mechanism sets the search range in the learning image and sets a plurality of cell sizes that determine the size of the local region in the search range, and sequentially uses the cells of each size to The cells are arranged over the entire search range while partially overlapping each other, the HOG feature amount A of the image in the arranged cell is calculated, and the HOG for each of the cells arranged in the search range. HOG feature quantity calculating means for obtaining the HOG feature quantity B of the image within the search range by combining the feature quantities A;
An object comprising: a weak classifier generating unit that selects a plurality of HOG feature quantities effective for identifying the detection target object from the HOG feature quantity B using the RealAdaBoost algorithm and uses the HOG feature quantity as the weak classifier Detection device.
請求項4記載の物体の検出装置において、前記判定機構は、前記検査画像中に設定する前記探索範囲に対して前記弱識別器を用いてRealAdaBoostのアルゴリズムによる識別処理を繰り返して判定を行う際に、前記識別器の出力値が前記識別処理の回数毎に予め設定した判定値未満の場合は前記識別処理を終了することにより、前記検査画像中に設定する前記探索範囲毎に、前記識別器を構成する前記弱識別器の個数を変える識別処理管理手段を有していることを特徴とする物体の検出装置。 The object detection apparatus according to claim 4, wherein the determination mechanism performs a determination by repeatedly performing a recognition process by a RealAdaBoost algorithm using the weak classifier for the search range set in the inspection image. When the output value of the discriminator is less than a predetermined determination value for each number of the discriminating processes, the discriminator is terminated for each search range set in the inspection image by ending the discriminating process. An object detection apparatus comprising: an identification processing management unit that changes the number of the weak classifiers. 請求項5記載の物体の検出装置において、前記学習機構は、前記学習画像に設定した前記探索範囲に対して前記弱識別器を用いてRealAdaBoostのアルゴリズムによる学習処理を繰り返して前記検出対象物を検出した際に、前記学習処理の回数毎に求められる識別器から出力された出力値の最小値を求める判定値生成手段を有し、
前記判定機構は、前記識別判定値生成手段で求めた各最小値を、前記識別処理の回数毎に予め設定した前記判定値とする判定値設定手段を有していることを特徴とする物体の検出装置。
6. The object detection apparatus according to claim 5, wherein the learning mechanism detects the detection target object by repeatedly performing a learning process using a RealAdaBoost algorithm on the search range set in the learning image using the weak classifier. A determination value generating means for obtaining a minimum value of the output value output from the discriminator obtained for each number of times of the learning process,
The determination mechanism includes a determination value setting unit that sets each minimum value obtained by the identification determination value generation unit as the determination value set in advance for each number of times of the identification process. Detection device.
JP2011265081A 2011-12-02 2011-12-02 Object detection method and object detection apparatus using the method Active JP5901054B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011265081A JP5901054B2 (en) 2011-12-02 2011-12-02 Object detection method and object detection apparatus using the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011265081A JP5901054B2 (en) 2011-12-02 2011-12-02 Object detection method and object detection apparatus using the method

Publications (2)

Publication Number Publication Date
JP2013117865A true JP2013117865A (en) 2013-06-13
JP5901054B2 JP5901054B2 (en) 2016-04-06

Family

ID=48712385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011265081A Active JP5901054B2 (en) 2011-12-02 2011-12-02 Object detection method and object detection apparatus using the method

Country Status (1)

Country Link
JP (1) JP5901054B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014099027A (en) * 2012-11-14 2014-05-29 Nippon Hoso Kyokai <Nhk> Image feature amount calculation device, learning device, identification device, and program
JP2014106685A (en) * 2012-11-27 2014-06-09 Osaka Univ Vehicle periphery monitoring device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026326A (en) * 2008-09-26 2009-02-05 Sony Corp Group study device and method
JP2009301104A (en) * 2008-06-10 2009-12-24 Chube Univ Object detecting apparatus
JP2010271792A (en) * 2009-05-19 2010-12-02 Canon Inc Image processing apparatus and method
JP2011210181A (en) * 2010-03-30 2011-10-20 Secom Co Ltd Learning device and object detection device
JP2011209951A (en) * 2010-03-29 2011-10-20 Secom Co Ltd Target object detection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009301104A (en) * 2008-06-10 2009-12-24 Chube Univ Object detecting apparatus
JP2009026326A (en) * 2008-09-26 2009-02-05 Sony Corp Group study device and method
JP2010271792A (en) * 2009-05-19 2010-12-02 Canon Inc Image processing apparatus and method
JP2011209951A (en) * 2010-03-29 2011-10-20 Secom Co Ltd Target object detection device
JP2011210181A (en) * 2010-03-30 2011-10-20 Secom Co Ltd Learning device and object detection device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015027630; 村井 陽介、外4名: '"弱識別器の応答に基づく類似シルエット画像選択によるChamfer Matchingを用いた人領域の' 電子情報通信学会論文誌 Vol.J94-D, No.4, 20110401, pp.730-741, 社団法人電子情報通信学会 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014099027A (en) * 2012-11-14 2014-05-29 Nippon Hoso Kyokai <Nhk> Image feature amount calculation device, learning device, identification device, and program
JP2014106685A (en) * 2012-11-27 2014-06-09 Osaka Univ Vehicle periphery monitoring device

Also Published As

Publication number Publication date
JP5901054B2 (en) 2016-04-06

Similar Documents

Publication Publication Date Title
CN107851195B (en) Target detection using neural networks
TWI651662B (en) Image annotation method, electronic device and non-transitory computer readable storage medium
CN106570453B (en) Method, device and system for pedestrian detection
WO2017190574A1 (en) Fast pedestrian detection method based on aggregation channel features
US9008365B2 (en) Systems and methods for pedestrian detection in images
KR101848019B1 (en) Method and Apparatus for Detecting Vehicle License Plate by Detecting Vehicle Area
KR20180104609A (en) Method, system, apparatus and readable storage medium for realizing insurance claims fraud prevention based on a plurality of image correspondence
CN105404886A (en) Feature model generating method and feature model generating device
CN103345631B (en) Image characteristics extraction, training, detection method and module, device, system
JP6351243B2 (en) Image processing apparatus and image processing method
CN103218610B (en) The forming method of dog face detector and dog face detecting method
JP2008286725A (en) Person detector and detection method
US20190370982A1 (en) Movement learning device, skill discriminating device, and skill discriminating system
CN103593672A (en) Adaboost classifier on-line learning method and Adaboost classifier on-line learning system
Ji et al. Integrating visual selective attention model with HOG features for traffic light detection and recognition
CN110889421A (en) Target detection method and device
CN111008576B (en) Pedestrian detection and model training method, device and readable storage medium
CN109902576B (en) Training method and application of head and shoulder image classifier
CN106778731B (en) A kind of license plate locating method and terminal
KR101545809B1 (en) Method and apparatus for detection license plate
JP2012221162A (en) Object detection device and program
JP2011165170A (en) Object detection device and program
KR20110103223A (en) Keypoint matching system and method using sift algorithm for the face recognition
JP5901054B2 (en) Object detection method and object detection apparatus using the method
JP6077785B2 (en) Object detection apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150902

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160307

R150 Certificate of patent or registration of utility model

Ref document number: 5901054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250