JP2013117865A - Detection method for body and detection device for body using the method - Google Patents
Detection method for body and detection device for body using the method Download PDFInfo
- Publication number
- JP2013117865A JP2013117865A JP2011265081A JP2011265081A JP2013117865A JP 2013117865 A JP2013117865 A JP 2013117865A JP 2011265081 A JP2011265081 A JP 2011265081A JP 2011265081 A JP2011265081 A JP 2011265081A JP 2013117865 A JP2013117865 A JP 2013117865A
- Authority
- JP
- Japan
- Prior art keywords
- search range
- image
- hog feature
- learning
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 123
- 238000000034 method Methods 0.000 title claims description 68
- 238000007689 inspection Methods 0.000 claims abstract description 42
- 230000007246 mechanism Effects 0.000 claims abstract description 28
- 230000008569 process Effects 0.000 claims description 62
- 238000012545 processing Methods 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000006872 improvement Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001551799 Sus salvanius Species 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Abstract
Description
本発明は、撮像された画像中に検出対象物(例えば、人物、特定の物体等)が存在しているか否かを判定する物体の検出方法及びその方法を用いた物体の検出装置に関する。 The present invention relates to an object detection method for determining whether or not a detection target (for example, a person, a specific object, etc.) exists in a captured image, and an object detection apparatus using the method.
近年、ITS(Intelligent Transport System:高度交通システム)やロボットビジョン等を目的として、カメラ画像から物体を検出する技術が注目されている。特に、カメラ画像上で歩行者を検出することは、ITSの分野において、車両運転時のドライバーの不注意による歩行者の見落としを防止するシステムとして貢献できるため、車載カメラによって撮像されるカメラ画像中で、歩行者をIT(Information Technology)を用いて検知する歩行者検出についての研究が盛んに行われている。しかし、歩行者検出は、体形、着衣の色、障害物、及び明るさ変化等や、歩行者同士の重なり合い等が影響して容易でない。 In recent years, for the purpose of ITS (Intelligent Transport System), robot vision, and the like, a technique for detecting an object from a camera image has attracted attention. In particular, the detection of pedestrians on camera images can contribute as a system that prevents pedestrians from being overlooked by the driver's carelessness when driving a vehicle in the field of ITS. Therefore, research on pedestrian detection for detecting pedestrians using IT (Information Technology) has been actively conducted. However, pedestrian detection is not easy due to the influence of body shape, clothing color, obstacles, changes in brightness, overlapping of pedestrians, and the like.
一般に、検出対象物(即ち、カメラ画像内での局所領域)を表す特徴量にはさまざまな算出方法が提案されているが、どの特徴量が有効であるかは、検出対象物によって大きく変わる。例えば、HOG特徴量は、照明変化や形状変化に頑強な特徴量であることから歩行者検出に有効とされている(例えば、非特許文献1参照)。このため、歩行者(人物)の含まれている画像、歩行者の含まれていない画像からなる学習画像のHOG特徴量を算出し、得られたHOG特徴量のRealAdaBoostによる機械学習を行って、歩行者の各部位の検出に有効なHOG特徴量をそれぞれ選択することにより弱識別器を生成し、評価画像に歩行者が存在するか否かを判定する歩行者検出方法の研究が行われている(例えば、非特許文献2参照)。
In general, various calculation methods have been proposed for feature amounts representing a detection target (that is, a local region in a camera image). Which feature amount is effective varies greatly depending on the detection target. For example, the HOG feature value is effective for detecting pedestrians because it is a feature value that is robust against changes in illumination and shape (see Non-Patent
従来、評価画像において歩行者を検出する場合、評価画像全体に探索領域を大量に配置し、各探索領域にHOG特徴量を算出している。ここで、探索領域のHOG特徴量は、探索領域を予め設定した複数個の画素から構成されるセルに分割し、セル毎のHOG特徴量を算出し、これらを全て足し合わせることにより求めている。従って、探索領域に歩行者が存在するか否かの判定は、セル毎に算出したHOG特徴量を、機械学習により得られた各弱識別器を用いて判定し、各弱識別器の出力値(判定結果)の合計値が機械学習により求めた基準値より大きな場合は歩行者が存在すると判定し、合計値が基準値未満の場合は歩行者が存在したいと判定している。このため、評価画像内に歩行者が存在するか否かを判定するには、多量の計算を短時間で処理可能な計算機を用いる必要があり、計算コストの面で問題となっている。特に、ITSの分野においては、処理時間の短縮は、検出精度の向上と共に重要な開発要素となっている。
また、従来の歩行者の検出方法では、セルのサイズが固定されているため、評価画像から得られるHOG特徴量の数に限界があり、検出精度の向上面においても問題がある。
Conventionally, when detecting a pedestrian in an evaluation image, a large number of search areas are arranged in the entire evaluation image, and HOG feature values are calculated for each search area. Here, the HOG feature amount of the search region is obtained by dividing the search region into cells each composed of a plurality of preset pixels, calculating the HOG feature amount for each cell, and adding all of them. . Accordingly, whether or not there is a pedestrian in the search area is determined by using the weak classifier obtained by machine learning for the HOG feature amount calculated for each cell, and the output value of each weak classifier. When the total value of (judgment result) is larger than the reference value obtained by machine learning, it is determined that there is a pedestrian, and when the total value is less than the reference value, it is determined that there is a pedestrian. For this reason, in order to determine whether or not there is a pedestrian in the evaluation image, it is necessary to use a computer that can process a large amount of calculations in a short time, which is a problem in terms of calculation cost. In particular, in the field of ITS, shortening the processing time has become an important development factor as well as improved detection accuracy.
Further, in the conventional pedestrian detection method, since the cell size is fixed, the number of HOG feature amounts obtained from the evaluation image is limited, and there is a problem in improving detection accuracy.
本発明はかかる事情に鑑みてなされたもので、与えられた画像中で検出対象物を短時間で精度よく検出することが可能な物体の検出方法及び検出装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an object detection method and a detection apparatus capable of accurately detecting a detection target in a given image in a short time.
前記目的に沿う第1の発明に係る物体の検出方法は、検出対象物の画像及び非検出対象物の画像からなる学習画像を用いて該検出対象物を識別する複数の弱識別器を構築する学習過程と、検査画像中に探索範囲を設定しながら、前記弱識別器を用いたRealAdaBoostのアルゴリズムにより前記探索範囲内の画像に対して求めた識別器の出力値から該検出対象物の存否を決定する判定過程とを有する物体の検出方法において、
前記学習過程は、前記学習画像中に前記探索範囲を設定すると共に該探索範囲内の局所領域の大きさを決めるセルのサイズを複数設定し、各サイズの前記セルを順次用いて、該セルを、該セル同士を一部重ねながら前記探索範囲の全域に配置すると共に、配置した前記セル内の画像のHOG特徴量Aをそれぞれ算出し、前記探索範囲に配置した全ての前記セル毎の前記HOG特徴量Aを組み合せて前記探索範囲内の画像のHOG特徴量Bとする第1工程と、
前記HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、前記検出対象物の識別に有効なHOG特徴量を複数選択しそれぞれ前記弱識別器とする第2工程とを有する。
The object detection method according to the first aspect of the present invention that meets the above-described object constructs a plurality of weak classifiers that identify a detection target using a learning image composed of an image of a detection target and an image of a non-detection target. While setting the search range in the inspection image in the learning process, the presence / absence of the detection object is determined from the output value of the classifier obtained for the image within the search range by the RealAdaBoost algorithm using the weak classifier. In a method for detecting an object having a determination process for determining,
The learning process sets the search range in the learning image, sets a plurality of cell sizes that determine the size of the local region in the search range, and sequentially uses the cells of each size, The cells are arranged over the entire search range while partially overlapping each other, the HOG feature amount A of the image in the arranged cell is calculated, and the HOG for each of the cells arranged in the search range. A first step of combining the feature amount A into the HOG feature amount B of the image within the search range;
A second step of selecting a plurality of HOG feature quantities effective for identifying the detection object from the HOG feature quantity B using the RealAdaBoost algorithm, and using each as the weak classifier.
第1の発明に係る物体の検出方法において、前記判定過程では、前記検査画像中に設定する前記探索範囲に対して前記弱識別器を用いてRealAdaBoostのアルゴリズムによる識別処理を繰り返して判定を行う際に、前記識別器の出力値が前記識別処理の回数毎に予め設定した判定値未満の場合は前記識別処理を終了することにより、前記検査画像中に設定する前記探索範囲毎に、前記識別器を構成する前記弱識別器の個数を変えることが好ましい。 In the object detection method according to the first aspect of the present invention, in the determination process, when the determination process is performed by repeatedly using the weak classifier for the search range set in the inspection image by the RealAdaBoost algorithm. In addition, when the output value of the discriminator is less than a predetermined determination value for each number of the discriminating processes, the discriminator is terminated for each search range set in the inspection image by terminating the discriminating process. It is preferable to change the number of the weak classifiers constituting the.
第1の発明に係る物体の検出方法において、前記識別処理の回数毎に予め設定した前記判定値は、前記学習画像に設定した前記探索範囲に対して前記弱識別器を用いてRealAdaBoostのアルゴリズムによる学習処理を繰り返して前記検出対象物を検出した際に、前記学習処理の回数毎に求められる識別器から出力された出力値の最小値であることが好ましい。 In the object detection method according to the first aspect of the present invention, the determination value set in advance for each number of times of the identification process is based on the RealAdaBoost algorithm using the weak classifier for the search range set in the learning image. When the detection target is detected by repeating the learning process, it is preferably the minimum value of the output values output from the discriminator obtained every number of the learning processes.
前記目的に沿う第2の発明に係る物体の検出装置は、検出対象物の画像及び非検出対象物の画像からなる学習画像を用いて該検出対象物を識別する複数の弱識別器を構築する学習機構と、検査画像中に探索範囲を設定しながら、前記弱識別器を用いたRealAdaBoostのアルゴリズムにより前記探索範囲内の画像に対して求めた識別器の出力値から該検出対象物の存否を決定する判定機構とを有する物体の検出装置において、
前記学習機構は、前記学習画像中に前記探索範囲を設定すると共に該探索範囲内の局所領域の大きさを決めるセルのサイズを複数設定し、各サイズの前記セルを順次用いて、該セルを、該セル同士を一部重ねながら前記探索範囲の全域に配置すると共に、配置した前記セル内の画像のHOG特徴量Aをそれぞれ算出し、前記探索範囲に配置した全ての前記セル毎の前記HOG特徴量Aを組み合せて前記探索範囲内の画像のHOG特徴量Bを求めるHOG特徴量算出手段と、
前記HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、前記検出対象物の識別に有効なHOG特徴量を複数選択し前記弱識別器とする弱識別器生成手段とを有している。
The object detection apparatus according to the second invention that meets the above object constructs a plurality of weak classifiers that identify the detection object using a learning image composed of an image of the detection object and an image of the non-detection object. While setting the search range in the inspection image with the learning mechanism, the presence / absence of the detection object is determined from the output value of the classifier obtained for the image within the search range by the RealAdaBoost algorithm using the weak classifier. In an object detection apparatus having a determination mechanism for determining,
The learning mechanism sets the search range in the learning image and sets a plurality of cell sizes that determine the size of the local region in the search range, and sequentially uses the cells of each size to The cells are arranged over the entire search range while partially overlapping each other, the HOG feature amount A of the image in the arranged cell is calculated, and the HOG for each of the cells arranged in the search range. HOG feature quantity calculating means for obtaining the HOG feature quantity B of the image within the search range by combining the feature quantities A;
A weak classifier generating unit that selects a plurality of HOG feature quantities effective for identifying the detection target object from the HOG feature quantity B using the RealAdaBoost algorithm and uses the HOG feature quantity as the weak classifier;
第2の発明に係る物体の検出装置において、前記判定機構は、前記検査画像中に設定する前記探索範囲に対して前記弱識別器を用いてRealAdaBoostのアルゴリズムによる識別処理を繰り返して判定を行う際に、前記識別器の出力値が前記識別処理の回数毎に予め設定した判定値未満の場合は前記識別処理を終了することにより、前記検査画像中に設定する前記探索範囲毎に、前記識別器を構成する前記弱識別器の個数を変える識別処理管理手段を有していることが好ましい。 In the object detection apparatus according to the second invention, when the determination mechanism repeatedly performs identification processing by RealAdaBoost algorithm using the weak classifier for the search range set in the inspection image. In addition, when the output value of the discriminator is less than a predetermined determination value for each number of the discriminating processes, the discriminator is terminated for each search range set in the inspection image by terminating the discriminating process. It is preferable to have an identification processing management means for changing the number of the weak classifiers constituting the.
第2の発明に係る物体の検出装置において、前記学習機構は、前記学習画像に設定した前記探索範囲に対して前記弱識別器を用いてRealAdaBoostのアルゴリズムによる学習処理を繰り返して前記検出対象物を検出した際に、前記学習処理の回数毎に求められる識別器から出力された出力値の最小値を求める判定値生成手段を有し、
前記判定機構は、前記識別判定値生成手段で求めた各最小値を、前記識別処理の回数毎に予め設定した前記判定値とする判定値設定手段を有していることが好ましい。
In the object detection device according to the second invention, the learning mechanism repeats learning processing by the RealAdaBoost algorithm using the weak classifier with respect to the search range set in the learning image to detect the detection object. A determination value generating means for obtaining a minimum value of an output value output from the discriminator obtained for each number of learning processes when detected;
The determination mechanism preferably includes a determination value setting unit that sets each minimum value obtained by the identification determination value generation unit as the determination value set in advance for each number of identification processes.
第1の発明に係る物体の検出方法及び第2の発明に係る物体の検出装置においては、探索範囲内の局所領域の大きさを決めるセルのサイズを複数設定し、各サイズのセルを順次用いて、セルを、セル同士を一部重ねながら探索範囲の全域に配置するので、探索範囲内における種々の位置及び種々のサイズの局所領域の画像のHOG特徴量Aを用いて探索範囲内の画像のHOG特徴量Bを構成することができ、HOG特徴量BからRealAdaBoostのアルゴリズムを用いて検出対象物の識別に有効なHOG特徴量を複数選択すると、選択されたHOG特徴量は、検出対象物の各部位をそれぞれ一括で表すことに最適なHOG特徴量が含まれる。このため、検出対象物の各部位を(例えば検出対象物が人の場合、腕の部分に配置されたセルからは腕の形の特徴を、頭の部分に配置されたセルからは頭の形の特徴を)それぞれ一括で表すことに最適なHOG特徴量を弱識別器として、検出対象物を識別する識別器を構成すると、従来の手法(探索範囲に、サイズが同一のセルを、セル同士が重ならないように配置する手法)に比較して、識別器を構成する弱識別器の個数を大きく低減することができる。その結果、検査画像中に設定した探索範囲の識別に要する時間が短縮され、即ち、探索範囲の識別処理の高速化を図ることができる。 In the object detection method according to the first invention and the object detection apparatus according to the second invention, a plurality of cell sizes that determine the size of the local region within the search range are set, and cells of each size are sequentially used. Since the cells are arranged over the entire search range while partly overlapping the cells, the image within the search range using the HOG feature amount A of the images of the local regions of various positions and various sizes within the search range. If a plurality of HOG feature values effective for identifying a detection target object are selected from the HOG feature value B using the RealAdaBoost algorithm, the selected HOG feature value is determined as a detection target object. HOG feature values that are optimal for representing each part of the above are collectively included. For this reason, each part of the detection target (for example, when the detection target is a person, the shape of the arm from the cell arranged in the arm part, and the shape of the head from the cell arranged in the head part) If the classifier that identifies the detection object is configured by using the HOG feature quantity that is most suitable for representing each feature in a batch as a weak classifier, the conventional method (cells having the same size in the search range) The number of weak classifiers constituting the classifier can be greatly reduced as compared to a method in which the classifiers are arranged so as not to overlap. As a result, the time required to identify the search range set in the inspection image is shortened, that is, the search range identification process can be speeded up.
第1の発明に係る物体の検出方法及び第2の発明に係る物体の検出装置において、検査画像中に設定する探索範囲に対して弱識別器を用いてRealAdaBoostのアルゴリズムによる識別処理を繰り返して判定を行う際に、識別器の出力値が識別処理の回数毎に予め設定した判定値未満のときは識別処理を終了する場合、検査画像の探索範囲に検出対象物が存在しないという最終判定を識別処理の早期段階で行うことができ、探索範囲の識別に要する時間を大幅に短縮することができる。
更に、探索領域毎に弱識別器の個数が異なる識別器を用いて検出対象物の存否判定を行うので、例えば、背景領域は少ない弱識別器で構成された識別器で高速に識別され、検出対象物領域及び検出対象物に類似する領域では弱識別器の個数の多い識別器で識別されることになって、検出対象物の識別精度向上を達成することができる。
In the object detection method according to the first invention and the object detection apparatus according to the second invention, the identification process by the RealAdaBoost algorithm is repeatedly determined using the weak classifier for the search range set in the inspection image. When the identification process is terminated when the output value of the classifier is less than a predetermined determination value for each number of identification processes, the final determination that the detection target does not exist in the search range of the inspection image is identified. This can be performed at an early stage of processing, and the time required for identifying the search range can be greatly reduced.
Furthermore, since the presence / absence of the detection target is determined using a classifier having a different number of weak classifiers for each search area, for example, the background area is quickly identified and detected by a classifier composed of few weak classifiers. The object region and the region similar to the detection object are identified by a classifier having a large number of weak classifiers, thereby improving the identification accuracy of the detection object.
第1の発明に係る物体の検出方法及び第2の発明に係る物体の検出装置において、識別処理の回数毎に予め設定した判定値が、学習画像に設定した探索範囲に対して弱識別器を用いてRealAdaBoostのアルゴリズムによる学習処理を繰り返して検出対象物を検出した際に、学習処理の回数毎に求められる識別器から出力された出力値の最小値である場合、探索範囲の識別処理の終了判定を安全側で行うことができる。 In the object detection method according to the first invention and the object detection apparatus according to the second invention, a determination value preset for each number of identification processes is a weak classifier for a search range set in a learning image. When the detection object is detected by repeating the learning process using the RealAdaBoost algorithm, the search range identification process ends if the output value is the minimum value output from the discriminator obtained for each number of learning processes. Judgment can be made on the safe side.
続いて、添付した図面を参照しつつ、本発明を具体化した実施の形態につき説明し、本発明の理解に供する。
先ず、本発明の第1の実施の形態に係る物体の検出方法を適用する物体の検出装置10について説明する。図1、図2(A)に示すように、物体の検出装置10は、検出対象物の一例である歩行者Pの画像及び非検出対象物の一例である背景(歩行者Pの背景)の画像からなる学習画像13を用いて歩行者Pを識別する弱識別器を構築する学習機構11と、図示しない検査画像中に探索範囲14を設定しながら、弱識別器を用いたRealAdaBoostのアルゴリズムにより、探索範囲14内の画像に対して求めた識別器の出力値から探索範囲14内の歩行者Pの存否を決定する判定機構12とを有している。以下、詳細に説明する。
Next, embodiments of the present invention will be described with reference to the accompanying drawings for understanding of the present invention.
First, the
学習機構11は、学習画像13中に探索範囲14を設定すると共に探索範囲14内の局所領域の大きさを決めるセル15のサイズを複数設定し、各サイズのセル15を順次用いて、セル15を、セル15同士を一部重ねながら探索範囲14の全域に配置すると共に、配置したセル15内の画像のHOG特徴量Aをそれぞれ算出し、探索範囲14に配置した全てのセル15毎のHOG特徴量Aを組み合せて探索範囲14内の画像のHOG特徴量Bを求めるHOG特徴量算出手段16と、HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、歩行者Pの識別に有効なHOG特徴量を複数選択し弱識別器とする弱識別器生成手段17とを有している。
The
ここで、学習画像13は、図示しないカメラで撮影した歩行者の画像及び歩行者が存在しない画像を、例えば、縦60画素、横30画素のサイズにリサイズしたものを使用する。なお、学習画像13として、歩行者データデースのひとつであるINRIA Person Datasetを利用することもできる。また、探索範囲14のサイズは、検出対象物の形状に応じて設定する。例えば、図2(A)に示すように、検出対象物が歩行者Pの場合、探索範囲14は、学習画像13と同一サイズとなる縦60画素、横30画素のサイズとする。
Here, the learning
HOG特徴量算出手段16は、学習画像13を記憶する機能を備えた学習画像保存部18と、学習画像保存部18に保存された学習画像を取り出して学習用データを抽出するための探索範囲14を設定すると共に、探索範囲14内の局所領域の大きさを決めるセル15のサイズを複数設定し、各サイズのセル15を順次用いて、探索範囲14の全域にセル15を、セル15同士を一部重ねながら配置して、セル15内の画像のHOG特徴量Aを算出する第1のHOG特徴量算出部19と、探索範囲14に配置した全てのセル15毎のHOG特徴量Aを組み合せて(例えば、サイズ一定のセル15毎のHOG特徴量Aを探索範囲に配置したセル15の順番に並べたものを、更にセル15のサイズの順に並べることにより)探索範囲14内の画像のHOG特徴量Bを求める第2のHOG特徴量算出部20とを有している。
ここで、図2(A)に示すように、セル15のサイズ範囲は、探索範囲14内における検出対象物の占有率に応じて設定するが、例えば、検出対象物が歩行者Pの場合、セル15の縦幅は歩行者Pの最大縦幅の6〜80%、セル15の横幅は歩行者Pの最大横幅の13〜80%の範囲とする(例えば、セル15の最小サイズを縦4画素横4画素、最大サイズは縦48画素横24画素)。また、セル15同士を一部重ねながら配置する際の重ね代は、例えば、2〜46画素である。
The HOG feature amount calculation means 16 has a learning
Here, as shown in FIG. 2A, the size range of the
弱識別器生成手段17では、歩行者Pの特徴量(全てのサイズのセル15から得られる歩行者Pの特徴量であるHOG特徴量)の集合であるHOG特徴量Bの中から、RealAdaBoostのアルゴリズムを用いて、歩行者Pの識別に有効なHOG特徴量を複数選択して弱識別器とする。図3に、歩行者Pを検出する場合の、弱識別器の個数と歩行者検出の正解率の関係を示す。図3から、一定個数(例えば、少なくとも500個)の弱識別器を選択することで、歩行者Pを検出する際の正解率を一定値以上(95%以上)にすることができる。
更に、学習機構11は、学習画像13内に設定した探索範囲14に対して、弱識別器生成手段17から得られた弱識別器を用いてRealAdaBoostのアルゴリズムによる学習処理を繰り返して求めた識別器が歩行者Pを検出した際に出力する出力値(学習画像13内に設定した探索範囲14内のHOG特徴量が歩行者Pであることを示す数値)の最小値を求めて、この最小値を、識別器が歩行者Pを認識する(歩行者Pが存在すると判定する)際の判定値とする識別判定値生成手段21を有している。
In the weak classifier generation means 17, the RealAdaBoost of the RealAdaBoost is selected from the HOG feature quantity B that is a set of the feature quantities of the pedestrian P (the HOG feature quantities that are the feature quantities of the pedestrian P obtained from the
Further, the
判定機構12は、検査画像中に探索範囲14を設定しながら、各サイズのセル15を順次用いて、探索画像14の全域にセル15を、セル15同士を一部重ねながら配置すると共に、配置したセル15内の画像のHOG特徴量をそれぞれ算出し、探索画像14の全域に配置した全てのセル15毎のHOG特徴量を組み合せて探索範囲14内の画像のHOG特徴量を求める検査用HOG特徴量算出手段22と、探索範囲14内の画像(探索範囲14内の画像のHOG特徴量)に対して、弱識別器生成手段17から得られた弱識別器を用いたRealAdaBoostのアルゴリズムによる識別処理を繰り返して求めた識別器からの最終出力値(選択された全ての弱識別器を用いたRealAdaBoostのアルゴリズムによる識別処理の結果得られた識別器からの出力値であって、探索範囲14内のHOG特徴量が歩行者Pであることを示す数値)を決定する識別手段23と、識別手段23の最終出力値と識別判定値生成手段21の判定値とを比較して、最終出力値が判定値以上である場合は、検査画像中に設定した探索範囲14内に歩行者Pが存在すると判定し、最終出力値が判定値未満である場合は、検査画像中に設定した探索範囲14内に歩行者Pが存在しないと判定する判定手段24とを有している。
The
ここで、学習機構11は、HOG特徴量算出手段16、弱識別器生成手段17、及び識別判定値生成手段21の機能をそれぞれ発現するプログラムを、判定機構12は、検査用HOG特徴量算出手段22、識別手段23、及び判定手段24の機能をそれぞれ発現するプログラムを、コンピュータに搭載することにより構成できる。
Here, the
続いて、本発明の第1の実施の形態に係る物体の検出方法について説明する。
本発明の第1の実施の形態に係る物体の検出方法は、歩行者Pの画像及び非歩行者の画像(歩行者Pの背景画像)からなる学習画像13を用いて、歩行者Pの識別に有効な複数の弱識別器を構築する学習過程と、検査画像中に探索範囲14を設定しながら、弱識別器を用いたRealAdaBoostのアルゴリズムにより探索範囲14内の画像(HOG特徴量)に対して求めた識別器の出力値から歩行者Pの存否を決定する判定過程とを有する。以下、詳細に説明する。
Next, an object detection method according to the first embodiment of the present invention will be described.
The object detection method according to the first embodiment of the present invention is to identify a pedestrian P using a
図2(A)に示すように、学習過程は、学習画像13中に探索範囲14を設定すると共に、探索範囲14内の局所領域の大きさを決めるセル15のサイズを複数設定し、各サイズのセル15を順次用いて、セル15を、セル15同士を一部重ねながら探索範囲14の全域に配置すると共に、配置したセル15内の画像のHOG特徴量Aをそれぞれ算出し、探索範囲14に配置した全てのセル15毎のHOG特徴量Aを組み合せて探索範囲14内の画像のHOG特徴量Bとする第1工程と、HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、歩行者Pの識別に有効なHOG特徴量を複数選択し弱識別器とする第2工程とを有する。
As shown in FIG. 2A, in the learning process, a
複数のサイズのセル15をそれぞれ用いて、各セル15をセル15同士が一部重なるように探索範囲14の全域に配置するので、例えば、歩行者Pの頭部右側を収容するセル15、歩行者Pの左肩部及び左腕上部を収容するように配置されるセル15、歩行者Pの右肩部及び右腕上部を収容するように配置されるセル15、歩行者Pの両腕下部及び胴体部を収容するように配置されるセル15、歩行者Pの上半身左側を収容するように配置されるセル15、歩行者Pの下半身左側を収容するように配置されるセル15、及び歩行者Pの下半身右側を収容するように配置されるセル15等のように、歩行者Pの比較的広い部位を1つのセル15で取り囲む場合が存在する。このため、探索範囲14のHOG特徴量Bは、歩行者Pの頭部右側の形の特徴を示すHOG特徴量A、歩行者Pの左肩部と左腕上部の形の特徴を示すHOG特徴量A、歩行者Pの右肩部と右腕上部の形の特徴を示すHOG特徴量A、歩行者Pの両腕下部と胴体部の形の特徴を示すHOG特徴量A、歩行者Pの上半身左側の形の特徴を示すHOG特徴量A、歩行者Pの下半身左側の形の特徴を示すHOG特徴量A、及び歩行者Pの下半身右側の形の特徴を示すHOG特徴量Aを含むことになる。
Since each
従って、弱識別器生成手段16により、歩行者Pの識別に有効なHOG特徴量を複数選択してそれぞれ弱識別器とすると、歩行者Pの頭部右側を識別するHOG特徴量、歩行者Pの左肩部と左腕上部を識別するHOG特徴量、歩行者Pの右肩部と右腕上部を識別するHOG特徴量、歩行者Pの両腕下部と胴体部を識別するHOG特徴量、歩行者Pの上半身左側を識別するHOG特徴量、歩行者Pの下半身左側を識別するHOG特徴量、及び歩行者Pの下半身右側を識別するHOG特徴量等のように、歩行者Pの比較的広い部位を一括して識別するHOG特徴量が、弱識別器として選択される。これにより、歩行者Pを識別する際に使用する弱識別器の個数を低減することができる。その結果、検査画像中に探索範囲14を順次設定しながら、探索範囲14内の画像(HOG特徴量B)に対して求めた識別器の出力値から歩行者Pの存否を判定することにより、検査画像中の歩行者Pの存否を決定する場合、1つの探索範囲14内の画像の識別に要する時間が短縮され(弱識別器の個数が少なくなるため、弱識別器の数を1つずつ増やしながら行う識別処理の回数が低下することに伴う総処理時間が短くなって)、検査画像中の歩行者Pの存否を短時間で決定することができる。
Accordingly, when a plurality of HOG feature quantities effective for identifying the pedestrian P are selected by the weak classifier generation means 16 and are respectively used as weak classifiers, the HOG feature quantity for identifying the right side of the head of the pedestrian P, the pedestrian P HOG feature that identifies the left shoulder and upper left arm of the pedestrian, HOG feature that identifies the right shoulder and upper right arm of the pedestrian P, HOG feature that identifies the lower arm and trunk of the pedestrian P, pedestrian P A relatively wide part of the pedestrian P, such as an HOG feature that identifies the left side of the upper body, an HOG feature that identifies the left side of the lower body of the pedestrian P, and an HOG feature that identifies the right side of the lower body of the pedestrian P HOG feature quantities that are collectively identified are selected as weak classifiers. Thereby, the number of weak classifiers used when identifying the pedestrian P can be reduced. As a result, while sequentially setting the
一方、図2(B)に示すように、従来のHOG特徴量、例えば、非特許文献1のHOG特徴量(DalalとTriggsによるオリジナルHOG特徴量)は、探索領域25全域に一定サイズのセル26を隙間なく配置して、セル26毎に求めたHOG特徴量を組み合せて探索範囲25内の画像のHOG特徴量としている。このため、探索範囲25内に歩行者27が存在する場合、セル26を用いて歩行者27の輪郭をすべて覆うには、多くのセル16が必要になる。
On the other hand, as shown in FIG. 2B, the conventional HOG feature value, for example, the HOG feature value of Non-Patent Document 1 (original HOG feature value by Dalal and Triggs) is a
このため、探索範囲25内の画像のHOG特徴量から、RealAdaBoostのアルゴリズムを用いて、歩行者27の識別に有効なHOG特徴量を複数選択すると、例えば、歩行者27の頭部右側、左肩部と左腕上部、右肩部と右腕上部、両腕下部と胴体部量、上半身左側、下半身左側、及び下半身右側の形の特徴の識別には、それぞれ複数のHOG特徴量が選択される。このため、歩行者27の識別に使用する弱識別器の個数は多くなる。
その結果、検査画像中に探索範囲25を順次設定しながら、探索範囲25内の画像から歩行者の存否を判定することにより、検査画像中の歩行者の存否を決定する場合、1つの探索範囲25内の画像の判定に長時間を要し、検査画像中の歩行者の存否を短時間で決定することができない。
For this reason, when a plurality of HOG feature values effective for identifying the
As a result, when determining the presence or absence of a pedestrian in an inspection image by determining the presence or absence of a pedestrian from the image within the
次に、本発明の第2の実施の形態に係る物体の検出方法を適用する物体の検出装置26について説明する。
図4に示すように、物体の検出装置26は、検出対象物の一例である歩行者Pの画像及び非検出対象物の一例である背景の画像からなる学習画像(図示せず)を用いて歩行者P(歩行者Pの各部位)を識別する弱識別器を構築する学習機構27と、検査画像(図示せず)中に探索範囲を設定しながら、弱識別器を用いたRealAdaBoostのアルゴリズムにより探索範囲内の画像に対して求めた識別器の出力値からの歩行者Pの存否を決定する判定機構28とを有している。
Next, an
As shown in FIG. 4, the
ここで、物体の検出装置26は物体の検出装置10と比較して、識別判定値生成手段21の代わりに判定値生成手段29、識別手段23及び判定手段24の代わりに、判定値設定手段30及び識別処理管理手段31をそれぞれ設けたことが特徴となっている。このため、判定値生成手段29、判定値設定手段30、及び識別処理管理手段31についてのみ説明し、共通の手段については同一の符号を付して説明を省略する。
Here, the
判定値生成手段29は、学習画像に設定した探索範囲内の画像のHOG特徴量Bに対して、弱識別器生成手段17から得られた弱識別器を用いたRealAdaBoostのアルゴリズムによる学習処理を繰り返して歩行者Pを検出した際に、学習処理の回数毎に求められる識別器から出力された出力値(学習画像内に設定した探索範囲内のHOG特徴量が歩行者Pであることを示す数値)の最小値を求める機能を備えている。
判定値設定手段30は、判定値生成手段29で求めた学習処理の回数毎の最小値を、それぞれ識別処理の回数毎の判定値に設定する機能を有している。
The determination
The determination
識別処理管理手段31は、検査画像中に設定する探索範囲内の画像のHOG特徴量に対して、弱識別器生成手段17から得られた弱識別器を用いたRealAdaBoostのアルゴリズムによる識別処理を繰り返す際に、識別処理の回数毎に求められる識別器の出力値が、判定値設定手段30で設定した識別処理の回数毎の判定値と比較して、判定値未満の場合は識別処理を終了し、識別器の出力値が判定値以上の場合は識別処理を継続し、識別処理の回数が、予め設定した回数行われた場合に、検査画像中に設定する探索範囲内に歩行者Pが存在すると判定する機能を有している。
ここで、識別処理は、弱識別器の数を1つずつ増やしながら行うので、予め設定した回数は、選択した弱識別器の個数と同数となる(即ち、選択した弱識別器全てを用いて識別処理が行われるまでの回数となる)。なお、歩行者検出の正解率は、弱識別器の個数が多いほど高くなるが、図3に示すように、弱識別器の個数が一定数を超えた場合、正解率の向上は非常に小さくなる(飽和傾向にある)ので、例えば、識別器の出力が飽和予想値の90%を超えた時点で、又は識別処理の回数が選択した弱識別器の個数の80%に到達した時点で、識別処理を終了するようにしてもよい。
その結果、検査画像中に順次設定する探索範囲内における歩行者Pの存在判定では、探索範囲毎に弱識別器の個数の異なる識別器を用いて歩行者Pの識別が行われることになる。
なお、判定値生成手段29、判定値設定手段30、及び識別処理管理手段31は、それぞれの機能を発現するプログラムを、コンピュータに搭載することにより構成できる。
The identification
Here, since the identification process is performed while increasing the number of weak classifiers one by one, the preset number of times is the same as the number of selected weak classifiers (that is, using all the selected weak classifiers). It is the number of times until identification processing is performed). The accuracy rate of pedestrian detection increases as the number of weak classifiers increases. As shown in FIG. 3, when the number of weak classifiers exceeds a certain number, the improvement in the accuracy rate is very small. Therefore, for example, when the output of the classifier exceeds 90% of the expected saturation value, or when the number of identification processes reaches 80% of the number of weak classifiers selected, The identification process may be terminated.
As a result, in the presence determination of the pedestrian P within the search range that is sequentially set in the inspection image, the pedestrian P is identified using discriminators having different numbers of weak classifiers for each search range.
Note that the determination
続いて、本発明の第2の実施の形態に係る物体の検出方法について説明する。
本発明の第2の実施の形態に係る物体の検出方法は、歩行者Pの画像及び非歩行者の画像(歩行者Pの背景画像)からなる学習画像を用いて、歩行者Pの識別に有効な複数の弱識別器を構築する学習過程と、検査画像中に探索範囲を設定しながら、弱識別器を用いたRealAdaBoostのアルゴリズムにより探索範囲内の画像(HOG特徴量)に対して求めた識別器の出力値から歩行者Pの存否を決定する判定過程とを有する。
ここで、学習過程は、歩行者Pの画像及び非歩行者の画像(歩行者Pの背景画像)からなる学習画像中に探索範囲を設定すると共に、探索範囲内の局所領域の大きさを決めるセルのサイズを複数設定し、各サイズのセルを順次用いて、セルを、セル同士を一部重ねながら探索範囲の全域に配置してセル毎のHOG特徴量Aを算出して探索範囲内の画像のHOG特徴量Bとする第1工程と、HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、歩行者Pの識別に有効なHOG特徴量を複数選択しそれぞれ弱識別器とする第2工程とを有している。このため、探索範囲内に歩行者Pを示す画像が存在すると、歩行者Pの比較的広い部位を含むようなセルが存在する。
Next, an object detection method according to the second embodiment of the present invention will be described.
The object detection method according to the second embodiment of the present invention uses a learning image composed of an image of a pedestrian P and an image of a non-pedestrian (a background image of the pedestrian P) to identify the pedestrian P. The learning process for constructing a plurality of effective weak classifiers, and setting the search range in the inspection image, the RealAdaBoost algorithm using the weak classifier was used to determine the image within the search range (HOG feature) And a determination process for determining the presence or absence of the pedestrian P from the output value of the discriminator.
Here, the learning process sets a search range in a learning image including an image of a pedestrian P and a non-pedestrian image (background image of the pedestrian P), and determines the size of a local region within the search range. A plurality of cell sizes are set, cells of each size are used in sequence, cells are arranged over the entire search range while partially overlapping each other, and the HOG feature amount A for each cell is calculated to calculate the cell size within the search range. A first step of setting an HOG feature amount B of the image, and a second step of selecting a plurality of HOG feature amounts effective for identifying the pedestrian P from the HOG feature amount B using the RealAdaBoost algorithm and using each as a weak classifier And have. For this reason, when the image which shows the pedestrian P exists in the search range, the cell which contains the comparatively wide site | part of the pedestrian P exists.
その結果、弱識別器生成手段16により、歩行者Pの識別に有効なHOG特徴量を複数選択してそれぞれ弱識別器とすると、歩行者Pの比較的広い部位を一括して識別するHOG特徴量が、弱識別器として選択される。これにより、歩行者Pを識別する際に使用する弱識別器の個数を低減することができ、検査画像中に探索範囲を順次設定しながら、探索範囲内の歩行者Pの存否を判定することにより、検査画像中の歩行者Pの存否を決定する場合、1つの探索範囲内の画像の識別に要する時間が短縮され、検査画像中の歩行者Pの存否を短時間で決定することができる。 As a result, when a plurality of HOG feature quantities effective for identifying the pedestrian P are selected by the weak classifier generating means 16 and each is used as a weak classifier, the HOG features that collectively identify relatively wide parts of the pedestrian P are collected. A quantity is selected as the weak classifier. Thereby, the number of weak classifiers used when identifying the pedestrian P can be reduced, and the presence or absence of the pedestrian P within the search range is determined while sequentially setting the search range in the inspection image. Thus, when determining the presence or absence of the pedestrian P in the inspection image, the time required to identify the image within one search range is shortened, and the presence or absence of the pedestrian P in the inspection image can be determined in a short time. .
探索範囲内の画像に対して、弱識別器を用いたRealAdaBoostのアルゴリズムによる識別処理を繰り返して求められる識別器の出力値は、探索範囲内に歩行者Pが存在しておれば、識別処理の回数が多くなるほど、識別器から出力される出力値は大きくなる。そこで、識別器の出力値が識別処理の回数毎に予め設定した判定値未満の場合は、探索範囲内に歩行者Pが存在しないと判定して識別処理を終了することができる。その結果、検査画像中に順次設定する探索範囲内の画像(HOG特徴量)に対して、弱識別器を用いたRealAdaBoostのアルゴリズムによる識別処理を繰り返して求められる識別器の出力値から探索範囲における歩行者Pの存否判定を行う場合、探索範囲毎に、識別器を構成する弱識別器の個数が異なることになり、探索範囲内における歩行者Pの存否判定に要する時間、特に、探索範囲内に歩行者Pが存在しない判定に要する時間を大幅に短縮することができる。
一方、探索範囲内に歩行者Pが存在する場合は、識別処理の回数毎に識別器から出力される出力値は判定値以上となるため、識別器から最終出力値が出力されるまで識別処理が行われることになる。
If the pedestrian P exists in the search range, the output value of the discriminator obtained by repeatedly performing the discrimination process by the RealAdaBoost algorithm using the weak classifier on the image in the search range As the number of times increases, the output value output from the discriminator increases. Therefore, when the output value of the discriminator is less than a predetermined determination value for each number of identification processes, it is determined that there is no pedestrian P within the search range, and the identification process can be terminated. As a result, the image in the search range is obtained from the output value of the discriminator obtained by repeatedly performing discrimination processing by the RealAdaBoost algorithm using the weak discriminator for the images within the search range (HOG features) sequentially set in the inspection image. When the presence / absence determination of the pedestrian P is performed, the number of weak classifiers constituting the classifier is different for each search range, and the time required for the presence / absence determination of the pedestrian P in the search range, particularly within the search range Therefore, the time required for the determination that no pedestrian P is present can be greatly reduced.
On the other hand, when there is a pedestrian P within the search range, the output value output from the discriminator is greater than or equal to the determination value for each number of discriminating processes, so the discriminating process until the final output value is output from the discriminator. Will be done.
ここで、識別処理の回数毎に設定した判定値は、学習画像に設定した探索範囲内に歩行者Pが存在する場合において、弱識別器を用いたRealAdaBoostのアルゴリズムによる学習処理を繰り返して、学習処理の回数毎に求められる識別器が歩行者Pを認識(検出)した際に出力される出力値の最小値である。判定値を、識別器が歩行者Pを認識(検出)した際に出力される出力値の最小値とすることで、探索範囲内に歩行者Pが存在することの判定を、安全側で(誤判定の発生を抑制して)行うことができる。
更に、探索領域毎に弱識別器の個数が異なる識別器を用いて識別することは、例えば、背景領域は少ない弱識別器で構成された識別器で高速に識別され、歩行者Pが存在する領域及び歩行者Pに類似する領域では弱識別器の個数の多い識別器で識別されることになる。このため、結果的に歩行者Pの識別精度向上が達成される。
Here, when the pedestrian P exists within the search range set in the learning image, the determination value set for each number of times of the identification processing is obtained by repeating the learning processing by the RealAdaBoost algorithm using the weak classifier. This is the minimum value of the output value that is output when the discriminator obtained for each processing count recognizes (detects) the pedestrian P. By determining the determination value as the minimum value of the output value that is output when the classifier recognizes (detects) the pedestrian P, the determination that the pedestrian P exists within the search range can be made on the safe side ( (Suppressing the occurrence of erroneous determination).
Further, the identification using a classifier having a different number of weak classifiers for each search area, for example, the background area is identified at high speed by a classifier composed of a few weak classifiers, and there is a pedestrian P. The area and the area similar to the pedestrian P are identified by a classifier having a large number of weak classifiers. For this reason, the identification accuracy improvement of the pedestrian P is achieved as a result.
(実施例1)
第1の発明に係る物体の検出方法を用いて、歩行者データデースのひとつであるINRIA Person Datasetから、学習画像として、Positiveクラス画像(人物全身像の画像)を2416枚、Negativeクラス画像(人物以外の画像)を6000枚それぞれ選んで、RealAdaBoostを用いた機械学習により、人の各部位を認識する500個の弱識別器を選択した。次いで、500個の弱識別器を用いて人の識別器を構成し、INRIA Person Datasetから、検査画像として、Positiveクラス画像を1126枚、Negativeクラス画像を3000枚それぞれ選んで、人検出実験を行った。ここで、学習画像及び検査画像内に設定するセルの最小サイズは縦4画素横4画素、最大サイズは縦48画素横24画素である。
その結果、Positiveクラス画像をPositiveクラス画像として、Negativeクラス画像をNegativeクラス画像としてそれぞれ判定した割合を示す正答率は、96.3%であった。
また、検査画像中に設定した探索領域(縦60画素、横30画素)内の識別に要する処理時間は、Positiveクラス画像、Negativeクラス画像いずれに対しても28.96マイクロ秒であった。
更に、識別器を構成する弱識別器の個数と誤り率の関係を図5に示す。
Example 1
Using the object detection method according to the first invention, from the INRIA Person Dataset, which is one of the pedestrian data databases, 2416 positive class images (images of human whole body images), negative class images (persons) 6000 images) were selected, and 500 weak classifiers that recognize each part of a person were selected by machine learning using RealAdaBoost. Next, 500 weak classifiers are used to construct a human classifier. From the INRIA Person Dataset, 1126 positive class images and 3000 negative class images are selected as test images, and a human detection experiment is performed. It was. Here, the minimum size of the cells set in the learning image and the inspection image is 4 pixels vertically and 4 pixels horizontally, and the maximum size is 48 pixels vertically and 24 pixels horizontally.
As a result, the correct answer rate indicating the ratio of the positive class image determined as the positive class image and the negative class image determined as the negative class image was 96.3%.
In addition, the processing time required for identification within the search area (60 pixels long and 30 pixels wide) set in the inspection image was 28.96 microseconds for both the Positive class image and the Negative class image.
Further, FIG. 5 shows the relationship between the number of weak classifiers constituting the classifier and the error rate.
(実施例2)
第2の発明に係る物体の検出方法を用いて、実施例1と同一の検査画像に対して人検出実験を行い、正答率を求めた。また、実施例1と同一サイズの1つの探索領域内の識別に要する処理時間を求めた。なお、実施例2で使用する強識別器は、実施例1で使用した弱識別器と同一である。その結果、人検出実験の正答率は、97.1%であった。また、1つの探索領域内の識別に要する処理時間は、Positiveクラス画像は27.80マイクロ秒、Negativeクラス画像は0.99マイクロ秒であった。更に、識別器を構成する弱識別器の個数と誤り率の関係を図5に示す。
(Example 2)
Using the object detection method according to the second invention, a human detection experiment was performed on the same inspection image as in Example 1, and the correct answer rate was obtained. Further, the processing time required for identification within one search area having the same size as that of the first embodiment was obtained. The strong classifier used in the second embodiment is the same as the weak classifier used in the first embodiment. As a result, the correct answer rate of the human detection experiment was 97.1%. The processing time required for identification within one search area was 27.80 microseconds for the Positive class image and 0.99 microseconds for the Negative class image. Further, FIG. 5 shows the relationship between the number of weak classifiers constituting the classifier and the error rate.
(比較例)
比較例として、Dalalら(非特許文献1)のHOG特徴量を使用した物体の検出方法において、実施例1と同一の学習画像に対してRealAdaBoostを用いた機械学習により、人の各部位をそれぞれ認識する500個の弱識別器を選択し、500個の弱識別器を線型結合して強識別器とした。そして、実施例1と同一の検査画像に対して人検出実験を行い、正答率を求めた。また、実施例1と同一サイズの1つの探索領域内の識別に要する処理時間を求めた。ここで、学習画像及び検査画像内に設定するセルのサイズは、縦5画素横5画素である。
その結果、人検出実験の正答率は、94.8%であった。また、1つの探索領域内の識別に要する処理時間は、Positiveクラス画像、Negativeクラス画像いずれに対しても152.51マイクロ秒であった。更に、識別器を構成する弱識別器の個数と誤り率の関係を図5に示す。
(Comparative example)
As a comparative example, in the object detection method using the HOG feature amount of Dalal et al. (Non-Patent Document 1), each part of a person is obtained by machine learning using RealAdaBoost on the same learning image as in Example 1. 500 weak classifiers to be recognized were selected, and 500 weak classifiers were linearly combined to form a strong classifier. Then, a human detection experiment was performed on the same inspection image as in Example 1, and the correct answer rate was obtained. Further, the processing time required for identification within one search area having the same size as that of the first embodiment was obtained. Here, the size of the cell set in the learning image and the inspection image is 5 pixels vertically and 5 pixels horizontally.
As a result, the correct answer rate of the human detection experiment was 94.8%. The processing time required for identification within one search area was 152.51 microseconds for both the Positive class image and the Negative class image. Further, FIG. 5 shows the relationship between the number of weak classifiers constituting the classifier and the error rate.
実施例1、2、及び比較例の結果から、実施例1、2では処理時間の大幅な短縮が可能になることが確認できた。特に、実施例2では、Negativeクラス画像に対して、比較例と比較して約154倍の処理速度の向上が実現した。
実施例1、2では、大きなサイズのセルを用いて探索領域内の道路等エッジの少ない領域を高速に排除し、次に建造物や街路樹と歩行者を小さいサイズのセルを用いることによって精度よく分類している。このように、識別が簡単な領域ではセルサイズを大きくして弱識別器の数を少なくし、識別が難しい領域でセルのサイズを小さくして弱識別器の数を多くすることにより、図5に示すように、弱識別器数が少ない段階での誤り率の大幅な低下(識別精度の大幅な向上)が可能になった。
From the results of Examples 1 and 2 and the comparative example, it was confirmed that the processing time in Examples 1 and 2 can be significantly reduced. In particular, in Example 2, the processing speed was improved by about 154 times compared to the comparative example with respect to the negative class image.
In the first and second embodiments, a large-sized cell is used to quickly eliminate a region with few edges, such as a road in the search region, and then a building, a road tree, and a pedestrian are used for accuracy by using a small-sized cell. Well classified. In this way, by increasing the cell size to reduce the number of weak classifiers in a region where identification is easy, and by decreasing the cell size and increasing the number of weak classifiers in a region where identification is difficult, FIG. As shown in Fig. 2, it is possible to significantly reduce the error rate (a great improvement in the identification accuracy) when the number of weak classifiers is small.
以上、本発明を、実施の形態を参照して説明してきたが、本発明は何ら上記した実施の形態に記載した構成に限定されるものではなく、特許請求の範囲に記載されている事項の範囲内で考えられるその他の実施の形態や変形例も含むものである。
更に、本実施の形態とその他の実施の形態や変形例にそれぞれ含まれる構成要素を組合わせたものも、本発明に含まれる。
As described above, the present invention has been described with reference to the embodiment. However, the present invention is not limited to the configuration described in the above-described embodiment, and the matters described in the scope of claims. Other embodiments and modifications conceivable within the scope are also included.
Further, the present invention also includes a combination of components included in the present embodiment and other embodiments and modifications.
10:物体の検出装置、11:学習機構、12:判定機構、13:学習画像、14:探索範囲、15:セル、16:HOG特徴量算出手段、17:弱識別器生成手段、18:学習画像保存部、19:第1のHOG特徴量算出部、20:第2のHOG特徴量算出部、21:識別判定値生成手段、22:検査用HOG特徴量算出手段、23:識別手段、24:判定手段、25:探索範囲、26:物体の検出装置、27:学習機構、28:判定機構、29:判定値生成手段、30:判定値設定手段、31:識別処理管理手段 10: Object detection device, 11: Learning mechanism, 12: Determination mechanism, 13: Learning image, 14: Search range, 15: Cell, 16: HOG feature amount calculation means, 17: Weak classifier generation means, 18: Learning Image storage unit, 19: first HOG feature amount calculation unit, 20: second HOG feature amount calculation unit, 21: identification determination value generation unit, 22: inspection HOG feature amount calculation unit, 23: identification unit, 24 : Determination means, 25: search range, 26: object detection device, 27: learning mechanism, 28: determination mechanism, 29: determination value generation means, 30: determination value setting means, 31: identification process management means
Claims (6)
前記学習過程は、前記学習画像中に前記探索範囲を設定すると共に該探索範囲内の局所領域の大きさを決めるセルのサイズを複数設定し、各サイズの前記セルを順次用いて、該セルを、該セル同士を一部重ねながら前記探索範囲の全域に配置すると共に、配置した前記セル内の画像のHOG特徴量Aをそれぞれ算出し、前記探索範囲に配置した全ての前記セル毎の前記HOG特徴量Aを組み合せて前記探索範囲内の画像のHOG特徴量Bとする第1工程と、
前記HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、前記検出対象物の識別に有効なHOG特徴量を複数選択しそれぞれ前記弱識別器とする第2工程とを有することを特徴とする物体の検出方法。 A learning process for constructing a plurality of weak classifiers for identifying the detection target object using a learning image composed of an image of the detection target object and an image of the non-detection target object, while setting a search range in the inspection image, In an object detection method comprising: a determination process for determining the presence / absence of the detection target from an output value of the classifier obtained for an image within the search range by RealAdaBoost algorithm using a weak classifier,
The learning process sets the search range in the learning image, sets a plurality of cell sizes that determine the size of the local region in the search range, and sequentially uses the cells of each size, The cells are arranged over the entire search range while partially overlapping each other, the HOG feature amount A of the image in the arranged cell is calculated, and the HOG for each of the cells arranged in the search range. A first step of combining the feature amount A into the HOG feature amount B of the image within the search range;
A second step of selecting a plurality of HOG feature values effective for identifying the detection object from the HOG feature value B using the RealAdaBoost algorithm, and using each as the weak classifier. Detection method.
前記学習機構は、前記学習画像中に前記探索範囲を設定すると共に該探索範囲内の局所領域の大きさを決めるセルのサイズを複数設定し、各サイズの前記セルを順次用いて、該セルを、該セル同士を一部重ねながら前記探索範囲の全域に配置すると共に、配置した前記セル内の画像のHOG特徴量Aをそれぞれ算出し、前記探索範囲に配置した全ての前記セル毎の前記HOG特徴量Aを組み合せて前記探索範囲内の画像のHOG特徴量Bを求めるHOG特徴量算出手段と、
前記HOG特徴量Bから、RealAdaBoostのアルゴリズムを用いて、前記検出対象物の識別に有効なHOG特徴量を複数選択し前記弱識別器とする弱識別器生成手段とを有することを特徴とする物体の検出装置。 A learning mechanism for constructing a plurality of weak classifiers for identifying the detection target object using a learning image composed of an image of the detection target object and an image of the non-detection target object, while setting a search range in the inspection image, In an object detection apparatus having a determination mechanism for determining the presence or absence of the detection target object from an output value of the classifier obtained for the image within the search range by the RealAdaBoost algorithm using a weak classifier,
The learning mechanism sets the search range in the learning image and sets a plurality of cell sizes that determine the size of the local region in the search range, and sequentially uses the cells of each size to The cells are arranged over the entire search range while partially overlapping each other, the HOG feature amount A of the image in the arranged cell is calculated, and the HOG for each of the cells arranged in the search range. HOG feature quantity calculating means for obtaining the HOG feature quantity B of the image within the search range by combining the feature quantities A;
An object comprising: a weak classifier generating unit that selects a plurality of HOG feature quantities effective for identifying the detection target object from the HOG feature quantity B using the RealAdaBoost algorithm and uses the HOG feature quantity as the weak classifier Detection device.
前記判定機構は、前記識別判定値生成手段で求めた各最小値を、前記識別処理の回数毎に予め設定した前記判定値とする判定値設定手段を有していることを特徴とする物体の検出装置。
6. The object detection apparatus according to claim 5, wherein the learning mechanism detects the detection target object by repeatedly performing a learning process using a RealAdaBoost algorithm on the search range set in the learning image using the weak classifier. A determination value generating means for obtaining a minimum value of the output value output from the discriminator obtained for each number of times of the learning process,
The determination mechanism includes a determination value setting unit that sets each minimum value obtained by the identification determination value generation unit as the determination value set in advance for each number of times of the identification process. Detection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011265081A JP5901054B2 (en) | 2011-12-02 | 2011-12-02 | Object detection method and object detection apparatus using the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011265081A JP5901054B2 (en) | 2011-12-02 | 2011-12-02 | Object detection method and object detection apparatus using the method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013117865A true JP2013117865A (en) | 2013-06-13 |
JP5901054B2 JP5901054B2 (en) | 2016-04-06 |
Family
ID=48712385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011265081A Active JP5901054B2 (en) | 2011-12-02 | 2011-12-02 | Object detection method and object detection apparatus using the method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5901054B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014099027A (en) * | 2012-11-14 | 2014-05-29 | Nippon Hoso Kyokai <Nhk> | Image feature amount calculation device, learning device, identification device, and program |
JP2014106685A (en) * | 2012-11-27 | 2014-06-09 | Osaka Univ | Vehicle periphery monitoring device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009026326A (en) * | 2008-09-26 | 2009-02-05 | Sony Corp | Group study device and method |
JP2009301104A (en) * | 2008-06-10 | 2009-12-24 | Chube Univ | Object detecting apparatus |
JP2010271792A (en) * | 2009-05-19 | 2010-12-02 | Canon Inc | Image processing apparatus and method |
JP2011210181A (en) * | 2010-03-30 | 2011-10-20 | Secom Co Ltd | Learning device and object detection device |
JP2011209951A (en) * | 2010-03-29 | 2011-10-20 | Secom Co Ltd | Target object detection device |
-
2011
- 2011-12-02 JP JP2011265081A patent/JP5901054B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009301104A (en) * | 2008-06-10 | 2009-12-24 | Chube Univ | Object detecting apparatus |
JP2009026326A (en) * | 2008-09-26 | 2009-02-05 | Sony Corp | Group study device and method |
JP2010271792A (en) * | 2009-05-19 | 2010-12-02 | Canon Inc | Image processing apparatus and method |
JP2011209951A (en) * | 2010-03-29 | 2011-10-20 | Secom Co Ltd | Target object detection device |
JP2011210181A (en) * | 2010-03-30 | 2011-10-20 | Secom Co Ltd | Learning device and object detection device |
Non-Patent Citations (1)
Title |
---|
JPN6015027630; 村井 陽介、外4名: '"弱識別器の応答に基づく類似シルエット画像選択によるChamfer Matchingを用いた人領域の' 電子情報通信学会論文誌 Vol.J94-D, No.4, 20110401, pp.730-741, 社団法人電子情報通信学会 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014099027A (en) * | 2012-11-14 | 2014-05-29 | Nippon Hoso Kyokai <Nhk> | Image feature amount calculation device, learning device, identification device, and program |
JP2014106685A (en) * | 2012-11-27 | 2014-06-09 | Osaka Univ | Vehicle periphery monitoring device |
Also Published As
Publication number | Publication date |
---|---|
JP5901054B2 (en) | 2016-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107851195B (en) | Target detection using neural networks | |
TWI651662B (en) | Image annotation method, electronic device and non-transitory computer readable storage medium | |
CN106570453B (en) | Method, device and system for pedestrian detection | |
WO2017190574A1 (en) | Fast pedestrian detection method based on aggregation channel features | |
US9008365B2 (en) | Systems and methods for pedestrian detection in images | |
KR101848019B1 (en) | Method and Apparatus for Detecting Vehicle License Plate by Detecting Vehicle Area | |
KR20180104609A (en) | Method, system, apparatus and readable storage medium for realizing insurance claims fraud prevention based on a plurality of image correspondence | |
CN105404886A (en) | Feature model generating method and feature model generating device | |
CN103345631B (en) | Image characteristics extraction, training, detection method and module, device, system | |
JP6351243B2 (en) | Image processing apparatus and image processing method | |
CN103218610B (en) | The forming method of dog face detector and dog face detecting method | |
JP2008286725A (en) | Person detector and detection method | |
US20190370982A1 (en) | Movement learning device, skill discriminating device, and skill discriminating system | |
CN103593672A (en) | Adaboost classifier on-line learning method and Adaboost classifier on-line learning system | |
Ji et al. | Integrating visual selective attention model with HOG features for traffic light detection and recognition | |
CN110889421A (en) | Target detection method and device | |
CN111008576B (en) | Pedestrian detection and model training method, device and readable storage medium | |
CN109902576B (en) | Training method and application of head and shoulder image classifier | |
CN106778731B (en) | A kind of license plate locating method and terminal | |
KR101545809B1 (en) | Method and apparatus for detection license plate | |
JP2012221162A (en) | Object detection device and program | |
JP2011165170A (en) | Object detection device and program | |
KR20110103223A (en) | Keypoint matching system and method using sift algorithm for the face recognition | |
JP5901054B2 (en) | Object detection method and object detection apparatus using the method | |
JP6077785B2 (en) | Object detection apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150902 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160104 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20160112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5901054 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |