JP2007272420A - Device, method and program for generating data for object detection, and device, method and program for object detection - Google Patents

Device, method and program for generating data for object detection, and device, method and program for object detection Download PDF

Info

Publication number
JP2007272420A
JP2007272420A JP2006095400A JP2006095400A JP2007272420A JP 2007272420 A JP2007272420 A JP 2007272420A JP 2006095400 A JP2006095400 A JP 2006095400A JP 2006095400 A JP2006095400 A JP 2006095400A JP 2007272420 A JP2007272420 A JP 2007272420A
Authority
JP
Japan
Prior art keywords
image
object detection
feature amount
sample
detection data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006095400A
Other languages
Japanese (ja)
Other versions
JP4719605B2 (en
Inventor
Naoya Nakajo
直也 中條
Miyako Baba
美也子 馬場
Akio Fukamachi
映夫 深町
Shoichi Hayasaka
祥一 早坂
Yoshimasa Hara
祥雅 原
Naotaka Ichikawa
直孝 市川
Toshio Sawaki
利夫 澤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Denso Corp
Priority to JP2006095400A priority Critical patent/JP4719605B2/en
Publication of JP2007272420A publication Critical patent/JP2007272420A/en
Application granted granted Critical
Publication of JP4719605B2 publication Critical patent/JP4719605B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate data for object detection to accurately detect an object. <P>SOLUTION: A characteristic quantity calculation device 22 calculates a characteristic quantity h<SB>k</SB>by applying a characteristic quantity calculation function f to a sample image I<SB>k</SB>stored in an image database 21. A comparative determination device 24 calculates a distance d(h<SB>k</SB>, g<SB>p</SB>) between the sample image I<SB>k</SB>and a non-target image J<SB>p</SB>. The comparative determination device 24 determines whether distances (h<SB>k</SB>, g<SB>p</SB>) to all p exceed a threshold θp or not, and stores each sample image I<SB>k</SB>while attaching a label of "incorrect" when it exceeds and a label "correct" when it does not exceeds in a learning database 25. A learning device 26 performs learning by use of the sample images I<SB>k</SB>with the label of "correct" to generate a detection dictionary. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、対象物検出用データ生成装置、方法及びプログラム並びに対象物検出装置、方法及びプログラムに係り、例えば、夜間の対象物を検出するのに用いて好適な対象物検出用データ生成装置、方法及びプログラム並びに対象物検出装置、方法及びプログラムに関する。   The present invention relates to an object detection data generation apparatus, method and program, and an object detection apparatus, method and program, for example, an object detection data generation apparatus suitable for use in detecting an object at night, The present invention relates to a method, a program, an object detection device, a method, and a program.

夜間運転での安全性向上のため、車載カメラで撮像した車両前方等の映像を画像処理し、歩行者などの対象物を検出して、ドライバに検出結果を提示する対象物検出装置が必要とされている。一般に、対象物検出装置は、予め対象物のパターンを学習させた検出用辞書を用意し、入力された画像が検出用辞書に登録されたデータに近いか否かを判断することで対象物を検出する。そのため、検出用辞書に、様々な姿勢の歩行者を用意し、学習させている。この場合、用意する夜間画像の画質が問題となる。   In order to improve safety during night driving, there is a need for an object detection device that performs image processing of images of the front of the vehicle imaged by an in-vehicle camera, detects objects such as pedestrians, and presents detection results to the driver Has been. In general, the object detection device prepares a detection dictionary in which the pattern of the object is learned in advance, and determines whether the input image is close to data registered in the detection dictionary. To detect. Therefore, pedestrians of various postures are prepared and learned in the detection dictionary. In this case, the image quality of the night image to be prepared becomes a problem.

特に、学習データが低コントラストの場合、1)検出性能が低下する、2)学習が集束しない、3)辞書サイズが大きくなる、等の問題が発生する。低コントラストになる原因は、歩行者の持つ懐中電灯や自転車の前照灯によるハレーション、画像全体が低コントラストの場合、などがある。   In particular, when the learning data has a low contrast, problems such as 1) the detection performance is degraded, 2) learning is not converged, and 3) the dictionary size is increased. Causes of low contrast include halation caused by pedestrian flashlights and bicycle headlights, and when the entire image is low contrast.

具体的には、ハレーションを抑制しながら撮像制御してドライバに映像を提示する撮像装置が開示されている(特許文献1及び2参照。)。特許文献1の車載用撮像装置は、被写体から反射された赤外光を撮像する際に、ハレーションが生じない露光量になるようにシャッタ速度を固定している。特許文献2の撮像装置は、基準条件下で所定のテストパターンを撮像したときの映像信号のピーク値を50〜70IREになるように調整している。   Specifically, an imaging apparatus that presents an image to a driver by controlling imaging while suppressing halation is disclosed (see Patent Documents 1 and 2). The on-vehicle imaging device of Patent Document 1 fixes the shutter speed so as to obtain an exposure amount that does not cause halation when imaging infrared light reflected from a subject. The imaging apparatus of Patent Document 2 adjusts the peak value of the video signal when a predetermined test pattern is imaged under the reference condition to be 50 to 70 IRE.

また、走行環境に対応した適切な映像を表示する撮影システムが開示されている(特許文献3参照。)。特許文献3の撮影システムは、車外を撮影すると共に、カーナビゲーションシステムから車両の現在の走行環境情報を取得し、その走行環境情報に基づいて撮影映像の出力を制御する。   In addition, a photographing system that displays an appropriate video corresponding to the driving environment is disclosed (see Patent Document 3). The imaging system of Patent Literature 3 captures the outside of the vehicle, acquires current traveling environment information of the vehicle from the car navigation system, and controls the output of the captured video based on the traveling environment information.

一方、画像処理に適した映像を得るように露光を制御する車載カメラの露光制御装置が開示されている(特許文献4参照)。特許文献4の車載カメラの露光制御装置は、カメラによって撮像された道路画像中のレーンマークに対応する位置の濃度を算出し、算出した濃度値よりカメラの露光を制御する。
特開2004−153425号公報 特開2004−96345号公報 特開2004−123061号公報 特開2004−343303号公報
On the other hand, an in-vehicle camera exposure control apparatus that controls exposure so as to obtain an image suitable for image processing is disclosed (see Patent Document 4). The on-vehicle camera exposure control device of Patent Document 4 calculates the density of the position corresponding to the lane mark in the road image captured by the camera, and controls the exposure of the camera from the calculated density value.
JP 2004-153425 A JP 2004-96345 A JP 2004-123061 A JP 2004-343303 A

特許文献1から3に記載された技術では、撮像画像の視認性が向上されるが、この撮像画像は画像処理に適した画質でないことがある。例えば、ハレーション制御のために画像出力レベルが低下すると、画像中の歩行者のコントラストを低下してしまったり、強力な前照灯を持つ自転車によって歩行者の階調が潰れてしまったりする問題がある。したがって、これらの画像を学習用に使用することに問題がある。   The techniques described in Patent Documents 1 to 3 improve the visibility of a captured image, but the captured image may not have an image quality suitable for image processing. For example, when the image output level decreases due to halation control, the contrast of the pedestrian in the image may decrease, or the pedestrian's gradation may be crushed by a bicycle with a strong headlight. is there. Therefore, there is a problem in using these images for learning.

また、特許文献4に記載された技術は、車両に対してどのような位置にレーンマークの位置が存在するか予想できるものの、検出対象の1つである歩行者の位置を予想することはできない。よって、特許文献4に記載された技術は、歩行者の濃度値を検出して露光を制御することはできないので、歩行者については画像処理に適した画質の撮影画像を得ることができない問題がある。   Moreover, although the technique described in Patent Document 4 can predict where the lane mark is located relative to the vehicle, it cannot predict the position of a pedestrian that is one of the detection targets. . Therefore, since the technique described in Patent Document 4 cannot detect the pedestrian density value and control the exposure, the pedestrian cannot obtain a photographed image having an image quality suitable for image processing. is there.

したがって、特許文献1から4に記載された技術をもってしても、対象物を認識するための画像処理に好適な画像を取得することができず、対象物を確実に認識できない問題があった。   Therefore, even with the techniques described in Patent Documents 1 to 4, there is a problem that an image suitable for image processing for recognizing an object cannot be acquired, and the object cannot be reliably recognized.

本発明は、上述した課題を解決するために提案されたものであり、対象物を高精度に検出できるような対象物検出用データを生成する対象物検出用データ生成装置、方法及びプログラム、並びに対象物検出用データを用いて対象物を認識する対象物検出装置、方法及びプログラムを提供することを目的とする。   The present invention has been proposed in order to solve the above-described problem, and an object detection data generation device, method, and program for generating object detection data capable of detecting an object with high accuracy, and An object of the present invention is to provide an object detection apparatus, method, and program for recognizing an object using the object detection data.

本発明の対象物検出用データ生成装置は、対象外画像の特徴量である対象外特徴量を記憶する記憶手段と、入力されたサンプル画像の特徴量であるサンプル特徴量を計算する特徴量計算手段と、前記特徴量計算手段により計算されたサンプル特徴量と、前記記憶手段に記憶された対象外特徴量と、に基づいて、前記サンプル画像を対象物検出用画像として用いるかを判定する判定手段と、前記判定手段により対象物検出用画像として用いると判定されたサンプル画像を用いて学習することにより対象物検出用データを生成する学習手段と、を備えている。   The object detection data generation apparatus of the present invention includes a storage unit that stores a non-target feature amount that is a feature amount of a non-target image, and a feature amount calculation that calculates a sample feature amount that is a feature amount of an input sample image. Determining whether to use the sample image as the object detection image based on the means, the sample feature quantity calculated by the feature quantity calculation means, and the non-target feature quantity stored in the storage means And learning means for generating object detection data by learning using the sample image determined to be used as the object detection image by the determination means.

記憶手段は、対象外画像の特徴量である対象外特徴量を記憶する。ここで、対象外画像とは、学習用の対象とすべきではない画像をいう。特徴量計算手段は、入力されたサンプル画像の特徴量であるサンプル特徴量を計算する。判定手段は、計算されたサンプル特徴量と対象外特徴量とに基づいて、サンプル画像を対象物検出用画像として用いるかを判定する。ここで、サンプル画像は、無作為に収集された画像であり、対象物検出用画像として使用しない対象外画像を含んでいる。よって、判定手段は、サンプル画像から対象外画像を除いて、対象物検出用画像を選択する。学習手段は、対象物検出用画像として用いると判定されたサンプル画像を用いて学習する。   The storage unit stores a non-target feature amount that is a feature amount of the non-target image. Here, the non-target image refers to an image that should not be a learning target. The feature amount calculation means calculates a sample feature amount that is a feature amount of the input sample image. The determination unit determines whether to use the sample image as the object detection image based on the calculated sample feature amount and non-target feature amount. Here, the sample images are randomly collected images, and include non-target images that are not used as target object detection images. Therefore, the determination unit removes the non-target image from the sample image and selects the target object detection image. The learning means learns using the sample image determined to be used as the object detection image.

したがって、本発明の対象物検出用データ生成装置は、入力されたサンプル画像の特徴量であるサンプル特徴量を計算し、計算されたサンプル特徴量と対象外特徴量とに基づいてサンプル画像を対象物検出用画像として用いるかを判定し、対象物検出用画像として用いると判定されたサンプル画像を用いて学習することにより、学習が収束しやすくなり、容易に対象物を検出できるような対象物検出用データを生成することができる。なお、本発明は、対象物検出用データ生成方法及びプログラムにも適用可能である。   Therefore, the object detection data generation apparatus of the present invention calculates a sample feature amount that is a feature amount of the input sample image, and targets the sample image based on the calculated sample feature amount and non-target feature amount. An object that can be used as an object detection image and learns using a sample image that is determined to be used as an object detection image, so that learning can be easily converged and the object can be easily detected. Detection data can be generated. Note that the present invention can also be applied to an object detection data generation method and program.

本発明の対象物検出装置は、請求項1から請求項4のいずれか1項に記載された対象物検出用データ生成装置により生成された対象物検出用データを記憶する対象物検出用データ記憶手段と、画像を入力する画像入力手段と、入力された画像の特徴量である画像特徴量を計算する画像特徴量計算手段と、前記画像特徴量計算手段により計算された画像特徴量と、前記対象物検出用データ記憶手段に記憶された対象物検出用データと、に基づいて、対象物を識別する識別手段と、を備えている。   An object detection apparatus according to the present invention is an object detection data storage for storing object detection data generated by the object detection data generation apparatus according to any one of claims 1 to 4. Means, an image input means for inputting an image, an image feature quantity calculation means for calculating an image feature quantity that is a feature quantity of the input image, an image feature quantity calculated by the image feature quantity calculation means, Identification means for identifying the object based on the object detection data stored in the object detection data storage means.

したがって、本発明の対象物検出装置は、請求項1から請求項4のいずれか1項に記載された対象物検出用データ生成装置により生成された対象物検出用データを用いて対象物を検出するので、対象物を高精度に検出することができる。なお、本発明は、対象物検出方法及びプログラムにも適用可能である。   Therefore, the object detection apparatus of the present invention detects an object using the object detection data generated by the object detection data generation apparatus according to any one of claims 1 to 4. Therefore, the object can be detected with high accuracy. The present invention can also be applied to an object detection method and program.

本発明は、対象物を高精度に検出できる対象物検出用データを生成することができる。   The present invention can generate object detection data that can detect an object with high accuracy.

以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態に係る対象物検出システムの構成を示すブロック図である。本実施形態に係る対象物検出システムは、対象物を検出する対象物検出装置10と、対象物検出装置10で使用される検出用辞書を生成する学習用データベース生成装置20と、を備えている。   FIG. 1 is a block diagram showing a configuration of an object detection system according to an embodiment of the present invention. The object detection system according to the present embodiment includes an object detection device 10 that detects an object and a learning database generation device 20 that generates a detection dictionary used in the object detection device 10. .

対象物検出装置10は、例えば図2(A)に示すように、車両に搭載される近赤外カメラとして用いられ、夜間の歩行者や自転車乗員を検出してドライバに提示することにより運転支援を行う。近赤外カメラは、図2(B)に示すように、近赤外光を歩行者等の対象物に投光することにより、車両のロービーム領域よりも更に広い範囲を対象範囲として、対象物を検出することができる。   For example, as shown in FIG. 2A, the object detection device 10 is used as a near-infrared camera mounted on a vehicle, and detects driving of a night pedestrian or a bicycle occupant and presents it to a driver. I do. As shown in FIG. 2 (B), the near-infrared camera projects near-infrared light onto an object such as a pedestrian, thereby setting a range wider than the low beam area of the vehicle as an object range. Can be detected.

対象物検出装置10は、画像データを入力する画像入力装置11と、画像データに基づいて特徴量を計算する特徴量計算装置12と、検出対象となる対象物の特徴量を予め記憶する検出用辞書記憶装置13と、計算された特徴量と検出用辞書記憶装置13とを用いて対象物を識別する識別装置14と、対象物の識別結果を出力する出力装置15とを備えている。   The object detection device 10 includes an image input device 11 that inputs image data, a feature amount calculation device 12 that calculates a feature amount based on the image data, and a feature for detection that stores in advance the feature amount of the target object to be detected. A dictionary storage device 13, an identification device 14 for identifying an object using the calculated feature value and the detection dictionary storage device 13, and an output device 15 for outputting the identification result of the object are provided.

画像入力装置11は、例えば図示しない撮像装置で撮像された画像データを入力する。なお、撮像装置は、近赤外光の対象物からの反射光に応じて撮像するものである。画像入力装置11は、画像データを特徴量計算装置12に入力させることができれば、記録媒体から読み出した画像データを用いてもよいし、図示しないネットワークを介して送信された画像データを用いてもよい。   The image input device 11 inputs image data captured by an imaging device (not shown), for example. Note that the imaging device captures an image according to reflected light from a near-infrared light target. The image input device 11 may use image data read from a recording medium or image data transmitted via a network (not shown) as long as the image data can be input to the feature amount calculation device 12. Good.

特徴量計算装置12は、画像入力装置11から入力された画像データに基づいて特徴量を計算する。特徴量は、特に限定されるものではないが、例えば次のようなものがある。   The feature amount calculation device 12 calculates a feature amount based on the image data input from the image input device 11. The feature amount is not particularly limited, but for example, there are the following.

図3は、特徴量計算装置12によって計算される特徴量の一例を示す図である。特徴量計算装置12は、画像入力装置11から入力された画像データを構成する輝度データを用いて、輝度値の頻度を計数することにより輝度ヒストグラムを生成する。また、特徴量計算装置12は、画像データを構成する輝度データをフーリエ変換することにより、輝度データの周波数成分を計算してもよい。   FIG. 3 is a diagram illustrating an example of a feature amount calculated by the feature amount calculation device 12. The feature amount calculation device 12 generates a luminance histogram by counting the frequency of luminance values using luminance data constituting the image data input from the image input device 11. Further, the feature quantity calculation device 12 may calculate the frequency component of the luminance data by performing Fourier transform on the luminance data constituting the image data.

検出用辞書記憶装置13は、対象物の特徴量を検出用辞書として記憶する。本実施形態では、対象物は例えば歩行者、自転車乗員とするが、これに限定されるものではない。なお、検出用辞書記憶装置13には、対象物の特徴量として、ハレーションの生じた画像データ又は低コントラストの画像データから算出される特徴量は含まれていない。また、詳しくは後述するが、対象物の特徴量に関する検出用辞書は学習用データベース生成装置20によって生成される。   The detection dictionary storage device 13 stores the feature amount of the object as a detection dictionary. In the present embodiment, the object is, for example, a pedestrian or a bicycle occupant, but is not limited thereto. Note that the detection dictionary storage device 13 does not include a feature amount calculated from image data in which halation has occurred or low-contrast image data as a feature amount of the object. As will be described in detail later, a detection dictionary related to the feature amount of the object is generated by the learning database generation device 20.

識別装置14は、検出用辞書記憶装置13を参照し、特徴量計算装置12で計算された特徴量に基づいて、画像入力装置11に入力された画像データに対象物があるか否かの識別処理を行う。出力装置15は、識別装置14の識別結果をする。なお、出力装置15は、表示装置、音声出力装置のいずれであってもよい。   The identification device 14 refers to the detection dictionary storage device 13 and identifies whether there is an object in the image data input to the image input device 11 based on the feature amount calculated by the feature amount calculation device 12. Process. The output device 15 gives the identification result of the identification device 14. The output device 15 may be either a display device or an audio output device.

このような対象物検出装置10は、検出用辞書記憶装置13に記憶されている検出用辞書によって対象物の検出性能が異なる。以下、対象物の検出性能が向上するような検出用辞書の生成について説明する。   Such an object detection device 10 has different object detection performance depending on the detection dictionary stored in the detection dictionary storage device 13. Hereinafter, generation of a detection dictionary that improves the detection performance of an object will be described.

学習用データベース生成装置20は、図1に示すように、画像データを記憶する画像データベース21と、特徴量を計算する特徴量計算装置22と、対象外の画像データの特徴量を記憶する対象外画像データベース23と、計算された特徴量と対象外画像データの特徴量とを比較する比較判定装置24と、画像データと共に比較判定装置24の学習結果を記憶する学習用データベース25と、対象物検出用画像を用いて学習する学習装置26と、を備えている。   As illustrated in FIG. 1, the learning database generation device 20 includes an image database 21 that stores image data, a feature amount calculation device 22 that calculates feature amounts, and a non-target portion that stores feature amounts of non-target image data. Image database 23, comparison determination device 24 that compares the calculated feature amount with the feature amount of the non-target image data, learning database 25 that stores the learning result of comparison determination device 24 together with the image data, and object detection And a learning device 26 that learns using the business image.

画像データベース21には、例えば、夜間の歩行者、自転車乗員などの対象物に関する様々なサンプル画像(画像データ)が記憶されている。これらのサンプル画像には、対象物検出に適した画像(例えば高コントラストの画像)、対象物検出に適さない画像(例えば低コントラストの画像、ハレーションが生じた画像)が含まれている。ここでは、画像データベース21には、N枚分のサンプル画像が記憶されているものとし、以下では、k(k=1、2、・・・、N)番目のサンプル画像をIkとする。 In the image database 21, for example, various sample images (image data) relating to objects such as night pedestrians and bicycle occupants are stored. These sample images include images suitable for object detection (for example, high-contrast images) and images not suitable for object detection (for example, low-contrast images, images with halation). Here, it is assumed that N sample images are stored in the image database 21, and in the following, the k (k = 1, 2,..., N) -th sample image is I k .

また、対象外画像データベース23には、検出対象から除外する画像(対象外画像)の特徴量が予め記憶されている。対象外画像の特徴量は、特徴量計算装置22によって予め計算されたものである。ここで、対象外画像とは例えば次のようなものである。   The non-target image database 23 stores in advance the feature amounts of images (non-target images) to be excluded from detection targets. The feature amount of the non-target image is calculated in advance by the feature amount calculation device 22. Here, the non-target image is, for example, as follows.

図4は、対象外画像の一例を示す図である。同図(A)から(C)はハレーションが生じた画像であり、同図(D)から(F)は低コントラストの画像である。ハレーションが生じた画像は、例えば自転車のライトによってにじみが生じている。また、低コントラストの画像は、対象物を識別するための情報が不足している。よって、サンプル画像からこのような対象外画像は除外される。   FIG. 4 is a diagram illustrating an example of a non-target image. FIGS. 4A to 4C are images in which halation has occurred, and FIGS. 4D to 4F are low-contrast images. An image in which halation has occurred is blurred by, for example, a bicycle light. In addition, the low-contrast image lacks information for identifying the object. Therefore, such a non-target image is excluded from the sample image.

ここで、対象外画像がM枚ある場合において、p番目の対象外画像をJp(p=1、2、・・・、M)とする。そして予め、特徴量計算装置22は、p番目の対象外画像Jpに特徴量計算関数fを用いて特徴量gpを計算しておく。すなわち、特徴量計算装置22は、次の式(1)を計算する。 Here, when there are M non-target images, the p-th non-target image is J p (p = 1, 2,..., M). The feature amount calculation device 22 calculates the feature amount g p in advance using the feature amount calculation function f for the p-th non-target image J p . That is, the feature quantity calculation device 22 calculates the following equation (1).

図5(A)はハレーションが生じた対象外画像の輝度ヒストグラム、(B)は低コントラストの対象外画像の輝度ヒストグラムを示す図である。特徴量計算装置22によって計算されたこれらの対象外画像の特徴量gpは、対象外画像データベース23に記憶されている。 FIG. 5A shows a luminance histogram of a non-target image in which halation has occurred, and FIG. 5B shows a luminance histogram of a low-contrast non-target image. The feature quantity g p of these non-target images calculated by the feature quantity calculation device 22 is stored in the non-target image database 23.

図6は、学習用データベース生成ルーチンを示すフローチャートである。すなわち、学習用データベース生成装置20は、次のステップS1以降の処理を実行する。   FIG. 6 is a flowchart showing a learning database generation routine. That is, the learning database generation device 20 executes the processing after the next step S1.

ステップS1では、特徴量計算装置22は、画像データベース21に記憶されているサンプル画像Ikに特徴量計算関数fを用いて特徴量hkを計算する。すなわち、特徴量計算装置22は、次の式(2)を計算して、ステップS2に進む。 In step S < b> 1, the feature quantity calculation device 22 calculates a feature quantity h k using the feature quantity calculation function f for the sample image I k stored in the image database 21. That is, the feature quantity calculation device 22 calculates the following equation (2) and proceeds to step S2.

ステップS2では、比較判定装置24は、サンプル画像Ikと対象外画像Jpとの距離を評価する。具体的には、比較判定装置24は、特徴量計算装置22で計算されたサンプル画像Ikの特徴量hkと、対象外画像データベース23に記憶された対象外画像Jpの特徴量gpとを、距離計算関数dに適用して、距離d(hk、gp)を計算する。そして、比較判定装置24は、すべてのpについて距離d(hk、gp)を計算して、ステップS3に進む。 In step S2, the comparison / determination device 24 evaluates the distance between the sample image I k and the non-target image J p . Specifically, the comparison determination device 24 includes the feature amount h k of the sample image I k calculated by the feature amount calculation device 22 and the feature amount g p of the non-target image J p stored in the non-target image database 23. Are applied to the distance calculation function d to calculate the distance d (h k , g p ). Then, the comparison / determination device 24 calculates the distance d (h k , g p ) for all p, and proceeds to step S3.

ステップS3では、比較判定装置24は、すべてのpに対して距離(hk、gp)がすべて閾値θpを超えるか否か、すなわち、次の式(3)を満たすか否かを判定し、肯定判定のときはステップS4に進み、否定判定のときはステップS5に進む。 In step S3, the comparison / determination device 24 determines whether or not all the distances (h k , g p ) exceed the threshold θ p for all p , that is, whether or not the following equation (3) is satisfied. If the determination is affirmative, the process proceeds to step S4. If the determination is negative, the process proceeds to step S5.

なお、距離計算関数dの例としては、ユークリッド距離、マンハッタン距離、角度基準などがある。すなわち、比較判定装置24は、例えば式(4)を計算すればよい。   Examples of the distance calculation function d include Euclidean distance, Manhattan distance, and angle reference. That is, the comparison / determination device 24 may calculate, for example, Expression (4).

式(4)は、t=2の場合はユークリッド距離を表し、t=1の場合はマンハッタン距離を表す。また、比較判定装置24は、例えば次の式(5)を計算してもよい。   Equation (4) represents the Euclidean distance when t = 2, and the Manhattan distance when t = 1. Further, the comparison determination device 24 may calculate, for example, the following equation (5).

式(5)は、サンプル画像Ik、対象外画像Jpをそれぞれベクトルで表したときの2つのベクトルのなす角θijから求められる。 Expression (5) is obtained from an angle θ ij formed by two vectors when the sample image I k and the non-target image J p are represented by vectors.

ステップS4では、比較判定装置24は、サンプル画像Ikに「不正解」のラベルを付し、そのサンプル画像Ikを学習用データベース25に格納する。また、ステップS5では、比較判定装置24は、サンプル画像Ikに「正解」のラベルを付し、そのサンプル画像Ikを学習用データベース25に格納する。そして、N枚のサンプル画像Ik(k=1〜N)について、上述したステップS1からステップS5までの処理が施されると、ステップS6に進む。 In step S < b> 4, the comparison determination device 24 labels the sample image I k as “incorrect” and stores the sample image I k in the learning database 25. In step S < b> 5, the comparison determination device 24 labels the sample image I k as “correct”, and stores the sample image I k in the learning database 25. When the processing from step S1 to step S5 described above is performed on the N sample images I k (k = 1 to N), the process proceeds to step S6.

ステップS6では、学習装置26は、学習用データベース25を用いて、例えば公知のAdaboost手法によって学習する。Adaboost手法は、複数の要素識別器を使用して、学習によって各要素識別器の結合係数を決定する。例えば、各訓練パターンは、個々の要素識別器用の訓練集合に対して、そのパターンが選択される確率が決定されるような重みを受け取る。このため、ある1つの訓練パターンが正確に識別されるのであれば、その次の要素識別器においてもう1度使われる機会は減少する。逆に、そのパターンが正確に識別されなければ、もう1度使われる機会は増大する。このようにして、Adaboost手法は、有用な情報があるパターンや、難しいパターンに焦点を合わせている。そして、学習の結果、最終的に構成される判別関数は、次の式(6)で表される。   In step S6, the learning device 26 learns by using, for example, a well-known Adaboost technique, using the learning database 25. The Adaboost method uses a plurality of element classifiers, and determines a coupling coefficient of each element classifier by learning. For example, each training pattern receives a weight such that the probability of that pattern being selected is determined for a training set for an individual element classifier. Therefore, if a certain training pattern is correctly identified, the chance of being used again in the next element classifier is reduced. Conversely, if the pattern is not correctly identified, the chance of being used again increases. In this way, the Adaboost method focuses on patterns with useful information and difficult patterns. The discriminant function finally constructed as a result of learning is expressed by the following equation (6).

ここで、hk(x)は要素識別器であり、akは結合重み(結合係数)である。kは要素識別器の数である。学習装置26は、このkを増減させて学習することで学習精度を調整する。式(6)の判別関数は、入力データを正解と判断する場合は正の値を出力し、不正解と判断する場合は負の値を出力する。学習装置26は、これらのk、hk(x)、akの値を検出用辞書記憶装置13に記憶させる。 Here, h k (x) is an element discriminator, and a k is a coupling weight (coupling coefficient). k is the number of element identifiers. The learning device 26 adjusts the learning accuracy by learning by increasing / decreasing this k. The discriminant function of equation (6) outputs a positive value when the input data is determined to be correct, and outputs a negative value when it is determined to be incorrect. The learning device 26 stores the values of k, h k (x), and a k in the detection dictionary storage device 13.

学習装置26の学習方法としては、他に、ニューラルネットワークを使用した学習方法なども利用できる。その場合でも、学習の結果を記憶するための検出用辞書記憶装置13が構成されるのは勿論である。   As a learning method of the learning device 26, a learning method using a neural network can also be used. Even in that case, of course, the detecting dictionary storage device 13 for storing the learning result is configured.

なお、従来の学習用データベース生成装置は、学習のために数千から数万のデータを集めた学習用データベースを用意し、すべてのデータについて学習すべきか否かを判定するのが非常に煩雑であり、容易ではない。   In addition, the conventional learning database generation device prepares a learning database that collects thousands to tens of thousands of data for learning, and it is very complicated to determine whether or not all data should be learned. Yes, not easy.

これに対して、本実施形態に係る学習用データベース生成装置20は、学習させないデータを対象外画像として対象外画像データベース23に用意しておき、対象外画像に似ているか否かのフラグをサンプル画像に与える。そして、学習用データベース生成装置20は、対象外画像に似ていないサンプル画像のみを用いて学習することによって、学習結果が集束しやすくなり、検出用辞書記憶装置13に記憶される検出用辞書をコンパクトにすることができる。   In contrast, the learning database generation apparatus 20 according to the present embodiment prepares data that is not to be learned as a non-target image in the non-target image database 23, and samples a flag indicating whether or not the image is similar to the non-target image. Give to the image. Then, the learning database generation device 20 learns using only the sample images that are not similar to the non-target images, so that the learning results are easily converged, and the detection dictionary stored in the detection dictionary storage device 13 is stored. It can be made compact.

この結果、対象物検出装置10は、学習用データベース生成装置20によって作成された検出用辞書を用いて対象物を検出することにより、コントラストの高い画像から対象物を高精度に検出することができる。   As a result, the object detection device 10 can detect the object with high accuracy from an image with high contrast by detecting the object using the detection dictionary created by the learning database generation device 20. .

なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能であるのは勿論である。例えば、対象外画像として、コントラストの低い画像やハレーションの生じた画像を例に挙げたが、これに限定されるものではない。   Note that the present invention is not limited to the above-described embodiment, and it is needless to say that the present invention can also be applied to a design modified within the scope of the claims. For example, examples of non-target images include low-contrast images and images with halation, but are not limited thereto.

本発明の実施の形態に係る対象物検出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the target object detection system which concerns on embodiment of this invention. (A)は車両に搭載される近赤外カメラを示す図、(B)は車両のロービーム領域よりも更に広い範囲を対象範囲として対象物を検出することを説明するための図である。(A) is a figure which shows the near-infrared camera mounted in a vehicle, (B) is a figure for demonstrating detecting a target object for the range still wider than the low beam area | region of a vehicle. 特徴量計算装置によって計算される特徴量の一例を示す図である。It is a figure which shows an example of the feature-value calculated by the feature-value calculation apparatus. 対象外画像の一例を示す図である。It is a figure which shows an example of a non-target image. (A)はハレーションが生じた対象外画像の輝度ヒストグラム、(B)は低コントラストの対象外画像の輝度ヒストグラムを示す図である。(A) is a luminance histogram of a non-target image in which halation has occurred, and (B) is a diagram showing a luminance histogram of a low-contrast non-target image. 学習用データベース生成ルーチンを示すフローチャートである。It is a flowchart which shows the database production | generation routine for learning.

符号の説明Explanation of symbols

10 対象物検出装置
11 画像入力装置
12 特徴量計算装置
13 検出用辞書
14 識別装置
15 出力装置
20 学習用データベース生成装置
21 画像データベース
22 特徴量計算装置
23 対象外画像データベース
24 比較判定装置
25 学習用データベース
26 学習装置
DESCRIPTION OF SYMBOLS 10 Object detection apparatus 11 Image input device 12 Feature quantity calculation device 13 Detection dictionary 14 Identification device 15 Output device 20 Learning database generation device 21 Image database 22 Feature quantity calculation device 23 Non-target image database 24 Comparison judgment device 25 For learning Database 26 Learning device

Claims (9)

対象外画像の特徴量である対象外特徴量を記憶する記憶手段と、
入力されたサンプル画像の特徴量であるサンプル特徴量を計算する特徴量計算手段と、
前記特徴量計算手段により計算されたサンプル特徴量と、前記記憶手段に記憶された対象外特徴量と、に基づいて、前記サンプル画像を対象物検出用画像として用いるかを判定する判定手段と、
前記判定手段により対象物検出用画像として用いると判定されたサンプル画像を用いて学習することにより対象物検出用データを生成する学習手段と、
を備えた対象物検出用データ生成装置。
Storage means for storing a non-target feature quantity that is a feature quantity of the non-target image;
Feature quantity calculation means for calculating a sample feature quantity that is a feature quantity of the input sample image;
A determination unit that determines whether to use the sample image as an object detection image based on the sample feature amount calculated by the feature amount calculation unit and the non-target feature amount stored in the storage unit;
Learning means for generating object detection data by learning using a sample image determined to be used as the object detection image by the determination means;
An object detection data generation apparatus comprising:
前記判定手段は、前記サンプル特徴量とすべての対象外特徴量との各々の距離を計算し、少なくとも1つの距離が閾値を超えていないときに、前記サンプル画像を対象物検出用画像として用いると判定する
請求項1に記載の対象物検出用データ生成装置。
The determination unit calculates each distance between the sample feature amount and all the non-target feature amounts, and uses the sample image as an object detection image when at least one distance does not exceed a threshold value. The object detection data generation device according to claim 1.
前記距離は、ユークリッド距離、マンハッタン距離、角度基準のいずれか1つである
請求項2に記載の対象物検出用データ生成装置。
The object detection data generation device according to claim 2, wherein the distance is one of a Euclidean distance, a Manhattan distance, and an angle reference.
前記特徴量は、輝度ヒストグラム又は輝度周波数成分である
請求項1から請求項3のいずれか1項に記載の対象物検出用データ生成装置。
The object generation data generation device according to any one of claims 1 to 3, wherein the feature amount is a luminance histogram or a luminance frequency component.
入力されたサンプル画像の特徴量であるサンプル特徴量を計算し、
前記計算されたサンプル特徴量と、対象外画像の特徴量である対象外特徴量と、に基づいて、前記サンプル画像を対象物検出用画像として用いるかを判定し、
前記対象物検出用画像として用いると判定されたサンプル画像を用いて学習することにより対象物検出用データを生成する
対象物検出用データ生成方法。
Calculate the sample feature value that is the feature value of the input sample image,
Based on the calculated sample feature amount and the non-target feature amount that is the feature amount of the non-target image, it is determined whether to use the sample image as an object detection image;
An object detection data generation method for generating object detection data by learning using a sample image determined to be used as the object detection image.
コンピュータに、
入力されたサンプル画像の特徴量であるサンプル特徴量を計算させ、
前記計算されたサンプル特徴量と、対象物画像から除外する対象外画像の特徴量である対象外特徴量と、に基づいて、前記サンプル画像を対象物検出用画像として用いるかを判定させ、
前記対象物検出用画像として用いると判定されたサンプル画像を用いて学習することにより対象物検出用データを生成させる
対象物検出用データ生成プログラム。
On the computer,
Calculate the sample feature value that is the feature value of the input sample image,
Based on the calculated sample feature amount and a non-target feature amount that is a feature amount of a non-target image excluded from the target image, it is determined whether to use the sample image as a target detection image,
An object detection data generation program for generating object detection data by learning using a sample image determined to be used as the object detection image.
請求項1から請求項4のいずれか1項に記載された対象物検出用データ生成装置により生成された対象物検出用データを記憶する対象物検出用データ記憶手段と、
画像を入力する画像入力手段と、
入力された画像の特徴量である画像特徴量を計算する画像特徴量計算手段と、
前記画像特徴量計算手段により計算された画像特徴量と、前記対象物検出用データ記憶手段に記憶された対象物検出用データと、に基づいて、対象物を識別する識別手段と、
を備えた対象物検出装置。
Object detection data storage means for storing object detection data generated by the object detection data generation device according to any one of claims 1 to 4,
An image input means for inputting an image;
An image feature amount calculating means for calculating an image feature amount which is a feature amount of the input image;
Identification means for identifying an object based on the image feature quantity calculated by the image feature quantity calculation means and the object detection data stored in the object detection data storage means;
An object detection apparatus comprising:
画像を入力し、
入力された画像の特徴量である画像特徴量を計算し、
前記計算された画像特徴量と、請求項5に記載された対象物検出用データ生成方法により生成された対象物検出用データと、に基づいて、対象物を識別する
対象物検出方法。
Enter an image,
Calculate the image feature amount that is the feature amount of the input image,
An object detection method for identifying an object based on the calculated image feature amount and the object detection data generated by the object detection data generation method according to claim 5.
コンピュータに、
入力された画像の特徴量である画像特徴量を計算させ、
前記計算された画像特徴量と、請求項5に記載された対象物検出用データ生成方法により生成された対象物検出用データと、に基づいて、対象物を識別させる
対象物検出プログラム。
On the computer,
Calculate the image feature amount that is the feature amount of the input image,
An object detection program for identifying an object based on the calculated image feature amount and the object detection data generated by the object detection data generation method according to claim 5.
JP2006095400A 2006-03-30 2006-03-30 Object detection data generation device, method and program, and object detection device, method and program Active JP4719605B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006095400A JP4719605B2 (en) 2006-03-30 2006-03-30 Object detection data generation device, method and program, and object detection device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006095400A JP4719605B2 (en) 2006-03-30 2006-03-30 Object detection data generation device, method and program, and object detection device, method and program

Publications (2)

Publication Number Publication Date
JP2007272420A true JP2007272420A (en) 2007-10-18
JP4719605B2 JP4719605B2 (en) 2011-07-06

Family

ID=38675181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006095400A Active JP4719605B2 (en) 2006-03-30 2006-03-30 Object detection data generation device, method and program, and object detection device, method and program

Country Status (1)

Country Link
JP (1) JP4719605B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101543105B1 (en) 2013-12-09 2015-08-07 현대자동차주식회사 Method And Device for Recognizing a Pedestrian and Vehicle supporting the same
CN117593766A (en) * 2023-12-28 2024-02-23 天科院环境科技发展(天津)有限公司 Investigation method for wild animal population number based on unmanned aerial vehicle shooting image processing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273475A (en) * 2000-03-24 2001-10-05 Denso Corp Method and device for selecting teacher data, controller with learning function and recording medium
JP2003284682A (en) * 2002-03-28 2003-10-07 Pentax Corp Automatic light adjustment device for endoscope and endoscopic apparatus
JP2004201085A (en) * 2002-12-19 2004-07-15 Hitachi Ltd Visual information processor and application system
JP2005004454A (en) * 2003-06-11 2005-01-06 National Institute Of Advanced Industrial & Technology Method for classifying and registering face image
JP2005094710A (en) * 2003-09-19 2005-04-07 Toshiba Corp Reflex action information acquisition apparatus and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273475A (en) * 2000-03-24 2001-10-05 Denso Corp Method and device for selecting teacher data, controller with learning function and recording medium
JP2003284682A (en) * 2002-03-28 2003-10-07 Pentax Corp Automatic light adjustment device for endoscope and endoscopic apparatus
JP2004201085A (en) * 2002-12-19 2004-07-15 Hitachi Ltd Visual information processor and application system
JP2005004454A (en) * 2003-06-11 2005-01-06 National Institute Of Advanced Industrial & Technology Method for classifying and registering face image
JP2005094710A (en) * 2003-09-19 2005-04-07 Toshiba Corp Reflex action information acquisition apparatus and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101543105B1 (en) 2013-12-09 2015-08-07 현대자동차주식회사 Method And Device for Recognizing a Pedestrian and Vehicle supporting the same
CN117593766A (en) * 2023-12-28 2024-02-23 天科院环境科技发展(天津)有限公司 Investigation method for wild animal population number based on unmanned aerial vehicle shooting image processing
CN117593766B (en) * 2023-12-28 2024-04-02 天科院环境科技发展(天津)有限公司 Investigation method for wild animal population number based on unmanned aerial vehicle shooting image processing

Also Published As

Publication number Publication date
JP4719605B2 (en) 2011-07-06

Similar Documents

Publication Publication Date Title
JP6266238B2 (en) Approaching object detection system and vehicle
US10025998B1 (en) Object detection using candidate object alignment
JP7196412B2 (en) Object recognition device and object recognition method
KR101912914B1 (en) Method and system for recognition of speed limit sign using front camera
EP3223196B1 (en) A method and a device for generating a confidence measure for an estimation derived from images captured by a camera mounted on a vehicle
JP4426436B2 (en) Vehicle detection device
Khammari et al. Vehicle detection combining gradient analysis and AdaBoost classification
EP1606769B1 (en) System and method for vehicle detection and tracking
JP5127392B2 (en) Classification boundary determination method and classification boundary determination apparatus
JP5423631B2 (en) Image recognition device
US7466860B2 (en) Method and apparatus for classifying an object
JP5178276B2 (en) Image recognition device
JP2012531685A (en) Image processing method for a driver assistance system of a vehicle for detecting and classifying at least a part of at least one set image element
JP6818626B2 (en) Vehicle type discrimination device, vehicle type discrimination method, and vehicle type discrimination system
JP2007249841A (en) Image recognition device
JP2007310805A (en) Object recognizing device
JP2021033510A (en) Driving assistance device
JP2012221162A (en) Object detection device and program
JP7072765B2 (en) Image processing device, image recognition device, image processing program, and image recognition program
JP2007011490A (en) Device and method for detecting road parameter
JP4719605B2 (en) Object detection data generation device, method and program, and object detection device, method and program
EP3786845A1 (en) Difficulty-adaptive training for machine learning modules
CN116434156A (en) Target detection method, storage medium, road side equipment and automatic driving system
CN116468931A (en) Vehicle part detection method, device, terminal and storage medium
Kavitha et al. Traffic Sign Recognition and Voice-Activated Driving Assistance Using Raspberry Pi

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110404

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250