JP2010262576A - Subject detecting apparatus and program - Google Patents

Subject detecting apparatus and program Download PDF

Info

Publication number
JP2010262576A
JP2010262576A JP2009114537A JP2009114537A JP2010262576A JP 2010262576 A JP2010262576 A JP 2010262576A JP 2009114537 A JP2009114537 A JP 2009114537A JP 2009114537 A JP2009114537 A JP 2009114537A JP 2010262576 A JP2010262576 A JP 2010262576A
Authority
JP
Japan
Prior art keywords
image
window
detection
size
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009114537A
Other languages
Japanese (ja)
Inventor
Koichiro Yamaguchi
晃一郎 山口
Yasunori Kamiya
保徳 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2009114537A priority Critical patent/JP2010262576A/en
Publication of JP2010262576A publication Critical patent/JP2010262576A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the accuracy of detecting a subject even if the way in which the subject is seen varies as the size and the position of the subject in an input image vary. <P>SOLUTION: A window image extraction unit 20 extracts a window image from an input image. A reliability obtaining unit 22 obtains from a reliability storage unit 58 a reliability corresponding to the probability of existence of the subject of detection with the size and the position of the window image which are calculated on the basis of the size and the position of a subject image extracted in advance from a learning image. A feature quantity calculation unit 24 calculates the feature quantity of the window image. An evaluation value calculation unit 26 compares the feature quantity of the window image with the feature quantity of an identification model stored in an identification model storage unit 74 and calculates an evaluation value indicating the likelihood that the subject in the window image is the subject of detection. A determination unit 28 determines whether or not the window image is the subject of detection based on the reliability and the evaluation value. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、対象物検出装置及びプログラムに関し、特に、撮像した画像から対象物を検出する対象物検出装置及びプログラムに関する。   The present invention relates to an object detection apparatus and program, and more particularly, to an object detection apparatus and program for detecting an object from a captured image.

近年、車載カメラで撮像した車両周辺の映像を画像処理し、周辺車両などの対象物を検出してドライバに検出結果を提示する対象物検出装置を搭載する車両が増加している。   2. Description of the Related Art In recent years, an increasing number of vehicles are equipped with an object detection device that performs image processing on an image around a vehicle imaged by an in-vehicle camera, detects an object such as a surrounding vehicle, and presents a detection result to a driver.

例えば、カメラで撮影した画像において物体が存在する可能性がある領域を処理対象領域として特定し、この処理対象領域内の各エッジ成分のエッジ方向やエッジ強度の分布を求め、物体の種別に応じて分布に現れる特徴に基づいて、求めた分布から物体の種別を判定する物体種別判定装置が提案されている(特許文献1参照)。   For example, an area where an object may exist in an image captured by a camera is specified as a processing target area, and the edge direction and edge strength distribution of each edge component in the processing target area are obtained, and according to the type of the object There has been proposed an object type determination apparatus that determines the type of an object from the obtained distribution based on the features that appear in the distribution (see Patent Document 1).

また、入力された識別対象画像を複数の部分領域に分割し、予め学習により算出された対象画像と非対象画像とを区別するための閾値を用いて、部分領域が人物の部分領域であるか否かを識別し、入力画像が撮像された環境から入力画像が撮像された環境の領域種別を決定し、領域種別に基づいて対象物体の部分領域の重みを変更し、部分領域毎の識別結果を統合して最終的に入力画像が人物か否かを識別する物体認識装置が提案されている(特許文献2参照)。   Whether the partial area is a partial area of a person by dividing the input identification target image into a plurality of partial areas and using a threshold value for distinguishing between the target image and the non-target image calculated in advance. Determining whether or not the area type of the environment where the input image was captured from the environment where the input image was captured, changing the weight of the partial area of the target object based on the area type, and the identification result for each partial area Has been proposed (see Patent Document 2), which finally identifies whether or not the input image is a person.

特開2007−156626号公報JP 2007-156626 A 特開2007−310805号公報JP 2007-310805 A

しかしながら、特許文献1の物体種別判定装置では、入力画像上で対象物が存在する位置が異なることにより、対象物の形状や向きなどの見え方が変化するような場合では、対象物が存在する位置によりエッジ情報も変化してしまうため、識別精度を高めることが困難である、という問題がある。   However, in the object type determination device disclosed in Patent Document 1, there is an object in the case where the appearance of the object, such as the shape and orientation, changes due to different positions where the object exists on the input image. Since the edge information also changes depending on the position, there is a problem that it is difficult to improve the identification accuracy.

また、特許文献2の物体認識装置では、部分的な隠れや部分的な形状変化にはある程度対応できるが、対象物全体の形状や向きなどの見え方が変化するような場合では、対応することが困難である、という問題がある。   In addition, the object recognition device of Patent Document 2 can cope with partial hiding and partial shape change to some extent, but it can cope with the case where the appearance of the entire object changes in shape and orientation. There is a problem that is difficult.

本発明は、上述した問題を解決するために成されたものであり、入力画像における対象物の大きさ及び位置の相違により対象物の見え方が相違する場合でも、対象物検出の精度を向上させることができる対象物検出装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and improves the accuracy of object detection even when the object looks different due to the difference in size and position of the object in the input image. It is an object of the present invention to provide an object detection device and a program that can be executed.

上記目的を達成するために、第1の発明の対象物検出装置は、入力画像に対してサイズが異なる複数のウインドウ枠の各々を所定量ずつ移動させながら前記入力画像から各々の前記ウインドウ枠内の画像をウインドウ画像として抽出する抽出手段と、検出対象物を検出するために予め生成された識別モデルと前記ウインドウ画像の各々とを比較することにより、前記ウインドウ画像の各々について検出対象物らしさを表す評価値を算出する評価値算出手段と、予め用意された検出対象物を含む複数の学習用画像における検出対象物の各々のサイズ及び位置に基づいて求まる前記入力画像における前記ウインドウ画像のサイズ及び位置での検出対象物の存在確率に応じた前記ウインドウ画像が検出対象物であることを表す信頼度と、前記評価値とに基づいて、前記ウインドウ画像が検出対象物か否かを判定する判定手段とを含んで構成されている。   In order to achieve the above object, the object detection apparatus according to the first aspect of the present invention is configured to move each of a plurality of window frames having different sizes with respect to the input image by a predetermined amount from the input image. By comparing the window image with an extraction means for extracting the image of the image as a window image, and comparing each of the window images with an identification model generated in advance for detecting the detection object, the detection object likelihood of each of the window images is determined. An evaluation value calculating means for calculating an evaluation value to be expressed, and the size of the window image in the input image obtained based on the size and position of each of the detection objects in a plurality of learning images including the detection object prepared in advance, and A reliability indicating that the window image corresponding to the presence probability of the detection object at the position is the detection object, and the evaluation value Based on the window image is configured to include a judging means for judging whether the detected object.

また、第2の発明の対象物検出プログラムは、コンピュータを、入力画像に対してサイズが異なる複数のウインドウ枠の各々を所定量ずつ移動させながら前記入力画像から各々の前記ウインドウ枠内の画像をウインドウ画像として抽出する抽出手段と、検出対象物を検出するために予め生成された識別モデルと前記ウインドウ画像の各々とを比較することにより、前記ウインドウ画像の各々について検出対象物らしさを表す評価値を算出する評価値算出手段と、予め用意された検出対象物を含む複数の学習用画像における検出対象物の各々のサイズ及び位置に基づいて求まる前記入力画像における前記ウインドウ画像のサイズ及び位置での検出対象物の存在確率に応じた前記ウインドウ画像が検出対象物であることを表す信頼度と、前記評価値とに基づいて、前記ウインドウ画像が検出対象物か否かを判定する判定手段として機能させるためのプログラムである。   The object detection program according to the second aspect of the present invention is a program for detecting an image in each window frame from the input image while moving each of a plurality of window frames having different sizes with respect to the input image by a predetermined amount. An extraction value that is extracted as a window image, and an evaluation value that represents the likelihood of the detection object for each of the window images by comparing each of the window images with an identification model generated in advance to detect the detection object. And an evaluation value calculation means for calculating the size of the window image in the input image obtained based on the size and position of each of the detection objects in a plurality of learning images including the detection object prepared in advance. Reliability indicating that the window image corresponding to the existence probability of the detection target is a detection target, and the evaluation Based on the bets, the window image is a program for functioning as a determination means for determining whether or not the detection object.

第1の発明の対象物検出装置及び第2の発明の対象物検出プログラムによれば、抽出手段が、入力画像に対してサイズが異なる複数のウインドウ枠の各々を所定量ずつ移動させながら入力画像から各々のウインドウ枠内の画像をウインドウ画像として抽出する。そして、評価値算出手段が、検出対象物を検出するために予め生成された識別モデルとウインドウ画像の各々とを比較することにより、ウインドウ画像の各々について検出対象物らしさを表す評価値を算出する。ここで用いられる識別モデルは、あらゆるサイズ及び位置のウインドウ画像に対応するように生成されているため、ウインドウ画像のサイズ及び位置の相違による検出対象物の見え方の相違への対応が困難で、特定のサイズ及び位置のウインドウ画像に対しては、識別性能が低くなる場合がある。   According to the object detection device of the first invention and the object detection program of the second invention, the extraction means moves the input image while moving each of a plurality of window frames having different sizes with respect to the input image by a predetermined amount. To extract an image in each window frame as a window image. Then, the evaluation value calculation means calculates an evaluation value representing the likelihood of the detection object for each of the window images by comparing each of the window images with an identification model generated in advance for detecting the detection object. . Since the identification model used here is generated so as to correspond to window images of all sizes and positions, it is difficult to cope with the difference in the appearance of the detection target due to the difference in the size and position of the window image, For window images of a specific size and position, the identification performance may be low.

そこで、判定手段が、予め用意された検出対象物を含む複数の学習用画像における検出対象物の各々のサイズ及び位置に基づいて求まる入力画像におけるウインドウ画像のサイズ及び位置での検出対象物の存在確率に応じたウインドウ画像が検出対象物であることを表す信頼度と、評価値とに基づいて、ウインドウ画像が検出対象物か否かを判定する。   Thus, the presence of the detection object at the size and position of the window image in the input image obtained based on the size and position of each of the detection objects in the plurality of learning images including the detection object prepared in advance. It is determined whether or not the window image is the detection target based on the reliability indicating that the window image corresponding to the probability is the detection target and the evaluation value.

このように、識別モデルとの比較により算出される評価値と共に、入力画像におけるウインドウ画像のサイズ及び位置での検出対象物の存在確率に応じた、ウインドウ画像が検出対象物であることを表す信頼度を合わせて判定に用いることで、識別モデルとの比較では対応が困難なウインドウ画像のサイズ及び位置の相違による検出対象物の見え方の相違も判定に反映させることができ、対象物検出の精度を向上させることができる。   As described above, the reliability representing that the window image is a detection target according to the existence probability of the detection target at the size and position of the window image in the input image together with the evaluation value calculated by comparison with the identification model. By using them together in the determination, it is possible to reflect the difference in the appearance of the detection object due to the difference in the size and position of the window image that is difficult to be compared with the identification model. Accuracy can be improved.

また、第1の発明の対象物検出装置及び第2の発明の対象物検出プログラムにおいて、前記信頼度を、前記検出対象物を含む複数の学習用画像から検出対象物のサイズに応じて抽出された複数の対象物画像の各々のサイズ、及び前記学習用画像における前記対象物画像の位置に基づいて、前記ウインドウ画像のサイズと略同一サイズの複数の対象物画像の各々の位置と前記ウインドウ画像の位置との距離の平均値が小さいほど値が大きくなるように定めることができる。これにより、簡易な計算で、ウインドウ画像のサイズ及び位置の相違による検出対象物の見え方の相違を判定に反映させることができる。   In the object detection device of the first invention and the object detection program of the second invention, the reliability is extracted from a plurality of learning images including the detection object according to the size of the detection object. Based on the size of each of the plurality of object images and the position of the object image in the learning image, the position of each of the plurality of object images having substantially the same size as the size of the window image and the window image It can be determined that the smaller the average value of the distance to the position, the larger the value. Thereby, the difference in the appearance of the detection object due to the difference in the size and position of the window image can be reflected in the determination by simple calculation.

第3の発明の対象物検出装置は、入力画像に対してサイズが異なる複数のウインドウ枠の各々を所定量ずつ移動させながら前記入力画像から各々の前記ウインドウ枠内の画像をウインドウ画像として抽出する抽出手段と、前記ウインドウ画像の特徴量を算出する特徴量算出手段と、予め用意された検出対象物を含む複数の学習用画像から検出対象物のサイズに応じて、かつ前記入力画像における前記ウインドウ画像のサイズ及び位置に対応したサイズ及び位置で抽出された複数の対象物画像の特徴量と、前記ウインドウ画像の特徴量との距離に応じた前記ウインドウ画像が検出対象物であることを表す信頼度を算出する信頼度算出手段と、検出対象物を検出するために予め生成された識別モデルの特徴量と前記ウインドウ画像の特徴量とを比較することにより、前記ウインドウ画像の検出対象物らしさを表す評価値を算出する評価値算出手段と、前記評価値及び前記信頼度に基づいて、前記ウインドウ画像が検出対象物か否かを判定する判定手段とを含んで構成されている。   The object detection device of the third invention extracts an image in each window frame from the input image as a window image while moving each of a plurality of window frames having different sizes with respect to the input image by a predetermined amount. An extraction unit; a feature amount calculation unit that calculates a feature amount of the window image; and a window in the input image according to a size of the detection target from a plurality of learning images including a detection target prepared in advance. A trust representing that the window image corresponding to the distance between the feature quantity of the plurality of object images extracted at the size and position corresponding to the size and position of the image and the feature quantity of the window image is the detection object. A degree-of-reliability calculation means for calculating the degree of comparison, and a feature amount of the identification model generated in advance for detecting the detection object and a feature amount of the window image And an evaluation value calculating means for calculating an evaluation value representing the likelihood of the detection target of the window image, and a determination for determining whether the window image is a detection target based on the evaluation value and the reliability. Means.

また、第4の発明の対象物検出プログラムは、コンピュータを、入力画像に対してサイズが異なる複数のウインドウ枠の各々を所定量ずつ移動させながら前記入力画像から各々の前記ウインドウ枠内の画像をウインドウ画像として抽出する抽出手段と、前記ウインドウ画像の特徴量を算出する特徴量算出手段と、予め用意された検出対象物を含む複数の学習用画像から検出対象物のサイズに応じて、かつ前記入力画像における前記ウインドウ画像のサイズ及び位置に対応したサイズ及び位置で抽出された複数の対象物画像の特徴量と、前記ウインドウ画像の特徴量との距離に応じた前記ウインドウ画像が検出対象物であることを表す信頼度を算出する信頼度算出手段と、検出対象物を検出するために予め生成された識別モデルの特徴量と前記ウインドウ画像の特徴量とを比較することにより、前記ウインドウ画像の検出対象物らしさを表す評価値を算出する評価値算出手段と、前記評価値及び前記信頼度に基づいて、前記ウインドウ画像が検出対象物か否かを判定する判定手段として機能させるためのプログラムである。   The object detection program according to a fourth aspect of the present invention is a program for detecting an image in each window frame from the input image while moving a plurality of window frames having different sizes with respect to the input image by a predetermined amount. Extraction means for extracting as a window image, feature amount calculation means for calculating the feature amount of the window image, a plurality of learning images including detection objects prepared in advance according to the size of the detection object, and The window image corresponding to the distance between the feature amount of the plurality of object images extracted at the size and position corresponding to the size and position of the window image in the input image and the feature amount of the window image is the detection object. A reliability calculation means for calculating a reliability indicating that there is a feature, a feature amount of an identification model generated in advance to detect a detection object, and the The window image is detected based on the evaluation value calculating means for calculating the evaluation value representing the likelihood of the detection target of the window image by comparing the feature value of the window image, and the evaluation value and the reliability. It is a program for functioning as a determination means for determining whether or not an object.

第3の発明の対象物検出装置及び第4の発明の対象物検出プログラムによれば、抽出手段が、入力画像に対してサイズが異なる複数のウインドウ枠の各々を所定量ずつ移動させながら入力画像から各々のウインドウ枠内の画像をウインドウ画像として抽出し、特徴量算出手段が、ウインドウ画像の特徴量を算出する。そして、信頼度算出手段が、予め用意された検出対象物を含む複数の学習用画像から検出対象物のサイズに応じて、かつ入力画像におけるウインドウ画像のサイズ及び位置に対応したサイズ及び位置で抽出された複数の対象物画像の特徴量と、ウインドウ画像の特徴量との距離に応じたウインドウ画像が検出対象物であることを表す信頼度を算出する。   According to the object detection device of the third invention and the object detection program of the fourth invention, the extraction means moves the input image while moving each of a plurality of window frames having different sizes with respect to the input image by a predetermined amount. Then, the image in each window frame is extracted as a window image, and the feature amount calculating means calculates the feature amount of the window image. Then, the reliability calculation means extracts from a plurality of learning images including the detection target prepared in advance according to the size of the detection target and at a size and position corresponding to the size and position of the window image in the input image. A reliability indicating that the window image corresponding to the distance between the feature amount of the plurality of target object images and the feature amount of the window image is a detection target is calculated.

また、評価値算出手段が、検出対象物を検出するために予め生成された識別モデルの特徴量とウインドウ画像の特徴量とを比較することにより、ウインドウ画像の検出対象物らしさを表す評価値を算出する。ここで用いられる識別モデルは、あらゆるサイズ及び位置のウインドウ画像に対応するように生成されているため、ウインドウ画像のサイズ及び位置の相違による検出対象物の見え方の相違への対応が困難で、特定のサイズ及び位置のウインドウ画像に対しては、識別性能が低くなる場合がある。そこで、判定手段が、評価値及び信頼度に基づいて、ウインドウ画像が検出対象物か否かを判定する。   Further, the evaluation value calculation means compares the feature quantity of the identification model generated in advance to detect the detection target object with the feature quantity of the window image, thereby obtaining an evaluation value representing the likelihood of the detection target object of the window image. calculate. Since the identification model used here is generated so as to correspond to window images of all sizes and positions, it is difficult to cope with the difference in the appearance of the detection target due to the difference in the size and position of the window image, For window images of a specific size and position, the identification performance may be low. Therefore, the determination unit determines whether the window image is a detection target based on the evaluation value and the reliability.

このように、識別モデルとの比較により算出される評価値と共に、入力画像におけるウインドウ画像のサイズ及び位置に対応したサイズ及び位置の対象物画像の特徴量とウインドウ画像の特徴量との距離に応じた、ウインドウ画像が検出対象物であることを表す信頼度を合わせて判定に用いることで、識別モデルとの比較では対応が困難なウインドウ画像のサイズ及び位置の相違による検出対象物の見え方の相違も判定に反映させることができ、対象物検出の精度を向上させることができる。   As described above, according to the evaluation value calculated by comparison with the identification model, the distance between the feature amount of the object image at the size and position corresponding to the size and position of the window image in the input image and the feature amount of the window image. In addition, by using the reliability indicating that the window image is the detection object together for the determination, it is difficult to compare with the identification model, and the appearance of the detection object due to the difference in the size and position of the window image is difficult. Differences can also be reflected in the determination, and the accuracy of object detection can be improved.

また、第3の発明の対象物検出装置及び第4の発明の対象物検出プログラムにおいて、前記信頼度算出手段は、前記複数の対象物画像の各々のサイズ、前記学習用画像における前記対象物画像の位置、及び前記対象物画像の特徴量に基づいて、前記ウインドウ画像のサイズと略同一サイズで、かつ前記学習用画像における前記対象物画像の位置と前記入力画像における前記ウインドウ画像の位置との距離が所定範囲内の複数の対象物画像の各々の特徴量と、前記ウインドウ画像の特徴量との距離の平均値が小さいほど値が大きくなるように信頼度を算出するようにすることができる。これにより、簡易な計算で、ウインドウ画像のサイズ及び位置の相違による検出対象物の見え方の相違を判定に反映させることができる。   Further, in the object detection device of the third invention and the object detection program of the fourth invention, the reliability calculation means includes the size of each of the plurality of object images, the object image in the learning image. And the position of the object image in the learning image and the position of the window image in the input image based on the position of the object image and the feature amount of the object image. The reliability can be calculated such that the smaller the average value of the distance between the feature amount of each of the plurality of object images within the predetermined range and the feature amount of the window image is, the larger the value is. . Thereby, the difference in the appearance of the detection object due to the difference in the size and position of the window image can be reflected in the determination by simple calculation.

また、上記対象物検出装置及びプログラムにおいて、前記入力画像及び前記学習用画像を、車両の前方または後方の所定領域を撮影する車載カメラで撮影した画像を用いることができる。   In the target object detection apparatus and program, an image obtained by photographing the input image and the learning image with an in-vehicle camera that photographs a predetermined area in front of or behind the vehicle can be used.

以上説明したように、本発明によれば、入力画像における対象物の大きさ及び位置が相違することにより、対象物の見え方が相違する場合でも、入力画像におけるウインドウ画像のサイズ及び位置での検出対象物の存在確率に応じた、ウインドウ画像が検出対象物であることを表す信頼度を合わせて判定に用いることで、対象物検出の精度を向上させることができる、という効果が得られる。   As described above, according to the present invention, the size and position of the target object in the input image are different, so that even if the appearance of the target object is different, the size and position of the window image in the input image are different. By using the reliability indicating that the window image is the detection target according to the existence probability of the detection target for the determination, it is possible to improve the accuracy of the target detection.

第1の実施の形態に係る対象物検出装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the target object detection apparatus which concerns on 1st Embodiment. 本実施の形態における探索ウインドウの一例を示す図である。It is a figure which shows an example of the search window in this Embodiment. ウインドウ画像の特徴量の算出について説明するための図である。It is a figure for demonstrating calculation of the feature-value of a window image. 第1の実施の形態における信頼度を説明するための図である。It is a figure for demonstrating the reliability in 1st Embodiment. 第1の実施の形態における信頼度情報生成処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the reliability information generation process routine in 1st Embodiment. 第1の実施の形態における対象物情報の一例を示す図である。It is a figure which shows an example of the target object information in 1st Embodiment. 第1の実施の形態の対象物検出装置における対象物検出処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the target object detection processing routine in the target object detection apparatus of 1st Embodiment. 第2の実施の形態に係る対象物検出装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the target object detection apparatus which concerns on 2nd Embodiment. 第2の実施の形態における信頼度を説明するための図である。It is a figure for demonstrating the reliability in 2nd Embodiment. 第2の実施の形態における対象物情報生成処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the target object information generation process routine in 2nd Embodiment. 第2の実施の形態の対象物検出装置における対象物検出処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the target object detection processing routine in the target object detection apparatus of 2nd Embodiment.

以下、図面を参照して本発明の実施の形態を詳細に説明する。本実施の形態では、検出対象物として周辺車両を検出する対象物検出装置に本発明を適用した場合について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case will be described in which the present invention is applied to an object detection device that detects a surrounding vehicle as a detection object.

図1に示すように、第1の実施の形態に係る対象物検出装置10は、識別対象領域を含む範囲を撮像する撮像装置12と、撮像装置12から出力される撮像画像に基づいて対象物を検出する対象物検出処理ルーチンを実行するコンピュータ16と、コンピュータ16での処理結果を表示するための表示装置18とを備えている。   As illustrated in FIG. 1, the object detection device 10 according to the first embodiment includes an imaging device 12 that captures a range including an identification target region, and an object based on a captured image output from the imaging device 12. The computer 16 that executes the object detection processing routine for detecting the object and the display device 18 for displaying the processing result in the computer 16 are provided.

撮像装置12は、識別対象領域を含む範囲を撮像し、画像信号を生成する撮像部(図示省略)と、撮像部で生成されたアナログ信号である画像信号をデジタル信号に変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。   The imaging device 12 captures an area including an identification target region and generates an image signal (not shown), and A / D conversion that converts an analog image signal generated by the imaging unit into a digital signal And an image memory (not shown) for temporarily storing the A / D converted image signal.

コンピュータ16は、対象物検出装置10全体の制御を司るCPU、後述する対象物検出プログラム等各種プログラムを記憶した記憶媒体としてのROM、ワークエリアとしてデータを一時格納するRAM、及びこれらを接続するバスを含んで構成されている。このような構成の場合には、各構成要素の機能を実現するためのプログラムをROMやHDD等の記憶媒体に記憶しておき、これをCPUが実行することによって、各機能が実現されるようにする。   The computer 16 includes a CPU that controls the entire object detection device 10, a ROM as a storage medium that stores various programs such as an object detection program described later, a RAM that temporarily stores data as a work area, and a bus that connects these It is comprised including. In the case of such a configuration, a program for realizing the function of each component is stored in a storage medium such as a ROM or HDD, and each function is realized by executing the program by the CPU. To.

このコンピュータ16をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、撮像装置12で撮像されコンピュータ16へ入力された入力画像から所定領域の画像、すなわちウインドウで囲まれた領域内のウインドウ画像を抽出するウインドウ画像抽出部20と、ウインドウ画像抽出部20により抽出されたウインドウ画像が検出対象物であることを表す信頼度を信頼度記憶部58から取得する信頼度取得部22と、ウインドウ画像抽出部20により抽出されたウインドウ画像の特徴量を算出する特徴量算出部24と、特徴量算出部24により算出された特徴量と識別モデル記憶部74に記憶された識別モデルの特徴量とを比較して、ウインドウ画像内の対象物の検出対象物らしさを表す評価値を算出する評価値算出部26と、信頼度取得部22により取得された信頼度及び評価値算出部26で算出された評価値に基づいて、ウインドウ画像内の対象物が検出対象物であるか否かを判定する判定部28と、撮像装置12によって撮像された撮像画像に、判定部28による判定結果を重畳させて表示装置18に表示するよう制御する表示制御部30とを含んだ構成で表すことができる。   When the computer 16 is described with functional blocks divided for each function realizing means determined based on hardware and software, a predetermined image is input from an input image captured by the imaging device 12 and input to the computer 16 as shown in FIG. A window image extraction unit 20 that extracts an image of a region, that is, a window image in a region surrounded by a window, and a reliability indicating that the window image extracted by the window image extraction unit 20 is a detection target. The reliability acquisition unit 22 acquired from the storage unit 58, the feature amount calculation unit 24 that calculates the feature amount of the window image extracted by the window image extraction unit 20, and the feature amount calculated by the feature amount calculation unit 24 The feature quantity of the identification model stored in the model storage unit 74 is compared, and the detection pair of the object in the window image is detected. Based on the evaluation value calculation unit 26 that calculates an evaluation value that represents physicality, the reliability acquired by the reliability acquisition unit 22, and the evaluation value calculated by the evaluation value calculation unit 26, the object in the window image is displayed. A determination unit 28 that determines whether or not the object is a detection target, and a display control unit 30 that performs control so that the determination result by the determination unit 28 is superimposed on the captured image captured by the imaging device 12 and displayed on the display device 18. It can be expressed by a configuration including

ウインドウ画像抽出部20は、入力画像から予め定められたサイズのウインドウ(探索ウインドウと呼称)を1ステップにつき、予め定められた移動量(探索ステップと呼称)だけ移動させながら各ステップ毎に画像を切り取る。ここでは、切り取った画像をウインドウ画像と呼称する。ウインドウ画像のサイズ(すなわち探索ウインドウのサイズ)は、入力画像上に様々なサイズで表れる周辺車両を検出するために、複数種類の大きさ及び形状の少なくとも一方が異なるサイズが設定されており、ウインドウ画像抽出部20は、設定されている全てのサイズの探索ウインドウを用いてウインドウ画像を抽出する。ここでは、例えば、図2に示すように、(A)16画素×16画素(B)24画素×16画素、及び(C)64画素×64画素のサイズの探索ウインドウが用意されている。(A)及び(C)は形状が同一で大きさが異なるウインドウであり、(B)は(A)及び(C)に対して形状及び大きさが異なるウインドウである。   The window image extraction unit 20 moves a window of a predetermined size (referred to as a search window) from the input image by one predetermined amount of movement (referred to as a search step) per step, and moves the image at each step. cut out. Here, the cut image is referred to as a window image. The size of the window image (that is, the size of the search window) is set so that at least one of a plurality of sizes and shapes is different in order to detect surrounding vehicles appearing in various sizes on the input image. The image extraction unit 20 extracts window images using search windows of all sizes set. Here, for example, as shown in FIG. 2, search windows having a size of (A) 16 pixels × 16 pixels (B) 24 pixels × 16 pixels and (C) 64 pixels × 64 pixels are prepared. (A) and (C) are windows having the same shape and different sizes, and (B) is a window having different shapes and sizes from (A) and (C).

また、ウインドウ画像抽出部20は、抽出したウインドウ画像を予め設定された画素数の画像に正規化する。   Further, the window image extraction unit 20 normalizes the extracted window image into an image having a preset number of pixels.

信頼度取得部22は、抽出されたウインドウ画像のサイズ及び入力画像における位置に対応した信頼度を、後述する信頼度情報生成装置50で生成された信頼度が記憶された信頼度記憶部58から取得する。   The reliability acquisition unit 22 obtains the reliability corresponding to the size of the extracted window image and the position in the input image from the reliability storage unit 58 in which the reliability generated by the reliability information generation device 50 described later is stored. get.

特徴量算出部24は、ウインドウ画像の特徴量を算出する。ここでは、特徴量として、エッジ方向のヒストグラムを用いる。図3(A)に示すように、ウインドウ画像抽出部20により抽出されて、所定サイズに正規化された画像を小領域に分割する。そして、下記(1)及び(2)に従って、画素毎にエッジの大きさ及び方向を算出する。   The feature amount calculation unit 24 calculates the feature amount of the window image. Here, a histogram in the edge direction is used as the feature amount. As shown in FIG. 3A, an image extracted by the window image extraction unit 20 and normalized to a predetermined size is divided into small regions. Then, according to the following (1) and (2), the size and direction of the edge are calculated for each pixel.

Figure 2010262576
Figure 2010262576

ただし、m(u,v)は画像座標(u,v)でのエッジの大きさ、θ(u,v)は画像座標(u,v)でのエッジの方向、X(u,v)は正規化されたウインドウ画像Xの画像座標(u,v)の画素値である。なお、画像座標は、正規化されたウインドウ画像Xの左上端の画素を画像座標(1,1)とし、横方向をu、縦方向vで表している。   Where m (u, v) is the edge size at image coordinates (u, v), θ (u, v) is the edge direction at image coordinates (u, v), and X (u, v) is This is the pixel value of the image coordinates (u, v) of the normalized window image X. The image coordinates are represented by the upper left pixel of the normalized window image X as image coordinates (1, 1), the horizontal direction being u, and the vertical direction v.

このように算出された画素毎のエッジの大きさm(u,v)及び方向θ(u,v)を用いて、図3(B)に示すように、小領域毎にエッジ方向のヒストグラムを生成する。ヒストグラムの投票では、0〜180°までの角度を所定の階級に区分(例えば、20°未満、20°以上40°未満、40°以上60°未満・・・のように20°毎に1階級となるように区分)し、エッジの方向θ(u,v)の該当する階級に、エッジの大きさ(u,v)を乗算したうえで投票する。小領域毎に生成されたエッジ方向のヒストグラムを連結して作成したベクトルを、ウインドウ画像の特徴量とする。   Using the edge size m (u, v) and the direction θ (u, v) calculated for each pixel in this way, as shown in FIG. Generate. In the voting of the histogram, the angle from 0 to 180 degrees is divided into predetermined classes (for example, less than 20 degrees, 20 degrees or more and less than 40 degrees, 40 degrees or more and less than 60 degrees, etc., one class every 20 degrees). And voting after multiplying the corresponding class in the edge direction θ (u, v) by the size (u, v) of the edge. A vector created by concatenating histograms in the edge direction generated for each small area is used as a feature amount of the window image.

評価値算出部26は、識別モデル記憶部74に記憶された識別モデルを参照して、ウインドウ画像の対象物らしさを表す評価値を算出する。識別モデルは、予め識別モデル生成装置70の識別モデル生成部72で、検出対象物を含む学習用画像(ポジティブデータ)及び非検出対象物を含む学習用画像(ネガティブデータ)を用いて学習することにより、特徴空間における対象物と非対象物との境界面として生成され、識別モデル記憶部74に記憶されている。学習の手法としては、SVM(Support Vector Machine)を用いることができる。評価値は、特徴量算出部24で算出されたウインドウ画像の特徴量と識別モデルである境界面との距離に応じて、ウインドウ画像の特徴量が特徴空間において境界面から対象物(ポジティブ)側に離れるほど評価値は大きくなり、境界面から非対象物(ネガティブ)側に離れるほど評価値は小さくなる。   The evaluation value calculation unit 26 refers to the identification model stored in the identification model storage unit 74 and calculates an evaluation value representing the object likeness of the window image. The identification model is previously learned by the identification model generation unit 72 of the identification model generation device 70 using a learning image including a detection target (positive data) and a learning image including a non-detection target (negative data). Thus, a boundary surface between the object and the non-object in the feature space is generated and stored in the identification model storage unit 74. As a learning method, SVM (Support Vector Machine) can be used. The evaluation value is determined based on the distance between the feature amount of the window image calculated by the feature amount calculation unit 24 and the boundary surface, which is an identification model, from the boundary surface to the object (positive) side in the feature space. The evaluation value increases as the distance increases, and the evaluation value decreases as the distance from the boundary surface to the non-object (negative) side increases.

判定部28は、信頼度取得部22で取得された信頼度p、及び評価値算出部26で算出された評価値Eを用いて、下記(3)式に従って、ウインドウ画像が検出対象物であるか否かを判定する。   The determination unit 28 uses the reliability p acquired by the reliability acquisition unit 22 and the evaluation value E calculated by the evaluation value calculation unit 26, and the window image is a detection target according to the following equation (3). It is determined whether or not.

E+α×p>Th ・・・(3)        E + α × p> Th (3)

ただし、αは信頼度の重み係数で、信頼度を判定にどの程度反映させるかによって、予め定めておく。また、Thは判定閾値であり、(3)式が成立する場合に、ウインドウ画像が検出対象物であると判定する。   However, α is a weighting factor of reliability and is determined in advance depending on how much reliability is reflected in the determination. Further, Th is a determination threshold value, and when the expression (3) is established, it is determined that the window image is a detection target.

信頼度情報生成装置50は、CPU、ROM、RAM、及び内蔵HDD等を含んで構成されたコンピュータで構成することができる。このような構成の場合には、各構成要素の機能を実現するためのプログラムをROMやHDD等の記憶媒体に記憶しておき、これをCPUが実行することによって、各機能が実現されるようにする。また、信頼度情報生成装置50を対象物検出装置10と互いに独立したマイクロコンピュータで構成してもよいし、同一コンピュータ上で構成することも可能である。また、上述した識別モデル生成装置70についても、信頼度情報生成装置50と同様の構成とすることができる。   The reliability information generating apparatus 50 can be configured by a computer configured to include a CPU, ROM, RAM, built-in HDD, and the like. In the case of such a configuration, a program for realizing the function of each component is stored in a storage medium such as a ROM or HDD, and each function is realized by executing the program by the CPU. To. In addition, the reliability information generation device 50 may be configured by a microcomputer independent of the object detection device 10 or may be configured on the same computer. Further, the above-described identification model generation device 70 can also have the same configuration as the reliability information generation device 50.

信頼度情報生成装置50をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、入力された検出対象物を含む学習用画像から検出対象物の大きさに応じたサイズの対象物領域の画像(対象物画像)を抽出する対象物画像抽出部52と、対象物画像抽出部52で抽出された対象物画像のサイズ及び学習用画像における位置を対象物情報として生成する対象物情報生成部54と、対象物情報生成部54で生成された対象物情報に基づいて、ウインドウ画像のサイズ及び位置毎の信頼度を算出する信頼度算出部56と、信頼度算出部56で算出された信頼度が記憶される信頼度記憶部58とを含んだ構成で表すことができる。   If the reliability information generating device 50 is described by function blocks divided for each function realizing means determined based on hardware and software, as shown in FIG. 1, it is detected from an input learning image including a detection object. An object image extracting unit 52 that extracts an image (object image) of an object region having a size corresponding to the size of the object, the size of the object image extracted by the object image extracting unit 52, and a learning image And a reliability calculation for calculating the reliability of each window image size and position based on the object information generated by the object information generation unit 54. And a reliability storage unit 58 in which the reliability calculated by the reliability calculation unit 56 is stored.

対象物画像抽出部52は、検出対象物である車両を含む学習用画像の検出対象物が含まれる対象物領域から、検出対象物の大きさに応じたサイズの対象物画像を抽出する。検出対象物を含む学習用画像は、上述した識別モデル生成装置70で識別モデルを生成する際に用いられるポジティブデータとしての学習用画像と同一の学習用画像を用いることができる。   The object image extraction unit 52 extracts an object image having a size corresponding to the size of the detection object from the object area including the detection object of the learning image including the vehicle that is the detection object. As the learning image including the detection target, the same learning image as the learning image as the positive data used when the identification model generation device 70 described above generates the identification model can be used.

対象物情報生成部54は、対象物画像抽出部52で抽出された対象物画像毎に、対象物画像のサイズ、及び学習用画像における対象物画像の位置を表す中心位置を対象物情報として生成し、所定の記憶領域に記憶する。   The object information generating unit 54 generates, as object information, the center position representing the size of the object image and the position of the object image in the learning image for each object image extracted by the object image extracting unit 52. And stored in a predetermined storage area.

信頼度算出部56は、入力画像と縦横の画素数が同一の画像座標(以下、入力画像座標という)をウインドウ画像の中心位置を算出するために想定し、想定した入力画像座標に、対象物検出処理で使用される探索ウインドウを設定したときの探索ウインドウの中心位置を、探索ウインドウが設定された位置に対応する入力画像から抽出されるウインドウ画像の中心位置として算出する。そして、所定領域に記憶された対象物情報を参照して、探索ウインドウのサイズと略同一サイズで、かつウインドウ画像の中心位置との距離が近い中心位置を示す対象物情報に基づいて、ウインドウ画像の中心位置と対象物情報が示す中心位置との距離の平均値に応じた信頼度を算出する。なお、略同一サイズとは、選択されたサイズの探索ウインドウで抽出されるウインドウ画像のサイズと対象物情報が示すサイズとの幅及び高さの比が所定範囲内であり、かつウインドウ画像の幅及び高さの比と対象物情報が示すサイズの幅及び高さの比との差が所定範囲内の場合とする。   The reliability calculation unit 56 assumes image coordinates having the same number of vertical and horizontal pixels as the input image (hereinafter referred to as input image coordinates) in order to calculate the center position of the window image. The center position of the search window when the search window used in the detection process is set is calculated as the center position of the window image extracted from the input image corresponding to the position where the search window is set. Then, referring to the object information stored in the predetermined area, the window image is based on the object information indicating the center position that is substantially the same size as the size of the search window and is close to the center position of the window image. The reliability corresponding to the average value of the distance between the center position of the object and the center position indicated by the object information is calculated. Note that substantially the same size means that the ratio of the width and height of the size of the window image extracted in the search window of the selected size and the size indicated by the object information is within a predetermined range, and the width of the window image And the difference between the height ratio and the size width and height ratio indicated by the object information is within a predetermined range.

例えば、図4(A)に示すように、24画素×16画素の探索ウインドウを使用して、ウインドウ画像a及びウインドウ画像bが抽出されたとする。また、所定の記憶領域に記憶された対象物情報のうち、サイズが24画素×16画素と略同一サイズの対象物情報が示す中心位置を入力画像座標上にプロット(○印)した例を、同図(B)に示す。この入力画像座標上に、ウインドウ画像a及びウインドウ画像bの中心位置をプロット(×印)すると、ウインドウ画像aの中心位置については、対象物情報の中心位置との距離が大きく、ウインドウ画像bの中心位置については、対象物情報の中心位置との距離が小さくなっている。これは、ウインドウ画像bの方が、対象物の存在確率が高い位置から抽出されていることを示しているため、対象物情報の中心位置との距離が小さいほど信頼度の値を大きくする。これにより、仮に識別モデルとの比較で算出される評価値が、ウインドウ画像aとウインドウ画像bとで同じような値であったとしても、信頼度も合わせて判定することで、検出対象物の位置による存在確率を反映させることができ、検出精度が向上する。   For example, as shown in FIG. 4A, it is assumed that a window image a and a window image b are extracted using a search window of 24 pixels × 16 pixels. Further, among the object information stored in the predetermined storage area, an example in which the center position indicated by the object information whose size is approximately the same size as 24 pixels × 16 pixels is plotted on the input image coordinates (circle mark). This is shown in FIG. When the center positions of the window image a and the window image b are plotted (x marks) on the input image coordinates, the distance between the center position of the window image a and the center position of the object information is large. As for the center position, the distance from the center position of the object information is small. This indicates that the window image b is extracted from a position where the object existence probability is higher, so the reliability value is increased as the distance from the center position of the object information is smaller. Thereby, even if the evaluation value calculated by comparison with the identification model is the same value for the window image a and the window image b, by determining the reliability together, The existence probability due to the position can be reflected, and the detection accuracy is improved.

信頼度記憶部58は、ハードディスクドライブ(HDD)やCD−ROM等のように、内蔵または外付けの記憶手段であって、信頼度情報を記憶できる媒体により構成されている。信頼度記憶部58に記憶された信頼度情報は、対象物検出処理においてウインドウ画像の信頼度として参照される。   The reliability storage unit 58 is a built-in or external storage unit, such as a hard disk drive (HDD) or a CD-ROM, and is configured of a medium that can store reliability information. The reliability information stored in the reliability storage unit 58 is referred to as the reliability of the window image in the object detection process.

ここで、図5を参照して、信頼度情報生成処理ルーチンについて説明する。   Here, the reliability information generation processing routine will be described with reference to FIG.

ステップ100で、予め用意された、様々なサイズの検出対象物である車両が様々な位置に含まれた所定枚数(例えば、1000枚)の学習用画像から1枚の学習用画像を取得する。   In step 100, one learning image is acquired from a predetermined number (for example, 1000) of learning images prepared in advance and including vehicles that are detection objects of various sizes included in various positions.

次に、ステップ102で、学習用画像の検出対象物が含まれる対象物領域から、検出対象物の大きさに応じたサイズの対象物画像を抽出する。次に、ステップ104で、抽出された対象物画像のサイズ、及び学習用画像における対象物画像の位置を表す中心位置を対象物情報として所定の記憶領域に一旦記憶する。次に、ステップ106で、用意しておいたすべての学習用画像について、上記ステップ102及びステップ104の処理が終了したか否かを判定する。終了した場合には、ステップ108へ進み、終了していない場合には、ステップ100へ戻り、次の学習用画像を取得して、処理を繰り返す。全ての学習用画像について処理が終了した場合には、図6に示すように、所定の記憶領域に用意した学習用画像の枚数分の対象物情報が記憶された状態となる。   Next, in step 102, an object image having a size corresponding to the size of the detection object is extracted from the object region including the detection object of the learning image. Next, in step 104, the size of the extracted object image and the center position representing the position of the object image in the learning image are temporarily stored as object information in a predetermined storage area. Next, in step 106, it is determined whether or not the processing in step 102 and step 104 has been completed for all prepared learning images. If completed, the process proceeds to step 108. If not completed, the process returns to step 100 to acquire the next learning image and repeat the process. When the processing is completed for all the learning images, as shown in FIG. 6, the object information for the number of learning images prepared in a predetermined storage area is stored.

ステップ108では、対象物検出処理で入力画像からウインドウ画像を抽出する際に使用する探索ウインドウから1つのサイズ(例えば、16画素×16画素)を選択し、想定した入力画像座標の左上角部に選択した探索ウインドウを設定する。次に、ステップ110で、探索ウインドウの中心位置を、探索ウインドウが設定された位置に対応する入力画像から抽出されるウインドウ画像の中心位置として算出する。   In step 108, one size (for example, 16 pixels × 16 pixels) is selected from the search window used when the window image is extracted from the input image in the object detection process, and the assumed upper left corner of the input image coordinates is selected. Set the selected search window. Next, in step 110, the center position of the search window is calculated as the center position of the window image extracted from the input image corresponding to the position where the search window is set.

次に、ステップ112で、所定領域に記憶された対象物情報(図6)を参照して、上記ステップ108で選択した探索ウインドウのサイズと略同一サイズを示す対象物情報を抽出し、抽出された対象物情報の中から、上記ステップ110で算出された中心位置との距離が近い中心位置を示す対象物情報をK個選択する。   Next, in step 112, with reference to the target object information (FIG. 6) stored in the predetermined area, target object information having approximately the same size as the size of the search window selected in step 108 is extracted and extracted. From the target object information, K target object information indicating a center position that is close to the center position calculated in step 110 is selected.

次に、ステップ114で、選択されたK個の対象物情報の各々が示す中心位置と上記ステップ110で算出された中心位置との距離の平均値を算出し、算出した中心位置の距離の平均値を信頼度に変換する。中心位置の距離の平均値から信頼度への変換は、中心位置の距離の平均値が小さいほど信頼度が大きくなるような係数を中心位置の距離の平均値へ乗算して変換したり、予め定めた変換テーブルに基づいて変換したりすることができる。   Next, in step 114, an average value of the distance between the center position indicated by each of the selected K pieces of object information and the center position calculated in step 110 is calculated, and the average distance of the calculated center position is calculated. Convert value to confidence. The conversion from the average value of the center position distance to the reliability is performed by multiplying the average value of the center position distance by a coefficient that increases the reliability as the average value of the center position distance is smaller. Conversion can be performed based on a predetermined conversion table.

次に、ステップ116で、上記ステップ114で変換された信頼度を、上記ステップ108で選択した探索ウインドウのサイズ、及び入力画像座標に設定された探索ウインドウの中心位置、すなわち該探索ウインドウで入力画像から抽出されるウインドウ画像のサイズ及び中心位置に対応した信頼度情報として生成し、信頼度記憶部58に記憶する。   Next, in step 116, the reliability converted in step 114 is set to the size of the search window selected in step 108 and the center position of the search window set to the input image coordinates, that is, the input image in the search window. Is generated as reliability information corresponding to the size and center position of the window image extracted from the image and stored in the reliability storage unit 58.

次に、ステップ118で、上記ステップ108で選択した探索ウインドウを用いて入力画像座標の全位置について、信頼度を算出する処理が終了したか否かを判定する。まだ終了していない場合には、ステップ120へ進んで、探索ウインドウを想定した入力画像座標において1ステップ移動させた位置に設定して、ステップ110へ戻って処理を繰り返す。一方、入力画像座標の全位置について、信頼度を算出する処理が終了した場合には、ステップ122へ進んで、用意されている全てのサイズの探索ウインドウについて処理が終了したか否かを判定し、未処理のサイズの探索ウインドウがある場合には、ステップ108へ戻って、次のサイズの探索ウインドウについて処理を繰り返す。全てのサイズの探索ウインドウについて処理が終了した場合には、本ルーチンを終了する。   Next, in step 118, it is determined whether or not the processing for calculating the reliability is completed for all positions of the input image coordinates using the search window selected in step 108. If not completed yet, the process proceeds to step 120 where the search window is set to a position moved by one step in the assumed input image coordinates, and the process returns to step 110 to repeat the process. On the other hand, when the process of calculating the reliability is completed for all the positions of the input image coordinates, the process proceeds to step 122 to determine whether the process is completed for all prepared search windows. If there is an unprocessed size search window, the process returns to step 108 and the process is repeated for the next size search window. When the processing is finished for all the search windows, this routine is finished.

これにより、対象物検出処理において抽出されるウインドウ画像の全てについて、予め信頼度が算出される。   Thereby, the reliability is calculated in advance for all the window images extracted in the object detection process.

次に、図7を参照して、第1の実施の形態の対象物検出装置10における対象物検出処理ルーチンについて説明する。本ルーチンは、撮像装置12により対象領域の撮像が開始された場合に、ROMに記憶された対象物検出プログラムをCPUが実行することにより行われる。   Next, an object detection processing routine in the object detection device 10 according to the first embodiment will be described with reference to FIG. This routine is performed when the CPU executes the object detection program stored in the ROM when imaging of the target area is started by the imaging device 12.

ステップ130で、撮像装置12で撮像された画像を取得し、次に、ステップ132で、入力画像に対して例えば16画素×16画素の探索ウインドウを入力画像の所定領域(例えば、左上角の領域)に設定し、設定した探索ウインドウを用いて、入力画像から16×16画素のウインドウ画像を抽出し、所定サイズに正規化する。   In step 130, an image picked up by the image pickup device 12 is acquired. Next, in step 132, a search window of, for example, 16 pixels × 16 pixels is set on the input image, for example, a predetermined area (for example, the upper left corner area) of the input image. ), A window image of 16 × 16 pixels is extracted from the input image using the set search window, and is normalized to a predetermined size.

次に、ステップ134で、信頼度記憶部58に記憶された信頼度情報を参照して、ウインドウ画像のサイズ及び中心位置に対応した信頼度pを取得する。   Next, in step 134, the reliability p corresponding to the size and the center position of the window image is acquired with reference to the reliability information stored in the reliability storage unit 58.

次に、ステップ136で、正規化されたウインドウ画像を小領域に分割し、上記(1)及び(2)に従って、画素毎にエッジの大きさ及び方向を算出し、小領域毎にエッジ方向のヒストグラムを生成し、小領域毎に生成されたエッジ方向のヒストグラムを連結して作成したベクトルを、ウインドウ画像の特徴量として算出する。   Next, in step 136, the normalized window image is divided into small regions, the size and direction of the edge are calculated for each pixel in accordance with the above (1) and (2), and the edge direction of each small region is calculated. A histogram is generated, and a vector created by concatenating histograms in the edge direction generated for each small region is calculated as a feature amount of the window image.

次に、ステップ138で、特徴空間における対象物と非対象物との境界面として生成され、識別モデル記憶部74に記憶された識別モデルを参照して、上記ステップ136で算出されたウインドウ画像の特徴量と識別モデルである境界面との距離に応じた評価値Eを算出する。   Next, in step 138, the window image calculated in step 136 is referred to with reference to the identification model generated as a boundary surface between the object and the non-object in the feature space and stored in the identification model storage unit 74. An evaluation value E corresponding to the distance between the feature quantity and the boundary surface that is the identification model is calculated.

次に、ステップ140で、上記ステップ134で取得された信頼度p、及び上記ステップ138で算出された評価値Eを用いて、上記(3)式に従って、ウインドウ画像が検出対象物であるか否かを判定する。(3)式を満たす場合には、ウインドウ画像が検出対象物であると判定して、ステップ142へ進み、探索ウインドウの位置及び大きさ等の情報をリストとしてRAMに保存して、次のステップ144へ進む。一方、(3)式を満たさない場合は、ウインドウ画像が検出対象物ではないと判定して、ステップ142をスキップして、ステップ144へ進む。   Next, in step 140, whether or not the window image is a detection object according to the above equation (3) using the reliability p acquired in step 134 and the evaluation value E calculated in step 138. Determine whether. If the expression (3) is satisfied, it is determined that the window image is a detection target, and the process proceeds to step 142 where information such as the position and size of the search window is stored in the RAM as a list, and the next step Proceed to 144. On the other hand, when the expression (3) is not satisfied, it is determined that the window image is not the detection target, and step 142 is skipped and the process proceeds to step 144.

ステップ144で、入力画像全体について探索ウインドウをスキャンして探索が終了したか否かを判定する。終了していない場合は、ステップ146へ進み、探索ウインドウの位置を予め定められた探索ステップだけ移動させて、ステップ132に戻り、ステップ132〜ステップ144の処理を繰り返す。現サイズの探索ウインドウでの入力画像全体の探索が終了すると、ステップ148へ進む。   In step 144, it is determined whether or not the search has been completed by scanning the search window for the entire input image. If not completed, the process proceeds to step 146, the position of the search window is moved by a predetermined search step, the process returns to step 132, and the processes from step 132 to step 144 are repeated. When the search of the entire input image in the search window of the current size is completed, the process proceeds to step 148.

ステップ148で、全てのサイズの探索ウインドウでの探索が終了したか否かを判定する。終了していない場合は、ステップ150へ進み、探索ウインドウのサイズを別のサイズ(例えば、24画素×16画素)に変更して、ステップ132へ戻り、ステップ132〜ステップ148の処理を繰り返す。全てのサイズの探索ウインドウでの探索が終了すると、ステップ152へ進む。   In step 148, it is determined whether or not the search in the search windows of all sizes is completed. If not completed, the process proceeds to step 150, the size of the search window is changed to another size (for example, 24 pixels × 16 pixels), the process returns to step 132, and the processes of steps 132 to 148 are repeated. When the search is completed in the search windows of all sizes, the process proceeds to step 152.

ステップ152で、リストに保存した情報に基づいて、入力画像に対して、検出された対象物がウインドウで囲まれて表示されるように表示装置18を制御する。   In step 152, based on the information stored in the list, the display device 18 is controlled so that the detected object is displayed surrounded by a window with respect to the input image.

以上説明したように、第1の実施の形態の対象物検出装置によれば、入力画像から抽出されたウインドウ画像の特徴量と予め生成した識別モデルとの比較により算出される評価値だけでなく、予め学習用画像から抽出した対象物画像のサイズ及び位置に基づいて算出された、ウインドウ画像のサイズ及び位置における検出対象物の存在確率に対応した信頼度を併せて判定に用いるため、識別モデルでは対応が困難な入力画像における検出対象物の大きさ及び位置の相違による検出対象物の見え方の相違にも対応して、検出精度を向上させることができる。   As described above, according to the object detection device of the first embodiment, not only the evaluation value calculated by comparing the feature amount of the window image extracted from the input image with the identification model generated in advance, Since the reliability corresponding to the existence probability of the detection target object at the size and position of the window image calculated based on the size and position of the target object image extracted in advance from the learning image is used for the determination, the identification model Therefore, it is possible to improve the detection accuracy in response to the difference in the appearance of the detection target due to the difference in the size and position of the detection target in the input image that is difficult to cope with.

また、信頼度の算出は、ウインドウ画像のサイズ及び位置における検出対象物の存在確率として簡易に算出することができるため、入力画像における検出対象物の大きさ及び位置毎に識別モデルを生成するような場合に比べ、計算時間を削減できる。   Moreover, since the calculation of the reliability can be easily calculated as the existence probability of the detection target object in the size and position of the window image, an identification model is generated for each size and position of the detection target object in the input image. Compared to the case, the calculation time can be reduced.

なお、第1の実施の形態では、予め信頼度情報生成装置で信頼度情報を生成しておく場合について説明したが、対象物情報生成部で生成された対象物情報を記憶しておき、対象物検出装置において、ウインドウ画像のサイズ及び位置に対応した対象物情報を取得して、信頼度を算出するようにしてもよい。   In the first embodiment, the case where the reliability information is generated in advance by the reliability information generation device has been described. However, the object information generated by the object information generation unit is stored and the target information is stored. In the object detection apparatus, the object information corresponding to the size and position of the window image may be acquired to calculate the reliability.

次に、第2の実施の形態について説明する。第2の実施の形態の対象物検出装置では、信頼度の算出にウインドウ画像の特徴量も用いる点が第1の実施の形態の対象物検出装置とは異なっている。なお、第1の実施の形態と同一の構成及び処理については、同一の符号を付して説明を省略する。   Next, a second embodiment will be described. The object detection device according to the second embodiment is different from the object detection device according to the first embodiment in that the feature amount of the window image is also used for calculating the reliability. In addition, about the structure and process same as 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

図8に示すように、第2の実施の形態に係る対象物検出装置210は、撮像装置12と、コンピュータ216と、表示装置18とを備えている。   As illustrated in FIG. 8, the object detection device 210 according to the second embodiment includes an imaging device 12, a computer 216, and a display device 18.

コンピュータ216をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図8に示すように、ウインドウ画像抽出部20と、特徴量算出部24と、ウインドウ画像抽出部20により抽出されたウインドウ画像が検出対象物であることを表す信頼度を算出する信頼度算出部32と、評価値算出部26と、信頼度算出部32により算出された信頼度及び評価値算出部26で算出された評価値に基づいて、ウインドウ画像が検出対象物であるか否かを判定する判定部28と、表示制御部30とを含んだ構成で表すことができる。   The function block obtained by dividing the computer 216 for each function realizing means determined based on hardware and software will be described. As shown in FIG. 8, a window image extraction unit 20, a feature amount calculation unit 24, a window image extraction, and the like. A reliability calculation unit 32 that calculates a reliability indicating that the window image extracted by the unit 20 is a detection target, an evaluation value calculation unit 26, and the reliability and evaluation values calculated by the reliability calculation unit 32 Based on the evaluation value calculated by the calculation unit 26, it can be expressed by a configuration including a determination unit 28 that determines whether or not the window image is a detection target and a display control unit 30.

信頼度算出部32は、後述する対象物情報生成装置250の対象物情報記憶部62に記憶された対象物情報を参照して、ウインドウ画像抽出部20で抽出されたウインドウ画像のサイズと略同一サイズで、かつウインドウ画像の中心位置との距離が近い中心位置を示す対象物情報を取得する。そして、特徴量算出部24で算出されたウインドウ画像の特徴量と、取得した対象物情報の各々が示す対象物画像の特徴量との距離の平均を算出し、算出した距離の平均に応じた信頼度を算出する。   The reliability calculation unit 32 refers to the object information stored in the object information storage unit 62 of the object information generation device 250 described later, and is substantially the same as the size of the window image extracted by the window image extraction unit 20. Object information indicating the center position that is the size and is close to the center position of the window image is acquired. Then, the average of the distance between the feature amount of the window image calculated by the feature amount calculation unit 24 and the feature amount of the object image indicated by each of the acquired object information is calculated, and the average of the calculated distance is determined. Calculate reliability.

例えば、図9(A)に示すように、24画素×16画素の探索ウインドウを使用して、ウインドウ画像aが抽出されたとする。また、ウインドウ画像aのサイズ及び中心位置と近い対象物情報を取得し、取得した対象物情報に対応する対象物画像を含む学習用画像が、同図(B)に示すようなものであったとする。この場合、ウインドウ画像aも対象物画像も入力画像の右側領域の対向車の画像となっているため、画像上での見た目が類似し、特徴量間の距離も近い。一方、同図(C)に示すようなウインドウ画像bが抽出され、同図(D)に示すような対象物画像を含む学習画像に対応する対象物情報が取得された場合には、ウインドウ画像の特徴量と対象物画像の特徴量との距離は大きくなっている。これは、ウインドウ画像のサイズ及び位置によって、ウインドウ画像が示す特徴量が異なることを示しているため、ウインドウ画像の特徴量と対象物画像の特徴量との距離が小さいほど信頼度の値を大きくする。識別モデルはあらゆるサイズ及び位置で抽出された対象物画像及び非対象物画像を用いて生成されている。そのため、例えば、ウインドウ画像a及びウインドウ画像bの特徴量が、同図(A)及び(C)のヒストグラムで示されるように近似している場合には、いずれも同じような値で評価値が算出されてしまう。しかし、信頼度も合わせて判定することで、検出対象物の位置による見え方の相違を反映させることができ、検出精度が向上する。   For example, as shown in FIG. 9A, it is assumed that a window image a is extracted using a search window of 24 pixels × 16 pixels. Also, the object information close to the size and center position of the window image a is acquired, and the learning image including the object image corresponding to the acquired object information is as shown in FIG. To do. In this case, since both the window image a and the object image are images of the oncoming vehicle in the right region of the input image, the appearance on the image is similar and the distance between the feature amounts is also short. On the other hand, when the window image b as shown in FIG. 5C is extracted and the object information corresponding to the learning image including the object image as shown in FIG. The distance between the feature amount and the feature amount of the object image is large. This indicates that the feature amount indicated by the window image differs depending on the size and position of the window image. Therefore, the reliability value increases as the distance between the feature amount of the window image and the feature amount of the object image decreases. To do. The identification model is generated using object images and non-object images extracted at all sizes and positions. Therefore, for example, when the feature amounts of the window image a and the window image b are approximated as shown by the histograms in FIGS. It will be calculated. However, by determining the reliability as well, the difference in appearance depending on the position of the detection target can be reflected, and the detection accuracy is improved.

対象物情報生成装置250は、CPU、ROM、RAM、及び内蔵HDD等を含んで構成されたコンピュータで構成することができる。このような構成の場合には、各構成要素の機能を実現するためのプログラムをROMやHDD等の記憶媒体に記憶しておき、これをCPUが実行することによって、各機能が実現されるようにする。また、対象物情報生成装置250を対象物検出装置210と互いに独立したマイクロコンピュータで構成してもよいし、同一コンピュータ上で構成することも可能である。   The object information generation device 250 can be configured by a computer including a CPU, a ROM, a RAM, a built-in HDD, and the like. In the case of such a configuration, a program for realizing the function of each component is stored in a storage medium such as a ROM or HDD, and each function is realized by executing the program by the CPU. To. In addition, the object information generation device 250 may be configured by a microcomputer independent of the object detection device 210, or may be configured on the same computer.

対象物情報生成装置250をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図8に示すように、対象物画像抽出部52と、特徴量算出部60と、対象物画像抽出部52で抽出された対象物画像のサイズ、学習用画像における位置、及び特徴量算出部60で算出された特徴量を対象物情報として生成する対象物情報生成部254と、対象物情報生成部254で生成された対象物情報を記憶する対象物情報記憶部62とを含んだ構成で表すことができる。   When the target object information generating apparatus 250 is described by function blocks divided for each function realizing means determined based on hardware and software, as shown in FIG. 8, the target object image extracting unit 52 and the feature amount calculating unit 60 are provided. An object information generation unit 254 that generates, as object information, the size of the object image extracted by the object image extraction unit 52, the position in the learning image, and the feature amount calculated by the feature amount calculation unit 60; The object information storage unit 62 that stores the object information generated by the object information generation unit 254 can be used.

特徴量算出部60は、対象物検出装置210における特徴量算出部24と同様の手法により、学習用画像から抽出された対象物画像の特徴量を算出する。   The feature amount calculation unit 60 calculates the feature amount of the object image extracted from the learning image by the same method as the feature amount calculation unit 24 in the object detection device 210.

ここで、図10を参照して、対象物情報生成処理ルーチンについて説明する。   Here, the object information generation processing routine will be described with reference to FIG.

ステップ100で、検出対象物が含まれた所定枚数(例えば、1000枚)の学習用画像から1枚の学習用画像を取得する。次に、ステップ102で、学習用画像から対象物画像を抽出する。次に、ステップ200で、上記ステップ102で抽出された対象物画像の特徴量としてエッジ方向のヒストグラムを算出する。   In step 100, one learning image is acquired from a predetermined number (for example, 1000) of learning images including the detection target. Next, in step 102, an object image is extracted from the learning image. Next, in step 200, a histogram in the edge direction is calculated as the feature amount of the object image extracted in step 102.

次に、ステップ202で、抽出された対象物画像のサイズ、学習用画像における対象物画像の位置を表す中心位置、及び上記ステップ200で算出された特徴量を対象物情報として生成し、対象物情報記憶部62に記憶する。   Next, in step 202, the size of the extracted object image, the center position representing the position of the object image in the learning image, and the feature amount calculated in step 200 are generated as object information, and the object The information is stored in the information storage unit 62.

次に、ステップ106で、用意しておいたすべての学習用画像について、上記ステップ102、ステップ200及びステップ202の処理が終了したか否かを判定する。終了していない場合には、ステップ100へ戻り、次の学習用画像を取得して、処理を繰り返す。全ての学習用画像について処理が終了した場合には、本ルーチンを終了する。   Next, in step 106, it is determined whether or not the processing of step 102, step 200, and step 202 has been completed for all prepared learning images. If not completed, the process returns to step 100, the next learning image is acquired, and the process is repeated. When the processing is completed for all the learning images, this routine is terminated.

次に、図11を参照して、第2の実施の形態における対象物検出処理ルーチンについて説明する。本ルーチンは、撮像装置12により対象領域の撮像が開始された場合に、ROMに記憶された対象物検出プログラムをCPUが実行することにより行われる。   Next, an object detection processing routine in the second embodiment will be described with reference to FIG. This routine is performed when the CPU executes the object detection program stored in the ROM when imaging of the target area is started by the imaging device 12.

ステップ130で、入力画像を取得し、次に、ステップ132で、入力画像からウインドウ画像を抽出し、所定サイズに正規化する。次に、ステップ136で、上記ステップ132で抽出されたウインドウ画像の特徴量を算出する。   In step 130, an input image is acquired, and in step 132, a window image is extracted from the input image and normalized to a predetermined size. Next, in step 136, the feature amount of the window image extracted in step 132 is calculated.

次に、ステップ220で、対象物情報生成装置250の対象物情報記憶部62に記憶された対象物情報を参照して、上記ステップ132で抽出されたウインドウ画像のサイズと略同一サイズを示す対象物情報を抽出し、抽出された対象物情報の中から、ウインドウ画像の中心位置との距離が近い中心位置を示す対象物情報をK個取得する。   Next, in step 220, an object indicating substantially the same size as the size of the window image extracted in step 132 with reference to the object information stored in the object information storage unit 62 of the object information generating device 250. Object information is extracted, and K pieces of object information indicating a center position that is close to the center position of the window image are acquired from the extracted object information.

次に、ステップ222で、取得されたK個の対象物情報の各々が示す特徴量とウインドウ画像の特徴量との距離の平均値を算出し、算出した特徴量の距離の平均値を信頼度に変換する。特徴量の距離は、特徴量間の相違を表すものであり、例えば特徴ベクトル間のユークリッド距離を用いることができる。また、特徴量の距離の平均値から信頼度への変換は、特徴量の距離の平均値が小さいほど信頼度が大きくなるような係数を特徴量の距離の平均値へ乗算して変換したり、予め定めた変換テーブルに基づいて変換したりすることができる。   Next, in step 222, an average value of the distance between the feature amount indicated by each of the acquired K pieces of object information and the feature amount of the window image is calculated, and the calculated average value of the distance of the feature amount is used as the reliability. Convert to The distance between the feature amounts represents a difference between the feature amounts. For example, the Euclidean distance between the feature vectors can be used. In addition, the conversion from the average value of the feature amount to the reliability is performed by multiplying the average value of the distance of the feature amount by a coefficient such that the reliability increases as the average value of the feature amount decreases. The conversion can be performed based on a predetermined conversion table.

次に、ステップ138で、上記ステップ136で算出されたウインドウ画像の特徴量と識別モデルである境界面との距離に応じた評価値Eを算出し、次に、ステップ140で、上記ステップ222で算出された信頼度p及び上記ステップ138で算出された評価値Eに基づいて、ウインドウ画像が検出対象物か否かを判定する。以降、第1の実施の形態と同様に、ステップ142〜ステップ152を実行する。   Next, in step 138, an evaluation value E corresponding to the distance between the feature amount of the window image calculated in step 136 and the boundary surface as the identification model is calculated. Next, in step 140, in step 222 described above. Based on the calculated reliability p and the evaluation value E calculated in step 138, it is determined whether or not the window image is a detection object. Thereafter, similarly to the first embodiment, steps 142 to 152 are executed.

以上説明したように、第2の実施の形態の対象物検出装置によれば、入力画像から抽出されたウインドウ画像の特徴量と予め生成した識別モデルとの比較により算出される評価値だけでなく、予め学習用画像から抽出した対象物画像のうち、ウインドウ画像のサイズ及び位置と近い対象物画像の特徴量とウインドウ画像の特徴量との距離に対応して算出された、ウインドウ画像のサイズ及び位置の相違による検出対象物の見え方の相違に対応した信頼度を併せて判定に用いるため、識別モデルでは対応が困難な入力画像における検出対象物の大きさ及び位置の相違による検出対象物の見え方の相違にも対応して、検出精度を向上させることができる。   As described above, according to the target object detection device of the second embodiment, not only the evaluation value calculated by comparing the feature amount of the window image extracted from the input image with the identification model generated in advance. The size of the window image calculated in correspondence with the distance between the feature amount of the target image and the feature amount of the window image, which is close to the size and position of the window image, among the target images extracted from the learning image in advance. Since the reliability corresponding to the difference in the appearance of the detection object due to the difference in position is used for the determination, the detection object due to the difference in the size and position of the detection object in the input image that is difficult to cope with the identification model. Corresponding to the difference in appearance, detection accuracy can be improved.

また、信頼度の算出は、ウインドウ画像の特徴量と、対応する対象物画像の特徴量とに基づいて簡易に算出することができるため、入力画像における検出対象物の大きさ及び位置毎に識別モデルを生成するような場合に比べ、計算時間を削減できる。   In addition, since the reliability can be easily calculated based on the feature amount of the window image and the feature amount of the corresponding object image, the reliability is identified for each size and position of the detection object in the input image. Compared to the case of generating a model, the calculation time can be reduced.

なお、第1及び第2の実施の形態では、SVMの手法を用いて識別モデルを生成する場合について説明したが、例えば、ブースティングアルゴリズムを用いたカスケード型識別器など他の識別モデルを生成するようにしてもよい。   In the first and second embodiments, the case where the identification model is generated using the SVM method has been described. For example, another identification model such as a cascade type classifier using a boosting algorithm is generated. You may do it.

また、第1及び第2の実施の形態では、ウインドウ画像及び対象物画像の特徴量として、エッジ方向のヒストグラムを用いる場合について説明したが、例えば、輝度のヒストグラムなど他の特徴量を用いてもよい。   In the first and second embodiments, the case where the edge direction histogram is used as the feature amount of the window image and the object image has been described. However, for example, other feature amounts such as a luminance histogram may be used. Good.

また、第1の実施の形態における信頼度及び第2の実施の形態における信頼度の両方を併せて判定に用いるようにしてもよい。例えば、第1の実施の形態におけるウインドウ画像のサイズ及び位置に基づく信頼度をp1、第2の実施の形態におけるウインドウ画像のサイズ、位置及び特徴量に基づく信頼度p2として、信頼度の重み係数α及びβ、並びに判定閾値Thを用いて表される下式を満たす場合に、ウインドウ画像が検出対象物であると判定するようにすることができる。   Further, both the reliability in the first embodiment and the reliability in the second embodiment may be used for the determination. For example, the reliability based on the size and position of the window image in the first embodiment is defined as p1, and the reliability p2 based on the size, position, and feature amount of the window image in the second embodiment is used as a weighting factor for reliability. When the following expression expressed using α and β and the determination threshold Th is satisfied, it is possible to determine that the window image is a detection target.

E+α×p1+β×p2>Th      E + α × p1 + β × p2> Th

また、入力画像が撮像される撮像装置と、学習用画像を撮像した撮像装置との間に、取付位置や取付角度の相違が生じている場合でも、この差分を画像処理などによって補正して、ウインドウ画像のサイズ及び入力画像における位置と、対象物画像のサイズ及び学習用画像における位置との対応をとることにより、本発明を適用することができる。   In addition, even when there is a difference in mounting position or mounting angle between the imaging device that captures the input image and the imaging device that captures the learning image, this difference is corrected by image processing or the like, The present invention can be applied by taking the correspondence between the size of the window image and the position in the input image and the size of the object image and the position in the learning image.

10、210 対象物検出装置
12 撮像装置
16、216 コンピュータ
20 ウインドウ画像抽出部
22 信頼度取得部
24 特徴量算出部(ウインドウ画像)
26 評価値算出部
28 判定部
32 信頼度算出部
50 信頼度情報生成装置
52 対象物画像抽出部
54 対象物情報生成部
56 信頼度算出部
58 信頼度記憶部
60 特徴量算出部(対象物画像)
62 対象物情報記憶部
70 識別モデル生成装置
250 対象物情報生成装置
DESCRIPTION OF SYMBOLS 10,210 Object detection apparatus 12 Imaging device 16,216 Computer 20 Window image extraction part 22 Reliability acquisition part 24 Feature-value calculation part (window image)
26 evaluation value calculation unit 28 determination unit 32 reliability calculation unit 50 reliability information generation device 52 object image extraction unit 54 object information generation unit 56 reliability calculation unit 58 reliability storage unit 60 feature amount calculation unit (object image )
62 Object information storage unit 70 Identification model generation device 250 Object information generation device

Claims (8)

入力画像に対してサイズが異なる複数のウインドウ枠の各々を所定量ずつ移動させながら前記入力画像から各々の前記ウインドウ枠内の画像をウインドウ画像として抽出する抽出手段と、
検出対象物を検出するために予め生成された識別モデルと前記ウインドウ画像の各々とを比較することにより、前記ウインドウ画像の各々について検出対象物らしさを表す評価値を算出する評価値算出手段と、
予め用意された検出対象物を含む複数の学習用画像における検出対象物の各々のサイズ及び位置に基づいて求まる前記入力画像における前記ウインドウ画像のサイズ及び位置での検出対象物の存在確率に応じた前記ウインドウ画像が検出対象物であることを表す信頼度と、前記評価値とに基づいて、前記ウインドウ画像が検出対象物か否かを判定する判定手段と、
を含む対象物検出装置。
Extracting means for extracting an image in each window frame from the input image as a window image while moving each of a plurality of window frames having different sizes with respect to the input image;
An evaluation value calculating means for calculating an evaluation value representing the likelihood of a detection object for each of the window images by comparing each of the window images with an identification model generated in advance to detect a detection object;
According to the existence probability of the detection object at the size and position of the window image in the input image obtained based on the size and position of each of the detection objects in a plurality of learning images including the detection object prepared in advance Determination means for determining whether or not the window image is a detection object based on the reliability indicating that the window image is a detection object and the evaluation value;
An object detection apparatus including:
前記信頼度を、前記検出対象物を含む複数の学習用画像から検出対象物のサイズに応じて抽出された複数の対象物画像の各々のサイズ、及び前記学習用画像における前記対象物画像の位置に基づいて、前記ウインドウ画像のサイズと略同一サイズの複数の対象物画像の各々の位置と前記ウインドウ画像の位置との距離の平均値が小さいほど値が大きくなるように定めた請求項1記載の対象物検出装置。   The reliability is determined based on the size of each of the plurality of object images extracted according to the size of the detection object from the plurality of learning images including the detection object, and the position of the object image in the learning image. 2. The method according to claim 1, wherein the smaller the average value of the distance between the position of each of the plurality of object images having substantially the same size as the size of the window image and the position of the window image, the larger the value. Object detection device. 入力画像に対してサイズが異なる複数のウインドウ枠の各々を所定量ずつ移動させながら前記入力画像から各々の前記ウインドウ枠内の画像をウインドウ画像として抽出する抽出手段と、
前記ウインドウ画像の特徴量を算出する特徴量算出手段と、
予め用意された検出対象物を含む複数の学習用画像から検出対象物のサイズに応じて、かつ前記入力画像における前記ウインドウ画像のサイズ及び位置に対応したサイズ及び位置で抽出された複数の対象物画像の特徴量と、前記ウインドウ画像の特徴量との距離に応じた前記ウインドウ画像が検出対象物であることを表す信頼度を算出する信頼度算出手段と、
検出対象物を検出するために予め生成された識別モデルの特徴量と前記ウインドウ画像の特徴量とを比較することにより、前記ウインドウ画像の検出対象物らしさを表す評価値を算出する評価値算出手段と、
前記評価値及び前記信頼度に基づいて、前記ウインドウ画像が検出対象物か否かを判定する判定手段と、
を含む対象物検出装置。
Extracting means for extracting an image in each window frame from the input image as a window image while moving each of a plurality of window frames having different sizes with respect to the input image;
Feature amount calculating means for calculating the feature amount of the window image;
A plurality of objects extracted from a plurality of learning images including a detection object prepared in advance according to the size of the detection object and at a size and position corresponding to the size and position of the window image in the input image Reliability calculation means for calculating a reliability indicating that the window image is a detection target according to the distance between the feature quantity of the image and the feature quantity of the window image;
Evaluation value calculating means for calculating an evaluation value representing the likelihood of the detection target of the window image by comparing the feature amount of the identification model generated in advance to detect the detection target object with the feature amount of the window image. When,
Determining means for determining whether the window image is a detection object based on the evaluation value and the reliability;
An object detection apparatus including:
前記信頼度算出手段は、前記複数の対象物画像の各々のサイズ、前記学習用画像における前記対象物画像の位置、及び前記対象物画像の特徴量に基づいて、前記ウインドウ画像のサイズと略同一サイズで、かつ前記学習用画像における前記対象物画像の位置と前記入力画像における前記ウインドウ画像の位置との距離が所定範囲内の複数の対象物画像の各々の特徴量と、前記ウインドウ画像の特徴量との距離の平均値が小さいほど値が大きくなるように信頼度を算出する請求項3記載の対象物検出装置。   The reliability calculation means is substantially the same as the size of the window image based on the size of each of the plurality of object images, the position of the object image in the learning image, and the feature amount of the object image. A feature amount of each of the plurality of object images having a size and a distance between the position of the object image in the learning image and the position of the window image in the input image, and the feature of the window image The object detection apparatus according to claim 3, wherein the reliability is calculated so that the value increases as the average value of the distance to the quantity decreases. 前記入力画像及び前記学習用画像を、車両の前方または後方の所定領域を撮影する車載カメラで撮影した請求項1〜請求項4のいずれか1項記載の対象物検出装置。   The target object detection apparatus of any one of Claims 1-4 which image | photographed the said input image and the said image for learning with the vehicle-mounted camera which image | photographs the predetermined area | region of the front or back of a vehicle. コンピュータを、
入力画像に対してサイズが異なる複数のウインドウ枠の各々を所定量ずつ移動させながら前記入力画像から各々の前記ウインドウ枠内の画像をウインドウ画像として抽出する抽出手段と、
検出対象物を検出するために予め生成された識別モデルと前記ウインドウ画像の各々とを比較することにより、前記ウインドウ画像の各々について検出対象物らしさを表す評価値を算出する評価値算出手段と、
予め用意された検出対象物を含む複数の学習用画像における検出対象物の各々のサイズ及び位置に基づいて求まる前記入力画像における前記ウインドウ画像のサイズ及び位置での検出対象物の存在確率に応じた前記ウインドウ画像が検出対象物であることを表す信頼度と、前記評価値とに基づいて、前記ウインドウ画像が検出対象物か否かを判定する判定手段と、
して機能させるための対象物検出プログラム。
Computer
Extracting means for extracting an image in each window frame from the input image as a window image while moving each of a plurality of window frames having different sizes with respect to the input image;
An evaluation value calculating means for calculating an evaluation value representing the likelihood of a detection object for each of the window images by comparing each of the window images with an identification model generated in advance to detect a detection object;
According to the existence probability of the detection object at the size and position of the window image in the input image obtained based on the size and position of each of the detection objects in a plurality of learning images including the detection object prepared in advance Determination means for determining whether or not the window image is a detection object based on the reliability indicating that the window image is a detection object and the evaluation value;
The object detection program to make it function.
コンピュータを、
入力画像に対してサイズが異なる複数のウインドウ枠の各々を所定量ずつ移動させながら前記入力画像から各々の前記ウインドウ枠内の画像をウインドウ画像として抽出する抽出手段と、
前記ウインドウ画像の特徴量を算出する特徴量算出手段と、
予め用意された検出対象物を含む複数の学習用画像から検出対象物のサイズに応じて、かつ前記入力画像における前記ウインドウ画像のサイズ及び位置に対応したサイズ及び位置で抽出された複数の対象物画像の特徴量と、前記ウインドウ画像の特徴量との距離に応じた前記ウインドウ画像が検出対象物であることを表す信頼度を算出する信頼度算出手段と、
検出対象物を検出するために予め生成された識別モデルの特徴量と前記ウインドウ画像の特徴量とを比較することにより、前記ウインドウ画像の検出対象物らしさを表す評価値を算出する評価値算出手段と、
前記評価値及び前記信頼度に基づいて、前記ウインドウ画像が検出対象物か否かを判定する判定手段と、
して機能させるための対象物検出プログラム。
Computer
Extracting means for extracting an image in each window frame from the input image as a window image while moving each of a plurality of window frames having different sizes with respect to the input image;
Feature amount calculating means for calculating the feature amount of the window image;
A plurality of objects extracted from a plurality of learning images including a detection object prepared in advance according to the size of the detection object and at a size and position corresponding to the size and position of the window image in the input image Reliability calculation means for calculating a reliability indicating that the window image is a detection target according to the distance between the feature quantity of the image and the feature quantity of the window image;
Evaluation value calculating means for calculating an evaluation value representing the likelihood of the detection target of the window image by comparing the feature amount of the identification model generated in advance to detect the detection target object with the feature amount of the window image. When,
Determining means for determining whether the window image is a detection object based on the evaluation value and the reliability;
The object detection program to make it function.
コンピュータを、請求項1〜請求項5のいずれか1項記載の対象物検出装置を構成する各手段として機能させるための対象物検出プログラム。   An object detection program for causing a computer to function as each means constituting the object detection device according to any one of claims 1 to 5.
JP2009114537A 2009-05-11 2009-05-11 Subject detecting apparatus and program Pending JP2010262576A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009114537A JP2010262576A (en) 2009-05-11 2009-05-11 Subject detecting apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009114537A JP2010262576A (en) 2009-05-11 2009-05-11 Subject detecting apparatus and program

Publications (1)

Publication Number Publication Date
JP2010262576A true JP2010262576A (en) 2010-11-18

Family

ID=43360569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009114537A Pending JP2010262576A (en) 2009-05-11 2009-05-11 Subject detecting apparatus and program

Country Status (1)

Country Link
JP (1) JP2010262576A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150106629A (en) * 2014-03-12 2015-09-22 에스케이플래닛 주식회사 Service providing device and user equipment, classification system based on single image comprising the same, control method thereof and computer readable medium having computer program recorded therefor
JP2016091051A (en) * 2014-10-29 2016-05-23 日本電信電話株式会社 Image processing apparatus and program
JP2017079433A (en) * 2015-10-21 2017-04-27 株式会社東海理化電機製作所 Remote control system
JP2018067149A (en) * 2016-10-19 2018-04-26 三菱重工業株式会社 Attribute determining device, attribute determining method, computer program, and recording medium
KR101916832B1 (en) 2017-07-11 2018-11-08 강경수 Method and apparatus for detecting of object using the annotation bounding box
JP2020010217A (en) * 2018-07-10 2020-01-16 Kddi株式会社 Data identification device, system, program, and method capable of access control of identification request source
CN111681229A (en) * 2020-06-10 2020-09-18 创新奇智(上海)科技有限公司 Deep learning model training method, wearable clothes flaw identification method and wearable clothes flaw identification device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150106629A (en) * 2014-03-12 2015-09-22 에스케이플래닛 주식회사 Service providing device and user equipment, classification system based on single image comprising the same, control method thereof and computer readable medium having computer program recorded therefor
KR102213867B1 (en) 2014-03-12 2021-02-08 에스케이플래닛 주식회사 Service providing device and user equipment, classification system based on single image comprising the same, control method thereof and computer readable medium having computer program recorded therefor
JP2016091051A (en) * 2014-10-29 2016-05-23 日本電信電話株式会社 Image processing apparatus and program
JP2017079433A (en) * 2015-10-21 2017-04-27 株式会社東海理化電機製作所 Remote control system
JP2018067149A (en) * 2016-10-19 2018-04-26 三菱重工業株式会社 Attribute determining device, attribute determining method, computer program, and recording medium
KR101916832B1 (en) 2017-07-11 2018-11-08 강경수 Method and apparatus for detecting of object using the annotation bounding box
JP2020010217A (en) * 2018-07-10 2020-01-16 Kddi株式会社 Data identification device, system, program, and method capable of access control of identification request source
CN111681229A (en) * 2020-06-10 2020-09-18 创新奇智(上海)科技有限公司 Deep learning model training method, wearable clothes flaw identification method and wearable clothes flaw identification device

Similar Documents

Publication Publication Date Title
US10599228B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP5726125B2 (en) Method and system for detecting an object in a depth image
JP6125188B2 (en) Video processing method and apparatus
CN109934847B (en) Method and device for estimating posture of weak texture three-dimensional object
JP2010262576A (en) Subject detecting apparatus and program
US20060188130A1 (en) Apparatus and method for normalizing face image used for detecting drowsy driving
US20090232363A1 (en) Information processing apparatus, method, and program
JP2012084012A (en) Image processing device, processing method therefor, and program
JP5515871B2 (en) Object recognition apparatus and program
WO2012046426A1 (en) Object detection device, object detection method, and object detection program
JP2011165170A (en) Object detection device and program
JP5100688B2 (en) Object detection apparatus and program
JP5691834B2 (en) Image identification apparatus and program
CN109074646B (en) Image recognition device and image recognition program
US10223583B2 (en) Object detection apparatus
JP5020920B2 (en) Pedestrian detection device and program
KR101904480B1 (en) Object recognition system and method considering camera distortion
JP5829155B2 (en) Pedestrian detection device and program
JP5051671B2 (en) Information processing apparatus, information processing method, and program
JP2008003800A (en) Image processing apparatus and image processing program
JP5614100B2 (en) Image processing apparatus and moving body position estimation method