JP2011048485A - Device and method for detecting target - Google Patents

Device and method for detecting target Download PDF

Info

Publication number
JP2011048485A
JP2011048485A JP2009194659A JP2009194659A JP2011048485A JP 2011048485 A JP2011048485 A JP 2011048485A JP 2009194659 A JP2009194659 A JP 2009194659A JP 2009194659 A JP2009194659 A JP 2009194659A JP 2011048485 A JP2011048485 A JP 2011048485A
Authority
JP
Japan
Prior art keywords
feature amount
feature
distance
target
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009194659A
Other languages
Japanese (ja)
Other versions
JP5598694B2 (en
Inventor
Zhencheng Hu
振程 胡
Keiichi Uchimura
圭一 内村
Katsuichi Ono
勝一 小野
Hitoshi Kubota
整 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kumamoto University NUC
Suzuki Motor Corp
Original Assignee
Kumamoto University NUC
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kumamoto University NUC, Suzuki Motor Corp filed Critical Kumamoto University NUC
Priority to JP2009194659A priority Critical patent/JP5598694B2/en
Publication of JP2011048485A publication Critical patent/JP2011048485A/en
Application granted granted Critical
Publication of JP5598694B2 publication Critical patent/JP5598694B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a target detection device and a target detection method with both high recognition precision and high real time property. <P>SOLUTION: Featured values (positive data, negative data) for reference for training to be used for the recognition of an object for a plurality of image sizes are stored in a storage part 4 with consideration for the size of ROI in an image. The featured values corresponding to the distance (size) of the featured values are selected among a plurality of featured values for reference, and matching is performed under the control of a control part 4. Thus, it is possible to prevent the distance (size) of the two-dimensional image of the ROI obtained by a stereo camera 2 from becoming largely different from the distance (size) of preliminarily prepared featured values for reference. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、歩行者などの物標を検出する物標検出装置および物標検出方法に関する。   The present invention relates to a target detection apparatus and a target detection method for detecting a target such as a pedestrian.

近年、交通事故、交通渋滞、環境汚染などの道路交通問題を解決することを目的とした高度交通システム(ITS: Intelligent Transport System)が注目されている。ITSとは、最先端の情報通信技術を用いて、人、道路および車両をネットワークで接続することにより、安全性、輸送効率、および快適性の向上を達成し、環境保全に資する道路交通を実現する社会システムである。ITSの分野の中でも、交通事故に関する問題は特に重要な問題である。交通事故死亡者数は、近年減少傾向にあるものの、交通事故死亡者の中で歩行者が占める割合は増加傾向にある。歩行者における交通事故は死亡事故につながりやすく、道路交通環境において歩行者は交通弱者である。そのため、歩行者を最優先にした交通事故発生対策が急務である。   In recent years, ITS (Intelligent Transport System) has been attracting attention for the purpose of solving road traffic problems such as traffic accidents, traffic jams, and environmental pollution. With ITS, people, roads and vehicles are connected via a network using state-of-the-art information and communication technology to achieve improvements in safety, transportation efficiency and comfort, and to realize road traffic that contributes to environmental conservation. Is a social system. Within the ITS field, problems related to traffic accidents are particularly important. Although the number of traffic fatalities has been decreasing in recent years, the percentage of pedestrians among traffic fatalities is increasing. A traffic accident in a pedestrian is likely to lead to a fatal accident, and a pedestrian is a traffic weak person in a road traffic environment. Therefore, there is an urgent need to take measures to prevent traffic accidents, giving priority to pedestrians.

交通事故予防のための車両側からのアプローチとして、予防安全(アクティブセーフティー)技術がある。この技術は、車両の周辺環境の認識を行うことにより、車両周辺に存在する障害物を運転者に警告したり、車両自らが事故の回避行動をとったりする技術である。周辺環境の認識には、レーザレーダなどの距離測定機器による認識や、車載カメラからの画像を解析することによる画像処理技術による認識がある。この双方の技術を用いたセンサフュージョンによる環境認識技術が注目されている。   As an approach from the vehicle side for preventing traffic accidents, there is active safety technology. This technology is a technology that warns the driver of obstacles around the vehicle by recognizing the surrounding environment of the vehicle, or that the vehicle itself takes an accident avoidance action. The recognition of the surrounding environment includes recognition by a distance measuring device such as a laser radar and recognition by an image processing technique by analyzing an image from a vehicle-mounted camera. Attention has been focused on environment recognition technology by sensor fusion using both technologies.

歩行者認識手法は、これまで多くの研究がされており、様々な手法が提案されている。これまで用いられていた歩行者認識手法としては、Neural Network(非特許文献1)や、HOG(Histograms of Oriented Gradients)特徴を用いたSVM(Support Vector Machine)(非特許文献2)などが挙げられる。   Much research has been conducted on pedestrian recognition techniques, and various techniques have been proposed. Examples of pedestrian recognition methods that have been used so far include Neural Network (Non-patent Document 1) and SVM (Support Vector Machine) using HOG (Histograms of Oriented Gradients) features (Non-patent Document 2). .

L.Zhao, C.E.Thorpe, "Stereo and Neural Network Based Pedestrian Detection", IEEE Transaction on Intelligent Transportation System, Vol.1, No.3, September 2000, pp.148-154.L.Zhao, C.E.Thorpe, "Stereo and Neural Network Based Pedestrian Detection", IEEE Transaction on Intelligent Transportation System, Vol.1, No.3, September 2000, pp.148-154. F.Suard, A.Rakotomamonjy, A.Bensrhair, A.Broggi, "Pedestrian Detection using Infrared image and Histograms of Oriented Gradients", Intelligent Vehicle Symposium 2006, June 13-15, 2006, Tokyo, Japan, pp.206-212.F.Suard, A.Rakotomamonjy, A.Bensrhair, A.Broggi, "Pedestrian Detection using Infrared image and Histograms of Oriented Gradients", Intelligent Vehicle Symposium 2006, June 13-15, 2006, Tokyo, Japan, pp.206-212 .

ところで、従来の識別器では、トレーニング用画像または参照用画像と、識別対象画像とを対比する際に、識別対象画像に対してスケーリング変換を行うことが必要となる。しかし、例えば、遠方に対象物が存在する場合には、識別対象画像に含まれる特徴情報がスケーリング変換によって大きく変化するので、識別精度が低くなるという問題があった。また、識別精度の低下に伴い、認識に要する時間が長くなるという問題もあった   By the way, in the conventional classifier, when the training image or reference image is compared with the classification target image, it is necessary to perform scaling conversion on the classification target image. However, for example, when there is an object in the distance, the feature information included in the identification target image is greatly changed by the scaling conversion, which causes a problem that the identification accuracy is lowered. In addition, there is a problem that the time required for recognition increases as the identification accuracy decreases.

本発明はかかる問題点に鑑みてなされたものであり、その目的は、認識精度が高く、しかも認識に要する計算時間が短い物標検出装置および物標検出方法を提供することにある。   The present invention has been made in view of such problems, and an object of the present invention is to provide a target detection apparatus and a target detection method with high recognition accuracy and a short calculation time required for recognition.

本発明による第1の物標検出装置は、記憶手段と、特徴量抽出手段と、識別処理手段とを備えたものである。記憶手段は、複数の第1の特徴量と、複数の第2の特徴量と、各第1の特徴量と対応付けられた第1の距離情報と、各第2の特徴量と対応付けられた第2の距離情報とを記憶するものである。複数の第1の特徴量は、第1の撮像手段から得られた複数の第1の前方画像から切り出された複数の第1の2次元画像から得られたものである。各第1の2次元画像は、距離の互いに異なる対象物を1つずつ含んでいる。複数の第2の特徴量は、第2の撮像手段から得られた複数の第1の前方画像から切り出された複数の第2の2次元画像から得られたものである。各第2の2次元画像は、距離の互いに異なる非対象物を1つずつ含んでいる。特徴量抽出手段は、距離取得手段から得られた第3の距離情報と、第3の撮像手段から得られた第3の前方画像とから、第3の前方画像に含まれる物標候補領域の第3の2次元画像を切り出したのち、第3の2次元画像から第3の特徴量を抽出すると共に、第3の特徴量に対応する距離情報を第3の距離情報から抽出するものである。識別処理手段は、複数の第1の特徴量のうち第3の特徴量に対応する距離情報と同一もしくは近い第1の距離情報と対応付けられた第1の特徴量と、複数の第2の特徴量のうち第3の特徴量に対応する距離情報と同一もしくは近い第2の距離情報と対応付けられた第2の特徴量と、第3の特徴量とに基づいて、物標候補領域に含まれる物標候補の識別を行うものである。   A first target detection apparatus according to the present invention includes storage means, feature amount extraction means, and identification processing means. The storage means is associated with the plurality of first feature quantities, the plurality of second feature quantities, the first distance information associated with each first feature quantity, and each second feature quantity. The second distance information is stored. The plurality of first feature amounts are obtained from a plurality of first two-dimensional images cut out from a plurality of first front images obtained from the first imaging means. Each first two-dimensional image includes one object having a different distance. The plurality of second feature amounts are obtained from a plurality of second two-dimensional images cut out from the plurality of first front images obtained from the second imaging unit. Each second two-dimensional image includes one non-object having a different distance. The feature amount extraction unit uses the third distance information obtained from the distance acquisition unit and the third front image obtained from the third imaging unit to determine the target candidate region included in the third front image. After the third two-dimensional image is cut out, a third feature amount is extracted from the third two-dimensional image, and distance information corresponding to the third feature amount is extracted from the third distance information. . The identification processing means includes a first feature amount associated with the first distance information that is the same as or close to the distance information corresponding to the third feature amount among the plurality of first feature amounts, and the plurality of second feature amounts. Based on the second feature amount associated with the second distance information that is the same as or close to the distance information corresponding to the third feature amount of the feature amount, and the third feature amount, The target candidate included is identified.

本発明による第2の物標検出装置は、記憶手段と、特徴量抽出手段と、識別処理手段とを備えたものである。記憶手段は、複数の第1の特徴量と、複数の第2の特徴量と、各第1の特徴量と対応付けられた第1のサイズ情報と、各第2の特徴量と対応付けられた第2のサイズ情報とを記憶するものである。複数の第1の特徴量は、第1の撮像手段から得られた複数の第1の前方画像から切り出された複数の第1の2次元画像から得られたものである。各第1の2次元画像は、サイズの互いに異なる対象物を1つずつ含んでいる。複数の第2の特徴量は、第2の撮像手段から得られた複数の第1の前方画像から切り出された複数の第2の2次元画像から得られたものである。各第2の2次元画像は、サイズの互いに異なる非対象物を1つずつ含んでいる。特徴量抽出手段は、距離取得手段から得られた第3の距離情報と、第3の撮像手段から得られた第3の前方画像とから、第3の前方画像に含まれる物標候補領域の第3の2次元画像を切り出したのち、第3の2次元画像から第3の特徴量を抽出すると共に、第3の特徴量に対応する距離情報を第3の距離情報から抽出し、抽出した距離情報を第3のサイズ情報に変換するものである。識別処理手段は、複数の第1の特徴量のうち第3のサイズ情報と同一もしくは近い第1のサイズ情報と対応付けられた第1の特徴量と、複数の第2の特徴量のうち第3のサイズ情報と同一もしくは近い第2のサイズ情報と対応付けられた第2の特徴量と、第3の特徴量とに基づいて、物標候補領域に含まれる物標候補の識別を行うものである。   A second target detection apparatus according to the present invention includes a storage unit, a feature amount extraction unit, and an identification processing unit. The storage means is associated with the plurality of first feature quantities, the plurality of second feature quantities, the first size information associated with each first feature quantity, and each second feature quantity. The second size information is stored. The plurality of first feature amounts are obtained from a plurality of first two-dimensional images cut out from a plurality of first front images obtained from the first imaging means. Each first two-dimensional image includes one object having a different size. The plurality of second feature amounts are obtained from a plurality of second two-dimensional images cut out from the plurality of first front images obtained from the second imaging unit. Each second two-dimensional image includes one non-object having a different size. The feature amount extraction unit uses the third distance information obtained from the distance acquisition unit and the third front image obtained from the third imaging unit to determine the target candidate region included in the third front image. After cutting out the third two-dimensional image, the third feature amount is extracted from the third two-dimensional image, and the distance information corresponding to the third feature amount is extracted from the third distance information and extracted. The distance information is converted into third size information. The identification processing means includes a first feature amount associated with the first size information that is the same as or close to the third size information among the plurality of first feature amounts, and the first feature amount among the plurality of second feature amounts. The target candidate included in the target candidate area is identified based on the second feature amount associated with the second size information that is the same as or close to the size information 3 and the third feature amount. It is.

本発明による第1の物標検出方法は、以下の3つのステップを含むものである。
(A)複数の第1の特徴量と、複数の第2の特徴量と、各第1の特徴量と対応付けられた第1の距離情報と、各第2の特徴量と対応付けられた第2の距離情報とを用意する用意ステップ
なお、上記の複数の第1の特徴量は、上記の第1の物標検出装置における複数の第1の特徴量と同一である。上記の複数の第2の特徴量は、上記の第1の物標検出装置における複数の第2の特徴量と同一である。
(B)距離取得手段から得られた第3の距離情報と、第3の撮像手段から得られた第3の前方画像とから、第3の前方画像に含まれる物標候補領域の第3の2次元画像を切り出したのち、第3の2次元画像から第3の特徴量を抽出すると共に、第3の特徴量に対応する距離情報を第3の距離情報から抽出する特徴量抽出ステップ
(C)複数の第1の特徴量のうち第3の特徴量に対応する距離情報と同一もしくは近い第1の距離情報と対応付けられた第1の特徴量と、複数の第2の特徴量のうち第3の特徴量に対応する距離情報と同一もしくは近い第2の距離情報と対応付けられた第2の特徴量と、第3の特徴量とに基づいて、物標候補領域に含まれる物標候補の識別を行う識別処理ステップ
The first target detection method according to the present invention includes the following three steps.
(A) A plurality of first feature amounts, a plurality of second feature amounts, first distance information associated with each first feature amount, and each second feature amount Preparation Step for Preparing Second Distance Information The plurality of first feature quantities are the same as the plurality of first feature quantities in the first target detection device. The plurality of second feature amounts are the same as the plurality of second feature amounts in the first target detection apparatus.
(B) From the third distance information obtained from the distance acquisition unit and the third front image obtained from the third imaging unit, the third candidate target area included in the third front image is obtained. After extracting the two-dimensional image, a third feature amount is extracted from the third two-dimensional image, and distance information corresponding to the third feature amount is extracted from the third distance information (C ) Among the plurality of first feature amounts, the first feature amount associated with the first distance information that is the same as or close to the distance information corresponding to the third feature amount, and among the plurality of second feature amounts The target included in the target candidate region based on the second feature amount associated with the second distance information that is the same as or close to the distance information corresponding to the third feature amount, and the third feature amount. Identification processing step for identifying candidates

本発明による第2の物標検出方法は、以下の3つのステップを含むものである。
(A)複数の第1の特徴量と、複数の第2の特徴量と、各第1の特徴量と対応付けられた第1のサイズ情報と、各第2の特徴量と対応付けられた第2のサイズ情報とを用意する用意ステップ
なお、上記の複数の第1の特徴量は、上記の第2の物標検出装置における複数の第1の特徴量と同一である。上記の複数の第2の特徴量は、上記の第2の物標検出装置における複数の第2の特徴量と同一である。
(B)距離取得手段から得られた第3の距離情報と、第3の撮像手段から得られた第3の前方画像とから、第3の前方画像に含まれる物標候補領域の第3の2次元画像を切り出したのち、第3の2次元画像から第3の特徴量を抽出すると共に、第3の特徴量に対応する距離情報を第3の距離情報から抽出し、抽出した距離情報を第3のサイズ情報に変換する特徴量抽出ステップ
(C)複数の第1の特徴量のうち第3のサイズ情報と同一もしくは近い第1のサイズ情報と対応付けられた第1の特徴量と、複数の第2の特徴量のうち第3のサイズ情報と同一もしくは近い第2のサイズ情報と対応付けられた第2の特徴量と、第3の特徴量とに基づいて、物標候補領域に含まれる物標候補の識別を行う識別処理ステップ
The second target detection method according to the present invention includes the following three steps.
(A) A plurality of first feature quantities, a plurality of second feature quantities, first size information associated with each first feature quantity, and associated with each second feature quantity Preparation Step for Preparing Second Size Information The plurality of first feature amounts are the same as the plurality of first feature amounts in the second target detection apparatus. The plurality of second feature quantities are the same as the plurality of second feature quantities in the second target detection device.
(B) From the third distance information obtained from the distance acquisition unit and the third front image obtained from the third imaging unit, the third candidate target area included in the third front image is obtained. After cutting out the two-dimensional image, the third feature amount is extracted from the third two-dimensional image, distance information corresponding to the third feature amount is extracted from the third distance information, and the extracted distance information is obtained. Feature amount extraction step for converting to third size information (C) The first feature amount associated with the first size information that is the same as or close to the third size information among the plurality of first feature amounts, Based on the second feature amount associated with the second size information that is the same as or close to the third size information among the plurality of second feature amounts, and the third feature amount, Identification processing step for identifying included target candidates

ここで、本発明による第1および第2の物標検出装置の識別処理手段、または本発明による第1および第2の物標検出方法の識別処理ステップにおいて、第1の特徴量と第3の特徴量とのマッチングを行うと共に、第2の特徴量と第3の特徴量とのマッチングを行うようにしてもよい。このとき、第1の特徴量と第3の特徴量とのマッチングの結果から第1相関スコアを導出すると共に、第2の特徴量と第3の特徴量とのマッチングの結果から第2相関スコアを導出し、第1相関スコアおよび第2相関スコアに基づいて物標候補領域に含まれる物標候補の識別を行うようにしてもよい。   Here, in the identification processing means of the first and second target detection devices according to the present invention, or the identification processing step of the first and second target detection methods according to the present invention, the first feature amount and the third While matching with the feature amount, matching between the second feature amount and the third feature amount may be performed. At this time, the first correlation score is derived from the result of matching between the first feature quantity and the third feature quantity, and the second correlation score is obtained from the result of matching between the second feature quantity and the third feature quantity. The target candidates included in the target candidate area may be identified based on the first correlation score and the second correlation score.

本発明の第1および第2の物標検出装置、ならびに本発明の第1および第2の物標検出方法では、上述の3種類の特徴量に基づいて識別処理が行われる。このとき、複数の第1の特徴量のうち第3の特徴量の距離(サイズ)と同一もしくは近い距離(サイズ)の第1の特徴量が選択され、複数の第2の特徴量のうち第3の特徴量の距離(サイズ)と同一もしくは近い距離(サイズ)の第2の特徴量が選択される。これにより、第2の2次元画像から得られた特徴量に対して大きなリサイズを施す必要がない。なお、識別処理に際して、例えば、Neural Networkや、SVM、AdaBoostなどの識別器が用いられていてもよい。   In the first and second target detection apparatuses of the present invention and the first and second target detection methods of the present invention, identification processing is performed based on the above-described three types of feature amounts. At this time, a first feature amount having a distance (size) that is the same as or close to the distance (size) of the third feature amount is selected from among the plurality of first feature amounts, and the first feature amount is selected from among the plurality of second feature amounts. The second feature amount having the same or close distance (size) as the feature amount distance (size) of 3 is selected. This eliminates the need to resize the feature amount obtained from the second two-dimensional image. In the identification process, for example, a classifier such as Neural Network, SVM, or AdaBoost may be used.

本発明の第1および第2の物標検出装置、ならびに本発明の第1および第2の物標検出方法によれば、距離に応じて選択された3種類の特徴量に基づいて識別処理を行うようにした。これにより、第2の2次元画像から得られた特徴量に対して大きなリサイズを施す必要がないので、リサイズによる情報の損失や付加を低減することができる。その結果、識別精度を高くすることができる。また、識別精度が高くなるにつれて、認識に要する時間を短くすることができる。従って、認識精度が高く、しかも認識に要する計算時間が短い物標検出装置を実現することができる。   According to the first and second target detection devices of the present invention and the first and second target detection methods of the present invention, the identification process is performed based on the three types of feature amounts selected according to the distance. I did it. Thereby, it is not necessary to resize the feature amount obtained from the second two-dimensional image, so that loss or addition of information due to resizing can be reduced. As a result, the identification accuracy can be increased. Also, as the identification accuracy increases, the time required for recognition can be shortened. Therefore, a target detection apparatus with high recognition accuracy and a short calculation time required for recognition can be realized.

本発明の一実施の形態に係るセンサフュージョンの概略構成図である。It is a schematic block diagram of the sensor fusion which concerns on one embodiment of this invention. 図1のセンサフュージョンにおける物標の検出手順の一例を表す流れ図である。It is a flowchart showing an example of the detection procedure of the target in the sensor fusion of FIG. 本実施の形態の手法におけるトレーニング用および検証用の特徴量のデータセットの一例を表すものである。3 shows an example of a training data and verification feature data set in the method of the present embodiment. 従来の手法におけるリサイズ前の2次元画像と、リサイズ後の2次元画像とを表すものである。It shows a two-dimensional image before resizing and a two-dimensional image after resizing in a conventional method. 従来の手法におけるトレーニング用および検証用の特徴量のデータセットの一例を表すものである。It represents an example of a feature data set for training and verification in a conventional method. 本実施の形態の手法におけるROC(receiver operating characteristic; 受信者動作特性)曲線の一例と、従来の手法におけるROC曲線の一例とを表すものである。An example of an ROC (receiver operating characteristic) curve in the method of the present embodiment and an example of an ROC curve in a conventional method are shown.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係るセンサフュージョン(物標検出装置)の概略構成を表したものである。このセンサフュージョンは、物標を検出するシステムであり、例えば、自動車Cに搭載されるものである。ここで、物標とは、例えば、自動車、バイク、歩行者、障害物、移動体などを指している。   FIG. 1 shows a schematic configuration of a sensor fusion (target detection apparatus) according to an embodiment of the present invention. This sensor fusion is a system for detecting a target, and is mounted on the automobile C, for example. Here, the target refers to, for example, an automobile, a motorcycle, a pedestrian, an obstacle, a moving body, and the like.

このセンサフュージョンは、例えば、レーザレーダ1、ステレオカメラ2、制御部3、記憶部4を備えている。   This sensor fusion includes, for example, a laser radar 1, a stereo camera 2, a control unit 3, and a storage unit 4.

制御部3は、例えば、DSP(Digital Signal Processor)などにより構成され、レーザレーダ1およびステレオカメラ2によって得られた情報を処理して自動車Cの前方の物標の位置や種類などを所定の演算により特定するようになっている。記憶部4は、例えば、RAM(Random Access Memory)およびHD(hard disk)からなる。記憶部4には、センサフュージョンを校正するためのプログラムや、物標を検出するためのプログラム、LUT(Look up Table)などが格納されており、制御部3で得られた演算結果などが随時格納される。   The control unit 3 is configured by, for example, a DSP (Digital Signal Processor) or the like, and processes information obtained by the laser radar 1 and the stereo camera 2 to calculate the position and type of a target ahead of the car C, for example. Is to be specified. The storage unit 4 includes, for example, a RAM (Random Access Memory) and an HD (hard disk). The storage unit 4 stores a program for calibrating sensor fusion, a program for detecting a target, a LUT (Look up Table), and the like, and the calculation results obtained by the control unit 3 are stored as needed. Stored.

記憶部4内のLUTには、後述の対象物(target)の検出やトレーニングに際して利用される情報が含まれている。LUTには、例えば、距離の互いに異なる複数種類の特徴量と、各特徴量と対応付けられた距離情報とが含まれている。なお、LUTに、例えば、サイズの互いに異なる複数種類の特徴量と、各特徴量と対応付けられたサイズ情報とが含まれていてもよい。ここで、上記のサイズ情報とは、特徴量を導出する際に使用した2次元画像のサイズまたはそれに対応するサイズについての情報であり、その2次元画像に含まれる対象物または非対象物と撮像装置との距離と所定の相関を有するものである。従って、第1の特徴量と対応付けられたサイズ情報と、第2の特徴量と対応付けられたサイズ情報とが互いに同一である場合には、第1の特徴量を導出する際に使用した2次元画像に含まれる対象物または非対象物と撮像装置との距離と、第2の特徴量を導出する際に使用した2次元画像に含まれる対象物または非対象物と撮像装置との距離とが互いに等しいことを意味する。   The LUT in the storage unit 4 includes information used for detecting a target and training described later. The LUT includes, for example, a plurality of types of feature amounts having different distances and distance information associated with each feature amount. Note that the LUT may include, for example, a plurality of types of feature amounts having different sizes and size information associated with each feature amount. Here, the above-mentioned size information is information about the size of the two-dimensional image used for deriving the feature amount or the size corresponding thereto, and imaging with the object or non-object included in the two-dimensional image. It has a predetermined correlation with the distance to the device. Therefore, when the size information associated with the first feature quantity and the size information associated with the second feature quantity are the same, they are used when deriving the first feature quantity. The distance between the object or non-object included in the two-dimensional image and the imaging device, and the distance between the object or non-object included in the two-dimensional image used to derive the second feature amount and the imaging device And are equal to each other.

LUTに含まれている特徴量は、例えば、トレーニング用および参照用に用いられる。この特徴量には、距離(またはサイズ)の互いに異なる複数種類のポジティブデータと、距離(またはサイズ)の互いに異なる複数種類のネガティブデータとが含まれている。ここで、ポジティブとは対象物のことであり、例えば、歩行者を意味している。また、ネガティブとは非対象物のことであり、例えば、自動車、バイク、障害物などを意味している。また、ポジティブデータとは、あらかじめステレオカメラ2、他のステレオカメラまたは他の単眼カメラによって撮影された、対象物を含む前方画像(例えばステレオ画像または単一画像)から、対象物を含む領域の2次元画像を所定の方法で切り出し、切り出した2次元画像から抽出することにより得られた対象物の特徴ベクトル(特徴量)を指している。ネガティブデータとは、あらかじめステレオカメラ2、他のステレオカメラまたは他の単眼カメラによって撮影された、非対象物を含む前方画像(例えばステレオ画像または単一画像)から、非対象物を含む領域の2次元画像を所定の方法で切り出し、切り出した2次元画像から抽出することにより得られた非対象物の特徴ベクトル(特徴量)を指している。   The feature amount included in the LUT is used for training and reference, for example. The feature amount includes a plurality of types of positive data having different distances (or sizes) and a plurality of types of negative data having different distances (or sizes). Here, positive means an object, for example, a pedestrian. Further, negative means a non-object, and means, for example, an automobile, a motorcycle, an obstacle, and the like. Further, the positive data refers to a region 2 including an object from a front image (for example, a stereo image or a single image) including the object, which is previously captured by the stereo camera 2, another stereo camera, or another monocular camera. It refers to a feature vector (feature amount) of an object obtained by cutting out a two-dimensional image by a predetermined method and extracting it from the cut out two-dimensional image. Negative data refers to a region 2 including a non-object from a front image (for example, a stereo image or a single image) including a non-object captured in advance by the stereo camera 2, another stereo camera, or another monocular camera. It refers to a feature vector (feature amount) of a non-object obtained by cutting out a two-dimensional image by a predetermined method and extracting it from the cut out two-dimensional image.

特徴量と対応付けられた距離情報とは、特徴量と対応付けられた距離リストのことであり、例えば、特徴量が導出された原画像(2次元画像)に含まれる物標の距離の種類をリスト化したものである。距離リストには、例えば、5m、20m、35mの3種類の距離が含まれている。特徴量と対応付けられたサイズ情報とは、特徴量と対応付けられたサイズリストのことであり、例えば、特徴量が導出された原画像(2次元画像)のサイズの種類をリスト化したものである。サイズリストには、例えば、24×38、40×80、56×112の3種類のサイズが含まれている。   The distance information associated with the feature amount is a distance list associated with the feature amount. For example, the distance type of the target included in the original image (two-dimensional image) from which the feature amount is derived. Is a list. The distance list includes, for example, three types of distances of 5 m, 20 m, and 35 m. The size information associated with the feature quantity is a size list associated with the feature quantity. For example, the size information associated with the feature quantity is a list of sizes of the original image (two-dimensional image) from which the feature quantity is derived. It is. The size list includes, for example, three types of sizes of 24 × 38, 40 × 80, and 56 × 112.

レーザレーダ1は、例えば自動車Cのバンパの中央部分などに取り付けられている。レーザレーダ1は、自動車Cの前方にレーザ光を放射すると共に、自動車Cの前方に放射したレーザ光の反射光を検出し、さらに、検出した反射光から自動車Cの前方に存在する物標の方位θ、距離dおよび相対速度vなどを計測するようになっている。   The laser radar 1 is attached to, for example, a central portion of a bumper of the automobile C. The laser radar 1 emits laser light in front of the automobile C, detects reflected light of the laser light emitted in front of the automobile C, and further detects a target existing in front of the automobile C from the detected reflected light. An azimuth θ, a distance d, a relative speed v, and the like are measured.

なお、一般に、レーザレーダは、ミリ波レーダに比べて高い検出能力を有しており、歩行者等の、電波を反射しにくい物標についても測定可能である。また、視野角、分解能、追従性についても、一般に、レーザレーダの方がミリ波レーダよりも優れている。また、コストについても、一般に、レーザレーダの方がミリ波レーダよりも安価である。そこで、本実施の形態では、歩行者の検出と、コストとを重視してレーザレーダ1が用いられている。   In general, the laser radar has a higher detection capability than the millimeter wave radar, and can measure a target such as a pedestrian that hardly reflects radio waves. In general, the laser radar is superior to the millimeter wave radar in terms of viewing angle, resolution, and followability. In terms of cost, laser radar is generally cheaper than millimeter wave radar. Therefore, in the present embodiment, the laser radar 1 is used with emphasis on detection of pedestrians and cost.

ステレオカメラ2は、右カメラ21および左カメラ22を備えている。右カメラ21および左カメラ22は、例えば、電荷結合素子(CCD)からなり、例えば自動車Cのフロントガラスの内壁であって、互いに所定の間隔を隔てると共に、路面から同じ高さのところに取り付けられている。これにより、ステレオカメラ2は、自動車Cの前方を互いに異なる視点から撮影して、右カメラ21で撮影された2次元画像(右画像)と左カメラ22で撮影された2次元画像(左画像)とからなるステレオ画像を取得するようになっている。なお、右カメラ21および左カメラ22の光軸が互いに平行となっており、かつ各々の画像面が同一平面上にあることが好ましい。   The stereo camera 2 includes a right camera 21 and a left camera 22. The right camera 21 and the left camera 22 are composed of, for example, a charge coupled device (CCD), and are, for example, the inner walls of the windshield of the automobile C, are spaced from each other by a predetermined distance, and are mounted at the same height from the road surface. ing. Accordingly, the stereo camera 2 captures the front of the car C from different viewpoints, and the two-dimensional image (right image) captured by the right camera 21 and the two-dimensional image (left image) captured by the left camera 22. The stereo image which consists of is acquired. In addition, it is preferable that the optical axes of the right camera 21 and the left camera 22 are parallel to each other, and the respective image planes are on the same plane.

次に、図2を参照して、本実施の形態のセンサフュージョンにおける物標の検出方法の一例について説明する。なお、以下では、(A)物標候補領域(ROI: Region of Interest)の検出、(B)特徴量の抽出、(C)対象物の検出、(D)物標追跡ステップ、(E)トレーニング、の5つについて順に説明する。   Next, an example of a target detection method in the sensor fusion according to the present embodiment will be described with reference to FIG. In the following, (A) detection of a target candidate region (ROI: Region of Interest), (B) extraction of features, (C) detection of an object, (D) target tracking step, (E) training These will be described in order.

(A)ROIの検出
制御部3は、まず、2次元画像上におけるROIを検出する(ステップS1)。
(A) Detection of ROI The control unit 3 first detects an ROI on a two-dimensional image (step S1).

ROIの検出は、例えば以下のようにして行われる。まず、制御部3は、レーザレーダ1に対してレーザのスキャンを要求すると共に、ステレオカメラ2に対してステレオ画像の取得を要求する。すると、レーザレーダ1においてレーザがスキャンされ、レーザレーダ1からレーダ情報(距離dと角度θ)が出力されると共に、ステレオカメラ2からステレオ画像(右画像、左画像)が出力される。次に、制御部3は、レーダ情報と、ステレオ画像とに基づいて、ステレオ画像内に物標候補が存在するか否かを判定する。その結果、制御部3は、物標候補が存在すると判定した場合には、存在すると判定した物標候補を含むROIの2次元画像をステレオ画像(例えば左画像)から切り出す。ROIの2次元画像のサイズは、ステレオ画像から切り出された位置や、物標の種類などによって異なる。そこで、制御部3は、例えば、レーダ情報からROIの距離を抽出し、抽出した距離d1と、記憶部4に格納されたLUTに含まれる距離情報とを対比する。なお、距離d1の採り得る範囲は、通常、限定されており、例えば、5m以上35m以下となっている。   The ROI is detected as follows, for example. First, the control unit 3 requests the laser radar 1 to scan the laser and requests the stereo camera 2 to acquire a stereo image. Then, the laser is scanned by the laser radar 1, radar information (distance d and angle θ) is output from the laser radar 1, and a stereo image (right image, left image) is output from the stereo camera 2. Next, the control unit 3 determines whether a target candidate exists in the stereo image based on the radar information and the stereo image. As a result, when it is determined that the target candidate exists, the control unit 3 cuts out a two-dimensional image of the ROI including the target candidate determined to exist from the stereo image (for example, the left image). The size of the two-dimensional ROI image differs depending on the position cut out from the stereo image, the type of the target, and the like. Therefore, for example, the control unit 3 extracts the ROI distance from the radar information, and compares the extracted distance d1 with the distance information included in the LUT stored in the storage unit 4. In addition, the range which distance d1 can take is normally limited, for example, is 5 m or more and 35 m or less.

制御部3は、距離d1と、記憶部4から読み出した距離リストとを対比して、距離リストから、距離d1と等しい距離、または距離d1に近い距離を抽出する。制御部3は、距離d1が、距離リストから抽出した距離d2と等しい場合には、ROIの2次元画像のサイズの拡大または縮小を行わず、そのサイズを維持する。一方、制御部3は、距離d1が距離d2と異なる場合には、ROIの2次元画像のサイズを、距離がd2となっているときの大きさに変更(拡大または縮小)する。ここで、拡大または縮小の程度は、距離リストに含まれる距離の種類に依存する。   The control unit 3 compares the distance d1 with the distance list read from the storage unit 4, and extracts a distance equal to or close to the distance d1 from the distance list. When the distance d1 is equal to the distance d2 extracted from the distance list, the control unit 3 maintains the size of the ROI two-dimensional image without enlarging or reducing the size. On the other hand, when the distance d1 is different from the distance d2, the control unit 3 changes (enlarges or reduces) the size of the ROI two-dimensional image to the size when the distance is d2. Here, the degree of enlargement or reduction depends on the type of distance included in the distance list.

例えば、距離d1が30mであるときに、距離リストに、例えば、5m、20m、35mの3種類の距離が含まれている場合には、制御部3は、ROIの2次元画像のサイズを、距離が35mとなるように縮小する。このときの距離d1と距離d2との差は5mであるから、縮小の程度は小さい。なお、距離リストに、例えば、5m、20m、35mの3種類の距離が含まれている場合に、距離d1と距離d2との差が最も大きくなるのは、距離d1が例えば17.5mまたは27.5mであるときであり、このときの距離d1と距離d2との差は7.5mである。   For example, when the distance d1 is 30 m and the distance list includes, for example, three types of distances of 5 m, 20 m, and 35 m, the control unit 3 determines the size of the ROI two-dimensional image as follows: Reduce to a distance of 35m. Since the difference between the distance d1 and the distance d2 at this time is 5 m, the degree of reduction is small. When the distance list includes three types of distances, for example, 5 m, 20 m, and 35 m, the difference between the distance d1 and the distance d2 is the largest because the distance d1 is 17.5 m or 27, for example. The distance between the distance d1 and the distance d2 is 7.5 m.

一方、例えば、距離d1が30mであるときに、距離リストに、例えば、20mの1種類の距離だけしか含まれていない場合には、制御部3は、ROIの2次元画像のサイズを、距離が20mとなるように拡大することになる。このときの距離d1と距離d2との差は10mであるから、拡大の程度は大きい。なお、距離リストに、20mの1種類の距離だけしか含まれていない場合に、距離d1と距離d2との差が最も大きくなるのは、距離d1が例えば5mまたは35mであるときであり、このときの距離d1と距離d2との差は15mである。   On the other hand, for example, when the distance d1 is 30 m and the distance list includes only one type of distance of 20 m, for example, the control unit 3 determines the size of the ROI two-dimensional image as the distance. Will be enlarged to 20 m. Since the difference between the distance d1 and the distance d2 at this time is 10 m, the degree of enlargement is large. When the distance list includes only one type of distance of 20 m, the difference between the distance d1 and the distance d2 is greatest when the distance d1 is 5 m or 35 m, for example. The difference between the distance d1 and the distance d2 is 15 m.

なお、記憶部4に格納されたLUTに、参照用の特徴量が導出された原画像(2次元画像)のサイズが当該参照用の特徴量と対応付けられたサイズ情報が含まれている場合には、制御部3は、例えば、距離d1と距離d2とを対比する代わりに、ROIの2次元画像のサイズ(距離d1から得られたサイズ)と、LUTに含まれるサイズ情報とを対比してもよい。   When the LUT stored in the storage unit 4 includes size information in which the size of the original image (two-dimensional image) from which the reference feature amount is derived is associated with the reference feature amount. For example, instead of comparing the distance d1 and the distance d2, the control unit 3 compares the size of the two-dimensional image of the ROI (the size obtained from the distance d1) with the size information included in the LUT. May be.

(B)特徴量の抽出
制御部3は、次に、距離(またはサイズ)の補正がなされた後のROIの2次元画像(以下、単に「補正後のROIの2次元画像」と称する)から、物標の特徴量を抽出する(ステップS2)。ここで、物標の特徴量とは、物標の形状に関する情報を指す。
(B) Feature Quantity Extraction Next, the control unit 3 uses the ROI two-dimensional image after the distance (or size) correction (hereinafter, simply referred to as “corrected ROI two-dimensional image”). Then, the feature quantity of the target is extracted (step S2). Here, the feature amount of the target refers to information regarding the shape of the target.

(C)対象物の検出
制御部3は、次に、ROIの2次元画像から抽出した物標の特徴量を用いて、ROIの2次元画像に含まれる物標候補の識別を行う。具体的には、制御部3は、ROIの2次元画像から抽出した物標の特徴量を用いて、対象物(例えば歩行者)の検出(識別処理)を行う(ステップS3)。
(C) Object Detection Next, the control unit 3 identifies target candidates included in the ROI two-dimensional image using the target feature amount extracted from the ROI two-dimensional image. Specifically, the control unit 3 detects (identifies) an object (for example, a pedestrian) using the feature amount of the target extracted from the two-dimensional image of the ROI (step S3).

対象物の検出は、例えば以下のようにして行われる。例えば、制御部3は、ROIの2次元画像から抽出した物標の特徴量と、LUTに格納されている特徴量とのマッチングを行う。例えば、まず、制御部3は、LUTに格納されている参照用の複数のポジティブデータのうち、ROIの2次元画像から抽出した物標の特徴量の距離(またはサイズ)と同一の距離(またはサイズ)のデータを選択する。このとき、制御部3は、例えば、LUTに格納されているポジティブデータと対応付けられた距離情報またはサイズ情報を用いて、LUTに格納されている参照用の複数のポジティブデータの中から、ROIの2次元画像から抽出した物標の特徴量の距離またはサイズと一致するデータを選択する。次に、制御部3は、ROIの2次元画像から抽出した物標の特徴量と、選択した参照用のポジティブデータとのマッチングを行い、その結果から第1相関スコアを導出する。さらに、制御部3は、ROIの2次元画像から抽出した物標の特徴量と、選択した参照用のネガティブデータとのマッチングを行い、その結果から第2相関スコアを導出する。   The detection of the object is performed as follows, for example. For example, the control unit 3 performs matching between the feature amount of the target extracted from the ROI two-dimensional image and the feature amount stored in the LUT. For example, first, the control unit 3 has the same distance (or size) as the distance (or size) of the target feature amount extracted from the two-dimensional image of the ROI among the plurality of reference positive data stored in the LUT. Size) data. At this time, for example, the control unit 3 uses the distance information or the size information associated with the positive data stored in the LUT, and uses the ROI from among the plurality of reference positive data stored in the LUT. Data that matches the distance or size of the feature amount of the target extracted from the two-dimensional image is selected. Next, the control unit 3 performs matching between the feature amount of the target extracted from the two-dimensional image of the ROI and the selected positive data for reference, and derives a first correlation score from the result. Further, the control unit 3 performs matching between the target feature amount extracted from the two-dimensional image of the ROI and the selected negative data for reference, and derives a second correlation score from the result.

次に、制御部3は、第1相関スコアおよび第2相関スコアに基づいて、ROIの2次元画像に含まれる物標候補の識別を行う。例えば、制御部3は、第1相関スコアの方が第2相関スコアよりも、特徴量の相関が大きいと判定した場合には、ROIの2次元画像から抽出した物標の特徴量はポジティブである、すなわち、物標候補が対象物であると判定し、物標追跡ステップ(後述)に移行する。このとき、制御部3は、例えば、当該物標候補を、位置情報および相関スコア(第1相関スコア、第2相関スコア)と関連付けて追跡リストに追加する、または、既に追加されていた場合には、当該物標候補の位置情報および相関スコアを更新する。   Next, the control unit 3 identifies target candidates included in the two-dimensional image of the ROI based on the first correlation score and the second correlation score. For example, if the control unit 3 determines that the correlation between the feature amounts is greater in the first correlation score than the second correlation score, the feature amount of the target extracted from the two-dimensional image of the ROI is positive. That is, it is determined that the target candidate is an object, and the process proceeds to a target tracking step (described later). At this time, for example, the control unit 3 adds the target candidate to the tracking list in association with the position information and the correlation score (first correlation score, second correlation score), or when the target candidate has already been added. Updates the position information and correlation score of the target candidate.

また、例えば、制御部3は、第2相関スコアの方が第1相関スコアよりも、特徴量の相関が大きいと判定した場合には、ROIの2次元画像から抽出した物標の特徴量はネガティブである、すなわち、物標候補が非対象物であると判定し、物標追跡ステップ(後述)に移行しない。このとき、制御部3は、例えば、当該物標候補を追跡リストに追加しない、または、既に追加されていた場合には、当該物標候補を追跡リストから削除する。   For example, when the control unit 3 determines that the second correlation score has a larger correlation between the feature amounts than the first correlation score, the feature amount of the target extracted from the two-dimensional image of the ROI is It is negative, that is, the target candidate is determined to be a non-target object, and the process does not proceed to the target tracking step (described later). At this time, for example, the control unit 3 does not add the target candidate to the tracking list, or deletes the target candidate from the tracking list if it has already been added.

なお、第1相関スコアおよび第2相関スコアからは、どちらの方が特徴量の相関が大きいかを判別することが難しい場合もある。そのような場合には、例えば、制御部3は、ROIの2次元画像から抽出した物標の特徴量は不定である、すなわち、物標候補が対象物である可能性があると判定し、物標追跡ステップ(後述)に移行する。このとき、制御部3は、例えば、当該物標候補を、位置情報および相関スコア(第1相関スコア、第2相関スコア)と関連付けて追跡リストに追加する、または、既に追加されていた場合には、当該物標候補の位置情報および相関スコアを更新する。   Note that it may be difficult to determine which one has the higher correlation between the feature amounts from the first correlation score and the second correlation score. In such a case, for example, the control unit 3 determines that the feature amount of the target extracted from the two-dimensional image of the ROI is indefinite, that is, the target candidate may be a target object, The process proceeds to a target tracking step (described later). At this time, for example, the control unit 3 adds the target candidate to the tracking list in association with the position information and the correlation score (first correlation score, second correlation score), or when the target candidate has already been added. Updates the position information and correlation score of the target candidate.

制御部3は、このようにして、ROIの2次元画像から抽出した物標の特徴量に対してクラス分けのマッチング処理を行ったのち、以下の物標追跡ステップに移行する。なお、制御部3は、上述のクラス分けのマッチング処理に際して、例えば、Neural Networkや、SVM、AdaBoostなどの種々の識別器を用いることが可能である。   In this way, the control unit 3 performs the classification matching processing on the feature amount of the target extracted from the two-dimensional image of the ROI, and then proceeds to the following target tracking step. Note that the control unit 3 can use various classifiers such as Neural Network, SVM, and AdaBoost in the above-described classification matching process.

(D)物標追跡ステップ
制御部3は、引き続き、上記の各ステップ(ROIの検出、特徴量の抽出、対象物の検出)を繰り返し実行し、相関スコアを更新する(ステップS4)。その結果、制御部3は、ある物標候補において、第1相関スコアの方が第2相関スコアよりも、特徴量の相関が更新の度に大きくなっている場合には、例えば、その物標候補は対象物であると判定する。また、制御部3は、ある物標候補において、相関スコアが変動しない、もしくは、第2相関スコアの方が第1相関スコアよりも、特徴量の相関が更新の度に大きくなっている場合には、例えば、その物標候補は非対象物であると判定する。
(D) Target Tracking Step Subsequently, the control unit 3 repeatedly executes the above steps (ROI detection, feature amount extraction, object detection) to update the correlation score (step S4). As a result, in a target candidate, when the first correlation score is larger than the second correlation score in each target candidate, the feature amount correlation is larger each time it is updated, for example, the target The candidate is determined to be an object. Further, the control unit 3 determines that the correlation score does not fluctuate in a certain target candidate, or the correlation of the feature amount is larger each time the second correlation score is updated than the first correlation score. For example, it is determined that the target candidate is a non-target object.

第1相関スコアの方が第2相関スコアよりも、特徴量の相関が更新の度に大きくなる現象は、特に、対象物が歩行者などの、時間の経過と共に自動車Cに接近してくる移動体である場合に生じる。一方、対象物が自動車やバイクなどの、自動車Cの前方を走行している移動体である場合には、相関スコアは経時的に大きく変動せず、第1相関スコアの方が第2相関スコアよりも、特徴量の相関が更新の度に大きくなることはない。従って、第1相関スコアおよび第2相関スコアの変動を経時的に観測することにより、物標候補が対象物であるか否かを判定することが可能である。   The phenomenon in which the correlation of the feature amount becomes larger every time the first correlation score is updated than the second correlation score is, in particular, the movement of the object approaching the car C as time passes, such as a pedestrian. Occurs when the body. On the other hand, when the object is a moving object traveling in front of the car C, such as an automobile or a motorcycle, the correlation score does not vary greatly with time, and the first correlation score is the second correlation score. In other words, the correlation between the feature amounts does not increase with each update. Therefore, it is possible to determine whether or not the target candidate is an object by observing changes in the first correlation score and the second correlation score over time.

なお、上記の対象物の検出に際して用いる識別器のトレーニングは、例えば、以下のようにして行われる。   Note that the training of the discriminator used for detecting the object is performed as follows, for example.

(E)トレーニング
まず、トレーナが、トレーニング用の特徴ベクトルとして、図3に示したようなデータセットを用意する。このデータセットには、物標として歩行者を含んだ複数の2次元画像から得られた特徴量と、物標として歩行者以外のもの(例えば自動車、バイク、障害物)を含んだ複数の2次元画像から得られた特徴量とが含まれている。なお、図中の「歩行者」とは物標として歩行者を含んだ複数の2次元画像から得られた特徴量を指している。また、図中の「非歩行者」とは物標として歩行者以外のものを含んだ複数の2次元画像から得られた特徴量を指している。本実施の形態では、トレーニング用の特徴量のサイズとして複数種類が設けられており、例えば、図3に示したように、24×38、40×80、56×112の3種類が設けられている。なお、図中の数字(例えば2939や1261)は、トレーニング用の特徴量の数を示している。
(E) Training First, the trainer prepares a data set as shown in FIG. 3 as a feature vector for training. The data set includes a plurality of features obtained from a plurality of two-dimensional images including a pedestrian as a target, and a plurality of two including a target other than a pedestrian (for example, an automobile, a motorcycle, an obstacle) as a target. And feature quantities obtained from the dimensional image. Note that “pedestrian” in the figure refers to a feature amount obtained from a plurality of two-dimensional images including a pedestrian as a target. Further, “non-pedestrian” in the figure refers to a feature amount obtained from a plurality of two-dimensional images including objects other than pedestrians as targets. In this embodiment, a plurality of types of training feature values are provided. For example, as shown in FIG. 3, three types of 24 × 38, 40 × 80, and 56 × 112 are provided. Yes. Note that numbers (for example, 2939 and 1261) in the figure indicate the number of feature quantities for training.

次に、制御部3は、トレーニング用の特徴量と、LUTに格納されている特徴量との比較を行い、トレーニング用の特徴量が対象物に相当するものであるか否かを判定する。続いて、制御部3は、判定結果に応じた数値を識別器に設定する。このようにして、トレーニングが行われる。   Next, the control unit 3 compares the feature quantity for training with the feature quantity stored in the LUT, and determines whether or not the feature quantity for training corresponds to the object. Then, the control part 3 sets the numerical value according to the determination result to a discriminator. In this way, training is performed.

次に、本実施の形態のセンサフュージョンの効果について説明する。   Next, the effect of the sensor fusion of this embodiment will be described.

本実施の形態のセンサフュージョンでは、物標を検出するために、レーザレーダ1と、ステレオカメラ2が用いられる。これにより、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識が可能となるので、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を検出することができる。   In the sensor fusion of the present embodiment, a laser radar 1 and a stereo camera 2 are used to detect a target. This makes it possible to detect and recognize targets such as pedestrians that are difficult to reflect millimeter-wave radar signals, so it is possible to select targets such as vehicles, pedestrians, and obstacles that are far away from the vehicle with a simple configuration. Can be detected.

ところで、従来の対象物認識手法では、対象物の認識に用いるトレーニング用および参照用の特徴量として、画像中のROIの大きさに関係なく、単一の画像サイズに正規化したものが用いられていた。そのため、ステレオカメラ2から得られたROIの2次元画像のサイズが、あらかじめ用意された参照用の特徴量のサイズと大きく異なってしまうことが多かった。その結果、ROIの2次元画像から得られた特徴量に対して大きなリサイズを施すことが必要となるので、例えば、図4(A),(B)に示したように、リサイズによる情報の損失や付加が生じてしまう。従って、従来の手法では、精度の高い認識が容易ではなかった。   By the way, in the conventional object recognition technique, the training and reference feature values used for object recognition are normalized to a single image size regardless of the size of the ROI in the image. It was. For this reason, the size of the two-dimensional image of the ROI obtained from the stereo camera 2 often differs greatly from the size of the reference feature amount prepared in advance. As a result, it is necessary to perform large resizing on the feature amount obtained from the two-dimensional image of ROI. For example, as shown in FIGS. 4A and 4B, information loss due to resizing And addition will occur. Therefore, the conventional method has not been easy to recognize with high accuracy.

一方、本実施の形態では、記憶部4には、対象物の認識に用いるトレーニング用および参照用の特徴量(ポジティプデータ、ネガティブデータ)として、画像中のROIの大きさを考慮して、複数の画像サイズのものが記憶されている。さらに、制御部4では、複数の参照用の特徴量のうち、特徴量の距離(サイズ)に対応した特徴量が選択された上で、マッチングが行われる。これにより、ステレオカメラ2から得られたROIの2次元画像の距離(サイズ)が、あらかじめ用意された参照用の特徴量の距離(サイズ)と大きく異なることがない。その結果、ROIの2次元画像から得られた特徴量に対して大きなリサイズを施す必要がないので、従来の手法と比べて、リサイズによる情報の損失や付加を低減することができる。その結果、識別精度を高くすることができる。また、識別精度が高くなるにつれて、認識に要する時間を短くすることができる。従って、本実施の形態では、高い認識精度と、短い計算時間とを両立させることができる。   On the other hand, in the present embodiment, the storage unit 4 includes a plurality of training and reference feature quantities (positive data, negative data) used for object recognition in consideration of the size of the ROI in the image. The image size is stored. Further, the control unit 4 performs matching after selecting a feature amount corresponding to a feature amount distance (size) from among a plurality of reference feature amounts. Thereby, the distance (size) of the two-dimensional image of the ROI obtained from the stereo camera 2 does not greatly differ from the distance (size) of the reference feature amount prepared in advance. As a result, since it is not necessary to perform large resizing on the feature amount obtained from the two-dimensional image of ROI, information loss and addition due to resizing can be reduced as compared with the conventional method. As a result, the identification accuracy can be increased. Also, as the identification accuracy increases, the time required for recognition can be shortened. Therefore, in this embodiment, it is possible to achieve both high recognition accuracy and a short calculation time.

例えば、従来の手法においては、トレーナが、トレーニング用の特徴量として、図5に示したようなデータセットを用意する。このデータセットには、物標として歩行者を含んだ複数の2次元画像から得られた特徴量と、物標として歩行者以外のものを含んだ複数の2次元画像から得られた特徴量とが含まれている。さらに、トレーニング用の特徴量のサイズとして、例えば、図5に示したように、32×64の1種類が設けられている。そして、トレーナが、このデータセットを用いて、センサフュージョンにトレーニングを行わせる。その後、トレーナは、検証用の特徴量として、図5に示したようなデータセットを用意する。このデータセットにも、物標として歩行者を含んだ複数の2次元画像から得られた特徴量と、物標として歩行者以外のものを含んだ複数の2次元画像から得られた特徴量とが含まれている。さらに、検証用の特徴量のサイズとして複数種類が設けられており、例えば、図5に示したように、24×38、40×80、56×112の3種類が設けられている。そして、トレーナが、このデータセットを用いて、センサフュージョンに物標の検出を行わせる。その結果を、図6のROC(receiver operating characteristic; 受信者動作特性)曲線に示した。   For example, in the conventional technique, the trainer prepares a data set as shown in FIG. 5 as a feature amount for training. This data set includes feature quantities obtained from a plurality of two-dimensional images including pedestrians as targets, and feature quantities obtained from a plurality of two-dimensional images including objects other than pedestrians as targets. It is included. Furthermore, as the size of the feature amount for training, for example, one type of 32 × 64 is provided as shown in FIG. Then, the trainer uses this data set to cause sensor fusion to perform training. Thereafter, the trainer prepares a data set as shown in FIG. 5 as a feature amount for verification. This data set also includes feature amounts obtained from a plurality of two-dimensional images including pedestrians as targets, and feature amounts obtained from a plurality of two-dimensional images including items other than pedestrians as targets. It is included. Further, a plurality of types of verification feature sizes are provided. For example, as shown in FIG. 5, three types of 24 × 38, 40 × 80, and 56 × 112 are provided. Then, the trainer uses the data set to cause the sensor fusion to detect the target. The result is shown in the ROC (receiver operating characteristic) curve of FIG.

一方、例えば、本実施の形態においては、トレーナが、トレーニング用の特徴量として、図3に示したようなデータセットを用意したのち、このデータセットを用いて、センサフュージョンにトレーニングを行わせる。このデータセットには、物標として歩行者を含んだ複数の2次元画像から得られた特徴量と、物標として歩行者以外のものを含んだ複数の2次元画像から得られた特徴量とが含まれている。トレーニング用の特徴量のサイズとして、例えば、図3に示したように、24×38、40×80、56×112の3種類が設けられている。その後、トレーナは、検証用の特徴量として、図3に示したようなデータセットを用意する。このデータセットにも、物標として歩行者を含んだ複数の2次元画像から得られた特徴量と、物標として歩行者以外のものを含んだ複数の2次元画像から得られた特徴量とが含まれている。さらに、検証用の特徴量のサイズとして、例えば、図3に示したように、24×38、40×80、56×112の3種類が設けられている。そして、トレーナが、このデータセットを用いて、センサフュージョンに物標の検出を行わせる。その結果を、図6のROC曲線に示した。   On the other hand, for example, in the present embodiment, the trainer prepares a data set as shown in FIG. 3 as a training feature amount, and then uses this data set to cause the sensor fusion to perform training. This data set includes feature quantities obtained from a plurality of two-dimensional images including pedestrians as targets, and feature quantities obtained from a plurality of two-dimensional images including objects other than pedestrians as targets. It is included. As the size of the feature quantity for training, for example, as shown in FIG. 3, three types of 24 × 38, 40 × 80, and 56 × 112 are provided. Thereafter, the trainer prepares a data set as shown in FIG. 3 as a feature amount for verification. This data set also includes feature amounts obtained from a plurality of two-dimensional images including pedestrians as targets, and feature amounts obtained from a plurality of two-dimensional images including items other than pedestrians as targets. It is included. Furthermore, as the size of the feature quantity for verification, for example, as shown in FIG. 3, three types of size of 24 × 38, 40 × 80, and 56 × 112 are provided. Then, the trainer uses the data set to cause the sensor fusion to detect the target. The results are shown in the ROC curve of FIG.

図6から、本実施の形態の手法の方が、従来の手法よりも、認識率が高く、誤認識率が低いことがわかる。このことから、トレーニング用および検証用の特徴ベクトルのサイズとして複数種類を設けることにより、誤認識率を低く抑えつつ、高い認識率を得ることができる、といえる。   FIG. 6 shows that the method of the present embodiment has a higher recognition rate and a lower recognition rate than the conventional method. From this, it can be said that by providing a plurality of types of training and verification feature vector sizes, a high recognition rate can be obtained while keeping the erroneous recognition rate low.

以上、実施の形態および実施例を挙げて本発明を説明したが、本発明は、これらに限定されるものではなく、種々の変形が可能である。   While the present invention has been described with reference to the embodiment and examples, the present invention is not limited to these, and various modifications are possible.

例えば、上記実施の形態では、ステレオカメラ2を用いていたが、その代わりに、例えば、車両前方の単一画像および被写体までの距離を取得する光飛行時間型距離センサを用いることも可能である。また、ステレオカメラ2の代わりに、単眼のカメラを用いることも可能である。ただし、これらの場合には、上記実施の形態において、「ステレオ画像」を「単一画像」に読み替えることが必要となる。   For example, in the above-described embodiment, the stereo camera 2 is used, but instead, for example, it is also possible to use a time-of-flight distance sensor that acquires a single image in front of the vehicle and a distance to the subject. . Further, a monocular camera can be used instead of the stereo camera 2. However, in these cases, it is necessary to replace “stereo image” with “single image” in the above embodiment.

また、上記実施の形態では、レーザレーダ1を用いていたが、レーザレーダ1をなくすることも可能である。ただし、これらの場合には、上記実施の形態において、ステレオカメラ2から得られる視差画像から距離情報を得ることが必要となる。   In the above embodiment, the laser radar 1 is used. However, the laser radar 1 can be eliminated. However, in these cases, in the above embodiment, it is necessary to obtain distance information from the parallax image obtained from the stereo camera 2.

また、上記実施の形態では、センサフュージョン(物標検出装置)が自動車Cに設置されている場合が例示されていたが、それ以外の場所に設置されていてもよい。また、上記実施の形態では、対象物(target)の例として歩行者が挙げられていたが、対象物として、物や動物、植物など、目的に応じたものを選択することが可能である。例えば、センサフュージョンが、鮮魚工場において、雑多な魚が流されてくるベルトコンベアの上空に設置されており、対象物として、特定の魚が選択されていてもよい。   Moreover, in the said embodiment, although the case where the sensor fusion (target detection apparatus) was installed in the motor vehicle C was illustrated, you may install in the place other than that. In the above embodiment, a pedestrian is mentioned as an example of the target (target). However, it is possible to select a target, an animal, a plant, or the like according to the purpose. For example, the sensor fusion may be installed above a belt conveyor on which miscellaneous fish are shed in a fresh fish factory, and a specific fish may be selected as an object.

1…レーザレーダ、2…ステレオカメラ、21…右カメラ、22…左カメラ、3…制御部、4…記憶部。   DESCRIPTION OF SYMBOLS 1 ... Laser radar, 2 ... Stereo camera, 21 ... Right camera, 22 ... Left camera, 3 ... Control part, 4 ... Memory | storage part.

Claims (6)

第1の撮像手段から得られた複数の第1の前方画像から、距離の互いに異なる対象物を1つずつ含む複数の第1の2次元画像が切り出され、切り出された複数の第1の2次元画像から得られた複数の第1の特徴量と、第2の撮像手段から得られた複数の第2の前方画像から、距離の互いに異なる非対象物を1つずつ含む複数の第2の2次元画像が切り出され、切り出された複数の第2の2次元画像から得られた複数の第2の特徴量と、前記各第1の特徴量と対応付けられた第1の距離情報と、前記各第2の特徴量と対応付けられた第2の距離情報とを記憶する記憶手段と、
距離取得手段から得られた第3の距離情報と、第3の撮像手段から得られた第3の前方画像とから、前記第3の前方画像に含まれる物標候補領域の第3の2次元画像を切り出したのち、前記第3の2次元画像から第3の特徴量を抽出すると共に、前記第3の特徴量に対応する距離情報を前記第3の距離情報から抽出する特徴量抽出手段と、
前記複数の第1の特徴量のうち前記第3の特徴量に対応する距離情報と同一もしくは近い第1の距離情報と対応付けられた第1の特徴量と、前記複数の第2の特徴量のうち前記第3の特徴量に対応する距離情報と同一もしくは近い第2の距離情報と対応付けられた第2の特徴量と、前記第3の特徴量とに基づいて、前記物標候補領域に含まれる物標候補の識別を行う識別処理手段と
を備えた物標検出装置。
A plurality of first two-dimensional images including one object each having a different distance are cut out from the plurality of first front images obtained from the first imaging means, and the plurality of first two cut out are obtained. A plurality of second features each including one non-object having a different distance from the plurality of first feature amounts obtained from the dimensional image and the plurality of second front images obtained from the second imaging means. A two-dimensional image is cut out, a plurality of second feature amounts obtained from the plurality of cut-out second two-dimensional images, and first distance information associated with each of the first feature amounts; Storage means for storing second distance information associated with each second feature amount;
From the third distance information obtained from the distance acquisition means and the third front image obtained from the third imaging means, the third two-dimensional of the target candidate area included in the third front image Feature amount extraction means for extracting a third feature amount from the third two-dimensional image after extracting an image and extracting distance information corresponding to the third feature amount from the third distance information; ,
The first feature amount associated with the first distance information that is the same as or close to the distance information corresponding to the third feature amount among the plurality of first feature amounts, and the plurality of second feature amounts Based on the second feature amount associated with the second distance information that is the same as or close to the distance information corresponding to the third feature amount, and the third feature amount, the target candidate region A target detection apparatus comprising: identification processing means for identifying target candidates included in the target.
前記識別処理手段は、前記第1の特徴量と前記第3の特徴量とのマッチングを行い、その結果から第1相関スコアを導出すると共に、前記第2の特徴量と前記第3の特徴量とのマッチングを行い、その結果から第2相関スコアを導出し、その後、前記第1相関スコアおよび前記第2相関スコアに基づいて前記物標候補領域に含まれる物標候補の識別を行う
請求項1に記載の物標検出装置。
The identification processing means performs matching between the first feature value and the third feature value, derives a first correlation score from the result, and also calculates the second feature value and the third feature value. The second correlation score is derived from the result of the matching, and then the target candidates included in the target candidate region are identified based on the first correlation score and the second correlation score. The target detection apparatus according to 1.
第1の撮像手段から得られた複数の第1の前方画像から、サイズの互いに異なる対象物を1つずつ含む複数の第1の2次元画像が切り出され、切り出された複数の第1の2次元画像から得られた複数の第1の特徴量と、第2の撮像手段から得られた複数の第2の前方画像から、サイズの互いに異なる非対象物を1つずつ含む複数の第2の2次元画像が切り出され、切り出された複数の第2の2次元画像から得られた複数の第2の特徴量と、前記各第1の特徴量と対応付けられた第1のサイズ情報と、前記各第2の特徴量と対応付けられた第2のサイズ情報とを記憶する記憶手段と、
距離取得手段から得られた第3の距離情報と、第3の撮像手段から得られた第3の前方画像とから、前記第3の前方画像に含まれる物標候補領域の第3の2次元画像を切り出したのち、前記第3の2次元画像から第3の特徴量を抽出すると共に、前記第3の特徴量に対応する距離情報を前記第3の距離情報から抽出し、抽出した距離情報を第3のサイズ情報に変換する特徴量抽出手段と、
前記複数の第1の特徴量のうち前記第3のサイズ情報と同一もしくは近い第1のサイズ情報と対応付けられた第1の特徴量と、前記複数の第2の特徴量のうち前記第3のサイズ情報と同一もしくは近い第2のサイズ情報と対応付けられた第2の特徴量と、前記第3の特徴量とに基づいて、前記物標候補領域に含まれる物標候補の識別を行う識別処理手段と
を備えた物標検出装置。
A plurality of first two-dimensional images including one object each having a different size are cut out from the plurality of first front images obtained from the first imaging means, and the plurality of first two cut out. A plurality of second features each including one non-object having a different size from the plurality of first feature values obtained from the dimensional image and the plurality of second front images obtained from the second imaging means. A two-dimensional image is cut out, a plurality of second feature amounts obtained from the plurality of cut-out second two-dimensional images, and first size information associated with each of the first feature amounts; Storage means for storing second size information associated with each second feature amount;
From the third distance information obtained from the distance acquisition means and the third front image obtained from the third imaging means, the third two-dimensional of the target candidate area included in the third front image After the image is cut out, a third feature amount is extracted from the third two-dimensional image, and distance information corresponding to the third feature amount is extracted from the third distance information. A feature amount extraction means for converting the information into third size information;
Of the plurality of first feature amounts, the first feature amount associated with the first size information that is the same as or close to the third size information, and the third feature amount among the plurality of second feature amounts. A target candidate included in the target candidate area is identified based on the second feature amount associated with the second size information that is the same as or close to the size information of the target feature and the third feature amount. A target detection apparatus comprising: an identification processing unit.
第1の撮像手段から得られた複数の第1の前方画像から、距離の互いに異なる対象物を1つずつ含む複数の第1の2次元画像が切り出され、切り出された複数の第1の2次元画像から得られた複数の第1の特徴量と、第2の撮像手段から得られた複数の第2の前方画像から、距離の互いに異なる非対象物を1つずつ含む複数の第2の2次元画像が切り出され、切り出された複数の第2の2次元画像から得られた複数の第2の特徴量と、前記各第1の特徴量と対応付けられた第1の距離情報と、前記各第2の特徴量と対応付けられた第2の距離情報とを用意する用意ステップと、
距離取得手段から得られた第3の距離情報と、第3の撮像手段から得られた第3の前方画像とから、前記第3の前方画像に含まれる物標候補領域の第3の2次元画像を切り出したのち、前記第3の2次元画像から第3の特徴量を抽出すると共に、前記第3の特徴量に対応する距離情報を前記第3の距離情報から抽出する特徴量抽出ステップと、
前記複数の第1の特徴量のうち前記第3の特徴量に対応する距離情報と同一もしくは近い第1の距離情報と対応付けられた第1の特徴量と、前記複数の第2の特徴量のうち前記第3の特徴量に対応する距離情報と同一もしくは近い第2の距離情報と対応付けられた第2の特徴量と、前記第3の特徴量とに基づいて、前記物標候補領域に含まれる物標候補の識別を行う識別処理ステップと
を含む物標検出方法。
A plurality of first two-dimensional images including one object each having a different distance are cut out from the plurality of first front images obtained from the first imaging means, and the plurality of first two cut out are obtained. A plurality of second features each including one non-object having a different distance from the plurality of first feature amounts obtained from the dimensional image and the plurality of second front images obtained from the second imaging means. A two-dimensional image is cut out, a plurality of second feature amounts obtained from the plurality of cut-out second two-dimensional images, and first distance information associated with each of the first feature amounts; A preparation step of preparing second distance information associated with each second feature amount;
From the third distance information obtained from the distance acquisition means and the third front image obtained from the third imaging means, the third two-dimensional of the target candidate area included in the third front image A feature amount extracting step of extracting a third feature amount from the third two-dimensional image after extracting the image and extracting distance information corresponding to the third feature amount from the third distance information; ,
The first feature amount associated with the first distance information that is the same as or close to the distance information corresponding to the third feature amount among the plurality of first feature amounts, and the plurality of second feature amounts Based on the second feature amount associated with the second distance information that is the same as or close to the distance information corresponding to the third feature amount, and the third feature amount, the target candidate region A target detection method comprising: an identification processing step for identifying target candidates included in the target.
前記識別処理ステップにおいて、前記第1の特徴量と前記第3の特徴量とのマッチングを行い、その結果から第1相関スコアを導出すると共に、前記第2の特徴量と前記第3の特徴量とのマッチングを行い、その結果から第2相関スコアを導出し、その後、前記第1相関スコアおよび前記第2相関スコアに基づいて前記物標候補領域に含まれる物標候補の識別を行う
請求項4に記載の物標検出方法。
In the identification processing step, the first feature value and the third feature value are matched, a first correlation score is derived from the result, and the second feature value and the third feature value are derived. The second correlation score is derived from the result of the matching, and then the target candidates included in the target candidate region are identified based on the first correlation score and the second correlation score. 4. The target detection method according to 4.
第1の撮像手段から得られた複数の第1の前方画像から、サイズの互いに異なる対象物を1つずつ含む複数の第1の2次元画像が切り出され、切り出された複数の第1の2次元画像から得られた複数の第1の特徴量と、第2の撮像手段から得られた複数の第2の前方画像から、サイズの互いに異なる非対象物を1つずつ含む複数の第2の2次元画像が切り出され、切り出された複数の第2の2次元画像から得られた複数の第2の特徴量と、前記各第1の特徴量と対応付けられた第1のサイズ情報と、前記各第2の特徴量と対応付けられた第2のサイズ情報とを用意する用意ステップと、
距離取得手段から得られた第3の距離情報と、第3の撮像手段から得られた第3の前方画像とから、前記第3の前方画像に含まれる物標候補領域の第3の2次元画像を切り出したのち、前記第3の2次元画像から第3の特徴量を抽出すると共に、前記第3の特徴量に対応する距離情報を前記第3の距離情報から抽出し、抽出した距離情報を第3のサイズ情報に変換する特徴量抽出ステップと、
前記複数の第1の特徴量のうち前記第3のサイズ情報と同一もしくは近い第1のサイズ情報と対応付けられた第1の特徴量と、前記複数の第2の特徴量のうち前記第3のサイズ情報と同一もしくは近い第2のサイズ情報と対応付けられた第2の特徴量と、前記第3の特徴量とに基づいて、前記物標候補領域に含まれる物標候補の識別を行う識別処理ステップと
を含む物標検出方法。
A plurality of first two-dimensional images including one object each having a different size are cut out from the plurality of first front images obtained from the first imaging means, and the plurality of first two cut out. A plurality of second features each including one non-object having a different size from the plurality of first feature values obtained from the dimensional image and the plurality of second front images obtained from the second imaging means. A two-dimensional image is cut out, a plurality of second feature amounts obtained from the plurality of cut-out second two-dimensional images, and first size information associated with each of the first feature amounts; A preparation step of preparing second size information associated with each second feature amount;
From the third distance information obtained from the distance acquisition means and the third front image obtained from the third imaging means, the third two-dimensional of the target candidate area included in the third front image After the image is cut out, a third feature amount is extracted from the third two-dimensional image, and distance information corresponding to the third feature amount is extracted from the third distance information. A feature amount extraction step for converting into a third size information;
Of the plurality of first feature amounts, the first feature amount associated with the first size information that is the same as or close to the third size information, and the third feature amount among the plurality of second feature amounts. A target candidate included in the target candidate area is identified based on the second feature amount associated with the second size information that is the same as or close to the size information of the target feature and the third feature amount. A target detection method comprising: an identification processing step.
JP2009194659A 2009-08-25 2009-08-25 Target detection apparatus and target detection method Expired - Fee Related JP5598694B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009194659A JP5598694B2 (en) 2009-08-25 2009-08-25 Target detection apparatus and target detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009194659A JP5598694B2 (en) 2009-08-25 2009-08-25 Target detection apparatus and target detection method

Publications (2)

Publication Number Publication Date
JP2011048485A true JP2011048485A (en) 2011-03-10
JP5598694B2 JP5598694B2 (en) 2014-10-01

Family

ID=43834761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009194659A Expired - Fee Related JP5598694B2 (en) 2009-08-25 2009-08-25 Target detection apparatus and target detection method

Country Status (1)

Country Link
JP (1) JP5598694B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012002720A (en) * 2010-06-18 2012-01-05 Oki Electric Ind Co Ltd Information processing apparatus, recognizing system, recognizing method and program
KR20150106629A (en) * 2014-03-12 2015-09-22 에스케이플래닛 주식회사 Service providing device and user equipment, classification system based on single image comprising the same, control method thereof and computer readable medium having computer program recorded therefor
JP2015187855A (en) * 2014-03-07 2015-10-29 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Multi-range object detection device and method
JP2016001462A (en) * 2014-04-07 2016-01-07 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited System and method for calculating distance between object and vehicle
JP2016009474A (en) * 2014-06-26 2016-01-18 株式会社リコー Object identification system, information processor, information processing method and program
JP2017054304A (en) * 2015-09-09 2017-03-16 株式会社東芝 Identification apparatus and authentication system
CN110969058A (en) * 2018-09-30 2020-04-07 长城汽车股份有限公司 Fusion method and device for environment target
JP2021060368A (en) * 2019-10-09 2021-04-15 株式会社デンソー Object recognition device
CN113673585A (en) * 2021-08-02 2021-11-19 大连海事大学 Pavement damage detection method and system
CN115248447A (en) * 2021-09-29 2022-10-28 上海仙途智能科技有限公司 Road edge identification method and system based on laser point cloud

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031388A (en) * 2004-07-15 2006-02-02 Yamaha Motor Co Ltd Image similarity computation device, image recognition device using the computation device, image siimilarity computation method, image recognition method using the computation method, image-collating computer program and recording medium to which the program is recorded
JP2006153777A (en) * 2004-11-30 2006-06-15 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2007235414A (en) * 2006-02-28 2007-09-13 Toyota Motor Corp Image recognition system and method
JP2007310805A (en) * 2006-05-22 2007-11-29 Matsushita Electric Ind Co Ltd Object recognizing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031388A (en) * 2004-07-15 2006-02-02 Yamaha Motor Co Ltd Image similarity computation device, image recognition device using the computation device, image siimilarity computation method, image recognition method using the computation method, image-collating computer program and recording medium to which the program is recorded
JP2006153777A (en) * 2004-11-30 2006-06-15 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2007235414A (en) * 2006-02-28 2007-09-13 Toyota Motor Corp Image recognition system and method
JP2007310805A (en) * 2006-05-22 2007-11-29 Matsushita Electric Ind Co Ltd Object recognizing device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012002720A (en) * 2010-06-18 2012-01-05 Oki Electric Ind Co Ltd Information processing apparatus, recognizing system, recognizing method and program
JP2015187855A (en) * 2014-03-07 2015-10-29 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Multi-range object detection device and method
KR20150106629A (en) * 2014-03-12 2015-09-22 에스케이플래닛 주식회사 Service providing device and user equipment, classification system based on single image comprising the same, control method thereof and computer readable medium having computer program recorded therefor
KR102213867B1 (en) * 2014-03-12 2021-02-08 에스케이플래닛 주식회사 Service providing device and user equipment, classification system based on single image comprising the same, control method thereof and computer readable medium having computer program recorded therefor
JP2016001462A (en) * 2014-04-07 2016-01-07 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited System and method for calculating distance between object and vehicle
JP2016009474A (en) * 2014-06-26 2016-01-18 株式会社リコー Object identification system, information processor, information processing method and program
JP2017054304A (en) * 2015-09-09 2017-03-16 株式会社東芝 Identification apparatus and authentication system
CN110969058B (en) * 2018-09-30 2023-05-05 毫末智行科技有限公司 Fusion method and device for environment targets
CN110969058A (en) * 2018-09-30 2020-04-07 长城汽车股份有限公司 Fusion method and device for environment target
JP2021060368A (en) * 2019-10-09 2021-04-15 株式会社デンソー Object recognition device
JP7099426B2 (en) 2019-10-09 2022-07-12 株式会社デンソー Object recognition device
WO2021070713A1 (en) * 2019-10-09 2021-04-15 株式会社デンソー Object recognition device
CN113673585A (en) * 2021-08-02 2021-11-19 大连海事大学 Pavement damage detection method and system
CN113673585B (en) * 2021-08-02 2023-06-20 大连海事大学 Pavement damage detection method and system
CN115248447A (en) * 2021-09-29 2022-10-28 上海仙途智能科技有限公司 Road edge identification method and system based on laser point cloud
CN115248447B (en) * 2021-09-29 2023-06-02 上海仙途智能科技有限公司 Laser point cloud-based path edge identification method and system

Also Published As

Publication number Publication date
JP5598694B2 (en) 2014-10-01

Similar Documents

Publication Publication Date Title
JP5598694B2 (en) Target detection apparatus and target detection method
CN112560972B (en) Target detection method based on millimeter wave radar prior positioning and visual feature fusion
US11003921B2 (en) Apparatus and method for distinguishing false target in vehicle and vehicle including the same
KR102109941B1 (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera
EP3229041B1 (en) Object detection using radar and vision defined image detection zone
EP2889641B1 (en) Image processing apparatus, image processing method, program and image processing system
JP5407898B2 (en) Object detection apparatus and program
US11747444B2 (en) LiDAR-based object detection and classification
US9429650B2 (en) Fusion of obstacle detection using radar and camera
JP5145585B2 (en) Target detection device
JP6819996B2 (en) Traffic signal recognition method and traffic signal recognition device
US20100191391A1 (en) multiobject fusion module for collision preparation system
EP1721287A1 (en) Method and apparatus for detecting a presence
JP2003084064A (en) Device and method for recognizing vehicle in front side
WO2018215861A1 (en) System and method for pedestrian detection
JP2009237898A (en) Image recognition device
CN114495064A (en) Monocular depth estimation-based vehicle surrounding obstacle early warning method
JP2019194614A (en) On-vehicle radar device, area detection device and area detection method
Ponsa et al. On-board image-based vehicle detection and tracking
CN108629225B (en) Vehicle detection method based on multiple sub-images and image significance analysis
US10839522B2 (en) Adaptive data collecting and processing system and methods
JP6411933B2 (en) Vehicle state determination device
JP7418476B2 (en) Method and apparatus for determining operable area information
Wu et al. Fast pedestrian detection with laser and image data fusion
JP2013069045A (en) Image recognition device, image recognition method, and image recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120822

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20120903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140730

LAPS Cancellation because of no payment of annual fees