JP3948450B2 - Object detection apparatus and object detection method - Google Patents

Object detection apparatus and object detection method Download PDF

Info

Publication number
JP3948450B2
JP3948450B2 JP2003359520A JP2003359520A JP3948450B2 JP 3948450 B2 JP3948450 B2 JP 3948450B2 JP 2003359520 A JP2003359520 A JP 2003359520A JP 2003359520 A JP2003359520 A JP 2003359520A JP 3948450 B2 JP3948450 B2 JP 3948450B2
Authority
JP
Japan
Prior art keywords
detection
detected
person
detection target
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003359520A
Other languages
Japanese (ja)
Other versions
JP2005121601A (en
Inventor
倫子 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003359520A priority Critical patent/JP3948450B2/en
Publication of JP2005121601A publication Critical patent/JP2005121601A/en
Application granted granted Critical
Publication of JP3948450B2 publication Critical patent/JP3948450B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に搭載される物体検出装置及び物体検出方法に関する。   The present invention relates to an object detection device and an object detection method mounted on a vehicle.

従来より、車両に搭載される物体検出装置が知られている(例えば、特許文献)。 Conventionally, an object detection device mounted on a vehicle is known (for example, Patent Document 1 ).

特許文献記載の技術では、車両前方を撮影して熱画像(車両前方の熱データを有する画像)を取得し、当該熱画像から人物の熱データを有する検出対象物候補領域を抽出する。そして、当該検出対象物候補領域の縦横比を算出し、当該算出された縦横比が人物の縦横比に一致する場合には、当該検出対象物候補領域から人物を検出する。
特開2001−28050号公報
In the technique described in Patent Document 1 , a front image of a vehicle is captured to obtain a thermal image (an image having thermal data ahead of the vehicle), and a detection target candidate region having human thermal data is extracted from the thermal image. Then, the aspect ratio of the detection target object candidate area is calculated, and when the calculated aspect ratio matches the aspect ratio of the person, a person is detected from the detection target object candidate area.
JP 2001-28050 A

しかし、この技術では、検出対象物候補領域の縦横比のみに基づいた検出を行っているため、以下に示す問題点があった。 However, this technique performs the detection based only on the aspect ratio of the detection target object candidate region, and thus has the following problems.

即ち、特許文献1記載の技術では、人物以外の物体で、人物程度の縦横比を有する物体、例えば柱や壁の一部(特に、他の部分と素材が異なる部分)を人物と誤検出する可能性があった。   That is, in the technique described in Patent Document 1, an object other than a person and having an aspect ratio comparable to that of a person, for example, a part of a pillar or a wall (particularly, a part having a different material from other parts) is erroneously detected as a person. There was a possibility.

本発明はこのような従来の課題を解決するためになされたものであり、その主に目的とするところは、人物をより確実に検出することができる物体検出装置及び物体検出方法を提供することである。   The present invention has been made to solve such a conventional problem, and a main object thereof is to provide an object detection device and an object detection method capable of detecting a person more reliably. It is.

上記目的を達成するため、本願特許請求の範囲に記載の発明は、車両に搭載される物体検出装置において、車両周辺を観測して、車両周辺の熱データを有する画像を取得する画像取得手段と、画像から、人物熱データを有する検出対象物候補領域を抽出する領域抽出手段と、検出対象物候補領域の位置及び大きさのうち、少なくとも一方に基づいて、当該検出対象物候補領域から検出される検出物体の位置を算出する位置算出手段と、車両の周辺を所定の検出波でスキャニングして、当該検出波を反射する計測点領域を検出し、且つ、当該検出された計測点領域の位置を検出する検出波出力手段と、計測点領域のうち、検出対象物候補領域から検出される検出物体の位置と同じ位置に存在する計測点領域を同一候補領域として抽出する位置抽出手段と、検出対象物候補領域から検出される検出物体の幅が、同一候補領域の幅に一致し、検出対象物候補領域の特徴量が、人物の特徴量に一致し、且つ、位置算出手段により算出された位置の動きまたは同一候補領域の位置の動きのうち、少なくとも一方が人物の歩行速度に一致する場合には、検出対象物候補領域または同一候補領域から人物を検出する検出手段と、を備え、特徴量は、熱データ及び縦横比のうち、少なくとも一方であることを主な特徴とする。 In order to achieve the above object, the invention described in the claims of the present application is an object detection device mounted on a vehicle, wherein an image acquisition means for observing the periphery of the vehicle and acquiring an image having thermal data around the vehicle is provided. Detecting from the detection object candidate area based on at least one of the area extraction means for extracting the detection object candidate area having human thermal data from the image and the position and size of the detection object candidate area A position calculating means for calculating a position of the detected object, a surrounding of the vehicle is scanned with a predetermined detection wave, a measurement point area reflecting the detection wave is detected, and the detected measurement point area detection wave output means for detecting the position, of the measurement point region, position of extracting the measuring point area to be in the same position as the position of the detected object to be detected from the detection target candidate region as the same candidate region Means out, the width of the detection object detected from the detection object candidate region, consistent with the width of the same candidate region feature quantity of the detection object candidate region coincides with the feature value of the person, and the position calculated Detecting means for detecting a person from the detection object candidate area or the same candidate area when at least one of the movement of the position calculated by the means or the movement of the position of the same candidate area matches the walking speed of the person ; The feature amount is at least one of the thermal data and the aspect ratio .

本願特許請求の範囲に記載の発明では、主に、以下の効果を得ることができる。即ち、人物と異なる検出物体で、且つ人物と同じ動きをする検出物体を人物として誤検出することがない。また、人物と同程度の大きさで、且つ人物と異なる動きをする検出物体を人物として誤検出することがない。よって、人物を確実に検出することができる。 In the invention described in the claims of the present application, the following effects can be mainly obtained. That is, a detection object that is different from a person and that moves in the same manner as a person is not erroneously detected as a person. In addition, a detection object having the same size as a person and moving differently from the person is not erroneously detected as a person. Therefore, it is possible to reliably detect a person.

(第1の実施の形態)
以下、本発明の第1の実施の形態図面に基づいて説明する。まず、図1〜図14に基づいて、本発明の一実施の形態に係る物体検出装置1の構成要素及び各構成要素の主な機能について説明する。
(First embodiment)
A first embodiment of the present invention will be described below with reference to the drawings. First, based on FIGS. 1-14, the main function of the component of the object detection apparatus 1 which concerns on one embodiment of this invention and each component is demonstrated.

図1は物体検出装置1の構成を示すブロック図であり、図2はカメラ10及び検出波出力部13の設置位置を示す側面図であり、図3は、カメラ10及び検出波出力部13の設置位置を示す平面図である。また、図4〜図5は、カメラ10により取得される熱画像Aの一例を示す説明図である。なお、以下の説明では、図2〜図3に示すように、検出波出力部13の先端部の点を原点、検出波出力部13の中心軸及びカメラ10の光軸と平行となる方向をz軸、z軸に垂直且つ路面に平行な方向をx軸、z軸及び路面に垂直な方向をy軸とする座標系を基準座標系とする。ここで、カメラ10の光軸は、カメラ10が有するカメラレンズの中心を通り、且つ、カメラレンズに垂直な軸である。また、検出波出力部13の中心軸は、検出波出力部13の先端面の中心を通り、且つ、当該先端面に垂直な軸である。   FIG. 1 is a block diagram illustrating the configuration of the object detection apparatus 1, FIG. 2 is a side view illustrating the installation positions of the camera 10 and the detection wave output unit 13, and FIG. 3 illustrates the camera 10 and the detection wave output unit 13. It is a top view which shows an installation position. 4-5 is explanatory drawing which shows an example of the thermal image A acquired with the camera 10. As shown in FIG. In the following description, as shown in FIGS. 2 to 3, the point at the tip of the detection wave output unit 13 is the origin, and the direction parallel to the central axis of the detection wave output unit 13 and the optical axis of the camera 10 is used. A coordinate system in which a direction perpendicular to the z axis and the z axis and parallel to the road surface is the x axis, and a direction perpendicular to the z axis and the road surface is the y axis is a reference coordinate system. Here, the optical axis of the camera 10 is an axis that passes through the center of the camera lens of the camera 10 and is perpendicular to the camera lens. The central axis of the detection wave output unit 13 is an axis that passes through the center of the tip surface of the detection wave output unit 13 and is perpendicular to the tip surface.

また、図4に示すように、熱画像Aの左上端部を原点、熱画像Aの上端から下端に向かう方向をy軸、熱画像Aの左端から右端に向かう方向をx軸とする座標系を熱画像座標系とする。   Further, as shown in FIG. 4, a coordinate system in which the upper left end of the thermal image A is the origin, the direction from the upper end to the lower end of the thermal image A is the y axis, and the direction from the left end to the right end of the thermal image A is the x axis. Is the thermal image coordinate system.

図1に示すように、物体検出装置1は、カメラ(画像取得手段)10と、画像メモリ11と、検出対象物用温度帯領域抽出部(領域抽出手段)(以下、「領域抽出部」と称する)12と、検出波出力部(検出波出力手段)13と、レーダ計測結果保存用メモリ(以下、「保存用メモリ」と称する)14と、検出対象物用距離計測部(位置算出手段、位置抽出手段)(以下、「距離計測部」と称する)15と、同一物体判定部16と、対象物検出部(検出手段)17と、検出結果出力部18を備える。   As shown in FIG. 1, the object detection apparatus 1 includes a camera (image acquisition unit) 10, an image memory 11, a detection object temperature zone region extraction unit (region extraction unit) (hereinafter referred to as “region extraction unit”). 12, a detection wave output unit (detection wave output unit) 13, a radar measurement result storage memory (hereinafter referred to as “storage memory”) 14, and a detection object distance measurement unit (position calculation unit, (Position extraction means) (hereinafter referred to as “distance measurement section”) 15, identical object determination section 16, object detection section (detection means) 17, and detection result output section 18.

カメラ10は、図2〜図3に示すように、その光軸が検出波出力部13の中心軸及び路面に平行になるように、車両Pの前部に設置される。また、車両P前方を観測して、車両P前方の熱データを有する熱画像Aを熱画像データの形式で取得する。熱画像Aの例を図4に示す。図4は、車両P前方に二人の人物及び壁が存在する場合にカメラ10が取得する熱画像Aを示す。当該熱画像Aには、人物画像a0〜a1及び壁画像a3〜a4が含まれる。   The camera 10 is installed in the front part of the vehicle P so that the optical axis is parallel to the central axis of the detection wave output unit 13 and the road surface, as shown in FIGS. Further, the front of the vehicle P is observed, and a thermal image A having thermal data ahead of the vehicle P is acquired in the form of thermal image data. An example of the thermal image A is shown in FIG. FIG. 4 shows a thermal image A acquired by the camera 10 when there are two persons and a wall in front of the vehicle P. The thermal image A includes person images a0 to a1 and wall images a3 to a4.

熱画像データは複数の画素データで構成され、各画素データには座標データ及び熱データが含まれる。そして、カメラ10は、当該熱画像データを画像メモリ11に出力する。画像メモリ11は、カメラ10から与えられた熱画像データを保存する。   The thermal image data is composed of a plurality of pixel data, and each pixel data includes coordinate data and thermal data. Then, the camera 10 outputs the thermal image data to the image memory 11. The image memory 11 stores thermal image data given from the camera 10.

領域抽出部12は、画像メモリ11から熱画像データを取得する。そして、当該熱画像データに基づいて、熱画像Aから、人物の熱データを有する検出対象物候補領域を抽出する。ここで、人物の熱データ値は36(度)程度となるが、車両Pから人物までの距離が長いほど、熱画像A上の人物画像が有する熱データ値は小さくなる。そこで、領域抽出部12は、熱画像Aから、36(度)前後の熱データ値を有する画素を抽出し、互いに隣接する画素どうしをまとめて一つの領域とすることで、検出対象物候補領域を抽出する。   The region extraction unit 12 acquires thermal image data from the image memory 11. And based on the said thermal image data, the detection target object candidate area | region which has a person's thermal data is extracted from the thermal image A. FIG. Here, the thermal data value of the person is about 36 (degrees), but the longer the distance from the vehicle P to the person, the smaller the thermal data value that the person image on the thermal image A has. Therefore, the region extraction unit 12 extracts pixels having thermal data values of around 36 (degrees) from the thermal image A, and puts adjacent pixels together into one region, so that a detection target candidate region is obtained. To extract.

そして、領域抽出部12は、検出対象物候補領域が有する画素データに基づいて、検出対象物候補領域の大きさ(具体的には、幅及び高さ)と熱画像A上での位置を算出する。そして、当該算出結果及び検出対象物候補領域が有する画素データに関する検出対象物候補領域データを生成して距離計測部15に出力する。   Then, the region extraction unit 12 calculates the size (specifically, the width and height) of the detection target object candidate region and the position on the thermal image A based on the pixel data of the detection target candidate region. To do. Then, detection target candidate area data relating to the calculation result and pixel data included in the detection target candidate area is generated and output to the distance measuring unit 15.

例えば、熱画像Aが図4に示すものである場合、領域抽出部12は、図5に示すように、熱画像Aから、人物画像a0を含む検出対象物候補領域A0と、人物画像a1を含む検出対象物候補領域A1を抽出する。なお、壁画像a3〜a4が有する熱データは、人物画像a0〜a1が有する熱データと異なるので、壁画像a3〜a4は検出対象物候補領域A0〜A1に含まれない。そして、領域抽出部12は、検出対象物候補領域A0の位置(xc0、yc0)、幅wc0、及び高さhc0を算出し、同様に、検出対象物候補領域A1の位置(xc1、yc1)、幅wc1、及び高さhc1を算出する。そして、当該算出結果及び検出対象物候補領域A0〜A1が有する画素データに関する検出対象物候補領域データを生成して距離計測部15に出力する。なお、車両P周辺の環境によっては、人物以外の物体(例えば、車両)が人物程度の熱を有する場合があり、この場合、領域抽出部12は、熱画像Aのうち、人物以外の物体が描かれた領域を検出対象物候補領域として抽出する可能性がある。そこで、人物が描かれた検出対象物候補領域のみを出力することができるように、領域抽出部12は、検出対象物候補領域の縦横比を算出し、当該算出された縦横比が人物の縦横比に一致する検出対象物候補領域のみを距離計測部15に出力しても良い。   For example, when the thermal image A is the one shown in FIG. 4, the region extraction unit 12 extracts the detection target candidate region A0 including the person image a0 and the person image a1 from the thermal image A as shown in FIG. The detection object candidate area A1 to be included is extracted. In addition, since the thermal data which wall image a3-a4 has differs from the thermal data which person image a0-a1 has, wall image a3-a4 is not contained in detection target object candidate area | region A0-A1. Then, the region extraction unit 12 calculates the position (xc0, yc0), the width wc0, and the height hc0 of the detection target candidate region A0, and similarly, the position (xc1, yc1) of the detection target candidate region A1. The width wc1 and the height hc1 are calculated. Then, detection target candidate area data relating to the calculation result and pixel data included in the detection target candidate areas A0 to A1 is generated and output to the distance measuring unit 15. In addition, depending on the environment around the vehicle P, an object other than a person (for example, a vehicle) may have a heat similar to that of a person. In this case, the region extraction unit 12 may include an object other than a person in the thermal image A. There is a possibility that the drawn area is extracted as a detection object candidate area. Therefore, the region extraction unit 12 calculates the aspect ratio of the detection target candidate region so that only the detection target candidate region in which the person is drawn can be output, and the calculated aspect ratio is the aspect ratio of the person. Only the detection object candidate region that matches the ratio may be output to the distance measurement unit 15.

図1に示す検出波出力部13は、例えばレーザレーダやミリ波レーダであり、図2〜図3に示すように、その光軸が路面及びカメラ10の光軸に平行になるように、車両Pの前部に設置される。そして、所定の検出波(例えば、レーザまたはミリ波)でスキャニングして、当該検出波を反射する計測点領域を検出する。そして、当該検出された計測点領域の大きさ(具体的には、当該計測点領域の幅等)及び位置(具体的には、車両Pから計測点領域までのz方向距離及び方位)を検出する。また、計測点領域での検出波の反射強度を検出する。そして、当該検出された大きさ、位置、及び反射強度に関する計測点領域データを生成して、保存用メモリ14に出力する。   The detection wave output unit 13 shown in FIG. 1 is, for example, a laser radar or a millimeter wave radar, and the vehicle has an optical axis parallel to the road surface and the optical axis of the camera 10 as shown in FIGS. Installed in front of P. Then, scanning is performed with a predetermined detection wave (for example, a laser or a millimeter wave), and a measurement point region that reflects the detection wave is detected. Then, the size (specifically, the width of the measurement point area, etc.) and the position (specifically, the z direction distance and direction from the vehicle P to the measurement point area) of the detected measurement point area are detected. To do. Further, the reflection intensity of the detection wave in the measurement point region is detected. Then, measurement point area data relating to the detected size, position, and reflection intensity is generated and output to the storage memory 14.

図6に、検出波出力部13がレーザレーダである場合に当該検出波出力部13が取得する計測点領域の一例を示す。また、図6に示す場合にカメラ10が取得する熱画像Aを図7に示す。なお、図6では、車両Pの前方に、図4に対応する人物Q0〜Q1の他、車両P0が存在する。   FIG. 6 shows an example of the measurement point region acquired by the detection wave output unit 13 when the detection wave output unit 13 is a laser radar. FIG. 7 shows a thermal image A acquired by the camera 10 in the case shown in FIG. In FIG. 6, in addition to the persons Q0 to Q1 corresponding to FIG.

図6に示すように、人物Q0〜Q1、及び車両P0は何れもレーザを反射するので、検出波出力部13は、レーザにて車両P前方をスキャニングして、人物Q0〜Q1、及び車両P0から計測点領域B0〜B2を検出する。そして、当該検出された計測点領域B0〜B2の大きさ、位置、及び反射強度を検出する。例えば、計測点領域B0、B2のz方向距離はz0となり、計測点領域B1のz方向距離はz1となる。そして、当該検出された大きさ、位置、及び反射強度に関する計測点領域データを生成して、保存用メモリ14に出力する。ここで、レーザの反射強度は、当該レーザを反射する検出物体の種類に依存する。例えば、車両上での反射強度は人物上での反射強度よりも大きい。車両上では反射板が、人物上では当該人物の服装がそれぞれレーダを反射するところ、当該反射板は、通常、人物の服装よりも効率よくレーダを反射するからである。また、レーダは空気中で減衰するから、検出波出力部13が検出する計測点領域の反射強度は、車両Pから当該計測点領域までのz方向距離が長いほど小さくなる。以上により、計測点領域B2の反射強度は、計測点領域B1の反射強度よりも大きい。また、計測点領域B1の反射強度は、計測点領域B0の反射強度よりも大きい。   As shown in FIG. 6, since the persons Q0 to Q1 and the vehicle P0 all reflect the laser, the detection wave output unit 13 scans the front of the vehicle P with the laser, and the persons Q0 to Q1 and the vehicle P0. To measure measurement point regions B0 to B2. Then, the size, position, and reflection intensity of the detected measurement point regions B0 to B2 are detected. For example, the z-direction distance of the measurement point regions B0 and B2 is z0, and the z-direction distance of the measurement point region B1 is z1. Then, measurement point area data relating to the detected size, position, and reflection intensity is generated and output to the storage memory 14. Here, the reflection intensity of the laser depends on the type of the detection object that reflects the laser. For example, the reflection intensity on the vehicle is higher than the reflection intensity on the person. This is because the reflector reflects the radar on the vehicle and the person's clothes on the person reflect the radar, and the reflector usually reflects the radar more efficiently than the person's clothes. Further, since the radar attenuates in the air, the reflection intensity of the measurement point area detected by the detection wave output unit 13 becomes smaller as the distance in the z direction from the vehicle P to the measurement point area becomes longer. As described above, the reflection intensity of the measurement point region B2 is larger than the reflection intensity of the measurement point region B1. Further, the reflection intensity of the measurement point region B1 is larger than the reflection intensity of the measurement point region B0.

一方、図7に示すように、熱画像Aには、人物画像a0〜a1、壁画像a3〜a4の他、車両画像a2も含まれる。しかし、車両画像a2及び壁画像a3〜a4が有する熱データは、人物画像a0〜a1が有する熱データと異なるので、検出対象物候補領域A0〜A1は車両画像a2及び壁画像a3〜a4を含まない。   On the other hand, as shown in FIG. 7, the thermal image A includes a vehicle image a2 in addition to the person images a0 to a1 and the wall images a3 to a4. However, since the thermal data included in the vehicle image a2 and the wall images a3 to a4 are different from the thermal data included in the person images a0 to a1, the detection object candidate areas A0 to A1 include the vehicle image a2 and the wall images a3 to a4. Absent.

また、図8に、検出波出力部13がミリ波レーダである場合に当該検出波出力部13が取得する計測点領域の一例を示す。また、図8に示す場合にカメラ10が取得する熱画像Aを図9に示す。なお、図8に示す車両P前方の状況は、図6に示す状況と同様である。   FIG. 8 shows an example of a measurement point region acquired by the detection wave output unit 13 when the detection wave output unit 13 is a millimeter wave radar. Moreover, the thermal image A which the camera 10 acquires in the case shown in FIG. 8 is shown in FIG. The situation in front of the vehicle P shown in FIG. 8 is the same as the situation shown in FIG.

図8に示すように、人物Q0〜Q1、車両P0、及び壁R0〜R1(図4に示す壁画像a3〜a4に対応)は何れもミリ波を反射するので、検出波出力部13は、ミリ波にて車両P前方をスキャニングして、人物Q0〜Q1、車両P0、及び壁R0〜R1から計測点領域B0〜B4を検出する。そして、当該検出された計測点領域B0〜B4の大きさ、位置、及び反射強度を検出する。例えば、計測点領域B0、B2のz方向距離はz0となり、計測点領域B1のz方向距離はz1となる。そして、当該検出された大きさ、位置、及び反射強度に関する計測点領域データを生成して、保存用メモリ14に出力する。ここで、壁はミリ波を僅かに反射するのみであるが、ミリ波レーダは、ミリ波を僅かに反射する検出物体からも計測点領域を検出することができる。したがって、検出波出力部13は、壁R0〜R1からも計測点領域B3〜B4を検出することができる。また、反射強度は、検出物体の種類には依存せず、計測点領域の大きさに依存する。   As shown in FIG. 8, since the person Q0 to Q1, the vehicle P0, and the walls R0 to R1 (corresponding to the wall images a3 to a4 shown in FIG. 4) all reflect millimeter waves, the detection wave output unit 13 The front of the vehicle P is scanned with millimeter waves, and the measurement point regions B0 to B4 are detected from the persons Q0 to Q1, the vehicle P0, and the walls R0 to R1. Then, the size, position, and reflection intensity of the detected measurement point regions B0 to B4 are detected. For example, the z-direction distance of the measurement point regions B0 and B2 is z0, and the z-direction distance of the measurement point region B1 is z1. Then, measurement point area data relating to the detected size, position, and reflection intensity is generated and output to the storage memory 14. Here, although the wall only reflects the millimeter wave slightly, the millimeter wave radar can detect the measurement point region even from a detection object that slightly reflects the millimeter wave. Therefore, the detection wave output unit 13 can detect the measurement point regions B3 to B4 from the walls R0 to R1. Further, the reflection intensity does not depend on the type of the detected object but depends on the size of the measurement point area.

一方、図9に示すように、熱画像Aには、人物画像a0〜a1、壁画像a3〜a4の他、車両画像a2も含まれる。しかし、車両画像a2及び壁画像a3〜a4が有する熱データは、人物画像a0〜a1が有する熱データと異なるので、検出対象物候補領域A0〜A1は車両画像a2及び壁画像a3〜a4を含まない。   On the other hand, as shown in FIG. 9, the thermal image A includes a vehicle image a2 in addition to person images a0 to a1 and wall images a3 to a4. However, since the thermal data included in the vehicle image a2 and the wall images a3 to a4 are different from the thermal data included in the person images a0 to a1, the detection object candidate areas A0 to A1 include the vehicle image a2 and the wall images a3 to a4. Absent.

図1に示す保存用メモリ14は、検出波出力部13から与えられた計測点領域データを保存する。   The storage memory 14 shown in FIG. 1 stores the measurement point area data given from the detection wave output unit 13.

距離計測部15は、保存用メモリ14から計測点領域データを取得し、当該計測点領域データと、領域抽出部12から与えられた検出対象物候補領域データに基づいて、計測点領域のうち、検出対象物候補領域に対応する計測点領域を同一候補領域として抽出する。   The distance measurement unit 15 acquires measurement point region data from the storage memory 14, and based on the measurement point region data and the detection target candidate region data given from the region extraction unit 12, out of the measurement point regions, A measurement point area corresponding to the detection object candidate area is extracted as the same candidate area.

具体的には、まず、検出対象物候補領域データに基づいて、検出対象物候補領域から検出される検出物体の位置(基準座標系での位置)を算出する。ここで、具体的な算出方法を図10〜図14に基づいて説明する。ここで、図10は、人物Q2とカメラレンズ100及び撮像面101との位置関係を示す平面図であり、図12は、人物Q2とカメラレンズ100及び撮像面101との位置関係を示す側面図である。また、図14は、人物Q2とカメラ10及び撮像面101との位置関係を示す側面図であり、図11、図13、及び図15は、熱画像Aの一例を示す説明図である。なお、カメラレンズ100はカメラ10が有するものであり、撮像面101は、熱画像Aが撮像される面である。   Specifically, first, based on the detection object candidate area data, the position of the detected object detected from the detection object candidate area (position in the reference coordinate system) is calculated. Here, a specific calculation method will be described with reference to FIGS. Here, FIG. 10 is a plan view showing the positional relationship between the person Q2 and the camera lens 100 and the imaging surface 101, and FIG. 12 is a side view showing the positional relationship between the person Q2 and the camera lens 100 and the imaging surface 101. It is. FIG. 14 is a side view showing the positional relationship between the person Q2, the camera 10, and the imaging surface 101, and FIGS. 11, 13, and 15 are explanatory diagrams showing an example of the thermal image A. FIG. Note that the camera lens 100 is included in the camera 10, and the imaging surface 101 is a surface on which the thermal image A is captured.

図10に示すように、焦点距離をf(定数)、熱画像A中、人物Q2が描かれた人物画像のx座標をxcd0とすると、カメラレンズ100に対する人物Q2の方位θは、以下の式(1)で表される。   As shown in FIG. 10, when the focal length is f (constant) and the x-coordinate of the person image in which the person Q2 is drawn in the thermal image A is xcd0, the orientation θ of the person Q2 with respect to the camera lens 100 is expressed by the following equation: It is represented by (1).

tanθ=xcd0/f …(1)
したがって、カメラ10が図11に示す熱画像A(図4と同様の熱画像A)を取得し、領域抽出部12が検出対象物候補領域A0を抽出した場合には、距離計測部15は、検出対象物候補領域A0の位置のx座標xc0を式(1)のxcd0に代入することで、検出対象物候補領域A0から検出される検出物体(この場合は、人物Q0)の方位θ0を算出する。また、人物Q2からカメラレンズ100までのz方向距離zd1は、図12に示すように、人物Q2の身長をH、熱画像A中、人物Q2が描かれる人物画像の高さをhc、焦点距離をfとすると、以下の式(2)で表される。
tan θ = xcd0 / f (1)
Therefore, when the camera 10 acquires the thermal image A shown in FIG. 11 (the same thermal image A as in FIG. 4) and the region extraction unit 12 extracts the detection target candidate region A0, the distance measurement unit 15 By substituting the x-coordinate xc0 of the position of the detection object candidate area A0 into xcd0 in Expression (1), the azimuth θ0 of the detected object (in this case, the person Q0) detected from the detection object candidate area A0 is calculated. To do. The z-direction distance zd1 from the person Q2 to the camera lens 100 is as follows. The height of the person Q2 is H, the height of the person image in which the person Q2 is drawn in the thermal image A is hc, and the focal length as shown in FIG. Is represented by the following formula (2).

zd1=f*H/hc …(2)
したがって、カメラ10が図13に示す熱画像A(図4と同様の熱画像A)を取得し、領域抽出部12が検出対象物候補領域A0〜A1を抽出した場合には、距離計測部15は、検出対象物候補領域A0〜A1の高さhc0〜hc1をそれぞれ式(2)のhcに、人物の通常の高さH1を式(2)のHにそれぞれ代入する。これにより、検出対象物候補領域A0〜A1から検出される検出物体(この場合は、人物)のz方向距離z0’〜z1’を算出する。
zd1 = f * H / hc (2)
Therefore, when the camera 10 acquires the thermal image A shown in FIG. 13 (the same thermal image A as in FIG. 4) and the region extraction unit 12 extracts the detection target candidate regions A0 to A1, the distance measurement unit 15 Substitutes the heights hc0 to hc1 of the detection object candidate areas A0 to A1 into hc in the equation (2), respectively, and the normal height H1 of the person into H in the equation (2). Thus, the z-direction distances z0 ′ to z1 ′ of the detected object (in this case, a person) detected from the detection object candidate areas A0 to A1 are calculated.

なお、このようにz方向距離を算出する方法は、車両P前方に存在する人物の身長にばらつきがほとんど生じない場合(例えば、車両P周辺に存在する人物のほとんどが大人である場合)に適用される。身長にばらつきが生じる場合、式(2)のHに通常の高さH1を代入しても、検出対象物候補領域から検出される検出物体が通常の高さH1を有するとは限らないので、当該検出物体の正確なz方向距離を算出することができない可能性があるからである。   Note that the method of calculating the z-direction distance in this way is applied when there is almost no variation in the height of the person existing in front of the vehicle P (for example, when most of the persons existing around the vehicle P are adults). Is done. If the height varies, even if the normal height H1 is substituted for H in Equation (2), the detected object detected from the detection target candidate region does not necessarily have the normal height H1. This is because the accurate z-direction distance of the detected object may not be calculated.

したがって、人物の身長にばらつきが生じる場合、距離計測部15は、以下の方法により、z方向距離を算出する。即ち、図14に示すように、車両P前方に人物Q2が存在する場合、路面からカメラ10までの高さをL(定数)、焦点距離をf、熱画像A中、人物Q2が描かれる人物画像の下端部のy座標をycd0’とすると、車両Pから人物Q2までのz方向距離zd1は、以下の式(3)で表される。   Therefore, when the height of the person varies, the distance measurement unit 15 calculates the z-direction distance by the following method. That is, as shown in FIG. 14, when the person Q2 is present in front of the vehicle P, the height from the road surface to the camera 10 is L (constant), the focal length is f, and the person Q2 is depicted in the thermal image A. When the y coordinate of the lower end of the image is ycd0 ′, the z-direction distance zd1 from the vehicle P to the person Q2 is expressed by the following equation (3).

zd1=f*L/ycd0’ …(3)
したがって、カメラ10が図14に示す熱画像A(図4と同様の熱画像A)を取得し、領域抽出部12が検出対象物候補領域A0〜A1を抽出した場合には、距離計測部15は、検出対象物候補領域A0〜A1の下端部のy座標yc0’〜yc1’を以下の式(4)〜(5)により算出する。
zd1 = f * L / ycd0 ′ (3)
Therefore, when the camera 10 acquires the thermal image A shown in FIG. 14 (the same thermal image A as in FIG. 4) and the region extraction unit 12 extracts the detection target object regions A0 to A1, the distance measurement unit 15 Calculates the y-coordinates yc0 ′ to yc1 ′ of the lower end portions of the detection object candidate areas A0 to A1 by the following equations (4) to (5).

yc0’=yc0+hc0 …(4)
yc1’=yc1+hc1 …(5)
そして、当該算出されたyc0’〜yc1’を式(3)のycd0’にそれぞれ代入することで、検出対象物候補領域A0〜A1から検出される検出物体(この場合は、人物)のz方向距離z0’〜z1’を算出する。ここで、当該算出された方位及びz方向距離は、カメラレンズ100を基準としたものであるので、距離計測部15は、図1に示すように、当該算出された方位及びz方向距離を基準座標系を基準とした方位及びz方向距離に変換する。これにより、検出対象物候補領域から検出される検出物体の位置を算出する。そして、当該算出された位置に関する位置データを取得する。
yc0 ′ = yc0 + hc0 (4)
yc1 ′ = yc1 + hc1 (5)
Then, by substituting the calculated yc0 ′ to yc1 ′ into ycd0 ′ in Expression (3), respectively, the z direction of the detected object (in this case, a person) detected from the detection target candidate areas A0 to A1 The distances z0 ′ to z1 ′ are calculated. Here, since the calculated azimuth and z-direction distance are based on the camera lens 100, the distance measuring unit 15 uses the calculated azimuth and z-direction distance as a reference, as shown in FIG. Convert to azimuth and z-direction distance with reference to coordinate system. Thereby, the position of the detected object detected from the detection target candidate region is calculated. Then, position data regarding the calculated position is acquired.

そして、距離計測部15は、当該算出された位置データを検出対象物候補領域データに加える。さらに、保存用メモリ14から取得した計測点領域データに基づいて、検出対象物候補領域に対応する計測点領域、即ち、検出対象物候補領域の位置データに一致する位置データを有する計測点領域を同一候補領域として抽出する。そして、当該抽出された計測点領域に関する計測点領域データを同一候補領域データとして同一物体判定部16に出力する。さらに、検出対象物候補領域データを同一物体判定部16に出力する。   Then, the distance measuring unit 15 adds the calculated position data to the detection target candidate area data. Further, based on the measurement point area data acquired from the storage memory 14, a measurement point area corresponding to the detection target object candidate area, that is, a measurement point area having position data matching the position data of the detection target object candidate area is obtained. Extract as the same candidate area. Then, the measurement point region data relating to the extracted measurement point region is output to the same object determination unit 16 as the same candidate region data. Further, the detection target candidate area data is output to the same object determination unit 16.

同一物体判定部16は、検出対象物候補領域と同一候補領域とが互いに対応することを再度判定する。具体的には、時間の経過に応じて距離計測部15から複数与えられた検出対象物候補領域データ及び同一候補領域データに基づいて、距離計測部15により算出された位置の動き及び同一候補領域の位置の動きを算出する。そして、これらの動きが互いに一致するかどうかを判定し、一致する場合には、検出対象物候補領域と同一候補領域とが互いに対応すると判定する。そして、距離計測部15により算出された位置の動き及び同一候補領域の位置の動きが、検出対象物候補領域から検出される検出物体の動きに一致すると判定する。なお、このように判定できるのは、以下の理由による。即ち、検出波出力部13は、計測点領域、即ち同一候補領域の位置を正確に検出することができるので、同一候補領域の位置の動きは、同一候補領域から検出される検出物体の動きに一致する。そして、検出対象物候補領域が同一候補領域に対応する場合、検出対象物候補領域から検出される検出物体は、同一候補領域から検出される検出物体に一致する。したがって、検出対象物候補領域が同一候補領域に対応する場合、距離計測部15により算出された位置の動き及び同一候補領域の位置の動きが、検出対象物候補領域から検出される検出物体の動きに一致すると判定することができる。   The same object determination unit 16 determines again that the detection object candidate region and the same candidate region correspond to each other. Specifically, the movement of the position and the same candidate area calculated by the distance measuring unit 15 based on the plurality of detection object candidate area data and the same candidate area data given from the distance measuring unit 15 as time passes. The movement of the position of is calculated. Then, it is determined whether or not these motions match each other. If they match, it is determined that the detection target candidate region and the same candidate region correspond to each other. Then, it is determined that the movement of the position calculated by the distance measuring unit 15 and the movement of the position of the same candidate area coincide with the movement of the detected object detected from the detection target object candidate area. This determination can be made for the following reason. That is, the detection wave output unit 13 can accurately detect the position of the measurement point area, that is, the same candidate area, and therefore the movement of the position of the same candidate area is the movement of the detected object detected from the same candidate area. Match. And when a detection target object candidate area | region respond | corresponds to the same candidate area | region, the detection object detected from a detection target object candidate area | region corresponds with the detection object detected from the same candidate area | region. Therefore, when the detection target object candidate areas correspond to the same candidate area, the movement of the position calculated by the distance measuring unit 15 and the movement of the position of the same candidate area are detected object movements detected from the detection target object candidate area. Can be determined to match.

そして、距離計測部15により算出された位置の動き、即ち検出物体の動きが所定の範囲に含まれるかどうかを判定する。この結果、所定の範囲に含まれる場合には、検出物体の動きに関する動きデータ、検出対象物候補領域データ及び計測点領域データを対象物検出部17に出力する。   Then, it is determined whether the movement of the position calculated by the distance measuring unit 15, that is, the movement of the detected object is included in the predetermined range. As a result, when it is included in the predetermined range, motion data relating to the motion of the detected object, detection target candidate region data, and measurement point region data are output to the target detection unit 17.

なお、当該判定は以下の方法により行うこともできる。即ち、同一物体判定部16は、検出対象物候補領域データに基づいて、検出対象物候補領域から検出される検出物体の幅wdを算出する。ここで、当該検出物体の幅wdは、検出対象物候補領域の幅をwc、焦点距離をf、車両Pから当該検出物体までの距離をzd2とすると、以下の式(6)により算出される。   The determination can also be performed by the following method. That is, the same object determination unit 16 calculates the width wd of the detected object detected from the detection target candidate area based on the detection target candidate area data. Here, the width wd of the detected object is calculated by the following equation (6), where wc is the width of the detection target object candidate region, f is the focal length, and zd2 is the distance from the vehicle P to the detected object. .

wd=zd2*wc/f …(6)
そして、当該算出された検出物体の幅wdが同一候補領域の幅に一致するかどうかを判定し、一致する場合には、検出対象物候補領域と同一候補領域とが互いに対応すると判定する。
wd = zd2 * wc / f (6)
Then, it is determined whether or not the calculated width wd of the detected object matches the width of the same candidate region. If they match, it is determined that the detection target candidate region and the same candidate region correspond to each other.

対象物検出部17は、時間の経過に応じて同一物体判定部16から複数与えられた検出対象物候補領域データ及び同一候補領域データに基づいて、検出対象物候補領域の特徴量及び同一候補領域の特徴量と、検出物体の動きについて平均値を算出する。ここで、当該特徴量としては、例えば、検出対象物候補領域が有する熱データ、検出対象物候補領域の縦横比、及び同一候補領域の位置等がある。なお、平均値を算出することとしたのは、算出結果のばらつきを押さえるためである。そして、当該平均値を、検出対象物候補領域の特徴量、同一候補領域の特徴量、及び検出物体の動きとする。   The object detection unit 17 detects the feature amount of the detection target candidate region and the same candidate region based on the detection target candidate region data and the same candidate region data given from the same object determination unit 16 over time. The average value is calculated for the feature amount and the motion of the detected object. Here, examples of the feature amount include thermal data of the detection target object candidate area, an aspect ratio of the detection target object candidate area, and a position of the same candidate area. The reason for calculating the average value is to suppress variations in the calculation results. Then, the average value is set as the feature amount of the detection target candidate region, the feature amount of the same candidate region, and the motion of the detected object.

そして、当該算出された特徴量及び動きに基づいて、人物を検出する。具体的には、例えば、検出対象物候補領域が有する熱データと人物の熱データとが一致するかどうかを判定する。この結果、これらが一致する場合には、さらに、算出された動きと人物の歩行速度とを比較する。この結果、これらが一致する場合には、検出対象物候補領域または同一候補領域から人物を検出する。   Then, a person is detected based on the calculated feature amount and motion. Specifically, for example, it is determined whether or not the thermal data of the detection target object candidate region matches the thermal data of the person. As a result, when they match, the calculated movement is compared with the walking speed of the person. As a result, if they match, a person is detected from the detection object candidate area or the same candidate area.

また、対象物検出部17は、以下の方法により人物を検出することもできる。即ち、対象物検出部17は、検出対象物候補領域の縦横比の平均値と人物の縦横比とを比較する。この結果、これらが一致する場合には、算出された動きと人物の歩行速度とを比較する。この結果、これらが一致する場合には、検出対象物候補領域または同一候補領域から人物を検出する。   Moreover, the target object detection part 17 can also detect a person with the following method. That is, the object detection unit 17 compares the average aspect ratio of the detection object candidate area with the aspect ratio of the person. As a result, when they match, the calculated movement is compared with the walking speed of the person. As a result, if they match, a person is detected from the detection object candidate area or the same candidate area.

そして、対象物検出部17は、人物が検出された場合には、当該人物の位置を検出対象物候補領域データまたは同一候補領域データに基づいて算出し、当該算出された人物の位置に関する人物位置データを生成して検出結果出力部18に出力する。   Then, when a person is detected, the object detection unit 17 calculates the position of the person based on the detection object candidate area data or the same candidate area data, and the person position relating to the calculated person position Data is generated and output to the detection result output unit 18.

検出結果出力部18は、対象物検出部17から与えられた人物位置データの信頼性を判定する。具体的には、同じ内容の人物位置データが一度しか与えられない場合には、当該人物位置データの信頼性は低いと判定する。この人物位置データはノイズである可能性があるからである。逆に、同じ内容の人物位置データが複数与えられた場合には、当該人物位置データの信頼性が高いと判定して、当該人物位置データを、当該人物位置データを必要とする装置(例えば、カーナビ)に出力する。   The detection result output unit 18 determines the reliability of the person position data given from the object detection unit 17. Specifically, when the person position data having the same content is given only once, it is determined that the reliability of the person position data is low. This is because the person position data may be noise. Conversely, when a plurality of pieces of person position data having the same contents are given, it is determined that the person position data is highly reliable, and the person position data is converted into an apparatus that requires the person position data (for example, To car navigation).

次に、物体検出装置1による処理の手順を、図16に示すフローチャートに沿って説明する。   Next, a processing procedure by the object detection apparatus 1 will be described with reference to a flowchart shown in FIG.

図16に示すステップS1にて、カメラ10は、車両P前方を観測して、車両P前方の熱データを有する熱画像Aを熱画像データの形式で取得し、当該熱画像データを画像メモリ11に出力する。画像メモリ11は、カメラ10から与えられた熱画像データを保存する。   In step S <b> 1 shown in FIG. 16, the camera 10 observes the front of the vehicle P, acquires a thermal image A having thermal data ahead of the vehicle P in the form of thermal image data, and stores the thermal image data in the image memory 11. Output to. The image memory 11 stores thermal image data given from the camera 10.

次いで、ステップS2にて、領域抽出部12は、画像メモリ11から熱画像データを取得し、当該熱画像データに基づいて、熱画像Aから、人物の熱データを有する検出対象物候補領域を抽出する。   Next, in step S2, the region extraction unit 12 acquires thermal image data from the image memory 11, and extracts a detection target candidate region having human thermal data from the thermal image A based on the thermal image data. To do.

次いで、領域抽出部12は、検出対象物候補領域が有する画素データに基づいて、検出対象物候補領域の大きさ(具体的には、幅及び高さ)と熱画像A上での位置を算出する。そして、当該算出結果及び検出対象物候補領域が有する画素データに関する検出対象物候補領域データを生成して距離計測部15に出力する。   Next, the region extraction unit 12 calculates the size (specifically, the width and height) of the detection target candidate region and the position on the thermal image A based on the pixel data included in the detection target candidate region. To do. Then, detection target candidate area data relating to the calculation result and pixel data included in the detection target candidate area is generated and output to the distance measuring unit 15.

物体検出装置1は、上述したステップS1〜ステップS2の処理を行う一方で、ステップS3〜ステップS4の処理を行う。即ち、ステップS3〜ステップS4にて、検出波出力部13は、車両Pの前方を所定の検出波でスキャニングして、当該検出波を反射する計測点領域を抽出する。   The object detection device 1 performs the processes in steps S1 to S2 while performing the processes in steps S3 to S4. That is, in step S3 to step S4, the detection wave output unit 13 scans the front of the vehicle P with a predetermined detection wave, and extracts a measurement point region that reflects the detection wave.

次いで、当該検出された計測点領域の大きさ、位置、及び反射強度を検出して、当該検出された大きさ、位置、及び反射強度に関する計測点領域データを生成する。次いで、当該生成された計測点領域データを保存用メモリ14に出力する。保存用メモリ14は、当該計測点領域データを保存する。   Next, the size, position, and reflection intensity of the detected measurement point area are detected, and measurement point area data relating to the detected size, position, and reflection intensity is generated. Next, the generated measurement point area data is output to the storage memory 14. The storage memory 14 stores the measurement point area data.

次いで、ステップS5にて、距離計測部15は、保存用メモリ14から計測点領域データを取得し、当該計測点領域データと、領域抽出部12から与えられた検出対象物候補領域データに基づいて、上述した処理により、計測点領域のうち、検出対象物候補領域に対応する計測点領域を同一候補領域として抽出する。   Next, in step S <b> 5, the distance measurement unit 15 acquires measurement point region data from the storage memory 14, and based on the measurement point region data and the detection target candidate region data given from the region extraction unit 12. Through the above-described processing, the measurement point area corresponding to the detection target candidate area is extracted as the same candidate area from the measurement point area.

次いで、当該同一候補領域として抽出された計測点領域データを同一候補領域データとして同一物体判定部16に出力する。さらに、検出対象物候補領域データを同一物体判定部16に出力する。   Next, the measurement point region data extracted as the same candidate region is output to the same object determination unit 16 as the same candidate region data. Further, the detection target candidate area data is output to the same object determination unit 16.

次いで、ステップS6にて、同一物体判定部16は、上述した処理により、検出対象物候補領域と同一候補領域とが互いに対応するかどうかを再度判定する。次いで、互いに対応すると判定された検出対象物候補領域データ及び同一候補領域データを対象物検出部17に出力する。   Next, in step S6, the same object determination unit 16 determines again whether or not the detection target object candidate region and the same candidate region correspond to each other by the above-described processing. Next, the detection object candidate area data and the same candidate area data determined to correspond to each other are output to the object detection unit 17.

次いで、ステップS7にて、対象物検出部17は、同一物体判定部16から与えられた検出対象物候補領域データ及び同一候補領域データに基づいて、上述した処理により、人物を検出する。   Next, in step S <b> 7, the target detection unit 17 detects a person by the above-described processing based on the detection target candidate region data and the same candidate region data given from the same object determination unit 16.

次いで、人物が検出された場合には、当該人物の位置を検出対象物候補領域データまたは同一候補領域データに基づいて算出し、当該算出された人物の位置に関する人物位置データを生成して検出結果出力部18に出力する。   Next, when a person is detected, the position of the person is calculated based on the detection object candidate area data or the same candidate area data, and the person position data relating to the calculated person position is generated and the detection result Output to the output unit 18.

次いで、ステップS8にて、検出結果出力部18は、上述した処理により、対象物検出部17から与えられた人物位置データの信頼性を判定する。この結果、信頼性が高いと判定された人物位置データを、当該人物位置データを必要とする装置に出力する。   Next, in step S8, the detection result output unit 18 determines the reliability of the person position data given from the object detection unit 17 by the above-described processing. As a result, the person position data determined to have high reliability is output to an apparatus that requires the person position data.

以上により、本第1の実施の形態では、物体検出装置1は、距離計測部15により算出された位置の動き、即ち、検出対象物候補領域の特徴量に基づいて算出された検出物体の動きが同一候補領域の動きに一致し、且つ、これらの動きが所定の範囲内であることを確認した上で、検出対象物候補領域の特徴量及び当該動きに基づいて、人物を検出する。   As described above, in the first embodiment, the object detection device 1 moves the position calculated by the distance measurement unit 15, that is, the detected object calculated based on the feature amount of the detection target candidate region. Are matched with the movements of the same candidate area and these movements are within a predetermined range, and then a person is detected based on the feature amount of the detection target candidate area and the movement.

したがって、人物と異なる検出物体で、且つ人物と同じ動きをする検出物体を人物として誤検出することがない。また、人物と同程度の大きさで、且つ人物と異なる動きをする検出物体を人物として誤検出することがない。よって、人物を確実に検出することができる。   Therefore, a detection object that is different from a person and that moves in the same manner as the person is not erroneously detected as a person. In addition, a detection object having the same size as a person and moving differently from the person is not erroneously detected as a person. Therefore, it is possible to reliably detect a person.

また、検出対象物候補領域の特徴量に基づいて算出された検出物体の動きが同一候補領域の動きに一致する場合、当該動きは検出対象物候補領域から検出される検出物体の動きに一致する。したがって、物体検出装置1は、実際の検出物体の動きに基づいて人物を検出することができるので、人物を正確に検出することができる。   In addition, when the motion of the detected object calculated based on the feature amount of the detection target candidate region matches the motion of the same candidate region, the motion matches the motion of the detected object detected from the detection target candidate region. . Therefore, the object detection apparatus 1 can detect a person based on the actual movement of the detection object, and thus can accurately detect the person.

(第2の実施の形態)
以下、本発明の第2の実施の形態図面に基づいて説明する。まず、図1、図6、図8、図17、及び図18に基づいて、本発明の一実施の形態に係る物体検出装置2の構成要素及び各構成要素の主な機能について説明する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. First, based on FIG. 1, FIG. 6, FIG. 8, FIG. 17, and FIG. 18, components of the object detection device 2 according to an embodiment of the present invention and main functions of each component will be described.

図17はカメラ10、レーザレーダ230、及びミリ波レーダ231の設置位置を示す側面図であり、図18は、カメラ10、レーザレーダ230、及びミリ波レーダ231の設置位置を示す平面図である。なお、図17〜図18に示すように、レーザレーダ230の先端部の点を原点、レーザレーダ230の中心軸と平行となる方向をz軸、z軸に垂直且つ路面に平行な方向をx軸、z軸及び路面に垂直な方向をy軸とする座標系が基準座標系となる。レーザレーダ230の中心軸は、レーザレーダ230の先端面の中心を通り、且つ、当該先端面に垂直な軸である。   FIG. 17 is a side view showing the installation positions of the camera 10, the laser radar 230, and the millimeter wave radar 231, and FIG. 18 is a plan view showing the installation positions of the camera 10, the laser radar 230, and the millimeter wave radar 231. . 17 to 18, the point at the tip of the laser radar 230 is the origin, the z-axis is the direction parallel to the central axis of the laser radar 230, and x is the direction perpendicular to the z-axis and parallel to the road surface. A coordinate system having the y-axis in the direction perpendicular to the axis, the z-axis, and the road surface is the reference coordinate system. The center axis of the laser radar 230 is an axis that passes through the center of the tip surface of the laser radar 230 and is perpendicular to the tip surface.

図1に示すように、物体検出装置2は、物体検出装置1の検出波出力部13、及び距離計測部15を検出波出力部23及び距離計測部25に換えたものである。   As shown in FIG. 1, the object detection device 2 is obtained by replacing the detection wave output unit 13 and the distance measurement unit 15 of the object detection device 1 with a detection wave output unit 23 and a distance measurement unit 25.

図1に示す検出波出力部23は、図17〜図18に示すように、レーザレーダ230及びミリ波レーダ231を備える。ここで、レーザレーダ230は、その光軸が路面及びカメラ10の光軸に平行になるように、車両Pの前部に設置される。同様に、ミリ波レーダ231は、その光軸が路面及びカメラ10の光軸に平行になるように、車両Pの前部に設置される。また、レーザレーダ230及びミリ波レーダ231は、これらの光軸がいずれもxy平面上に乗るようにして、上下方向に互いに異なる位置に設置される。   The detection wave output unit 23 shown in FIG. 1 includes a laser radar 230 and a millimeter wave radar 231 as shown in FIGS. Here, the laser radar 230 is installed at the front of the vehicle P so that its optical axis is parallel to the road surface and the optical axis of the camera 10. Similarly, the millimeter wave radar 231 is installed at the front portion of the vehicle P so that its optical axis is parallel to the road surface and the optical axis of the camera 10. Further, the laser radar 230 and the millimeter wave radar 231 are installed at different positions in the vertical direction so that these optical axes are all on the xy plane.

そして、検出波出力部23は、車両P前方をレーザ及びミリ波でスキャニングして、当該レーザまたはミリ波を反射する計測点領域を検出する。   The detection wave output unit 23 scans the front of the vehicle P with a laser and a millimeter wave, and detects a measurement point region that reflects the laser or the millimeter wave.

そして、当該検出された計測点領域の大きさ(具体的には、当該計測点領域の幅等)及び位置(具体的には、車両Pから計測点領域までのz方向距離及び方位)を検出する。また、計測点領域での検出波の反射強度を検出する。そして、当該検出された大きさ、位置、及び反射強度に関する計測点領域データを生成して、保存用メモリ14に出力する。   Then, the size (specifically, the width of the measurement point area, etc.) and the position (specifically, the z direction distance and direction from the vehicle P to the measurement point area) of the detected measurement point area are detected. To do. Further, the reflection intensity of the detection wave in the measurement point region is detected. Then, measurement point area data relating to the detected size, position, and reflection intensity is generated and output to the storage memory 14.

距離計測部25は、保存用メモリ14から計測点領域データを取得し、当該計測点領域データと、領域抽出部12から与えられた検出対象物候補領域データに基づいて、計測点領域のうち、検出対象物候補領域の位置算出に適し、且つ、検出対象物候補領域に対応する計測点領域を同一候補領域として抽出する。   The distance measurement unit 25 acquires measurement point region data from the storage memory 14, and based on the measurement point region data and the detection target candidate region data given from the region extraction unit 12, among the measurement point regions, A measurement point area that is suitable for calculating the position of the detection object candidate area and that corresponds to the detection object candidate area is extracted as the same candidate area.

具体的には、まず、検出対象物候補領域データに基づいて、距離計測部15と同様に、検出対象物候補領域から検出される検出物体のz方向距離及び方位、即ち位置を算出する。そして、当該算出された位置に関する位置データを検出対象物候補領域データに加える。   Specifically, first, similarly to the distance measurement unit 15, the z-direction distance and direction, that is, the position of the detected object detected from the detection target candidate area are calculated based on the detection target candidate area data. Then, position data regarding the calculated position is added to the detection target candidate area data.

また、当該算出されたz方向距離と、所定の基準距離とを比較する。この結果、当該算出されたz方向距離が基準距離よりも長い場合には、ミリ波レーダ231にて検出された計測点領域を検出対象物候補領域の位置算出に適するものと判定する。そして、当該ミリ波レーダ231にて検出された計測点領域から、検出対象物候補領域に対応する計測点領域、即ち、検出対象物候補領域の位置データに一致する位置データを有する計測点領域を同一候補領域として抽出する。   Further, the calculated z-direction distance is compared with a predetermined reference distance. As a result, when the calculated z-direction distance is longer than the reference distance, it is determined that the measurement point region detected by the millimeter wave radar 231 is suitable for calculating the position of the detection target candidate region. Then, from the measurement point area detected by the millimeter wave radar 231, a measurement point area corresponding to the detection target object candidate area, that is, a measurement point area having position data matching the position data of the detection target object candidate area is obtained. Extract as the same candidate area.

一方、z方向距離が基準距離以下となる場合、または、z方向距離が基準距離よりも大きくなるが、検出対象物候補領域が密集している場合には、レーザレーダ230にて検出された計測点領域データを検出対象物候補領域の位置算出に適するものと判定する。そして、当該レーザレーダ230にて検出された計測点領域から、検出対象物候補領域に対応する計測点領域を同一候補領域として抽出する。   On the other hand, when the z-direction distance is equal to or smaller than the reference distance, or when the z-direction distance is larger than the reference distance but the detection target candidate areas are dense, the measurement detected by the laser radar 230 is performed. It is determined that the point area data is suitable for calculating the position of the detection target object candidate area. Then, the measurement point area corresponding to the detection object candidate area is extracted as the same candidate area from the measurement point area detected by the laser radar 230.

そして、当該抽出された計測点領域に関する計測点領域データを同一候補領域データとして同一物体判定部16に出力する。さらに、検出対象物候補領域データを同一物体判定部16に出力する。   Then, the measurement point region data relating to the extracted measurement point region is output to the same object determination unit 16 as the same candidate region data. Further, the detection target candidate area data is output to the same object determination unit 16.

このように、抽出対象となる計測点領域の種類をz方向距離の大きさ等に応じて変更することとしたのは、以下の理由による。即ち、レーザは空気の影響を受けて減衰する一方、ミリ波は当該影響を受けない。したがって、レーザレーダ230の検出可能範囲は、ミリ波レーダ231の検出可能範囲よりも狭い。また、レーザレーダ230にて計測点領域を検出した場合、計測点領域のz方向距離が長くなると、当該計測点領域の反射強度が小さくなるので、計測点領域の信頼性は低くなる。   As described above, the reason why the type of the measurement point area to be extracted is changed according to the size of the distance in the z direction or the like is as follows. That is, the laser is attenuated by the influence of air, while the millimeter wave is not affected. Therefore, the detectable range of the laser radar 230 is narrower than the detectable range of the millimeter wave radar 231. Further, when the measurement point area is detected by the laser radar 230, when the distance in the z direction of the measurement point area is increased, the reflection intensity of the measurement point area is reduced, and thus the reliability of the measurement point area is lowered.

これに対し、ミリ波レーダ231にて計測点領域を検出した場合、計測点領域のz方向距離によらず、反射強度は一定以上の大きさとなる。このため、車両Pから前方の検出物体までのz方向距離が長く、レーザレーダ230では当該検出物体から計測点領域を検出できなかったり、計測点領域の信頼性が低くなる場合であっても、信頼性の高い計測点領域を検出することができる。したがって、z方向距離が長い場合、ミリ波により検出された計測点領域の信頼性の方が、レーザにより検出された計測点領域の信頼性よりも大きい。   On the other hand, when the measurement point area is detected by the millimeter wave radar 231, the reflection intensity becomes a certain level or more regardless of the distance in the z direction of the measurement point area. For this reason, even when the distance in the z direction from the vehicle P to the detection object ahead is long and the laser radar 230 cannot detect the measurement point area from the detection object or the reliability of the measurement point area is low, A highly reliable measurement point region can be detected. Therefore, when the z-direction distance is long, the reliability of the measurement point region detected by the millimeter wave is larger than the reliability of the measurement point region detected by the laser.

一方、ミリ波レーダ231は、ミリ波を僅かに反射する検出物体、例えば壁等からも計測点領域を検出する。また、計測点領域の反射強度はミリ波を反射する検出物体の種類によらない。したがって、例えば人物が壁に接近している場合には、計測点領域から人物を正確に検出することが困難となる。これに対し、レーザレーダ230は、レーザを僅かに反射する検出物体からは計測点領域データを検出しないので、例えば人物が壁に接近している場合であっても、人物のみから計測点領域を検出することができる。よって、検出対象物候補領域が密集している場合には、レーザにより検出された計測点領域の信頼性の方が、ミリ波により検出された計測点領域の信頼性よりも大きい。   On the other hand, the millimeter wave radar 231 detects the measurement point region from a detection object that slightly reflects the millimeter wave, such as a wall. Further, the reflection intensity in the measurement point region does not depend on the type of the detection object that reflects the millimeter wave. Therefore, for example, when a person is approaching a wall, it is difficult to accurately detect the person from the measurement point area. On the other hand, since the laser radar 230 does not detect the measurement point area data from the detection object that slightly reflects the laser, for example, even when the person is approaching the wall, the measurement point area is determined only from the person. Can be detected. Therefore, when the detection object candidate areas are dense, the reliability of the measurement point area detected by the laser is larger than the reliability of the measurement point area detected by the millimeter wave.

そこで、距離計測部25は、より信頼性の高い計測点領域データを同一候補領域データとするべく、上述したように、算出されたz方向距離の大きさ等に応じて抽出対象となる計測点領域データを変更することとした。   Therefore, the distance measurement unit 25, as described above, sets the measurement points to be extracted according to the calculated z-direction distance and the like so that the more reliable measurement point area data is the same candidate area data. It was decided to change the area data.

物体検出装置2による処理の手順は、物体検出装置1による処理の手順と同様であるので、説明を省略する。   Since the procedure of the process by the object detection device 2 is the same as the procedure of the process by the object detection device 1, the description thereof is omitted.

以上により、本第2の実施の形態では、距離計測部25は、計測点領域のうち、検出対象物候補領域に対応し、且つ、検出対象物候補領域の位置算出に適した(言い換えれば、信頼性がより高い)計測点領域を同一候補領域として抽出する。したがって、当該抽出された同一候補領域の動きは、第1の実施の形態よりも検出物体の実際の動きに近くなるので、距離計測部25により算出された位置の動きと同一候補領域の動きが一致する場合、当該算出された位置の動きは、検出物体の実際の動きにより近くなる。そして、物体検出装置2は、当該当該算出された動きに基づいて人物を検出するので、より正確に人物を検出することができる。   As described above, in the second embodiment, the distance measuring unit 25 corresponds to the detection target object candidate area in the measurement point area and is suitable for calculating the position of the detection target object candidate area (in other words, The measurement point area (which has higher reliability) is extracted as the same candidate area. Accordingly, the extracted motion of the same candidate region is closer to the actual motion of the detected object than in the first embodiment, and therefore the motion of the same candidate region is the same as the motion of the position calculated by the distance measuring unit 25. When they match, the movement of the calculated position becomes closer to the actual movement of the detected object. And since the object detection apparatus 2 detects a person based on the said calculated motion, it can detect a person more correctly.

(第3の実施の形態)
以下、本発明の第3の実施の形態図面に基づいて説明する。まず、図1、図19、及び図20に基づいて、本発明の一実施の形態に係る物体検出装置3の構成要素及び各構成要素の主な機能について説明する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described with reference to the drawings. First, based on FIG. 1, FIG. 19, and FIG. 20, components of the object detection device 3 according to an embodiment of the present invention and main functions of each component will be described.

図1は物体検出装置3の構成を示すブロック図であり、図19〜図20は、z方向距離と各種パラメタとの関係を示すグラフである。   FIG. 1 is a block diagram showing the configuration of the object detection device 3, and FIGS. 19 to 20 are graphs showing the relationship between the z-direction distance and various parameters.

図1に示すように、物体検出装置3は、物体検出装置1の対象物検出部17を対象物検出部(検出手段、記憶手段)37に換えたものである。また、本第3の実施の形態では、検出波出力部13はレーザレーダである。   As shown in FIG. 1, the object detection device 3 is obtained by replacing the object detection unit 17 of the object detection device 1 with an object detection unit (detection unit, storage unit) 37. In the third embodiment, the detection wave output unit 13 is a laser radar.

対象物検出部37は、検出対象物候補領域のうち、人物が検出される検出対象物領域の大きさと、当該人物から車両Pまでのz方向距離との関係を示す第1の人物対応データを記憶する。また、当該検出対象物領域が有する熱データ値と、当該人物から車両Pまでのz方向距離との関係を示す第2の人物対応データを記憶する。また、同一候補領域のうち、人物が検出される検出対象物領域が有する反射強度データ値(レーザの反射強度データ値)と、当該人物から車両Pまでのz方向距離との関係を示す第3の人物対応データを記憶する。   The object detection unit 37 includes first person correspondence data indicating the relationship between the size of the detection object area in which a person is detected in the detection object candidate areas and the distance in the z direction from the person to the vehicle P. Remember. Moreover, the 2nd person corresponding | compatible data which show the relationship between the thermal data value which the said detection object area | region has and the z direction distance from the said person to the vehicle P are memorize | stored. Further, in the same candidate area, the third is a relationship between the reflection intensity data value (laser reflection intensity data value) of the detection target area where the person is detected and the z-direction distance from the person to the vehicle P. The person correspondence data is stored.

図19(a)に、第1の人物対応データの内容を示すグラフ360を、図19(b)に、第2の人物対応データの内容を示すグラフ362を、図19(c)に、第3の人物対応データの内容を示すグラフ364を示す。   FIG. 19A shows a graph 360 showing the contents of the first person correspondence data, FIG. 19B shows a graph 362 showing the contents of the second person correspondence data, and FIG. 3 shows a graph 364 showing the contents of the three person correspondence data.

グラフ360に示されるように、z方向距離が長くなると、検出対象物領域は小さくなる。また、グラフ362に示されるように、z方向距離が長くなると、熱データ値は小さくなる。物体から放出される熱は空気中で減衰するためである。また、グラフ364に示されるように、z方向距離が長くなると、反射強度データ値は小さくなる。これは、レーザが空気中で減衰するためである。   As shown in the graph 360, as the z-direction distance increases, the detection target area decreases. Also, as shown in graph 362, the thermal data value decreases as the z-direction distance increases. This is because the heat released from the object is attenuated in the air. Further, as shown in the graph 364, the reflection intensity data value decreases as the z-direction distance increases. This is because the laser attenuates in the air.

なお、対象物検出部37に他の人物対応データを記憶させても良い。他の人物対応データとしては、例えば、検出対象物領域の幅と、当該人物から車両Pまでのz方向距離との関係を示すものや、検出対象物領域が有する反射強度データ値(ミリ波の反射強度データ値)と、当該人物から車両Pまでのz方向距離との関係を示すもの等がある。なお、対象物検出部37にミリ波レーダに関するグラフを記憶させる場合、検出波出力部13はミリ波レーダである必要がある。   Note that other person correspondence data may be stored in the object detection unit 37. Other person-corresponding data includes, for example, data indicating the relationship between the width of the detection target region and the distance in the z direction from the person to the vehicle P, or the reflection intensity data value (millimeter wave of the detection target region). And the like indicating the relationship between the reflection intensity data value) and the distance in the z direction from the person to the vehicle P. When the object detection unit 37 stores a graph relating to millimeter wave radar, the detection wave output unit 13 needs to be a millimeter wave radar.

また、対象物検出部37は、以下の処理を行う。即ち、対象物検出部17と同様に、時間の経過に応じて同一物体判定部16から複数与えられた検出対象物候補領域データ及び同一候補領域データに基づいて、検出対象物候補領域の特徴量及び同一候補領域の特徴量と、検出対象物候補領域から検出される検出物体の動きについて平均値を算出する。ここで、当該特徴量には、検出対象物候補領域から検出される検出物体の位置(車両Pから検出物体までのz方向距離等)、検出対象物候補領域の大きさ、検出対象物候補領域データが有する熱データ、及び同一候補領域データが有する反射強度が含まれる。そして、当該算出された平均値を、当該検出対象物候補領域の特徴量、同一候補領域の特徴量、及び検出物体の動きとする。   Moreover, the target object detection part 37 performs the following processes. That is, similar to the object detection unit 17, based on the detection object candidate area data and the same candidate area data given from the same object determination unit 16 over time, the feature amount of the detection object candidate area In addition, an average value is calculated for the feature amount of the same candidate region and the motion of the detected object detected from the detection target candidate region. Here, the feature amount includes the position of the detection object detected from the detection object candidate area (such as the distance in the z direction from the vehicle P to the detection object), the size of the detection object candidate area, and the detection object candidate area. The thermal data included in the data and the reflection intensity included in the same candidate area data are included. Then, the calculated average value is used as the feature amount of the detection target object candidate region, the feature amount of the same candidate region, and the motion of the detected object.

そして、当該検出対象物候補領域の特徴量、同一候補領域の特徴量、検出対象物候補領域から検出された検出物体の動き及び上述した人物対応データに基づいて、人物を検出する。   Then, a person is detected based on the feature amount of the detection target object candidate region, the feature amount of the same candidate region, the movement of the detected object detected from the detection target candidate region, and the person correspondence data described above.

具体的には、検出対象物候補領域の大きさを縦座標、検出対象物候補領域から検出される検出物体のz方向距離を横座標とする座標点が、グラフ360に乗るかどうかを判定する。例えば、z方向距離が距離z0から距離z1の範囲に含まれる場合、グラフ360のうち、距離z0から距離z1の範囲に対応するグラフ361に座標点が乗るかどうかを判定する。   Specifically, it is determined whether or not the coordinate point having the ordinate as the size of the detection object candidate area and the abscissa as the z-direction distance of the detected object detected from the detection object candidate area is on the graph 360. . For example, when the z-direction distance is included in the range from the distance z0 to the distance z1, it is determined whether or not the coordinate point is on the graph 361 corresponding to the range from the distance z0 to the distance z1 in the graph 360.

この結果、座標点がグラフ360に乗る場合、検出対象物候補領域が有する熱データ値を縦座標、検出物体のz方向距離を横座標とする座標点が、グラフ362に乗るかどうかを判定する。例えば、z方向距離が距離z0から距離z1の範囲に含まれる場合、グラフ362のうち、距離z0から距離z1の範囲に対応するグラフ363に座標点が乗るかどうかを判定する。   As a result, when the coordinate point is on the graph 360, it is determined whether or not the coordinate point having the thermal data value of the detection target candidate region as the ordinate and the abscissa as the z-direction distance of the detection object is on the graph 362. . For example, when the z-direction distance is included in the range from the distance z0 to the distance z1, whether or not the coordinate point is on the graph 363 corresponding to the range from the distance z0 to the distance z1 in the graph 362 is determined.

この結果、座標点がグラフ362に乗る場合、同一候補領域が有する反射強度データ値を縦座標、検出物体のz方向距離を横座標とする座標点が、グラフ364に乗るかどうかを判定する。例えば、z方向距離が距離z0から距離z1の範囲に含まれる場合、グラフ364のうち、距離z0から距離z1の範囲に対応するグラフ365に乗るかどうかを判定する。この結果、座標点がグラフ364に乗る場合には、さらに、上述した処理により算出された動きと人物の歩行速度とを比較する。この結果、これらが一致する場合には、検出対象物候補領域または同一候補領域から人物を検出する。   As a result, when the coordinate point is on the graph 362, it is determined whether or not a coordinate point having the reflection intensity data value of the same candidate region as the ordinate and the abscissa as the z-direction distance of the detected object is on the graph 364. For example, when the z-direction distance is included in the range from the distance z0 to the distance z1, it is determined whether or not the graph 365 corresponds to the graph 365 corresponding to the range from the distance z0 to the distance z1. As a result, when the coordinate point is on the graph 364, the movement calculated by the above-described process is compared with the walking speed of the person. As a result, if they match, a person is detected from the detection object candidate area or the same candidate area.

そして、対象物検出部37は、人物が検出された場合には、当該人物の位置を検出対象物候補領域データまたは同一候補領域データに基づいて算出し、当該算出された人物の位置に関する人物位置データを生成して検出結果出力部18に出力する。   Then, when a person is detected, the object detection unit 37 calculates the position of the person based on the detection object candidate area data or the same candidate area data, and the person position related to the calculated person position Data is generated and output to the detection result output unit 18.

物体検出装置3による処理の手順は、物体検出装置1による手順と同様であるので、説明を省略する。   The processing procedure by the object detection device 3 is the same as the procedure by the object detection device 1, and thus the description thereof is omitted.

以上により、第3の実施の形態では、物体検出装置3は、検出対象物候補領域の特徴量を示すパラメタ値(熱データ値や大きさ)を縦座標、検出対象物候補領域から検出される検出物体のz方向距離を横座標とする座標点がグラフ360、362に乗るか判定する。そして、座標点がグラフ360、362に乗る場合には、同一候補領域の特徴量を示すパラメタ値(反射強度データ値)を縦座標、同一候補領域のz方向距離を横座標とする座標点がグラフ364に乗るかどうかを判定する。この結果、座標点がグラフ364に乗る場合には、検出対象物候補領域から検出される動きに基づいて、人物を検出する。   As described above, in the third embodiment, the object detection device 3 detects the parameter value (thermal data value or size) indicating the feature amount of the detection target candidate region from the ordinate and the detection target candidate region. It is determined whether or not the coordinate points having the abscissa as the z-direction distance of the detected object are on the graphs 360 and 362. When the coordinate points are on the graphs 360 and 362, coordinate points having a parameter value (reflection intensity data value) indicating the feature amount of the same candidate area as the ordinate and a z-direction distance of the same candidate area as the abscissa are obtained. Whether to ride on the graph 364 is determined. As a result, when the coordinate point is on the graph 364, the person is detected based on the motion detected from the detection target candidate region.

ここで、グラフ360、362、364は、人物が検出される検出対象物領域と、z方向距離との関係を示すものである。したがって、物体検出装置3は、このような判定を行うことで、検出対象物候補領域及び同一候補領域から、検出対象物領域の特徴量を有しないもの、即ち、人物が検出されないものを確実に除外し、残りの検出対象物候補領域及び同一候補領域から人物を検出することができる。したがって、人物を確実に検出することができる。   Here, the graphs 360, 362, and 364 show the relationship between the detection target region in which a person is detected and the z-direction distance. Therefore, the object detection apparatus 3 performs such a determination to ensure that the detection target object area and the same candidate area do not have the feature amount of the detection target area, that is, the person is not detected. It is possible to exclude a person from the remaining detection object candidate area and the same candidate area. Therefore, it is possible to reliably detect a person.

なお、検出対象物領域の大きさから直ちにz方向距離が算出されるので(式(2)参照)、人物対応データ中のz方向距離を検出対象物領域の大きさとしても良い。   Since the z-direction distance is immediately calculated from the size of the detection target area (see Expression (2)), the z-direction distance in the person correspondence data may be used as the detection target area size.

また、検出対象物領域の大きさ、検出対象物領域が有する熱データ、及び検出対象物領域が有する反射強度データ値とz方向距離との関係は、人物の服装、年齢、身長、撮像時の環境(天候)等に応じて多少変動する。このため、上述した座標点がグラフ360、362、364に完全に乗らなくても、当該座標点に対応する検出対象物候補領域等から人物が検出される可能性がある。   In addition, the relationship between the size of the detection target area, the thermal data of the detection target area, and the reflection intensity data value of the detection target area and the distance in the z direction is determined by the person's clothes, age, height, It varies somewhat depending on the environment (weather). For this reason, even if the above-described coordinate points do not completely occupy the graphs 360, 362, and 364, there is a possibility that a person is detected from the detection object candidate region corresponding to the coordinate points.

したがって、対象物検出部37を以下のような構成としてもよい。即ち、図20に示すように、対象物検出部37に、上述した人物対応データの他、グラフ360、362、364の周辺領域360a〜365aを示す周辺領域対応データを記憶させる。そして、対象物検出部37は以下の処理を行う。即ち、検出対象物候補領域の大きさを縦座標、検出対象物候補領域から検出される検出物体のz方向距離を横座標とする座標点が、周辺領域360aに乗るかどうかを判定する。例えば、z方向距離が距離z0から距離z1の範囲に含まれる場合、周辺領域360aのうち、距離z0から距離z1の範囲に対応する周辺領域361aに座標点が乗るかどうかを判定する。   Therefore, the object detection unit 37 may be configured as follows. That is, as shown in FIG. 20, the object detection unit 37 stores peripheral area correspondence data indicating the peripheral areas 360a to 365a of the graphs 360, 362, and 364 in addition to the above-described person correspondence data. And the target object detection part 37 performs the following processes. That is, it is determined whether or not a coordinate point having the size of the detection target object region as the ordinate and the abscissa as the z-direction distance of the detected object detected from the detection target candidate region is on the peripheral region 360a. For example, when the z-direction distance is included in the range from the distance z0 to the distance z1, it is determined whether or not the coordinate point is on the peripheral area 361a corresponding to the range from the distance z0 to the distance z1 in the peripheral area 360a.

この結果、座標点が周辺領域360aに乗る場合、検出対象物候補領域データが有する熱データ値を縦座標、検出物体のz方向距離を横座標とする座標点が、周辺領域362aに乗るかどうかを判定する。例えば、z方向距離が距離z0から距離z1の範囲に含まれる場合、周辺領域362aのうち、距離z0から距離z1の範囲に対応する周辺領域363aに座標点が乗るかどうかを判定する。   As a result, when the coordinate point is on the peripheral region 360a, whether the coordinate point having the thermal data value of the detection target candidate region data as the ordinate and the abscissa as the z-direction distance of the detection object is on the peripheral region 362a. Determine. For example, when the z-direction distance is included in the range from the distance z0 to the distance z1, it is determined whether or not the coordinate point is on the peripheral area 363a corresponding to the range from the distance z0 to the distance z1 in the peripheral area 362a.

この結果、座標点が周辺領域362aに乗る場合、同一候補領域データが有する反射強度データ値を縦座標、検出物体のz方向距離を横座標とする座標点が、周辺領域364aに乗るかどうかを判定する。例えば、z方向距離が距離z0から距離z1の範囲に含まれる場合、周辺領域364aのうち、距離z0から距離z1の範囲に対応する周辺領域365aに乗るかどうかを判定する。この結果、座標点が周辺領域364aに乗る場合には、さらに、上述した処理により算出された動きと人物の歩行速度とを比較する。この結果、これらが一致する場合には、検出対象物候補領域または同一候補領域から人物を検出する。   As a result, when the coordinate point rides on the peripheral region 362a, whether or not the coordinate point having the reflection intensity data value of the same candidate region data as the ordinate and the abscissa as the z-direction distance of the detected object is on the peripheral region 364a. judge. For example, when the z-direction distance is included in the range from the distance z0 to the distance z1, it is determined whether the peripheral area 365a corresponding to the range from the distance z0 to the distance z1 is included in the peripheral area 364a. As a result, when the coordinate point is on the peripheral region 364a, the movement calculated by the above-described process is compared with the walking speed of the person. As a result, if they match, a person is detected from the detection object candidate area or the same candidate area.

これにより、座標点がグラフ360、362、364に完全には乗らないが、人物が検出される検出対象物候補領域を人物検出処理から除外しないようにすることができる。   Thereby, although the coordinate points do not completely ride on the graphs 360, 362, and 364, it is possible to prevent the detection target candidate area from which the person is detected from being excluded from the person detection process.

また、対象物検出部37が行う処理と同様の処理を距離計測部15に行わせてもよい。この場合、距離計測部15は、上述した処理と同様の処理により検出対象物候補領域データと同一候補領域データを生成する。その後、対象物検出部37が行う処理と同様の処理を行うことで、これら検出対象物候補領域データと同一候補領域データのうち、人物が検出される可能性のあるもののみ、同一物体判定部16に出力する。これにより、同一物体判定部16、対象物検出部37、及び検出結果出力部18による処理の対象となるデータが少なくなるので、物体検出装置3による処理が高速化される。   In addition, the distance measurement unit 15 may perform the same process as the process performed by the object detection unit 37. In this case, the distance measuring unit 15 generates the same candidate area data as the detection target candidate area data by the same process as described above. Thereafter, by performing the same process as the process performed by the target object detection unit 37, only the same candidate area data as the detection target object candidate area data that can detect a person is the same object determination unit. 16 is output. As a result, data to be processed by the same object determination unit 16, the object detection unit 37, and the detection result output unit 18 is reduced, so that the processing by the object detection device 3 is speeded up.

(第4の実施の形態)
以下、本発明の第3の実施の形態図面に基づいて説明する。まず、図1、及び図21に基づいて、本発明の一実施の形態に係る物体検出装置4の構成要素及び各構成要素の主な機能について説明する。
(Fourth embodiment)
Hereinafter, a third embodiment of the present invention will be described with reference to the drawings. First, based on FIG. 1 and FIG. 21, the components of the object detection device 4 according to an embodiment of the present invention and the main functions of each component will be described.

図1は物体検出装置4の構成を示すブロック図であり、図21は、z方向距離と各種パラメタとの関係を示すグラフである。   FIG. 1 is a block diagram showing the configuration of the object detection device 4, and FIG. 21 is a graph showing the relationship between the z-direction distance and various parameters.

図1に示すように、物体検出装置4は、物体検出装置1の対象物検出部17を対象物検出部(検出手段、記憶手段)47に換えたものである。また、本第4の実施の形態では、検出波出力部13はレーザレーダである。   As shown in FIG. 1, the object detection device 4 is obtained by replacing the object detection unit 17 of the object detection device 1 with an object detection unit (detection unit, storage unit) 47. In the fourth embodiment, the detection wave output unit 13 is a laser radar.

対象物検出部47は、対象物検出部37と同様に、第2〜第3の人物対応データを記憶する。   Similar to the object detection unit 37, the object detection unit 47 stores second to third person correspondence data.

ここで、図21(a)〜(b)に、第2の人物対応データの内容を示すグラフ460を、図21(c)〜(d)に、第3の人物対応データの内容を示すグラフ463を示す。   Here, FIGS. 21A to 21B show graphs 460 indicating the contents of the second person correspondence data, and FIGS. 21C to 21D show graphs showing the contents of the third person correspondence data. 463 is shown.

なお、対象物検出部47に他の人物対応データを記憶させても良い。他の人物対応データとしては、例えば、上述した第1の人物対応データの他、人物が検出される検出対象物領域の幅と、当該人物から車両Pまでのz方向距離との関係を示すものや、検出対象物領域が有する反射強度データ値(ミリ波の反射強度データ値)と、当該人物から車両Pまでのz方向距離との関係を示すもの等がある。なお、対象物検出部47にミリ波レーダに関するグラフを記憶させる場合、検出波出力部13はミリ波レーダである必要がある。   Note that other person correspondence data may be stored in the object detection unit 47. As other person-corresponding data, for example, in addition to the first person-corresponding data described above, the relationship between the width of the detection target area where a person is detected and the distance in the z direction from the person to the vehicle P is shown. In addition, there is a relationship between the reflection intensity data value (millimeter wave reflection intensity data value) of the detection target area and the z-direction distance from the person to the vehicle P. When the object detection unit 47 stores a graph related to millimeter wave radar, the detection wave output unit 13 needs to be a millimeter wave radar.

また、対象物検出部47は、以下の処理を行う。即ち、対象物検出部17と同様に、検出対象物候補領域の特徴量及び同一候補領域の特徴量と、検出対象物候補領域から検出される検出物体の動きについて平均値を算出する。ここで、当該特徴量には、検出対象物候補領域から検出される検出物体の位置(車両Pから検出物体までのz方向距離等)、検出対象物候補領域の大きさ、検出対象物候補領域が有する熱データ、及び同一候補領域が有する反射強度が含まれる。そして、当該算出された平均値を、当該検出対象物候補領域の特徴量、同一候補領域の特徴量、及び検出物体の動きとする。   The object detection unit 47 performs the following processing. That is, similar to the object detection unit 17, the average value is calculated for the feature amount of the detection target candidate region, the feature amount of the same candidate region, and the motion of the detected object detected from the detection target candidate region. Here, the feature amount includes the position of the detection object detected from the detection object candidate area (such as the distance in the z direction from the vehicle P to the detection object), the size of the detection object candidate area, and the detection object candidate area. And the reflection intensity of the same candidate region are included. Then, the calculated average value is used as the feature amount of the detection target object candidate region, the feature amount of the same candidate region, and the motion of the detected object.

そして、当該処理を複数回行って、検出物体のz方向距離の動きに伴う熱データ値の動きを示す第1の物体対応データと、検出物体のz方向距離の動きに伴う反射強度データ値の動きを示す第2の物体対応データと、を生成する。   Then, the processing is performed a plurality of times, the first object correspondence data indicating the movement of the thermal data value associated with the movement of the detected object in the z direction distance, and the reflection intensity data value associated with the movement of the detected object in the z direction distance. Second object correspondence data indicating movement is generated.

そして、当該生成された第1〜第2の物体対応データと、第2〜第3の人物対応データに基づいて、人物を検出する。   Then, a person is detected based on the generated first to second object correspondence data and second to third person correspondence data.

具体的には、対象物検出部47は、第1の物体対応データで示される関係と第2の人物対応データで示される関係とが一致するかどうかを判定する。一致する場合の例を図21(a)に、一致しない場合の例を図21(b)に示す。グラフ460は、第2の人物対応データの内容を、グラフ461〜462は、第1の物体対応データの内容を示す。   Specifically, the object detection unit 47 determines whether or not the relationship indicated by the first object correspondence data matches the relationship indicated by the second person correspondence data. FIG. 21A shows an example in the case of coincidence, and FIG. 21B shows an example in the case of no coincidence. A graph 460 shows the content of the second person correspondence data, and graphs 461 to 462 show the content of the first object correspondence data.

この結果、一致する場合には、第2の物体対応データで示される関係と第3の人物対応データで示される関係とが一致するかどうかを判定する。一致する場合の例を図21(c)に、一致しない場合の例を図21(d)に示す。グラフ463は、第3の人物対応データの内容を、グラフ464〜465は、第2の物体対応データの内容を示す。   As a result, if they match, it is determined whether or not the relationship indicated by the second object correspondence data matches the relationship indicated by the third person correspondence data. FIG. 21C shows an example in the case of coincidence, and FIG. 21D shows an example in the case of no coincidence. The graph 463 shows the content of the third person correspondence data, and the graphs 464 to 465 show the content of the second object correspondence data.

この結果、一致する場合には、上述した処理により算出された動きと人物の歩行速度とを比較する。この結果、これらが一致する場合には、検出対象物候補領域または同一候補領域から人物を検出する。   As a result, if they match, the movement calculated by the above-described process is compared with the walking speed of the person. As a result, if they match, a person is detected from the detection object candidate area or the same candidate area.

そして、対象物検出部47は、人物が検出された場合には、当該人物の位置を検出対象物候補領域データまたは同一候補領域データに基づいて算出し、当該算出された人物の位置に関する人物位置データを生成して検出結果出力部18に出力する。   Then, when a person is detected, the object detection unit 47 calculates the position of the person based on the detection object candidate area data or the same candidate area data, and the person position related to the calculated person position Data is generated and output to the detection result output unit 18.

物体検出装置4による処理の手順は、物体検出装置1による手順と同様であるので、説明を省略する。   The processing procedure by the object detection device 4 is the same as the procedure by the object detection device 1, and thus the description thereof is omitted.

以上により、第4の実施の形態では、物体検出装置4は、検出物体のz方向距離の動きに伴う熱データ値の動き(即ち、第1の物体対応データで示される関係)、及び、検出物体のz方向距離の動きに伴う反射強度データ値の動き(即ち、第2の物体対応データで示される関係)が、上述した第2〜第3の人物対応データに示される関係に一致するかどうかを判定する。そして、一致する場合には、検出物体の動きの特徴量に基づいて、検出対象物候補領域または同一候補領域から人物を検出する。したがって、検出対象物候補領域及び同一候補領域が検出対象物領域と同様の特徴量を有するかどうかを、第3の実施の形態よりも確実に判定することができる。言い換えれば、人物が検出されない検出対象物候補領域及び同一候補領域を第3の実施の形態よりも確実に除外した上で、残りの検出対象物候補領域及び同一候補領域から人物を検出することができる。   As described above, in the fourth embodiment, the object detection device 4 detects the movement of the thermal data value accompanying the movement of the detected object in the z-direction distance (that is, the relationship indicated by the first object correspondence data) and the detection. Whether the movement of the reflection intensity data value accompanying the movement of the distance in the z direction of the object (that is, the relationship indicated by the second object correspondence data) matches the relationship indicated by the second to third person correspondence data described above. Determine if. If they match, a person is detected from the detection target object candidate area or the same candidate area based on the feature quantity of the motion of the detected object. Therefore, it can be determined more reliably than the third embodiment whether or not the detection target object region and the same candidate region have the same feature amount as the detection target region. In other words, the detection target candidate area and the same candidate area in which no person is detected can be more reliably excluded than in the third embodiment, and then a person can be detected from the remaining detection target candidate areas and the same candidate area. it can.

また、検出対象物候補領域の特徴量等を複数算出して、物体対応データを生成するので、当該特徴量等にノイズが含まれていても、物体検出装置4は、物体対応データで示される関係と人物対応データで示される関係とが一致するかどうかを正確に判定することができる。   In addition, since the object correspondence data is generated by calculating a plurality of feature amounts and the like of the detection target candidate region, the object detection device 4 is indicated by the object correspondence data even if the feature amount or the like includes noise. It is possible to accurately determine whether the relationship matches the relationship indicated by the person correspondence data.

(第5の実施の形態)
以下、本発明の第5の実施の形態図面に基づいて説明する。まず、図1、及び図22に基づいて、本発明の一実施の形態に係る物体検出装置5の構成要素及び各構成要素の主な機能について説明する。
(Fifth embodiment)
Hereinafter, a fifth embodiment of the present invention will be described with reference to the drawings. First, based on FIG. 1 and FIG. 22, components of the object detection device 5 according to one embodiment of the present invention and main functions of each component will be described.

図1は物体検出装置5の構成を示すブロック図であり、図22は、z方向距離と各種パラメタとの関係を示すグラフである。   FIG. 1 is a block diagram showing the configuration of the object detection device 5, and FIG. 22 is a graph showing the relationship between the z-direction distance and various parameters.

図1に示すように、物体検出装置5は、物体検出装置1の検出波出力部13及び対象物検出部17を検出波出力部23及び対象物検出部(検出手段、記憶手段)57に換えたものである。   As shown in FIG. 1, the object detection device 5 replaces the detection wave output unit 13 and the object detection unit 17 of the object detection device 1 with a detection wave output unit 23 and an object detection unit (detection unit, storage unit) 57. It is a thing.

対象物検出部57は、上述した第1〜第3の人物対応データの他、人物が検出される検出対象物領域が有する反射強度データ値(ミリ波の反射強度データ値)と、当該人物から車両Pまでのz方向距離との関係を示す第4の人物対応データを記憶する。   In addition to the first to third person correspondence data described above, the object detection unit 57 includes a reflection intensity data value (millimeter wave reflection intensity data value) included in a detection object area in which a person is detected, and the person. 4th person corresponding | compatible data which show the relationship with the z direction distance to the vehicle P are memorize | stored.

図22(a)に、第4の人物対応データの内容を示すグラフ560を、図22(b)に、第3の人物対応データの内容を示すグラフ560を示す。なお、グラフ560は、ミリ波レーダの検出可能距離は距離zMRdから距離zMRuまでであり、レーザレーダの検出可能距離は距離zLRdから距離zLRuまでであることを示す。第2の実施の形態で説明したように、距離zMRuは、距離zLRuよりも長い。   FIG. 22A shows a graph 560 showing the contents of the fourth person correspondence data, and FIG. 22B shows a graph 560 showing the contents of the third person correspondence data. The graph 560 indicates that the detectable distance of the millimeter wave radar is from the distance zMRd to the distance zMRu, and the detectable distance of the laser radar is from the distance zLRd to the distance zLRu. As described in the second embodiment, the distance zMRu is longer than the distance zLRu.

また、対象物検出部57は、第1〜第4の人物対応データの他、上述した周辺領域(例えば、図22に示す周辺領域560a〜561a)を示す周辺領域対応データも記憶する。   In addition to the first to fourth person correspondence data, the object detection unit 57 also stores peripheral region correspondence data indicating the above-described peripheral regions (for example, the peripheral regions 560a to 561a shown in FIG. 22).

なお、対象物検出部57に他の人物対応データを記憶させても良い。他の人物対応データとしては、例えば、人物が検出される検出対象物領域の幅と、当該人物から車両Pまでのz方向距離との関係を示すものがある。   It should be noted that other person correspondence data may be stored in the object detection unit 57. Other person-corresponding data includes, for example, a relationship between the width of a detection target area where a person is detected and the z-direction distance from the person to the vehicle P.

これら第1〜第4の人物対応データ及び周辺領域対応データの信頼性は、検出対象物候補領域から検出される検出物体の位置に応じて異なる。   The reliability of the first to fourth person correspondence data and the peripheral region correspondence data varies depending on the position of the detected object detected from the detection target candidate region.

例えば、検出物体のz方向距離がレーザレーダの検出可能距離に含まれる場合、第3の人物対応データの信頼性は第4の人物対応データの信頼性よりも大きくなる。第2の実施の形態で説明したように、レーザの反射強度データ値は物体の種類に応じて異なるので、この場合、第3の人物対応データが示す反射強度データ値は、人物の反射強度データ値に一致する一方、他の物体の反射強度データ値と異なるからである。一方、検出物体のz方向距離がレーザレーダの検出可能距離に含まれない場合、第3の人物対応データの信頼性は第4の人物対応データの信頼性よりも小さくなる。この場合、第3の人物対応データは、対応する反射強度データ値を有しないからである。   For example, when the z-direction distance of the detection object is included in the detectable distance of the laser radar, the reliability of the third person correspondence data is greater than the reliability of the fourth person correspondence data. As described in the second embodiment, the reflection intensity data value of the laser differs depending on the type of the object. In this case, the reflection intensity data value indicated by the third person correspondence data is the reflection intensity data of the person. This is because the values match the values but differ from the reflection intensity data values of other objects. On the other hand, when the z-direction distance of the detected object is not included in the detectable distance of the laser radar, the reliability of the third person correspondence data is smaller than the reliability of the fourth person correspondence data. This is because the third person correspondence data does not have a corresponding reflection intensity data value.

また、検出物体がミリ波レーダの画角やレーザレーダの画角の端に存在する場合、第3〜第4の人物対応データの信頼性は、第1〜第2の人物対応データの信頼性よりも小さくなる。この場合、同一候補領域の反射強度データ値は正確に検出されていないので、第3〜第4の人物対応データを用いて後述する判定処理を行っても、正確な判定を行うことができないからである。   Further, when the detected object is present at the end of the field angle of the millimeter wave radar or the laser radar, the reliability of the third to fourth person correspondence data is the reliability of the first to second person correspondence data. Smaller than. In this case, since the reflection intensity data value of the same candidate area is not accurately detected, even if the determination process described later is performed using the third to fourth person correspondence data, accurate determination cannot be performed. It is.

また、対象物検出部57は、以下の処理を行う。即ち、対象物検出部17と同様に、時間の経過に応じて同一物体判定部16から複数与えられた検出対象物候補領域データ及び同一候補領域データに基づいて、検出対象物候補領域の特徴量及び同一候補領域の特徴量と、検出対象物候補領域から検出される検出物体の動きについて平均値を算出する。ここで、当該特徴量には、検出物体の位置(車両Pから検出物体までのz方向距離等)、検出対象物候補領域の大きさ、検出対象物候補領域データが有する熱データ、及び同一候補領域データが有する反射強度が含まれる。そして、当該算出された平均値を、当該検出対象物候補領域の特徴量、同一候補領域の特徴量、及び検出物体の動きとする。   Moreover, the target object detection part 57 performs the following processes. That is, similar to the object detection unit 17, based on the detection object candidate area data and the same candidate area data given from the same object determination unit 16 over time, the feature amount of the detection object candidate area In addition, an average value is calculated for the feature amount of the same candidate region and the motion of the detected object detected from the detection target candidate region. Here, the feature amount includes the position of the detected object (such as the distance in the z direction from the vehicle P to the detected object), the size of the detection target object candidate area, the thermal data of the detection target object candidate area data, and the same candidate The reflection intensity of the area data is included. Then, the calculated average value is used as the feature amount of the detection target object candidate region, the feature amount of the same candidate region, and the motion of the detected object.

そして、当該算出された検出物体の位置に応じた対応データ(信頼性が高い対応データ)を取得し、当該対応データと、検出対象物候補領域の特徴量、同一候補領域の特徴量、及び検出物体の動きに基づいて、対象物検出部37と同様の判定処理を行って、人物を検出する。   Then, correspondence data (corresponding data with high reliability) corresponding to the calculated position of the detected object is acquired, and the correspondence data, the feature amount of the detection target candidate region, the feature amount of the same candidate region, and the detection Based on the movement of the object, a determination process similar to that of the object detection unit 37 is performed to detect a person.

以上により、第5の実施の形態では、物体検出装置5は、検出物体の位置に応じた対応データを取得し、この対応データに基づいて、対象物検出部37と同様の判定処理を行う。したがって、検出対象物候補領域及び同一候補領域が検出対象物領域と同様の特徴量を有するかどうかを、第3の実施の形態よりも確実に判定することができる。言い換えれば、人物が検出されない検出対象物候補領域及び同一候補領域を第3の実施の形態よりも確実に除外した上で、残りの検出対象物候補領域及び同一候補領域から人物を検出することができる。   As described above, in the fifth embodiment, the object detection device 5 acquires the correspondence data corresponding to the position of the detected object, and performs the same determination process as that of the object detection unit 37 based on the correspondence data. Therefore, it can be determined more reliably than the third embodiment whether or not the detection target object region and the same candidate region have the same feature amount as the detection target region. In other words, the detection target candidate area and the same candidate area in which no person is detected can be more reliably excluded than in the third embodiment, and then a person can be detected from the remaining detection target candidate areas and the same candidate area. it can.

なお、上述した第1〜第5の実施の形態に記載の技術を互いに組み合わせることができるのはもちろんである。   Needless to say, the techniques described in the first to fifth embodiments can be combined with each other.

また、第1〜第5の実施の形態では、検出対象物として人物を検出することとしたが、他の検出物体、例えば道路構造物を検出するようにしてもよい。   In the first to fifth embodiments, a person is detected as a detection target. However, other detection objects such as road structures may be detected.

本発明の一実施の形態に係る物体検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object detection apparatus which concerns on one embodiment of this invention. カメラや検出波出力部の設置位置を示した側面図である。It is the side view which showed the installation position of a camera and a detection wave output part. カメラや検出波出力部の設置位置を示した平面図である。It is the top view which showed the installation position of a camera and a detection wave output part. カメラにより取得される熱画像の一例を示す説明図である。It is explanatory drawing which shows an example of the thermal image acquired with a camera. カメラにより取得される熱画像の一例を示す説明図である。It is explanatory drawing which shows an example of the thermal image acquired with a camera. レーザレーダにより検出される計測点領域の一例を示す平面図である。It is a top view which shows an example of the measurement point area | region detected by a laser radar. カメラにより取得される熱画像の一例を示す説明図である。It is explanatory drawing which shows an example of the thermal image acquired with a camera. ミリ波レーダにより検出される計測点領域の一例を示す平面図である。It is a top view which shows an example of the measurement point area | region detected by a millimeter wave radar. カメラにより取得される熱画像の一例を示す説明図である。It is explanatory drawing which shows an example of the thermal image acquired with a camera. カメラレンズと人物との位置関係を示す平面図である。It is a top view which shows the positional relationship of a camera lens and a person. カメラにより取得される熱画像の一例を示す説明図である。It is explanatory drawing which shows an example of the thermal image acquired with a camera. カメラレンズと人物との位置関係を示す側面図である。It is a side view which shows the positional relationship of a camera lens and a person. カメラにより取得される熱画像の一例を示す説明図である。It is explanatory drawing which shows an example of the thermal image acquired with a camera. カメラと人物との位置関係を示す側面図である。It is a side view which shows the positional relationship of a camera and a person. カメラにより取得される熱画像の一例を示す説明図である。It is explanatory drawing which shows an example of the thermal image acquired with a camera. 物体検出装置による処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process by an object detection apparatus. カメラや検出波出力部の設置位置を示した側面図である。It is the side view which showed the installation position of a camera and a detection wave output part. カメラや検出波出力部の設置位置を示した平面図である。It is the top view which showed the installation position of a camera and a detection wave output part. (a) 検出対象物領域の大きさとz方向距離との関係を示すグラフである。 (b) 熱データ値とz方向距離との関係を示すグラフである。 (c) 反射強度データ値とz方向距離との関係を示すグラフである。(A) It is a graph which shows the relationship between the magnitude | size of a detection target object area | region, and z direction distance. (B) It is a graph which shows the relationship between a thermal data value and z direction distance. (C) It is a graph which shows the relationship between a reflection intensity data value and z direction distance. (a) 検出対象物領域の大きさとz方向距離との関係を示すグラフである。 (b) 熱データ値とz方向距離との関係を示すグラフである。 (c) 反射強度データ値とz方向距離との関係を示すグラフである。(A) It is a graph which shows the relationship between the magnitude | size of a detection target object area | region, and z direction distance. (B) It is a graph which shows the relationship between a thermal data value and z direction distance. (C) It is a graph which shows the relationship between a reflection intensity data value and z direction distance. (a) 熱データ値とz方向距離との関係を示すグラフである。 (b) 熱データ値とz方向距離との関係を示すグラフである。 (c) 反射強度データ値とz方向距離との関係を示すグラフである。 (d) 反射強度データ値とz方向距離との関係を示すグラフである。(A) It is a graph which shows the relationship between a thermal data value and z direction distance. (B) It is a graph which shows the relationship between a thermal data value and z direction distance. (C) It is a graph which shows the relationship between a reflection intensity data value and z direction distance. (D) It is a graph which shows the relationship between a reflection intensity data value and z direction distance. (a) ミリ波による反射強度データ値とz方向距離との関係を示すグラフである。 (b) レーザによる反射強度データ値とz方向距離との関係を示すグラフである。(A) It is a graph which shows the relationship between the reflection intensity data value by a millimeter wave, and z direction distance. (B) It is a graph which shows the relationship between the reflection intensity data value by a laser, and z direction distance.

符号の説明Explanation of symbols

1〜5…物体検出装置
10…カメラ(画像取得手段)
11…画像メモリ
12…領域抽出部(領域抽出手段)
13、23…検出波出力部(検出波出力手段)
14…保存用メモリ
15、25…距離計測部(位置算出手段、位置抽出手段)
16…同一物体判定部
17、37、47…対象物検出部(検出手段、記憶手段)
18…検出結果出力部
1-5 ... Object detection device 10 ... Camera (image acquisition means)
DESCRIPTION OF SYMBOLS 11 ... Image memory 12 ... Area extraction part (area extraction means)
13, 23 ... Detection wave output unit (detection wave output means)
14 ... Memory for storage 15, 25 ... Distance measuring unit (position calculating means, position extracting means)
16: Same object determination unit 17, 37, 47 ... Object detection unit (detection unit, storage unit)
18 ... Detection result output section

Claims (6)

車両に搭載される物体検出装置において、
前記車両周辺を観測して、前記車両周辺の熱データを有する画像を取得する画像取得手段と、
前記画像から、人物の熱データを有する検出対象物候補領域を抽出する領域抽出手段と、
前記検出対象物候補領域の位置及び大きさのうち、少なくとも一方に基づいて、当該検出対象物候補領域から検出される検出物体の位置を算出する位置算出手段と、
前記車両の周辺を所定の検出波でスキャニングして、当該検出波を反射する計測点領域を検出し、且つ、当該検出された計測点領域の位置を検出する検出波出力手段と、
前記計測点領域のうち、前記検出対象物候補領域から検出される検出物体の位置と同じ位置に存在する計測点領域を同一候補領域として抽出する位置抽出手段と、
前記検出対象物候補領域から検出される検出物体の幅が、前記同一候補領域の幅に一致し、前記検出対象物候補領域の特徴量が、人物の特徴量に一致し、且つ、前記位置算出手段により算出された位置の動きまたは前記同一候補領域の位置の動きのうち、少なくとも一方が人物の歩行速度に一致する場合には、前記検出対象物候補領域または前記同一候補領域から人物を検出する検出手段と、
人物の位置と、前記検出対象物候補領域のうち、人物が検出される検出対象物領域の大きさとの関係を示す第1の対応データと、人物の位置と、前記検出対象物候補領域のうち、人物が検出される検出対象物領域の熱データ値との関係を示す第2の対応データと、人物の位置と、前記同一候補領域のうち、人物が検出される検出対象物領域の反射強度データ値との関係を示す第3の対応データと、を記憶する記憶手段と、を備え、
前記特徴量は、熱データ及び縦横比のうち、少なくとも一方であり、
前記検出手段は、前記検出対象物候補領域から検出される検出物体の幅が、前記同一候補領域の幅に一致する場合には、前記検出対象物候補領域の大きさと、前記検出対象物候補領域から検出される検出物体の位置との関係が、前記第1の対応データに一致するかどうかの一致判定を行い、一致する場合には、前記検出対象物候補領域の熱データ値と、前記検出対象物候補領域から検出される検出物体の位置との関係が、前記第2の対応データに一致するかどうかの一致判定を行い、一致する場合には、前記同一候補領域の反射強度データ値と、前記検出対象物候補領域から検出される検出物体の位置との関係が、前記第3の対応データに一致するかどうかの一致判定を行い、一致する場合には、前記位置算出手段により算出された位置の動きまたは前記同一候補領域の位置の動きのうち、少なくとも一方が人物の歩行速度に一致するかどうかを判定し、一致する場合には、前記検出対象物候補領域または前記同一候補領域から人物を検出することを特徴とする物体検出装置。
In an object detection device mounted on a vehicle,
Image acquisition means for observing the vehicle periphery and acquiring an image having thermal data around the vehicle;
A region extraction means for extracting a detection object candidate region having thermal data of a person from the image;
Position calculating means for calculating the position of the detected object detected from the detection target candidate region based on at least one of the position and size of the detection target candidate region;
A detection wave output means for scanning the periphery of the vehicle with a predetermined detection wave, detecting a measurement point region that reflects the detection wave, and detecting a position of the detected measurement point region;
Position extraction means for extracting, as the same candidate area, a measurement point area existing at the same position as the position of the detected object detected from the detection target object area, among the measurement point areas;
The width of the detected object detected from the detection target object candidate region matches the width of the same candidate region, the feature amount of the detection target candidate region matches the feature amount of a person, and the position calculation When at least one of the position movement calculated by the means or the position movement of the same candidate area matches the walking speed of the person, a person is detected from the detection target candidate area or the same candidate area. Detection means;
Of the first correspondence data indicating the relationship between the position of the person and the size of the detection target area in which the person is detected among the detection target candidate areas, the position of the person, and the detection target candidate area The second correspondence data indicating the relationship with the thermal data value of the detection target area where the person is detected, the position of the person, and the reflection intensity of the detection target area where the person is detected among the same candidate areas Storage means for storing third corresponding data indicating a relationship with the data value,
The feature amount is at least one of thermal data and an aspect ratio,
When the width of the detected object detected from the detection target candidate area matches the width of the same candidate area, the detection means determines the size of the detection target candidate area and the detection target candidate area. A determination is made as to whether or not the relationship between the position of the detected object detected from the data matches the first corresponding data, and if it matches, the thermal data value of the detection object candidate region and the detection A determination is made as to whether or not the relationship between the position of the detected object detected from the object candidate area matches the second corresponding data, and if it matches, the reflection intensity data value of the same candidate area Then, a determination is made as to whether or not the relationship with the position of the detected object detected from the detection object candidate region matches the third corresponding data, and if it matches, it is calculated by the position calculation means. Movement of the position Or of the movement of the position of the same candidate region, it is determined whether at least one of which coincides with the walking speed of a person, if they match, detects the person from the detection target object candidate region or the same candidate region An object detection apparatus characterized by that.
車両に搭載される物体検出装置において、
前記車両周辺を観測して、前記車両周辺の熱データを有する画像を取得する画像取得手段と、
前記画像から、人物の熱データを有する検出対象物候補領域を抽出する領域抽出手段と、
前記検出対象物候補領域の位置及び大きさのうち、少なくとも一方に基づいて、当該検出対象物候補領域から検出される検出物体の位置を算出する位置算出手段と、
前記車両の周辺を所定の検出波でスキャニングして、当該検出波を反射する計測点領域を検出し、且つ、当該検出された計測点領域の位置を検出する検出波出力手段と、
前記計測点領域のうち、前記検出対象物候補領域から検出される検出物体の位置と同じ位置に存在する計測点領域を同一候補領域として抽出する位置抽出手段と、
前記検出対象物候補領域から検出される検出物体の幅が、前記同一候補領域の幅に一致し、前記検出対象物候補領域の特徴量が、人物の特徴量に一致し、且つ、前記位置算出手段により算出された位置の動きまたは前記同一候補領域の位置の動きのうち、少なくとも一方が人物の歩行速度に一致する場合には、前記検出対象物候補領域または前記同一候補領域から人物を検出する検出手段と、
人物の位置と、前記検出対象物候補領域のうち、人物が検出される検出対象物領域の大きさとの関係を示す第1の対応データと、人物の位置と、前記検出対象物候補領域のうち、人物が検出される検出対象物領域の熱データ値との関係を示す第2の対応データと、人物の位置と、前記同一候補領域のうち、人物が検出される検出対象物領域の反射強度データ値との関係を示す第3の対応データと、を記憶する記憶手段と、を備え、
前記特徴量は、熱データ及び縦横比のうち、少なくとも一方であり、
前記検出波出力手段は、検出可能範囲が互いに異なる複数の検出波で前記車両の周辺をスキャニングし、前記計測点領域及び当該計測点領域の位置を検出波毎に検出し、
前記位置抽出手段は、前記計測点領域のうち、前記検出対象物候補領域から検出される検出物体の位置と同じ位置に存在し、且つ、信頼性が最も高い計測点領域を同一候補領域として抽出し、
前記検出手段は、前記検出対象物候補領域から検出される検出物体の幅が、前記同一候補領域の幅に一致する場合には、前記検出対象物候補領域の大きさと、前記検出対象物候補領域から検出される検出物体の位置との関係が、前記第1の対応データに一致するかどうかの一致判定を行い、一致する場合には、前記検出対象物候補領域の熱データ値と、前記検出対象物候補領域から検出される検出物体の位置との関係が、前記第2の対応データに一致するかどうかの一致判定を行い、一致する場合には、前記同一候補領域の反射強度データ値と、前記検出対象物候補領域から検出される検出物体の位置との関係が、前記第3の対応データに一致するかどうかの一致判定を行い、一致する場合には、前記位置算出手段により算出された位置の動きまたは前記同一候補領域の位置の動きのうち、少なくとも一方が人物の歩行速度に一致するかどうかを判定し、一致する場合には、前記検出対象物候補領域または前記同一候補領域から人物を検出することを特徴とする物体検出装置。
In an object detection device mounted on a vehicle,
Image acquisition means for observing the vehicle periphery and acquiring an image having thermal data around the vehicle;
A region extraction means for extracting a detection object candidate region having thermal data of a person from the image;
Position calculating means for calculating the position of the detected object detected from the detection target candidate region based on at least one of the position and size of the detection target candidate region;
A detection wave output means for scanning the periphery of the vehicle with a predetermined detection wave, detecting a measurement point region that reflects the detection wave, and detecting a position of the detected measurement point region;
Position extraction means for extracting, as the same candidate area, a measurement point area existing at the same position as the position of the detected object detected from the detection target object area, among the measurement point areas;
The width of the detected object detected from the detection target object candidate region matches the width of the same candidate region, the feature amount of the detection target candidate region matches the feature amount of a person, and the position calculation When at least one of the position movement calculated by the means or the position movement of the same candidate area matches the walking speed of the person, a person is detected from the detection target candidate area or the same candidate area. Detection means;
Of the first correspondence data indicating the relationship between the position of the person and the size of the detection target area in which the person is detected among the detection target candidate areas, the position of the person, and the detection target candidate area The second correspondence data indicating the relationship with the thermal data value of the detection target area where the person is detected, the position of the person, and the reflection intensity of the detection target area where the person is detected among the same candidate areas Storage means for storing third corresponding data indicating a relationship with the data value,
The feature amount is at least one of thermal data and an aspect ratio,
The detection wave output means scans the periphery of the vehicle with a plurality of detection waves having different detectable ranges, and detects the measurement point region and the position of the measurement point region for each detection wave,
The position extracting means extracts a measurement point area having the highest reliability, which is present at the same position as the position of the detected object detected from the detection target candidate area, as the same candidate area. And
When the width of the detected object detected from the detection target candidate area matches the width of the same candidate area, the detection means determines the size of the detection target candidate area and the detection target candidate area. A determination is made as to whether or not the relationship between the position of the detected object detected from the data matches the first corresponding data, and if it matches, the thermal data value of the detection object candidate region and the detection A determination is made as to whether or not the relationship between the position of the detected object detected from the object candidate area matches the second corresponding data, and if it matches, the reflection intensity data value of the same candidate area Then, a determination is made as to whether or not the relationship with the position of the detected object detected from the detection object candidate region matches the third corresponding data, and if it matches, it is calculated by the position calculation means. Movement of the position Or of the movement of the position of the same candidate region, it is determined whether at least one of which coincides with the walking speed of a person, if they match, detects the person from the detection target object candidate region or the same candidate region An object detection apparatus characterized by that.
車両に搭載される物体検出装置において、In an object detection device mounted on a vehicle,
前記車両周辺を観測して、前記車両周辺の熱データを有する画像を取得する画像取得手段と、  Image acquisition means for observing the vehicle periphery and acquiring an image having thermal data around the vehicle;
前記画像から、人物の熱データを有する検出対象物候補領域を抽出する領域抽出手段と、  A region extracting means for extracting a detection target candidate region having thermal data of a person from the image;
前記検出対象物候補領域の位置及び大きさのうち、少なくとも一方に基づいて、当該検出対象物候補領域から検出される検出物体の位置を算出する位置算出手段と、  Position calculating means for calculating the position of the detected object detected from the detection target candidate region based on at least one of the position and size of the detection target candidate region;
前記車両の周辺を所定の検出波でスキャニングして、当該検出波を反射する計測点領域を検出し、且つ、当該検出された計測点領域の位置を検出する検出波出力手段と、  A detection wave output means for scanning the periphery of the vehicle with a predetermined detection wave, detecting a measurement point region that reflects the detection wave, and detecting a position of the detected measurement point region;
前記計測点領域のうち、前記検出対象物候補領域から検出される検出物体の位置と同じ位置に存在する計測点領域を同一候補領域として抽出する位置抽出手段と、  Position extraction means for extracting, as the same candidate area, a measurement point area existing at the same position as the position of the detected object detected from the detection target object area, among the measurement point areas;
前記検出対象物候補領域から検出される検出物体の幅が、前記同一候補領域の幅に一致し、前記検出対象物候補領域の特徴量が、人物の特徴量に一致し、且つ、前記位置算出手段により算出された位置の動きまたは前記同一候補領域の位置の動きのうち、少なくとも一方が人物の歩行速度に一致する場合には、前記検出対象物候補領域または前記同一候補領域から人物を検出する検出手段と、  The width of the detected object detected from the detection target object candidate region matches the width of the same candidate region, the feature amount of the detection target candidate region matches the feature amount of a person, and the position calculation When at least one of the position movement calculated by the means or the position movement of the same candidate area matches the walking speed of the person, a person is detected from the detection target candidate area or the same candidate area. Detection means;
人物の位置と、前記検出対象物候補領域のうち、人物が検出される検出対象物領域の熱データ値との関係を示す第2の対応データと、人物の位置と、前記同一候補領域のうち、人物が検出される検出対象物領域の反射強度データ値との関係を示す第3の対応データとを、人物の位置に応じて複数記憶する記憶手段と、を備え、  The second corresponding data indicating the relationship between the position of the person and the thermal data value of the detection target area where the person is detected among the detection target candidate areas, the position of the person, and the same candidate area Storage means for storing a plurality of third correspondence data indicating the relationship with the reflection intensity data value of the detection target region where the person is detected, according to the position of the person,
前記特徴量は、熱データ及び縦横比のうち、少なくとも一方であり、  The feature amount is at least one of thermal data and an aspect ratio,
前記検出手段は、前記検出対象物候補領域から検出される検出物体の幅が、前記同一候補領域の幅に一致する場合には、前記検出対象物候補領域から検出される検出物体の位置の動きに伴う前記検出対象物候補領域の熱データ値の動きが、人物の位置の動きに伴う前記第2の対応データの動きに一致するかどうかの一致判定を行い、一致する場合には、前記検出対象物候補領域から検出される検出物体の位置の動きに伴う前記同一候補領域の反射強度データ値の動きが、人物の位置の動きに伴う前記第3の対応データの動きに一致するかどうかの一致判定を行い、一致する場合には、前記位置算出手段により算出された位置の動きまたは前記同一候補領域の位置の動きのうち、少なくとも一方が人物の歩行速度に一致するかどうかを判定し、一致する場合には、前記検出対象物候補領域または前記同一候補領域から人物を検出することを特徴とする物体検出装置。  When the width of the detected object detected from the detection target object region matches the width of the same candidate region, the detection means moves the position of the detected object detected from the detection target candidate region It is determined whether or not the movement of the thermal data value of the detection object candidate area accompanying the movement matches the movement of the second corresponding data accompanying the movement of the position of the person. Whether the movement of the reflection intensity data value of the same candidate area accompanying the movement of the position of the detected object detected from the target object area matches the movement of the third corresponding data accompanying the movement of the position of the person A match determination is made, and if they match, it is determined whether at least one of the position movement calculated by the position calculation means or the position movement of the same candidate region matches the walking speed of the person, If matches are object detecting device and detecting a person from the detection target object candidate region or the same candidate region.
車両に搭載される物体検出装置において、In an object detection device mounted on a vehicle,
前記車両周辺を観測して、前記車両周辺の熱データを有する画像を取得する画像取得手段と、  Image acquisition means for observing the vehicle periphery and acquiring an image having thermal data around the vehicle;
前記画像から、人物の熱データを有する検出対象物候補領域を抽出する領域抽出手段と、  A region extracting means for extracting a detection target candidate region having thermal data of a person from the image;
前記検出対象物候補領域の位置及び大きさのうち、少なくとも一方に基づいて、当該検出対象物候補領域から検出される検出物体の位置を算出する位置算出手段と、  Position calculating means for calculating the position of the detected object detected from the detection target candidate region based on at least one of the position and size of the detection target candidate region;
前記車両の周辺を所定の検出波でスキャニングして、当該検出波を反射する計測点領域を検出し、且つ、当該検出された計測点領域の位置を検出する検出波出力手段と、  A detection wave output means for scanning the periphery of the vehicle with a predetermined detection wave, detecting a measurement point region that reflects the detection wave, and detecting a position of the detected measurement point region;
前記計測点領域のうち、前記検出対象物候補領域から検出される検出物体の位置と同じ位置に存在する計測点領域を同一候補領域として抽出する位置抽出手段と、  Position extraction means for extracting, as the same candidate area, a measurement point area existing at the same position as the position of the detected object detected from the detection target object area, among the measurement point areas;
前記検出対象物候補領域から検出される検出物体の幅が、前記同一候補領域の幅に一致し、前記検出対象物候補領域の特徴量が、人物の特徴量に一致し、且つ、前記位置算出手段により算出された位置の動きまたは前記同一候補領域の位置の動きのうち、少なくとも一方が人物の歩行速度に一致する場合には、前記検出対象物候補領域または前記同一候補領域から人物を検出する検出手段と、  The width of the detected object detected from the detection target object candidate region matches the width of the same candidate region, the feature amount of the detection target candidate region matches the feature amount of a person, and the position calculation When at least one of the position movement calculated by the means or the position movement of the same candidate area matches the walking speed of the person, a person is detected from the detection target candidate area or the same candidate area. Detection means;
人物の位置と、前記検出対象物候補領域のうち、人物が検出される検出対象物領域の熱データ値との関係を示す第2の対応データと、人物の位置と、前記同一候補領域のうち、人物が検出される検出対象物領域の反射強度データ値との関係を示す第3の対応データとを、人物の位置に応じて複数記憶する記憶手段と、を備え、  The second corresponding data indicating the relationship between the position of the person and the thermal data value of the detection target area where the person is detected among the detection target candidate areas, the position of the person, and the same candidate area Storage means for storing a plurality of third correspondence data indicating the relationship with the reflection intensity data value of the detection target region where the person is detected, according to the position of the person,
前記特徴量は、熱データ及び縦横比のうち、少なくとも一方であり、  The feature amount is at least one of thermal data and an aspect ratio,
前記検出波出力手段は、検出可能範囲が互いに異なる複数の検出波で前記車両の周辺をスキャニングし、前記計測点領域及び当該計測点領域の位置を検出波毎に検出し、The detection wave output means scans the periphery of the vehicle with a plurality of detection waves having different detectable ranges, and detects the measurement point region and the position of the measurement point region for each detection wave,
前記位置抽出手段は、前記計測点領域のうち、前記検出対象物候補領域から検出される検出物体の位置と同じ位置に存在し、且つ、信頼性が最も高い計測点領域を同一候補領域として抽出し、  The position extracting means extracts a measurement point area having the highest reliability, which is present at the same position as the position of the detected object detected from the detection target candidate area, as the same candidate area. And
前記検出手段は、前記検出対象物候補領域から検出される検出物体の幅が、前記同一候補領域の幅に一致する場合には、前記検出対象物候補領域から検出される検出物体の位置の動きに伴う前記検出対象物候補領域の熱データ値の動きが、人物の位置の動きに伴う前記第2の対応データの動きに一致するかどうかの一致判定を行い、一致する場合には、前記検出対象物候補領域から検出される検出物体の位置の動きに伴う前記同一候補領域の反射強度データ値の動きが、人物の位置の動きに伴う前記第3の対応データの動きに一致するかどうかの一致判定を行い、一致する場合には、前記位置算出手段により算出された位置の動きまたは前記同一候補領域の位置の動きのうち、少なくとも一方が人物の歩行速度に一致するかどうかを判定し、一致する場合には、前記検出対象物候補領域または前記同一候補領域から人物を検出することを特徴とする物体検出装置。  When the width of the detected object detected from the detection target object region matches the width of the same candidate region, the detection means moves the position of the detected object detected from the detection target candidate region It is determined whether or not the movement of the thermal data value of the detection object candidate area accompanying the movement matches the movement of the second corresponding data accompanying the movement of the position of the person. Whether the movement of the reflection intensity data value of the same candidate area accompanying the movement of the position of the detected object detected from the target object area matches the movement of the third corresponding data accompanying the movement of the position of the person A match determination is made, and if they match, it is determined whether at least one of the position movement calculated by the position calculation means or the position movement of the same candidate region matches the walking speed of the person, If matches are object detecting device and detecting a person from the detection target object candidate region or the same candidate region.
請求項1〜4の何れか1項に記載の物体検出装置において、
前記第1の対応データ、前記第2の対応データ、及び前記第3の対応データの信頼性は、人物の位置に応じて互いに異なり、
前記検出手段は、前記検出物体の位置に応じた対応データに基づいて、前記一致判定を行うことを特徴とする物体検出装置。
In the object detection device according to any one of claims 1 to 4 ,
The reliability of the first correspondence data, the second correspondence data, and the third correspondence data is different from each other according to the position of the person,
The object detection apparatus characterized in that the detection means performs the matching determination based on correspondence data corresponding to a position of the detected object.
車両周辺を観測して、前記車両周辺の熱データを有する画像を取得する第1の工程と、
前記画像から、人物の熱データを有する検出対象物候補領域を抽出する第2の工程と、
前記検出対象物候補領域の位置及び大きさのうち、少なくとも一方に基づいて、当該検出対象物候補領域から検出される検出物体の位置を算出する第3の工程と、
前記車両の周辺を所定の検出波でスキャニングして、当該検出波を反射する計測点領域を検出し、且つ、当該検出された計測点領域の位置を検出する第4の工程と、
前記計測点領域のうち、前記検出対象物候補領域から検出される検出物体の位置と同じ位置に存在する計測点領域を同一候補領域として抽出する第5の工程と、
前記検出対象物候補領域から検出される検出物体の幅が、前記同一候補領域の幅に一致し、前記検出対象物候補領域の特徴量が、人物の特徴量に一致し、且つ、前記第3の工程により算出された位置の動きまたは前記同一候補領域の位置の動きのうち、少なくとも一方が人物の歩行速度に一致する場合には、前記検出対象物候補領域または前記同一候補領域から人物を検出する第6の工程と、を備え、
前記特徴量は、熱データ及び縦横比のうち、少なくとも一方であり、
前記第6の工程は、前記検出対象物候補領域から検出される検出物体の幅が、前記同一候補領域の幅に一致する場合には、前記検出対象物候補領域の大きさと、前記検出対象物候補領域から検出される検出物体の位置との関係が、人物の位置と、前記検出対象物候補領域のうち、人物が検出される検出対象物領域の大きさとの関係を示す第1の対応データに一致するかどうかの一致判定を行い、一致する場合には、前記検出対象物候補領域の熱データ値と、前記検出対象物候補領域から検出される検出物体の位置との関係が、人物の位置と、前記検出対象物候補領域のうち、人物が検出される検出対象物領域の熱データ値との関係を示す第2の対応データに一致するかどうかの一致判定を行い、一致する場合には、前記同一候補領域の反射強度データ値と、前記検出対象物候補領域から検出される検出物体の位置との関係が、人物の位置と、前記同一候補領域のうち、人物が検出される検出対象物領域の反射強度データ値との関係を示す第3の対応データに一致するかどうかの一致判定を行い、一致する場合には、前記第3の工程により算出された位置の動きまたは前記同一候補領域の位置の動きのうち、少なくとも一方が人物の歩行速度に一致するかどうかを判定し、一致する場合には、前記検出対象物候補領域または前記同一候補領域から人物を検出する工程であることを特徴とする物体検出方法。
A first step of observing the vehicle periphery and obtaining an image having thermal data of the vehicle periphery;
A second step of extracting a detection object candidate region having thermal data of a person from the image;
A third step of calculating the position of the detected object detected from the detection target candidate region based on at least one of the position and size of the detection target candidate region;
A fourth step of scanning the periphery of the vehicle with a predetermined detection wave, detecting a measurement point region reflecting the detection wave, and detecting a position of the detected measurement point region;
A fifth step of extracting, as the same candidate area, a measurement point area existing at the same position as the position of the detected object detected from the detection target object area, among the measurement point areas;
The width of the detection object detected from the detection target object candidate region matches the width of the same candidate region, the feature amount of the detection target candidate region matches the feature amount of a person, and the third If at least one of the position movement calculated by the step or the position movement of the same candidate area matches the walking speed of the person, the person is detected from the detection target candidate area or the same candidate area. And a sixth step of
The feature amount is at least one of thermal data and an aspect ratio ,
In the sixth step, when the width of the detected object detected from the detection object candidate area matches the width of the same candidate area, the size of the detection object candidate area and the detection object The first correspondence data indicating the relationship between the position of the detected object detected from the candidate area and the position of the person and the size of the detection target area where the person is detected among the detection target candidate areas If they match, the relationship between the thermal data value of the detection object candidate area and the position of the detected object detected from the detection object candidate area is In the case of matching, it is determined whether or not the second matching data matches the position and the thermal data value of the detection target area where the person is detected among the detection target candidate areas. Is the reflection strength of the same candidate region The relationship between the data value and the position of the detected object detected from the detection object candidate area is the position of the person, and the reflection intensity data value of the detection object area where the person is detected in the same candidate area. Whether or not the third corresponding data indicating the relationship is matched, and if there is a match, out of the movement of the position calculated by the third step or the movement of the position of the same candidate region, An object detection method comprising determining whether or not at least one of them matches the walking speed of a person and, if they match, detecting a person from the detection object candidate area or the same candidate area .
JP2003359520A 2003-10-20 2003-10-20 Object detection apparatus and object detection method Expired - Fee Related JP3948450B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003359520A JP3948450B2 (en) 2003-10-20 2003-10-20 Object detection apparatus and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003359520A JP3948450B2 (en) 2003-10-20 2003-10-20 Object detection apparatus and object detection method

Publications (2)

Publication Number Publication Date
JP2005121601A JP2005121601A (en) 2005-05-12
JP3948450B2 true JP3948450B2 (en) 2007-07-25

Family

ID=34615718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003359520A Expired - Fee Related JP3948450B2 (en) 2003-10-20 2003-10-20 Object detection apparatus and object detection method

Country Status (1)

Country Link
JP (1) JP3948450B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4857839B2 (en) * 2006-03-22 2012-01-18 日産自動車株式会社 Object detection device
JP4743797B2 (en) * 2008-02-01 2011-08-10 本田技研工業株式会社 Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program
JP5145986B2 (en) * 2008-02-05 2013-02-20 日産自動車株式会社 Object detection apparatus and distance measuring method
JP2010071942A (en) * 2008-09-22 2010-04-02 Toyota Motor Corp Object detecting device
JP5519381B2 (en) * 2010-04-09 2014-06-11 トヨタ自動車株式会社 Spectrum measuring device
JP5060580B2 (en) * 2010-04-09 2012-10-31 トヨタ自動車株式会社 Spectrum measuring device
JP5482670B2 (en) * 2011-01-12 2014-05-07 株式会社デンソー Object detection device
JP5518007B2 (en) 2011-07-11 2014-06-11 クラリオン株式会社 Vehicle external recognition device and vehicle control system using the same
WO2018151211A1 (en) * 2017-02-15 2018-08-23 株式会社Preferred Networks Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle
EP3633655A4 (en) * 2017-05-31 2021-03-17 Pioneer Corporation Map generation device, control method, program, and storage medium
CN112578351A (en) * 2020-02-28 2021-03-30 加特兰微电子科技(上海)有限公司 Target matching method, integrated circuit, radio device and apparatus

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3472896B2 (en) * 1994-12-28 2003-12-02 オムロン株式会社 Traffic information system
KR960032262A (en) * 1995-02-09 1996-09-17 배순훈 Vehicle safety system
JP3510767B2 (en) * 1997-05-29 2004-03-29 オムロン株式会社 Distance measuring device
JPH1116099A (en) * 1997-06-27 1999-01-22 Hitachi Ltd Automobile traveling supporting device
JP4389276B2 (en) * 1997-10-21 2009-12-24 マツダ株式会社 Vehicle obstacle warning device
JP3669205B2 (en) * 1999-05-17 2005-07-06 日産自動車株式会社 Obstacle recognition device
JP2001076298A (en) * 1999-09-07 2001-03-23 Mazda Motor Corp On-vehicle display device
JP2001296352A (en) * 2000-04-12 2001-10-26 Omron Corp Object detecting apparatus
JP4019736B2 (en) * 2002-02-26 2007-12-12 トヨタ自動車株式会社 Obstacle detection device for vehicle
JP2003302470A (en) * 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai Pedestrian detection device and pedestrian detection method
JP4016826B2 (en) * 2002-12-10 2007-12-05 株式会社デンソー Object labeling method and apparatus, program

Also Published As

Publication number Publication date
JP2005121601A (en) 2005-05-12

Similar Documents

Publication Publication Date Title
KR920001616B1 (en) Method and apparatus for detecting objects
US10404971B2 (en) Optoelectronic sensor and method for safe detection of objects of a minimum size
JP3948450B2 (en) Object detection apparatus and object detection method
JP4263737B2 (en) Pedestrian detection device
JP6707022B2 (en) Stereo camera
JP2007255977A (en) Object detection method and object detector
JP2002197469A (en) Device for detecting traffic lane
JP6396714B2 (en) Object recognition device
JP5466610B2 (en) Gaze estimation device
JP6597795B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2000357233A (en) Body recognition device
JPH0450611A (en) Apparatus for measuring distance
JP2009244023A (en) Measuring device using line sensor
JP2006322853A (en) Distance measuring device, distance measuring method and distance measuring program
WO2013008304A1 (en) Eyelid detection device
WO2019021876A1 (en) In-vehicle camera calibration device and method
JP4853444B2 (en) Moving object detection device
JP2008225784A (en) Vanishing point extraction device
JP3633469B2 (en) Inter-vehicle distance setting device
JP4340000B2 (en) Object recognition device
JPH05242399A (en) Inter-vehicle distance detector
US10379058B2 (en) Measurement device and method for operating the same
JP2004185425A (en) Lane mark recognition method and device
JP4026641B2 (en) Object detection apparatus and object detection method
JP2011134119A (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070409

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees