JP4857839B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP4857839B2
JP4857839B2 JP2006078485A JP2006078485A JP4857839B2 JP 4857839 B2 JP4857839 B2 JP 4857839B2 JP 2006078485 A JP2006078485 A JP 2006078485A JP 2006078485 A JP2006078485 A JP 2006078485A JP 4857839 B2 JP4857839 B2 JP 4857839B2
Authority
JP
Japan
Prior art keywords
information
detection
change
determination
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006078485A
Other languages
Japanese (ja)
Other versions
JP2007255978A (en
Inventor
倫子 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006078485A priority Critical patent/JP4857839B2/en
Publication of JP2007255978A publication Critical patent/JP2007255978A/en
Application granted granted Critical
Publication of JP4857839B2 publication Critical patent/JP4857839B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detector for enhancing object detection accuracy and moreover detecting objects other than vehicles. <P>SOLUTION: This object detector is equipped with a control unit CU for detecting an object based on information obtained from a camera 1 and a radar 2. The control unit CU executes a change calculation process for finding a change in the size of a noted area which is an area where an object in an image is shown while finding a change in distance to an object on a measuring point obtained from detection information, an object detection process for collating the change in size with the change in distance to determine that an object has been detected if a correlation is obtained between the two, and a kind determination process for determining the kind of an object based on at least either of the image information in the noted area on which the correlation is obtained and the detection information on the measurement point. <P>COPYRIGHT: (C)2008,JPO&amp;INPIT

Description

本発明は、カメラなどの画像情報取得手段から得られる画像情報と、レーダなどの検波情報取得手段から得られる距離情報と、に基づいて物体を検出する物体検出方法および物体検出装置に関する。   The present invention relates to an object detection method and an object detection apparatus for detecting an object based on image information obtained from image information acquisition means such as a camera and distance information obtained from detection information acquisition means such as a radar.

従来、車両において衝突防止装置、車間距離制御装置、追従走行装置などの運転支援装置が提案されている。これらの運転支援装置では、自車両の前方を走行する車両などの物体(障害物)を検出する物体検出装置が用いられている。   2. Description of the Related Art Conventionally, driving support devices such as a collision prevention device, an inter-vehicle distance control device, and a following traveling device have been proposed for vehicles. In these driving support devices, an object detection device that detects an object (obstacle) such as a vehicle traveling in front of the host vehicle is used.

このような物体検出装置では、高い精度で物体を検出することが求められる。   Such an object detection device is required to detect an object with high accuracy.

このような検出精度の向上を図る従来技術として、例えば、検出センサとしてカメラとレーダとを備え、カメラ画像で抽出した物体のエッジと、レーザレーダによる物体の検出情報とに基づいて車両であることを正確に検出および判定する技術が提案されている(例えば、特許文献1参照)。
特開2005−157875号公報
As a conventional technique for improving such detection accuracy, for example, a camera and a radar are provided as detection sensors, and the vehicle is based on the object edge extracted from the camera image and the object detection information by the laser radar. There has been proposed a technique for accurately detecting and determining (see, for example, Patent Document 1).
JP 2005-157875 A

しかしながら、上記従来技術は、車両と想定される画像上の領域を、エッジのヒストグラムやレーダの検出方位から判定しているが、この車両と想定した領域に、車両の周囲に存在する背景や他の物体が含まれるおそれがある。この場合、車両と相対した領域に含まれた他の物体が、例えば、直線エッジを有する建物などの人工物である場合には、レーダからの反射情報の検出を行っていても、この他の物体を車両と誤検出するおそれがある。   However, the above conventional technology determines the region on the image that is assumed to be a vehicle from the edge histogram and the detection direction of the radar. May be included. In this case, when the other object included in the region facing the vehicle is an artificial object such as a building having a straight edge, for example, even if the reflection information from the radar is detected, There is a risk of erroneously detecting an object as a vehicle.

本発明は、上述の問題点に着目してなされたもので、物体の検出精度の向上を図ることができる物体検出方法および物体検出装置を提供することを目的とする。   The present invention has been made paying attention to the above-described problems, and an object thereof is to provide an object detection method and an object detection apparatus capable of improving the detection accuracy of an object.

上述の目的を達成するため、本発明は、画像情報取得手段から、物体検出対象領域の物体に関する画像情報を取得するとともに、検波情報取得手段から、物体検出対象領域を検出波で走査して得られた物体に関する検波情報を取得し、前記画像情報に基づいて、画像上の物体を示す領域の大きさの変化を求めるとともに、前記検波情報に基づいて、前記検波情報取得手段と物体との距離変化を求め、求めた大きさ変化と距離変化とを照合し、両者の相関性が得られた場合に物体検出と判定することを最も主要な特徴とする物体検出装置である。 In order to achieve the above-described object, the present invention obtains image information related to an object in the object detection target area from the image information acquisition means and scans the object detection target area with a detection wave from the detection information acquisition means. Obtaining detection information relating to the detected object, obtaining a change in the size of the region indicating the object on the image based on the image information, and determining the distance between the detection information obtaining means and the object based on the detection information. seeking changes collates change size was determined and the distance change and an object detecting apparatus according to the most important feature object detection and determine Teisu Rukoto when correlation therebetween is obtained.

本発明の物体検出装置にあっては、画像上の物体を示す領域内の大きさ変化と、検波情報により計測された物体との距離変化と、に基づいて物体検出を行うようにしたため、背景や隣り合う物体などの判定対象とは異なる物体の情報に基づいて物体検出が行われるのを抑制でき、物体の検出精度を向上させることができる。 In the object detection device of the present invention, the object detection is performed based on the size change in the region indicating the object on the image and the distance change from the object measured by the detection information. It is possible to suppress the detection of an object based on information on an object that is different from a determination target such as an adjacent object, and improve the object detection accuracy.

さらに、請求項8の物体検出装置にあっては、物体の種類の判定は、上記のように大きさ変化と距離変化の照合により同一物体と判定された領域の画像情報と検波情報の特徴に基づいて物体の判定を行うようにした。 Furthermore, in the object detection apparatus according to claim 8 , the type of the object is determined based on the characteristics of the image information and the detection information of the region determined to be the same object by collating the size change and the distance change as described above. Based on the determination of the object.

このため、背景や隣り合う物体など、判定対象とは異なる物体の情報に基づいて物体の種類の判定を行うことを防止でき、物体の検出精度の向上を図ることができるとともに、物体の種類も判定することができる。   For this reason, it is possible to prevent the determination of the type of the object based on the information of the object that is different from the determination target, such as the background and the adjacent object, and to improve the detection accuracy of the object. Can be determined.

以下、本発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

この実施の形態の物体検出装置は、物体検出対象領域の物体に関する画像情報を取得する画像情報取得手段(1)および物体検出対象領域を検出波で走査して得られた検出波の反射に基づく物体に関する検波情報を取得する検波情報取得手段(2)と、前記画像情報および検波情報に基づいて物体を検出する物体検出手段(CU)と、を備えた物体検出装置であって、前記物体検出手段(CU)が、前記画像情報および検波情報を取得する取得処理と、前記画像上の物体を示す領域である注目領域内の大きさ変化を求めるとともに、前記検波情報から得られた計測点上の物体と検波情報取得手段との距離変化を求める変化算出処理と、前記大きさ変化と距離変化とに基づいて物体検出を行う物体検出処理と、物体が検出された場合、前記注目領域内の画像情報と、前記計測点の検波情報との少なくとも一方に基づいて物体の種類を判定する種類判定処理と、を実行することを特徴とする。   The object detection apparatus according to this embodiment is based on image information acquisition means (1) for acquiring image information related to an object in the object detection target region and reflection of the detection wave obtained by scanning the object detection target region with the detection wave. An object detection apparatus comprising: detection information acquisition means (2) for acquiring detection information related to an object; and object detection means (CU) for detecting an object based on the image information and detection information. Means (CU) obtains the image information and detection information, obtains a change in size within a region of interest, which is an area indicating an object on the image, and on the measurement point obtained from the detection information Change calculation processing for obtaining a change in distance between the object and detection information acquisition means, object detection processing for detecting an object based on the magnitude change and the distance change, and when an object is detected, And the region of the image information, and executes the and determining the type determination processing type of the object based on at least one of the detection information of the measuring point.

図1〜図14に基づいて本発明の最良の実施の形態の実施例1の物体検出装置について説明する。   An object detection apparatus according to Example 1 of the best mode of the present invention will be described with reference to FIGS.

実施例1の物体検出装置は、図1に示すように、車両MB(以下、後述する他車両ABと区別するために物体検出装置が設けられた車両MBを自車両と称する)に搭載されており、画像取得手段としてのカメラ1と検波情報取得手段としてのレーダ2とを備えている。なお、この物体検出装置で検出された物体の情報は、運転支援装置などに出力される。   As shown in FIG. 1, the object detection device according to the first embodiment is mounted on a vehicle MB (hereinafter, the vehicle MB provided with the object detection device is referred to as a host vehicle in order to be distinguished from another vehicle AB described later). And a camera 1 as image acquisition means and a radar 2 as detection information acquisition means. Information on the object detected by the object detection device is output to a driving support device or the like.

カメラ1は、例えば、車室内の図示を省略したルームミラーの近傍位置に搭載されている。このカメラ1としては、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いた輝度画像を撮像する可視光用カメラと赤外線画像を撮像する赤外カメラとの少なくとも一方を用いることができるが、本実施例1では、可視光用カメラを用いている。   For example, the camera 1 is mounted in the vicinity of a room mirror (not shown) in the passenger compartment. The camera 1 includes at least one of a visible light camera that captures a luminance image using an image sensor such as a CCD (Charge Coupled Devices) and a CMOS (Complementary Metal Oxide Semiconductor), and an infrared camera that captures an infrared image. In the first embodiment, a visible light camera is used.

レーダ2は、自車両MBの前部に取り付けられ、車両前方(矢印FR方向)を水平方向にスキャニングし、レーダ2から車両前方に存在する物体(検知点)までの距離と反射強度を検出する。なお、検知点は、物体を検出した位置であって、図1に示すXZ軸の座標上の位置として検出する。   The radar 2 is attached to the front part of the host vehicle MB, scans the front of the vehicle (in the direction of the arrow FR) in the horizontal direction, and detects the distance and the reflection intensity from the radar 2 to the object (detection point) existing in front of the vehicle. . The detection point is a position where an object is detected, and is detected as a position on the XZ-axis coordinate shown in FIG.

このレーダ2としては、ミリ波レーダやレーザレーダや超音波レーダを用いることができるが、本実施例1では、レーザレーダを使用している。なお、レーザレーダの場合、検出物体の情報として、距離とレーザ光の反射強度とを得ることができる。また、ミリ波レーダの場合、検出物体の情報として、距離・電波の反射強度・自車両と検出物体との相対速度を得ることができる。   As the radar 2, a millimeter wave radar, a laser radar, or an ultrasonic radar can be used. In the first embodiment, a laser radar is used. In the case of laser radar, the distance and the reflection intensity of the laser beam can be obtained as information on the detected object. In the case of millimeter wave radar, distance, radio wave reflection intensity, and relative speed between the subject vehicle and the detected object can be obtained as detected object information.

カメラ1およびレーダ2で得られた情報は、物体検出手段としてのコントロールユニットCUに入力される。コントロールユニットCUは、カメラ1やレーダ2を含む車載のセンサから信号を入力して、物体を検出し、かつその種類を判別する物体検出制御を行うもので、RAM(Random Access Memory),ROM(Read Only Memory),CPU(Central Processing Unit)などを備えた周知のものである。   Information obtained by the camera 1 and the radar 2 is input to a control unit CU as object detection means. The control unit CU inputs signals from in-vehicle sensors including the camera 1 and the radar 2, detects an object, and performs object detection control for discriminating the type, and includes a RAM (Random Access Memory), a ROM ( It is a known device including a read only memory (CPU), a central processing unit (CPU), and the like.

このコントロールユニットCUにおける物体検出制御における処理の流れを、図2により、簡単に説明すると、まず、ステップS1では、カメラ1とレーダ2を含むセンサから情報を入力し、メモリ11(図3参照)に保存する取得処理を実行する。   The flow of processing in the object detection control in the control unit CU will be briefly described with reference to FIG. 2. First, in step S1, information is input from sensors including the camera 1 and the radar 2, and the memory 11 (see FIG. 3). Execute acquisition process to save.

次のステップS2では、保存した入力情報に対し、これ以降の処理において使用する情報に変換する(この変換した情報を変換情報と称する)情報変換処理を実行する。   In the next step S2, information conversion processing for converting the stored input information into information used in the subsequent processing (this converted information is referred to as conversion information) is executed.

次のステップS3では、画像情報およびその変換情報に基づく物体の存在の判定と、検波情報およびその変換情報に基づく物体の存在の判定と、を行う物体存在判定処理を実行する。   In the next step S3, an object presence determination process is performed for determining the presence of an object based on image information and its conversion information, and determining the presence of an object based on detection information and its conversion information.

次のステップS4では、ステップS3で存在すると判定された物体について、その物体との距離変化および画像上の大きさ変化を算出する変化算出処理を実行する。   In the next step S4, a change calculation process for calculating a change in distance from the object determined in step S3 and a change in size on the image is executed.

次に、ステップS5では、ステップS4で得られた距離変化および大きさ変化との照合に基づいて、物体検出を行う物体検出処理を実行する。   Next, in step S5, an object detection process for performing object detection is executed based on the collation with the distance change and the magnitude change obtained in step S4.

次のステップS6では、検出された物体の種類を判定する種類判定処理を実行する。   In the next step S6, a type determination process for determining the type of the detected object is executed.

図3は、コントロールユニットCUにおいて行われる上記各処理を行う部分を概念的に示すブロック図である。   FIG. 3 is a block diagram conceptually showing a portion for performing each of the processes performed in the control unit CU.

メモリ11は、ステップS1の取得処理により得られた各情報を保存する。
変換処理部12は、ステップS2の情報変換処理を実行する部分である。
物体存在判定処理部13は、ステップS3の物体存在判定処理を実行する部分である。
距離変化算出処理部14および大きさ変化算出処理部15は、ステップS4の変化算出処理を実行する部分である。
物体検出処理部16は、ステップS5の物体検出処理を実行する部分である。
種類判定処理部17は、ステップS6の種類判定処理を実行する部分である。
The memory 11 stores each piece of information obtained by the acquisition process in step S1.
The conversion process part 12 is a part which performs the information conversion process of step S2.
The object presence determination processing unit 13 is a part that executes the object presence determination process in step S3.
The distance change calculation processing unit 14 and the magnitude change calculation processing unit 15 are parts that execute the change calculation processing in step S4.
The object detection processing unit 16 is a part that executes the object detection process of step S5.
The type determination processing unit 17 is a part that executes the type determination processing in step S6.

次に、上記ステップS1〜S6の各処理について詳細に説明する。
まず、ステップS1の取得処理では、図4に示すように、メモリ11に、カメラ1が撮像した輝度画像情報を保存し、また、レーダ2が検知した検波情報として、レーダ2の水平方向のスキャン分解能(角度)ごとに、各角度におけるレーダ2から物体までの距離とレーザ光の反射強度とを保存する。
Next, each process of said step S1-S6 is demonstrated in detail.
First, in the acquisition process of step S1, as shown in FIG. 4, the luminance image information captured by the camera 1 is stored in the memory 11, and the radar 2 scans in the horizontal direction as detection information detected by the radar 2. For each resolution (angle), the distance from the radar 2 to the object and the reflection intensity of the laser beam at each angle are stored.

ここで、カメラ1による画像情報の一例を図5および図6に示す。
図5および図6は、自車両MBの前方に他車両(先行車両)ABと人物(歩行者)PEと道路構造物としての壁WOとが存在する場合の画像の一例を示しており、これらがカメラ1の撮像面1aにおいて同図(b)に示すように投影される。
Here, an example of the image information by the camera 1 is shown in FIGS.
FIG. 5 and FIG. 6 show an example of an image when another vehicle (preceding vehicle) AB, a person (pedestrian) PE, and a wall WO as a road structure exist in front of the host vehicle MB. Is projected on the imaging surface 1a of the camera 1 as shown in FIG.

なお、図5(a)は、横から見た状態を示し、図6(a)は上から見た状態を示している。また、両図において、(c)はカメラ1として赤外線カメラを用いた場合の赤外画像を示しており、自車両MB図中MPは高温として捉えられている部分(マフラ部分)を示している。   5A shows a state seen from the side, and FIG. 6A shows a state seen from above. Moreover, in both figures, (c) shows an infrared image when an infrared camera is used as the camera 1, and MP in the host vehicle MB diagram shows a portion (muffler portion) captured as a high temperature. .

これら図5,6では、カメラ1の路面への垂直投影点PAから人物(歩行者)PEの路面への垂直投影像における自車両MB側の端点PFまでの距離をz、点PAと点PFとのx軸方向の間隔をxsとしている。   5 and 6, the distance from the vertical projection point PA on the road surface of the camera 1 to the end point PF on the own vehicle MB side in the vertical projection image on the road surface of the person (pedestrian) PE is z, the point PA and the point PF. The interval in the x-axis direction is xs.

そこで、基準座標をカメラ1のレンズ1bの中心を原点とすると、基準座標系における点PFの位置は、(xs,−H,z)と表され、撮像面1aの画像上において点PFが位置する座標(xc,yc)は、焦点距離fを用いて、下記の式(1)および式(2)の関係で表される。
xc=xs・f/z ・・・(1)
yc=−H・f/z ・・・(2)
Therefore, when the reference coordinate is the origin of the center of the lens 1b of the camera 1, the position of the point PF in the reference coordinate system is represented as (xs, -H, z), and the point PF is located on the image on the imaging surface 1a. The coordinates (xc, yc) to be expressed are expressed by the relationship of the following expressions (1) and (2) using the focal length f.
xc = xs · f / z (1)
yc = −H · f / z (2)

次に、レーダ2による検波情報の一例を図7に示す。
図7では(a)に示す図5および図6に示した画像情報と同様の物体の検知例を上から見た状態として(b)に示している。この図に示すように、自車両(自車両MB)の前方に存在する他車両ABと人物(歩行者)PEと壁WOとにおいて反射したレーザ光を検出することで、物体が存在することを検出できる。なお、図において円形で示すqP,qA,qWが、それぞれ各物体の検知点を示している。
Next, an example of detection information by the radar 2 is shown in FIG.
FIG. 7 shows an object detection example similar to the image information shown in FIGS. 5 and 6 shown in FIG. As shown in this figure, the presence of an object is detected by detecting laser light reflected by another vehicle AB, a person (pedestrian) PE, and a wall WO existing in front of the host vehicle (host vehicle MB). It can be detected. In the figure, qP, qA, and qW indicated by circles indicate detection points of the respective objects.

そこで、レーダ用メモリでは、反射波が観測された方位ごとに、計測点までの距離とその反射強度とを保存する。また、図7の方位θの計測点では、距離z1、z3(人物PEおよび壁WO)で反射波が観測されているが、それぞれの距離の計測点で反射強度が保存される。   Therefore, the radar memory stores the distance to the measurement point and the reflection intensity for each direction in which the reflected wave is observed. In addition, although reflected waves are observed at distances z1 and z3 (person PE and wall WO) at the measurement point of azimuth θ in FIG. 7, the reflection intensity is stored at the measurement points of the respective distances.

次に、変換処理部12で実行されるステップS2の情報変換処理を説明する。
この情報変換処理では、画像情報を変換する処理と、検波情報を変換する処理とが行われる。
Next, the information conversion process of step S2 executed by the conversion processing unit 12 will be described.
In this information conversion process, a process for converting image information and a process for converting detection information are performed.

この画像情報を変換する処理としては、図4に示すように、カメラ1から得られる輝度画像情報に対して、縦エッジ、横エッジ、エッジ強度を抽出するエッジ検出処理と、方向ベクトルを抽出する方向ベクトル算出処理と、オプティカルフローを算出するオプティカルフロー処理と、が成される。   As processing for converting this image information, as shown in FIG. 4, edge detection processing for extracting vertical edges, horizontal edges, and edge strengths for luminance image information obtained from the camera 1, and direction vectors are extracted. A direction vector calculation process and an optical flow process for calculating an optical flow are performed.

また、検波情報を変換する処理としては、レーダ2からの検波情報から得られる計測点に基づいて相対速度を求める処理が成される。   Further, as processing for converting detection information, processing for obtaining a relative velocity based on measurement points obtained from detection information from the radar 2 is performed.

上述のエッジ検出処理におけるエッジの検出は、ソーベルフィルタなどとのコンボリューション(たたみこみ(掛け合わせ))演算により算出できる。   Edge detection in the above-described edge detection processing can be calculated by a convolution (convolution (multiplication)) operation with a Sobel filter or the like.

図8は、単純なソーベルフィルタの例であり、(a)(b)が縦エッジ用のフィルタ、(c)(d)が横エッジ用のフィルタである。このようなフィルタと画像情報とを掛け合わせることで、縦エッジと横エッジとを求めることができる。なお、これらのエッジ強度は、例えば、これらの値の絶対値として求めることができる。   FIG. 8 shows an example of a simple Sobel filter, in which (a) and (b) are filters for vertical edges, and (c) and (d) are filters for horizontal edges. By multiplying such a filter and image information, a vertical edge and a horizontal edge can be obtained. Note that these edge strengths can be obtained as absolute values of these values, for example.

また、方向ベクトルは、縦エッジの強度をDx、横エッジの強度をDyとしたときに下記の式(3)の演算により求めることができる。
方向ベクトル=Dx/Dy ・・・(3)
Further, the direction vector can be obtained by the following equation (3) when the vertical edge strength is Dx and the horizontal edge strength is Dy.
Direction vector = Dx / Dy (3)

なお、この方向ベクトルの角度とエッジ強度との関係を図9に示す。   FIG. 9 shows the relationship between the direction vector angle and the edge strength.

次に、オプティカルフローについて説明する。
オプティカルフローとは、ある時刻の画像上において、画像上のある点(xc、yc)に表示された映像と、その映像がΔt秒後に位置する画像上の点を結んだ矢印のことであり、一般的に画像上に撮像されたある物体上のある点の動きを示すこととなる。このようなオプティカルフローは、ブロックマッチングや勾配法など、従来提案されているいずれかの手法を適用して求めることができる。
Next, the optical flow will be described.
The optical flow is an arrow connecting a video displayed at a certain point (xc, yc) on the image at a certain time and a point on the image where the video is located after Δt seconds, In general, the movement of a certain point on a certain object captured on the image is shown. Such an optical flow can be obtained by applying any conventionally proposed method such as block matching or gradient method.

このオプティカルフローについて、図7および図10を用いて具体的に説明する。
これらの図7および図10では、人物PEが止まっていて、他車両ABが自車両MBと同方向に前進している場合を示しており、図10は図7に示す時点からΔt秒後の状態を示している。また、両図において、(a)は図5,図6で示したのと同様のカメラ1の画像であり、(b)はレーダ2による検出範囲を上方から見た状態を示している。
This optical flow will be specifically described with reference to FIGS.
7 and 10 show a case where the person PE is stopped and the other vehicle AB is moving forward in the same direction as the host vehicle MB. FIG. 10 shows Δt seconds after the time shown in FIG. Indicates the state. In both figures, (a) is an image of the camera 1 similar to that shown in FIGS. 5 and 6, and (b) shows a state in which the detection range by the radar 2 is viewed from above.

ここで図7において人物PEを示す値xc1,yc1,hc1は、図10に示すΔt秒後には、前述した式(1)(2)において、分母となるzの値だけが小さくなるため、自車両MBの前進に伴って大きくなる。そこで、オプティカルフローの矢印は消失点VP(画像上の前方の無限遠点が撮像される点のことであり、図5,6の設定のように、カメラ1の光軸LZを路面RSと平行にした場合は、画像中心が消失点VPとなる)から遠ざかる方向に長くなる。   Here, the values xc1, yc1, and hc1 indicating the person PE in FIG. 7 are smaller than the value of z as the denominator in the above-described equations (1) and (2) after Δt seconds shown in FIG. It becomes larger as the vehicle MB moves forward. Therefore, the arrow of the optical flow is the vanishing point VP (the point at which the forward infinity point on the image is imaged, and the optical axis LZ of the camera 1 is parallel to the road surface RS as in the settings of FIGS. In this case, the image center becomes longer in the direction away from the vanishing point VP.

同様に、壁WOの上にある点なども、止まっているため、オプティカルフローは長くなる。また、これらのオプティカルフローは、消失点VPを中心としてそこから画像の外側に向く矢印となる。   Similarly, since the points on the wall WO are also stopped, the optical flow becomes long. Also, these optical flows become arrows with the vanishing point VP as the center and from there toward the outside of the image.

そこで、図10の(a)に示す人物PEのオプティカルフローは、足元では右下向きとなり、画像の中心近くの頭部付近では右向きとなる。   Therefore, the optical flow of the person PE shown in FIG. 10A is directed downward to the right at the feet, and directed to the right near the head near the center of the image.

一方、他車両ABは、自車両MBと等速運動をしていると仮定すると、距離関係が略一定で前述の式(1)(2)においてzの値が変化しないため、オプティカルフローの長さは短くなる.   On the other hand, assuming that the other vehicle AB is moving at a constant speed with the host vehicle MB, the distance relationship is substantially constant and the value of z does not change in the above formulas (1) and (2). The length will be shorter.

次に、図4に戻り、レーダ2からの検波情報の変換処理について説明する。
上記のようにレーダ2の検波情報の変換処理は、計測点が有する距離データに基づいて相対速度を求める処理である。この相対速度は、時系列的に(例えば、0.1秒ごとに)レーダ2からの距離情報を取得する場合、ある一定時間の同一の計測点に対する距離変化、すなわち、距離変化/一定時間の長さで求めることができる。
Next, returning to FIG. 4, the detection information conversion processing from the radar 2 will be described.
As described above, the conversion process of the detection information of the radar 2 is a process for obtaining the relative velocity based on the distance data of the measurement point. This relative speed is obtained when the distance information from the radar 2 is acquired in time series (for example, every 0.1 second), that is, the distance change with respect to the same measurement point for a certain fixed time, that is, the distance change / the fixed time It can be calculated by length.

あるいは、同一計測点間の最小二乗誤差直線を求め、その傾きを相対速度として求めてもよい。距離精度にはバラツキもあるため、例えば、0.1秒ごとの距離結果に対して求めた最小二乗誤差直線を求める方法を採ることで、計測点の1点程度の誤差や非計測点を補完して相対速度を安定して求めることができる。   Alternatively, a least square error line between the same measurement points may be obtained, and the inclination thereof may be obtained as a relative speed. Because there is variation in distance accuracy, for example, by taking the least square error straight line obtained for distance results every 0.1 seconds, the error of about one measurement point or non-measurement point is complemented. Thus, the relative speed can be obtained stably.

次に、物体存在判定処理部13で実行されるステップS3の物体存在判定処理について説明する。   Next, the object presence determination process in step S3 executed by the object presence determination processing unit 13 will be described.

この物体の存在判定は、画像情報に基づく判定と、検波情報に基づく判定と、がそれぞれ並列に行われる。   This object presence determination is performed in parallel with determination based on image information and determination based on detection information.

画像情報に基づく判定は、本実施例1では、オプティカルフローにより同じ動きが集中している部分に物体が存在すると判定することで行われる。   In the first embodiment, the determination based on the image information is performed by determining that an object exists in a portion where the same movement is concentrated by the optical flow.

そして、画像上で物体が存在すると判定された領域にあっては、オプティカルフローが観測された位置を囲う矩形の領域が設定される。例えば、図7(a)に示す他車両ABの場合、座標(xc0,yc0)を基準として幅wc0、高さhc0の矩形が設定され、人物PEの場合、座標(xc1,yc1)を基準として幅wc1、高さhc1の矩形の領域SG1,SG2が設定される。なお、この物体が存在すると判定された領域SG1,SG2を、以後、物体判定領域と称する。   And in the area | region where it determined with the object existing on the image, the rectangular area | region surrounding the position where the optical flow was observed is set. For example, in the case of the other vehicle AB shown in FIG. 7A, a rectangle having a width wc0 and a height hc0 is set based on the coordinates (xc0, yc0), and in the case of the person PE, the coordinates (xc1, yc1) are used as a reference. Rectangular areas SG1 and SG2 having a width wc1 and a height hc1 are set. Note that the areas SG1 and SG2 determined to include the object are hereinafter referred to as object determination areas.

一方、検波情報に基づく判定は、基本的には、何らかの計測点が同じ距離に時間的に連続して観測された場合に、その位置に物体が存在すると判定することで行われる。例えば、本実施例1では、レーダ2のスキャニング周期が0.1msecとし、0.3msec連続して、同じ方位、同じ距離に計測点が観測された場合に、その方位に物体が存在すると判定される。   On the other hand, the determination based on the detection information is basically performed by determining that an object exists at that position when some measurement points are observed continuously in time at the same distance. For example, in the first embodiment, when the scanning period of the radar 2 is set to 0.1 msec and measurement points are observed in the same direction and the same distance for 0.3 msec continuously, it is determined that an object exists in the direction. The

また、本実施例1では、図7における他車両ABおよび人物PEのように、その計測点qA,qPが、方位的に連続している(図では左右方向に連続している)場合には、上述の時系列的な観測無しに物体が存在すると判定する。   In the first embodiment, when the measurement points qA and qP are azimuthally continuous (continuous in the left-right direction in the figure), like the other vehicle AB and the person PE in FIG. It is determined that the object exists without the above-described time-series observation.

さらに、本実施例1では、計測点qA,qP,qWのうち、反射強度があらかじめ設定されたしきい値よりも高い場合には、時系列的な連続性や方位の連続性が小さい場合であっても、その計測点に物体が存在すると判定する。   Furthermore, in the first embodiment, when the reflection intensity is higher than a preset threshold value among the measurement points qA, qP, and qW, the time series continuity and the azimuth continuity are small. Even if it exists, it determines with an object existing in the measurement point.

すなわち、一般的にノイズは反射強度が弱く、かつ、計測点が単独で存在することが多い。このことから、他車両ABや二輪車MSのように、反射強度の強い計測点が観測された場合には、即時に、物体が存在すると判定する。   That is, in general, noise has a low reflection intensity and often has a single measurement point. From this, when a measurement point with high reflection intensity is observed as in the other vehicle AB or the two-wheeled vehicle MS, it is immediately determined that an object exists.

なお、反射強度はレーダ2が発光するレーザ光の強さに依存するため、しきい値は、実験的に検出対象物体を計測した場合の一般的な反射強度を求め、その実験値に基づいて設定される。また、反射強度は、レーダ2からの距離が遠ざかると弱くなる。このため、しきい値は、物体との距離が遠くなるほど小さな値に設定されている。このようにしきい値に距離との相関を持たせるにあたり、あらかじめ実験値に基づき、距離に相関させたしきい値を記憶させてもよいし、あるいは、しきい値に距離に応じた係数を乗じることで距離との相関性を持たせるようにしてもよい。   Since the reflection intensity depends on the intensity of the laser beam emitted by the radar 2, the threshold value is obtained based on the experimental value obtained by obtaining a general reflection intensity when the detection target object is experimentally measured. Is set. Further, the reflection intensity decreases as the distance from the radar 2 increases. For this reason, the threshold value is set to a smaller value as the distance from the object increases. In this way, when the threshold value is correlated with the distance, the threshold value correlated with the distance may be stored in advance based on the experimental value, or the threshold value may be multiplied by a coefficient corresponding to the distance. Thus, a correlation with the distance may be provided.

次に、ステップS4の変化算出処理のうち、距離変化算出処理部14で算出される距離変化について説明する。
図11は、(a)にレーダ2による計測状態、(b)にカメラ1で撮像した画像を示している。
Next, the distance change calculated by the distance change calculation processing unit 14 in the change calculation process of step S4 will be described.
FIG. 11 shows a measurement state by the radar 2 in (a), and an image captured by the camera 1 in (b).

レーダ2では、画像上の人物PE、他車両AB、壁WO、二輪車MSのそれぞれについて、それぞれ計測点群P0,P1,P2,P3が得られ、かつ、それらとの距離z0,z1,z2,z3(ここでは、各計測点群に含まれる計測点の距離の各計測点群ごとの平均値)が計測されている。   In the radar 2, measurement point groups P0, P1, P2, and P3 are obtained for each of the person PE, the other vehicle AB, the wall WO, and the two-wheeled vehicle MS on the image, and the distances z0, z1, z2, and these are measured. z3 (here, the average value of the distances of the measurement points included in each measurement point group for each measurement point group) is measured.

距離変化算出処理部14では、レーダ2により計測されている物体、すなわち計測点群P0,P1,P2,P3について、時間的に連続して観測される距離の変化が求められる。   The distance change calculation processing unit 14 obtains a change in distance observed continuously in time for an object measured by the radar 2, that is, the measurement point groups P0, P1, P2, and P3.

さらに、距離変化算出処理部14では、距離変化と共に反射強度(ここでは、各計測点群に含まれる計測点における反射強度の各計測点ごとの平均値)の変化も求められる。そして、この距離変化および反射強度変化に、あらかじめしきい値が設定されており、距離変化および反射強度変化が、しきい値を超えない範囲で時間的に連続して観測されている場合に、同じ物体を継続して計測していると判定され、この物体にフラグなどが与えられる。   Further, the distance change calculation processing unit 14 also obtains a change in reflection intensity (here, an average value of the reflection intensity at each measurement point included in each measurement point group) along with the distance change. Then, when a threshold value is set in advance for the distance change and the reflection intensity change, and the distance change and the reflection intensity change are continuously observed in a range not exceeding the threshold value, It is determined that the same object is continuously measured, and a flag or the like is given to this object.

一方、距離変化と反射強度変化との少なくとも一方が、あらかじめ設定されたしきい値を越えた場合には、観測中の物体が代わったと判断される。   On the other hand, when at least one of the change in distance and the change in reflection intensity exceeds a preset threshold value, it is determined that the object being observed has changed.

すなわち、距離変化は、同じ物体を連続して観測し続ける必要がある。そこで、同じ物体を連続して観測しているかどうかを確認するために、上述のように距離変化および反射強度のしきい値を設定し、観測の途中で他の物体に代わっていないかどうかの確認を行うようにしている。ここで、距離変化のしきい値は、検出対象である物体としてあり得ない速度で距離変化したことを示す値に設定されているもので、物体の種類毎に異なるしきい値を用いることもできる。同様に、反射強度も、検出対象の物体上において、あり得ない反射強度変化が生じたことを示す値に設定されている。   That is, the distance change needs to continuously observe the same object. Therefore, in order to check whether the same object is being observed continuously, the threshold of the distance change and the reflection intensity is set as described above, and whether or not the other object is replaced during the observation. Confirmation is made. Here, the distance change threshold is set to a value indicating that the distance has changed at a speed that is not possible as an object to be detected, and a different threshold may be used for each type of object. it can. Similarly, the reflection intensity is also set to a value indicating that an impossible reflection intensity change has occurred on the object to be detected.

次に、大きさ変化算出処理部15で算出される大きさ変化について説明する。なお、この大きさ変化とは、本実施例1では、検出対象の物体そのものの画像上の大きさではなく、その物体の一部の画像上における大きさの変化が求められる。   Next, the magnitude change calculated by the magnitude change calculation processing unit 15 will be described. In the first embodiment, the change in size is not the size of the detection target object itself but the change of the size of a part of the object.

カメラ1により撮像された物体の画像上の大きさは、距離に反比例している。また、その画像上の大きさの変化は、物体の上の或る部位と、物体全体と、のいずれでも、上記の距離との反比例との関係にある。   The size of the object imaged by the camera 1 is inversely proportional to the distance. In addition, the change in size on the image is in an inversely proportional relationship with the distance in any part of the object and the entire object.

例えば、他車両ABを検出している場合に、他車両ABまでの距離z1が半分になると、画像上の他車両ABの大きさは2倍になる。また、他車両ABのナンバプレートの部分のみでも、そのナンバプレートの画像上の大きさは、上記のように距離が半分になったときには、大きさは2倍になる。   For example, when the other vehicle AB is detected and the distance z1 to the other vehicle AB is halved, the size of the other vehicle AB on the image is doubled. Further, even in the number plate portion of the other vehicle AB, the size of the number plate on the image is doubled when the distance is halved as described above.

このように、観測している或る物体において、その画像上の大きさの変化は、物体全体でも、物体の任意の部位でも、同様である。   In this way, the change in the size of an image of a certain object being observed is the same for the entire object or any part of the object.

そこで、本実施例1では、大きさ変化の算出対象は、図7(a)に示したような物体(他車両AB,人物PE)の全体を囲む矩形の物体判定領域SG1,SG2ではなく、これら物体判定領域SG1,SG2の中の一部の領域について行う。この大きさ変化の算出対象となる領域を、本明細書では注目領域と称する。   Therefore, in the first embodiment, the calculation target of the size change is not the rectangular object determination areas SG1 and SG2 surrounding the entire object (other vehicle AB, person PE) as shown in FIG. This is performed for a part of the object determination areas SG1 and SG2. An area that is a target of calculation of the change in size is referred to as an attention area in this specification.

図11(b)に示す例では、画像上の人物PE、他車両AB、壁WO、二輪車MSの一部に、図において点線で囲まれた矩形の注目領域R0,R1,R2,R3が示されている。これら注目領域R0,R1,R2,R3は、画像情報に基づいて設定された物体判定領域(図7のSG1,SG2参照)の中で、エッジ強度などに基づき、或る物体を確実に撮像していると判定される一部の領域である。   In the example shown in FIG. 11 (b), rectangular attention areas R0, R1, R2, and R3 surrounded by dotted lines in the figure are shown in part of the person PE, other vehicle AB, wall WO, and motorcycle MS on the image. Has been. These attention areas R0, R1, R2, and R3 reliably capture an image of an object based on edge strength and the like in an object determination area (see SG1 and SG2 in FIG. 7) set based on image information. It is a part of the area determined to be.

すなわち、注目領域R0は、人物PEの中央部のみの領域、注目領域R1は、他車両ABのリヤバンパ11cおよびナンバプレート11dを含む部分のみの領域、注目領域R2は、壁WOの他車両ABから確実に離れた一部のみの領域、注目領域R3は、二輪車MSの中央部のみの領域である。   That is, the attention area R0 is an area only in the center of the person PE, the attention area R1 is an area only including the rear bumper 11c and the number plate 11d of the other vehicle AB, and the attention area R2 is from the other vehicle AB of the wall WO. The only part of the area that is surely separated, the attention area R3, is an area of only the central part of the motorcycle MS.

次に、大きさ変化の求め方について、他車両ABにおける注目領域R1を例にとり説明する。   Next, how to obtain the change in size will be described by taking the attention area R1 in the other vehicle AB as an example.

この大きさ変化は、注目領域R1内のエッジ間の距離により求める。すなわち、この注目領域R1には、他車両ABにおいて水平エッジが強く検出されるリヤウインドウ11a、トランクリッド11b、リヤバンパ11c、ナンバプレート11dが含まれている。   This change in size is obtained from the distance between the edges in the attention area R1. That is, the attention area R1 includes a rear window 11a, a trunk lid 11b, a rear bumper 11c, and a number plate 11d where a horizontal edge is strongly detected in the other vehicle AB.

図12は、注目領域R1を示しており、(a)がt0の時点であって自車両MBとの距離がz1の状態を示し、(b)がt0から時間が経過して自車両MBとの距離がz1よりも小さくなった状態(この距離をafz1とする)を示している。   FIG. 12 shows a region of interest R1, where (a) shows a state where the distance from the host vehicle MB is z1 at the time t0, and (b) shows that the host vehicle MB The distance is smaller than z1 (this distance is afz1).

この図12に示されるように、トランクリッド11bとリヤバンパ11cの各下側水平エッジ間の距離ww1およびリヤウインドウ11aとリヤバンパ11cの各下側水平エッジ間の距離ww2は、相対距離の変化に応じて変化する。   As shown in FIG. 12, the distance ww1 between the trunk lid 11b and each lower horizontal edge of the rear bumper 11c and the distance ww2 between the rear window 11a and each lower horizontal edge of the rear bumper 11c correspond to changes in the relative distance. Change.

すなわち、(a)に示す、距離=z1のときの水平エッジ間距離ww1,ww2よりも、距離が近付いた(b)に示す、距離=afz1のときの水平エッジ間距離afww1,afww2の方が大きくなる。   That is, the distance between horizontal edges afww1 and afww2 when distance = afz1 shown in (b) is closer to the distance between horizontal edges ww1 and ww2 when distance = z1 shown in (a). growing.

この場合、距離z1,afz1と、水平エッジ間距離ww1,ww2,afww1,afww2は、下記の式(3)の関係が成り立つ。
z1/afz1= afww1/ ww1=afww2 /ww2 ・・・(3)
In this case, the distances z1 and afz1 and the horizontal edge distances ww1, ww2, afww1, and afww2 have the following relationship (3).
z1 / afz1 = afww1 / ww1 = afww2 / ww2 (3)

また、壁WOなども明確なエッジを有する場合、上記と同じようにエッジ間距離の変化により大きさ変化を求めることができるが、繰り返し模様やテクスチャなどが観測される場合には、上述のようなエッジ間距離ではなく、観測される繰り返し模様やテクスチャの周波数成分により大きさ変化が求められる。   In addition, when the wall WO has a clear edge, the size change can be obtained by the change in the distance between the edges in the same manner as described above. However, when a repetitive pattern or texture is observed, as described above. The change in size is determined not by the distance between edges but by the frequency components of the observed repeated patterns and textures.

図11(b)に示すように、壁WOに斜めのエッジの繰り返しが観測される場合において注目領域R2の距離変化に応じた画像変化を図13に示している。図13の(a)に示す距離=z1では、注目領域R2における繰り返しパターンの間隔が狭いのに対し、それよりも距離が近付いた(b)に示す距離=afz1では、注目領域R2における繰り返しパターンの間隔が拡がる。   As shown in FIG. 11B, FIG. 13 shows an image change corresponding to a change in the distance of the attention area R2 in the case where repeated oblique edges are observed on the wall WO. At the distance = z1 shown in FIG. 13 (a), the interval between the repetitive patterns in the attention area R2 is narrow. On the other hand, when the distance = afz1 shown in FIG. The interval of increases.

このような繰り返しパターンの間隔の変化は、注目領域R2におけるエッジの周波数変化として得られる。そこで、エッジの繰り返しパターンの周波数成分を、ウエーブレット変換や画像のFFT変換(高速フーリエ変換)などにより求める。   Such a change in the interval between the repeated patterns is obtained as a change in the frequency of the edge in the attention area R2. Therefore, the frequency component of the repetitive edge pattern is obtained by wavelet transform, image FFT transform (fast Fourier transform), or the like.

一般に繰り返しパターンのようにエッジが多く存在する場合、何本も同じ種類のエッジがあると、エッジの組み合わせを間違える可能性が有り、前述したエッジ間隔の変化に基づく物体の大きさ変化を信頼性高く算出することが難しい。そこで、本実施例1では、エッジ間距離の短い繰り返しパターンについては、周波数fの変化を求め、これを大きさ変化とする。   In general, when there are many edges like a repetitive pattern, there is a possibility that the combination of edges may be mistaken if there are many edges of the same type, and the object size change based on the change in the edge interval described above is reliable. It is difficult to calculate high. Therefore, in the first embodiment, for a repetitive pattern with a short distance between edges, a change in the frequency f is obtained and this is set as a magnitude change.

この場合、距離z1,afz1と、周波数f1,aff1は、下記の式(4)の関係が成り立つ。
z1/afz1=f1/aff1 ・・・(4)
In this case, the relationship of the following formula (4) is established between the distances z1 and afz1 and the frequencies f1 and aff1.
z1 / afz1 = f1 / aff1 (4)

ここで、周波数は、周波数分解したときに強い繰り返しパターンが観測されるような種類の画像にだけ適用すればよいので、FFT変換などで強いピークが観測された周波数f1に適用すればよい。   Here, since the frequency only needs to be applied to a type of image in which a strong repetitive pattern is observed when the frequency is decomposed, it may be applied to the frequency f1 at which a strong peak is observed by FFT transformation or the like.

次に、物体検出処理部16におけるステップS5の物体検出処理について説明する。すなわち、ステップS3の物体存在判定処理では、画像上と検波情報とのそれぞれで物体が存在すると判定される。しかし、ステップS5の物体検出処理は、画像上で物体が検出されている或る領域の「大きさ変化」と、レーダで物体が検出されている或る方位の計測点における「距離変化」とを照合し、両変換に反比例という相関性が得られる物体が存在する場合に、「物体検出」とする。   Next, the object detection process in step S5 in the object detection processing unit 16 will be described. That is, in the object presence determination process in step S3, it is determined that an object exists on the image and on the detection information. However, the object detection process in step S5 includes a “size change” of a certain area where the object is detected on the image and a “distance change” at a measurement point in a certain direction where the object is detected by the radar. Are detected, and “object detection” is determined when there is an object that can be obtained as an inversely proportional relationship between the two transformations.

なお、この照合には、図11に示した画像上の注目領域R0,R1,R2,R3と、検波情報により物体が検出されている計測点群P0,P1,P2,P3とが用いられる。   Note that the regions of interest R0, R1, R2, and R3 on the image shown in FIG. 11 and the measurement point groups P0, P1, P2, and P3 where an object is detected based on detection information are used for this collation.

次に、種類判定処理部17で実行するステップS6の物体種類判定処理について説明する。   Next, the object type determination process in step S6 executed by the type determination processing unit 17 will be described.

この物体種類判定は、前述のステップS5の物体検出処理に用いた、注目領域R0,R1,R2,R3および計測点群P0,P1,P2,P3の情報に基づいて行う。   This object type determination is performed based on the information on the attention areas R0, R1, R2, and R3 and the measurement point groups P0, P1, P2, and P3 used in the object detection process in step S5 described above.

本実施例1では、物体の種類の判定に用いられる情報として、縦・横エッジ、エッジ強度、方向ベクトル分散、反射強度、相対速度が用いられ、これら判定用の情報と物体の種類との関係を示す判定特性情報があらかじめデータベースに保管されている。   In the first embodiment, vertical / horizontal edges, edge intensity, direction vector dispersion, reflection intensity, and relative velocity are used as information used for determining the type of object, and the relationship between the information for determination and the type of object Is stored in advance in the database.

図14は、その判定特性情報の一例を示す。図において、「少」「多」「弱」「強」「高」「低」は、検出する物体における各情報の特徴を示し、「0」は、その種類の物体判定に用いないことを示している。   FIG. 14 shows an example of the determination characteristic information. In the figure, “small”, “many”, “weak”, “strong”, “high”, and “low” indicate the characteristics of each information in the detected object, and “0” indicates that it is not used for the type of object determination ing.

したがって、各注目領域R0,R1,R2,R3および計測点群P0,P1,P2,P3の情報の特徴が、図14の判定特性情報の各物体の種類と一致するか否かに基づいて、物体の種類が判定される。   Therefore, based on whether or not the characteristics of the information of each region of interest R0, R1, R2, R3 and the measurement point group P0, P1, P2, P3 match the type of each object in the determination characteristic information of FIG. The type of object is determined.

すなわち、注目領域が持つ情報である縦・横エッジが多く、エッジ強度が強いとともに、方向ベクトル分散が小さく、かつ、計測点群が持つ情報である反射強度が、リフレクタからの反射に相当する強い値を示すとともに、相対速度が、先行車両に相当する遅い速度である場合は、走行中の他車両ABと判定される。   That is, there are many vertical and horizontal edges that are information of the attention area, the edge intensity is strong, the direction vector dispersion is small, and the reflection intensity that is the information of the measurement point group is strong corresponding to the reflection from the reflector. When the value indicates a value and the relative speed is a slow speed corresponding to the preceding vehicle, it is determined that the vehicle is traveling other vehicle AB.

また、注目領域が持つ情報である縦・横エッジが少なく、エッジ強度が弱いとともに、方向ベクトル分散が小さく、かつ、計測点群が持つ情報である反射強度が弱いとともに、相対速度が速い場合には、人物(歩行者)PEと判定される。   Also, when the attention area has few vertical and horizontal edges, the edge strength is weak, the direction vector variance is small, the reflection intensity, which is the information held by the measurement point group, is weak, and the relative velocity is high Is determined to be a person (pedestrian) PE.

また、注目領域が持つ情報である縦・横エッジが少なく、エッジ強度が弱いとともに、方向ベクトル分散が大きく、かつ、計測点群が持つ情報である反射強度が強いとともに、相対速度が遅い場合には、走行中の二輪車MSと判定される。   Also, when there are few vertical and horizontal edges, which are the information of the attention area, the edge strength is weak, the direction vector variance is large, the reflection intensity, which is the information of the measurement point group, is strong, and the relative speed is slow Is determined to be a traveling motorcycle MS.

また、注目領域が持つ情報である縦エッジが多く、横エッジが少なく、エッジ強度が強く、方向ベクトル分散が小さく、かつ、計測点群が持つ情報である相対速度が速いとともに反射強度が低い場合には、道路構造物と判定される。   In addition, when the attention area has many vertical edges, few horizontal edges, strong edge strength, small directional vector variance, and high relative speed, which is information held by the measurement point cloud, and low reflection intensity Is determined to be a road structure.

さらに、物体として検出されているが、これらの基準のいずれにも属さない場合には、種類は、「その他の物体」と判定される。   Furthermore, when it is detected as an object but does not belong to any of these criteria, the type is determined as “other object”.

以上説明したように、本実施例1の物体検出装置では、カメラ1で撮像された画像上の領域の大きさ変化と、レーダ2で捉えられた計測点の距離変化と、の照合に基づいて物体を検出し、さらに、照合がとれた領域の画像情報および検波情報の少なくとも一方に基づいて、物体の種類の判定を行うようにした。   As described above, the object detection apparatus according to the first embodiment is based on the comparison between the change in the size of the area on the image captured by the camera 1 and the change in the distance of the measurement point captured by the radar 2. The object is detected, and further, the type of the object is determined based on at least one of the image information and the detection information of the region where the comparison has been made.

このように、実施例1の物体検出装置では、「車両」のみに限定されることなく様々な種類の物体を検出でき、しかも、このような様々な種類の物体を検出するにあたり、背景などの情報が入ることのない、信頼度の高い物体の種類判定が可能となる。   As described above, the object detection apparatus according to the first embodiment can detect various types of objects without being limited only to the “vehicle”. In addition, in detecting such various types of objects, It is possible to determine the type of object with high reliability and no information.

すなわち、画像情報の中から物体を抽出するにあたり、従来のように、物体の輪郭を抽出したり、図7に示すような物体を含む矩形を抽出したりする手段では、抽出部分に、背景部分や隣り合う他の物体を含むおそれがある。   That is, when extracting an object from image information, the means for extracting the outline of the object or extracting a rectangle including the object as shown in FIG. Or other adjacent objects.

このように、抽出部分に、検出対象である物体の他に、背景や隣り合う他の物体の情報が含まれてしまった場合、レーダ2による検波情報と不一致の部分が含まれ、物体との距離などの精度が低下するおそれがある。加えて、このように抽出した情報に基づいて物体の種類を判別する際に、その物体以外の物に関する情報が含まれていることから、種類の判別精度も低下するおそれがある。   As described above, when the extracted portion includes information on the background and other adjacent objects in addition to the object to be detected, a portion inconsistent with the detection information by the radar 2 is included. There is a risk that accuracy such as distance may decrease. In addition, when the type of an object is determined based on the information extracted in this way, information regarding an object other than the object is included, so that the type determination accuracy may be lowered.

さらに、本実施例1では、物体の検出の際に、「大きさ変化」を算出するが、このように背景などの情報が含まれると、背景のエッジなどが悪影響し、「大きさ変化」を誤って算出するおそれもある。   Furthermore, in the first embodiment, “size change” is calculated at the time of detecting an object. If information such as the background is included in this way, the edge of the background has an adverse effect, and “size change” is detected. May be erroneously calculated.

それに対し、本実施例1では、上述のように、画像上の物体のなかで、画像上の物体の中の一部の小領域を注目領域として抽出しているため、上述のような背景や隣り合う他の物体の情報が含まれるおそれが低くなり、従来のように、物体の輪郭や物体を含む矩形に基づいて物体検出を行うのに比べて物体検出精度が向上する。   On the other hand, in the first embodiment, as described above, a part of the small area in the object on the image is extracted as the attention area among the objects on the image. There is a low possibility that information on other objects adjacent to each other is included, and the object detection accuracy is improved as compared to the case where the object detection is performed based on the outline of the object or the rectangle including the object as in the conventional case.

しかも、物体の検出において、画像上の特定の小領域の情報に基づいて得られた「大きさ変化」と、検波情報で得られた同じ方位に存在する物体の「距離変化」と、を照合して、カメラ1とレーダ2とで同一の物体を検出していることの照合を行うようにしたため、カメラ1とレーダ2とで検出される物体の一致を精度の高いものとでき、いっそう物体検出精度の向上を図ることができる。   Moreover, in the detection of an object, the “size change” obtained based on the information of a specific small area on the image is collated with the “distance change” of the object existing in the same direction obtained from the detection information. Since the same object is detected by the camera 1 and the radar 2 are collated, the object detected by the camera 1 and the radar 2 can be matched with high accuracy, and the object is further increased. The detection accuracy can be improved.

さらに、本実施例1では、レーダ2による計測点と一致した注目領域および計測点群との情報に基づいて、物体の種類を判定するようにしているため、車両以外の物体も検出できる。しかも、この判定に、検出対象となる物体以外の背景や隣り合う物体などの情報が含まれる可能性が低く、従来のように、物体の輪郭や物体を含む矩形の情報に基づいて物体の種類の判定を行うものに比べて、物体の種類の判定精度を向上させることができる。   Further, in the first embodiment, since the type of the object is determined based on the information of the attention area and the measurement point group that coincides with the measurement point by the radar 2, an object other than the vehicle can also be detected. In addition, this determination is unlikely to include information such as backgrounds and adjacent objects other than the detection target object, and the type of object based on the outline of the object and rectangular information including the object as in the past. Compared with the one that performs the determination, it is possible to improve the determination accuracy of the object type.

また、本実施例1では、物体の種類の判定として、データベースに保管された判定特性情報に基づいて判定を行うようにしているため、判定の処理の簡略化を図ることができる。しかも、この判定に、縦・横エッジ、エッジ強度、方向ベクトル分散、反射強度、相対速度を用いるようにしているため、人物PE、他車両AB、二輪車MS、道路構造物(壁WO)を識別して判定することができる。   In the first embodiment, the determination of the object type is performed based on the determination characteristic information stored in the database, so that the determination process can be simplified. In addition, since vertical / horizontal edges, edge strength, direction vector dispersion, reflection strength, and relative speed are used for this determination, the person PE, the other vehicle AB, the two-wheeled vehicle MS, and the road structure (wall WO) are identified. Can be determined.

次に、図15に基づいて本発明の実施の形態の実施例2の物体検出装置について説明する。なお、この実施例2を説明するにあたり、前記実施例1と同一ないし均等な部分については、同一符号を付して、相違する部分を中心として説明する。   Next, an object detection apparatus according to Example 2 of the embodiment of the present invention will be described with reference to FIG. In the description of the second embodiment, the same or equivalent parts as those in the first embodiment will be denoted by the same reference numerals and different parts will be mainly described.

この実施例2の物体検出装置では、ステップS4の大きさ変化算出処理において画像上の物体から注目領域を抽出する手法が実施例1と異なる。   In the object detection apparatus according to the second embodiment, a technique for extracting a region of interest from an object on an image in the size change calculation process in step S4 is different from that according to the first embodiment.

すなわち、実施例1では、画像上の物体の中の一部の領域を抽出していたが、本実施例2では、まず、図7(a)に示すような物体を含む矩形の物体判定領域SG1,SG2を形成した後、これを細分化して注目領域を設定する。   In other words, in the first embodiment, a partial area in the object on the image is extracted. In the second embodiment, first, a rectangular object determination area including an object as shown in FIG. After forming SG1 and SG2, they are subdivided to set a region of interest.

図15は、その一例を示しており、他車両ABが含まれる物体判定領域SG3を、さらに、縦方向および横方向のそれぞれで等間隔の分割線BLにより細分化し、この細分化された各細分化領域を注目領域TRとする。   FIG. 15 shows an example, and the object determination area SG3 including the other vehicle AB is further subdivided into equally divided dividing lines BL in each of the vertical direction and the horizontal direction, and each of the subdivided subdivisions. The region to be converted is the attention region TR.

そして、ステップS5の物体検出処理において、「大きさ変化」と「距離変化」とによる照合を行って、反比例という相関性がとれた注目領域TRのみを、種類判定用領域RSGとする。   Then, in the object detection process in step S5, collation based on “size change” and “distance change” is performed, and only the attention region TR having an inversely proportional correlation is set as the type determination region RSG.

したがって、その後の種類判定処理では、種類判定用領域RSGの画像情報が他車両ABの判定に用いられる。   Therefore, in the subsequent type determination process, the image information of the type determination region RSG is used for determination of the other vehicle AB.

なお、実施例2では、他の構成は実施例1と同様であるので説明を省略する。   In the second embodiment, the other configuration is the same as that of the first embodiment, and thus the description thereof is omitted.

本実施例2では、注目領域TRの設定が、物体を含む矩形の物体判定領域SGを単純に分割するだけであるので、処理が単純で、処理速度の向上あるいは処理に要する構成の簡略化を図ることができる。   In the second embodiment, the setting of the attention area TR simply divides the rectangular object determination area SG including the object, so that the processing is simple and the processing speed is improved or the configuration required for the processing is simplified. Can be planned.

また、物体の種類の判定には、このように大まかに設定した複数の注目領域TRのうちで、「大きさ変化」と「距離変化」とが相関する種類判定用領域RSGのみの情報に基づいて物体の種類の判定を行うため、実施例1と同様に、物体の種類の判定に検出対象となる物体以外の情報が含まれにくくなり、物体の検出精度の向上を図ることができ、かつ、物体の種類の判定精度を向上させることができる。   The object type is determined based on only information of the type determination region RSG in which “size change” and “distance change” correlate among the plurality of attention regions TR roughly set as described above. Since the object type is determined, the object type determination is less likely to include information other than the object to be detected, and the object detection accuracy can be improved, as in the first embodiment, and The accuracy of determining the type of object can be improved.

次に、本発明の実施の形態の実施例3の物体検出装置について説明する。なお、この実施例3を説明するにあたり、前記実施例1と同一ないし均等な部分については、同一符号を付して、相違する部分を中心として説明する。   Next, an object detection apparatus according to Example 3 of the embodiment of the present invention will be described. In the description of the third embodiment, the same or equivalent parts as those in the first embodiment will be denoted by the same reference numerals and different parts will be mainly described.

この実施例3の物体検出装置では、物体検出処理の内容が実施例1と相違している。すなわち、実施例3では、実施例1の物体検出処理と並列に以下の処理を実行し、「大きさ変化」と「距離変化」とに基づく照合を行う前に物体検出と判断する処理を追加した。   In the object detection apparatus of the third embodiment, the contents of the object detection process are different from those of the first embodiment. That is, in the third embodiment, the following processing is executed in parallel with the object detection processing of the first embodiment, and processing for determining object detection before performing collation based on “size change” and “distance change” is added. did.

詳細には、ステップS3の物体存在判定処理において、画像情報から得られたエッジ強度および検波情報から得られた反射強度が、あらかじめ設定されたしきい値よりも高く、何れか単独の検出結果であっても信頼度が高い場合には、即時に物体の検出と判定する。   Specifically, in the object presence determination process in step S3, the edge intensity obtained from the image information and the reflection intensity obtained from the detection information are higher than a preset threshold value, and any one of the detection results Even if the reliability is high, it is immediately determined that the object is detected.

これにより、霧や雨・雪や逆光などにより、カメラ1とレーダ2とのうちで、いずれか一方の検出信頼性が低い状況でも、物体の検出が可能となる。   Thereby, it is possible to detect an object even in a situation where detection reliability of either one of the camera 1 and the radar 2 is low due to fog, rain, snow, backlight, or the like.

しかも、本実施例3では、カメラ1とレーダ2との一方のみで物体の検出を行う際は、信頼度を確保できるしきい値を設定しているため、両者1,2の一方のみの検出であっても、高い信頼度を確保することができる。   Moreover, in the third embodiment, when an object is detected by only one of the camera 1 and the radar 2, a threshold value that can ensure reliability is set, so that only one of the two is detected. Even so, high reliability can be ensured.

次に、本発明の実施の形態の実施例4の物体検出装置について説明する。なお、この実施例4を説明するにあたり、前記実施例1と同一ないし均等な部分については、同一符号を付して、相違する部分を中心として説明する。   Next, an object detection apparatus according to Example 4 of the embodiment of the present invention will be described. In the description of the fourth embodiment, the same or equivalent parts as those in the first embodiment will be denoted by the same reference numerals and different parts will be mainly described.

この実施例4では、図3の変換処理部12の情報変換処理の内容の一部が実施例1と異なる。すなわち、実施例4では、変換処理部12において、画像情報と検波情報に対して、方向微分、時系列微分および時系列積分をかける処理を行う。   In the fourth embodiment, a part of the contents of the information conversion process of the conversion processing unit 12 in FIG. 3 is different from the first embodiment. That is, in the fourth embodiment, the conversion processing unit 12 performs a process of multiplying image information and detection information by direction differentiation, time series differentiation, and time series integration.

なお、画像の微分は、図8に示したフィルタとのコンボリューションを求める。また、レーダ2の計測値を微分する場合は、例えば、隣り合う計測点の反射強度の差を求めるなどの単純処理を適用すればよい。また、時系列的な微分および積分は、或る注目画素や計測点に注目し、連続して入力されるその注目点の画素または計測点の差分あるいは加算値を微分値および積分値として算出する。   In addition, the differentiation of an image calculates | requires convolution with the filter shown in FIG. Further, when differentiating the measurement value of the radar 2, for example, a simple process such as obtaining a difference in reflection intensity between adjacent measurement points may be applied. In the time-series differentiation and integration, attention is paid to a certain target pixel or measurement point, and a difference or addition value of the pixel or measurement point of the target point that is continuously input is calculated as a differential value and an integration value. .

以上のように、本実施例4では、エッジに、たまたま欠損が生じるような状況であっても、積分値が用いられることで、このような欠損を防いで安定した物体の検出が可能となる。   As described above, according to the fourth embodiment, even if a defect occurs in the edge by chance, the integral value is used, so that it is possible to detect such a stable object while preventing such a defect. .

また、あらかじめ微分値が算出されていることで、図7(a)に示す物体判定領域SG1,SG2の情報として、輝度値に替えて微分画像を用いるか、あるいは、輝度値と微分画像との両方を用いることで、直線成分の検出を、より正確に行うことができる。   Further, since the differential value is calculated in advance, a differential image is used instead of the luminance value as information of the object determination areas SG1 and SG2 shown in FIG. 7A, or the luminance value and the differential image are changed. By using both, the detection of the linear component can be performed more accurately.

次に、図16,17に基づいて本発明の実施の形態の実施例5の物体検出装置について説明する。なお、この実施例5を説明するにあたり、前記実施例1と同一ないし均等な部分については、同一符号を付して、相違する部分を中心として説明する。   Next, an object detection apparatus according to Example 5 of the embodiment of the present invention will be described with reference to FIGS. In the description of the fifth embodiment, the same or equivalent parts as those in the first embodiment will be denoted by the same reference numerals and different parts will be mainly described.

この実施例5は、図3に示される種類判定処理部17における種類判定処理が実施例1とは異なる。   The fifth embodiment is different from the first embodiment in the type determination processing in the type determination processing unit 17 shown in FIG.

すなわち、実施例5では、物体の種類判定には、カメラ1からの画像情報として、エッジの方位分散、水平エッジ強度、輝度分散、輝度平均、垂直エッジ強度が用いられ、また、レーダ2からの検波情報として、反射強度分散、反射強度平均、輝度分散が用いられるもので、これらを総称して特徴量と呼ぶ。   That is, in the fifth embodiment, for the object type determination, edge orientation dispersion, horizontal edge strength, luminance dispersion, luminance average, and vertical edge strength are used as image information from the camera 1. As detection information, reflection intensity dispersion, reflection intensity average, and luminance dispersion are used, and these are collectively referred to as feature amounts.

そして、本実施例5では、物体の種類の判定に、これら特徴量の割合を用いる。すなわち、本実施例5では、物体の種類別に、実験結果に基づく平均的な特徴量の割合を示す判定特性情報が図外のデータベースに保管されている。   In the fifth embodiment, the ratio of these feature amounts is used for determining the type of object. That is, in the fifth embodiment, determination characteristic information indicating the average feature amount ratio based on the experiment result is stored in a database (not shown) for each object type.

図16は、データベースに保管された判定特性情報の一例を示しており、(a)が他車両ABの判定特性情報、(b)が人物PEの判定特性情報を示している。   FIG. 16 shows an example of the determination characteristic information stored in the database. (A) shows the determination characteristic information of the other vehicle AB, and (b) shows the determination characteristic information of the person PE.

そして、実際に検出された注目領域R0〜R3および計測点群P0〜P3などの特徴量の割合を算出し、それらの結果と保管された判定特性情報とを比較することで、物体の種類の判定を行う。   Then, by calculating the ratio of the characteristic amounts of the attention areas R0 to R3 and the measurement point groups P0 to P3 that are actually detected, and comparing the results with the stored determination characteristic information, Make a decision.

また、図17は、特徴量の割合の検出例を示している。図17において、(a)は図11の他車両ABを検出した計測点P1および注目領域R1における特徴量の種類別の割合を示している。また、同図(b)は、図11の人物PEの計測点群P0と注目領域R0において求めた縦横エッジや反射強度などの特徴量の種類別の割合を示している。   FIG. 17 shows a detection example of the feature amount ratio. In FIG. 17, (a) shows the ratios by type of feature amounts at the measurement point P1 where the other vehicle AB in FIG. 11 is detected and the attention area R1. FIG. 7B shows the ratios of the feature points such as vertical and horizontal edges and reflection intensity obtained in the measurement point group P0 and the attention area R0 of the person PE in FIG.

これら図16、図17を参照すると分かるように、他車両ABは、水平線などの直線エッジが多く、反射強度が強く、エッジの方向ベクトル分散が小さい。また、人物PEは、エッジは少ないが、方向ベクトル分散が大きく、反射強度が強い。このように、物体の種類により、特徴量の割合が異なる。   As can be seen with reference to FIGS. 16 and 17, the other vehicle AB has many straight edges such as a horizontal line, strong reflection intensity, and small edge direction vector dispersion. Further, the person PE has few edges, but has a large direction vector dispersion and a high reflection intensity. Thus, the ratio of the feature amount varies depending on the type of object.

そこで、本実施例5のように、保管データと、検出した物体との特徴量の割合を比較することで、高い精度で物体の種類を判定することができる。   Therefore, as in the fifth embodiment, the type of the object can be determined with high accuracy by comparing the ratio of the feature amount between the stored data and the detected object.

なお、上述の特徴量の割合をバーグラフ上の値として、処理するにあたっては、以下に述べる処理を行う。   The processing described below is performed when processing the above-described feature amount ratio as a value on the bar graph.

まず、縦横エッジ数ECT、反射強度LCT、エッジの方向ベクトル分散値EVを算出する。なお、これらの縦横エッジ数、反射強度、エッジの方向ベクトル分散値には、それぞれに、あらかじめ基準値ECT0、LCT0、EV0を設定しておく。   First, the number of vertical and horizontal edges ECT, the reflection intensity LCT, and the edge direction vector dispersion value EV are calculated. The reference values ECT0, LCT0, and EV0 are set in advance for the number of vertical and horizontal edges, reflection intensity, and edge direction vector dispersion value, respectively.

次に、各値について、算出値と基準値との比、ECT/ECT0(=RE)、LCT/LCT0(=RL)、EV/EV0(=RV)を算出する。
次に、算出比の総和W=RE+RL+RVを算出する。
Next, for each value, the ratio between the calculated value and the reference value, ECT / ECT0 (= RE), LCT / LCT0 (= RL), EV / EV0 (= RV) is calculated.
Next, the sum of the calculation ratios W = RE + RL + RV is calculated.

さらに、総和Wに対する各比の割合、すなわち、RE/W、RL/W、RV/Wを算出する。
最後に、これらの値RE/W、RL/W、RV/Wを、図17に示すように、バーグラフとして処理する。
Further, the ratio of each ratio to the total sum W, that is, RE / W, RL / W, and RV / W are calculated.
Finally, these values RE / W, RL / W, and RV / W are processed as a bar graph as shown in FIG.

以上のように、実施例5では、物体の種類の判別を特徴量の割合により行うことで、精度の高い判別が可能となる。   As described above, in the fifth embodiment, it is possible to determine with high accuracy by determining the type of the object based on the ratio of the feature amount.

また、判別する物体の種類を増加あるいは変更する場合などでも、データベースに保管した特徴量を示すデータを変更あるいは増加するだけで対応可能であり、判別する物体の種類の変更が容易である。   Further, even when the type of the object to be discriminated is increased or changed, it can be dealt with by simply changing or increasing the data indicating the feature quantity stored in the database, and the type of the object to be discriminated can be easily changed.

次に、図18に基づいて本発明の実施の形態の実施例6の物体検出装置について説明する。なお、この実施例6を説明するにあたり、前記実施例1と同一ないし均等な部分については、同一符号を付して、相違する部分を中心として説明する。   Next, an object detection apparatus according to Example 6 of the embodiment of the present invention will be described with reference to FIG. In the description of the sixth embodiment, the same or equivalent parts as those in the first embodiment will be denoted by the same reference numerals and different parts will be mainly described.

この実施例6は、図3の種類判定処理部17における物体の種類を判定する領域の設定が実施例1と異なる。すなわち、実施例6では、他車両ABのように横長の物体や壁WOのように物体を示す領域が画像内で大きく区切られた物体について、物体の端縁部と内部との2箇所に種類判定用領域を設定するように構成されている。   The sixth embodiment is different from the first embodiment in setting the region for determining the type of object in the type determination processing unit 17 of FIG. In other words, in the sixth embodiment, there are two types of objects such as a horizontally long object such as the other vehicle AB and an object in which the region indicating the object is largely divided in the image, such as the wall WO, in two places, the edge and the inside of the object. A determination area is set.

この一例を図18に示しており、他車両ABと壁WOについて、それぞれ、物体の端縁部に配置された端部種類判定用領域TR1,TR2と、物体の内部に配置された内部種類判定用領域NR1,NR2とが設定されている。   An example of this is shown in FIG. 18, for the other vehicle AB and the wall WO, respectively, end type determination regions TR1 and TR2 arranged at the edge of the object, and internal type determination arranged inside the object. The use areas NR1 and NR2 are set.

これら各領域TR1,TR2,NR1,NR2の設定は、実施例2で説明した処理を用いて設定される。すなわち、まず、実施例2で説明したように、物体(この例の場合、他車両ABおよび壁WO)を含む広範囲の物体判定領域を設定し、これを細分化して注目領域が設定され。そして、各注目領域について、「大きさ変化」と「距離変化」との照合を行い、相関性が得られた領域が、種類判定用領域として設定される。ここまでは、実施例2と同様の処理である。   These areas TR1, TR2, NR1, and NR2 are set using the processing described in the second embodiment. That is, first, as described in the second embodiment, a wide range of object determination areas including objects (in this example, the other vehicle AB and the wall WO) are set, and this is subdivided to set the attention area. Then, for each region of interest, “size change” and “distance change” are collated, and the region where the correlation is obtained is set as the type determination region. Up to this point, the processing is the same as in the second embodiment.

さらに、本実施例6では、得られた種類判定用領域から、物体の端縁の示す強いエッジを有する部分を含む領域と、この端縁を示すエッジよりも内側に配置された領域と、が抽出される。このように抽出された前者の領域が端部種類判定用領域TR1,TR2であり、後者の領域が内部種類判定用領域NR1,NR2である。   Further, in the sixth embodiment, from the obtained type determination area, an area including a portion having a strong edge indicated by the edge of the object, and an area arranged inside the edge indicating the edge are Extracted. The former areas extracted in this way are the end type determination areas TR1 and TR2, and the latter areas are the internal type determination areas NR1 and NR2.

なお、人物PEや二輪車MSのように細長い物体や、もともと小さな物体などは、物体端を含む領域を設けると、背景を多く含んでしまうおそれが強い。そこで、上述の横長および画像内で大きく区切られた物体以外の、細長い物体や小さな物体などは、物体端に特徴量無しとし、実施例2と同様に、物体内部に設定された種類判定用領域の情報のみを用いて物体の検出およびその種類判定が行われるようになっている。   It should be noted that an elongated object such as the person PE or the two-wheeled vehicle MS or an originally small object is likely to include a lot of background if an area including the object end is provided. Therefore, in the case of long objects and small objects other than the above-mentioned horizontally long and largely separated objects in the image, the feature amount is not present at the object end, and the type determination area set inside the object as in the second embodiment. An object is detected and its type is determined using only this information.

また、物体の種類判定は、実施例5で説明した、特徴量の割合を示す判定特性情報に基づいて行われる。この場合、物体の種類により端縁部と内部とで、特徴量の割合が異なって設定されている。   The object type determination is performed based on the determination characteristic information indicating the ratio of the feature amount described in the fifth embodiment. In this case, the ratio of the feature amount is set differently between the edge portion and the inside depending on the type of the object.

すなわち、画像情報において、他車両ABでは、物体端が、強いエッジを持つのに対し、内部は、バンパなどエッジを有する部分と、窓ガラス面やボディ面などのエッジを持たない部分とが存在する。   That is, in the other vehicle AB, in the image information, the object end has a strong edge, while the inside has a portion having an edge such as a bumper and a portion having no edge such as a window glass surface or a body surface. To do.

また、壁WOや図外の建物などの人工物も、他車両ABと同様に、物体端に直線性を有するのに対し、内部は、エッジやテクスチャを有していなかったり、エッジやテクスチャがあっても、それが弱かったりする場合がある。   In addition, as with other vehicles AB, the artifacts such as the wall WO and the building outside the figure have linearity at the object end, but the interior does not have an edge or texture, or the edge or texture is not. Even if it is, it may be weak.

そこで、同じ種類の物体であっても、判定特性情報が、端縁部と内部とで、異なって設定されている。   Therefore, even for the same type of object, the determination characteristic information is set differently between the edge portion and the inside.

以上説明したとおり、実施例6の物体検出装置にあっては、物体の端縁部と内部とに設定された端部種類判定用領域TR1,TR2と、内部種類判定用領域NR1,NR2とで得られる画像情報に基づいて、物体の種類の判定を行うようにした。このため、物体の特徴をより明確に把握することができ、物体の検出精度および種類の判定精度を向上させることができる。   As described above, in the object detection apparatus according to the sixth embodiment, the edge type determination regions TR1 and TR2 set in the edge and inside of the object and the internal type determination regions NR1 and NR2 are used. The type of the object is determined based on the obtained image information. For this reason, the feature of the object can be grasped more clearly, and the object detection accuracy and the type determination accuracy can be improved.

次に、図19,20に基づいて本発明の実施の形態の実施例7の物体検出装置について説明する。なお、この実施例7を説明するにあたり、前記実施例1と同一ないし均等な部分については、同一符号を付して、相違する部分を中心として説明する。   Next, an object detection apparatus according to Example 7 of the embodiment of the present invention will be described with reference to FIGS. In the description of the seventh embodiment, the same or equivalent parts as those of the first embodiment will be denoted by the same reference numerals and different parts will be mainly described.

この実施例7は、図3に示す物体検出処理部16では、同じ方位で距離が異なる位置に複数の物体を示す計測点が存在した場合には、同方位処理が実行される。すなわち、同じ方位に複数の物体が存在する場合、後方の物体の全体が手前の物体に隠れていない場合には、これら後方に存在する物体も、レーダ2により計測される。   In the seventh embodiment, the object detection processing unit 16 shown in FIG. 3 executes the same direction processing when there are measurement points indicating a plurality of objects at the same direction and different distances. That is, when there are a plurality of objects in the same azimuth, and the entire object behind is not hidden behind the object in front, these objects existing behind are also measured by the radar 2.

図19(a)は、このようなレーダ2の計測例を示しており、方位αの方向に、手前側から順に、人物PEの計測点群P00、他車両ABの計測点群P01、壁WOの計測点群P02が、方位αの距離z0、z1、z2に存在している。なお、これは図11に示したのと同様の計測例を示している。   FIG. 19A shows such a measurement example of the radar 2, in the direction of the azimuth α, in order from the near side, the measurement point group P00 of the person PE, the measurement point group P01 of the other vehicle AB, the wall WO Measurement point group P02 exists at distances z0, z1, and z2 in the direction α. This shows a measurement example similar to that shown in FIG.

また、図19(b)は、カメラ1で撮像した画像を示しており、図中Hαは、レーダ2の方位αに相当する画像上の領域を示している。この図19(b)に示すように、画像上の領域Hαでは、手前の人物PEの陰に、他車両ABと壁WOの一部が隠れている。なお、同図において、画像上の縦の点線は、レーダ2のスキャニング分解能の単位を画像上に対応させた範囲を示している。   FIG. 19B shows an image captured by the camera 1, and Hα in the figure indicates an area on the image corresponding to the azimuth α of the radar 2. As shown in FIG. 19B, in the area Hα on the image, the other vehicle AB and a part of the wall WO are hidden behind the person PE in the foreground. In the figure, a vertical dotted line on the image indicates a range in which the unit of the scanning resolution of the radar 2 is associated with the image.

本実施例7では、図示のように同じ方位αの異なる距離に複数の物体が存在する場合には、これら同じ方位αに存在する物体を区別する同方位処理を実行する。   In the seventh embodiment, when there are a plurality of objects at different distances in the same azimuth α as shown in the figure, the same azimuth processing for distinguishing these objects in the same azimuth α is executed.

図20のフローチャートは、実施例7の物体検出処理の流れを示すもので、ステップS71では、同じ方位で異なる距離に複数の計測点が存在するか否か判定し、複数存在すると判定された場合には、ステップS72の同方位処理を実行する。一方、同じ方位で異なる距離に計測点が複数存在しない場合には、ステップS73の通常処理に進む。なお、この通常処理は、実施例1で説明した物体検出処理である。   The flowchart of FIG. 20 shows the flow of the object detection process of the seventh embodiment. In step S71, it is determined whether or not there are a plurality of measurement points at different distances in the same direction. In step S72, the same direction process is executed. On the other hand, if there are not a plurality of measurement points at different distances in the same direction, the process proceeds to the normal process of step S73. This normal process is the object detection process described in the first embodiment.

次に、ステップS72の同方位処理について説明する。この同方位処理は、距離の異なる計測点ごと(図19の計測点群P00,P01,P02ごと)に、「距離変化」と「大きさ変化」と照合して、距離の近い順に、画像上の物体を示す物体領域を設定する処理である。   Next, the same direction processing in step S72 will be described. This azimuth processing is performed by checking “distance change” and “size change” for each measurement point having a different distance (for each measurement point group P00, P01, P02 in FIG. 19) on the image in ascending order of distance. This is a process of setting an object region indicating the object.

すなわち、まず、最も手前の物体(人物PE)の計測点群P00の「距離変化」と各注目領域の大きさ変化とを照合し、相関性(反比例の関係)を有する注目領域であって、方位αが含まれる領域を、手前の物体(人物PE)を示す物体領域R00とする。なお、本実施例7では、物体領域の設定にあたり、矩形の領域として設定するようにしている。   That is, first, the “distance change” of the measurement point group P00 of the closest object (person PE) is collated with the size change of each region of interest, and the region of interest has a correlation (inverse proportional relationship). A region including the direction α is defined as an object region R00 indicating a front object (person PE). In the seventh embodiment, the object area is set as a rectangular area.

次に、方位αにおいて、2番目に近い物体の計測点群P01の「距離変化」と、残りの注目領域の「大きさ変化」との照合を行うが、この場合、上記物体領域R00に含まれる注目領域は除外して行われる。   Next, in the azimuth α, the “distance change” of the measurement point group P01 of the second closest object is collated with the “size change” of the remaining attention area. In this case, the object area R00 includes the object area R00. The attention area is excluded.

さらに、この2番目に近い物体(この例では、他車両AB)の計測点群P01における「距離変化」に相関する注目領域が決定されたら、この注目領域を含む物体領域R01を設定する。この物体領域R01は、先に設定された人物PEの物体領域R00とは重ることのないように設定される。   Furthermore, when a region of interest correlating with the “distance change” in the measurement point group P01 of this second closest object (in this example, the other vehicle AB) is determined, an object region R01 including this region of interest is set. This object region R01 is set so as not to overlap with the object region R00 of the person PE set previously.

次に、3番目に近い計測点群P02についても、1番目および2番目に設定された物体領域R00,R01の外の注目領域について、上記と同様の距離変化と大きさ変化との照合を行い、その物体の物体領域R02が設定される。   Next, for the third closest measurement point group P02, the same distance change and size change as above are collated for the attention area outside the first and second object areas R00 and R01. , The object region R02 of the object is set.

以上のように、各物体について物体領域R00,R01,R02が設定されたら、この物体領域R00,R01,R02および計測点群P00,P01,P02が有する情報に基づいて、物体の検出を行い、また、物体の種類の判定が行われる。この物体検出および種類の判定は、実施例1と同様の処理であるので、説明を省略する。   As described above, when the object areas R00, R01, R02 are set for each object, the object is detected based on the information contained in the object areas R00, R01, R02 and the measurement point groups P00, P01, P02. Also, the type of object is determined. Since this object detection and type determination are the same processing as in the first embodiment, the description thereof is omitted.

以上のように、本実施例7では、同方位で異なる距離に複数の物体が計測される場合には、画像上に設定される物体領域R00,R01,R02は、確実に手前の物体の画像とは区別される。したがって、その後の、物体検出処理および種類判定処理において、誤って手前の物体が有する情報が抽出されて、物体検出や物体の種類判定が成されることがない。よって、物体の検出精度がさらに向上する。   As described above, in the seventh embodiment, when a plurality of objects are measured in the same direction and at different distances, the object regions R00, R01, and R02 set on the image are reliably images of the object in the foreground. It is distinguished from Therefore, in the subsequent object detection process and type determination process, information held by the object in front is erroneously extracted, and object detection and object type determination are not performed. Therefore, the object detection accuracy is further improved.

以上、図面を参照して、本発明の実施の形態および実施例1ないし実施例7を詳述してきたが、具体的な構成は、この実施の形態および実施例1ないし実施例7に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。   The embodiment of the present invention and Examples 1 to 7 have been described in detail above with reference to the drawings, but the specific configuration is not limited to this embodiment and Examples 1 to 7. Design changes that do not depart from the gist of the present invention are included in the present invention.

例えば、実施例1〜7では、本発明の物体検出方法および物体検出装置として、車両に搭載して実行するものを示したが、これに限定されず、産業ロボットなど車両以外にも適用することができる。   For example, in the first to seventh embodiments, the object detection method and the object detection device of the present invention are implemented by being mounted on a vehicle. However, the present invention is not limited to this, and the present invention can be applied to a vehicle other than an industrial robot. Can do.

また、物体存在判定処理において、画像情報に基づく判定は、実施例1では、オプティカルフローにより同じ動きが集中している部分を物体とする例を示したが、これに限定されない。例えば、
a.ある物体のモデルを定義し、物体検出用のテンプレートを用意した上で、そのテンプレートとの類似性より検出する。
b.Hough変換などの直線を検出する手段を利用し、直線が多く存在する領域を物体とする。
c.色領域により検出する。
あるいは、特開2004−235711号公報、特開平11−345336号公報に記載された技術を用いることができる。
Further, in the object presence determination process, the determination based on the image information has shown an example in which the portion where the same movement is concentrated by the optical flow is an object in the first embodiment, but is not limited thereto. For example,
a. A model of an object is defined, a template for object detection is prepared, and detection is performed based on similarity to the template.
b. Using a means for detecting a straight line such as Hough transform, an area where there are many straight lines is defined as an object.
c. Detect by color area.
Or the technique described in Unexamined-Japanese-Patent No. 2004-235711 and Unexamined-Japanese-Patent No. 11-345336 can be used.

また、実施例2では、矩形の物体判定領域SG3を細分化するにあたり、図では略等分割した例を示したが、これに限定されない。例えば、矩形の物体判定領域SG3内において観測されるエッジなどに基づいて、ランダムに細分化してもよい。   Further, in the second embodiment, the example in which the rectangular object determination region SG3 is subdivided in the figure is shown in the drawing, but the present invention is not limited to this. For example, you may subdivide at random based on the edge etc. which are observed in the rectangular object determination area | region SG3.

本発明の実施の形態の実施例1の物体検出装置を搭載した自車両MBを示す概略図であり、(a)は側方から見た図、(b)は上方から見た図である。It is the schematic which shows the own vehicle MB carrying the object detection apparatus of Example 1 of embodiment of this invention, (a) is the figure seen from the side, (b) is the figure seen from upper direction. 前記実施例1の物体検出装置における物体検出制御の流れを示すフローチャートである。It is a flowchart which shows the flow of the object detection control in the object detection apparatus of the said Example 1. FIG. 前記実施例1の物体検出装置におけるコントロールユニットCUにて行われる各処理を行う部分を概念的に示すブロック図である。It is a block diagram which shows notionally the part which performs each process performed by control unit CU in the object detection apparatus of the said Example 1. FIG. 前記実施例1の物体検出装置の物体検出制御におけるメモリ11に保存される情報と変換処理部12における変換処理の概略を説明する概念図である。It is a conceptual diagram explaining the outline of the information preserve | saved in the memory 11 in the object detection control of the object detection apparatus of the said Example 1, and the conversion process in the conversion process part 12. FIG. 前記実施例1の物体検出装置におけるカメラ1の画像情報を説明する図であって、(a)は実施例1の物体検出装置を横から見た状態を示し、(b)はカメラ1の撮像面1aに投影された輝度画像を示しており、(c)はカメラ1として赤外線カメラを用いた場合の赤外画像を示している。It is a figure explaining the image information of the camera 1 in the object detection apparatus of the said Example 1, Comprising: (a) shows the state which looked at the object detection apparatus of Example 1 from the side, (b) is the imaging of the camera 1 The brightness | luminance image projected on the surface 1a is shown, (c) has shown the infrared image at the time of using an infrared camera as the camera 1. FIG. 前記実施例1の物体検出装置におけるカメラ1の画像情報を説明する図であって、(a)は実施例1の物体検出装置を上方から見た状態を示し、(b)はカメラ1の撮像面1aに投影された輝度画像を示しており、(c)はカメラ1として赤外線カメラを用いた場合の赤外画像を示している。It is a figure explaining the image information of the camera 1 in the object detection apparatus of the said Example 1, Comprising: (a) shows the state which looked at the object detection apparatus of Example 1 from upper direction, (b) is the imaging of the camera 1 The brightness | luminance image projected on the surface 1a is shown, (c) has shown the infrared image at the time of using an infrared camera as the camera 1. FIG. 前記実施例1の物体検出装置におけるカメラ1の画像情報とレーダの距離検出の状態を示す説明図である。It is explanatory drawing which shows the state of the distance detection of the image information and radar of the camera 1 in the object detection apparatus of the said Example 1. FIG. 前記実施例1の物体検出装置におけるカメラ1の画像情報の情報変換処理で用いるソーベルフィルタを示す概略図である。It is the schematic which shows the Sobel filter used by the information conversion process of the image information of the camera 1 in the object detection apparatus of the said Example 1. FIG. 前記実施例1の物体検出装置におけるカメラ1の画像情報の情報変換処理において、エッジの方向ベクトルの求め方の説明図であり、(a)は垂直エッジ成分算出用のフィルタを示し、(b)は水平エッジ成分算出用のフィルタを示し、(c)はエッジ強度とエッジ方向ベクトルとの関係を示している。In the information conversion process of the image information of the camera 1 in the object detection apparatus of the first embodiment, it is an explanatory diagram of how to obtain an edge direction vector, (a) shows a filter for calculating a vertical edge component, (b) Represents a filter for calculating a horizontal edge component, and (c) represents a relationship between the edge strength and the edge direction vector. 前記実施例1の物体検出装置におけるカメラ1の画像情報の情報変換処理におけるオプティカルフローとレーダの距離検出の状態を示す説明図である。It is explanatory drawing which shows the state of the optical flow and the distance detection of a radar in the information conversion process of the image information of the camera 1 in the object detection apparatus of the said Example 1. FIG. 前記実施例1の物体検出装置におけるカメラ1の画像情報とレーダの距離検出の状態を示す説明図であり、(a)はレーダ2による計測状態、(b)はカメラ1で撮像した画像を示している。FIG. 3 is an explanatory diagram showing image information of the camera 1 and a radar distance detection state in the object detection apparatus of the first embodiment, where (a) shows a measurement state by the radar 2 and (b) shows an image captured by the camera 1. ing. 前記実施例1の物体検出装置において注目領域R1による「大きさ変化」の算出例の説明図であり、(a)がt0の時点の状態を示し、(b)がt0から時間が経過した上体を示している。FIG. 4 is an explanatory diagram of a calculation example of “magnitude change” by the attention area R1 in the object detection device of the first embodiment, where (a) shows a state at a time point t0, and (b) shows a time elapsed from t0. Showing the body. 前記実施例1の物体検出装置において注目領域R2における「大きさ変化」の算出例の説明図であり、(a)が距離=z1の状態を示し、(b)が(a)よりも距離が近付いた距離=afz1の状態を示している。FIG. 7 is an explanatory diagram of an example of calculating “size change” in a region of interest R2 in the object detection device of the first embodiment, where (a) shows a state of distance = z1, and (b) shows a distance longer than (a). The approaching distance = afz1 is shown. 前記実施例1の物体検出装置において用いる判定特性情報の一例を示す特性図である。It is a characteristic view which shows an example of the determination characteristic information used in the object detection apparatus of the said Example 1. 本発明の実施の形態の実施例2の物体検出装置における注目領域の設定例を説明する説明図であり、(a)は物体判定領域を細分化して注目領域を設定した状態を示し、(b)は種類判定用領域を設定した状態を示している。It is explanatory drawing explaining the example of a setting of the attention area in the object detection apparatus of Example 2 of embodiment of this invention, (a) shows the state which subdivided the object determination area and set the attention area, (b ) Shows a state in which the type determination area is set. 本発明の実施の形態の実施例5の物体検出装置において、データベースに保管された判定特性情報を示す特性図であり、(a)が他車両ABの判定特性情報、(b)が人物PEの判定特性情報を示している。In the object detection apparatus of Example 5 of an embodiment of the invention, it is a characteristic figure showing judgment characteristic information stored in a database, (a) is judgment characteristic information on other vehicles AB, and (b) is person PE. The judgment characteristic information is shown. 前記実施例5の物体検出装置における特徴量の割合の検出例を示す図であり、a)が他車両ABの検出例、(b)が人物PEの検出例を示している。It is a figure which shows the example of a detection of the ratio of the feature-value in the object detection apparatus of the said Example 5, a) shows the example of detection of other vehicles AB, (b) has shown the example of detection of person PE. 本発明の実施の形態の実施例6の物体検出装置の種類判定用領域の設定例を説明する説明図である。It is explanatory drawing explaining the example of a setting of the area | region for type determination of the object detection apparatus of Example 6 of embodiment of this invention. 本発明の実施の形態の実施例7の物体検出装置における計測例を示す図であり、(a)はレーダ2の計測例を示し、(b)はカメラ1で撮像した画像を示している。It is a figure which shows the example of a measurement in the object detection apparatus of Example 7 of embodiment of this invention, (a) shows the example of a measurement of the radar 2, (b) has shown the image imaged with the camera 1. FIG. 本発明の実施の形態の実施例7の物体検出装置における物体検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the object detection process in the object detection apparatus of Example 7 of embodiment of this invention.

符号の説明Explanation of symbols

1 カメラ(画像取得手段)
1b レンズ
1a 撮像面
2 レーダ(検波情報取得手段)
11 メモリ
11a リヤウインドウ
11c リヤバンパ
11b トランクリッド
11d ナンバプレート
12 変換処理部
13 物体存在判定処理部
14 距離変化算出処理部
15 大きさ変化算出処理部
16 物体検出処理部
17 種類判定処理部
CU コントロールユニット(物体検出手段)
1 Camera (image acquisition means)
1b Lens 1a Imaging surface 2 Radar (detection information acquisition means)
11 Memory 11a Rear window 11c Rear bumper 11b Trunk lid 11d Number plate 12 Conversion processing unit 13 Object presence determination processing unit 14 Distance change calculation processing unit 15 Size change calculation processing unit 16 Object detection processing unit 17 Type determination processing unit CU Control unit ( Object detection means)

Claims (12)

物体検出対象領域の物体に関する画像情報を取得する画像情報取得手段と、
物体検出対象領域を検出波で走査して得られた検出波の反射に基づく物体に関する検波情報を取得する検波情報取得手段と、
前記画像情報および検波情報に基づいて物体を検出する物体検出手段と、
を備えた物体検出装置であって、
前記物体検出手段が、
前記画像情報および検波情報を取得する取得処理と、
前記画像情報に基づいて物体が存在する判定した領域を囲んで物体判定領域を設定するとともに、前記検出波の反射が得られた計測点の方位に物体が存在すると判定する物体存在判定処理と、
前記物体判定領域の中の一部の領域を注目領域として設定し、この注目領域における時間経過に伴う画像上の物体の大きさの変化を求めるとともに、前記物体存在判定処理により検波情報に基づいて物体が存在すると判定された前記計測点との時間経過に伴う距離変化を算出する変化算出処理と、
前記画像上の物体の大きさ変化と、この画像上の物体と同じ方位に存在する前記計測点との時間経過に伴う距離変化とを照合し、この照合により両変化に相関性が得られた場合に、前記画像情報に基づいて物体が存在すると判定した領域と前記検波情報による前記計測点とが同一の物体を検出しているとして前記物体検出対象領域に物体が存在すると判定する物体検出処理と、
を実行することを特徴とする物体検出装置。
Image information acquisition means for acquiring image information relating to an object in the object detection target area;
Detection information acquisition means for acquiring detection information about the object based on reflection of the detection wave obtained by scanning the object detection target region with the detection wave;
Object detection means for detecting an object based on the image information and detection information;
An object detection device comprising:
The object detection means is
An acquisition process for acquiring the image information and the detection information;
An object presence determination process for setting an object determination region surrounding a determined region where an object exists based on the image information, and determining that an object is present in a direction of a measurement point at which reflection of the detection wave is obtained ;
A part of the object determination area is set as an attention area, a change in the size of the object on the image with time in the attention area is obtained, and the object presence determination processing is performed based on detection information. a change calculation processing of calculating a distance change with time of the measurement point where the object is determine the constant to be present,
The change in the size of the object on the image was compared with the change in the distance with time of the measurement point existing in the same direction as the object on the image, and the correlation was obtained by this comparison. In this case, the object detection process for determining that an object is present in the object detection target region on the assumption that the region determined to be present based on the image information and the measurement point based on the detection information detect the same object When,
The object detection apparatus characterized by performing.
前記注目領域は、前記物体判定領域内の一部を抽出した小領域であることを特徴とする請求項1に記載の物体検出装置。 The object detection apparatus according to claim 1 , wherein the attention area is a small area obtained by extracting a part of the object determination area . 前記注目領域は、前記物体判定領域を細分化した各細分化領域であることを特徴とする請求項1に記載の物体検出装置。 The object detection apparatus according to claim 1 , wherein the attention area is each subdivided area obtained by subdividing the object determination area . 前記変化算出処理における大きさ変化は、前記注目領域内に存在する複数のエッジの間隔の変化から求められることを特徴とする請求項1〜3のいずれか1項に記載の物体検出装置。 The object detection apparatus according to claim 1, wherein the size change in the change calculation process is obtained from a change in the interval between a plurality of edges existing in the region of interest . 前記変化算出処理において距離変化を求めるにあたり、算出対象となる計測点の距離変化と反射強度変化との少なくとも一方に計測対象が代わったことを判定するしきい値が設定され、このしきい値との比較に基づいて同一計測対象について距離変化を算出していることの確認が成されることを特徴とする請求項1〜4のいずれか1項に記載の物体検出装置。 In obtaining the change in distance in the change calculation process, a threshold value for determining that the measurement object has changed is set to at least one of the distance change and the reflection intensity change of the measurement point to be calculated. The object detection device according to any one of claims 1 to 4, wherein it is confirmed that a change in distance is calculated for the same measurement object based on the comparison of . 前記物体検出処理では、前記画像情報から得られたエッジ強度および前記検波情報から得られた検出波の反射強度の少なくとも一方が所定のしきい値以上である場合、前記大きさ変化と前記距離変化とを照合してその相関性により前記画像情報に基づいて物体が存在すると判定した領域と前記検波情報による前記計測点とが同一の物体を検出しているとの判定を行なうことなく、物体検出と判定することを特徴とする請求項1〜5のいずれか1項に記載の物体検出装置。 In the object detection process, when at least one of the edge intensity obtained from the image information and the reflection intensity of the detection wave obtained from the detection information is equal to or greater than a predetermined threshold, the magnitude change and the distance change The object detection is performed without determining that the same object is detected in the region determined based on the image information and the measurement point based on the detection information. object detection apparatus according to any one of claims 1 to 5, wherein the determining a. 前記物体検出処理では、同じ方位で距離が異なる位置に物体を示す複数の計測点が存在した場合には、同方位処理が実行され、
この同方位処理は、まず、一番手前の計測点の距離変化と、同方位およびその近傍の物体の注目領域の大きさ変化との照合を行い、距離変化と反比例という相関のある大きさ変化を示す注目領域が含まれる画像上の物体の領域を一番手前の物体領域として設定し、以後、次に近い計測点における距離変化と、設定された物体領域を除いた同方位およびその近傍の物体の注目領域の大きさ変化との照合を行い、前記相関性がとれた注目領域が含まれる画像上の物体の領域を次に近い物体領域として設定するという処理を、残りの計測点の数だけ順次繰り返す処理であることを特徴とする請求項1〜6のいずれか1項に記載の物体検出装置。
In the object detection process, when there are a plurality of measurement points indicating the object at different positions in the same direction, the same direction process is executed.
This azimuth processing first collates the change in the distance of the nearest measurement point with the change in the size of the attention area of the object in the same azimuth and its vicinity, and a change in the magnitude that is inversely proportional to the change in distance The area of the object on the image that includes the attention area indicating is set as the foremost object area, and thereafter, the distance change at the next closest measurement point, the same orientation excluding the set object area, and the vicinity The number of remaining measurement points is determined by comparing the size of the attention area of the object and setting the area of the object on the image including the correlated attention area as the next closest object area. The object detecting apparatus according to claim 1, wherein the object detecting apparatus is a process that is sequentially repeated .
前記物体検出手段は、前記物体検出処理により物体が検出された場合、あらかじめ保管された物体の種類と前記画像情報および前記検波情報における判定用の情報との関係を示す判定特性情報の特徴と、前記注目領域内の画像情報および前記計測点の検波情報の特徴とを比較して物体の種類を判定する種類判定処理を実行することを特徴とする請求項1〜請求項7のいずれか1項に記載の物体検出装置。 The object detection means, when an object is detected by the object detection process, characteristics of determination characteristic information indicating a relationship between a type of object stored in advance and information for determination in the image information and the detection information; 8. The type determination process for determining the type of an object by comparing the image information in the region of interest and the characteristics of the detection information of the measurement point. The object detection apparatus described in 1. 前記物体検出手段は、前記画像情報と検波情報の少なくとも一方を時系列方向に、あるいは検波情報をスキャン面上の任意の方向に、微分変換もしくは積分変換する変換手段を有し、
前記種類判定処理において、前記変換手段で得られた微分情報と積分情報との少なくとも一方を用いることを特徴とする請求項8に記載の物体検出装置。
The object detection means includes a conversion means for performing differential conversion or integral conversion of at least one of the image information and detection information in a time-series direction or detection information in an arbitrary direction on a scan plane,
The object detection apparatus according to claim 8 , wherein in the type determination process, at least one of differential information and integral information obtained by the conversion unit is used.
前記物体の種類の判定に用いられる画像上の領域としての種類判定用領域が、前記物体検出処理において前記大きさ変化と前記距離変化との照合により前記相関性が得られた前記注目領域において、その端縁部と内部とにそれぞれ設定されていることを特徴とする請求項8または請求項9に記載の物体検出装置。 The region for type determination as the region on the image used for determining the type of the object is the region of interest in which the correlation is obtained by comparing the size change and the distance change in the object detection process. The object detection device according to claim 8 , wherein the object detection device is set to each of an edge portion and an inside thereof . 前記物体の種類の判定に、前記物体端縁部および内部の種類判定用領域の画像情報で得られた方向ベクトルおよび時系列的な変換値と、検波情報から得られた強度分散および強度平均と、が用いられることを特徴とする請求項10に記載の物体検出装置。   For the determination of the type of the object, the direction vector and time-series conversion value obtained from the image information of the object edge and the internal type determination area, the intensity dispersion and the intensity average obtained from the detection information, The object detection device according to claim 10, wherein: is used. 前記判定特性情報が、物体の種類ごとに、前記判定用情報の算出値の総和に対する各前記判定用情報の算出値の割合が設定されており、
前記物体検出手段は、前記種類判定処理において、前記判定用情報の算出値の総和を求めるとともに、この総和に対する各判定用情報の算出値の割合を算出し、この算出された割合と、保管された前記判定用特性情報の割合と、の比較に基づいて物体の種類の判定を行うことを特徴とする請求項8〜請求項11のいずれか1項に記載の物体検出装置。
In the determination characteristic information, for each type of object, a ratio of the calculated value of each determination information to the sum of the calculated values of the determination information is set,
In the type determination process, the object detection means obtains a sum of calculated values of the determination information, calculates a ratio of calculated values of each determination information to the total, and stores the calculated ratio and the calculated ratio. 12. The object detection apparatus according to claim 8 , wherein the object type is determined based on a comparison with the ratio of the determination characteristic information.
JP2006078485A 2006-03-22 2006-03-22 Object detection device Expired - Fee Related JP4857839B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006078485A JP4857839B2 (en) 2006-03-22 2006-03-22 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006078485A JP4857839B2 (en) 2006-03-22 2006-03-22 Object detection device

Publications (2)

Publication Number Publication Date
JP2007255978A JP2007255978A (en) 2007-10-04
JP4857839B2 true JP4857839B2 (en) 2012-01-18

Family

ID=38630383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006078485A Expired - Fee Related JP4857839B2 (en) 2006-03-22 2006-03-22 Object detection device

Country Status (1)

Country Link
JP (1) JP4857839B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4857840B2 (en) * 2006-03-22 2012-01-18 日産自動車株式会社 Object detection method and object detection apparatus
JP4857909B2 (en) * 2006-05-23 2012-01-18 日産自動車株式会社 Object detection method and object detection apparatus
JP5145986B2 (en) * 2008-02-05 2013-02-20 日産自動車株式会社 Object detection apparatus and distance measuring method
JP5056679B2 (en) * 2008-09-02 2012-10-24 トヨタ自動車株式会社 Night view system
JP5379543B2 (en) * 2009-04-09 2013-12-25 日立オートモティブシステムズ株式会社 Automobile external recognition device
JP4952743B2 (en) * 2009-04-17 2012-06-13 住友電気工業株式会社 Road-to-vehicle communication system
JP2011099683A (en) * 2009-11-04 2011-05-19 Hitachi Automotive Systems Ltd Body detector
JP5401344B2 (en) * 2010-01-28 2014-01-29 日立オートモティブシステムズ株式会社 Vehicle external recognition device
JP5374549B2 (en) * 2011-07-07 2013-12-25 本田技研工業株式会社 Vehicle periphery monitoring device
JP6058072B2 (en) * 2015-05-29 2017-01-11 三菱電機株式会社 Object identification device
WO2018151211A1 (en) * 2017-02-15 2018-08-23 株式会社Preferred Networks Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle
JP6958485B2 (en) * 2018-05-29 2021-11-02 株式会社Soken Object detection device
US11776143B2 (en) 2019-03-28 2023-10-03 Nec Corporation Foreign matter detection device, foreign matter detection method, and program
JP7259674B2 (en) * 2019-09-20 2023-04-18 沖電気工業株式会社 OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND PROGRAM
CN111736140B (en) * 2020-06-15 2023-07-28 杭州海康微影传感科技有限公司 Object detection method and image pickup device
CN116400371B (en) * 2023-06-06 2023-09-26 山东大学 Indoor reflective transparent object position identification method and system based on three-dimensional point cloud

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09119982A (en) * 1995-10-26 1997-05-06 Mitsubishi Heavy Ind Ltd Missile guiding system
JP3384278B2 (en) * 1997-03-24 2003-03-10 日産自動車株式会社 Distance measuring device
JP3596339B2 (en) * 1999-03-15 2004-12-02 日産自動車株式会社 Inter-vehicle distance measurement device
JP3985615B2 (en) * 2002-07-16 2007-10-03 日産自動車株式会社 Forward vehicle tracking system and forward vehicle tracking method
JP3861781B2 (en) * 2002-09-17 2006-12-20 日産自動車株式会社 Forward vehicle tracking system and forward vehicle tracking method
JP3948450B2 (en) * 2003-10-20 2007-07-25 日産自動車株式会社 Object detection apparatus and object detection method
JP4052291B2 (en) * 2004-08-05 2008-02-27 日産自動車株式会社 Image processing apparatus for vehicle
JP4857840B2 (en) * 2006-03-22 2012-01-18 日産自動車株式会社 Object detection method and object detection apparatus
JP2007255977A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector

Also Published As

Publication number Publication date
JP2007255978A (en) 2007-10-04

Similar Documents

Publication Publication Date Title
JP4857839B2 (en) Object detection device
JP3596314B2 (en) Object edge position measuring device and moving object traffic judging device
JP6773540B2 (en) In-vehicle image processing device
US7103213B2 (en) Method and apparatus for classifying an object
JP5867273B2 (en) Approaching object detection device, approaching object detection method, and computer program for approaching object detection
JP4830604B2 (en) Object detection method and object detection apparatus
JP4857840B2 (en) Object detection method and object detection apparatus
JP6151150B2 (en) Object detection device and vehicle using the same
JP2007255977A (en) Object detection method and object detector
JP3861781B2 (en) Forward vehicle tracking system and forward vehicle tracking method
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
US10719699B2 (en) Pedestrian detection method and system in vehicle
JP6450294B2 (en) Object detection apparatus, object detection method, and program
JP2002352225A (en) Obstacle detector and its method
JP6458651B2 (en) Road marking detection device and road marking detection method
JP2007156626A (en) Object type determination device and object type determination method
US10672141B2 (en) Device, method, system and computer-readable medium for determining collision target object rejection
JP7413935B2 (en) In-vehicle sensor system
JP2000266539A (en) Inter-vehicle distance measuring apparatus
JP2009245042A (en) Traffic flow measurement device and program
JP4857909B2 (en) Object detection method and object detection apparatus
CN109711423A (en) Method and motor vehicle for the shape recognition of object in the perimeter of motor vehicle
JP3586938B2 (en) In-vehicle distance measuring device
JP5790627B2 (en) Target detection device
JP4106163B2 (en) Obstacle detection apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111017

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees