JP5471195B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP5471195B2
JP5471195B2 JP2009203612A JP2009203612A JP5471195B2 JP 5471195 B2 JP5471195 B2 JP 5471195B2 JP 2009203612 A JP2009203612 A JP 2009203612A JP 2009203612 A JP2009203612 A JP 2009203612A JP 5471195 B2 JP5471195 B2 JP 5471195B2
Authority
JP
Japan
Prior art keywords
radar
target
image
target information
lateral width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009203612A
Other languages
Japanese (ja)
Other versions
JP2011053139A (en
Inventor
剛 名波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009203612A priority Critical patent/JP5471195B2/en
Publication of JP2011053139A publication Critical patent/JP2011053139A/en
Application granted granted Critical
Publication of JP5471195B2 publication Critical patent/JP5471195B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、レーダ及びカメラによって取得される情報に基づいて物体を検出する物体検出装置に関する。   The present invention relates to an object detection apparatus that detects an object based on information acquired by a radar and a camera.

近年、PCS(Pre-crash safety system)等の衝突回避又は衝突による被害の低減の
ための安全システムが開発されている。このような安全システムを好適に実現させるためには、自車両以外の車両や障害物、歩行者等の位置及び大きさ、これらと自車との距離を正確に把握する必要がある。これらを把握するための技術として、レーダによって取得されるレーダ物標情報とカメラの画像から取得される画像物標情報とをフュージョンさせることで物体を検出する物体検出装置が知られている。
In recent years, safety systems such as PCS (Pre-crash safety system) for collision avoidance or reduction of damage caused by collision have been developed. In order to suitably realize such a safety system, it is necessary to accurately grasp the positions and sizes of vehicles other than the own vehicle, obstacles, pedestrians, and the distance between them and the own vehicle. As a technique for grasping these, there is known an object detection device that detects an object by fusing radar target information acquired by a radar and image target information acquired from an image of a camera.

レーダによって取得されるレーダ物標情報によれば自車両と物標間の距離を算出することができる。しかしながら、レーダ物標情報からは物標の横位置や横幅を高精度で算出することが困難である。一方、カメラの画像から取得される画像物標情報によれば、レーダ物標情報よりも高い精度で物標の横位置や横幅を算出することができる。そのため、レーダ物標情報と画像物標情報とをフュージョンさせることで、物体の位置や大きさ、自車両との距離をより正確に把握することが可能となる。   According to the radar target information acquired by the radar, the distance between the host vehicle and the target can be calculated. However, it is difficult to calculate the horizontal position and width of the target with high accuracy from the radar target information. On the other hand, according to the image target information acquired from the camera image, the horizontal position and width of the target can be calculated with higher accuracy than the radar target information. Therefore, by fusing the radar target information and the image target information, the position and size of the object and the distance from the host vehicle can be grasped more accurately.

特許文献1には、測距レーダと画像センサとのセンサフュージョンで認識した自車前方
の車外物標の横幅が長くなる程衝突回避制御の安全システムを介入し易くする車両の物体認識装置が開示されている。この特許文献1に係る物体認識装置においては、レーダを用いて得られた車外物標の横幅であるレーダ幅と画像センサを用いて得られた車外物標の横幅である画像幅とのうち短い方がセンサフュージョンの認識幅として選択される。
Patent Document 1 discloses a vehicle object recognition device that makes it easier to intervene in a safety system for collision avoidance control as the lateral width of an external target in front of the host vehicle recognized by sensor fusion between a ranging radar and an image sensor becomes longer. Has been. In the object recognition apparatus according to Patent Document 1, a radar width which is a lateral width of an external target obtained using a radar and an image width which is a lateral width of an external target obtained using an image sensor are short. Is selected as the sensor fusion recognition width.

また、特許文献2及び3にも、レーダによって取得されるレーダ物標情報とカメラの画像から取得される画像物標情報とをフュージョンさせることで物体を認識又は検出する技術についての開示がある。   Patent Documents 2 and 3 also disclose a technique for recognizing or detecting an object by fusing radar target information acquired by a radar and image target information acquired from an image of a camera.

特開2006−240454号公報JP 2006-240454 A 特開2005−329779号公報JP 2005-329779 A 特開2006−266927号公報JP 2006-266927 A

物体検出装置においては、画像物標情報を取得するためのカメラとしてステレオカメラ又は単眼カメラを用いることができる。単眼カメラを用いた場合、ステレオカメラを用いた場合に比べてコストを低減することができる。しかしながら、単眼カメラの画像からは正確な奥行き方向の物標情報を取得することが困難である。そのため、単眼カメラの画像から取得された画像物標情報においては、実際には自車両から見て物標よりも奥に存在する物体又は模様が、物標と同一物体として認識される場合がある。この場合、物標の横幅が実際の幅よりも大きく検出される。   In the object detection apparatus, a stereo camera or a monocular camera can be used as a camera for acquiring image target information. When a monocular camera is used, costs can be reduced compared to when a stereo camera is used. However, it is difficult to obtain accurate target information in the depth direction from an image of a monocular camera. Therefore, in the image target information acquired from the image of the monocular camera, an object or pattern existing behind the target when viewed from the own vehicle may be recognized as the same object as the target. . In this case, the width of the target is detected to be larger than the actual width.

このような誤検出により、検出された物体が自車線上にはみ出していると判断されると、PCS等の安全システムの誤作動を招く虞がある。   If it is determined by such erroneous detection that the detected object protrudes from the own lane, there is a risk of causing a malfunction of a safety system such as PCS.

本発明は、上記のような問題に鑑みてなされたものであって、レーダによって取得されるレーダ物標情報とカメラによって取得される画像物標情報とをフュージョンさせることで物体を検出する物体検出装置において、物体の検出精度をより向上させることが可能な技術を提供することを目的とする。   The present invention has been made in view of the above problems, and detects an object by fusing radar target information acquired by a radar and image target information acquired by a camera. An object of the present invention is to provide a technique capable of further improving the detection accuracy of an object in an apparatus.

本発明は、レーダによって認識された物標の位置から、レーダの受信波の強度に応じて設定された所定の横幅の範囲内にある画像物標情報のみを用いて、レーダ物標情報と画像物標情報とをフュージョンさせるものである。   The present invention uses only image target information within a predetermined horizontal range set in accordance with the intensity of the received wave of the radar from the position of the target recognized by the radar, and uses the radar target information and the image. The target information is fused.

より詳しくは、本発明に係る物体検出装置は、
レーダによって取得されるレーダ物標情報と単眼カメラの画像から取得される画像物標情報とをフュージョンさせることで物体を検出する物体検出装置であって、
前記レーダによって認識された物標の位置と前記単眼カメラによって認識された物標の横端との間の横方向の距離が、前記レーダの受信波の強度に応じて設定された所定の横幅を超えている場合、その間の画像物標情報を用いずにレーダ物標情報と画像物標情報とをフュージョンさせることを特徴とする。
More specifically, the object detection device according to the present invention is:
An object detection device that detects an object by fusing radar target information acquired by a radar and image target information acquired from an image of a monocular camera,
The lateral distance between the position of the target recognized by the radar and the horizontal end of the target recognized by the monocular camera has a predetermined horizontal width set according to the intensity of the received wave of the radar. If it exceeds, radar target information and image target information are fused without using image target information in the meantime.

レーダの受信波の強度は物標に応じて変化する。ここで、所定の横幅は、レーダの受信波の強度に対応する物標の横幅の最大値又はそれにある程度のマージンを加算した値として設定される。   The intensity of the received wave of the radar changes according to the target. Here, the predetermined horizontal width is set as the maximum value of the horizontal width of the target corresponding to the intensity of the received wave of the radar or a value obtained by adding a certain margin to the maximum value.

本発明によれば、信頼性の低い部分を除いた画像物標情報がレーダ物標情報とフュージョンされる。これにより、物標の横幅が誤検出されることが抑制される。従って、物体の検出精度をより向上させることができる。   According to the present invention, the image target information excluding the portion with low reliability is fused with the radar target information. This suppresses erroneous detection of the horizontal width of the target. Therefore, the object detection accuracy can be further improved.

尚、レーダは物標を電磁波の反射点として認識するものであってもよい。また、単眼カメラは物標を画像として認識するものであってもよい。   The radar may recognize the target as an electromagnetic wave reflection point. The monocular camera may recognize a target as an image.

本発明においては、レーダの受信波の強度が属する閾値レベル毎に前記所定の横幅が設定されてもよい。つまり、レーダの受信波の強度が第一の閾値以上の場合、前記所定の横幅が第一の所定の横幅に設定され、レーダの受信波の強度が第一の閾値より低く且つ第二の閾値以上の場合、前記所定の横幅が第一の所定の横幅よりも小さい第二の所定の横幅に設定されてもよい。これによれば、所定の横幅を、レーダによって認識された物標に応じた値として設定することができる。   In the present invention, the predetermined lateral width may be set for each threshold level to which the intensity of the received wave of the radar belongs. That is, when the intensity of the received wave of the radar is greater than or equal to the first threshold, the predetermined horizontal width is set to the first predetermined horizontal width, the intensity of the received wave of the radar is lower than the first threshold, and the second threshold In the above case, the predetermined lateral width may be set to a second predetermined lateral width that is smaller than the first predetermined lateral width. According to this, the predetermined lateral width can be set as a value corresponding to the target recognized by the radar.

上記の場合、第一の閾値を、物標が車両程度の大型の物体であることを想定して定められた値としてもよい。また、第二の閾値を、物標が人体程度の小型の物体であることを想定して定められた値としてもよい。   In the above case, the first threshold value may be a value determined on the assumption that the target is a large object such as a vehicle. Further, the second threshold value may be a value determined on the assumption that the target is a small object of the order of a human body.

本発明によれば、物体の検出精度をより向上させることができる。その結果、PCS等の安全システムの誤作動を抑制することができる。   According to the present invention, the object detection accuracy can be further improved. As a result, malfunction of a safety system such as PCS can be suppressed.

実施例に係るPCSの一部の概略構成を示すブロック図である。It is a block diagram which shows the one part schematic structure of PCS which concerns on an Example. 実施例において、道路沿いに壁がある幅の狭い道路を車両が走行したときにおける壁の物標として認識のされ方を説明するための図である。In an Example, it is a figure for demonstrating how to be recognized as a target of a wall when a vehicle drive | works the narrow road with a wall along a road. 実施例に係るレーダ物標情報と画像物標情報とのフュージョンの方法を説明するための図である。It is a figure for demonstrating the method of fusion of the radar target information and image target information which concern on an Example. 実施例に係るレーダ物標情報と画像物標情報とのフュージョンのフローを示すフローチャートである。It is a flowchart which shows the flow of fusion of the radar target information and image target information which concern on an Example.

以下、本発明の具体的な実施形態について図面に基づいて説明する。本実施例に記載されている構成部品の寸法、材質、形状、その相対配置等は、特に記載がない限りは発明の技術的範囲をそれらのみに限定する趣旨のものではない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. The dimensions, materials, shapes, relative arrangements, and the like of the components described in the present embodiment are not intended to limit the technical scope of the invention to those unless otherwise specified.

(システムの概略構成)
ここでは、本発明に係る物体検出装置をPCSに適用した場合の実施例について説明する。図1は、本実施例に係るPCSの一部の概略構成を示すブロック図である。本実施例においては、PCS1が車両100に搭載されている。PCS1は、ミリ波レーダ2、単眼カメラ3、カメラECU4、PCS ECU5を備えている。また、PCS ECU5は、フュージョン演算部6、物理値演算部7及び衝突判定部8を有している。
(Schematic configuration of the system)
Here, an embodiment in the case where the object detection apparatus according to the present invention is applied to a PCS will be described. FIG. 1 is a block diagram illustrating a schematic configuration of a part of the PCS according to the present embodiment. In this embodiment, the PCS 1 is mounted on the vehicle 100. The PCS 1 includes a millimeter wave radar 2, a monocular camera 3, a camera ECU 4, and a PCS ECU 5. The PCS ECU 5 includes a fusion calculation unit 6, a physical value calculation unit 7, and a collision determination unit 8.

PCS1は、ミリ波レーダ2及び単眼カメラ3によって取得した情報に基づいて自車両以外の車両や障害物、歩行者等を検出する。そして、これらの物体(歩行者含む)と衝突する可能性が高いと判断した場合、運転者へ警報を発信すると共に衝突被害低減制御を実施する。ここで、衝突被害低減制御としては、シートベルトの巻き取りやプリクラッシュブレーキによる衝突速度の低減等を例示することができる。   The PCS 1 detects a vehicle other than the own vehicle, an obstacle, a pedestrian, and the like based on information acquired by the millimeter wave radar 2 and the monocular camera 3. When it is determined that there is a high possibility of collision with these objects (including pedestrians), a warning is sent to the driver and collision damage reduction control is performed. Here, examples of the collision damage reduction control include reduction of the collision speed by winding the seat belt or pre-crash brake.

ミリ波レーダ2は、車両100の前側中央部に取り付けられている。ミリ波レーダ2は、車両100の前方及び斜め前方をミリ波帯の電磁波によって水平方向にスキャンすると共に車外の物体の表面で反射された電磁波を受信する。これにより、ミリ波レーダ2は物標を電磁波の反射点として認識する。さらに、ミリ波レーダ2は、ミリ波の送受信データから物標情報(レーダ物標情報)を取得する。ここでのレーダ物標情報は、物標の横位置、自車両100と物標間の距離及び自車両100と物標との相対速度である。該レーダ物標情報がカメラECU4及びPCS ECU5のフュージョン演算部6に入力される。   The millimeter wave radar 2 is attached to the front center portion of the vehicle 100. The millimeter wave radar 2 scans the front and oblique front of the vehicle 100 in the horizontal direction with millimeter wave electromagnetic waves, and receives the electromagnetic waves reflected on the surface of an object outside the vehicle. Thus, the millimeter wave radar 2 recognizes the target as an electromagnetic wave reflection point. Further, the millimeter wave radar 2 acquires target information (radar target information) from millimeter wave transmission / reception data. The radar target information here is the lateral position of the target, the distance between the host vehicle 100 and the target, and the relative speed between the host vehicle 100 and the target. The radar target information is input to the fusion calculation unit 6 of the camera ECU 4 and the PCS ECU 5.

単眼カメラ3は、CCDカメラであって、車両100の前側中央部に取り付けられている。単眼カメラ3は、車両100の前方及び斜め前方の画像を撮影する。これにより、単眼カメラ3は物標を画像として認識する。単眼カメラ3によって撮影された画像は画像信号としてカメラECU4に入力される。カメラECU4は、入力された画像信号から物標情報(画像物標情報)を取得する。ここでの画像物標情報は、物標の横位置、物標の横幅及び高さである。該画像物標情報がPCS ECU5のフュージョン演算部6に入力される。   The monocular camera 3 is a CCD camera and is attached to the front center portion of the vehicle 100. The monocular camera 3 captures images in front of and obliquely forward of the vehicle 100. Thereby, the monocular camera 3 recognizes the target as an image. An image captured by the monocular camera 3 is input to the camera ECU 4 as an image signal. The camera ECU 4 acquires target information (image target information) from the input image signal. The image target information here is the horizontal position of the target, the horizontal width and the height of the target. The image target information is input to the fusion calculation unit 6 of the PCS ECU 5.

このとき、画像物標情報は、同一の物標についてのレーダ物標情報と関連付けられてフュージョン演算部6に入力される。ミリ波レーダ2によって認識された物標と単眼カメラ3によって認識された物標とが同一の物標であるか否かは、レーダ物標情報及び画像物標情報における物標の横位置等に基づいて判断される。例えば、ミリ波レーダ2によって認識された物標と単眼カメラ3によって認識された物標とが重なっている場合、両物標は同一であると判断される。   At this time, the image target information is input to the fusion calculation unit 6 in association with the radar target information for the same target. Whether the target recognized by the millimeter wave radar 2 and the target recognized by the monocular camera 3 are the same target or not is determined by the lateral position of the target in the radar target information and the image target information. Judgment based on. For example, when the target recognized by the millimeter wave radar 2 and the target recognized by the monocular camera 3 overlap, it is determined that both targets are the same.

尚、ミリ波レーダ2及び単眼カメラ3の取り付け位置は車両の前側中央部に限られるものではない。例えば、これらを車両の後側に取り付けてもよい。   Note that the mounting positions of the millimeter wave radar 2 and the monocular camera 3 are not limited to the front center of the vehicle. For example, these may be attached to the rear side of the vehicle.

フュージョン演算部6は、ミリ波レーダ2から入力されたレーダ物標情報とカメラECU4から入力された画像物標情報とをフュージョンする。フュージョンの方法については
後述する。フュージョン演算部6による演算結果が物理値演算部7に入力される。
The fusion calculation unit 6 fuses the radar target information input from the millimeter wave radar 2 and the image target information input from the camera ECU 4. The fusion method will be described later. The calculation result by the fusion calculation unit 6 is input to the physical value calculation unit 7.

物理値演算部7は、フュージョン演算部6の演算結果に基づいて、物標の横位置、物標の横幅及び高さ、自車両100と物標間の距離及び自車両100と物標との相対速度を算出する。物理値演算部7による演算結果が衝突判定部8に入力される。   Based on the calculation result of the fusion calculation unit 6, the physical value calculation unit 7 determines the horizontal position of the target, the horizontal width and height of the target, the distance between the host vehicle 100 and the target, and between the host vehicle 100 and the target. Calculate the relative speed. The calculation result by the physical value calculation unit 7 is input to the collision determination unit 8.

衝突判定部8は、物理値演算部7の演算結果に基づいて、自車両100と物標とが衝突する可能性が高いか否かを判別する。衝突判定部8によって自車両100と物標とが衝突する可能性が高いと判定された場合、PCS ECU5は、シートベルト巻き取り用アクチュエータやプリクラッシュブレーキアクチュエータ等(図示略)に制御信号を発信することで衝突被害低減制御を実施する。さらに、この場合、PCS ECU5は、運転者への警報装置(図示略)に警報ONの信号を発信する。   The collision determination unit 8 determines whether or not the host vehicle 100 and the target are highly likely to collide based on the calculation result of the physical value calculation unit 7. When the collision determination unit 8 determines that there is a high possibility that the host vehicle 100 and the target will collide, the PCS ECU 5 transmits a control signal to a seat belt retracting actuator, a pre-crash brake actuator, and the like (not shown). To implement collision damage reduction control. Further, in this case, the PCS ECU 5 transmits a warning ON signal to a warning device (not shown) for the driver.

本実施例においては、ミリ波レーダ2、単眼カメラ3、カメラECU4、フュージョン演算部6及び物理値演算部7が本発明に係る物体検出装置を構成する。   In this embodiment, the millimeter wave radar 2, the monocular camera 3, the camera ECU 4, the fusion calculation unit 6, and the physical value calculation unit 7 constitute an object detection apparatus according to the present invention.

(フュージョン方法)
以下、フュージョン演算部6における、ミリ波レーダ2から入力されたレーダ物標情報とカメラECU4から入力された画像物標情報とのフュージョンの方法について図2及び3に基づいて説明する。本実施例に係る画像物標情報は、単眼カメラ3の画像から取得される。しかし、単眼カメラ3の画像からは正確な奥行き方向の物標情報を取得することが困難である。そのため、単眼カメラ3の画像から取得された画像物標情報においては、実際には自車両100から見て物標よりも奥に存在する物体又は模様が、物標と同一物体として認識される場合がある。この場合、物標の横幅が実際の幅よりも大きく検出される。
(Fusion method)
Hereinafter, a fusion method between the radar target information input from the millimeter wave radar 2 and the image target information input from the camera ECU 4 in the fusion calculation unit 6 will be described with reference to FIGS. The image target information according to the present embodiment is acquired from the image of the monocular camera 3. However, it is difficult to obtain accurate target information in the depth direction from the image of the monocular camera 3. Therefore, in the image target information acquired from the image of the monocular camera 3, an object or a pattern that is actually present behind the target as viewed from the own vehicle 100 is recognized as the same object as the target. There is. In this case, the width of the target is detected to be larger than the actual width.

ここで、ミリ波レーダ2によって電磁波の反射点として認識された物標をレーダ物標と称し、単眼カメラ3によって画像として認識された物標を画像物標と称する。例えば、図2に示すように、道路沿いに壁201がある幅の狭い道路200を車両100が走行したときに、ミリ波レーダ2によってA地点の壁がレーダ物標として認識されたとする。このとき、単眼カメラ3によってもA地点の壁が画像物標として認識される。しかしながら、単眼カメラ3によれば、A地点よりも奥の壁もA地点にあるものとして認識される場合がある。その結果、画像物標情報においては、A地点における壁の横幅が実際の幅よりも大きい値となる。   Here, a target recognized as a reflection point of electromagnetic waves by the millimeter wave radar 2 is referred to as a radar target, and a target recognized as an image by the monocular camera 3 is referred to as an image target. For example, as shown in FIG. 2, when the vehicle 100 travels on a narrow road 200 with a wall 201 along the road, the millimeter wave radar 2 recognizes the wall at the point A as a radar target. At this time, the monocular camera 3 also recognizes the wall at the point A as an image target. However, according to the monocular camera 3, the wall behind the point A may be recognized as being at the point A. As a result, in the image target information, the width of the wall at the point A is a value larger than the actual width.

上記のように物標の横幅が実際の幅よりも大きいものとして誤検出された画像物標情報がレーダ物標情報とフュージョンされ、その結果に基づいて物体検出が行なわれると、検出された物体が自車線上にはみ出していると判断される(図2の場合、A地点の壁が自車線上にはみ出していると判断される。)。この場合、PCS1が誤作動する虞がある。   As described above, the image target information erroneously detected as the width of the target being larger than the actual width is fused with the radar target information, and when the object is detected based on the result, the detected object Is determined to protrude from the own lane (in the case of FIG. 2, it is determined that the wall at the point A protrudes from the own lane). In this case, the PCS 1 may malfunction.

そこで、本実施例では、ミリ波レーダ2の受信波の強度に応じた所定の横幅を設定する。ミリ波レーダ2の受信波の強度は物標に応じて変化する。該所定の横幅は、ミリ波レーダ2の受信波の強度に対応する物標の横幅の最大値にある程度のマージンを加算した値として設定される。そして、ミリ波レーダ2によって認識されたレーダ物標の位置と単眼カメラ3によって認識された画像物標の横端との間の横方向の距離が所定の横幅を超えている場合、その間の画像物標情報を用いずにレーダ物標情報と画像物標情報とをフュージョンさせる。   Therefore, in this embodiment, a predetermined lateral width is set according to the intensity of the received wave of the millimeter wave radar 2. The intensity of the received wave of the millimeter wave radar 2 changes according to the target. The predetermined horizontal width is set as a value obtained by adding a certain margin to the maximum value of the horizontal width of the target corresponding to the intensity of the received wave of the millimeter wave radar 2. If the lateral distance between the position of the radar target recognized by the millimeter wave radar 2 and the horizontal end of the image target recognized by the monocular camera 3 exceeds a predetermined lateral width, the image between them The radar target information and the image target information are fused without using the target information.

図3(1)は、ミリ波レーダ2及び単眼カメラ3によって実際に認識されたレーダ物標及び画像物標を表している。図3(2)は、フュージョン演算部6においてフュージョンされるレーダ物標及び画像物標を表している。   FIG. 3A shows a radar target and an image target actually recognized by the millimeter wave radar 2 and the monocular camera 3. FIG. 3B shows the radar target and the image target that are fused in the fusion calculation unit 6.

図3(1)においては、ミリ波レーダ2によって認識されたレーダ物標の位置と単眼カメラ3によって認識された画像物標の右横端との間の横方向の距離Liが所定の横幅αを超えている。この場合、画像物標におけるレーダ物標の位置より右側は誤検出である可能性が高い。そのため、図3(2)に示すように、レーダ物標の位置より右側の画像物標情報を用いずにレーダ物標情報と画像物標情報とをフュージョンさせる。   In FIG. 3A, the lateral distance Li between the position of the radar target recognized by the millimeter wave radar 2 and the right lateral end of the image target recognized by the monocular camera 3 is a predetermined lateral width α. Is over. In this case, there is a high possibility of erroneous detection on the right side of the position of the radar target in the image target. For this reason, as shown in FIG. 3B, the radar target information and the image target information are fused without using the image target information on the right side of the position of the radar target.

上記のようなフュージョン方法によれば、信頼性の低い部分を除いた画像物標情報がレーダ物標情報とフュージョンされる。これにより、物標の横幅が誤検出されることが抑制される。その結果、PCS1の誤作動を抑制することができる。   According to the fusion method as described above, the image target information excluding the portion with low reliability is fused with the radar target information. This suppresses erroneous detection of the horizontal width of the target. As a result, malfunction of PCS1 can be suppressed.

(フュージョンのフロー)
本実施例に係るフュージョン演算部でのレーダ物標情報と画像物標情報とのフュージョンのフローについて図4に示すフローチャートに基づいて説明する。本フローはフュージョン演算部6において繰り返し実行されるフローである。
(Fusion flow)
A fusion flow of the radar target information and the image target information in the fusion calculation unit according to the present embodiment will be described based on the flowchart shown in FIG. This flow is a flow that is repeatedly executed in the fusion calculation unit 6.

本フローでは、先ずステップS101において、レーダ物標情報及び画像物標情報が読み込まれる。   In this flow, first, in step S101, radar target information and image target information are read.

次に、ステップS102において、レーダ物標情報とフュージョン可能な画像物標情報があるか否かが判別される。つまり、ミリ波レーダ2によって認識された物標と同一の物標についての画像物標情報があるか否かが判別される。ステップS102において、肯定判定された場合、次にステップS103の処理が実行され、否定判定された場合、本フローの実行が一旦終了される。   Next, in step S102, it is determined whether there is image target information that can be fused with radar target information. That is, it is determined whether there is image target information for the same target as the target recognized by the millimeter wave radar 2. If an affirmative determination is made in step S102, the process of step S103 is executed next. If a negative determination is made, the execution of this flow is temporarily terminated.

ステップS103においては、ミリ波レーダ2の受信波の強度Irが所定の高閾値Ir1以上であるか否かが判別される。ここで、高閾値Ir1は、物標が車両程度の大型の物体であることを想定して定められた値である。例えば、高閾値Ir1は、車両が反射する反射波の強度の最小値として設定されてもよい。ステップS103において、肯定判定された場合、次にステップS104の処理が実行され、否定判定された場合、次にステップS107の処理が実行される。   In step S103, it is determined whether or not the intensity Ir of the received wave of the millimeter wave radar 2 is equal to or higher than a predetermined high threshold value Ir1. Here, the high threshold value Ir1 is a value determined on the assumption that the target is a large object such as a vehicle. For example, the high threshold value Ir1 may be set as the minimum value of the intensity of the reflected wave reflected by the vehicle. If an affirmative determination is made in step S103, the process of step S104 is executed next. If a negative determination is made, the process of step S107 is executed next.

ステップS104においては、ミリ波レーダ2によって認識されたレーダ物標の位置と単眼カメラ3によって認識された画像物標の横端との間の横方向の距離Liが第一の所定の横幅α1を超えているか否かが判別される。この判別は、画像物標の左右両端について行なわれる。   In step S104, the lateral distance Li between the position of the radar target recognized by the millimeter wave radar 2 and the horizontal end of the image target recognized by the monocular camera 3 has a first predetermined lateral width α1. It is determined whether or not it exceeds. This determination is performed on both left and right ends of the image target.

ここで、第一の所定の横幅α1は、高閾値Ir1に対応する物標、即ち車両程度の大型の物体の横幅の最大値にある程度のマージンを加算して設定された値である。高閾値Ir1が、車両が反射する反射波の強度の最小値として設定された場合、第一の所定の横幅α1は車両の横幅にマージンを加算した値(例えば、2m)として設定される。ステップS104において、肯定判定された場合、次にステップS105の処理が実行され、否定判定された場合、次にステップS106の処理が実行される。   Here, the first predetermined lateral width α1 is a value set by adding a certain margin to the maximum value of the lateral width of a target corresponding to the high threshold value Ir1, that is, a large object of the size of a vehicle. When the high threshold value Ir1 is set as the minimum value of the intensity of the reflected wave reflected by the vehicle, the first predetermined lateral width α1 is set as a value obtained by adding a margin to the lateral width of the vehicle (for example, 2 m). If an affirmative determination is made in step S104, the process of step S105 is executed next, and if a negative determination is made, the process of step S106 is executed next.

ステップS105においては、レーダ物標の位置からの距離Liが第一の所定の横幅α1を超えていると判定された方の横端からレーダ物標の位置までの間の画像物標情報を用いずにレーダ物標情報と画像物標情報とをフュージョンさせる。   In step S105, the image target information between the lateral end of the one determined that the distance Li from the radar target position exceeds the first predetermined lateral width α1 and the radar target position is used. First, the radar target information and the image target information are fused.

ステップS106においては、左右両端間の画像物標情報(即ち、画像物標についての全ての画像物標情報)を用いてレーダ物標情報と画像物標情報とをフュージョンさせる。   In step S106, the radar target information and the image target information are fused using the image target information between the left and right ends (that is, all the image target information for the image target).

一方、ステップS107においては、ミリ波レーダ2の受信波の強度Irが所定の低閾値Ir2以上であるか否かが判別される。ここで、低閾値Ir2は、物標が人体程度の小型の物体であることを想定して定められた値である。例えば、低閾値Ir2は、人体(歩行者)が反射する反射波の強度の最小値として設定されてもよい。ステップS107において、肯定判定された場合、次にステップS107の処理が実行され、否定判定された場合、本フローの実行が一旦終了される。   On the other hand, in step S107, it is determined whether or not the intensity Ir of the received wave of the millimeter wave radar 2 is greater than or equal to a predetermined low threshold value Ir2. Here, the low threshold value Ir2 is a value determined on the assumption that the target is a small object of the order of a human body. For example, the low threshold value Ir2 may be set as the minimum value of the intensity of the reflected wave reflected by the human body (pedestrian). If an affirmative determination is made in step S107, then the process of step S107 is executed next. If a negative determination is made, the execution of this flow is temporarily terminated.

ステップS108においては、レーダ物標の位置と画像物標の横端との間の横方向の距離Liが、第一の所定の横幅α1よりも小さい第二の所定の横幅α2を超えているか否かが判別される。この判別は、画像物標の左右両端について行なわれる。   In step S108, whether or not the lateral distance Li between the position of the radar target and the horizontal end of the image target exceeds a second predetermined lateral width α2 that is smaller than the first predetermined lateral width α1. Is determined. This determination is performed on both left and right ends of the image target.

ここで、第二の所定の横幅α2は、低閾値Ir2に対応する物標、即ち人体程度の小型の物体の横幅の最大値にある程度のマージンを加算して設定された値である。低閾値Ir2が、人体が反射する反射波の強度の最小値として設定された場合、第二の所定の横幅α2は人体の横幅にマージンを加算した値(例えば、1m)として設定される。ステップS108において、肯定判定された場合、次にステップS109の処理が実行され、否定判定された場合、次にステップS110の処理が実行される。   Here, the second predetermined lateral width α2 is a value set by adding a certain margin to the maximum value of the lateral width of a target corresponding to the low threshold value Ir2, that is, a small object of the human body. When the low threshold value Ir2 is set as the minimum value of the intensity of the reflected wave reflected by the human body, the second predetermined lateral width α2 is set as a value obtained by adding a margin to the lateral width of the human body (for example, 1 m). If an affirmative determination is made in step S108, the process of step S109 is executed next. If a negative determination is made, the process of step S110 is executed next.

ステップS109においては、レーダ物標の位置からの距離Liが第二の所定の横幅α2を超えていると判定された方の横端からレーダ物標の位置までの間の画像物標情報を用いずにレーダ物標情報と画像物標情報とをフュージョンさせる。   In step S109, the image target information from the lateral end to the position of the radar target on which the distance Li from the position of the radar target is determined to exceed the second predetermined lateral width α2 is used. First, the radar target information and the image target information are fused.

ステップS110においては、左右両端間の画像物標情報(即ち、画像物標についての全ての画像物標情報)を用いてレーダ物標情報と画像物標情報とをフュージョンさせる。   In step S110, the radar target information and the image target information are fused using the image target information between the left and right ends (that is, all image target information for the image target).

上記のように、本実施例においては、物標が車両程度の大型の物体である場合と人体程度の小型の物体である場合とを区別して、画像物標情報の信頼性の判断基準となる所定の横幅が設定される。そのため、物標に応じた画像物標情報の信頼性の判断を行なうことができる。   As described above, in this embodiment, the case where the target is a large object such as a vehicle is distinguished from the case where the target is a small object such as a human body, which is a criterion for determining the reliability of the image target information. A predetermined lateral width is set. Therefore, it is possible to determine the reliability of the image target information corresponding to the target.

本実施例では、ミリ波レーダ2の受信波の強度が属する閾値レベル(高閾値Ir1、低閾値Ir2)毎に第一及び第二の所定の横幅α1、α2を設定したが、ミリ波レーダ2の受信波の強度に応じて三つ以上の所定の横幅を設定してもよい。   In the present embodiment, the first and second predetermined lateral widths α1 and α2 are set for each threshold level (high threshold Ir1 and low threshold Ir2) to which the intensity of the received wave of the millimeter wave radar 2 belongs. Three or more predetermined lateral widths may be set according to the intensity of the received wave.

1・・・PCS(Pre-crash safety system)
2・・・ミリ波レーダ
3・・・単眼カメラ
4・・・カメラECU
5・・・PCS ECU
6・・・フュージョン演算部
7・・・物理地演算部
8・・・衝突判定部
100・・車両
200・・道路
201・・壁
1 ... PCS (Pre-crash safety system)
2 ... Millimeter wave radar 3 ... Monocular camera 4 ... Camera ECU
5 ... PCS ECU
6 ... Fusion calculation unit 7 ... Physical ground calculation unit 8 ... Collision determination unit 100 ... Vehicle 200 ... Road 201 ... Wall

Claims (4)

レーダによって取得されるレーダ物標情報と単眼カメラの画像から取得される画像物標情報とをフュージョンさせるフュージョン演算部を備え、フュージョン演算部による演算結果に基づいて物体を検出する物体検出装置であって、
前記フュージョン演算部は、前記レーダによって認識された物標の位置と前記単眼カメラによって認識された物標の横端との間の横方向の距離が、前記レーダの受信波の強度に応じて設定された所定の横幅を超えている場合、その間の画像物標情報を用いずにレーダ物標情報と画像物標情報とをフュージョンさせることを特徴とする物体検出装置。
The object detection device includes a fusion calculation unit that fuses radar target information acquired by a radar and image target information acquired from an image of a monocular camera, and detects an object based on a calculation result of the fusion calculation unit. And
The fusion calculation unit sets a lateral distance between the position of the target recognized by the radar and the horizontal end of the target recognized by the monocular camera according to the intensity of the received wave of the radar. An object detection apparatus that fuses radar target information and image target information without using image target information in the case where the predetermined horizontal width is exceeded.
前記レーダは物標を電磁波の反射点として認識し、前記単眼カメラは物標を画像として認識することを特徴とする請求項1に記載の物体検出装置。 The radar recognizes target as the reflection point of the electromagnetic wave, the monocular camera object detecting apparatus mounting serial to claim 1, wherein recognizing the target as an image. 前記レーダの受信波の強度が第一の閾値以上の場合、前記所定の横幅が第一の所定の横幅に設定され、
前記レーダの受信波の強度が前記第一の閾値より低く且つ第二の閾値以上の場合、前記所定の横幅が前記第一の所定の横幅よりも小さい第二の所定の横幅に設定されることを特徴とする請求項1又は2に記載の物体検出装置。
If the intensity of the received wave of the radar is greater than or equal to a first threshold, the predetermined lateral width is set to a first predetermined lateral width,
When the intensity of the received wave of the radar is lower than the first threshold and greater than or equal to the second threshold, the predetermined lateral width is set to a second predetermined lateral width that is smaller than the first predetermined lateral width. object detection device of the mounting serial to claim 1 or 2, characterized in.
前記第一の閾値が、物標が車両程度の大型の物体であることを想定して定められた値であり、前記第二の閾値が、物標が人体程度の小型の物体であることを想定して定められた値であることを特徴とする請求項3に記載の物体検出装置。   The first threshold is a value determined on the assumption that the target is a large object such as a vehicle, and the second threshold is that the target is a small object such as a human body. The object detection apparatus according to claim 3, wherein the object detection apparatus has a value determined on the assumption.
JP2009203612A 2009-09-03 2009-09-03 Object detection device Active JP5471195B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009203612A JP5471195B2 (en) 2009-09-03 2009-09-03 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009203612A JP5471195B2 (en) 2009-09-03 2009-09-03 Object detection device

Publications (2)

Publication Number Publication Date
JP2011053139A JP2011053139A (en) 2011-03-17
JP5471195B2 true JP5471195B2 (en) 2014-04-16

Family

ID=43942298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009203612A Active JP5471195B2 (en) 2009-09-03 2009-09-03 Object detection device

Country Status (1)

Country Link
JP (1) JP5471195B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5673568B2 (en) * 2012-01-16 2015-02-18 トヨタ自動車株式会社 Object detection device
JP5812064B2 (en) 2012-11-22 2015-11-11 株式会社デンソー Target detection device
JP6380232B2 (en) * 2015-05-19 2018-08-29 株式会社デンソー Object detection apparatus and object detection method
JP6462630B2 (en) 2016-05-24 2019-01-30 株式会社デンソー Target detection device
JP6855776B2 (en) * 2016-12-16 2021-04-07 株式会社デンソー Object detection device and object detection method
JP6579144B2 (en) * 2017-03-28 2019-09-25 株式会社Soken Obstacle detection device
CN111045000A (en) * 2018-10-11 2020-04-21 阿里巴巴集团控股有限公司 Monitoring system and method
CN109946661A (en) * 2019-04-26 2019-06-28 陕西师范大学 A kind of trailer-mounted radar data processing algorithm verifying system
CN111398961B (en) * 2020-03-17 2022-07-15 北京百度网讯科技有限公司 Method and apparatus for detecting obstacles
CN112162275B (en) * 2020-09-29 2024-05-14 安徽江淮汽车集团股份有限公司 Target object identification method, device, equipment and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4308405B2 (en) * 2000-04-14 2009-08-05 富士通テン株式会社 Object detection device
JP4518978B2 (en) * 2005-03-02 2010-08-04 ダイハツ工業株式会社 Vehicle object recognition device and object recognition method
JP4304517B2 (en) * 2005-11-09 2009-07-29 トヨタ自動車株式会社 Object detection device

Also Published As

Publication number Publication date
JP2011053139A (en) 2011-03-17

Similar Documents

Publication Publication Date Title
JP5471195B2 (en) Object detection device
JP4558758B2 (en) Obstacle recognition device for vehicles
JP4883246B2 (en) Object detection apparatus and object detection method
CN107408345B (en) Method and device for determining presence of target object
CN106030336B (en) Peripheral situation of vehicle identification equipment and vehicle control apparatus
JP4396400B2 (en) Obstacle recognition device
US11014566B2 (en) Object detection apparatus
US10854081B2 (en) Driving assistance device and driving assistance method
JP5910046B2 (en) Obstacle detection device
CN107430822B (en) Object detection device and object detection method
JP6361592B2 (en) Vehicle control device
JP6855776B2 (en) Object detection device and object detection method
WO2017104773A1 (en) Moving body control device and moving body control method
JP6380232B2 (en) Object detection apparatus and object detection method
WO2011036807A1 (en) Object detection device and object detection method
WO2017111147A1 (en) Travel assistance device and travel assistance method
JP6432538B2 (en) Collision prediction device
US10578714B2 (en) Vehicle control apparatus and vehicle control method
JP5655297B2 (en) Object detection device, vehicle safety system equipped with object detection device
JP5083172B2 (en) Collision prediction device
WO2017094891A1 (en) Object detection apparatus and object detection method
JP2012064026A (en) Vehicular object detection device and vehicular object detection method
JP4118111B2 (en) Dangerous obstacle judgment device
WO2014096244A1 (en) Driver assistance system for at least partially decelerating a motor vehicle, motor vehicle and corresponding method
JP4872517B2 (en) Obstacle recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R151 Written notification of patent or utility model registration

Ref document number: 5471195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151