JP5471195B2 - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP5471195B2 JP5471195B2 JP2009203612A JP2009203612A JP5471195B2 JP 5471195 B2 JP5471195 B2 JP 5471195B2 JP 2009203612 A JP2009203612 A JP 2009203612A JP 2009203612 A JP2009203612 A JP 2009203612A JP 5471195 B2 JP5471195 B2 JP 5471195B2
- Authority
- JP
- Japan
- Prior art keywords
- radar
- target
- image
- target information
- lateral width
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、レーダ及びカメラによって取得される情報に基づいて物体を検出する物体検出装置に関する。 The present invention relates to an object detection apparatus that detects an object based on information acquired by a radar and a camera.
近年、PCS(Pre-crash safety system)等の衝突回避又は衝突による被害の低減の
ための安全システムが開発されている。このような安全システムを好適に実現させるためには、自車両以外の車両や障害物、歩行者等の位置及び大きさ、これらと自車との距離を正確に把握する必要がある。これらを把握するための技術として、レーダによって取得されるレーダ物標情報とカメラの画像から取得される画像物標情報とをフュージョンさせることで物体を検出する物体検出装置が知られている。
In recent years, safety systems such as PCS (Pre-crash safety system) for collision avoidance or reduction of damage caused by collision have been developed. In order to suitably realize such a safety system, it is necessary to accurately grasp the positions and sizes of vehicles other than the own vehicle, obstacles, pedestrians, and the distance between them and the own vehicle. As a technique for grasping these, there is known an object detection device that detects an object by fusing radar target information acquired by a radar and image target information acquired from an image of a camera.
レーダによって取得されるレーダ物標情報によれば自車両と物標間の距離を算出することができる。しかしながら、レーダ物標情報からは物標の横位置や横幅を高精度で算出することが困難である。一方、カメラの画像から取得される画像物標情報によれば、レーダ物標情報よりも高い精度で物標の横位置や横幅を算出することができる。そのため、レーダ物標情報と画像物標情報とをフュージョンさせることで、物体の位置や大きさ、自車両との距離をより正確に把握することが可能となる。 According to the radar target information acquired by the radar, the distance between the host vehicle and the target can be calculated. However, it is difficult to calculate the horizontal position and width of the target with high accuracy from the radar target information. On the other hand, according to the image target information acquired from the camera image, the horizontal position and width of the target can be calculated with higher accuracy than the radar target information. Therefore, by fusing the radar target information and the image target information, the position and size of the object and the distance from the host vehicle can be grasped more accurately.
特許文献1には、測距レーダと画像センサとのセンサフュージョンで認識した自車前方
の車外物標の横幅が長くなる程衝突回避制御の安全システムを介入し易くする車両の物体認識装置が開示されている。この特許文献1に係る物体認識装置においては、レーダを用いて得られた車外物標の横幅であるレーダ幅と画像センサを用いて得られた車外物標の横幅である画像幅とのうち短い方がセンサフュージョンの認識幅として選択される。
また、特許文献2及び3にも、レーダによって取得されるレーダ物標情報とカメラの画像から取得される画像物標情報とをフュージョンさせることで物体を認識又は検出する技術についての開示がある。
物体検出装置においては、画像物標情報を取得するためのカメラとしてステレオカメラ又は単眼カメラを用いることができる。単眼カメラを用いた場合、ステレオカメラを用いた場合に比べてコストを低減することができる。しかしながら、単眼カメラの画像からは正確な奥行き方向の物標情報を取得することが困難である。そのため、単眼カメラの画像から取得された画像物標情報においては、実際には自車両から見て物標よりも奥に存在する物体又は模様が、物標と同一物体として認識される場合がある。この場合、物標の横幅が実際の幅よりも大きく検出される。 In the object detection apparatus, a stereo camera or a monocular camera can be used as a camera for acquiring image target information. When a monocular camera is used, costs can be reduced compared to when a stereo camera is used. However, it is difficult to obtain accurate target information in the depth direction from an image of a monocular camera. Therefore, in the image target information acquired from the image of the monocular camera, an object or pattern existing behind the target when viewed from the own vehicle may be recognized as the same object as the target. . In this case, the width of the target is detected to be larger than the actual width.
このような誤検出により、検出された物体が自車線上にはみ出していると判断されると、PCS等の安全システムの誤作動を招く虞がある。 If it is determined by such erroneous detection that the detected object protrudes from the own lane, there is a risk of causing a malfunction of a safety system such as PCS.
本発明は、上記のような問題に鑑みてなされたものであって、レーダによって取得されるレーダ物標情報とカメラによって取得される画像物標情報とをフュージョンさせることで物体を検出する物体検出装置において、物体の検出精度をより向上させることが可能な技術を提供することを目的とする。 The present invention has been made in view of the above problems, and detects an object by fusing radar target information acquired by a radar and image target information acquired by a camera. An object of the present invention is to provide a technique capable of further improving the detection accuracy of an object in an apparatus.
本発明は、レーダによって認識された物標の位置から、レーダの受信波の強度に応じて設定された所定の横幅の範囲内にある画像物標情報のみを用いて、レーダ物標情報と画像物標情報とをフュージョンさせるものである。 The present invention uses only image target information within a predetermined horizontal range set in accordance with the intensity of the received wave of the radar from the position of the target recognized by the radar, and uses the radar target information and the image. The target information is fused.
より詳しくは、本発明に係る物体検出装置は、
レーダによって取得されるレーダ物標情報と単眼カメラの画像から取得される画像物標情報とをフュージョンさせることで物体を検出する物体検出装置であって、
前記レーダによって認識された物標の位置と前記単眼カメラによって認識された物標の横端との間の横方向の距離が、前記レーダの受信波の強度に応じて設定された所定の横幅を超えている場合、その間の画像物標情報を用いずにレーダ物標情報と画像物標情報とをフュージョンさせることを特徴とする。
More specifically, the object detection device according to the present invention is:
An object detection device that detects an object by fusing radar target information acquired by a radar and image target information acquired from an image of a monocular camera,
The lateral distance between the position of the target recognized by the radar and the horizontal end of the target recognized by the monocular camera has a predetermined horizontal width set according to the intensity of the received wave of the radar. If it exceeds, radar target information and image target information are fused without using image target information in the meantime.
レーダの受信波の強度は物標に応じて変化する。ここで、所定の横幅は、レーダの受信波の強度に対応する物標の横幅の最大値又はそれにある程度のマージンを加算した値として設定される。 The intensity of the received wave of the radar changes according to the target. Here, the predetermined horizontal width is set as the maximum value of the horizontal width of the target corresponding to the intensity of the received wave of the radar or a value obtained by adding a certain margin to the maximum value.
本発明によれば、信頼性の低い部分を除いた画像物標情報がレーダ物標情報とフュージョンされる。これにより、物標の横幅が誤検出されることが抑制される。従って、物体の検出精度をより向上させることができる。 According to the present invention, the image target information excluding the portion with low reliability is fused with the radar target information. This suppresses erroneous detection of the horizontal width of the target. Therefore, the object detection accuracy can be further improved.
尚、レーダは物標を電磁波の反射点として認識するものであってもよい。また、単眼カメラは物標を画像として認識するものであってもよい。 The radar may recognize the target as an electromagnetic wave reflection point. The monocular camera may recognize a target as an image.
本発明においては、レーダの受信波の強度が属する閾値レベル毎に前記所定の横幅が設定されてもよい。つまり、レーダの受信波の強度が第一の閾値以上の場合、前記所定の横幅が第一の所定の横幅に設定され、レーダの受信波の強度が第一の閾値より低く且つ第二の閾値以上の場合、前記所定の横幅が第一の所定の横幅よりも小さい第二の所定の横幅に設定されてもよい。これによれば、所定の横幅を、レーダによって認識された物標に応じた値として設定することができる。 In the present invention, the predetermined lateral width may be set for each threshold level to which the intensity of the received wave of the radar belongs. That is, when the intensity of the received wave of the radar is greater than or equal to the first threshold, the predetermined horizontal width is set to the first predetermined horizontal width, the intensity of the received wave of the radar is lower than the first threshold, and the second threshold In the above case, the predetermined lateral width may be set to a second predetermined lateral width that is smaller than the first predetermined lateral width. According to this, the predetermined lateral width can be set as a value corresponding to the target recognized by the radar.
上記の場合、第一の閾値を、物標が車両程度の大型の物体であることを想定して定められた値としてもよい。また、第二の閾値を、物標が人体程度の小型の物体であることを想定して定められた値としてもよい。 In the above case, the first threshold value may be a value determined on the assumption that the target is a large object such as a vehicle. Further, the second threshold value may be a value determined on the assumption that the target is a small object of the order of a human body.
本発明によれば、物体の検出精度をより向上させることができる。その結果、PCS等の安全システムの誤作動を抑制することができる。 According to the present invention, the object detection accuracy can be further improved. As a result, malfunction of a safety system such as PCS can be suppressed.
以下、本発明の具体的な実施形態について図面に基づいて説明する。本実施例に記載されている構成部品の寸法、材質、形状、その相対配置等は、特に記載がない限りは発明の技術的範囲をそれらのみに限定する趣旨のものではない。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. The dimensions, materials, shapes, relative arrangements, and the like of the components described in the present embodiment are not intended to limit the technical scope of the invention to those unless otherwise specified.
(システムの概略構成)
ここでは、本発明に係る物体検出装置をPCSに適用した場合の実施例について説明する。図1は、本実施例に係るPCSの一部の概略構成を示すブロック図である。本実施例においては、PCS1が車両100に搭載されている。PCS1は、ミリ波レーダ2、単眼カメラ3、カメラECU4、PCS ECU5を備えている。また、PCS ECU5は、フュージョン演算部6、物理値演算部7及び衝突判定部8を有している。
(Schematic configuration of the system)
Here, an embodiment in the case where the object detection apparatus according to the present invention is applied to a PCS will be described. FIG. 1 is a block diagram illustrating a schematic configuration of a part of the PCS according to the present embodiment. In this embodiment, the PCS 1 is mounted on the
PCS1は、ミリ波レーダ2及び単眼カメラ3によって取得した情報に基づいて自車両以外の車両や障害物、歩行者等を検出する。そして、これらの物体(歩行者含む)と衝突する可能性が高いと判断した場合、運転者へ警報を発信すると共に衝突被害低減制御を実施する。ここで、衝突被害低減制御としては、シートベルトの巻き取りやプリクラッシュブレーキによる衝突速度の低減等を例示することができる。
The PCS 1 detects a vehicle other than the own vehicle, an obstacle, a pedestrian, and the like based on information acquired by the
ミリ波レーダ2は、車両100の前側中央部に取り付けられている。ミリ波レーダ2は、車両100の前方及び斜め前方をミリ波帯の電磁波によって水平方向にスキャンすると共に車外の物体の表面で反射された電磁波を受信する。これにより、ミリ波レーダ2は物標を電磁波の反射点として認識する。さらに、ミリ波レーダ2は、ミリ波の送受信データから物標情報(レーダ物標情報)を取得する。ここでのレーダ物標情報は、物標の横位置、自車両100と物標間の距離及び自車両100と物標との相対速度である。該レーダ物標情報がカメラECU4及びPCS ECU5のフュージョン演算部6に入力される。
The
単眼カメラ3は、CCDカメラであって、車両100の前側中央部に取り付けられている。単眼カメラ3は、車両100の前方及び斜め前方の画像を撮影する。これにより、単眼カメラ3は物標を画像として認識する。単眼カメラ3によって撮影された画像は画像信号としてカメラECU4に入力される。カメラECU4は、入力された画像信号から物標情報(画像物標情報)を取得する。ここでの画像物標情報は、物標の横位置、物標の横幅及び高さである。該画像物標情報がPCS ECU5のフュージョン演算部6に入力される。
The monocular camera 3 is a CCD camera and is attached to the front center portion of the
このとき、画像物標情報は、同一の物標についてのレーダ物標情報と関連付けられてフュージョン演算部6に入力される。ミリ波レーダ2によって認識された物標と単眼カメラ3によって認識された物標とが同一の物標であるか否かは、レーダ物標情報及び画像物標情報における物標の横位置等に基づいて判断される。例えば、ミリ波レーダ2によって認識された物標と単眼カメラ3によって認識された物標とが重なっている場合、両物標は同一であると判断される。
At this time, the image target information is input to the fusion calculation unit 6 in association with the radar target information for the same target. Whether the target recognized by the
尚、ミリ波レーダ2及び単眼カメラ3の取り付け位置は車両の前側中央部に限られるものではない。例えば、これらを車両の後側に取り付けてもよい。
Note that the mounting positions of the
フュージョン演算部6は、ミリ波レーダ2から入力されたレーダ物標情報とカメラECU4から入力された画像物標情報とをフュージョンする。フュージョンの方法については
後述する。フュージョン演算部6による演算結果が物理値演算部7に入力される。
The fusion calculation unit 6 fuses the radar target information input from the
物理値演算部7は、フュージョン演算部6の演算結果に基づいて、物標の横位置、物標の横幅及び高さ、自車両100と物標間の距離及び自車両100と物標との相対速度を算出する。物理値演算部7による演算結果が衝突判定部8に入力される。
Based on the calculation result of the fusion calculation unit 6, the physical value calculation unit 7 determines the horizontal position of the target, the horizontal width and height of the target, the distance between the
衝突判定部8は、物理値演算部7の演算結果に基づいて、自車両100と物標とが衝突する可能性が高いか否かを判別する。衝突判定部8によって自車両100と物標とが衝突する可能性が高いと判定された場合、PCS ECU5は、シートベルト巻き取り用アクチュエータやプリクラッシュブレーキアクチュエータ等(図示略)に制御信号を発信することで衝突被害低減制御を実施する。さらに、この場合、PCS ECU5は、運転者への警報装置(図示略)に警報ONの信号を発信する。
The
本実施例においては、ミリ波レーダ2、単眼カメラ3、カメラECU4、フュージョン演算部6及び物理値演算部7が本発明に係る物体検出装置を構成する。
In this embodiment, the
(フュージョン方法)
以下、フュージョン演算部6における、ミリ波レーダ2から入力されたレーダ物標情報とカメラECU4から入力された画像物標情報とのフュージョンの方法について図2及び3に基づいて説明する。本実施例に係る画像物標情報は、単眼カメラ3の画像から取得される。しかし、単眼カメラ3の画像からは正確な奥行き方向の物標情報を取得することが困難である。そのため、単眼カメラ3の画像から取得された画像物標情報においては、実際には自車両100から見て物標よりも奥に存在する物体又は模様が、物標と同一物体として認識される場合がある。この場合、物標の横幅が実際の幅よりも大きく検出される。
(Fusion method)
Hereinafter, a fusion method between the radar target information input from the
ここで、ミリ波レーダ2によって電磁波の反射点として認識された物標をレーダ物標と称し、単眼カメラ3によって画像として認識された物標を画像物標と称する。例えば、図2に示すように、道路沿いに壁201がある幅の狭い道路200を車両100が走行したときに、ミリ波レーダ2によってA地点の壁がレーダ物標として認識されたとする。このとき、単眼カメラ3によってもA地点の壁が画像物標として認識される。しかしながら、単眼カメラ3によれば、A地点よりも奥の壁もA地点にあるものとして認識される場合がある。その結果、画像物標情報においては、A地点における壁の横幅が実際の幅よりも大きい値となる。
Here, a target recognized as a reflection point of electromagnetic waves by the
上記のように物標の横幅が実際の幅よりも大きいものとして誤検出された画像物標情報がレーダ物標情報とフュージョンされ、その結果に基づいて物体検出が行なわれると、検出された物体が自車線上にはみ出していると判断される(図2の場合、A地点の壁が自車線上にはみ出していると判断される。)。この場合、PCS1が誤作動する虞がある。
As described above, the image target information erroneously detected as the width of the target being larger than the actual width is fused with the radar target information, and when the object is detected based on the result, the detected object Is determined to protrude from the own lane (in the case of FIG. 2, it is determined that the wall at the point A protrudes from the own lane). In this case, the
そこで、本実施例では、ミリ波レーダ2の受信波の強度に応じた所定の横幅を設定する。ミリ波レーダ2の受信波の強度は物標に応じて変化する。該所定の横幅は、ミリ波レーダ2の受信波の強度に対応する物標の横幅の最大値にある程度のマージンを加算した値として設定される。そして、ミリ波レーダ2によって認識されたレーダ物標の位置と単眼カメラ3によって認識された画像物標の横端との間の横方向の距離が所定の横幅を超えている場合、その間の画像物標情報を用いずにレーダ物標情報と画像物標情報とをフュージョンさせる。
Therefore, in this embodiment, a predetermined lateral width is set according to the intensity of the received wave of the
図3(1)は、ミリ波レーダ2及び単眼カメラ3によって実際に認識されたレーダ物標及び画像物標を表している。図3(2)は、フュージョン演算部6においてフュージョンされるレーダ物標及び画像物標を表している。
FIG. 3A shows a radar target and an image target actually recognized by the
図3(1)においては、ミリ波レーダ2によって認識されたレーダ物標の位置と単眼カメラ3によって認識された画像物標の右横端との間の横方向の距離Liが所定の横幅αを超えている。この場合、画像物標におけるレーダ物標の位置より右側は誤検出である可能性が高い。そのため、図3(2)に示すように、レーダ物標の位置より右側の画像物標情報を用いずにレーダ物標情報と画像物標情報とをフュージョンさせる。
In FIG. 3A, the lateral distance Li between the position of the radar target recognized by the
上記のようなフュージョン方法によれば、信頼性の低い部分を除いた画像物標情報がレーダ物標情報とフュージョンされる。これにより、物標の横幅が誤検出されることが抑制される。その結果、PCS1の誤作動を抑制することができる。 According to the fusion method as described above, the image target information excluding the portion with low reliability is fused with the radar target information. This suppresses erroneous detection of the horizontal width of the target. As a result, malfunction of PCS1 can be suppressed.
(フュージョンのフロー)
本実施例に係るフュージョン演算部でのレーダ物標情報と画像物標情報とのフュージョンのフローについて図4に示すフローチャートに基づいて説明する。本フローはフュージョン演算部6において繰り返し実行されるフローである。
(Fusion flow)
A fusion flow of the radar target information and the image target information in the fusion calculation unit according to the present embodiment will be described based on the flowchart shown in FIG. This flow is a flow that is repeatedly executed in the fusion calculation unit 6.
本フローでは、先ずステップS101において、レーダ物標情報及び画像物標情報が読み込まれる。 In this flow, first, in step S101, radar target information and image target information are read.
次に、ステップS102において、レーダ物標情報とフュージョン可能な画像物標情報があるか否かが判別される。つまり、ミリ波レーダ2によって認識された物標と同一の物標についての画像物標情報があるか否かが判別される。ステップS102において、肯定判定された場合、次にステップS103の処理が実行され、否定判定された場合、本フローの実行が一旦終了される。
Next, in step S102, it is determined whether there is image target information that can be fused with radar target information. That is, it is determined whether there is image target information for the same target as the target recognized by the
ステップS103においては、ミリ波レーダ2の受信波の強度Irが所定の高閾値Ir1以上であるか否かが判別される。ここで、高閾値Ir1は、物標が車両程度の大型の物体であることを想定して定められた値である。例えば、高閾値Ir1は、車両が反射する反射波の強度の最小値として設定されてもよい。ステップS103において、肯定判定された場合、次にステップS104の処理が実行され、否定判定された場合、次にステップS107の処理が実行される。
In step S103, it is determined whether or not the intensity Ir of the received wave of the
ステップS104においては、ミリ波レーダ2によって認識されたレーダ物標の位置と単眼カメラ3によって認識された画像物標の横端との間の横方向の距離Liが第一の所定の横幅α1を超えているか否かが判別される。この判別は、画像物標の左右両端について行なわれる。
In step S104, the lateral distance Li between the position of the radar target recognized by the
ここで、第一の所定の横幅α1は、高閾値Ir1に対応する物標、即ち車両程度の大型の物体の横幅の最大値にある程度のマージンを加算して設定された値である。高閾値Ir1が、車両が反射する反射波の強度の最小値として設定された場合、第一の所定の横幅α1は車両の横幅にマージンを加算した値(例えば、2m)として設定される。ステップS104において、肯定判定された場合、次にステップS105の処理が実行され、否定判定された場合、次にステップS106の処理が実行される。 Here, the first predetermined lateral width α1 is a value set by adding a certain margin to the maximum value of the lateral width of a target corresponding to the high threshold value Ir1, that is, a large object of the size of a vehicle. When the high threshold value Ir1 is set as the minimum value of the intensity of the reflected wave reflected by the vehicle, the first predetermined lateral width α1 is set as a value obtained by adding a margin to the lateral width of the vehicle (for example, 2 m). If an affirmative determination is made in step S104, the process of step S105 is executed next, and if a negative determination is made, the process of step S106 is executed next.
ステップS105においては、レーダ物標の位置からの距離Liが第一の所定の横幅α1を超えていると判定された方の横端からレーダ物標の位置までの間の画像物標情報を用いずにレーダ物標情報と画像物標情報とをフュージョンさせる。 In step S105, the image target information between the lateral end of the one determined that the distance Li from the radar target position exceeds the first predetermined lateral width α1 and the radar target position is used. First, the radar target information and the image target information are fused.
ステップS106においては、左右両端間の画像物標情報(即ち、画像物標についての全ての画像物標情報)を用いてレーダ物標情報と画像物標情報とをフュージョンさせる。 In step S106, the radar target information and the image target information are fused using the image target information between the left and right ends (that is, all the image target information for the image target).
一方、ステップS107においては、ミリ波レーダ2の受信波の強度Irが所定の低閾値Ir2以上であるか否かが判別される。ここで、低閾値Ir2は、物標が人体程度の小型の物体であることを想定して定められた値である。例えば、低閾値Ir2は、人体(歩行者)が反射する反射波の強度の最小値として設定されてもよい。ステップS107において、肯定判定された場合、次にステップS107の処理が実行され、否定判定された場合、本フローの実行が一旦終了される。
On the other hand, in step S107, it is determined whether or not the intensity Ir of the received wave of the
ステップS108においては、レーダ物標の位置と画像物標の横端との間の横方向の距離Liが、第一の所定の横幅α1よりも小さい第二の所定の横幅α2を超えているか否かが判別される。この判別は、画像物標の左右両端について行なわれる。 In step S108, whether or not the lateral distance Li between the position of the radar target and the horizontal end of the image target exceeds a second predetermined lateral width α2 that is smaller than the first predetermined lateral width α1. Is determined. This determination is performed on both left and right ends of the image target.
ここで、第二の所定の横幅α2は、低閾値Ir2に対応する物標、即ち人体程度の小型の物体の横幅の最大値にある程度のマージンを加算して設定された値である。低閾値Ir2が、人体が反射する反射波の強度の最小値として設定された場合、第二の所定の横幅α2は人体の横幅にマージンを加算した値(例えば、1m)として設定される。ステップS108において、肯定判定された場合、次にステップS109の処理が実行され、否定判定された場合、次にステップS110の処理が実行される。 Here, the second predetermined lateral width α2 is a value set by adding a certain margin to the maximum value of the lateral width of a target corresponding to the low threshold value Ir2, that is, a small object of the human body. When the low threshold value Ir2 is set as the minimum value of the intensity of the reflected wave reflected by the human body, the second predetermined lateral width α2 is set as a value obtained by adding a margin to the lateral width of the human body (for example, 1 m). If an affirmative determination is made in step S108, the process of step S109 is executed next. If a negative determination is made, the process of step S110 is executed next.
ステップS109においては、レーダ物標の位置からの距離Liが第二の所定の横幅α2を超えていると判定された方の横端からレーダ物標の位置までの間の画像物標情報を用いずにレーダ物標情報と画像物標情報とをフュージョンさせる。 In step S109, the image target information from the lateral end to the position of the radar target on which the distance Li from the position of the radar target is determined to exceed the second predetermined lateral width α2 is used. First, the radar target information and the image target information are fused.
ステップS110においては、左右両端間の画像物標情報(即ち、画像物標についての全ての画像物標情報)を用いてレーダ物標情報と画像物標情報とをフュージョンさせる。 In step S110, the radar target information and the image target information are fused using the image target information between the left and right ends (that is, all image target information for the image target).
上記のように、本実施例においては、物標が車両程度の大型の物体である場合と人体程度の小型の物体である場合とを区別して、画像物標情報の信頼性の判断基準となる所定の横幅が設定される。そのため、物標に応じた画像物標情報の信頼性の判断を行なうことができる。 As described above, in this embodiment, the case where the target is a large object such as a vehicle is distinguished from the case where the target is a small object such as a human body, which is a criterion for determining the reliability of the image target information. A predetermined lateral width is set. Therefore, it is possible to determine the reliability of the image target information corresponding to the target.
本実施例では、ミリ波レーダ2の受信波の強度が属する閾値レベル(高閾値Ir1、低閾値Ir2)毎に第一及び第二の所定の横幅α1、α2を設定したが、ミリ波レーダ2の受信波の強度に応じて三つ以上の所定の横幅を設定してもよい。
In the present embodiment, the first and second predetermined lateral widths α1 and α2 are set for each threshold level (high threshold Ir1 and low threshold Ir2) to which the intensity of the received wave of the
1・・・PCS(Pre-crash safety system)
2・・・ミリ波レーダ
3・・・単眼カメラ
4・・・カメラECU
5・・・PCS ECU
6・・・フュージョン演算部
7・・・物理地演算部
8・・・衝突判定部
100・・車両
200・・道路
201・・壁
1 ... PCS (Pre-crash safety system)
2 ... Millimeter wave radar 3 ... Monocular camera 4 ... Camera ECU
5 ... PCS ECU
6 ... Fusion calculation unit 7 ... Physical
Claims (4)
前記フュージョン演算部は、前記レーダによって認識された物標の位置と前記単眼カメラによって認識された物標の横端との間の横方向の距離が、前記レーダの受信波の強度に応じて設定された所定の横幅を超えている場合、その間の画像物標情報を用いずにレーダ物標情報と画像物標情報とをフュージョンさせることを特徴とする物体検出装置。 The object detection device includes a fusion calculation unit that fuses radar target information acquired by a radar and image target information acquired from an image of a monocular camera, and detects an object based on a calculation result of the fusion calculation unit. And
The fusion calculation unit sets a lateral distance between the position of the target recognized by the radar and the horizontal end of the target recognized by the monocular camera according to the intensity of the received wave of the radar. An object detection apparatus that fuses radar target information and image target information without using image target information in the case where the predetermined horizontal width is exceeded.
前記レーダの受信波の強度が前記第一の閾値より低く且つ第二の閾値以上の場合、前記所定の横幅が前記第一の所定の横幅よりも小さい第二の所定の横幅に設定されることを特徴とする請求項1又は2に記載の物体検出装置。 If the intensity of the received wave of the radar is greater than or equal to a first threshold, the predetermined lateral width is set to a first predetermined lateral width,
When the intensity of the received wave of the radar is lower than the first threshold and greater than or equal to the second threshold, the predetermined lateral width is set to a second predetermined lateral width that is smaller than the first predetermined lateral width. object detection device of the mounting serial to claim 1 or 2, characterized in.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009203612A JP5471195B2 (en) | 2009-09-03 | 2009-09-03 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009203612A JP5471195B2 (en) | 2009-09-03 | 2009-09-03 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011053139A JP2011053139A (en) | 2011-03-17 |
JP5471195B2 true JP5471195B2 (en) | 2014-04-16 |
Family
ID=43942298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009203612A Active JP5471195B2 (en) | 2009-09-03 | 2009-09-03 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5471195B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5673568B2 (en) * | 2012-01-16 | 2015-02-18 | トヨタ自動車株式会社 | Object detection device |
JP5812064B2 (en) | 2012-11-22 | 2015-11-11 | 株式会社デンソー | Target detection device |
JP6380232B2 (en) * | 2015-05-19 | 2018-08-29 | 株式会社デンソー | Object detection apparatus and object detection method |
JP6462630B2 (en) | 2016-05-24 | 2019-01-30 | 株式会社デンソー | Target detection device |
JP6855776B2 (en) * | 2016-12-16 | 2021-04-07 | 株式会社デンソー | Object detection device and object detection method |
JP6579144B2 (en) * | 2017-03-28 | 2019-09-25 | 株式会社Soken | Obstacle detection device |
CN111045000A (en) * | 2018-10-11 | 2020-04-21 | 阿里巴巴集团控股有限公司 | Monitoring system and method |
CN109946661A (en) * | 2019-04-26 | 2019-06-28 | 陕西师范大学 | A kind of trailer-mounted radar data processing algorithm verifying system |
CN111398961B (en) * | 2020-03-17 | 2022-07-15 | 北京百度网讯科技有限公司 | Method and apparatus for detecting obstacles |
CN112162275B (en) * | 2020-09-29 | 2024-05-14 | 安徽江淮汽车集团股份有限公司 | Target object identification method, device, equipment and storage medium |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4308405B2 (en) * | 2000-04-14 | 2009-08-05 | 富士通テン株式会社 | Object detection device |
JP4518978B2 (en) * | 2005-03-02 | 2010-08-04 | ダイハツ工業株式会社 | Vehicle object recognition device and object recognition method |
JP4304517B2 (en) * | 2005-11-09 | 2009-07-29 | トヨタ自動車株式会社 | Object detection device |
-
2009
- 2009-09-03 JP JP2009203612A patent/JP5471195B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011053139A (en) | 2011-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5471195B2 (en) | Object detection device | |
JP4558758B2 (en) | Obstacle recognition device for vehicles | |
JP4883246B2 (en) | Object detection apparatus and object detection method | |
CN107408345B (en) | Method and device for determining presence of target object | |
CN106030336B (en) | Peripheral situation of vehicle identification equipment and vehicle control apparatus | |
JP4396400B2 (en) | Obstacle recognition device | |
US11014566B2 (en) | Object detection apparatus | |
US10854081B2 (en) | Driving assistance device and driving assistance method | |
JP5910046B2 (en) | Obstacle detection device | |
CN107430822B (en) | Object detection device and object detection method | |
JP6361592B2 (en) | Vehicle control device | |
JP6855776B2 (en) | Object detection device and object detection method | |
WO2017104773A1 (en) | Moving body control device and moving body control method | |
JP6380232B2 (en) | Object detection apparatus and object detection method | |
WO2011036807A1 (en) | Object detection device and object detection method | |
WO2017111147A1 (en) | Travel assistance device and travel assistance method | |
JP6432538B2 (en) | Collision prediction device | |
US10578714B2 (en) | Vehicle control apparatus and vehicle control method | |
JP5655297B2 (en) | Object detection device, vehicle safety system equipped with object detection device | |
JP5083172B2 (en) | Collision prediction device | |
WO2017094891A1 (en) | Object detection apparatus and object detection method | |
JP2012064026A (en) | Vehicular object detection device and vehicular object detection method | |
JP4118111B2 (en) | Dangerous obstacle judgment device | |
WO2014096244A1 (en) | Driver assistance system for at least partially decelerating a motor vehicle, motor vehicle and corresponding method | |
JP4872517B2 (en) | Obstacle recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130115 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130305 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140120 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5471195 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |