JP2009236623A - Object detector, periphery monitoring apparatus, driving support system, and object detection method - Google Patents
Object detector, periphery monitoring apparatus, driving support system, and object detection method Download PDFInfo
- Publication number
- JP2009236623A JP2009236623A JP2008081715A JP2008081715A JP2009236623A JP 2009236623 A JP2009236623 A JP 2009236623A JP 2008081715 A JP2008081715 A JP 2008081715A JP 2008081715 A JP2008081715 A JP 2008081715A JP 2009236623 A JP2009236623 A JP 2009236623A
- Authority
- JP
- Japan
- Prior art keywords
- radar
- candidate area
- recognition
- threshold
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
本発明は、カメラが撮影した入力画像とレーダの反射波とを用いて物体の存在を検知する物体検知装置、物体検知方法、またかかる物体検知を用いた周辺監視装置および運転支援システムに関するものである。 The present invention relates to an object detection device that detects the presence of an object using an input image captured by a camera and a reflected wave of a radar, an object detection method, and a peripheral monitoring device and a driving support system using such object detection. is there.
従来、カメラが撮影した画像やレーダの反射波を用いて物体を検知する技術が用いられてきた。特に近年、車両にカメラやレーダを搭載して周辺の車両や歩行者などを検知して運転操作の支援や事故の防止を行なうことが考えられている。 Conventionally, a technique for detecting an object using an image captured by a camera or a reflected wave of a radar has been used. In particular, in recent years, it has been considered that a camera or radar is mounted on a vehicle to detect nearby vehicles or pedestrians to support driving operations and prevent accidents.
かかる車載用の物体認識では、高速で精度の高い物体検出が要求されるので、カメラによる画像認識とレーダ検知とを組み合わせて用いることも行なわれてきた。例えば特許文献1では、自車両前方を走行する先行車両をレーダによって正確に認識するために、画像認識を用いて前方車両以外の車両や路側物からの反射を排除した上で、レーダ認識を行なう技術を開示している。 In such on-vehicle object recognition, high-speed and high-precision object detection is required. Therefore, a combination of image recognition by a camera and radar detection has been used. For example, in Patent Document 1, in order to accurately recognize a preceding vehicle traveling in front of the host vehicle by radar, radar recognition is performed after eliminating reflections from vehicles other than the preceding vehicle and roadside objects using image recognition. The technology is disclosed.
しかしながら、従来の技術では、前方車両以外の物体を高精度に認識することはできなかった。自車両から比較的近距離に存在し、かつ自車両に対して正対している車両は、広範囲かつ強度の高いレーダ反射波が得られるが、距離が遠い物体や、自車両に対して正対していない物体は反射波の強度が低くなるためである。また、反射強度の判定閾値を下げると、遠方の物体や正対していない物体の存在を検知することができるが、誤検出も増え、また物体が存在することは分かってもその物体が何であるかを識別することができない。 However, with the conventional technology, objects other than the vehicle ahead cannot be recognized with high accuracy. A vehicle that is located at a relatively short distance from the host vehicle and is facing the host vehicle can obtain a radar reflected wave with a wide range and high intensity. This is because the intensity of the reflected wave is low for objects that are not. In addition, if the threshold value of the reflection intensity is lowered, it is possible to detect the presence of distant objects and objects that are not facing each other, but the number of false detections increases, and even if you know that an object exists, what is that object? Cannot be identified.
そこで、物体の存在を直接検知し、かつ検知した物体との距離を正確に測定可能なレーダをさらに有効に利用して、自車両周辺の様々な物体を高精度に認識することのできる物体検知を実現し、車両の周辺監視と運転支援の精度を向上することか重要な課題となっていた。 Therefore, it is possible to detect the presence of an object directly, and more effectively use radar that can accurately measure the distance to the detected object, and can detect various objects around the vehicle with high accuracy. To improve the accuracy of vehicle periphery monitoring and driving support.
本発明は、上述した従来技術における問題点を解消し、課題を解決するためになされたものであり、様々な物体を高精度に認識することのできる物体検知装置、物体検知方法、またかかる物体検知を用いた周辺監視装置および運転支援システムを提供することを目的とする。 The present invention has been made to solve the above-described problems in the prior art and to solve the problems. An object detection apparatus, an object detection method, and such an object that can recognize various objects with high accuracy are provided. An object of the present invention is to provide a periphery monitoring device and a driving support system using detection.
上述した問題を解決し、目的を達成するため、本発明にかかる物体検知装置、物体検知方法、またかかる物体検知を用いた周辺監視装置および運転支援システムは、カメラが撮影した入力画像と、レーダの反射波とを用いて物体の存在を検知する際に、入力画像に対して画像認識を行なって、当該入力画像から物体が存在する可能性のある物体候補領域を検出し、レーダの反射波強度と比較して物体の有無を判定する判定閾値を、前記物体候補領域認識手段による認識結果をもとに設定し、閾値設定手段によって設定した判定閾値とレーダの反射強度とを比較して物体を検知する。 In order to solve the above-described problems and achieve the object, the object detection device, the object detection method, the periphery monitoring device using the object detection, and the driving support system according to the present invention include an input image captured by a camera, a radar When the presence of an object is detected using the reflected wave of the image, image recognition is performed on the input image, an object candidate area where the object may exist is detected from the input image, and the reflected wave of the radar is detected. A determination threshold value for determining the presence / absence of an object in comparison with intensity is set based on the recognition result by the object candidate area recognition unit, and the determination threshold value set by the threshold setting unit is compared with the reflection intensity of the radar. Is detected.
本発明によれば、遠距離にある物体、レーダの反射強度が低い種類の物体、またレーダの反射強度が低い状態にある物体など、様々な物体を高精度に認識することのできる物体検知装置、物体検知方法、またかかる物体検知を用いた周辺監視装置および運転支援システムを得ることができるという効果を奏する。 According to the present invention, an object detection apparatus capable of accurately recognizing various objects such as an object at a long distance, an object of a type with low radar reflection intensity, and an object with low radar reflection intensity. The object detection method and the periphery monitoring device and the driving support system using the object detection can be obtained.
以下図面を参照して、本発明に係る物体検知装置、周辺監視装置、運転支援システムおよび物体検知方法について説明する。なお、実施例では一例として車両用物体検知装置について説明するが、これに限定することなく、画像とレーダを用いる物体検知全般に適用可能である。 Hereinafter, an object detection device, a periphery monitoring device, a driving support system, and an object detection method according to the present invention will be described with reference to the drawings. In addition, although an Example demonstrates a vehicle object detection apparatus as an example, it is applicable not only to this but to the general object detection using an image and a radar.
図1は、本発明の実施例である車載用の周辺監視装置20の概要構成を示す概要構成図である。同図に示すように、車両に搭載された周辺監視装置20は、レーダ31、カメラ32、ナビゲーション装置33、ヨーレートセンサ34、車速センサ35および制御ECU(Electronic Control Unit)40と接続している。
FIG. 1 is a schematic configuration diagram showing a schematic configuration of an in-vehicle
レーダ31は、例えば、ミリ波を自車両前方にスキャン照射し、その反射波を取得して周辺監視装置20に入力する。また、カメラ32は、自車両前方を撮影して得られた画像を周辺監視装置20に入力する。ここで、レーダ31の探索範囲とカメラ32の撮像範囲は少なくとも一部が(望ましくは全範囲が)重なるように配置する。また、レーダ31による物体探索とカメラ32による撮像は所定タイミング(より好適にはレーダ31とカメラ32とが同期したタイミング)で繰り返し実行する。
For example, the
ナビゲーション装置33は、GPS(Global Positioning System)人工衛星と通信して特定した自車両の位置と、予め記憶した地図データ33aとを利用して走行経路の設定および誘導を行なう車載装置である。また、ナビゲーション装置33は、周辺監視装置20に対して自車両の位置情報や周辺の地図情報、道路に関する情報などを提供する。
The
ヨーレートセンサ34および車速センサ35は、それぞれ自車両のヨーレートと走行速度を取得して、周辺監視装置20に入力する。
The
制御ECU40は、周辺監視部20の監視結果に基づいて、ディスプレイ43やスピーカ44による乗員への通知、ブレーキ41、エンジン制御装置(EFI)42による車両の挙動制御や操作支援、乗員を保護して衝突被害を軽減する装置であるエアバック45の動作制御を行なう。また、制御ECU40は、ブレーキ41やEFI42、また図示しない操舵制御ECUや変速機(シフト)制御ECUなどから車両の挙動に関する情報を取得して周辺監視装置20に提供する。
The
周辺監視装置20は、その内部に物体検知部10、衝突判定部21、車線認識処理部22を有する。物体検知部10は、レーダ31の反射波とカメラ32が撮影した入力画像とを用いて、自車両周辺における物体を検知する処理部である。また、車線認識処理部22は、入力画像に対する画像認識によって白線などを識別することで、車線を認識する処理を行なう。
The
衝突判定部21は、物体検知部10が検知した物体と自車両とが衝突する可能性を判定する手段である。この判定には、物体検知部10による検知結果に加え、車線認識処理部22による認識結果、ナビゲーション装置33から取得した地図情報や走行予定の経路に関する情報、ヨーレートセンサ34および車速センサ35が出力する自車両のヨーレートと走行速度、制御ECU40から取得した車両の挙動に関する情報を用いる。
The collision determination unit 21 is a unit that determines the possibility of collision between the object detected by the
すなわち、衝突判定部21は、物体検知部10から自車両周辺に存在する物体の種類、位置、移動状態を取得し、自車両の走行車線、予定経路、地図情報などから自車両が物体に衝突する可能性があるか否かを総合的に判断し、判断結果を制御ECU40に出力する。
That is, the collision determination unit 21 acquires the type, position, and movement state of an object existing around the host vehicle from the
制御ECU40は、この判断結果を受け、衝突が発生する可能性がある場合には、ディスプレイ43やスピーカ44を用いて運転者に通知し、また必要に応じてブレーキ41の遊びを減らすなどの運転操作の支援制御や、ブレーキ41をかける、エンジン回転数を落とすなどの車両の挙動制御を実行し、衝突が発生する可能性が非常に高い場合にはエアバック45の展開準備やシートベルトの巻上げなど衝突被害軽減装置の動作制御を実行する。
The
物体検知部10は、その内部に反射波取得部11、画像取得部12、物体候補領域認識処理部13、閾値マップ作成部14、反射強度データベース15、検知処理部16を有する。
The
反射波取得部11は、レーダ31から反射波を取得しして検知処理部16に出力する処理を行なう。同様に、画像取得部12は、カメラ12が撮影した画像を入力画像として取得し、物体候補領域認識処理部13および車線認識処理部22に提供する。
The reflected
物体候補領域認識処理部13は、入力画像に対してパターンマッチングなどを用いた画像認識処理を実行し、物体が存在する可能性のある領域を物体候補領域として認識する。この時、物体候補領域認識処理部13は、物体候補領域に存在が推定される物体、言いかえれば物体候補領域に存在する可能性のある物体の種別、存在する方向、距離、角度を認識する。また、認識する物体の種別は、車両走行に関与し、障害物となる可能性のある物体、例えば他車両、歩行者、二輪車などである。なお、物体候補領域に存在する可能性とは、例えばパターンマッチング処理により一致度が80%以上である場合に「可能性あり」と判断する。一致度の閾値は、その車両がおかれた環境(時刻、季節、地域など)により変更してもよい。
The object candidate area
閾値マップ作成部14は、レーダの反射波強度による物体検知の判定閾値を、物体候補領域の認識結果に基づいて設定する。具体的には、閾値マップ作成部14は、物体候補領域の位置に基づいてレーダの探索範囲に対して判定閾値の異なる領域を設定した閾値マップを作成する。ここで、閾値は、物体の種別、存在する方向、距離、角度ごとに判定閾値の値を定めた反射強度データベース15を参照して決定する。
The threshold
検知処理部16は、反射波取得部11が取得した反射波の強度と、閾値マップによって規定された閾値とを比較して物体を検知し、検知結果を衝突判定部21に出力する。
The
この物体検知部10の処理について、具体例を挙げて説明する。図2は、画像認識結果からの閾値マップ作成について説明する説明図である。同図に示した例では、物体候補領域認識処理部13は、カメラの撮影範囲内、すなわち入力画像の中に3つの物体候補領域を認識している。
The processing of the
それぞれの物体候補領域は、その画像内における水平方向の位置が自車両に対する当該物体の方向を、物体候補領域の下端の垂直方向の位置(高さ)が自車両から当該物体までの距離を示している。また、物体の種別と当該物体の自車両に対する角度は、画像認識によって識別することができる。 In each object candidate area, the horizontal position in the image indicates the direction of the object with respect to the own vehicle, and the vertical position (height) at the lower end of the object candidate area indicates the distance from the own vehicle to the object. ing. Further, the type of the object and the angle of the object with respect to the host vehicle can be identified by image recognition.
図2に示した例では、自車両から左方向に自車両に対して正対している(角度0°)の歩行者の候補領域、自車両の正面に自車両に対して正対している(角度0°)の車両(車両種別1)の候補領域、自車両の右方向に自車両に対して角度30°の車両(車両種別1)の候補領域を認識している。 In the example shown in FIG. 2, a candidate area for a pedestrian who is facing the host vehicle in the left direction from the host vehicle (angle 0 °), is facing the host vehicle in front of the host vehicle ( A candidate area of a vehicle (vehicle type 1) with an angle of 0 ° and a candidate area of a vehicle (vehicle type 1) with an angle of 30 ° with respect to the host vehicle are recognized in the right direction of the host vehicle.
閾値マップ作成部14は、この画像認識結果である物体候補領域マップを反射強度の閾値マップに変換する。具体的には、カメラの撮影範囲とレーダの探索範囲との関係から、物体候補領域マップにおける各物体候補領域の位置を、レーダ探索範囲内の対応する位置に置き換え、当該物体候補領域の物体種別、方向、距離、角度に基づいて反射強度データベースを検索し、閾値の値を決定する。
The threshold
同図においては、左側の物体候補領域に対応する位置に例えば閾値30%、中央の物体候補領域に対応する位置に閾値60%、右側の物体候補領域に対応する位置に閾値40%を設定し、物体候補領域以外の場所に閾値80%を設定している。 In the figure, for example, a threshold of 30% is set at a position corresponding to the left object candidate area, a threshold of 60% is set at a position corresponding to the center object candidate area, and a threshold of 40% is set at a position corresponding to the right object candidate area. A threshold of 80% is set in a place other than the object candidate area.
正面方向の物体候補領域が、画像認識の通り、自車両正面の近距離に存在して自車両に対して正対している他車両であるならば、この領域からは強い反射波が得られるはずである。そこで、閾値を60%と比較的高い値とし、反射強度が60%以上であれば画像認識した通りの物体、すなわち他車両が存在すると判定する。 If the object candidate area in the front direction is another vehicle that is located at a short distance in front of the host vehicle and is facing the host vehicle as shown in the image recognition, a strong reflected wave should be obtained from this area. It is. Therefore, the threshold is set to a relatively high value of 60%, and if the reflection intensity is 60% or more, it is determined that an object as recognized by the image, that is, another vehicle exists.
また、右側の物体候補領域の方向から反射波が帰ってきた場合、画像認識の結果を考慮すると、自車両に対して角度30°の他車両であると考えられる。ここで、自車両に対して正対していない車両は、正対している車両に比して反射波の強度は低くなる。そこで、閾値を40%と比較的低い値とし、反射強度が40%以上であれば画像認識した通りの物体、すなわち他車両が存在すると判定する。 In addition, when the reflected wave returns from the direction of the right object candidate region, it is considered that the vehicle is another vehicle having an angle of 30 ° with respect to the host vehicle in consideration of the image recognition result. Here, the intensity of the reflected wave is lower in a vehicle that is not directly facing the host vehicle than in a vehicle that is facing the vehicle. Therefore, the threshold is set to a relatively low value of 40%, and if the reflection intensity is 40% or more, it is determined that an object as recognized by the image, that is, another vehicle exists.
同様に、左側の物体候補領域の方向から反射波が帰ってきた場合、画像認識の結果を考慮すると、自車両に対して正対した歩行者であると考えられる。ここで、歩行者からの反射波は、歩行者が自車両に正対していたとしても強度が小さい。その一方で、車両走行中において、歩行者との事故の防止は非常に重要度が高い。そこで、この物体候補領域については判定閾値を30%と比較的低い値とし、反射強度が30%以上であれば画像認識した通り歩行者が存在すると判定する。 Similarly, when a reflected wave returns from the direction of the object candidate area on the left side, it is considered that the person is a pedestrian facing the own vehicle in consideration of the result of image recognition. Here, the intensity of the reflected wave from the pedestrian is small even if the pedestrian faces the host vehicle. On the other hand, prevention of accidents with pedestrians during vehicle travel is very important. Therefore, for this object candidate region, the determination threshold is set to a relatively low value of 30%, and if the reflection intensity is 30% or more, it is determined that there is a pedestrian as recognized by the image.
また、物体候補領域が設定されていない検索範囲については、判定閾値を80%とし、反射強度が80%であった場合に何らかの物体が存在すると認識する。これは画像認識では物体の存在を識別することができなくとも、レーダ検知のみで物体が存在すると判定する閾値であり、たとえば従来のレーダ単体での物体検出の閾値を用いることとしてもよい。 For a search range in which no object candidate area is set, the determination threshold is 80%, and when the reflection intensity is 80%, it is recognized that some object exists. This is a threshold value for determining that an object is present only by radar detection even if the presence of the object cannot be identified by image recognition. For example, a threshold value for detecting an object using a conventional radar alone may be used.
つぎに、各種物体と反射強度について説明する。図3は、車両からの反射強度について説明する説明図である。図3に示したように、車両C1が自車両C0に対して正対している、すなわち、自車両C0から車両C1に射出したレーダ探索波を受ける車両C1の面が、射出方向に対して垂直である場合、探索波は真っ直ぐ自車両方向に帰り、図4に状態(a)として示したように反射波の強度が高くなる。 Next, various objects and reflection intensity will be described. FIG. 3 is an explanatory diagram for explaining the reflection intensity from the vehicle. As shown in FIG. 3, the vehicle C1 faces the host vehicle C0, that is, the surface of the vehicle C1 that receives the radar search wave emitted from the host vehicle C0 to the vehicle C1 is perpendicular to the emission direction. In this case, the search wave returns straight in the direction of the host vehicle, and the intensity of the reflected wave increases as shown as the state (a) in FIG.
一方、図3に示した車両C2のように、自車両C0に対して角度がある、すなわち、自車両C0から車両C2に射出したレーダ探索波を受ける車両C1の面が、射出方向に対して垂直でない場合、図4に状態(b)として示したように探索波は横方向への散乱する成分が大きくなり、自車両側で受信する反射波の強度が低くなる。したがって、自車両に対して角度をもった車両をレーダによって検知するためには自車両に対して正対する車両を検知する場合に比して閾値を低くする必要がある。 On the other hand, like the vehicle C2 shown in FIG. 3, the surface of the vehicle C1 that has an angle with respect to the own vehicle C0, that is, receives the radar search wave emitted from the own vehicle C0 to the vehicle C2, is relative to the emission direction. In the case of not being vertical, as shown in FIG. 4 as the state (b), the component of the search wave that scatters in the lateral direction increases, and the intensity of the reflected wave received on the own vehicle side decreases. Therefore, in order to detect a vehicle having an angle with respect to the own vehicle by the radar, it is necessary to lower the threshold value as compared with the case of detecting a vehicle facing the own vehicle.
また、検知対象の物体が二輪車である場合、図5に示したように、二輪車が自車両に対して正対している場合に反射強度が小さく、自車両に対して角度90°(横向き)である場合に反射強度が大きくなる。したがって、二輪車を検知する場合には、自車両に対して正対する場合に閾値を小さく、横向きに近い場合に閾値を大きくする必要がある。 Further, when the object to be detected is a two-wheeled vehicle, as shown in FIG. 5, the reflection intensity is small when the two-wheeled vehicle is directly facing the own vehicle, and the angle is 90 ° (sideways) with respect to the own vehicle. In some cases, the reflection intensity increases. Therefore, when detecting a two-wheeled vehicle, it is necessary to decrease the threshold when facing the host vehicle and increase the threshold when the vehicle is close to the side.
同様に、検知対象の物体が歩行者である場合、図6に示したように、歩行者がどの様な向き(角度)であっても反射波は散乱する成分が大きくなって自車両側で受信する反射強度は低くなる。そこで、歩行者を検知する場合には閾値を小さく設定し、レーダ検出の感度を上げる。 Similarly, when the object to be detected is a pedestrian, as shown in FIG. 6, the reflected wave has a large scattered component regardless of the direction (angle) of the pedestrian, and the vehicle side The received reflection intensity is low. Therefore, when detecting a pedestrian, the threshold is set small to increase the sensitivity of radar detection.
図7は、反射強度データベースの具体例を説明する説明図である。同図に示したように、反射強度データベース15は、物体種別、方向、距離、角度の項目に対応付けて反射強度の判定閾値を定めている。
FIG. 7 is an explanatory diagram illustrating a specific example of the reflection intensity database. As shown in the figure, the
具体的には、物体の種別が「車両種別1」、方向が「0°」、距離が「〜10m」、物体の角度が「0°」の場合に反射強度閾値を「60%」としている。そして、方向と距離が同一であって角度が変化した場合、車両が真横になる角度「90°」では、正対した角度「0°」の場合と同様に強い反射強度が期待できるため、反射強度閾値を「60%」としている。そして、角度30°や角度60°では、車両からの反射波の散乱成分が大きくなるため閾値を小さくし、角度30°で反射強度閾値を「40%」、角度60°で反射強度閾値を「50%」としている。
Specifically, when the object type is “vehicle type 1”, the direction is “0 °”, the distance is “−10 m”, and the object angle is “0 °”, the reflection intensity threshold is set to “60%”. . And when the direction and distance are the same and the angle is changed, the angle “90 °” at which the vehicle is directly beside can be expected to have a strong reflection intensity as in the case of the angle “0 °” facing directly. The intensity threshold is set to “60%”. At an angle of 30 ° or an angle of 60 °, the scattering component of the reflected wave from the vehicle increases, so the threshold value is reduced. At the angle of 30 °, the reflection intensity threshold value is “40%”, and at the
また、自車両からの方向が「0°」であっても、自車両からの距離が遠くなるにつれて反射波の強度は落ちる。そこで、同図に示した例では、「車両種別1」、方向「0°」、距離「〜20m」、物体の角度「0°」の場合に反射強度閾値を「55%」、同じく物体の角度「30°」の場合に反射強度閾値を「45%」としている。 Even if the direction from the host vehicle is “0 °”, the intensity of the reflected wave decreases as the distance from the host vehicle increases. Therefore, in the example shown in the figure, in the case of “vehicle type 1”, direction “0 °”, distance “˜20 m”, and object angle “0 °”, the reflection intensity threshold is “55%”. When the angle is “30 °”, the reflection intensity threshold is “45%”.
さらに、自車両からの方向に応じても反射強度が変化するので、「車両種別1」、方向「15°」、距離「〜10m」、物体の角度「0°」の場合に反射強度閾値を「55%」、同じく物体の角度「30°」の場合に反射強度閾値を「45%」としている。 Further, since the reflection intensity changes depending on the direction from the host vehicle, the reflection intensity threshold is set in the case of “vehicle type 1”, direction “15 °”, distance “−10 m”, and object angle “0 °”. In the case of “55%” and the angle of the object “30 °”, the reflection intensity threshold is “45%”.
このような反射強度閾値のデータは、車両の種別(例えば普通車(セダン、ハッチバック、ワゴン、RV車等)、トラック、バス、軽自動車等)ごとにそれぞれ設定しておく。また、二輪車や歩行者についても同様に、種別、方向、距離、角度に応じて反射強度閾値を設定する。なお、車両の場合は、正対した状態(角度0°)と横向きの状態(角度90°)で反射強度が高くなるが、二輪車の場合は、正対した状態(角度0°)で反射強度が低く、横向きの状態(角度90°)になるにつれて反射強度が高くなる。また、歩行者の場合には、正対した状態(角度0°)であっても横向きの状態(角度90°)であっても反射強度が低い。二輪車、歩行者に対し、その種別ごとにそれぞれ反射強度閾値を設定する点については車両と同様である。 Such reflection intensity threshold data is set for each type of vehicle (for example, ordinary vehicles (sedans, hatchbacks, wagons, RV vehicles, etc.), trucks, buses, light vehicles, etc.). Similarly, a reflection intensity threshold value is set for two-wheeled vehicles and pedestrians according to the type, direction, distance, and angle. In the case of a vehicle, the reflection intensity is high in a state of facing up (angle 0 °) and in a sideways state (angle of 90 °). Is low, and the reflection intensity increases as the state becomes horizontal (angle 90 °). In addition, in the case of a pedestrian, the reflection intensity is low regardless of whether it is a face-to-face state (angle 0 °) or a sideways state (angle 90 °). It is the same as that of the vehicle in that a reflection intensity threshold is set for each type of motorcycle and pedestrian.
なお、ここでは反射強度閾値の単位を「%」としているが、例えばdBなど異なる単位で閾値を設定することもできる。 Here, the unit of the reflection intensity threshold is “%”, but the threshold may be set in a different unit such as dB.
つぎに物体検知部10の処理動作について図8のフローチャートを参照して説明する。同図に示した処理動作は、カメラ32が撮像を行なうたびに繰り返し実行される処理である。
Next, the processing operation of the
同図に示したように、まず画像処理部12がカメラ32から画像を取得し(ステップS101)、物体候補量領域認識処理部13が画像認識を実行する(ステップS102)。その結果、画像内に物体候補領域が存在する場合(ステップS103,Yes)には、各物体候補領域について、物体種別、位置(方向および距離)、角度を認識する(ステップS104)。
As shown in the figure, first, the
その後(ステップS103,No、もしくはS104終了後)、閾値マップ作成部14は、物体候補領域の認識結果に基づいて反射強度データベース15を参照し、閾値マップを作成する(ステップS105)。
Thereafter (No at Step S103, or after Step S104), the threshold
反射波取得部11は、レーダ31の反射波を取得し(ステップS106)、検知処理部16は、反射波の強度と閾値マップとを比較して、物体の検知処理を実行する(ステップS107)。
The reflected
その結果、物体を検知した(反射強度が閾値以上であった)場合(ステップS108,Yes)、検知した各物体について、レーダ検知結果による位置情報と、画像認識による物体種別を出力し(ステップS109)、処理を終了する。なお、物体を検知しなかった場合(ステップS108,No)にはそのまま処理を終了する。 As a result, when an object is detected (the reflection intensity is greater than or equal to the threshold value) (step S108, Yes), the position information based on the radar detection result and the object type based on the image recognition are output for each detected object (step S109). ), The process is terminated. If no object is detected (No at step S108), the process is terminated.
上述してきたように、本実施例に係る物体検知波部10は、画像認識によって物体候補領域を識別し、当該領域に存在する可能性のある物体の種別、方向、距離、角度に基づいてレーダ検知の閾値を設定した閾値マップを作成する。この閾値マップを用い、レーダ31の反射波強度から物体が存在するか否かを判定する。
As described above, the object
そのため、レーダ単独では正確な検知が困難な物体、例えば遠距離にある物体や自車両に対して正対していない車両、また、元々の反射強度が低い二輪車や歩行者についても、高精度に認識することができる。 For this reason, it is possible to accurately recognize objects that are difficult to accurately detect with radar alone, such as objects at long distances, vehicles that are not directly facing the host vehicle, and motorcycles and pedestrians with low original reflection strength. can do.
また、検知物体についてはレーダによって正確な距離が得られるに加え、画像認識によって種別に関する情報、状態に関する情報などを得ることが可能である。 In addition to the accurate distance obtained by the radar for the detected object, it is possible to obtain information on the type, information on the state, etc. by image recognition.
そのため、物体検知部10の検知結果を用いる周辺監視装置20は、物体との衝突判定を精度よくおこなうことができ、制御ECU40は精度の高い衝突判定結果を得られることから運転支援の動作を正確におこなうことができる。
Therefore, the
なお、本実施例に示した構成および動作はあくまで一例であり、本発明はこれに限定されるものではない。例えば、本実施例では、周辺監視装置20が物体検知部10を有する構成を例に説明を行なったが、物体検知を行なう物体検知装置として独立させ、物体検知装置の検知結果を他の装置が使用する構成としてもよい。
The configuration and operation shown in this embodiment are merely examples, and the present invention is not limited to this. For example, in the present embodiment, the configuration in which the
また、衝突判定に用いる情報や、衝突判定結果の利用方法についても適宜変形して実施可能であることはいうまでもない。例えば、VICS(Vehicle Information and Communication System)によって取得した情報を衝突判定に利用してもよいし、変速機の状態を更に制御することもできる。 Needless to say, the information used for collision determination and the method of using the collision determination result can be modified as appropriate. For example, information acquired by VICS (Vehicle Information and Communication System) may be used for collision determination, and the state of the transmission can be further controlled.
さらに、以上の実施例では、カメラにて物体の種別や角度情報を取得したが、それに限らず、車両間通信や路車間通信、或いは携帯電話の位置情報などから物体の種別、位置、角度を推定してレーダの閾値を変更して物体検知してもよい。 Furthermore, in the above embodiment, the type and angle information of the object are acquired by the camera, but not limited thereto, the type, position, and angle of the object are determined based on the inter-vehicle communication, the road-to-vehicle communication, or the position information of the mobile phone. The object may be detected by estimating and changing the threshold value of the radar.
以上のように、本発明にかかる物体検知装置、周辺監視装置、運転支援システムおよび物体検知方法は、物体の検知精度向上に有用であり、特に車両における物体検知と運転支援に適している。 As described above, the object detection device, the periphery monitoring device, the driving support system, and the object detection method according to the present invention are useful for improving the object detection accuracy, and are particularly suitable for object detection and driving support in a vehicle.
10 物体検知部
11 反射波取得部
12 画像取得部
13 物体候補領域認識処理部
14 閾値マップ作成部
15 反射強度データベース
16 検知処理部
20 周辺監視装置
21 衝突判定部
22 車線認識処理部
31 レーダ
32 カメラ
33 ナビゲーション装置
33a 地図データ
34 ヨーレートセンサ
35 車速センサ
40 制御ECU
41 ブレーキ
42 EFI
43 ディスプレイ
44 スピーカ
45 エアバック
DESCRIPTION OF
41
43
Claims (11)
前記レーダ以外の手段を用いて物体の存在が推定される物体候補領域を検出する物体候補領域認識手段と、
前記レーダの反射波強度と比較して物体の有無を判定する判定閾値を、前記物体候補領域認識手段による認識結果をもとに設定する閾値設定手段と、
前記閾値設定手段によって設定した判定閾値と前記レーダの反射強度とを比較して物体を検知する検知処理手段と、
を備えたことを特徴とする物体検知装置。 An object detection device that detects the presence of an object using a reflected wave of a radar,
Object candidate area recognition means for detecting an object candidate area where the presence of an object is estimated using means other than the radar;
A threshold value setting means for setting a determination threshold value for determining the presence or absence of an object in comparison with the reflected wave intensity of the radar, based on a recognition result by the object candidate area recognition means;
Detection processing means for detecting an object by comparing the determination threshold set by the threshold setting means with the reflection intensity of the radar;
An object detection device comprising:
前記入力画像に対して画像認識を行なって、当該入力画像から物体が存在する可能性のある物体候補領域を検出する物体候補領域認識手段と、
前記レーダの反射波強度と比較して物体の有無を判定する判定閾値を、前記物体候補領域認識手段による認識結果をもとに設定する閾値設定手段と、
前記閾値設定手段によって設定した判定閾値と前記レーダの反射強度とを比較して物体を検知する検知処理手段と、
前記検知処理手段が検知した物体と自車両とが衝突する可能性を判定する衝突判定手段と、
を備えたことを特徴とする周辺監視装置。 A periphery monitoring device that monitors an object around the host vehicle using an input image captured by a camera and a reflected wave of a radar,
Object candidate area recognition means for performing image recognition on the input image and detecting an object candidate area where an object may exist from the input image;
A threshold value setting means for setting a determination threshold value for determining the presence or absence of an object in comparison with the reflected wave intensity of the radar, based on a recognition result by the object candidate area recognition means;
Detection processing means for detecting an object by comparing the determination threshold set by the threshold setting means with the reflection intensity of the radar;
A collision determination means for determining the possibility of collision between the object detected by the detection processing means and the host vehicle;
A peripheral monitoring device comprising:
前記入力画像に対して画像認識を行なって、当該入力画像から物体が存在する可能性のある物体候補領域を検出する物体候補領域認識手段と、
前記レーダの反射波強度と比較して物体の有無を判定する判定閾値を、前記物体候補領域認識手段による認識結果をもとに設定する閾値設定手段と、
前記閾値設定手段によって設定した判定閾値と前記レーダの反射強度とを比較して物体を検知する検知処理手段と、
前記検知処理手段が検知した物体と自車両とが衝突する可能性を判定する衝突判定手段と、
前記衝突判定手段による判定結果に基づいて、運転者に対する報知制御、運転操作の支援制御、車両の挙動制御、衝突被害軽減装置の動作制御のうち、少なくともいずれかを実行する制御手段と、
を備えたことを特徴とする運転支援システム。 A driving support system that monitors an object around the host vehicle using an input image captured by a camera and a reflected wave of a radar, and supports driving operation of the vehicle based on a monitoring result,
Object candidate area recognition means for performing image recognition on the input image and detecting an object candidate area where an object may exist from the input image;
A threshold value setting means for setting a determination threshold value for determining the presence or absence of an object in comparison with the reflected wave intensity of the radar, based on a recognition result by the object candidate area recognition means;
Detection processing means for detecting an object by comparing the determination threshold set by the threshold setting means with the reflection intensity of the radar;
A collision determination means for determining the possibility of collision between the object detected by the detection processing means and the host vehicle;
Control means for executing at least one of notification control for the driver, driving operation support control, vehicle behavior control, and collision damage mitigation device operation control based on the determination result by the collision determination means;
A driving support system characterized by comprising:
前記入力画像に対して画像認識を行なって、当該入力画像から物体が存在する可能性のある物体候補領域を検出する物体候補領域認識工程と、
前記レーダの反射波強度と比較して物体の有無を判定する判定閾値を、前記物体候補領域認識工程による認識結果をもとに設定する閾値設定工程と、
前記閾値設定工程によって設定した判定閾値と前記レーダの反射強度とを比較して物体を検知する検知処理工程と、
を含んだことを特徴とする物体検知方法。 An object detection method for detecting the presence of an object using an input image captured by a camera and a reflected wave of a radar,
An object candidate region recognition step of performing image recognition on the input image and detecting an object candidate region in which an object may exist from the input image;
A threshold setting step for setting a determination threshold for determining the presence or absence of an object in comparison with the reflected wave intensity of the radar based on a recognition result by the object candidate region recognition step;
A detection processing step of detecting an object by comparing the determination threshold set by the threshold setting step and the reflection intensity of the radar;
The object detection method characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008081715A JP5371273B2 (en) | 2008-03-26 | 2008-03-26 | Object detection device, periphery monitoring device, driving support system, and object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008081715A JP5371273B2 (en) | 2008-03-26 | 2008-03-26 | Object detection device, periphery monitoring device, driving support system, and object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009236623A true JP2009236623A (en) | 2009-10-15 |
JP5371273B2 JP5371273B2 (en) | 2013-12-18 |
Family
ID=41250763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008081715A Expired - Fee Related JP5371273B2 (en) | 2008-03-26 | 2008-03-26 | Object detection device, periphery monitoring device, driving support system, and object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5371273B2 (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011099683A (en) * | 2009-11-04 | 2011-05-19 | Hitachi Automotive Systems Ltd | Body detector |
JP2013200255A (en) * | 2012-03-26 | 2013-10-03 | Fujitsu Ten Ltd | Radar apparatus and target detection method |
JP2013238452A (en) * | 2012-05-14 | 2013-11-28 | Honda Elesys Co Ltd | Position information detection device, position information detection method, position information detection program, and operation control system |
KR101371714B1 (en) | 2008-06-25 | 2014-03-07 | 현대자동차(주) | A collision damage mitigation system using both a lader and a camera |
KR101619064B1 (en) | 2014-09-26 | 2016-05-10 | 한화테크윈 주식회사 | Target tracking method using active clutter map |
JP2016223872A (en) * | 2015-05-29 | 2016-12-28 | 三菱電機株式会社 | Object Identification Device |
JP2017187864A (en) * | 2016-04-01 | 2017-10-12 | 株式会社デンソー | Vehicle controller, vehicle control method |
JP2017207348A (en) * | 2016-05-18 | 2017-11-24 | 三菱電機株式会社 | Radar device and sensor fusion device using the same |
WO2018079252A1 (en) * | 2016-10-27 | 2018-05-03 | 株式会社デンソー | Object detecting device |
KR101860194B1 (en) * | 2016-03-24 | 2018-05-21 | 유한회사 밸류스트릿 | Method for processing an object detected range |
JP2018081050A (en) * | 2016-11-18 | 2018-05-24 | 株式会社Soken | Object detection device |
KR101875517B1 (en) * | 2016-12-16 | 2018-07-09 | (주)넥스트칩 | Method and apparatus for processing a image |
JP2018163096A (en) * | 2017-03-27 | 2018-10-18 | 沖電気工業株式会社 | Information processing method and information processing device |
JP2019178971A (en) * | 2018-03-30 | 2019-10-17 | パナソニックIpマネジメント株式会社 | Device, method, and program for generating environmental map |
JP2019216502A (en) * | 2018-06-11 | 2019-12-19 | 株式会社ダイヘン | Object detection device, object detection method and object detection program |
JP2020154758A (en) * | 2019-03-20 | 2020-09-24 | トヨタ自動車株式会社 | Driving support device |
CN114067608A (en) * | 2020-08-06 | 2022-02-18 | 丰田自动车株式会社 | Vehicle-mounted detection device and detection method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101917313B1 (en) | 2017-01-26 | 2018-11-12 | (주)더블유알티랩 | Method and appratus for adaptively configuring threshold for object detectioin using radar |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06214015A (en) * | 1993-01-19 | 1994-08-05 | Toyota Motor Corp | Frequency modulation radar device |
JP2004191131A (en) * | 2002-12-10 | 2004-07-08 | Denso Corp | Method of, system for, and program for discriminating target |
JP2006234513A (en) * | 2005-02-23 | 2006-09-07 | Toyota Central Res & Dev Lab Inc | Obstruction detection system |
JP2007232409A (en) * | 2006-02-27 | 2007-09-13 | Toyota Motor Corp | Apparatus and method for detecting target |
JP2009229374A (en) * | 2008-03-25 | 2009-10-08 | Fujitsu Ten Ltd | Radar system, and azimuth angle detecting method |
-
2008
- 2008-03-26 JP JP2008081715A patent/JP5371273B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06214015A (en) * | 1993-01-19 | 1994-08-05 | Toyota Motor Corp | Frequency modulation radar device |
JP2004191131A (en) * | 2002-12-10 | 2004-07-08 | Denso Corp | Method of, system for, and program for discriminating target |
JP2006234513A (en) * | 2005-02-23 | 2006-09-07 | Toyota Central Res & Dev Lab Inc | Obstruction detection system |
JP2007232409A (en) * | 2006-02-27 | 2007-09-13 | Toyota Motor Corp | Apparatus and method for detecting target |
JP2009229374A (en) * | 2008-03-25 | 2009-10-08 | Fujitsu Ten Ltd | Radar system, and azimuth angle detecting method |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101371714B1 (en) | 2008-06-25 | 2014-03-07 | 현대자동차(주) | A collision damage mitigation system using both a lader and a camera |
JP2011099683A (en) * | 2009-11-04 | 2011-05-19 | Hitachi Automotive Systems Ltd | Body detector |
JP2013200255A (en) * | 2012-03-26 | 2013-10-03 | Fujitsu Ten Ltd | Radar apparatus and target detection method |
JP2013238452A (en) * | 2012-05-14 | 2013-11-28 | Honda Elesys Co Ltd | Position information detection device, position information detection method, position information detection program, and operation control system |
KR101619064B1 (en) | 2014-09-26 | 2016-05-10 | 한화테크윈 주식회사 | Target tracking method using active clutter map |
JP2016223872A (en) * | 2015-05-29 | 2016-12-28 | 三菱電機株式会社 | Object Identification Device |
KR101860194B1 (en) * | 2016-03-24 | 2018-05-21 | 유한회사 밸류스트릿 | Method for processing an object detected range |
JP2017187864A (en) * | 2016-04-01 | 2017-10-12 | 株式会社デンソー | Vehicle controller, vehicle control method |
JP2017207348A (en) * | 2016-05-18 | 2017-11-24 | 三菱電機株式会社 | Radar device and sensor fusion device using the same |
US11014566B2 (en) | 2016-10-27 | 2021-05-25 | Denso Corporation | Object detection apparatus |
CN109891262A (en) * | 2016-10-27 | 2019-06-14 | 株式会社电装 | Object detection device |
JP2018072105A (en) * | 2016-10-27 | 2018-05-10 | 株式会社Soken | Object detection device |
CN109891262B (en) * | 2016-10-27 | 2022-11-11 | 株式会社电装 | Object detecting device |
WO2018079252A1 (en) * | 2016-10-27 | 2018-05-03 | 株式会社デンソー | Object detecting device |
JP2018081050A (en) * | 2016-11-18 | 2018-05-24 | 株式会社Soken | Object detection device |
KR101875517B1 (en) * | 2016-12-16 | 2018-07-09 | (주)넥스트칩 | Method and apparatus for processing a image |
JP7062878B2 (en) | 2017-03-27 | 2022-05-09 | 沖電気工業株式会社 | Information processing method and information processing equipment |
JP2018163096A (en) * | 2017-03-27 | 2018-10-18 | 沖電気工業株式会社 | Information processing method and information processing device |
JP2019178971A (en) * | 2018-03-30 | 2019-10-17 | パナソニックIpマネジメント株式会社 | Device, method, and program for generating environmental map |
JP2019216502A (en) * | 2018-06-11 | 2019-12-19 | 株式会社ダイヘン | Object detection device, object detection method and object detection program |
JP7043351B2 (en) | 2018-06-11 | 2022-03-29 | 株式会社ダイヘン | Object detection device, object detection method and object detection program |
JP7147648B2 (en) | 2019-03-20 | 2022-10-05 | トヨタ自動車株式会社 | Driving support device |
JP2020154758A (en) * | 2019-03-20 | 2020-09-24 | トヨタ自動車株式会社 | Driving support device |
CN114067608A (en) * | 2020-08-06 | 2022-02-18 | 丰田自动车株式会社 | Vehicle-mounted detection device and detection method |
CN114067608B (en) * | 2020-08-06 | 2023-10-10 | 丰田自动车株式会社 | Vehicle-mounted detection device and detection method |
Also Published As
Publication number | Publication date |
---|---|
JP5371273B2 (en) | 2013-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5371273B2 (en) | Object detection device, periphery monitoring device, driving support system, and object detection method | |
US10977944B2 (en) | Apparatus and method for supporting collision avoidance of vehicle | |
US10697790B2 (en) | Lane selecting device, vehicle control system and lane selecting method | |
JP4420011B2 (en) | Object detection device | |
JP6435994B2 (en) | In-vehicle device | |
JP5712119B2 (en) | Pedestrian notification device for vehicles | |
JP2008037361A (en) | Obstacle recognition device | |
CN112208533B (en) | Vehicle control system, vehicle control method, and storage medium | |
US20190073540A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7413935B2 (en) | In-vehicle sensor system | |
JP2006031162A (en) | Moving obstacle detection device | |
JP2006318093A (en) | Vehicular moving object detection device | |
JP2008204281A (en) | Object detection device and inter-vehicle communication system | |
JP6129268B2 (en) | Vehicle driving support system and driving support method | |
EP3453582A1 (en) | Driving support apparatus | |
JP2005145282A (en) | Vehicle running supporting device | |
JP4872517B2 (en) | Obstacle recognition device | |
JP2010072947A (en) | Obstacle detection device | |
JP2007212418A (en) | On-vehicle radar device | |
JP5166975B2 (en) | Vehicle periphery monitoring device and vehicle periphery monitoring method | |
JP2011258121A (en) | Obstacle recognition device | |
JP2010018080A (en) | Vehicular driving support device | |
JP5145138B2 (en) | Driving support device, driving support control method, and driving support control processing program | |
JP2007188349A (en) | Rear vehicle analyzer and collision predictor | |
JP7184951B2 (en) | VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110221 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120814 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130917 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5371273 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |