JP2009236623A - Object detector, periphery monitoring apparatus, driving support system, and object detection method - Google Patents

Object detector, periphery monitoring apparatus, driving support system, and object detection method Download PDF

Info

Publication number
JP2009236623A
JP2009236623A JP2008081715A JP2008081715A JP2009236623A JP 2009236623 A JP2009236623 A JP 2009236623A JP 2008081715 A JP2008081715 A JP 2008081715A JP 2008081715 A JP2008081715 A JP 2008081715A JP 2009236623 A JP2009236623 A JP 2009236623A
Authority
JP
Japan
Prior art keywords
radar
candidate area
recognition
threshold
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008081715A
Other languages
Japanese (ja)
Other versions
JP5371273B2 (en
Inventor
Jun Fujiwara
純 冨士原
Hiroaki Maruno
浩明 丸野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2008081715A priority Critical patent/JP5371273B2/en
Publication of JP2009236623A publication Critical patent/JP2009236623A/en
Application granted granted Critical
Publication of JP5371273B2 publication Critical patent/JP5371273B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detector and an object detection method for accurately recognizing various objects, and a periphery monitoring apparatus and a driving support system using an associated object detection. <P>SOLUTION: An object detection wave section 10 recognizes an image captured by a camera 32, identifies an object candidate area, and creates a threshold map for setting a threshold of a radar detection based on a type, a direction, a distance and an angle of the potential object existing in the area. A detecting/processing section 16 compares a reflection wave strength of a radar 31 with the threshold indicated in the threshold map, and detects the existence of the object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、カメラが撮影した入力画像とレーダの反射波とを用いて物体の存在を検知する物体検知装置、物体検知方法、またかかる物体検知を用いた周辺監視装置および運転支援システムに関するものである。   The present invention relates to an object detection device that detects the presence of an object using an input image captured by a camera and a reflected wave of a radar, an object detection method, and a peripheral monitoring device and a driving support system using such object detection. is there.

従来、カメラが撮影した画像やレーダの反射波を用いて物体を検知する技術が用いられてきた。特に近年、車両にカメラやレーダを搭載して周辺の車両や歩行者などを検知して運転操作の支援や事故の防止を行なうことが考えられている。   Conventionally, a technique for detecting an object using an image captured by a camera or a reflected wave of a radar has been used. In particular, in recent years, it has been considered that a camera or radar is mounted on a vehicle to detect nearby vehicles or pedestrians to support driving operations and prevent accidents.

かかる車載用の物体認識では、高速で精度の高い物体検出が要求されるので、カメラによる画像認識とレーダ検知とを組み合わせて用いることも行なわれてきた。例えば特許文献1では、自車両前方を走行する先行車両をレーダによって正確に認識するために、画像認識を用いて前方車両以外の車両や路側物からの反射を排除した上で、レーダ認識を行なう技術を開示している。   In such on-vehicle object recognition, high-speed and high-precision object detection is required. Therefore, a combination of image recognition by a camera and radar detection has been used. For example, in Patent Document 1, in order to accurately recognize a preceding vehicle traveling in front of the host vehicle by radar, radar recognition is performed after eliminating reflections from vehicles other than the preceding vehicle and roadside objects using image recognition. The technology is disclosed.

特開2003−84064号公報JP 2003-84064 A

しかしながら、従来の技術では、前方車両以外の物体を高精度に認識することはできなかった。自車両から比較的近距離に存在し、かつ自車両に対して正対している車両は、広範囲かつ強度の高いレーダ反射波が得られるが、距離が遠い物体や、自車両に対して正対していない物体は反射波の強度が低くなるためである。また、反射強度の判定閾値を下げると、遠方の物体や正対していない物体の存在を検知することができるが、誤検出も増え、また物体が存在することは分かってもその物体が何であるかを識別することができない。   However, with the conventional technology, objects other than the vehicle ahead cannot be recognized with high accuracy. A vehicle that is located at a relatively short distance from the host vehicle and is facing the host vehicle can obtain a radar reflected wave with a wide range and high intensity. This is because the intensity of the reflected wave is low for objects that are not. In addition, if the threshold value of the reflection intensity is lowered, it is possible to detect the presence of distant objects and objects that are not facing each other, but the number of false detections increases, and even if you know that an object exists, what is that object? Cannot be identified.

そこで、物体の存在を直接検知し、かつ検知した物体との距離を正確に測定可能なレーダをさらに有効に利用して、自車両周辺の様々な物体を高精度に認識することのできる物体検知を実現し、車両の周辺監視と運転支援の精度を向上することか重要な課題となっていた。   Therefore, it is possible to detect the presence of an object directly, and more effectively use radar that can accurately measure the distance to the detected object, and can detect various objects around the vehicle with high accuracy. To improve the accuracy of vehicle periphery monitoring and driving support.

本発明は、上述した従来技術における問題点を解消し、課題を解決するためになされたものであり、様々な物体を高精度に認識することのできる物体検知装置、物体検知方法、またかかる物体検知を用いた周辺監視装置および運転支援システムを提供することを目的とする。   The present invention has been made to solve the above-described problems in the prior art and to solve the problems. An object detection apparatus, an object detection method, and such an object that can recognize various objects with high accuracy are provided. An object of the present invention is to provide a periphery monitoring device and a driving support system using detection.

上述した問題を解決し、目的を達成するため、本発明にかかる物体検知装置、物体検知方法、またかかる物体検知を用いた周辺監視装置および運転支援システムは、カメラが撮影した入力画像と、レーダの反射波とを用いて物体の存在を検知する際に、入力画像に対して画像認識を行なって、当該入力画像から物体が存在する可能性のある物体候補領域を検出し、レーダの反射波強度と比較して物体の有無を判定する判定閾値を、前記物体候補領域認識手段による認識結果をもとに設定し、閾値設定手段によって設定した判定閾値とレーダの反射強度とを比較して物体を検知する。   In order to solve the above-described problems and achieve the object, the object detection device, the object detection method, the periphery monitoring device using the object detection, and the driving support system according to the present invention include an input image captured by a camera, a radar When the presence of an object is detected using the reflected wave of the image, image recognition is performed on the input image, an object candidate area where the object may exist is detected from the input image, and the reflected wave of the radar is detected. A determination threshold value for determining the presence / absence of an object in comparison with intensity is set based on the recognition result by the object candidate area recognition unit, and the determination threshold value set by the threshold setting unit is compared with the reflection intensity of the radar. Is detected.

本発明によれば、遠距離にある物体、レーダの反射強度が低い種類の物体、またレーダの反射強度が低い状態にある物体など、様々な物体を高精度に認識することのできる物体検知装置、物体検知方法、またかかる物体検知を用いた周辺監視装置および運転支援システムを得ることができるという効果を奏する。   According to the present invention, an object detection apparatus capable of accurately recognizing various objects such as an object at a long distance, an object of a type with low radar reflection intensity, and an object with low radar reflection intensity. The object detection method and the periphery monitoring device and the driving support system using the object detection can be obtained.

以下図面を参照して、本発明に係る物体検知装置、周辺監視装置、運転支援システムおよび物体検知方法について説明する。なお、実施例では一例として車両用物体検知装置について説明するが、これに限定することなく、画像とレーダを用いる物体検知全般に適用可能である。   Hereinafter, an object detection device, a periphery monitoring device, a driving support system, and an object detection method according to the present invention will be described with reference to the drawings. In addition, although an Example demonstrates a vehicle object detection apparatus as an example, it is applicable not only to this but to the general object detection using an image and a radar.

図1は、本発明の実施例である車載用の周辺監視装置20の概要構成を示す概要構成図である。同図に示すように、車両に搭載された周辺監視装置20は、レーダ31、カメラ32、ナビゲーション装置33、ヨーレートセンサ34、車速センサ35および制御ECU(Electronic Control Unit)40と接続している。   FIG. 1 is a schematic configuration diagram showing a schematic configuration of an in-vehicle periphery monitoring device 20 according to an embodiment of the present invention. As shown in the figure, the periphery monitoring device 20 mounted on the vehicle is connected to a radar 31, a camera 32, a navigation device 33, a yaw rate sensor 34, a vehicle speed sensor 35, and a control ECU (Electronic Control Unit) 40.

レーダ31は、例えば、ミリ波を自車両前方にスキャン照射し、その反射波を取得して周辺監視装置20に入力する。また、カメラ32は、自車両前方を撮影して得られた画像を周辺監視装置20に入力する。ここで、レーダ31の探索範囲とカメラ32の撮像範囲は少なくとも一部が(望ましくは全範囲が)重なるように配置する。また、レーダ31による物体探索とカメラ32による撮像は所定タイミング(より好適にはレーダ31とカメラ32とが同期したタイミング)で繰り返し実行する。   For example, the radar 31 scans and emits a millimeter wave in front of the host vehicle, acquires the reflected wave, and inputs the reflected wave to the periphery monitoring device 20. In addition, the camera 32 inputs an image obtained by photographing the front of the host vehicle to the periphery monitoring device 20. Here, the search range of the radar 31 and the imaging range of the camera 32 are arranged so that at least a part (preferably the entire range) overlaps. The object search by the radar 31 and the imaging by the camera 32 are repeatedly executed at a predetermined timing (more preferably, the timing at which the radar 31 and the camera 32 are synchronized).

ナビゲーション装置33は、GPS(Global Positioning System)人工衛星と通信して特定した自車両の位置と、予め記憶した地図データ33aとを利用して走行経路の設定および誘導を行なう車載装置である。また、ナビゲーション装置33は、周辺監視装置20に対して自車両の位置情報や周辺の地図情報、道路に関する情報などを提供する。   The navigation device 33 is an in-vehicle device that sets and guides a travel route using the position of the host vehicle specified by communicating with a GPS (Global Positioning System) artificial satellite and map data 33a stored in advance. In addition, the navigation device 33 provides the location monitoring device 20 with position information of the host vehicle, surrounding map information, information about roads, and the like.

ヨーレートセンサ34および車速センサ35は、それぞれ自車両のヨーレートと走行速度を取得して、周辺監視装置20に入力する。   The yaw rate sensor 34 and the vehicle speed sensor 35 acquire the yaw rate and travel speed of the host vehicle, respectively, and input them to the periphery monitoring device 20.

制御ECU40は、周辺監視部20の監視結果に基づいて、ディスプレイ43やスピーカ44による乗員への通知、ブレーキ41、エンジン制御装置(EFI)42による車両の挙動制御や操作支援、乗員を保護して衝突被害を軽減する装置であるエアバック45の動作制御を行なう。また、制御ECU40は、ブレーキ41やEFI42、また図示しない操舵制御ECUや変速機(シフト)制御ECUなどから車両の挙動に関する情報を取得して周辺監視装置20に提供する。   The control ECU 40 protects the occupant by notifying the passenger through the display 43 and the speaker 44, controlling the behavior of the vehicle by the brake 41 and the engine control device (EFI) 42, operating support based on the monitoring result of the periphery monitoring unit 20. Operation control of the airbag 45, which is a device that reduces collision damage, is performed. In addition, the control ECU 40 acquires information on the behavior of the vehicle from the brake 41 and the EFI 42, a steering control ECU and a transmission (shift) control ECU (not shown), and provides the information to the periphery monitoring device 20.

周辺監視装置20は、その内部に物体検知部10、衝突判定部21、車線認識処理部22を有する。物体検知部10は、レーダ31の反射波とカメラ32が撮影した入力画像とを用いて、自車両周辺における物体を検知する処理部である。また、車線認識処理部22は、入力画像に対する画像認識によって白線などを識別することで、車線を認識する処理を行なう。   The periphery monitoring device 20 includes an object detection unit 10, a collision determination unit 21, and a lane recognition processing unit 22 therein. The object detection unit 10 is a processing unit that detects an object around the host vehicle using the reflected wave of the radar 31 and the input image captured by the camera 32. The lane recognition processing unit 22 performs a process of recognizing a lane by identifying a white line or the like by image recognition on the input image.

衝突判定部21は、物体検知部10が検知した物体と自車両とが衝突する可能性を判定する手段である。この判定には、物体検知部10による検知結果に加え、車線認識処理部22による認識結果、ナビゲーション装置33から取得した地図情報や走行予定の経路に関する情報、ヨーレートセンサ34および車速センサ35が出力する自車両のヨーレートと走行速度、制御ECU40から取得した車両の挙動に関する情報を用いる。   The collision determination unit 21 is a unit that determines the possibility of collision between the object detected by the object detection unit 10 and the host vehicle. In this determination, in addition to the detection result by the object detection unit 10, the recognition result by the lane recognition processing unit 22, the map information acquired from the navigation device 33, the information related to the planned travel route, the yaw rate sensor 34 and the vehicle speed sensor 35 are output. Information regarding the yaw rate and traveling speed of the host vehicle and the behavior of the vehicle acquired from the control ECU 40 is used.

すなわち、衝突判定部21は、物体検知部10から自車両周辺に存在する物体の種類、位置、移動状態を取得し、自車両の走行車線、予定経路、地図情報などから自車両が物体に衝突する可能性があるか否かを総合的に判断し、判断結果を制御ECU40に出力する。   That is, the collision determination unit 21 acquires the type, position, and movement state of an object existing around the host vehicle from the object detection unit 10, and the host vehicle collides with the object from the traveling lane, planned route, map information, etc. of the host vehicle. Whether or not there is a possibility of the determination is comprehensively determined, and the determination result is output to the control ECU 40.

制御ECU40は、この判断結果を受け、衝突が発生する可能性がある場合には、ディスプレイ43やスピーカ44を用いて運転者に通知し、また必要に応じてブレーキ41の遊びを減らすなどの運転操作の支援制御や、ブレーキ41をかける、エンジン回転数を落とすなどの車両の挙動制御を実行し、衝突が発生する可能性が非常に高い場合にはエアバック45の展開準備やシートベルトの巻上げなど衝突被害軽減装置の動作制御を実行する。   The control ECU 40 receives this determination result, and notifies the driver using the display 43 or the speaker 44 when there is a possibility of a collision, and reduces the play of the brake 41 if necessary. Execute support control of the operation, control of the vehicle behavior such as applying the brake 41 and lowering the engine speed, and when the possibility of occurrence of a collision is very high, preparation for deployment of the airbag 45 and hoisting of the seat belt Control the operation of the collision damage mitigation device.

物体検知部10は、その内部に反射波取得部11、画像取得部12、物体候補領域認識処理部13、閾値マップ作成部14、反射強度データベース15、検知処理部16を有する。   The object detection unit 10 includes therein a reflected wave acquisition unit 11, an image acquisition unit 12, an object candidate region recognition processing unit 13, a threshold map creation unit 14, a reflection intensity database 15, and a detection processing unit 16.

反射波取得部11は、レーダ31から反射波を取得しして検知処理部16に出力する処理を行なう。同様に、画像取得部12は、カメラ12が撮影した画像を入力画像として取得し、物体候補領域認識処理部13および車線認識処理部22に提供する。   The reflected wave acquisition unit 11 performs a process of acquiring a reflected wave from the radar 31 and outputting it to the detection processing unit 16. Similarly, the image acquisition unit 12 acquires an image captured by the camera 12 as an input image, and provides it to the object candidate region recognition processing unit 13 and the lane recognition processing unit 22.

物体候補領域認識処理部13は、入力画像に対してパターンマッチングなどを用いた画像認識処理を実行し、物体が存在する可能性のある領域を物体候補領域として認識する。この時、物体候補領域認識処理部13は、物体候補領域に存在が推定される物体、言いかえれば物体候補領域に存在する可能性のある物体の種別、存在する方向、距離、角度を認識する。また、認識する物体の種別は、車両走行に関与し、障害物となる可能性のある物体、例えば他車両、歩行者、二輪車などである。なお、物体候補領域に存在する可能性とは、例えばパターンマッチング処理により一致度が80%以上である場合に「可能性あり」と判断する。一致度の閾値は、その車両がおかれた環境(時刻、季節、地域など)により変更してもよい。   The object candidate area recognition processing unit 13 executes image recognition processing using pattern matching or the like on the input image, and recognizes an area where an object may exist as an object candidate area. At this time, the object candidate area recognition processing unit 13 recognizes the type of object estimated to exist in the object candidate area, in other words, the type of object that may exist in the object candidate area, the existing direction, the distance, and the angle. . The types of objects to be recognized are objects that are involved in vehicle travel and may become obstacles, such as other vehicles, pedestrians, and motorcycles. Note that the possibility of existing in the object candidate area is determined as “possibility” when the degree of matching is 80% or more by pattern matching processing, for example. The coincidence threshold may be changed according to the environment (time, season, region, etc.) in which the vehicle is placed.

閾値マップ作成部14は、レーダの反射波強度による物体検知の判定閾値を、物体候補領域の認識結果に基づいて設定する。具体的には、閾値マップ作成部14は、物体候補領域の位置に基づいてレーダの探索範囲に対して判定閾値の異なる領域を設定した閾値マップを作成する。ここで、閾値は、物体の種別、存在する方向、距離、角度ごとに判定閾値の値を定めた反射強度データベース15を参照して決定する。   The threshold map creating unit 14 sets a determination threshold for object detection based on the reflected wave intensity of the radar based on the recognition result of the object candidate area. Specifically, the threshold map creation unit 14 creates a threshold map in which regions having different determination thresholds are set with respect to the radar search range based on the position of the object candidate region. Here, the threshold value is determined with reference to the reflection intensity database 15 in which the determination threshold value is determined for each type of object, existing direction, distance, and angle.

検知処理部16は、反射波取得部11が取得した反射波の強度と、閾値マップによって規定された閾値とを比較して物体を検知し、検知結果を衝突判定部21に出力する。   The detection processing unit 16 detects the object by comparing the intensity of the reflected wave acquired by the reflected wave acquisition unit 11 with the threshold defined by the threshold map, and outputs the detection result to the collision determination unit 21.

この物体検知部10の処理について、具体例を挙げて説明する。図2は、画像認識結果からの閾値マップ作成について説明する説明図である。同図に示した例では、物体候補領域認識処理部13は、カメラの撮影範囲内、すなわち入力画像の中に3つの物体候補領域を認識している。   The processing of the object detection unit 10 will be described with a specific example. FIG. 2 is an explanatory diagram for explaining threshold map creation from the image recognition result. In the example shown in the figure, the object candidate area recognition processing unit 13 recognizes three object candidate areas in the shooting range of the camera, that is, in the input image.

それぞれの物体候補領域は、その画像内における水平方向の位置が自車両に対する当該物体の方向を、物体候補領域の下端の垂直方向の位置(高さ)が自車両から当該物体までの距離を示している。また、物体の種別と当該物体の自車両に対する角度は、画像認識によって識別することができる。   In each object candidate area, the horizontal position in the image indicates the direction of the object with respect to the own vehicle, and the vertical position (height) at the lower end of the object candidate area indicates the distance from the own vehicle to the object. ing. Further, the type of the object and the angle of the object with respect to the host vehicle can be identified by image recognition.

図2に示した例では、自車両から左方向に自車両に対して正対している(角度0°)の歩行者の候補領域、自車両の正面に自車両に対して正対している(角度0°)の車両(車両種別1)の候補領域、自車両の右方向に自車両に対して角度30°の車両(車両種別1)の候補領域を認識している。   In the example shown in FIG. 2, a candidate area for a pedestrian who is facing the host vehicle in the left direction from the host vehicle (angle 0 °), is facing the host vehicle in front of the host vehicle ( A candidate area of a vehicle (vehicle type 1) with an angle of 0 ° and a candidate area of a vehicle (vehicle type 1) with an angle of 30 ° with respect to the host vehicle are recognized in the right direction of the host vehicle.

閾値マップ作成部14は、この画像認識結果である物体候補領域マップを反射強度の閾値マップに変換する。具体的には、カメラの撮影範囲とレーダの探索範囲との関係から、物体候補領域マップにおける各物体候補領域の位置を、レーダ探索範囲内の対応する位置に置き換え、当該物体候補領域の物体種別、方向、距離、角度に基づいて反射強度データベースを検索し、閾値の値を決定する。   The threshold map creation unit 14 converts the object candidate area map, which is the image recognition result, into a threshold map for reflection intensity. Specifically, based on the relationship between the shooting range of the camera and the search range of the radar, the position of each object candidate region in the object candidate region map is replaced with a corresponding position in the radar search range, and the object type of the object candidate region The reflection intensity database is searched based on the direction, distance, and angle, and the threshold value is determined.

同図においては、左側の物体候補領域に対応する位置に例えば閾値30%、中央の物体候補領域に対応する位置に閾値60%、右側の物体候補領域に対応する位置に閾値40%を設定し、物体候補領域以外の場所に閾値80%を設定している。   In the figure, for example, a threshold of 30% is set at a position corresponding to the left object candidate area, a threshold of 60% is set at a position corresponding to the center object candidate area, and a threshold of 40% is set at a position corresponding to the right object candidate area. A threshold of 80% is set in a place other than the object candidate area.

正面方向の物体候補領域が、画像認識の通り、自車両正面の近距離に存在して自車両に対して正対している他車両であるならば、この領域からは強い反射波が得られるはずである。そこで、閾値を60%と比較的高い値とし、反射強度が60%以上であれば画像認識した通りの物体、すなわち他車両が存在すると判定する。   If the object candidate area in the front direction is another vehicle that is located at a short distance in front of the host vehicle and is facing the host vehicle as shown in the image recognition, a strong reflected wave should be obtained from this area. It is. Therefore, the threshold is set to a relatively high value of 60%, and if the reflection intensity is 60% or more, it is determined that an object as recognized by the image, that is, another vehicle exists.

また、右側の物体候補領域の方向から反射波が帰ってきた場合、画像認識の結果を考慮すると、自車両に対して角度30°の他車両であると考えられる。ここで、自車両に対して正対していない車両は、正対している車両に比して反射波の強度は低くなる。そこで、閾値を40%と比較的低い値とし、反射強度が40%以上であれば画像認識した通りの物体、すなわち他車両が存在すると判定する。   In addition, when the reflected wave returns from the direction of the right object candidate region, it is considered that the vehicle is another vehicle having an angle of 30 ° with respect to the host vehicle in consideration of the image recognition result. Here, the intensity of the reflected wave is lower in a vehicle that is not directly facing the host vehicle than in a vehicle that is facing the vehicle. Therefore, the threshold is set to a relatively low value of 40%, and if the reflection intensity is 40% or more, it is determined that an object as recognized by the image, that is, another vehicle exists.

同様に、左側の物体候補領域の方向から反射波が帰ってきた場合、画像認識の結果を考慮すると、自車両に対して正対した歩行者であると考えられる。ここで、歩行者からの反射波は、歩行者が自車両に正対していたとしても強度が小さい。その一方で、車両走行中において、歩行者との事故の防止は非常に重要度が高い。そこで、この物体候補領域については判定閾値を30%と比較的低い値とし、反射強度が30%以上であれば画像認識した通り歩行者が存在すると判定する。   Similarly, when a reflected wave returns from the direction of the object candidate area on the left side, it is considered that the person is a pedestrian facing the own vehicle in consideration of the result of image recognition. Here, the intensity of the reflected wave from the pedestrian is small even if the pedestrian faces the host vehicle. On the other hand, prevention of accidents with pedestrians during vehicle travel is very important. Therefore, for this object candidate region, the determination threshold is set to a relatively low value of 30%, and if the reflection intensity is 30% or more, it is determined that there is a pedestrian as recognized by the image.

また、物体候補領域が設定されていない検索範囲については、判定閾値を80%とし、反射強度が80%であった場合に何らかの物体が存在すると認識する。これは画像認識では物体の存在を識別することができなくとも、レーダ検知のみで物体が存在すると判定する閾値であり、たとえば従来のレーダ単体での物体検出の閾値を用いることとしてもよい。   For a search range in which no object candidate area is set, the determination threshold is 80%, and when the reflection intensity is 80%, it is recognized that some object exists. This is a threshold value for determining that an object is present only by radar detection even if the presence of the object cannot be identified by image recognition. For example, a threshold value for detecting an object using a conventional radar alone may be used.

つぎに、各種物体と反射強度について説明する。図3は、車両からの反射強度について説明する説明図である。図3に示したように、車両C1が自車両C0に対して正対している、すなわち、自車両C0から車両C1に射出したレーダ探索波を受ける車両C1の面が、射出方向に対して垂直である場合、探索波は真っ直ぐ自車両方向に帰り、図4に状態(a)として示したように反射波の強度が高くなる。   Next, various objects and reflection intensity will be described. FIG. 3 is an explanatory diagram for explaining the reflection intensity from the vehicle. As shown in FIG. 3, the vehicle C1 faces the host vehicle C0, that is, the surface of the vehicle C1 that receives the radar search wave emitted from the host vehicle C0 to the vehicle C1 is perpendicular to the emission direction. In this case, the search wave returns straight in the direction of the host vehicle, and the intensity of the reflected wave increases as shown as the state (a) in FIG.

一方、図3に示した車両C2のように、自車両C0に対して角度がある、すなわち、自車両C0から車両C2に射出したレーダ探索波を受ける車両C1の面が、射出方向に対して垂直でない場合、図4に状態(b)として示したように探索波は横方向への散乱する成分が大きくなり、自車両側で受信する反射波の強度が低くなる。したがって、自車両に対して角度をもった車両をレーダによって検知するためには自車両に対して正対する車両を検知する場合に比して閾値を低くする必要がある。   On the other hand, like the vehicle C2 shown in FIG. 3, the surface of the vehicle C1 that has an angle with respect to the own vehicle C0, that is, receives the radar search wave emitted from the own vehicle C0 to the vehicle C2, is relative to the emission direction. In the case of not being vertical, as shown in FIG. 4 as the state (b), the component of the search wave that scatters in the lateral direction increases, and the intensity of the reflected wave received on the own vehicle side decreases. Therefore, in order to detect a vehicle having an angle with respect to the own vehicle by the radar, it is necessary to lower the threshold value as compared with the case of detecting a vehicle facing the own vehicle.

また、検知対象の物体が二輪車である場合、図5に示したように、二輪車が自車両に対して正対している場合に反射強度が小さく、自車両に対して角度90°(横向き)である場合に反射強度が大きくなる。したがって、二輪車を検知する場合には、自車両に対して正対する場合に閾値を小さく、横向きに近い場合に閾値を大きくする必要がある。   Further, when the object to be detected is a two-wheeled vehicle, as shown in FIG. 5, the reflection intensity is small when the two-wheeled vehicle is directly facing the own vehicle, and the angle is 90 ° (sideways) with respect to the own vehicle. In some cases, the reflection intensity increases. Therefore, when detecting a two-wheeled vehicle, it is necessary to decrease the threshold when facing the host vehicle and increase the threshold when the vehicle is close to the side.

同様に、検知対象の物体が歩行者である場合、図6に示したように、歩行者がどの様な向き(角度)であっても反射波は散乱する成分が大きくなって自車両側で受信する反射強度は低くなる。そこで、歩行者を検知する場合には閾値を小さく設定し、レーダ検出の感度を上げる。   Similarly, when the object to be detected is a pedestrian, as shown in FIG. 6, the reflected wave has a large scattered component regardless of the direction (angle) of the pedestrian, and the vehicle side The received reflection intensity is low. Therefore, when detecting a pedestrian, the threshold is set small to increase the sensitivity of radar detection.

図7は、反射強度データベースの具体例を説明する説明図である。同図に示したように、反射強度データベース15は、物体種別、方向、距離、角度の項目に対応付けて反射強度の判定閾値を定めている。   FIG. 7 is an explanatory diagram illustrating a specific example of the reflection intensity database. As shown in the figure, the reflection intensity database 15 defines a reflection intensity determination threshold in association with items of object type, direction, distance, and angle.

具体的には、物体の種別が「車両種別1」、方向が「0°」、距離が「〜10m」、物体の角度が「0°」の場合に反射強度閾値を「60%」としている。そして、方向と距離が同一であって角度が変化した場合、車両が真横になる角度「90°」では、正対した角度「0°」の場合と同様に強い反射強度が期待できるため、反射強度閾値を「60%」としている。そして、角度30°や角度60°では、車両からの反射波の散乱成分が大きくなるため閾値を小さくし、角度30°で反射強度閾値を「40%」、角度60°で反射強度閾値を「50%」としている。   Specifically, when the object type is “vehicle type 1”, the direction is “0 °”, the distance is “−10 m”, and the object angle is “0 °”, the reflection intensity threshold is set to “60%”. . And when the direction and distance are the same and the angle is changed, the angle “90 °” at which the vehicle is directly beside can be expected to have a strong reflection intensity as in the case of the angle “0 °” facing directly. The intensity threshold is set to “60%”. At an angle of 30 ° or an angle of 60 °, the scattering component of the reflected wave from the vehicle increases, so the threshold value is reduced. At the angle of 30 °, the reflection intensity threshold value is “40%”, and at the angle 60 °, the reflection intensity threshold value is “ 50% ".

また、自車両からの方向が「0°」であっても、自車両からの距離が遠くなるにつれて反射波の強度は落ちる。そこで、同図に示した例では、「車両種別1」、方向「0°」、距離「〜20m」、物体の角度「0°」の場合に反射強度閾値を「55%」、同じく物体の角度「30°」の場合に反射強度閾値を「45%」としている。   Even if the direction from the host vehicle is “0 °”, the intensity of the reflected wave decreases as the distance from the host vehicle increases. Therefore, in the example shown in the figure, in the case of “vehicle type 1”, direction “0 °”, distance “˜20 m”, and object angle “0 °”, the reflection intensity threshold is “55%”. When the angle is “30 °”, the reflection intensity threshold is “45%”.

さらに、自車両からの方向に応じても反射強度が変化するので、「車両種別1」、方向「15°」、距離「〜10m」、物体の角度「0°」の場合に反射強度閾値を「55%」、同じく物体の角度「30°」の場合に反射強度閾値を「45%」としている。   Further, since the reflection intensity changes depending on the direction from the host vehicle, the reflection intensity threshold is set in the case of “vehicle type 1”, direction “15 °”, distance “−10 m”, and object angle “0 °”. In the case of “55%” and the angle of the object “30 °”, the reflection intensity threshold is “45%”.

このような反射強度閾値のデータは、車両の種別(例えば普通車(セダン、ハッチバック、ワゴン、RV車等)、トラック、バス、軽自動車等)ごとにそれぞれ設定しておく。また、二輪車や歩行者についても同様に、種別、方向、距離、角度に応じて反射強度閾値を設定する。なお、車両の場合は、正対した状態(角度0°)と横向きの状態(角度90°)で反射強度が高くなるが、二輪車の場合は、正対した状態(角度0°)で反射強度が低く、横向きの状態(角度90°)になるにつれて反射強度が高くなる。また、歩行者の場合には、正対した状態(角度0°)であっても横向きの状態(角度90°)であっても反射強度が低い。二輪車、歩行者に対し、その種別ごとにそれぞれ反射強度閾値を設定する点については車両と同様である。   Such reflection intensity threshold data is set for each type of vehicle (for example, ordinary vehicles (sedans, hatchbacks, wagons, RV vehicles, etc.), trucks, buses, light vehicles, etc.). Similarly, a reflection intensity threshold value is set for two-wheeled vehicles and pedestrians according to the type, direction, distance, and angle. In the case of a vehicle, the reflection intensity is high in a state of facing up (angle 0 °) and in a sideways state (angle of 90 °). Is low, and the reflection intensity increases as the state becomes horizontal (angle 90 °). In addition, in the case of a pedestrian, the reflection intensity is low regardless of whether it is a face-to-face state (angle 0 °) or a sideways state (angle 90 °). It is the same as that of the vehicle in that a reflection intensity threshold is set for each type of motorcycle and pedestrian.

なお、ここでは反射強度閾値の単位を「%」としているが、例えばdBなど異なる単位で閾値を設定することもできる。   Here, the unit of the reflection intensity threshold is “%”, but the threshold may be set in a different unit such as dB.

つぎに物体検知部10の処理動作について図8のフローチャートを参照して説明する。同図に示した処理動作は、カメラ32が撮像を行なうたびに繰り返し実行される処理である。   Next, the processing operation of the object detection unit 10 will be described with reference to the flowchart of FIG. The processing operation shown in the figure is processing that is repeatedly executed each time the camera 32 performs imaging.

同図に示したように、まず画像処理部12がカメラ32から画像を取得し(ステップS101)、物体候補量領域認識処理部13が画像認識を実行する(ステップS102)。その結果、画像内に物体候補領域が存在する場合(ステップS103,Yes)には、各物体候補領域について、物体種別、位置(方向および距離)、角度を認識する(ステップS104)。   As shown in the figure, first, the image processing unit 12 acquires an image from the camera 32 (step S101), and the object candidate amount region recognition processing unit 13 executes image recognition (step S102). As a result, when an object candidate area exists in the image (step S103, Yes), the object type, position (direction and distance), and angle are recognized for each object candidate area (step S104).

その後(ステップS103,No、もしくはS104終了後)、閾値マップ作成部14は、物体候補領域の認識結果に基づいて反射強度データベース15を参照し、閾値マップを作成する(ステップS105)。   Thereafter (No at Step S103, or after Step S104), the threshold map creation unit 14 creates a threshold map by referring to the reflection intensity database 15 based on the recognition result of the object candidate region (Step S105).

反射波取得部11は、レーダ31の反射波を取得し(ステップS106)、検知処理部16は、反射波の強度と閾値マップとを比較して、物体の検知処理を実行する(ステップS107)。   The reflected wave acquisition unit 11 acquires the reflected wave of the radar 31 (step S106), and the detection processing unit 16 compares the intensity of the reflected wave with a threshold map and executes an object detection process (step S107). .

その結果、物体を検知した(反射強度が閾値以上であった)場合(ステップS108,Yes)、検知した各物体について、レーダ検知結果による位置情報と、画像認識による物体種別を出力し(ステップS109)、処理を終了する。なお、物体を検知しなかった場合(ステップS108,No)にはそのまま処理を終了する。   As a result, when an object is detected (the reflection intensity is greater than or equal to the threshold value) (step S108, Yes), the position information based on the radar detection result and the object type based on the image recognition are output for each detected object (step S109). ), The process is terminated. If no object is detected (No at step S108), the process is terminated.

上述してきたように、本実施例に係る物体検知波部10は、画像認識によって物体候補領域を識別し、当該領域に存在する可能性のある物体の種別、方向、距離、角度に基づいてレーダ検知の閾値を設定した閾値マップを作成する。この閾値マップを用い、レーダ31の反射波強度から物体が存在するか否かを判定する。   As described above, the object detection wave unit 10 according to the present embodiment identifies an object candidate area by image recognition, and performs radar based on the type, direction, distance, and angle of an object that may exist in the area. Create a threshold map with detection thresholds. Using this threshold map, it is determined from the reflected wave intensity of the radar 31 whether or not an object exists.

そのため、レーダ単独では正確な検知が困難な物体、例えば遠距離にある物体や自車両に対して正対していない車両、また、元々の反射強度が低い二輪車や歩行者についても、高精度に認識することができる。   For this reason, it is possible to accurately recognize objects that are difficult to accurately detect with radar alone, such as objects at long distances, vehicles that are not directly facing the host vehicle, and motorcycles and pedestrians with low original reflection strength. can do.

また、検知物体についてはレーダによって正確な距離が得られるに加え、画像認識によって種別に関する情報、状態に関する情報などを得ることが可能である。   In addition to the accurate distance obtained by the radar for the detected object, it is possible to obtain information on the type, information on the state, etc. by image recognition.

そのため、物体検知部10の検知結果を用いる周辺監視装置20は、物体との衝突判定を精度よくおこなうことができ、制御ECU40は精度の高い衝突判定結果を得られることから運転支援の動作を正確におこなうことができる。   Therefore, the periphery monitoring device 20 using the detection result of the object detection unit 10 can accurately perform the collision determination with the object, and the control ECU 40 can obtain the collision determination result with high accuracy, so that the operation of driving assistance is accurately performed. Can be done.

なお、本実施例に示した構成および動作はあくまで一例であり、本発明はこれに限定されるものではない。例えば、本実施例では、周辺監視装置20が物体検知部10を有する構成を例に説明を行なったが、物体検知を行なう物体検知装置として独立させ、物体検知装置の検知結果を他の装置が使用する構成としてもよい。   The configuration and operation shown in this embodiment are merely examples, and the present invention is not limited to this. For example, in the present embodiment, the configuration in which the periphery monitoring device 20 includes the object detection unit 10 has been described as an example. However, the detection result of the object detection device is determined by another device as an object detection device that performs object detection. It is good also as a structure to use.

また、衝突判定に用いる情報や、衝突判定結果の利用方法についても適宜変形して実施可能であることはいうまでもない。例えば、VICS(Vehicle Information and Communication System)によって取得した情報を衝突判定に利用してもよいし、変速機の状態を更に制御することもできる。   Needless to say, the information used for collision determination and the method of using the collision determination result can be modified as appropriate. For example, information acquired by VICS (Vehicle Information and Communication System) may be used for collision determination, and the state of the transmission can be further controlled.

さらに、以上の実施例では、カメラにて物体の種別や角度情報を取得したが、それに限らず、車両間通信や路車間通信、或いは携帯電話の位置情報などから物体の種別、位置、角度を推定してレーダの閾値を変更して物体検知してもよい。   Furthermore, in the above embodiment, the type and angle information of the object are acquired by the camera, but not limited thereto, the type, position, and angle of the object are determined based on the inter-vehicle communication, the road-to-vehicle communication, or the position information of the mobile phone. The object may be detected by estimating and changing the threshold value of the radar.

以上のように、本発明にかかる物体検知装置、周辺監視装置、運転支援システムおよび物体検知方法は、物体の検知精度向上に有用であり、特に車両における物体検知と運転支援に適している。   As described above, the object detection device, the periphery monitoring device, the driving support system, and the object detection method according to the present invention are useful for improving the object detection accuracy, and are particularly suitable for object detection and driving support in a vehicle.

本発明の実施例にかかる周辺監視装置の概要構成を示す概要構成図である。It is a schematic block diagram which shows schematic structure of the periphery monitoring apparatus concerning the Example of this invention. 画像認識結果からの閾値マップ作成について説明する説明図である。It is explanatory drawing explaining the threshold value map creation from an image recognition result. 自車両から物体への方向と自車両に対する角度について説明する説明図である。It is explanatory drawing explaining the direction from the own vehicle to an object, and the angle with respect to the own vehicle. 車両の角度と反射強度について説明する説明図である。It is explanatory drawing explaining the angle and reflection intensity of a vehicle. 二輪車の角度と反射強度について説明する説明図である。It is explanatory drawing explaining the angle and reflection intensity of a two-wheeled vehicle. 歩行者の角度と反射強度について説明する説明図である。It is explanatory drawing explaining a pedestrian's angle and reflection intensity. 反射強度データベースについて説明する説明図である。It is explanatory drawing explaining a reflection intensity database. 物体検知処理の処理動作について説明するフローチャートである。It is a flowchart explaining the processing operation | movement of an object detection process.

符号の説明Explanation of symbols

10 物体検知部
11 反射波取得部
12 画像取得部
13 物体候補領域認識処理部
14 閾値マップ作成部
15 反射強度データベース
16 検知処理部
20 周辺監視装置
21 衝突判定部
22 車線認識処理部
31 レーダ
32 カメラ
33 ナビゲーション装置
33a 地図データ
34 ヨーレートセンサ
35 車速センサ
40 制御ECU
41 ブレーキ
42 EFI
43 ディスプレイ
44 スピーカ
45 エアバック
DESCRIPTION OF SYMBOLS 10 Object detection part 11 Reflected wave acquisition part 12 Image acquisition part 13 Object candidate area | region recognition process part 14 Threshold map creation part 15 Reflection intensity database 16 Detection process part 20 Perimeter monitoring apparatus 21 Collision determination part 22 Lane recognition process part 31 Radar 32 Camera 33 Navigation device 33a Map data 34 Yaw rate sensor 35 Vehicle speed sensor 40 Control ECU
41 Brake 42 EFI
43 Display 44 Speaker 45 Airbag

Claims (11)

レーダの反射波を用いて物体の存在を検知する物体検知装置であって、
前記レーダ以外の手段を用いて物体の存在が推定される物体候補領域を検出する物体候補領域認識手段と、
前記レーダの反射波強度と比較して物体の有無を判定する判定閾値を、前記物体候補領域認識手段による認識結果をもとに設定する閾値設定手段と、
前記閾値設定手段によって設定した判定閾値と前記レーダの反射強度とを比較して物体を検知する検知処理手段と、
を備えたことを特徴とする物体検知装置。
An object detection device that detects the presence of an object using a reflected wave of a radar,
Object candidate area recognition means for detecting an object candidate area where the presence of an object is estimated using means other than the radar;
A threshold value setting means for setting a determination threshold value for determining the presence or absence of an object in comparison with the reflected wave intensity of the radar, based on a recognition result by the object candidate area recognition means;
Detection processing means for detecting an object by comparing the determination threshold set by the threshold setting means with the reflection intensity of the radar;
An object detection device comprising:
前記閾値設定手段は、前記物体候補領域の位置に基づいて前記レーダの探索範囲に対して判定閾値の異なる領域を設定した閾値マップを作成し、前記検知処理手段は、レーダの探索方向に基づいて前記閾値マップを参照し、判定閾値を選択することを特徴とする請求項1に記載の物体検知装置。   The threshold setting means creates a threshold map in which areas having different determination thresholds are set for the radar search range based on the position of the object candidate area, and the detection processing means is based on a radar search direction. The object detection apparatus according to claim 1, wherein a determination threshold is selected with reference to the threshold map. 前記物体候補領域認識手段は、カメラが撮影した入力画像に対して画像認識を行なって、当該入力画像から前記物体候補領域を検出することを特徴とする請求項1または2に記載の物体検知装置。   3. The object detection device according to claim 1, wherein the object candidate area recognition unit performs image recognition on an input image captured by a camera and detects the object candidate area from the input image. . 前記物体候補領域認識手段は、前記物体候補領域に存在する可能性のある物体の種別、存在する方向、距離、角度のうち少なくともいずれかを認識し、前記閾値設定手段は、当該識別の結果に基づいて閾値を設定することを特徴とする請求項1〜3のいずれか一つに記載の物体検知装置。   The object candidate area recognizing means recognizes at least one of a type, an existing direction, a distance, and an angle of an object that may exist in the object candidate area, and the threshold setting means determines the result of the identification. The object detection device according to claim 1, wherein a threshold value is set based on the threshold value. 前記物体候補領域認識手段は、車両走行に関与する障害物が存在する可能性のある物体候補領域を認識することを特徴とする請求項1〜4のいずれか一つに記載の物体検知装置。   The object detection apparatus according to claim 1, wherein the object candidate area recognition unit recognizes an object candidate area in which an obstacle related to vehicle travel may exist. 物体の種別、存在する方向、距離、角度ごとに判定閾値の値を定めるデータベースを更に備え、前記閾値設定手段は、前記物体候補領域による認識結果に基づいて前記データベースを参照し、当該物体候補領域に対応するレーダ検知範囲に設定する判定閾値を求めることを特徴とする請求項4または5に記載の物体検知装置。   A database for determining a determination threshold value for each type of object, existing direction, distance, and angle; and the threshold setting unit refers to the database based on a recognition result of the object candidate area, and the object candidate area The object detection device according to claim 4, wherein a determination threshold value to be set in a radar detection range corresponding to is obtained. カメラが撮影した入力画像と、レーダの反射波とを用いて自車両周辺の物体を監視する周辺監視装置であって、
前記入力画像に対して画像認識を行なって、当該入力画像から物体が存在する可能性のある物体候補領域を検出する物体候補領域認識手段と、
前記レーダの反射波強度と比較して物体の有無を判定する判定閾値を、前記物体候補領域認識手段による認識結果をもとに設定する閾値設定手段と、
前記閾値設定手段によって設定した判定閾値と前記レーダの反射強度とを比較して物体を検知する検知処理手段と、
前記検知処理手段が検知した物体と自車両とが衝突する可能性を判定する衝突判定手段と、
を備えたことを特徴とする周辺監視装置。
A periphery monitoring device that monitors an object around the host vehicle using an input image captured by a camera and a reflected wave of a radar,
Object candidate area recognition means for performing image recognition on the input image and detecting an object candidate area where an object may exist from the input image;
A threshold value setting means for setting a determination threshold value for determining the presence or absence of an object in comparison with the reflected wave intensity of the radar, based on a recognition result by the object candidate area recognition means;
Detection processing means for detecting an object by comparing the determination threshold set by the threshold setting means with the reflection intensity of the radar;
A collision determination means for determining the possibility of collision between the object detected by the detection processing means and the host vehicle;
A peripheral monitoring device comprising:
前記入力画像から車線を示す情報を認識する車線認識手段を更に備え、前記衝突判定手段は前記車線認識手段による認識結果を更に用いて衝突判定をおこなうことを特徴と刷る請求項7に記載の周辺監視装置。   The peripheral according to claim 7, further comprising lane recognition means for recognizing information indicating a lane from the input image, wherein the collision determination means further makes a collision determination using a recognition result by the lane recognition means. Monitoring device. 前記衝突判定手段は、地図情報、自車両の走行予定経路情報、自車両の挙動を示す挙動情報を更に用いて前記衝突判定をおこなうことを特徴と刷る請求項7または8に記載の周辺監視装置。   The periphery monitoring device according to claim 7 or 8, wherein the collision determination unit performs the collision determination by further using map information, planned traveling route information of the own vehicle, and behavior information indicating the behavior of the own vehicle. . カメラが撮影した入力画像と、レーダの反射波とを用いて自車両周辺の物体を監視し、監視結果に基づいて車両の運転操作を支援する運転支援システムであって、
前記入力画像に対して画像認識を行なって、当該入力画像から物体が存在する可能性のある物体候補領域を検出する物体候補領域認識手段と、
前記レーダの反射波強度と比較して物体の有無を判定する判定閾値を、前記物体候補領域認識手段による認識結果をもとに設定する閾値設定手段と、
前記閾値設定手段によって設定した判定閾値と前記レーダの反射強度とを比較して物体を検知する検知処理手段と、
前記検知処理手段が検知した物体と自車両とが衝突する可能性を判定する衝突判定手段と、
前記衝突判定手段による判定結果に基づいて、運転者に対する報知制御、運転操作の支援制御、車両の挙動制御、衝突被害軽減装置の動作制御のうち、少なくともいずれかを実行する制御手段と、
を備えたことを特徴とする運転支援システム。
A driving support system that monitors an object around the host vehicle using an input image captured by a camera and a reflected wave of a radar, and supports driving operation of the vehicle based on a monitoring result,
Object candidate area recognition means for performing image recognition on the input image and detecting an object candidate area where an object may exist from the input image;
A threshold value setting means for setting a determination threshold value for determining the presence or absence of an object in comparison with the reflected wave intensity of the radar, based on a recognition result by the object candidate area recognition means;
Detection processing means for detecting an object by comparing the determination threshold set by the threshold setting means with the reflection intensity of the radar;
A collision determination means for determining the possibility of collision between the object detected by the detection processing means and the host vehicle;
Control means for executing at least one of notification control for the driver, driving operation support control, vehicle behavior control, and collision damage mitigation device operation control based on the determination result by the collision determination means;
A driving support system characterized by comprising:
カメラが撮影した入力画像と、レーダの反射波とを用いて物体の存在を検知する物体検知方法であって、
前記入力画像に対して画像認識を行なって、当該入力画像から物体が存在する可能性のある物体候補領域を検出する物体候補領域認識工程と、
前記レーダの反射波強度と比較して物体の有無を判定する判定閾値を、前記物体候補領域認識工程による認識結果をもとに設定する閾値設定工程と、
前記閾値設定工程によって設定した判定閾値と前記レーダの反射強度とを比較して物体を検知する検知処理工程と、
を含んだことを特徴とする物体検知方法。
An object detection method for detecting the presence of an object using an input image captured by a camera and a reflected wave of a radar,
An object candidate region recognition step of performing image recognition on the input image and detecting an object candidate region in which an object may exist from the input image;
A threshold setting step for setting a determination threshold for determining the presence or absence of an object in comparison with the reflected wave intensity of the radar based on a recognition result by the object candidate region recognition step;
A detection processing step of detecting an object by comparing the determination threshold set by the threshold setting step and the reflection intensity of the radar;
The object detection method characterized by including.
JP2008081715A 2008-03-26 2008-03-26 Object detection device, periphery monitoring device, driving support system, and object detection method Expired - Fee Related JP5371273B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008081715A JP5371273B2 (en) 2008-03-26 2008-03-26 Object detection device, periphery monitoring device, driving support system, and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008081715A JP5371273B2 (en) 2008-03-26 2008-03-26 Object detection device, periphery monitoring device, driving support system, and object detection method

Publications (2)

Publication Number Publication Date
JP2009236623A true JP2009236623A (en) 2009-10-15
JP5371273B2 JP5371273B2 (en) 2013-12-18

Family

ID=41250763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008081715A Expired - Fee Related JP5371273B2 (en) 2008-03-26 2008-03-26 Object detection device, periphery monitoring device, driving support system, and object detection method

Country Status (1)

Country Link
JP (1) JP5371273B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011099683A (en) * 2009-11-04 2011-05-19 Hitachi Automotive Systems Ltd Body detector
JP2013200255A (en) * 2012-03-26 2013-10-03 Fujitsu Ten Ltd Radar apparatus and target detection method
JP2013238452A (en) * 2012-05-14 2013-11-28 Honda Elesys Co Ltd Position information detection device, position information detection method, position information detection program, and operation control system
KR101371714B1 (en) 2008-06-25 2014-03-07 현대자동차(주) A collision damage mitigation system using both a lader and a camera
KR101619064B1 (en) 2014-09-26 2016-05-10 한화테크윈 주식회사 Target tracking method using active clutter map
JP2016223872A (en) * 2015-05-29 2016-12-28 三菱電機株式会社 Object Identification Device
JP2017187864A (en) * 2016-04-01 2017-10-12 株式会社デンソー Vehicle controller, vehicle control method
JP2017207348A (en) * 2016-05-18 2017-11-24 三菱電機株式会社 Radar device and sensor fusion device using the same
WO2018079252A1 (en) * 2016-10-27 2018-05-03 株式会社デンソー Object detecting device
KR101860194B1 (en) * 2016-03-24 2018-05-21 유한회사 밸류스트릿 Method for processing an object detected range
JP2018081050A (en) * 2016-11-18 2018-05-24 株式会社Soken Object detection device
KR101875517B1 (en) * 2016-12-16 2018-07-09 (주)넥스트칩 Method and apparatus for processing a image
JP2018163096A (en) * 2017-03-27 2018-10-18 沖電気工業株式会社 Information processing method and information processing device
JP2019178971A (en) * 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 Device, method, and program for generating environmental map
JP2019216502A (en) * 2018-06-11 2019-12-19 株式会社ダイヘン Object detection device, object detection method and object detection program
JP2020154758A (en) * 2019-03-20 2020-09-24 トヨタ自動車株式会社 Driving support device
CN114067608A (en) * 2020-08-06 2022-02-18 丰田自动车株式会社 Vehicle-mounted detection device and detection method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101917313B1 (en) 2017-01-26 2018-11-12 (주)더블유알티랩 Method and appratus for adaptively configuring threshold for object detectioin using radar

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214015A (en) * 1993-01-19 1994-08-05 Toyota Motor Corp Frequency modulation radar device
JP2004191131A (en) * 2002-12-10 2004-07-08 Denso Corp Method of, system for, and program for discriminating target
JP2006234513A (en) * 2005-02-23 2006-09-07 Toyota Central Res & Dev Lab Inc Obstruction detection system
JP2007232409A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Apparatus and method for detecting target
JP2009229374A (en) * 2008-03-25 2009-10-08 Fujitsu Ten Ltd Radar system, and azimuth angle detecting method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214015A (en) * 1993-01-19 1994-08-05 Toyota Motor Corp Frequency modulation radar device
JP2004191131A (en) * 2002-12-10 2004-07-08 Denso Corp Method of, system for, and program for discriminating target
JP2006234513A (en) * 2005-02-23 2006-09-07 Toyota Central Res & Dev Lab Inc Obstruction detection system
JP2007232409A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Apparatus and method for detecting target
JP2009229374A (en) * 2008-03-25 2009-10-08 Fujitsu Ten Ltd Radar system, and azimuth angle detecting method

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101371714B1 (en) 2008-06-25 2014-03-07 현대자동차(주) A collision damage mitigation system using both a lader and a camera
JP2011099683A (en) * 2009-11-04 2011-05-19 Hitachi Automotive Systems Ltd Body detector
JP2013200255A (en) * 2012-03-26 2013-10-03 Fujitsu Ten Ltd Radar apparatus and target detection method
JP2013238452A (en) * 2012-05-14 2013-11-28 Honda Elesys Co Ltd Position information detection device, position information detection method, position information detection program, and operation control system
KR101619064B1 (en) 2014-09-26 2016-05-10 한화테크윈 주식회사 Target tracking method using active clutter map
JP2016223872A (en) * 2015-05-29 2016-12-28 三菱電機株式会社 Object Identification Device
KR101860194B1 (en) * 2016-03-24 2018-05-21 유한회사 밸류스트릿 Method for processing an object detected range
JP2017187864A (en) * 2016-04-01 2017-10-12 株式会社デンソー Vehicle controller, vehicle control method
JP2017207348A (en) * 2016-05-18 2017-11-24 三菱電機株式会社 Radar device and sensor fusion device using the same
US11014566B2 (en) 2016-10-27 2021-05-25 Denso Corporation Object detection apparatus
CN109891262A (en) * 2016-10-27 2019-06-14 株式会社电装 Object detection device
JP2018072105A (en) * 2016-10-27 2018-05-10 株式会社Soken Object detection device
CN109891262B (en) * 2016-10-27 2022-11-11 株式会社电装 Object detecting device
WO2018079252A1 (en) * 2016-10-27 2018-05-03 株式会社デンソー Object detecting device
JP2018081050A (en) * 2016-11-18 2018-05-24 株式会社Soken Object detection device
KR101875517B1 (en) * 2016-12-16 2018-07-09 (주)넥스트칩 Method and apparatus for processing a image
JP7062878B2 (en) 2017-03-27 2022-05-09 沖電気工業株式会社 Information processing method and information processing equipment
JP2018163096A (en) * 2017-03-27 2018-10-18 沖電気工業株式会社 Information processing method and information processing device
JP2019178971A (en) * 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 Device, method, and program for generating environmental map
JP2019216502A (en) * 2018-06-11 2019-12-19 株式会社ダイヘン Object detection device, object detection method and object detection program
JP7043351B2 (en) 2018-06-11 2022-03-29 株式会社ダイヘン Object detection device, object detection method and object detection program
JP7147648B2 (en) 2019-03-20 2022-10-05 トヨタ自動車株式会社 Driving support device
JP2020154758A (en) * 2019-03-20 2020-09-24 トヨタ自動車株式会社 Driving support device
CN114067608A (en) * 2020-08-06 2022-02-18 丰田自动车株式会社 Vehicle-mounted detection device and detection method
CN114067608B (en) * 2020-08-06 2023-10-10 丰田自动车株式会社 Vehicle-mounted detection device and detection method

Also Published As

Publication number Publication date
JP5371273B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
JP5371273B2 (en) Object detection device, periphery monitoring device, driving support system, and object detection method
US10977944B2 (en) Apparatus and method for supporting collision avoidance of vehicle
US10697790B2 (en) Lane selecting device, vehicle control system and lane selecting method
JP4420011B2 (en) Object detection device
JP6435994B2 (en) In-vehicle device
JP5712119B2 (en) Pedestrian notification device for vehicles
JP2008037361A (en) Obstacle recognition device
CN112208533B (en) Vehicle control system, vehicle control method, and storage medium
US20190073540A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7413935B2 (en) In-vehicle sensor system
JP2006031162A (en) Moving obstacle detection device
JP2006318093A (en) Vehicular moving object detection device
JP2008204281A (en) Object detection device and inter-vehicle communication system
JP6129268B2 (en) Vehicle driving support system and driving support method
EP3453582A1 (en) Driving support apparatus
JP2005145282A (en) Vehicle running supporting device
JP4872517B2 (en) Obstacle recognition device
JP2010072947A (en) Obstacle detection device
JP2007212418A (en) On-vehicle radar device
JP5166975B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP2011258121A (en) Obstacle recognition device
JP2010018080A (en) Vehicular driving support device
JP5145138B2 (en) Driving support device, driving support control method, and driving support control processing program
JP2007188349A (en) Rear vehicle analyzer and collision predictor
JP7184951B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130917

R150 Certificate of patent or registration of utility model

Ref document number: 5371273

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees