JP2017009572A - On-vehicle radar device and area detection method - Google Patents

On-vehicle radar device and area detection method Download PDF

Info

Publication number
JP2017009572A
JP2017009572A JP2015198675A JP2015198675A JP2017009572A JP 2017009572 A JP2017009572 A JP 2017009572A JP 2015198675 A JP2015198675 A JP 2015198675A JP 2015198675 A JP2015198675 A JP 2015198675A JP 2017009572 A JP2017009572 A JP 2017009572A
Authority
JP
Japan
Prior art keywords
boundary
unit
estimated
frame
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015198675A
Other languages
Japanese (ja)
Other versions
JP6557923B2 (en
JP2017009572A5 (en
Inventor
浜田 麻子
Asako Hamada
麻子 浜田
西村 洋文
Hirofumi Nishimura
洋文 西村
真依子 鹿谷
Maiko Shikatani
真依子 鹿谷
聖峰 小林
Seiho Kobayashi
聖峰 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to US14/951,481 priority Critical patent/US10101448B2/en
Priority to EP15196636.3A priority patent/EP3032273A1/en
Publication of JP2017009572A publication Critical patent/JP2017009572A/en
Publication of JP2017009572A5 publication Critical patent/JP2017009572A5/ja
Application granted granted Critical
Publication of JP6557923B2 publication Critical patent/JP6557923B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an on-vehicle radar device that can stable tracking processing with respect to objects.SOLUTION: An on-vehicle radar device comprises: a transmission/reception unit 101 that transmits a radar signal and receives a reflection signal; a detection unit 102 that detects a boundary candidate location of an area in which objects do not exist, using the reflection signal; a calculation unit 103 that calculates an amount of movement of the on-vehicle radar device; an estimation unit 105 that converts the boundary candidate location detected in past frames into a boundary location in a current frame on the basis of data on the amount of movement, and estimates the converted boundary location as an estimation boundary location; and a smoothing unit 106 that calculates a boundary location with the area in which the objects do not exist, using the boundary candidate location and the estimation boundary location in the current frame.SELECTED DRAWING: Figure 3

Description

本開示は、車載レーダ装置及び領域検出方法に関する。   The present disclosure relates to an on-vehicle radar device and a region detection method.

近年、レーダ(例えば、ミリ波レーダ)によって、物体からの反射信号を受信し、車両周辺の物体を検出することにより、物体(例えば、車両又は歩行者)との衝突を防止する衝突防止システムが開発されている。   In recent years, a collision prevention system that prevents a collision with an object (for example, a vehicle or a pedestrian) by receiving a reflection signal from the object by a radar (for example, a millimeter wave radar) and detecting an object around the vehicle has been developed. Has been developed.

特許文献1には、車両に搭載されたレーダ装置が、車両周辺の反射点を検出し、反射点を含む所定の範囲(セグメント)を1つの物体としてグルーピングする方法が開示されている。レーダ装置は、グルーピングされたセグメントを、複数のフレームに渡って追従(トラッキング)する。   Patent Document 1 discloses a method in which a radar device mounted on a vehicle detects a reflection point around the vehicle and groups a predetermined range (segment) including the reflection point as one object. The radar apparatus tracks (tracks) the grouped segments over a plurality of frames.

特許第5206579号公報Japanese Patent No. 5206579

しかし、強反射物体である車両に加え、弱反射物体である歩行者又は路側物が検出対象である場合、従来のレーダ装置では、不要波(例えば、グランドクラッタ)と反射物体との切り分けが難しい。従来のレーダ装置は、不要波を除去するために、反射点の検出に用いるパワー閾値レベルを、高い値に設定する必要がある。これに対して、弱反射物体の反射信号は、例えば、フェージングの影響を受け易く、レーダ装置が受信するパワーレベルは不安定である。   However, when a pedestrian or roadside object that is a weak reflection object is a detection target in addition to a vehicle that is a strong reflection object, it is difficult to separate unnecessary waves (for example, ground clutter) from a reflection object in the conventional radar device. . A conventional radar apparatus needs to set a power threshold level used for detecting a reflection point to a high value in order to remove unnecessary waves. On the other hand, the reflected signal of the weakly reflecting object is easily affected by fading, for example, and the power level received by the radar apparatus is unstable.

このため、従来のレーダ装置は、パワー閾値レベルを高く設定することにより、検出対象である弱反射物体からの反射信号の受信パワーが閾値以下となる確率が高くなり、反射点の検出精度が劣化する。   For this reason, in the conventional radar apparatus, by setting the power threshold level high, there is a high probability that the reception power of the reflected signal from the weakly reflecting object to be detected is below the threshold, and the detection accuracy of the reflection point is deteriorated. To do.

特許文献1に示す、弱反射物体の反射信号を考慮しないレーダ装置は、物体毎に反射点をグルーピングする方法を用いる場合、弱反射物体を含む物体の検出処理が不安定であるため、対処が求められる。   The radar apparatus shown in Patent Document 1 that does not take into account the reflection signal of the weakly reflected object, when the method of grouping the reflection points for each object is used, the detection processing of the object including the weakly reflected object is unstable. Desired.

また、特許文献1におけるレーダ装置は、例えば、車両のようにサイズが、ある程度、規定できる物体が検出対象である。このため、特許文献1におけるレーダ装置は、サイズ、又は、区切りが規定し難い路側物に対して、サイズ情報を用いてグルーピング処理し、追従処理する場合に、フレーム間での同一物体の同定が不安定であるため、対処が求められる。   The radar apparatus disclosed in Patent Document 1 is an object to be detected, for example, an object whose size can be defined to some extent, such as a vehicle. For this reason, the radar apparatus in Patent Document 1 identifies the same object between frames when grouping processing is performed using size information for a roadside object whose size or separation is difficult to define, and tracking processing is performed. Because it is unstable, coping is required.

本開示の一態様の目的は、物体に対する安定した追従処理ができる車載レーダ装置を提供することである。   An object of one aspect of the present disclosure is to provide an in-vehicle radar device that can perform stable tracking processing on an object.

本開示の一態様に係る車載レーダ装置は、検知範囲に対してレーダ信号をフレーム毎に送信し、前記レーダ信号が1つ以上の物体に反射された1つ以上の反射信号を受信する送受信部と、前記検知範囲内の各方位において、前記1つ以上の反射信号に基づいて検知される1つ以上の反射点のうち、車載レーダ装置からの距離が最も近い反射点の位置を、前記検知範囲内において前記1つ以上の物体が存在しない領域の境界候補位置として、前記フレーム毎に検出する検出部と、前記車載レーダ装置の移動量に関する移動量データを計算する計算部と、前記移動量データに基づいて、過去のフレームにおいて検出された前記境界候補位置を現フレームでの境界位置に変換することによって、推定された推定境界位置を生成する推定部と、前記現フレームの前記境界候補位置と前記推定境界位置とを用いてスムージング処理し、前記検知範囲内において前記1つ以上の物体が存在しない領域との境界位置を算出するスムージング部と、を具備する構成を採る。   A vehicle-mounted radar device according to one aspect of the present disclosure transmits / receives a radar signal to a detection range for each frame, and receives one or more reflected signals reflected by one or more objects. And, in each direction within the detection range, among the one or more reflection points detected based on the one or more reflection signals, the position of the reflection point closest to the on-vehicle radar device is detected. As a boundary candidate position of a region where the one or more objects do not exist within a range, a detection unit that detects each frame, a calculation unit that calculates movement amount data related to the movement amount of the in-vehicle radar device, and the movement amount An estimation unit that generates an estimated estimated boundary position by converting the boundary candidate position detected in a past frame into a boundary position in a current frame based on the data; and And a smoothing unit that performs a smoothing process using the boundary candidate position of the frame and the estimated boundary position, and calculates a boundary position with an area where the one or more objects do not exist within the detection range. take.

本開示の一態様に係る領域検出方法は、検知範囲に対してレーダ信号をフレーム毎に送信し、前記レーダ信号が1つ以上の物体に反射された1つ以上の反射信号を受信し、前記検知範囲内の各方位において、前記1つ以上の反射信号に基づいて検知される1つ以上の反射点のうち、車載レーダ装置からの距離が最も近い反射点の位置を、前記検知範囲内において前記1つ以上の物体が存在しない領域の境界候補位置として、フレーム毎に検出し、前記車載レーダ装置の移動量に関する移動量データを計算し、前記移動量データに基づいて、過去のフレームにおいて検出された前記境界候補位置を現フレームでの境界位置に変換することによって、推定された推定境界位置を生成し、前記現フレームの前記境界候補位置と前記推定境界位置とを用いてスムージング処理し、前記検知範囲内において物体が存在しない領域との境界位置を算出する。   In the region detection method according to an aspect of the present disclosure, a radar signal is transmitted to a detection range for each frame, and the radar signal receives one or more reflected signals reflected by one or more objects, Among each of the one or more reflection points detected based on the one or more reflection signals in each azimuth within the detection range, the position of the reflection point closest to the in-vehicle radar device is determined within the detection range. Detected for each frame as a boundary candidate position of the area where the one or more objects do not exist, calculates movement amount data related to the movement amount of the in-vehicle radar device, and detects in a past frame based on the movement amount data The estimated boundary position is generated by converting the determined boundary candidate position into a boundary position in the current frame, and the boundary candidate position and the estimated boundary position in the current frame are There smoothing processing, and calculates the boundary position between the region where no object exists within the detection range.

本開示の一態様によれば、境界候補位置のスムージング処理を用いるため、物体に対する安定した追従処理ができる。   According to one aspect of the present disclosure, since the smoothing process of the boundary candidate position is used, a stable tracking process for an object can be performed.

複数のフレームに渡って物体を追従する動作の一例を示す図The figure which shows an example of the operation | movement which tracks an object over several frames 複数のフレームに渡って物体を追従する動作の他の一例を示す図The figure which shows another example of the operation | movement which tracks an object over several frames. 車両周辺の物体を示す図Diagram showing objects around the vehicle クリアランス領域を示す図Diagram showing clearance area 本開示の実施の形態1に係るレーダ装置の構成例を示す図The figure which shows the structural example of the radar apparatus which concerns on Embodiment 1 of this indication. 本開示の実施の形態1に係る境界推定処理の一例を示す図The figure which shows an example of the boundary estimation process which concerns on Embodiment 1 of this indication 本開示の実施の形態1に係るレーダ装置の動作を示すフロー図Flow chart showing the operation of the radar apparatus according to the first embodiment of the present disclosure. 現フレームのレーダプロファイルを示す図Diagram showing the radar profile of the current frame 現フレームの境界候補情報に示される境界候補位置(選択セル)を示す図The figure which shows the boundary candidate position (selected cell) shown by the boundary candidate information of the present frame 前フレームの境界候補位置(選択セル)を示す図The figure which shows the boundary candidate position (selected cell) of a front frame 現フレームの推定境界情報に示される推定境界位置(推定セル)を示す図The figure which shows the estimated boundary position (estimated cell) shown in the estimated boundary information of the current frame 境界候補情報と推定境界情報との合成を示す図Diagram showing composition of boundary candidate information and estimated boundary information 現フレームの境界情報を示す図Figure showing boundary information of the current frame 対象方位×対象境界情報のマトリクスを示す図The figure which shows the matrix of object direction x object boundary information 有効位置リストを示す図Figure showing the effective position list ソート後の有効位置リストを示す図Figure showing the list of valid positions after sorting 車両周辺の物体を示す図Diagram showing objects around the vehicle クリアランス領域を示す図Diagram showing clearance area 本開示の実施の形態2に係るレーダ装置の構成例を示す図The figure which shows the structural example of the radar apparatus which concerns on Embodiment 2 of this indication. 移動する車両と静止物から得られるドップラ補正値との関係を示す図The figure which shows the relationship between the moving vehicle and the Doppler correction value obtained from a stationary object 現フレームのレーダプロファイルを示す図Diagram showing the radar profile of the current frame 現フレームの静止物体境界候補情報に示される静止物体境界候補位置(選択セル)を示す図The figure which shows the stationary object boundary candidate position (selected cell) shown by the stationary object boundary candidate information of the present frame 前フレームの静止物体境界候補位置(選択セル)を示す図The figure which shows the stationary object boundary candidate position (selected cell) of the front frame 現フレームの推定静止物体境界情報に示される推定境界位置(推定セル)を示す図The figure which shows the estimated boundary position (estimated cell) shown in the estimated stationary object boundary information of the current frame 静止物体境界候補情報と静止物体推定境界情報との合成を示す図Diagram showing synthesis of stationary object boundary candidate information and stationary object estimated boundary information 現フレームの静止物体境界情報を示す図The figure which shows the stationary object boundary information of the present frame 現フレームのレーダプロファイルを示す図Diagram showing the radar profile of the current frame 移動物体の検出結果を示す図The figure which shows the detection result of the moving object 前フレームの静止物体境界情報を示す図The figure which shows the stationary object boundary information of the front frame 本開示の実施の形態3に係る車両周辺の物体を示す図The figure which shows the object around the vehicle which concerns on Embodiment 3 of this indication 本開示の実施の形態3に係る物体認識装置の構成例を示す図The figure which shows the structural example of the object recognition apparatus which concerns on Embodiment 3 of this indication. ラスタキャン方法を示す図Diagram showing the raster can method 物体認識領域情報を示す図Diagram showing object recognition area information 現フレームの静止物体境界情報を示す図The figure which shows the stationary object boundary information of the present frame

[本開示の一態様をするに至った経緯]
図1Aは、特許文献1において、レーダ装置が、物体(セグメント)を検出し、複数のフレームに渡って物体を追従する動作の一例を示す図である。図1Aにおいて、横軸はレーダ装置が測定した方位(図1Aでは正面方向から右側方向の範囲)を表し、縦軸はレーダ装置からの距離を表し、各マス目(以下、「セル」と称する)では、対応する方位及び距離の位置における反射強度(パワー)が表わされる。
[Background to Aspect of the Present Disclosure]
FIG. 1A is a diagram illustrating an example of an operation in which a radar apparatus detects an object (segment) and follows the object over a plurality of frames in Patent Document 1. 1A, the horizontal axis represents the direction measured by the radar apparatus (in FIG. 1A, the range from the front direction to the right direction), the vertical axis represents the distance from the radar apparatus, and each square (hereinafter referred to as “cell”). ) Represents the reflection intensity (power) at the position of the corresponding azimuth and distance.

図1Aでは、まず、レーダ装置は、各フレームにおいて、所定の条件に基づいて反射点の中から代表点のセルを決定する。次いで、レーダ装置は、各代表点に対して設定されたセグメントの領域内に含まれる他の反射点をセグメントのメンバのセルとしてグルーピングする。各セグメントには、互いに異なるグループIDが付されている。すなわち、レーダ装置は、代表点のセル及びメンバのセルを含むセグメント(ただし、メンバのセルを含まない場合もある)を1つの物体として検出する。   In FIG. 1A, the radar apparatus first determines a representative point cell from the reflection points in each frame based on a predetermined condition. Next, the radar apparatus groups other reflection points included in the segment area set for each representative point as a cell of a segment member. Each segment has a different group ID. That is, the radar apparatus detects a segment including a representative point cell and a member cell (however, a member cell may not be included) as one object.

図1Aでは、レーダ装置は、各フレームにおいて、前フレームにおいて検出されたセグメントと同一のセグメントに対してグループIDを引き継ぐことにより(セグメントの対応付け)、物体を追従する。例えば、レーダ装置は、検索範囲内に、代表点が存在するかによって、同一セグメントの有無を判断する。図1Aでは、追従結果として、レーダ装置は、前フレームにおいて検出された4つのセグメントA〜Dのうち、3つのセグメントA〜Cを、現フレームにおいて追従する(継続グループ:3個)。   In FIG. 1A, the radar apparatus follows an object in each frame by taking over the group ID for the same segment as that detected in the previous frame (segment association). For example, the radar apparatus determines the presence or absence of the same segment depending on whether a representative point exists within the search range. In FIG. 1A, as a tracking result, the radar apparatus tracks three segments A to C in the current frame among the four segments A to D detected in the previous frame (continuation group: 3).

従来のレーダ装置は、監視対象が車両であるため、強反射波を抽出すればよく、かつ、反射波の出力位置は、スパース(疎)である。また、従来のレーダ装置は、監視対象に歩行者を含まない場合、例えば、車両のサイズ、又は、車線の情報を用いることにより、同一の車両からの反射波を同一セグメントとしてグルーピングすることは比較的容易である。   In the conventional radar apparatus, since the monitoring target is a vehicle, it is only necessary to extract a strong reflected wave, and the output position of the reflected wave is sparse. In addition, when a conventional radar apparatus does not include a pedestrian as a monitoring target, for example, using a vehicle size or lane information to group reflected waves from the same vehicle into the same segment is compared. Easy.

レーダ装置において、監視対象が車両及び歩行者である場合には、歩行者周辺の状況、例えば、車両と歩行者との間に障害物(例えば、植え込み、ガードレール)が存在するか否によって、歩行者に対する監視重要度が異なる。このため、歩行者を監視対象に含める場合には、路側物の検出も実施する必要がある。   In the radar device, when the monitoring target is a vehicle and a pedestrian, walking depends on the situation around the pedestrian, for example, whether there is an obstacle (for example, implantation, guardrail) between the vehicle and the pedestrian. The monitoring importance for the person is different. For this reason, when a pedestrian is included in the monitoring target, it is necessary to detect a roadside object.

従来のレーダ装置の監視対象が歩行者又は路側物である場合、次のような問題が発生する。   When the monitoring target of the conventional radar apparatus is a pedestrian or a roadside object, the following problem occurs.

従来のレーダ装置は、歩行者又は路側物を含む弱反射波と、例えば、グランドクラッタの不要波との切り分けは困難である。弱反射波の検出対象物を全て検出するめたには、検出用閾値を低く設定する必要がある。このため、従来のレーダ装置は、所望の検出対象物以外に、不要波も検出する。不要波の検出は、誤検出の原因であり、レーダ装置の後段処理に負荷を強いる。このため、レーダ装置の検出結果を入力とするアプリケーションの性能低下などの不都合が発生する。検出用閾値は、過度に低く設定することは困難であり、その結果、従来のレーダ装置は、検出対象の検出が不安定になる。例えば、従来のレーダ装置は、前フレームでは検出されなかった反射点が現フレームにおいて新たに検出されるケース(又はその逆のケース)が生じ易い。   In the conventional radar apparatus, it is difficult to separate weakly reflected waves including pedestrians or roadside objects from unnecessary waves of, for example, ground clutter. In order to detect all detection objects of weak reflected waves, it is necessary to set the detection threshold value low. For this reason, the conventional radar apparatus detects unnecessary waves in addition to the desired detection target. The detection of unnecessary waves is a cause of erroneous detection and imposes a load on the subsequent processing of the radar apparatus. For this reason, inconveniences such as degradation in the performance of an application that receives the detection result of the radar apparatus occur. It is difficult to set the detection threshold value too low. As a result, the conventional radar apparatus becomes unstable in detecting the detection target. For example, in the conventional radar apparatus, a case where a reflection point that has not been detected in the previous frame is newly detected in the current frame (or the reverse case) easily occurs.

図1Bは、複数のフレームに渡って物体を追従する動作の他の一例を示す。例えば、図1Bは、前フレームにおいて4つのセグメントA〜Dが検出され、現フレームでは、前フレームの4つのセグメントのうち3つのセグメントA〜Cが再度検出され、残りのセグメントDがフレームアウトし(現フレームでは対応するセグメント無し)、かつ、新たな代表点によるセグメントEが1つ増加検出された状態を示す。   FIG. 1B shows another example of the operation of following an object over a plurality of frames. For example, FIG. 1B shows that four segments A to D are detected in the previous frame, three segments A to C of the four segments of the previous frame are detected again in the current frame, and the remaining segment D is framed out. (No corresponding segment in the current frame) and a state where one more segment E is detected by a new representative point.

図1Bでは、従来のレーダ装置は、前フレームと現フレームとの間の追従処理(セグメントの対応付け)において、セグメントEの発生によって、異なるセグメント同士を、同一セグメント(同一グループID)として、対応付ける。   In FIG. 1B, the conventional radar apparatus associates different segments as the same segment (same group ID) due to the occurrence of segment E in the tracking process (segment association) between the previous frame and the current frame. .

図1Bに示す現フレームでは、前フレームにおける3つのセグメントA〜Cが、現フレームの3つのセグメントA〜Cとして追従され、現フレームのセグメントEは新たなセグメントとして出力されず、前フレームのセグメントCが、現フレームのセグメントEに誤って対応付けられ、前フレームのセグメントDが、現フレームのセグメントCに誤って対応付けられ、4つのセグメントA〜Dが追従処理の結果として出力される。   In the current frame shown in FIG. 1B, the three segments A to C in the previous frame are tracked as the three segments A to C of the current frame, and the segment E of the current frame is not output as a new segment. C is erroneously associated with the segment E of the current frame, the segment D of the previous frame is erroneously associated with the segment C of the current frame, and four segments A to D are output as a result of the follow-up process.

従来のレーダ装置は、物体の検出精度が不十分であるため、物体がレーダ装置の検知範囲に、入ってから出ていくまでの間に、例えば、グループIDの付与間違い、フレームアウトしたセグメントの誤検出が発生し、物体の追従が不安定な状態である。   Since the conventional radar apparatus has insufficient object detection accuracy, for example, when an object enters the detection range of the radar apparatus and leaves the object, for example, a group ID is incorrectly assigned or a segment out of the frame is detected. False detection occurs and object tracking is unstable.

更に、路側物(例えば、植え込み又はガードレール)は、様々な形状、サイズが想定されるので、車両のように所定のサイズを物体の領域(セグメント領域)として規定することは困難である。   Furthermore, since various shapes and sizes of roadside objects (for example, planting or guardrails) are assumed, it is difficult to define a predetermined size as an object region (segment region) like a vehicle.

このため、特許文献1のように、予め蓄積した検出対象の物体のサイズ(セグメント領域)を用いて、反射点を個々の物体毎に検出する方法では、蓄積した物体のサイズと異なる物体に対してグループIDを引き継ぐ場合に、候補となるセグメント領域が多く存在するため、グループIDの引き継ぎ(対応付け)に間違いが発生し易く、追従処理が不安定である。   For this reason, as in Patent Document 1, in the method of detecting the reflection point for each individual object using the size (segment area) of the detection target object accumulated in advance, the object different from the accumulated object size is detected. In this case, since there are many candidate segment areas when taking over the group ID, mistakes are likely to occur in taking over (associating) the group ID, and the tracking process is unstable.

本開示に係る一態様は、かかる課題を解決するものであって、レーダによる反射物体の検出精度を向上させ、物体に対する安定した追従処理を目的とする。   One aspect according to the present disclosure solves such a problem, and aims to improve the detection accuracy of a reflection object by a radar and perform stable tracking processing on the object.

(実施の形態1)
以下、本開示の実施の形態について図面を参照して詳細に説明する。
(Embodiment 1)
Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.

[レーダ装置100の構成]
本開示の実施の形態に係るレーダ装置100は、図2Aに示す車両に搭載される。
[Configuration of Radar Device 100]
The radar apparatus 100 according to the embodiment of the present disclosure is mounted on the vehicle illustrated in FIG. 2A.

レーダ装置100は、搭載された車両の周辺(例えば、前方、前側方)に存在する物体(他の車両、歩行者、路側物)を検出し、検出した情報に基づいて、車両周辺の物体(すなわち、障害物)が存在しない領域(以下、「クリアランス領域」と称する)を決定する(例えば、図2Bを参照。詳細は後述する)。なお、路側物は、例えば、ガードレール、樹木を含む。   The radar apparatus 100 detects an object (another vehicle, a pedestrian, a roadside object) existing around a mounted vehicle (for example, the front side or the front side), and based on the detected information ( That is, a region where no obstacle is present (hereinafter referred to as “clearance region”) is determined (see, for example, FIG. 2B, details will be described later). In addition, a roadside thing contains a guardrail and a tree, for example.

レーダ装置100は、例えば、決定したクリアランス領域の情報を、例えば、運転支援装置としての衝突防止装置(図示せず)へ提供する。なお、レーダ装置100は、クリアランス領域に加え、移動物体(例えば、車両、歩行者)を別の方法を用いて検出してもよい(図2Bを参照)。   For example, the radar apparatus 100 provides information on the determined clearance area to, for example, a collision prevention apparatus (not shown) as a driving support apparatus. In addition to the clearance area, the radar apparatus 100 may detect a moving object (for example, a vehicle or a pedestrian) using another method (see FIG. 2B).

図3は、レーダ装置100の構成例を示すブロック図である。図3に示すレーダ装置100は、送受信部101、境界検出部102、移動量計算部103、バッファ104、境界推定部105、スムージング部106を備える。   FIG. 3 is a block diagram illustrating a configuration example of the radar apparatus 100. 3 includes a transmission / reception unit 101, a boundary detection unit 102, a movement amount calculation unit 103, a buffer 104, a boundary estimation unit 105, and a smoothing unit 106.

送受信部101は、ミリ波レーダを用いて生成されたレーダ信号を送信アンテナから所定の方位に対して(所定の角度毎に)送信し、各方位に存在する各物体によって反射されたレーダ信号を反射信号として受信アンテナにおいて受信する。また、送受信部101は、反射信号を用いて反射点を検知し、検知した反射点を表す反射点情報を生成する。反射点情報として、例えば、距離、方位、相対速度、反射強度を含む。送受信部101は、フレーム毎に生成した反射点情報(レーダプロファイルと称する)を境界検出部102へ出力する。   The transmission / reception unit 101 transmits a radar signal generated by using a millimeter wave radar from a transmission antenna to a predetermined direction (for each predetermined angle), and transmits a radar signal reflected by each object existing in each direction. Received as a reflected signal at the receiving antenna. Further, the transmission / reception unit 101 detects a reflection point using the reflection signal, and generates reflection point information representing the detected reflection point. The reflection point information includes, for example, distance, azimuth, relative speed, and reflection intensity. The transmission / reception unit 101 outputs reflection point information (referred to as a radar profile) generated for each frame to the boundary detection unit 102.

境界検出部102は、送受信部101から入力された各フレームの反射点情報を用いて、車両周辺の物体が存在しない領域(クリアランス領域)との境界となる反射点の位置(以下、境界候補位置と呼ぶ)を検出する。   The boundary detection unit 102 uses the reflection point information of each frame input from the transmission / reception unit 101, and the position of a reflection point that becomes a boundary with a region (clearance region) where no object around the vehicle exists (hereinafter referred to as a boundary candidate position). Called).

境界検出部102は、レーダ装置100の検知範囲内の各方位において、反射点情報に示される反射点のうち、レーダ装置100からの距離が最も近い反射点の位置を、各方位における境界候補位置としてフレーム毎に検出する。つまり、境界検出部102は、クリアランス領域と物体が存在する領域との境界の候補を検出する。例えば、境界検出部102は、補間処理として、評価対象セル(評価対象となる反射点)の複数の周辺セルの情報を用い、複数の周辺セル中にパワー閾値を超えるセル数の割合が一定以上あれば、評価対象セルを境界候補して検出しても良い。   The boundary detection unit 102 determines the position of the reflection point having the closest distance from the radar device 100 among the reflection points indicated by the reflection point information in each direction within the detection range of the radar device 100 as the boundary candidate position in each direction. Is detected for each frame. That is, the boundary detection unit 102 detects a boundary candidate between the clearance area and the area where the object exists. For example, the boundary detection unit 102 uses information on a plurality of peripheral cells of the evaluation target cell (reflection point to be evaluated) as an interpolation process, and the ratio of the number of cells exceeding the power threshold in the plurality of peripheral cells is a certain level or more. If there is, the evaluation target cell may be detected as a boundary candidate.

なお、境界候補位置は、最も近い反射点でなくてもよく、複数のフレームにおいて、平均化処理した後の反射点でもよい。   The boundary candidate position may not be the closest reflection point, but may be a reflection point after averaging processing in a plurality of frames.

境界検出部102は、検出した境界候補位置を示す境界候補情報をバッファ104及びスムージング部106へ出力する。なお、境界候補情報は、例えば、送受信部101のレーダ座標系によって表される。   The boundary detection unit 102 outputs boundary candidate information indicating the detected boundary candidate position to the buffer 104 and the smoothing unit 106. In addition, boundary candidate information is represented by the radar coordinate system of the transmission / reception part 101, for example.

移動量計算部103は、例えば、センサ(図示せず)によって検知された車両の速度及び舵角の情報から算出した車両の移動量に関する車両移動データ(例えば、車速及び方位)、及び、車両に搭載されたレーダ装置100の設置情報を用いて、レーダ装置100の移動データ(例えば、レーダ装置100の移動速度およびレーダ装置100の移動方位)を計算する。レーダ装置100の移動データは、例えば、フレーム単位によって計算される。移動量計算部103は、レーダ装置100の移動データ及び車両移動データを含む移動情報をバッファ104に出力する。   The movement amount calculation unit 103 includes, for example, vehicle movement data (for example, vehicle speed and azimuth) relating to the movement amount of the vehicle calculated from the vehicle speed and steering angle information detected by a sensor (not shown), and the vehicle. Using the installation information of the mounted radar device 100, the movement data of the radar device 100 (for example, the moving speed of the radar device 100 and the moving direction of the radar device 100) is calculated. The movement data of the radar apparatus 100 is calculated in units of frames, for example. The movement amount calculation unit 103 outputs movement information including movement data of the radar device 100 and vehicle movement data to the buffer 104.

尚、車両移動データの算出は、車両の速度及び舵角の情報から計算される方法に限定するものではなく、ジャイロセンサ、又は、加速度センサの情報を利用して計算されても良いし、参考特許文献1の記載に基づいて、他のセンサ情報を用いずにレーダ装置100が受信する周囲の反射波から静止物の反射波を特定して算出されてもよい(参考特許文献1: 国際公開第2015/037173号)。   Note that the calculation of the vehicle movement data is not limited to the method calculated from the vehicle speed and steering angle information, and may be calculated using the information of the gyro sensor or the acceleration sensor. Based on the description in Patent Document 1, it may be calculated by specifying the reflected wave of a stationary object from the surrounding reflected waves received by the radar apparatus 100 without using other sensor information (Reference Patent Document 1: International Publication). 2015/037173).

バッファ104は、境界検出部102から入力される境界候補情報、及び、移動量計算部103から入力される移動情報を格納(記憶)する。なお、過去フレームは1つとは限らず複数フレーム前からの過去フレーム群であっても良く、バッファ104に過去フレーム群を保管する場合は、移動情報もペアリング(関連付け)し、保管する。また、バッファ104は、格納されている過去フレームの境界候補情報及び移動情報を境界推定部105へ出力する。   The buffer 104 stores (stores) boundary candidate information input from the boundary detection unit 102 and movement information input from the movement amount calculation unit 103. Note that the number of past frames is not limited to one, and may be a past frame group from a plurality of previous frames. When the past frame group is stored in the buffer 104, the movement information is also paired (associated) and stored. Further, the buffer 104 outputs the stored boundary candidate information and movement information of the past frame to the boundary estimation unit 105.

境界推定部105は、過去フレームの境界候補情報、及び、過去フレームから現フレームまでの車両の移動状況を表す移動情報が入力される。境界推定部105は、過去フレームの境界候補情報と移動情報とに基づいて、現フレームにおけるレーダ装置100からの距離が最も近い反射点の位置を、推定境界位置として推定する。   The boundary estimation unit 105 is input with boundary candidate information of the past frame and movement information indicating the movement state of the vehicle from the past frame to the current frame. The boundary estimation unit 105 estimates the position of the reflection point having the closest distance from the radar apparatus 100 in the current frame as the estimated boundary position based on the boundary candidate information and movement information of the past frame.

図4に境界推定処理の一例を示す。境界推定部105は、過去フレームにおける境界候補位置を、過去フレームから現フレームまでのレーダ装置100の移動情報(例えば、方位、距離)に応じて移動させた位置を計算する。そして、境界推定部105は、計算した位置を現フレームのレーダ座標系における位置に変換し、変換後の位置を現フレームの推定境界位置(白三角△)に設定する。   FIG. 4 shows an example of the boundary estimation process. The boundary estimation unit 105 calculates a position where the boundary candidate position in the past frame is moved according to the movement information (for example, azimuth and distance) of the radar apparatus 100 from the past frame to the current frame. Then, the boundary estimation unit 105 converts the calculated position into a position in the radar coordinate system of the current frame, and sets the converted position as the estimated boundary position (white triangle Δ) of the current frame.

なお、過去フレームの境界候補位置が連続的に出力され、かつ、現フレームへの変換後の位置において連続性が失われた方位(白四角□)には、現フレームでも連続した境界位置として出力するために、境界推定部105は、例えば、線形補間の手法を用いて補間処理する。例えば、両サイド方位における距離の平均値を用いる。   In addition, the boundary candidate position of the past frame is output continuously, and in the direction (white square □) where continuity is lost at the position after conversion to the current frame, it is output as the continuous boundary position even in the current frame. In order to do this, the boundary estimation unit 105 performs an interpolation process using, for example, a linear interpolation method. For example, an average value of distances in both side directions is used.

また、境界推定部105は、過去フレームにて境界位置が存在しなかった方位(バツ印×)は、現フレームへの変換後の方位において、例えば、「値不定」の情報を付与する。同様に、境界推定部105は、移動情報により新たにフレームインした方位(バツ印×)においても、例えば、「値不定」の情報を付与する。   Further, the boundary estimation unit 105 assigns, for example, “value indefinite” information to the azimuth (cross mark x) where the boundary position does not exist in the past frame in the azimuth after conversion to the current frame. Similarly, the boundary estimation unit 105 also assigns “value indefinite” information, for example, to the direction (cross mark x) newly framed in by the movement information.

境界推定部105は、過去フレーム群を用いる場合は、過去フレームから1フレーム毎に次フレームでの推定境界位置を算出する。境界推定部105は、算出結果を元に次フレームの推定境界位置を算出し、現フレームでの推定境界位置を算出するまで再帰的に境界推定処理を繰り返す。これにより過去フレーム群がN個存在する場合は、N個の推定境界情報が出力される。   When the past frame group is used, the boundary estimation unit 105 calculates an estimated boundary position in the next frame for each frame from the past frame. The boundary estimation unit 105 calculates the estimated boundary position of the next frame based on the calculation result, and repeats the boundary estimation process recursively until the estimated boundary position in the current frame is calculated. As a result, when there are N past frame groups, N pieces of estimated boundary information are output.

境界推定部105は、推定境界位置を示す1つもしくは複数の推定境界情報をスムージング部106に出力する。   The boundary estimation unit 105 outputs one or more pieces of estimated boundary information indicating the estimated boundary position to the smoothing unit 106.

スムージング部106は、境界検出部102から入力される境界候補情報(現フレームにおいて送受信部101により検出された境界位置を示す情報)、及び、境界推定部105から入力される推定境界情報(過去フレームから推定された現フレームの境界位置を示す情報の1つ以上)に対してスムージング処理(合成処理)し、車両周辺の物体が存在しない領域(クリアランス領域)との境界位置を算出する。スムージング部106は、算出された境界位置を示す境界情報を出力する。   The smoothing unit 106 receives boundary candidate information (information indicating the boundary position detected by the transmission / reception unit 101 in the current frame) input from the boundary detection unit 102 and estimated boundary information (past frame) input from the boundary estimation unit 105. Smoothing processing (combination processing) is performed on one or more pieces of information indicating the boundary position of the current frame estimated from (1), and a boundary position with an area (clearance area) where no object exists around the vehicle is calculated. The smoothing unit 106 outputs boundary information indicating the calculated boundary position.

スムージング部106は、境界候補情報及び推定境界情報の各々に示される反射点の位置(つまり、レーダ装置100からの距離)の平均値又は加重平均値を現フレームの境界位置として方位毎に算出してもよい。   The smoothing unit 106 calculates the average value or the weighted average value of the positions of the reflection points (that is, the distance from the radar apparatus 100) indicated in each of the boundary candidate information and the estimated boundary information as the boundary position of the current frame for each direction. May be.

スムージング処理とは、例えば、スムージング部106が、境界候補情報及び推定境界情報各々において方位毎に境界位置の有無を求める。スムージング部106は、境界候補情報又は推定境界情報に対し、予め設定された尤度重みを用いて尤度値を算出し、尤度値が所定の閾値以上である場合、境界位置が存在すると判定する。   In the smoothing process, for example, the smoothing unit 106 obtains the presence / absence of a boundary position for each azimuth in each of the boundary candidate information and the estimated boundary information. The smoothing unit 106 calculates a likelihood value using preset likelihood weights for the boundary candidate information or the estimated boundary information, and determines that a boundary position exists when the likelihood value is equal to or greater than a predetermined threshold. To do.

また、スムージング部106は、境界候補情報及び推定境界情報各々において方位毎に境界位置が存在する場合に、予め設定された出力値重みを用いて、境界候補情報及び推定境界情報各々における境界位置の距離に重み付けし、加重平均を用いて出力距離を算出する。   Further, when there is a boundary position for each azimuth in each of the boundary candidate information and the estimated boundary information, the smoothing unit 106 uses the preset output value weight to determine the boundary position in each of the boundary candidate information and the estimated boundary information. The distance is weighted, and the output distance is calculated using the weighted average.

つまり、スムージング部106は、尤度値を用いて判定した境界位置の有無により境界位置が存在すると判定された場合に、出力距離を境界位置として出力する。   That is, the smoothing unit 106 outputs the output distance as the boundary position when it is determined that the boundary position exists based on the presence / absence of the boundary position determined using the likelihood value.

なお、上記のスムージング部106の処理は一例であり、別な方法で境界位置を導いても良い。例えば、スムージング部106は、境界候補情報又は推定境界情報において、抽出対象である注目方位および注目方位の左右に隣接する左右方位における境界位置の距離を抽出し、抽出した距離を昇順に並び替える。スムージング部106は、並び替えた後、中央値となる距離を注目方位に対する境界位置の距離として出力する。詳細についは、後述する。   Note that the processing of the smoothing unit 106 described above is an example, and the boundary position may be derived by another method. For example, the smoothing unit 106 extracts, in the boundary candidate information or the estimated boundary information, the target orientation to be extracted and the distance between the boundary positions in the left and right directions adjacent to the left and right of the target orientation, and rearranges the extracted distances in ascending order. After the rearrangement, the smoothing unit 106 outputs the distance that is the median value as the distance of the boundary position with respect to the target azimuth. Details will be described later.

これにより、レーダ装置100は、検知範囲において各方位の境界位置を連結又は補間することによって形成される境界線(車両からの距離が最も近い反射点の位置)と、車両との間の領域を、クリアランス領域として特定する(例えば、図2Bを参照)。   As a result, the radar apparatus 100 determines the area between the boundary line (the position of the reflection point closest to the vehicle) formed by connecting or interpolating the boundary position of each direction in the detection range and the vehicle. , As a clearance area (see, for example, FIG. 2B).

[レーダ装置100の動作]
次に、上述したレーダ装置100の動作例について図5及び図6A〜図6Fを用いて詳細に説明する。
[Operation of Radar Device 100]
Next, an operation example of the above-described radar apparatus 100 will be described in detail with reference to FIGS. 5 and 6A to 6F.

図5は、レーダ装置100の動作の流れを示すフロー図である。   FIG. 5 is a flowchart showing an operation flow of the radar apparatus 100.

また、図6A〜図6Fは、レーダ装置100の各構成部において得られる情報をレーダ座標系において表した図である。図6A〜図6Fでは、一例として、方位(横軸)が10セルであり、距離(縦軸)が8セルである。すなわち、図6A〜図6Fでは、送受信部101において反射点がセル単位に検出される。また、図6A〜図6Fでは、過去フレームの一例として、現フレームの1つ前のフレーム(前フレーム)が過去フレームである。   6A to 6F are diagrams showing information obtained in each component of the radar apparatus 100 in the radar coordinate system. In FIGS. 6A to 6F, as an example, the orientation (horizontal axis) is 10 cells, and the distance (vertical axis) is 8 cells. That is, in FIGS. 6A to 6F, the transmission / reception unit 101 detects the reflection point for each cell. In FIGS. 6A to 6F, as an example of the past frame, the frame immediately before the current frame (previous frame) is the past frame.

図5において、ステップ(以下、単に「ST」と表す)101では、送受信部101は、レーダ検知範囲(例えば、図2Aを参照)におけるレーダプロファイルをフレーム毎に算出する。図6A〜図6Fでは、送受信部101は、反射強度(パワー)が所定の閾値以上である反射点が存在するセルを有力セルとして表したレーダプロファイルを生成する。   In FIG. 5, in step (hereinafter simply referred to as “ST”) 101, transmission / reception section 101 calculates a radar profile in the radar detection range (for example, see FIG. 2A) for each frame. In FIG. 6A to FIG. 6F, the transmission / reception unit 101 generates a radar profile in which a cell having a reflection point whose reflection intensity (power) is equal to or greater than a predetermined threshold is represented as a dominant cell.

ST102では、境界検出部102は、ST101において生成されたレーダプロファイルに基づいて、レーダ装置100からの距離が最も近い反射点(セル)の位置を境界候補位置として検出する。図6A〜図6Fでは、境界検出部102は、各方位において、レーダプロファイルに示される反射点(有力セル)のうち、レーダ装置100からの距離が最も近い反射点の位置を選択セルとして検出する。境界検出部102は、反射点が存在しない場合でも周辺セルの情報を用いて反射点(有力セル)であるかを判定しても良い。図6A〜図6Fでは、境界検出部102は、方位毎に検出した反射点(選択セル)の位置を境界候補位置として表した境界候補情報を生成する。   In ST102, the boundary detection unit 102 detects the position of the reflection point (cell) that is closest to the radar apparatus 100 as a boundary candidate position based on the radar profile generated in ST101. 6A to 6F, the boundary detection unit 102 detects, as a selected cell, the position of the reflection point that is closest to the radar apparatus 100 among the reflection points (potential cells) indicated in the radar profile in each direction. . The boundary detection unit 102 may determine whether the point is a reflection point (potential cell) by using information on neighboring cells even when there is no reflection point. 6A to 6F, the boundary detection unit 102 generates boundary candidate information that represents the position of the reflection point (selected cell) detected for each azimuth as the boundary candidate position.

ST103では、移動量計算部103は、各種車両センサによって検知される車両の移動データ(方位、速度)からセンサ(レーダ装置の)移動データ(レーダ装置の移動方位、レーダ装置の移動速度)を計算し、レーダ装置100の移動データを含む移動情報を生成する。   In ST103, the movement amount calculation unit 103 calculates sensor (radar apparatus) movement data (radar apparatus movement azimuth, radar apparatus movement speed) from vehicle movement data (direction and speed) detected by various vehicle sensors. Then, movement information including movement data of the radar apparatus 100 is generated.

ST104では、境界推定部105は、過去に生成された境界候補情報及び移動情報(過去データ)がバッファ104に格納されているか否かを判断する。過去データが無い場合(ST104:No)、レーダ装置100はST108の処理に進む。ここで、過去データが無い場合とは、例えば、境界情報の初回計算時である。   In ST104, boundary estimation section 105 determines whether or not boundary candidate information and movement information (past data) generated in the past are stored in buffer 104. When there is no past data (ST104: No), the radar apparatus 100 proceeds to the process of ST108. Here, the case where there is no past data is, for example, the first calculation of boundary information.

過去データが有る場合(ST104:Yes)、ST105では、境界推定部105は、バッファ104から過去データとして1つもしくは複数の過去フレームの境界候補情報、及び、過去フレーム毎に対応する移動情報を入力する。   If there is past data (ST104: Yes), in ST105, the boundary estimation unit 105 inputs one or more past frame boundary candidate information as past data from the buffer 104 and movement information corresponding to each past frame. To do.

ST106では、境界推定部105は、ST105において入力した過去データを用いて、過去フレームの境界候補位置(選択セル)を、現フレームの座標系(カレント座標系)の位置(推定セル)に変換する。境界推定部105は、変換後の結果において、同方位に複数の位置が存在する場合には、レーダ装置100からの距離が最も近い反射点の位置を推定境界位置として推定する。境界推定部105は、過去フレームにおいて境界位置が連続的に出力されていた場合は、現フレームへの変換後も、過去フレームとの関係性を担保するために、例えば、補間処理を施してもよい。   In ST106, the boundary estimation unit 105 converts the boundary candidate position (selected cell) of the past frame into the position (estimated cell) of the coordinate system (current coordinate system) of the current frame using the past data input in ST105. . When there are a plurality of positions in the same direction in the result after conversion, the boundary estimation unit 105 estimates the position of the reflection point that is closest to the radar apparatus 100 as the estimated boundary position. If the boundary position is continuously output in the past frame, the boundary estimation unit 105 may perform interpolation processing, for example, to ensure the relationship with the past frame even after conversion to the current frame. Good.

具体的には、境界推定部105は、前フレームの境界候補情報に示される境界候補位置(選択セル)を、移動情報に示される車両の移動状況に従って移動させ、移動後の反射点の位置を推定境界位置(推定セル)に設定する。例えば、図6A〜図6Fでは、移動情報において、前フレームから現フレームにかけて、車両が正面方向に1セル分、近づいたレーダプロファイルである。境界推定部105は、前フレームの境界候補位置(選択セル)を、1セル分、正面方向に近づいた位置を推定境界位置(推定セル)として設定する。   Specifically, the boundary estimation unit 105 moves the boundary candidate position (selected cell) indicated in the boundary candidate information of the previous frame according to the movement status of the vehicle indicated by the movement information, and determines the position of the reflected point after the movement. Set to the estimated boundary position (estimated cell). For example, in FIGS. 6A to 6F, the movement information is a radar profile in which the vehicle approaches one cell in the front direction from the previous frame to the current frame. The boundary estimation unit 105 sets, as the estimated boundary position (estimated cell), the position of the boundary candidate position (selected cell) of the previous frame that is closer to the front direction by one cell.

図6Aは、現フレームのレーダプロファイルを示す図であり、図6Bは、現フレームの境界候補情報に示される境界候補位置(選択セル)を示す図であり、図6Cは、前フレームの境界候補位置(選択セル)を示す図であり、図6Dは、現フレームの推定境界情報に示される推定境界位置(推定セル)を示す図であり、図6Eは、境界候補情報と推定境界情報との合成を示す図であり、図6Fは、現フレームの境界情報を示す図である。   6A is a diagram illustrating a radar profile of the current frame, FIG. 6B is a diagram illustrating boundary candidate positions (selected cells) indicated in the boundary candidate information of the current frame, and FIG. 6C is a boundary candidate of the previous frame. FIG. 6D is a diagram illustrating an estimated boundary position (estimated cell) indicated in the estimated boundary information of the current frame, and FIG. 6E is a diagram illustrating boundary candidate information and estimated boundary information. FIG. 6F is a diagram illustrating combining, and FIG. 6F is a diagram illustrating boundary information of the current frame.

ST107では、スムージング部106は、ST102において得られた現フレームの境界候補情報に示される境界候補位置(図6B)と、ST106において得られた推定境界情報に示される推定境界位置(図6D)とに対してスムージング処理する(図6E)。つまり、スムージング部106では、境界候補情報と推定境界情報とが合成される。スムージング部106は、現フレームにおいて検出された境界候補位置と、前フレームにおいて検出された境界候補位置から推定された推定境界位置との間(つまり、フレーム間の境界候補位置)についてスムージング処理する。   In ST107, smoothing section 106 determines the boundary candidate position (FIG. 6B) indicated in the boundary candidate information of the current frame obtained in ST102, and the estimated boundary position (FIG. 6D) indicated in the estimated boundary information obtained in ST106. Is smoothed (FIG. 6E). That is, the smoothing unit 106 combines the boundary candidate information and the estimated boundary information. The smoothing unit 106 performs a smoothing process between the boundary candidate position detected in the current frame and the estimated boundary position estimated from the boundary candidate position detected in the previous frame (that is, the boundary candidate position between frames).

例えば、スムージング部106は、各方位において、現フレームの境界候補位置と、推定境界位置とが同一位置である場合には、当該位置を現フレームの境界位置に設定する。また、スムージング部106は、各方位において、現フレームの境界候補位置と、推定境界位置とが異なる場合には、これらの位置に対応する距離に対する、例えば、平均又は加重平均のスムージング処理を施し、処理結果に対応する位置を現フレームの境界位置に設定する(図6F)。   For example, when the boundary candidate position of the current frame and the estimated boundary position are the same position in each direction, the smoothing unit 106 sets the position as the boundary position of the current frame. Further, when the boundary candidate position of the current frame is different from the estimated boundary position in each direction, the smoothing unit 106 performs, for example, an average or weighted average smoothing process on the distance corresponding to these positions, The position corresponding to the processing result is set as the boundary position of the current frame (FIG. 6F).

推定境界位置が1つ以上ある場合は、スムージング部106は、例えば、境界位置の存在の有無、又は、出力距離を、境界候補位置を含む各情報に重み付け処理することで、出力判定を行っても良い(処理の一例としては、尤度値を用いて求める方法である)。   When there are one or more estimated boundary positions, the smoothing unit 106 performs output determination by weighting each piece of information including the boundary candidate positions, for example, the presence / absence of the boundary positions or the output distance. (An example of the process is a method using a likelihood value).

また、スムージング部106は、図6A〜図6Fにおいて示した境界位置から出力距離を決める以外にも、周辺方位の境界位置から出力位置を求めても良い。   In addition to determining the output distance from the boundary positions shown in FIGS. 6A to 6F, the smoothing unit 106 may determine the output position from the boundary position in the peripheral direction.

スムージング部106は、注目方位及び隣接する左右方位における距離を、現フレームの境界候補情報と過去フレームの推定境界情報とから抽出し、リストに格納(記憶)する。スムージング部106は、格納後のリストを昇順に並び替えた後、リストの中央値を注目方位に対する境界位置の距離として出力する。なお、全ての方位で、上記の処理を繰り返す。   The smoothing unit 106 extracts the target azimuth and the distance in the adjacent left and right azimuths from the boundary candidate information of the current frame and the estimated boundary information of the past frame, and stores (stores) them in the list. The smoothing unit 106 rearranges the stored list in ascending order, and then outputs the median value of the list as the distance of the boundary position with respect to the target azimuth. The above process is repeated in all directions.

図7A〜図7Cに処理イメージを示す。図7Aでは、注目方位θに隣接する左右±2方位の範囲を対象方位とし、推定境界情報は過去4フレーム分を用いる。図7Aでは、スムージング部106は、対象方位×対象境界情報(現フレームの境界候補情報及び過去フレームの推定境界情報)のマトリクスにおいて距離を抽出する。「不定」となっている要素は、境界検出部102、又は、境界推定部105での処理の結果、距離が定まらなかった要素である。   7A to 7C show processing images. In FIG. 7A, the range of ± 2 azimuths adjacent to the target azimuth θ is set as the target azimuth, and the past four frames are used as the estimated boundary information. In FIG. 7A, the smoothing unit 106 extracts a distance in a matrix of target orientation × target boundary information (current frame boundary candidate information and past frame estimated boundary information). An element that is “indefinite” is an element whose distance has not been determined as a result of processing by the boundary detection unit 102 or the boundary estimation unit 105.

図7Aに示すマトリクスの中で、スムージング部106は、「不定」位置を除く有効位置を抽出し、図7Bに示す有効位置リストを生成し、図7Cにおいて、有効位置リストを昇順に並び替える。図7Cにおいて、並び替え後のリストでの中央値(median value)は、「55」となり、「55」が注目方位θに対する境界位置の距離となる。   In the matrix shown in FIG. 7A, the smoothing unit 106 extracts effective positions excluding “undefined” positions, generates an effective position list shown in FIG. 7B, and rearranges the effective position list in ascending order in FIG. 7C. In FIG. 7C, the median value in the sorted list is “55”, and “55” is the distance of the boundary position with respect to the attention direction θ.

スムージング部106により出力された現フレームの境界位置(出力セル)よりも車両側の領域を、車両周辺の物体が存在しない領域(クリアランス領域)と、見做してもよい(図6A〜図6Fを参照)。   A region closer to the vehicle than the boundary position (output cell) of the current frame output by the smoothing unit 106 may be regarded as a region where there is no object around the vehicle (clearance region) (FIGS. 6A to 6F). See).

ST108では、スムージング部106は、過去データが有る場合(ST104:Yes)にはST107において算出された現フレームの境界位置を示す境界情報を出力し、過去データが無い場合(ST104:No)にはST102において算出した境界候補情報を、現フレームの境界情報として出力する。   In ST108, the smoothing unit 106 outputs boundary information indicating the boundary position of the current frame calculated in ST107 when there is past data (ST104: Yes), and when there is no past data (ST104: No). The boundary candidate information calculated in ST102 is output as boundary information of the current frame.

なお、境界情報は、境界位置を示す情報に限らず、クリアランス領域を示す情報であってもよい。   The boundary information is not limited to information indicating the boundary position, but may be information indicating a clearance area.

ST109では、レーダ装置100は、境界情報の出力処理を継続するか否かを判断する。境界情報の出力処理を継続する場合(ST109:Yes)、レーダ装置100は、ST101の処理に戻り、境界情報の出力処理を継続しない場合(ST109:No)、レーダ装置100は、処理を終了する。   In ST109, the radar apparatus 100 determines whether or not to continue the boundary information output process. When the boundary information output process is continued (ST109: Yes), the radar apparatus 100 returns to the process of ST101, and when the boundary information output process is not continued (ST109: No), the radar apparatus 100 ends the process. .

レーダ装置100は、現フレームにおいて送受信部101によって検出された境界候補位置に加え、過去のフレームにおいて検出されている境界候補位置から推定される現フレームの推定境界位置を用いて、クリアランス領域と物体が存在する領域との境界位置を決定する。   The radar apparatus 100 uses the estimated boundary position of the current frame estimated from the boundary candidate position detected in the past frame in addition to the boundary candidate position detected by the transmission / reception unit 101 in the current frame, Determine the boundary position with the region where.

従来のレーダ装置において、例えば、歩行者又は路側物による弱反射波も検知対象とする場合には(図2Aを参照)、弱反射波を検出するための閾値を若干高く設定するため、レーダ装置による反射波の検出精度が不十分である。例えば、レーダ装置による検出の有無がフレーム間において、ばらつく不安定な物体が存在する。   In a conventional radar apparatus, for example, when a weak reflected wave by a pedestrian or a roadside object is also to be detected (see FIG. 2A), the radar apparatus is set to set a slightly high threshold for detecting the weak reflected wave. The reflected wave detection accuracy due to is insufficient. For example, there is an unstable object in which the presence or absence of detection by the radar apparatus varies between frames.

しかし、本実施の形態のレーダ装置100は、周辺セルを用いた同一フレーム内での有力セル判定する、又は、複数のフレームを用いて送受信部101により検出された反射点の位置を推定することで、上記クリアランス領域との境界位置を検出できる。つまり、レーダ装置100は、現フレームでの送受信部101による反射波の検出精度の低下を、現在、少なくとも1つ以上の過去のフレームによる検出結果(境界候補情報)を用いて補う。   However, the radar apparatus 100 according to the present embodiment determines a dominant cell in the same frame using neighboring cells, or estimates the position of the reflection point detected by the transmission / reception unit 101 using a plurality of frames. Thus, the boundary position with the clearance area can be detected. That is, the radar apparatus 100 compensates for a decrease in the detection accuracy of the reflected wave by the transmission / reception unit 101 in the current frame by using the detection results (boundary candidate information) of at least one past frame.

よって、本実施の形態によれば、各フレームでの送受信部101による反射点の検出精度が低下する場合でも、クリアランス領域と物体が存在する領域との境界位置を精度良く検出できる。   Therefore, according to the present embodiment, the boundary position between the clearance region and the region where the object exists can be detected with high accuracy even when the detection accuracy of the reflection point by the transmission / reception unit 101 in each frame decreases.

更に、本実施の形態によれば、レーダ装置100は、車両周辺の物体が存在しないクリアランス領域と物体が存在する領域との境界位置を検出し、クリアランス領域を特定する(図6A〜図6Fを参照)。すなわち、レーダ装置100は、特許文献1(例えば、図2A及び図2Bを参照)のように複数の領域(セグメント)を出力するのではなく、検出結果として、一まとまりの領域を出力する(図6Fを参照)。つまり、レーダ装置100は、フレーム間での同一物体の同定を省略し、境界候補位置のスムージング処理を用いる。   Furthermore, according to the present embodiment, radar device 100 detects the boundary position between a clearance region where an object around the vehicle does not exist and a region where an object exists, and specifies the clearance region (see FIGS. 6A to 6F). reference). That is, the radar apparatus 100 does not output a plurality of areas (segments) as in Patent Document 1 (see, for example, FIG. 2A and FIG. 2B), but outputs a group of areas as a detection result (FIG. 6F). That is, the radar apparatus 100 omits identification of the same object between frames and uses a smoothing process of boundary candidate positions.

レーダ装置100が搭載された車両周辺の一連の物体(例えば、他の車両、歩行者、路側物)を連続する物体として一まとまりによって扱うことにより、レーダ装置100は、各物体がレーダ装置100の検知範囲に入ってから出ていくまでの間に未検出となる物体、又は、異なる物体(異なるID)として検出される物体として、誤判断することを抑制できる。   By treating a series of objects (for example, other vehicles, pedestrians, roadside objects) around the vehicle on which the radar apparatus 100 is mounted as a continuous object, the radar apparatus 100 is configured so that each object is It is possible to suppress erroneous determination as an object that has not been detected before entering the detection range and then detected as a different object (different ID).

例えば、送受信部101による検出結果がフレーム間でばらつき、不安定な検出結果のとなる物体であっても、レーダ装置100は、精度良く検出される境界位置(図6A〜図6Fに示す出力セル)を補間することにより、不安定な検出結果の物体に起因する影響を抑え、クリアランス領域を安定して特定できる。   For example, even if the detection result by the transmission / reception unit 101 varies between frames and the object becomes an unstable detection result, the radar apparatus 100 can detect the boundary position (output cell shown in FIGS. 6A to 6F) with high accuracy. ) Is suppressed, the influence caused by the object of the unstable detection result can be suppressed, and the clearance region can be identified stably.

本実施の形態によれば、レーダ装置100は、路側物(例えば、植え込み又はガードレール)のように様々な形状又はサイズが想定される物体が検出対象であっても、複数のフレームに渡って物体検出及び物体を安定して追従できる。   According to the present embodiment, the radar apparatus 100 is capable of detecting an object across a plurality of frames even if an object whose shape or size is assumed to be a detection target, such as a roadside object (for example, planting or guardrail). The detection and the object can be followed stably.

以上より、本実施の形態によれば、レーダ装置100は、物体に対する追従を安定して処理でき、クリアランス領域の検出性能を向上できるので、レーダ装置100の後段に備えられる、例えば、衝突防止装置の運転支援装置(図示せず)でのシステム精度及び応答性を改善できる。   As described above, according to the present embodiment, the radar apparatus 100 can stably process tracking of an object and can improve the detection performance of the clearance region. The system accuracy and responsiveness of the driving support device (not shown) can be improved.

なお、上記実施の形態では、バッファ104において、過去の境界候補情報を過去データとして格納する場合について説明したが、バッファ104において過去の境界情報(つまり、スムージング部106の出力)を過去データとして格納してもよい。   In the above-described embodiment, the case where the past boundary candidate information is stored as past data in the buffer 104 has been described. However, the past boundary information (that is, the output of the smoothing unit 106) is stored as past data in the buffer 104. May be.

(実施の形態2)
実施の形態1は、静止物体及び移動物体の存在しない領域をクリアランス領域として抽出したが、本実施の形態は、静止物体の存在しない領域を静止物体クリアランス領域として抽出する。
(Embodiment 2)
In the first embodiment, a region where a stationary object and a moving object do not exist is extracted as a clearance region. In the present embodiment, a region where a stationary object does not exist is extracted as a stationary object clearance region.

[レーダ装置200の構成]
本開示の実施の形態に係るレーダ装置200は、図8Aに示す車両に搭載される。
[Configuration of Radar Device 200]
The radar apparatus 200 according to the embodiment of the present disclosure is mounted on the vehicle illustrated in FIG. 8A.

レーダ装置200は、搭載された車両の周辺(例えば、前方、前側方)に存在する物体(他の車両、歩行者、路側物)を検出し、検出した情報に基づいて、車両周辺の静止物体が存在しない領域(以下、「静止物体クリアランス領域」と称する)を決定する(例えば、図8Bを参照。詳細は後述する)。なお、路側物は、例えば、ガードレール、樹木を含む。   The radar apparatus 200 detects an object (another vehicle, a pedestrian, a roadside object) existing around the mounted vehicle (for example, forward or front side), and based on the detected information, a stationary object around the vehicle Is determined (hereinafter referred to as “stationary object clearance region”) (see, for example, FIG. 8B, details will be described later). In addition, a roadside thing contains a guardrail and a tree, for example.

レーダ装置200は、例えば、決定した静止物体クリアランス領域の情報を、例えば、運転支援装置としての衝突防止装置(図示せず)へ提供する。なお、レーダ装置200は、静止物体クリアランス領域に加え、移動物体(例えば、車両、歩行者)を別の方法を用いて検出してもよい(図8Bを参照)。   For example, the radar apparatus 200 provides information on the determined stationary object clearance area to, for example, a collision prevention apparatus (not shown) as a driving support apparatus. The radar apparatus 200 may detect a moving object (for example, a vehicle or a pedestrian) in addition to the stationary object clearance area using another method (see FIG. 8B).

図9Aは、レーダ装置200の構成例を示すブロック図である。図9Aに示すレーダ装置200は、送受信部101、静止物体抽出部201、静止物体境界検出部202、移動量計算部103、バッファ104、境界推定部105、スムージング部106を備える。静止物体抽出部201、静止物体境界検出部202以外は、実施の形態1で説明済みである内容については説明を省略する。   FIG. 9A is a block diagram illustrating a configuration example of the radar apparatus 200. The radar apparatus 200 illustrated in FIG. 9A includes a transmission / reception unit 101, a stationary object extraction unit 201, a stationary object boundary detection unit 202, a movement amount calculation unit 103, a buffer 104, a boundary estimation unit 105, and a smoothing unit 106. Except for the stationary object extraction unit 201 and the stationary object boundary detection unit 202, descriptions of the contents already described in the first embodiment are omitted.

静止物体抽出部201は、送受信部101から入力された各フレームの反射点情報(ドップラ値)と移動量計算部103から入力されたレーダ装置200の移動データである移動方位、移動速度を用いて、静止物体を抽出する。   The stationary object extraction unit 201 uses the reflection point information (Doppler value) of each frame input from the transmission / reception unit 101 and the movement direction and movement speed, which are movement data of the radar apparatus 200 input from the movement amount calculation unit 103. Extract a stationary object.

ここで、静止物体の抽出方法について、図9Bを用いて一例を説明する。図9Bは、移動する車両と静止物から得られるドップラ補正値との関係を示す図である。   Here, an example of a method for extracting a stationary object will be described with reference to FIG. 9B. FIG. 9B is a diagram illustrating a relationship between a moving vehicle and a Doppler correction value obtained from a stationary object.

θは、車両の移動方向(センサ移動方位)であり、第1象限を正の方向(図9B上の右上方)に移動する。Vsは、車両の移動速度(センサ速度)であり、Xsはレーダ装置200(センサ)の正面方向を示し、θは静止物の位置する方位を示し、図9Bでは第1象限に静止物が存在する。 θ s is the moving direction of the vehicle (sensor moving direction), and moves in the first quadrant in the positive direction (upper right in FIG. 9B). Vs is the moving speed (sensor speed) of the vehicle, Xs indicates the front direction of the radar apparatus 200 (sensor), θ indicates the direction in which the stationary object is located, and in FIG. 9B, there is a stationary object in the first quadrant. To do.

なお、方位θに位置する静止物を観測するための計算式(方位θのドップラ補正値)は、センサ移動速度Vs、センサ移動方位θsと静止物の方向θで規定される角度α(=θs-θ)を用いて数式(1)のように計算できる。
DOffset(θ)[km/h]= V cos(α) = V cos(θs - θ) (1)
The calculation formula for observing a stationary object located in the azimuth θ (the Doppler correction value of the azimuth θ) is an angle α (= θs) defined by the sensor moving speed Vs, the sensor moving azimuth θs and the stationary object direction θ. -θ) can be calculated as in Equation (1).
D Offset (θ) [km / h] = V S cos (α) = V S cos (θs-θ) (1)

静止物体抽出部201は、レーダ装置200によって測定された各フレーム及び各方位の反射点が持つドップラ値が、数式(1)に基づいて算出されたドップラ補正値にマージン分を加味した範囲に含まれるかどうかを判断し、含まれる場合は静止物体として抽出し、静止物体境界検出部202に出力する。   The stationary object extraction unit 201 includes the Doppler values of the reflection points in each frame and each direction measured by the radar apparatus 200 in a range in which a margin is added to the Doppler correction value calculated based on Equation (1). If it is included, it is extracted as a stationary object and output to the stationary object boundary detection unit 202.

静止物体境界検出部202は、車両周辺の静止物体が存在しない領域(静止物体クリアランス領域)との境界となる反射点の位置(以下、静止物体境界候補位置と呼ぶ)を検出する。   The stationary object boundary detection unit 202 detects the position of a reflection point (hereinafter referred to as a stationary object boundary candidate position) that becomes a boundary with a region where there is no stationary object around the vehicle (stationary object clearance region).

静止物体境界検出部202は、レーダ装置200の検知範囲内の各方位において、反射点情報に示される反射点のうち、静止物体抽出部201が抽出した静止物体のうち、レーダ装置200からの距離が最も近い反射点の位置を、各方位における静止物体境界候補位置としてフレーム毎に検出する。   The stationary object boundary detection unit 202 is a distance from the radar device 200 among the stationary objects extracted by the stationary object extraction unit 201 among the reflection points indicated by the reflection point information in each direction within the detection range of the radar device 200. Is detected for each frame as a still object boundary candidate position in each direction.

つまり、静止物体境界検出部202は、静止物体クリアランス領域と静止物体が存在する領域との境界の候補を検出する。例えば、静止物体境界検出部202は、補間処理として、評価対象セル(評価対象となる反射点)の複数の周辺セルの情報を用い、複数の周辺セル中にパワー閾値を超えるセル数の割合が一定以上あれば、評価対象セルを静止物体境界候補して検出しても良い。   That is, the stationary object boundary detection unit 202 detects a boundary candidate between the stationary object clearance area and the area where the stationary object exists. For example, the stationary object boundary detection unit 202 uses information on a plurality of peripheral cells of the evaluation target cell (reflection point to be evaluated) as an interpolation process, and the ratio of the number of cells exceeding the power threshold in the plurality of peripheral cells is determined. If it is above a certain level, the evaluation target cell may be detected as a stationary object boundary candidate.

なお、静止物体境界候補位置は、静止物体で最も近い反射点でなくてもよく、複数のフレームにおいて、平均化処理した後の反射点でもよい。   Note that the stationary object boundary candidate position may not be the closest reflection point of the stationary object, but may be a reflection point after averaging processing in a plurality of frames.

静止物体境界検出部202は、検出した静止物体境界候補位置を示す静止物体境界候補情報をバッファ104及びスムージング部106へ出力する。なお、静止物体境界候補情報は、例えば、送受信部101のレーダ座標系によって表される。   The stationary object boundary detection unit 202 outputs stationary object boundary candidate information indicating the detected stationary object boundary candidate position to the buffer 104 and the smoothing unit 106. The stationary object boundary candidate information is represented by, for example, a radar coordinate system of the transmission / reception unit 101.

バッファ104は、静止物体境界検出部202から入力される静止物体境界候補情報、及び、移動量計算部103から入力される移動情報を格納(記憶)する。なお、過去フレームは1つとは限らず複数フレーム前からの過去フレーム群であっても良く、バッファ104に過去フレーム群を保管する場合は、移動情報もペアリング(関連付け)し、保管する。また、バッファ104は、格納されている過去フレームの静止物体境界候補情報及び移動情報を境界推定部105へ出力する。   The buffer 104 stores (stores) the stationary object boundary candidate information input from the stationary object boundary detection unit 202 and the movement information input from the movement amount calculation unit 103. Note that the number of past frames is not limited to one, and may be a past frame group from a plurality of previous frames. When the past frame group is stored in the buffer 104, the movement information is also paired (associated) and stored. Further, the buffer 104 outputs the stored stationary object boundary candidate information and movement information of the past frame to the boundary estimation unit 105.

境界推定部105は、過去フレームの静止物体境界候補情報、及び、過去フレームから現フレームまでの車両の移動状況を表す移動情報が入力される。境界推定部105は、過去フレームの静止物体境界候補情報と移動情報とに基づいて、現フレームにおけるレーダ装置200から、静止物体であり、かつ距離が最も近い反射点の位置を、推定静止物体境界位置として推定する。   The boundary estimation unit 105 receives the stationary object boundary candidate information of the past frame and the movement information indicating the movement state of the vehicle from the past frame to the current frame. Based on the stationary object boundary candidate information and the movement information in the past frame, the boundary estimation unit 105 determines the position of the reflection point that is a stationary object and has the closest distance from the radar apparatus 200 in the current frame. Estimated as position.

境界推定部105は、推定静止物体境界位置を示す1つもしくは複数の推定静止物体境界情報をスムージング部106に出力する。   The boundary estimation unit 105 outputs one or a plurality of estimated stationary object boundary information indicating the estimated stationary object boundary position to the smoothing unit 106.

スムージング部106は、静止物体境界検出部202から入力される静止物体境界候補情報(現フレームにおいて送受信部101により検出された境界位置を示す情報)、及び、境界推定部105から入力される推定静止物体境界情報(過去フレームから推定された現フレームの静止物体境界位置を示す情報の1つ以上)に対してスムージング処理(合成処理)し、車両周辺の静止物体が存在しない領域(静止物体クリアランス領域)との境界位置を算出する。スムージング部106は、算出された境界位置を示す静止物体境界情報を出力する。   The smoothing unit 106 includes stationary object boundary candidate information (information indicating the boundary position detected by the transmission / reception unit 101 in the current frame) input from the stationary object boundary detection unit 202 and estimated stationary input input from the boundary estimation unit 105. Smoothing process (compositing process) on object boundary information (one or more pieces of information indicating the position of the stationary object boundary in the current frame estimated from the past frame) ) Is calculated. The smoothing unit 106 outputs stationary object boundary information indicating the calculated boundary position.

これにより、レーダ装置200は、検知範囲において各方位の静止物体境界位置を連結又は補間することによって形成される境界線(車両からの距離が最も近い静止物体からの反射点の位置)と、車両との間の領域を、静止物体クリアランス領域として特定する(例えば、図8Bを参照)。   As a result, the radar apparatus 200 includes a boundary line (position of a reflection point from a stationary object having the closest distance from the vehicle) formed by connecting or interpolating stationary object boundary positions in each direction in the detection range, and the vehicle. Is specified as a stationary object clearance area (see, for example, FIG. 8B).

[レーダ装置200の動作]
次に、上述したレーダ装置200の動作例について図10A〜図10Fを用いて詳細に説明する。
[Operation of Radar Device 200]
Next, an operation example of the above-described radar apparatus 200 will be described in detail with reference to FIGS. 10A to 10F.

図10A〜図10Fは、レーダ装置200の各構成部において得られる情報をレーダ座標系において表した図である。図6A〜図6F同様、一例として、方位(横軸)が10セルであり、距離(縦軸)が8セルである。すなわち、図10A〜図10Fでは、送受信部101において反射点がセル毎に検出される。また、図10A〜図10Fでは、過去フレームの一例として、現フレームの1つ前のフレーム(前フレーム)を過去フレームとした。   10A to 10F are diagrams showing information obtained in each component of the radar apparatus 200 in the radar coordinate system. 6A to 6F, as an example, the azimuth (horizontal axis) is 10 cells, and the distance (vertical axis) is 8 cells. That is, in FIG. 10A to FIG. 10F, the reflection point is detected for each cell in the transmission / reception unit 101. In FIGS. 10A to 10F, as an example of the past frame, the frame immediately before the current frame (previous frame) is set as the past frame.

図10Aは、現フレームのレーダプロファイルを示す図であり、図10Bは、現フレームの静止物体境界候補情報に示される境界候補位置(選択セル)を示す図であり、図10Cは、前フレームの静止物体境界候補位置(選択セル)を示す図であり、図10Dは、現フレームの推定静止物体境界情報に示される推定静止物体境界位置(推定セル)を示す図であり、図10Eは、静止物体境界候補情報と推定静止物体境界情報との合成を示す図であり、図10Fは、現フレームの静止物体境界情報を示す図である。   FIG. 10A is a diagram showing a radar profile of the current frame, FIG. 10B is a diagram showing boundary candidate positions (selected cells) indicated in the stationary object boundary candidate information of the current frame, and FIG. 10C is a diagram of the previous frame. FIG. 10D is a diagram illustrating an estimated stationary object boundary position (estimated cell) indicated in the estimated stationary object boundary information of the current frame, and FIG. 10E is a diagram illustrating a stationary object boundary candidate position (selected cell). It is a figure which shows the synthesis | combination of object boundary candidate information and estimated stationary object boundary information, and FIG. 10F is a figure which shows the stationary object boundary information of the present flame | frame.

図10A〜図10Fでは、送受信部101は、反射強度(パワー)が所定の閾値以上である反射点が存在するセルを有力セルとして表したレーダプロファイルを生成する。   10A to 10F, the transmission / reception unit 101 generates a radar profile in which a cell having a reflection point whose reflection intensity (power) is equal to or greater than a predetermined threshold is represented as a dominant cell.

静止物体抽出部201は、レーダプロファイルの中から図9Bに示したドップラ補正値を用いて静止物体を抽出し、静止物体境界検出部202は静止物体抽出部201が抽出した静止物体の反射点のうちレーダ装置200からの距離が最も近い反射点(セル)の位置を静止物体境界候補位置として検出する。   The stationary object extraction unit 201 extracts a stationary object from the radar profile using the Doppler correction value shown in FIG. 9B, and the stationary object boundary detection unit 202 extracts the reflection point of the stationary object extracted by the stationary object extraction unit 201. Among them, the position of the reflection point (cell) that is closest to the radar apparatus 200 is detected as a stationary object boundary candidate position.

図10A〜図10Fでは、静止物体境界検出部202は、反射点が存在しない場合でも周辺セルの情報を用いて反射点(有力セル)であるかを判定しても良い。図10A〜図10Fでは、静止物体抽出部201は、方位毎に検出した反射点(選択セル)の位置から静止物体の位置を抽出し(図10B)、静止物体境界検出部202はその中から静止物体境界候補位置として表した静止物体境界候補情報を生成する。   10A to 10F, the stationary object boundary detection unit 202 may determine whether a reflection point (potential cell) is used by using information on neighboring cells even when there is no reflection point. 10A to 10F, the stationary object extraction unit 201 extracts the position of the stationary object from the position of the reflection point (selected cell) detected for each azimuth (FIG. 10B), and the stationary object boundary detection unit 202 from among them. Still object boundary candidate information expressed as a stationary object boundary candidate position is generated.

なお、移動物は、例えば図9Bを用いて説明した静止物体抽出部201において、静止物体ではない物体、つまり、設定した閾値以上のドップラ速度と判定された物体である。   Note that the moving object is, for example, an object that is not a stationary object, that is, an object that has been determined to have a Doppler speed equal to or higher than a set threshold in the stationary object extraction unit 201 described with reference to FIG. 9B.

境界推定部105は、過去に生成された静止物体境界候補情報及び移動情報(過去データ)がバッファ104に格納されているか否かを判断する。なお、過去データが無い場合とは、例えば、境界情報の初回計算時である。   The boundary estimation unit 105 determines whether or not stationary object boundary candidate information and movement information (past data) generated in the past are stored in the buffer 104. The case where there is no past data is, for example, when the boundary information is calculated for the first time.

過去データが有る場合、境界推定部105は、バッファ104から過去データとして1つもしくは複数の過去フレームの静止物体境界候補情報、及び、過去フレーム毎に対応する移動情報を入力する。   When there is past data, the boundary estimation unit 105 inputs, as past data, stationary object boundary candidate information of one or more past frames and movement information corresponding to each past frame from the buffer 104.

境界推定部105は、過去データを用いて、過去フレームの静止物体境界候補位置(選択セル)を、現フレームの座標系(カレント座標系)の位置(推定セル)に変換する(図10C)。境界推定部105は、変換後の結果において、同方位に複数の位置が存在する場合には、レーダ装置200からの距離が最も近い静止物体からの反射点の位置を推定静止物体境界位置として推定する(図10D)。境界推定部105は、過去フレームにおいて境界位置が連続的に出力されていた場合は、現フレームへの変換後も、過去フレームとの関係性を担保するために、例えば、補間処理を施してもよい。   The boundary estimation unit 105 converts the stationary object boundary candidate position (selected cell) of the past frame into the position (estimated cell) of the coordinate system (current coordinate system) of the current frame using the past data (FIG. 10C). If there are a plurality of positions in the same direction in the result after conversion, the boundary estimation unit 105 estimates the position of the reflection point from the stationary object having the closest distance from the radar apparatus 200 as the estimated stationary object boundary position. (FIG. 10D). If the boundary position is continuously output in the past frame, the boundary estimation unit 105 may perform interpolation processing, for example, to ensure the relationship with the past frame even after conversion to the current frame. Good.

具体的には、境界推定部105は、前フレームの静止物体境界候補情報に示される境界候補位置(選択セル:図10C)を、移動情報に示される車両の移動状況に従って移動させ、移動後の反射点の位置を推定静止物体境界位置(推定セル:図10D)に設定する。例えば、図10A〜図10Fでは、移動情報において、前フレームから現フレームにかけて、車両が正面方向に1セル分、近づいたレーダプロファイルである。境界推定部105は、前フレームの静止物体境界候補位置(選択セル)を、1セル分、正面方向に近づいた位置を推定静止物体境界位置(推定セル)として設定する。   Specifically, the boundary estimation unit 105 moves the boundary candidate position (selected cell: FIG. 10C) indicated in the stationary object boundary candidate information of the previous frame in accordance with the movement status of the vehicle indicated in the movement information, The position of the reflection point is set to the estimated stationary object boundary position (estimated cell: FIG. 10D). For example, in FIGS. 10A to 10F, the movement information is a radar profile in which the vehicle approaches one cell in the front direction from the previous frame to the current frame. The boundary estimation unit 105 sets, as the estimated stationary object boundary position (estimated cell), a position that approaches the stationary object boundary position (selected cell) of the previous frame by one cell and approaches the front direction.

スムージング部106は、現フレームの静止物体境界候補情報に示される静止物体境界候補位置(図10B)と、推定静止物体境界情報に示される推定静止物体境界位置(図10D)とに対してスムージング処理する(図10E)。   The smoothing unit 106 performs smoothing processing on the stationary object boundary candidate position (FIG. 10B) indicated in the stationary object boundary candidate information of the current frame and the estimated stationary object boundary position (FIG. 10D) indicated in the estimated stationary object boundary information. (FIG. 10E).

実施の形態1と異なり、図10Bに示すように、静止物体よりも近い距離に移動物体が存在する場合には、静止物体までの距離に基づき、静止物体境界候補位置が出力される。スムージング部106では、静止物体境界候補情報と推定静止物体境界情報とが合成される。   Unlike Embodiment 1, as shown in FIG. 10B, when a moving object exists at a distance closer to the stationary object, a stationary object boundary candidate position is output based on the distance to the stationary object. In the smoothing unit 106, the stationary object boundary candidate information and the estimated stationary object boundary information are combined.

スムージング部106は、現フレームにおいて検出された静止物体境界候補位置と、前フレームにおいて検出された静止物体境界候補位置から推定された推定静止物体境界位置との間(つまり、フレーム間の静止物体境界候補位置)についてスムージング処理する。   The smoothing unit 106 is between the stationary object boundary candidate position detected in the current frame and the estimated stationary object boundary position estimated from the stationary object boundary candidate position detected in the previous frame (that is, the stationary object boundary between frames). The candidate position is smoothed.

例えば、スムージング部106は、各方位において、現フレームの静止物体境界候補位置と、推定静止物体境界位置とが同一位置である場合には、当該位置を現フレームの静止物体境界位置に設定する。また、スムージング部106は、各方位において、現フレームの静止物体境界候補位置と、推定静止物体境界位置とが異なる場合には、これらの位置に対応する距離に対する、例えば、平均又は加重平均のスムージング処理を施し、処理結果に対応する位置を現フレームの静止物体境界位置に設定する(図10F)。   For example, when the stationary object boundary candidate position of the current frame and the estimated stationary object boundary position are the same position in each direction, the smoothing unit 106 sets the position as the stationary object boundary position of the current frame. In addition, when the stationary object boundary candidate position of the current frame is different from the estimated stationary object boundary position in each azimuth, the smoothing unit 106 performs, for example, average or weighted average smoothing with respect to the distance corresponding to these positions. Processing is performed, and the position corresponding to the processing result is set as the stationary object boundary position of the current frame (FIG. 10F).

本実施の形態によれば、レーダ装置200は、路側物(例えば、植え込み又はガードレール)のように様々な形状又はサイズが想定される静止物体が検出対象であっても、複数のフレームに渡って静止物体検出及び静止物体を安定して追従できる。   According to the present embodiment, the radar apparatus 200 extends over a plurality of frames even if a stationary object assumed to have various shapes or sizes such as roadside objects (for example, planting or guardrails) is a detection target. The stationary object detection and the stationary object can be followed stably.

なお、図11Aに示された現フレームのレーダプロファイルのうち、図11Bに示す図示しない移動物体検出部により検出された移動物体の検出結果を、図10Fに示す現フレームの静止物体境界位置と合わせることで、静止物体境界よりもレーダ装置200に近い領域を移動する物体(例えば歩行者)の検出性能を向上できるので(図11C)、レーダ装置200の後段に備えられる、例えば、衝突防止装置の運転支援装置(図示せず)でのシステム精度及び応答性を改善できる。   Of the radar profile of the current frame shown in FIG. 11A, the detection result of the moving object detected by the moving object detection unit (not shown) shown in FIG. 11B is matched with the stationary object boundary position of the current frame shown in FIG. 10F. As a result, the detection performance of an object (for example, a pedestrian) that moves in an area closer to the radar apparatus 200 than the stationary object boundary can be improved (FIG. 11C). System accuracy and responsiveness in a driving assistance device (not shown) can be improved.

(実施の形態3)
本実施の形態は、実施の形態1、実施の形態2におけるレーダ装置に、カメラ装置を追加した物体認識装置(車載レーダ装置)について説明する。
(Embodiment 3)
In the present embodiment, an object recognition device (vehicle-mounted radar device) in which a camera device is added to the radar device according to the first and second embodiments will be described.

[物体認識装置300の構成]
本開示の実施の形態に係る物体認識装置300は、図12に示す車両に搭載される。
[Configuration of Object Recognition Device 300]
The object recognition apparatus 300 according to the embodiment of the present disclosure is mounted on the vehicle illustrated in FIG.

物体認識装置300に搭載されたレーダは、実施の形態2と同様に、搭載された車両の周辺(例えば、前方、前側方)に存在する物体(他の車両、歩行者、路側物)を検出し、検出した情報に基づいて、車両周辺の静止物体が存在しない領域(以下、「静止物体クリアランス領域」と称する)を決定する(例えば、図8Bを参照)。なお、路側物は、例えば、ガードレール、樹木を含む。   As in the second embodiment, the radar mounted on the object recognition apparatus 300 detects an object (another vehicle, a pedestrian, a roadside object) existing around the mounted vehicle (for example, the front side or the front side). Then, based on the detected information, a region where no stationary object is present around the vehicle (hereinafter referred to as “stationary object clearance region”) is determined (see, for example, FIG. 8B). In addition, a roadside thing contains a guardrail and a tree, for example.

物体認識装置300に搭載されたカメラは、搭載された車両の周辺(例えば、前方、前側方)に存在する物体(他の車両、歩行者、路側物)を知覚し、知覚した情報に基づいて、車両周辺の物体を検出、認識する。   The camera mounted on the object recognition apparatus 300 perceives an object (another vehicle, a pedestrian, a roadside object) existing around the mounted vehicle (for example, forward, front side), and based on the perceived information. Detect and recognize objects around the vehicle.

図12に示すように、レーダの検知範囲とカメラの視野(知覚)範囲を重複させ、各々の検知や知覚結果を融合させることにより、物体の検知や認識精度を高めることができることが知られており、フュージョン方式と呼ばれる。   As shown in FIG. 12, it is known that the detection accuracy and recognition accuracy of an object can be improved by overlapping the detection range of the radar and the visual field (perception) range of the camera and fusing each detection and perception result. This is called the fusion method.

図13は、物体認識装置300の構成例を示すブロック図である。カメラ受信部301、物体認識部302、物体認識領域設定部303以外は、実施の形態1または実施の形態2で説明済みである内容については説明を省略する。   FIG. 13 is a block diagram illustrating a configuration example of the object recognition apparatus 300. Except for the camera receiving unit 301, the object recognizing unit 302, and the object recognizing region setting unit 303, the description of the contents already described in the first embodiment or the second embodiment is omitted.

カメラ受信部301は、受光信号(輝度情報/画像情報とも呼ばれる)を一定の間隔(例えば20回/秒)で物体認識領域設定部303へ出力する。   The camera receiving unit 301 outputs a light reception signal (also referred to as luminance information / image information) to the object recognition region setting unit 303 at a constant interval (for example, 20 times / second).

物体認識領域設定部303は、カメラ受信部301からの画像情報、スムージング部106からの現フレームの静止物体境界位置に基づき、物体認識領域を設定し、物体認識部302に出力する。詳細は、以下で図14A〜図14Cを用いて説明する。   The object recognition area setting unit 303 sets an object recognition area based on the image information from the camera reception unit 301 and the stationary object boundary position of the current frame from the smoothing unit 106, and outputs the object recognition area to the object recognition unit 302. Details will be described below with reference to FIGS. 14A to 14C.

物体認識部302は、物体認識領域設定部303から出力された物体認識領域の範囲で物体の検出及び認識を行う。画像のパターン認識は、下記参照文献に開示されているように、複数のPositive(検出対象)サンプルと、複数のNegative(非検出対象)サンプルを含む学習画像DB(Database)を用い、統計的な学習計算により識別器を作成する(図示なし)。画像中から歩行者を認識するには、検出対象領域画像を拡大/縮小し、サンプルサイズの窓毎にラスタスキャンし、識別処理を繰り返し行うことができる。   The object recognition unit 302 detects and recognizes an object within the range of the object recognition region output from the object recognition region setting unit 303. As disclosed in the following references, image pattern recognition uses a learning image DB (Database) including a plurality of positive (detection target) samples and a plurality of negative (non-detection target) samples. A classifier is created by learning calculation (not shown). In order to recognize a pedestrian from the image, the detection target area image can be enlarged / reduced, raster scanned for each window of the sample size, and identification processing can be repeated.

[参照文献]
西村他、オートモーティブ分野向け画像センシング技術の開発、パナソニックテクニカルジャーナル、Oct.2011 P.64
[References]
Nishimura et al., Development of Image Sensing Technology for Automotive Field, Panasonic Technical Journal, Oct. 2011 P.A. 64

図14Aは、ラスタスキャン方式について説明したものである。検出対象領域画像に対し、全てのセルを対象に、識別処理を行う。図14Aに示すように、最遠かつ正面(図14Aの左上)のセルから最近かつ右のセル(図14Aの右下)まで、全セルについて識別処理を行う。このため、演算量が多く、ハードウェア負荷や処理遅延として対応が求められている。   FIG. 14A explains the raster scan method. Identification processing is performed on all detection target area images. As shown in FIG. 14A, identification processing is performed for all cells from the farthest and front (upper left in FIG. 14A) cell to the latest and right (lower right in FIG. 14A) cell. For this reason, the amount of calculation is large, and a response is required as a hardware load or a processing delay.

図14Bは、本実施の形態における物体認識領域(スキャン対象出力セル)の一例について示した図である。現フレームの静止物体境界情報(図14C)を元に、出力セルの周辺セル、例えば、出力セルから距離軸方向にそれぞれ1セルまでを、識別処理の対象(物体認識領域情報)とする。なお、周辺セルは、1セルに限定されない。これにより、認識処理の演算量の課題を軽減でき、ハードウェアの小型化や高速処理が可能となる。   FIG. 14B is a diagram illustrating an example of an object recognition area (scan target output cell) in the present exemplary embodiment. Based on the stationary object boundary information (FIG. 14C) of the current frame, the peripheral cells of the output cell, for example, one cell each from the output cell in the distance axis direction are set as identification processing targets (object recognition area information). The peripheral cell is not limited to one cell. As a result, the problem of the amount of computation in the recognition process can be reduced, and the hardware can be downsized and high-speed processing can be achieved.

また、静止物体境界付近から飛び出してくる移動物(車両、自転車、人、又は、動物)を検出することは、交通事故やヒヤリハット(インシデント)とも親和性が高く、交通事故削減や軽減に効果的である。   In addition, detecting moving objects (vehicles, bicycles, people, or animals) that jump out from the vicinity of a stationary object boundary is highly compatible with traffic accidents and near-misses (incidents), and is effective in reducing or reducing traffic accidents. It is.

以上より、本実施の形態による物体認識装置300は、衝突可能性の高い移動物に対し検出性能を向上できるので、物体認識装置300の後段に備えられる、例えば、衝突防止装置の運転支援装置(図示せず)でのシステム精度及び応答性を改善できる。   As described above, the object recognition device 300 according to the present embodiment can improve the detection performance for a moving object having a high possibility of collision. Therefore, for example, a driving support device for a collision prevention device ( System accuracy and responsiveness can be improved.

なお、本実施の形態では、静止物体境界情報(図14C)を用いて説明したが、これに限定されるものではなく、例えば、実施の形態1の図6Fで説明した現フレームの境界情報を用いても同様に実施できる。   Although the present embodiment has been described using the stationary object boundary information (FIG. 14C), the present invention is not limited to this. For example, the boundary information of the current frame described in FIG. 6F of the first embodiment is used. Even if it uses, it can implement similarly.

また、レーダ装置100は、図示しないが、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、およびRAM(Random Access Memory)等の作業用メモリを有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。但し、レーダ装置100のハードウェア構成は、かかる例に限定されない。例えば、レーダ装置100の各機能部は、集積回路であるIC(Integrated Circuit)として実現されてもよい。各機能部は、個別に1チップ化されてもよいし、各機能部の一部または全部を含むように1チップ化されてもよい。   Although not shown, the radar apparatus 100 includes, for example, a CPU (Central Processing Unit), a storage medium such as a ROM (Read Only Memory) that stores a control program, and a working memory such as a RAM (Random Access Memory). . In this case, the function of each unit described above is realized by the CPU executing the control program. However, the hardware configuration of the radar apparatus 100 is not limited to this example. For example, each functional unit of the radar apparatus 100 may be realized as an IC (Integrated Circuit) that is an integrated circuit. Each functional unit may be individually made into one chip, or may be made into one chip so as to include a part or all of each functional unit.

本開示に係る実施形態の種々の態様として、以下のものが含まれる。   Various aspects of the embodiments according to the present disclosure include the following.

第1の開示に係る車載レーダ装置は、所定の検知範囲に対してレーダ信号をフレーム毎に送信し、前記レーダ信号が物体に反射された反射信号を受信する送受信部と、前記所定の検知範囲内の各方位において、前記反射信号を用いて検知される反射点のうち、車載レーダ装置からの距離が近い反射点の位置を、前記所定の検知範囲内において物体が存在しない領域の境界候補位置として、前記フレーム毎に検出する検出部と、前記車載レーダ装置の移動量に関する移動量データを計算する計算部と、前記移動量データに基づいて、過去のフレームにおいて検出された前記境界候補位置を現フレームでの境界位置に変換し、前記車載レーダ装置からの距離が近い反射点の位置を、推定境界位置として推定する推定部と、前記現フレームの前記境界候補位置と前記推定境界位置とを用いてスムージング処理し、前記所定の検知範囲内において物体が存在しない領域との境界位置を算出するスムージング部と、を具備する。   The on-vehicle radar device according to the first disclosure includes a transmission / reception unit that transmits a radar signal for each frame to a predetermined detection range and receives a reflection signal obtained by reflecting the radar signal on an object, and the predetermined detection range. Of the reflection points detected using the reflection signal in each direction, the position of the reflection point that is close to the in-vehicle radar device, and the boundary candidate position of the region where no object exists in the predetermined detection range The detection unit for detecting each frame, the calculation unit for calculating the movement amount data related to the movement amount of the in-vehicle radar device, and the boundary candidate position detected in the past frame based on the movement amount data. An estimation unit that converts the position of the reflection point that is close to the in-vehicle radar device into the boundary position in the current frame and estimates the estimated boundary position; and the boundary of the current frame And smoothing processing using said estimated boundary position between the candidate position, anda smoothing unit that calculates a boundary position between the region where the object is not present within the predetermined detection range.

第2の開示に係る車載レーダ装置は、上記第1の開示の車載レーダ装置であって、前記スムージング部は、前記所定の検知範囲内の各方位の前記境界候補位置又は前記推定境界位置に対し、予め設定された尤度重みを用いて尤度値を算出し、尤度値が所定の閾値以上である場合、境界位置が存在すると判断し、前記所定の検知範囲内の各方位に境界位置が存在する場合に、予め設定された出力値重みを用いて境界位置の距離に重み付けし、加重平均を用いて算出した出力距離を境界位置として出力する。   The on-vehicle radar device according to a second disclosure is the on-vehicle radar device according to the first disclosure, wherein the smoothing unit is configured to detect the boundary candidate position or the estimated boundary position in each direction within the predetermined detection range. The likelihood value is calculated using a preset likelihood weight, and when the likelihood value is equal to or greater than a predetermined threshold, it is determined that a boundary position exists, and the boundary position is set in each direction within the predetermined detection range. Is present, the distance of the boundary position is weighted using a preset output value weight, and the output distance calculated using the weighted average is output as the boundary position.

第3の開示に係る領域検出方法は、所定の検知範囲に対してレーダ信号をフレーム毎に送信し、前記レーダ信号が物体に反射された反射信号を受信する車載レーダ装置における領域検出方法であって、前記所定の検知範囲内の各方位において、前記反射信号を用いて検知される反射点のうち、前記車載レーダ装置からの距離が近い反射点の位置を、前記所定の検知範囲内において物体が存在しない領域の境界候補位置として、フレーム毎に検出し、前記車載レーダ装置の移動量に関する移動量データを計算し、前記移動量データに基づいて、過去のフレームにおいて検出された前記境界候補位置を現フレームでの境界位置に変換し、前記車載レーダ装置からの距離が近い反射点の位置を、推定境界位置として推定し、前記現フレームの前記境界候補位置と前記推定境界位置とを用いてスムージング処理し、前記所定の検知範囲内において物体が存在しない領域との境界位置を算出する。   A region detection method according to a third disclosure is a region detection method in an in-vehicle radar device that transmits a radar signal for each frame to a predetermined detection range and receives a reflection signal obtained by reflecting the radar signal on an object. Then, in each direction within the predetermined detection range, among the reflection points detected using the reflection signal, the position of the reflection point that is close to the in-vehicle radar device is the object within the predetermined detection range. Is detected for each frame as a boundary candidate position of a region where no vehicle exists, the movement amount data relating to the movement amount of the in-vehicle radar device is calculated, and the boundary candidate position detected in a past frame based on the movement amount data Is converted into a boundary position in the current frame, a position of a reflection point that is close to the in-vehicle radar device is estimated as an estimated boundary position, and the boundary of the current frame is estimated. And smoothing processing using said estimated boundary position between the candidate positions, calculates the boundary position between the region where the object is not present within the predetermined detection range.

第4の開示に係る領域検出方法は、上記第3の開示の領域検出方法であって、前記スムージング処理は、前記所定の検知範囲内の各方位の前記境界候補位置又は前記推定境界位置に対し、予め設定された尤度重みを用いて尤度値を算出し、尤度値が所定の閾値以上である場合、境界位置が存在すると判断し、前記所定の検知範囲内の各方位に境界位置が存在する場合に、予め設定された出力値重みを用いて境界位置の距離に重み付けし、加重平均を用いて算出した出力距離を境界位置として出力する。   An area detection method according to a fourth disclosure is the area detection method according to the third disclosure, wherein the smoothing process is performed on the boundary candidate position or the estimated boundary position in each direction within the predetermined detection range. The likelihood value is calculated using a preset likelihood weight, and when the likelihood value is equal to or greater than a predetermined threshold, it is determined that a boundary position exists, and the boundary position is set in each direction within the predetermined detection range. Is present, the distance of the boundary position is weighted using a preset output value weight, and the output distance calculated using the weighted average is output as the boundary position.

以上、図面を参照しながら各種の実施形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、開示の趣旨を逸脱しない範囲において、上記実施形態における各構成要素を任意に組み合わせてもよい。   While various embodiments have been described above with reference to the drawings, it goes without saying that the present disclosure is not limited to such examples. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present disclosure. Understood. In addition, each component in the above embodiment may be arbitrarily combined within a scope that does not depart from the spirit of the disclosure.

上記各実施形態では、本開示はハードウェアを用いて構成する例にとって説明したが、本開示はハードウェアとの連携においてソフトウェアでも実現することも可能である。   In each of the above embodiments, the present disclosure has been described for an example configured using hardware. However, the present disclosure can also be realized by software in cooperation with hardware.

また、上記各実施形態の説明に用いた各機能ブロックは、典型的には、入力端子及び出力端子を有する集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。   In addition, each functional block used in the description of the above embodiments is typically realized as an LSI that is an integrated circuit having an input terminal and an output terminal. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them. The name used here is LSI, but it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサを用いて実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、LSI内部の回路セルの接続又は設定を再構成可能なリコンフィギュラブル プロセッサ(Reconfigurable Processor)を利用してもよい。   Further, the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI and a reconfigurable processor that can reconfigure the connection or setting of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別技術により、LSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックを集積化してもよい。バイオ技術の適用等が可能性としてありえる。   Furthermore, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to integrate function blocks using this technology. Biotechnology can be applied.

本開示の一態様は、車両に搭載されるレーダ装置として好適である。   One aspect of the present disclosure is suitable as a radar device mounted on a vehicle.

100、200 レーダ装置
101 送受信部
102 境界検出部
103 移動量計算部
104 バッファ
105 境界推定部
106 スムージング部
201 静止物体抽出部
202 静止物体境界検出部
300 物体認識装置
301 カメラ受信部
302 物体認識部
303 物体認識領域設定部
DESCRIPTION OF SYMBOLS 100,200 Radar apparatus 101 Transmission / reception part 102 Boundary detection part 103 Movement amount calculation part 104 Buffer 105 Boundary estimation part 106 Smoothing part 201 Still object extraction part 202 Still object boundary detection part 300 Object recognition apparatus 301 Camera reception part 302 Object recognition part 303 Object recognition area setting section

Claims (10)

検知範囲に対してレーダ信号をフレーム毎に送信し、前記レーダ信号が1つ以上の物体に反射された1つ以上の反射信号を受信する送受信部と、
前記検知範囲内の各方位において、前記1つ以上の反射信号に基づいて検知される1つ以上の反射点のうち、車載レーダ装置からの距離が最も近い反射点の位置を、前記検知範囲内において前記1つ以上の物体が存在しない領域の境界候補位置として、前記フレーム毎に検出する検出部と、
前記車載レーダ装置の移動量に関する移動量データを計算する計算部と、
前記移動量データに基づいて、過去のフレームにおいて検出された前記境界候補位置を現フレームでの境界位置に変換することによって、推定された推定境界位置を生成する推定部と、
前記現フレームの前記境界候補位置と前記推定境界位置とを用いてスムージング処理し、前記検知範囲内において前記1つ以上の物体が存在しない領域との境界位置を算出するスムージング部と、
を具備する車載レーダ装置。
A transmission / reception unit that transmits a radar signal to the detection range for each frame and receives one or more reflected signals of the radar signal reflected by one or more objects;
In each azimuth within the detection range, among the one or more reflection points detected based on the one or more reflection signals, the position of the reflection point closest to the in-vehicle radar device is determined within the detection range. A detection unit that detects for each frame as a boundary candidate position of a region where the one or more objects do not exist;
A calculation unit for calculating movement amount data related to the movement amount of the in-vehicle radar device;
An estimation unit that generates an estimated estimated boundary position by converting the boundary candidate position detected in a past frame into a boundary position in a current frame based on the movement amount data;
Performing a smoothing process using the boundary candidate position and the estimated boundary position of the current frame, and calculating a boundary position with an area where the one or more objects do not exist within the detection range; and
An on-vehicle radar device comprising:
前記スムージング部は、
前記検知範囲内の各方位の前記境界候補位置又は前記推定境界位置に対し、予め設定された尤度重みを用いて尤度値を算出し、前記尤度値が所定の閾値以上である場合、境界位置が存在すると判断し、
前記検知範囲内の各方位に境界位置が存在する場合に、予め設定された出力値重みを用いて前記現フレームの境界候補位置又は前記推定境界位置の距離に重み付けし、加重平均を用いて算出した出力距離を前記境界位置として出力する、
請求項1記載の車載レーダ装置。
The smoothing unit is
When a likelihood value is calculated using a preset likelihood weight for the boundary candidate position or the estimated boundary position in each direction within the detection range, and the likelihood value is equal to or greater than a predetermined threshold value, Judge that the boundary position exists,
When there is a boundary position in each direction within the detection range, the distance of the boundary candidate position of the current frame or the estimated boundary position is weighted using a preset output value weight, and calculated using a weighted average Output the output distance as the boundary position,
The on-vehicle radar device according to claim 1.
前記1つ以上の物体は、静止物体及び移動物体を含む、
請求項1記載の車載レーダ装置。
The one or more objects include stationary objects and moving objects;
The on-vehicle radar device according to claim 1.
前記1つ以上の物体は、静止物体である、
請求項1記載の車載レーダ装置。
The one or more objects are stationary objects;
The on-vehicle radar device according to claim 1.
前記検知範囲を撮影するカメラ部と、
前記撮影された映像のうち、物体認識に用いる画像領域を、前記境界位置に基づいて設定する領域設定部と、
前記設定された画像領域に対して、物体認識を行う物体認識部と、
を更に含む、
請求項1記載の車載レーダ装置。
A camera unit for photographing the detection range;
An area setting unit that sets an image area used for object recognition in the captured video, based on the boundary position;
An object recognition unit that performs object recognition on the set image region;
Further including
The on-vehicle radar device according to claim 1.
検知範囲に対してレーダ信号をフレーム毎に送信し、前記レーダ信号が1つ以上の物体に反射された1つ以上の反射信号を受信し、
前記検知範囲内の各方位において、前記1つ以上の反射信号に基づいて検知される1つ以上の反射点のうち、車載レーダ装置からの距離が最も近い反射点の位置を、前記検知範囲内において前記1つ以上の物体が存在しない領域の境界候補位置として、フレーム毎に検出し、
前記車載レーダ装置の移動量に関する移動量データを計算し、
前記移動量データに基づいて、過去のフレームにおいて検出された前記境界候補位置を現フレームでの境界位置に変換することによって、推定された推定境界位置を生成し、
前記現フレームの前記境界候補位置と前記推定境界位置とを用いてスムージング処理し、前記検知範囲内において物体が存在しない領域との境界位置を算出する、
領域検出方法。
Transmitting a radar signal to the detection range for each frame, and receiving one or more reflected signals in which the radar signal is reflected by one or more objects;
In each azimuth within the detection range, among the one or more reflection points detected based on the one or more reflection signals, the position of the reflection point closest to the in-vehicle radar device is determined within the detection range. , Detecting for each frame as a boundary candidate position of the region where the one or more objects do not exist,
Calculate movement amount data relating to the movement amount of the in-vehicle radar device,
Based on the movement amount data, the estimated boundary position is generated by converting the boundary candidate position detected in the past frame into the boundary position in the current frame,
Smoothing is performed using the boundary candidate position and the estimated boundary position of the current frame, and a boundary position with an area where no object exists in the detection range is calculated;
Region detection method.
前記スムージング処理は、
前記検知範囲内の各方位の前記境界候補位置又は前記推定境界位置に対し、予め設定された尤度重みを用いて尤度値を算出し、前記尤度値が所定の閾値以上である場合、前記境界位置が存在すると判断し、
前記検知範囲内の各方位に前記境界位置が存在する場合に、予め設定された出力値重みを用いて前記現フレームの前記境界候補位置又は前記推定境界位置の距離に重み付けし、加重平均を用いて算出した出力距離を前記境界位置として出力する、
請求項6記載の領域検出方法。
The smoothing process includes
When a likelihood value is calculated using a preset likelihood weight for the boundary candidate position or the estimated boundary position in each direction within the detection range, and the likelihood value is equal to or greater than a predetermined threshold value, Determining that the boundary position exists;
When the boundary position exists in each direction within the detection range, the weight of the boundary candidate position or the estimated boundary position of the current frame is weighted using a preset output value weight, and a weighted average is used. Output the calculated output distance as the boundary position,
The region detection method according to claim 6.
前記1つ以上の物体は、静止物体及び移動物体を含む、
請求項6記載の領域検出方法。
The one or more objects include stationary objects and moving objects;
The region detection method according to claim 6.
前記1つ以上の物体は、静止物体である、
請求項6記載の領域検出方法。
The one or more objects are stationary objects;
The region detection method according to claim 6.
前記検知範囲を、カメラ部を用いて撮影し、
前記撮影された映像のうち、物体認識に用いる画像領域を、前記境界位置に基づいて設定し、
前記設定された画像領域に対して、物体認識を行う、
を更に含む、
請求項6記載の領域検出方法。
The detection range is photographed using a camera unit,
An image region used for object recognition among the captured images is set based on the boundary position,
Object recognition is performed on the set image area.
Further including
The region detection method according to claim 6.
JP2015198675A 2014-12-12 2015-10-06 On-vehicle radar device and area detection method Active JP6557923B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/951,481 US10101448B2 (en) 2014-12-12 2015-11-24 On-board radar apparatus and region detection method
EP15196636.3A EP3032273A1 (en) 2014-12-12 2015-11-27 On-board radar apparatus and region detection method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2014251876 2014-12-12
JP2014251876 2014-12-12
JP2015132621 2015-07-01
JP2015132621 2015-07-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019120096A Division JP2019194614A (en) 2014-12-12 2019-06-27 On-vehicle radar device, area detection device and area detection method

Publications (3)

Publication Number Publication Date
JP2017009572A true JP2017009572A (en) 2017-01-12
JP2017009572A5 JP2017009572A5 (en) 2018-07-12
JP6557923B2 JP6557923B2 (en) 2019-08-14

Family

ID=57763251

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015198675A Active JP6557923B2 (en) 2014-12-12 2015-10-06 On-vehicle radar device and area detection method
JP2019120096A Pending JP2019194614A (en) 2014-12-12 2019-06-27 On-vehicle radar device, area detection device and area detection method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019120096A Pending JP2019194614A (en) 2014-12-12 2019-06-27 On-vehicle radar device, area detection device and area detection method

Country Status (1)

Country Link
JP (2) JP6557923B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124181A (en) * 2017-02-01 2018-08-09 株式会社東海理化電機製作所 Radio wave propagation distance estimation device
JP2019020158A (en) * 2017-07-12 2019-02-07 ミツミ電機株式会社 Object detection method and object detection device
CN109507670A (en) * 2017-09-14 2019-03-22 三星电子株式会社 Radar image processing method, device and system
CN111999709A (en) * 2020-08-31 2020-11-27 安徽江淮汽车集团股份有限公司 Detection device for detection range of automobile radar
WO2021033354A1 (en) * 2019-08-20 2021-02-25 オムロン株式会社 Autonomous travel vehicle collision avoidance device, collision avoidance method, and collision avoidance program
JP2021177136A (en) * 2020-05-07 2021-11-11 株式会社トヨタマップマスター Information processing device, information processing method and information processing program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7445890B2 (en) 2020-06-10 2024-03-08 パナソニックIpマネジメント株式会社 Processing device, processing method, program, and radar device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148328A (en) * 1992-11-06 1994-05-27 Toyota Central Res & Dev Lab Inc Obstacle recognition apparatus for vehicle
JP2000147103A (en) * 1998-09-07 2000-05-26 Denso Corp Surrounding state detecting apparatus, and recording medium
JP2008298544A (en) * 2007-05-30 2008-12-11 Toyota Motor Corp Object detection device and control device for vehicle
WO2009157548A1 (en) * 2008-06-27 2009-12-30 トヨタ自動車株式会社 Object detector
US20110194158A1 (en) * 2008-10-14 2011-08-11 Korea Institute Of Science And Technology Motion tracking method using scanning device
JP2011191227A (en) * 2010-03-16 2011-09-29 Daihatsu Motor Co Ltd Object recognition device
JP2013040886A (en) * 2011-08-19 2013-02-28 Mitsubishi Electric Corp Method and program for measuring three-dimensional point group

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5531474B2 (en) * 2008-12-12 2014-06-25 株式会社豊田中央研究所 Map generation device, runway estimation device, movable region estimation device, and program
JP5678793B2 (en) * 2011-05-11 2015-03-04 トヨタ自動車株式会社 Perimeter monitoring device, perimeter monitoring method, and driving support device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148328A (en) * 1992-11-06 1994-05-27 Toyota Central Res & Dev Lab Inc Obstacle recognition apparatus for vehicle
JP2000147103A (en) * 1998-09-07 2000-05-26 Denso Corp Surrounding state detecting apparatus, and recording medium
JP2008298544A (en) * 2007-05-30 2008-12-11 Toyota Motor Corp Object detection device and control device for vehicle
WO2009157548A1 (en) * 2008-06-27 2009-12-30 トヨタ自動車株式会社 Object detector
US20110194158A1 (en) * 2008-10-14 2011-08-11 Korea Institute Of Science And Technology Motion tracking method using scanning device
JP2011191227A (en) * 2010-03-16 2011-09-29 Daihatsu Motor Co Ltd Object recognition device
JP2013040886A (en) * 2011-08-19 2013-02-28 Mitsubishi Electric Corp Method and program for measuring three-dimensional point group

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124181A (en) * 2017-02-01 2018-08-09 株式会社東海理化電機製作所 Radio wave propagation distance estimation device
JP2019020158A (en) * 2017-07-12 2019-02-07 ミツミ電機株式会社 Object detection method and object detection device
CN109507670A (en) * 2017-09-14 2019-03-22 三星电子株式会社 Radar image processing method, device and system
WO2021033354A1 (en) * 2019-08-20 2021-02-25 オムロン株式会社 Autonomous travel vehicle collision avoidance device, collision avoidance method, and collision avoidance program
JP2021177136A (en) * 2020-05-07 2021-11-11 株式会社トヨタマップマスター Information processing device, information processing method and information processing program
CN111999709A (en) * 2020-08-31 2020-11-27 安徽江淮汽车集团股份有限公司 Detection device for detection range of automobile radar

Also Published As

Publication number Publication date
JP6557923B2 (en) 2019-08-14
JP2019194614A (en) 2019-11-07

Similar Documents

Publication Publication Date Title
JP6557923B2 (en) On-vehicle radar device and area detection method
EP3208635B1 (en) Vision algorithm performance using low level sensor fusion
US10101448B2 (en) On-board radar apparatus and region detection method
US9836657B2 (en) System and method for periodic lane marker identification and tracking
JP4426535B2 (en) Vehicle periphery monitoring device
US9429650B2 (en) Fusion of obstacle detection using radar and camera
JP5297078B2 (en) Method for detecting moving object in blind spot of vehicle, and blind spot detection device
US9230165B2 (en) Object detection apparatus, vehicle-mounted device control system and storage medium of program of object detection
RU151809U1 (en) VIDEO SYSTEM FOR SECURITY OF VEHICLES
CN112799098B (en) Radar blind area monitoring method and device, electronic equipment and storage medium
US11119210B2 (en) Vehicle control device and vehicle control method
KR101103526B1 (en) Collision Avoidance Method Using Stereo Camera
JP4901275B2 (en) Travel guidance obstacle detection device and vehicle control device
EP3667612B1 (en) Roadside object detection device, roadside object detection method, and roadside object detection system
US10482332B2 (en) Pedestrian determining apparatus for determining whether an object is a pedestrian crossing ahead of an own vehicle
JP2008304344A (en) Target detector
US20140002658A1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
US20160188984A1 (en) Lane partition line recognition apparatus
CN111332288A (en) Vehicle and pedestrian collision avoidance method based on vision system
US8160300B2 (en) Pedestrian detecting apparatus
JP2011048485A (en) Device and method for detecting target
KR20150096924A (en) System and method for selecting far forward collision vehicle using lane expansion
JP2018147399A (en) Target detection device
CN112101316B (en) Target detection method and system
US11407390B2 (en) Vehicle control apparatus and vehicle control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190627

R150 Certificate of patent or registration of utility model

Ref document number: 6557923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150