JP7244220B2 - Radar device and target data output method - Google Patents

Radar device and target data output method Download PDF

Info

Publication number
JP7244220B2
JP7244220B2 JP2018113130A JP2018113130A JP7244220B2 JP 7244220 B2 JP7244220 B2 JP 7244220B2 JP 2018113130 A JP2018113130 A JP 2018113130A JP 2018113130 A JP2018113130 A JP 2018113130A JP 7244220 B2 JP7244220 B2 JP 7244220B2
Authority
JP
Japan
Prior art keywords
data
target
instantaneous
radar device
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018113130A
Other languages
Japanese (ja)
Other versions
JP2019215281A (en
Inventor
聖也 藤津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018113130A priority Critical patent/JP7244220B2/en
Publication of JP2019215281A publication Critical patent/JP2019215281A/en
Application granted granted Critical
Publication of JP7244220B2 publication Critical patent/JP7244220B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、レーダ装置および物標データ出力方法に関する。 The present invention relates to a radar device and a target object data output method.

従来、例えば、車両に搭載され、かかる車両から送信される送信波が物標で反射した反射波に基づいて物標を検出するレーダ装置がある。かかるレーダ装置では、同一物標に対応する瞬時データから当該物標に代表される一つの代表データを生成し、かかる代表データを出力する(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, for example, there is a radar apparatus that is mounted on a vehicle and detects a target based on a reflected wave that is reflected by the target from a transmission wave that is transmitted from the vehicle. Such a radar device generates one representative data representative of the target from instantaneous data corresponding to the same target, and outputs the representative data (see, for example, Patent Document 1).

特開2015-210157号公報JP 2015-210157 A

しかしながら、従来技術では、同一物標から複数の瞬時データを検出した場合であっても、1つの代表データのみが出力されるため、出力する代表データから物標の形状を正しく認識させることができない。 However, in the conventional technology, even when a plurality of instantaneous data are detected from the same target, only one representative data is output, so the shape of the target cannot be correctly recognized from the output representative data. .

本発明は、上記に鑑みてなされたものであって、物標の形状を正しく認識させることができるレーダ装置および物標データ出力方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a radar device and a target data output method that can correctly recognize the shape of a target.

上述した課題を解決し、目的を達成するために、実施形態に係るレーダ装置は、生成部と、フィルタ処理部と、出力部とを備える。前記生成部は、送信波が物標で反射した反射波に基づいて前記物標に対応する瞬時データを生成する。フィルタ処理部は、前記生成部によって生成された前記瞬時データに基づいて前記物標毎の代表データを生成する。前記出力部は、前記フィルタ処理部によって生成された前記代表データに対して、当該代表データの生成に用いられた前記瞬時データに基づく前記物標の形状データを付与した出力データを出力する。 In order to solve the above-described problems and achieve the object, a radar device according to an embodiment includes a generation section, a filtering section, and an output section. The generator generates instantaneous data corresponding to the target based on a reflected wave of the transmitted wave reflected by the target. A filter processor generates representative data for each of the targets based on the instantaneous data generated by the generator. The output unit outputs output data obtained by adding shape data of the target based on the instantaneous data used to generate the representative data to the representative data generated by the filtering unit.

本発明によれば、物標の形状を正しく認識させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the shape of a target can be correctly recognized.

図1Aは、レーダ装置1の搭載例を示す図である。FIG. 1A is a diagram showing a mounting example of the radar device 1. FIG. 図1Bは、物標データ出力方法の概要を示す図である。FIG. 1B is a diagram showing an outline of a target object data output method. 図2は、レーダ装置のブロック図である。FIG. 2 is a block diagram of the radar device. 図3は、信号処理部の前段処理から信号処理部におけるピーク抽出処理までの処理説明図である。FIG. 3 is a process explanatory diagram from pre-processing of the signal processing unit to peak extraction processing in the signal processing unit. 図4Aは、角度推定処理の処理説明図である。FIG. 4A is a process explanatory diagram of the angle estimation process. 図4Bは、ペアリング処理の処理説明図(その1)である。FIG. 4B is a process explanatory diagram (part 1) of the pairing process. 図4Cは、ペアリング処理の処理説明図(その2)である。FIG. 4C is a process explanatory diagram (part 2) of the pairing process. 図5Aは、出力データの具体例を示す図(その1)である。FIG. 5A is a diagram (part 1) showing a specific example of output data. 図5Bは、出力データの具体例を示す図(その2)である。FIG. 5B is a diagram (part 2) showing a specific example of output data. 図5Cは、出力データの具体例を示す図(その3)である。FIG. 5C is a diagram (part 3) showing a specific example of output data. 図6は、レーダ装置が実行する処理手順を示すフローチャートである。FIG. 6 is a flow chart showing a processing procedure executed by the radar device. 図7は、変形例に係る出力データの具体例を示す図である。FIG. 7 is a diagram showing a specific example of output data according to the modification.

以下、添付図面を参照して、本願の開示するレーダ装置および物標データ出力方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。なお、以下では、レーダ装置がFM-CW(Frequency Modulated Continuous Wave)方式である場合を例に挙げて説明するが、レーダ装置は、FCM(Fast-Chirp Modulation)方式であってもよい。 Embodiments of a radar device and a target data output method disclosed in the present application will be described in detail below with reference to the accompanying drawings. It should be noted that the present invention is not limited by this embodiment. In the following description, a case where the radar system is of the FM-CW (Frequency Modulated Continuous Wave) system will be described as an example, but the radar system may be of the FCM (Fast-Chirp Modulation) system.

まず、図1Aおよび図1Bを用いて、実施形態に係る物標データ出力方法の概要について説明する。図1Aは、レーダ装置の搭載例を示す図である。図1Bは、物標データ出力の概要を示す図である。図1Aでは、実施形態に係るレーダ装置1を搭載した自車両MCと、自車両MCの前方に位置する他車両LCとを示している。 First, the outline of the target data output method according to the embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a diagram showing an example of mounting a radar device. FIG. 1B is a diagram showing an outline of target data output. FIG. 1A shows an own vehicle MC equipped with a radar device 1 according to the embodiment, and another vehicle LC located in front of the own vehicle MC.

図1Aに示すように、レーダ装置1は、例えば自車両MCのフロントグリル内等に搭載され、自車両MCの進行方向に存在する物標(例えば、他車両LC等)を検出する。なお、レーダ装置1の搭載箇所は、例えばフロントガラスやリアグリル、左右の側部(例えば、左右のドアミラー)等他の箇所に搭載されてもよい。 As shown in FIG. 1A, the radar device 1 is mounted, for example, in the front grille of the own vehicle MC, and detects targets (for example, other vehicles LC, etc.) existing in the traveling direction of the own vehicle MC. Note that the radar device 1 may be mounted at other locations such as a windshield, a rear grille, and left and right side portions (for example, left and right door mirrors).

また、図1Aに示すように、レーダ装置1は、自車両MCの周囲に送信した電波が他車両LCで反射した反射波に基づいて物標に対応する瞬時データ100を生成する。瞬時データ100には、自車両MCへの向きの相対速度や、自車両MCと瞬時データ100までの距離、瞬時データ100の方向といった情報が含まれる。 Further, as shown in FIG. 1A, the radar device 1 generates instantaneous data 100 corresponding to the target based on the reflected waves of the radio waves transmitted around the host vehicle MC reflected by the other vehicle LC. The instantaneous data 100 includes information such as the relative speed toward the own vehicle MC, the distance between the own vehicle MC and the instantaneous data 100, and the direction of the instantaneous data 100. FIG.

また、レーダ装置1は、生成した瞬時データ100に対して時系列フィルタリングを施し、フィルタ値として物標に対応する物標データを生成する。これにより、物標データを追従(トラッキング)することが可能となる。 The radar device 1 also performs time-series filtering on the generated instantaneous data 100 to generate target data corresponding to the target as a filter value. This makes it possible to follow (track) the target data.

その後、レーダ装置1は、複数の物標データを同一物体の物標データとして1つに統合するグループ化を行い、代表データ50を生成する。例えば、レーダ装置1は、検知位置および速度が所定範囲内で近い物標データを同一物体の物標データと見做し、かかる物標データから一つの代表データ50を生成する。 After that, the radar device 1 performs grouping to integrate a plurality of target data into one as target data of the same object, and generates representative data 50 . For example, the radar device 1 regards target data whose detected positions and velocities are close within a predetermined range as target data of the same object, and generates one piece of representative data 50 from such target data.

しかしながら、複数の物標データを検出したとしても、1つの物標に対して1つの代表データ50のみが出力される。このため、代表データ50から物標の形状を認識させることができない。 However, even if multiple target data are detected, only one representative data 50 is output for one target. Therefore, the shape of the target cannot be recognized from the representative data 50 .

そこで、実施形態に係る物標データ出力方法では、代表データ50に物標の形状に関する形状データを付与した出力データDoを出力することで、物標の形状を正しく認識させることとした。 Therefore, in the target data output method according to the embodiment, the shape of the target is correctly recognized by outputting the output data Do obtained by adding the shape data related to the shape of the target to the representative data 50 .

具体的には、図1Bに示すように、出力データDoは、代表データ50に加えて、代表データ50の生成に用いられた瞬時データ100を含む。すなわち、実施形態に係る物標データ出力方法では、代表データ50を生成するために用いた瞬時データ100を物標の形状データとして再度利用する。 Specifically, as shown in FIG. 1B, the output data Do includes, in addition to the representative data 50, instantaneous data 100 used to generate the representative data 50. FIG. That is, in the target data output method according to the embodiment, the instantaneous data 100 used to generate the representative data 50 is reused as target shape data.

このように、実施形態に係る物標データ出力方法では、瞬時データ100を物体の形状を示す形状データとして代表データ50に付与することで、物標の形状を正しく認識させることが可能となる。なお、瞬時データ100は、形状データの一例であり、形状を示すデータであれば、その他のデータであってもよい。 As described above, in the target data output method according to the embodiment, by adding the instantaneous data 100 to the representative data 50 as the shape data representing the shape of the object, it is possible to correctly recognize the shape of the target. Note that the instantaneous data 100 is an example of shape data, and may be other data as long as it indicates a shape.

次に、図2を参照して、実施形態に係るレーダ装置1の構成について詳細に説明する。図2は、実施形態に係るレーダ装置1の構成を示すブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。 Next, with reference to FIG. 2, the configuration of the radar device 1 according to the embodiment will be described in detail. FIG. 2 is a block diagram showing the configuration of the radar device 1 according to the embodiment. In addition, in FIG. 2, only the components necessary for explaining the features of the present embodiment are represented by functional blocks, and the description of general components is omitted.

図2に示すように、レーダ装置1は、送信部10と、受信部20と、処理部30とを備える。レーダ装置1は、自車両MCの挙動を制御する車両制御装置2に接続される。 As shown in FIG. 2 , the radar device 1 includes a transmitter 10 , a receiver 20 and a processor 30 . The radar device 1 is connected to a vehicle control device 2 that controls the behavior of the own vehicle MC.

車両制御装置2は、レーダ装置1による物標の検出結果に基づいて、PCS(Pre-crash Safety System)やAEB(Advanced Emergency Braking System)などの車両制御を行う。 The vehicle control device 2 performs vehicle control such as PCS (Pre-crash Safety System) and AEB (Advanced Emergency Braking System) based on the target detection result by the radar device 1 .

送信部10は、信号生成部11と、発振器12と、送信アンテナ13とを備える。信号生成部11は、後述する送受信制御部31の制御により、三角波で周波数変調されたミリ波を送信するための変調信号を生成する。発振器12は、かかる信号生成部11によって生成された変調信号に基づいて送信信号を生成し、送信アンテナ13へ出力する。なお、図2に示すように、発振器12によって生成された送信信号は、後述するミキサ22に対しても分配される。 The transmitter 10 includes a signal generator 11 , an oscillator 12 and a transmission antenna 13 . The signal generation unit 11 generates a modulation signal for transmitting millimeter waves frequency-modulated with a triangular wave under the control of the transmission/reception control unit 31, which will be described later. The oscillator 12 generates a transmission signal based on the modulated signal generated by the signal generator 11 and outputs it to the transmission antenna 13 . Incidentally, as shown in FIG. 2, the transmission signal generated by the oscillator 12 is also distributed to the mixer 22, which will be described later.

送信アンテナ13は、発振器12からの送信信号を送信波へ変換し、かかる送信波を自車両MCの外部へ出力する。送信アンテナ13が出力する送信波は、三角波で周波数変調された連続波である。送信アンテナ13から自車両MCの外部、たとえば前方へ送信された送信波は、他車両LC等の物標で反射されて反射波となる。 The transmission antenna 13 converts a transmission signal from the oscillator 12 into a transmission wave, and outputs the transmission wave to the outside of the own vehicle MC. A transmission wave output from the transmission antenna 13 is a continuous wave frequency-modulated with a triangular wave. A transmission wave transmitted from the transmission antenna 13 to the outside of the own vehicle MC, for example, to the front is reflected by a target such as another vehicle LC and becomes a reflected wave.

受信部20は、アレーアンテナを形成する複数の受信アンテナ21と、複数のミキサ22と、複数のA/D変換部23とを備える。ミキサ22およびA/D変換部23は、受信アンテナ21ごとに設けられる。 The receiving section 20 includes a plurality of receiving antennas 21 forming an array antenna, a plurality of mixers 22 and a plurality of A/D converting sections 23 . Mixer 22 and A/D converter 23 are provided for each receiving antenna 21 .

各受信アンテナ21は、物標からの反射波を受信波として受信し、かかる受信波を受信信号へ変換してミキサ22へ出力する。なお、図2に示す受信アンテナ21の数は4つであるが、3つ以下または5つ以上であってもよい。 Each receiving antenna 21 receives a reflected wave from a target as a received wave, converts the received wave into a received signal, and outputs the received signal to the mixer 22 . Although the number of receiving antennas 21 shown in FIG. 2 is four, the number may be three or less or five or more.

受信アンテナ21から出力された受信信号は、図示略の増幅器(たとえば、ローノイズアンプ)で増幅された後にミキサ22へ入力される。ミキサ22は、分配された送信信号と、受信アンテナ21から入力される受信信号との一部をミキシングし不要な信号成分を除去してビート信号を生成し、A/D変換部23へ出力する。 A received signal output from the receiving antenna 21 is input to the mixer 22 after being amplified by an amplifier (for example, a low noise amplifier) not shown. The mixer 22 mixes the distributed transmission signal and part of the received signal input from the receiving antenna 21 to remove unnecessary signal components, generates a beat signal, and outputs the beat signal to the A/D converter 23 . .

ビート信号は、送信信号の周波数(以下、「送信周波数」と記載する)と受信信号の周波数(以下、「受信周波数」と記載する)との差となるビート周波数を有する。ミキサ22で生成されたビート信号は、図示しない同期部によって受信アンテナ21同士でタイミングを合わせた上でA/D変換部23でデジタル信号に変換された後に、処理部30へ出力される。 The beat signal has a beat frequency that is the difference between the frequency of the transmission signal (hereinafter referred to as "transmission frequency") and the frequency of the reception signal (hereinafter referred to as "reception frequency"). The beat signal generated by the mixer 22 is synchronized in timing between the receiving antennas 21 by a synchronization section (not shown), converted into a digital signal by the A/D conversion section 23 , and then output to the processing section 30 .

処理部30は、送受信制御部31と、信号処理部32と、記憶部36とを備える。信号処理部32は、生成部33と、フィルタ処理部34とを備える。 The processing unit 30 includes a transmission/reception control unit 31 , a signal processing unit 32 and a storage unit 36 . The signal processor 32 includes a generator 33 and a filter processor 34 .

記憶部36は、履歴データ36aを記憶する。履歴データ36aは、信号処理部32が実行する一連の信号処理における物標データの履歴や、瞬時データ100の履歴を含む情報である。 The storage unit 36 stores history data 36a. The history data 36 a is information including the history of target data in a series of signal processing executed by the signal processing unit 32 and the history of the instantaneous data 100 .

処理部30は、たとえば、CPU(Central Processing Unit)、記憶部36に対応するROM(Read Only Memory)やRAM(Random Access Memory)、レジスタ、その他の入出力ポートなどを含むマイクロコンピュータであり、レーダ装置1全体を制御する。 The processing unit 30 is, for example, a microcomputer including a CPU (Central Processing Unit), ROM (Read Only Memory) and RAM (Random Access Memory) corresponding to the storage unit 36, registers, other input/output ports, and the like. It controls the entire device 1 .

かかるマイクロコンピュータのCPUがROMに記憶されたプログラムを読み出して実行することによって、送受信制御部31および信号処理部32として機能する。なお、送受信制御部31および信号処理部32は全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードウェアで構成することもできる。 The CPU of such a microcomputer functions as a transmission/reception control section 31 and a signal processing section 32 by reading out and executing programs stored in the ROM. The transmission/reception control unit 31 and the signal processing unit 32 can also be configured entirely by hardware such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).

送受信制御部31は、信号生成部11を含む送信部10、および、受信部20を制御する。信号処理部32は、一連の信号処理を周期的に実行する。続いて信号処理部32の各構成要素について説明する。 The transmission/reception control section 31 controls the transmission section 10 including the signal generation section 11 and the reception section 20 . The signal processing unit 32 periodically executes a series of signal processing. Next, each component of the signal processing unit 32 will be described.

生成部33は、瞬時データ100を生成する。具体的には、生成部33は、周波数解析処理と、ピーク抽出処理と、瞬時データ生成処理とを行うことで、瞬時データ100を生成する。 The generator 33 generates instantaneous data 100 . Specifically, the generator 33 generates the instantaneous data 100 by performing frequency analysis processing, peak extraction processing, and instantaneous data generation processing.

周波数解析処理では、各A/D変換部23から入力されるビート信号に対して高速フーリエ変換(FFT:Fast Fourier Transform)処理(以下、「FFT処理」と記載する)を行う。かかるFFT処理の結果は、ビート信号の周波数スペクトルであり、ビート信号の周波数ごと(周波数分解能に応じた周波数間隔で設定された周波数ビンごと)のパワー値(信号レベル)である。 In the frequency analysis process, the beat signal input from each A/D converter 23 is subjected to Fast Fourier Transform (FFT) processing (hereinafter referred to as "FFT processing"). The result of such FFT processing is the frequency spectrum of the beat signal, which is the power value (signal level) for each frequency of the beat signal (for each frequency bin set at frequency intervals corresponding to the frequency resolution).

ピーク抽出処理では、周波数解析処理によるFFT処理の結果においてピークとなるピーク周波数を抽出する。なお、ピーク抽出処理では、後述するビート信号の「UP区間」および「DN区間」のそれぞれについてピーク周波数を抽出する。 In the peak extraction process, a peak frequency is extracted as a result of the FFT process by the frequency analysis process. In the peak extraction process, peak frequencies are extracted for each of the "UP section" and the "DN section" of the beat signal, which will be described later.

瞬時データ生成処理では、ピーク抽出処理において抽出されたピーク周波数のそれぞれに対応する反射波の到来角度とそのパワー値を算出する角度推定処理を実行する。なお、角度推定処理の実行時点で、到来角度は、物標が存在すると推定される角度であることから、以下では「推定角度」と記載する場合がある。 In the instantaneous data generation process, an angle estimation process is executed to calculate the arrival angle and the power value of the reflected wave corresponding to each of the peak frequencies extracted in the peak extraction process. It should be noted that, at the time of execution of the angle estimation process, the arrival angle is an angle at which it is estimated that the target exists, so it may be referred to as an "estimated angle" below.

また、瞬時データ生成処理では、算出した推定角度とパワー値との算出結果に基づいて「UP区間」および「DN区間」それぞれのピーク周波数の正しい組み合わせを判定するペアリング処理を実行する。 Also, in the instantaneous data generation process, a pairing process is executed to determine the correct combination of the peak frequencies of the "UP section" and the "DN section" based on the calculated estimated angle and power value.

また、瞬時データ生成処理では、判定した組み合わせ結果から各物標の自車両MCに対する距離および自車両MCへの向きの相対速度を算出する。また、瞬時データ処理では、算出した各物標の推定角度、距離および相対速度を、最新周期(最新スキャン)分の瞬時データ100としてフィルタ処理部34へ出力するとともに、記憶部36の履歴データ36aとして記憶する。 Further, in the instantaneous data generation process, the distance of each target from the own vehicle MC and the relative speed toward the own vehicle MC are calculated from the determined combination result. In the instantaneous data processing, the calculated estimated angle, distance and relative velocity of each target are output to the filter processing unit 34 as the instantaneous data 100 for the latest cycle (latest scan), and the history data 36a of the storage unit 36 are output. remember as

説明を分かりやすくするために、信号処理部32の前段処理から信号処理部32におけるここまでの処理の流れを図3~図4Cに示す。図3は、信号処理部32の前段処理から生成部33におけるピーク抽出処理までの処理説明図である。 3 to 4C show the flow of processing from the pre-processing of the signal processing unit 32 up to this point in the signal processing unit 32 for the sake of easy understanding of the explanation. FIG. 3 is a process explanatory diagram from pre-processing of the signal processing unit 32 to peak extraction processing in the generation unit 33 .

また、図4Aは、角度推定処理の処理説明図である。また、図4Bおよび図4Cは、ペアリング処理の処理説明図である。なお、図3は、2つの太い下向きの白色矢印で3つの領域に区切られている。以下では、かかる各領域を順に、上段、中段、下段と記載する。 Also, FIG. 4A is a process explanatory diagram of the angle estimation process. 4B and 4C are process explanatory diagrams of the pairing process. Note that FIG. 3 is divided into three regions by two thick downward white arrows. In the following, such regions are described in order as an upper stage, a middle stage, and a lower stage.

図3の上段に示すように、送信信号fs(t)は、送信アンテナ13から送信波として送出された後、物標において反射されて反射波として到来し、受信アンテナ21において受信信号fr(t)として受信される。 As shown in the upper part of FIG. 3, the transmission signal fs(t) is transmitted from the transmission antenna 13 as a transmission wave, is reflected by the target, arrives as a reflected wave, and is received by the reception antenna 21 as the reception signal fr(t ) is received as

このとき、図3の上段に示すように、受信信号fr(t)は、自車両MCと物標との距離に応じて、送信信号fs(t)に対して時間差Tだけ遅延している。この時間差Tと、自車両MCおよび物標の相対速度に基づくドップラー効果とにより、ビート信号は、周波数が上昇する「UP区間」の周波数fupと、周波数が下降する「DN区間」の周波数fdnとが繰り返される信号として得られる(図3の中段参照)。 At this time, as shown in the upper part of FIG. 3, the received signal fr(t) is delayed by the time difference T with respect to the transmitted signal fs(t) according to the distance between the host vehicle MC and the target. Due to this time difference T and the Doppler effect based on the relative velocities of the host vehicle MC and the target, the beat signal has a frequency fup in an "UP section" where the frequency rises and a frequency fdn in the "DN section" where the frequency drops. is obtained as a repeated signal (see the middle part of FIG. 3).

図3の下段には、かかるビート信号を周波数解析処理においてFFT処理した結果を、「UP区間」側および「DN区間」側のそれぞれについて模式的に示している。 The lower part of FIG. 3 schematically shows the results of the FFT processing of the beat signal in the frequency analysis processing for each of the "UP section" side and the "DN section" side.

図3の下段に示すように、FFT処理後には、「UP区間」側および「DN区間」側のそれぞれの周波数領域における波形が得られる。ピーク抽出処理では、かかる波形においてピークとなるピーク周波数を抽出する。 As shown in the lower part of FIG. 3, after the FFT processing, waveforms in the frequency domains on the "UP section" side and the "DN section" side are obtained. In the peak extraction process, the peak frequency of the waveform is extracted.

たとえば、図3の下段に示した例の場合、ピーク抽出閾値が用いられ、「UP区間」側においては、ピークPu1~Pu3がそれぞれピークとして判定され、ピーク周波数fu1~fu3がそれぞれ抽出される。 For example, in the case of the example shown in the lower part of FIG. 3, a peak extraction threshold is used, peaks Pu1 to Pu3 are determined as peaks, and peak frequencies fu1 to fu3 are extracted on the "UP section" side.

また、「DN区間」側においては、同じくピーク抽出閾値により、ピークPd1~Pd3がそれぞれピークとして判定され、ピーク周波数fd1~fd3がそれぞれ抽出される。 Also, on the "DN section" side, the peaks Pd1 to Pd3 are determined as peaks by the same peak extraction threshold, and the peak frequencies fd1 to fd3 are extracted.

ここで、ピーク抽出処理により抽出した各ピーク周波数の周波数成分には、複数の物標からの反射波が混成している場合がある。そこで、瞬時データ生成処理では、各ピーク周波数のそれぞれについて方位演算する角度推定処理を行い、ピーク周波数ごとに対応する物標の存在を解析する。 Here, the frequency component of each peak frequency extracted by the peak extraction process may be mixed with reflected waves from a plurality of targets. Therefore, in the instantaneous data generation process, an angle estimation process for performing azimuth calculation is performed for each peak frequency, and the presence of a target corresponding to each peak frequency is analyzed.

なお、瞬時データ生成処理における方位演算は、たとえばESPRIT(Estimation of Signal Parameters via Rotational Invariance Techniques)などの公知の到来方向推定手法を用いて行うことができる。 Note that the azimuth calculation in the instantaneous data generation process can be performed using a known direction-of-arrival estimation technique such as ESPRIT (Estimation of Signal Parameters via Rotational Invariance Techniques).

図4Aは、瞬時データ生成処理の方位演算結果を模式的に示すものである。瞬時データ生成処理では、かかる方位演算結果の各ピークPu1~Pu3から、これらピークPu1~Pu3にそれぞれ対応する各物標(各反射点)の推定角度を算出する。また、各ピークPu1~Pu3の大きさがパワー値となる。瞬時データ生成処理では、図4Bに示すように、かかる角度推定処理を「UP区間」側および「DN区間」側のそれぞれについて行う。 FIG. 4A schematically shows an azimuth calculation result of instantaneous data generation processing. In the instantaneous data generation process, the estimated angle of each target (each reflection point) corresponding to each of the peaks Pu1 to Pu3 is calculated from each of the peaks Pu1 to Pu3 of the azimuth calculation result. Also, the magnitude of each of the peaks Pu1 to Pu3 is the power value. In the instantaneous data generation processing, as shown in FIG. 4B, such angle estimation processing is performed for each of the "UP section" side and the "DN section" side.

そして、瞬時データ生成処理では、方位演算結果において、推定角度およびパワー値の近い各ピークを組み合わせるペアリング処理を行う。また、その組み合わせ結果から、瞬時データ生成処理では、各ピークの組み合わせに対応する各物標(各反射点)の距離および自車両MCへの向きの相対速度を算出する。 Then, in the instantaneous data generation process, a pairing process is performed in which peaks having similar estimated angles and power values are combined in the azimuth calculation result. Further, from the result of the combination, in the instantaneous data generation process, the distance of each target (each reflection point) corresponding to the combination of each peak and the relative speed toward the own vehicle MC are calculated.

距離は、「距離∝(fup+fdn)」の関係に基づいて算出することができる。相対速度は、「速度∝(fup-fdn)」の関係に基づいて算出することができる。その結果、図4Cに示すように、自車両MCに対する、各反射点RPの推定角度、距離および相対速度の瞬時データ100を示すペアリング処理結果が得られる。 The distance can be calculated based on the relationship “distance∝(fup+fdn)”. The relative velocity can be calculated based on the relationship "velocity∝(fup-fdn)". As a result, as shown in FIG. 4C, a pairing processing result showing instantaneous data 100 of the estimated angle, distance and relative speed of each reflection point RP with respect to the own vehicle MC is obtained.

図2に戻って、フィルタ処理部34について説明する。図2に示すように、フィルタ処理部34は、予測部34aと、割当部34bと、重み付け部34cと、リサンプリング部34dと、代表データ生成部34eとを備える。 Returning to FIG. 2, the filter processing unit 34 will be described. As shown in FIG. 2, the filtering unit 34 includes a prediction unit 34a, an allocation unit 34b, a weighting unit 34c, a resampling unit 34d, and a representative data generation unit 34e.

フィルタ処理部34は、生成部33によって生成された瞬時データ100に対して所定数の粒子の分布を用いて解析を行うパーティクルフィルタを施すことによって、瞬時データ100に対応する物標データを生成する。 The filtering unit 34 generates target object data corresponding to the instantaneous data 100 by applying a particle filter that analyzes the instantaneous data 100 generated by the generating unit 33 using a distribution of a predetermined number of particles. .

パーティクルフィルタでは、物標の真の状態に対して複数の仮説を立てて解析を行う。仮説とは例えば位置や速度などの物標の状態に対する1つの仮定値である。例えば位置空間では、仮説は所定の分布で散布され、移動していく1つの粒子のように見えるため、ここでは仮説を粒子という。また、所定数の粒子をまとめて1つの仮説とした粒子群データを併せて用いる。例えば粒子群データは粒子の状態の平均値などであり、所定数の粒子の分布において最もあり得る1つの仮説ともいえる。 The particle filter makes multiple hypotheses for the true state of the target and analyzes them. A hypothesis is a hypothetical value for the state of a target, such as position or velocity. For example, in the position space, the hypotheses are scattered in a given distribution and look like one moving particle, so here we refer to the hypotheses as particles. In addition, particle swarm data in which a predetermined number of particles are collectively used as one hypothesis is also used. For example, the particle group data is the average value of the state of particles, and can be said to be one of the most probable hypotheses in the distribution of a predetermined number of particles.

予測部34aは、粒子群データならびに粒子の予測処理を行う。具体的には、予測部34aは、最新の周期を時刻tとし、時刻tにおける粒子ならびに粒子群データの状態を、前回の周期の時刻t-1の粒子並びに粒子群データを基に予測する。例えば速度、位置といった粒子並びに粒子群データの状態を基に、運動モデルと、測定周期ΔTによって予測する手法などがある。つまり、予測部34aは、予測処理において、過去の粒子ならびに粒子群データの状態から時刻tにおける粒子ならびに粒子群データの状態を予測する。 The prediction unit 34a performs particle group data and particle prediction processing. Specifically, the prediction unit 34a assumes that the latest cycle is time t, and predicts the state of the particles and particle group data at time t based on the particles and particle group data at time t−1 of the previous cycle. For example, there is a method of predicting by a motion model and a measurement period ΔT based on the state of particles and particle group data such as velocity and position. That is, in the prediction process, the prediction unit 34a predicts the state of particles and particle group data at time t from the state of past particles and particle group data.

割当部34bは、最新の周期における瞬時データ100を、予測部34aの予測結果である最新の粒子群データへ割り当てる処理を行う。具体的には、割当部34bは、予測部34aによって生成された今回の粒子群データに対応する所定の割り当て範囲と、瞬時データ100と粒子群データとの位置差、速度差などに基づき、今回の瞬時データ100を、粒子群データへ割り当てる。 The allocation unit 34b performs processing for allocating the instantaneous data 100 in the latest period to the latest particle group data, which is the prediction result of the prediction unit 34a. Specifically, the allocation unit 34b determines the current is assigned to the particle swarm data.

なお、割当部34bは、いずれの物標データの割り当て範囲内にも存在しない瞬時データ100があった場合には、かかる瞬時データ100を新規の物標として扱う。新規の物標は所定の処理を行った後、粒子群データが生成され、同時に粒子も付与される。所定の処理は測定周期をまたぐことも可能であり、例えば新規の物標に対して、簡易的に数周期の間連続性を評価して、ノイズなどで単発的に発生したものでないと確認した後に粒子群データを生成し、粒子を付与することもできる。 If there is instantaneous data 100 that does not exist within the allocation range of any target data, the allocation unit 34b treats the instantaneous data 100 as a new target. After performing predetermined processing on the new target, particle group data is generated, and particles are added at the same time. Predetermined processing can also span measurement cycles. For example, for a new target, we simply evaluated the continuity for several cycles and confirmed that it did not occur sporadically due to noise or the like. Particle group data can be generated later and particles can be added.

重み付け部34cは、割当部34bによって粒子群データに割り当てられた今回の瞬時データ100に基づいて、粒子群データを形成する粒子それぞれについて重みを付ける。 The weighting unit 34c weights each particle forming the particle group data based on the current instantaneous data 100 assigned to the particle group data by the assignment unit 34b.

例えば、重み付け部34cは、今回の粒子のうち、今回の瞬時データ100に類似する粒子の重みを大きくし、今回の瞬時データ100から類似しない粒子の重みを小さくする。なお、ここでいう「類似」度合は、例えば位置差や速度差などを基に記述されるコスト関数の評価値などを指す。 For example, the weighting unit 34c increases the weight of particles that are similar to the instantaneous data 100 of this time and decreases the weight of particles that are not similar to the instantaneous data 100 of this time, among the particles of this time. The degree of “similarity” referred to here indicates, for example, an evaluation value of a cost function described based on a positional difference, a speed difference, or the like.

次に、リサンプリング部34dは、今回の粒子それぞれの重みに基づいて粒子を再配置(リサンプリング)する。具体的には、リサンプリング部34dは、重みが小さい粒子を瞬時データ100の近く(重みが大きい)へ移動させる。より具体的には、リサンプリング部34dは、重みが所定の閾値未満の粒子を重みが所定の閾値以上の粒子データへ再配置する。これにより、予測によって生成した今回の粒子群データを、真値により近い可能性がある瞬時データによって補正できる。これにより、後述の代表データ生成部34eによって生成される物標データをより高精度、すなわち、真値に近くになるように補正することができる。 Next, the resampling unit 34d rearranges (resamples) the particles based on the current weight of each particle. Specifically, the resampling unit 34d moves particles with small weights closer to the instantaneous data 100 (larger weights). More specifically, the resampling unit 34d rearranges particles whose weight is less than a predetermined threshold to particle data whose weight is equal to or greater than a predetermined threshold. As a result, the current particle swarm data generated by prediction can be corrected with instantaneous data that may be closer to the true value. As a result, the target data generated by the representative data generation unit 34e, which will be described later, can be corrected with higher accuracy, that is, closer to the true value.

代表データ生成部34eは、物標データを生成し、かかる物標データを同一物標毎に集約した代表データ50を生成する。具体的には、まず、代表データ生成部34eは、リサンプリング部34dによって再配置された今回の粒子に基づいて物標データを生成する。例えば、代表データ生成部34eは、粒子の分布から確率密度関数を生成し、その重心に基づいて物標データを生成、あるいは、シンプルに各粒子の平均に基づいて物標データを生成する。なお、代表データによって、粒子群データが更新される。 The representative data generation unit 34e generates target data, and generates representative data 50 by aggregating the target data for each identical target. Specifically, first, the representative data generation unit 34e generates target object data based on the current particles rearranged by the resampling unit 34d. For example, the representative data generation unit 34e generates a probability density function from the distribution of particles and generates target data based on the center of gravity thereof, or simply generates target data based on the average of each particle. Note that the particle group data is updated with the representative data.

続いて、代表データ生成部34eは、複数の物標データを同一物標の物標データとして1つに統合するグループ化を行う。例えば、代表データ生成部34eは、複数の物標データが所定範囲内に存在し、かつ、各物標データに含まれる各速度成分の差が所定値以下である場合に、各物標データを同一物標の物標データと見做し、グループ化を行う。 Subsequently, the representative data generation unit 34e performs grouping by integrating a plurality of target data into one as target data of the same target. For example, when a plurality of target data exists within a predetermined range and the difference between the speed components included in each target data is equal to or less than a predetermined value, the representative data generation unit 34e generates each target data as They are regarded as target data of the same target and grouped.

その後、代表データ生成部34eは、グループ化した複数の物標データから代表データ50を生成する。また、代表データ生成部34eは、代表データ50に物標の種別を対応付ける処理を行う。 Thereafter, the representative data generator 34e generates representative data 50 from the grouped target data. Further, the representative data generation unit 34e performs a process of associating the representative data 50 with the type of target.

代表データ生成部34eは、相対速度に基づき、各物標を、先行車、静止物(静止車両を含む)、対向車に分類する。例えば、代表データ生成部34eは、自車両MCの速度と向きであって、この速度の大きさよりもより大きな相対速度の物標を「先行車」と分類する。 The representative data generator 34e classifies each target into a preceding vehicle, a stationary object (including a stationary vehicle), and an oncoming vehicle based on the relative speed. For example, the representative data generator 34e classifies a target with a relative speed greater than the speed and direction of the own vehicle MC as a "preceding vehicle".

また、例えば、代表データ生成部34eは、自車両MCの速度と概ね逆向きである相対速度の物標を「静止物」と分類する。また、例えば、代表データ生成部34eは、自車両MCの速度と逆向きであって、この速度の大きさよりもより大きな相対速度の物標を「対向車」と分類する。 Also, for example, the representative data generation unit 34e classifies a target with a relative speed generally opposite to the speed of the own vehicle MC as a "stationary object". Also, for example, the representative data generating unit 34e classifies a target having a relative speed that is in the opposite direction to the speed of the own vehicle MC and is greater than the magnitude of this speed as an "oncoming vehicle".

なお、代表データ生成部34eは、自車両MCの舵角や走行速度を含む走行情報を取得し、自車両MCの走行速度および走行向きを算出することで、物標の対地速度を求めることで物標を分類することにしてもよい。 The representative data generation unit 34e acquires travel information including the steering angle and travel speed of the own vehicle MC, calculates the travel speed and travel direction of the own vehicle MC, and obtains the ground speed of the target. Targets may be classified.

続いて、出力部35について説明する。出力部35は、フィルタ処理部34によって生成された代表データ50に対して、代表データ50の生成に用いられた瞬時データ100に基づく物標の形状データを付与した出力データDoを出力する。形状データは物標の形状を表すために任意の要素を用いることができる。何を使用するかはシステムの要求に応じて適宜決定するとよい。 Next, the output section 35 will be described. The output unit 35 outputs output data Do obtained by adding target shape data based on the instantaneous data 100 used to generate the representative data 50 to the representative data 50 generated by the filtering unit 34 . The shape data can use arbitrary elements to represent the shape of the target. Which one to use should be determined as appropriate according to system requirements.

例えば、点列で外形を表現する場合は、複数の瞬時データ100の位置、すなわちX,Y座標の組を出力するデータ構造とすることもできる。この場合、例えばLIDARなどにおける1レイヤーの測定データと類似のフォーマットなるため、出力先で行われる外形処理に類似のものを使用することができる。 For example, when expressing an outline by a sequence of points, the data structure may be such that the positions of a plurality of instantaneous data 100, that is, a set of X and Y coordinates are output. In this case, since the format is similar to one-layer measurement data in, for example, LIDAR, it is possible to use similar contour processing performed at the output destination.

他にも点列をまとめて直線やL字、四角形として形状を表現し、それらを特徴的に表す値を形状データとして出力することもできる。なお、形状データのデータフォーマットについては、他車両LCの形状を示す画像データや、レーダ装置1を基準とする二次元座標系で他車両LCの形状を示した座標データを用いるなど、車両制御装置2の仕様にあわせて適宜設定することが可能である。また、形状データを圧縮してから出力し、出力先(例えば、車両制御装置2)で圧縮された形状データを解凍して用いることにしてもよい。 In addition, it is also possible to combine points to express shapes as straight lines, L-shapes, and quadrilaterals, and to output values characteristically representing them as shape data. Regarding the data format of the shape data, image data indicating the shape of the other vehicle LC or coordinate data indicating the shape of the other vehicle LC in a two-dimensional coordinate system based on the radar device 1 may be used. 2 can be appropriately set. Alternatively, the shape data may be compressed and then output, and the compressed shape data may be decompressed at the output destination (for example, the vehicle control device 2) and used.

図5A~図5Cは、出力データDoの具体例を示す図である。なお、以下に示す時刻t-1や時刻tは、時間経過を示し、現在の時刻が時刻tであり、時刻tの前回スキャンが時刻t-1であるものとする。 5A to 5C are diagrams showing specific examples of the output data Do. Note that time t-1 and time t shown below indicate the passage of time, the current time is time t, and the previous scan at time t is time t-1.

図5Aに示すように、例えば、時刻t-1における代表データ50aと時刻tにおける代表データ50bとの距離ならびに方位に関する変化量が所定値以下である場合、時刻tにおける出力データDoには、代表データ50aに用いた瞬時データ100aおよび代表データ50bの生成に用いた瞬時データ100bに基づいて生成された形状データが含まれる。 As shown in FIG. 5A, for example, when the amount of change in the distance and direction between the representative data 50a at time t−1 and the representative data 50b at time t is equal to or less than a predetermined value, the output data Do at time t includes representative The shape data generated based on the instantaneous data 100a used for the data 50a and the instantaneous data 100b used for generating the representative data 50b are included.

すなわち、自車両MCと他車両LCとの相対的な距離ならびに方位の変化が所定値以下である期間において、かかる期間内における過去の瞬時データ100に基づく、形状データが出力データDoに含まれる。 In other words, the output data Do includes shape data based on the past instantaneous data 100 during a period in which the change in the relative distance and direction between the own vehicle MC and the other vehicle LC is equal to or less than a predetermined value.

言い換えれば、自車両MC、すなわち、レーダ装置1と他車両LCとの相対的な位置関係が所定の変位内に収まっている期間において、過去も含めた当該期間内における瞬時データに基づいて今回の形状データを生成する。 In other words, during a period in which the relative positional relationship between the own vehicle MC, that is, the radar device 1 and the other vehicle LC, is within a predetermined displacement, the current data is calculated based on the instantaneous data within the period including the past. Generate shape data.

つまり、自車両MCと他車両LCとの相対的な位置変化が少ない場合、今回の瞬時データ100bと併せて、過去の瞬時データ100aにも基づいて、今回の形状データを生成する。なお、形状データには、瞬時データ100をそのまま用いてもよい。 That is, when the relative positional change between the own vehicle MC and the other vehicle LC is small, the current shape data is generated based on the past instantaneous data 100a as well as the current instantaneous data 100b. Note that the instantaneous data 100 may be used as it is for the shape data.

これにより、時刻tにおいて、今回の瞬時データ100bが少ない場合であっても、形状データをより精密に生成することが可能となる。例えば、瞬時データ100bを今回の形状データに用いる場合には、形状データを構成するデータ数を増やすことが可能となり、より詳細な形状を認識させることが可能となる。なお、ここでは、自車両MCを基準として過去の瞬時データ100を今回の形状データに用いる場合を示したが、これに限定されるものではない。 This makes it possible to generate more precise shape data at time t even if the current instantaneous data 100b is small. For example, when the instantaneous data 100b is used for the current shape data, it is possible to increase the number of data constituting the shape data, and it is possible to recognize a more detailed shape. In addition, although the case where the past instantaneous data 100 is used as the current shape data with the own vehicle MC as a reference is shown here, it is not limited to this.

また、図5Bに示すように、時刻t-1における代表データ50aに対して代表データ50aを基準とする瞬時データ100aの相対的な位置関係を記憶しておき、かかる位置関係に基づいて過去の瞬時データ100aを補正し、形状データを生成することも可能である。 Further, as shown in FIG. 5B, the relative positional relationship between the representative data 50a at the time t−1 and the instantaneous data 100a based on the representative data 50a is stored, and based on this positional relationship, the past It is also possible to generate shape data by correcting the instantaneous data 100a.

つまり、過去の代表データ50aと今回の代表データ50bの位置が異なっていても、代表データ50bと瞬時データ100aとの相対的な位置関係は過去と今回とで変化しない可能性が高い。したがって、今回、過去の瞬時データ100aそのものではなく、瞬時データ100aと代表データ50aの相対的な位置関係に基づいて、形状データを生成する。なお、形状データには相対的な位置関係に基づき補正した瞬時データ100bをそのまま用いてもよい。 That is, even if the positions of the past representative data 50a and the current representative data 50b are different, there is a high possibility that the relative positional relationship between the representative data 50b and the instantaneous data 100a will not change between the past and the current time. Therefore, this time, the shape data is generated based on the relative positional relationship between the instantaneous data 100a and the representative data 50a rather than the past instantaneous data 100a itself. Note that the instantaneous data 100b corrected based on the relative positional relationship may be used as the shape data.

具体的には、図5Bに示すように、時刻t-1における代表データ50aを基準とする各瞬時データ100aの位置座標を記憶しておき、時刻tの代表データ50bを基準として各瞬時データ100aを配置する。 Specifically, as shown in FIG. 5B, the position coordinates of each instantaneous data 100a based on the representative data 50a at time t−1 are stored, and each instantaneous data 100a based on the representative data 50b at time t is stored. to place.

これにより、時刻tにおける出力データDoには、時刻t-1における瞬時データ100aおよび時刻tにおける瞬時データ100bが含まれる。すなわち、代表データ50を基準として各瞬時データ100の座標位置を記憶しておくことで、自車両MCと他車両LCとの相対距離や自車両MCに対する他車両LCの角度が変化した場合であっても、過去の瞬時データ100bを今回の形状データの生成に用いることが可能となる。 As a result, the output data Do at time t includes instantaneous data 100a at time t-1 and instantaneous data 100b at time t. That is, by storing the coordinate position of each instantaneous data 100 with reference to the representative data 50, even if the relative distance between the own vehicle MC and the other vehicle LC or the angle of the other vehicle LC with respect to the own vehicle MC changes. However, the past instantaneous data 100b can be used to generate the current shape data.

したがって、かかる場合においても、より多くの瞬時データ100を形状データの生成に用いることができるので、より詳細な形状を認識させることが可能となる。 Therefore, even in such a case, more instantaneous data 100 can be used to generate shape data, so that a more detailed shape can be recognized.

また、かかる場合に、例えば、自車両MCもしくは他車両LCが旋回した場合、旋回量に応じて過去の瞬時データ100を回転させることも可能である。つまり、上記の例は平行移動の場合であり、代表データ50と瞬時データ100との相対的な位置関係をそのまま使用したが、代表データ50と瞬時データ100との相対的な位置関係に対してさらに回転による補正を行ってもよい。 Further, in such a case, for example, when the own vehicle MC or the other vehicle LC turns, it is possible to rotate the past instantaneous data 100 according to the turning amount. That is, the above example is a case of parallel movement, and the relative positional relationship between the representative data 50 and the instantaneous data 100 is used as it is. Furthermore, correction by rotation may be performed.

具体的には、図5Cに示すように、例えば、時刻t-1から時刻tにかけて他車両LCが旋回した場合、時刻t-1の瞬時データ100を他車両LCの旋回量に基づいて回転させて時刻tの形状データを生成する。 Specifically, as shown in FIG. 5C, for example, when the other vehicle LC turns from time t-1 to time t, the instantaneous data 100 at time t-1 is rotated based on the turning amount of the other vehicle LC. to generate shape data at time t.

かかる場合に、代表データ50bに含まれる自車両MCと他車両LCの相対速度に関するベクトルから自車両MCの実際の移動成分を示すベクトルを差し引いた他車両LCの対地ベクトルに基づいて他車両LCの旋回量を検出する。 In such a case, the speed of the other vehicle LC is determined based on the ground vector of the other vehicle LC obtained by subtracting the vector representing the actual movement component of the own vehicle MC from the vector relating to the relative speed of the own vehicle MC and the other vehicle LC included in the representative data 50b. Detect the amount of turning.

すなわち、自車両MCの旋回量を自車両MCの舵角や走行速度に基づいて検出し、相対速度に基づくベクトルから自車両MCの移動成分に基づくベクトルを差し引くことで、他車両LCの旋回量を検出する。 That is, the turning amount of the own vehicle MC is detected based on the steering angle and traveling speed of the own vehicle MC, and the vector based on the movement component of the own vehicle MC is subtracted from the vector based on the relative speed to obtain the turning amount of the other vehicle LC. to detect

これにより、自車両MCと他車両LCとの向きの変化、すなわち、自車両MCおよび他車両LCの旋回量を正確に算出することが可能となる。したがって、旋回に基づく過去の瞬時データ100の誤差を少なくすることが可能となる。 This makes it possible to accurately calculate the change in orientation of the own vehicle MC and the other vehicle LC, that is, the amount of turning of the own vehicle MC and the other vehicle LC. Therefore, it is possible to reduce errors in the past instantaneous data 100 based on turning.

言い換えれば、出力データDoに付与する形状データの確からしさを向上させることが可能となる。なお、ここまでの例では、時刻t-1の瞬時データ100aを形状データに用いる場合について説明したが、時刻t-1以前の瞬時データ100を形状データに用いることも可能である。 In other words, it is possible to improve the likelihood of shape data to be assigned to the output data Do. In the example so far, the case where the instantaneous data 100a at the time t-1 is used as the shape data has been explained, but the instantaneous data 100 before the time t-1 can also be used as the shape data.

また、他車両LCの旋回量の検出方法は、上述の例に限られるものではない。例えば、レーダ装置1は、自車両MCに搭載された他の装置から取得した情報に基づいて他車両LCの旋回量を検出することにしてもよいし、あるいは、車車間通信等の無線通信を用いて他車両LCから取得した情報に基づいて旋回量を検出することにしてもよい。 Further, the method of detecting the turning amount of the other vehicle LC is not limited to the above example. For example, the radar device 1 may detect the turning amount of the other vehicle LC based on information acquired from another device mounted on the own vehicle MC, or may perform wireless communication such as inter-vehicle communication. The amount of turning may be detected based on the information obtained from the other vehicle LC using the other vehicle LC.

次に、図6を用いて実施形態に係るレーダ装置1が実行する処理手順について説明する。図6は、実施形態に係るレーダ装置1が実行する処理手順を示すフローチャートである。 Next, a processing procedure executed by the radar device 1 according to the embodiment will be described with reference to FIG. FIG. 6 is a flow chart showing a processing procedure executed by the radar device 1 according to the embodiment.

図6に示すように、まず、生成部33は、送信した電波が物標で反射した反射波に基づいて物標に対応する瞬時データ100を生成する(ステップS101)。 As shown in FIG. 6, the generation unit 33 first generates instantaneous data 100 corresponding to the target based on the reflected wave of the transmitted radio wave reflected by the target (step S101).

続いて、フィルタ処理部34の予測部34aは、前回の粒子データに基づいて今回の粒子データを予測する予測処理と、前回の物標データに基づいて今回の物標データに対応する予測データを予測する予測処理を行う(ステップS102)。なお、ここでの予測データとは、粒子および粒子群データを示す。 Subsequently, the prediction unit 34a of the filter processing unit 34 performs prediction processing for predicting the current particle data based on the previous particle data, and prediction data corresponding to the current target data based on the previous target data. Prediction processing for prediction is performed (step S102). Note that the prediction data here means particles and particle group data.

続いて、割当部34bは、今回の粒子群データに今回の瞬時データ100を割り当てる(ステップS103)。続いて、割当部34bは、今回の粒子データが割り当てられなかった瞬時データ100の有無により新規の物標の有無を判定する(ステップS104)。割当部34bは、瞬時データ100が新規の物標であった場合(ステップS104,Yes)、新規の物標に対応する瞬時データ100に対して所定の粒子群データ(例えば、初期状態の粒子群データ)を設定する(ステップS111)。 Subsequently, the allocation unit 34b allocates the current instantaneous data 100 to the current particle group data (Step S103). Subsequently, the assigning unit 34b determines the presence or absence of a new target based on the presence or absence of instantaneous data 100 to which the current particle data has not been assigned (step S104). If the instantaneous data 100 is a new target (step S104, Yes), the assigning unit 34b assigns predetermined particle group data (for example, initial state particle group data) to the instantaneous data 100 corresponding to the new target data) is set (step S111).

続いて、重み付け部34cは、瞬時データ100が新規の物標でなかった場合(ステップS104,No)、瞬時データ100に基づいて今回の粒子データそれぞれに重み付けを行う(ステップS105)。 Subsequently, if the instantaneous data 100 is not a new target (step S104, No), the weighting unit 34c weights the current particle data based on the instantaneous data 100 (step S105).

続いて、リサンプリング部34dは、重み付け部34cによる重み付けに基づいて今回の粒子群データのリサンプリングを行う(ステップS106)。続いて、代表データ生成部34eは、リサンプリングされた今回の粒子群データの確率密度関数を更新し、かかる確率密度関数に基づいて物標データを生成する(ステップS107)。 Subsequently, the resampling unit 34d resamples the current particle group data based on the weighting by the weighting unit 34c (step S106). Subsequently, the representative data generator 34e updates the probability density function of the current resampled particle group data, and generates target data based on the probability density function (step S107).

続いて、代表データ生成部34eは、同一物標の物標データから代表データ50を生成し(ステップS108)、出力部35は、代表データ50に形状データを付与した出力データDoを生成する(ステップS109)。 Subsequently, the representative data generation unit 34e generates the representative data 50 from the target data of the same target (step S108), and the output unit 35 generates the output data Do by giving the shape data to the representative data 50 (step S108). step S109).

そして、出力部35は、かかる出力データDoを出力して(ステップS110)、処理を終了する。 Then, the output unit 35 outputs the output data Do (step S110), and ends the process.

上述したように、実施形態に係るレーダ装置1は、生成部33と、フィルタ処理部34と、出力部35とを備える。生成部33は、送信波が物標で反射した反射波に基づいて物標に対応する瞬時データを生成する。フィルタ処理部34は、生成部33によって生成された瞬時データに基づいて物標毎の代表データ50を生成する。 As described above, the radar device 1 according to the embodiment includes the generator 33 , the filter processor 34 and the output unit 35 . The generator 33 generates instantaneous data corresponding to the target based on the reflected wave of the transmitted wave reflected by the target. The filter processor 34 generates representative data 50 for each target based on the instantaneous data generated by the generator 33 .

出力部35は、フィルタ処理部34によって生成された代表データ50に対して、当該代表データ50の生成に用いられた瞬時データ100に基づく物標の形状データを付与した出力データDoを出力する。したがって、実施形態に係るレーダ装置1によれば、物標の形状を正しく認識させることができる。 The output unit 35 outputs output data Do obtained by adding target shape data based on the instantaneous data 100 used to generate the representative data 50 to the representative data 50 generated by the filtering unit 34 . Therefore, according to the radar device 1 according to the embodiment, it is possible to correctly recognize the shape of the target.

ところで、上述の実施形態では、1つのレーダ装置1によって生成された瞬時データ100を用いて形状データを生成する場合について説明したが、複数のレーダ装置1によって生成された瞬時データ100を統合して形状データを生成することも可能である。 By the way, in the above-described embodiment, the case where the shape data is generated using the instantaneous data 100 generated by one radar device 1 has been described. It is also possible to generate shape data.

図7は、変形例に係る出力データDoの具体例を示す図である。なお、ここでは、自車両MCがそれぞれ異なる位置から自車両MCの前方の物標を検出する複数のレーダ装置1A~1Cを備える場合について説明する。 FIG. 7 is a diagram showing a specific example of output data Do according to the modification. Here, a case will be described in which the own vehicle MC is provided with a plurality of radar devices 1A to 1C that detect targets in front of the own vehicle MC from different positions.

例えば、図7に示すレーダ装置1Aは、レーダ装置1Aで生成した瞬時データ100Aに加えて、レーダ装置1Bおよびレーダ装置1Cによって生成された瞬時データ100Bおよび瞬時データ100Cに基づいて形状データを生成し、かかる形状データを含む出力データDoを出力することが可能である。 For example, radar device 1A shown in FIG. 7 generates shape data based on instantaneous data 100B and instantaneous data 100C generated by radar devices 1B and 1C in addition to instantaneous data 100A generated by radar device 1A. , it is possible to output output data Do including such shape data.

図7に示す例では、レーダ装置1Aが他車両LCの後方に対応する瞬時データ100Aを生成し、レーダ装置1Bが他車両LCの左側方に対応する瞬時データ100Bを生成し、レーダ装置1Cが他車両LCの右側方に対応する瞬時データ100Cを生成した場合を示す。 In the example shown in FIG. 7, the radar device 1A generates instantaneous data 100A corresponding to the rear of the other vehicle LC, the radar device 1B generates instantaneous data 100B corresponding to the left side of the other vehicle LC, and the radar device 1C generates A case where instantaneous data 100C corresponding to the right side of the other vehicle LC is generated is shown.

この場合に、レーダ装置1Aは、例えば、瞬時データ100A~100Cのうち、同一物標に対応する瞬時データ100を選択し、選択した瞬時データ100A~100Cを形状データとして代表データ50に付与する。 In this case, the radar device 1A selects, for example, the instantaneous data 100 corresponding to the same target from among the instantaneous data 100A-100C, and assigns the selected instantaneous data 100A-100C to the representative data 50 as shape data.

すなわち、代表データ50に対して多様な角度からとらえた瞬時データ100を形状データとして付与することが可能となる。このように、多様な角度からとらえた瞬時データ100に基づいて形状データを生成することで、多様な角度からみた物標の形状を認識させることが可能となる。 That is, it is possible to give the instantaneous data 100 captured from various angles to the representative data 50 as shape data. By generating the shape data based on the instantaneous data 100 captured from various angles in this way, it is possible to recognize the shape of the target viewed from various angles.

なお、ここでは、レーダ装置1Aが他のレーダ装置1Bおよびレーダ装置1Cの瞬時データ100を集約する場合について説明したが、レーダ装置1A~1Cの瞬時データ100を集約するマイコンやECUを別途設けることにしてもよい。すなわち、出力部35をレーダ装置1と別の筐体に設けることにしてもよい。 Here, the case where the radar device 1A aggregates the instantaneous data 100 of the other radar devices 1B and 1C has been described, but a separate microcomputer or ECU that aggregates the instantaneous data 100 of the radar devices 1A to 1C may be provided. can be That is, the output unit 35 may be provided in a housing separate from the radar device 1 .

また、例えば、レーダ装置1Aに複数の送信部10と複数の受信部20とを備える構成とし、かかるレーダ装置1Aによって瞬時データ100Bや瞬時データ100Cに対応する瞬時データ100を生成することにしてもよい。 Alternatively, for example, the radar device 1A may be configured to include a plurality of transmission units 10 and a plurality of reception units 20, and the instantaneous data 100 corresponding to the instantaneous data 100B and the instantaneous data 100C may be generated by the radar device 1A. good.

また、上述した実施形態では、瞬時データ100に基づいて形状データを生成する場合について説明したが、これに限定されるものではなく、パーティクルフィルタで用いた粒子そのものや、粒子の分布を表す確率密度関数を用いて形状データを生成することにしてもよい。なお、例えば、粒子そのもの、または確率密度関数をそのまま形状データに用いることにしてもよいし、所定の形式に加工したものを形状データとすることにしてもよい。 Further, in the above-described embodiment, the case where the shape data is generated based on the instantaneous data 100 has been described, but the present invention is not limited to this. Shape data may be generated using a function. For example, the particles themselves or the probability density function may be used as the shape data as they are, or the shape data may be processed into a predetermined format.

また、粒子群データをヒストグラム化し、各位置に対する物標の存在確率を形状データとして用いることにしてもよい。かかる場合であっても、物標の形状を正しく認識させることが可能である。なお、かかる存在確率の算出に、拡張カルマンフィルタ(EKF:Extended Kalman Filter)や無香料カルマンフィルタ(UKF:Unscented Kalman Filter)等のカルマンフィルタを用いることにしてもよい。 Alternatively, the particle group data may be histogrammed, and the existence probability of the target for each position may be used as the shape data. Even in such a case, it is possible to correctly recognize the shape of the target. A Kalman filter such as an extended Kalman filter (EKF) or an unscented Kalman filter (UKF) may be used to calculate the existence probability.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1 レーダ装置
33 生成部
34 フィルタ処理部
34a 予測部
34b 割当部
34c 重み付け部
34d リサンプリング部
34e 代表データ生成部
35 出力部
50 代表データ
100 瞬時データ
Do 出力データ
1 radar device 33 generation unit 34 filter processing unit 34a prediction unit 34b allocation unit 34c weighting unit 34d resampling unit 34e representative data generation unit 35 output unit 50 representative data 100 instantaneous data Do output data

Claims (8)

送信波が物標で反射した反射波に基づいて前記物標に対応する瞬時データを生成する生成部と、
前記生成部によって生成された前記瞬時データに基づいて前記物標毎の代表データを生成するフィルタ処理部と、
前記フィルタ処理部によって生成された前記代表データに対して、当該代表データの生成に用いられた前記瞬時データに基づく前記物標の形状データを付与した出力データを出力する出力部と、
を備えるとともに、
前記出力部は、
前記代表データとレーダ装置との相対的な位置関係が所定の変位内に収まっている期間において、当該期間内における前記瞬時データに基づいて前記形状データを生成するように構成された、
レーダ装置。
a generation unit that generates instantaneous data corresponding to the target based on the reflected wave of the transmitted wave reflected by the target;
a filter processing unit that generates representative data for each target based on the instantaneous data generated by the generation unit;
an output unit for outputting output data obtained by adding shape data of the target based on the instantaneous data used to generate the representative data to the representative data generated by the filtering unit;
and
The output unit
In a period in which the relative positional relationship between the representative data and the radar device is within a predetermined displacement, the shape data is generated based on the instantaneous data in the period,
radar equipment.
前記期間内における前記瞬時データは、前記期間内における過去の前記瞬時データを含むように構成された、
請求項1に記載のレーダ装置。
wherein the instantaneous data within the period includes the past instantaneous data within the period;
The radar device according to claim 1.
前記出力部は、
今回の前記瞬時データと、過去の前記代表データを基準とする過去の前記瞬時データの位置関係を用いて、今回の前記代表データを基準に補正した当該過去の瞬時データとに基づいて前記形状データを生成するように構成された、
請求項1または請求項2に記載のレーダ装置。
The output unit
The shape data based on the current instantaneous data and the past instantaneous data corrected based on the current representative data using the positional relationship of the past instantaneous data based on the past representative data. configured to generate a
The radar device according to claim 1 or 2.
前記出力部は、
前記代表データに基づいて推定される前記物標の路面に対する旋回量に応じて前記代表データに対応する前記過去の前記瞬時データを回転させて前記形状データを生成するように構成された、
請求項3に記載のレーダ装置。
The output unit
configured to generate the shape data by rotating the past instantaneous data corresponding to the representative data according to the turning amount of the target with respect to the road surface estimated based on the representative data;
The radar device according to claim 3.
前記出力部は、
異なる位置に設けられた複数の送信部から送信された前記送信波と、前記複数の送信部とそれぞれ対を成す受信部によって受信された受信波とに基づく前記瞬時データに基づいて前記形状データを生成するように構成された、
請求項1から請求項4までのいずれか1項に記載のレーダ装置。
The output unit
The shape data is calculated based on the instantaneous data based on the transmitted waves transmitted from a plurality of transmitters provided at different positions and the received waves received by the receivers paired with the plurality of transmitters. configured to generate
The radar device according to any one of claims 1 to 4.
前記フィルタ処理部は、
前記瞬時データに対して、所定数の粒子の分布を用いて解析を行うパーティクルフィルタを用いて前記代表データを生成するように構成され、
前記出力部は、
前記粒子の分布形状に基づいて前記形状データを生成するように構成された、
請求項1から請求項5までのいずれか1項に記載のレーダ装置。
The filter processing unit is
configured to generate the representative data using a particle filter that analyzes the instantaneous data using a distribution of a predetermined number of particles;
The output unit
configured to generate the shape data based on the distribution shape of the particles;
Radar device according to any one of claims 1 to 5.
前記レーダ装置は、自車両に搭載されて、当該自車両の周囲の他車両を前記物標として検出するレーダ装置であり、 The radar device is a radar device that is mounted on the own vehicle and detects other vehicles around the own vehicle as the target,
前記期間は、前記自車両と前記他車両との相対的な距離及び方位の変化量が所定値以下の期間である、 The period is a period in which the amount of change in the relative distance and direction between the own vehicle and the other vehicle is equal to or less than a predetermined value.
請求項1から請求項6までのいずれか1項に記載のレーダ装置。 Radar device according to any one of claims 1 to 6.
送信波が物標で反射した反射波に基づいて前記物標に対応する瞬時データを生成する生成工程と、
前記生成工程によって生成された前記瞬時データに基づいて前記物標毎の代表データを生成するフィルタ処理工程と、
前記フィルタ処理工程によって生成された前記代表データに対して、当該代表データの生成に用いられた前記瞬時データに基づく前記物標の形状データを付与した出力データを出力する出力工程と、
を含むとともに、
前記出力工程では、
前記代表データとレーダ装置との相対的な位置関係が所定の変位内に収まっている期間において、当該期間内における前記瞬時データに基づいて前記形状データを生成する、
物標データ出力方法。
a generation step of generating instantaneous data corresponding to the target based on the reflected wave of the transmitted wave reflected by the target;
a filter processing step of generating representative data for each target based on the instantaneous data generated by the generating step;
an output step of outputting output data obtained by adding shape data of the target based on the instantaneous data used to generate the representative data to the representative data generated in the filtering step;
including
In the output step,
generating the shape data based on the instantaneous data during a period in which the relative positional relationship between the representative data and the radar device is within a predetermined displacement;
Target data output method.
JP2018113130A 2018-06-13 2018-06-13 Radar device and target data output method Active JP7244220B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018113130A JP7244220B2 (en) 2018-06-13 2018-06-13 Radar device and target data output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018113130A JP7244220B2 (en) 2018-06-13 2018-06-13 Radar device and target data output method

Publications (2)

Publication Number Publication Date
JP2019215281A JP2019215281A (en) 2019-12-19
JP7244220B2 true JP7244220B2 (en) 2023-03-22

Family

ID=68919496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018113130A Active JP7244220B2 (en) 2018-06-13 2018-06-13 Radar device and target data output method

Country Status (1)

Country Link
JP (1) JP7244220B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11879964B2 (en) * 2020-02-13 2024-01-23 Mitsubishi Electric Research Laboratories, Inc. System and method for tracking expanded state of moving object with model geometry learning
US11619494B2 (en) * 2020-02-13 2023-04-04 Mitsubishi Electric Research Laboratories, Inc. System and method for tracking expanded state of an object
CN117813529A (en) * 2021-08-26 2024-04-02 松下知识产权经营株式会社 Sensor device, processing device and method for processing data

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000206241A (en) 1999-01-13 2000-07-28 Honda Motor Co Ltd Radar apparatus
JP2004144719A (en) 2002-10-28 2004-05-20 Matsushita Electric Works Ltd Measuring method and instrument of object position/form by ultrasonic array sensor
JP2008267826A (en) 2007-04-16 2008-11-06 Toyota Motor Corp Object detection device
WO2012128096A1 (en) 2011-03-24 2012-09-27 古河電気工業株式会社 Radar device
US20130242284A1 (en) 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
JP2014089058A (en) 2012-10-29 2014-05-15 Furuno Electric Co Ltd Tracking processing device and tracking processing method
JP2015055541A (en) 2013-09-11 2015-03-23 トヨタ自動車株式会社 Surrounding object detection apparatus
JP2016053915A (en) 2014-09-04 2016-04-14 日立建機株式会社 Obstacle detection system and transport vehicle
JP2016206026A (en) 2015-04-23 2016-12-08 株式会社デンソー Object recognition device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000206241A (en) 1999-01-13 2000-07-28 Honda Motor Co Ltd Radar apparatus
JP2004144719A (en) 2002-10-28 2004-05-20 Matsushita Electric Works Ltd Measuring method and instrument of object position/form by ultrasonic array sensor
JP2008267826A (en) 2007-04-16 2008-11-06 Toyota Motor Corp Object detection device
WO2012128096A1 (en) 2011-03-24 2012-09-27 古河電気工業株式会社 Radar device
US20130242284A1 (en) 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
JP2014089058A (en) 2012-10-29 2014-05-15 Furuno Electric Co Ltd Tracking processing device and tracking processing method
JP2015055541A (en) 2013-09-11 2015-03-23 トヨタ自動車株式会社 Surrounding object detection apparatus
JP2016053915A (en) 2014-09-04 2016-04-14 日立建機株式会社 Obstacle detection system and transport vehicle
JP2016206026A (en) 2015-04-23 2016-12-08 株式会社デンソー Object recognition device

Also Published As

Publication number Publication date
JP2019215281A (en) 2019-12-19

Similar Documents

Publication Publication Date Title
JP6313981B2 (en) Radar apparatus, vehicle control system, and signal processing method
JP7244220B2 (en) Radar device and target data output method
JP2015141109A (en) Radar device and signal processing method
JP6924046B2 (en) Radar device and elevation estimation method
JP6993136B2 (en) Radar device and target detection method
EP3124994B1 (en) Vehicle radar device
JP6853047B2 (en) Radar device and target detection method
US10983195B2 (en) Object detection apparatus
JP7103767B2 (en) Radar device and target detection method
JP2009092410A (en) Radar system and target detecting method
JP6924066B2 (en) Radar device and target detection method
JP7188894B2 (en) Radar device and signal processing method
JP2018115930A (en) Radar device and method for detecting target
JP7221606B2 (en) Radar device and shaft deviation detection method
JP7164327B2 (en) Target detection device
JP6873009B2 (en) Radar device and target detection method
JP7181010B2 (en) Radar device and target detection method
JP7168353B2 (en) Radar device and target data allocation method
JP2020008366A (en) Radar device and method for controlling radar device
US11237260B2 (en) Processing apparatus for estimating a movement direction of a target
JP6929183B2 (en) Radar device and target detection method
JP7156817B2 (en) Target detection device and target detection method
JP7111506B2 (en) Target detection device
WO2024029100A1 (en) Radar device
JP2018151327A (en) Radar device and method of combining bearings

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210429

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20211013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7244220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150