JP7244220B2 - Radar device and target data output method - Google Patents
Radar device and target data output method Download PDFInfo
- Publication number
- JP7244220B2 JP7244220B2 JP2018113130A JP2018113130A JP7244220B2 JP 7244220 B2 JP7244220 B2 JP 7244220B2 JP 2018113130 A JP2018113130 A JP 2018113130A JP 2018113130 A JP2018113130 A JP 2018113130A JP 7244220 B2 JP7244220 B2 JP 7244220B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- target
- instantaneous
- radar device
- representative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
Description
本発明は、レーダ装置および物標データ出力方法に関する。 The present invention relates to a radar device and a target object data output method.
従来、例えば、車両に搭載され、かかる車両から送信される送信波が物標で反射した反射波に基づいて物標を検出するレーダ装置がある。かかるレーダ装置では、同一物標に対応する瞬時データから当該物標に代表される一つの代表データを生成し、かかる代表データを出力する(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, for example, there is a radar apparatus that is mounted on a vehicle and detects a target based on a reflected wave that is reflected by the target from a transmission wave that is transmitted from the vehicle. Such a radar device generates one representative data representative of the target from instantaneous data corresponding to the same target, and outputs the representative data (see, for example, Patent Document 1).
しかしながら、従来技術では、同一物標から複数の瞬時データを検出した場合であっても、1つの代表データのみが出力されるため、出力する代表データから物標の形状を正しく認識させることができない。 However, in the conventional technology, even when a plurality of instantaneous data are detected from the same target, only one representative data is output, so the shape of the target cannot be correctly recognized from the output representative data. .
本発明は、上記に鑑みてなされたものであって、物標の形状を正しく認識させることができるレーダ装置および物標データ出力方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a radar device and a target data output method that can correctly recognize the shape of a target.
上述した課題を解決し、目的を達成するために、実施形態に係るレーダ装置は、生成部と、フィルタ処理部と、出力部とを備える。前記生成部は、送信波が物標で反射した反射波に基づいて前記物標に対応する瞬時データを生成する。フィルタ処理部は、前記生成部によって生成された前記瞬時データに基づいて前記物標毎の代表データを生成する。前記出力部は、前記フィルタ処理部によって生成された前記代表データに対して、当該代表データの生成に用いられた前記瞬時データに基づく前記物標の形状データを付与した出力データを出力する。 In order to solve the above-described problems and achieve the object, a radar device according to an embodiment includes a generation section, a filtering section, and an output section. The generator generates instantaneous data corresponding to the target based on a reflected wave of the transmitted wave reflected by the target. A filter processor generates representative data for each of the targets based on the instantaneous data generated by the generator. The output unit outputs output data obtained by adding shape data of the target based on the instantaneous data used to generate the representative data to the representative data generated by the filtering unit.
本発明によれば、物標の形状を正しく認識させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the shape of a target can be correctly recognized.
以下、添付図面を参照して、本願の開示するレーダ装置および物標データ出力方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。なお、以下では、レーダ装置がFM-CW(Frequency Modulated Continuous Wave)方式である場合を例に挙げて説明するが、レーダ装置は、FCM(Fast-Chirp Modulation)方式であってもよい。 Embodiments of a radar device and a target data output method disclosed in the present application will be described in detail below with reference to the accompanying drawings. It should be noted that the present invention is not limited by this embodiment. In the following description, a case where the radar system is of the FM-CW (Frequency Modulated Continuous Wave) system will be described as an example, but the radar system may be of the FCM (Fast-Chirp Modulation) system.
まず、図1Aおよび図1Bを用いて、実施形態に係る物標データ出力方法の概要について説明する。図1Aは、レーダ装置の搭載例を示す図である。図1Bは、物標データ出力の概要を示す図である。図1Aでは、実施形態に係るレーダ装置1を搭載した自車両MCと、自車両MCの前方に位置する他車両LCとを示している。
First, the outline of the target data output method according to the embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a diagram showing an example of mounting a radar device. FIG. 1B is a diagram showing an outline of target data output. FIG. 1A shows an own vehicle MC equipped with a
図1Aに示すように、レーダ装置1は、例えば自車両MCのフロントグリル内等に搭載され、自車両MCの進行方向に存在する物標(例えば、他車両LC等)を検出する。なお、レーダ装置1の搭載箇所は、例えばフロントガラスやリアグリル、左右の側部(例えば、左右のドアミラー)等他の箇所に搭載されてもよい。
As shown in FIG. 1A, the
また、図1Aに示すように、レーダ装置1は、自車両MCの周囲に送信した電波が他車両LCで反射した反射波に基づいて物標に対応する瞬時データ100を生成する。瞬時データ100には、自車両MCへの向きの相対速度や、自車両MCと瞬時データ100までの距離、瞬時データ100の方向といった情報が含まれる。
Further, as shown in FIG. 1A, the
また、レーダ装置1は、生成した瞬時データ100に対して時系列フィルタリングを施し、フィルタ値として物標に対応する物標データを生成する。これにより、物標データを追従(トラッキング)することが可能となる。
The
その後、レーダ装置1は、複数の物標データを同一物体の物標データとして1つに統合するグループ化を行い、代表データ50を生成する。例えば、レーダ装置1は、検知位置および速度が所定範囲内で近い物標データを同一物体の物標データと見做し、かかる物標データから一つの代表データ50を生成する。
After that, the
しかしながら、複数の物標データを検出したとしても、1つの物標に対して1つの代表データ50のみが出力される。このため、代表データ50から物標の形状を認識させることができない。
However, even if multiple target data are detected, only one
そこで、実施形態に係る物標データ出力方法では、代表データ50に物標の形状に関する形状データを付与した出力データDoを出力することで、物標の形状を正しく認識させることとした。
Therefore, in the target data output method according to the embodiment, the shape of the target is correctly recognized by outputting the output data Do obtained by adding the shape data related to the shape of the target to the
具体的には、図1Bに示すように、出力データDoは、代表データ50に加えて、代表データ50の生成に用いられた瞬時データ100を含む。すなわち、実施形態に係る物標データ出力方法では、代表データ50を生成するために用いた瞬時データ100を物標の形状データとして再度利用する。
Specifically, as shown in FIG. 1B, the output data Do includes, in addition to the
このように、実施形態に係る物標データ出力方法では、瞬時データ100を物体の形状を示す形状データとして代表データ50に付与することで、物標の形状を正しく認識させることが可能となる。なお、瞬時データ100は、形状データの一例であり、形状を示すデータであれば、その他のデータであってもよい。
As described above, in the target data output method according to the embodiment, by adding the
次に、図2を参照して、実施形態に係るレーダ装置1の構成について詳細に説明する。図2は、実施形態に係るレーダ装置1の構成を示すブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
Next, with reference to FIG. 2, the configuration of the
図2に示すように、レーダ装置1は、送信部10と、受信部20と、処理部30とを備える。レーダ装置1は、自車両MCの挙動を制御する車両制御装置2に接続される。
As shown in FIG. 2 , the
車両制御装置2は、レーダ装置1による物標の検出結果に基づいて、PCS(Pre-crash Safety System)やAEB(Advanced Emergency Braking System)などの車両制御を行う。
The
送信部10は、信号生成部11と、発振器12と、送信アンテナ13とを備える。信号生成部11は、後述する送受信制御部31の制御により、三角波で周波数変調されたミリ波を送信するための変調信号を生成する。発振器12は、かかる信号生成部11によって生成された変調信号に基づいて送信信号を生成し、送信アンテナ13へ出力する。なお、図2に示すように、発振器12によって生成された送信信号は、後述するミキサ22に対しても分配される。
The
送信アンテナ13は、発振器12からの送信信号を送信波へ変換し、かかる送信波を自車両MCの外部へ出力する。送信アンテナ13が出力する送信波は、三角波で周波数変調された連続波である。送信アンテナ13から自車両MCの外部、たとえば前方へ送信された送信波は、他車両LC等の物標で反射されて反射波となる。
The
受信部20は、アレーアンテナを形成する複数の受信アンテナ21と、複数のミキサ22と、複数のA/D変換部23とを備える。ミキサ22およびA/D変換部23は、受信アンテナ21ごとに設けられる。
The receiving
各受信アンテナ21は、物標からの反射波を受信波として受信し、かかる受信波を受信信号へ変換してミキサ22へ出力する。なお、図2に示す受信アンテナ21の数は4つであるが、3つ以下または5つ以上であってもよい。 Each receiving antenna 21 receives a reflected wave from a target as a received wave, converts the received wave into a received signal, and outputs the received signal to the mixer 22 . Although the number of receiving antennas 21 shown in FIG. 2 is four, the number may be three or less or five or more.
受信アンテナ21から出力された受信信号は、図示略の増幅器(たとえば、ローノイズアンプ)で増幅された後にミキサ22へ入力される。ミキサ22は、分配された送信信号と、受信アンテナ21から入力される受信信号との一部をミキシングし不要な信号成分を除去してビート信号を生成し、A/D変換部23へ出力する。 A received signal output from the receiving antenna 21 is input to the mixer 22 after being amplified by an amplifier (for example, a low noise amplifier) not shown. The mixer 22 mixes the distributed transmission signal and part of the received signal input from the receiving antenna 21 to remove unnecessary signal components, generates a beat signal, and outputs the beat signal to the A/D converter 23 . .
ビート信号は、送信信号の周波数(以下、「送信周波数」と記載する)と受信信号の周波数(以下、「受信周波数」と記載する)との差となるビート周波数を有する。ミキサ22で生成されたビート信号は、図示しない同期部によって受信アンテナ21同士でタイミングを合わせた上でA/D変換部23でデジタル信号に変換された後に、処理部30へ出力される。
The beat signal has a beat frequency that is the difference between the frequency of the transmission signal (hereinafter referred to as "transmission frequency") and the frequency of the reception signal (hereinafter referred to as "reception frequency"). The beat signal generated by the mixer 22 is synchronized in timing between the receiving antennas 21 by a synchronization section (not shown), converted into a digital signal by the A/D conversion section 23 , and then output to the
処理部30は、送受信制御部31と、信号処理部32と、記憶部36とを備える。信号処理部32は、生成部33と、フィルタ処理部34とを備える。
The
記憶部36は、履歴データ36aを記憶する。履歴データ36aは、信号処理部32が実行する一連の信号処理における物標データの履歴や、瞬時データ100の履歴を含む情報である。
The
処理部30は、たとえば、CPU(Central Processing Unit)、記憶部36に対応するROM(Read Only Memory)やRAM(Random Access Memory)、レジスタ、その他の入出力ポートなどを含むマイクロコンピュータであり、レーダ装置1全体を制御する。
The
かかるマイクロコンピュータのCPUがROMに記憶されたプログラムを読み出して実行することによって、送受信制御部31および信号処理部32として機能する。なお、送受信制御部31および信号処理部32は全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードウェアで構成することもできる。
The CPU of such a microcomputer functions as a transmission/
送受信制御部31は、信号生成部11を含む送信部10、および、受信部20を制御する。信号処理部32は、一連の信号処理を周期的に実行する。続いて信号処理部32の各構成要素について説明する。
The transmission/
生成部33は、瞬時データ100を生成する。具体的には、生成部33は、周波数解析処理と、ピーク抽出処理と、瞬時データ生成処理とを行うことで、瞬時データ100を生成する。
The
周波数解析処理では、各A/D変換部23から入力されるビート信号に対して高速フーリエ変換(FFT:Fast Fourier Transform)処理(以下、「FFT処理」と記載する)を行う。かかるFFT処理の結果は、ビート信号の周波数スペクトルであり、ビート信号の周波数ごと(周波数分解能に応じた周波数間隔で設定された周波数ビンごと)のパワー値(信号レベル)である。 In the frequency analysis process, the beat signal input from each A/D converter 23 is subjected to Fast Fourier Transform (FFT) processing (hereinafter referred to as "FFT processing"). The result of such FFT processing is the frequency spectrum of the beat signal, which is the power value (signal level) for each frequency of the beat signal (for each frequency bin set at frequency intervals corresponding to the frequency resolution).
ピーク抽出処理では、周波数解析処理によるFFT処理の結果においてピークとなるピーク周波数を抽出する。なお、ピーク抽出処理では、後述するビート信号の「UP区間」および「DN区間」のそれぞれについてピーク周波数を抽出する。 In the peak extraction process, a peak frequency is extracted as a result of the FFT process by the frequency analysis process. In the peak extraction process, peak frequencies are extracted for each of the "UP section" and the "DN section" of the beat signal, which will be described later.
瞬時データ生成処理では、ピーク抽出処理において抽出されたピーク周波数のそれぞれに対応する反射波の到来角度とそのパワー値を算出する角度推定処理を実行する。なお、角度推定処理の実行時点で、到来角度は、物標が存在すると推定される角度であることから、以下では「推定角度」と記載する場合がある。 In the instantaneous data generation process, an angle estimation process is executed to calculate the arrival angle and the power value of the reflected wave corresponding to each of the peak frequencies extracted in the peak extraction process. It should be noted that, at the time of execution of the angle estimation process, the arrival angle is an angle at which it is estimated that the target exists, so it may be referred to as an "estimated angle" below.
また、瞬時データ生成処理では、算出した推定角度とパワー値との算出結果に基づいて「UP区間」および「DN区間」それぞれのピーク周波数の正しい組み合わせを判定するペアリング処理を実行する。 Also, in the instantaneous data generation process, a pairing process is executed to determine the correct combination of the peak frequencies of the "UP section" and the "DN section" based on the calculated estimated angle and power value.
また、瞬時データ生成処理では、判定した組み合わせ結果から各物標の自車両MCに対する距離および自車両MCへの向きの相対速度を算出する。また、瞬時データ処理では、算出した各物標の推定角度、距離および相対速度を、最新周期(最新スキャン)分の瞬時データ100としてフィルタ処理部34へ出力するとともに、記憶部36の履歴データ36aとして記憶する。
Further, in the instantaneous data generation process, the distance of each target from the own vehicle MC and the relative speed toward the own vehicle MC are calculated from the determined combination result. In the instantaneous data processing, the calculated estimated angle, distance and relative velocity of each target are output to the
説明を分かりやすくするために、信号処理部32の前段処理から信号処理部32におけるここまでの処理の流れを図3~図4Cに示す。図3は、信号処理部32の前段処理から生成部33におけるピーク抽出処理までの処理説明図である。
3 to 4C show the flow of processing from the pre-processing of the
また、図4Aは、角度推定処理の処理説明図である。また、図4Bおよび図4Cは、ペアリング処理の処理説明図である。なお、図3は、2つの太い下向きの白色矢印で3つの領域に区切られている。以下では、かかる各領域を順に、上段、中段、下段と記載する。 Also, FIG. 4A is a process explanatory diagram of the angle estimation process. 4B and 4C are process explanatory diagrams of the pairing process. Note that FIG. 3 is divided into three regions by two thick downward white arrows. In the following, such regions are described in order as an upper stage, a middle stage, and a lower stage.
図3の上段に示すように、送信信号fs(t)は、送信アンテナ13から送信波として送出された後、物標において反射されて反射波として到来し、受信アンテナ21において受信信号fr(t)として受信される。
As shown in the upper part of FIG. 3, the transmission signal fs(t) is transmitted from the
このとき、図3の上段に示すように、受信信号fr(t)は、自車両MCと物標との距離に応じて、送信信号fs(t)に対して時間差Tだけ遅延している。この時間差Tと、自車両MCおよび物標の相対速度に基づくドップラー効果とにより、ビート信号は、周波数が上昇する「UP区間」の周波数fupと、周波数が下降する「DN区間」の周波数fdnとが繰り返される信号として得られる(図3の中段参照)。 At this time, as shown in the upper part of FIG. 3, the received signal fr(t) is delayed by the time difference T with respect to the transmitted signal fs(t) according to the distance between the host vehicle MC and the target. Due to this time difference T and the Doppler effect based on the relative velocities of the host vehicle MC and the target, the beat signal has a frequency fup in an "UP section" where the frequency rises and a frequency fdn in the "DN section" where the frequency drops. is obtained as a repeated signal (see the middle part of FIG. 3).
図3の下段には、かかるビート信号を周波数解析処理においてFFT処理した結果を、「UP区間」側および「DN区間」側のそれぞれについて模式的に示している。 The lower part of FIG. 3 schematically shows the results of the FFT processing of the beat signal in the frequency analysis processing for each of the "UP section" side and the "DN section" side.
図3の下段に示すように、FFT処理後には、「UP区間」側および「DN区間」側のそれぞれの周波数領域における波形が得られる。ピーク抽出処理では、かかる波形においてピークとなるピーク周波数を抽出する。 As shown in the lower part of FIG. 3, after the FFT processing, waveforms in the frequency domains on the "UP section" side and the "DN section" side are obtained. In the peak extraction process, the peak frequency of the waveform is extracted.
たとえば、図3の下段に示した例の場合、ピーク抽出閾値が用いられ、「UP区間」側においては、ピークPu1~Pu3がそれぞれピークとして判定され、ピーク周波数fu1~fu3がそれぞれ抽出される。 For example, in the case of the example shown in the lower part of FIG. 3, a peak extraction threshold is used, peaks Pu1 to Pu3 are determined as peaks, and peak frequencies fu1 to fu3 are extracted on the "UP section" side.
また、「DN区間」側においては、同じくピーク抽出閾値により、ピークPd1~Pd3がそれぞれピークとして判定され、ピーク周波数fd1~fd3がそれぞれ抽出される。 Also, on the "DN section" side, the peaks Pd1 to Pd3 are determined as peaks by the same peak extraction threshold, and the peak frequencies fd1 to fd3 are extracted.
ここで、ピーク抽出処理により抽出した各ピーク周波数の周波数成分には、複数の物標からの反射波が混成している場合がある。そこで、瞬時データ生成処理では、各ピーク周波数のそれぞれについて方位演算する角度推定処理を行い、ピーク周波数ごとに対応する物標の存在を解析する。 Here, the frequency component of each peak frequency extracted by the peak extraction process may be mixed with reflected waves from a plurality of targets. Therefore, in the instantaneous data generation process, an angle estimation process for performing azimuth calculation is performed for each peak frequency, and the presence of a target corresponding to each peak frequency is analyzed.
なお、瞬時データ生成処理における方位演算は、たとえばESPRIT(Estimation of Signal Parameters via Rotational Invariance Techniques)などの公知の到来方向推定手法を用いて行うことができる。 Note that the azimuth calculation in the instantaneous data generation process can be performed using a known direction-of-arrival estimation technique such as ESPRIT (Estimation of Signal Parameters via Rotational Invariance Techniques).
図4Aは、瞬時データ生成処理の方位演算結果を模式的に示すものである。瞬時データ生成処理では、かかる方位演算結果の各ピークPu1~Pu3から、これらピークPu1~Pu3にそれぞれ対応する各物標(各反射点)の推定角度を算出する。また、各ピークPu1~Pu3の大きさがパワー値となる。瞬時データ生成処理では、図4Bに示すように、かかる角度推定処理を「UP区間」側および「DN区間」側のそれぞれについて行う。 FIG. 4A schematically shows an azimuth calculation result of instantaneous data generation processing. In the instantaneous data generation process, the estimated angle of each target (each reflection point) corresponding to each of the peaks Pu1 to Pu3 is calculated from each of the peaks Pu1 to Pu3 of the azimuth calculation result. Also, the magnitude of each of the peaks Pu1 to Pu3 is the power value. In the instantaneous data generation processing, as shown in FIG. 4B, such angle estimation processing is performed for each of the "UP section" side and the "DN section" side.
そして、瞬時データ生成処理では、方位演算結果において、推定角度およびパワー値の近い各ピークを組み合わせるペアリング処理を行う。また、その組み合わせ結果から、瞬時データ生成処理では、各ピークの組み合わせに対応する各物標(各反射点)の距離および自車両MCへの向きの相対速度を算出する。 Then, in the instantaneous data generation process, a pairing process is performed in which peaks having similar estimated angles and power values are combined in the azimuth calculation result. Further, from the result of the combination, in the instantaneous data generation process, the distance of each target (each reflection point) corresponding to the combination of each peak and the relative speed toward the own vehicle MC are calculated.
距離は、「距離∝(fup+fdn)」の関係に基づいて算出することができる。相対速度は、「速度∝(fup-fdn)」の関係に基づいて算出することができる。その結果、図4Cに示すように、自車両MCに対する、各反射点RPの推定角度、距離および相対速度の瞬時データ100を示すペアリング処理結果が得られる。
The distance can be calculated based on the relationship “distance∝(fup+fdn)”. The relative velocity can be calculated based on the relationship "velocity∝(fup-fdn)". As a result, as shown in FIG. 4C, a pairing processing result showing
図2に戻って、フィルタ処理部34について説明する。図2に示すように、フィルタ処理部34は、予測部34aと、割当部34bと、重み付け部34cと、リサンプリング部34dと、代表データ生成部34eとを備える。
Returning to FIG. 2, the
フィルタ処理部34は、生成部33によって生成された瞬時データ100に対して所定数の粒子の分布を用いて解析を行うパーティクルフィルタを施すことによって、瞬時データ100に対応する物標データを生成する。
The
パーティクルフィルタでは、物標の真の状態に対して複数の仮説を立てて解析を行う。仮説とは例えば位置や速度などの物標の状態に対する1つの仮定値である。例えば位置空間では、仮説は所定の分布で散布され、移動していく1つの粒子のように見えるため、ここでは仮説を粒子という。また、所定数の粒子をまとめて1つの仮説とした粒子群データを併せて用いる。例えば粒子群データは粒子の状態の平均値などであり、所定数の粒子の分布において最もあり得る1つの仮説ともいえる。 The particle filter makes multiple hypotheses for the true state of the target and analyzes them. A hypothesis is a hypothetical value for the state of a target, such as position or velocity. For example, in the position space, the hypotheses are scattered in a given distribution and look like one moving particle, so here we refer to the hypotheses as particles. In addition, particle swarm data in which a predetermined number of particles are collectively used as one hypothesis is also used. For example, the particle group data is the average value of the state of particles, and can be said to be one of the most probable hypotheses in the distribution of a predetermined number of particles.
予測部34aは、粒子群データならびに粒子の予測処理を行う。具体的には、予測部34aは、最新の周期を時刻tとし、時刻tにおける粒子ならびに粒子群データの状態を、前回の周期の時刻t-1の粒子並びに粒子群データを基に予測する。例えば速度、位置といった粒子並びに粒子群データの状態を基に、運動モデルと、測定周期ΔTによって予測する手法などがある。つまり、予測部34aは、予測処理において、過去の粒子ならびに粒子群データの状態から時刻tにおける粒子ならびに粒子群データの状態を予測する。
The
割当部34bは、最新の周期における瞬時データ100を、予測部34aの予測結果である最新の粒子群データへ割り当てる処理を行う。具体的には、割当部34bは、予測部34aによって生成された今回の粒子群データに対応する所定の割り当て範囲と、瞬時データ100と粒子群データとの位置差、速度差などに基づき、今回の瞬時データ100を、粒子群データへ割り当てる。
The
なお、割当部34bは、いずれの物標データの割り当て範囲内にも存在しない瞬時データ100があった場合には、かかる瞬時データ100を新規の物標として扱う。新規の物標は所定の処理を行った後、粒子群データが生成され、同時に粒子も付与される。所定の処理は測定周期をまたぐことも可能であり、例えば新規の物標に対して、簡易的に数周期の間連続性を評価して、ノイズなどで単発的に発生したものでないと確認した後に粒子群データを生成し、粒子を付与することもできる。
If there is
重み付け部34cは、割当部34bによって粒子群データに割り当てられた今回の瞬時データ100に基づいて、粒子群データを形成する粒子それぞれについて重みを付ける。
The
例えば、重み付け部34cは、今回の粒子のうち、今回の瞬時データ100に類似する粒子の重みを大きくし、今回の瞬時データ100から類似しない粒子の重みを小さくする。なお、ここでいう「類似」度合は、例えば位置差や速度差などを基に記述されるコスト関数の評価値などを指す。
For example, the
次に、リサンプリング部34dは、今回の粒子それぞれの重みに基づいて粒子を再配置(リサンプリング)する。具体的には、リサンプリング部34dは、重みが小さい粒子を瞬時データ100の近く(重みが大きい)へ移動させる。より具体的には、リサンプリング部34dは、重みが所定の閾値未満の粒子を重みが所定の閾値以上の粒子データへ再配置する。これにより、予測によって生成した今回の粒子群データを、真値により近い可能性がある瞬時データによって補正できる。これにより、後述の代表データ生成部34eによって生成される物標データをより高精度、すなわち、真値に近くになるように補正することができる。 Next, the resampling unit 34d rearranges (resamples) the particles based on the current weight of each particle. Specifically, the resampling unit 34d moves particles with small weights closer to the instantaneous data 100 (larger weights). More specifically, the resampling unit 34d rearranges particles whose weight is less than a predetermined threshold to particle data whose weight is equal to or greater than a predetermined threshold. As a result, the current particle swarm data generated by prediction can be corrected with instantaneous data that may be closer to the true value. As a result, the target data generated by the representative data generation unit 34e, which will be described later, can be corrected with higher accuracy, that is, closer to the true value.
代表データ生成部34eは、物標データを生成し、かかる物標データを同一物標毎に集約した代表データ50を生成する。具体的には、まず、代表データ生成部34eは、リサンプリング部34dによって再配置された今回の粒子に基づいて物標データを生成する。例えば、代表データ生成部34eは、粒子の分布から確率密度関数を生成し、その重心に基づいて物標データを生成、あるいは、シンプルに各粒子の平均に基づいて物標データを生成する。なお、代表データによって、粒子群データが更新される。
The representative data generation unit 34e generates target data, and generates
続いて、代表データ生成部34eは、複数の物標データを同一物標の物標データとして1つに統合するグループ化を行う。例えば、代表データ生成部34eは、複数の物標データが所定範囲内に存在し、かつ、各物標データに含まれる各速度成分の差が所定値以下である場合に、各物標データを同一物標の物標データと見做し、グループ化を行う。 Subsequently, the representative data generation unit 34e performs grouping by integrating a plurality of target data into one as target data of the same target. For example, when a plurality of target data exists within a predetermined range and the difference between the speed components included in each target data is equal to or less than a predetermined value, the representative data generation unit 34e generates each target data as They are regarded as target data of the same target and grouped.
その後、代表データ生成部34eは、グループ化した複数の物標データから代表データ50を生成する。また、代表データ生成部34eは、代表データ50に物標の種別を対応付ける処理を行う。
Thereafter, the representative data generator 34e generates
代表データ生成部34eは、相対速度に基づき、各物標を、先行車、静止物(静止車両を含む)、対向車に分類する。例えば、代表データ生成部34eは、自車両MCの速度と向きであって、この速度の大きさよりもより大きな相対速度の物標を「先行車」と分類する。 The representative data generator 34e classifies each target into a preceding vehicle, a stationary object (including a stationary vehicle), and an oncoming vehicle based on the relative speed. For example, the representative data generator 34e classifies a target with a relative speed greater than the speed and direction of the own vehicle MC as a "preceding vehicle".
また、例えば、代表データ生成部34eは、自車両MCの速度と概ね逆向きである相対速度の物標を「静止物」と分類する。また、例えば、代表データ生成部34eは、自車両MCの速度と逆向きであって、この速度の大きさよりもより大きな相対速度の物標を「対向車」と分類する。 Also, for example, the representative data generation unit 34e classifies a target with a relative speed generally opposite to the speed of the own vehicle MC as a "stationary object". Also, for example, the representative data generating unit 34e classifies a target having a relative speed that is in the opposite direction to the speed of the own vehicle MC and is greater than the magnitude of this speed as an "oncoming vehicle".
なお、代表データ生成部34eは、自車両MCの舵角や走行速度を含む走行情報を取得し、自車両MCの走行速度および走行向きを算出することで、物標の対地速度を求めることで物標を分類することにしてもよい。 The representative data generation unit 34e acquires travel information including the steering angle and travel speed of the own vehicle MC, calculates the travel speed and travel direction of the own vehicle MC, and obtains the ground speed of the target. Targets may be classified.
続いて、出力部35について説明する。出力部35は、フィルタ処理部34によって生成された代表データ50に対して、代表データ50の生成に用いられた瞬時データ100に基づく物標の形状データを付与した出力データDoを出力する。形状データは物標の形状を表すために任意の要素を用いることができる。何を使用するかはシステムの要求に応じて適宜決定するとよい。
Next, the
例えば、点列で外形を表現する場合は、複数の瞬時データ100の位置、すなわちX,Y座標の組を出力するデータ構造とすることもできる。この場合、例えばLIDARなどにおける1レイヤーの測定データと類似のフォーマットなるため、出力先で行われる外形処理に類似のものを使用することができる。
For example, when expressing an outline by a sequence of points, the data structure may be such that the positions of a plurality of
他にも点列をまとめて直線やL字、四角形として形状を表現し、それらを特徴的に表す値を形状データとして出力することもできる。なお、形状データのデータフォーマットについては、他車両LCの形状を示す画像データや、レーダ装置1を基準とする二次元座標系で他車両LCの形状を示した座標データを用いるなど、車両制御装置2の仕様にあわせて適宜設定することが可能である。また、形状データを圧縮してから出力し、出力先(例えば、車両制御装置2)で圧縮された形状データを解凍して用いることにしてもよい。
In addition, it is also possible to combine points to express shapes as straight lines, L-shapes, and quadrilaterals, and to output values characteristically representing them as shape data. Regarding the data format of the shape data, image data indicating the shape of the other vehicle LC or coordinate data indicating the shape of the other vehicle LC in a two-dimensional coordinate system based on the
図5A~図5Cは、出力データDoの具体例を示す図である。なお、以下に示す時刻t-1や時刻tは、時間経過を示し、現在の時刻が時刻tであり、時刻tの前回スキャンが時刻t-1であるものとする。 5A to 5C are diagrams showing specific examples of the output data Do. Note that time t-1 and time t shown below indicate the passage of time, the current time is time t, and the previous scan at time t is time t-1.
図5Aに示すように、例えば、時刻t-1における代表データ50aと時刻tにおける代表データ50bとの距離ならびに方位に関する変化量が所定値以下である場合、時刻tにおける出力データDoには、代表データ50aに用いた瞬時データ100aおよび代表データ50bの生成に用いた瞬時データ100bに基づいて生成された形状データが含まれる。
As shown in FIG. 5A, for example, when the amount of change in the distance and direction between the
すなわち、自車両MCと他車両LCとの相対的な距離ならびに方位の変化が所定値以下である期間において、かかる期間内における過去の瞬時データ100に基づく、形状データが出力データDoに含まれる。
In other words, the output data Do includes shape data based on the past
言い換えれば、自車両MC、すなわち、レーダ装置1と他車両LCとの相対的な位置関係が所定の変位内に収まっている期間において、過去も含めた当該期間内における瞬時データに基づいて今回の形状データを生成する。
In other words, during a period in which the relative positional relationship between the own vehicle MC, that is, the
つまり、自車両MCと他車両LCとの相対的な位置変化が少ない場合、今回の瞬時データ100bと併せて、過去の瞬時データ100aにも基づいて、今回の形状データを生成する。なお、形状データには、瞬時データ100をそのまま用いてもよい。
That is, when the relative positional change between the own vehicle MC and the other vehicle LC is small, the current shape data is generated based on the past
これにより、時刻tにおいて、今回の瞬時データ100bが少ない場合であっても、形状データをより精密に生成することが可能となる。例えば、瞬時データ100bを今回の形状データに用いる場合には、形状データを構成するデータ数を増やすことが可能となり、より詳細な形状を認識させることが可能となる。なお、ここでは、自車両MCを基準として過去の瞬時データ100を今回の形状データに用いる場合を示したが、これに限定されるものではない。
This makes it possible to generate more precise shape data at time t even if the current
また、図5Bに示すように、時刻t-1における代表データ50aに対して代表データ50aを基準とする瞬時データ100aの相対的な位置関係を記憶しておき、かかる位置関係に基づいて過去の瞬時データ100aを補正し、形状データを生成することも可能である。
Further, as shown in FIG. 5B, the relative positional relationship between the
つまり、過去の代表データ50aと今回の代表データ50bの位置が異なっていても、代表データ50bと瞬時データ100aとの相対的な位置関係は過去と今回とで変化しない可能性が高い。したがって、今回、過去の瞬時データ100aそのものではなく、瞬時データ100aと代表データ50aの相対的な位置関係に基づいて、形状データを生成する。なお、形状データには相対的な位置関係に基づき補正した瞬時データ100bをそのまま用いてもよい。
That is, even if the positions of the past
具体的には、図5Bに示すように、時刻t-1における代表データ50aを基準とする各瞬時データ100aの位置座標を記憶しておき、時刻tの代表データ50bを基準として各瞬時データ100aを配置する。
Specifically, as shown in FIG. 5B, the position coordinates of each
これにより、時刻tにおける出力データDoには、時刻t-1における瞬時データ100aおよび時刻tにおける瞬時データ100bが含まれる。すなわち、代表データ50を基準として各瞬時データ100の座標位置を記憶しておくことで、自車両MCと他車両LCとの相対距離や自車両MCに対する他車両LCの角度が変化した場合であっても、過去の瞬時データ100bを今回の形状データの生成に用いることが可能となる。
As a result, the output data Do at time t includes
したがって、かかる場合においても、より多くの瞬時データ100を形状データの生成に用いることができるので、より詳細な形状を認識させることが可能となる。
Therefore, even in such a case, more
また、かかる場合に、例えば、自車両MCもしくは他車両LCが旋回した場合、旋回量に応じて過去の瞬時データ100を回転させることも可能である。つまり、上記の例は平行移動の場合であり、代表データ50と瞬時データ100との相対的な位置関係をそのまま使用したが、代表データ50と瞬時データ100との相対的な位置関係に対してさらに回転による補正を行ってもよい。
Further, in such a case, for example, when the own vehicle MC or the other vehicle LC turns, it is possible to rotate the past
具体的には、図5Cに示すように、例えば、時刻t-1から時刻tにかけて他車両LCが旋回した場合、時刻t-1の瞬時データ100を他車両LCの旋回量に基づいて回転させて時刻tの形状データを生成する。
Specifically, as shown in FIG. 5C, for example, when the other vehicle LC turns from time t-1 to time t, the
かかる場合に、代表データ50bに含まれる自車両MCと他車両LCの相対速度に関するベクトルから自車両MCの実際の移動成分を示すベクトルを差し引いた他車両LCの対地ベクトルに基づいて他車両LCの旋回量を検出する。
In such a case, the speed of the other vehicle LC is determined based on the ground vector of the other vehicle LC obtained by subtracting the vector representing the actual movement component of the own vehicle MC from the vector relating to the relative speed of the own vehicle MC and the other vehicle LC included in the
すなわち、自車両MCの旋回量を自車両MCの舵角や走行速度に基づいて検出し、相対速度に基づくベクトルから自車両MCの移動成分に基づくベクトルを差し引くことで、他車両LCの旋回量を検出する。 That is, the turning amount of the own vehicle MC is detected based on the steering angle and traveling speed of the own vehicle MC, and the vector based on the movement component of the own vehicle MC is subtracted from the vector based on the relative speed to obtain the turning amount of the other vehicle LC. to detect
これにより、自車両MCと他車両LCとの向きの変化、すなわち、自車両MCおよび他車両LCの旋回量を正確に算出することが可能となる。したがって、旋回に基づく過去の瞬時データ100の誤差を少なくすることが可能となる。
This makes it possible to accurately calculate the change in orientation of the own vehicle MC and the other vehicle LC, that is, the amount of turning of the own vehicle MC and the other vehicle LC. Therefore, it is possible to reduce errors in the past
言い換えれば、出力データDoに付与する形状データの確からしさを向上させることが可能となる。なお、ここまでの例では、時刻t-1の瞬時データ100aを形状データに用いる場合について説明したが、時刻t-1以前の瞬時データ100を形状データに用いることも可能である。
In other words, it is possible to improve the likelihood of shape data to be assigned to the output data Do. In the example so far, the case where the
また、他車両LCの旋回量の検出方法は、上述の例に限られるものではない。例えば、レーダ装置1は、自車両MCに搭載された他の装置から取得した情報に基づいて他車両LCの旋回量を検出することにしてもよいし、あるいは、車車間通信等の無線通信を用いて他車両LCから取得した情報に基づいて旋回量を検出することにしてもよい。
Further, the method of detecting the turning amount of the other vehicle LC is not limited to the above example. For example, the
次に、図6を用いて実施形態に係るレーダ装置1が実行する処理手順について説明する。図6は、実施形態に係るレーダ装置1が実行する処理手順を示すフローチャートである。
Next, a processing procedure executed by the
図6に示すように、まず、生成部33は、送信した電波が物標で反射した反射波に基づいて物標に対応する瞬時データ100を生成する(ステップS101)。
As shown in FIG. 6, the
続いて、フィルタ処理部34の予測部34aは、前回の粒子データに基づいて今回の粒子データを予測する予測処理と、前回の物標データに基づいて今回の物標データに対応する予測データを予測する予測処理を行う(ステップS102)。なお、ここでの予測データとは、粒子および粒子群データを示す。
Subsequently, the
続いて、割当部34bは、今回の粒子群データに今回の瞬時データ100を割り当てる(ステップS103)。続いて、割当部34bは、今回の粒子データが割り当てられなかった瞬時データ100の有無により新規の物標の有無を判定する(ステップS104)。割当部34bは、瞬時データ100が新規の物標であった場合(ステップS104,Yes)、新規の物標に対応する瞬時データ100に対して所定の粒子群データ(例えば、初期状態の粒子群データ)を設定する(ステップS111)。
Subsequently, the
続いて、重み付け部34cは、瞬時データ100が新規の物標でなかった場合(ステップS104,No)、瞬時データ100に基づいて今回の粒子データそれぞれに重み付けを行う(ステップS105)。
Subsequently, if the
続いて、リサンプリング部34dは、重み付け部34cによる重み付けに基づいて今回の粒子群データのリサンプリングを行う(ステップS106)。続いて、代表データ生成部34eは、リサンプリングされた今回の粒子群データの確率密度関数を更新し、かかる確率密度関数に基づいて物標データを生成する(ステップS107)。
Subsequently, the resampling unit 34d resamples the current particle group data based on the weighting by the
続いて、代表データ生成部34eは、同一物標の物標データから代表データ50を生成し(ステップS108)、出力部35は、代表データ50に形状データを付与した出力データDoを生成する(ステップS109)。
Subsequently, the representative data generation unit 34e generates the
そして、出力部35は、かかる出力データDoを出力して(ステップS110)、処理を終了する。
Then, the
上述したように、実施形態に係るレーダ装置1は、生成部33と、フィルタ処理部34と、出力部35とを備える。生成部33は、送信波が物標で反射した反射波に基づいて物標に対応する瞬時データを生成する。フィルタ処理部34は、生成部33によって生成された瞬時データに基づいて物標毎の代表データ50を生成する。
As described above, the
出力部35は、フィルタ処理部34によって生成された代表データ50に対して、当該代表データ50の生成に用いられた瞬時データ100に基づく物標の形状データを付与した出力データDoを出力する。したがって、実施形態に係るレーダ装置1によれば、物標の形状を正しく認識させることができる。
The
ところで、上述の実施形態では、1つのレーダ装置1によって生成された瞬時データ100を用いて形状データを生成する場合について説明したが、複数のレーダ装置1によって生成された瞬時データ100を統合して形状データを生成することも可能である。
By the way, in the above-described embodiment, the case where the shape data is generated using the
図7は、変形例に係る出力データDoの具体例を示す図である。なお、ここでは、自車両MCがそれぞれ異なる位置から自車両MCの前方の物標を検出する複数のレーダ装置1A~1Cを備える場合について説明する。
FIG. 7 is a diagram showing a specific example of output data Do according to the modification. Here, a case will be described in which the own vehicle MC is provided with a plurality of
例えば、図7に示すレーダ装置1Aは、レーダ装置1Aで生成した瞬時データ100Aに加えて、レーダ装置1Bおよびレーダ装置1Cによって生成された瞬時データ100Bおよび瞬時データ100Cに基づいて形状データを生成し、かかる形状データを含む出力データDoを出力することが可能である。
For example,
図7に示す例では、レーダ装置1Aが他車両LCの後方に対応する瞬時データ100Aを生成し、レーダ装置1Bが他車両LCの左側方に対応する瞬時データ100Bを生成し、レーダ装置1Cが他車両LCの右側方に対応する瞬時データ100Cを生成した場合を示す。
In the example shown in FIG. 7, the
この場合に、レーダ装置1Aは、例えば、瞬時データ100A~100Cのうち、同一物標に対応する瞬時データ100を選択し、選択した瞬時データ100A~100Cを形状データとして代表データ50に付与する。
In this case, the
すなわち、代表データ50に対して多様な角度からとらえた瞬時データ100を形状データとして付与することが可能となる。このように、多様な角度からとらえた瞬時データ100に基づいて形状データを生成することで、多様な角度からみた物標の形状を認識させることが可能となる。
That is, it is possible to give the
なお、ここでは、レーダ装置1Aが他のレーダ装置1Bおよびレーダ装置1Cの瞬時データ100を集約する場合について説明したが、レーダ装置1A~1Cの瞬時データ100を集約するマイコンやECUを別途設けることにしてもよい。すなわち、出力部35をレーダ装置1と別の筐体に設けることにしてもよい。
Here, the case where the
また、例えば、レーダ装置1Aに複数の送信部10と複数の受信部20とを備える構成とし、かかるレーダ装置1Aによって瞬時データ100Bや瞬時データ100Cに対応する瞬時データ100を生成することにしてもよい。
Alternatively, for example, the
また、上述した実施形態では、瞬時データ100に基づいて形状データを生成する場合について説明したが、これに限定されるものではなく、パーティクルフィルタで用いた粒子そのものや、粒子の分布を表す確率密度関数を用いて形状データを生成することにしてもよい。なお、例えば、粒子そのもの、または確率密度関数をそのまま形状データに用いることにしてもよいし、所定の形式に加工したものを形状データとすることにしてもよい。
Further, in the above-described embodiment, the case where the shape data is generated based on the
また、粒子群データをヒストグラム化し、各位置に対する物標の存在確率を形状データとして用いることにしてもよい。かかる場合であっても、物標の形状を正しく認識させることが可能である。なお、かかる存在確率の算出に、拡張カルマンフィルタ(EKF:Extended Kalman Filter)や無香料カルマンフィルタ(UKF:Unscented Kalman Filter)等のカルマンフィルタを用いることにしてもよい。 Alternatively, the particle group data may be histogrammed, and the existence probability of the target for each position may be used as the shape data. Even in such a case, it is possible to correctly recognize the shape of the target. A Kalman filter such as an extended Kalman filter (EKF) or an unscented Kalman filter (UKF) may be used to calculate the existence probability.
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.
1 レーダ装置
33 生成部
34 フィルタ処理部
34a 予測部
34b 割当部
34c 重み付け部
34d リサンプリング部
34e 代表データ生成部
35 出力部
50 代表データ
100 瞬時データ
Do 出力データ
1
Claims (8)
前記生成部によって生成された前記瞬時データに基づいて前記物標毎の代表データを生成するフィルタ処理部と、
前記フィルタ処理部によって生成された前記代表データに対して、当該代表データの生成に用いられた前記瞬時データに基づく前記物標の形状データを付与した出力データを出力する出力部と、
を備えるとともに、
前記出力部は、
前記代表データとレーダ装置との相対的な位置関係が所定の変位内に収まっている期間において、当該期間内における前記瞬時データに基づいて前記形状データを生成するように構成された、
レーダ装置。 a generation unit that generates instantaneous data corresponding to the target based on the reflected wave of the transmitted wave reflected by the target;
a filter processing unit that generates representative data for each target based on the instantaneous data generated by the generation unit;
an output unit for outputting output data obtained by adding shape data of the target based on the instantaneous data used to generate the representative data to the representative data generated by the filtering unit;
and
The output unit
In a period in which the relative positional relationship between the representative data and the radar device is within a predetermined displacement, the shape data is generated based on the instantaneous data in the period,
radar equipment.
請求項1に記載のレーダ装置。 wherein the instantaneous data within the period includes the past instantaneous data within the period;
The radar device according to claim 1.
今回の前記瞬時データと、過去の前記代表データを基準とする過去の前記瞬時データの位置関係を用いて、今回の前記代表データを基準に補正した当該過去の瞬時データとに基づいて前記形状データを生成するように構成された、
請求項1または請求項2に記載のレーダ装置。 The output unit
The shape data based on the current instantaneous data and the past instantaneous data corrected based on the current representative data using the positional relationship of the past instantaneous data based on the past representative data. configured to generate a
The radar device according to claim 1 or 2.
前記代表データに基づいて推定される前記物標の路面に対する旋回量に応じて前記代表データに対応する前記過去の前記瞬時データを回転させて前記形状データを生成するように構成された、
請求項3に記載のレーダ装置。 The output unit
configured to generate the shape data by rotating the past instantaneous data corresponding to the representative data according to the turning amount of the target with respect to the road surface estimated based on the representative data;
The radar device according to claim 3.
異なる位置に設けられた複数の送信部から送信された前記送信波と、前記複数の送信部とそれぞれ対を成す受信部によって受信された受信波とに基づく前記瞬時データに基づいて前記形状データを生成するように構成された、
請求項1から請求項4までのいずれか1項に記載のレーダ装置。 The output unit
The shape data is calculated based on the instantaneous data based on the transmitted waves transmitted from a plurality of transmitters provided at different positions and the received waves received by the receivers paired with the plurality of transmitters. configured to generate
The radar device according to any one of claims 1 to 4.
前記瞬時データに対して、所定数の粒子の分布を用いて解析を行うパーティクルフィルタを用いて前記代表データを生成するように構成され、
前記出力部は、
前記粒子の分布形状に基づいて前記形状データを生成するように構成された、
請求項1から請求項5までのいずれか1項に記載のレーダ装置。 The filter processing unit is
configured to generate the representative data using a particle filter that analyzes the instantaneous data using a distribution of a predetermined number of particles;
The output unit
configured to generate the shape data based on the distribution shape of the particles;
Radar device according to any one of claims 1 to 5.
前記期間は、前記自車両と前記他車両との相対的な距離及び方位の変化量が所定値以下の期間である、 The period is a period in which the amount of change in the relative distance and direction between the own vehicle and the other vehicle is equal to or less than a predetermined value.
請求項1から請求項6までのいずれか1項に記載のレーダ装置。 Radar device according to any one of claims 1 to 6.
前記生成工程によって生成された前記瞬時データに基づいて前記物標毎の代表データを生成するフィルタ処理工程と、
前記フィルタ処理工程によって生成された前記代表データに対して、当該代表データの生成に用いられた前記瞬時データに基づく前記物標の形状データを付与した出力データを出力する出力工程と、
を含むとともに、
前記出力工程では、
前記代表データとレーダ装置との相対的な位置関係が所定の変位内に収まっている期間において、当該期間内における前記瞬時データに基づいて前記形状データを生成する、
物標データ出力方法。 a generation step of generating instantaneous data corresponding to the target based on the reflected wave of the transmitted wave reflected by the target;
a filter processing step of generating representative data for each target based on the instantaneous data generated by the generating step;
an output step of outputting output data obtained by adding shape data of the target based on the instantaneous data used to generate the representative data to the representative data generated in the filtering step;
including
In the output step,
generating the shape data based on the instantaneous data during a period in which the relative positional relationship between the representative data and the radar device is within a predetermined displacement;
Target data output method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018113130A JP7244220B2 (en) | 2018-06-13 | 2018-06-13 | Radar device and target data output method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018113130A JP7244220B2 (en) | 2018-06-13 | 2018-06-13 | Radar device and target data output method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215281A JP2019215281A (en) | 2019-12-19 |
JP7244220B2 true JP7244220B2 (en) | 2023-03-22 |
Family
ID=68919496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018113130A Active JP7244220B2 (en) | 2018-06-13 | 2018-06-13 | Radar device and target data output method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7244220B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11879964B2 (en) * | 2020-02-13 | 2024-01-23 | Mitsubishi Electric Research Laboratories, Inc. | System and method for tracking expanded state of moving object with model geometry learning |
US11619494B2 (en) * | 2020-02-13 | 2023-04-04 | Mitsubishi Electric Research Laboratories, Inc. | System and method for tracking expanded state of an object |
CN117813529A (en) * | 2021-08-26 | 2024-04-02 | 松下知识产权经营株式会社 | Sensor device, processing device and method for processing data |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000206241A (en) | 1999-01-13 | 2000-07-28 | Honda Motor Co Ltd | Radar apparatus |
JP2004144719A (en) | 2002-10-28 | 2004-05-20 | Matsushita Electric Works Ltd | Measuring method and instrument of object position/form by ultrasonic array sensor |
JP2008267826A (en) | 2007-04-16 | 2008-11-06 | Toyota Motor Corp | Object detection device |
WO2012128096A1 (en) | 2011-03-24 | 2012-09-27 | 古河電気工業株式会社 | Radar device |
US20130242284A1 (en) | 2012-03-15 | 2013-09-19 | GM Global Technology Operations LLC | METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS |
JP2014089058A (en) | 2012-10-29 | 2014-05-15 | Furuno Electric Co Ltd | Tracking processing device and tracking processing method |
JP2015055541A (en) | 2013-09-11 | 2015-03-23 | トヨタ自動車株式会社 | Surrounding object detection apparatus |
JP2016053915A (en) | 2014-09-04 | 2016-04-14 | 日立建機株式会社 | Obstacle detection system and transport vehicle |
JP2016206026A (en) | 2015-04-23 | 2016-12-08 | 株式会社デンソー | Object recognition device |
-
2018
- 2018-06-13 JP JP2018113130A patent/JP7244220B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000206241A (en) | 1999-01-13 | 2000-07-28 | Honda Motor Co Ltd | Radar apparatus |
JP2004144719A (en) | 2002-10-28 | 2004-05-20 | Matsushita Electric Works Ltd | Measuring method and instrument of object position/form by ultrasonic array sensor |
JP2008267826A (en) | 2007-04-16 | 2008-11-06 | Toyota Motor Corp | Object detection device |
WO2012128096A1 (en) | 2011-03-24 | 2012-09-27 | 古河電気工業株式会社 | Radar device |
US20130242284A1 (en) | 2012-03-15 | 2013-09-19 | GM Global Technology Operations LLC | METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS |
JP2014089058A (en) | 2012-10-29 | 2014-05-15 | Furuno Electric Co Ltd | Tracking processing device and tracking processing method |
JP2015055541A (en) | 2013-09-11 | 2015-03-23 | トヨタ自動車株式会社 | Surrounding object detection apparatus |
JP2016053915A (en) | 2014-09-04 | 2016-04-14 | 日立建機株式会社 | Obstacle detection system and transport vehicle |
JP2016206026A (en) | 2015-04-23 | 2016-12-08 | 株式会社デンソー | Object recognition device |
Also Published As
Publication number | Publication date |
---|---|
JP2019215281A (en) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6313981B2 (en) | Radar apparatus, vehicle control system, and signal processing method | |
JP7244220B2 (en) | Radar device and target data output method | |
JP2015141109A (en) | Radar device and signal processing method | |
JP6924046B2 (en) | Radar device and elevation estimation method | |
JP6993136B2 (en) | Radar device and target detection method | |
EP3124994B1 (en) | Vehicle radar device | |
JP6853047B2 (en) | Radar device and target detection method | |
US10983195B2 (en) | Object detection apparatus | |
JP7103767B2 (en) | Radar device and target detection method | |
JP2009092410A (en) | Radar system and target detecting method | |
JP6924066B2 (en) | Radar device and target detection method | |
JP7188894B2 (en) | Radar device and signal processing method | |
JP2018115930A (en) | Radar device and method for detecting target | |
JP7221606B2 (en) | Radar device and shaft deviation detection method | |
JP7164327B2 (en) | Target detection device | |
JP6873009B2 (en) | Radar device and target detection method | |
JP7181010B2 (en) | Radar device and target detection method | |
JP7168353B2 (en) | Radar device and target data allocation method | |
JP2020008366A (en) | Radar device and method for controlling radar device | |
US11237260B2 (en) | Processing apparatus for estimating a movement direction of a target | |
JP6929183B2 (en) | Radar device and target detection method | |
JP7156817B2 (en) | Target detection device and target detection method | |
JP7111506B2 (en) | Target detection device | |
WO2024029100A1 (en) | Radar device | |
JP2018151327A (en) | Radar device and method of combining bearings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210429 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20211013 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220216 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7244220 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |