JP2019215281A - Radar device and target data output method - Google Patents

Radar device and target data output method Download PDF

Info

Publication number
JP2019215281A
JP2019215281A JP2018113130A JP2018113130A JP2019215281A JP 2019215281 A JP2019215281 A JP 2019215281A JP 2018113130 A JP2018113130 A JP 2018113130A JP 2018113130 A JP2018113130 A JP 2018113130A JP 2019215281 A JP2019215281 A JP 2019215281A
Authority
JP
Japan
Prior art keywords
data
target
instantaneous
radar device
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018113130A
Other languages
Japanese (ja)
Other versions
JP7244220B2 (en
Inventor
聖也 藤津
Seiya Fujitsu
聖也 藤津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018113130A priority Critical patent/JP7244220B2/en
Publication of JP2019215281A publication Critical patent/JP2019215281A/en
Application granted granted Critical
Publication of JP7244220B2 publication Critical patent/JP7244220B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

To ensure that the shape of a target is correctly recognized.SOLUTION: A radar device comprises a generation unit 33, a filter processing unit 34 and an output unit 35. The generation unit generates instantaneous data that corresponds to a target on the basis of the reflected wave of a transmitted wave having been reflected by the target. The filter processing unit generates representative data per target on the basis of the instantaneous data generated by the generation unit. The output unit outputs output data in which the shape data of the target based on the instantaneous data used in generating the representative data is added to the representative data generated by the filter processing unit.SELECTED DRAWING: Figure 2

Description

本発明は、レーダ装置および物標データ出力方法に関する。   The present invention relates to a radar device and a target data output method.

従来、例えば、車両に搭載され、かかる車両から送信される送信波が物標で反射した反射波に基づいて物標を検出するレーダ装置がある。かかるレーダ装置では、同一物標に対応する瞬時データから当該物標に代表される一つの代表データを生成し、かかる代表データを出力する(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, for example, there is a radar device mounted on a vehicle and detecting a target based on a reflected wave of a transmission wave transmitted from the vehicle reflected by the target. In such a radar device, one representative data represented by the target is generated from the instantaneous data corresponding to the same target, and the representative data is output (for example, see Patent Document 1).

特開2015−210157号公報JP 2015-210157 A

しかしながら、従来技術では、同一物標から複数の瞬時データを検出した場合であっても、1つの代表データのみが出力されるため、出力する代表データから物標の形状を正しく認識させることができない。   However, in the related art, even when a plurality of instantaneous data are detected from the same target, only one representative data is output, so that the shape of the target cannot be correctly recognized from the output representative data. .

本発明は、上記に鑑みてなされたものであって、物標の形状を正しく認識させることができるレーダ装置および物標データ出力方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a radar device and a target data output method capable of correctly recognizing the shape of a target.

上述した課題を解決し、目的を達成するために、実施形態に係るレーダ装置は、生成部と、フィルタ処理部と、出力部とを備える。前記生成部は、送信波が物標で反射した反射波に基づいて前記物標に対応する瞬時データを生成する。フィルタ処理部は、前記生成部によって生成された前記瞬時データに基づいて前記物標毎の代表データを生成する。前記出力部は、前記フィルタ処理部によって生成された前記代表データに対して、当該代表データの生成に用いられた前記瞬時データに基づく前記物標の形状データを付与した出力データを出力する。   In order to solve the above-described problem and achieve the object, a radar device according to an embodiment includes a generation unit, a filter processing unit, and an output unit. The generating unit generates instantaneous data corresponding to the target based on a reflected wave of the transmitted wave reflected by the target. The filter processing unit generates representative data for each target based on the instantaneous data generated by the generation unit. The output unit outputs output data obtained by adding shape data of the target based on the instantaneous data used for generating the representative data to the representative data generated by the filter processing unit.

本発明によれば、物標の形状を正しく認識させることができる。   According to the present invention, it is possible to correctly recognize the shape of a target.

図1Aは、レーダ装置1の搭載例を示す図である。FIG. 1A is a diagram illustrating an example of mounting the radar device 1. 図1Bは、物標データ出力方法の概要を示す図である。FIG. 1B is a diagram showing an outline of a target data output method. 図2は、レーダ装置のブロック図である。FIG. 2 is a block diagram of the radar device. 図3は、信号処理部の前段処理から信号処理部におけるピーク抽出処理までの処理説明図である。FIG. 3 is an explanatory diagram of processing from the pre-processing of the signal processing unit to the peak extraction processing in the signal processing unit. 図4Aは、角度推定処理の処理説明図である。FIG. 4A is an explanatory diagram of the angle estimation process. 図4Bは、ペアリング処理の処理説明図(その1)である。FIG. 4B is an explanatory diagram (part 1) of the pairing process. 図4Cは、ペアリング処理の処理説明図(その2)である。FIG. 4C is an explanatory diagram (part 2) of the pairing process. 図5Aは、出力データの具体例を示す図(その1)である。FIG. 5A is a diagram (part 1) illustrating a specific example of output data. 図5Bは、出力データの具体例を示す図(その2)である。FIG. 5B is a diagram (part 2) illustrating a specific example of output data. 図5Cは、出力データの具体例を示す図(その3)である。FIG. 5C is a diagram (part 3) illustrating a specific example of output data. 図6は、レーダ装置が実行する処理手順を示すフローチャートである。FIG. 6 is a flowchart illustrating a processing procedure executed by the radar device. 図7は、変形例に係る出力データの具体例を示す図である。FIG. 7 is a diagram illustrating a specific example of output data according to a modification.

以下、添付図面を参照して、本願の開示するレーダ装置および物標データ出力方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。なお、以下では、レーダ装置がFM−CW(Frequency Modulated Continuous Wave)方式である場合を例に挙げて説明するが、レーダ装置は、FCM(Fast-Chirp Modulation)方式であってもよい。   Hereinafter, embodiments of a radar device and a target data output method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited by the embodiment. In the following, a case where the radar apparatus is an FM-CW (Frequency Modulated Continuous Wave) method will be described as an example, but the radar apparatus may be an FCM (Fast-Chirp Modulation) method.

まず、図1Aおよび図1Bを用いて、実施形態に係る物標データ出力方法の概要について説明する。図1Aは、レーダ装置の搭載例を示す図である。図1Bは、物標データ出力の概要を示す図である。図1Aでは、実施形態に係るレーダ装置1を搭載した自車両MCと、自車両MCの前方に位置する他車両LCとを示している。   First, an outline of a target data output method according to the embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a diagram illustrating an example of mounting a radar device. FIG. 1B is a diagram showing an outline of target data output. FIG. 1A shows a host vehicle MC on which the radar device 1 according to the embodiment is mounted, and another vehicle LC located in front of the host vehicle MC.

図1Aに示すように、レーダ装置1は、例えば自車両MCのフロントグリル内等に搭載され、自車両MCの進行方向に存在する物標(例えば、他車両LC等)を検出する。なお、レーダ装置1の搭載箇所は、例えばフロントガラスやリアグリル、左右の側部(例えば、左右のドアミラー)等他の箇所に搭載されてもよい。   As shown in FIG. 1A, the radar device 1 is mounted in, for example, a front grill of the own vehicle MC, and detects a target (for example, another vehicle LC or the like) existing in the traveling direction of the own vehicle MC. The mounting location of the radar apparatus 1 may be mounted on another location such as a windshield, a rear grill, and left and right side portions (for example, left and right door mirrors).

また、図1Aに示すように、レーダ装置1は、自車両MCの周囲に送信した電波が他車両LCで反射した反射波に基づいて物標に対応する瞬時データ100を生成する。瞬時データ100には、自車両MCへの向きの相対速度や、自車両MCと瞬時データ100までの距離、瞬時データ100の方向といった情報が含まれる。   Further, as shown in FIG. 1A, the radar device 1 generates instantaneous data 100 corresponding to a target based on a reflected wave of a radio wave transmitted around the own vehicle MC reflected by another vehicle LC. The instantaneous data 100 includes information such as the relative speed of the direction to the own vehicle MC, the distance between the own vehicle MC and the instantaneous data 100, and the direction of the instantaneous data 100.

また、レーダ装置1は、生成した瞬時データ100に対して時系列フィルタリングを施し、フィルタ値として物標に対応する物標データを生成する。これにより、物標データを追従(トラッキング)することが可能となる。   In addition, the radar device 1 performs time-series filtering on the generated instantaneous data 100, and generates target data corresponding to the target as a filter value. This makes it possible to track the target data.

その後、レーダ装置1は、複数の物標データを同一物体の物標データとして1つに統合するグループ化を行い、代表データ50を生成する。例えば、レーダ装置1は、検知位置および速度が所定範囲内で近い物標データを同一物体の物標データと見做し、かかる物標データから一つの代表データ50を生成する。   Thereafter, the radar apparatus 1 performs grouping by integrating a plurality of target data as target data of the same object into one, and generates representative data 50. For example, the radar apparatus 1 regards target data whose detection position and speed are close to each other within a predetermined range as target data of the same object, and generates one representative data 50 from the target data.

しかしながら、複数の物標データを検出したとしても、1つの物標に対して1つの代表データ50のみが出力される。このため、代表データ50から物標の形状を認識させることができない。   However, even if a plurality of target data are detected, only one representative data 50 is output for one target. Therefore, the shape of the target cannot be recognized from the representative data 50.

そこで、実施形態に係る物標データ出力方法では、代表データ50に物標の形状に関する形状データを付与した出力データDoを出力することで、物標の形状を正しく認識させることとした。   Therefore, in the target data output method according to the embodiment, the output data Do obtained by adding the shape data relating to the shape of the target to the representative data 50 is output so that the shape of the target is correctly recognized.

具体的には、図1Bに示すように、出力データDoは、代表データ50に加えて、代表データ50の生成に用いられた瞬時データ100を含む。すなわち、実施形態に係る物標データ出力方法では、代表データ50を生成するために用いた瞬時データ100を物標の形状データとして再度利用する。   Specifically, as shown in FIG. 1B, the output data Do includes the instantaneous data 100 used for generating the representative data 50 in addition to the representative data 50. That is, in the target data output method according to the embodiment, the instantaneous data 100 used to generate the representative data 50 is reused as the target shape data.

このように、実施形態に係る物標データ出力方法では、瞬時データ100を物体の形状を示す形状データとして代表データ50に付与することで、物標の形状を正しく認識させることが可能となる。なお、瞬時データ100は、形状データの一例であり、形状を示すデータであれば、その他のデータであってもよい。   As described above, in the target data output method according to the embodiment, the shape of the target can be correctly recognized by adding the instantaneous data 100 to the representative data 50 as shape data indicating the shape of the object. Note that the instantaneous data 100 is an example of shape data, and may be other data as long as the data indicates a shape.

次に、図2を参照して、実施形態に係るレーダ装置1の構成について詳細に説明する。図2は、実施形態に係るレーダ装置1の構成を示すブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。   Next, the configuration of the radar device 1 according to the embodiment will be described in detail with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of the radar device 1 according to the embodiment. In FIG. 2, only the components necessary for describing the features of the present embodiment are represented by functional blocks, and descriptions of general components are omitted.

図2に示すように、レーダ装置1は、送信部10と、受信部20と、処理部30とを備える。レーダ装置1は、自車両MCの挙動を制御する車両制御装置2に接続される。   As shown in FIG. 2, the radar device 1 includes a transmission unit 10, a reception unit 20, and a processing unit 30. The radar device 1 is connected to a vehicle control device 2 that controls the behavior of the host vehicle MC.

車両制御装置2は、レーダ装置1による物標の検出結果に基づいて、PCS(Pre-crash Safety System)やAEB(Advanced Emergency Braking System)などの車両制御を行う。   The vehicle control device 2 controls a vehicle such as a PCS (Pre-crash Safety System) or an AEB (Advanced Emergency Braking System) based on the detection result of the target by the radar device 1.

送信部10は、信号生成部11と、発振器12と、送信アンテナ13とを備える。信号生成部11は、後述する送受信制御部31の制御により、三角波で周波数変調されたミリ波を送信するための変調信号を生成する。発振器12は、かかる信号生成部11によって生成された変調信号に基づいて送信信号を生成し、送信アンテナ13へ出力する。なお、図2に示すように、発振器12によって生成された送信信号は、後述するミキサ22に対しても分配される。   The transmission unit 10 includes a signal generation unit 11, an oscillator 12, and a transmission antenna 13. The signal generation unit 11 generates a modulation signal for transmitting a millimeter wave frequency-modulated by a triangular wave under the control of a transmission / reception control unit 31 described later. The oscillator 12 generates a transmission signal based on the modulation signal generated by the signal generation unit 11, and outputs the transmission signal to the transmission antenna 13. Note that, as shown in FIG. 2, the transmission signal generated by the oscillator 12 is also distributed to a mixer 22, which will be described later.

送信アンテナ13は、発振器12からの送信信号を送信波へ変換し、かかる送信波を自車両MCの外部へ出力する。送信アンテナ13が出力する送信波は、三角波で周波数変調された連続波である。送信アンテナ13から自車両MCの外部、たとえば前方へ送信された送信波は、他車両LC等の物標で反射されて反射波となる。   The transmission antenna 13 converts a transmission signal from the oscillator 12 into a transmission wave, and outputs the transmission wave to the outside of the vehicle MC. The transmission wave output by the transmission antenna 13 is a continuous wave frequency-modulated by a triangular wave. A transmission wave transmitted from the transmission antenna 13 to the outside of the own vehicle MC, for example, forward, is reflected by a target such as another vehicle LC and becomes a reflected wave.

受信部20は、アレーアンテナを形成する複数の受信アンテナ21と、複数のミキサ22と、複数のA/D変換部23とを備える。ミキサ22およびA/D変換部23は、受信アンテナ21ごとに設けられる。   The receiving unit 20 includes a plurality of receiving antennas 21 forming an array antenna, a plurality of mixers 22, and a plurality of A / D converters 23. The mixer 22 and the A / D converter 23 are provided for each reception antenna 21.

各受信アンテナ21は、物標からの反射波を受信波として受信し、かかる受信波を受信信号へ変換してミキサ22へ出力する。なお、図2に示す受信アンテナ21の数は4つであるが、3つ以下または5つ以上であってもよい。   Each receiving antenna 21 receives a reflected wave from the target as a received wave, converts the received wave into a received signal, and outputs the signal to the mixer 22. Although the number of receiving antennas 21 shown in FIG. 2 is four, it may be three or less or five or more.

受信アンテナ21から出力された受信信号は、図示略の増幅器(たとえば、ローノイズアンプ)で増幅された後にミキサ22へ入力される。ミキサ22は、分配された送信信号と、受信アンテナ21から入力される受信信号との一部をミキシングし不要な信号成分を除去してビート信号を生成し、A/D変換部23へ出力する。   The reception signal output from the reception antenna 21 is input to the mixer 22 after being amplified by an amplifier (not shown) (not shown). The mixer 22 mixes a part of the distributed transmission signal and a part of the reception signal input from the reception antenna 21, removes unnecessary signal components, generates a beat signal, and outputs the beat signal to the A / D conversion unit 23. .

ビート信号は、送信信号の周波数(以下、「送信周波数」と記載する)と受信信号の周波数(以下、「受信周波数」と記載する)との差となるビート周波数を有する。ミキサ22で生成されたビート信号は、図示しない同期部によって受信アンテナ21同士でタイミングを合わせた上でA/D変換部23でデジタル信号に変換された後に、処理部30へ出力される。   The beat signal has a beat frequency that is the difference between the frequency of the transmission signal (hereinafter, referred to as “transmission frequency”) and the frequency of the reception signal (hereinafter, referred to as “reception frequency”). The beat signal generated by the mixer 22 is converted into a digital signal by the A / D conversion unit 23 after the timing is adjusted between the reception antennas 21 by a synchronization unit (not shown), and then output to the processing unit 30.

処理部30は、送受信制御部31と、信号処理部32と、記憶部36とを備える。信号処理部32は、生成部33と、フィルタ処理部34とを備える。   The processing unit 30 includes a transmission / reception control unit 31, a signal processing unit 32, and a storage unit 36. The signal processing unit 32 includes a generation unit 33 and a filter processing unit 34.

記憶部36は、履歴データ36aを記憶する。履歴データ36aは、信号処理部32が実行する一連の信号処理における物標データの履歴や、瞬時データ100の履歴を含む情報である。   The storage unit 36 stores history data 36a. The history data 36a is information including the history of the target data and the history of the instantaneous data 100 in a series of signal processing executed by the signal processing unit 32.

処理部30は、たとえば、CPU(Central Processing Unit)、記憶部36に対応するROM(Read Only Memory)やRAM(Random Access Memory)、レジスタ、その他の入出力ポートなどを含むマイクロコンピュータであり、レーダ装置1全体を制御する。   The processing unit 30 is, for example, a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory) and a RAM (Random Access Memory) corresponding to the storage unit 36, a register, and other input / output ports. The entire device 1 is controlled.

かかるマイクロコンピュータのCPUがROMに記憶されたプログラムを読み出して実行することによって、送受信制御部31および信号処理部32として機能する。なお、送受信制御部31および信号処理部32は全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードウェアで構成することもできる。   When the CPU of the microcomputer reads out and executes the program stored in the ROM, the microcomputer functions as the transmission / reception control unit 31 and the signal processing unit 32. Note that the transmission / reception control unit 31 and the signal processing unit 32 may be entirely configured by hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

送受信制御部31は、信号生成部11を含む送信部10、および、受信部20を制御する。信号処理部32は、一連の信号処理を周期的に実行する。続いて信号処理部32の各構成要素について説明する。   The transmission / reception control unit 31 controls the transmission unit 10 including the signal generation unit 11 and the reception unit 20. The signal processing unit 32 periodically executes a series of signal processing. Subsequently, each component of the signal processing unit 32 will be described.

生成部33は、瞬時データ100を生成する。具体的には、生成部33は、周波数解析処理と、ピーク抽出処理と、瞬時データ生成処理とを行うことで、瞬時データ100を生成する。   The generation unit 33 generates the instantaneous data 100. Specifically, the generation unit 33 generates the instantaneous data 100 by performing a frequency analysis process, a peak extraction process, and an instantaneous data generation process.

周波数解析処理では、各A/D変換部23から入力されるビート信号に対して高速フーリエ変換(FFT:Fast Fourier Transform)処理(以下、「FFT処理」と記載する)を行う。かかるFFT処理の結果は、ビート信号の周波数スペクトルであり、ビート信号の周波数ごと(周波数分解能に応じた周波数間隔で設定された周波数ビンごと)のパワー値(信号レベル)である。   In the frequency analysis processing, a fast Fourier transform (FFT: Fast Fourier Transform) processing (hereinafter, referred to as “FFT processing”) is performed on the beat signal input from each A / D conversion unit 23. The result of the FFT processing is a frequency spectrum of the beat signal, and a power value (signal level) for each frequency of the beat signal (for each frequency bin set at a frequency interval corresponding to the frequency resolution).

ピーク抽出処理では、周波数解析処理によるFFT処理の結果においてピークとなるピーク周波数を抽出する。なお、ピーク抽出処理では、後述するビート信号の「UP区間」および「DN区間」のそれぞれについてピーク周波数を抽出する。   In the peak extraction processing, a peak frequency that becomes a peak in the result of the FFT processing by the frequency analysis processing is extracted. In the peak extraction processing, a peak frequency is extracted for each of an “UP section” and a “DN section” of a beat signal described later.

瞬時データ生成処理では、ピーク抽出処理において抽出されたピーク周波数のそれぞれに対応する反射波の到来角度とそのパワー値を算出する角度推定処理を実行する。なお、角度推定処理の実行時点で、到来角度は、物標が存在すると推定される角度であることから、以下では「推定角度」と記載する場合がある。   In the instantaneous data generation process, an angle estimation process for calculating an arrival angle and a power value of a reflected wave corresponding to each of the peak frequencies extracted in the peak extraction process is executed. At the time of execution of the angle estimation process, the arrival angle is an angle at which the target is estimated to be present, and thus may be referred to as an “estimated angle” below.

また、瞬時データ生成処理では、算出した推定角度とパワー値との算出結果に基づいて「UP区間」および「DN区間」それぞれのピーク周波数の正しい組み合わせを判定するペアリング処理を実行する。   In the instantaneous data generation process, a pairing process of determining a correct combination of the peak frequencies of the “UP section” and the “DN section” based on the calculation result of the calculated estimated angle and the power value is executed.

また、瞬時データ生成処理では、判定した組み合わせ結果から各物標の自車両MCに対する距離および自車両MCへの向きの相対速度を算出する。また、瞬時データ処理では、算出した各物標の推定角度、距離および相対速度を、最新周期(最新スキャン)分の瞬時データ100としてフィルタ処理部34へ出力するとともに、記憶部36の履歴データ36aとして記憶する。   In the instantaneous data generation processing, the distance of each target to the own vehicle MC and the relative speed of the direction to the own vehicle MC are calculated from the determined combination result. In the instantaneous data processing, the calculated estimated angle, distance, and relative speed of each target are output to the filter processing unit 34 as the instantaneous data 100 for the latest cycle (latest scan), and the history data 36a of the storage unit 36 is stored. To be stored.

説明を分かりやすくするために、信号処理部32の前段処理から信号処理部32におけるここまでの処理の流れを図3〜図4Cに示す。図3は、信号処理部32の前段処理から生成部33におけるピーク抽出処理までの処理説明図である。   In order to make the description easy to understand, FIGS. 3 to 4C show the flow of processing from the pre-stage processing of the signal processing unit 32 to the processing in the signal processing unit 32. FIG. 3 is an explanatory diagram of the processing from the pre-processing of the signal processing unit 32 to the peak extraction processing of the generation unit 33.

また、図4Aは、角度推定処理の処理説明図である。また、図4Bおよび図4Cは、ペアリング処理の処理説明図である。なお、図3は、2つの太い下向きの白色矢印で3つの領域に区切られている。以下では、かかる各領域を順に、上段、中段、下段と記載する。   FIG. 4A is an explanatory diagram of the angle estimation process. 4B and 4C are explanatory diagrams of the pairing process. FIG. 3 is divided into three regions by two thick downward white arrows. Hereinafter, each of these areas is described as an upper row, a middle row, and a lower row.

図3の上段に示すように、送信信号fs(t)は、送信アンテナ13から送信波として送出された後、物標において反射されて反射波として到来し、受信アンテナ21において受信信号fr(t)として受信される。   As shown in the upper part of FIG. 3, the transmission signal fs (t) is transmitted from the transmission antenna 13 as a transmission wave, is reflected by a target, arrives as a reflected wave, and is received by the reception antenna 21 at the reception signal fr (t). ).

このとき、図3の上段に示すように、受信信号fr(t)は、自車両MCと物標との距離に応じて、送信信号fs(t)に対して時間差Tだけ遅延している。この時間差Tと、自車両MCおよび物標の相対速度に基づくドップラー効果とにより、ビート信号は、周波数が上昇する「UP区間」の周波数fupと、周波数が下降する「DN区間」の周波数fdnとが繰り返される信号として得られる(図3の中段参照)。   At this time, as shown in the upper part of FIG. 3, the reception signal fr (t) is delayed from the transmission signal fs (t) by a time difference T according to the distance between the host vehicle MC and the target. Due to the time difference T and the Doppler effect based on the relative speeds of the host vehicle MC and the target, the beat signal has a frequency fup in an “UP section” where the frequency increases and a frequency fdn in a “DN section” where the frequency decreases. Are obtained as a repeated signal (see the middle part of FIG. 3).

図3の下段には、かかるビート信号を周波数解析処理においてFFT処理した結果を、「UP区間」側および「DN区間」側のそれぞれについて模式的に示している。   The lower part of FIG. 3 schematically shows the result of the FFT processing of the beat signal in the frequency analysis processing for each of the “UP section” side and the “DN section” side.

図3の下段に示すように、FFT処理後には、「UP区間」側および「DN区間」側のそれぞれの周波数領域における波形が得られる。ピーク抽出処理では、かかる波形においてピークとなるピーク周波数を抽出する。   As shown in the lower part of FIG. 3, after the FFT processing, waveforms in the respective frequency regions on the “UP section” side and the “DN section” side are obtained. In the peak extraction processing, a peak frequency that becomes a peak in such a waveform is extracted.

たとえば、図3の下段に示した例の場合、ピーク抽出閾値が用いられ、「UP区間」側においては、ピークPu1〜Pu3がそれぞれピークとして判定され、ピーク周波数fu1〜fu3がそれぞれ抽出される。   For example, in the case of the example shown in the lower part of FIG. 3, a peak extraction threshold is used. On the “UP section” side, peaks Pu1 to Pu3 are determined as peaks, respectively, and peak frequencies fu1 to fu3 are extracted.

また、「DN区間」側においては、同じくピーク抽出閾値により、ピークPd1〜Pd3がそれぞれピークとして判定され、ピーク周波数fd1〜fd3がそれぞれ抽出される。   On the “DN section” side, the peaks Pd1 to Pd3 are determined as peaks by the same peak extraction threshold, and the peak frequencies fd1 to fd3 are respectively extracted.

ここで、ピーク抽出処理により抽出した各ピーク周波数の周波数成分には、複数の物標からの反射波が混成している場合がある。そこで、瞬時データ生成処理では、各ピーク周波数のそれぞれについて方位演算する角度推定処理を行い、ピーク周波数ごとに対応する物標の存在を解析する。   Here, the frequency component of each peak frequency extracted by the peak extraction processing may include a mixture of reflected waves from a plurality of targets. Therefore, in the instantaneous data generation process, an angle estimation process for calculating the azimuth for each of the peak frequencies is performed, and the presence of a target corresponding to each peak frequency is analyzed.

なお、瞬時データ生成処理における方位演算は、たとえばESPRIT(Estimation of Signal Parameters via Rotational Invariance Techniques)などの公知の到来方向推定手法を用いて行うことができる。   The azimuth calculation in the instantaneous data generation processing can be performed using a known arrival direction estimation technique such as ESPRIT (Estimation of Signal Parameters via Rotational Invariance Techniques).

図4Aは、瞬時データ生成処理の方位演算結果を模式的に示すものである。瞬時データ生成処理では、かかる方位演算結果の各ピークPu1〜Pu3から、これらピークPu1〜Pu3にそれぞれ対応する各物標(各反射点)の推定角度を算出する。また、各ピークPu1〜Pu3の大きさがパワー値となる。瞬時データ生成処理では、図4Bに示すように、かかる角度推定処理を「UP区間」側および「DN区間」側のそれぞれについて行う。   FIG. 4A schematically shows the azimuth calculation result of the instantaneous data generation process. In the instantaneous data generation processing, from the peaks Pu1 to Pu3 of the azimuth calculation result, the estimated angles of the targets (each reflection point) respectively corresponding to these peaks Pu1 to Pu3 are calculated. The magnitude of each of the peaks Pu1 to Pu3 is a power value. In the instantaneous data generation process, as shown in FIG. 4B, the angle estimation process is performed on each of the “UP section” side and the “DN section” side.

そして、瞬時データ生成処理では、方位演算結果において、推定角度およびパワー値の近い各ピークを組み合わせるペアリング処理を行う。また、その組み合わせ結果から、瞬時データ生成処理では、各ピークの組み合わせに対応する各物標(各反射点)の距離および自車両MCへの向きの相対速度を算出する。   Then, in the instantaneous data generation process, a pairing process of combining peaks having close estimated angles and power values in the direction calculation result is performed. Further, from the combination result, in the instantaneous data generation processing, the distance of each target (each reflection point) corresponding to each combination of peaks and the relative speed of the direction to the own vehicle MC are calculated.

距離は、「距離∝(fup+fdn)」の関係に基づいて算出することができる。相対速度は、「速度∝(fup−fdn)」の関係に基づいて算出することができる。その結果、図4Cに示すように、自車両MCに対する、各反射点RPの推定角度、距離および相対速度の瞬時データ100を示すペアリング処理結果が得られる。   The distance can be calculated based on the relationship of “distance∝ (fup + fdn)”. The relative speed can be calculated based on the relationship of “speed∝ (fup−fdn)”. As a result, as shown in FIG. 4C, a pairing processing result indicating the instantaneous data 100 of the estimated angle, the distance, and the relative speed of each reflection point RP with respect to the host vehicle MC is obtained.

図2に戻って、フィルタ処理部34について説明する。図2に示すように、フィルタ処理部34は、予測部34aと、割当部34bと、重み付け部34cと、リサンプリング部34dと、代表データ生成部34eとを備える。   Returning to FIG. 2, the filter processing unit 34 will be described. As shown in FIG. 2, the filter processing unit 34 includes a prediction unit 34a, an assignment unit 34b, a weighting unit 34c, a resampling unit 34d, and a representative data generation unit 34e.

フィルタ処理部34は、生成部33によって生成された瞬時データ100に対して所定数の粒子の分布を用いて解析を行うパーティクルフィルタを施すことによって、瞬時データ100に対応する物標データを生成する。   The filter processing unit 34 generates target data corresponding to the instantaneous data 100 by applying a particle filter for analyzing the instantaneous data 100 generated by the generation unit 33 using a predetermined number of particle distributions. .

パーティクルフィルタでは、物標の真の状態に対して複数の仮説を立てて解析を行う。仮説とは例えば位置や速度などの物標の状態に対する1つの仮定値である。例えば位置空間では、仮説は所定の分布で散布され、移動していく1つの粒子のように見えるため、ここでは仮説を粒子という。また、所定数の粒子をまとめて1つの仮説とした粒子群データを併せて用いる。例えば粒子群データは粒子の状態の平均値などであり、所定数の粒子の分布において最もあり得る1つの仮説ともいえる。   In the particle filter, a plurality of hypotheses are set for the true state of the target and analyzed. The hypothesis is one assumed value for the state of the target such as a position or a speed. For example, in the position space, the hypotheses are scattered in a predetermined distribution and look like one moving particle, so the hypotheses are referred to as particles here. In addition, particle group data in which a predetermined number of particles are combined into one hypothesis is also used. For example, the particle group data is an average value of the state of the particles, and can be said to be one of the most likely hypotheses in the distribution of a predetermined number of particles.

予測部34aは、粒子群データならびに粒子の予測処理を行う。具体的には、予測部34aは、最新の周期を時刻tとし、時刻tにおける粒子ならびに粒子群データの状態を、前回の周期の時刻t−1の粒子並びに粒子群データを基に予測する。例えば速度、位置といった粒子並びに粒子群データの状態を基に、運動モデルと、測定周期ΔTによって予測する手法などがある。つまり、予測部34aは、予測処理において、過去の粒子ならびに粒子群データの状態から時刻tにおける粒子ならびに粒子群データの状態を予測する。   The prediction unit 34a performs prediction processing of particle group data and particles. Specifically, the prediction unit 34a sets the latest cycle to time t, and predicts the state of the particle and particle group data at time t based on the particle and particle group data at time t-1 in the previous cycle. For example, there is a method of predicting a motion model and a measurement period ΔT based on the state of particles and particle group data such as speed and position. That is, in the prediction process, the prediction unit 34a predicts the state of the particle and the particle group data at the time t from the state of the past particle and the particle group data.

割当部34bは、最新の周期における瞬時データ100を、予測部34aの予測結果である最新の粒子群データへ割り当てる処理を行う。具体的には、割当部34bは、予測部34aによって生成された今回の粒子群データに対応する所定の割り当て範囲と、瞬時データ100と粒子群データとの位置差、速度差などに基づき、今回の瞬時データ100を、粒子群データへ割り当てる。   The allocating unit 34b performs a process of allocating the instantaneous data 100 in the latest cycle to the latest particle group data, which is the prediction result of the prediction unit 34a. Specifically, the allocating unit 34b determines the current time based on a predetermined allocation range corresponding to the current particle group data generated by the prediction unit 34a, a position difference between the instantaneous data 100 and the particle group data, a speed difference, and the like. Is assigned to the particle group data.

なお、割当部34bは、いずれの物標データの割り当て範囲内にも存在しない瞬時データ100があった場合には、かかる瞬時データ100を新規の物標として扱う。新規の物標は所定の処理を行った後、粒子群データが生成され、同時に粒子も付与される。所定の処理は測定周期をまたぐことも可能であり、例えば新規の物標に対して、簡易的に数周期の間連続性を評価して、ノイズなどで単発的に発生したものでないと確認した後に粒子群データを生成し、粒子を付与することもできる。   In addition, when there is the instantaneous data 100 that does not exist in the allocation range of any target data, the allocating unit 34b treats the instantaneous data 100 as a new target. After performing a predetermined process on the new target, particle group data is generated, and particles are also given at the same time. The predetermined processing can also span the measurement cycle. For example, for a new target, the continuity is simply evaluated for several cycles, and it is confirmed that the continuity does not occur spontaneously due to noise or the like. It is also possible to generate particle group data later and add particles.

重み付け部34cは、割当部34bによって粒子群データに割り当てられた今回の瞬時データ100に基づいて、粒子群データを形成する粒子それぞれについて重みを付ける。   The weighting unit 34c weights each particle forming the particle group data based on the current instantaneous data 100 allocated to the particle group data by the allocation unit 34b.

例えば、重み付け部34cは、今回の粒子のうち、今回の瞬時データ100に類似する粒子の重みを大きくし、今回の瞬時データ100から類似しない粒子の重みを小さくする。なお、ここでいう「類似」度合は、例えば位置差や速度差などを基に記述されるコスト関数の評価値などを指す。   For example, the weighting unit 34c increases the weight of particles similar to the current instant data 100 among the current particles, and decreases the weight of particles not similar to the current instant data 100. The degree of “similarity” here refers to an evaluation value of a cost function described based on, for example, a position difference or a speed difference.

次に、リサンプリング部34dは、今回の粒子それぞれの重みに基づいて粒子を再配置(リサンプリング)する。具体的には、リサンプリング部34dは、重みが小さい粒子を瞬時データ100の近く(重みが大きい)へ移動させる。より具体的には、リサンプリング部34dは、重みが所定の閾値未満の粒子を重みが所定の閾値以上の粒子データへ再配置する。これにより、予測によって生成した今回の粒子群データを、真値により近い可能性がある瞬時データによって補正できる。これにより、後述の代表データ生成部34eによって生成される物標データをより高精度、すなわち、真値に近くになるように補正することができる。   Next, the resampling unit 34d rearranges (resamples) the particles based on the weights of the current particles. Specifically, the resampling unit 34d moves particles having a small weight to a position near the instantaneous data 100 (having a large weight). More specifically, the resampling unit 34d rearranges particles whose weight is smaller than the predetermined threshold to particle data whose weight is equal to or larger than the predetermined threshold. Thereby, the current particle group data generated by the prediction can be corrected with the instantaneous data that may be closer to the true value. This makes it possible to correct the target data generated by the representative data generating unit 34e, which will be described later, so as to have higher accuracy, that is, closer to the true value.

代表データ生成部34eは、物標データを生成し、かかる物標データを同一物標毎に集約した代表データ50を生成する。具体的には、まず、代表データ生成部34eは、リサンプリング部34dによって再配置された今回の粒子に基づいて物標データを生成する。例えば、代表データ生成部34eは、粒子の分布から確率密度関数を生成し、その重心に基づいて物標データを生成、あるいは、シンプルに各粒子の平均に基づいて物標データを生成する。なお、代表データによって、粒子群データが更新される。   The representative data generation unit 34e generates target data, and generates representative data 50 in which the target data is aggregated for each same target. Specifically, first, the representative data generation unit 34e generates target data based on the current particle rearranged by the resampling unit 34d. For example, the representative data generation unit 34e generates a probability density function from the particle distribution and generates target data based on the center of gravity, or simply generates target data based on the average of each particle. Note that the particle group data is updated with the representative data.

続いて、代表データ生成部34eは、複数の物標データを同一物標の物標データとして1つに統合するグループ化を行う。例えば、代表データ生成部34eは、複数の物標データが所定範囲内に存在し、かつ、各物標データに含まれる各速度成分の差が所定値以下である場合に、各物標データを同一物標の物標データと見做し、グループ化を行う。   Subsequently, the representative data generation unit 34e performs grouping of integrating a plurality of target data as one target data of the same target. For example, the representative data generation unit 34e generates each target data when the plurality of target data exists within a predetermined range and the difference between the speed components included in each target data is equal to or less than a predetermined value. It is regarded as target data of the same target, and grouping is performed.

その後、代表データ生成部34eは、グループ化した複数の物標データから代表データ50を生成する。また、代表データ生成部34eは、代表データ50に物標の種別を対応付ける処理を行う。   After that, the representative data generation unit 34e generates the representative data 50 from the plurality of grouped target data. Further, the representative data generation unit 34e performs a process of associating the type of the target with the representative data 50.

代表データ生成部34eは、相対速度に基づき、各物標を、先行車、静止物(静止車両を含む)、対向車に分類する。例えば、代表データ生成部34eは、自車両MCの速度と向きであって、この速度の大きさよりもより大きな相対速度の物標を「先行車」と分類する。   The representative data generation unit 34e classifies each target into a preceding vehicle, a stationary object (including a stationary vehicle), and an oncoming vehicle based on the relative speed. For example, the representative data generation unit 34e classifies a target having a relative speed that is the speed and direction of the own vehicle MC and is greater than the speed as the “preceding vehicle”.

また、例えば、代表データ生成部34eは、自車両MCの速度と概ね逆向きである相対速度の物標を「静止物」と分類する。また、例えば、代表データ生成部34eは、自車両MCの速度と逆向きであって、この速度の大きさよりもより大きな相対速度の物標を「対向車」と分類する。   Further, for example, the representative data generation unit 34e classifies a target having a relative speed that is substantially opposite to the speed of the host vehicle MC as a “stationary object”. Further, for example, the representative data generation unit 34e classifies a target having a relative speed that is opposite to the speed of the own vehicle MC and is greater than the magnitude of the speed as an “oncoming vehicle”.

なお、代表データ生成部34eは、自車両MCの舵角や走行速度を含む走行情報を取得し、自車両MCの走行速度および走行向きを算出することで、物標の対地速度を求めることで物標を分類することにしてもよい。   Note that the representative data generation unit 34e obtains travel information including the steering angle and the travel speed of the own vehicle MC, and calculates the travel speed and the travel direction of the own vehicle MC, thereby obtaining the ground speed of the target. The target may be classified.

続いて、出力部35について説明する。出力部35は、フィルタ処理部34によって生成された代表データ50に対して、代表データ50の生成に用いられた瞬時データ100に基づく物標の形状データを付与した出力データDoを出力する。形状データは物標の形状を表すために任意の要素を用いることができる。何を使用するかはシステムの要求に応じて適宜決定するとよい。   Next, the output unit 35 will be described. The output unit 35 outputs, to the representative data 50 generated by the filter processing unit 34, output data Do obtained by adding shape data of a target based on the instantaneous data 100 used to generate the representative data 50. The shape data can use any element to represent the shape of the target. What to use may be appropriately determined according to the requirements of the system.

例えば、点列で外形を表現する場合は、複数の瞬時データ100の位置、すなわちX,Y座標の組を出力するデータ構造とすることもできる。この場合、例えばLIDARなどにおける1レイヤーの測定データと類似のフォーマットなるため、出力先で行われる外形処理に類似のものを使用することができる。   For example, when the outline is expressed by a sequence of points, a data structure that outputs the positions of a plurality of instantaneous data 100, that is, a set of X and Y coordinates, may be used. In this case, for example, since the format is similar to the measurement data of one layer in LIDAR or the like, a format similar to the external shape processing performed at the output destination can be used.

他にも点列をまとめて直線やL字、四角形として形状を表現し、それらを特徴的に表す値を形状データとして出力することもできる。なお、形状データのデータフォーマットについては、他車両LCの形状を示す画像データや、レーダ装置1を基準とする二次元座標系で他車両LCの形状を示した座標データを用いるなど、車両制御装置2の仕様にあわせて適宜設定することが可能である。また、形状データを圧縮してから出力し、出力先(例えば、車両制御装置2)で圧縮された形状データを解凍して用いることにしてもよい。   In addition, it is also possible to express a shape as a straight line, an L-shape, or a square by combining a series of points, and to output values characteristic of them as shape data. The data format of the shape data includes a vehicle control device such as image data indicating the shape of the other vehicle LC or coordinate data indicating the shape of the other vehicle LC in a two-dimensional coordinate system based on the radar device 1. It can be set as appropriate according to the specifications of 2. Alternatively, the shape data may be compressed and then output, and the shape data compressed at the output destination (for example, the vehicle control device 2) may be decompressed and used.

図5A〜図5Cは、出力データDoの具体例を示す図である。なお、以下に示す時刻t−1や時刻tは、時間経過を示し、現在の時刻が時刻tであり、時刻tの前回スキャンが時刻t−1であるものとする。   5A to 5C are diagrams illustrating specific examples of the output data Do. Time t-1 and time t shown below indicate the passage of time, the current time is time t, and the previous scan at time t is time t-1.

図5Aに示すように、例えば、時刻t−1における代表データ50aと時刻tにおける代表データ50bとの距離ならびに方位に関する変化量が所定値以下である場合、時刻tにおける出力データDoには、代表データ50aに用いた瞬時データ100aおよび代表データ50bの生成に用いた瞬時データ100bに基づいて生成された形状データが含まれる。   As shown in FIG. 5A, for example, when the amount of change in the distance and the azimuth between the representative data 50a at the time t-1 and the representative data 50b at the time t is equal to or less than a predetermined value, the output data Do at the time t includes the representative data. Shape data generated based on the instantaneous data 100a used for the data 50a and the instantaneous data 100b used for generating the representative data 50b are included.

すなわち、自車両MCと他車両LCとの相対的な距離ならびに方位の変化が所定値以下である期間において、かかる期間内における過去の瞬時データ100に基づく、形状データが出力データDoに含まれる。   That is, in a period in which the change in the relative distance between the host vehicle MC and the other vehicle LC and the azimuth are equal to or smaller than the predetermined values, the shape data based on the past instantaneous data 100 in the period is included in the output data Do.

言い換えれば、自車両MC、すなわち、レーダ装置1と他車両LCとの相対的な位置関係が所定の変位内に収まっている期間において、過去も含めた当該期間内における瞬時データに基づいて今回の形状データを生成する。   In other words, during the period in which the relative positional relationship between the host vehicle MC, that is, the radar device 1 and the other vehicle LC is within a predetermined displacement, the present vehicle MC, based on the instantaneous data in the period including the past, is used. Generate shape data.

つまり、自車両MCと他車両LCとの相対的な位置変化が少ない場合、今回の瞬時データ100bと併せて、過去の瞬時データ100aにも基づいて、今回の形状データを生成する。なお、形状データには、瞬時データ100をそのまま用いてもよい。   That is, when the relative position change between the own vehicle MC and the other vehicle LC is small, the current shape data is generated based on the past instantaneous data 100a together with the present instantaneous data 100b. Note that the instantaneous data 100 may be used as it is as the shape data.

これにより、時刻tにおいて、今回の瞬時データ100bが少ない場合であっても、形状データをより精密に生成することが可能となる。例えば、瞬時データ100bを今回の形状データに用いる場合には、形状データを構成するデータ数を増やすことが可能となり、より詳細な形状を認識させることが可能となる。なお、ここでは、自車両MCを基準として過去の瞬時データ100を今回の形状データに用いる場合を示したが、これに限定されるものではない。   Thus, at time t, even if the current instantaneous data 100b is small, shape data can be generated more precisely. For example, when the instantaneous data 100b is used for the current shape data, the number of pieces of data constituting the shape data can be increased, and a more detailed shape can be recognized. Here, the case where the past instantaneous data 100 is used as the current shape data based on the own vehicle MC has been described, but the present invention is not limited to this.

また、図5Bに示すように、時刻t−1における代表データ50aに対して代表データ50aを基準とする瞬時データ100aの相対的な位置関係を記憶しておき、かかる位置関係に基づいて過去の瞬時データ100aを補正し、形状データを生成することも可能である。   Further, as shown in FIG. 5B, the relative positional relationship of the instantaneous data 100a based on the representative data 50a with respect to the representative data 50a at the time t-1 is stored, and the past data is stored based on the positional relationship. It is also possible to correct the instantaneous data 100a and generate shape data.

つまり、過去の代表データ50aと今回の代表データ50bの位置が異なっていても、代表データ50bと瞬時データ100aとの相対的な位置関係は過去と今回とで変化しない可能性が高い。したがって、今回、過去の瞬時データ100aそのものではなく、瞬時データ100aと代表データ50aの相対的な位置関係に基づいて、形状データを生成する。なお、形状データには相対的な位置関係に基づき補正した瞬時データ100bをそのまま用いてもよい。   In other words, even if the positions of the representative data 50a in the past and the representative data 50b of the present time are different, the relative positional relationship between the representative data 50b and the instantaneous data 100a is likely not to change between the past and the present. Therefore, this time, the shape data is generated not based on the past instantaneous data 100a itself, but based on the relative positional relationship between the instantaneous data 100a and the representative data 50a. Note that the instantaneous data 100b corrected based on the relative positional relationship may be used as it is as the shape data.

具体的には、図5Bに示すように、時刻t−1における代表データ50aを基準とする各瞬時データ100aの位置座標を記憶しておき、時刻tの代表データ50bを基準として各瞬時データ100aを配置する。   Specifically, as shown in FIG. 5B, the position coordinates of each instantaneous data 100a based on the representative data 50a at the time t-1 are stored, and each instantaneous data 100a is stored based on the representative data 50b at the time t. Place.

これにより、時刻tにおける出力データDoには、時刻t−1における瞬時データ100aおよび時刻tにおける瞬時データ100bが含まれる。すなわち、代表データ50を基準として各瞬時データ100の座標位置を記憶しておくことで、自車両MCと他車両LCとの相対距離や自車両MCに対する他車両LCの角度が変化した場合であっても、過去の瞬時データ100bを今回の形状データの生成に用いることが可能となる。   Accordingly, the output data Do at the time t includes the instantaneous data 100a at the time t-1 and the instantaneous data 100b at the time t. That is, by storing the coordinate position of each instantaneous data 100 based on the representative data 50, the relative distance between the own vehicle MC and the other vehicle LC or the angle of the other vehicle LC with respect to the own vehicle MC changes. However, the past instantaneous data 100b can be used for generating the current shape data.

したがって、かかる場合においても、より多くの瞬時データ100を形状データの生成に用いることができるので、より詳細な形状を認識させることが可能となる。   Therefore, even in such a case, more instantaneous data 100 can be used for generating shape data, so that a more detailed shape can be recognized.

また、かかる場合に、例えば、自車両MCもしくは他車両LCが旋回した場合、旋回量に応じて過去の瞬時データ100を回転させることも可能である。つまり、上記の例は平行移動の場合であり、代表データ50と瞬時データ100との相対的な位置関係をそのまま使用したが、代表データ50と瞬時データ100との相対的な位置関係に対してさらに回転による補正を行ってもよい。   In such a case, for example, when the host vehicle MC or the other vehicle LC turns, the past instantaneous data 100 can be rotated according to the turning amount. That is, the above example is a case of the parallel movement, and the relative positional relationship between the representative data 50 and the instantaneous data 100 is used as it is. Further, correction by rotation may be performed.

具体的には、図5Cに示すように、例えば、時刻t−1から時刻tにかけて他車両LCが旋回した場合、時刻t−1の瞬時データ100を他車両LCの旋回量に基づいて回転させて時刻tの形状データを生成する。   Specifically, as shown in FIG. 5C, for example, when the other vehicle LC turns from time t-1 to time t, the instantaneous data 100 at time t-1 is rotated based on the turning amount of the other vehicle LC. To generate shape data at time t.

かかる場合に、代表データ50bに含まれる自車両MCと他車両LCの相対速度に関するベクトルから自車両MCの実際の移動成分を示すベクトルを差し引いた他車両LCの対地ベクトルに基づいて他車両LCの旋回量を検出する。   In such a case, based on the ground vector of the other vehicle LC obtained by subtracting the vector indicating the actual moving component of the own vehicle MC from the vector related to the relative speed of the own vehicle MC and the other vehicle LC included in the representative data 50b. The amount of turning is detected.

すなわち、自車両MCの旋回量を自車両MCの舵角や走行速度に基づいて検出し、相対速度に基づくベクトルから自車両MCの移動成分に基づくベクトルを差し引くことで、他車両LCの旋回量を検出する。   That is, the turning amount of the other vehicle LC is detected by detecting the turning amount of the own vehicle MC based on the steering angle and the traveling speed of the own vehicle MC and subtracting the vector based on the moving component of the own vehicle MC from the vector based on the relative speed. Is detected.

これにより、自車両MCと他車両LCとの向きの変化、すなわち、自車両MCおよび他車両LCの旋回量を正確に算出することが可能となる。したがって、旋回に基づく過去の瞬時データ100の誤差を少なくすることが可能となる。   This makes it possible to accurately calculate the change in the direction between the own vehicle MC and the other vehicle LC, that is, the turning amount of the own vehicle MC and the other vehicle LC. Therefore, it is possible to reduce the error of the past instantaneous data 100 based on the turning.

言い換えれば、出力データDoに付与する形状データの確からしさを向上させることが可能となる。なお、ここまでの例では、時刻t−1の瞬時データ100aを形状データに用いる場合について説明したが、時刻t−1以前の瞬時データ100を形状データに用いることも可能である。   In other words, it is possible to improve the certainty of the shape data given to the output data Do. In the examples described so far, the case where the instantaneous data 100a at the time t-1 is used as the shape data has been described. However, the instantaneous data 100 before the time t-1 can be used as the shape data.

また、他車両LCの旋回量の検出方法は、上述の例に限られるものではない。例えば、レーダ装置1は、自車両MCに搭載された他の装置から取得した情報に基づいて他車両LCの旋回量を検出することにしてもよいし、あるいは、車車間通信等の無線通信を用いて他車両LCから取得した情報に基づいて旋回量を検出することにしてもよい。   Further, the method of detecting the turning amount of the other vehicle LC is not limited to the above example. For example, the radar device 1 may detect the turning amount of the other vehicle LC based on information acquired from another device mounted on the own vehicle MC, or may perform wireless communication such as inter-vehicle communication. The turning amount may be detected based on information obtained from another vehicle LC.

次に、図6を用いて実施形態に係るレーダ装置1が実行する処理手順について説明する。図6は、実施形態に係るレーダ装置1が実行する処理手順を示すフローチャートである。   Next, a processing procedure executed by the radar device 1 according to the embodiment will be described with reference to FIG. FIG. 6 is a flowchart illustrating a processing procedure executed by the radar device 1 according to the embodiment.

図6に示すように、まず、生成部33は、送信した電波が物標で反射した反射波に基づいて物標に対応する瞬時データ100を生成する(ステップS101)。   As shown in FIG. 6, first, the generation unit 33 generates the instantaneous data 100 corresponding to the target based on the reflected wave of the transmitted radio wave reflected by the target (step S101).

続いて、フィルタ処理部34の予測部34aは、前回の粒子データに基づいて今回の粒子データを予測する予測処理と、前回の物標データに基づいて今回の物標データに対応する予測データを予測する予測処理を行う(ステップS102)。なお、ここでの予測データとは、粒子および粒子群データを示す。   Subsequently, the prediction unit 34a of the filter processing unit 34 performs a prediction process of predicting the current particle data based on the previous particle data and a prediction data corresponding to the current target data based on the previous target data. Prediction processing is performed (step S102). Here, the prediction data indicates particle and particle group data.

続いて、割当部34bは、今回の粒子群データに今回の瞬時データ100を割り当てる(ステップS103)。続いて、割当部34bは、今回の粒子データが割り当てられなかった瞬時データ100の有無により新規の物標の有無を判定する(ステップS104)。割当部34bは、瞬時データ100が新規の物標であった場合(ステップS104,Yes)、新規の物標に対応する瞬時データ100に対して所定の粒子群データ(例えば、初期状態の粒子群データ)を設定する(ステップS111)。   Subsequently, the allocating unit 34b allocates the current instantaneous data 100 to the current particle group data (Step S103). Subsequently, the allocating unit 34b determines the presence or absence of a new target based on the presence or absence of the instantaneous data 100 to which the current particle data has not been allocated (step S104). When the instantaneous data 100 is a new target (Step S104, Yes), the allocating unit 34b assigns predetermined particle group data (for example, particle groups in the initial state) to the instantaneous data 100 corresponding to the new target. Is set (step S111).

続いて、重み付け部34cは、瞬時データ100が新規の物標でなかった場合(ステップS104,No)、瞬時データ100に基づいて今回の粒子データそれぞれに重み付けを行う(ステップS105)。   Subsequently, when the instantaneous data 100 is not a new target (Step S104, No), the weighting unit 34c weights each of the current particle data based on the instantaneous data 100 (Step S105).

続いて、リサンプリング部34dは、重み付け部34cによる重み付けに基づいて今回の粒子群データのリサンプリングを行う(ステップS106)。続いて、代表データ生成部34eは、リサンプリングされた今回の粒子群データの確率密度関数を更新し、かかる確率密度関数に基づいて物標データを生成する(ステップS107)。   Subsequently, the resampling unit 34d performs resampling of the current particle group data based on the weight by the weighting unit 34c (Step S106). Subsequently, the representative data generation unit 34e updates the probability density function of the resampled current particle group data, and generates target data based on the probability density function (step S107).

続いて、代表データ生成部34eは、同一物標の物標データから代表データ50を生成し(ステップS108)、出力部35は、代表データ50に形状データを付与した出力データDoを生成する(ステップS109)。   Subsequently, the representative data generating unit 34e generates the representative data 50 from the target data of the same target (Step S108), and the output unit 35 generates the output data Do obtained by adding the shape data to the representative data 50 (Step S108). Step S109).

そして、出力部35は、かかる出力データDoを出力して(ステップS110)、処理を終了する。   Then, the output unit 35 outputs the output data Do (Step S110), and ends the processing.

上述したように、実施形態に係るレーダ装置1は、生成部33と、フィルタ処理部34と、出力部35とを備える。生成部33は、送信波が物標で反射した反射波に基づいて物標に対応する瞬時データを生成する。フィルタ処理部34は、生成部33によって生成された瞬時データに基づいて物標毎の代表データ50を生成する。   As described above, the radar device 1 according to the embodiment includes the generation unit 33, the filter processing unit 34, and the output unit 35. The generation unit 33 generates instantaneous data corresponding to the target based on the reflected wave of the transmission wave reflected by the target. The filter processing unit 34 generates the representative data 50 for each target based on the instantaneous data generated by the generation unit 33.

出力部35は、フィルタ処理部34によって生成された代表データ50に対して、当該代表データ50の生成に用いられた瞬時データ100に基づく物標の形状データを付与した出力データDoを出力する。したがって、実施形態に係るレーダ装置1によれば、物標の形状を正しく認識させることができる。   The output unit 35 outputs, to the representative data 50 generated by the filter processing unit 34, output data Do obtained by adding target shape data based on the instantaneous data 100 used to generate the representative data 50. Therefore, according to the radar device 1 according to the embodiment, the shape of the target can be correctly recognized.

ところで、上述の実施形態では、1つのレーダ装置1によって生成された瞬時データ100を用いて形状データを生成する場合について説明したが、複数のレーダ装置1によって生成された瞬時データ100を統合して形状データを生成することも可能である。   By the way, in the above-described embodiment, the case where the shape data is generated using the instantaneous data 100 generated by one radar device 1 has been described, but the instantaneous data 100 generated by the plurality of radar devices 1 is integrated. It is also possible to generate shape data.

図7は、変形例に係る出力データDoの具体例を示す図である。なお、ここでは、自車両MCがそれぞれ異なる位置から自車両MCの前方の物標を検出する複数のレーダ装置1A〜1Cを備える場合について説明する。   FIG. 7 is a diagram illustrating a specific example of the output data Do according to the modification. Here, a case will be described in which the host vehicle MC includes a plurality of radar devices 1A to 1C that detect targets ahead of the host vehicle MC from different positions.

例えば、図7に示すレーダ装置1Aは、レーダ装置1Aで生成した瞬時データ100Aに加えて、レーダ装置1Bおよびレーダ装置1Cによって生成された瞬時データ100Bおよび瞬時データ100Cに基づいて形状データを生成し、かかる形状データを含む出力データDoを出力することが可能である。   For example, the radar device 1A shown in FIG. 7 generates shape data based on the instantaneous data 100B and the instantaneous data 100C generated by the radar devices 1B and 1C in addition to the instantaneous data 100A generated by the radar device 1A. It is possible to output output data Do including such shape data.

図7に示す例では、レーダ装置1Aが他車両LCの後方に対応する瞬時データ100Aを生成し、レーダ装置1Bが他車両LCの左側方に対応する瞬時データ100Bを生成し、レーダ装置1Cが他車両LCの右側方に対応する瞬時データ100Cを生成した場合を示す。   In the example shown in FIG. 7, the radar device 1A generates instantaneous data 100A corresponding to the rear of the other vehicle LC, the radar device 1B generates the instantaneous data 100B corresponding to the left side of the other vehicle LC, and the radar device 1C A case where instantaneous data 100C corresponding to the right side of another vehicle LC is generated is shown.

この場合に、レーダ装置1Aは、例えば、瞬時データ100A〜100Cのうち、同一物標に対応する瞬時データ100を選択し、選択した瞬時データ100A〜100Cを形状データとして代表データ50に付与する。   In this case, for example, the radar apparatus 1A selects the instantaneous data 100 corresponding to the same target from the instantaneous data 100A to 100C, and gives the selected instantaneous data 100A to 100C to the representative data 50 as shape data.

すなわち、代表データ50に対して多様な角度からとらえた瞬時データ100を形状データとして付与することが可能となる。このように、多様な角度からとらえた瞬時データ100に基づいて形状データを生成することで、多様な角度からみた物標の形状を認識させることが可能となる。   That is, it is possible to add the instantaneous data 100 captured from various angles to the representative data 50 as shape data. As described above, by generating the shape data based on the instantaneous data 100 captured from various angles, it becomes possible to recognize the shape of the target viewed from various angles.

なお、ここでは、レーダ装置1Aが他のレーダ装置1Bおよびレーダ装置1Cの瞬時データ100を集約する場合について説明したが、レーダ装置1A〜1Cの瞬時データ100を集約するマイコンやECUを別途設けることにしてもよい。すなわち、出力部35をレーダ装置1と別の筐体に設けることにしてもよい。   Here, a case has been described where the radar apparatus 1A aggregates the instantaneous data 100 of the other radar apparatuses 1B and 1C, but a microcomputer or ECU that aggregates the instantaneous data 100 of the radar apparatuses 1A to 1C is separately provided. It may be. That is, the output unit 35 may be provided in a housing separate from the radar device 1.

また、例えば、レーダ装置1Aに複数の送信部10と複数の受信部20とを備える構成とし、かかるレーダ装置1Aによって瞬時データ100Bや瞬時データ100Cに対応する瞬時データ100を生成することにしてもよい。   Also, for example, the radar device 1A may be configured to include a plurality of transmission units 10 and a plurality of reception units 20, and the radar device 1A may generate the instantaneous data 100B and the instantaneous data 100 corresponding to the instantaneous data 100C. Good.

また、上述した実施形態では、瞬時データ100に基づいて形状データを生成する場合について説明したが、これに限定されるものではなく、パーティクルフィルタで用いた粒子そのものや、粒子の分布を表す確率密度関数を用いて形状データを生成することにしてもよい。なお、例えば、粒子そのもの、または確率密度関数をそのまま形状データに用いることにしてもよいし、所定の形式に加工したものを形状データとすることにしてもよい。   Further, in the above-described embodiment, the case where the shape data is generated based on the instantaneous data 100 has been described. However, the present invention is not limited to this, and the particle itself used in the particle filter and the probability density representing the particle distribution are used. Shape data may be generated using a function. Note that, for example, the particle itself or the probability density function may be used as it is for the shape data, or a particle processed into a predetermined format may be used as the shape data.

また、粒子群データをヒストグラム化し、各位置に対する物標の存在確率を形状データとして用いることにしてもよい。かかる場合であっても、物標の形状を正しく認識させることが可能である。なお、かかる存在確率の算出に、拡張カルマンフィルタ(EKF:Extended Kalman Filter)や無香料カルマンフィルタ(UKF:Unscented Kalman Filter)等のカルマンフィルタを用いることにしてもよい。   Alternatively, the particle group data may be converted into a histogram, and the existence probability of the target at each position may be used as shape data. Even in such a case, it is possible to correctly recognize the shape of the target. Note that a Kalman filter such as an extended Kalman filter (EKF) or an unscented Kalman filter (UKF) may be used for calculating the existence probability.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications can be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1 レーダ装置
33 生成部
34 フィルタ処理部
34a 予測部
34b 割当部
34c 重み付け部
34d リサンプリング部
34e 代表データ生成部
35 出力部
50 代表データ
100 瞬時データ
Do 出力データ
REFERENCE SIGNS LIST 1 radar device 33 generation unit 34 filter processing unit 34a prediction unit 34b allocation unit 34c weighting unit 34d resampling unit 34e representative data generation unit 35 output unit 50 representative data 100 instantaneous data Do output data

Claims (7)

送信波が物標で反射した反射波に基づいて前記物標に対応する瞬時データを生成する生成部と、
前記生成部によって生成された前記瞬時データに基づいて前記物標毎の代表データを生成するフィルタ処理部と、
前記フィルタ処理部によって生成された前記代表データに対して、当該代表データの生成に用いられた前記瞬時データに基づく前記物標の形状データを付与した出力データを出力する出力部と
を備えることを特徴とするレーダ装置。
A generation unit that generates instantaneous data corresponding to the target based on the reflected wave of the transmitted wave reflected by the target,
A filter processing unit that generates representative data for each target based on the instantaneous data generated by the generation unit,
An output unit that outputs output data obtained by adding shape data of the target based on the instantaneous data used for generating the representative data to the representative data generated by the filter processing unit. Characteristic radar device.
前記出力部は、
前記代表データとレーダ装置との相対的な位置関係が所定の変位内に収まっている期間において、当該期間内における前記瞬時データに基づいて前記形状データを生成すること
を特徴とする請求項1に記載のレーダ装置。
The output unit includes:
The shape data is generated based on the instantaneous data in a period in which a relative positional relationship between the representative data and the radar device falls within a predetermined displacement. The described radar device.
前記出力部は、
今回の前記瞬時データと、過去の前記代表データを基準とする過去の前記瞬時データの位置関係を用いて、今回の前記代表データを基準に補正した当該過去の瞬時データとに基づいて前記形状データを生成すること
を特徴とする請求項1または2に記載のレーダ装置。
The output unit includes:
The shape data based on the present instantaneous data and the past instantaneous data corrected based on the present representative data using the positional relationship between the past instantaneous data based on the past representative data. The radar device according to claim 1, wherein the radar device generates:
前記出力部は、
前記代表データに基づいて推定される前記物標の路面に対する旋回量に応じて前記代表データに対応する過去の前記瞬時データを回転させて前記形状データを生成すること
を特徴とする請求項3に記載のレーダ装置。
The output unit includes:
The shape data is generated by rotating the past instantaneous data corresponding to the representative data in accordance with a turning amount of the target with respect to a road surface estimated based on the representative data. The described radar device.
前記出力部は、
異なる位置に設けられた複数の送信部から送信された前記送信波と、前記複数の送信部とそれぞれ対を成す受信部によって受信された受信波とに基づく前記瞬時データに基づいて前記形状データを生成すること
を特徴とする請求項1〜4のいずれか一つに記載のレーダ装置。
The output unit includes:
The shape data on the basis of the instantaneous data based on the transmission waves transmitted from the plurality of transmission units provided at different positions and the reception waves received by the reception units each forming a pair with the plurality of transmission units. The radar device according to any one of claims 1 to 4, wherein the radar device is generated.
前記フィルタ処理部は、
前記瞬時データに対して、所定数の粒子の分布を用いて解析を行うパーティクルフィルタを用いて前記代表データを生成し、
前記出力部は、
前記粒子の分布形状に基づいて前記形状データを生成すること
を特徴とする請求項1〜5のいずれか一つに記載のレーダ装置。
The filter processing unit includes:
For the instantaneous data, generate the representative data using a particle filter that performs analysis using a predetermined number of particle distribution,
The output unit includes:
The radar device according to any one of claims 1 to 5, wherein the shape data is generated based on a distribution shape of the particles.
送信波が物標で反射した反射波に基づいて前記物標に対応する瞬時データを生成する生成工程と、
前記生成工程によって生成された前記瞬時データに基づいて前記物標毎の代表データを生成するフィルタ処理工程と、
前記フィルタ処理工程によって生成された前記代表データに対して、当該代表データの生成に用いられた前記瞬時データに基づく前記物標の形状データを付与した出力データを出力する出力工程と
を含むことを特徴とする物標データ出力方法。
A generation step of generating instantaneous data corresponding to the target based on the reflected wave of the transmitted wave reflected by the target,
A filtering step of generating representative data for each target based on the instantaneous data generated by the generating step;
An output step of outputting output data obtained by adding shape data of the target based on the instantaneous data used for generating the representative data to the representative data generated by the filtering process. Characteristic target data output method.
JP2018113130A 2018-06-13 2018-06-13 Radar device and target data output method Active JP7244220B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018113130A JP7244220B2 (en) 2018-06-13 2018-06-13 Radar device and target data output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018113130A JP7244220B2 (en) 2018-06-13 2018-06-13 Radar device and target data output method

Publications (2)

Publication Number Publication Date
JP2019215281A true JP2019215281A (en) 2019-12-19
JP7244220B2 JP7244220B2 (en) 2023-03-22

Family

ID=68919496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018113130A Active JP7244220B2 (en) 2018-06-13 2018-06-13 Radar device and target data output method

Country Status (1)

Country Link
JP (1) JP7244220B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023026920A1 (en) * 2021-08-26 2023-03-02 パナソニックIpマネジメント株式会社 Sensing device, processing device and data processing method
JP2023512349A (en) * 2020-02-13 2023-03-24 三菱電機株式会社 System and method for tracking the expansion state of an object
JP2023512604A (en) * 2020-02-13 2023-03-27 三菱電機株式会社 Systems and Methods for Tracking Expanded States of Moving Objects Using Model Geometry Learning

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000206241A (en) * 1999-01-13 2000-07-28 Honda Motor Co Ltd Radar apparatus
JP2004144719A (en) * 2002-10-28 2004-05-20 Matsushita Electric Works Ltd Measuring method and instrument of object position/form by ultrasonic array sensor
JP2008267826A (en) * 2007-04-16 2008-11-06 Toyota Motor Corp Object detection device
WO2012128096A1 (en) * 2011-03-24 2012-09-27 古河電気工業株式会社 Radar device
US20130242284A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
JP2014089058A (en) * 2012-10-29 2014-05-15 Furuno Electric Co Ltd Tracking processing device and tracking processing method
JP2015055541A (en) * 2013-09-11 2015-03-23 トヨタ自動車株式会社 Surrounding object detection apparatus
JP2016053915A (en) * 2014-09-04 2016-04-14 日立建機株式会社 Obstacle detection system and transport vehicle
JP2016206026A (en) * 2015-04-23 2016-12-08 株式会社デンソー Object recognition device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000206241A (en) * 1999-01-13 2000-07-28 Honda Motor Co Ltd Radar apparatus
JP2004144719A (en) * 2002-10-28 2004-05-20 Matsushita Electric Works Ltd Measuring method and instrument of object position/form by ultrasonic array sensor
JP2008267826A (en) * 2007-04-16 2008-11-06 Toyota Motor Corp Object detection device
WO2012128096A1 (en) * 2011-03-24 2012-09-27 古河電気工業株式会社 Radar device
US20130242284A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
JP2014089058A (en) * 2012-10-29 2014-05-15 Furuno Electric Co Ltd Tracking processing device and tracking processing method
JP2015055541A (en) * 2013-09-11 2015-03-23 トヨタ自動車株式会社 Surrounding object detection apparatus
JP2016053915A (en) * 2014-09-04 2016-04-14 日立建機株式会社 Obstacle detection system and transport vehicle
JP2016206026A (en) * 2015-04-23 2016-12-08 株式会社デンソー Object recognition device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023512349A (en) * 2020-02-13 2023-03-24 三菱電機株式会社 System and method for tracking the expansion state of an object
JP2023512604A (en) * 2020-02-13 2023-03-27 三菱電機株式会社 Systems and Methods for Tracking Expanded States of Moving Objects Using Model Geometry Learning
JP7297172B2 (en) 2020-02-13 2023-06-23 三菱電機株式会社 System and method for tracking the expansion state of an object
JP7301245B2 (en) 2020-02-13 2023-06-30 三菱電機株式会社 Systems and Methods for Tracking Expanded States of Moving Objects Using Model Geometry Learning
WO2023026920A1 (en) * 2021-08-26 2023-03-02 パナソニックIpマネジメント株式会社 Sensing device, processing device and data processing method

Also Published As

Publication number Publication date
JP7244220B2 (en) 2023-03-22

Similar Documents

Publication Publication Date Title
JP6924046B2 (en) Radar device and elevation estimation method
JP6993136B2 (en) Radar device and target detection method
JP2015141109A (en) Radar device and signal processing method
JP7244220B2 (en) Radar device and target data output method
JP6853047B2 (en) Radar device and target detection method
EP3124994B1 (en) Vehicle radar device
US10983195B2 (en) Object detection apparatus
JP6924066B2 (en) Radar device and target detection method
JP2014095676A (en) Object detection device and program
JP2019039686A (en) Radar device and target detection method
JP2018081007A (en) Radar device and target detection method
JP7221606B2 (en) Radar device and shaft deviation detection method
JP6873009B2 (en) Radar device and target detection method
JP7164327B2 (en) Target detection device
JP7181010B2 (en) Radar device and target detection method
JP2020008366A (en) Radar device and method for controlling radar device
JP7168353B2 (en) Radar device and target data allocation method
US11237260B2 (en) Processing apparatus for estimating a movement direction of a target
JP6929183B2 (en) Radar device and target detection method
JP7156817B2 (en) Target detection device and target detection method
JP7111506B2 (en) Target detection device
JP7294781B2 (en) Radar device and object discrimination method
JP2018151327A (en) Radar device and method of combining bearings
JP2019039750A (en) Rader system and method for detecting target
JP7274271B2 (en) Radar device and target object discrimination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210429

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20211013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7244220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150