JP2007285912A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2007285912A
JP2007285912A JP2006114287A JP2006114287A JP2007285912A JP 2007285912 A JP2007285912 A JP 2007285912A JP 2006114287 A JP2006114287 A JP 2006114287A JP 2006114287 A JP2006114287 A JP 2006114287A JP 2007285912 A JP2007285912 A JP 2007285912A
Authority
JP
Japan
Prior art keywords
radar image
correlation
frequency
cross
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006114287A
Other languages
Japanese (ja)
Other versions
JP4407665B2 (en
Inventor
Kiyosumi Shirodono
清澄 城殿
Yoshiki Ninomiya
芳樹 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2006114287A priority Critical patent/JP4407665B2/en
Publication of JP2007285912A publication Critical patent/JP2007285912A/en
Application granted granted Critical
Publication of JP4407665B2 publication Critical patent/JP4407665B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • G01S13/345Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using triangular modulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detection device having high durability against noise, and a vehicle movement estimation means having high reliability for estimating movement of own vehicle, by using the device. <P>SOLUTION: In this object detection device, in a rising modulation section, a rising section radar image is shifted in the positive direction of frequency, and conversely, in the lowering modulation section, a lowering section radar image is shifted in the negative direction by as much as the same quantity, and a frequency shift quantity Δf for giving the largest correlation (or the smallest correlation value SAD or SSD) is determined. As a result of the calculation, the frequency shift quantity Δf in the f-axis direction, by which two radar images are made to agree best with each other is acquired, and the vehicle speed V of own vehicle can be calculated, based on the shift quantity Δf. Each stationary object radar image is generated, by removing a moving object on the radar image from which the Doppler shift has been removed, which is acquired from a collating point given from the Δf, and by collating them between different times, movement of own vehicle can be surely and accurately inferred, without having to use a vehicle speedometer. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、所定の周期関数に従って周波数変調された送信信号を放射して、その反射波の受信信号とその受信時刻における送信信号との混合によって得られるビート信号に基づいて物体を検知する、FMCWレーダを有する物体検知装置に関する。
本発明は、例えば、車両等の移動体における危険予知システムやオートクルーズシステムなどに利用することができる。
The present invention radiates a transmission signal frequency-modulated according to a predetermined periodic function, and detects an object based on a beat signal obtained by mixing the reception signal of the reflected wave and the transmission signal at the reception time. The present invention relates to an object detection apparatus having a radar.
The present invention can be used for, for example, a danger prediction system or an auto cruise system in a moving body such as a vehicle.

上記の様なビート信号に基づいて物体を検知する、FMCWレーダを有する物体検知装置としては、例えば下記の特許文献1〜特許文献5に記載されている装置などが一般にも広く知られている。そして、これらの物体検知装置を用いれば、当該装置と被検出物体との間の距離Rと相対速度Vを以下の式(1)の一次変換の形で得ることができる。

Figure 2007285912
(各記号の定義)
d : 下降変調区間におけるビート信号の周波数
u : 上昇変調区間におけるビート信号の周波数
c : レーダから放射される電磁波の中心周波数
τ : 三角波による変調周期(上記の変調用の三角波の1周期長)
ΔF : 変調幅(レーダから放射される電磁波の最大周波数と最小周波数の差)
c : 光速 As an object detection apparatus having an FMCW radar that detects an object based on the beat signal as described above, for example, apparatuses described in Patent Documents 1 to 5 below are generally widely known. And if these object detection apparatuses are used, the distance R and the relative speed V between the said apparatus and a to-be-detected object can be obtained in the form of the primary conversion of the following formula | equation (1).
Figure 2007285912
(Definition of each symbol)
f d : frequency of beat signal in descending modulation section f u : frequency of beat signal in rising modulation section f c : center frequency of electromagnetic wave radiated from radar τ: modulation period by triangular wave (one period of triangular wave for modulation described above) Long)
ΔF: modulation width (difference between maximum frequency and minimum frequency of electromagnetic waves radiated from radar)
c: speed of light

また、特に下記の特許文献1に記載の装置は、FMCWレーダを使って自車両から前方を走行中の前方車両までの距離を、その他の静止物に惑わされることなく簡単に計測することを目的として構成されたものである。そして、この従来装置の静止物識別処理では、車速計で計った車速に基づいて得られるシフト量だけ、上昇変調区間の周波数スペクトラムデータを高周波側にシフトさせて、その波形を下降変調区間の周波数スペクトラムデータの波形から差し引くことにより、移動物体と静止物体とを識別しており、これらの引き算などの演算は、レーダから放射される電磁波の各放射方位毎にそれぞれ独立に実行されている。
特開平7−191133 特開2004−151022 特開2003−11755 特開2002−99904 特開2002−99996
In particular, the device described in Patent Document 1 below is intended to easily measure the distance from the own vehicle to the forward vehicle traveling ahead using the FMCW radar without being confused by other stationary objects. It is configured as. Then, in the stationary object identification processing of this conventional apparatus, the frequency spectrum data in the up modulation section is shifted to the high frequency side by the shift amount obtained based on the vehicle speed measured by the vehicle speed meter, and the waveform is changed to the frequency in the down modulation section. By subtracting from the waveform of the spectrum data, a moving object and a stationary object are identified, and operations such as subtraction are performed independently for each radiation direction of the electromagnetic wave radiated from the radar.
JP-A-7-191133 JP2004-151022 JP2003-11755A JP 2002-99904 A JP2002-99996

しかしながら、上記の従来装置は、得られたビート信号の周波数スペクトルの強度データを、電磁波が放射された各方位毎に独立に取り扱っているために、想定され得る各種のノイズに対して脆弱である。この様なノイズに対する脆弱性は、自車両の移動によって観測物体と自車両との相対位置が変化するために、その角度変化によって反射信号の反射強度が急変する際に表面化することがあり、また、FMCWレーダの方位方向の検出精度があまり高くないために現われることもある。そして、特に後者の場合には、時に、自車両が停車中であっても、静止物体などの観測物体が横方向に振動するように動いて見えることもある。   However, since the above-mentioned conventional apparatus handles the frequency spectrum intensity data of the obtained beat signal independently for each direction in which the electromagnetic wave is radiated, it is vulnerable to various types of noise that can be assumed. . Such vulnerability to noise may appear when the reflected signal's reflected intensity suddenly changes due to the angle change because the relative position of the observation object and the own vehicle changes due to the movement of the own vehicle. This may appear because the detection accuracy of the azimuth direction of the FMCW radar is not so high. In the latter case in particular, sometimes an observed object such as a stationary object appears to move in a lateral direction even when the host vehicle is stopped.

また、上記の従来装置には、静止物体からの受信信号と移動物体からの受信信号とを見分けるために、自車両の移動速度を取得する手段が別途必要となる。
また、上記の従来装置では、静止物体の挙動に基づいて自車両の運動を推定したり予測したりすることができない。
In addition, the above-described conventional apparatus requires an additional means for acquiring the moving speed of the host vehicle in order to distinguish between a received signal from a stationary object and a received signal from a moving object.
Further, in the above-described conventional apparatus, it is impossible to estimate or predict the motion of the own vehicle based on the behavior of a stationary object.

本発明は、上記の課題を解決するために成されたものであり、その目的は、ノイズに対する耐性の高い物体検知装置を実現することである。
また、本発明の更なる目的は、その物体検知装置を用いて、自車両の運動を推定する車両運動推定手段を提供することである。
The present invention has been made to solve the above-described problems, and an object of the present invention is to realize an object detection device having high resistance to noise.
Another object of the present invention is to provide vehicle motion estimation means for estimating the motion of the host vehicle using the object detection device.

上記の課題を解決するためには、以下の手段が有効である。
即ち、本発明の第1の手段は、上昇変調区間では時間に対して周波数を増加させ、下降変調区間では時間に対して周波数を減少させる周期関数に従って周波数変調された送信信号の電磁波を放射し、その反射波を受信して得られる受信信号とその受信時刻における送信信号とを混合することによって、ビート信号を生成して物体を検出する、FMCWレーダを有する物体検知装置において、上記の電磁波の放射方位を示す方位角θと各方位におけるビート信号のビート周波数fとを引数としそのビート信号のスペクトル強度Iを関数値とする二次元配列データI(f,θ)であるレーダ画像を、上記の上昇変調区間における上昇区間レーダ画像と下降変調区間における下降区間レーダ画像とに分けてそれぞれ生成するレーダ画像生成手段と、これらの上昇区間レーダ画像と下降区間レーダ画像との間の、上記引数の2次元定義域全体としての相互相関を最大にする位置関係を求める相互相関演算手段と、その相互相関が最大となる位置関係で上昇区間レーダ画像と下降区間レーダ画像とを照合して、この時の相関値が所定の閾値以上になる部分のみを静止物体として抽出する静止物体抽出手段とを備えることである。
In order to solve the above problems, the following means are effective.
That is, the first means of the present invention emits an electromagnetic wave of a transmission signal that is frequency-modulated according to a periodic function that increases the frequency with respect to time in the rising modulation interval and decreases the frequency with respect to time in the falling modulation interval. In an object detection apparatus having an FMCW radar, which detects an object by generating a beat signal by mixing a reception signal obtained by receiving the reflected wave and a transmission signal at the reception time, A radar image, which is two-dimensional array data I (f, θ) having a azimuth angle θ indicating a radial azimuth and a beat frequency f of a beat signal in each azimuth as arguments and a spectrum intensity I of the beat signal as a function value, A radar image generating means for generating separately a rising section radar image in a rising modulation section and a falling section radar image in a down modulation section; A cross-correlation calculation means for obtaining a positional relationship between the ascending-zone radar image and the descending-zone radar image that maximizes the cross-correlation of the argument as a whole of the two-dimensional domain, and the cross-correlation is maximized It is provided with a stationary object extracting means for collating the ascending section radar image and the descending section radar image with respect to the positional relationship, and extracting only a portion where the correlation value at this time is a predetermined threshold value or more as a stationary object.

ただし、静止物体として抽出されるべき上記の相関値が所定の閾値以上になる部分は、上記の二次元配列データI(f,θ)の1データ(1配列要素)を1単位に考えても良いし、上記引数の2次元空間における所定サイズの小区画領域を1単位とする1区画領域毎に考えても良い。したがって、例えば上記の二次元配列データI(f,θ)が画像形式データである場合には、上記の相関値が所定の閾値以上になる部分を、1画素単位に判別しても良いし、4画素単位に判別しても良いし、9画素単位に判別しても良いし、16画素単位に判別しても良い。
これらの判別単位は、被検出物体までの距離や装置の用途やノイズ環境などに応じて、最適化することができる。
However, the portion where the correlation value to be extracted as a stationary object is greater than or equal to a predetermined threshold value is considered even if one data (one array element) of the two-dimensional array data I (f, θ) is considered as one unit. Alternatively, it may be considered for each partition area in which a small partition area of a predetermined size in the two-dimensional space of the argument is defined as one unit. Therefore, for example, when the two-dimensional array data I (f, θ) is image format data, a portion where the correlation value is equal to or greater than a predetermined threshold value may be determined in units of one pixel. It may be determined in units of 4 pixels, may be determined in units of 9 pixels, or may be determined in units of 16 pixels.
These discrimination units can be optimized according to the distance to the object to be detected, the application of the apparatus, the noise environment, and the like.

また、上記の引数の2次元定義域は、所望の検波対象空間(探索範囲)に対応させて、適当な広さ及び範囲に任意に定義すれば良いものであって、必ずしも取得されたレーダ画像の全f軸及び全θ軸に渡る全てのデータ取得範囲を意味するものではない。
また、上記の方位角θは、FMCWレーダのスキャン動作によって変化するものであり、その動作は機械的なものであっても、位相計算などに基づく電子的なものであっても良い。以下、上記のビート周波数fについては、上記の式(1)と同様に、上昇変調区間における周波数はfu ,下降変調区間における周波数はfd と記すことがある。
Further, the two-dimensional domain of the above argument may be arbitrarily defined in an appropriate width and range corresponding to a desired detection target space (search range), and the acquired radar image is not necessarily obtained. This does not mean the entire data acquisition range across all f-axis and all θ-axis.
Further, the azimuth angle θ described above changes depending on the scanning operation of the FMCW radar, and the operation may be mechanical or electronic based on phase calculation or the like. Hereinafter, as for the beat frequency f, the frequency in the ascending modulation interval may be denoted as f u and the frequency in the descending modulation interval may be denoted as f d , as in the above equation (1).

また、本発明の第2の手段は、上記の第1の手段において、上記の相互相関が最大となる位置関係で、上昇区間レーダ画像と下降区間レーダ画像とを照合し、この時の相関値が所定の閾値未満になる部分の関数値を無視して、残った静止物体を示す関数値を、実空間を表す実平面座標上にマッピングすることによって、静止物体レーダ画像を生成する静止物体レーダ画像生成手段と、この静止物体レーダ画像生成手段によって相異なる時刻に生成された2つの静止物体レーダ画像の間の相互相関を最大にする位置関係を与える、上記の実平面座標上におけるシフトベクトルΔqを求める異時刻間相互相関演算手段と、このシフトベクトルΔqに基づいて、当該物体検知装置を搭載している移動体の実空間における運動を推定する運動推定手段とを設けることである。   Further, the second means of the present invention is the above first means, wherein the ascending section radar image and the descending section radar image are collated with the positional relationship where the cross-correlation is maximized, and the correlation value at this time A static object radar that generates a stationary object radar image by ignoring the function value of the part where the value is less than a predetermined threshold and mapping the function value indicating the remaining stationary object on the real plane coordinates representing the real space The shift vector Δq on the real plane coordinate, which gives a positional relationship that maximizes the cross-correlation between the image generating means and the two stationary object radar images generated at different times by the stationary object radar image generating means. Cross-correlation calculating means for obtaining different times, and motion estimation means for estimating motion in real space of a mobile object equipped with the object detection device based on the shift vector Δq It is to provide.

ただし、上記のマッピング処理は、静止物体を示す関数値についてそのまま据え置きとする恒等変換処理と、相互相関が低い部分の関数値だけを0に再設定する再設定処理との組み合わせで構成しても良い。これは、一次変換によって与えられる上記の式(1)の関係からも分かる様に、当該装置と被検出物体との間の距離Rは各ビート周波数fd ,fu の平均値の定数倍(cτ/4ΔF倍)でしかないからであり、特に、上記の上昇区間レーダ画像と下降区間レーダ画像とを互いに逆向きに同じ量だけシフトさせた位置関係で、それらの相互相関を最大にする位置関係(照合点)と静止物体レーダ画像が得られる場合には、その照合点はビート周波数fd ,fu の平均値に対応しており、よって、この平均値と距離Rとはデータ処理方式上同一視しても特段差し支えないからである。
また、上記のマッピングは、極座標空間から直交座標空間へのマッピングであっても良い。
なお、上記の実空間を表す実平面座標としては、例えば車両が走行中の路面などを考えることができる。
However, the above mapping process is composed of a combination of an identity conversion process that leaves a function value indicating a stationary object as it is and a reset process that resets only the function value of a portion having a low cross-correlation to 0. Also good. As can be seen from the relationship of the above equation (1) given by the primary transformation, the distance R between the device and the detected object is a constant multiple of the average value of the beat frequencies f d and f u ( In particular, the position where the above-described ascending section radar image and the descending section radar image are shifted by the same amount in the opposite directions and maximizes their cross-correlation. When a relationship (collation point) and a stationary object radar image are obtained, the collation point corresponds to the average value of the beat frequencies f d and f u , and therefore the average value and the distance R are a data processing method. This is because even if they are identified as above, there will be no special step and support.
Further, the mapping may be mapping from a polar coordinate space to an orthogonal coordinate space.
In addition, as a real plane coordinate showing said real space, the road surface etc. which the vehicle is drive | working can be considered, for example.

また、本発明の第3の手段は、上記の第2の手段の異時刻間相互相関演算手段において、上記の相互相関演算手段によって求められた上記の位置関係を与える、上記引数のf軸方向の周波数シフト量Δfを用いて、次回に算出されるべきシフトベクトルΔqの近似値を予測するシフトベクトル予測手段を設けることである。   Further, the third means of the present invention is the f-axis direction of the argument that gives the positional relationship obtained by the cross-correlation calculating means in the inter-time cross-correlation calculating means of the second means. The shift vector predicting means for predicting the approximate value of the shift vector Δq to be calculated next time is provided using the frequency shift amount Δf.

また、本発明の第4の手段は、上昇変調区間では時間に対して周波数を増加させ、下降変調区間では時間に対して周波数を減少させる周期関数に従って周波数変調された送信信号の電磁波を放射し、その反射波を受信して得られる受信信号とその受信時刻における送信信号とを混合することによって、ビート信号を生成して物体を検出する、FMCWレーダを有する物体検知装置において、上記の電磁波の放射方位を示す方位角θと各方位におけるビート信号のビート周波数fとを引数とし、そのビート信号のスペクトル強度Iを関数値とする二次元配列データI(f,θ)であるレーダ画像を、上記の上昇変調区間における上昇区間レーダ画像と下降変調区間における下降区間レーダ画像とに分けてそれぞれ生成するレーダ画像生成手段と、これらの上昇区間レーダ画像と下降区間レーダ画像との間の上記引数の2次元定義域全体としての相互相関を最大にする位置関係を求める相互相関演算手段と、その相互相関が最大となる位置関係で上昇区間レーダ画像と下降区間レーダ画像とを照合し、この時の相関値が所定の閾値未満になり、かつスペクトル強度Iが所定の閾値以上になる部分のみを移動物体として抽出する移動物体抽出手段とを備えることである。   The fourth means of the present invention radiates an electromagnetic wave of a transmission signal that is frequency-modulated according to a periodic function that increases the frequency with respect to time in the rising modulation interval and decreases the frequency with respect to time in the falling modulation interval. In an object detection apparatus having an FMCW radar, which detects an object by generating a beat signal by mixing a reception signal obtained by receiving the reflected wave and a transmission signal at the reception time, A radar image that is two-dimensional array data I (f, θ) having an azimuth angle θ indicating a radial azimuth and a beat frequency f of a beat signal in each azimuth as arguments and a spectral intensity I of the beat signal as a function value, A radar image generating means for generating separately each of the rising section radar image in the rising modulation section and the falling section radar image in the falling modulation section; A cross-correlation calculation means for obtaining a positional relationship between the ascending zone radar image and the descending zone radar image that maximizes the cross-correlation of the above two-dimensional domain of the argument, and a positional relationship where the cross-correlation is maximized The moving part extraction is performed by collating the ascending section radar image with the descending section radar image and extracting only the part where the correlation value at this time is less than a predetermined threshold and the spectrum intensity I is equal to or greater than the predetermined threshold as a moving object. Means.

また、本発明の第5の手段は、上記の第1乃至第4の何れか1つの手段において、上記の相互相関を最大にする上記の位置関係を求める際の相関評価関数として、対応する配列要素の値の差の絶対値の全空間に渡る総和(SAD)、または、対応する配列要素の値の差の二乗値の全空間に渡る総和(SSD)を用いることである。   According to a fifth means of the present invention, in any one of the first to fourth means, a corresponding array is used as a correlation evaluation function for obtaining the positional relationship that maximizes the cross-correlation. The sum of the absolute values of the element value differences over the entire space (SAD) or the sum of the square values of the difference between the corresponding array element values over the entire space (SSD) is used.

また、本発明の第6の手段は、上記の第1乃至第5の何れか1つの手段において、上記の二次元配列データI(f,θ)を、スペクトル強度Iを画素値とする画像形式データにすることである。   According to a sixth means of the present invention, in any one of the first to fifth means, the two-dimensional array data I (f, θ) is an image format having the spectral intensity I as a pixel value. It is to make data.

また、本発明の第7の手段は、上記の第1乃至第6の何れか1つの手段において、検出した物体の位置に基づいて障害物体のない路面領域を推定する走路推定手段を設けることである。   According to a seventh means of the present invention, in any one of the first to sixth means described above, a running path estimation means for estimating a road surface area free from an obstacle based on the detected position of the object is provided. is there.

また、本発明の第8の手段は、上記の第1乃至第7の何れか1つの手段において、上記の相互相関演算手段によって求められた位置関係を与える、引数のf軸方向の周波数シフト量Δfを用いて、当該物体検知装置を搭載している移動体の走行速度を推定する走行速度推定手段を設けることである。
以上の本発明の手段により、前記の課題を効果的、或いは合理的に解決することができる。
The eighth means of the present invention is the frequency shift amount in the f-axis direction of the argument that gives the positional relationship obtained by the cross-correlation calculating means in any one of the first to seventh means. By using Δf, a traveling speed estimating means for estimating the traveling speed of the moving body on which the object detection device is mounted is provided.
By the above means of the present invention, the above-mentioned problem can be effectively or rationally solved.

以上の本発明の手段によって得られる効果は以下の通りである。
即ち、本発明の第1または第4の手段によれば、所定の探索範囲に対応する上記の定義域(f,θ)の全域について上記のレーダ画像単位で、上記の上昇区間レーダ画像と下降区間レーダ画像との間の相互相関を演算することができるので、静止している被検出物体の位置がレーダ画像全体として最もよく整合する照合結果を得ることができる。即ち、本発明は、レーダ画像全体の中の大半の検出物体は、静止物体であろうと言う非常に現実的な仮定を利用するものである。
したがって、本発明の第1または第4の手段によれば、静止物体の位置推定処理において観測信号誤差の影響を低減することができ、これによって、静止物体または移動物体の位置の推定処理や自車両の運動の推定処理を各種のノイズに対して頑強に実行することができる。
The effects obtained by the above-described means of the present invention are as follows.
That is, according to the first or fourth means of the present invention, the above-mentioned radar image and the descending radar image are descended in units of the above-mentioned radar image for the entire defined area (f, θ) corresponding to a predetermined search range. Since the cross-correlation with the section radar image can be calculated, it is possible to obtain a collation result in which the position of the stationary detected object best matches the entire radar image. That is, the present invention makes use of a very realistic assumption that most detected objects in the entire radar image will be stationary objects.
Therefore, according to the first or fourth means of the present invention, it is possible to reduce the influence of the observation signal error in the position estimation process of the stationary object. The vehicle motion estimation process can be executed robustly against various noises.

また、本発明の第2の手段によれば、探索範囲内の静止物体の位置を示すレーダ画像が異時刻間で照合されて、その照合結果が与える当該異時刻間での上記の実空間を表す実平面座標上でのシフト量(シフトベクトルΔq)に基づいて、当該移動体の運動を推定することができるので、上記の頑強な照合処理に基づいて従来よりも信頼性の高い運動推定処理を実現することができる。   Further, according to the second means of the present invention, the radar image indicating the position of the stationary object within the search range is collated at different times, and the real space between the different times given by the collation result is obtained. Since the motion of the moving object can be estimated based on the shift amount (shift vector Δq) on the real plane coordinates to be expressed, the motion estimation processing with higher reliability than the conventional one based on the robust collation processing described above. Can be realized.

より具体的には、例えば、原点にレーダを配置した極座標系で上記の実空間を表す実平面座標を定義した場合、上記のシフトベクトルをΔq=(ΔR,Δθ)と定義することができ、この時、上記の静止物体レーダ画像の生成周期をΔtとすると、当該装置を搭載する車両の速度VはΔR/Δtで与えられ、その時の車両のヨー角速度はΔθ/Δtとして求めることができる。   More specifically, for example, when a real plane coordinate representing the real space is defined in a polar coordinate system in which a radar is arranged at the origin, the shift vector can be defined as Δq = (ΔR, Δθ), At this time, if the generation cycle of the stationary object radar image is Δt, the speed V of the vehicle on which the apparatus is mounted is given by ΔR / Δt, and the yaw angular speed of the vehicle at that time can be obtained as Δθ / Δt.

また、上記の式(1)を利用するだけでは、検出物体に対する相対速度しか求まらないが、本発明の第2の手段によれば、車速計によって自車両の車速が正確に分っていない場合においても、上記の相互相関演算手段によって実行されるノイズに対して頑強な相関演算の演算結果に基づいて、走行路面に対する自車両の絶対的な速度を従来よりも遥かに高い信頼性をもって正確に求めることができる。   Further, only the relative speed with respect to the detected object can be obtained only by using the above formula (1), but according to the second means of the present invention, the vehicle speed of the host vehicle is accurately known by the vehicle speed meter. Even in the case where there is not, the absolute speed of the host vehicle with respect to the running road surface is much more reliable than before, based on the calculation result of the correlation calculation robust against the noise executed by the cross-correlation calculation means. It can be determined accurately.

また、本発明の第3の手段によれば、上記の周波数シフト量Δfを用いて当該移動体の運動を与える上記のシフトベクトルΔqが近似的に予測されるので、上記の照合処理(相互相関演算処理)における初期状態(出発点)をその予測に基づいて最適化することができる。このため、本発明の第3の手段によれば、上記の照合処理の演算処理時間を効果的に削減することができる。   Further, according to the third means of the present invention, the shift vector Δq that gives the motion of the moving body is approximately estimated using the frequency shift amount Δf. The initial state (starting point) in the calculation process can be optimized based on the prediction. For this reason, according to the 3rd means of this invention, the calculation processing time of said collation process can be reduced effectively.

また、本発明の第5の手段によれば、上記の相互相関演算処理を具体的かつ効果的に構成することができる。
また、本発明の第6の手段によれば、画像処理分野における照合処理プログラムや照合処理回路などを流用することによって、当該装置をより簡単に構成することができる。
Further, according to the fifth means of the present invention, the above-mentioned cross correlation calculation processing can be specifically and effectively configured.
Further, according to the sixth means of the present invention, the apparatus can be configured more easily by diverting a collation processing program or a collation processing circuit in the image processing field.

また、以上の本発明の手段の何れかを利用して、更に、検出した物体の位置に基づいて障害物体のない路面領域を推定する走路推定手段を構成しても良い(本発明の第7の手段)。この様な走路推定手段は、例えば、車両等の移動体における危険予知システムやオートクルーズシステムなどに利用することができる。   Further, any one of the above-described means of the present invention may be used to further constitute a road estimator that estimates a road surface area free from an obstacle based on the detected position of the object (seventh aspect of the present invention). Means). Such a runway estimation means can be used, for example, in a danger prediction system or an auto cruise system in a moving body such as a vehicle.

また、上記の式(1)を単純に利用するだけでは、個々の検出物体に対する個々の相対速度しか求まらないが、本発明の第8の手段によれば、車速計によって自車両の車速が正確に分っていない場合においても、上記の相互相関演算手段によって実行されるノイズ(移動物体を含む)に対して頑強な相関演算の演算結果に基づいて、自車両周辺の静止物体に対する自車両の絶対的な速度を従来よりも遥かに高い信頼性をもって正確に求めることができる。   Further, by simply using the above formula (1), only individual relative speeds with respect to individual detection objects can be obtained. However, according to the eighth means of the present invention, the vehicle speed of the host vehicle is measured by the vehicle speed meter. However, even if the vehicle is not accurately known, the self-registration with respect to stationary objects around the host vehicle is based on the calculation result of the correlation calculation that is robust against noise (including moving objects) executed by the cross-correlation calculation means. The absolute speed of the vehicle can be accurately determined with much higher reliability than before.

以下、本発明を具体的な実施例に基づいて説明する。
ただし、本発明の実施形態は、以下に示す個々の実施例に限定されるものではない。
Hereinafter, the present invention will be described based on specific examples.
However, the embodiments of the present invention are not limited to the following examples.

1.作用原理と動作概要
FMCWレーダは、図1−Aに示すような三角波形状の周期関数を用いて、送信信号を周波数変調しながら電磁波を放射するレーダである。また、図2に本実施例1の物体検知装置100のハードウェア構成図を示す。FMCWレーダでは、送信信号と受信信号とをミキシングしてベースバンドフィルタを通すことによって、ビート信号(図1−B)を生成する。この時、各変調区間のビート信号を周波数解析すると、同一の被検出物体に関する周波数スペクトル強度は、図3に示すように、周波数fd 及び周波数fu にピークを示すので、この2つの変調区間におけるビート周波数fd と周波数fu とから、上記の式(1)に基づいて観測物体までの距離Rや相対速度Vを算出することができる。
1. Principle of Operation and Outline of Operation The FMCW radar is a radar that radiates electromagnetic waves while frequency-modulating a transmission signal using a periodic function having a triangular wave shape as shown in FIG. FIG. 2 is a hardware configuration diagram of the object detection apparatus 100 according to the first embodiment. In the FMCW radar, a transmission signal and a reception signal are mixed and passed through a baseband filter to generate a beat signal (FIG. 1-B). At this time, if the beat signal of each modulation section is subjected to frequency analysis, the frequency spectrum intensity related to the same detected object has peaks at the frequency f d and the frequency f u as shown in FIG. From the beat frequency f d and the frequency f u , the distance R to the observation object and the relative velocity V can be calculated based on the above equation (1).

また、被検出物体の殆どは静止物体であると考えられるので、二次元配列データI(f,θ)である上記のレーダ画像の全体で、当該画像単位の照合処理を行えば、上昇区間レーダ画像と下降区間レーダ画像との間で最も高い相互相関を示す位置関係において、各静止物体の位置が最もよく一致するものと考えて良い。したがって、それらの照合点(最も高い相互相関を示す位置関係)を与えるシフト量Δfに基づいて、車速Vや被検出物体までの距離Rを算出すれば、従来よりも遥かに頑強にそれらの推定値を算出することができる。   In addition, since most of the detected objects are considered to be stationary objects, if the above-mentioned radar image as the two-dimensional array data I (f, θ) is subjected to the image unit matching process, the ascending section radar In the positional relationship showing the highest cross-correlation between the image and the descending section radar image, it can be considered that the positions of the stationary objects are the best match. Therefore, if the vehicle speed V and the distance R to the detected object are calculated based on the shift amount Δf that gives the matching points (positional relationship showing the highest cross-correlation), the estimation is much more robust than in the past. A value can be calculated.

ただし、図3では、上昇区間レーダ画像と下降区間レーダ画像との双方を互いに逆向きに同量だけ移動させる(近寄せる)シフト操作に基づいて、上記の照合点を求める際のシフト量(=Δf/2)が記載されている。
また、自車両から見た実空間平面座標上における静止物体の運動は、上記のシフトベクトルΔqで示されるが、このシフトベクトルΔqは、自車両の運動に変換可能な量であるから、上記の静止物体レーダ画像の時間変化に基づいて、自車両の運動を推定することができる。
However, in FIG. 3, the shift amount (== when obtaining the above-mentioned reference point based on a shift operation in which both the ascending section radar image and the descending section radar image are moved (approached) by the same amount in opposite directions. Δf / 2) is described.
In addition, the motion of the stationary object on the real space plane coordinates viewed from the host vehicle is represented by the shift vector Δq, which is an amount that can be converted into the motion of the host vehicle. The motion of the host vehicle can be estimated based on the time change of the stationary object radar image.

2.ハードウェア構成
図2に本実施例1の物体検知装置100のハードウェア構成図を示す。VCO(電圧制御発振器2)はミリ波帯又はマイクロ波帯で発振し、その発振周波数は変調信号発生器1から出力される変調信号によって、例えば図1−Aに例示したように可変制御される。方向性結合器3は、電圧制御発振器2から入力された高周波電力を送信アンテナ4とミキサ6とに分配する装置(分配器)である。即ち、送信アンテナ4に分配された信号が送信信号(放射波)となり、ミキサ6に分配された信号がローカル信号となる。
ミキサ6は、受信アンテナ16で受信した受信信号にローカル信号を混合してビート信号を生成する装置で、このビート信号は、ベースバンドフィルタ7とA/D変換器8を順次経由して、一旦メモリ9上に記憶される。
2. Hardware Configuration FIG. 2 is a hardware configuration diagram of the object detection apparatus 100 according to the first embodiment. The VCO (voltage controlled oscillator 2) oscillates in the millimeter wave band or the microwave band, and the oscillation frequency is variably controlled by the modulation signal output from the modulation signal generator 1, for example, as illustrated in FIG. . The directional coupler 3 is a device (distributor) that distributes the high-frequency power input from the voltage controlled oscillator 2 to the transmission antenna 4 and the mixer 6. That is, the signal distributed to the transmission antenna 4 becomes a transmission signal (radiation wave), and the signal distributed to the mixer 6 becomes a local signal.
The mixer 6 is a device that generates a beat signal by mixing a local signal with a reception signal received by the reception antenna 16, and this beat signal passes through a baseband filter 7 and an A / D converter 8 in order, and then once. It is stored on the memory 9.

また、CPU10は、メモリ9上に記憶されたビート信号を解析する周知の中央演算処理装置であって、例えば、高速フーリエ変換(FFT)処理を実行するための演算処理装置(例えばDSP)などを補助的に追加して構成しても良い。また、画像処理専用の演算処理装置などを補助的に追加して構成しても良い。   The CPU 10 is a well-known central processing unit that analyzes the beat signal stored in the memory 9, for example, an arithmetic processing unit (for example, a DSP) for executing a fast Fourier transform (FFT) process. A supplementary configuration may be added. Further, an arithmetic processing device dedicated to image processing may be supplementarily added.

3.処理手順
図4に、上記の物体検知装置100で実行すべき処理手順を例示する。以下、このフローチャートに沿ってその処理手順を具体的に説明する。
〔1〕ステップ210(FMCWレーダ)
まず、ステップ210では、送信信号と受信信号とのミキシングによって得られるビート信号をベースバンドフィルタ7とA/D変換器8を介して一旦メモリ9上に記憶する。本実施例では、1回のスキャニングを所定の適当なスキャニングタイム(観測周期)の間に行うが、この時、例えば、車両前方正面を0°とし、−20°(左前方)から+20°(右前方)までの角度領域をその検波対象空間として該スキャニングを実施してもよい。また、送信信号を周波数変調するための図1−AのFM変調指令(即ち、太線で描かれた三角波形状の周期関数)の中心周波数fc は、76GHz〜77GHz程度でよい。
3. Processing Procedure FIG. 4 illustrates a processing procedure to be executed by the object detection apparatus 100 described above. Hereinafter, the processing procedure will be specifically described with reference to this flowchart.
[1] Step 210 (FMCW radar)
First, in step 210, a beat signal obtained by mixing the transmission signal and the reception signal is temporarily stored in the memory 9 via the baseband filter 7 and the A / D converter 8. In the present embodiment, one scanning is performed during a predetermined appropriate scanning time (observation period). At this time, for example, the front front of the vehicle is set to 0 °, and from −20 ° (front left) to + 20 ° (front left) The scanning may be performed using the angular region up to the right front) as the detection target space. The center frequency f c of the FM modulation command of FIG. 1-A for frequency modulating a transmitted signal (i.e., periodic function of the drawn triangular waveform by a thick line) can be about 76GHz~77GHz.

〔2〕ステップ220(レーダ画像生成手段)
次に、ステップ220では、A/D変換されたベースバンド信号(ビート信号)を周波数解析(フーリエ変換)し、これにより、前述の二次元配列データI(f,θ)であるレーダ画像を、上記の上昇変調区間における上昇区間レーダ画像と下降変調区間における下降区間レーダ画像とに分けてそれぞれ生成する。
[2] Step 220 (radar image generation means)
Next, in step 220, the A / D converted baseband signal (beat signal) is subjected to frequency analysis (Fourier transform), whereby a radar image as the above-described two-dimensional array data I (f, θ) is obtained. Separately generated are an ascending section radar image in the above ascending modulation section and a descending section radar image in the descending modulation section.

この時、反射波の到来方向θを特定する必要があるが、例えば、電子スキャン型ミリ波レーダであればDBFやMUSICなど既存の到来方位推定手法を用いて受信信号の到来方位を特定し、また、機械スキャン型ミリ波レーダならばスキャン機構からアンテナ面の角度を読み出して受信信号の到来方位を特定する。上記のスペクトル強度Iをレーダ画像の画素値とみなすと、各引数に対応するf軸とθ軸とを2軸とする極座標系の画像データを生成することができる。ただし、極座標系の代わりに直交座標系を用いても良い。これらのレーダ画像は、スナップショットごとに上昇変調区間および下降変調区間の両方で生成することができるが、特に、各スナップショット間でレーダ画像を平均化処理などを施せば、突発的なノイズを除去することも可能となる。
以上の処理により、車両前方に存在する物体からの反射波の強度分布を、上昇変調区間および下降変調区間のそれぞれについて求めることができる。
At this time, it is necessary to specify the arrival direction θ of the reflected wave. For example, in the case of an electronic scan type millimeter wave radar, the arrival direction of the received signal is specified using an existing arrival direction estimation method such as DBF or MUSIC, In the case of a mechanical scan type millimeter wave radar, the angle of the antenna surface is read from the scan mechanism to identify the arrival direction of the received signal. When the above spectral intensity I is regarded as a pixel value of the radar image, polar coordinate system image data having two axes of the f-axis and the θ-axis corresponding to each argument can be generated. However, an orthogonal coordinate system may be used instead of the polar coordinate system. These radar images can be generated for both snapshots in both the rising and falling modulation intervals. In particular, if the radar images are averaged between snapshots, sudden noise is generated. It can also be removed.
Through the above processing, the intensity distribution of the reflected wave from the object existing in front of the vehicle can be obtained for each of the up modulation section and the down modulation section.

〔3〕ステップ230(相互相関演算手段)
次に、ステップ230では、各上昇変調区間と下降変調区間毎にそれぞれ生成したレーダ画像を周波数方向に移動させながら両者が最もよく一致するように照合させる。この照合処理における相互相関の評価関数としては、例えば以下の定義式で表される評価関数などを用いることができる。即ち、これらの照合度の評価関数としては、SAD(対応する配列要素の値の差の絶対値の全空間に渡る総和)またはSSD(対応する配列要素の値の差の二乗値の全空間に渡る総和)などが有用である。最大の相互相関を示す照合点は、これらの評価関数に最小値を与えるシフト量から求めることができる。
[3] Step 230 (cross-correlation calculating means)
Next, in step 230, the radar images generated for each of the ascending modulation interval and the descending modulation interval are moved in the frequency direction, and collation is performed so that the two match best. As an evaluation function of cross correlation in this collation processing, for example, an evaluation function represented by the following definition formula can be used. That is, as an evaluation function of these matching degrees, SAD (the sum of the absolute values of the differences of the corresponding array elements over the entire space) or SSD (the square of the differences of the values of the corresponding array elements) Crossover) is useful. The matching point showing the maximum cross-correlation can be obtained from the shift amount that gives the minimum value to these evaluation functions.

(相互相関の評価関数SAD)
SAD(Δf)=Σ|Iu(f+Δf/2,θ)−Id(f−Δf/2,θ)|
(相互相関の評価関数SSD)
SSD(Δf)=Σ{Iu(f+Δf/2,θ)−Id(f−Δf/2,θ)}2
ここで、上記の演算記号Σは、座標(f,θ)で表される所定の定義域の全域に渡って総和を演算することを意味している。
(Cross-correlation evaluation function SAD)
SAD (Δf) = Σ | Iu (f + Δf / 2, θ) −Id (f−Δf / 2, θ) |
(Cross-correlation evaluation function SSD)
SSD (Δf) = Σ {Iu (f + Δf / 2, θ) −Id (f−Δf / 2, θ)} 2
Here, the arithmetic symbol Σ means that the sum is calculated over the entire predetermined domain expressed by the coordinates (f, θ).

ただし、本実施例1では、図3に示すように、実空間を表す実平面座標上の距離Rに対応する位置で被検出物体の照合点を得ることを想定しているので、図5に示すように上昇変調区間では画像を周波数の正の方向に+Δf/2シフトさせ、下降変調区間では逆に負の方向に同じ量だけシフトさせて、最も小さな相関値を与える周波数シフト量Δfを求める。これは、前述の式(1)からも分かる様に、レーダを車両前方に取り付けた場合、静止物体は車両に近づく方向の速度ベクトルを持ち、その大きさに応じて上昇変調区間では周波数が小さい側に、下降変調区間では周波数が大きい側にシフトするからである。   However, in the first embodiment, as shown in FIG. 3, it is assumed that the verification point of the detected object is obtained at a position corresponding to the distance R on the real plane coordinate representing the real space. As shown in the figure, the image is shifted by + Δf / 2 in the positive direction of the frequency in the ascending modulation period, and conversely by the same amount in the negative direction in the descending modulation period, the frequency shift amount Δf giving the smallest correlation value is obtained. . As can be seen from the above equation (1), when the radar is mounted in front of the vehicle, the stationary object has a velocity vector in a direction approaching the vehicle, and the frequency is small in the ascending modulation section according to the magnitude. This is because, in the downward modulation section, the frequency shifts to the larger side.

これらの演算の結果、2つのレーダ画像を最もよく一致させるf軸方向の周波数シフト量Δfが得られ、その周波数シフト量Δfに基づいて、自車両の車速V(静止物体との相対速度)を次式(3)のように算出することができる。
(自車両の車速V)
V=cΔf/4fc …(3)
As a result of these calculations, a frequency shift amount Δf in the f-axis direction that best matches the two radar images is obtained. Based on the frequency shift amount Δf, the vehicle speed V (relative speed with respect to a stationary object) of the host vehicle is obtained. It can be calculated as the following equation (3).
(Vehicle speed V of own vehicle)
V = cΔf / 4f c (3)

即ち、上記の自車両の車速は、ドップラー効果(ドップラーシフト)に基づいて求められる。ここで、角度方向のシフトを行わないのは、対応する上昇変調区間と下降変調区間の各レーダ画像は、同一の測定期間に観測されたているので、両レーダ画像間では方位角が一致しており、ここではドップラーシフトに基づくf軸方向の両者間のズレの量(∝V)だけが問題になるからである。   That is, the vehicle speed of the host vehicle is obtained based on the Doppler effect (Doppler shift). Here, the angle direction is not shifted because each radar image in the corresponding up-modulation section and down-modulation section is observed during the same measurement period, so that the azimuth angles coincide between the two radar images. This is because only the amount of deviation (∝V) between the two in the f-axis direction based on the Doppler shift becomes a problem.

なお、例えば、前回の観測結果や式(3)などを用いて、静止物体との相対速度(車速V)が予測される場合には、それに対応したシフト量Δf′を計算し、このシフト量Δf′が与える位置関係を出発点として照合探索(相関演算処理)を開始することによって、その相関演算処理の計算量を削減することができる。
また、各被検出物体までの距離Rは、次式(4)に従って算出することができる。
(各被検出物体までの距離R)
R=cτ(2fu +Δf)/8ΔF または、
R=cτ(2fd −Δf)/8ΔF …(4)
For example, when the relative speed (vehicle speed V) with respect to a stationary object is predicted using the previous observation result or equation (3), a shift amount Δf ′ corresponding to the predicted relative speed (vehicle speed V) is calculated. By starting the collation search (correlation calculation process) starting from the positional relationship given by Δf ′, the amount of calculation of the correlation calculation process can be reduced.
Further, the distance R to each detected object can be calculated according to the following equation (4).
(Distance R to each detected object)
R = cτ (2f u + Δf) / 8ΔF or
R = cτ (2f d −Δf) / 8ΔF (4)

〔4〕ステップ240(静止物体レーダ画像生成手段)
前段の照合処理により各レーダ画像の全体が最もよく一致した照合点において、上昇区間レーダ画像と下降区間レーダ画像との間で画素値の差が大きい部分(即ち、相関が小さな部分)は移動物体からの反射波によるものである。
この静止物体レーダ画像生成手段の動作形態を図5の下段に例示する。画素値の大きい(白い)部分1〜3が反射信号であるが、相互相関演算手段を用いて照合すると、シフト後に照合した2枚の画像においては、信号1や信号3はそれぞれ位置が一致するため、これらは静止物体上で反射した信号だと判定することができる。
[4] Step 240 (stationary object radar image generation means)
At the matching point where the entire radar images are best matched by the matching process in the previous stage, the part where the pixel value difference between the ascending section radar image and the descending section radar image is large (that is, the part where the correlation is small) is a moving object. This is due to the reflected wave from.
The mode of operation of this stationary object radar image generation means is illustrated in the lower part of FIG. The large (white) portions 1 to 3 having a large pixel value are reflected signals. However, when collation is performed using the cross-correlation calculation means, the positions of the signals 1 and 3 match in the two images collated after the shift. Therefore, it can be determined that these are signals reflected on a stationary object.

一方、信号2の位置は2枚のレーダ画像間で一致しないので移動物体の反射波だと判定することができる。したがって、この様な判定を行えば、レーダ画像が表す全ての信号を静止物体と移動物体に振り分けることができる。
より具体的には、この様な振り分けは、例えば照合後に対応する各画素間の相関値の大小や各画素値(スペクトル強度I)の大小などによって選別しても良い。
或いはまた、Δfで与えられる最も高い相関を与える位置関係(照合点)において、上昇区間レーダ画像と下降区間レーダ画像との間で、対応する各画素毎にそれぞれ画素値(スペクトル強度I)を比較して、双方で画素値が大きくない方を静止物体画像の画素値として選抜し、この選抜処理によって、静止物体の信号(スペクトル強度I)のみを抽出した静止物体画像を生成しても良い。
On the other hand, since the position of the signal 2 does not match between the two radar images, it can be determined that the reflected wave is a moving object. Therefore, if such a determination is made, all signals represented by the radar image can be distributed to a stationary object and a moving object.
More specifically, such distribution may be selected based on, for example, the magnitude of the correlation value between corresponding pixels after collation or the magnitude of each pixel value (spectrum intensity I).
Alternatively, the pixel value (spectrum intensity I) is compared for each corresponding pixel between the ascending section radar image and the descending section radar image in the positional relationship (collation point) that gives the highest correlation given by Δf. Then, it is possible to select a pixel value that is not large in both as the pixel value of the still object image, and to generate a still object image in which only the signal (spectrum intensity I) of the still object is extracted by this selection process.

また、これらの振り分け処理は、必ずしも画素単位で実施する必要はなく、例えば4画素×4画素の小区画領域を1単位として実施しても良い。この場合には、ノイズに対する耐性を得ることができ、これによって、振り分け処理を不測のノイズに対して頑強にすることができる場合がある。また、上昇区間レーダ画像と下降区間レーダ画像との間での画素値比較処理の実行回数の削減を図ることもできる。   These distribution processes are not necessarily performed in units of pixels. For example, a small partition area of 4 pixels × 4 pixels may be performed as one unit. In this case, tolerance to noise can be obtained, which can make the sorting process robust against unexpected noise. In addition, it is possible to reduce the number of executions of the pixel value comparison process between the ascending section radar image and the descending section radar image.

〔5〕ステップ250(異時刻間相互相関演算手段)
次に、ステップ250では、上記の手順〔3〕で行った照合処理と同様の照合処理を異なる時刻に観測された2枚の静止物体レーダ画像の間で行う(図6の時系列照合)。ただし、ここではまず、上記の式(4)を用いて、先に求めた静止物体レーダ画像の周波数軸(f軸)を実空間での距離軸(R軸)に変換することによって、実空間平面座標上にマッピングされた静止物体レーダ画像を求める。
[5] Step 250 (cross-correlation calculation means between different times)
Next, in step 250, the collation process similar to the collation process performed in the above procedure [3] is performed between two stationary object radar images observed at different times (time-series collation in FIG. 6). However, here, first, by using the above equation (4), the frequency axis (f-axis) of the previously obtained stationary object radar image is converted into the distance axis (R-axis) in the real space, thereby realizing the real space. A stationary object radar image mapped on a plane coordinate is obtained.

そして、異時刻間でこの実空間平面座標上の静止物体レーダ画像の双方が最もよく一致するように、その静止物体レーダ画像をR軸およびθ軸の各方向にそれぞれシフトさせながら、最大の相関を与える位置関係を求める。シフトさせるのはどちらか1枚の画像だけでよい。ここでも、前述のSADやSSDなどの評価関数を用いて相互相関演算を実行することができる。ただし、実空間平面座標上への上記のマッピング処理は、例えば、車両の前後方向をz軸方向とし、車両の左右方向をx軸方向とするxz座標平面上へのマッピング処理であってもよい。   The maximum correlation is obtained while shifting the stationary object radar image in each direction of the R axis and the θ axis so that both of the stationary object radar images on the real space plane coordinates best match at different times. Find the positional relationship that gives Only one of the images needs to be shifted. Again, the cross-correlation calculation can be performed using the evaluation function such as SAD or SSD described above. However, the mapping process on the real space plane coordinate may be a mapping process on the xz coordinate plane in which the front-rear direction of the vehicle is the z-axis direction and the left-right direction of the vehicle is the x-axis direction, for example. .

この様な相互相関演算の結果、例えば図6に例示する様なシフト操作によって、所望の照合点が得られた場合には、次式(5)に示す様に、シフトベクトルΔqを算定すれば良い。
(シフトベクトルΔq)
Δq≡(Δθ,ΔR)=(+1θ0 ,−3R0 ) …(5)
ただし、ここでは、θ0 は図6の静止物体レーダ画像における1画素分の方位角であり、R0 は同レーダ画像における1画素分の距離を示すものとする。
As a result of such cross-correlation calculation, when a desired collation point is obtained by a shift operation illustrated in FIG. 6, for example, the shift vector Δq is calculated as shown in the following equation (5). good.
(Shift vector Δq)
Δq≡ (Δθ, ΔR) = (+ 1θ 0 , −3R 0 ) (5)
Here, θ 0 is the azimuth angle for one pixel in the stationary object radar image of FIG. 6, and R 0 is the distance for one pixel in the radar image.

また、この照合処理においても、前回の観測結果などから今回のシフト量の近似値Δqを推定することができれば、そのシフト量を再利用することによって、照合処理の計算量を削減することができる。また、上記のステップ230で得られた周波数シフト量Δfは、車速Vに比例するものであるから、この周波数シフト量Δfを用いて、上記のシフトベクトルΔqを推定しても良い(本発明の第3の手段)。   Also in this collation processing, if the approximate value Δq of the current shift amount can be estimated from the previous observation result or the like, the amount of collation processing can be reduced by reusing the shift amount. . Further, since the frequency shift amount Δf obtained in the above step 230 is proportional to the vehicle speed V, the shift vector Δq may be estimated using the frequency shift amount Δf (in the present invention). Third means).

なお、上記の実空間平面を表す座標平面として、上記のxz座標平面を採用する場合には、所望のシフトベクトルΔqを以下のように表すことができる。
(シフトベクトルΔq)
Δq=(Δφ,Δx,Δz)
ただし、ここで、Δφは当該xz座標平面上での車両の回転成分であり、(Δx,Δz)は当該xz座標平面上での車両の並進成分である。
When the xz coordinate plane is adopted as the coordinate plane representing the real space plane, the desired shift vector Δq can be expressed as follows.
(Shift vector Δq)
Δq = (Δφ, Δx, Δz)
Here, Δφ is a rotation component of the vehicle on the xz coordinate plane, and (Δx, Δz) is a translation component of the vehicle on the xz coordinate plane.

〔6〕ステップ260(運動推定手段)
最後に、ステップ260では、前段の照合による距離方向(R軸方向)および方位方向(θ軸方向)に関する上記のシフト量(シフトベクトルΔq)から、観測間の車両(レーダ)の運動を求める。この時、上記のマッピング処理による実空間平面座標上の静止物体レーダ画像の生成周期をΔtとすると、当該装置を搭載する車両の速度VはΔR/Δtで与えられ、その時の車両のヨー角速度はΔθ/Δtとして求めることができる。
[6] Step 260 (motion estimation means)
Finally, in step 260, the movement of the vehicle (radar) between observations is obtained from the shift amount (shift vector Δq) in the distance direction (R-axis direction) and the azimuth direction (θ-axis direction) obtained in the previous verification. At this time, if the generation period of the stationary object radar image on the real space plane coordinate by the above mapping processing is Δt, the speed V of the vehicle on which the device is mounted is given by ΔR / Δt, and the yaw angular speed of the vehicle at that time is It can be obtained as Δθ / Δt.

なお、例えば周波数シフト量ΔfやシフトベクトルΔqなどの、以上の処理で算出した値にはフィルタ処理などを施して、次回の制御周期における上記の手順〔3〕や手順〔5〕などの照合処理などに再度利用してもよい。この様な手段によっても、演算処理オーバーヘッドを削減することができる。   For example, the values calculated in the above processing, such as the frequency shift amount Δf and the shift vector Δq, are subjected to filter processing, etc., and collation processing such as the above procedure [3] and procedure [5] in the next control cycle. It may be used again for such purposes. Such a means can also reduce the arithmetic processing overhead.

以上の手順〔1〕〜〔6〕を周期的に繰り返すことによって、自車両の運動を継続的に把握することができる。また、上記の照合処理では、静止物体を個別に照合するのではなく、観測範囲内に存在する全ての物体からの検波信号を用いてそれらの位置が全体として最もよく整合するように照合させているので、これによって、静止物体の位置の推定処理や自車両の運動の推定処理が各種のノイズに対して頑強となる。   By repeating the above steps [1] to [6] periodically, it is possible to continuously grasp the motion of the host vehicle. Also, in the above collation processing, the stationary objects are not collated individually, but are collated so that their positions are best matched as a whole using detection signals from all objects existing within the observation range. As a result, the process of estimating the position of the stationary object and the process of estimating the motion of the host vehicle are robust against various types of noise.

〔その他の変形例〕
本発明の実施形態は、上記の形態に限定されるものではなく、その他にも以下に例示される様な変形を行っても良い。この様な変形や応用によっても、本発明の作用に基づいて本発明の効果を得ることができる。
(変形例1)
例えば、上記の実施例1では、ステップ230において、上昇区間レーダ画像と下降区間レーダ画像との双方を互いに逆向きに同量だけ移動させる(各ピークペアを近寄せる)シフト操作に基づいて、上記の照合点(最も高い相互相関を示す位置関係)を求めたが、このシフト量は、上昇区間レーダ画像か下降区間レーダ画像の何れか一方だけをf軸方向に沿ってシフトさせるシフト操作に基づいて求めても良い。この場合、そのシフト操作量Δfをもとめてから、その後、少なくとも何れか一方をΔf/2だけずらすことによって、上記の静止物体レーダ画像を生成することができる。また、この様な方式に従えば、一方の二次元配列データI(f,θ)では、シフト操作を行う必要がなくなるため、演算処理オーバーヘッドを削減することができる。
[Other variations]
The embodiment of the present invention is not limited to the above-described embodiment, and other modifications as exemplified below may be made. Even with such modifications and applications, the effects of the present invention can be obtained based on the functions of the present invention.
(Modification 1)
For example, in the above-described first embodiment, in step 230, based on the shift operation in which both the ascending zone radar image and the descending zone radar image are moved in the opposite directions by the same amount (each peak pair is brought closer), as described above. The collation point (the positional relationship indicating the highest cross-correlation) was obtained. This shift amount is based on a shift operation that shifts only one of the ascending section radar image and the descending section radar image along the f-axis direction. You may ask. In this case, after obtaining the shift operation amount Δf, the stationary object radar image can be generated by shifting at least one of them by Δf / 2. Further, according to such a method, it is not necessary to perform a shift operation on one of the two-dimensional array data I (f, θ), so that the calculation processing overhead can be reduced.

本発明は、例えば、車両等の移動体における危険予知システムや運転支援システムやオートクルーズシステムなどに利用することができる。また、ロボットの位置制御や姿勢制御などにも利用することができる。   The present invention can be used, for example, in a danger prediction system, a driving support system, an auto cruise system, and the like in a moving body such as a vehicle. It can also be used for robot position control and posture control.

FMCWレーダにおける周波数変調の実施形態を例示するグラフGraph illustrating an embodiment of frequency modulation in FMCW radar ビート信号の検出形態を例示するグラフGraph illustrating beat signal detection mode 実施例1の物体検知装置100のハードウェア構成図1 is a hardware configuration diagram of an object detection apparatus 100 according to a first embodiment. 1被検出物体に関するビート信号のスペクトル強度を例示するグラフA graph illustrating the spectral intensity of a beat signal for one detected object 物体検知装置100で実行すべき処理手順を例示するフローチャートThe flowchart which illustrates the process sequence which should be performed with the object detection apparatus 100 相互相関演算手段の動作形態を例示する説明図Explanatory drawing illustrating the operation mode of the cross-correlation calculating means 異時刻間相互相関演算手段の動作形態を例示する説明図Explanatory drawing illustrating the operation mode of the cross-correlation calculation means between different times

符号の説明Explanation of symbols

100 : 物体検知装置
220 : レーダ画像生成手段
230 : 相互相関演算手段
240 : 静止物体抽出手段
250 : 異時刻間相互相関演算手段
260 : 運動推定手段
DESCRIPTION OF SYMBOLS 100: Object detection apparatus 220: Radar image generation means 230: Cross correlation calculation means 240: Stationary object extraction means 250: Cross correlation calculation means between different times 260: Motion estimation means

Claims (8)

上昇変調区間では時間に対して周波数を増加させ、下降変調区間では時間に対して周波数を減少させる周期関数に従って周波数変調された送信信号の電磁波を放射し、その反射波を受信して得られる受信信号とその受信時刻における前記送信信号とを混合することによって、ビート信号を生成して物体を検出する、FMCWレーダを有する物体検知装置において、
前記電磁波の放射方位を示す方位角θと、各方位における前記ビート信号のビート周波数fとを引数とし、そのビート信号のスペクトル強度Iを関数値とする二次元配列データI(f,θ)であるレーダ画像を、前記上昇変調区間における上昇区間レーダ画像と、前記下降変調区間における下降区間レーダ画像とに分けてそれぞれ生成するレーダ画像生成手段と、
前記上昇区間レーダ画像と前記下降区間レーダ画像との間の、前記引数の2次元定義域全体としての相互相関を最大にする位置関係を求める相互相関演算手段と、
前記相互相関が最大となる前記位置関係で、前記上昇区間レーダ画像と前記下降区間レーダ画像とを照合し、この時の相関値が所定の閾値以上になる部分のみを静止物体として抽出する静止物体抽出手段と
を有する
ことを特徴とする物体検知装置。
In the rising modulation interval, the frequency is increased with respect to time, and in the falling modulation interval, the electromagnetic wave of the transmission signal frequency-modulated according to the periodic function that decreases the frequency with respect to time is radiated and received by receiving the reflected wave. In an object detection apparatus having an FMCW radar that detects an object by generating a beat signal by mixing a signal and the transmission signal at the reception time thereof,
Two-dimensional array data I (f, θ) having an azimuth angle θ indicating the radiating direction of the electromagnetic wave and a beat frequency f of the beat signal in each azimuth as arguments and a spectral intensity I of the beat signal as a function value A radar image generating means for generating a radar image by dividing the radar image into an ascending section radar image in the ascending modulation section and a descending section radar image in the descending modulation section;
A cross-correlation calculating means for obtaining a positional relationship between the ascending zone radar image and the descending zone radar image that maximizes the cross-correlation of the entire two-dimensional domain of the argument;
A stationary object that collates the ascending section radar image and the descending section radar image with the positional relationship that maximizes the cross-correlation, and extracts only a portion where the correlation value at this time is equal to or greater than a predetermined threshold as a stationary object An object detection apparatus comprising an extraction unit.
前記相互相関が最大となる前記位置関係で、前記上昇区間レーダ画像と前記下降区間レーダ画像とを照合し、この時の相関値が所定の閾値未満になる部分の前記関数値を無視して、残った前記静止物体を示す前記関数値を、実空間を表す実平面座標上にマッピングすることによって、静止物体レーダ画像を生成する静止物体レーダ画像生成手段と、
前記静止物体レーダ画像生成手段によって相異なる時刻に生成された2つの前記静止物体レーダ画像の間の相互相関を最大にする位置関係を与える、前記実平面座標上におけるシフトベクトルΔqを求める異時刻間相互相関演算手段と、
前記シフトベクトルΔqに基づいて、当該物体検知装置を搭載している移動体の前記実空間における運動を推定する運動推定手段と
を有する
ことを特徴とする請求項1に記載の物体検知装置。
In the positional relationship where the cross-correlation is maximized, the ascending section radar image and the descending section radar image are collated, and the function value of the portion where the correlation value at this time is less than a predetermined threshold is ignored. A stationary object radar image generating means for generating a stationary object radar image by mapping the function value indicating the remaining stationary object on a real plane coordinate representing a real space;
Different time intervals for obtaining a shift vector Δq on the real plane coordinates, which gives a positional relationship that maximizes the cross-correlation between the two stationary object radar images generated at different times by the stationary object radar image generation means Cross-correlation calculating means;
The object detection device according to claim 1, further comprising: a motion estimation unit that estimates motion in the real space of a moving body on which the object detection device is mounted based on the shift vector Δq.
前記異時刻間相互相関演算手段は、
前記相互相関演算手段によって求められた前記位置関係を与える、前記引数のf軸方向の周波数シフト量Δfを用いて、
次回に算出されるべき前記シフトベクトルΔqの近似値を予測するシフトベクトル予測手段を有する
ことを特徴とする請求項2に記載の物体検知装置。
The different time cross-correlation calculating means comprises:
Using the frequency shift amount Δf in the f-axis direction of the argument that gives the positional relationship obtained by the cross-correlation calculating means,
The object detection apparatus according to claim 2, further comprising a shift vector prediction unit that predicts an approximate value of the shift vector Δq to be calculated next time.
上昇変調区間では時間に対して周波数を増加させ、下降変調区間では時間に対して周波数を減少させる周期関数に従って周波数変調された送信信号の電磁波を放射し、その反射波を受信して得られる受信信号とその受信時刻における前記送信信号とを混合することによって、ビート信号を生成して物体を検出する、FMCWレーダを有する物体検知装置において、
前記電磁波の放射方位を示す方位角θと、各方位における前記ビート信号のビート周波数fとを引数とし、そのビート信号のスペクトル強度Iを関数値とする二次元配列データI(f,θ)であるレーダ画像を、前記上昇変調区間における上昇区間レーダ画像と、前記下降変調区間における下降区間レーダ画像とに分けてそれぞれ生成するレーダ画像生成手段と、
前記上昇区間レーダ画像と前記下降区間レーダ画像との間の、前記引数の2次元定義域全体としての相互相関を最大にする位置関係を求める相互相関演算手段と、
前記相互相関が最大となる前記位置関係で、前記上昇区間レーダ画像と前記下降区間レーダ画像とを照合し、この時の相関値が所定の閾値未満になり、かつ前記スペクトル強度Iが所定の閾値以上になる部分のみを移動物体として抽出する移動物体抽出手段と
を有する
ことを特徴とする物体検知装置。
In the rising modulation interval, the frequency is increased with respect to time, and in the falling modulation interval, the electromagnetic wave of the transmission signal frequency-modulated according to the periodic function that decreases the frequency with respect to time is radiated and received by receiving the reflected wave. In an object detection apparatus having an FMCW radar that detects an object by generating a beat signal by mixing a signal and the transmission signal at the reception time thereof,
Two-dimensional array data I (f, θ) having an azimuth angle θ indicating the radiating direction of the electromagnetic wave and a beat frequency f of the beat signal in each azimuth as arguments and a spectral intensity I of the beat signal as a function value A radar image generating means for generating a radar image by dividing the radar image into an ascending section radar image in the ascending modulation section and a descending section radar image in the descending modulation section;
A cross-correlation calculating means for obtaining a positional relationship between the ascending zone radar image and the descending zone radar image that maximizes the cross-correlation of the entire two-dimensional domain of the argument;
The ascending zone radar image and the descending zone radar image are collated with the positional relationship where the cross-correlation is maximized, the correlation value at this time is less than a predetermined threshold value, and the spectrum intensity I is a predetermined threshold value. An object detection apparatus comprising: a moving object extraction unit that extracts only the above portion as a moving object.
前記相互相関を最大にする前記位置関係を求める際の相関評価関数として、
対応する配列要素の値の差の絶対値の全空間に渡る総和(SAD)、または、
対応する配列要素の値の差の二乗値の全空間に渡る総和(SSD)
を用いる
ことを特徴とする請求項1乃至請求項4の何れか1項に記載の物体検知装置。
As a correlation evaluation function when obtaining the positional relationship that maximizes the cross-correlation,
The sum of the absolute values of the difference between the values of the corresponding array elements over the entire space (SAD), or
The sum of the squares of the difference between the values of the corresponding array elements over the entire space (SSD)
The object detection apparatus according to claim 1, wherein the object detection apparatus is used.
前記二次元配列データI(f,θ)は、
前記スペクトル強度Iを画素値とする画像形式データである
ことを特徴とする請求項1乃至請求項5の何れか1項に記載の物体検知装置。
The two-dimensional array data I (f, θ) is
6. The object detection apparatus according to claim 1, wherein the object detection apparatus is image format data having the spectral intensity I as a pixel value.
検出した物体の位置に基づいて障害物体のない路面領域を推定する走路推定手段
を有する
ことを特徴とする請求項1乃至請求項6の何れか1項に記載の物体検知装置。
The object detection apparatus according to claim 1, further comprising a travel path estimation unit configured to estimate a road surface area free from an obstacle based on the detected position of the object.
前記相互相関演算手段によって求められた前記位置関係を与える、前記引数のf軸方向の周波数シフト量Δfを用いて、当該物体検知装置を搭載している移動体の走行速度を推定する走行速度推定手段を有する
ことを特徴とする請求項1乃至請求項7の何れか1項に記載の物体検知装置。
A traveling speed estimation that estimates the traveling speed of the moving object equipped with the object detection device using the frequency shift amount Δf in the f-axis direction of the argument that gives the positional relationship obtained by the cross-correlation calculating means. The object detection apparatus according to claim 1, further comprising a unit.
JP2006114287A 2006-04-18 2006-04-18 Object detection device Expired - Fee Related JP4407665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006114287A JP4407665B2 (en) 2006-04-18 2006-04-18 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006114287A JP4407665B2 (en) 2006-04-18 2006-04-18 Object detection device

Publications (2)

Publication Number Publication Date
JP2007285912A true JP2007285912A (en) 2007-11-01
JP4407665B2 JP4407665B2 (en) 2010-02-03

Family

ID=38757820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006114287A Expired - Fee Related JP4407665B2 (en) 2006-04-18 2006-04-18 Object detection device

Country Status (1)

Country Link
JP (1) JP4407665B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152787A (en) * 2008-12-26 2010-07-08 Fujitsu Ltd Environment map creation program, environment map creation method, and mobile robot
US9500741B2 (en) 2014-01-15 2016-11-22 Panasonic Corporation Radar apparatus
JP2017203750A (en) * 2016-05-13 2017-11-16 パナソニックIpマネジメント株式会社 Radio wave sensor and facility apparatus equipped with radio wave sensor
CN107490793A (en) * 2016-06-13 2017-12-19 松下知识产权经营株式会社 Radar installations and detection method
WO2018025421A1 (en) * 2016-08-05 2018-02-08 日本電気株式会社 Object detection apparatus and object detection method
US9958541B2 (en) 2013-09-12 2018-05-01 Panasonic Corporation Radar device, vehicle, and moving object speed detection method
WO2018147025A1 (en) * 2017-02-10 2018-08-16 日本電気株式会社 Object detection device, object detection method and computer-readable recording medium
CN110579770A (en) * 2018-06-11 2019-12-17 赫克斯冈技术中心 dual beam FMCW distance measurement method to compensate for velocity dependent distance measurement errors

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63118678A (en) * 1986-11-06 1988-05-23 Japan Radio Co Ltd Road information detector
JPH11211811A (en) * 1998-01-26 1999-08-06 Honda Motor Co Ltd Radar device
JP2000081480A (en) * 1998-09-07 2000-03-21 Denso Corp Fmcw radar, storage medium, and vehicle control device
JP2002190027A (en) * 2000-12-21 2002-07-05 Nec Corp System and method for measuring speed by image recognition
JP2003202374A (en) * 2002-01-07 2003-07-18 Murata Mfg Co Ltd Radar

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63118678A (en) * 1986-11-06 1988-05-23 Japan Radio Co Ltd Road information detector
JPH11211811A (en) * 1998-01-26 1999-08-06 Honda Motor Co Ltd Radar device
JP2000081480A (en) * 1998-09-07 2000-03-21 Denso Corp Fmcw radar, storage medium, and vehicle control device
JP2002190027A (en) * 2000-12-21 2002-07-05 Nec Corp System and method for measuring speed by image recognition
JP2003202374A (en) * 2002-01-07 2003-07-18 Murata Mfg Co Ltd Radar

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152787A (en) * 2008-12-26 2010-07-08 Fujitsu Ltd Environment map creation program, environment map creation method, and mobile robot
US9958541B2 (en) 2013-09-12 2018-05-01 Panasonic Corporation Radar device, vehicle, and moving object speed detection method
US9500741B2 (en) 2014-01-15 2016-11-22 Panasonic Corporation Radar apparatus
JP2017203750A (en) * 2016-05-13 2017-11-16 パナソニックIpマネジメント株式会社 Radio wave sensor and facility apparatus equipped with radio wave sensor
CN107490793A (en) * 2016-06-13 2017-12-19 松下知识产权经营株式会社 Radar installations and detection method
WO2018025421A1 (en) * 2016-08-05 2018-02-08 日本電気株式会社 Object detection apparatus and object detection method
JPWO2018025421A1 (en) * 2016-08-05 2019-05-23 日本電気株式会社 Object detection apparatus and object detection method
WO2018147025A1 (en) * 2017-02-10 2018-08-16 日本電気株式会社 Object detection device, object detection method and computer-readable recording medium
JPWO2018147025A1 (en) * 2017-02-10 2019-11-21 日本電気株式会社 Object detection apparatus, object detection method, and program
JP7001069B2 (en) 2017-02-10 2022-01-19 日本電気株式会社 Knowledge generator for inference, knowledge generation method for inference, and program
US11313960B2 (en) 2017-02-10 2022-04-26 Nec Corporation Apparatus, method, and computer-readable medium to generate an object image using correlation matrices
CN110579770A (en) * 2018-06-11 2019-12-17 赫克斯冈技术中心 dual beam FMCW distance measurement method to compensate for velocity dependent distance measurement errors

Also Published As

Publication number Publication date
JP4407665B2 (en) 2010-02-03

Similar Documents

Publication Publication Date Title
JP4407665B2 (en) Object detection device
JP7394582B2 (en) Apparatus and method for processing radar data
JP5972402B2 (en) Radar equipment
US9575170B2 (en) Radar device and target height calculation method
JP5091651B2 (en) Radar apparatus and target azimuth measurement method
JP5407272B2 (en) Radar equipment
US10234541B2 (en) FMCW radar device
JP6004694B2 (en) Radar apparatus and target detection method
CN111656217A (en) System and method for virtual aperture radar tracking
JP2009041981A (en) Object detection system and vehicle equipped with object detection system
JP6993136B2 (en) Radar device and target detection method
EP2834665A1 (en) Phase monopulse radar system and target detecting method
JP2007232410A (en) Apparatus and method for detecting target
CN112912759A (en) Object tracking device
JP2002071793A (en) Radar device
US20220236398A1 (en) Object tracking apparatus
JP4863679B2 (en) Position measuring device
JP2010237087A (en) Radar apparatus and method for measuring radio wave arrival direction using the same
JP5677275B2 (en) Radar device and vehicle
WO2021074301A1 (en) Method for estimating an intrinsic speed of a vehicle
JP6753523B2 (en) Object detection device, object detection method, and program
JP2008039718A (en) Radar device and arrival direction estimator
JP6610894B2 (en) Target detection method and radar apparatus
JP7274271B2 (en) Radar device and target object discrimination method
JP7472879B2 (en) Vehicle radar device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091020

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091102

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131120

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees