WO2018056441A1 - 軸ずれ推定装置 - Google Patents

軸ずれ推定装置 Download PDF

Info

Publication number
WO2018056441A1
WO2018056441A1 PCT/JP2017/034553 JP2017034553W WO2018056441A1 WO 2018056441 A1 WO2018056441 A1 WO 2018056441A1 JP 2017034553 W JP2017034553 W JP 2017034553W WO 2018056441 A1 WO2018056441 A1 WO 2018056441A1
Authority
WO
WIPO (PCT)
Prior art keywords
reflection point
axis deviation
unit
stationary
reflection
Prior art date
Application number
PCT/JP2017/034553
Other languages
English (en)
French (fr)
Inventor
光利 守永
卓也 ▲高▼山
千晴 山野
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to CN201780058543.0A priority Critical patent/CN109716157B/zh
Priority to DE112017004803.6T priority patent/DE112017004803T5/de
Priority to US16/335,820 priority patent/US11119190B2/en
Publication of WO2018056441A1 publication Critical patent/WO2018056441A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/403Antenna boresight in azimuth, i.e. in the horizontal plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating

Definitions

  • the present disclosure relates to a technique for estimating an axis misalignment angle of a radar device that detects the azimuth and relative speed of a target.
  • Japanese Patent Application Laid-Open No. 2004-228561 estimates a horizontal axis deviation angle of a radar apparatus based on a distribution of relative speeds and azimuth angles observed for a plurality of reflection points. Technology is disclosed.
  • Patent Document 1 cannot estimate the axial misalignment. Although it is conceivable to prepare a device for horizontal axis deviation and a device for vertical axis deviation, in this case, since the axis deviation of both axes is estimated separately, accurate estimation cannot be performed. .
  • An axis deviation estimation apparatus estimates an axis deviation angle of a radar apparatus mounted on a moving body.
  • the axis deviation estimation device includes an acquisition unit, a conversion unit, an extraction unit, an estimation unit, and a calculation unit.
  • the acquisition unit for each of the reflection points detected by the radar device, the horizontal angle and the vertical angle obtained with reference to the beam direction that is the direction along the central axis of the radar beam of the radar device, and the reflection point for the moving body
  • the reflection point information including the relative velocity of is acquired.
  • the conversion unit sets the distance to the reflection point to 1 for each of the reflection points, and sets the horizontal on a plane orthogonal to the beam direction obtained from the horizontal angle and the vertical angle. Convert to 3D coordinates representing distance and vertical distance, and distance in beam direction.
  • the extraction unit extracts a stationary reflection point estimated to be a stationary object from the reflection points.
  • the estimation unit uses the traveling direction vector representing the traveling direction of the moving body and the moving speed of the moving body as unknown parameters, and obtains the unknown parameters, the three-dimensional coordinates of the stationary reflection point converted by the conversion unit, and the acquisition unit.
  • the unknown parameter is estimated using a relational expression established between the relative speed of the static reflection point.
  • the calculation unit obtains an axis misalignment angle in the horizontal direction and the vertical direction based on the traveling direction vector among the unknown parameters estimated by the estimation unit.
  • the three-dimensional coordinates normalized with the distance to the reflection point set to 1 represent a unit vector (hereinafter referred to as the reflection point vector) representing the direction in which the reflection point exists.
  • the relational expression indicates that the magnitude of the relative velocity detected for the stationary reflection point changes from the magnitude of the moving speed of the moving body due to the difference between the reflection point vector and the traveling direction vector.
  • the unknown parameters can be estimated by solving the simultaneous equations generated by applying the three-dimensional coordinates and relative velocities of the detected static reflection points to this relational expression. It is possible to estimate the axial deviation angle in the direction at the same time.
  • a vehicle control system 1 shown in FIG. 1 includes a radar device 2, an in-vehicle sensor group 3, a signal processing unit 4, and a support execution unit 5.
  • the vehicle carrying the vehicle control system 1 is called own vehicle.
  • the vehicle width direction of the vehicle is referred to as a horizontal direction
  • the vehicle height direction of the vehicle is referred to as a vertical direction.
  • the radar apparatus 2 irradiates a radar wave within a predetermined angle range and receives the reflected wave, thereby generating reflection point information related to the reflection point reflecting the radar wave.
  • the radar device 2 may be a so-called millimeter wave radar that uses an electromagnetic wave in the millimeter wave band as a radar wave, a laser radar that uses laser light as a radar wave, or a sound wave as a radar wave.
  • the sonar may be used.
  • the antenna unit that transmits and receives radar waves is configured to detect the arrival direction of the reflected wave in both the horizontal direction and the vertical direction.
  • the radar device 2 is mounted so that the beam direction, which is the direction along the central axis direction of the radar beam to be irradiated, coincides with the traveling direction of the own vehicle.
  • the radar apparatus 2 is used for detecting various targets existing in front of the host vehicle.
  • the reflection point information generated by the radar apparatus 2 includes at least a horizontal angle and a vertical angle at which the reflection point exists, and a relative speed with respect to the reflection point. The horizontal angle and the vertical angle are obtained with reference to the beam direction.
  • the in-vehicle sensor group 3 is a plurality of sensors mounted on the vehicle in order to detect the state of the vehicle.
  • the sensors constituting the in-vehicle sensor group 3 include at least a vehicle speed sensor that detects the vehicle speed based on the rotation of the wheels.
  • the signal processing unit 4 includes a microcomputer having a CPU 41 and a semiconductor memory (hereinafter, memory 42) such as a RAM or a ROM. Each function of the signal processing unit 4 is realized by the CPU 41 executing a program stored in a non-transitional tangible recording medium.
  • the memory 42 corresponds to a non-transitional tangible recording medium that stores a program. Also, by executing this program, a method corresponding to the program is executed.
  • the signal processing unit 4 may include one microcomputer or a plurality of microcomputers. The method for realizing each function of the signal processing unit 4 is not limited to software, and a part or all of the functions may be realized by using one or a plurality of hardware. For example, when the above function is realized by an electronic circuit that is hardware, the electronic circuit may be realized by a digital circuit, an analog circuit, or a combination thereof.
  • the signal processing unit 4 executes at least a target recognition process and an axis deviation estimation process.
  • the target recognition processing is based on the reflection point information obtained from the radar device 2 and each information obtained from the in-vehicle sensor group 3, the lane in which the vehicle travels, the preceding vehicle that travels in the same lane as the vehicle, At least one of other vehicles and obstacles is detected.
  • the processing result in the target recognition process is provided to the support execution unit 5 and the like.
  • the axis deviation estimation process detects an axis deviation angle in the beam direction of the radar apparatus 2 with respect to the traveling direction of the vehicle. Details of the axis deviation estimation process will be described later.
  • the signal processing unit 4 that executes the axis deviation estimation process corresponds to an axis deviation estimation device.
  • the support execution unit 5 controls various in-vehicle devices based on the processing result in the target recognition process executed by the signal processing unit 4 and executes predetermined driving support.
  • the in-vehicle devices to be controlled include monitors that display various images, and acoustic devices that output alarm sounds and guidance sounds.
  • the on-vehicle equipment to be controlled may include a control device that controls at least one of the internal combustion engine, the power train mechanism, and the brake mechanism of the host vehicle.
  • the signal processing unit 4 acquires the reflection point information from the radar device 2 and the own vehicle speed Cm from the in-vehicle sensor group 3 in S110.
  • the reflection point specified from the reflection point information is referred to as an acquired reflection point.
  • the signal processing unit 4 performs coordinate conversion for each of the acquired reflection points based on the reflection point information acquired in S110. Specifically, as shown in FIG. 3, the signal processing unit 4 uses the three-dimensional coordinates (1) to (3) as the horizontal angle included in the reflection point information as Hor and the vertical angle as Ver. u, v, w).
  • u, v, w represent a horizontal distance u and a vertical distance v on a plane orthogonal to the beam direction, and a distance w in the beam direction, where the distance to the reflection point is 1, and the radar. It can be said that it is a unit vector (hereinafter referred to as a reflection point vector) representing a direction in which a reflection point exists when viewed from the apparatus 2.
  • w is the relative speed in the direction indicated by the reflection point vector, which is actually detected by the radar device 2, where the relative speed in the beam direction when the host vehicle and the reflection point are moving in the same direction is 1.
  • w is also referred to as a Doppler attenuation rate.
  • the signal processing unit 4 extracts a stationary reflection point derived from a stationary object from the acquired reflection points. Specifically, the signal processing unit 4 uses the host vehicle speed Cm acquired in S110, sets the relative speed included in the reflection point information to q, and sets a predetermined threshold value as ⁇ , and the acquired reflection satisfying the expression (4). A point is extracted as a static reflection point. That is, the acquired reflection point where the absolute value of the sum of the ratio of the host vehicle speed Cm to the relative speed q and the Doppler attenuation rate w is smaller than the threshold ⁇ is the stationary reflection point.
  • K be the number of static reflection points extracted at this time.
  • the reflection point where the left side of equation (4) is 0 is considered to be a static reflection point.
  • the host vehicle speed Cm acquired from the in-vehicle sensor group 3 does not necessarily match the actual vehicle speed due to wheel slip or the like.
  • the relative speed q detected by the radar apparatus 2 also changes in accordance with the deviation. Therefore, even if it is a static reflection point, the left side of equation (4) may not always be zero. For this reason, the threshold value ⁇ is appropriately set in consideration of these influences.
  • the signal processing unit 4 determines whether or not the number K of extracted static reflection points is 3 or more. If K is 3 or more, the process proceeds to S150, and if K is less than 3, the process is temporarily terminated.
  • the signal processing unit 4 estimates a unit vector (hereinafter referred to as a traveling direction vector) ep representing an actual traveling direction of the own vehicle and an actual own vehicle speed Cp using the equation (5).
  • Cp is a scalar.
  • Q is a column vector in which the relative velocities q of the K stationary reflection points are arranged in order, and is expressed by equation (6).
  • E is a matrix in which the reflection point vectors of K stationary reflection points represented by row vectors are arranged in order in the column direction, and is represented by equation (7).
  • ep is a column vector in which the horizontal direction component up, the vertical direction component vp, and the beam direction component wp are arranged, and is expressed by Expression (8).
  • 1.
  • Equation (5) represents K simultaneous equations with the Cp component and the ep component as unknown parameters.
  • Cp and ep are obtained by solving these simultaneous equations.
  • ep is comprised by three components, another one can be derived
  • description of a specific method for solving simultaneous equations is omitted here. As an example, a least square method or the like can be used, but the present invention is not limited to this.
  • FIG. 4 is a graph showing a range where the reflection point vectors (u, v, w) exist (that is, on the hemisphere in the figure).
  • the scale is converted to represent the relative speed q.
  • the static reflection point is Plotted on the hemisphere. Solving the above simultaneous equations corresponds to finding the traveling direction vector and the vehicle speed so that all the static reflection points are plotted on the hemisphere.
  • the signal processing unit 4 uses the equations (9) and (10) based on the traveling direction vector ep estimated in S150, and the axis deviation angle ⁇ H of the beam direction of the radar apparatus 2 with respect to the traveling direction of the own vehicle and ⁇ V is calculated, and the process is temporarily terminated.
  • up is the horizontal direction component of the traveling direction vector ep
  • vp is the vertical direction component of the traveling direction vector ep.
  • ⁇ H is a horizontal axis offset angle
  • ⁇ V is a vertical axis offset angle.
  • the axis deviation angles ⁇ H and ⁇ V obtained in S160 are used, for example, for correcting the reflection point information acquired from the radar apparatus 2.
  • an alarm or the like may be generated via the support execution unit 5 when at least one of the axis deviation angles ⁇ H and ⁇ V exceeds a preset upper limit threshold.
  • the expression (4) is used for extracting the static reflection point, but the present disclosure is not limited to this. For example, you may make it extract using the information etc. which are obtained from an image, a map, etc.
  • a plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate
  • at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment.
  • all the aspects included in the technical idea specified from the wording described in the claims are embodiments of the present disclosure.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

取得部(S110)は、レーダ装置により検出された反射点のそれぞれについて、水平角度、垂直角度、及び相対速度を含んだ反射点情報を取得する。変換部(S120)は、反射点のそれぞれを三次元座標に変換する。抽出部(S130)は、反射点の中から静止反射点を抽出する。推定部(S150)は、移動体の進行方向ベクトルおよび移動速度を含む未知パラメータと、静止反射点の三次元座標と、静止反射点の相対速度との間に成立する関係式を用いて未知パラメータを推定する。演算部(S160)は、推定された未知パラメータから軸ずれ角度を求める。

Description

軸ずれ推定装置 関連出願の相互参照
 本国際出願は、2016年9月26日に日本国特許庁に出願された日本国特許出願第2016-186893号に基づく優先権を主張するものであり、日本国特許出願第2016-186893号の全内容を参照により本国際出願に援用する。
 本開示は、物標の方位や相対速度を検出するレーダ装置の軸ずれ角度を推定する技術に関する。
 車載レーダ装置では、何等かの原因で設置状態が変化することで、レーダビームの中心軸がずれるいわゆる軸ずれが生じると、検出誤差が大きくなり物体の位置等を誤検出するおそれがある。このような軸ずれを検出する方法の一つとして、下記特許文献1には、複数反射点について観測された相対速度および方位角度の分布に基づいてレーダ装置の水平方向の軸ずれ角度を推定する技術が開示されている。
特許第4665903号公報
 しかしながら、発明者の詳細な検討の結果、特許文献1に記載の従来装置では、垂直方向の軸ずれを推定することができないという課題が見出された。なお、水平軸ずれ用の装置と垂直軸ずれ用の装置とを用意することも考えられるが、この場合、両軸の軸ずれが個別に推定されるため、精度のよい推定を行なうことができない。
 本開示の1つの局面は、水平方向および垂直方向の軸ずれ角の推定精度を向上させる技術を提供することが望ましい。
 本開示の1つの局面による軸ずれ推定装置は、移動体に搭載されたレーダ装置の軸ずれ角度を推定する。この軸ずれ推定装置は、取得部と、変換部と、抽出部と、推定部と、演算部とを備える。
 取得部は、レーダ装置により検出された反射点のそれぞれについて、レーダ装置のレーダビームの中心軸に沿った方向であるビーム方向を基準として求められた水平角度および垂直角度と、移動体に対する反射点の相対速度とを含んだ反射点情報を取得する。変換部は、取得部にて取得された反射点情報に基づき、反射点のそれぞれについて、反射点までの距離を1として、水平角度および垂直角度から求めたビーム方向に直交する平面上での水平距離および垂直距離、並びにビーム方向の距離を表す三次元座標に変換する。抽出部は、反射点の中から、静止物であると推定される静止反射点を抽出する。推定部は、移動体の進行方向を表す進行方向ベクトルおよび移動体の移動速度を未知パラメータとして、未知パラメータと、変換部により変換された静止反射点についての三次元座標と、取得部にて取得された静止反射点についての相対速度との間に成立する関係式を用いて未知パラメータを推定する。演算部は、推定部で推定された未知パラメータのうち進行方向ベクトルに基づいて、水平方向および垂直方向の軸ずれ角度を求める。
 つまり、反射点までの距離を1として正規化した三次元座標は、反射点が存在する方位を表す単位ベクトル(以下、反射点ベクトル)を表す。関係式は、その反射点ベクトルと進行方向ベクトルとが異なることによって、静止反射点について検出される相対速度の大きさが移動体の移動速度の大きさから変化することを示す。そして、この関係式に、検出された静止反射点についての三次元座標および相対速度を当てはめることで生成される連立方程式を解くことで、未知パラメータを推定することができ、ひいては、水平方向および垂直方向の軸ずれ角度を同時に推定することができる。
 なお、請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
車両制御システムの構成を示すブロック図である。 軸ずれ推定処理のフローチャートである。 レーダ装置のビーム方向と、レーダ装置を搭載する車両の移動方向と、レーダ装置によって検出される反射点が存在する方向との関係を示す説明図である。 反射点ベクトルが取り得る値、および静止反射点の観測値、三次元座標のw軸座標と反射点の相対速度の関係を示す説明図である。
 以下、図面を参照しながら、本開示の実施形態を説明する。
 [1.構成]
 図1に示す車両制御システム1は、レーダ装置2と、車載センサ群3と、信号処理部4と、支援実行部5とを備える。以下では、車両制御システム1を搭載する車両を自車という。また、車両の車幅方向を水平方向、車両の車高方向を垂直方向という。
 レーダ装置2は、所定角度範囲内にレーダ波を照射し、その反射波を受信することで、レーダ波を反射した反射点に関する反射点情報を生成する。なお、レーダ装置2は、レーダ波としてミリ波帯の電磁波を使用するいわゆるミリ波レーダであってもよいし、レーダ波としてレーザー光を用いるレーザレーダであってもよいし、レーダ波として音波を用いるソナーであってもよい。いずれにしても、レーダ波を送受信するアンテナ部は、水平方向および垂直方向のいずれについても反射波の到来方向を検出できるように構成されている。
 レーダ装置2は、照射するレーダビームの中心軸方向に沿った方向であるビーム方向が、自車の進行方向と一致するように取り付けられる。レーダ装置2は、自車の前方に存在する各種物標を検出するために用いられる。また、レーダ装置2が生成する反射点情報には、反射点が存在する水平方向の角度および垂直方向の角度、反射点との相対速度が少なくとも含まれている。なお、水平方向の角度および垂直方向の角度は、ビーム方向を基準として求められる。
 車載センサ群3は、車両の状態等を検出するために車両に搭載される複数のセンサである。ここでは、車載センサ群3を構成するセンサには、車輪の回転に基づいて車速を検出する車速センサが少なくとも含まれる。
 信号処理部4は、CPU41と、RAMまたはROM等の半導体メモリ(以下、メモリ42)と、を有するマイクロコンピュータを備える。信号処理部4の各機能は、CPU41が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ42が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、信号処理部4は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。また、信号処理部4が有する各機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路はデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
 信号処理部4は、物標認識処理および軸ずれ推定処理が少なくとも実行する。このうち、物標認識処理は、レーダ装置2から得られる反射点情報及び車載センサ群3から得られる各情報に基づいて、自車が走行する車線、自車と同一車線を走行する先行車両、その他の車両、及び障害物等のうち少なくとも一つを検出する。この物標認識処理での処理結果は、支援実行部5等に提供される。一方、軸ずれ推定処理は、車両の進行方向に対するレーダ装置2のビーム方向の軸ずれ角度を検出する。軸ずれ推定処理の詳細については後述する。なお、この軸ずれ推定処理を実行する信号処理部4が、軸ずれ推定装置に相当する。
 支援実行部5は、信号処理部4が実行する物標認識処理での処理結果に基づき、様々な車載機器を制御して、所定の運転支援を実行する。制御対象となる車載機器には、様々な画像を表示するモニタ、警報音及び案内音声を出力する音響機器が含まれる。また、制御対象となる車載機器には、自車の内燃機関、パワートレイン機構、及びブレーキ機構のうち少なくとも一つを制御する制御装置が含まれていてもよい。
 [2.処理]
 次に、信号処理部4が実行する軸ずれ推定処理について、図2のフローチャートを用いて説明する。本処理は、レーダ波を送受信する測定サイクル毎に起動される。
 信号処理部4は、本処理が起動されると、S110にて、レーダ装置2から反射点情報を取得すると共に、車載センサ群3から自車速Cmを取得する。以下では、反射点情報から特定される反射点を、取得反射点という。
 信号処理部4は、S120では、S110にて取得した反射点情報に基づき、取得反射点のそれぞれについて座標変換を実行する。具体的には、信号処理部4は、図3に示すように、反射点情報に含まれる水平角度をHor、垂直角度をVerとして、(1)~(3)式を用いて三次元座標(u,v,w)を求める。
Figure JPOXMLDOC01-appb-M000001
 この三次元座標(u,v,w)は、反射点までの距離を1として、ビーム方向に直交する平面上での水平距離uおよび垂直距離v、ビーム方向の距離wを表しており、レーダ装置2からみて反射点が存在する方向を表す単位ベクトル(以下、反射点ベクトル)と言える。特に、wは、自車と反射点とが同じ方向に移動している場合のビーム方向の相対速度を1として、レーダ装置2にて実際に検出される、反射点ベクトルが示す方向の相対速度の大きさを表している。以下では、wをドップラ減衰率ともいう。
 信号処理部4は、S130では、取得反射点のうち、静止物に由来する静止反射点を抽出する。具体的には、信号処理部4は、S110にて取得した自車速Cmを用い、反射点情報に含まれる相対速度をq、予め設定された閾値をεとして、(4)式を満たす取得反射点を静止反射点として抽出する。即ち、相対速度qに対する自車速Cmの比とドップラ減衰率wとの加算値の絶対値が閾値εより小さくなる取得反射点が静止反射点となる。このとき抽出された静止反射点の個数をKとする。
Figure JPOXMLDOC01-appb-M000002
 つまり、静止反射点の反射点ベクトル(u,v,w)が示す方向とビーム方向(0,0,1)とが一致している場合、即ち、w=1である場合は、その自車速Cmと反射点の相対速度qは同じ大きさとなり、かつ相対速度qの向きは自車速Cmとは反対であるため、q/Cm=-1となる。また、静止反射点の反射点ベクトルが示す方向とビーム方向とが不一致である場合、即ち、w≠1である場合、qはドップラ減衰率wに応じた割合で減少するため、q/Cm=-wとなる。
 つまり、いずれの場合も、(4)式の左辺が0となる反射点は静止反射点であると考えられる。但し、車載センサ群3から取得される自車速Cmは、車輪のスリップ等によって実際の車速とは必ずしも一致しない。また、ビーム方向と自車の進行方向とがずれているときには、そのずれに応じてレーダ装置2にて検出される相対速度qも変化する。従って、静止反射点であったとしても、(4)式の左辺は必ずしも0になるとは限らない場合がある。このため、閾値εは、これらの影響を考慮して適宜設定されたものが用いられる。
 信号処理部4は、S140では、静止反射点の抽出個数Kが3以上であるか否かを判断する。Kが3以上であればS150に移行し、Kが3より小さければ、そのまま本処理を一旦終了する。
 信号処理部4は、S150では、自車の実際の進行方向を表す単位ベクトル(以下、進行方向ベクトル)ep、および実際の自車速Cpを、(5)式を用いて推定する。なお、Cpはスカラーである。Qは、K個の静止反射点の相対速度qを順番に並べた列ベクトルであり、(6)式で表される。Eは、行ベクトルで表されたK個の静止反射点の反射点ベクトルを列方向に順番に並べた行列であり、(7)式で表される。epは、水平方向成分up、垂直方向成分vp、ビーム方向成分wpを並べた列ベクトルであり、(8)式で表される。但し、|ep|=1である。
Figure JPOXMLDOC01-appb-M000003
 つまり、(5)式は、Cpの成分およびepの成分を未知パラメータとしたK個の連立方程式を表す。この連立方程式を解くことでCpおよびepが求められる。なお、epは3つの成分で構成されるが、いずれか二つから他の一つを導出することができる。このため、実際に求めるべき未知パラメータの数は、Cpを含めて合計3個である。従って、(5)式を解くためには、3個以上の静止反射点が必要となる。また、連立方程式の具体的な解法について、ここでは説明を省略する。一例として、最小2乗法等を用いることができるが、これに限定されるものではない。
 ここで図4は、反射点ベクトル(u,v,w)が存在する範囲(即ち、図中の半球面上)を示すグラフである。但し、w軸については、相対速度qを表すようにスケールが変換されている。具体的には、自車速Cmがw=1となるように変換されている。そして、図4が示す座標系に静止反射点のu,v,qをプロットした場合、レーダ装置2に軸ずれがなく、ビーム方向と進行方向とが一致していれば、静止反射点は、半球上にプロットされる。上記連立方程式を解くことは、全ての静止反射点が半球上にプロットされるような、進行方向ベクトルおよび自車速を求めることに相当する。
 信号処理部4は、S160では、S150にて推定された進行方向ベクトルepに基づき(9)(10)式を用いて、自車の進行方向に対するレーダ装置2のビーム方向の軸ずれ角度ΔHおよびΔVを算出して、本処理を一旦終了する。なお、upは進行方向ベクトルepの水平方向成分であり、vpは進行方向ベクトルepの垂直方向成分である。また、ΔHは水平方向の軸ずれ角度であり、ΔVは垂直方向の軸ずれ角度である。
Figure JPOXMLDOC01-appb-M000004
 なお、S160にて求められた軸ずれ角度ΔHおよびΔVは、例えば、レーダ装置2から取得する反射点情報の補正に用いられる。また、軸ずれ角度ΔHおよびΔVの少なくとも一方が、予め設定された上限閾値を超えた場合に、支援実行部5を介して警報などを発生させるようにしてもよい。
 [3.効果]
 以上詳述した本実施形態によれば、以下の効果を奏する。
 (1a)本実施形態によれば、水平方向および垂直方向の軸ずれ角度ΔHおよびΔVを同時に推定することができるため、推定精度を向上させることができる。
 (1b)本実施形態によれば、(4)式を用いて静止反射点を抽出しているため、静止反射点の抽出精度を向上させることができ、ひいては、軸ずれ角度ΔHおよびΔVの推定精度を更に向上させることができる。
 [4.他の実施形態]
 以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
 (3a)上記実施形態では、静止反射点の抽出に(4)式を用いているが、本開示はこれに限定されるものではない。例えば、画像や地図等から得られる情報等を利用して抽出されるようにしてもよい。
 (3b)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
 (3c)上述した軸ずれ推定装置の他、当該軸ずれ推定装置を構成要素とするシステム、当該軸ずれ推定装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、軸ずれ推定方法など、種々の形態で本開示を実現することもできる。

Claims (4)

  1.  移動体に搭載されたレーダ装置の軸ずれ角度を推定する軸ずれ推定装置であって、
     前記レーダ装置により検出された反射点のそれぞれについて、前記レーダ装置のレーダビームの中心軸に沿った方向であるビーム方向を基準として求められた水平角度および垂直角度と、前記移動体に対する前記反射点の相対速度とを含んだ反射点情報を取得するように構成された取得部(4:S110)と、
     前記取得部にて取得された前記反射点情報に基づき、前記反射点のそれぞれについて、前記反射点までの距離を1として前記水平角度および前記垂直角度から求めた前記ビーム方向に直交する平面上での水平距離および垂直距離、並びに前記ビーム方向の距離を表す三次元座標に変換するように構成された変換部(4:S120)と、
     前記反射点の中から、静止物であると推定される静止反射点を抽出するように構成された抽出部(4:S130)と、
     前記移動体の進行方向を表す進行方向ベクトルおよび前記移動体の移動速度を未知パラメータとして、前記未知パラメータと、前記変換部により変換された前記静止反射点についての前記三次元座標と、前記取得部にて取得された前記静止反射点についての相対速度との間に成立する関係式を用いて前記未知パラメータを推定するように構成された推定部(4:S150)と、
     前記推定部で推定された前記未知パラメータのうち前記進行方向ベクトルに基づいて、水平方向および垂直方向の軸ずれ角度を求めるように構成された演算部(4:S160)と、
     を備える軸ずれ推定装置。
  2.  請求項1に記載の軸ずれ推定装置であって、
     前記抽出部は、前記変換部によって変換された前記ビーム方向の距離をドップラ減衰率として、前記相対速度に対する前記移動体の移動速度の比と前記ドップラ減衰率との加算値の絶対値が予め設定された閾値より小さくなる前記反射点を、前記静止反射点として抽出するように構成された、
     軸ずれ推定装置。
  3.  請求項1または請求項2に記載の軸ずれ推定装置であって、
     前記推定部は、前記抽出部にて前記静止反射点が三つ以上検出された場合に、前記未知パラメータの推定を行うように構成された、
     軸ずれ推定装置。
  4.  請求項1から請求項3のいずれか1項に記載の軸ずれ推定装置であって、
     前記演算部は、最小2乗法を用いて前記未知パラメータを推定するように構成された、
     軸ずれ推定装置。
PCT/JP2017/034553 2016-09-26 2017-09-25 軸ずれ推定装置 WO2018056441A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780058543.0A CN109716157B (zh) 2016-09-26 2017-09-25 轴偏移估计装置
DE112017004803.6T DE112017004803T5 (de) 2016-09-26 2017-09-25 Schätzvorrichtung für axiale Fehlausrichtung
US16/335,820 US11119190B2 (en) 2016-09-26 2017-09-25 Axial-misalignment estimating device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016186893A JP6622167B2 (ja) 2016-09-26 2016-09-26 軸ずれ推定装置
JP2016-186893 2016-09-26

Publications (1)

Publication Number Publication Date
WO2018056441A1 true WO2018056441A1 (ja) 2018-03-29

Family

ID=61690503

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/034553 WO2018056441A1 (ja) 2016-09-26 2017-09-25 軸ずれ推定装置

Country Status (5)

Country Link
US (1) US11119190B2 (ja)
JP (1) JP6622167B2 (ja)
CN (1) CN109716157B (ja)
DE (1) DE112017004803T5 (ja)
WO (1) WO2018056441A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211338A (ja) * 2018-06-05 2019-12-12 株式会社Soken 位置検出装置
WO2020230755A1 (ja) * 2019-05-15 2020-11-19 株式会社デンソー 軸ずれ推定装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7221606B2 (ja) * 2018-07-30 2023-02-14 株式会社デンソーテン レーダ装置および軸ずれ検出方法
US11320530B2 (en) * 2018-11-26 2022-05-03 Electronics And Telecommunications Research Institute Method and apparatus for removing motion artifact of unfixed radar
JP7339114B2 (ja) * 2019-10-09 2023-09-05 株式会社Soken 軸ずれ推定装置
JP7252111B2 (ja) * 2019-10-09 2023-04-04 株式会社Soken 推定装置
JP7252110B2 (ja) * 2019-10-09 2023-04-04 株式会社Soken 軸ずれ推定装置
US11454701B2 (en) * 2020-01-13 2022-09-27 Pony Ai Inc. Real-time and dynamic calibration of active sensors with angle-resolved doppler information for vehicles
US11686836B2 (en) * 2020-01-13 2023-06-27 Pony Ai Inc. Real-time and dynamic localization using active doppler sensing systems for vehicles
JP7477400B2 (ja) 2020-08-24 2024-05-01 株式会社Soken 軸ずれ推定装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09236659A (ja) * 1995-12-27 1997-09-09 Denso Corp 車両用障害物検出装置の中心軸偏向量算出装置,中心軸偏向量補正装置,および車間制御装置
JP2003535346A (ja) * 2000-05-31 2003-11-25 ローク マナー リサーチ リミテッド 自動車用レーダーシステム
JP2007003395A (ja) * 2005-06-24 2007-01-11 Mitsubishi Electric Corp 軸ずれ角推定装置および軸ずれ角推定方法
JP2011064624A (ja) * 2009-09-18 2011-03-31 Mitsubishi Electric Corp 車載用レーダ装置
US20130218398A1 (en) * 2012-02-22 2013-08-22 GM Global Technology Operations LLC Method for determining object sensor misalignment
WO2014125981A1 (ja) * 2013-02-12 2014-08-21 株式会社デンソー レーダセンサ取付角度を認識可能な車載レーダ装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3140961B2 (ja) * 1996-04-12 2001-03-05 三菱電機株式会社 車両の周辺監視装置
DE19833065B4 (de) * 1997-07-22 2010-04-15 DENSO CORPORATION, Kariya-shi Winkelverschiebungsbestimmungsvorrichtung zum Bestimmen der Winkelverschiebung der Radarzentralachse zur Verwendung in einem Erfassungssystem für sich selbstbewegende Hindernisse
US5964822A (en) * 1997-08-27 1999-10-12 Delco Electronics Corp. Automatic sensor azimuth alignment
US5977906A (en) * 1998-09-24 1999-11-02 Eaton Vorad Technologies, L.L.C. Method and apparatus for calibrating azimuth boresight in a radar system
DE10019182A1 (de) * 2000-04-17 2001-10-25 Bosch Gmbh Robert Verfahren und Vorrichtung zum Ermitteln einer Fehlausrichtung der Strahlungscharakteristik eines Sensors zur Geschwindigkeits- und Abstandsregelung eines Fahrzeugs
JP4740449B2 (ja) * 2000-12-27 2011-08-03 富士通テン株式会社 車載用レーダの上下軸ずれ検出装置
JP4698087B2 (ja) * 2001-08-15 2011-06-08 富士通テン株式会社 レーダの水平方向軸ずれ発生検出装置、軸ずれ量決定装置、および軸ずれ補正装置
US6771210B2 (en) * 2002-10-08 2004-08-03 Visteon Global Technologies, Inc. Sensor alignment method and system
JP3730956B2 (ja) * 2002-12-11 2006-01-05 本田技研工業株式会社 移動体用送受信機の軸調整装置
JP4232570B2 (ja) * 2003-07-31 2009-03-04 株式会社デンソー 車両用レーダ装置
JP4895484B2 (ja) * 2004-06-28 2012-03-14 富士通テン株式会社 車載用レーダ装置の軸ずれ量演算方法及び車載用レーダ軸ずれ判定方法
CN101006359A (zh) * 2004-11-12 2007-07-25 三菱电机株式会社 轴偏角推定方法及其装置
JP4265803B2 (ja) * 2005-11-22 2009-05-20 三菱電機株式会社 レーダシステム
US20070182623A1 (en) * 2006-02-03 2007-08-09 Shuqing Zeng Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
JP4890924B2 (ja) * 2006-04-27 2012-03-07 オムロンオートモーティブエレクトロニクス株式会社 レーダ装置
US7813851B2 (en) * 2007-02-21 2010-10-12 Autoliv Asp, Inc. Sensing misalignment detection and estimation system
US8400350B2 (en) * 2007-08-08 2013-03-19 Fujitsu Ten Limited Radar device and azimuth angle detection method
JP5339867B2 (ja) * 2008-11-27 2013-11-13 パナソニック株式会社 設置誤差推定装置および設置誤差推定方法
DE112008004069B4 (de) * 2008-12-18 2014-09-04 Toyota Jidosha Kabushiki Kaisha Radarsystem
JP5739701B2 (ja) * 2011-03-23 2015-06-24 富士通テン株式会社 レーダ装置用の演算装置、レーダ装置、レーダ装置用の演算方法およびプログラム
CN102221688B (zh) * 2011-03-24 2013-04-24 中国船舶重工集团公司第七○九研究所 一种雷达系统误差估计方法
GB2490094B (en) * 2011-03-29 2015-11-18 Jaguar Land Rover Ltd Monitoring apparatus and method
JP6009775B2 (ja) * 2012-02-13 2016-10-19 株式会社デンソー レーダ装置
KR20150034349A (ko) * 2013-09-26 2015-04-03 현대모비스 주식회사 차량용 탐지 센서 보정 장치 및 방법
JP6365251B2 (ja) * 2014-02-28 2018-08-01 パナソニック株式会社 レーダ装置
US10024955B2 (en) * 2014-03-28 2018-07-17 GM Global Technology Operations LLC System and method for determining of and compensating for misalignment of a sensor
US9903945B2 (en) * 2015-02-04 2018-02-27 GM Global Technology Operations LLC Vehicle motion estimation enhancement with radar data
JP6132867B2 (ja) 2015-03-27 2017-05-24 矢崎総業株式会社 コネクタ
JP6557896B2 (ja) * 2015-06-24 2019-08-14 パナソニック株式会社 レーダ軸ずれ量算出装置およびレーダ軸ずれ量算出方法
US10088553B2 (en) * 2016-03-14 2018-10-02 GM Global Technology Operations LLC Method of automatic sensor pose estimation
EP3239737B1 (en) * 2016-04-29 2018-11-28 Veoneer Sweden AB Misalignment detection for a vehicle radar sensor
JP6971161B2 (ja) * 2018-02-06 2021-11-24 ヴィオニア スウェーデン エービー 物標検出装置の製造方法、車両の製造方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09236659A (ja) * 1995-12-27 1997-09-09 Denso Corp 車両用障害物検出装置の中心軸偏向量算出装置,中心軸偏向量補正装置,および車間制御装置
JP2003535346A (ja) * 2000-05-31 2003-11-25 ローク マナー リサーチ リミテッド 自動車用レーダーシステム
JP2007003395A (ja) * 2005-06-24 2007-01-11 Mitsubishi Electric Corp 軸ずれ角推定装置および軸ずれ角推定方法
JP2011064624A (ja) * 2009-09-18 2011-03-31 Mitsubishi Electric Corp 車載用レーダ装置
US20130218398A1 (en) * 2012-02-22 2013-08-22 GM Global Technology Operations LLC Method for determining object sensor misalignment
WO2014125981A1 (ja) * 2013-02-12 2014-08-21 株式会社デンソー レーダセンサ取付角度を認識可能な車載レーダ装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211338A (ja) * 2018-06-05 2019-12-12 株式会社Soken 位置検出装置
JP7025285B2 (ja) 2018-06-05 2022-02-24 株式会社Soken 位置検出装置
WO2020230755A1 (ja) * 2019-05-15 2020-11-19 株式会社デンソー 軸ずれ推定装置
JP2020187022A (ja) * 2019-05-15 2020-11-19 株式会社Soken 軸ずれ推定装置
JP7193414B2 (ja) 2019-05-15 2022-12-20 株式会社Soken 軸ずれ推定装置

Also Published As

Publication number Publication date
DE112017004803T5 (de) 2019-09-05
JP2018054315A (ja) 2018-04-05
US20190219673A1 (en) 2019-07-18
CN109716157B (zh) 2022-11-11
JP6622167B2 (ja) 2019-12-18
US11119190B2 (en) 2021-09-14
CN109716157A (zh) 2019-05-03

Similar Documents

Publication Publication Date Title
WO2018056441A1 (ja) 軸ずれ推定装置
JP5152244B2 (ja) 追従対象車特定装置
CN109017801B (zh) 确定目标车辆偏航率的方法
WO2017057042A1 (ja) 信号処理装置、信号処理方法、プログラム、および、物体検出システム
EP3306429B1 (en) Position estimation device and position estimation method
US20180313940A1 (en) Calibration of laser and vision sensors
US10836388B2 (en) Vehicle control method and apparatus
US11300415B2 (en) Host vehicle position estimation device
JP2019526781A (ja) 車両環境検知システム用に向上された物体検出及び運動状態推定
WO2013133129A1 (ja) 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
KR102056147B1 (ko) 자율주행차량을 위한 거리 데이터와 3차원 스캔 데이터의 정합 방법 및 그 장치
KR102117313B1 (ko) 그래디언트 추정 장치, 그래디언트 추정 방법, 컴퓨터 프로그램 및 제어 시스템
US11783507B2 (en) Camera calibration apparatus and operating method
CN108844538B (zh) 一种基于视觉/惯导的无人机避障航点生成方法
US20220113139A1 (en) Object recognition device, object recognition method and program
WO2017057061A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
KR20200028648A (ko) 센서들에 대한 정렬 모델 조정 방법 및 그 방법을 수행하는 전자 장치
US10539659B2 (en) Apparatus for detecting axial misalignment
WO2021070916A1 (ja) 軸ずれ推定装置
JP5698618B2 (ja) 絶対速度推定装置
JP2009186353A (ja) 物体検出装置および物体検出方法
JP2017211307A (ja) 測定装置、測定方法およびプログラム
WO2020230314A1 (ja) 自己位置補正方法及び自己位置補正装置
KR101837845B1 (ko) 수중 표적 정보 획득 시스템 및 방법
JP2019202642A (ja) 車両用走行制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17853208

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17853208

Country of ref document: EP

Kind code of ref document: A1