JP2009288255A - Estimating device - Google Patents

Estimating device Download PDF

Info

Publication number
JP2009288255A
JP2009288255A JP2009210703A JP2009210703A JP2009288255A JP 2009288255 A JP2009288255 A JP 2009288255A JP 2009210703 A JP2009210703 A JP 2009210703A JP 2009210703 A JP2009210703 A JP 2009210703A JP 2009288255 A JP2009288255 A JP 2009288255A
Authority
JP
Japan
Prior art keywords
vehicle
line segment
probability
likelihood
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009210703A
Other languages
Japanese (ja)
Inventor
Takashi Ogawa
高志 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2009210703A priority Critical patent/JP2009288255A/en
Publication of JP2009288255A publication Critical patent/JP2009288255A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To accurately estimate shape and motion state of a preceding vehicle. <P>SOLUTION: The estimating device measures the position coordinates of a plurality of points of the preceding vehicle surface with a radar wave S110, and approximates the plurality of points by a single line and two lines S120, S1300. For each line, a prior probability where the line is a line for approximating the front, rear and side surfaces of the vehicle is calculated based on the determined line length and approximation error S1400. Further, at the same time, likelihood is calculated based on the information on the position, direction, speed, traveling direction and angular velocity of the preceding vehicle estimated in the past S1500. For each line, a posterior probability where the line is a line for approximating the front, rear and side surfaces of the vehicle is calculated based on the determined prior probability and likelihood by Bayes estimation S1600, and the size, position, and direction of the preceding vehicle are estimated S1700. The speed, traveling direction, and angular velocity of the vehicle are together estimated with an unscented Kalman filter based on the information S1800. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、前方に位置する車両の状態を推定する推定装置に関する。   The present invention relates to an estimation device that estimates the state of a vehicle located ahead.

従来、車両の状態を推定する装置としては、レーダ波を用いて、離れた位置にある車両の状態を推定するレーダ装置が知られており、この種のレーダ装置としては、例えば、直線道路上に設置され、レーダ波としてのミリ波を所定の範囲に向けて周期的に照射するものが知られている(例えば、特許文献1参照)。   Conventionally, as a device for estimating the state of a vehicle, a radar device that estimates the state of a vehicle at a distant position using a radar wave is known. As this type of radar device, for example, on a straight road Is installed and periodically irradiates a millimeter wave as a radar wave toward a predetermined range (see, for example, Patent Document 1).

このレーダ装置は、レーダ波が車両に反射して戻ってくる反射波を捉えて、反射波の受波結果に従い、車両の状態を推定する。具体的には、車両が直線運動していると仮定して、線形運動モデルに基づき設計されたカルマンフィルタを用いて、車両の速度や加速度を求め、車両の運動状態を予測する。このレーダ装置によれば、道路を走行する車両の現在位置を知ることができると共に、道路上の車両が運動していれば、車両の未来の運動状態を予測することができる。   This radar apparatus captures a reflected wave returned from a radar wave reflected by the vehicle, and estimates the state of the vehicle according to the reception result of the reflected wave. Specifically, assuming that the vehicle is moving linearly, the vehicle speed and acceleration are obtained using a Kalman filter designed based on a linear motion model, and the vehicle motion state is predicted. According to this radar apparatus, the current position of the vehicle traveling on the road can be known, and if the vehicle on the road is in motion, the future motion state of the vehicle can be predicted.

従って、このレーダ装置を用いれば、観測値と未来の予測値とを用いて、道路上に車両などが停止しているか否かの判断の精度や、車両速度の算出精度等を高めることができ、車両同士の衝突を予測して、これを回避するための処理を実行することができる。   Therefore, by using this radar device, it is possible to improve the accuracy of determining whether or not a vehicle or the like is stopped on the road, the accuracy of calculating the vehicle speed, etc., using the observed value and the predicted value in the future. A process for predicting a collision between vehicles and avoiding this can be executed.

特開2002−99986号公報JP 2002-99986 A

しかしながら、従来では、次のような二つの問題があった。
一つ目の問題は、前方に位置する車両の大きさや向きを正確に検出する技術がないため、前方に位置する車両の大きさや向きなどの情報を、衝突回避に必要十分な程度、得ることができないという問題である。車両の形状がわからなければ、正確に衝突を予測することは困難である。このため、従来技術では、レーダ装置の検出結果に基づいて、衝突回避のための車両制御を実行することに関し、精度的な限界があった。
Conventionally, however, there are the following two problems.
The first problem is that there is no technology to accurately detect the size and direction of the vehicle located in the front, so that information such as the size and direction of the vehicle located in the front is obtained to a degree necessary and sufficient for collision avoidance. It is a problem that cannot be done. If the shape of the vehicle is not known, it is difficult to accurately predict a collision. For this reason, in the prior art, there has been an accuracy limit regarding the execution of vehicle control for collision avoidance based on the detection result of the radar device.

二つ目の問題は、車両の旋回時の運動を予測する技術がないという問題である。つまり、従来技術では、車両の未来の状態を予測するに際し、車両が直線運動していると仮定して、線形運動モデルに基づき、カルマンフィルタにより車両運動を予測するので、車両が旋回運動している場合等には、その旋回運動を正確に捉えて、車両運動を予測することができないといった問題あった。   The second problem is that there is no technology for predicting the movement of the vehicle when turning. In other words, in the prior art, when predicting the future state of the vehicle, it is assumed that the vehicle is moving linearly, and the vehicle motion is predicted by the Kalman filter based on the linear motion model. In some cases, the vehicle motion cannot be predicted by accurately capturing the turning motion.

本発明は、こうした問題に鑑みなされたものであり、車両の状態を精度良く推定することが可能な推定装置を提供することを目的とする。   The present invention has been made in view of these problems, and an object of the present invention is to provide an estimation device that can accurately estimate the state of a vehicle.

かかる目的を達成するためになされた請求項1に記載の推定装置は、レーダ波を発射し、発射波が前方に位置する車両に反射して戻ってくる反射波を受波して、レーダ波を反射した車両表面の複数地点の位置座標を計測する測位手段を備え、この測位結果に従って、前方に位置する車両の運動状態を推定する推定装置であって、測位手段により計測された車両表面の複数地点の位置座標に基づき、推定手段により、車両の角速度を含む車両の運動状態を、所定の非線形運動モデルに従って推定する構成にされたものである。   The estimation apparatus according to claim 1, which has been made to achieve such an object, emits a radar wave, receives a reflected wave that is reflected back by a vehicle positioned in front of the emitted wave, and receives a radar wave. Positioning means for measuring the position coordinates of a plurality of points on the vehicle surface reflected from the vehicle, and according to the positioning result, an estimation device for estimating the motion state of the vehicle located in front of the vehicle surface, the position of the vehicle surface measured by the positioning means Based on the position coordinates of a plurality of points, the motion state of the vehicle including the angular velocity of the vehicle is estimated by the estimating means according to a predetermined nonlinear motion model.

従来では、線形運動モデルを用いて車両の運動状態を推定していたため、車両が旋回運動しているときには、車両の運動状態を正確に推定することができないといった問題があったが、本装置では、非線形運動モデルに基づいて、車両の角速度を含む車両の運動状態を推定するので、車両の旋回運動を正確に捉えることができる。従って、この推定装置は、車両の衝突回避に係る車両制御を行う際に、大変役立つ。   Conventionally, since the motion state of the vehicle was estimated using a linear motion model, there was a problem that the motion state of the vehicle could not be accurately estimated when the vehicle was turning, but with this device, Since the motion state of the vehicle including the angular velocity of the vehicle is estimated based on the nonlinear motion model, the turning motion of the vehicle can be accurately captured. Therefore, this estimation apparatus is very useful when performing vehicle control related to vehicle collision avoidance.

尚、推定手段は、上記車両の運動状態として、車両の角速度以外に、車両の位置、車両の向き、車両の速さ、及び、車両の進行方向の内、少なくとも一つを推定する構成にすることができる(請求項2)。このように、推定装置を構成すれば、車両の旋回運動を詳細に知ることができて、衝突回避に係る車両制御を行う際に、大変役立つ。   The estimating means is configured to estimate at least one of the position of the vehicle, the direction of the vehicle, the speed of the vehicle, and the traveling direction of the vehicle, in addition to the angular velocity of the vehicle, as the motion state of the vehicle. (Claim 2). Thus, if the estimation device is configured, the turning motion of the vehicle can be known in detail, which is very useful when performing vehicle control related to collision avoidance.

また、請求項3に記載の推定装置は、推定手段が、非線形運動モデルが採用されたカルマンフィルタを用いて、車両の状態を推定する構成にされたものである。カルマンフィルタを用いて、車両の運動状態を推定するようにすれば、観測誤差の影響を抑えて、高精度に車両の運動状態を推定することができるといった利点がある。   According to a third aspect of the present invention, there is provided an estimating apparatus in which the estimating means estimates the state of the vehicle using a Kalman filter employing a nonlinear motion model. If the vehicle motion state is estimated using the Kalman filter, there is an advantage that the motion state of the vehicle can be estimated with high accuracy while suppressing the influence of the observation error.

この他、請求項4に記載の推定装置は、カルマンフィルタが、アンセンテッドカルマンフィルタであることを特徴とするものである。アンセンテッドカルマンフィルタは、非線形運動の運動状態を推定するのに大変優れている。従って、アンセンテッドカルマンフィルタを用いて、車両の運動状態を推定するように推定装置を構成すれば、高精度に運動状態を推定することができる。   In addition, the estimation device according to claim 4 is characterized in that the Kalman filter is an unscented Kalman filter. The unscented Kalman filter is very good for estimating the motion state of nonlinear motion. Therefore, if the estimation device is configured to estimate the motion state of the vehicle using the unscented Kalman filter, the motion state can be estimated with high accuracy.

また、上記推定装置に採用する非線形運動モデルとしては、等速円運動モデルを挙げることができる(請求項5)。等速円運動モデルを採用してカルマンフィルタを設計し、これに基づいて、車両の運動状態を推定するように上記推定装置を構成すれば、簡単な運動モデルで、高精度に、車両の旋回運動の状態を推定することができる。   Moreover, as a nonlinear motion model employ | adopted as the said estimation apparatus, a constant velocity circular motion model can be mentioned (Claim 5). If the Kalman filter is designed by adopting a constant velocity circular motion model and the above estimation device is configured to estimate the motion state of the vehicle based on the Kalman filter, a simple motion model can be used to accurately turn the vehicle. Can be estimated.

また、請求項6に記載の推定装置は、前回推定した角速度がゼロである場合には、車両状態の推定に用いる運動モデルを、非線形運動モデルから所定の線形運動モデルに切り替えて、当該線形運動モデルに従い、車両の状態を推定するように構成されたものである。このように推定装置を構成すれば、旋回運動だけでなく、直進運動についての運動状態をも、正確に推定することができ、広範囲の車両運動を、高精度に推定することができる。   Further, when the previously estimated angular velocity is zero, the estimation device according to claim 6 switches the motion model used for estimating the vehicle state from the nonlinear motion model to a predetermined linear motion model, and performs the linear motion. According to the model, the vehicle state is estimated. By configuring the estimation device in this way, it is possible to accurately estimate not only the turning motion but also the motion state of the straight motion, and it is possible to estimate a wide range of vehicle motion with high accuracy.

推定装置1の構成を表すブロック図である。2 is a block diagram illustrating a configuration of an estimation device 1. FIG. CPU25aが実行する車両状態推定処理を表すフローチャートである。It is a flowchart showing the vehicle state estimation process which CPU25a performs. レーダ波による距離の測定原理及び位置座標の求め方を示した説明図である。It is explanatory drawing which showed the measuring principle of the distance by a radar wave, and the calculation method of a position coordinate. 反射点の分布についての具体例を表した説明図である。It is explanatory drawing showing the specific example about distribution of a reflective point. CPU25aが実行する二線分算出処理を表すフローチャートである。It is a flowchart showing the two-segment calculation process which CPU25a performs. 二線分算出処理の具体例を表す図である。It is a figure showing the specific example of a two-segment calculation process. 反射点に対する、単一線分及び二線分による近似の具体例を表す図である。It is a figure showing the specific example of the approximation by a single line segment and two line segments with respect to a reflective point. CPU25aが実行する事前確率算出処理を表すフローチャートである。It is a flowchart showing the prior probability calculation process which CPU25a performs. 事前確率算出のための関数データの具体例を表す図である。It is a figure showing the specific example of the function data for prior probability calculation. 尤度算出処理のフローチャートを表す図である。It is a figure showing the flowchart of likelihood calculation processing. 尤度算出のための関数データの具体例を表す図である。It is a figure showing the specific example of the function data for likelihood calculation. CPU25aが実行する個別尤度算出処理を表すフローチャートである。It is a flowchart showing the individual likelihood calculation process which CPU25a performs. CPU25aが実行する事後確率算出処理を表すフローチャートを表す図である。It is a figure showing the flowchart showing the posterior probability calculation process which CPU25a performs. CPU25aが実行する選択処理を表すフローチャートを表す図である。It is a figure showing the flowchart showing the selection process which CPU25a performs. カルマンフィルタを用いた演算の手法を表す説明図である。It is explanatory drawing showing the method of the calculation using a Kalman filter. 車両の中心点の位置座標の算出方法を示した説明図である。It is explanatory drawing which showed the calculation method of the position coordinate of the center point of a vehicle. CPU25aが実行する状態推定処理を表すフローチャートである。It is a flowchart showing the state estimation process which CPU25a performs.

以下、本発明の実施例について図面と共に説明する。図1は、本発明が適用された推定装置1の構成を表すブロック図であり、四輪自動車の前方部に搭載されている。
本実施例の推定装置1は、図1に示すように、レーザ光を発射するレーザダイオード11と、レーザダイオードから発射されたレーザ光を平行光線にするコリメータレンズ12と、レーザダイオード11を駆動させるレーザダイオード駆動回路13と、レーザダイオード11から発射されたレーザ光を反射するミラー15と、ミラー15を回転させるモータ17と、レーザ光を集光する集光レンズ19と、集光レンズ19によって集光されたレーザ光を受光して電気信号を発生するフォトダイオード21と、フォトダイオード21からの電気信号を増幅する増幅器22と、レーザダイオード駆動信号及び増幅器22から出力された信号を取得し、レーザダイオード11から発射されたレーザ光が反射してフォトダイオード21によって検出されるまでの時間を検出する検出回路23と、上述したレーザダイオード駆動回路13に対するレーザダイオード駆動信号及びモータ17を駆動させるためのモータ駆動信号を出力して、レーザ光の発射及びモータ17の回転を制御する共に、モータ17から入力されるモータ回転位置の情報及び検出回路23から入力されるレーザ光の飛行時間ΔTの情報に基づき、各種処理を実行する制御部25と、から構成されている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of an estimation apparatus 1 to which the present invention is applied, and is mounted on the front part of a four-wheeled vehicle.
As shown in FIG. 1, the estimation apparatus 1 of the present embodiment drives a laser diode 11 that emits laser light, a collimator lens 12 that collimates the laser light emitted from the laser diode, and the laser diode 11. The laser diode drive circuit 13, a mirror 15 that reflects the laser light emitted from the laser diode 11, a motor 17 that rotates the mirror 15, a condenser lens 19 that condenses the laser light, and a condenser lens 19 collect the laser light. A photodiode 21 that receives the emitted laser light and generates an electrical signal; an amplifier 22 that amplifies the electrical signal from the photodiode 21; a laser diode drive signal and a signal output from the amplifier 22; The laser light emitted from the diode 11 is reflected and detected by the photodiode 21. The detection circuit 23 for detecting the time until the laser beam is output, the laser diode drive signal for the laser diode drive circuit 13 and the motor drive signal for driving the motor 17 are output, and laser light is emitted and the motor 17 is rotated. The control unit 25 is configured to perform various processes based on the information on the motor rotation position input from the motor 17 and the information on the flight time ΔT of the laser beam input from the detection circuit 23.

レーザダイオード11は、前方車両を検知するためのレーダ波として、レーザ光を発射するための装置である。レーザ光は指向性が高いので、本装置によれば、高い空間分解能を得ることができる。また、コリメータレンズ12は、レーザダイオード11から発射され発散するレーザ光を、平行光線になるように、レーザ光を屈折させるものである。   The laser diode 11 is a device for emitting laser light as a radar wave for detecting a vehicle ahead. Since laser light has high directivity, according to the present apparatus, high spatial resolution can be obtained. The collimator lens 12 refracts the laser light emitted from the laser diode 11 so as to be a parallel light beam.

ミラー15は、光を反射するための六角形状の反射面を備えるポリゴンミラーとして構成され、モータ17は、CPU25aからのモータ駆動信号に従って、ミラー15を回転させる構成にされている。本実施例の推定装置1は、この構成により、コリメータレンズ12を通過してきたレーザ光を、任意の方向へ発射することができる。   The mirror 15 is configured as a polygon mirror having a hexagonal reflecting surface for reflecting light, and the motor 17 is configured to rotate the mirror 15 in accordance with a motor drive signal from the CPU 25a. With this configuration, the estimation apparatus 1 of the present embodiment can emit the laser light that has passed through the collimator lens 12 in an arbitrary direction.

また、制御部25は、CPU25a、ROM25b及びRAM25c等から構成され、CPU25aにて、ROM25bに記憶された各種プログラムを実行することにより、レーザダイオード11及びモータ17を制御すると共に、モータ回転位置の情報及びレーザ光の飛行時間ΔTの情報を基に、ROM25bに記憶されたプログラムによって、レーザ光を反射した物体の状態を推定する。   The control unit 25 includes a CPU 25a, a ROM 25b, a RAM 25c, and the like. The CPU 25a executes various programs stored in the ROM 25b, thereby controlling the laser diode 11 and the motor 17, and information on the motor rotation position. Based on the information on the flight time ΔT of the laser beam, the state of the object reflecting the laser beam is estimated by the program stored in the ROM 25b.

図2は、CPU25aが主体となって繰り返し実行する車両状態推定処理を表すフローチャートである。本装置では、レーザ光により検知された前方物体を四輪自動車とみなして以降の処理を行う。   FIG. 2 is a flowchart showing a vehicle state estimation process that is repeatedly executed mainly by the CPU 25a. In this apparatus, the forward object detected by the laser beam is regarded as a four-wheeled vehicle and the subsequent processing is performed.

当該車両状態推定処理を開始すると、CPU25aは、レーザ光を発射してレーザ光の反射点を測位し、その位置座標を求める(S110)。具体的には、レーザレーダ駆動回路13及びモータ17を駆動して、ミラー15を回転させながら、レーザダイオード11から断続的にパルス光を発射させる。このようなレーザレーダ駆動回路13及びモータ17の制御により、前方に位置する車両に向けて、水平方向に照射角度を変化させながら、レーザ光を発射する。   When the vehicle state estimation process is started, the CPU 25a emits laser light, positions the reflection point of the laser light, and obtains its position coordinates (S110). Specifically, the laser radar drive circuit 13 and the motor 17 are driven to rotate the mirror 15 and emit pulsed light intermittently from the laser diode 11. By controlling the laser radar drive circuit 13 and the motor 17 as described above, the laser beam is emitted toward the vehicle positioned ahead while changing the irradiation angle in the horizontal direction.

前方物体によって反射されたレーザ光は、集光レンズ19を通り、フォトダイオード21に集光される。そして、集光されたレーザ光は、フォトダイオード21によって電気信号に変換され、増幅器22によって増幅された後、検出回路23に送られる。   The laser light reflected by the front object passes through the condenser lens 19 and is condensed on the photodiode 21. The condensed laser light is converted into an electrical signal by the photodiode 21, amplified by the amplifier 22, and then sent to the detection circuit 23.

検出回路23は、CPU25aから出力されるレーザダイオード駆動回路13の駆動信号としてのレーザダイオード駆動信号を取得可能に構成されており、この駆動信号の入力タイミングと、反射光の受光タイミングとから、図3(a)に示すように、レーザ光の飛行時間ΔTとして、レーザ光の発光から受光までの時間(遅延時間:ΔT)を検出する。   The detection circuit 23 is configured to be able to acquire a laser diode drive signal as a drive signal of the laser diode drive circuit 13 output from the CPU 25a. From the input timing of this drive signal and the light reception timing of the reflected light, As shown in FIG. 3 (a), a time from laser light emission to light reception (delay time: ΔT) is detected as the flight time ΔT of the laser light.

CPU25aは、パルス光が発射される度、検出回路23から入力される遅延時間ΔTに基づき、レーザ光の速さvを用いて、反射点までの距離DをD=v・ΔT/2として求める。そして、算出した距離Dと、当該距離Dが計測される原因となったパルス光の発射角度Φとから、反射点の位置座標(x,y)として、(x,y)=(Dsinφ、Dcosφ)を求める。尚、ここで、用いるxy座標系は、車両に固定された推定装置1を基準とした相対座標系である。以下、この座標系を、「座標系A」と表現する。   The CPU 25a obtains the distance D to the reflection point as D = v · ΔT / 2 by using the speed v of the laser beam based on the delay time ΔT input from the detection circuit 23 every time pulse light is emitted. . Then, from the calculated distance D and the emission angle Φ of the pulsed light that causes the distance D to be measured, (x, y) = (D sin φ, D cos φ) as the position coordinates (x, y) of the reflection point. ) The xy coordinate system used here is a relative coordinate system based on the estimation device 1 fixed to the vehicle. Hereinafter, this coordinate system is expressed as “coordinate system A”.

パルス光の発射角度Φは、モータ回転位置から一意に求めることができる。ここでは、図3(b)に示すように、車両の前後方向の軸線上に、推定装置1が設置されているものとして、当該軸線から前方にy軸を設定し、y軸を基準とした角度をφとして定義し、反射点の位置座標(x,y)=(Dsinφ、Dcosφ)を求めている。   The emission angle Φ of the pulsed light can be uniquely obtained from the motor rotation position. Here, as shown in FIG. 3B, assuming that the estimation device 1 is installed on the longitudinal axis of the vehicle, the y-axis is set forward from the axis, and the y-axis is used as a reference. The angle is defined as φ, and the position coordinates (x, y) = (Dsinφ, Dcosφ) of the reflection point are obtained.

この測位によって位置座標(x,y)が得られる反射点の具体例を表したのが図4である。図4(a)は前方車両50が推定装置1に対して傾いている場合の反射点の分布を表す図であり、図4(b)は前方車両50の後面50aが推定装置1に対して正対している場合の反射点の分布を表す図である。尚、車両側面50bまたは前面50cが推定装置1に正対している場合にも、反射点の分布は、図4(b)に示すようになる。   FIG. 4 shows a specific example of the reflection point from which the position coordinates (x, y) can be obtained by this positioning. FIG. 4A is a diagram illustrating the distribution of reflection points when the front vehicle 50 is tilted with respect to the estimation device 1. FIG. 4B is a diagram illustrating the rear surface 50 a of the front vehicle 50 with respect to the estimation device 1. It is a figure showing distribution of the reflective point in the case of facing directly. Even when the vehicle side surface 50b or the front surface 50c faces the estimation device 1, the distribution of reflection points is as shown in FIG.

S110にて、前方物体表面の複数地点の位置座標を求めると、CPU25aは、次に、S110で得られた複数地点の位置座標(各反射点の位置座標)で表される前方物体の輪郭パターンを、最小二乗法を用いて、一本の直線でフィッティングする。そして、近似直線の端点を求めることで、上記前方物体の輪郭パターンを、単一の線分で近似する。以下では、この近似線分を、線分L1と呼ぶ。また、前方物体の輪郭パターンを、一本の線分で近似すると、得られた線分L1について、その長さ及び中点の位置座標、及び、近似誤差を求める(S120)。尚、ここでいう近似誤差は、得られた線分L1と上記輪郭パターンを構成する各反射点との距離の総和である。   When the position coordinates of a plurality of points on the front object surface are obtained in S110, the CPU 25a next displays the contour pattern of the front object represented by the position coordinates (position coordinates of each reflection point) of the plurality of points obtained in S110. Are fitted with a straight line using the least squares method. Then, by obtaining the end point of the approximate straight line, the contour pattern of the front object is approximated by a single line segment. Hereinafter, this approximate line segment is referred to as a line segment L1. When the contour pattern of the front object is approximated by a single line segment, the length, the position coordinates of the midpoint, and the approximation error are obtained for the obtained line segment L1 (S120). The approximate error here is the sum of the distances between the obtained line segment L1 and each reflection point constituting the contour pattern.

但し、S110で、反射点の位置座標として、4点以上の位置座標を求めることができなかった場合、CPU25aは、S120に移行することなく、当該車両状態推定処理を一旦終了して、再度、S110の処理を実行することにより、測位をやり直す。   However, if the position coordinates of four or more points cannot be obtained as the position coordinates of the reflection point in S110, the CPU 25a once ends the vehicle state estimation process without moving to S120, and again, By executing the process of S110, positioning is performed again.

一方、S120での処理を終えると、CPU25aは、L字型の二線分算出処理を実行する(S1300)。即ち、複数の反射点で表される上記前方物体の輪郭パターンを、最小二乗法を用いて、互いに直交するL字型の二本の直線で、フィッティングする。   On the other hand, when the process in S120 is finished, the CPU 25a executes an L-shaped two-line segment calculation process (S1300). In other words, the contour pattern of the front object represented by a plurality of reflection points is fitted with two L-shaped straight lines orthogonal to each other using the least square method.

そして、各直線の端点を求めることで、上記前方物体の輪郭パターンを、車両の前後面及び側面をモデル化した互いに直交する一対の線分を端点で接続して成るL字状の図形パターンで近似する。そして、上記座標系Aにて、この近似図形パターンを構成する各線分の長さと、各線分の向き(上記座標系Aのx軸と線分がなす角度)と、各線分の中点の位置座標と、を求める。   Then, by determining the end points of each straight line, the contour pattern of the front object is an L-shaped figure pattern formed by connecting a pair of orthogonal line segments that model the front and rear surfaces and side surfaces of the vehicle at the end points. Approximate. In the coordinate system A, the length of each line segment constituting the approximate figure pattern, the direction of each line segment (the angle formed by the x axis of the coordinate system A and the line segment), and the position of the midpoint of each line segment Find the coordinates.

尚、図5は、CPU25aがS1300で実行するL字型の二線分算出処理を表すフローチャートである。
この二線分算出処理を開始すると、CPU25aは、S110で求められた反射点の数をn個(n>3)として、角度φが大きい順に、反射点に番号Nを割り当てる(S1310)。具体的に、S1310では、データとして保持する反射点の位置座標に、番号Nを関連付ける処理を行う。
FIG. 5 is a flowchart showing the L-shaped two-line segment calculation process executed by the CPU 25a in S1300.
When the two-line segment calculation process is started, the CPU 25a sets the number of reflection points obtained in S110 to n (n> 3), and assigns a number N to the reflection points in descending order of the angle φ (S1310). Specifically, in S1310, a process of associating the number N with the position coordinates of the reflection point held as data is performed.

ここでの番号Nの割り当て方法は、図6(a)に示す通りである。即ち、角度φが大きい反射点の順に、番号Nを連番でN=1,2,3,…,n−1,nのように割り当てる。一番目の点に、N=1を割り当て、二番目の点にN=2を割り当てるといった具合である。   The method of assigning the number N here is as shown in FIG. That is, the numbers N are assigned sequentially in the order of the reflection points with the larger angles φ, such as N = 1, 2, 3,..., N−1, n. For example, N = 1 is assigned to the first point, and N = 2 is assigned to the second point.

また、このようにしてS1310での処理を終えると、CPU25aは、変数mの値を2(m=2)に設定する(S1320)。その後、N=1からN=mまでの番号が割り当てられた反射点をセグメントSEG1、N=m+1からN=nまでの番号が割り当てられた反射点をセグメントSEG2に設定する(S1330)。   In addition, when the processing in S1310 is completed in this way, the CPU 25a sets the value of the variable m to 2 (m = 2) (S1320). Thereafter, the reflection point assigned the number from N = 1 to N = m is set as the segment SEG1, and the reflection point assigned the number from N = m + 1 to N = n is set as the segment SEG2 (S1330).

S1330での処理を終えると、CPU25aは、セグメントSEG1に属する反射点の一群を、最小二乗法により、直線で近似して、セグメントSEG1に属する反射点の一群の近似直線L21を算出すると共に、セグメントSEG1に属する各反射点から、上記近似直線L21までの距離を求めて、各反射点から近似直線L21までの距離の総和を、近似誤差として求める(S1340)。   When the processing in S1330 is completed, the CPU 25a approximates the group of reflection points belonging to the segment SEG1 with a straight line by the least square method, calculates the approximate line L21 of the group of reflection points belonging to the segment SEG1, and also calculates the segment. The distance from each reflection point belonging to SEG1 to the approximate straight line L21 is obtained, and the sum of the distances from each reflection point to the approximate straight line L21 is obtained as an approximation error (S1340).

図6(b)は、近似直線L21と反射点との距離の求め方を示した説明図である。図6(b)では、セグメントSEG1に属する反射点の分布の具体例と共に、近似直線L21を表す。S1340では、例えば、セグメントSEG1に属する反射点が、図6(b)に示す分布となっている場合、図中、矢印で表した近似直線L21と各反射点との距離を求める。そして、その総和をセグメントSEG1の近似誤差として求める。   FIG. 6B is an explanatory diagram showing how to obtain the distance between the approximate straight line L21 and the reflection point. FIG. 6B shows an approximate straight line L21 together with a specific example of the distribution of reflection points belonging to the segment SEG1. In S1340, for example, when the reflection points belonging to the segment SEG1 have the distribution shown in FIG. 6B, the distance between the approximate straight line L21 indicated by the arrow and each reflection point in the drawing is obtained. Then, the sum is obtained as an approximation error of the segment SEG1.

また、S1340の処理を終えると、CPU25aは、セグメントSEG2に属する反射点の一群を、最小二乗法により、S1340で求めた直線と直交する直線で近似し、セグメントSEG2に属する反射点の一群の近似直線L22を算出すると共に、セグメントSEG2に属する各反射点から、算出した近似直線L22までの距離を求めて、各反射点から近似直線L22までの距離の総和を、近似誤差として求める(S1350)。   When the processing of S1340 is completed, the CPU 25a approximates the group of reflection points belonging to the segment SEG2 by a straight line orthogonal to the straight line obtained in S1340 by the least square method, and approximates the group of reflection points belonging to the segment SEG2. In addition to calculating the straight line L22, the distance from each reflection point belonging to the segment SEG2 to the calculated approximate straight line L22 is obtained, and the sum of the distances from each reflection point to the approximate straight line L22 is obtained as an approximation error (S1350).

図6(a)は、n=12及びm=6のときの近似直線L21,L22の求め方を示した説明図である。図6(a)に示すように、本実施例では、まず、セグメントSEG1の反射点である1番目から6番目までの反射点に対して、最小二乗法で近似直線を求める。ここで求められた近似直線がy=ax+bであるとすると、セグメントSEG2の反射点群に対して近似する直線は、セグメントSEG1との直交が条件なので、y=−(1/a)x+cとなる。従って、S1340では、パラメータa,bを算出し、S1350では、パラメータcを算出する。   FIG. 6A is an explanatory diagram showing how to obtain approximate straight lines L21 and L22 when n = 12 and m = 6. As shown in FIG. 6A, in this embodiment, first, an approximate straight line is obtained by the least square method for the first to sixth reflection points which are the reflection points of the segment SEG1. Assuming that the approximate straight line obtained here is y = ax + b, the straight line approximated with respect to the reflection point group of the segment SEG2 is y = − (1 / a) x + c because the condition is orthogonal to the segment SEG1. . Accordingly, parameters a and b are calculated in S1340, and parameter c is calculated in S1350.

そして、算出した一対の近似直線L21,L22の端点の位置座標を求めることで、近似直線を線分化し、上記前方物体の輪郭パターンに対応する近似図形パターンとして、近似直線L21,L22から抽出した線分を接続してなるL字状の図形パターンを求める。そして、この近似図形パターンを構成する各線分の長さ、向き、及び、中点の位置座標を、上記座標系Aで算出する(S1360)。   Then, by calculating the position coordinates of the end points of the calculated pair of approximate lines L21 and L22, the approximate line is segmented and extracted from the approximate lines L21 and L22 as an approximate figure pattern corresponding to the contour pattern of the front object. An L-shaped figure pattern formed by connecting line segments is obtained. Then, the length and direction of each line segment constituting the approximate figure pattern and the position coordinates of the midpoint are calculated by the coordinate system A (S1360).

尚、端点の位置座標の求め方は、次の通りである。まず、直交する各直線L21,22の端点の位置座標として、直線L21,L22の交点の位置座標を求める。そして、図6(b)に示すように、N=1が割り当てられた反射点から直線L21への垂線と直線L21との交点の位置座標を、直線L21のもう一方の端点の位置座標として求める。同様に、N=nが割り当てられた反射点から直線L22への垂線と直線L22との交点の位置座標を、直線L22のもう一方の端点の位置座標として求める。このようにして、本実施例では、端点の位置座標を求めて、近似直線L21,L22を線分化し、これら各線分の長さ、向き、及び、中点の位置座標を算出する(S1360)。   The method for obtaining the position coordinates of the end points is as follows. First, the position coordinates of the intersection of the straight lines L21 and L22 are obtained as the position coordinates of the end points of the orthogonal straight lines L21 and L22. Then, as shown in FIG. 6B, the position coordinates of the intersection of the perpendicular line from the reflection point assigned N = 1 to the straight line L21 and the straight line L21 are obtained as the position coordinates of the other end point of the straight line L21. . Similarly, the position coordinate of the intersection of the perpendicular line from the reflection point to which N = n is assigned to the straight line L22 and the straight line L22 is obtained as the position coordinate of the other end point of the straight line L22. In this way, in the present embodiment, the position coordinates of the end points are obtained, the approximate lines L21 and L22 are segmented, and the length, direction, and midpoint position coordinates of each line segment are calculated (S1360). .

また、S1360での処理を終えると、m=n−2であるか否かを判断する(S1370)。そして、m=n−2でないと判断すると(S1370:N)、S1380に移行して、mを1加算し(m←m+1)、その後、S1330に戻る。   When the process in S1360 is finished, it is determined whether m = n−2 (S1370). If it is determined that m = n−2 is not satisfied (S1370: N), the process proceeds to S1380, 1 is added to m (m ← m + 1), and then the process returns to S1330.

一方、m=n−2であると判断すると(S1370:Y)、これまでに算出したn−3組の一対の線分L21,L22のなかから、セグメントSEG1の近似誤差及びセグメントSEG2の近似誤差の総和が最も小さい一対の線分L21,L22を選び、選んだ一対の線分L21,L22からなるL字状の図形パターンを、S110で測位された反射点群(前方物体の輪郭パターン)に対するL字状の近似図形パターンとして最終決定する(S1390)。その後、当該二線分算出処理を終了する。   On the other hand, if it is determined that m = n−2 (S1370: Y), the approximate error of the segment SEG1 and the approximate error of the segment SEG2 are calculated from the n−3 pairs of line segments L21 and L22 calculated so far. A pair of line segments L21 and L22 having the smallest sum of the two is selected, and an L-shaped figure pattern composed of the selected pair of line segments L21 and L22 is applied to the reflection point group (contour pattern of the front object) measured in S110. Finally, an L-shaped approximate graphic pattern is determined (S1390). Thereafter, the two-line segment calculation process ends.

このようにして、本実施例では、S110で測位された反射点群にて表される前方物体の輪郭パターンを、車両の一面をモデル化した単一の線分から成る図形パターンと、車両の前後面及び側面をモデル化した互いに直交する一対の線分を端点で接続して成るL字状の図形パターンと、で近似し、その近似図形パターン(具体的には、各線分の長さ、向き、及び、中点の位置座標)を求める。   In this way, in this embodiment, the contour pattern of the front object represented by the reflection point group measured in S110, the graphic pattern composed of a single line segment modeling one surface of the vehicle, and the front and rear of the vehicle Approximating with a L-shaped figure pattern formed by connecting a pair of orthogonal line segments that model the face and the side face at the end points, and the approximate figure pattern (specifically, the length and direction of each line segment) , And midpoint position coordinates).

図7は、S120で求められる単一線分の近似図形パターン(線分L1)、及び、S1300で求められるL字状の近似図形パターン(線分L21,L22)の具体例を表した図である。   FIG. 7 is a diagram illustrating specific examples of the approximate figure pattern (line segment L1) obtained in S120 and the L-shaped approximate figure pattern (line segments L21 and L22) obtained in S1300. .

具体的に、図7(a)左図は、測位の結果、図4(a)に示す反射点の分布が得られたときに、S120で求められる単一線分の近似図形パターン(線分L1)を表すものであり、図7(a)右図は、測位の結果、図4(a)に示す反射点の分布が得られたときに、S1300で求められるL字状の近似図形パターン(線分L21,L22)を表すものである。   Specifically, FIG. 7A shows the left figure of the approximate graphic pattern (line segment L1) obtained in S120 when the distribution of reflection points shown in FIG. 4A is obtained as a result of positioning. 7 (a) shows the L-shaped approximate figure pattern (S1300) obtained in S1300 when the distribution of the reflection points shown in FIG. 4 (a) is obtained as a result of positioning. This represents the line segments L21, L22).

また、図7(b)左図は、測位の結果、図4(b)に示す反射点の分布が得られたときに、S120で求められる単一線分の近似図形パターン(線分L1)を表すものであり、図7(b)右図は、測位の結果、図4(b)に示す反射点の分布が得られたときに、S1300で求められるL字状の近似図形パターン(線分L21,L22)を表すものである。   7B shows an approximate figure pattern (line segment L1) obtained by S120 when the reflection point distribution shown in FIG. 4B is obtained as a result of positioning. FIG. 7B shows the L-shaped approximate figure pattern (line segment) obtained in S1300 when the distribution of reflection points shown in FIG. 4B is obtained as a result of positioning. L21, L22).

S1300での二線分算出処理を終えると、CPU25aは、S1400に移行して、図8に示す事前確率算出処理を実行する。図8は、CPU25aが実行する事前確率算出処理を表すフローチャートである。   When the two-segment calculation processing in S1300 is finished, the CPU 25a proceeds to S1400 and executes the prior probability calculation processing shown in FIG. FIG. 8 is a flowchart showing a prior probability calculation process executed by the CPU 25a.

本実施例では、ベイズ推定の手法を用いて、S120,S1300で求めた各線分L1、L21、L22の夫々が、車両前後面を近似した線分である蓋然性、車両側面を近似した線分である蓋然性、及び、側面を近似した線分でも前後面を近似した線分でもない線分(以下、その他の線分)である蓋然性、を求めるが、S1400では、これらの蓋然性を求めるに当って、ベイズ推定の入力に用いる、各線分L1、L21、L22の夫々が、車両前後面を近似した線分である事前確率、車両側面を近似した線分である事前確率、及び、その他の線分である事前確率を、ROM25bに記録された関数データ(マップ等)に従って算出する。   In this embodiment, each line segment L1, L21, and L22 obtained in S120 and S1300 using the Bayesian estimation method is a line segment that approximates the vehicle front-rear surface and a line segment that approximates the vehicle side surface. A certain probability and a probability that is a line segment that approximates the side surface or a line segment that does not approximate the front and back surfaces (hereinafter referred to as other line segments) are obtained. In S1400, the probability is determined. The prior probability that each of the line segments L1, L21, and L22 used for the input of Bayesian estimation is a line segment that approximates the vehicle front-rear surface, the prior probability that is the line segment that approximates the vehicle side surface, and other line segments Is calculated according to function data (such as a map) recorded in the ROM 25b.

従って、図8を用いて事前確率算出処理を説明する前に、ここでは、事前確率算出処理で用いられる関数データの構成を、図9を用いて説明する。図9は、ROM25bに記録された関数データの構成を、グラフとして視覚化して表した図である。   Therefore, before describing the prior probability calculation process with reference to FIG. 8, here, the configuration of the function data used in the prior probability calculation process will be described with reference to FIG. FIG. 9 is a diagram visualizing the structure of the function data recorded in the ROM 25b as a graph.

具体的に、図9(a)は、線分長さを入力とし、入力された長さの線分が車両前後面を近似した線分である確率、入力された上記長さの線分が車両側面を近似した線分である確率、及び、入力された上記長さの線分がその他の線分である確率、を出力とする関数データの構成を、グラフとして視覚化して表した図である。   Specifically, in FIG. 9A, the line segment length is input, the probability that the input line segment is a line segment approximating the vehicle front-rear surface, and the input line segment of the above length is A graph of the structure of function data that outputs the probability of a line segment approximating the vehicle side surface and the probability that the input line segment is another line segment as a graph. is there.

また、図9(b)は、線分の近似誤差を入力とし、入力された近似誤差を有する線分が車両前後面を近似した線分である確率、入力された上記近似誤差を有する線分が車両側面を近似した線分である確率、及び、入力された上記近似誤差を有する線分がその他の線分である確率、を出力とする関数データの構成をグラフとして視覚化して表した図である。   FIG. 9B shows an input of the approximation error of the line segment, the probability that the input line segment having the approximation error is a line segment approximating the vehicle front-rear surface, and the input line segment having the approximation error. Is a graphical representation of the structure of the function data that outputs the probability that is a line segment approximating the vehicle side surface and the probability that the input line segment having the above approximation error is another line segment. It is.

図9(a)に示すグラフは、具体的に、縦軸が確率、横軸が長さのグラフであり、図9(b)に示すグラフは、縦軸が確率、横軸が線分の近似誤差のグラフである。また、図9(a)、(b)の夫々は、点線が「側面」、実線が「前後面」、一点鎖線が「その他」の確率の変化を表すものである。   The graph shown in FIG. 9A is specifically a graph in which the vertical axis is probability and the horizontal axis is length, and in the graph shown in FIG. 9B, the vertical axis is probability and the horizontal axis is a line segment. It is a graph of an approximation error. Each of FIGS. 9A and 9B represents a change in the probability that the dotted line is “side face”, the solid line is “front and back face”, and the alternate long and short dash line is “other”.

この関数データは、設計者が自由に設計できるものであるが、縦軸が確率であるので、図9(a)に示す関数データ及び図9(b)に示す関数データの夫々は、車両前後面を近似した線分である確率、車両側面を近似した線分である確率、及び、その他の線分である確率の和が、一定になるように設計される。但し、ここでは、和を1に設定する必要はない。和を1としなくても、和を一定にしておけば、規格化処理を付加することで、後述するベイズ推定において、和を1とする狭義の確率と同様の演算が可能であるからである。   The function data can be designed freely by the designer, but since the vertical axis is the probability, the function data shown in FIG. 9A and the function data shown in FIG. The probability of being a line segment approximating a surface, the probability of being a line segment approximating a vehicle side surface, and the sum of the probabilities of other line segments are designed to be constant. However, it is not necessary to set the sum to 1 here. This is because even if the sum is not set to 1, if the sum is made constant, an operation similar to the narrowly defined probability that the sum is set to 1 can be performed in Bayesian estimation described later by adding a normalization process. .

図9(a)に示すように、本実施例においては、車両の形状を考慮して、線分長さが短い場合に、当該線分が車両前後面を近似した線分である確率が高くなり、線分長さが長い場合に、当該線分が車両側面を近似した線分である確率が高くなるように、関数データが設計されている。また、線分長さが通常考えられる車両の全長より長い場合には、その他の線分である確率が高くなるように、関数データが設計されている。   As shown in FIG. 9A, in this embodiment, when the line segment length is short in consideration of the shape of the vehicle, there is a high probability that the line segment is a line segment approximating the vehicle front-rear surface. Thus, when the line segment length is long, the function data is designed so that the probability that the line segment is a line segment approximating the vehicle side surface is high. In addition, when the line segment length is longer than the total length of the vehicle that is normally considered, the function data is designed so that the probability that the line segment is another line segment is high.

具体的に、線分が車両前後面を近似した線分である確率は、線分長さが、一般的な車両の全幅に対応した長さになったときにピークを迎えるように設定されており、線分が車両側面を近似した線分である確率は、線分長さが、一般的な車両の全長に対応した長さになったときにピークを迎えるように設定されている。   Specifically, the probability that the line segment is a line segment that approximates the vehicle front-rear surface is set to reach a peak when the line segment length becomes a length corresponding to the full width of a general vehicle. The probability that the line segment is a line segment that approximates the side surface of the vehicle is set to reach a peak when the line segment length becomes a length corresponding to the overall length of a general vehicle.

また、図9(b)に示すように、本実施例においては、近似誤差が小さいほど、該当する線分が車両前後面を近似した線分である確率及び車両側面を近似した線分である確率が高くなり、近似誤差が大きいほど、該当する線分がその他の線分である確率が高くなるように、関数データが設計されている。   In addition, as shown in FIG. 9B, in this embodiment, the smaller the approximation error, the more likely the corresponding line segment is to approximate the vehicle front and back planes, and the line segment that approximates the vehicle side surface. The function data is designed so that the probability increases and the probability that the corresponding line segment is another line segment increases as the approximation error increases.

本実施例のCPU25aは、ROM25bから、このような関数データを読み出して、各線分L1,L21,L22毎に、線分長さ及び近似誤差に基づき、線分が車両前後面を近似した線分である事前確率、線分が車両側面を近似した線分である事前確率、及び、線分がその他の線分である事前確率を求める。   The CPU 25a of this embodiment reads such function data from the ROM 25b, and for each line segment L1, L21, L22, the line segment approximates the vehicle front-rear surface based on the line segment length and approximation error. A prior probability, a prior probability that the line segment approximates the vehicle side surface, and an a priori probability that the line segment is another line segment.

続いて、CPU25aがS1400で実行する事前確率算出処理の内容を、図8を用いて説明する。
この事前確率算出処理を開始すると、CPU25aは、まず以降の計算対象となる線分(以下、「対象線分」と称する。)を、S120で求めた線分L1に設定する(S1405)。更に、以降の計算対象となる車両部位(以下、「対象部位」と称する。)を「側面」に設定する(S1410)。
Next, the contents of the prior probability calculation process executed by the CPU 25a in S1400 will be described with reference to FIG.
When the prior probability calculation process is started, the CPU 25a first sets a line segment (hereinafter referred to as “target line segment”) to be calculated later as the line segment L1 obtained in S120 (S1405). Further, the vehicle part (hereinafter referred to as “target part”) to be calculated thereafter is set as “side face” (S1410).

そして、図9(a)に示す関数データを用いて、対象線分の長さに基づき、この対象線分が対象部位を近似した線分である確率P(1415)を導出する(S1415)。次に、図9(b)に示す関数データを用いて、対象線分の近似誤差に基づき、この対象線分が対象部位を近似した線分である確率P(1420)を導出する(S1420)。そして、確率P(1425)=P(1415)×P(1420)を計算する(S1425)。   Then, using the function data shown in FIG. 9A, based on the length of the target line segment, a probability P (1415) that the target line segment is a line segment approximating the target part is derived (S1415). Next, using the function data shown in FIG. 9B, based on the approximation error of the target line segment, a probability P (1420) that the target line segment is a line segment approximating the target part is derived (S1420). . Then, the probability P (1425) = P (1415) × P (1420) is calculated (S1425).

次に、現在の対象線分について、「前後面」を対象部位とした確率P(1425)を導出したかを判断し(S1430)、現在の対象線分について、まだ、「前後面」を対象部位とした確率P(1425)を導出していなければ(S1430:N)、対象部位を「前後面」に変更して(S1435)、S1415に戻る。   Next, it is determined whether or not the probability P (1425) having the “front and back plane” as the target region is derived for the current target line segment (S1430), and the “front and back plane” is still targeted for the current target line segment. If the probability P (1425) as a part has not been derived (S1430: N), the target part is changed to “front-rear surface” (S1435), and the process returns to S1415.

一方、既に「前後面」を対象部位とした確率P(1425)を導出していれば(S1430:Y)、現在の対象線分について、「その他」を対象部位とした確率P(1425)を導出したか否かを判断し(S1440)、現在の対象線分について、まだ、「その他」を対象部位とした確率P(1425)を導出していなければ(S1440:N)、対象部位を「その他」に変更して(S1445)、S1415に戻る。尚、対象部位が「その他」である場合には、対象線分がその他の線分である確率を求めることになる。   On the other hand, if the probability P (1425) with the “front and back plane” as the target part has already been derived (S1430: Y), the probability P (1425) with “other” as the target part is obtained for the current target segment. It is determined whether or not it has been derived (S1440). If the probability P (1425) having “other” as the target part has not yet been derived for the current target line segment (S1440: N), the target part is determined as “ Change to “Other” (S1445), and return to S1415. If the target part is “other”, the probability that the target line segment is another line segment is obtained.

これに対し、既に「その他」を対象部位とした確率P(1425)を導出していれば(S1440:Y)、現在の対象線分について、「側面」を対象部位とした確率P(1425)、「前後面」を対象部位とした確率P(1425)、及び、「その他」を対象部位とした確率P(1425)の和が値1となるように、規格化して、対象線分が車両「前後面」を近似した線分である事前確率P(1425)、対象線分が車両「側面」を近似した線分である事前確率P(1425)、及び、対象線分がその他の線分である事前確率P(1425)を求める(S1450)。   On the other hand, if the probability P (1425) having “other” as the target part has already been derived (S1440: Y), the probability P (1425) having “side” as the target part for the current target line segment. , Normalization is performed so that the sum of the probability P (1425) with “front and back plane” as the target part and the probability P (1425) with “other” as the target part is 1, and the target line segment is the vehicle. Prior probability P (1425) which is a line segment approximating “front and back planes”, prior probability P (1425) where the target line segment is a line segment approximating the vehicle “side surface”, and the target line segment is another line segment Prior probability P (1425) is obtained (S1450).

即ち、本実施例では、このようにして求めた「前後面」を対象部位とした確率P(1425)の規格化後の値を、対象線分が車両「前後面」を近似した線分である事前確率P(1425)として後続の処理で取り扱う。同様に、「側面」を対象部位とした確率P(1425)の規格化後の値を、対象線分が車両「側面」を近似した線分である事前確率P(1425)として取り扱い、「その他」を対象部位とした確率P(1425)の規格化後の値を、対象線分がその他の線分である事前確率P(1425)として取り扱う。   That is, in this embodiment, the normalized value of the probability P (1425) with the “front and back plane” thus obtained as the target portion is represented by a line segment that approximates the vehicle “front and back plane”. A certain prior probability P (1425) is handled in subsequent processing. Similarly, the normalized value of the probability P (1425) with “side” as the target part is treated as a prior probability P (1425) in which the target line is a line approximating the vehicle “side”. Is treated as a prior probability P (1425) in which the target line segment is another line segment.

また、S1450での処理を終えると、CPU25aは、対象線分として線分L21を設定して、確率P(1425)を求めたか否かを判断し(S1455)、まだ線分L21についての確率P(1425)を求めていなければ(S1455:N)、対象線分を線分L21に変更して(S1460)、S1410に戻る。   When the processing in S1450 is completed, the CPU 25a sets the line segment L21 as the target line segment and determines whether or not the probability P (1425) has been obtained (S1455), and the probability P for the line segment L21 still remains. If (1425) is not obtained (S1455: N), the target line segment is changed to the line segment L21 (S1460), and the process returns to S1410.

一方、既に線分L21の確率P(1425)を求めていれば(S1455:Y)、対象線分として線分L22を設定して、確率P(1425)を求めたか否かを判断し(S1465)、まだ線分L22についての確率P(1425)を求めていなければ(S1465:N)、対象線分を線分L22に変更して(S1470)、S1410に戻る。   On the other hand, if the probability P (1425) of the line segment L21 has already been obtained (S1455: Y), it is determined whether or not the probability P (1425) has been obtained by setting the line segment L22 as the target line segment (S1465). ) If the probability P (1425) for the line segment L22 has not yet been obtained (S1465: N), the target line segment is changed to the line segment L22 (S1470), and the process returns to S1410.

そして、既に線分L22の確率P(1425)を求めている場合には(S1465:Y)、当該事前確率算出処理を終える。
以下では、このようにして事前確率算出処理で求めた線分L1が車両側面を近似した線分である事前確率P(1425)を、事前確率P(1側)と表記する。また、線分L1が車両前後面を近似した線分である事前確率P(1425)を、事前確率P(1前後)と表記し、線分L1がその他の線分である事前確率P(1425)を、事前確率P(1その他)と表記する。
If the probability P (1425) of the line segment L22 has already been obtained (S1465: Y), the prior probability calculation process ends.
Hereinafter, the prior probability P (1425) in which the line segment L1 obtained in this way by the prior probability calculation process is a line segment that approximates the vehicle side surface will be referred to as prior probability P (1 side). Also, the prior probability P (1425) in which the line segment L1 is a line segment that approximates the vehicle front-rear surface is referred to as prior probability P (around 1), and the prior probability P (1425) in which the line segment L1 is another line segment. ) Is expressed as prior probability P (1 other).

また、線分L21,L22についても同様に、線分L21が車両側面を近似した線分である事前確率P(1425)を、事前確率P(21側)と表記し、線分L21が車両前後面を近似した線分である事前確率P(1425)を、事前確率P(21前後)と表記し、線分L21がその他の線分である事前確率P(1425)を、事前確率P(21その他)と表記し、線分L22が車両側面を近似した線分である事前確率P(1425)を、事前確率P(22側)と表記し、線分L22が車両前後面を近似した線分である事前確率P(1425)を、事前確率P(22前後)と表記し、線分L22がその他の線分である事前確率P(1425)を、事前確率P(22その他)と表記する。   Similarly, for the line segments L21 and L22, the prior probability P (1425) in which the line segment L21 is a line segment approximating the vehicle side surface is expressed as the prior probability P (21 side), and the line segment L21 is the front and rear of the vehicle. Prior probability P (1425) that is a line segment approximating the surface is expressed as prior probability P (around 21), and prior probability P (1425) in which line segment L21 is another line segment is referred to as prior probability P (21 Other)), the prior probability P (1425) in which the line segment L22 approximates the vehicle side surface is expressed as the prior probability P (22 side), and the line segment L22 approximates the vehicle front-rear surface. The prior probability P (1425) is expressed as a prior probability P (around 22), and the prior probability P (1425) in which the line segment L22 is another line segment is expressed as a prior probability P (22 other).

また、S1400にて上記事前確率算出処理を終えると、CPU25aは、S1500に移行し、図10に示す尤度算出処理を実行する。図10は、CPU25aが実行する尤度算出処理を表すフローチャートである。   When the prior probability calculation process is finished in S1400, the CPU 25a proceeds to S1500 and executes the likelihood calculation process shown in FIG. FIG. 10 is a flowchart illustrating likelihood calculation processing executed by the CPU 25a.

本実施例では、この尤度算出処理にて、ベイズ推定の入力に用いる、各事前確率P(1側),P(1前後),P(1その他)P(21側),P(21前後),P(21その他),P(22側),P(22前後),P(22その他)に対応する尤度L(1側),L(1前後),L(1その他),L(21側),L(21前後),L(21その他),L(22側),L(22前後),L(22その他)を求めるが、この際には、ROM25bに記録された尤度導出のための関数データを用いる。従って、尤度算出処理を説明するに先立っては、図11を用いて、ROM25bに記録された尤度導出のための関数データの構成について説明する。   In the present embodiment, in this likelihood calculation process, prior probabilities P (1 side), P (around 1), P (1 other) P (21 side), P (around 21) used for input of Bayesian estimation ), P (21 other), P (22 side), P (22 around), P (22 other) likelihood L (1 side), L (1 around), L (1 other), L ( 21 side), L (around 21), L (21 other), L (22 side), L (around 22), L (22 other) are obtained. In this case, the likelihood recorded in the ROM 25b is derived. Use function data for. Therefore, prior to describing the likelihood calculation process, the configuration of function data for derivation of likelihood recorded in the ROM 25b will be described with reference to FIG.

尚、図11は、尤度導出のためにROM25bに記録された関数データの構成を、グラフにより視覚化して表した図である。図11(a)〜(f)に示すグラフは全て、縦軸に尤度が設定されたものであり、点線が「側面」、実線が「前後面」、一点鎖線が「その他」の尤度の変化を表すものである。この関数データは、設計者が自由に設計できる。   FIG. 11 is a diagram showing the structure of the function data recorded in the ROM 25b for derivation of the likelihood, visualized by a graph. All graphs shown in FIGS. 11A to 11F have likelihoods set on the vertical axis, with the dotted line indicating “side surface”, the solid line indicating “front and back surfaces”, and the alternate long and short dash line indicating “other”. It represents the change of. This function data can be freely designed by the designer.

具体的に、図11(a)は、線分の中点位置座標と車両側面の予測位置(詳細後述)との距離を入力とし、入力された距離に対応する線分が車両前後面を近似した線分である尤度、入力された上記距離に対応する線分が車両側面を近似した線分である尤度、及び、入力された上記距離に対応する線分がその他の線分である尤度を出力とする関数データの構成を、グラフとして視覚化して表した図である。図11(a)に示すように、この関数データは、上記距離が小さい線分ほど、車両側面を近似した線分である尤度が大きくなるように設計されている。   Specifically, in FIG. 11A, the distance between the midpoint position coordinates of the line segment and the predicted position (details will be described later) of the vehicle side surface is input, and the line segment corresponding to the input distance approximates the vehicle front-rear surface. The likelihood that the line segment corresponding to the input distance is a line segment approximating the vehicle side surface, and the line segment corresponding to the input distance is another line segment. It is the figure which visualized and represented the structure of the function data which output likelihood as a graph. As shown in FIG. 11A, the function data is designed so that the likelihood of being a line segment approximating the vehicle side surface increases as the distance of the line segment decreases.

また、図11(b)は、線分の中点位置座標と車両前後面の予測位置との距離を入力とし、入力された距離に対応する線分が車両前後面を近似した線分である尤度、入力された上記距離に対応する線分が車両側面を近似した線分である尤度、及び、入力された上記距離に対応する線分がその他の線分である尤度を出力とする関数データの構成を、グラフとして視覚化して表した図である。図11(b)に示すように、この関数データは、上記距離が小さい線分ほど、車両前後面を近似した線分である尤度が大きくなるように設計されている。   FIG. 11B is a line segment in which the distance between the midpoint position coordinates of the line segment and the predicted position of the vehicle front-rear surface is input, and the line segment corresponding to the input distance approximates the vehicle front-rear surface. The likelihood, the likelihood that the line segment corresponding to the input distance is a line segment approximating the vehicle side surface, and the likelihood that the line segment corresponding to the input distance is another line segment are output. It is the figure which visualized and represented the structure of the function data to perform as a graph. As shown in FIG. 11B, the function data is designed so that the likelihood of being a line segment that approximates the vehicle front-rear surface increases as the distance decreases.

また、図11(c)は、線分長さと車両側面長さ(車両全長)の予測値との差(但し、絶対値)を入力とし、入力された差に対応する線分が車両前後面を近似した線分である尤度、入力された上記差に対応する線分が車両側面を近似した線分である尤度、及び、入力された上記差に対応する線分がその他の線分である尤度を出力とする関数データの構成を、グラフとして視覚化して表した図である。図11(c)に示すように、この関数データは、上記差が小さい線分ほど、車両側面を近似した線分である尤度が大きくなるように設計されている。   FIG. 11C shows the difference (however, absolute value) between the line segment length and the predicted value of the vehicle side length (vehicle total length) as an input, and the line segment corresponding to the input difference is the vehicle front-rear surface. , The likelihood that the line segment corresponding to the input difference is a line segment approximating the vehicle side surface, and the line segment corresponding to the input difference is the other line segment It is the figure which visualized and represented the structure of the function data which output the likelihood which is as a graph. As shown in FIG. 11C, the function data is designed such that the likelihood that the line segment approximates the vehicle side surface increases as the difference decreases.

この他、図11(d)は、線分長さと車両前後面長さ(車両全幅)の予測値との差(但し、絶対値)を入力とし、入力された差に対応する線分が車両前後面を近似した線分である尤度、入力された上記差に対応する線分が車両側面を近似した線分である尤度、及び、入力された上記差に対応する線分がその他の線分である尤度を出力とする関数データの構成を、グラフとして視覚化して表した図である。この関数データは、上記差が小さい線分ほど、車両前後面を近似した線分である尤度が大きくなるように設計されている。   In addition, in FIG. 11D, the difference (however, absolute value) between the line segment length and the predicted value of the vehicle front-rear surface length (vehicle total width) is input, and the line segment corresponding to the input difference is the vehicle. Likelihood that is a line segment that approximates the front and back planes, likelihood that the line segment that corresponds to the input difference is a line segment that approximates the vehicle side surface, and the line segment that corresponds to the input difference is other It is the figure which visualized and represented the structure of the function data which output the likelihood which is a line segment as a graph. This function data is designed such that the likelihood of a line segment that approximates the vehicle front-rear plane increases as the difference decreases.

また、図11(e)は、線分の向きと車両の向きの予測値との差を入力とし、入力された差に対応する線分が車両前後面を近似した線分である尤度、入力された上記差に対応する線分が車両側面を近似した線分である尤度、及び、入力された上記差に対応する線分がその他の線分である尤度を出力とする関数データの構成を、グラフとして視覚化して表した図である。この関数データは、上記差が90度に近い線分ほど、車両前後面を近似した線分である尤度が大きくなるように設計され、上記差が0度又は180度に近い線分ほど、車両側面を近似した線分である尤度が大きくなるように設計されている。   Further, FIG. 11E shows the likelihood that the difference between the direction of the line segment and the predicted value of the vehicle direction is input, and the line segment corresponding to the input difference is a line segment that approximates the vehicle front-rear surface, Function data that outputs the likelihood that the line segment corresponding to the input difference is a line segment approximating the vehicle side surface, and the likelihood that the line segment corresponding to the input difference is another line segment. It is the figure which visualized and represented this structure as a graph. This function data is designed so that the likelihood that the line segment approximates the vehicle front-and-rear plane is increased as the difference is closer to 90 degrees, and the difference is closer to 0 degrees or 180 degrees. It is designed so that the likelihood that is a line segment approximating the vehicle side surface is increased.

また、図11(f)は、線分の向きと車両の進行方向の予測値との差を入力とし、入力された差に対応する線分が車両前後面を近似した線分である尤度、入力された上記差に対応する線分が車両側面を近似した線分である尤度、及び、入力された上記差に対応する線分がその他の線分である尤度を出力とする関数データの構成を、グラフとして視覚化して表した図である。この関数データは、上記差が90度に近い線分ほど、車両前後面を近似した線分である尤度が大きくなるように設計され、上記差が0度又は180度に近い線分ほど、車両側面を近似した線分である尤度が大きくなるように設計されている。   FIG. 11F shows the likelihood that the difference between the direction of the line segment and the predicted value of the traveling direction of the vehicle is input, and the line segment corresponding to the input difference is a line segment that approximates the vehicle front-rear surface. A function that outputs a likelihood that the line segment corresponding to the input difference is a line segment approximating the vehicle side surface, and a likelihood that the line segment corresponding to the input difference is another line segment. It is the figure which visualized and represented the structure of data as a graph. This function data is designed so that the likelihood that the line segment approximates the vehicle front-and-rear plane is increased as the difference is closer to 90 degrees, and the difference is closer to 0 degrees or 180 degrees. It is designed so that the likelihood that is a line segment approximating the vehicle side surface is increased.

続いて、図10を用いて、CPU25aがS1500にて実行する尤度算出処理について説明する。この尤度算出処理を開始すると、CPU25aは、最初に、当該推定装置1に接続された、自車両の運動状態を検出するためのセンサ群からの入力に基づき、前回車両状態推定処理実行時に対する自車両の変位量(δx,δy,δθ)を求める(S1505)。δxは、前回車両状態推定処理実行時(S1505実行時)の座標系Aの原点位置を基準として、前回車両状態推定処理実行時の座標系Aのx方向に、今回の座標系Aの原点がどれだけ移動した位置にあるかを評価したものであり、δyは、前回車両状態推定処理実行時(S1505実行時)の座標系Aの原点位置を基準として、前回車両状態推定処理実行時の座標系Aのy方向に、今回の座標系Aの原点がどれだけ移動した位置にあるかを評価したものであり、δθは、今回の座標系Aのy軸が、前回車両状態推定処理実行時(S1505実行時)の座標系Aのy軸に対し、どれだけ回転した位置にあるかを、前回車両状態推定処理実行時(S1505実行時)の座標系Aで評価したものである。   Next, the likelihood calculation process executed by the CPU 25a in S1500 will be described using FIG. When the likelihood calculation process is started, the CPU 25a first performs an operation based on an input from a sensor group connected to the estimation device 1 for detecting the motion state of the host vehicle with respect to the previous execution of the vehicle state estimation process. A displacement amount (δx, δy, δθ) of the host vehicle is obtained (S1505). δx is the origin of the current coordinate system A in the x direction of the coordinate system A when the previous vehicle state estimation process is executed with reference to the origin position of the coordinate system A when the previous vehicle state estimation process is executed (when S1505 is executed). It is an evaluation of how much the position has been moved, and δy is a coordinate at the time of executing the previous vehicle state estimation process on the basis of the origin position of the coordinate system A at the time of execution of the previous vehicle state estimation process (when executing S1505). This is an evaluation of how much the origin of the current coordinate system A is moved in the y direction of the system A, and δθ is the time when the y axis of the current coordinate system A is executed in the previous vehicle state estimation process. This is an evaluation of how much the position is rotated with respect to the y-axis of the coordinate system A (when executing S1505) using the coordinate system A when executing the previous vehicle state estimation process (when executing S1505).

また、この処理を終えると、CPU25aは、対象線分を線分L1に設定する(S1510)。更に、対象部位を「側面」に設定する(S1515)。次に、対象線分が対象部位を近似した線分である尤度L(3000)を、図12に示す個別尤度算出処理にて求める(S3000)。尚、図12を用いた個別尤度算出処理の詳細な説明は、後述する。   When this process is finished, the CPU 25a sets the target line segment to the line segment L1 (S1510). Further, the target part is set to “side” (S1515). Next, the likelihood L (3000) that the target line segment is a line segment that approximates the target part is obtained by the individual likelihood calculation process shown in FIG. 12 (S3000). A detailed description of the individual likelihood calculation process using FIG. 12 will be described later.

また、個別尤度算出処理を終えると、CPU25aは、次に、現在の対象線分について、「前後面」を対象部位とした尤度L(3000)を求めたか否かを判断し(S1530)、「前後面」を対象部位とした尤度L(3000)を求めていないと判断すると(S1530:N)、対象部位を「前後面」に変更して(S1535)、S3000に戻り、この対象部位について個別尤度算出処理を実行する。   When the individual likelihood calculation process is completed, the CPU 25a next determines whether or not the likelihood L (3000) having the “front and back plane” as the target part for the current target line segment has been obtained (S1530). If it is determined that the likelihood L (3000) with “front and back planes” as the target part is not obtained (S1530: N), the target part is changed to “front and back planes” (S1535), and the process returns to S3000. The individual likelihood calculation process is executed for the part.

一方、現在の対象線分について、「前後面」を対象部位とした尤度L(3000)を求めたと判断すると(S1530:Y)、現在の対象線分について、「その他」を対象部位とした尤度L(3000)を求めたか否かを判断する(S1540)。   On the other hand, for the current target line segment, if it is determined that the likelihood L (3000) having “front and back planes” as the target site is obtained (S1530: Y), “other” is set as the target site for the current target line segment. It is determined whether or not likelihood L (3000) has been obtained (S1540).

そして、「その他」を対象部位とした尤度L(3000)を求めていないと判断すると(S1540:N)、対象部位を「その他」に変更して(S1545)、S3000に戻る。そして、この対象部位について個別尤度算出処理を実行する。尚、対象部位が「その他」である場合には、個別尤度算出処理で、対象線分がその他の線分である尤度L(3000)を求めることになる。   If it is determined that the likelihood L (3000) with “other” as the target part is not obtained (S1540: N), the target part is changed to “other” (S1545), and the process returns to S3000. Then, an individual likelihood calculation process is executed for this target part. When the target part is “other”, the likelihood L (3000) that the target line segment is another line segment is obtained by the individual likelihood calculation process.

また、「その他」を対象部位とした尤度L(3000)を求めたと判断すると(S1540:Y)、CPU25aは、対象線分として線分L21を設定して、尤度L(3000)を求めたか否かを判断し(S1555)、線分L21を対象線分として尤度L(3000)を求めていなければ(S1555:N)、対象線分を線分L21に変更して(S1560)、S1515に戻る。   If it is determined that the likelihood L (3000) with “others” as the target part has been obtained (S1540: Y), the CPU 25a sets the line segment L21 as the target line segment and obtains the likelihood L (3000). If the likelihood L (3000) is not obtained with the line segment L21 as the target line segment (S1555: N), the target line segment is changed to the line segment L21 (S1560). The process returns to S1515.

一方、線分L21を対象線分として尤度L(3000)を既に求めていれば(S1555:Y)、線分L22を対象線分として尤度L(3000)を求めたか否かを判断する(S1565)。そして、線分L22を対象線分として尤度L(3000)を求めていなければ(S1565:N)、対象線分を線分L22に変更して(S1570)、S1515に戻る。一方、線分L22を対象線分として尤度L(3000)を求めていれば(S1565:Y)、当該尤度算出処理を終了する。   On the other hand, if the likelihood L (3000) has already been obtained with the line segment L21 as the target line segment (S1555: Y), it is determined whether or not the likelihood L (3000) has been obtained with the line segment L22 as the target line segment. (S1565). If the likelihood L (3000) is not obtained with the line segment L22 as the target line segment (S1565: N), the target line segment is changed to the line segment L22 (S1570), and the process returns to S1515. On the other hand, if the likelihood L (3000) is obtained with the line segment L22 as the target line segment (S1565: Y), the likelihood calculation process is terminated.

以下では、このようにして尤度算出処理で求めた線分L1が車両側面を近似した線分である尤度L(3000)を、尤度L(1側)と表記する。また、線分L1が車両前後面を近似した線分である尤度L(3000)を、尤度L(1前後)と表記し、線分L1がその他の線分である尤度L(3000)を、尤度L(1その他)と表記する。   In the following, the likelihood L (3000) in which the line segment L1 obtained in this way by the likelihood calculation process is a line segment approximating the vehicle side surface is denoted as likelihood L (1 side). Likelihood L (3000) in which line segment L1 is a line segment approximating the vehicle front-rear surface is denoted as likelihood L (around 1), and likelihood L (3000) in which line segment L1 is another line segment. ) Is expressed as likelihood L (1 other).

また、線分L21,L22についても同様に、線分L21が車両側面を近似した線分である尤度L(3000)を、尤度L(21側)と表記し、線分L21が車両前後面を近似した線分である尤度L(3000)を、尤度L(21前後)と表記し、線分L21がその他の線分である尤度L(3000)を、尤度L(21その他)と表記し、線分L22が車両側面を近似した線分である尤度L(3000)を、尤度L(22側)と表記し、線分L22が車両前後面を近似した線分である尤度L(3000)を、尤度L(22前後)と表記し、線分L22がその他の線分である尤度L(3000)を、尤度L(22その他)と表記する。   Similarly, for the line segments L21 and L22, the likelihood L (3000), which is a line segment that approximates the vehicle side surface, is represented as the likelihood L (21 side), and the line segment L21 is the front and rear of the vehicle. Likelihood L (3000), which is a line segment approximating a surface, is expressed as likelihood L (around 21), and likelihood L (3000), where line segment L21 is another line segment, is represented by likelihood L (21 The likelihood L (3000) in which the line segment L22 approximates the vehicle side surface is denoted as likelihood L (22 side), and the line segment L22 approximates the vehicle front-rear surface. Likelihood L (3000) is expressed as likelihood L (around 22), and likelihood L (3000) where line segment L22 is another line segment is expressed as likelihood L (22 other).

続いて、S3000でCPU25aが実行する個別尤度算出処理について説明する。図12は、CPU25aが実行する個別尤度算出処理を表すフローチャートである。
個別尤度算出処理を開始すると、CPU25aは、まず、前サイクル(前回車両状態推定処理実行時)のS1800の処理で求め、S190でRAM25cに記憶した車両状態の予測値を取得する(S3010)。尚、S1800の処理の詳細は後述するが、S1800では、アンセンテッドカルマンフィルタを用いて、次サイクルでの車両側面の中点の位置座標(x1,y1)、車両前後面の中点の位置座標(x2,y2)、車両側面の長さ=N1、車両前後面の長さ=N2、車両の向き(角度)=Θ1、及び、車両の進行方向(角度)=Θ2を予測する。また、S190では、これらの予測値を、その時の座標系AでRAM25cに記憶する。
Next, the individual likelihood calculation process executed by the CPU 25a in S3000 will be described. FIG. 12 is a flowchart showing an individual likelihood calculation process executed by the CPU 25a.
When the individual likelihood calculation process is started, the CPU 25a first obtains the predicted value of the vehicle state obtained in the process of S1800 in the previous cycle (when the previous vehicle state estimation process is executed) and stored in the RAM 25c in S190 (S3010). Although details of the processing in S1800 will be described later, in S1800, using the unscented Kalman filter, the position coordinates (x1, y1) of the midpoint of the vehicle side surface in the next cycle, the position coordinates of the midpoint of the vehicle front-rear plane ( x2, y2), vehicle side length = N1, vehicle front / rear surface length = N2, vehicle orientation (angle) = Θ1, and vehicle travel direction (angle) = Θ2. In S190, these predicted values are stored in the RAM 25c in the coordinate system A at that time.

従って、S3010では、車両状態の予測値として、上記車両側面の中点の位置座標(x1,y1)、車両前後面の中点の位置座標(x2,y2)、車両側面の長さ=N1、車両前後面の長さ=N2、車両の向き(角度)=Θ1、及び、車両の進行方向(角度)=Θ2の情報を、RAM25cから読出し、取得する。   Therefore, in S3010, as the predicted value of the vehicle state, the position coordinate (x1, y1) of the midpoint of the vehicle side surface, the position coordinate (x2, y2) of the midpoint of the vehicle front-rear surface, the length of the vehicle side surface = N1, Information on the length of the vehicle front-rear surface = N2, the direction (angle) of the vehicle = Θ1, and the traveling direction (angle) of the vehicle = Θ2 is read from the RAM 25c and acquired.

このようにして、S3010での処理を終えると、CPU25aは、次に、予めS1505で求めた変位量(δx,δy,δθ)に基づき、前回車両状態推定処理実行時の座標系Aで表される上記車両状態の予測値を、今回の座標系Aに射影して、予測値を座標変換する(S3015)。   When the processing in S3010 is completed in this way, the CPU 25a is then expressed in the coordinate system A at the time of the previous vehicle state estimation processing execution based on the displacement amounts (δx, δy, δθ) obtained in advance in S1505. The predicted value of the vehicle state is projected onto the current coordinate system A, and the predicted value is coordinate-transformed (S3015).

また、このようにして、S3015での処理を終えると、CPU25aは、前サイクルで(前回車両状態推定処理実行時に)予測した車両側面の中点の位置座標(x1,y1)と、今回S120又はS1300で算出した対象線分の中点の位置座標との距離を算出し、算出した距離を入力として、図11(a)に示す関数データを用いて、対象線分が対象部位を近似した線分である尤度L(3020)を導出する(S3020)。   In addition, when the processing in S3015 is completed in this way, the CPU 25a determines the position coordinate (x1, y1) of the vehicle side midpoint predicted in the previous cycle (when the previous vehicle state estimation processing is executed) and the current S120 or The distance from the position coordinates of the midpoint of the target line segment calculated in S1300 is calculated, and the target line segment approximates the target portion using the calculated distance as input and the function data shown in FIG. A likelihood L (3020) as a minute is derived (S3020).

また、前サイクルで予測した車両前後面の中点の位置座標(x2,y2)と、今回S120又はS1300で算出した対象線分の中点の位置座標との距離を計算し、算出した距離を入力として、図11(b)に示す関数データを用いて、対象線分が対象部位を近似した線分である尤度L(3030)を導出する(S3030)。   Further, the distance between the midpoint position coordinates (x2, y2) predicted in the previous cycle and the midpoint position coordinates of the target line segment calculated in S120 or S1300 this time is calculated, and the calculated distance is calculated. As the input, the function data shown in FIG. 11B is used to derive a likelihood L (3030) in which the target line segment is a line segment approximating the target portion (S3030).

S3030での処理を終えると、CPU25aは、前サイクルで予測した車両側面の長さN1と、対象線分の長さとの差の絶対値を算出し、その差(絶対値)を入力として、図11(c)に示す関数データを用いて、対象線分が対象部位を近似した線分である尤度L(3040)を導出する(S3040)。   When the processing in S3030 is finished, the CPU 25a calculates the absolute value of the difference between the vehicle side length N1 predicted in the previous cycle and the length of the target line segment, and inputs the difference (absolute value) as an input. Using the function data shown in 11 (c), a likelihood L (3040) that the target line segment is a line segment approximating the target part is derived (S3040).

また、前サイクルで予測した車両前後面の長さN2と、対象線分の長さとの差の絶対値を算出し、その差(絶対値)を入力として、図11(d)に示す関数データを用いて、対象線分が対象部位を近似した線分である尤度L(3050)を導出する(S3050)。   In addition, the absolute value of the difference between the length N2 of the vehicle front-rear surface predicted in the previous cycle and the length of the target line segment is calculated, and the function data shown in FIG. Is used to derive the likelihood L (3050) that the target line segment is a line segment approximating the target part (S3050).

また、前サイクルで予測した車両の向きΘ1と、対象線分の向きとの差(角度)を算出し、その差を入力として、図11(e)に示す関数データを用いて、対象線分が対象部位を近似した線分である尤度L(3060)を導出(S3060)し、更に、前サイクルで予測した車両の進行方向Θ2と、対象線分の向きとの差(角度)を算出し、その差を入力として、図11(f)に示す関数データを用いて、対象線分が対象部位を近似した線分である尤度L(3070)を導出する(S3070)。   Further, a difference (angle) between the vehicle orientation Θ1 predicted in the previous cycle and the direction of the target line segment is calculated, and the target line segment is input using the difference as an input and the function data shown in FIG. Is derived (S3060), and the difference (angle) between the vehicle traveling direction Θ2 predicted in the previous cycle and the direction of the target line segment is calculated. Then, using the difference as an input, the likelihood L (3070) that the target line segment is a line segment approximating the target part is derived using the function data shown in FIG. 11F (S3070).

そして、以上の処理を終えると、S3020〜S3070で算出した各尤度を互いに掛け合わせて、最終的な尤度L(3000)を算出する(S3080)。
L(3000)=L(3020)×L(3030)×L(3040)
×L(3050)×L(3060)×L(3070)
その後、CPU25aは、当該個別尤度算出処理を終了する。また、このような個別尤度算出処理を実行して、S1500での尤度算出処理を終えると、CPU25aは、S1600に移行し、図13に示す事後確率算出処理を実行する。尚、図13は、CPU25aが実行する事後確率算出処理を表すフローチャートである。
When the above processing is completed, the likelihoods calculated in S3020 to S3070 are multiplied with each other to calculate a final likelihood L (3000) (S3080).
L (3000) = L (3020) × L (3030) × L (3040)
× L (3050) × L (3060) × L (3070)
Thereafter, the CPU 25a ends the individual likelihood calculation process. In addition, when such individual likelihood calculation processing is executed and the likelihood calculation processing in S1500 is completed, the CPU 25a proceeds to S1600 and executes the posterior probability calculation processing shown in FIG. FIG. 13 is a flowchart showing the posterior probability calculation process executed by the CPU 25a.

本実施例では、この事後確率算出処理を実行することにより、S1400で求めた事前確率及びS1500で求めた尤度を用いて、ベイズ推定の手法により、各線分L1,L21,L22毎に、当該線分が車両側面を近似した線分である蓋然性(事後確率)、当該線分が車両前後面を近似した線分である蓋然性(事後確率)、及び、当該線分がその他の線分である蓋然性(事後確率)を求める。   In the present embodiment, by executing this posterior probability calculation process, the line probability L1, L21, L22 is calculated for each line segment L1, L21, L22 by the Bayesian estimation method using the prior probability obtained in S1400 and the likelihood obtained in S1500. Probability (posterior probability) that the line segment is a line segment that approximates the vehicle side surface, probability (posterior probability) that the line segment is a line segment that approximates the vehicle front-rear surface, and the line segment is another line segment Find probability (posterior probability).

続いて、この事後確率算出処理の内容について、図13を用いて詳述する。事後確率算出処理を開始すると、CPU25aは、まず、対象線分を線分L1に設定する(S1605)。続いて、対象部位を「側面」に設定する(S1610)。   Next, the contents of this posterior probability calculation process will be described in detail with reference to FIG. When the posterior probability calculation process is started, the CPU 25a first sets the target line segment to the line segment L1 (S1605). Subsequently, the target part is set to “side surface” (S1610).

次に、対象線分が対象部位を近似した線分である事前確率P(1425)と、対象線分が対象部位を近似した線分である尤度L(3000)とを用いて、ベイズ推定の式により、対象線分が対象部位を近似した線分である事後確率P(1615)を求める(S1615)。   Next, Bayesian estimation is performed using the prior probability P (1425) in which the target line segment approximates the target part and the likelihood L (3000) in which the target line segment approximates the target part. The posterior probability P (1615) that the target line segment is a line segment approximating the target part is obtained from the equation (S1615).

S1615では、対象線分が線分L1であり対象部位が「側面」である場合、事後確率P(1615)を次式に従って算出する。尚、ここでは、対象線分が線分L1であり対象部位が「側面」である場合の事後確率P(1615)、即ち、線分L1が車両側面を近似した線分である事後確率P(1615)を、特にPo(1側)と表記する。   In S1615, when the target line segment is the line segment L1 and the target part is the “side surface”, the posterior probability P (1615) is calculated according to the following equation. Here, the posterior probability P (1615) in the case where the target line segment is the line segment L1 and the target part is the “side surface”, that is, the posterior probability P (16) is the line segment that approximates the vehicle side surface. 1615) is expressed in particular as Po (1 side).

また、この処理を終えると、現在の対象線分について、当該対象線分が車両前後面を近似した線分である事後確率P(1615)を既に算出したか否かを判断し(S1630)、対象線分が車両前後面を近似した線分である事後確率P(1615)をまだ算出していなければ(S1630:N)、対象部位を「前後面」に変更して(S1635)、S1615に戻る。そして、対象線分が車両「前後面」を近似した線分である事後確率P(1615)を求める。 When this process is finished, it is determined whether or not the posterior probability P (1615) that the target line segment is a line segment approximating the vehicle front-rear surface has already been calculated for the current target line segment (S1630). If the posterior probability P (1615) that the target line segment is a line segment approximating the vehicle front-rear surface has not yet been calculated (S1630: N), the target part is changed to “front-rear surface” (S1635), and the process proceeds to S1615. Return. Then, the posterior probability P (1615) is obtained, in which the target line segment is a line segment that approximates the vehicle “front and back plane”.

対象線分が線分L1であり対象部位が「前後面」である場合には、ここで、事後確率P(1615)を次式に従って算出する。尚、本実施例では、対象線分が線分L1であり対象部位が「前後面」である場合の事後確率P(1615)、即ち、線分L1が車両前後面を近似した線分である事後確率P(1615)を、特にPo(1前後)と表記する。   When the target line segment is the line segment L1 and the target part is the “front and back plane”, the posterior probability P (1615) is calculated according to the following equation. In this embodiment, the a posteriori probability P (1615) when the target line segment is the line segment L1 and the target part is the “front-rear plane”, that is, the line segment L1 is a line segment approximating the vehicle front-rear plane. The posterior probability P (1615) is particularly expressed as Po (around 1).

一方、現在の対象線分について、当該対象線分が車両前後面を近似した線分である事後確率P(1615)を既に算出したと判断すると(S1630:Y)、CPU25aは、現在の対象線分について、当該対象線分がその他の線分である事後確率P(1615)を既に算出したか否かを判断し(S1640)、現在の対象線分について、対象線分がその他の線分である事後確率P(1615)をまだ算出していなければ(S1640:N)、対象部位を「その他」に変更して(S1645)、S1615に戻る。そして、対象線分がその他の線分である事後確率P(1615)を求める。 On the other hand, if it is determined that the posterior probability P (1615) that the target line segment is a line segment approximating the vehicle front-rear plane has already been calculated for the current target line segment (S1630: Y), the CPU 25a It is determined whether the posterior probability P (1615) that the target line segment is another line segment has already been calculated (S1640), and the target line segment is the other line segment for the current target line segment. If a certain posterior probability P (1615) has not yet been calculated (S1640: N), the target part is changed to “others” (S1645), and the process returns to S1615. Then, the posterior probability P (1615) that the target line segment is another line segment is obtained.

対象線分が線分L1であり対象部位が「その他」である場合には、ここで、事後確率P(1615)を次式に従って算出する。尚、本実施例では、対象線分が線分L1であり対象部位が「その他」である場合の事後確率P(1615)、即ち、線分L1がその他の線分である事後確率P(1615)を、特にPo(1その他)と表記する。   When the target line segment is the line segment L1 and the target part is “other”, the posterior probability P (1615) is calculated according to the following equation. In this embodiment, the posterior probability P (1615) when the target line segment is the line segment L1 and the target part is “other”, that is, the posterior probability P (1615) that the line segment L1 is another line segment. ) Is expressed in particular as Po (1 other).

また、現在の対象線分について、当該対象線分がその他の線分である事後確率P(1615)を既に算出したと判断すると(S1640:Y)、CPU25aは、対象線分として線分L21を設定して、事後確率P(1615)を算出したか否かを判断し(S1655)、事後確率P(1615)を算出していないと判断すると(S1655:N)、対象線分を線分L21に変更して(S1660)、S1610に戻る。 If the CPU 25a determines that the posterior probability P (1615) that the target line segment is another line segment has already been calculated for the current target line segment (S1640: Y), the CPU 25a sets the line segment L21 as the target line segment. It is set and it is determined whether or not the posterior probability P (1615) has been calculated (S1655). If it is determined that the posterior probability P (1615) has not been calculated (S1655: N), the target line segment is determined as the line segment L21. (S1660), and the process returns to S1610.

そして、S1615の処理を上述した手順で繰り返し実行することにより、線分L21が車両側面を近似した線分である事後確率P(1615)=Po(21側)、線分L21が車両前後面を近似した線分である事後確率P(1615)=Po(21前後)、線分L21がその他の線分である事後確率P(1615)=Po(21その他)を算出する。   Then, by repeatedly executing the process of S1615 in the above-described procedure, the posterior probability P (1615) = Po (21 side) that the line segment L21 is a line segment approximating the vehicle side surface, and the line segment L21 is the vehicle front-rear surface. A posteriori probability P (1615) = Po (around 21) that is an approximate line segment and a posteriori probability P (1615) = Po (21 other) that the line segment L21 is another line segment are calculated.

また、対象線分として線分L21を設定して事後確率P(1615)を算出したと判断すると(S1655:Y)、対象線分として線分L22を設定して事後確率P(1615)を算出したか否かを判断する(S1665)、そして、対象線分として線分L22を設定して事後確率P(1615)を算出していないと判断すると(S1665:N)、対象線分を線分L22に変更して(S1670)、S1610に戻る。 If it is determined that the line segment L21 is set as the target line segment and the posterior probability P (1615) is calculated (S1655: Y), the line segment L22 is set as the target line segment and the posterior probability P (1615) is calculated. If it is determined whether or not the line segment L22 is set as the target line segment and the posterior probability P (1615) is not calculated (S1665: N), the target line segment is determined as a line segment. Change to L22 (S1670), and return to S1610.

そして、S1615の処理を上述した手順で繰り返し実行することにより、線分L22が車両側面を近似した線分である事後確率P(1615)=Po(22側)、線分L22が車両前後面を近似した線分である事後確率P(1615)=Po(22前後)、線分L22がその他の線分である事後確率P(1615)=Po(22その他)を算出する。   Then, by repeating the processing of S1615 in the above-described procedure, the posterior probability P (1615) = Po (22 side) that the line segment L22 is a line segment that approximates the vehicle side surface, and the line segment L22 is the vehicle front-rear surface. A posteriori probability P (1615) = Po (around 22) that is an approximate line segment and a posteriori probability P (1615) = Po (22 other) that the line segment L22 is another line segment are calculated.

また、対象線分として線分L22を設定して事後確率P(1615)を算出したと判断すると(S1665:Y)、当該事後確率算出処理を終了する。また、S1600で、このようにして事後確率算出処理を終了すると、CPU25aは、図14に示す選択処理を実行する(S1700)。図14は、CPU25aが実行する選択処理を表すフローチャートである。 If it is determined that the line segment L22 is set as the target line segment and the posterior probability P (1615) is calculated (S1665: Y), the posterior probability calculation process is terminated. In S1600, when the posterior probability calculation process ends in this way, the CPU 25a executes a selection process shown in FIG. 14 (S1700). FIG. 14 is a flowchart showing the selection process executed by the CPU 25a.

選択処理を開始すると、CPU25aは、S1600で求められた事後確率Po(1側)、又は、事後確率Po(1前後)、又は、事後確率Po(21側)及び事後確率Po(22前後)の両方、又は、事後確率Po(21前後)及び事後確率Po(22側)の両方、が所定の閾値Th以上であるか否かを判定する(S1710)。即ち、ここでは、条件式「Po(1側)≧Th」、条件式「Po(1前後)≧Th」、条件式「Po(21側),Po(22前後)≧Th」、条件式「Po(21前後),Po(22側)≧Th」の計四つの条件式の内、少なくとも一つが満足されているか否かを判定する。尚、閾値Thは、0<Th<1を満足する範囲内で設計者が自由に設定すればよい。   When the selection process is started, the CPU 25a determines the posterior probability Po (1 side), the posterior probability Po (around 1), or the posterior probability Po (21 side) and the posterior probability Po (around 22) obtained in S1600. It is determined whether or not both or both of the posterior probability Po (around 21) and the posterior probability Po (22 side) are equal to or greater than a predetermined threshold Th (S1710). That is, here, the conditional expression “Po (1 side) ≧ Th”, the conditional expression “Po (around 1) ≧ Th”, the conditional expression “Po (21 side), Po (around 22) ≧ Th”, the conditional expression “ It is determined whether or not at least one of the four conditional expressions “Po (around 21), Po (22 side) ≧ Th” is satisfied. The threshold Th may be set freely by the designer within a range satisfying 0 <Th <1.

そして、閾値Th以上ではないと判定すると(S1710:N)、S1720〜S1780の処理を実行することなく、当該選択処理を終了する。
一方、閾値Th以上であると判定すると(S1710:Y)、CPU25aは、事後確率Po(1側)が、事後確率Po(1側),Po(1前後),Po(21側),Po(22前後),Po(21前後),Po(22側)の集合の中で、最大であるか否かを判断する(S1720)。
If it is determined that it is not equal to or greater than the threshold Th (S1710: N), the selection process is terminated without executing the processes of S1720 to S1780.
On the other hand, if it is determined that the threshold value Th is equal to or greater than the threshold Th (S1710: Y), the CPU 25a determines that the posterior probability Po (1 side) is the posterior probability Po (1 side), Po (around 1), Po (21 side), Po ( 22), Po (around 21), and Po (22 side) are determined to be the maximum (S1720).

そして、事後確率Po(1側)が最大であると判断すると(S1720:Y)、線分L1が車両側面を近似した線分であると判定して、当該単一線分からなる近似図形パターンを、前方に位置する車両の輪郭として最も確からしい図形パターンとして選択する(S1730)。その後、当該選択処理を終了する。   When it is determined that the posterior probability Po (1 side) is the maximum (S1720: Y), it is determined that the line segment L1 is a line segment that approximates the vehicle side surface, and the approximate figure pattern that consists of the single line segment is The most probable figure pattern is selected as the contour of the vehicle located ahead (S1730). Thereafter, the selection process ends.

一方、事後確率Po(1側)が最大ではないと判断すると(S1720:N)、CPU25aは、事後確率Po(1前後)が上記集合の中で最大であるか否かを判断する(S1740)。そして、事後確率Po(1前後)が最大であると判断すると(S1740:Y)、線分L1が車両前後面を近似した線分であると判定し、当該単一線分からなる近似図形パターンを、前方に位置する車両の輪郭として最も確からしい図形パターンとして選択する(S1750)。その後、当該選択処理を終了する。   On the other hand, when determining that the posterior probability Po (1 side) is not the maximum (S1720: N), the CPU 25a determines whether the posterior probability Po (around 1) is the maximum in the set (S1740). . When it is determined that the posterior probability Po (around 1) is the maximum (S1740: Y), it is determined that the line segment L1 is a line segment approximating the vehicle front-rear surface, and an approximate figure pattern composed of the single line segment is The most probable figure pattern is selected as the contour of the vehicle located in front (S1750). Thereafter, the selection process ends.

この他、事後確率Po(1前後)が最大ではないと判断すると(S1740:N)、事後確率Po(21側)及び事後確率Po(22前後)のいずれか一方が上記集合の中で最大であるか否かを判断する(S1760)。   In addition, if it is determined that the posterior probability Po (around 1) is not the maximum (S1740: N), either the posterior probability Po (21 side) or the posterior probability Po (around 22) is the maximum in the set. It is determined whether or not there is (S1760).

そして、事後確率Po(21側)及び事後確率Po(22前後)のいずれか一方が最大であると判断すると(S1760:Y)、線分L21が車両側面を近似した線分であり、線分L22が車両前後面を近似した線分であると判定し、L字状の近似図形パターンを、前方に位置する車両の輪郭として最も確からしい図形パターンとして選択する(S1770)。その後、当該選択処理を終了する。   When it is determined that either the posterior probability Po (21 side) or the posterior probability Po (around 22) is the maximum (S1760: Y), the line segment L21 is a line segment that approximates the vehicle side surface, and the line segment L22 is determined to be a line segment that approximates the vehicle front-rear surface, and the L-shaped approximate graphic pattern is selected as the most probable graphic pattern as the contour of the vehicle positioned ahead (S1770). Thereafter, the selection process ends.

一方、事後確率Po(21側)及び事後確率Po(22前後)のいずれとも上記集合の中で最大ではないと判断すると(S1760:N)、CPU25aは、線分L21が車両前後面を近似した線分であり、線分L22が車両側面を近似した線分であると判定し、L字状の近似図形パターンを、前方に位置する車両の輪郭として最も確からしい図形パターンとして選択する(S1780)。その後、当該選択処理を終了する。   On the other hand, if it is determined that neither the posterior probability Po (21 side) or the posterior probability Po (around 22) is the maximum in the above set (S1760: N), the CPU 25a approximates the vehicle front-rear surface. It is a line segment, and it is determined that the line segment L22 is a line segment that approximates the vehicle side surface, and the L-shaped approximate graphic pattern is selected as the most probable graphic pattern as the contour of the vehicle located ahead (S1780). . Thereafter, the selection process ends.

このようにしてS1700で選択処理を終了すると、CPU25aは、S1800に移行して、図17に示す状態推定処理を実行する。
本実施例では、この現在過去状態推定処理を実行することにより、S110での測位結果に基づき、現在の車両状態及び次回の車両状態推定処理実行時(即ち、次サイクル)の車両状態を推定する。以下では、この現在過去状態推定処理を、図17を用いて詳細に説明する前に、その概略について説明する。
When the selection process ends in S1700 as described above, the CPU 25a proceeds to S1800 and executes the state estimation process shown in FIG.
In the present embodiment, by executing the current past state estimation process, the current vehicle state and the vehicle state at the time of executing the next vehicle state estimation process (that is, the next cycle) are estimated based on the positioning result in S110. . In the following, this current past state estimation process will be outlined before it will be described in detail with reference to FIG.

状態推定処理では、まず、S1700で実行した選択処理の判定結果と、S120,S1300で算出した各線分L1,L21,L22の中点の位置座標、向き、及び長さの算出結果とに従い、前方物体を車両とみなして、上記座標系Aで、その前方車両の中心点の位置座標(x0m,y0m)、車両の向き(車両前後方向軸線の座標系Ax軸とのなす角度)θm、車両の全長Lm及び全幅Wmを求める。 In the state estimation process, first, according to the determination result of the selection process executed in S1700 and the calculation results of the position coordinates, orientations, and lengths of the midpoints of the line segments L1, L21, and L22 calculated in S120 and S1300, forward The object is regarded as a vehicle, and in the coordinate system A, the position coordinates (x0 m , y0 m ) of the center point of the preceding vehicle, the direction of the vehicle (the angle between the vehicle longitudinal axis and the coordinate system Ax axis) θ m Then, the total length L m and the total width W m of the vehicle are obtained.

そして、これらの観測値z   And these observations z

を、後述する座標系Bに置換した後、この座標変換後の観測値zを、カルマンフィルタへの入力とし、座標系Bでの前方車両の状態量xs And, after replacing the coordinate system B to be described later, the observed value z after the coordinate transformation, the input to the Kalman filter of the forward vehicle in the coordinate system B state quantities x s

を、カルマンフィルタの出力として、得る。ここでx0は、前方車両中心点の座標系Bx軸上の座標値、vxは前方車両の速度x軸成分、y0は、前方車両中心点の座標系By軸上の座標値、vyは前方車両の速度y軸成分、θは、x軸と車両側面(若しくは車両前後方向軸線)とのなす角度(但し、0≦θ<πになるように規格化される。)、ωは、角度θの時間微分(つまり角速度)、Wは、前方車両全幅、Lは、前方車両全長を示す。 Is obtained as the output of the Kalman filter. Here x0 is the coordinate value on the coordinate system Bx axis of the forward vehicle center point, v x is the velocity x-axis component of the forward vehicle, y0 is the coordinate system By on-axis coordinate value of the forward vehicle center point, v y is The forward vehicle speed y-axis component, θ, is the angle formed by the x-axis and the vehicle side surface (or the vehicle longitudinal axis) (however, normalized so that 0 ≦ θ <π), and ω is the angle Time differentiation of θ (that is, angular velocity), W is the front vehicle full width, and L is the front vehicle full length.

具体的に、本実施例では、カルマンフィルタとして、非線形運動モデルに適用可能なアンセンテッドカルマンフィルタ(UKF)を用いて、前方車両の状態量xsを求める。図15は、観測値zから状態量xsの推定手順を、示した説明図である。 Specifically, in this embodiment, an unscented Kalman filter (UKF) applicable to a nonlinear motion model is used as the Kalman filter, and the state quantity x s of the preceding vehicle is obtained. FIG. 15 is an explanatory diagram showing a procedure for estimating the state quantity x s from the observed value z.

本実施例の推定装置1は、このアンセンテッドカルマンフィルタとしての機能をCPU25aに実現させるためのプログラムを、ROM25bに備え、S1800にて、CPU25aにより、このプログラムを実行することによって、状態量xsを求める。 The estimation apparatus 1 according to the present embodiment includes a program for causing the CPU 25a to realize the function as the unscented Kalman filter in the ROM 25b. In S1800, the CPU 25a executes the program to obtain the state quantity x s . Ask.

尚、ここで用いられるアンセンテッドカルマンフィルタは、周知の理論に基づいて構築されるものであり、設計者が設定する運動モデル及び観測モデルによって定まる伝達関数により、入力に対する出力を演算するものである。   The unscented Kalman filter used here is constructed based on a well-known theory, and calculates an output with respect to an input by a transfer function determined by a motion model and an observation model set by a designer.

従って、以下では、カルマンフィルタ及びアンセンテッドカルマンフィルタの原理についての説明は省略し、アンセンテッドカルマンフィルタ(UKF)の説明として、本実施例の推定装置1の動作を実現するに当って、アンセンテッドカルマンフィルタの設計に必要な運動モデル、観測モデル、及び、アンセンテッドカルマンフィルタに入出力されるパラメータについて説明する。   Therefore, in the following, description of the principles of the Kalman filter and the unscented Kalman filter is omitted, and as an explanation of the unscented Kalman filter (UKF), the design of the unscented Kalman filter is implemented in realizing the operation of the estimation device 1 of the present embodiment. The motion model, observation model, and parameters input to and output from the unscented Kalman filter will be described.

図15に示すように、本実施例のアンセンテッドカルマンフィルタには、最新サイクルtの測位結果に基づいて算出された上述の観測値z(t)と、前サイクルt−1にて観測値z(t−1)に基づきアンセンテッドカルマンフィルタが演算し出力した状態量xs(t,t−1)が入力される。そして、この入力に基づいた演算によりアンセンテッドカルマンフィルタからは、現在の車両状態を示す状態量xs(t,t)と、次サイクルt+1の車両状態を示す状態量xs(t+1,t)と、が出力される。但し、本実施例では、時刻(サイクル)t2での観測値z(t2)の入力に基づいて求められる時刻(サイクル)t1での車両の状態量xsを、特に、xs(t1,t2)と表記する。 As shown in FIG. 15, in the unscented Kalman filter of the present embodiment, the observed value z (t) calculated based on the positioning result of the latest cycle t and the observed value z ( The state quantity x s (t, t−1) calculated and output by the unscented Kalman filter based on t−1) is input. Then, from the unscented Kalman filter by the calculation based on this input, the state quantity x s (t, t) indicating the current vehicle state and the state quantity x s (t + 1, t) indicating the vehicle state of the next cycle t + 1 are obtained. , Is output. However, in this embodiment, the vehicle state quantity x s at the time (cycle) t 1 obtained based on the input of the observation value z (t 2 ) at the time (cycle) t 2 , in particular, x s ( t 1 , t 2 ).

このアンセンテッドカルマンフィルタから出力される現在の車両状態を表す状態量xs(t,t)は、CPU25aの動作により、推定装置1の制御部25に接続された車内ネットワークに送出される。また、現在の車両状態を表す状態量xs(t,t)及び次サイクルの車両状態を表すxs(t+1,t)は、RAM25cに保存される。そして、次サイクルの車両状態を表すxs(t+1,t)は、上述したように、次サイクルの状態推定処理実行時に用いられる。この他、RAM25cに保存された状態量xs(t,t)は、次サイクル推定処理実行時に、入力とする観測値z(t)を座標系Bに置換する際に用いられる。 The state quantity x s (t, t) representing the current vehicle state output from the unscented Kalman filter is sent to the in-vehicle network connected to the control unit 25 of the estimation device 1 by the operation of the CPU 25a. Further, the state quantity x s (t, t) representing the current vehicle state and x s (t + 1, t) representing the vehicle state of the next cycle are stored in the RAM 25c. Then, x s (t + 1, t) representing the vehicle state of the next cycle is used when the state estimation process of the next cycle is executed as described above. In addition, the state quantity x s (t, t) stored in the RAM 25c is used when the input observation value z (t) is replaced with the coordinate system B when the next cycle estimation process is executed.

尚、アンセンテッドカルマンフィルタで用いられる座標系Bは、前サイクルの前方車両の位置及び向きを基準にして設定されるxy座標系であり、原点が、前サイクルt−1の状態推定処理にて推定された状態量xs(t−1,t−1)が示す車両中心点の位置座標(x0,y0)に、設定され、y軸が、前サイクルt−1の状態推定処理にて推定された状態量xs(t−1,t−1)が示す車両の向きに(車両の前後方向軸線に沿って)設定され、x軸が、y軸とは直交するように設定されるxy座標系である。座標系Aから座標系Bへの変換に際しては、時刻t−1からtまでの自車両の変位量のパラメータが必要になるが、このパラメータについては、S1505で求めたパラメータ(δx,δy,δθ)を用いる。また、座標変換に際しては、ヘルマート変換を用いる。なお今回は、前方車両50を基準として座標系を設定したが、任意の位置を基準として構わない。 The coordinate system B used in the unscented Kalman filter is an xy coordinate system set with reference to the position and orientation of the preceding vehicle in the previous cycle, and the origin is estimated by the state estimation process in the previous cycle t-1. The position coordinate (x0, y0) of the vehicle center point indicated by the state quantity x s (t−1, t−1) is set, and the y axis is estimated in the state estimation process of the previous cycle t−1. Xy coordinates that are set in the direction of the vehicle indicated by the state quantity x s (t−1, t−1) (along the longitudinal axis of the vehicle) and the x axis is set to be orthogonal to the y axis It is a system. In the conversion from the coordinate system A to the coordinate system B, the parameter of the displacement amount of the host vehicle from the time t-1 to the time t is necessary. These parameters are the parameters (δx, δy, δθ) obtained in S1505. ) Is used. Further, Helmat transformation is used for coordinate transformation. In this case, the coordinate system is set based on the preceding vehicle 50, but any position may be used as a reference.

以上には、アンセンテッドカルマンフィルタの入出力について説明したが、次には、本実施例の推定装置1が備えるアンセンテッドカルマンフィルタの運動モデルについて説明する。本実施例の推定装置1は、後述する非線形運動モデルに基づいて設計されたアンセンテッドカルマンフィルタ(以下、「UKF1」と表記する。)と、後述する線形運動モデルに基づいて設計されたアンセンテッドカルマンフィルタ(以下、「UKF2」と表記する。)と、を備え、UKF1及びUKF2を切り替えて用いて、車両状態を推定する。   The input / output of the unscented Kalman filter has been described above. Next, a motion model of the unscented Kalman filter provided in the estimation apparatus 1 of the present embodiment will be described. The estimation apparatus 1 of the present embodiment includes an unscented Kalman filter (hereinafter referred to as “UKF1”) designed based on a nonlinear motion model described later, and an unscented Kalman filter designed based on a linear motion model described later. (Hereinafter referred to as “UKF2”), and the vehicle state is estimated by switching between UKF1 and UKF2.

UKF1は、非線形運動モデルとしての等速円運動モデルに基づいて設計されたものであり、前方車両が旋回運動していると想定される際に用いられる。具体的に、UKF1は、次の運動モデルに基づいて設計され、推定装置1に搭載される。尚、等速円運動を用いる理由は、旋回運動を捉えるのに好適だからである。   UKF1 is designed based on a constant velocity circular motion model as a non-linear motion model, and is used when it is assumed that the preceding vehicle is turning. Specifically, the UKF 1 is designed based on the following motion model and mounted on the estimation device 1. The reason for using the uniform circular motion is that it is suitable for capturing the turning motion.

上式の修飾記号*は、繰り返し実行される上記車両状態推定処理の一周期Ts後の状態を示し、Tsは、当該繰り返し周期である。尚、ここで用いるパラメータx,yは、前方車両50の中心位置であり、アンセンテッドカルマンフィルタへの入力x0m,y0mに対応する。 The modifier symbol * in the above expression indicates a state after one cycle T s of the vehicle state estimation process that is repeatedly executed, and T s is the repetition cycle. The parameters x and y used here are the center positions of the forward vehicle 50 and correspond to the inputs x0 m and y0 m to the unscented Kalman filter.

上式に示されるx*、y*、vx *、vy *、θ*及びω*と、x、y、vx、vy、θ及びωとの関係は、等速円運動という条件から当然に求められる。また、車両の全幅W及び全長Lは、時間に無関係であると考えて、時間が経っても変化しないと定義する。 X * shown in the above equation, y *, v x *, v y *, the relationship between the θ * and ω *, x, y, and v x, v y, θ and ω is, the condition that constant velocity circular motion Naturally required from. Further, it is defined that the full width W and the full length L of the vehicle are independent of time and do not change over time.

但し、この運動モデルでは、分母にωがあるので、ωがゼロである時は計算ができない。そこで、ωがゼロのときは、状態量xsの推定にUKF2を用いて、運動モデルを、等速円運動モデルから等速直線運動モデルに変更して、状態量xsを推定する。 However, in this motion model, since there is ω in the denominator, calculation is not possible when ω is zero. Therefore, when ω is zero, the motion model is changed from the constant-velocity circular motion model to the constant-velocity linear motion model by using UKF2 for estimating the state variable x s , and the state variable x s is estimated.

即ち、本実施例のUKF2は、線形運動モデルとしての等速直線運動モデルに基づいて設計されたものであり、前方車両が直線運動していると想定される際に用いられる。具体的に、UKF1は、次の運動モデルに基づいて設計され、推定装置1に搭載される。   That is, UKF2 of the present embodiment is designed based on a constant velocity linear motion model as a linear motion model, and is used when it is assumed that the preceding vehicle is linearly moving. Specifically, the UKF 1 is designed based on the following motion model and mounted on the estimation device 1.

また、本実施例のUKF1及びUKF2における観測モデルは、z(t)に対して、θmを0°≦θm<180°になるように規格化したものである。なお、観測モデルは、これに限らず、設計者が自由に設計できる。 Also, the observation model in UKF1 and UKF2 of this embodiment, with respect to z (t), a theta m is obtained by normalizing such that 0 ° ≦ θ m <180 ° . The observation model is not limited to this, and the designer can freely design the observation model.

本実施例では、このような構成のUKF1,UKF2を用いて、前方車両の状態量Xsを推定する。
続いて、これらのアンセンテッドカルマンフィルタの入力に用いる観測値z(t)の設定方法について簡単に説明する。尚、この設定処理は、具体的に、状態推定処理のS1805からS1842の処理にて実現される。
In this embodiment, by using the UKF1, UKF2 having such a configuration, estimates the state quantity X s of the forward vehicle.
Next, a method for setting the observation value z (t) used for the input of these unscented Kalman filters will be briefly described. This setting process is specifically realized by the processes from S1805 to S1842 of the state estimation process.

上述したように、状態推定処理では、z(t)を設定するために、選択処理の判定結果と、S120,S1300で算出した各線分L1,L21,L22の中点の位置座標、向き、及び長さの算出結果とに従い、前方物体を車両とみなして、前方車両の中心点の位置座標(x0m,y0m)、車両の向き(車両前後方向軸線の座標系Ax軸とのなす角度)θm、車両の全長Lm及び全幅Wmを求めるが、前方車両が、図4(a)に示す状態であるか、図4(b)に示す状態にあるかによって測位できる車両の部位が変わるため、当然に、測位結果に従って、前方車両の中心点の位置座標(x0m,y0m)を求める際の処理手順が変わる。そこで、ここでは、具体例を挙げて、z(t)の設定方法を説明する。 As described above, in the state estimation process, in order to set z (t), the determination result of the selection process, the position coordinates of the midpoints of the line segments L1, L21, and L22 calculated in S120 and S1300, the orientation, and According to the length calculation result, the front object is regarded as a vehicle, the position coordinates (x0 m , y0 m ) of the center point of the preceding vehicle, the direction of the vehicle (the angle formed by the coordinate system Ax axis of the vehicle longitudinal axis) θ m , the total length L m and the total width W m of the vehicle are obtained, and the vehicle parts that can be measured depending on whether the preceding vehicle is in the state shown in FIG. 4A or the state shown in FIG. Of course, the processing procedure for obtaining the position coordinates (x0 m , y0 m ) of the center point of the preceding vehicle changes according to the positioning result. Therefore, here, a method for setting z (t) will be described with a specific example.

図16は、選択処理にて線分L21が車両側面を近似した線分であると判定され、線分L22が車両前後面を近似した線分であると判定された場合のz(t)の導出方法を示した説明図である。   In FIG. 16, z (t) in the case where it is determined in the selection process that the line segment L21 is a line segment that approximates the vehicle side surface and the line segment L22 is a line segment that approximates the vehicle front-rear surface. It is explanatory drawing which showed the derivation method.

図16に示すように、この場合には、線分L21の長さを、車両の全長Lmに設定し、線分L22の長さを、車両の全幅Wmに設定する。また、x軸と線分L21とがなす角度を車両の向きθmに設定する。そして、線分L22と接続されない線分L21の端点と、線分L21と接続されない線分L22の端点とを結んでできる線分L3の中点の位置を、前方車両の中心点とし、その中心点のx軸の座標値をxm、そのy軸の座標値をymに設定する。このようにして、z(t)を設定する。 As shown in FIG. 16, in this case, the length of the line segment L21, and set the length L m of the vehicle, the length of the line segment L22, sets a full width W m of the vehicle. Moreover, setting the angle between the x-axis and the line segment L21 in the direction theta m of the vehicle. And the position of the midpoint of the line segment L3 formed by connecting the end point of the line segment L21 not connected to the line segment L22 and the end point of the line segment L22 not connected to the line segment L21 is set as the center point of the preceding vehicle, and the center the coordinate values of the x-axis of the point x m, sets the coordinate values of the y-axis to the y m. In this way, z (t) is set.

また、選択処理にて線分L21が車両側面を近似した線分であると判定され、線分L22が車両前後面を近似した線分であると判定された場合には、上述した「線分L21が車両側面を近似した線分であると判定され、線分L22が車両前後面を近似した線分であると判定された場合」のz(t)の設定に関する説明において、線分L21を、線分L22に読み替え、線分L22を線分L21に読み替えて解釈される手法で、xm,ym,θm,Wm,Lmを設定する。 Further, when it is determined in the selection process that the line segment L21 is a line segment that approximates the vehicle side surface, and the line segment L22 is determined to be a line segment that approximates the vehicle front-rear surface, In the description regarding the setting of z (t) in the case where it is determined that L21 is a line segment approximating the vehicle side surface and the line segment L22 is a line segment approximating the vehicle front-rear surface, X m , y m , θ m , W m , and L m are set by a method in which the line segment L22 is read and the line segment L22 is read as the line segment L21.

一方、選択処理にて、線分L1が車両側面又は車両前後面を近似した線分であると判定された場合には、S1805で肯定判断して、次のように、xm,ym,θm,Wm,Lmを設定する。続いて、図17を用いてS1800でCPU25aが実行する状態推定処理について詳細に説明する。 On the other hand, if it is determined in the selection process that the line segment L1 is a line segment approximating the vehicle side surface or the vehicle front-rear surface, an affirmative determination is made in S1805, and x m , y m , θ m , W m , and L m are set. Next, the state estimation process executed by the CPU 25a in S1800 will be described in detail with reference to FIG.

この状態推定処理を開始すると、CPU25aは、S1700において単一線分からなる近似図形パターンが、前方に位置する車両の輪郭として最も確からしい図形パターンとして選択されたか否かを判断し(S1805)、単一線分からなる近似図形パターンが選択されたと判断すると(S1805:Y)、S1810に移行する。一方、S1700においてL字状の近似図形パターンを、前方に位置する車両の輪郭として最も確からしい図形パターンとして選択している場合には(S1805:N)、S1810〜S1840の処理を実行することなく、S1842に移行する。   When this state estimation process is started, the CPU 25a determines in S1700 whether or not the approximate graphic pattern consisting of a single line segment has been selected as the most probable graphic pattern as the contour of the vehicle located ahead (S1805). If it is determined that an approximate figure pattern consisting of minutes has been selected (S1805: Y), the flow proceeds to S1810. On the other hand, when the L-shaped approximate graphic pattern is selected as the most probable graphic pattern as the contour of the vehicle located ahead in S1700 (S1805: N), the processing of S1810 to S1840 is not executed. , The process proceeds to S1842.

S1810に移行すると、CPU25aは、現在対象としている前方車両50について現サイクルより過去のサイクルの選択処理で、L字状の近似図形パターンを、前方に位置する車両の輪郭として最も確からしい図形パターンとして選択したことがあるか否かを判断する(S1810)。   In step S1810, the CPU 25a selects the L-shaped approximate graphic pattern as the most probable graphic pattern as the contour of the vehicle ahead by the selection process of the cycle ahead of the current cycle for the current target forward vehicle 50. It is determined whether it has been selected (S1810).

そして、L字状の近似図形パターンを選択したことがあれば(S1810:Y)、今回の選択処理にて、線分L1が車両前後面を近似した線分であると判定されているか否かを判断する(S1815)。そして、線分L1が車両前後面を近似した線分であると判定されている場合には(S1815:Y)、上記過去において推定された当該車両についての車両側面の長さを、Lmに設定し、線分L1の長さを、Wmに設定して、これらの値Lm,Wmがz(t)に用いられるようにする(S1820)。その後、S1842に移行する。 If an L-shaped approximate graphic pattern has been selected (S1810: Y), whether or not the line segment L1 is determined to be a line segment that approximates the vehicle front-rear surface in this selection process. Is determined (S1815). If it is determined that the line segment L1 is a line segment that approximates the vehicle front-rear surface (S1815: Y), the length of the vehicle side surface for the vehicle estimated in the past is set to L m . Then, the length of the line segment L1 is set to W m so that these values L m and W m are used for z (t) (S1820). Thereafter, the flow proceeds to S1842.

一方、線分L1が車両側面を近似した線分であると判定されている場合には(S1815:N)、上記過去において推定された当該車両についての車両前後面の長さを、Wmに設定し、線分L1の長さを、Lmに設定する(S1825)。その後、S1842に移行する。 On the other hand, when it is determined that the line segment L1 is a line segment that approximates the vehicle side surface (S1815: N), the length of the vehicle front-rear surface for the vehicle estimated in the past is set to W m . Then, the length of the line segment L1 is set to L m (S1825). Thereafter, the flow proceeds to S1842.

これに対し、現在対象としている前方車両50について現サイクルより過去のサイクルの選択処理で、L字状の近似図形パターンを、前方に位置する車両の輪郭として最も確からしい図形パターンとして選択したことがなければ(S1810:N)、S1830に移行し、今回の選択処理にて、線分L1が車両前後面を近似した線分であると判定されているか否かを判断する(S1830)。   On the other hand, the L-shaped approximate graphic pattern is selected as the most probable graphic pattern as the contour of the vehicle located ahead in the selection process of the cycle ahead of the current cycle for the forward vehicle 50 currently targeted. If not (S1810: N), the process proceeds to S1830, and it is determined whether or not it is determined in this selection process that the line segment L1 is a line segment that approximates the vehicle front-rear surface (S1830).

そして、線分L1が車両前後面を近似した線分であると判定されている場合には(S1830:Y)、線分L1の長さを、Wmに設定すると共に、車両側面の長さLmに、所定長さ(例えば、図9(a)で側面の確率がピークになる長さ)を設定する(S1835)。その後、S1842に移行する。 When it is determined that the line segment L1 is a line segment that approximates the vehicle front-rear surface (S1830: Y), the length of the line segment L1 is set to W m and the length of the vehicle side surface is set. A predetermined length (for example, the length at which the probability of the side surface reaches a peak in FIG. 9A) is set in L m (S1835). Thereafter, the flow proceeds to S1842.

また、線分L1が車両側面を近似した線分であると判定されている場合には(S1830:N)、線分L1の長さを、Lmに設定すると共に、車両前後面の長さWmに、所定長さ(例えば、図9(a)で前後面の確率がピークになる長さ)を設定する(S1840)。その後、S1842に移行する。 Further, if the line segment L1 is determined that the line segment approximating the vehicle side (S1830: N), the length of the line segment L1, and sets the L m, the length of the vehicle longitudinal plane A predetermined length (for example, the length at which the probability of the front and rear surfaces peaks in FIG. 9A) is set in W m (S1840). Thereafter, the flow proceeds to S1842.

また、S1842に移行すると、CPU25aは、アンセンテッドカルマンフィルタに入力するための観測値z(t)を設定する。
具体的に、S1700の選択処理で、L字状の近似図形パターンを、前方に位置する車両の輪郭として最も確からしい図形パターンとして選択している場合(即ち、選択処理にて線分L21が車両側面を近似した線分であると判定し、線分L22が車両前後面を近似した線分であると判定した場合、又は、線分L21が車両側面を近似した線分であると判定し、線分L22が車両前後面を近似した線分であると判定した場合)には、上述した手法で、観測値z(t)を設定する。
In S1842, the CPU 25a sets an observation value z (t) for input to the unscented Kalman filter.
Specifically, when the L-shaped approximate graphic pattern is selected as the most probable graphic pattern as the contour of the vehicle located ahead in the selection process of S1700 (that is, the line segment L21 is the vehicle in the selection process). When the line segment L22 is determined to be a line segment that approximates the side surface and the line segment L22 is determined to be a line segment that approximates the vehicle front-rear surface, or the line segment L21 is determined to be a line segment that approximates the vehicle side surface, When it is determined that the line segment L22 is a line segment that approximates the vehicle front-rear surface), the observation value z (t) is set by the above-described method.

一方、S1700の選択処理で、単一線分からなる近似図形パターンを、前方に位置する車両の輪郭として最も確からしい図形パターンとして選択した場合(即ち、選択処理にて線分L1が車両側面又は車両前後面を近似した線分であると判定した場合)には、S1820、S1825、S1835及びS1840のいずれかにて設定したWm,Lmの情報と線分L1の情報とに基づき、前方車両の中心点の位置座標(x0m,y0m)を含むz(t)を算出し、観測値z(t)を設定する(S1842)。具体的には、線分L1の中点を基点に、線分L1と直交方向で座標系A(xy座標系)におけるyの値が大きくなる向きに沿って、車両全幅Wm又は車両全長Lmの半分の長さを移動した位置を、前方車両の中心点とみなして、前方車両の中心点の位置座標(x0m,y0m)を算出する。そして、更に、車両の向きθmを求めて、観測値z(t)を設定する。 On the other hand, when the approximate graphic pattern consisting of a single line segment is selected as the most probable graphic pattern as the contour of the vehicle located ahead in the selection process of S1700 (that is, the line segment L1 is the vehicle side surface or the vehicle front-rear direction in the selection process). If it is determined that the surface is an approximated line segment), based on the information of W m and L m set in any of S1820, S1825, S1835, and S1840 and the information of the line segment L1, Z (t) including the position coordinates (x0 m , y0 m ) of the center point is calculated, and the observed value z (t) is set (S1842). Specifically, the vehicle full width W m or the vehicle full length L along the direction in which the y value in the coordinate system A (xy coordinate system) increases in the direction orthogonal to the line segment L1 with the midpoint of the line segment L1 as the base point. The position moved half the length of m is regarded as the center point of the preceding vehicle, and the position coordinates (x0 m , y0 m ) of the center point of the preceding vehicle are calculated. Further, the vehicle orientation θ m is obtained, and the observation value z (t) is set.

また、S1842にて座標系Aでの観測値z(t)を設定すると、この観測値z(t)を上述した座標系Bに座標変換する。即ち、座標系Aの観測値z(t)を、前回の車両状態推定処理によって推定された状態量xs(t−1,t−1)が示す車両中心点の座標(x0,y0)が原点となる座標系Bに射影する(S1845)。 Further, when the observation value z (t) in the coordinate system A is set in S1842, the observation value z (t) is coordinate-converted into the coordinate system B described above. That is, the coordinate (x0, y0) of the vehicle center point indicated by the state quantity x s (t−1, t−1) estimated by the previous vehicle state estimation process is the observation value z (t) of the coordinate system A. Projection is performed on the coordinate system B serving as the origin (S1845).

また、前回の車両状態推定処理によって推定された現在の車両状態の予測値である状態量xs(t,t−1)を、前回の座標系B(即ち、状態量xs(t−2,t−2)が示す車両中心点の座標(x0,y0)が原点となる座標系B)から今回の座標系B(即ち、状態量xs(t−1,t−1)が示す車両中心点の座標(x0,y0)が原点となる座標系B)に座標変換する(S1847)。 Further, the state quantity x s (t, t−1), which is the predicted value of the current vehicle state estimated by the previous vehicle state estimation process, is used as the previous coordinate system B (that is, the state quantity x s (t−2). , T-2), the vehicle indicated by the current coordinate system B (that is, the state quantity x s (t-1, t-1)) from the coordinate system B whose origin is the coordinate (x0, y0) of the vehicle center point indicated by The coordinates are converted into a coordinate system B) where the coordinates (x0, y0) of the center point are the origin (S1847).

次に、前回の車両状態推定処理における推定結果である状態量xs(t−1,t−1)が示す角速度ωがゼロであるかを判断し(S1850)、角速度ωがゼロであったなら(S1850:Y)、S1865で用いる運度モデルを等速直線運動モデルに(換言すると、用いるカルマンフィルタをUKF2に)設定し(S1860)、角速度ωがゼロでなかったなら(S1850:N)、S1865で用いる運動モデルを等速円運動モデルに(換言すると、用いるカルマンフィルタをUKF1に)設定する(S1855)。その後、
S1865に移行する。
Next, it is determined whether the angular velocity ω indicated by the state quantity x s (t−1, t−1) as an estimation result in the previous vehicle state estimation process is zero (S1850), and the angular velocity ω is zero. If (S1850: Y), the mobility model used in S1865 is set to a constant velocity linear motion model (in other words, the Kalman filter to be used is set to UKF2) (S1860), and the angular velocity ω is not zero (S1850: N), The motion model used in S1865 is set to a constant velocity circular motion model (in other words, the Kalman filter to be used is set to UKF1) (S1855). afterwards,
The process moves to S1865.

また、S1865では、設定した運動モデルに基づいて設計されたアンセンテッドカルマンフィルタに、座標系Bへの変換後の観測値Z(t)及び状態量xs(t,t−1)を入力して、アンセンテッドカルマンフィルタから現在の車両状態を表す状態量xs(t,t)及び次サイクルの車両状態を表す状態量xs(t+1,t)を得る。 In S 1865, the observed value Z (t) and state quantity x s (t, t−1) after conversion to the coordinate system B are input to the unscented Kalman filter designed based on the set motion model. The state quantity x s (t, t) representing the current vehicle state and the state quantity x s (t + 1, t) representing the vehicle state of the next cycle are obtained from the unscented Kalman filter.

即ち、角速度ωがゼロであると判断した場合(S1850:Y)には、UKF2を用いて状態量xs(t,t)及び状態量xs(t+1,t)を算出し、角速度ωがゼロでないと判断した場合(S1850:N)には、UKF1を用いて状態量xs(t,t)及び状態量xs(t+1,t)を算出する。 That is, when it is determined that the angular velocity ω is zero (S1850: Y), the state quantity x s (t, t) and the state quantity x s (t + 1, t) are calculated using UKF2, and the angular velocity ω is If it is determined that it is not zero (S1850: N), the state quantity x s (t, t) and the state quantity x s (t + 1, t) are calculated using UKF1.

また、S1865では、算出した座標系Bでの状態量xs(t,t)及び状態量xs(t+1,t)をRAM25cに保存する。その後、当該状態推定処理を終了する。
そして、S1800に移行すると、S190に移行し、次回の尤度算出処理で用いる車両状態の予測値を、状態量xs(t+1,t)に基づき算出して、同じく、RAM25cに保存する。
In S1865, the calculated state quantity x s (t, t) and state quantity x s (t + 1, t) in the coordinate system B are stored in the RAM 25c. Thereafter, the state estimation process ends.
Then, when the process proceeds to S1800, the process proceeds to S190, and the predicted value of the vehicle state used in the next likelihood calculation process is calculated based on the state quantity x s (t + 1, t), and similarly stored in the RAM 25c.

即ち、状態量xs(t+1,t)が示す車両全長Lを、パラメータN1に設定し、状態量xs(t+1,t)が示す車両全幅Wを、パラメータN2に設定すると共に、状態量xs(t+1,t)が示す車両の向きθを、今回の座標系Aに置換して、座標系Aでの車両の向きθを、パラメータΘ1に設定し、状態量xs(t+1,t)が示す車両の速度ベクトル(vx,vy)を、座標系Aに置換し、その座標系Aでの速度ベクトル(vx,vy)が座標系Aのx軸となす角度を、パラメータΘ2に設定する。 That is, the state quantities x s (t + 1, t ) vehicle overall length L indicated, set the parameters N1, the state quantities x s (t + 1, t ) vehicle overall width W indicated, and sets the parameter N2, state quantity x The vehicle orientation θ indicated by s (t + 1, t) is replaced with the current coordinate system A, the vehicle orientation θ in the coordinate system A is set to the parameter Θ1, and the state quantity x s (t + 1, t) the velocity vector of the vehicle indicated by (v x, v y), substituting the coordinate system a, the velocity vector (v x, v y) in the coordinate system a is the angle formed between the x-axis of the coordinate system a, the parameter Set to Θ2.

また、状態量xs(t+1,t)が示す車両の中心点の位置座標(x0,y0)を、今回の座標系Aに置換して、次サイクルでの車両側面の中点の位置座標(x1,y1)、車両前後面の中点の位置座標(x2,y2)を次のように求める。 Further, the position coordinate (x0, y0) of the center point of the vehicle indicated by the state quantity x s (t + 1, t) is replaced with the current coordinate system A, and the position coordinate ( x1, y1) and the position coordinates (x2, y2) of the midpoint of the vehicle front-rear surface are obtained as follows.

即ち、座標系Aでの車両の中心点(x0,y0)を基点とし、車両の前後方向軸線に沿って、座標系Aにおけるyの値が減少する向きに、車両全長Lの半分の距離を移動した位置の座標を、車両前後面の中点の位置座標(x2,y2)として求める。また、座標系Aでの車両の中心点(x0,y0)を基点とし、車両の前後方向軸線とは垂直な直線に沿って、座標系Aにおけるyの値が減少する向きに、車両全幅Wの半分の距離を移動した位置の座標を、車両側面の中点の位置座標(x1,y1)として求める。但し、どちらの向きに進んでもyの値が変わらなければ、任意の向きに進めばよい。   That is, a distance half of the vehicle total length L is set so that the y value in the coordinate system A decreases along the longitudinal axis of the vehicle with the vehicle center point (x0, y0) in the coordinate system A as a base point. The coordinates of the moved position are obtained as the position coordinates (x2, y2) of the midpoint of the vehicle front-rear surface. In addition, the vehicle full width W in a direction in which the value of y in the coordinate system A decreases along a straight line that is based on the center point (x0, y0) of the vehicle in the coordinate system A and is perpendicular to the longitudinal axis of the vehicle. The coordinates of the position moved by half the distance are obtained as the position coordinates (x1, y1) of the midpoint of the vehicle side surface. However, if the value of y does not change in any direction, it can be advanced in any direction.

そして、これらの値(x1,y1)、(x2,y2)、N1、N2、Θ1、及び、Θ2を車両状態の予測値として、RAM25cに保存する。そして、最後にS1800で得た前方車両50の現在の情報であるxs(t,t)を車内ネットワークに出力する(S200)。そして、一連の処理を終える。 These values (x1, y1), (x2, y2), N1, N2, Θ1, and Θ2 are stored in the RAM 25c as predicted vehicle state values. Finally, x s (t, t), which is the current information of the preceding vehicle 50 obtained in S1800, is output to the in-vehicle network (S200). Then, a series of processing is finished.

上述したように、本実施例の車両状態推定処理は、旋回運動に対応できるような構成なので、従来技術に比べて使用範囲が格段に広くなっている。よって、車両に搭載すれば衝突回避のための情報として活用できるし、道路に設置する場合でも、従来ではできなかったカーブ付近での設置も可能となる。   As described above, the vehicle state estimation process according to the present embodiment has a configuration that can cope with a turning motion, and therefore the use range is significantly wider than that of the conventional technique. Therefore, if it is mounted on a vehicle, it can be used as information for collision avoidance, and even when it is installed on a road, it can be installed in the vicinity of a curve that has not been possible in the past.

尚、上記実施例では、四点以上の反射点が計測されることが後続の処理を実行する条件であった。しかし、計測した反射点の数が二点又は三点でも、推定装置1が前方車両50の状態を推定できるように、推定装置1を構成してもよい。その方法を説明すると、二点の場合、CPU25aは、S120の処理では、最小二乗法ではなく、この二点を結んだ線分の長さ、向き及び中点の位置を求める。そして、CPU25aは、二線分算出処理(S1300)を行わず、事前確率算出処理(S1400)から選択処理(S1700)までの処理で、二線分算出処理の結果に基づいて行う処理も行わない。つまり、S120で求めた線分が、車両前後面又は側面のどちらを近似しているかのみを選択する。その後の処理は、上述した処理と同様である。   In the above embodiment, measurement of four or more reflection points is a condition for executing the subsequent processing. However, the estimation device 1 may be configured so that the estimation device 1 can estimate the state of the forward vehicle 50 even if the number of measured reflection points is two or three. Explaining the method, in the case of two points, the CPU 25a obtains the length, direction, and midpoint position of the line segment connecting these two points instead of the least square method in the process of S120. Then, the CPU 25a does not perform the two-segment calculation processing (S1300), and does not perform the processing based on the result of the two-segment calculation processing in the processing from the prior probability calculation processing (S1400) to the selection processing (S1700). . That is, only whether the line segment calculated | required by S120 approximates the vehicle front-back surface or a side surface is selected. Subsequent processing is the same as the processing described above.

また、三点の場合、CPU25aは、二線分算出処理に代えて次の処理をする。その処理とは、まず、その三点のうちの二点を結んでできる線分は三本あるので、その三本の線分を算出する。そして、その三本の線分のなかから二本を選ぶことで、二線分を算出する。三本の線分のなかから二本を選ぶ方法は、例えば、二線分が作る角度のうちの劣角が、最も90度に近い二線分の組み合わせにする方法が考えられる。その後のS1400以降の処理は上述した処理と同様である。   In the case of three points, the CPU 25a performs the following process instead of the two-segment calculation process. In this process, first, since there are three line segments that connect two of the three points, the three line segments are calculated. Then, by selecting two of the three line segments, two line segments are calculated. As a method of selecting two lines from among the three line segments, for example, a method of combining two line segments having a subordinate angle closest to 90 degrees among angles formed by the two line segments is conceivable. The subsequent processing after S1400 is the same as the processing described above.

また、S1710でNoと判断した場合の後続の処理内容について、上では説明しなかったが、この場合には、車両状態推定処理を中断し、前方物体が車両ではないとして、測位をやり直しても良いし、前回の車両状態推定処理で保存したxs(t,t−1)を、現在の車両状態を表す状態量xs(t,t)として出力するように構成されてもよい。 In addition, although the subsequent processing content when it is determined No in S1710 has not been described above, in this case, the vehicle state estimation processing may be interrupted and positioning may be performed again assuming that the front object is not a vehicle. Alternatively, x s (t, t−1) stored in the previous vehicle state estimation process may be output as a state quantity x s (t, t) representing the current vehicle state.

また、S1845及びS1847の処理は、xs(t,t−1)の値がRAM25cに保存されていなければ、行うことができない。従って、その場合には、以降の処理を行わずに、観測値z(t)の情報を、RAM25cに保存した後に一連の処理を終えるように構成されるとよい。そうすれば次回の車両状態推定処理では、S1845及びS1847の処理が実行可能になる。尚、アンセンテッドカルマンフィルタによる初回演算処理実行時には、速度vx,vy、角速度ωとして所定の初期値を設定すると共に、必要な予測値を観測値で代替して、状態量xsを求めればよい。 Further, the processing of S1845 and S1847 cannot be performed unless the value of x s (t, t−1) is stored in the RAM 25c. Therefore, in this case, it is preferable that the series of processing is completed after the information of the observation value z (t) is stored in the RAM 25c without performing the subsequent processing. Then, in the next vehicle state estimation process, the processes of S1845 and S1847 can be executed. When the initial calculation process by the unscented Kalman filter is executed, predetermined initial values are set as the speeds v x , v y , and the angular speed ω, and the necessary predicted values are substituted with the observed values to obtain the state quantity x s. Good.

この他、尤度算出処理では、車両状態の予測値が必要になるが、車両状態の予測値がRAM25cに記録されていない場合には、尤度算出処理及び事後確率算出処理を実行することなく、事前確率Pをそのまま事後確率Poとして設定して、選択処理に移行すればよい。   In addition, in the likelihood calculation process, a predicted value of the vehicle state is required, but when the predicted value of the vehicle state is not recorded in the RAM 25c, the likelihood calculation process and the posterior probability calculation process are not executed. The prior probability P may be set as it is as the posterior probability Po, and the process proceeds to selection processing.

尚、特許請求の範囲に記載の推定手段は、本実施例のS120からS1865までの処理にて実現されている。この他、測位手段は、本実施例のS110の処理にて実現されている。また、本発明は、上記実施例に限定されることなく、種々の態様を採ることができることは言うまでもない。   In addition, the estimation means described in the claims is realized by the processing from S120 to S1865 of the present embodiment. In addition, the positioning means is realized by the processing of S110 of the present embodiment. Moreover, it goes without saying that the present invention can take various forms without being limited to the above embodiments.

1…推定装置、11…レーザダイオード、12…コリメータレンズ、13…レーザダイオード駆動回路、15ミラー…、17モータ…、19…集光レンズ、21…フォトダイオート、22…増幅器、23…検出回路、25…制御部、25a…CPU、25b…ROM、25c…RAM、50…前方車両 DESCRIPTION OF SYMBOLS 1 ... Estimator, 11 ... Laser diode, 12 ... Collimator lens, 13 ... Laser diode drive circuit, 15 mirror ..., 17 motor ..., 19 ... Condensing lens, 21 ... Photo-dye auto, 22 ... Amplifier, 23 ... Detection circuit , 25 ... control unit, 25a ... CPU, 25b ... ROM, 25c ... RAM, 50 ... front vehicle

Claims (6)

前方に位置する車両の運動状態を推定する推定装置であって、
レーダ波を発射し、発射波が前方に位置する車両に反射して戻ってくる反射波を受波して、前記レーダ波を反射した前記車両表面の複数地点の位置座標を計測する測位手段と、
前記測位手段により計測された前記車両表面の複数地点の位置座標に基づき、前記車両の角速度を含む前記車両の運動状態を所定の非線形運動モデルに従って推定する推定手段と、
を備えることを特徴とする推定装置。
An estimation device for estimating a motion state of a vehicle located ahead,
Positioning means for emitting a radar wave, receiving a reflected wave that is reflected back by a vehicle located in front of the vehicle, and measuring position coordinates of a plurality of points on the surface of the vehicle reflecting the radar wave; ,
Estimating means for estimating a motion state of the vehicle including an angular velocity of the vehicle based on position coordinates of a plurality of points on the vehicle surface measured by the positioning means, according to a predetermined nonlinear motion model;
An estimation apparatus comprising:
前記推定手段は、前記車両の運動状態として、前記車両の角速度以外に、前記車両の位置、前記車両の向き、前記車両の速さ、及び、前記車両の進行方向の内、少なくとも一つを推定する構成にされていること
を特徴とする請求項1に記載の推定装置。
The estimation means estimates at least one of the position of the vehicle, the direction of the vehicle, the speed of the vehicle, and the traveling direction of the vehicle, in addition to the angular velocity of the vehicle, as the motion state of the vehicle. The estimation device according to claim 1, wherein the estimation device is configured as follows.
前記推定手段は、前記非線形運動モデルが採用されたカルマンフィルタを用いて、前記車両の状態を推定する構成にされていること
を特徴とする請求項又は請求項2に記載の推定装置。
Said estimating means uses a Kalman filter to the non-linear motion model is employed, the estimation apparatus according to claim 1 or claim 2, characterized in that it is in the configuration of estimating the state of the vehicle.
前記カルマンフィルタは、アンセンテッドカルマンフィルタであること
を特徴とする請求項3に記載の推定装置。
The estimation apparatus according to claim 3, wherein the Kalman filter is an unscented Kalman filter.
前記非線形運動モデルは、等速円運動モデルであること
を特徴とする請求項又は請求項に記載の推定装置。
The nonlinear motion model estimation device according to claim 3 or claim 4, characterized in that a constant-velocity circular movement model.
前記推定手段は、前回推定した角速度がゼロである場合には、前記車両の状態の推定に用いる運動モデルを、前記非線形運動モデルから、所定の線形運動モデルに切り替えて、当該線形運動モデルに従い、前記車両の状態を推定する構成にされていること
を特徴とする請求項から請求項の何れか1項に記載の推定装置。
When the previously estimated angular velocity is zero, the estimating means switches the motion model used for estimating the state of the vehicle from the nonlinear motion model to a predetermined linear motion model, according to the linear motion model, estimating apparatus according to any one of claims 5 to claim 3, characterized in that it is in the configuration of estimating the state of the vehicle.
JP2009210703A 2009-09-11 2009-09-11 Estimating device Pending JP2009288255A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009210703A JP2009288255A (en) 2009-09-11 2009-09-11 Estimating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009210703A JP2009288255A (en) 2009-09-11 2009-09-11 Estimating device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007210275A Division JP2009042181A (en) 2007-08-10 2007-08-10 Estimating apparatus

Publications (1)

Publication Number Publication Date
JP2009288255A true JP2009288255A (en) 2009-12-10

Family

ID=41457580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009210703A Pending JP2009288255A (en) 2009-09-11 2009-09-11 Estimating device

Country Status (1)

Country Link
JP (1) JP2009288255A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011196943A (en) * 2010-03-23 2011-10-06 Denso Corp Recognition device
JP2013072842A (en) * 2011-09-29 2013-04-22 Internatl Business Mach Corp <Ibm> System and device for detecting position of object
CN109581380A (en) * 2018-12-29 2019-04-05 百度在线网络技术(北京)有限公司 Vehicle location detection method, device and computer equipment based on radar
CN110857983A (en) * 2018-08-10 2020-03-03 通用汽车环球科技运作有限责任公司 Object velocity vector estimation using multiple radars with different observation angles

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05172940A (en) * 1991-12-20 1993-07-13 Mitsubishi Electric Corp Proximity warning device
JPH05232217A (en) * 1992-02-19 1993-09-07 Fujitsu Ltd Target tracking system
JP2000131436A (en) * 1998-10-29 2000-05-12 Aisin Seiki Co Ltd Curve estimation method and vehicle speed controlling device using the same
JP2001014597A (en) * 1999-06-28 2001-01-19 Hitachi Ltd Device estimating lane position

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05172940A (en) * 1991-12-20 1993-07-13 Mitsubishi Electric Corp Proximity warning device
JPH05232217A (en) * 1992-02-19 1993-09-07 Fujitsu Ltd Target tracking system
JP2000131436A (en) * 1998-10-29 2000-05-12 Aisin Seiki Co Ltd Curve estimation method and vehicle speed controlling device using the same
JP2001014597A (en) * 1999-06-28 2001-01-19 Hitachi Ltd Device estimating lane position

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011196943A (en) * 2010-03-23 2011-10-06 Denso Corp Recognition device
JP2013072842A (en) * 2011-09-29 2013-04-22 Internatl Business Mach Corp <Ibm> System and device for detecting position of object
US9128187B2 (en) 2011-09-29 2015-09-08 International Business Machines Corporation Detection of a position of an object
CN110857983A (en) * 2018-08-10 2020-03-03 通用汽车环球科技运作有限责任公司 Object velocity vector estimation using multiple radars with different observation angles
CN110857983B (en) * 2018-08-10 2024-04-05 通用汽车环球科技运作有限责任公司 Object velocity vector estimation using multiple radars with different observation angles
CN109581380A (en) * 2018-12-29 2019-04-05 百度在线网络技术(北京)有限公司 Vehicle location detection method, device and computer equipment based on radar
CN109581380B (en) * 2018-12-29 2023-04-07 百度在线网络技术(北京)有限公司 Vehicle position detection method and device based on radar and computer equipment

Similar Documents

Publication Publication Date Title
JP2009042181A (en) Estimating apparatus
JP6477882B2 (en) Self-position estimation apparatus and self-position estimation method
JP3941795B2 (en) Leading vehicle recognition device
CN111742241B (en) Optical distance measuring device
JP5614489B2 (en) State estimation device
JP6146285B2 (en) Axis deviation judgment device
JP2004053278A (en) Front vehicle tracking system and front vehicle tracking method
JP6394227B2 (en) Object detection device
CN111708048B (en) Method, device and system for motion compensation of point cloud
CN112368597A (en) Optical distance measuring device
JP2009288255A (en) Estimating device
JP2007327840A (en) Radar system
JP6318252B2 (en) Optical speed measuring device and moving body
US20200300988A1 (en) Electronic apparatus and method
WO2023103198A1 (en) Method and device for calculating relative extrinsic parameters of ranging system, and storage medium
JP2015224928A (en) Target detector
JP2018022270A (en) Road shoulder detection method and road shoulder detection device
JP6186863B2 (en) Ranging device and program
US20180267153A1 (en) Method for identifying noise data of laser ranging device
JP2019199160A (en) Travel trajectory recognition device, travel trajectory recognition method, vehicle control device, and vehicle control method
US20200175706A1 (en) Three-dimensional position detecting device, three-dimensional position detecting system and method for detecting three-dimensional positions
WO2020050363A1 (en) Object-detecting device
JP6736682B2 (en) Sensor device, sensing method, program and storage medium
JP5767150B2 (en) Target size measuring device
JP7408236B2 (en) Position estimation method and position estimation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130702