JP2020094989A - Vehicle state estimation device - Google Patents

Vehicle state estimation device Download PDF

Info

Publication number
JP2020094989A
JP2020094989A JP2018234756A JP2018234756A JP2020094989A JP 2020094989 A JP2020094989 A JP 2020094989A JP 2018234756 A JP2018234756 A JP 2018234756A JP 2018234756 A JP2018234756 A JP 2018234756A JP 2020094989 A JP2020094989 A JP 2020094989A
Authority
JP
Japan
Prior art keywords
vehicle
speed
relationship
lateral
equation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018234756A
Other languages
Japanese (ja)
Other versions
JP6939759B2 (en
Inventor
大輝 森
Daiki Mori
大輝 森
服部 義和
Yoshikazu Hattori
義和 服部
豪軌 杉浦
Toshiki Sugiura
豪軌 杉浦
山口 裕之
Hiroyuki Yamaguchi
裕之 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2018234756A priority Critical patent/JP6939759B2/en
Publication of JP2020094989A publication Critical patent/JP2020094989A/en
Application granted granted Critical
Publication of JP6939759B2 publication Critical patent/JP6939759B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)

Abstract

To achieve a vehicle state estimation device capable of calculating lateral speed of a vehicle from an image acquired by an imaging apparatus and the vehicle speed without depending on an existing state equation.SOLUTION: A vehicle state estimation device includes: an imaging apparatus 22 which acquires image information around a vehicle; an image information processor 20 which calculates a lateral position deviation between a target route and the vehicle, a yaw angle deviation of the vehicle and a curvature of the target route from image information acquired by the imaging apparatus 22; and an arithmetic device 14 for estimating the vehicle yaw rate and vehicle lateral speed by applying an actual measurement value including the lateral position deviation, the yaw angle deviation, the curvature and the vehicle longitudinal speed obtained from a vehicle speed sensor to a relational expression of a plane motion including a side slip of the vehicle with respect to the target route.SELECTED DRAWING: Figure 1

Description

本発明は、車両状態推定装置に係り、特に、走行路と横滑りを含む車両の平面運動の関係に基づき、車両の横速度を推定する車両状態推定装置に関する。 The present invention relates to a vehicle state estimating device, and more particularly to a vehicle state estimating device that estimates a lateral speed of a vehicle based on a relationship between a traveling road and a plane motion of the vehicle including skidding.

車両の挙動、特に車両のコーナリング時の挙動における重要な要素として、車両横速度(以下、「横速度」と略記)がある。車体の横方向の運動が計測可能になる事により、例えば車両の自己位置推定が高精度に行えるようになる。従って、高精度な自己位置推定により、車両の運動を計測する他の各種センサの正確な補正も可能となる。また、車両運動モデルをオンラインで補正する事が可能になり、車両運動モデルによって算出される車両制御パラメータのオンラインチューニングにも活用できる。 There is a vehicle lateral velocity (hereinafter abbreviated as “lateral velocity”) as an important element in the behavior of the vehicle, particularly in the behavior of the vehicle when cornering. Since the lateral movement of the vehicle body can be measured, for example, the self-position estimation of the vehicle can be performed with high accuracy. Therefore, highly accurate self-position estimation enables accurate correction of other various sensors that measure the movement of the vehicle. Further, the vehicle motion model can be corrected online, which can be utilized for online tuning of vehicle control parameters calculated by the vehicle motion model.

横速度の測定には、走行中の車両からレーザ光を路面に照射し、路面で反射されたレーザ光を受信して横速度を検出する対地車速計が用いられてきたが、対地車速計は、量産車両に車載されていないため、車両運動モデルを用いた推定手法が提案されている。 For measuring the lateral speed, a ground speedometer that irradiates the road surface with a laser beam from a running vehicle and receives the laser light reflected on the road surface to detect the lateral speed has been used. Since it is not mounted on a mass-produced vehicle, an estimation method using a vehicle motion model has been proposed.

特許文献1には、車両の状態方程式を使用して横速度を算出する車両物理量推定装置の発明が開示されている。 Patent Document 1 discloses an invention of a vehicle physical quantity estimation device that calculates a lateral velocity using a vehicle state equation.

特開2010−274701号公報JP, 2010-274701, A

しかしながら、特許文献1に記載の発明は、車両の状態方程式を使用するので、環境に応じたパラメータの設定が必要であり、パラメータの設定が適切でない場合は、誤差が生じるおそれがある。 However, since the invention described in Patent Document 1 uses the state equation of the vehicle, it is necessary to set parameters according to the environment, and if the parameter settings are not appropriate, an error may occur.

本発明は、上記問題に鑑みてなされたものであり、既存の状態方程式に依存せずに、撮像装置が取得した画像及び車速から車両の横速度を算出可能な車両状態推定装置を実現することを目的とする。 The present invention has been made in view of the above problems, and realizes a vehicle state estimation device that can calculate a lateral velocity of a vehicle from an image acquired by an imaging device and a vehicle speed without depending on an existing state equation. With the goal.

上記目的を達成するために、請求項1に記載の車両状態推定装置は、車両周辺の画像情報を取得する撮像装置と、前記撮像装置が取得した画像情報から、目標経路と車両との横位置偏差、前記目標経路と車両のヨー角偏差、及び前記目標経路の曲率を算出する画像情報処理部と、前記目標経路上の目標点の移動と、横滑りを含む前記車両の運動との関係を表す式を用いて、前記横位置偏差、前記ヨー角偏差、前記曲率、及び車速センサから得られる車両前後速度を含む実測値から、前記車両のヨーレートを推定する演算部と、を含んでいる。 In order to achieve the above object, the vehicle state estimating device according to claim 1 uses an image capturing device that acquires image information of a vehicle periphery, and a lateral position between a target route and the vehicle based on the image information that the image capturing device acquires. A deviation, a yaw angle deviation between the target route and the vehicle, and an image information processing unit that calculates a curvature of the target route, a movement of a target point on the target route, and a motion of the vehicle including skidding. And a calculation unit that estimates the yaw rate of the vehicle from an actual measurement value including a lateral position deviation, the yaw angle deviation, the curvature, and a vehicle longitudinal speed obtained from a vehicle speed sensor using an equation.

また、請求項2に記載の車両状態推定装置は、請求項1に記載の車両状態推定装置において、前記演算部は、更に、前記車両の横速度を推定し、前記関係を表す式は、前記目標点の移動速度の、車両前後方向に対する垂直成分から、前記横位置偏差の変化量と、前記車両のヨー運動に伴う車両重心位置に対する前記撮像装置の横速度とを減算した結果と、前記車両の横速度とが等しい関係を表す式を含む。 The vehicle state estimation device according to claim 2 is the vehicle state estimation device according to claim 1, wherein the arithmetic unit further estimates the lateral speed of the vehicle, and the equation representing the relationship is A result obtained by subtracting a variation amount of the lateral position deviation and a lateral velocity of the imaging device with respect to a vehicle center of gravity position associated with the yaw motion of the vehicle from a vertical component of the moving speed of the target point with respect to the vehicle longitudinal direction; Includes an equation that expresses an equal relationship with the lateral velocity of.

また、請求項3に記載の車両状態推定装置は、請求項1又は2記載の車両状態推定装置において、前記関係を表す式は、前記目標点の移動速度と前記曲率との積から、前記ヨー角偏差の変化量を減算した結果と、前記車両のヨーレートとが等しい関係を表す式を含む。 The vehicle state estimating apparatus according to claim 3 is the vehicle state estimating apparatus according to claim 1 or 2, wherein the equation representing the relationship is calculated from the product of the moving speed of the target point and the curvature. It includes an expression representing a relation in which the result of subtracting the change amount of the angular deviation is equal to the yaw rate of the vehicle.

請求項4に記載の車両状態推定装置は、請求項1〜請求項3の何れか1項記載の車両状態推定装置において、前記関係を表す式は、前記車両前後速度から、前記車両のヨーレートと前記横位置偏差との積を減算したものを、前記ヨー角偏差を用いて補正した結果と、前記目標点の移動速度とが等しい関係を表す式を含む。 The vehicle state estimation device according to claim 4 is the vehicle state estimation device according to any one of claims 1 to 3, wherein the equation representing the relationship is based on the vehicle longitudinal speed and the yaw rate of the vehicle. It includes an expression representing a relationship in which the result obtained by subtracting the product of the lateral position deviation is corrected using the yaw angle deviation and the moving speed of the target point.

また、請求項5に記載の車両状態推定装置は、請求項1〜請求項4の何れか1項記載の車両状態推定装置において、前記演算部は、前記関係を表す式に基づいて、前回推定された、前記車両のヨーレートを含む前記車両の状態量から、次時刻の前記車両の状態量を予測する予測部と、予め定められた観測方程式を用いて算出される、前記予測された次時刻の前記車両の状態量に対応する、前記横位置偏差、前記ヨー角偏差、前記曲率、及び車両前後速度と、それぞれの前記実測値との差分、及び前回推定された前記車両の状態量に基づいて、前記予測部で予測された前記車両の状態量を補正する更新部と、を含む。 The vehicle state estimation device according to claim 5 is the vehicle state estimation device according to any one of claims 1 to 4, wherein the arithmetic unit estimates the previous time based on an equation representing the relationship. From the state quantity of the vehicle including the yaw rate of the vehicle, a prediction unit that predicts the state quantity of the vehicle at the next time, and the predicted next time calculated using a predetermined observation equation. Of the lateral position deviation, the yaw angle deviation, the curvature, and the vehicle longitudinal speed, which correspond to the vehicle state quantity, and the difference between the measured values, and the state quantity of the vehicle estimated last time. And an updating unit that corrects the state quantity of the vehicle predicted by the predicting unit.

本発明によれば、既存の状態方程式に依存せずに、撮像装置が取得した画像及び車速から車両の横速度を算出可能な車両状態推定装置を実現することができるという効果を奏する。 Advantageous Effects of Invention According to the present invention, it is possible to realize a vehicle state estimation device that can calculate the lateral speed of a vehicle from an image acquired by an imaging device and a vehicle speed without depending on an existing state equation.

本発明の実施の形態に係る車両状態推定装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the vehicle state estimation apparatus which concerns on embodiment of this invention. 本発明の実施の形態における座標系を示した概略図である。It is the schematic which showed the coordinate system in embodiment of this invention. 撮像装置の位置、車両の重心、横位置偏差及びヨー角偏差の関係の一例を示した説明図である。It is explanatory drawing which showed an example of the relationship of the position of an imaging device, the gravity center of a vehicle, a lateral position deviation, and a yaw angle deviation. 横滑りを含む車両の運動と目標経路との関係を示した説明図である。It is explanatory drawing which showed the motion of the vehicle containing skidding, and the relationship with a target path. 本発明の実施の形態に係る車両状態推定装置の演算装置の機能ブロック図の一例である。It is an example of a functional block diagram of an arithmetic unit of the vehicle state estimation device according to the embodiment of the present invention. 事前推定部の機能ブロック図の一例である。It is an example of a functional block diagram of a priori estimation unit. フィルタリング部の機能ブロック図の一例である。It is an example of a functional block diagram of a filtering unit.

[第1の実施の形態]
以下、図面を参照して本発明の第1の実施の形態を詳細に説明する。図1に示すように、本実施の形態に係る車両状態推定装置10は、後述する演算装置14の演算に必要なデータ及び演算装置14による演算結果を記憶する記憶装置18と、撮像装置22が取得した画像情報から目標経路と車両との横位置偏差、車両のヨー角偏差及び目標経路の曲率を算出する画像情報処理部20と、画像情報処理部20が算出した横位置偏差、ヨー角偏差、曲率、車速センサ(図示せず)が検出した車両前後速度及び慣性センサ(図示せず)が検出したヨーレートが入力される入力装置12と、入力装置12から入力された入力データ及び記憶装置18に記憶されたデータに基づいて車両の横速度の演算を行なうコンピュータ等で構成された演算装置14と、演算装置14で演算された横速度を表示するCRT又はLCD等で構成された表示装置16と、で構成されている。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings. As shown in FIG. 1, the vehicle state estimation device 10 according to the present embodiment includes a storage device 18 that stores data necessary for the calculation of a calculation device 14 described later and a calculation result by the calculation device 14, and an imaging device 22. An image information processing unit 20 that calculates a lateral position deviation between the target route and the vehicle, a yaw angle deviation of the vehicle, and a curvature of the target route from the acquired image information, and a lateral position deviation and a yaw angle deviation calculated by the image information processing unit 20. , A curvature, a vehicle longitudinal speed detected by a vehicle speed sensor (not shown), and a yaw rate detected by an inertial sensor (not shown), and input data input from the input device 12 and a storage device 18 An arithmetic unit 14 composed of a computer or the like for calculating the lateral speed of the vehicle based on the data stored in the display unit, and a display unit 16 composed of a CRT or LCD for displaying the lateral speed calculated by the arithmetic unit 14. It consists of and.

続いて、車両200の挙動に係る座標系を図2に示したように定義する。地球座標系204は地球平面を基準として重力加速度方向とzeとが平行で、yeが北方向を向いている座標系である。路面座標系206は、zrが車両200の重心を通り路面に垂直な方向に向き、xrは車両進行方向に向いている座標系である。車両座標系208は車体バネ上に固定された座標系で、zvは車体鉛直上方向、xvは車体進行方向を向いている。 Next, the coordinate system related to the behavior of the vehicle 200 is defined as shown in FIG. The earth coordinate system 204 is a coordinate system in which the gravitational acceleration direction and z e are parallel to each other with respect to the earth plane, and y e faces the north direction. The road surface coordinate system 206 is a coordinate system in which z r is oriented in a direction passing through the center of gravity of the vehicle 200 and perpendicular to the road surface, and x r is oriented in the vehicle traveling direction. A vehicle coordinate system 208 is a coordinate system fixed on a body spring, where z v is a vehicle body vertical direction and x v is a vehicle body traveling direction.

本実施の形態は、撮像装置22で取得した画像情報を用いて車両200の横速度を算出する。本実施の形態では横速度の算出に際して、図3にあるように、目標点Ptにおける目標経路220である走行車線の曲率ρに加え、センサ位置Psを基準とした目標点Ptに対する横位置偏差e1とヨー角偏差e2とを想定する。なお、センサ位置Psは車両重心Prから車両200の前方方向に距離(車両重心Prとセンサ位置Psとのオフセット距離)lsで隔てられた位置にあり、車載カメラ等の撮像装置22が設けられている。図3に示したように、センサ位置Psを基準とした車両200の進行方向の移動量はxSであり、センサ位置Psを基準とした車両200の横方向の移動量はysである。 In the present embodiment, the lateral speed of the vehicle 200 is calculated using the image information acquired by the imaging device 22. When calculating the lateral speed in the present embodiment, as in FIG. 3, in addition to the curvature of the driving lane is the target route 220 at the target point P t [rho, transverse with respect to the target point P t relative to the sensor position P s A position deviation e 1 and a yaw angle deviation e 2 are assumed. It should be noted that the sensor position P s is located at a position separated from the vehicle center of gravity P r in the forward direction of the vehicle 200 by an offset distance (offset distance between the vehicle center of gravity P r and the sensor position P s ) l s , and an imaging device such as an in-vehicle camera. 22 is provided. As shown in FIG. 3, the amount of movement of the traveling direction of the vehicle 200 relative to the sensor position P s is x S, the movement amount in the lateral direction of the vehicle 200 relative to the sensor position P s in y s is there.

次に、車両200の横速度を推定する際に用いる、横滑りを含む車両200の運動と目標経路220との関係を図4に示す。一般に車両200は路面に対して横滑りをしており、横速度を有する運動を伴っている。車両200の挙動に対し、走行車線上の目標位置Ptは前後方向の速度のみを有し、横速度を有さない運動をしている。この特徴を利用し、車両200の運動と目標位置Ptの運動との差分を導出する事で、車両200の横速度を推定するのに必要な条件式を導出する事が可能になる。 Next, FIG. 4 shows the relationship between the motion of the vehicle 200 including skidding and the target route 220, which is used when estimating the lateral velocity of the vehicle 200. Generally, vehicle 200 skids on a road surface and is accompanied by a motion having a lateral velocity. With respect to the behavior of the vehicle 200, the target position P t on the traveling lane has only the speed in the front-rear direction and does not have the lateral speed. By utilizing this feature and deriving the difference between the motion of the vehicle 200 and the motion of the target position P t , it becomes possible to derive the conditional expression necessary for estimating the lateral velocity of the vehicle 200.

本実施の形態では、図3、4のように各変数を設定する。目標経路220上の目標位置Ptは、接線方向の速度成分Utのみを持つとして、目標位置Ptの速度ベクトルをVt=[Ut 0]T、目標位置PtをPt=[xtt ]T、地球座標系のx軸方向に対する接線方向のヨー角をψtと定義する。さらに車両200は前後方向のみならず横速度を有するとして(車体スリップ角を有する)、路面座標系206の原点をPr=[xrr ]T、ヨー角をψr、車両200の各軸方向の速度成分を図4に示したように、νr=[Urr ]Tとする。本実施の形態では、後に車両座標系208を基準に計測されたセンサ情報との関係を容易にするため、偏差の基準座標系を路面座標系206とし、ヨー角偏差としてψet−ψrを定義する。 In this embodiment, each variable is set as shown in FIGS. Assuming that the target position P t on the target path 220 has only a tangential speed component U t , the speed vector of the target position P t is V t =[U t 0] T , and the target position P t is P t =[ x t y t] T, the yaw angle of the tangential direction with respect to the x-axis direction of the earth coordinate system is defined as [psi t. Further, assuming that the vehicle 200 has not only the front-back direction but also the lateral velocity (has a vehicle body slip angle), the origin of the road surface coordinate system 206 is P r =[x r y r ] T , the yaw angle is ψ r , and each of the vehicles 200 is As shown in FIG. 4, the velocity component in the axial direction is ν r =[U r V r ] T . In the present embodiment, in order to facilitate the relationship with the sensor information measured with the vehicle coordinate system 208 as a reference later, the reference coordinate system of the deviation is the road surface coordinate system 206, and the yaw angle deviation is ψ et − Define ψ r .

路面座標系206から見た目標位置Ptの偏差ベクトルをPe=[xee ]とすると、当該偏差ベクトルPeの微分は下記の2式で表される。
If the deviation vector of the target position P t as viewed from the road surface coordinate system 206 P e = a [x e y e], the derivative of the deviation vector P e is expressed by two equations below.

車載カメラ等の撮像装置22が取得した車両200周辺の画像情報を、画像情報処理部20において既知の手法によって画像解析することにより、目標点Ptにおける走行車線の曲率ρに加え、センサ位置Psを基準とした目標点Ptに対する横位置偏差e1とヨー角偏差e2とが抽出される。撮像装置22はセンサの一種であるから、当該撮像装置22で取得した画像情報から抽出した曲率ρ、横位置偏差e1及びヨー角偏差e2をセンサで取得されるセンサ情報とする。さらに、車速センサで検出する車両200の前後速度Ur(以下、「車両前後速度Ur」と略記)、及び慣性センサで検出する車両200のヨーレートRrをセンサ情報として、上記式を変形すると、下記の3式が得られる。
By performing image analysis of the image information around the vehicle 200 acquired by the imaging device 22 such as an on-vehicle camera by a known method in the image information processing unit 20, the sensor position P in addition to the curvature ρ of the traveling lane at the target point P t . The lateral position deviation e 1 and the yaw angle deviation e 2 with respect to the target point P t based on s are extracted. Since the imaging device 22 is a type of sensor, the curvature ρ, the lateral position deviation e 1 and the yaw angle deviation e 2 extracted from the image information acquired by the imaging device 22 are used as the sensor information acquired by the sensor. Further, if the above-mentioned formula is transformed using the longitudinal speed U r of the vehicle 200 detected by the vehicle speed sensor (hereinafter abbreviated as “vehicle longitudinal speed U r ”) and the yaw rate R r of the vehicle 200 detected by the inertial sensor as sensor information, , The following three expressions are obtained.

さらに車体の横速度VrとヨーレートRrとについて上記3式を整理すると、下記の式(1)、(2)、(3)が得られる。
Further, by rearranging the above three equations with respect to the vehicle body lateral velocity V r and the yaw rate R r , the following equations (1), (2) and (3) are obtained.

上記式(1)は、車両200の横速度Vrは、車両前後速度Urの目標経路220に対する垂直成分、言い換えれば、車両前後速度Urの車両座標系208のy座標成分であるUtsine2から、目標経路との横位置偏差e1の変化量(e1の微分値)と、車両200のヨー運動に伴う車両重心位置Prに対する撮像装置22の横速度Rrsを引いたものと一致することを示している。なお、上記式(1)は、目標点の移動速度の、車両前後方向に対する垂直成分から、横位置偏差の変化量と、車両のヨー運動に伴う車両重心位置に対する撮像装置の横速度とを減算した結果と、車両の横速度とが等しい関係を表す式の一例である。 In the above equation (1), the lateral velocity V r of the vehicle 200 is the vertical component of the vehicle longitudinal velocity U r with respect to the target route 220, in other words, the y coordinate component of the vehicle coordinate system 208 of the vehicle longitudinal velocity U r U t. The amount of change in the lateral position deviation e 1 from the target path (differential value of e 1 ) and the lateral velocity R r l s of the image pickup device 22 with respect to the vehicle center of gravity position P r associated with the yaw motion of the vehicle 200 are subtracted from sine 2. It is shown that it agrees with the one. In the above equation (1), the change amount of the lateral position deviation and the lateral velocity of the image pickup device with respect to the vehicle center of gravity position accompanying the yaw motion of the vehicle are subtracted from the vertical component of the moving speed of the target point with respect to the vehicle longitudinal direction. It is an example of an expression showing the relationship between the result and the lateral speed of the vehicle.

上記式(2)は、車両200のヨーレートRrは、目標点Ptの移動速度Utと曲率ρとの積であり、目標経路220上の目標点Ptの接線方向の変化率ρUtから、接線方向と車両進行方向とのヨー角偏差e2の変化量(e2の微分値)を引いたものと一致することを示している。なお、上記式(2)は、目標点の移動速度と曲率との積から、ヨー角偏差の変化量を減算した結果と、車両のヨーレートとが等しい関係を表す式の一例である。 The formula (2) is the yaw rate R r of the vehicle 200, the product of the moving speed U t and the curvature ρ of the target point P t, tangential rate of change of the target point P t on the target path 220 ρU t From the difference between the tangential direction and the vehicle traveling direction of the yaw angle deviation e 2 (differential value of e 2 ). The above equation (2) is an example of an equation representing a relation in which the result of subtracting the amount of change in the yaw angle deviation from the product of the moving speed of the target point and the curvature is equal to the yaw rate of the vehicle.

上記式(3)は、目標経路220上の目標点Ptの移動速度Utは、車両前後速度Urから車両200のヨーレートRrと横位置偏差e1を乗算したRr1を減算することで旋回半径の補正を行い、さらにそれをヨー角偏差e2の余弦cose2で除算することで求められることを示している。なお、上記式(3)は、車両前後速度から、車両ヨーレートと横位置偏差との積を減算したものを、ヨー角偏差を用いて補正した結果と、目標点の移動速度とが等しい関係を表す式の一例である。 In the above equation (3), the moving speed U t of the target point P t on the target route 220 is calculated by subtracting R r e 1 obtained by multiplying the vehicle longitudinal speed U r by the yaw rate R r of the vehicle 200 and the lateral position deviation e 1. By doing so, it is shown that the turning radius is corrected, and that it is obtained by dividing it by the cosine cose 2 of the yaw angle deviation e 2 . In the above equation (3), the result obtained by subtracting the product of the vehicle yaw rate and the lateral position deviation from the vehicle longitudinal speed is corrected using the yaw angle deviation, and the moving speed of the target point is equal. It is an example of the expression to represent.

上記式(1)〜(3)を用いて、撮像装置22、慣性センサ及び車速センサによって取得されたデータに対して最もよくあてはまる未知変数を推定することにより、車両200の横速度Vrの推定が可能になる。 Estimating the lateral velocity V r of the vehicle 200 by using Equations (1) to (3) above to estimate an unknown variable that best fits the data acquired by the imaging device 22, the inertial sensor, and the vehicle speed sensor. Will be possible.

上記式(1)〜(3)はいずれも運動の近似をしておらず、非線形な形を取っているが、上記式(1)〜(3)を直接用いて非線形カルマンフィルタに適用することにより、車両200が目標経路220から大きく逸脱している場合でも正確な推定が可能となる。また、状態変数に関して局所線形化する事により、拡張カルマンフィルタを適用してもよい。 Although the above equations (1) to (3) do not approximate the motion and take a non-linear form, by applying the equations (1) to (3) directly to the nonlinear Kalman filter, Accurate estimation is possible even when the vehicle 200 deviates greatly from the target route 220. The extended Kalman filter may be applied by locally linearizing the state variable.

本実施の形態では、目標経路220と車両200の運動との関係を用いて、状態方程式f(x)を定義し、演算装置14における事前推定とフィルタリングのステップとで活用する。事前推定及びフィルタリングのステップの詳細については、後述する。 In the present embodiment, the state equation f(x) is defined using the relationship between the target route 220 and the motion of the vehicle 200, and is used in the pre-estimation and filtering steps in the arithmetic unit 14. Details of the steps of a priori estimation and filtering will be described later.

まず、撮像装置22より得られる目標経路220に対する横位置偏差e1、ヨー角偏差e2及び目標経路220の曲率ρの情報を用いて、車両200のヨーレートRrを推定する場合の状態方程式f(x)は、以下のように定義する。 First, the state equation f in the case of estimating the yaw rate R r of the vehicle 200 by using the information of the lateral position deviation e 1 , the yaw angle deviation e 2, and the curvature ρ of the target path 220 with respect to the target path 220 obtained from the imaging device 22. (X) is defined as follows.

かかる場合の状態方程式f(x)は、下記のような、時間tにおける状態量x(t)に対して、下記の式(4)の関係が成り立つ。

In the state equation f(x) in such a case, the following equation (4) holds for the state quantity x(t) at the time t as described below.

上記の状態量x(t)に対して、上記式(4)の関係が成り立つ状態方程式f(x)を下記のように立式する。

For the above state quantity x(t), a state equation f(x) in which the relationship of the above equation (4) is established is formulated as follows.

式(5)は、目標経路220と車両200との運動の関係を示した微分方程式である。 Expression (5) is a differential equation showing the relationship of motion between the target route 220 and the vehicle 200.

また、本実施の形態では、各状態に対するシステムノイズを下記のように定義する。
Further, in the present embodiment, the system noise for each state is defined as follows.

次に観測量を下記のように定義する。
Next, the observed quantity is defined as follows.

y=h(x)を満たす観測方程式h(x)は、下記の各式のように、状態量(右辺)と観測量(左辺)との対応を定義したものである。
The observation equation h(x) that satisfies y=h(x) defines the correspondence between the state quantity (right side) and the observed quantity (left side) as in the following equations.

ただし、各観測量に対する観測ノイズを下記のように定義する。
However, the observation noise for each observed quantity is defined as follows.

カルマンフィルタでは、式(5)を含む状態方程式f(x)の各々を離散化して使用する。従って、関数f(x)の入出力関係を、時間t=k、k−1に対して、x(k)=f(x(k−1))となる形で使用する。 The Kalman filter discretizes and uses each state equation f(x) including the equation (5). Therefore, the input/output relationship of the function f(x) is used in the form of x(k)=f(x(k-1)) for time t=k, k-1.

図5は、本実施の形態に係る車両状態推定装置10の演算装置14の機能ブロック図の一例である。図5に示したように、演算装置14は、状態方程式f(x)を用いて、目標経路220である走行車線と横滑りを含む車両200の平面運動との関係に基づく状態の推定を行うと共に、観測方程式h(x)を用いて、対応するセンサ情報を推定する事前推定部102と、事前推定部102が出力した事前推定値を、センサ情報を用いて補正するフィルタリング部104と、を含む。 FIG. 5 is an example of a functional block diagram of the arithmetic device 14 of the vehicle state estimation device 10 according to the present embodiment. As shown in FIG. 5, the arithmetic unit 14 uses the state equation f(x) to estimate the state based on the relationship between the traveling lane that is the target route 220 and the plane motion of the vehicle 200 including skidding. , A pre-estimation unit 102 that estimates corresponding sensor information using the observation equation h(x), and a filtering unit 104 that corrects the pre-estimated value output by the pre-estimation unit 102 using the sensor information. ..

カルマンフィルタは線形・非線形を含め種々の手法が提案されている。本実施の形態では、前述のように状態方程式f(x)が非線形である事を踏まえ、非線形カルマンフィルタを活用する例を示す。中でも状態方程式f(x)についての線形化を要さず、かつ計算負荷が比較的小さいアンセンティッドカルマンフィルタを一例として採用する。状態方程式f(x)が線形の場合は、線形カルマンフィルタを用いてもよいし、アンセンティッドカルマンフィルタ以外の非線形カルマンフィルタを用いてもよい。 For the Kalman filter, various methods including linear and non-linear have been proposed. In the present embodiment, an example in which a nonlinear Kalman filter is used is shown in view of the fact that the state equation f(x) is nonlinear as described above. Above all, an unscented Kalman filter that does not require linearization of the state equation f(x) and has a relatively small calculation load is adopted as an example. When the state equation f(x) is linear, a linear Kalman filter may be used, or a nonlinear Kalman filter other than the unscented Kalman filter may be used.

図6は、事前推定部102の機能ブロック図の一例である。図6に示したように、事前推定部102は、第1アンセンティッド変換部102Aと第2アンセンティッド変換部102Bとを含む。 FIG. 6 is an example of a functional block diagram of the prior estimation unit 102. As shown in FIG. 6, the pre-estimation unit 102 includes a first unscented conversion unit 102A and a second unscented conversion unit 102B.

第1アンセンティッド変換部102Aは、状態方程式f(x)に基づいて状態量を更新する1回目のアンセンティッド変換(Unscented transfer)を行って、xの平均及びxの共分散行列を出力する。 The first unscented conversion unit 102A performs the first unscented transfer for updating the state quantity based on the state equation f(x), and outputs the average of x and the covariance matrix of x.

第2アンセンティッド変換部102Bは、第1アンセンティッド変換部102Aが出力した状態量xの平均及び状態量xの共分散行列を用いて、観測方程式h(x)に従って、対応する観測量に変換する2回目のアンセンティッド変換を行う。 The second unscented conversion unit 102B uses the average of the state quantity x and the covariance matrix of the state quantity x output by the first unscented conversion unit 102A to convert the corresponding observed quantity according to the observation equation h(x). Perform the second unscented conversion.

なお、アンセンティッド変換の目的は、ある非線形関数y=f(x)による変換において、下記の観測量yの平均及び共分散行列を精度よく求めることにある。
The purpose of the unscented transformation is to accurately obtain the following mean and covariance matrix of the observed amount y in the transformation with a certain nonlinear function y=f(x).

従って、本実施の形態は、平均値と標準偏差とに対応する2n+1個のサンプル(シグマポイント)を用いて、確率密度関数を近似することを特徴とする。 Therefore, the present embodiment is characterized in that the probability density function is approximated using 2n+1 samples (sigma points) corresponding to the average value and the standard deviation.

図6に示したように、第1アンセンティッド変換部102Aは、シグマポイント重み係数部102A1と、関数変換部102A2と、U変換部102A3と、を含む。また、第2アンセンティッド変換部102Bは、シグマポイント重み係数部102B1と、関数変換部102B2と、U変換部102B3と、を含む。 As shown in FIG. 6, the first unscented conversion unit 102A includes a sigma point weighting coefficient unit 102A1, a function conversion unit 102A2, and a U conversion unit 102A3. The second unscented conversion unit 102B includes a sigma point weighting coefficient unit 102B1, a function conversion unit 102B2, and a U conversion unit 102B3.

第1アンセンティッド変換部102Aのシグマポイント重み係数部102A1及び第2アンセンティッド変換部102Bのシグマポイント重み係数部102B1では、シグマポイントXi:i=0、1、2、…2nが、下記のように選択される。

In the sigma point weighting coefficient section 102A1 of the first unscented conversion section 102A and the sigma point weighting coefficient section 102B1 of the second unscented conversion section 102B, sigma points X i : i=0, 1, 2,... To be selected.

ただし、スケーリングファクタκは、κ≧0となるように選択する。また、シグマポイントに対する重みは下記のように定義する。

However, the scaling factor κ is selected so that κ≧0. In addition, the weight for the sigma point is defined as follows.

第1アンセンティッド変換部102Aの関数変換部102A2における、非線形関数f(x)による各シグマポイントの変換は下記のようになる。下記は、第1アンセンティッド変換部102Aの関数変換部102A2での状態方程式f(x)による変換だが、第2アンセンティッド変換部102Bの関数変換部102B2での観測方程式h(x)を用いた変換では、観測値が得られる。
The conversion of each sigma point by the non-linear function f(x) in the function conversion unit 102A2 of the first unscented conversion unit 102A is as follows. The following is conversion by the state equation f(x) in the function conversion unit 102A2 of the first unscented conversion unit 102A, but the observation equation h(x) in the function conversion unit 102B2 of the second unscented conversion unit 102B is used. The transformation yields observations.

第1アンセンティッド変換部102AのU変換部102A3では、関数f(x)によって変換された値と、前述の重み係数とを用いて、下記のように状態量xの平均値と状態量xの共分散行列を算出する。なお、下記式中のQnはシステムノイズである。
The U conversion unit 102A3 of the first unscented conversion unit 102A uses the value converted by the function f(x) and the weighting factor described above to calculate the average value of the state quantity x and the state quantity x as follows. Compute the covariance matrix. Note that Q n in the following formula is system noise.

第2アンセンティッド変換部102BのU変換部102B3では、下記の計算を行う。
The U conversion unit 102B3 of the second unscented conversion unit 102B performs the following calculation.

図7は、フィルタリング部104の機能ブロック図の一例である。フィルタリング部104では、U変換部102B3で計算された、状態量の事前予測値に対応する観測値と、実際に観測された観測値との差を比較し、状態量の予測値を補正する処理を行う。 FIG. 7 is an example of a functional block diagram of the filtering unit 104. The filtering unit 104 compares the difference between the observed value calculated by the U conversion unit 102B3 and corresponding to the predicted value of the state quantity and the observed value that is actually observed, and corrects the predicted value of the state quantity. I do.

状態量の予測値を実際に観測された値でフィードバックする処理はカルマンゲイン(Kalman Gain)と呼ばれ、次式で計算される。なお、次式のRnは観測ノイズである。
The process of feeding back the predicted value of the state quantity with the actually observed value is called Kalman gain, and is calculated by the following equation. Note that R n in the following equation is observation noise.

次に、このカルマンゲインを用いて、状態量の事前予測値を補正する処理を次のように行う。
Next, using this Kalman gain, a process of correcting the prior predicted value of the state quantity is performed as follows.

以上の事前推定部102及びフィルタリング部104の処理を各タイムステップごとに繰り返すことにより、車両200のヨーレートRrを推定する。 The yaw rate R r of the vehicle 200 is estimated by repeating the processes of the pre-estimation unit 102 and the filtering unit 104 at each time step.

車両200のヨーレートRrを推定する場合、フィルタリング部104が出力したx(k)、Px(k)を前回値として事前推定部102に入力し、上述のように2段階のアンセンティッド変換を行って状態量の事前予測値及び対応する観測値を計算する。計算した状態量の予測値は、フィルタリング部104でカルマンゲイン及び実際に観測された最新の観測値を用いて補正される。フィルタリング部104が出力したx(k)、Px(k)は、記憶装置18に一時的にホールドし、記憶装置18にホールドしたx(k)、Px(k)を前回値として事前推定部102に入力する。 When estimating the yaw rate R r of the vehicle 200, x(k) and P x (k) output from the filtering unit 104 are input to the pre-estimation unit 102 as previous values, and two-step unscented conversion is performed as described above. Do and compute the pre-estimated value of the state quantity and the corresponding observed value. The predicted value of the calculated state quantity is corrected by the filtering unit 104 using the Kalman gain and the latest observed value actually observed. X filtering unit 104 outputs (k), P x (k), the storage device temporarily hold the 18, x was held in the storage device 18 (k), pre-estimate P x (k) is a previous value Input to the unit 102.

この状態量の事前予測値の計算と実際に観測された最新の値での補正を繰り返すことにより、車両の横速度Vr及び車両200のヨーレートRrを精度よく推定できる。本実施の形態に係る車両状態推定装置は、既存の状態方程式に依存せず、かつ車両200の運動について近似をしていないので、車両200が目標経路220から大きく逸脱した場合でも正確にヨーレートRrの推定が可能となる。 The lateral velocity V r of the vehicle and the yaw rate R r of the vehicle 200 can be accurately estimated by repeating the calculation of the preliminary predicted value of the state quantity and the correction with the latest value actually observed. Since the vehicle state estimation device according to the present embodiment does not depend on the existing state equation and does not approximate the motion of the vehicle 200, the yaw rate R can be accurately calculated even when the vehicle 200 largely deviates from the target route 220. It is possible to estimate r .

以上説明したように、本実施の形態に係る車両状態推定装置によれば、既存の状態方程式に依存せずに、撮像装置22の映像及び車速から車両200のヨーレートRrを算出できる。 As described above, according to the vehicle state estimation device of the present embodiment, the yaw rate R r of the vehicle 200 can be calculated from the image of the imaging device 22 and the vehicle speed without depending on the existing state equation.

[第2の実施の形態]
続いて本発明の第2の実施の形態について説明する。本実施の形態では、車両200の横速度Urを算出するが、使用する状態方程式f(x)が第1の実施の形態と相違するものの、車両状態推定装置10の構成は、第1の実施の形態と同一なので、詳細な説明は省略する。
[Second Embodiment]
Subsequently, a second embodiment of the present invention will be described. Although the lateral velocity U r of the vehicle 200 is calculated in the present embodiment, the state equation f(x) to be used is different from that in the first embodiment, but the configuration of the vehicle state estimation device 10 is the first. The detailed description is omitted because it is the same as the embodiment.

まず、撮像装置22より得られる目標経路220に対する横位置偏差e1、ヨー角偏差e2及び目標経路220の曲率ρの情報を用いて、車両200の横速度Urを推定する場合の状態方程式f(x)を定義する。 First, a state equation for estimating the lateral velocity U r of the vehicle 200 using information on the lateral position deviation e 1 , the yaw angle deviation e 2, and the curvature ρ of the target path 220 with respect to the target path 220 obtained from the imaging device 22. Define f(x).

かかる場合の状態方程式f(x)は、下記のような、時間tにおける状態量x(t)に対して、下記の式(4)の関係が成り立つ。

In the state equation f(x) in such a case, the following equation (4) holds for the state quantity x(t) at the time t as described below.

上記の状態量x(t)に対して、上記の式(4)の関係が成り立つ状態方程式f(x)を下記のように立式する。
For the above state quantity x(t), a state equation f(x) in which the relation of the above equation (4) is established is formulated as follows.

式(6)、(7)は、目標経路220と車両200との運動の関係を示す式を用いて定義される微分方程式である。 Equations (6) and (7) are differential equations defined using equations that show the relationship of motion between the target path 220 and the vehicle 200.

また、本実施の形態では、各状態に対するシステムノイズを下記のように定義する。
Further, in the present embodiment, the system noise for each state is defined as follows.

次に観測量を第1の実施の形態と同様に定義する。
Next, the observation amount is defined as in the first embodiment.

y=h(x)を満たす観測方程式h(x)は、第1の実施の形態と同様に、下記の各式のように、状態量(右辺)と観測量(左辺)との対応を定義したものである。
The observation equation h(x) that satisfies y=h(x) defines the correspondence between the state quantity (right side) and the observed quantity (left side) as in the following equations, as in the first embodiment. It was done.

ただし、各観測量に対する観測ノイズを下記のように定義する。
However, the observation noise for each observed quantity is defined as follows.

本実施の形態では、上記のf(x)の入出力関係を、第1の実施の形態と同様に、時間t=k、k−1に対して、x(k)=f(x(k−1))となる形で使用する。以下、第1の実施の形態と同様に、事前推定部102及びフィルタリング部104の処理を各タイムステップごとに繰り返すことにより、車両200の横速度Urを推定する。 In the present embodiment, the input/output relationship of f(x) described above is similar to that of the first embodiment, with respect to time t=k and k−1, x(k)=f(x(k -1)) is used. Hereinafter, similarly to the first embodiment, the lateral speed U r of the vehicle 200 is estimated by repeating the processing of the pre-estimation unit 102 and the filtering unit 104 at each time step.

車両200の横速度Vrを推定する場合も、フィルタリング部104が出力したx(k)、Px(k)を前回値として事前推定部102に入力し、上述のように2段階のアンセンティッド変換を行って状態量の事前予測値及び対応する観測値を計算する。計算した状態量の予測値は、フィルタリング部104でカルマンゲイン及び実際に観測された最新の観測値で補正される。フィルタリング部104が出力したx(k)、Px(k)は、記憶装置18に一時的にホールドし、記憶装置18にホールドしたx(k)、Px(k)を前回値として事前推定部102に入力する。 Also when estimating the lateral velocity V r of the vehicle 200, x(k) and P x (k) output from the filtering unit 104 are input to the pre-estimation unit 102 as previous values, and the two-step unscented as described above. Perform a transformation to compute the pre-estimated value of the state quantity and the corresponding observed value. The predicted value of the calculated state quantity is corrected by the filtering unit 104 with the Kalman gain and the latest observed value actually observed. X filtering unit 104 outputs (k), P x (k), the storage device temporarily hold the 18, x was held in the storage device 18 (k), pre-estimate P x (k) is a previous value Input to the unit 102.

この状態量の事前予測値の計算と実際に観測された最新の値での補正を繰り返すことにより、車両200の横速度Vrを精度よく推定できる。本実施の形態に係る車両状態推定装置は、既存の状態方程式に依存せず、かつ車両200の運動について近似をしていないので、車両200が目標経路220から大きく逸脱した場合でも正確に横速度Vrの推定が可能となる。 The lateral velocity V r of the vehicle 200 can be accurately estimated by repeating the calculation of the preliminary predicted value of the state quantity and the correction with the latest value actually observed. Since the vehicle state estimation device according to the present embodiment does not depend on the existing state equation and does not approximate the motion of the vehicle 200, the lateral velocity is accurately determined even when the vehicle 200 deviates largely from the target route 220. It is possible to estimate V r .

以上説明したように、本実施の形態に係る車両状態推定装置によれば、既存の状態方程式に依存せずに、撮像装置22の映像及び車速から車両200の横速度Vrを算出できる。 As described above, according to the vehicle state estimating device of the present embodiment, the lateral velocity V r of the vehicle 200 can be calculated from the image of the imaging device 22 and the vehicle velocity without depending on the existing state equation.

10 車両状態推定装置
12 入力装置
14 演算装置
16 表示装置
18 記憶装置
20 画像情報処理部
22 撮像装置
102 事前推定部
102A 第1アンセンティッド変換部
102A1 シグマポイント重み係数部
102A2 関数変換部
102A3 U変換部
102B 第2アンセンティッド変換部
102B1 シグマポイント重み係数部
102B2 関数変換部
102B3 U変換部
104 フィルタリング部
200 車両
204 地球座標系
206 路面座標系
208 車両座標系
220 目標経路
10 vehicle state estimation device 12 input device 14 arithmetic device 16 display device 18 storage device 20 image information processing unit 22 image pickup device 102 prior estimation unit 102A first unscented conversion unit 102A1 sigma point weighting coefficient unit 102A2 function conversion unit 102A3 U conversion unit 102B 2nd unscented conversion part 102B1 sigma point weighting coefficient part 102B2 Function conversion part 102B3 U conversion part 104 Filtering part 200 Vehicle 204 Earth coordinate system 206 Road surface coordinate system 208 Vehicle coordinate system 220 Target route

Claims (5)

車両周辺の画像情報を取得する撮像装置と、
前記撮像装置が取得した画像情報から、目標経路と車両との横位置偏差、前記目標経路と車両のヨー角偏差、及び前記目標経路の曲率を算出する画像情報処理部と、
前記目標経路上の目標点の移動と、横滑りを含む前記車両の運動との関係を表す式を用いて、前記横位置偏差、前記ヨー角偏差、前記曲率、及び車速センサから得られる車両前後速度を含む実測値から、前記車両のヨーレートを推定する演算部と、
を含む車両状態推定装置。
An imaging device that acquires image information around the vehicle,
From the image information acquired by the imaging device, an image information processing unit that calculates a lateral position deviation between the target route and the vehicle, a yaw angle deviation between the target route and the vehicle, and a curvature of the target route,
A vehicle front-rear velocity obtained from the lateral position deviation, the yaw angle deviation, the curvature, and the vehicle speed sensor by using an expression representing the relationship between the movement of the target point on the target route and the motion of the vehicle including skidding. A calculation unit that estimates the yaw rate of the vehicle from an actual measurement value including
Vehicle state estimation device including.
前記演算部は、更に、前記車両の横速度を推定し、
前記関係を表す式は、前記目標点の移動速度の、車両前後方向に対する垂直成分から、前記横位置偏差の変化量と、前記車両のヨー運動に伴う車両重心位置に対する前記撮像装置の横速度とを減算した結果と、前記車両の横速度とが等しい関係を表す式を含む請求項1に記載の車両状態推定装置。
The calculation unit further estimates the lateral speed of the vehicle,
The equation representing the relationship is a change amount of the lateral position deviation from a vertical component of the moving speed of the target point with respect to the vehicle front-rear direction, and a lateral speed of the imaging device with respect to a vehicle center of gravity position accompanying the yaw motion of the vehicle. The vehicle state estimation device according to claim 1, further comprising an equation representing a relationship in which a result obtained by subtracting and a lateral speed of the vehicle are equal.
前記関係を表す式は、前記目標点の移動速度と前記曲率との積から、前記ヨー角偏差の変化量を減算した結果と、前記車両のヨーレートとが等しい関係を表す式を含む請求項1又は2記載の車両状態推定装置。 The expression representing the relationship includes an expression representing a relationship in which a result obtained by subtracting a change amount of the yaw angle deviation from a product of a moving speed of the target point and the curvature is equal to a yaw rate of the vehicle. Alternatively, the vehicle state estimating device described in 2. 前記関係を表す式は、前記車両前後速度から、前記車両のヨーレートと前記横位置偏差との積を減算したものを、前記ヨー角偏差を用いて補正した結果と、前記目標点の移動速度とが等しい関係を表す式を含む請求項1〜請求項3の何れか1項記載の車両状態推定装置。 The equation representing the relationship is obtained by subtracting the product of the yaw rate of the vehicle and the lateral position deviation from the vehicle longitudinal speed, the result of correction using the yaw angle deviation, and the moving speed of the target point. The vehicle state estimation device according to any one of claims 1 to 3, which includes an equation expressing an equal relationship. 前記演算部は、前記関係を表す式に基づいて、前回推定された、前記車両のヨーレートを含む前記車両の状態量から、次時刻の前記車両の状態量を予測する予測部と、
予め定められた観測方程式を用いて算出される、前記予測された次時刻の前記車両の状態量に対応する、前記横位置偏差、前記ヨー角偏差、前記曲率、及び車両前後速度と、それぞれの前記実測値との差分、及び前回推定された前記車両の状態量に基づいて、前記予測部で予測された前記車両の状態量を補正する更新部と、
を含む請求項1〜請求項4の何れか1項記載の車両状態推定装置。
The calculation unit, based on the expression representing the relationship, from the state quantity of the vehicle, which is estimated last time, including the yaw rate of the vehicle, a prediction unit that predicts the state quantity of the vehicle at the next time,
Calculated using a predetermined observation equation, the lateral position deviation, the yaw angle deviation, the curvature, and the vehicle longitudinal speed, which correspond to the state quantity of the vehicle at the predicted next time, respectively. An update unit that corrects the state quantity of the vehicle predicted by the prediction unit based on the difference from the actual measurement value and the state quantity of the vehicle estimated last time,
The vehicle state estimation device according to claim 1, further comprising:
JP2018234756A 2018-12-14 2018-12-14 Vehicle condition estimation device Active JP6939759B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018234756A JP6939759B2 (en) 2018-12-14 2018-12-14 Vehicle condition estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018234756A JP6939759B2 (en) 2018-12-14 2018-12-14 Vehicle condition estimation device

Publications (2)

Publication Number Publication Date
JP2020094989A true JP2020094989A (en) 2020-06-18
JP6939759B2 JP6939759B2 (en) 2021-09-22

Family

ID=71085583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018234756A Active JP6939759B2 (en) 2018-12-14 2018-12-14 Vehicle condition estimation device

Country Status (1)

Country Link
JP (1) JP6939759B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114822080A (en) * 2021-01-28 2022-07-29 丰田自动车株式会社 Travel track estimation system, recording medium of estimation program, and estimation method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7234617B2 (en) * 2018-12-18 2023-03-08 株式会社豊田中央研究所 Body attitude angle estimation device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090157263A1 (en) * 2007-12-13 2009-06-18 Hyundai Motor Company System and method for keeping a vehicle in a lane
JP2010274701A (en) * 2009-05-26 2010-12-09 Toyota Motor Corp Vehicle physical quantity estimating device
JP2016011060A (en) * 2014-06-30 2016-01-21 マツダ株式会社 Lane keeping support system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090157263A1 (en) * 2007-12-13 2009-06-18 Hyundai Motor Company System and method for keeping a vehicle in a lane
JP2010274701A (en) * 2009-05-26 2010-12-09 Toyota Motor Corp Vehicle physical quantity estimating device
JP2016011060A (en) * 2014-06-30 2016-01-21 マツダ株式会社 Lane keeping support system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114822080A (en) * 2021-01-28 2022-07-29 丰田自动车株式会社 Travel track estimation system, recording medium of estimation program, and estimation method
CN114822080B (en) * 2021-01-28 2024-01-02 丰田自动车株式会社 Travel track estimating system, recording medium of estimating program, and estimating method

Also Published As

Publication number Publication date
JP6939759B2 (en) 2021-09-22

Similar Documents

Publication Publication Date Title
JP5173854B2 (en) Sensor drift estimation device
KR102432116B1 (en) A navigation system
US10408638B2 (en) System and method for controlling a vehicle under sensor uncertainty
US10628707B2 (en) Time-corrected sensor system
US20100007550A1 (en) Positioning apparatus for a mobile object
JP5029442B2 (en) Vehicle attitude angle estimation device and program
JP7036080B2 (en) Inertial navigation system
JP2017531597A (en) Method for estimating vehicle side slip angle, computer program for implementing the method, control unit reading the computer program, and vehicle equipped with the control unit
JP6939759B2 (en) Vehicle condition estimation device
JP2017122960A (en) Vehicle location estimation device
JP7206883B2 (en) Yaw rate corrector
JP2008094375A (en) Vehicle physical quantity estimating apparatus and program
JP2014240266A (en) Sensor drift amount estimation device and program
KR101954510B1 (en) Lane keeping control method and apparatus
JP7234617B2 (en) Body attitude angle estimation device
JP5091047B2 (en) Vehicle attitude angle estimation device and sensor drift estimation device
CN112577513A (en) State quantity error determination method and vehicle-mounted terminal
JP7028223B2 (en) Self-position estimator
CN113306573B (en) Learning type path tracking prediction control method for automatic driving vehicle
WO2022203026A1 (en) Driving control device
JP2014108728A (en) Vehicle body sideslip angle estimation device
JP7206875B2 (en) Vehicle lateral speed estimator
JP7360976B2 (en) Sensor error correction device
JP4541839B2 (en) Road surface inclination judgment system
JP6981459B2 (en) Sensor error correction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R150 Certificate of patent or registration of utility model

Ref document number: 6939759

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150