JP7234840B2 - position estimator - Google Patents

position estimator Download PDF

Info

Publication number
JP7234840B2
JP7234840B2 JP2019131901A JP2019131901A JP7234840B2 JP 7234840 B2 JP7234840 B2 JP 7234840B2 JP 2019131901 A JP2019131901 A JP 2019131901A JP 2019131901 A JP2019131901 A JP 2019131901A JP 7234840 B2 JP7234840 B2 JP 7234840B2
Authority
JP
Japan
Prior art keywords
vehicle
azimuth angle
moving object
allowable
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019131901A
Other languages
Japanese (ja)
Other versions
JP2021017073A (en
Inventor
将紘 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019131901A priority Critical patent/JP7234840B2/en
Publication of JP2021017073A publication Critical patent/JP2021017073A/en
Application granted granted Critical
Publication of JP7234840B2 publication Critical patent/JP7234840B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/60Other road transportation technologies with climate change mitigation effect
    • Y02T10/72Electric energy management in electromobility

Description

本発明は、位置推定装置に関する。 The present invention relates to a position estimation device.

車両の運転支援又は自動運転制御に利用するために、車両の位置を推定することが研究されている。 Research has been conducted on estimating the position of a vehicle for use in driving assistance or automatic driving control of the vehicle.

例えば、車両の位置は、車両に搭載されたカメラを用いて車両の周辺を撮影した画像と、車線区画線などの地物が表された地図とを比較して、画像中の地物と地図に表された地物とをマッチングさせて推定されている。 For example, the position of a vehicle can be determined by comparing an image of the vehicle's surroundings captured by a camera mounted on the vehicle with a map showing features such as lane markings. It is estimated by matching with the features shown in .

また、車両の位置は、前回の位置決定時刻における車両の位置と、前回から今回の位置決定時刻間における車両の車両速度及びヨーレートにより算出された移動量及び方位角変化量とに基づいて求められている(例えば、特許文献1)。 In addition, the position of the vehicle is obtained based on the position of the vehicle at the previous position determination time, and the amount of movement and the amount of azimuth angle change calculated from the vehicle speed and yaw rate of the vehicle between the previous and current position determination times. (for example, Patent Document 1).

特開2017-61265号公報JP 2017-61265 A

車両が横滑りにより移動すると、推定される今回の時刻の位置および方位角が、前回の時刻の位置および方位角に対して異常に大きく変化する場合があり、このような位置に基づいて、車両の走行が自動制御されると、ステアリングが振動するような急な操舵量の変化が発生することがあった。 When the vehicle moves due to skidding, the estimated position and azimuth at the current time may change significantly from the position and azimuth at the previous time. When the traveling is automatically controlled, a sudden change in the amount of steering that causes the steering to vibrate may occur.

そこで、本発明は、急な操舵量の変化が抑制されるように、移動物体の位置及び方位角を推定する位置推定装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a position estimating device that estimates the position and azimuth angle of a moving object so as to suppress sudden changes in the amount of steering.

一の実施形態によれば、位置推定装置を提供される。この位置推定装置は、地物の位置を表す位置情報を記憶する記憶部と、現時刻における移動物体のヨーレートに基づいて、移動物体のヨーレートの変化に対して許容される単位時間あたりの許容ヨーレート変化量を決定する許容ヨーレート変化量決定部と、前時刻における移動物体のヨーレートと、許容ヨーレート変化量とに基づいて、前時刻から現時刻間の移動物体の進行方向を表す方位角の変化に対して許容される許容方位角変化量を決定する許容方位角変化量決定部と、前時刻における移動物体の位置と、前時刻から現時刻間の移動物体の移動量及び方位角変化量と、許容方位角変化量とに基づいて、移動物体の進行方向と直交する方向への移動が許容される許容横移動範囲を決定する許容横移動範囲決定部と、移動物体に設けられた撮像部により得られた現時刻における移動物体の周囲の路面上の地物を表す画像と、記憶部に記憶される地物の位置を表す位置情報と、前時刻における移動物体の位置及び方位角と、前時刻から現時刻間の移動物体の移動量及び方位角変化量とに基づいて、現時刻における移動物体の推定位置及び推定方位角を求める推定部と、推定方位角と前時刻における移動物体の方位角との差が許容方位角変化量内にない場合、前時刻における移動物体の方位角との差が許容方位角変化量内になるように推定方位角を補正して、現時刻における移動物体の方位角を決定する方位角決定部と、推定位置が許容横移動範囲内にない場合、許容横移動範囲内になるように推定位置を補正して、現時刻における移動物体の位置を決定する位置決定部と、を有する。 According to one embodiment, a position estimation device is provided. This position estimating device includes a storage unit that stores position information representing the position of a feature, and an allowable yaw rate per unit time that is allowed with respect to changes in the yaw rate of the moving object based on the yaw rate of the moving object at the current time. Based on the permissible yaw rate change amount determination unit that determines the amount of change, the yaw rate of the moving object at the previous time, and the permissible yaw rate change amount, the change in the azimuth angle representing the traveling direction of the moving object between the previous time and the current time is determined. a permissible azimuth angle change amount determination unit that determines an allowable azimuth angle change amount that is permissible with respect to the object, the position of the moving object at the previous time, the movement amount and the azimuth angle change amount of the moving object from the previous time to the current time, a permissible lateral movement range determination unit that determines a permissible lateral movement range in which movement of the moving object in a direction perpendicular to the traveling direction is permitted based on the permissible azimuth angle change amount; and an imaging unit provided on the moving object. An image representing features on the road surface around the moving object obtained at the current time, position information representing the position of the feature stored in the storage unit, the position and azimuth angle of the moving object at the previous time, and the an estimating unit that calculates an estimated position and an estimated azimuth angle of a moving object at the current time based on the amount of movement and the amount of change in the azimuth angle of the moving object between the current time and the estimated azimuth angle and the azimuth of the moving object at the previous time; If the difference from the moving object at the current time is not within the allowable azimuth angle change amount, the estimated azimuth angle is corrected so that the difference from the azimuth angle difference from the moving object at the previous time is within the allowable azimuth angle change amount. and an azimuth angle determination unit that determines the azimuth angle of the moving object at the current time, and corrects the estimated position so that it is within the allowable lateral movement range if the estimated position is not within the allowable lateral movement range, and determines the position of the moving object at the current time. and a position determination unit.

この位置推定装置において、許容ヨーレート変化量決定部は、許容ヨーレート変化量を、円軌道で走行していると仮定した移動物体に対して動径方向に許容される位置の変動幅が所定の範囲内になるように、現時刻における移動物体のヨーレートに基づいて決定することが好ましい。 In this position estimating device, the allowable yaw rate change determination unit determines the allowable yaw rate change as follows: is preferably determined based on the yaw rate of the moving object at the current time.

この位置推定装置において、許容方位角変化量決定部は、前時刻における移動物体のヨーレートに対して、許容ヨーレート変化量だけオフセットした値に前時刻から現時刻間の時間を乗じて、許容方位角変化量を決定することが好ましい。 In this position estimating device, the allowable azimuth change amount determination unit multiplies a value obtained by offsetting the yaw rate of the moving object at the previous time by the allowable yaw rate change amount by the time between the previous time and the current time to obtain the allowable azimuth angle Preferably, the amount of change is determined.

この位置推定装置において、許容横移動範囲決定部は、前時刻における移動物体の位置と、前時刻から現時刻間の移動物体の移動量及び方位角変化量とに基づいて、現時刻における移動物体の第2推定位置を求め、前時刻における移動物体の位置から第2推定位置へ向かう方向を中心として、許容方位角変化量の幅を持つ領域を、許容横移動範囲として決定することが好ましい。 In this position estimating device, the allowable lateral movement range determining unit determines the position of the moving object at the current time based on the position of the moving object at the previous time and the amount of movement and the amount of azimuth angle change of the moving object from the previous time to the current time. It is preferable to obtain the second estimated position of , and determine an area having a width of the allowable azimuth angle change around the direction from the position of the moving object at the previous time to the second estimated position as the allowable lateral movement range.

この位置推定装置において、許容横移動範囲決定部は、前時刻から現時刻間の移動量が所定の距離よりも大きい場合、許容横移動範囲の幅を一定にすることが好ましい。 In this position estimating device, it is preferable that the allowable lateral movement range determination section keeps the width of the allowable lateral movement range constant when the amount of movement between the previous time and the current time is greater than a predetermined distance.

また、他の実施形態によれば、位置推定用コンピュータプログラムを提供される。この位置推定用コンピュータプログラムは、現時刻における移動物体のヨーレートに基づいて、移動物体のヨーレートの変化に対して許容される単位時間あたりの許容ヨーレート変化量を決定することと、前時刻における移動物体のヨーレートと、許容ヨーレート変化量とに基づいて、前時刻から現時刻間の移動物体の進行方向を表す方位角の変化に対して許容される許容方位角変化量を決定することと、前時刻における移動物体の位置と、前時刻から現時刻間の移動物体の移動量及び方位角変化量と、許容方位角変化量とに基づいて、移動物体の進行方向と直交する方向への移動が許容される許容横移動範囲を決定することと、移動物体に設けられた撮像部により得られた現時刻における移動物体の周囲の路面上の地物を表す画像と、記憶部に記憶される地物の位置を表す位置情報と、前時刻における移動物体の位置及び方位角と、前時刻から現時刻間の移動物体の移動量及び方位角変化量とに基づいて、現時刻における移動物体の推定位置及び推定方位角を求めることと、推定方位角と前時刻における移動物体の方位角との差が許容方位角変化量内にない場合、前時刻における移動物体の方位角との差が許容方位角変化量内になるように推定方位角を補正して、現時刻における移動物体の方位角を決定することと、推定位置が許容横移動範囲内にない場合、許容横移動範囲内になるように推定位置を補正して、現時刻における移動物体の位置を決定すること、をプロセッサに実行させる。 Also, according to another embodiment, a computer program for position estimation is provided. This position estimation computer program determines an allowable yaw rate change amount per unit time that is allowed with respect to a change in the yaw rate of the moving object based on the yaw rate of the moving object at the current time; and the allowable yaw rate change amount, determining an allowable azimuth angle change amount that is allowed for a change in the azimuth angle representing the traveling direction of the moving object between the previous time and the current time; based on the position of the moving object, the amount of movement and azimuth angle change of the moving object from the previous time to the current time, and the allowable azimuth angle change amount, movement in the direction orthogonal to the traveling direction of the moving object is permitted an image representing features on the road surface around the moving object at the current time obtained by an imaging unit provided on the moving object; and features stored in a storage unit Estimated position of the moving object at the current time based on the position information representing the position of the moving object, the position and azimuth angle of the moving object at the previous time, and the amount of movement and azimuth angle change of the moving object from the previous time to the current time and when the estimated azimuth angle is obtained and the difference between the estimated azimuth angle and the azimuth angle of the moving object at the previous time is not within the allowable azimuth angle change amount, the difference from the azimuth angle of the moving object at the previous time is the allowable azimuth angle determining the azimuth angle of the moving object at the current time by correcting the estimated azimuth angle so that it is within the change amount; correcting the estimated position to determine the position of the moving object at the current time.

本発明に係る位置推定装置は、急な操舵量の変化が抑制されるように、移動物体の位置及び方位角を推定できるという効果を奏する。このように推定された移動物体の位置及び方位角に基づいて、移動物体の運転計画を生成して、この運転計画に基づいて車両の動作が制御されることが好ましい。 The position estimation device according to the present invention has the effect of estimating the position and azimuth angle of a moving object so as to suppress sudden changes in the amount of steering. Preferably, a driving plan for the moving object is generated based on the position and azimuth angle of the moving object estimated in this way, and the operation of the vehicle is controlled based on this driving plan.

位置推定装置が実装される車両制御システムの概略構成図である。1 is a schematic configuration diagram of a vehicle control system in which a position estimation device is mounted; FIG. 位置推定装置の一つの実施形態である電子制御装置のハードウェア構成図である。1 is a hardware configuration diagram of an electronic control device that is one embodiment of a position estimation device; FIG. 位置推定装置を含む車両制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。FIG. 3 is a functional block diagram of a processor of an electronic control unit for vehicle control processing including a position estimator; 許容ヨーレート変化量決定部の動作を説明する図(その1)である。FIG. 10 is a diagram (part 1) for explaining the operation of the allowable yaw rate change amount determination unit; 許容ヨーレート変化量決定部の動作を説明する図(その2)である。FIG. 10 is a diagram (part 2) for explaining the operation of the allowable yaw rate change amount determination unit; 許容方位角変化量決定部の動作を説明する図である。It is a figure explaining operation|movement of the allowable azimuth angle change amount determination part. 許容横移動範囲決定部の動作を説明する図である。It is a figure explaining operation|movement of the allowable lateral movement range determination part. 推定部の動作を説明する図である。It is a figure explaining operation|movement of an estimation part. 方位角決定部の動作を説明する図である。It is a figure explaining operation|movement of an azimuth determination part. 位置決定部の動作を説明する図である。It is a figure explaining operation|movement of a position determination part. 許容横移動範囲決定部の動作の変型例を説明する図である。FIG. 11 is a diagram illustrating a modification of the operation of the allowable lateral movement range determining section; 位置推定処理を含む、車両制御システムの動作フローチャートである。4 is an operation flowchart of the vehicle control system including position estimation processing;

以下、図を参照しつつ、位置推定装置について説明する。この位置推定装置は、現時刻における移動物体のヨーレートに基づいて、移動物体のヨーレートの変化に対して許容される単位時間あたりの許容ヨーレート変化量を決定する。位置推定装置は、前時刻における移動物体のヨーレートと、許容ヨーレート変化量とに基づいて、前時刻から現時刻間の移動物体の進行方向を表す方位角の変化に対して許容される許容方位角変化量を決定する。前時刻及び現時刻は、例えば、移動物体の周囲の地物を表す画像が撮影される前回の画像情報取得時刻と今回の画像情報取得時刻である。さらに、位置推定装置は、前時刻における移動物体の位置と、前時刻から現時刻間の移動物体の移動量及び方位角変化量と、許容方位角変化量とに基づいて、移動物体の進行方向と直交する方向への移動が許容される許容横移動範囲を決定する。位置推定装置は、移動物体の移動量を、例えば、移動物体に設けられたセンサにより検知された車速情報を用いて算出する。また、位置推定装置は、移動物体の方位角変化量を、例えば、移動物体に設けられたセンサにより検知されたヨーレートを用いて算出する。これにより、位置推定装置は、車両の走行状況に応じて、車両の位置を決定する時刻間の移動物体の移動量に対する許容範囲を決定する。位置推定装置は、現時刻における移動物体の周囲の地物を表す画像と、記憶部に記憶される地物の位置を表す位置情報と、前時刻における移動物体の位置及び方位角と、前時刻から現時刻間の移動物体の移動量及び方位角変化量とに基づいて、現時刻における移動物体の推定位置及び移動物体の進行方向を表す推定方位角を推定する。位置推定装置は、推定方位角と前時刻における移動物体の方位角との差が許容方位角変化量内にない場合、前時刻における移動物体の方位角との差が許容方位角変化量内になるように推定方位角を補正して、現時刻における移動物体の方位角を決定する。また、位置推定装置は、推定位置が許容横移動範囲内にない場合、許容横移動範囲内になるように推定位置を補正して、現時刻における移動物体の位置を決定する。これにより、位置推定装置は、急な操舵量の変化が抑制されるように、移動物体の位置及び方位角を推定できる。 The position estimation device will be described below with reference to the drawings. This position estimation device determines an allowable yaw rate change amount per unit time that is allowed for changes in the yaw rate of the moving object based on the yaw rate of the moving object at the current time. The position estimating device calculates an allowable azimuth angle for change in the azimuth angle representing the traveling direction of the moving object between the previous time and the current time based on the yaw rate of the moving object at the previous time and the allowable yaw rate change amount. Determine the amount of change. The previous time and the current time are, for example, the previous image information acquisition time and the current image information acquisition time at which an image representing features around the moving object is captured. Further, the position estimating device calculates the traveling direction of the moving object based on the position of the moving object at the previous time, the amount of movement and azimuth angle change of the moving object between the previous time and the current time, and the allowable azimuth angle change amount. Determines the allowable lateral movement range in which movement in the direction perpendicular to is allowed. The position estimation device calculates the amount of movement of the moving object using, for example, vehicle speed information detected by a sensor provided on the moving object. Also, the position estimation device calculates the azimuth angle change amount of the moving object using, for example, the yaw rate detected by the sensor provided on the moving object. Thereby, the position estimation device determines the allowable range for the amount of movement of the moving object between the times when the position of the vehicle is determined, according to the running condition of the vehicle. The position estimating device includes an image representing features around the moving object at the current time, position information representing the position of the feature stored in the storage unit, the position and azimuth angle of the moving object at the previous time, and the previous time. Based on the amount of movement of the moving object and the amount of change in the azimuth angle between the current times, the estimated position of the moving object and the estimated azimuth angle representing the traveling direction of the moving object at the current time are estimated. If the difference between the estimated azimuth angle and the azimuth angle of the moving object at the previous time is not within the allowable azimuth angle change amount, the position estimation device determines that the difference from the azimuth angle of the moving object at the previous time is within the allowable azimuth angle change amount. The azimuth angle of the moving object at the current time is determined by correcting the estimated azimuth angle so that Further, if the estimated position is not within the allowable lateral movement range, the position estimation device corrects the estimated position so that it is within the allowable lateral movement range, and determines the position of the moving object at the current time. Thereby, the position estimation device can estimate the position and azimuth angle of the moving object so as to suppress abrupt changes in the steering amount.

以下では、位置推定装置を、車両制御システムに適用した例について説明する。この例では、位置推定装置は、位置推定処理を実行することで、移動物体の一例である車両の現時刻における車両の方位角を、前時刻における車両の方位角との差が許容方位角変化量内になるように決定し、かつ、車両の現時刻における車両の位置を、許容横移動範囲内になるように決定して、車両の位置及び方位角を推定する。但し、本発明の技術範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶものである。 An example in which the position estimation device is applied to a vehicle control system will be described below. In this example, the position estimation device executes the position estimation process so that the difference between the azimuth angle of the vehicle, which is an example of a moving object, at the current time and the azimuth angle of the vehicle at the previous time is the allowable azimuth angle change. Estimate the position and azimuth of the vehicle by determining the position of the vehicle at the current time of the vehicle to be within the allowable lateral movement range. However, the technical scope of the present invention is not limited to those embodiments, but extends to the invention described in the claims and equivalents thereof.

図1は、位置推定装置が実装される車両制御システムの概略構成図である。図2は、位置推定装置の一つの実施形態である電子制御装置のハードウェア構成図である。 FIG. 1 is a schematic configuration diagram of a vehicle control system in which a position estimation device is installed. FIG. 2 is a hardware configuration diagram of an electronic control unit, which is one embodiment of the position estimation device.

本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両の前方の画像を撮影するカメラ2と、車両10の車両速度情報を検知する車両速度センサ3と、車両10のヨーレートを検知するヨーレートセンサ4とを有する。また、車両制御システム1は、測位情報受信機5を有する。また、車両制御システム1は、所定の領域の広域地図情報を記憶しており、測位情報受信機5が出力する測位情報に基づいて、測位情報により表される現在位置を含む領域の地図情報を出力する地図情報生成装置6を有する。さらに、車両制御システム1は、位置推定装置の一例であり、車両10の位置及び方位角を推定する電子制御装置(ECU)7を有する。また、車両10は、無線通信装置(図示せず)を有しており、この無線通信装置を介した無線通信により、基地局を介して外部のサーバと通信可能である。 In this embodiment, a vehicle control system 1 mounted on a vehicle 10 and controlling the vehicle 10 includes a camera 2 that captures an image in front of the vehicle, and a vehicle speed sensor 3 that detects vehicle speed information of the vehicle 10. , and a yaw rate sensor 4 for detecting the yaw rate of the vehicle 10 . The vehicle control system 1 also has a positioning information receiver 5 . Further, the vehicle control system 1 stores wide-area map information of a predetermined area, and based on the positioning information output from the positioning information receiver 5, the vehicle control system 1 obtains map information of an area including the current position represented by the positioning information. It has a map information generating device 6 for output. Furthermore, the vehicle control system 1 is an example of a position estimation device, and has an electronic control unit (ECU) 7 that estimates the position and azimuth angle of the vehicle 10 . The vehicle 10 also has a wireless communication device (not shown), and can communicate with an external server via a base station by wireless communication via this wireless communication device.

カメラ2は、所定の撮影周期ごとに車両10の前方の所定の領域を撮影し、その前方の所定の領域が写った画像を生成する。生成された画像には、車両10の前方の所定の領域内に含まれる路面上の車線区画線などの地物が表わされる。カメラ2により生成された画像は、カラー画像であってもよく、又は、グレー画像であってもよい。カメラ2は、撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、画像を生成する度に、画像及び画像を取得した画像情報取得時刻を、車内ネットワーク8を介してECU7へ出力する。カメラ2により生成された画像は、ECU7において、位置推定処理と、車両10の周囲の物体を検出する処理に使用される。 The camera 2 photographs a predetermined area in front of the vehicle 10 at every predetermined photographing cycle, and generates an image showing the predetermined area in front of the vehicle 10 . Features such as lane markings on the road surface included in a predetermined area in front of the vehicle 10 are represented in the generated image. The image produced by camera 2 may be a color image or a gray image. The camera 2 is an example of an imaging unit, and includes a two-dimensional detector composed of an array of photoelectric conversion elements sensitive to visible light, such as a CCD or C-MOS, and an object to be photographed on the two-dimensional detector. It has an imaging optical system that forms an image of the area. The camera 2 is installed, for example, in the vehicle interior of the vehicle 10 so as to face the front of the vehicle 10 . Each time an image is generated, the camera 2 outputs the image and the image information acquisition time at which the image was acquired to the ECU 7 via the in-vehicle network 8 . The image generated by the camera 2 is used in the ECU 7 for position estimation processing and processing for detecting objects around the vehicle 10 .

車両速度センサ3は、車両10の車両速度情報を検知して、車両速度情報及び車両速度情報を取得した速度情報取得時刻を、車内ネットワーク8を介してECU7へ出力する。車両速度センサ3は、例えば、車軸に取り付けられ、車軸の回転数を検知して、回転数に比例したパルス信号を出力する。 The vehicle speed sensor 3 detects vehicle speed information of the vehicle 10 and outputs the vehicle speed information and the speed information acquisition time at which the vehicle speed information is acquired to the ECU 7 via the in-vehicle network 8 . The vehicle speed sensor 3 is attached to, for example, an axle, detects the number of revolutions of the axle, and outputs a pulse signal proportional to the number of revolutions.

ヨーレートセンサ4は、車両10のヨーレートを検知して、ヨーレート及びヨーレートを取得したヨーレート情報取得時刻を、車内ネットワーク8を介してECU7へ出力する。ヨーレートセンサ4として、例えば、ジャイロスコープなどの加速度センサを用いることができる。 The yaw rate sensor 4 detects the yaw rate of the vehicle 10 and outputs the yaw rate and the yaw rate information acquisition time at which the yaw rate is acquired to the ECU 7 via the in-vehicle network 8 . As the yaw rate sensor 4, for example, an acceleration sensor such as a gyroscope can be used.

測位情報受信機5は、車両10の現在位置を表す測位情報を取得する。例えば、測位情報受信機5は、GPS受信機とすることができる。そして測位情報受信機5は、所定の受信周期で測位情報を取得する度に、測位情報及び測位情報を取得した測位情報取得時刻を、地図情報生成装置6へ出力する。 The positioning information receiver 5 acquires positioning information representing the current position of the vehicle 10 . For example, the positioning information receiver 5 can be a GPS receiver. Then, the positioning information receiver 5 outputs the positioning information and the positioning information acquisition time at which the positioning information was acquired to the map information generating device 6 every time the positioning information is acquired at a predetermined reception cycle.

地図情報生成装置6は、プロセッサ(図示せず)と、磁気ディスクドライブ又は不揮発性の半導体メモリなどの記憶装置(図示せず)とを有しており、この記憶装置は、車両10の現在位置を含む広い範囲(例えば数km四方の範囲)の広域地図情報を記憶する。この広域地図情報は、道路上の車線区画線などの地物、構造物の種類及び位置を表す情報を含む高精度地図情報であることが好ましい。なお、道路上の地物、構造物の位置は、例えば、実空間における所定の基準位置を原点とする世界座標系で表される。地図情報生成装置6のプロセッサは、車両10の現在位置に応じて、無線通信装置を介した無線通信により、基地局を介して外部のサーバから広域地図情報を受信して記憶装置に記憶する。地図情報生成装置6のプロセッサは、測位情報受信機5から測位情報を入力する度に、記憶部に記憶している広域地図情報を参照して、測位情報により表される現在位置を含む狭い領域(例えば、数十~数百m四方の範囲)の地図情報及び測位情報を取得した時刻を、車内ネットワーク8を介してECU7へ出力する。地図情報生成装置6は、地物の位置情報を記憶する記憶部の一例である。 The map information generating device 6 has a processor (not shown) and a storage device (not shown) such as a magnetic disk drive or non-volatile semiconductor memory. It stores wide-area map information for a wide range (for example, a range of several square kilometers) including . This wide-area map information is preferably high-precision map information including information representing types and positions of features and structures such as lane markings on roads. Note that the positions of features and structures on roads are represented, for example, by a world coordinate system with a predetermined reference position in real space as the origin. The processor of the map information generation device 6 receives wide area map information from an external server via a base station and stores it in a storage device by wireless communication via a wireless communication device according to the current position of the vehicle 10 . Each time the positioning information is input from the positioning information receiver 5, the processor of the map information generating device 6 refers to the wide-area map information stored in the storage unit to determine the narrow area including the current position represented by the positioning information. The time when the map information and the positioning information (for example, a range of several tens to several hundred meters square) are acquired is output to the ECU 7 via the in-vehicle network 8 . The map information generation device 6 is an example of a storage unit that stores location information of features.

ECU7は、車両10を制御する。本実施形態では、ECU7は、カメラ2が生成する画像、車両速度及びヨーレートに基づいて車両10の位置及び進行方向を表す方位角を推定して、車両10を自動運転するように車両10を制御する。そのために、ECU7は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。 The ECU 7 controls the vehicle 10 . In this embodiment, the ECU 7 estimates the position of the vehicle 10 and the azimuth angle representing the direction of travel based on the image generated by the camera 2, the vehicle speed, and the yaw rate, and controls the vehicle 10 to automatically drive the vehicle 10. do. Therefore, the ECU 7 has a communication interface 21 , a memory 22 and a processor 23 .

通信インターフェース21は、通信部の一例であり、ECU7を車内ネットワーク8に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク8を介して、カメラ2などと接続される。そして通信インターフェース21は、例えば、カメラ2から画像及び画像情報取得時刻を受信する度に、受信した画像及び画像情報取得時刻をプロセッサ23へわたす。同様に、通信インターフェース21は、車両速度センサ3から車両速度情報及び速度情報取得時刻を受信する度に、車両速度情報及び速度情報取得時刻をプロセッサ23へわたす。また、通信インターフェース21は、ヨーレートセンサ4からヨーレート及びヨーレート情報取得時刻を受信する度に、ヨーレート及びヨーレート情報取得時刻をプロセッサ23へわたす。また、通信インターフェース21は、地図情報生成装置6から測位情報、測位情報取得時刻及び地図情報を受信する度に、受信した測位情報、測位情報取得時刻及び地図情報をプロセッサ23へわたす。 The communication interface 21 is an example of a communication section and has an interface circuit for connecting the ECU 7 to the in-vehicle network 8 . That is, the communication interface 21 is connected to the camera 2 and the like via the in-vehicle network 8 . Then, for example, every time an image and image information acquisition time are received from the camera 2, the communication interface 21 passes the received image and image information acquisition time to the processor 23. FIG. Similarly, the communication interface 21 passes the vehicle speed information and the speed information acquisition time to the processor 23 each time it receives the vehicle speed information and the speed information acquisition time from the vehicle speed sensor 3 . Further, the communication interface 21 passes the yaw rate and the yaw rate information acquisition time to the processor 23 every time it receives the yaw rate and the yaw rate information acquisition time from the yaw rate sensor 4 . Further, the communication interface 21 passes the received positioning information, the positioning information acquisition time and the map information to the processor 23 every time it receives the positioning information, the positioning information acquisition time and the map information from the map information generating device 6 .

メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU7のプロセッサ23により実行される位置推定処理において使用される各種のデータ、例えば、カメラ2の光軸方向及び取り付け位置などの設置位置情報、結像光学系の焦点距離及び画角といった内部パラメータなどを記憶する。また、メモリ22は、カメラ2から受信した画像及び画像情報取得時刻、車両速度センサ3から受信した車両速度情報及び速度情報取得時刻、ヨーレートセンサ4から受信したヨーレート及びヨーレート情報取得時刻、地図情報生成装置6から受信した測位情報、測位情報取得時刻及び地図情報などを記憶する。 The memory 22 is an example of a storage unit, and has, for example, a volatile semiconductor memory and a nonvolatile semiconductor memory. The memory 22 stores various data used in the position estimation process executed by the processor 23 of the ECU 7, such as installation position information such as the optical axis direction and installation position of the camera 2, the focal length of the imaging optical system and the image. It stores internal parameters such as angles. In addition, the memory 22 stores the image received from the camera 2 and the image information acquisition time, the vehicle speed information received from the vehicle speed sensor 3 and the speed information acquisition time, the yaw rate received from the yaw rate sensor 4 and the yaw rate information acquisition time, and map information generation. It stores the positioning information received from the device 6, the time when the positioning information was obtained, the map information, and the like.

プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。プロセッサ23が複数個のCPUを有する場合、CPUごとにメモリを有していてもよい。そして、プロセッサ23は、カメラ2により画像が生成される度に、車両の方位角を、カメラ2により画像が生成された前回の画像情報取得時刻における車両の方位角との差が許容方位角変化量内になるように決定し、かつ、車両の位置を、許容横移動範囲内になるように決定して、車両の位置及び方位角を推定する位置推定処理を実行する。また、プロセッサ23は、カメラ2により画像が生成される周期よりも短い周期で設定される位置決定時刻において、今回の位置決定時刻における車両10の方位角を、前回の位置決定時刻における車両の方位角との差が最新の許容方位角変化量内になるように決定し、かつ、車両の位置を、最新の許容横移動範囲内になるように決定する。さらに、プロセッサ23は、推定された車両10の位置及び方位角と、車両10の周囲の他の物体との相対的な位置関係に基づいて、車両10を自動運転するよう、車両10を制御する。 The processor 23 is an example of a control unit, and has one or more CPUs (Central Processing Units) and their peripheral circuits. Processor 23 may further comprise other arithmetic circuitry such as a logic arithmetic unit, a math unit or a graphics processing unit. When the processor 23 has multiple CPUs, each CPU may have a memory. Then, each time an image is generated by the camera 2, the processor 23 sets the azimuth angle of the vehicle to the permissible azimuth angle change, which is the difference between the azimuth angle of the vehicle at the previous image information acquisition time when the image was generated by the camera 2 and the azimuth angle of the vehicle. and the position of the vehicle is determined to be within the allowable lateral movement range, and a position estimation process is performed to estimate the position and azimuth of the vehicle. Further, the processor 23 converts the azimuth angle of the vehicle 10 at the current position determination time to the vehicle azimuth at the previous position determination time at the position determination time set in a cycle shorter than the cycle in which the images are generated by the camera 2 . The difference from the angle is determined to be within the current allowable azimuth angle change amount, and the vehicle position is determined to be within the current allowable lateral travel range. Furthermore, the processor 23 controls the vehicle 10 to automatically drive the vehicle 10 based on the estimated position and azimuth angle of the vehicle 10 and the relative positional relationship with other objects around the vehicle 10. .

図3は、位置推定処理を含む車両制御処理に関する、ECU7のプロセッサ23の機能ブロック図である。プロセッサ23は、許容ヨーレート変化量決定部31と、許容方位角変化量決定部32と、許容横移動範囲決定部33と、推定部34と、方位角決定部35と、位置決定部36と、物体検出部37と、運転計画部38と、車両制御部39とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、許容ヨーレート変化量決定部31と、許容方位角変化量決定部32と、許容横移動範囲決定部33と、推定部34と、方位角決定部35と、位置決定部36とが、位置推定処理を実行する。 FIG. 3 is a functional block diagram of the processor 23 of the ECU 7 regarding vehicle control processing including position estimation processing. The processor 23 includes an allowable yaw rate change amount determination unit 31, an allowable azimuth angle change amount determination unit 32, an allowable lateral movement range determination unit 33, an estimation unit 34, an azimuth angle determination unit 35, a position determination unit 36, It has an object detection unit 37 , a driving planning unit 38 , and a vehicle control unit 39 . These units of the processor 23 are, for example, functional modules implemented by computer programs running on the processor 23 . Alternatively, each of these units of processor 23 may be a dedicated arithmetic circuit provided in processor 23 . Among these units of the processor 23, an allowable yaw rate change amount determination unit 31, an allowable azimuth angle change amount determination unit 32, an allowable lateral movement range determination unit 33, an estimation unit 34, and an azimuth angle determination unit 35 , and the position determination unit 36 executes position estimation processing.

許容ヨーレート変化量決定部31は、今回の画像情報取得時刻における車両10のヨーレートに基づいて、車両10のヨーレートの変化に対して許容される単位時間あたりの許容ヨーレート変化量を決定する。具体的には、許容ヨーレート変化量決定部31は、円軌道で走行していると仮定した車両10に対して動径方向に許容される位置の変動幅が所定の範囲内になるように、許容ヨーレート変化量を現時刻における車両10のヨーレートに基づいて決定する。図4に示すように、車両10は、カメラ2により画像が生成された前回の画像情報取得時刻において位置400に位置しており、ヨーレートはωpreであったとする。カメラ2により画像が生成された今回の画像情報取得時刻と前回の画像情報取得時刻との間に車両10は、円軌道で走行して、今回の画像情報取得時刻において位置401に位置しており、ヨーレートはωであったとする。許容ヨーレート変化量決定部31は、今回の画像情報取得時刻における許容ヨーレート変化量Δωguardを、今回の画像情報取得時刻におけるヨーレートωに基づいて、位置401からの動径方向の変動幅が所定の範囲内になるように決定する。本明細書では、カメラ2により画像が生成された今回の画像情報取得時刻は、現時刻の一例であり、カメラ2により画像が生成された前回の画像情報取得時刻は、前時刻の一例である。 The permissible yaw rate change amount determination unit 31 determines an permissible yaw rate change amount per unit time that is permissible for changes in the yaw rate of the vehicle 10 based on the yaw rate of the vehicle 10 at the current image information acquisition time. Specifically, the permissible yaw rate change amount determination unit 31 sets the permissible range of position fluctuation in the radial direction of the vehicle 10, which is assumed to be traveling on a circular track, to be within a predetermined range. The allowable yaw rate change amount is determined based on the yaw rate of the vehicle 10 at the current time. As shown in FIG. 4, it is assumed that the vehicle 10 is positioned at a position 400 at the previous image information acquisition time when the image was generated by the camera 2, and the yaw rate is ω pre . Between the current image information acquisition time when the image was generated by the camera 2 and the previous image information acquisition time, the vehicle 10 travels on a circular track and is positioned at a position 401 at the current image information acquisition time. , and the yaw rate is ω. The permissible yaw rate change amount determination unit 31 determines the permissible yaw rate change amount Δω guard at the current image information acquisition time based on the yaw rate ω at the current image information acquisition time. Determine to be within range. In this specification, the current image information acquisition time when an image is generated by the camera 2 is an example of the current time, and the previous image information acquisition time when an image is generated by the camera 2 is an example of the previous time. .

例えば、許容ヨーレート変化量決定部31は、車両10が、遠心力が0.3Gとなる円軌道で走行しており、0.1秒後における車両10の動径方向の変動幅が5cm変化する時のヨーレート変化量を、許容ヨーレート変化量としてもよい。図5は、このように決定されたヨーレート変化量Δωと、ヨーレートωとの関係を示す。 For example, the permissible yaw rate change amount determination unit 31 determines that the vehicle 10 is traveling on a circular track with a centrifugal force of 0.3 G, and the fluctuation range in the radial direction of the vehicle 10 after 0.1 seconds changes by 5 cm. The amount of change in yaw rate at the time may be used as the allowable amount of change in yaw rate. FIG. 5 shows the relationship between the yaw rate variation Δω thus determined and the yaw rate ω.

また、許容ヨーレート変化量決定部31は、許容ヨーレート変化量の下限値を、ゼロではない値に設定することが好ましい。これは、許容ヨーレート変化量をゼロとすると、かえって車両の挙動が不安定になる場合があるからである。許容ヨーレート変化量決定部31は、許容ヨーレート変化量の下限値として、車両10がまっすぐに走行している時に許容される許容ふらつき量(例えば、3.5deg/s2)に基づいて決定してもよい。 Moreover, it is preferable that the allowable yaw rate change amount determination section 31 sets the lower limit value of the allowable yaw rate change amount to a value other than zero. This is because if the permissible yaw rate variation is set to zero, the behavior of the vehicle may rather become unstable. The permissible yaw rate change amount determination unit 31 determines the lower limit value of the permissible yaw rate change amount based on the permissible fluctuation amount (for example, 3.5 deg/s 2 ) that is permissible when the vehicle 10 is traveling straight. good too.

許容ヨーレート変化量決定部31は、許容ヨーレート変化量を、下記の式(1)のように決定し得る。 The permissible yaw rate change amount determination unit 31 can determine the permissible yaw rate change amount as shown in the following formula (1).

Figure 0007234840000001
Figure 0007234840000001

ここで、αは、図5に示すΔωとωとの関係を表す直線の傾きであり、φは、単位がラジアン/s2で表された許容ふらつき量であり、Δtは、前回から今回の画像情報取得時刻間の時間である。そして、許容ヨーレート変化量決定部31は、決定した許容ヨーレート変化量を、許容方位角変化量決定部32へ通知する。 Here, α is the slope of the straight line representing the relationship between Δω and ω shown in FIG. 5, φ is the allowable fluctuation amount expressed in radian/ s2 , and Δt is It is the time between image information acquisition times. Then, the allowable yaw rate change amount determination unit 31 notifies the allowable azimuth angle change amount determination unit 32 of the determined allowable yaw rate change amount.

許容方位角変化量決定部32は、カメラ2により画像が生成された前回の画像情報取得時刻における車両10のヨーレートと、許容ヨーレート変化量とに基づいて、前回から今回の画像情報取得時刻間の車両10の進行方向を表す方位角の変化に対して許容される許容方位角変化量を決定する。具体的には、許容方位角変化量決定部32は、図6に示すように、前回の画像情報取得時刻における車両10のヨーレートωpreに対して、許容ヨーレート変化量Δωguardだけオフセットした値に前回から今回の画像情報取得時刻間の時間Δtを乗じて、許容方位角変化量Δθguardを決定する。ここでθcは、今回の画像情報取得時刻の車両10の進行方向を表す方位角であり、θpreは、前回の画像情報取得時刻の車両10の進行方向を表す方位角である。前回から今回の画像情報取得時刻間の車両10の進行方向を表す方位角の変化Δθは、θcとθpreとの差で表される。 Based on the allowable yaw rate change amount and the yaw rate of the vehicle 10 at the previous image information acquisition time when an image was generated by the camera 2, the allowable azimuth angle change amount determination unit 32 determines the allowable yaw rate change amount between the previous image information acquisition time and the current image information acquisition time. An allowable azimuth angle change amount that is allowed for a change in the azimuth angle representing the direction of travel of the vehicle 10 is determined. Specifically, as shown in FIG. 6, the allowable azimuth angle change amount determination unit 32 sets a value offset by the allowable yaw rate change amount Δω guard from the yaw rate ω pre of the vehicle 10 at the previous image information acquisition time. The permissible azimuth angle change amount Δθ guard is determined by multiplying the time Δt between the previous image information acquisition time and the current image information acquisition time. Here, θc is an azimuth angle representing the traveling direction of the vehicle 10 at the current image information acquisition time, and θ pre is an azimuth angle representing the traveling direction of the vehicle 10 at the previous image information acquisition time. A change Δθ in the azimuth angle representing the traveling direction of the vehicle 10 between the previous image information acquisition time and the current image information acquisition time is represented by the difference between θc and θpre .

許容方位角変化量決定部32は、許容方位角変化量Δθguardを、下記の式(2)のように決定し得る。そして、許容方位角変化量決定部32は、許容方位角変化量Δθguardを、許容横移動範囲決定部33及び方位角決定部35へ通知する。 The permissible azimuth angle change amount determination unit 32 can determine the permissible azimuth angle variation amount Δθ guard as shown in Equation (2) below. Then, the allowable azimuth angle change amount determination unit 32 notifies the allowable azimuth angle change amount Δθ guard to the allowable lateral movement range determination unit 33 and the azimuth angle determination unit 35 .

Figure 0007234840000002
Figure 0007234840000002

許容横移動範囲決定部33は、前回の画像情報取得時刻における車両10の位置と、前回から今回の画像情報取得時刻間の車両10の移動量及び方位角変化量と、許容方位角変化量とに基づいて、車両10の進行方向と直交する方向への移動が許容される許容横移動範囲を決定する。許容横移動範囲決定部33は、図7に示すように、前回の画像情報取得時刻における車両10の位置700と、前回から今回の画像情報取得時刻間の車両10の移動量及び方位角変化量とに基づいて、今回の画像情報取得時刻における車両10の推定位置701(デッドレコニングにより推定される位置)を求める。許容横移動範囲決定部33は、車両10の車速速度情報により求められる車両速度を積分して、前回から今回の画像情報取得時刻間の車両10の移動量を求め、車両10のヨーレートを積分して、前回から今回の画像情報取得時刻間の車両10の方位角変化量を求める。許容横移動範囲決定部33は、前回の画像情報取得時刻における車両10の位置及び移動方向と、移動量及び方位角変化量とを用いて、デッドレコニングにより推定される位置を求める。許容横移動範囲決定部33は、推定位置701を、位置決定部36から通知されている前回の画像情報取得時刻における車両10の位置700を原点とする車両座標系で表す。車両座標系は、車両の進行方向をZc軸とし、Zc軸と直交し、かつ、地面に平行な方向をXc軸とし、鉛直方向をYc軸とする。許容横移動範囲決定部33は、前回から今回の画像情報取得時刻間の車両10の移動量及び方位角変化量を、その間に入力した車両速度情報及びヨーレートに基づいて算出する。許容横移動範囲決定部33は、前回の画像情報取得時刻における車両10の位置700から今回の画像情報取得時刻における車両10の推定位置701へ向かう方向αを中心として、許容方位角変化量の幅を持つ領域を、許容横移動範囲として決定する。図7に示す例では、許容横移動範囲決定部33は、方向αを中心として、(ωpre+Δωguard)Δt/2と、(ωpre-Δωguard)Δt/2との間の範囲を、許容横移動範囲として決定する。そして、許容横移動範囲決定部33は、許容横移動範囲を位置決定部36へ通知する。 The allowable lateral movement range determining unit 33 determines the position of the vehicle 10 at the previous image information acquisition time, the movement amount and the azimuth angle change amount of the vehicle 10 between the previous image information acquisition time and the current image information acquisition time, and the allowable azimuth angle change amount. , a permissible lateral movement range in which movement of the vehicle 10 in a direction perpendicular to the traveling direction is permitted is determined. As shown in FIG. 7, the allowable lateral movement range determination unit 33 determines the position 700 of the vehicle 10 at the previous image information acquisition time, and the movement amount and the azimuth angle change amount of the vehicle 10 between the previous image information acquisition time and the current image information acquisition time. , an estimated position 701 (a position estimated by dead reckoning) of the vehicle 10 at the current image information acquisition time is obtained. The allowable lateral movement range determination unit 33 integrates the vehicle speed obtained from the vehicle speed information of the vehicle 10, obtains the amount of movement of the vehicle 10 between the previous image information acquisition time and the current image information acquisition time, and integrates the yaw rate of the vehicle 10. Then, the azimuth angle change amount of the vehicle 10 between the previous image information acquisition time and the current image information acquisition time is obtained. The permissible lateral movement range determination unit 33 obtains a position estimated by dead reckoning using the position and movement direction of the vehicle 10 at the previous image information acquisition time, the movement amount, and the azimuth angle change amount. Allowable lateral movement range determination unit 33 expresses estimated position 701 in a vehicle coordinate system whose origin is position 700 of vehicle 10 at the previous image information acquisition time notified from position determination unit 36 . In the vehicle coordinate system, the traveling direction of the vehicle is the Zc axis, the direction orthogonal to the Zc axis and parallel to the ground is the Xc axis, and the vertical direction is the Yc axis. The allowable lateral movement range determination unit 33 calculates the movement amount and the azimuth angle change amount of the vehicle 10 between the previous image information acquisition time and the current image information acquisition time based on the vehicle speed information and the yaw rate input during that time. The permissible lateral movement range determination unit 33 determines the width of the permissible azimuth angle change amount centering on the direction α from the position 700 of the vehicle 10 at the previous image information acquisition time to the estimated position 701 of the vehicle 10 at the current image information acquisition time. is determined as the allowable lateral movement range. In the example shown in FIG. 7, the allowable lateral movement range determining unit 33 defines a range between (ω pre +Δω guard )Δt/2 and (ω pre −Δω guard )Δt/2 centering on the direction α as follows: Determine the allowable lateral movement range. Then, the allowable lateral movement range determination section 33 notifies the position determination section 36 of the allowable lateral movement range.

推定部34は、今回の画像情報取得時刻における車両10の周囲の路面上の地物を表す画像情報と、地図情報生成装置6から受信した地図情報に含まれる地物の位置情報と、前回の画像情報取得時刻における車両10の位置及び方位角と、前回から今回の画像情報取得時刻間の車両10の移動量及び方位角変化量とに基づいて、今回の画像情報取得時刻における車両10の推定位置及び推定方位角を求める。まず、推定部34は、カメラ2により生成された画像と地図情報とを用いて、今回の画像情報取得時刻における車両10の第1推定位置及び第1推定方位角を求める。そして、推定部34は、デッドレコニングにより、今回の画像情報取得時刻における車両10の第2推定位置及び第2推定方位角を求める。そして、推定部34は、第1推定位置及び第1推定方位角と、第2推定位置及び第2推定方位角とを、予測フィルタに入力して、今回の画像情報取得時刻における車両10の推定位置及び推定方位角を求める。 The estimating unit 34 generates image information representing features on the road surface around the vehicle 10 at the current image information acquisition time, location information of the features included in the map information received from the map information generation device 6, Estimation of the vehicle 10 at the current image information acquisition time based on the position and azimuth angle of the vehicle 10 at the image information acquisition time, and the movement amount and azimuth angle change amount of the vehicle 10 between the previous image information acquisition time and the current image information acquisition time. Determine position and estimated azimuth. First, the estimation unit 34 uses the image generated by the camera 2 and the map information to obtain the first estimated position and the first estimated azimuth angle of the vehicle 10 at the current image information acquisition time. Then, the estimation unit 34 obtains the second estimated position and second estimated azimuth angle of the vehicle 10 at the current image information acquisition time by dead reckoning. Then, the estimating unit 34 inputs the first estimated position and the first estimated azimuth angle and the second estimated position and the second estimated azimuth angle to the prediction filter to estimate the vehicle 10 at the current image information acquisition time. Determine position and estimated azimuth.

まず、推定部34は、車両10の位置及び姿勢を仮定して、地図情報生成装置6から受信した地図情報に表された車両10の周囲の地物の一例である車線区画線を、今回の画像情報取得時刻に生成されたカメラ2の画像上に投影する。例えば、推定部34は、今回の画像情報取得時刻に測位情報受信機5から受信した測位情報で表される車両10の位置、及び、直近の複数の測位情報から求められる車両10の進行方向に相当する車両10の姿勢を、車両10の仮定位置及び仮定姿勢とする。推定部34は、その仮定位置及び仮定姿勢に従って、世界座標系から、カメラ2の位置を原点とし、カメラ2の光軸方向を一つの軸方向とするカメラ座標系への変換式を求める。そのような変換式は、座標系間の回転を表す回転行列と座標系間の平行移動を表す並進ベクトルの組み合わせで表される。そして推定部34は、その変換式に従って、地図情報に含まれる、世界座標系で表された車両10の周囲の道路上の車線区画線の座標を、カメラ座標系の座標に変換する。そして推定部34は、カメラ2の焦点距離といったカメラ2の内部パラメータに基づいて、カメラ座標系で表された車両10の周囲の車線区画線を、今回の画像情報取得時刻に生成されたカメラ2の画像上に投影して、地図に表された車両10の周囲の車線区画線と、カメラ2の画像上に検出された検出点との一致度合を算出する。推定部34は、仮定位置及び仮定姿勢を所定量ずつ変化させながら、上記と同様の座標系変換、投影及び一致度合算出の各処理を実行することで、複数の仮定位置及び仮定姿勢のそれぞれについて、地図情報に表された車両10の周囲の車線区画線と画像から検出された検出点との一致度合を算出する。そして推定部34は、一致度合が最大となるときの仮定位置及び仮定姿勢を特定して、その仮定位置を車両10の第1推定位置とし、その仮定姿勢に基づいて車両10の進行方向を表す第1推定方位角を求める。 First, assuming the position and orientation of the vehicle 10, the estimating unit 34 calculates lane markings, which are examples of features around the vehicle 10, represented in the map information received from the map information generation device 6. Projected on the image of the camera 2 generated at the image information acquisition time. For example, the estimating unit 34 determines the position of the vehicle 10 represented by the positioning information received from the positioning information receiver 5 at the current image information acquisition time, and the traveling direction of the vehicle 10 obtained from a plurality of recent positioning information. The corresponding attitude of the vehicle 10 is assumed to be the assumed position and the assumed attitude of the vehicle 10 . According to the assumed position and assumed orientation, the estimation unit 34 obtains a conversion formula from the world coordinate system to the camera coordinate system having the position of the camera 2 as the origin and the optical axis direction of the camera 2 as one axis direction. Such a conversion formula is represented by a combination of a rotation matrix representing rotation between coordinate systems and a translation vector representing translation between coordinate systems. Then, the estimation unit 34 converts the coordinates of the lane lines on the road around the vehicle 10 represented in the world coordinate system, which are included in the map information, into the coordinates of the camera coordinate system according to the conversion formula. Then, based on the camera 2 internal parameters such as the focal length of the camera 2, the estimation unit 34 calculates the lane markings around the vehicle 10 represented in the camera coordinate system by the camera 2 generated at the current image information acquisition time. , and the degree of matching between the lane markings around the vehicle 10 shown on the map and the detection points detected on the image of the camera 2 is calculated. The estimating unit 34 performs the same coordinate system conversion, projection, and match degree calculation processes as described above while changing the assumed positions and assumed orientations by a predetermined amount. , the degree of matching between the lane markings around the vehicle 10 represented in the map information and the detection points detected from the image is calculated. Then, the estimation unit 34 identifies the assumed position and the assumed posture when the degree of matching is maximized, sets the assumed position as the first estimated position of the vehicle 10, and expresses the traveling direction of the vehicle 10 based on the assumed posture. A first estimated azimuth angle is obtained.

また、推定部34は、カメラ2により画像が生成された前回の画像情報取得時刻に推定された車両10の位置及び方位角と、カメラ2により画像が生成された前回から今回の画像情報取得時刻間の車両10の移動量及び移動方向とに基づいて、今回の画像情報取得時刻における車両10の第2推定位置を車両10の進行方向を表す第2推定方位角を推定する。推定部34は、前回の画像情報取得時刻における車両10の位置を、位置決定部36から通知されており、前回の画像情報取得時刻における車両10の方位角を方位角決定部35から通知されている。推定部34は、前回の画像情報取得時刻と今回の画像情報取得時刻との間の車両10の移動量及び移動方向を、その間に入力した車両速度情報及びヨーレートに基づいて算出する。なお、推定部34は、カメラ2により画像が生成された前回の画像情報取得時刻に推定された車両10の位置及び方位角の代わりに、最新の位置決定時刻に推定された車両10の位置及び方位角を用いてもよい。 The estimation unit 34 also calculates the position and azimuth angle of the vehicle 10 estimated at the previous image information acquisition time when the image was generated by the camera 2, and the image information acquisition time from the previous time when the image was generated by the camera 2 to the current image information acquisition time. A second estimated azimuth angle representing the traveling direction of the vehicle 10 is estimated for the second estimated position of the vehicle 10 at the current image information acquisition time based on the amount and direction of movement of the vehicle 10 between the two positions. The estimating unit 34 is notified of the position of the vehicle 10 at the previous image information acquisition time from the position determination unit 36, and is notified from the azimuth angle determination unit 35 of the azimuth angle of the vehicle 10 at the previous image information acquisition time. there is The estimation unit 34 calculates the amount and direction of movement of the vehicle 10 between the previous image information acquisition time and the current image information acquisition time based on the vehicle speed information and the yaw rate input during that time. Note that the estimating unit 34 calculates the position and azimuth of the vehicle 10 estimated at the latest position determination time instead of the position and azimuth of the vehicle 10 estimated at the previous image information acquisition time when the image was generated by the camera 2. Azimuth angles may also be used.

そして、推定部34は、図8に示すように、第1推定位置及び第1推定方位角と、第2推定位置及び第2推定方位角とを、予測フィルタの一例であるカルマンフィルタに入力して、今回の画像情報取得時刻における車両10の推定位置及び推定方位角θcを推定する。推定部34は、推定方位角θcを方位角決定部35へ通知し、推定位置を位置決定部36へ通知する。 Then, as shown in FIG. 8, the estimating unit 34 inputs the first estimated position and the first estimated azimuth, and the second estimated position and the second estimated azimuth to a Kalman filter, which is an example of a prediction filter. , the estimated position and the estimated azimuth angle θc of the vehicle 10 at the current image information acquisition time. The estimation unit 34 notifies the estimated azimuth angle θc to the azimuth determination unit 35 and notifies the position determination unit 36 of the estimated position.

方位角決定部35は、推定方位角θcと、カメラ2により画像が生成された前回の画像情報取得時刻における車両10の方位角との差が許容方位角変化量内にない場合、前回の画像情報取得時刻における車両10の方位角との差が許容方位角変化量内になるように推定方位角を補正して、今回の画像情報取得時刻における車両10の推定方位角を決定する。具体的には、方位角決定部35は、図9に示すように、推定方位角θcと前回の画像情報取得時刻における車両10の方位角θpreとの差Δθを求める。方位角決定部35は、差Δθが、(ωpre+Δωguard)Δtよりも大きい場合、差Δθが許容方位角変化量内になるように推定方位角θcを補正する。また、方位角決定部35は、差Δθが、(ωpre-Δωguard)Δtよりも小さい場合、差Δθが許容方位角変化量内になるように推定方位角θcを補正する。また、方位角決定部35は、差Δθが、許容方位角変化量内にある場合、推定方位角θcに対する補正を行わない。方位角決定部35は、推定方位角θcを、下記の式(3)のように決定し得る。 If the difference between the estimated azimuth angle θc and the azimuth angle of the vehicle 10 at the previous image information acquisition time when the image was generated by the camera 2 is not within the allowable azimuth angle change amount, the azimuth angle determination unit 35 determines that the previous image The estimated azimuth angle is corrected so that the difference from the azimuth angle of the vehicle 10 at the information acquisition time is within the allowable azimuth angle change amount, and the estimated azimuth angle of the vehicle 10 at the current image information acquisition time is determined. Specifically, as shown in FIG. 9, the azimuth angle determining unit 35 obtains a difference Δθ between the estimated azimuth angle θc and the azimuth angle θ pre of the vehicle 10 at the previous image information acquisition time. When the difference Δθ is larger than (ω pre +Δω guard )Δt, the azimuth angle determination unit 35 corrects the estimated azimuth angle θc so that the difference Δθ is within the allowable azimuth angle change amount. Further, when the difference Δθ is smaller than (ω pre −Δω guard )Δt, the azimuth angle determination unit 35 corrects the estimated azimuth angle θc so that the difference Δθ is within the allowable azimuth angle change amount. Further, when the difference Δθ is within the allowable azimuth angle change amount, the azimuth angle determination unit 35 does not correct the estimated azimuth angle θc. The azimuth angle determination unit 35 can determine the estimated azimuth angle θc as shown in Equation (3) below.

Figure 0007234840000003
Figure 0007234840000003

そして、方位角決定部35は、今回の画像情報取得時刻における推定方位角θcを運転計画部38及び車両制御部39へ通知する。また、方位角決定部35は、今回の画像情報取得時刻における推定方位角θcを推定部34へ通知する。 Then, the azimuth angle determination unit 35 notifies the operation planning unit 38 and the vehicle control unit 39 of the estimated azimuth angle θc at the current image information acquisition time. Also, the azimuth determining unit 35 notifies the estimating unit 34 of the estimated azimuth angle θc at the current image information acquisition time.

また、方位角決定部35は、カメラ2により画像が生成される周期よりも短い周期で設定される位置決定時刻において、カメラ2により画像が生成された最新の画像情報取得時刻における車両10の位置と、最新の画像情報取得時刻と位置決定時刻との間の車両10の移動量及び移動方向とに基づいて、位置決定時刻における車両10の推定位置及び推定方位角を求める。方位角決定部35は、最新の画像情報取得時刻と位置決定時刻との間の車両10の移動量及び移動方向を、その間に入力した車両速度情報及びヨーレートに基づいて算出する。方位角決定部35は、今回の位置決定時刻における車両10の推定方位角を、前回の位置決定時刻における車両10の推定方位角との差が、今回の位置決定時刻の直前に決定された最新の画像情報取得時刻における許容方位角変化量内になるように補正して、推定方位角を決定する。そして、方位角決定部35は、推定方位角を運転計画部38及び車両制御部39へ通知する。また、方位角決定部35は、今回の位置決定時刻における車両10の推定位置及び推定方位角を、位置決定時刻と共に、許容横移動範囲決定部33、推定部34及び位置決定部36へ通知する。 In addition, the azimuth angle determining unit 35 determines the position of the vehicle 10 at the latest image information acquisition time at which the image was generated by the camera 2 at the position determination time set in a period shorter than the period at which the image is generated by the camera 2. , and the amount and direction of movement of the vehicle 10 between the latest image information acquisition time and the position determination time. The azimuth angle determination unit 35 calculates the movement amount and movement direction of the vehicle 10 between the latest image information acquisition time and the position determination time based on the vehicle speed information and yaw rate input during that time. The azimuth determination unit 35 determines the difference between the estimated azimuth angle of the vehicle 10 at the current position determination time and the estimated azimuth angle of the vehicle 10 at the previous position determination time to the latest determined immediately before the current position determination time. The estimated azimuth angle is determined by correcting it so that it is within the allowable azimuth angle change amount at the image information acquisition time. Then, the azimuth angle determination unit 35 notifies the operation planning unit 38 and the vehicle control unit 39 of the estimated azimuth angle. In addition, the azimuth determining unit 35 notifies the allowable lateral movement range determining unit 33, the estimating unit 34, and the position determining unit 36 of the estimated position and estimated azimuth angle of the vehicle 10 at the current position determination time along with the position determination time. .

位置決定部36は、推定部34から通知された推定位置が許容横移動範囲内にない場合、許容横移動範囲内になるように推定位置を補正して、カメラ2により画像が生成された今回の画像情報取得時刻における車両10の推定位置を決定する。図10では、推定部34から通知された推定位置1002は、前回の画像情報取得時刻における車両10の位置1000を原点とする車両座標系で表されている。位置決定部36は、推定位置1002を許容横移動範囲と比較して、推定位置1002が許容横移動範囲内にない場合、車両10の推定される位置を、推定位置1002から許容横移動範囲の境界まで、車両10の進行方向αと直行する方向に移動して、補正された推定位置1003を求める。一方、位置決定部36は、推定位置1002が許容横移動範囲内にある場合、推定位置の補正は行わない。そして、位置決定部36は、今回の画像情報取得時刻における車両10の推定位置を、許容横移動範囲決定部33及び推定部34へ通知する。また、位置決定部36は、今回の画像情報取得時刻における車両10の推定位置を、世界座標系に変換して、運転計画部38及び車両制御部39へ通知する。 If the estimated position notified from the estimating unit 34 is not within the allowable lateral movement range, the position determination unit 36 corrects the estimated position so that it is within the allowable lateral movement range, and corrects the estimated position to be within the allowable lateral movement range. determines the estimated position of the vehicle 10 at the image information acquisition time of . In FIG. 10, an estimated position 1002 notified from the estimating unit 34 is expressed in a vehicle coordinate system having a position 1000 of the vehicle 10 at the previous image information acquisition time as an origin. The position determining unit 36 compares the estimated position 1002 with the allowable lateral movement range, and if the estimated position 1002 is not within the allowable lateral movement range, determines the estimated position of the vehicle 10 from the estimated position 1002 to the allowable lateral movement range. A corrected estimated position 1003 is obtained by moving in a direction perpendicular to the traveling direction α of the vehicle 10 to the boundary. On the other hand, if the estimated position 1002 is within the allowable lateral movement range, the position determination unit 36 does not correct the estimated position. The position determining unit 36 then notifies the allowable lateral movement range determining unit 33 and the estimating unit 34 of the estimated position of the vehicle 10 at the current image information acquisition time. The position determining unit 36 also converts the estimated position of the vehicle 10 at the current image information acquisition time into the world coordinate system, and notifies the operation planning unit 38 and the vehicle control unit 39 of it.

また、位置決定部36は、方位角決定部35から通知された、カメラ2により画像が生成される周期よりも短い周期で設定される位置決定時刻における車両10の推定位置を、この推定位置が許容横移動範囲内にない場合、許容横移動範囲内になるように推定位置を補正する。位置決定部36は、この許容横移動範囲として、今回の位置決定時刻の直前に決定された最新の許容横移動範囲を用いる。位置決定部36は、推定位置を世界座標系に変換して、運転計画部38及び車両制御部39へ通知する。 In addition, the position determination unit 36 determines the estimated position of the vehicle 10 at the position determination time, which is notified from the azimuth angle determination unit 35 and is set in a cycle shorter than the cycle in which the images are generated by the camera 2. If not within the allowable lateral movement range, correct the estimated position so that it is within the allowable lateral movement range. The position determination unit 36 uses the latest allowable lateral movement range determined immediately before the current position determination time as the allowable lateral movement range. The position determination unit 36 converts the estimated position into the world coordinate system and notifies the operation planning unit 38 and the vehicle control unit 39 of it.

物体検出部37は、カメラ2により生成された画像を取得し、この画像に基づいて、車両10の周囲の他の物体を検出する。物体検出部37は、例えば、画像を識別器に入力することで画像に表された物体を検出する。識別器として、例えば、入力された画像から、その画像に表された物体を検出するように予め学習されたディープニューラルネットワーク(DNN)を用いることができる。物体検出部37は、DNN以外の識別器を用いてもよい。例えば、物体検出部37は、識別器として、画像上に設定されるウィンドウから算出される特徴量(例えば、Histograms of Oriented Gradients, HOG)を入力として、そのウィンドウに検出対象となる物体が表される確信度を出力するように予め学習されたサポートベクトルマシン(SVM)を用いてもよい。あるいはまた、物体検出部37は、検出対象となる物体が表されたテンプレートと画像との間でテンプレートマッチングを行うことで、物体領域を検出してもよい。また、物体検出部37は、オプティカルフローに基づく追跡処理に従って、最新の画像から検出された物体を過去の画像から検出された物体と対応付けることで、最新の画像から検出された物体を追跡してもよい。そして物体検出部37は、時間経過に伴う画像上での追跡中の物体のサイズの変化に基づいて、車両10に対するその物体の相対速度を推定してもよい。そして、物体検出部37は、各画像に基づいて検出された物体について同一物を判定し、同一と判定された物体は1つの物体として判断する。物体検出部37は、検出された物体の位置を示す情報を、運転計画部38へ通知する。なお、物体検出部37は、ライダセンサ等の距離画像を取得するセンサが測定した測定結果に基づいて、車両10の周囲の他の物体を検出してもよい。 The object detection unit 37 acquires an image generated by the camera 2 and detects other objects around the vehicle 10 based on this image. The object detection unit 37 detects an object represented in the image by, for example, inputting the image into the classifier. As a discriminator, for example, a deep neural network (DNN) pre-trained to detect an object represented in an input image can be used. The object detection unit 37 may use a discriminator other than the DNN. For example, the object detection unit 37 receives, as an identifier, a feature amount (for example, Histograms of Oriented Gradients, HOG) calculated from a window set on an image, and the window represents an object to be detected. A pre-trained support vector machine (SVM) may be used to output the confidence that Alternatively, the object detection unit 37 may detect an object region by performing template matching between a template representing an object to be detected and an image. Further, the object detection unit 37 tracks the object detected from the latest image by associating the object detected from the latest image with the object detected from the previous image according to the tracking process based on the optical flow. good too. The object detection unit 37 may then estimate the relative velocity of the object with respect to the vehicle 10 based on changes in the size of the object being tracked on the image over time. Then, the object detection unit 37 determines whether the objects detected based on each image are the same, and determines the objects determined to be the same as one object. The object detection unit 37 notifies the operation planning unit 38 of information indicating the position of the detected object. Note that the object detection unit 37 may detect other objects around the vehicle 10 based on measurement results obtained by a sensor that acquires a range image, such as a lidar sensor.

運転計画部38は、カメラ2により画像が生成された画像情報取得時刻または位置決定時刻における車両10の位置と、検出された物体の位置を示す情報と、地図情報とを取得する。運転計画部38は、これらの情報に基づいて、車両10の走行予定経路を1以上生成する。走行予定経路は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。運転計画部38は、車両10の位置と、地図に表された道路上の構造物と、検出された他の物体との位置関係に応じて、車両10と他の物体との相対的な位置関係を推定する。例えば、運転計画部38は、地図に表された車線と、他の物体との位置関係に応じて、他の物体が走行している車線を特定することで、他の物体と車両10とが同じ車線を走行しているか否かを判定する。例えば、運転計画部38は、他の物体の水平方向の中心位置を挟むように位置する互いに隣接する二つの車線区画線で特定される車線を他の物体が走行していると判定する。同様に、運転計画部38は、車両10を挟むように位置する互いに隣接する二つの車線区画線で特定される車線を車両10が走行していると判定する。そして運転計画部38は、車両10が走行中の車線と他の物体が走行中の車線とが同一か否かを判定する。また、地図に表された隣接する二つの車線区画線間の間隔は既知であり、かつ、カメラの焦点距離といった内部パラメータが既知であるため、画像上での隣接する二つの車線区画線間の間隔により、車両10からの距離が推定できる。そこで、運転計画部38は、画像上での他の物体の位置における、地図に表された隣接する二つの車線区画線間の間隔に基づいて、車両10から他の物体までの距離を推定してもよい。このように、運転計画部38は、地図に表された道路上の構造物との位置関係で他の物体と車両10との相対的な位置関係を推定する。そのため、運転計画部38は、画像に写った車線区画線などの道路上の地物が不明瞭でも、他の物体と車両10との相対的な位置関係を正確に推定できる。 The operation planning unit 38 acquires the position of the vehicle 10 at the image information acquisition time or the position determination time when the image was generated by the camera 2, information indicating the position of the detected object, and map information. The operation planning unit 38 generates one or more planned travel routes for the vehicle 10 based on these pieces of information. The planned travel route is represented, for example, as a set of target positions of the vehicle 10 at each time from the current time to a predetermined time ahead. The operation planning unit 38 determines the relative positions of the vehicle 10 and other objects according to the position of the vehicle 10, the structure on the road represented on the map, and the positional relationship between the detected other objects. Infer relationships. For example, the operation planning unit 38 identifies the lane in which the other object is traveling according to the positional relationship between the lane indicated on the map and the other object, thereby allowing the other object and the vehicle 10 to Determine whether or not the vehicles are traveling in the same lane. For example, the operation planning unit 38 determines that the other object is traveling in the lane identified by two adjacent lane markings that sandwich the horizontal center position of the other object. Similarly, the operation planning unit 38 determines that the vehicle 10 is traveling in the lane identified by two adjacent lane markings that sandwich the vehicle 10 . Then, the operation planning unit 38 determines whether or not the lane in which the vehicle 10 is traveling is the same as the lane in which another object is traveling. In addition, since the distance between two adjacent lane markings represented on the map is known and the internal parameters such as the focal length of the camera are known, the distance between two adjacent lane markings on the image is known. The distance allows estimation of the distance from the vehicle 10 . Therefore, the driving planning unit 38 estimates the distance from the vehicle 10 to the other object based on the distance between two adjacent lane markings represented on the map at the position of the other object on the image. may In this way, the operation planning unit 38 estimates the relative positional relationship between other objects and the vehicle 10 based on the positional relationship with structures on the road represented on the map. Therefore, the driving planning unit 38 can accurately estimate the relative positional relationship between other objects and the vehicle 10 even if features on the road such as lane markings in the image are unclear.

運転計画部38は、検出された他の物体の現在及び過去の軌跡に基づいての将来の軌跡を推定し、検出された他の物体が走行中の車線及び相対距離に基づいて、他の物体と車両10とが異なる車線を走行するか、あるいは、車両10から他の物体までの相対距離が所定距離以上となるように、車両10の走行予定経路を生成する。なお、運転計画部38は、複数の走行予定経路を生成してもよい。この場合、運転計画部38は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。運転計画部38は、生成した走行予定経路を車両制御部39へ通知する。 The operation planning unit 38 estimates a future trajectory based on the current and past trajectories of the detected other objects, and based on the lane in which the detected other objects are traveling and the relative distance, the other objects and the vehicle 10 travel in different lanes, or the planned travel route of the vehicle 10 is generated so that the relative distance from the vehicle 10 to another object is greater than or equal to a predetermined distance. Note that the operation planning unit 38 may generate a plurality of planned travel routes. In this case, the operation planning unit 38 may select the route that minimizes the sum of the absolute values of the acceleration of the vehicle 10 from among the plurality of planned travel routes. The operation planning unit 38 notifies the vehicle control unit 39 of the generated planned travel route.

車両制御部39は、カメラ2により画像が生成された画像情報取得時刻または位置決定時刻における車両10の位置と、車両速度及びヨーレートと、通知された走行予定経路とに基づいて、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部39は、通知された走行予定経路、及び、車両10の現在の車両速度及びヨーレートに従って、車両10の操舵角、加速度及び角加速度を求め、その操舵角、加速度及び角加速度となるように、操舵量、アクセル開度またはブレーキ量を設定する。そして車両制御部39は、設定された操舵量に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。また、車両制御部39は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置(図示せず)へ出力する。あるいは、車両制御部39は、設定されたブレーキ量に応じた制御信号を車両10のブレーキ(図示せず)へ出力する。 The vehicle control unit 39 controls the position of the vehicle 10 at the image information acquisition time or the position determination time at which the image is generated by the camera 2, the vehicle speed and yaw rate, and the notified planned travel route. Each part of the vehicle 10 is controlled so as to travel along the planned travel route. For example, the vehicle control unit 39 obtains the steering angle, acceleration, and angular acceleration of the vehicle 10 according to the notified planned travel route and the current vehicle speed and yaw rate of the vehicle 10, and calculates the steering angle, acceleration, and angular acceleration. The steering amount, accelerator opening, or brake amount is set so as to The vehicle control unit 39 then outputs a control signal corresponding to the set steering amount to an actuator (not shown) that controls the steered wheels of the vehicle 10 . The vehicle control unit 39 also obtains a fuel injection amount according to the set accelerator opening, and outputs a control signal corresponding to the fuel injection amount to a fuel injection device (not shown) of the engine of the vehicle 10 . Alternatively, the vehicle control unit 39 outputs a control signal corresponding to the set brake amount to the brake (not shown) of the vehicle 10 .

図12は、プロセッサ23により実行される、位置推定処理を含む、車両制御処理の動作フローチャートである。プロセッサ23は、所定の周期で設定される画像情報取得時刻ごとに図12に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS1201~S1206の処理が位置姿勢推定処理に対応する。 FIG. 12 is an operation flowchart of vehicle control processing including position estimation processing executed by the processor 23 . The processor 23 executes vehicle control processing according to the operation flowchart shown in FIG. 12 at each image information acquisition time set in a predetermined cycle. Note that in the operation flowchart shown below, the processing of steps S1201 to S1206 corresponds to the position/orientation estimation processing.

まず、プロセッサ23の許容ヨーレート変化量決定部31は、今回の画像情報取得時刻における車両10のヨーレートに基づいて、車両10のヨーレートの変化に対して許容される単位時間あたりの許容ヨーレート変化量を決定する(ステップS1201)。 First, the permissible yaw rate change amount determination unit 31 of the processor 23 determines the permissible yaw rate change amount per unit time that is permissible with respect to the yaw rate change of the vehicle 10 based on the yaw rate of the vehicle 10 at the current image information acquisition time. Determine (step S1201).

次に、プロセッサ23の許容方位角変化量決定部32は、前回の画像情報取得時刻における車両10のヨーレートと、許容ヨーレート変化量とに基づいて、前回から今回の画像情報取得時刻間の車両10の進行方向を表す方位角の変化に対して許容される許容方位角変化量を決定する(ステップS1202)。 Next, the permissible azimuth angle change amount determination unit 32 of the processor 23 determines the yaw rate of the vehicle 10 at the previous image information acquisition time and the permissible yaw rate change amount, and determines the yaw rate of the vehicle 10 between the previous image information acquisition time and the current image information acquisition time. A permissible azimuth angle change amount that is allowed for a change in the azimuth angle representing the direction of travel of is determined (step S1202).

次に、プロセッサ23の許容横移動範囲決定部33は、前回の画像情報取得時刻における車両10の位置と、前回から今回の画像情報取得時刻間の車両10の移動量及び方位角変化量と、許容方位角変化量とに基づいて、車両10の進行方向と直交する方向への移動が許容される許容横移動範囲を決定する(ステップS1203)。 Next, the allowable lateral movement range determination unit 33 of the processor 23 determines the position of the vehicle 10 at the previous image information acquisition time, the movement amount and the azimuth angle change amount of the vehicle 10 between the previous image information acquisition time and the current image information acquisition time, Based on the allowable azimuth angle change amount, the allowable lateral movement range in which the vehicle 10 is allowed to move in the direction perpendicular to the traveling direction is determined (step S1203).

次に、プロセッサ23の推定部34は、車両10に設けられた撮像部により得られた今回の画像情報取得時刻における車両10の周囲の地物を表す画像と、地図情報生成装置6の記憶部に記憶される地物の位置を表す位置情報と、前回の画像情報取得時刻における車両10の位置及び方位角と、前回から今回の画像情報取得時刻間の車両10の移動量及び方位角変化量とに基づいて、今回の画像情報取得時刻における車両10の推定位置及び推定方位角を求める(ステップS1204)。 Next, the estimating unit 34 of the processor 23 acquires an image representing features around the vehicle 10 at the current image information acquisition time obtained by the imaging unit provided in the vehicle 10, and the storage unit of the map information generating device 6. position information representing the position of a feature stored in the , the position and azimuth angle of the vehicle 10 at the previous image information acquisition time, and the movement amount and azimuth angle change amount of the vehicle 10 between the previous image information acquisition time and the current image information acquisition time. , the estimated position and the estimated azimuth angle of the vehicle 10 at the current image information acquisition time are obtained (step S1204).

次に、プロセッサ23の方位角決定部35は、推定方位角と前回の画像情報取得時刻における車両10の方位角との差が許容方位角変化量内にない場合、前回の画像情報取得時刻における車両10の方位角との差が許容方位角変化量内になるように推定方位角を補正して、今回の画像情報取得時刻における車両10の方位角を決定する(ステップS1205)。また、プロセッサ23の方位角決定部35は、位置決定時刻における車両10の方位角を決定する。 Next, if the difference between the estimated azimuth angle and the azimuth angle of the vehicle 10 at the previous image information acquisition time is not within the allowable azimuth angle change amount, the azimuth angle determination unit 35 of the processor 23 determines The estimated azimuth angle is corrected so that the difference from the azimuth angle of the vehicle 10 is within the allowable azimuth angle change amount, and the azimuth angle of the vehicle 10 at the current image information acquisition time is determined (step S1205). Also, the azimuth angle determining unit 35 of the processor 23 determines the azimuth angle of the vehicle 10 at the position determination time.

次に、プロセッサ23の位置決定部36は、推定位置が許容横移動範囲内にない場合、許容横移動範囲内になるように推定位置を補正して、今回の画像情報取得時刻における車両10の位置を決定する(ステップS1206)。また、プロセッサ23の方位角決定部35は、位置決定時刻における車両10の位置を決定する。 Next, if the estimated position is not within the allowable lateral movement range, the position determination unit 36 of the processor 23 corrects the estimated position so that it is within the allowable lateral movement range, and determines the position of the vehicle 10 at the current image information acquisition time. A position is determined (step S1206). Also, the azimuth angle determination unit 35 of the processor 23 determines the position of the vehicle 10 at the position determination time.

次に、プロセッサ23の物体検出部37は、カメラ2により生成された画像などに基づいて、車両10の周囲の他の物体を検出する(ステップS1207)。 Next, the object detection unit 37 of the processor 23 detects another object around the vehicle 10 based on the image generated by the camera 2 (step S1207).

次に、プロセッサ23の運転計画部38は、今回の画像情報取得時刻及び位置決定時刻における車両10の位置と、検出された物体の位置を示す情報と、地図情報などに基づいて、車両10の走行予定経路を生成する(ステップS1208)。 Next, the operation planning unit 38 of the processor 23 determines the position of the vehicle 10 at the current image information acquisition time and the position determination time, information indicating the position of the detected object, map information, etc. A planned travel route is generated (step S1208).

次に、プロセッサ23の車両制御部39は、今回の画像情報取得時刻及び位置決定時刻における車両10の位置と、車両速度及びヨーレートと、走行予定経路とに基づいて、走行予定経路に沿って走行するように車両10の各部を制御する(ステップS1209)。 Next, the vehicle control unit 39 of the processor 23 travels along the planned travel route based on the position of the vehicle 10 at the current image information acquisition time and the position determination time, the vehicle speed and yaw rate, and the planned travel route. Each part of the vehicle 10 is controlled so as to do so (step S1209).

以上に説明してきたように、この位置推定装置は、車両の現時刻における車両の方位角を、前時刻における車両の方位角との差が許容方位角変化量内になるように決定し、かつ、車両の現時刻における車両の位置を、許容横移動範囲内になるように決定して、車両の位置及び進行方向を表す方位角を推定する。これにより、急な操舵量の変化が抑制されるように、移動物体の位置及び方位角を推定できる。 As described above, the position estimation device determines the azimuth angle of the vehicle at the current time so that the difference from the azimuth angle of the vehicle at the previous time is within the allowable azimuth angle change amount, and , the position of the vehicle at the current time of the vehicle is determined to be within the allowable lateral movement range, and the azimuth angle representing the position and heading of the vehicle is estimated. As a result, the position and azimuth angle of the moving object can be estimated so as to suppress sudden changes in the steering amount.

車両の自動運転制御では、現在の車両の位置に基づいて車両の制御が行われる。横滑りなどに起因して、推定される今回の時刻の位置が、前回の時刻の位置に対して異常に大きく変化する場合があり、このような位置に基づいて、車両の走行が自動制御されると、ステアリングが振動するような急な操舵量の変化が発生することがあった。 In automatic driving control of a vehicle, the vehicle is controlled based on the current position of the vehicle. Due to skidding, etc., the estimated position at the current time may change significantly from the position at the previous time. Based on such a position, the driving of the vehicle is automatically controlled. Then, a sudden change in the amount of steering that causes the steering to vibrate may occur.

このように、ステアリングの急な操舵量の変化が発生することを抑制する対策として、例えば、今回の位置を推定する処理において、前回と今回との時刻間の車両の推定移動量に対して、一定の制限を設けることがあり得る。 In this way, as a measure to suppress the occurrence of a sudden change in the amount of steering, for example, in the process of estimating the current position, Certain restrictions may apply.

しかし、車両の走行状況とは無関係に、車両の推定移動量に対して一定の制限を設けることは、移動量の推定に対して、車両の走行状態に対する追従性が十分でなくなる場合があるので、必ずしも車両の位置の精度を向上するとは限らない。 However, setting a certain limit on the estimated amount of movement of the vehicle, regardless of the driving conditions of the vehicle, may result in insufficient followability of the vehicle's driving conditions with respect to estimation of the amount of movement. , does not necessarily improve the accuracy of the position of the vehicle.

本実施形態の位置推定装置では、車両の走行状態に応じて、車両の位置を決定する時刻間の移動物体の移動量に対する許容範囲を決定して、車両を制御することにより、ステアリングが振動するような急な操舵量の変化の発生が抑制される。 In the position estimating device of the present embodiment, the allowable range for the amount of movement of the moving object between the times when the position of the vehicle is determined is determined according to the running state of the vehicle, and the steering is vibrated by controlling the vehicle. The occurrence of such a sudden change in steering amount is suppressed.

次に、許容横移動範囲決定部が許容横移動範囲を決定する他の例を、図11を参照しながら、以下に説明する。 Next, another example in which the allowable lateral movement range determining section determines the allowable lateral movement range will be described below with reference to FIG. 11 .

許容横移動範囲決定部33は、カメラ2により画像が生成された前回から今回の画像情報取得時刻間の移動量が所定の距離よりも大きい場合、車両10の進行方向αと直行する方向における許容横移動範囲の幅を一定にする。図11に示すように、許容横移動範囲決定部33は、カメラ2により画像が生成された前回の画像情報取得時刻における車両の位置1100と、今回の画像情報取得時刻における車両の位置1101との距離を求めて、この距離が、所定の距離(例えば、5~15m)よりも大きい場合、車両10の進行方向αと直行する方向における許容横移動範囲の幅を一定にする。このように、車両10の横方向の移動量に対して上限を設定することにより、カメラ2により画像が生成された今回の画像情報取得時刻における車両10の位置及び方位角が、前回の画像情報取得時刻における車両10位置及び方位角に対して異常に大きく変化しないような現時刻の移動物体の位置を決定できる。 The allowable lateral movement range determination unit 33 determines the allowable lateral movement range in a direction orthogonal to the traveling direction α of the vehicle 10 when the amount of movement between the previous image information acquisition time when the image was generated by the camera 2 and the current image information acquisition time is greater than a predetermined distance. Make the width of the horizontal movement range constant. As shown in FIG. 11 , the allowable lateral movement range determining unit 33 determines a vehicle position 1100 at the previous image information acquisition time when an image was generated by the camera 2 and a vehicle position 1101 at the current image information acquisition time. The distance is obtained, and if this distance is greater than a predetermined distance (eg, 5 to 15 m), the width of the allowable lateral movement range in the direction perpendicular to the traveling direction α of the vehicle 10 is made constant. By setting an upper limit for the amount of lateral movement of the vehicle 10 in this way, the position and azimuth angle of the vehicle 10 at the current image information acquisition time when an image is generated by the camera 2 is the same as the previous image information. It is possible to determine the position of the moving object at the current time that does not change abnormally significantly with respect to the position and azimuth of the vehicle 10 at the acquisition time.

本発明では、上述した実施形態の位置推定装置及び位置推定用コンピュータプログラムは、本発明の趣旨を逸脱しない限り適宜変更が可能である。 In the present invention, the position estimating device and the position estimating computer program of the above-described embodiments can be modified as appropriate without departing from the gist of the present invention.

例えば、上述した実施形態では、移動物体の進行方向と直行する横方向への移動が許容される許容横移動範囲内になるように、移動物体の推定位置が補正されていた。これは、ステアリングが振動するような急な操舵量の変化が発生に対して、横方向の移動が与える影響が多いためである。同様に、移動物体の進行方向への移動が許容される許容移動範囲を設定して、移動物体の進行方向への移動が許容される許容移動範囲内になるように、移動物体の位置を推定してもよい。 For example, in the above-described embodiments, the estimated position of the moving object is corrected so that it falls within the permissible lateral movement range in which lateral movement of the moving object in the direction perpendicular to the traveling direction is permitted. This is because the lateral movement has a large effect on the occurrence of a sudden change in the amount of steering that causes the steering to vibrate. Similarly, the position of the moving object is estimated so that the allowable range of movement of the moving object in the direction of travel is set, and the position of the moving object is within the allowable range of movement in the direction of travel of the moving object. You may

1 車両制御システム
2 カメラ
3 車両速度センサ
4 ヨーレートセンサ
5 測位情報受信機
6 地図情報生成装置
7 電子制御装置
8 車内ネットワーク
10 車両
21 通信インターフェース
22 メモリ
23 プロセッサ
31 許容ヨーレート変化量決定部
32 許容方位角変化量決定部
33 許容横移動範囲決定部
34 推定部
35 方位角決定部
36 位置決定部
37 物体検出部
38 運転計画部
39 車両制御部
REFERENCE SIGNS LIST 1 vehicle control system 2 camera 3 vehicle speed sensor 4 yaw rate sensor 5 positioning information receiver 6 map information generation device 7 electronic control device 8 in-vehicle network 10 vehicle 21 communication interface 22 memory 23 processor 31 allowable yaw rate variation determination unit 32 allowable azimuth angle Change amount determination unit 33 Allowable lateral movement range determination unit 34 Estimation unit 35 Azimuth determination unit 36 Position determination unit 37 Object detection unit 38 Operation planning unit 39 Vehicle control unit

Claims (1)

地物の位置を表す位置情報を記憶する記憶部と、
現時刻における移動物体のヨーレートに基づいて、前記移動物体のヨーレートの変化に対して許容される単位時間あたりの許容ヨーレート変化量を決定する許容ヨーレート変化量決定部と、
前時刻における前記移動物体のヨーレートと、前記許容ヨーレート変化量とに基づいて、前時刻から現時刻間の前記移動物体の進行方向を表す方位角の変化に対して許容される許容方位角変化量を決定する許容方位角変化量決定部と、
前時刻における前記移動物体の位置と、前時刻から現時刻間の前記移動物体の移動量及び方位角変化量と、前記許容方位角変化量とに基づいて、前記移動物体の進行方向と直交する方向への移動が許容される許容横移動範囲を決定する許容横移動範囲決定部と、
前記移動物体に設けられた撮像部により得られた現時刻における前記移動物体の周囲の地物を表す画像と、前記記憶部に記憶される地物の位置を表す位置情報と、前時刻における前記移動物体の位置及び方位角と、前時刻から現時刻間の前記移動物体の移動量及び方位角変化量とに基づいて、現時刻における前記移動物体の推定位置及び推定方位角を求める推定部と、
前記推定方位角と前時刻における前記移動物体の方位角との差が前記許容方位角変化量内にない場合、前時刻における前記移動物体の方位角との差が前記許容方位角変化量内になるように前記推定方位角を補正して、現時刻における前記移動物体の方位角を決定する方位角決定部と、
前記推定位置が前記許容横移動範囲内にない場合、前記許容横移動範囲内になるように前記推定位置を補正して、現時刻における前記移動物体の位置を決定する位置決定部と、
を有する位置推定装置。
a storage unit that stores position information representing the position of a feature;
a permissible yaw rate variation determination unit that determines an permissible yaw rate variation per unit time that is permissible with respect to changes in the yaw rate of the moving object, based on the yaw rate of the moving object at the current time;
An allowable azimuth angle change amount that is allowed for a change in the azimuth angle representing the traveling direction of the moving object between the previous time and the current time based on the yaw rate of the moving object at the previous time and the allowable yaw rate change amount. A permissible azimuth angle change determination unit that determines
perpendicular to the traveling direction of the moving object based on the position of the moving object at the previous time, the amount of movement and azimuth angle change of the moving object between the previous time and the current time, and the allowable azimuth angle change amount; an allowable lateral movement range determination unit that determines an allowable lateral movement range in which movement in a direction is permitted;
an image representing features around the moving object at the current time obtained by an imaging unit provided on the moving object; position information representing the position of the features stored in the storage unit; an estimating unit for obtaining an estimated position and an estimated azimuth angle of the moving object at the current time based on the position and the azimuth angle of the moving object and the amount of movement and the azimuth angle change amount of the moving object between the previous time and the current time; ,
If the difference between the estimated azimuth angle and the azimuth angle of the moving object at the previous time is not within the allowable azimuth angle change amount, the difference from the azimuth angle of the moving object at the previous time is within the allowable azimuth angle change amount. an azimuth determination unit that determines the azimuth angle of the moving object at the current time by correcting the estimated azimuth angle so that
a position determination unit that, if the estimated position is not within the allowable lateral movement range, corrects the estimated position so that it is within the allowable lateral movement range, and determines the position of the moving object at the current time;
A position estimator having
JP2019131901A 2019-07-17 2019-07-17 position estimator Active JP7234840B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019131901A JP7234840B2 (en) 2019-07-17 2019-07-17 position estimator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019131901A JP7234840B2 (en) 2019-07-17 2019-07-17 position estimator

Publications (2)

Publication Number Publication Date
JP2021017073A JP2021017073A (en) 2021-02-15
JP7234840B2 true JP7234840B2 (en) 2023-03-08

Family

ID=74564086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019131901A Active JP7234840B2 (en) 2019-07-17 2019-07-17 position estimator

Country Status (1)

Country Link
JP (1) JP7234840B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023083942A (en) * 2021-12-06 2023-06-16 トヨタ自動車株式会社 Positional accuracy determination device, positional accuracy determination computer program, and positional accuracy determination method
CN115953328B (en) * 2023-03-13 2023-05-30 天津所托瑞安汽车科技有限公司 Target correction method and system and electronic equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151619A (en) 2008-12-25 2010-07-08 Equos Research Co Ltd Control apparatus
JP2017061265A (en) 2015-09-25 2017-03-30 富士重工業株式会社 Travel control device for vehicle
US20170106905A1 (en) 2014-06-05 2017-04-20 Hyundai Motor Company Lane changing apparatus and method of autonomous vehicle
JP2017181195A (en) 2016-03-29 2017-10-05 パイオニア株式会社 Measurement device, measurement method, and program
JP2018063122A (en) 2016-10-11 2018-04-19 日産自動車株式会社 Route selection method and route selection device
JP2019066444A (en) 2017-10-05 2019-04-25 日産自動車株式会社 Position calculation method, vehicle control method, and position calculation device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07134040A (en) * 1993-11-11 1995-05-23 Alpine Electron Inc Method for detecting motion of traveling body by satellite navigation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151619A (en) 2008-12-25 2010-07-08 Equos Research Co Ltd Control apparatus
US20170106905A1 (en) 2014-06-05 2017-04-20 Hyundai Motor Company Lane changing apparatus and method of autonomous vehicle
JP2017061265A (en) 2015-09-25 2017-03-30 富士重工業株式会社 Travel control device for vehicle
JP2017181195A (en) 2016-03-29 2017-10-05 パイオニア株式会社 Measurement device, measurement method, and program
JP2018063122A (en) 2016-10-11 2018-04-19 日産自動車株式会社 Route selection method and route selection device
JP2019066444A (en) 2017-10-05 2019-04-25 日産自動車株式会社 Position calculation method, vehicle control method, and position calculation device

Also Published As

Publication number Publication date
JP2021017073A (en) 2021-02-15

Similar Documents

Publication Publication Date Title
RU2668459C1 (en) Position evaluation device and method
KR20220033477A (en) Appratus and method for estimating the position of an automated valet parking system
JP2014034251A (en) Vehicle traveling control device and method thereof
JP2020052695A (en) Object detection apparatus, object detection method, and computer program for object detection
KR20220024791A (en) Method and apparatus for determining the trajectory of a vehicle
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
JP2018048949A (en) Object recognition device
JP7234840B2 (en) position estimator
JP2021120255A (en) Distance estimation device and computer program for distance estimation
JP6790951B2 (en) Map information learning method and map information learning device
JP6988873B2 (en) Position estimation device and computer program for position estimation
US11754403B2 (en) Self-position correction method and self-position correction device
JP2020201746A (en) Distance estimation device, distance estimation method, and distance estimation computer program
JP6819441B2 (en) Target position estimation method and target position estimation device
JP7276112B2 (en) Lane change decision device
JP7334489B2 (en) Position estimation device and computer program
US20230101472A1 (en) Methods and Systems for Estimating Lanes for a Vehicle
JP2020076714A (en) Position attitude estimation device
WO2023017624A1 (en) Drive device, vehicle, and method for automated driving and/or assisted driving
EP4160154A1 (en) Methods and systems for estimating lanes for a vehicle
US20230213635A1 (en) Method for calibrating offsets between doppler-based sensors on a mobile platform
RU2781373C1 (en) Method for correcting one's location and a device for correcting one's location
US20240059288A1 (en) Vehicle control device, storage medium storing computer program for vehicle control, and method for controlling vehicle
US20230260294A1 (en) Apparatus, method, and computer program for estimating road edge
US20220307840A1 (en) Apparatus, method, and computer program for identifying road being traveled

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220224

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230206

R151 Written notification of patent or utility model registration

Ref document number: 7234840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151