JP2021117176A - Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method - Google Patents

Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method Download PDF

Info

Publication number
JP2021117176A
JP2021117176A JP2020012305A JP2020012305A JP2021117176A JP 2021117176 A JP2021117176 A JP 2021117176A JP 2020012305 A JP2020012305 A JP 2020012305A JP 2020012305 A JP2020012305 A JP 2020012305A JP 2021117176 A JP2021117176 A JP 2021117176A
Authority
JP
Japan
Prior art keywords
vehicle
feature
unit
position estimation
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020012305A
Other languages
Japanese (ja)
Inventor
則幸 谷
Noriyuki Tani
則幸 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020012305A priority Critical patent/JP2021117176A/en
Publication of JP2021117176A publication Critical patent/JP2021117176A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a ground feature position estimating device, with which it is possible to appropriately estimate the position of a ground feature necessary for estimating the position of a vehicle while easily reducing costs.SOLUTION: A ground feature position estimating device 31 comprises: a ground feature position estimation unit 312 for estimating the position of a ground feature relative to a vehicle on the basis of an imaged image acquired from an imaging unit 15 fixed to the vehicle and including a ground feature; an attitude estimation unit 313 which, when it is determined that the vehicle was doing accelerated motion when the imaged image was imaged, estimates the attitude at accelerated motion time of the vehicle when the imaged image was imaged, on the basis of the reference attitude of the imaging unit 15 when the vehicle is stopped and the position of the ground feature in the imaged image; a correction amount calculation unit 314 for calculating the amount of correction of the estimated position of the ground feature on the basis of the attitude at accelerated motion time; and a correction processing unit 315 for correcting the position of the ground feature estimated by the ground feature position estimation unit 312, on the basis of the correction amount calculated by the correction amount calculation unit 314.SELECTED DRAWING: Figure 1

Description

本開示は、地物位置推定装置、自車位置推定装置、車両および地物位置推定方法に関する。 The present disclosure relates to a feature position estimation device, a vehicle position estimation device, a vehicle, and a feature position estimation method.

近年、車両の自動運転技術の導入に伴い、車両の位置を正確に検出することが重要となりつつある。そこで、車両の位置を正確に検出するための技術が検討されている(例えば、特許文献1参照)。 In recent years, with the introduction of automatic driving technology for vehicles, it has become important to accurately detect the position of the vehicle. Therefore, a technique for accurately detecting the position of a vehicle is being studied (see, for example, Patent Document 1).

特許文献1は、車両の位置、速度およびセンサの姿勢を含む状態量を推定する、カルマンフィルタ処理における繰り返し演算制御方法を開示している。この方法では、車両の位置、速度およびセンサの姿勢を含む状態量を演算する。次に、演算された状態量のうち、加速度センサの姿勢ピッチ角およびジャイロセンサの姿勢ヨー角より計算されるセンサ姿勢値について、前回と今回との差分を演算する。そして、当該差分が前回の差分より大きくなったとき、当該差分は収束したものとみなして状態量の繰り返し演算を停止し、演算された状態量を出力する。また、当該差分が設定値以下になったとき、状態量の繰り返し演算を停止し、演算された状態量を出力する。 Patent Document 1 discloses a repetitive arithmetic control method in Kalman filter processing that estimates a state quantity including a vehicle position, a speed, and a sensor posture. In this method, the state quantity including the position, speed and attitude of the sensor is calculated. Next, among the calculated state quantities, the difference between the previous time and the current time is calculated for the sensor attitude value calculated from the attitude pitch angle of the acceleration sensor and the attitude yaw angle of the gyro sensor. Then, when the difference becomes larger than the previous difference, the difference is regarded as converged, the repetitive calculation of the state quantity is stopped, and the calculated state quantity is output. When the difference becomes equal to or less than the set value, the repeated calculation of the state quantity is stopped and the calculated state quantity is output.

特開2009−250778号公報Japanese Unexamined Patent Publication No. 2009-250778

しかしながら、特許文献1のような技術では、センサの姿勢、すなわち車両の姿勢の推定のみに用いるジャイロセンサを利用しており、コストの低減を図れる技術が望まれていた。 However, in the technology as in Patent Document 1, a gyro sensor used only for estimating the posture of the sensor, that is, the posture of the vehicle is used, and a technology capable of reducing the cost has been desired.

本開示は、コストの低減を容易に図りつつ、車両の位置を推定するための地物の位置を適切に推定できる地物位置推定装置、自車位置推定装置、車両および地物位置推定方法を提供することを目的とする。 The present disclosure provides a feature position estimation device, an own vehicle position estimation device, a vehicle and a feature position estimation method that can appropriately estimate the position of a feature for estimating the position of a vehicle while easily reducing costs. The purpose is to provide.

本開示の地物位置推定装置は、車両に固定された撮像部から取得した地物を含む撮像画像に基づいて、前記車両に対する前記地物の位置を推定する地物位置推定部と、前記撮像画像が撮像されたときに前記車両が加速度運動していると判定した場合、前記車両が停止しているときの前記撮像部の基準姿勢と、前記撮像画像中の前記地物の位置とに基づいて、前記撮像画像が撮像されたときの前記車両の加速度運動時の姿勢を推定する姿勢推定部と、前記姿勢推定部により推定された前記加速度運動時の姿勢に基づいて、前記地物位置推定部により推定された前記地物の推定位置の補正量を算出する補正量算出部と、前記補正量算出部で算出された補正量に基づいて、前記地物位置推定部で推定された前記地物の位置を補正する補正処理部と、を備える。 The feature position estimation device of the present disclosure includes a feature position estimation unit that estimates the position of the feature with respect to the vehicle based on an image captured including a feature acquired from an image pickup unit fixed to the vehicle, and the imaging unit. When it is determined that the vehicle is accelerating when the image is captured, it is based on the reference posture of the imaging unit when the vehicle is stopped and the position of the feature in the captured image. The feature position is estimated based on the posture estimation unit that estimates the posture of the vehicle during acceleration motion when the captured image is captured and the posture during acceleration motion estimated by the posture estimation unit. The ground estimated by the feature position estimation unit based on the correction amount calculation unit that calculates the correction amount of the estimated position of the feature estimated by the unit and the correction amount calculated by the correction amount calculation unit. It is provided with a correction processing unit that corrects the position of an object.

本開示の自車位置推定装置は、上述の地物位置推定装置と、前記地物位置推定装置の補正処理部の処理で得られた前記地物の位置に基づいて、前記車両の位置を推定する自車位置推定部と、を備える。 The own vehicle position estimation device of the present disclosure estimates the position of the vehicle based on the position of the feature obtained by the processing of the above-mentioned feature position estimation device and the correction processing unit of the feature position estimation device. It is equipped with a vehicle position estimation unit and a vehicle position estimation unit.

本開示の車両は、上述の自車位置推定装置を備える。 The vehicle of the present disclosure includes the above-mentioned own vehicle position estimation device.

本開示の地物位置推定方法は、コンピュータが、車両に固定された撮像部から取得した地物を含む撮像画像に基づいて、前記車両に対する前記地物の位置を推定する地物位置推定ステップと、前記撮像画像が撮像されたときに前記車両が加速度運動していると判定した場合、前記車両が停止しているときの前記撮像部の基準姿勢と、前記撮像画像中の前記地物の位置とに基づいて、前記撮像画像が撮像されたときの前記車両の加速度運動時の姿勢を推定する姿勢推定ステップと、前記姿勢推定ステップにより推定された前記加速度運動時の姿勢に基づいて、前記地物位置推定ステップにより推定された前記地物の推定位置の補正量を算出する補正量算出ステップと、前記補正量算出ステップで算出された補正量に基づいて、前記地物位置推定ステップで推定された前記地物の位置を補正する補正処理ステップと、を実行する。 The feature position estimation method of the present disclosure includes a feature position estimation step in which a computer estimates the position of the feature with respect to the vehicle based on an captured image including a feature acquired from an imaging unit fixed to the vehicle. When it is determined that the vehicle is accelerating when the captured image is captured, the reference posture of the imaging unit when the vehicle is stopped and the position of the feature in the captured image. Based on the posture estimation step for estimating the posture of the vehicle during acceleration motion when the captured image is captured, and the ground during the acceleration motion estimated by the posture estimation step. It is estimated in the feature position estimation step based on the correction amount calculation step for calculating the correction amount of the estimated position of the feature estimated in the object position estimation step and the correction amount calculated in the correction amount calculation step. The correction processing step of correcting the position of the feature is executed.

本開示の地物位置推定装置、自車位置推定装置、車両および地物位置推定方法によれば、コストの低減を容易に図りつつ、車両の位置を推定するための地物の位置を適切に推定できる。 According to the feature position estimation device, the own vehicle position estimation device, the vehicle and the feature position estimation method of the present disclosure, the position of the feature for estimating the position of the vehicle is appropriately determined while easily reducing the cost. Can be estimated.

本開示の第1,第2の実施の形態に係る自動運転制御システムの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the automatic operation control system which concerns on 1st and 2nd Embodiment of this disclosure. 本開示の第1の実施の形態に係る自車位置推定装置における自車位置推定処理のフローチャートである。It is a flowchart of the own vehicle position estimation process in the own vehicle position estimation apparatus which concerns on 1st Embodiment of this disclosure. 本開示の第1の実施の形態に係る地物位置推定モデルの説明図である。It is explanatory drawing of the feature position estimation model which concerns on 1st Embodiment of this disclosure. 本開示の第2の実施の形態に係る車両右方の地物に対する地物位置推定モデルの説明図である。It is explanatory drawing of the feature position estimation model with respect to the feature on the right side of the vehicle which concerns on 2nd Embodiment of this disclosure. 本開示の第2の実施の形態に係る車両左方の地物に対する地物位置推定モデルの説明図である。It is explanatory drawing of the feature position estimation model with respect to the feature on the left side of the vehicle which concerns on 2nd Embodiment of this disclosure.

[実施の形態]
<第1の実施の形態>
以下、本開示の第1の実施の形態について、図面を参照しながら説明する。
[Embodiment]
<First Embodiment>
Hereinafter, the first embodiment of the present disclosure will be described with reference to the drawings.

〔自動運転制御システムの構成〕
まず、本開示の第1の実施の形態に係る自動運転制御システムの構成について説明する。図1は、自動運転制御システムの概略構成を示すブロック図である。
[Configuration of automatic driving control system]
First, the configuration of the automatic driving control system according to the first embodiment of the present disclosure will be described. FIG. 1 is a block diagram showing a schematic configuration of an automatic driving control system.

図1に示す自動運転制御システム1は、車両の自動運転を制御する。自動運転制御システム1は、GNSS(Global Navigation Satellite System)11と、加速度検出部12と、速度検出部13と、操舵角検出部14と、撮像部15と、入力部16と、地図情報記憶部17と、記憶部18と、自動運転制御装置20と、を備える。 The automatic driving control system 1 shown in FIG. 1 controls the automatic driving of the vehicle. The automatic driving control system 1 includes a GNSS (Global Navigation Satellite System) 11, an acceleration detection unit 12, a speed detection unit 13, a steering angle detection unit 14, an imaging unit 15, an input unit 16, and a map information storage unit. 17, a storage unit 18, and an automatic operation control device 20 are provided.

加速度検出部12は、車両の加速または減速の加速度を検出し、検出結果を自動運転制御装置20に出力する。 The acceleration detection unit 12 detects the acceleration or deceleration of the vehicle and outputs the detection result to the automatic driving control device 20.

速度検出部13は、車両の速度を検出し、検出結果を自動運転制御装置20に出力する。 The speed detection unit 13 detects the speed of the vehicle and outputs the detection result to the automatic driving control device 20.

操舵角検出部14は、ハンドルの操舵角を検出し、検出結果を自動運転制御装置20に出力する。 The steering angle detection unit 14 detects the steering angle of the steering wheel and outputs the detection result to the automatic driving control device 20.

撮像部15は、前方カメラ151と、右方カメラ152と、左方カメラ153と、後方カメラ154と、を備える。前方カメラ151、右方カメラ152、左方カメラ153および後方カメラ154は、光軸が、それぞれ、車両の前方、右方、左方および後方を向くように固定されている。なお、以下において、前方カメラ151、右方カメラ152、左方カメラ153および後方カメラ154をまとめて、「各カメラ151,152,153,154」という場合がある。各カメラ151,152,153,154は、自動運転制御装置20の制御に基づいて地物を撮像し、撮像画像を自動運転制御装置20に出力する。 The imaging unit 15 includes a front camera 151, a right camera 152, a left camera 153, and a rear camera 154. The front camera 151, the right camera 152, the left camera 153, and the rear camera 154 are fixed so that their optical axes face the front, right, left, and rear of the vehicle, respectively. In the following, the front camera 151, the right camera 152, the left camera 153, and the rear camera 154 may be collectively referred to as "each camera 151, 152, 153, 154". Each camera 151, 152, 153, 154 images a feature based on the control of the automatic driving control device 20, and outputs the captured image to the automatic driving control device 20.

入力部16は、例えば車両に配置されたタッチパネルであり、乗車者の入力操作に基づく情報を自動運転制御装置20に出力する。 The input unit 16 is, for example, a touch panel arranged on the vehicle, and outputs information based on the input operation of the occupant to the automatic driving control device 20.

地図情報記憶部17は、例えば、不揮発性メモリで構成されている。地図情報記憶部17は、地図情報を記憶する。地図情報には、地物などの位置や形状などに関する情報が含まれる。地物の位置や形状を表す情報としては、地物の実在位置を特定するグローバル座標が例示できる。車両の位置を推定するための地物としては、ビルなどの建造物、道路上の白線、縁石、中央分離帯、信号、標識、バス停などが例示できる。 The map information storage unit 17 is composed of, for example, a non-volatile memory. The map information storage unit 17 stores map information. The map information includes information on the position and shape of features and the like. As information representing the position and shape of the feature, global coordinates that specify the actual position of the feature can be exemplified. Examples of features for estimating the position of a vehicle include buildings and other structures, white lines on roads, curbs, medians, traffic lights, signs, and bus stops.

記憶部18は、例えば、不揮発性メモリで構成されている。記憶部18は、車両の自動運転に必要な各種情報を記憶する。記憶部18が記憶する情報としては、自動運転制御装置20で取得されたり生成されたりした情報、各カメラ151,152,153,154の固定位置、姿勢などが例示できる。 The storage unit 18 is composed of, for example, a non-volatile memory. The storage unit 18 stores various information necessary for automatic driving of the vehicle. Examples of the information stored in the storage unit 18 include information acquired or generated by the automatic driving control device 20, fixed positions of the cameras 151, 152, 153, and 154, postures, and the like.

自動運転制御装置20は、車両の自動運転を制御する。自動運転制御装置20は、自車位置推定装置30と、運転制御装置40と、を備える。 The automatic driving control device 20 controls the automatic driving of the vehicle. The automatic driving control device 20 includes a vehicle position estimation device 30 and a driving control device 40.

自車位置推定装置30は、車両の位置(自車位置)を推定する。自車位置推定装置30は、地物位置推定装置31と、自車位置推定部32と、を備える。 The own vehicle position estimation device 30 estimates the position of the vehicle (own vehicle position). The own vehicle position estimation device 30 includes a feature position estimation device 31 and an own vehicle position estimation unit 32.

地物位置推定装置31は、プロセッサおよびメモリを含んで構成される。地物位置推定装置31は、メモリに記憶された地物位置推定プログラムをプロセッサで実行する。地物位置推定装置31は、基準姿勢パラメータ算出部311と、地物位置推定部312と、姿勢推定部313と、補正量算出部314と、補正処理部315と、を備える。 The feature position estimation device 31 includes a processor and a memory. The feature position estimation device 31 executes the feature position estimation program stored in the memory by the processor. The feature position estimation device 31 includes a reference attitude parameter calculation unit 311, a feature position estimation unit 312, an attitude estimation unit 313, a correction amount calculation unit 314, and a correction processing unit 315.

基準姿勢パラメータ算出部311は、車両が停止しているときの各カメラ151,152,153,154の基準姿勢を基準姿勢パラメータとして算出する。地物位置推定部312は、各カメラ151,152,153,154から取得した地物を含む撮像画像に基づいて、車両に対する地物の位置を推定する。姿勢推定部313は、撮像画像が撮像されたときに車両が加速度運動していると判定した場合、各カメラ151,152,153,154の基準姿勢と、撮像画像中の地物の位置とに基づいて、撮像画像が撮像されたときの車両の加速時姿勢を推定する。なお、加速度運動とは、加速、減速、旋回を意味する。補正量算出部314は、加速時姿勢に基づいて、地物の推定位置の補正量を算出する。補正処理部315は、補正量算出部314で算出された補正量に基づいて、地物位置推定部312で推定された地物の位置を補正する。なお、基準姿勢パラメータ算出部311、地物位置推定部312、姿勢推定部313、補正量算出部314および補正処理部315の詳細な処理については後述する。 The reference posture parameter calculation unit 311 calculates the reference posture of each camera 151, 152, 153, 154 when the vehicle is stopped as the reference posture parameter. The feature position estimation unit 312 estimates the position of the feature with respect to the vehicle based on the captured image including the feature acquired from each camera 151, 152, 153, 154. When the posture estimation unit 313 determines that the vehicle is accelerating when the captured image is captured, the posture estimation unit 313 determines the reference posture of each camera 151, 152, 153, 154 and the position of the feature in the captured image. Based on this, the acceleration posture of the vehicle when the captured image is captured is estimated. The acceleration motion means acceleration, deceleration, and turning. The correction amount calculation unit 314 calculates the correction amount of the estimated position of the feature based on the posture during acceleration. The correction processing unit 315 corrects the position of the feature estimated by the feature position estimation unit 312 based on the correction amount calculated by the correction amount calculation unit 314. The detailed processing of the reference attitude parameter calculation unit 311, the feature position estimation unit 312, the attitude estimation unit 313, the correction amount calculation unit 314, and the correction processing unit 315 will be described later.

自車位置推定部32は、車両が加速度運動している場合、地物位置推定装置31の補正処理部315の処理で得られた地物の位置に基づいて、自車位置を推定する。また、自車位置推定部32は、車両が加速度運動していない場合、地物位置推定部312で推定された地物の位置に基づいて、自車位置を推定する。 When the vehicle is accelerating, the own vehicle position estimation unit 32 estimates the own vehicle position based on the position of the feature obtained by the processing of the correction processing unit 315 of the feature position estimation device 31. Further, the own vehicle position estimation unit 32 estimates the own vehicle position based on the position of the feature estimated by the feature position estimation unit 312 when the vehicle is not accelerating.

運転制御装置40は、車両の運転を制御する。例えば、運転制御装置40は、乗車者の入力部16の操作に基づく目的地点に関する情報と、GNSS11から入力される現在地点に関する情報と、地図情報記憶部17に記憶された地図情報などに基づいて、走行経路を設定する。運転制御装置40は、自車位置推定装置30で推定された自車位置に基づいて、車両が走行経路を走行するように、車両の運転を制御する。 The driving control device 40 controls the driving of the vehicle. For example, the operation control device 40 is based on information on the destination point based on the operation of the passenger input unit 16, information on the current position input from the GNSS 11, map information stored in the map information storage unit 17, and the like. , Set the travel route. The driving control device 40 controls the driving of the vehicle so that the vehicle travels on the traveling route based on the own vehicle position estimated by the own vehicle position estimation device 30.

〔自動運転制御システムの動作〕
次に、自動運転制御システム1の動作として、自車位置推定装置30における自車位置の推定処理について説明する。なお、以下において、車両がローリングしたときの傾き角度を「ロール角度」、ピッチングしたときの傾き角度を「ピッチ角度」という場合がある。
[Operation of automatic operation control system]
Next, as the operation of the automatic driving control system 1, the estimation process of the own vehicle position in the own vehicle position estimation device 30 will be described. In the following, the tilt angle when the vehicle is rolling may be referred to as a "roll angle", and the tilt angle when the vehicle is pitched may be referred to as a "pitch angle".

まず、自車位置の推定処理の概要について説明する。 First, the outline of the own vehicle position estimation process will be described.

車両が加速されると、車両は、ピッチングして後方が下がるように傾く場合がある。一方、車両が減速されると、車両は、ピッチングして前方が下がるように傾く場合がある。車両が傾くと各カメラ151,152,153,154の光軸も傾く。その結果、車両に対して同じ位置に存在する地物を撮影すると、ピッチングしている場合の撮像画像における地物の位置は、ピッチングしていない場合の位置から、大きくずれてしまうおそれがある。自車位置推定装置30は、撮像画像における地物の位置に基づいて自車位置を推定するが、車両がピッチングしている場合、自車位置を適切に推定できないおそれがある。そこで、自車位置推定装置30は、車両の加速度の絶対値が加速度閾値以上の場合、つまり車両のピッチ角度がピッチ角度閾値以上の場合、車両が加速度運動していると判定し、撮像画像に基づき推定される地物の位置を補正してから、自車位置を推定する。 As the vehicle accelerates, the vehicle may pitch and tilt backwards. On the other hand, when the vehicle is decelerated, the vehicle may pitch and tilt so that the front is lowered. When the vehicle tilts, the optical axes of the cameras 151, 152, 153, and 154 also tilt. As a result, when a feature existing at the same position with respect to the vehicle is photographed, the position of the feature in the captured image when pitching may be significantly deviated from the position when not pitching. The own vehicle position estimation device 30 estimates the own vehicle position based on the position of the feature in the captured image, but when the vehicle is pitching, the own vehicle position may not be estimated appropriately. Therefore, the own vehicle position estimation device 30 determines that the vehicle is accelerating when the absolute value of the acceleration of the vehicle is equal to or greater than the acceleration threshold, that is, when the pitch angle of the vehicle is equal to or greater than the pitch angle threshold, and the captured image is displayed. After correcting the position of the feature estimated based on it, the position of the own vehicle is estimated.

また、車両が左に曲がるとき(旋回運動するとき)、車両は、ローリングして右方が下がるように傾く場合がある。一方、車両が右に曲がるとき(旋回運動するとき)、車両は、ローリングして左方が下がるように傾く場合がある。車両がピッチングしている場合と同様に、車両に対して同じ位置に存在する地物を撮影すると、ローリングしている場合の撮像画像における地物の位置は、ローリングしていない場合の位置から、大きくずれてしまうおそれがある。このため、自車位置推定装置30は、車両がローリングしている場合、自車位置を適切に推定できないおそれがある。そこで、自車位置推定装置30は、ハンドルの操舵角の絶対値が操舵角閾値以上であり、かつ、車両の速度が速度閾値以上の場合、つまり車両のロール角度がロール角度閾値以上の場合、車両が加速度運動していると判定し、撮像画像に基づき推定される地物の位置を補正してから、自車位置を推定する。 Also, when the vehicle turns to the left (when turning), the vehicle may roll and tilt to the right. On the other hand, when the vehicle turns to the right (when turning), the vehicle may roll and tilt to the left. Similar to the case where the vehicle is pitching, when a feature existing at the same position with respect to the vehicle is photographed, the position of the feature in the captured image when rolling is changed from the position when not rolling. There is a risk of a large deviation. Therefore, the own vehicle position estimation device 30 may not be able to appropriately estimate the own vehicle position when the vehicle is rolling. Therefore, in the own vehicle position estimation device 30, when the absolute value of the steering angle of the steering wheel is equal to or greater than the steering angle threshold and the speed of the vehicle is equal to or greater than the speed threshold, that is, when the roll angle of the vehicle is equal to or greater than the roll angle threshold. It is determined that the vehicle is accelerating, the position of the feature estimated based on the captured image is corrected, and then the position of the own vehicle is estimated.

また、自車位置推定装置30は、車両のピッチ角度がピッチ角度閾値未満であり、かつ、ロール角度がロール角度閾値未満の場合、車両が加速度運動していないと判定し、撮像画像に基づき推定される地物の位置を補正せずに、自車位置を推定する。 Further, when the pitch angle of the vehicle is less than the pitch angle threshold value and the roll angle is less than the roll angle threshold value, the own vehicle position estimation device 30 determines that the vehicle is not accelerating and estimates based on the captured image. Estimate the position of the own vehicle without correcting the position of the feature to be made.

次に、自車位置の推定処理の詳細について説明する。なお、以下において、自車位置が車両の目標位置から横方向(左右方向)にずれていない場合(横ずれしていない場合)、および、前後方向にずれていない場合(縦ずれしていない場合)の自車位置の推定処理について説明する。図2は、自車位置推定装置における自車位置推定処理のフローチャートである。図3は、地物位置推定モデルの説明図である。 Next, the details of the own vehicle position estimation process will be described. In the following, when the vehicle position does not deviate from the target position of the vehicle in the lateral direction (horizontal direction) (when it does not deviate laterally) and when it does not deviate in the front-rear direction (when it does not deviate vertically). The process of estimating the position of the own vehicle will be described. FIG. 2 is a flowchart of the own vehicle position estimation process in the own vehicle position estimation device. FIG. 3 is an explanatory diagram of the feature position estimation model.

図2に示すように、自車位置推定装置30の基準姿勢パラメータ算出部311は、撮像部15を構成する各カメラ151,152,153,154の基準姿勢パラメータを算出する(ステップS1)。基準姿勢パラメータは、車両に対する各カメラ151,152,153,154の基準姿勢を表す。基準姿勢パラメータとしては、各カメラ151,152,153,154の光軸の向きを表すパラメータが例示できる。 As shown in FIG. 2, the reference posture parameter calculation unit 311 of the own vehicle position estimation device 30 calculates the reference posture parameters of the cameras 151, 152, 153, and 154 constituting the imaging unit 15 (step S1). The reference posture parameter represents the reference posture of each camera 151, 152, 153, 154 with respect to the vehicle. As the reference posture parameter, a parameter representing the direction of the optical axis of each camera 151, 152, 153, 154 can be exemplified.

基準姿勢パラメータ算出部311は、車両の停止時に、各カメラ151,152,153,154に撮像させ、各カメラ151,152,153,154からそれぞれ撮像画像を取得する。また、基準姿勢パラメータ算出部311は、GNSS11から入力される情報に基づいて、車両の現在地点を認識し、現在地点の情報を含む地図情報を地図情報記憶部17から取得する。次に、基準姿勢パラメータ算出部311は、例えば、車両の現在地点と、各カメラ151,152,153,154から取得した撮像画像における地物(例えば、道路の白線)の位置と、地図情報に含まれる当該地物のグローバル座標と、に基づいてカメラの姿勢を算出する周知の方法(例えば、再公表特許WO00/64175を参照)を用いて、各カメラ151,152,153,154の基準姿勢パラメータを算出する。そして、基準姿勢パラメータ算出部311は、算出された基準姿勢パラメータを記憶部18に記憶させる。これにより、カメラの位置を基準とするカメラ座標系と、車両がピッチングまたはローリングしたときの車両の回転中心を原点とする後述のローカル座標系Cとの間の座標変換が可能となる。 The reference posture parameter calculation unit 311 causes each camera 151, 152, 153, 154 to take an image when the vehicle is stopped, and acquires an captured image from each camera 151, 152, 153, 154, respectively. Further, the reference posture parameter calculation unit 311 recognizes the current position of the vehicle based on the information input from the GNSS 11, and acquires the map information including the information of the current position from the map information storage unit 17. Next, the reference posture parameter calculation unit 311 uses, for example, the current position of the vehicle, the position of a feature (for example, a white line on the road) in the captured image acquired from each camera 151, 152, 153, 154, and map information. Reference orientations for each camera 151,152,153,154 using well-known methods (see, eg, republished patent WO 00/64175) for calculating camera orientations based on the global coordinates of the feature included. Calculate the parameters. Then, the reference posture parameter calculation unit 311 stores the calculated reference posture parameter in the storage unit 18. This enables coordinate conversion between the camera coordinate system based on the position of the camera and the local coordinate system C described later with the rotation center of the vehicle as the origin when the vehicle pitches or rolls.

その後、例えば、車両の走行開始後、地物位置推定部312は、各カメラ151,152,153,154を制御して、撮像画像を取得する(ステップS2)。そして、地物位置推定部312は、車両に対する地物(例えば、道路の白線)の位置を推定する(ステップS3)。地物位置推定部312は、地物の位置を推定するに際し、図3に示すような地物位置推定モデルを用いる。地物位置推定モデルは、車両を基準にしたローカル座標系Cを含む。ステップS3の処理の説明の前に、地物位置推定モデルについて説明する。 Then, for example, after the vehicle starts traveling, the feature position estimation unit 312 controls each of the cameras 151, 152, 153, and 154 to acquire an captured image (step S2). Then, the feature position estimation unit 312 estimates the position of the feature (for example, the white line of the road) with respect to the vehicle (step S3). The feature position estimation unit 312 uses a feature position estimation model as shown in FIG. 3 when estimating the position of the feature. The feature position estimation model includes a vehicle-based local coordinate system C. Before the description of the process in step S3, the feature position estimation model will be described.

ローカル座標系Cの原点O、X軸(図示省略)、Y軸、Z軸は、以下のように規定されている。
・車両の前方または後方の地物の位置を推定する場合
・原点O:車両がピッチングしたときの車両の回転中心
・X軸:車両の左右に延びる軸
・Y軸:車両の前後に延びる軸
・Z軸:車両の上下に延びる軸
・車両の右方または左方の地物の位置を推定する場合
・原点O:車両がローリングしたときの車両の回転中心
・X軸:車両の前後に延びる軸
・Y軸:車両の左右に延びる軸
・Z軸:車両の上下に延びる軸
The origin O, X axis (not shown), Y axis, and Z axis of the local coordinate system C are defined as follows.
-When estimating the position of features in front of or behind the vehicle-Origin O: Center of rotation of the vehicle when the vehicle pitches-X-axis: Axis extending to the left and right of the vehicle-Y-axis: Axis extending to the front and back of the vehicle- Z-axis: Axis extending up and down the vehicle-When estimating the position of features on the right or left side of the vehicle-Origin O: Center of rotation of the vehicle when the vehicle rolls-X-axis: Axis extending forward and backward of the vehicle・ Y-axis: Axis that extends to the left and right of the vehicle ・ Z-axis: Axis that extends to the top and bottom of the vehicle

また、符号Kが指す位置は、カメラのレンズの中心である。符号Fが指す実線は、路面である。符号Jが指す一点鎖線は、車両が傾いていないときのカメラの光軸、つまり基準姿勢パラメータで表される光軸である。ΔDは、車両のピッチングまたはローリングの回転中心からカメラのレンズの中心Kまでの水平面(ローカル座標系CのXY平面)に沿った距離である。ベクトルMは、原点Oを始点とし、当該原点Oの鉛直方向下方に位置する路面Fの地点F0を終点とするベクトルである。ベクトルL1は、地点F0を始点とし、レンズの中心Kを終点とするベクトルである。ベクトルL2は、原点Oを始点とし、レンズの中心Kを終点とするベクトルである。 The position pointed to by the reference numeral K is the center of the lens of the camera. The solid line pointed to by the reference numeral F is the road surface. The alternate long and short dash line indicated by the symbol J is the optical axis of the camera when the vehicle is not tilted, that is, the optical axis represented by the reference attitude parameter. ΔD is the distance along the horizontal plane (XY plane of the local coordinate system C) from the center of rotation of the pitching or rolling of the vehicle to the center K of the lens of the camera. The vector M is a vector whose start point is the origin O and whose end point is the point F0 of the road surface F located below the origin O in the vertical direction. The vector L1 is a vector starting from the point F0 and ending at the center K of the lens. The vector L2 is a vector whose starting point is the origin O and whose end point is the center K of the lens.

次に、ステップS3の処理について説明する。ここでは、車両の前方に位置する地物の位置の推定処理について説明するが、車両の右方、左方、後方に位置する地物の推定処理も、同様に行われる。地物位置推定部312は、GNSS11から入力される情報に基づいて、撮像画像の撮像位置を認識し、当該撮像位置の情報を含む地図情報を地図情報記憶部17から取得する。そして、地物位置推定部312は、地図情報に含まれる車両前方の地物であって、カメラが撮像した画像における地物の位置座標をローカル座標系Cにおける位置座標に変換する周知の技術を用いることにより、ローカル座標系Cにおける地物の位置座標Wを推定する。この場合、ローカル座標系の原点Oに対するカメラのレンズの中心Kの相対位置が既知であることから、レンズの中心Kを始点とし、地物の位置座標Wを終点とするベクトルNも推定できる。 Next, the process of step S3 will be described. Here, the estimation process of the position of the feature located in front of the vehicle will be described, but the estimation process of the feature located on the right, left, and rear of the vehicle is also performed in the same manner. The feature position estimation unit 312 recognizes the imaging position of the captured image based on the information input from the GNSS 11, and acquires the map information including the imaging position information from the map information storage unit 17. Then, the feature position estimation unit 312 uses a well-known technique for converting the position coordinates of the feature in the image captured by the camera into the position coordinates in the local coordinate system C, which is the feature in front of the vehicle included in the map information. By using it, the position coordinate W of the feature in the local coordinate system C is estimated. In this case, since the relative position of the center K of the camera lens with respect to the origin O of the local coordinate system is known, a vector N having the center K of the lens as the start point and the position coordinate W of the feature as the end point can also be estimated.

ここで、車両が傾いていないときのベクトルNをベクトルN1とした場合、車両が傾いているときのベクトルNは、ベクトルN1に対して傾いたベクトルN2となる。つまり、車両が傾いているときの地物の推定位置(位置座標W2)は、車両が傾いていないときの地物の推定位置(位置座標W1)からずれた位置となる。なお、実際には、車両が傾いたときのカメラの回転中心は、レンズの中心Kからずれた位置となるが、第1の実施の形態の地物位置推定モデルにおいては、レンズの中心Kがカメラの回転中心になるとみなして地物の位置を推定する。 Here, when the vector N when the vehicle is not tilted is the vector N1, the vector N when the vehicle is tilted is the vector N2 tilted with respect to the vector N1. That is, the estimated position of the feature (position coordinate W2) when the vehicle is tilted is a position deviated from the estimated position (position coordinate W1) of the feature when the vehicle is not tilted. In reality, the center of rotation of the camera when the vehicle is tilted is a position deviated from the center K of the lens, but in the feature position estimation model of the first embodiment, the center K of the lens is The position of the feature is estimated assuming that it is the center of rotation of the camera.

次に、姿勢推定部313は、加速度検出部12から車両の加速または減速の加速度の検出結果を取得して、加速度の絶対値が加速度閾値以上か否かを判定する(ステップS4)。加速度閾値は、例えば、車両のピッチ角度が所定のピッチ角度閾値以上になるような値に設定される。 Next, the posture estimation unit 313 acquires the detection result of the acceleration or deceleration of the vehicle from the acceleration detection unit 12, and determines whether or not the absolute value of the acceleration is equal to or greater than the acceleration threshold value (step S4). The acceleration threshold value is set to, for example, a value such that the pitch angle of the vehicle becomes equal to or higher than a predetermined pitch angle threshold value.

姿勢推定部313は、加速度の絶対値が加速度閾値以上であると判定した場合(ステップS4:YES)、車両のピッチ角度を推定する(ステップS5)。つまり、姿勢推定部313は、本開示の加速時姿勢を推定する。例えば、姿勢推定部313は、地図情報から得られる地物の位置とカメラで撮像された撮像画像における地物の位置が整合する車両のピッチ角度を算出することにより車両のピッチ角度を推定する。なお、姿勢推定部313は、車両後方の地物に基づいてピッチ角度を推定してもよいし、車両前方および後方の地物に基づいてピッチ角度を推定してもよい。 When the posture estimation unit 313 determines that the absolute value of the acceleration is equal to or greater than the acceleration threshold value (step S4: YES), the posture estimation unit 313 estimates the pitch angle of the vehicle (step S5). That is, the posture estimation unit 313 estimates the posture during acceleration of the present disclosure. For example, the posture estimation unit 313 estimates the pitch angle of the vehicle by calculating the pitch angle of the vehicle in which the position of the feature obtained from the map information and the position of the feature in the captured image captured by the camera match. The posture estimation unit 313 may estimate the pitch angle based on the features behind the vehicle, or may estimate the pitch angle based on the features in front of and behind the vehicle.

一方、姿勢推定部313は、加速度の絶対値が加速度閾値以上でないと判定した場合(ステップS4:NO)、操舵角検出部14からハンドルの操舵角の検出結果を取得して、操舵角の絶対値が操舵角閾値以上か否かを判定する(ステップS6)。なお、車両がまっすぐ前進または後退しているときの操舵角が0°である。 On the other hand, when the attitude estimation unit 313 determines that the absolute value of the acceleration is not equal to or greater than the acceleration threshold value (step S4: NO), the attitude estimation unit 313 acquires the detection result of the steering angle of the steering wheel from the steering angle detection unit 14, and the absolute steering angle is absolute. It is determined whether or not the value is equal to or greater than the steering angle threshold value (step S6). The steering angle when the vehicle is moving forward or backward is 0 °.

姿勢推定部313は、操舵角の絶対値が操舵角閾値以上であると判定した場合(ステップS6:YES)、速度検出部13から速度の検出結果を取得して、速度が速度閾値以上か否かを判定する(ステップS7)。操舵角閾値および速度閾値は、例えば、車両のロール角度が所定のロール角度閾値以上になるような値に設定される。 When the attitude estimation unit 313 determines that the absolute value of the steering angle is equal to or greater than the steering angle threshold value (step S6: YES), the attitude estimation unit 313 acquires the speed detection result from the speed detection unit 13 and determines whether the speed is equal to or greater than the speed threshold value. (Step S7). The steering angle threshold value and the speed threshold value are set to values such that the roll angle of the vehicle becomes equal to or higher than a predetermined roll angle threshold value, for example.

姿勢推定部313は、速度が速度閾値以上であると判定した場合(ステップS7:YES)、車両のロール角度を推定する(ステップS8)。つまり、姿勢推定部313は、本開示の加速時姿勢を推定する。例えば、ピッチ角度の推定時と同様に、姿勢推定部313は、地図情報から得られる地物の位置とカメラで撮像された撮像画像における地物の位置が整合する車両のロール角度を算出することにより車両のロール角度を推定する。なお、姿勢推定部313は、車両左方の地物に基づいてロール角度を推定してもよいし、車両右方および左方の地物に基づいてロール角度を推定してもよい。 When the attitude estimation unit 313 determines that the speed is equal to or higher than the speed threshold value (step S7: YES), the attitude estimation unit 313 estimates the roll angle of the vehicle (step S8). That is, the posture estimation unit 313 estimates the posture during acceleration of the present disclosure. For example, as in the case of estimating the pitch angle, the attitude estimation unit 313 calculates the roll angle of the vehicle in which the position of the feature obtained from the map information and the position of the feature in the captured image captured by the camera match. Estimates the roll angle of the vehicle. The posture estimation unit 313 may estimate the roll angle based on the feature on the left side of the vehicle, or may estimate the roll angle based on the feature on the right side and the left side of the vehicle.

補正量算出部314は、ステップS5またはステップS8の処理が行われると、地物の推定位置の補正量ΔYを算出する(ステップS9)。例えば、補正量算出部314は、車両が傾いているときのステップS3の処理で得られたベクトルN2を、ステップS5で推定したピッチ角度θpだけ回転させたベクトルN1の向きを算出する。補正量算出部314は、車両が図3の矢印Tで示す反時計回り方向に傾いている場合、ベクトルN2と同じ向きのベクトルを当該傾き方向と逆方向(時計回り方向)に回転させることで、ベクトルN1の向きを算出する。次に、補正量算出部314は、ベクトルN1の大きさをそのZ成分がHであることを利用して算出する。ここで、Hは、レンズの中心Kの路面Fからの高さである。そして、補正量算出部314は、以下の式(1)を用いて、位置座標W1と位置座標W2との距離を補正量ΔYとして算出する。
ΔY=|N1−N2| … (1)
When the processing of step S5 or step S8 is performed, the correction amount calculation unit 314 calculates the correction amount ΔY of the estimated position of the feature (step S9). For example, the correction amount calculation unit 314 calculates the direction of the vector N1 obtained by rotating the vector N2 obtained in the process of step S3 when the vehicle is tilted by the pitch angle θp estimated in step S5. When the vehicle is tilted in the counterclockwise direction indicated by the arrow T in FIG. 3, the correction amount calculation unit 314 rotates a vector in the same direction as the vector N2 in the direction opposite to the tilt direction (clockwise direction). , Calculate the direction of the vector N1. Next, the correction amount calculation unit 314 calculates the magnitude of the vector N1 by utilizing the fact that its Z component is H. Here, H is the height of the center K of the lens from the road surface F. Then, the correction amount calculation unit 314 calculates the distance between the position coordinate W1 and the position coordinate W2 as the correction amount ΔY by using the following equation (1).
ΔY = | N1-N2 | ... (1)

そして、補正処理部315は、車両が傾いているときの撮像画像に基づく地物の推定位置を補正する(ステップS10)。例えば、補正処理部315は、路面Fに沿って位置座標W2から補正量ΔYだけ移動した位置、つまりベクトルN1の終点である位置座標W1を算出する。補正処理部315は、車両が図3の矢印Tで示す反時計回り方向に傾いている場合、位置座標W2から車両の中心に近づく方向に補正量ΔYだけ移動した位置を算出する。 Then, the correction processing unit 315 corrects the estimated position of the feature based on the captured image when the vehicle is tilted (step S10). For example, the correction processing unit 315 calculates a position moved from the position coordinate W2 along the road surface F by a correction amount ΔY, that is, the position coordinate W1 which is the end point of the vector N1. When the vehicle is tilted in the counterclockwise direction indicated by the arrow T in FIG. 3, the correction processing unit 315 calculates a position moved from the position coordinate W2 in the direction closer to the center of the vehicle by the correction amount ΔY.

次に、自車位置推定部32は、自車位置を推定する(ステップS11)。例えば、自車位置推定部32は、ステップS10の処理で算出された位置座標W1を、車両が傾いていないときの撮像画像に基づき得られる地物の推定位置として特定し、当該推定位置に基づいて、自車位置を推定する。 Next, the own vehicle position estimation unit 32 estimates the own vehicle position (step S11). For example, the own vehicle position estimation unit 32 specifies the position coordinate W1 calculated in the process of step S10 as the estimated position of the feature obtained based on the captured image when the vehicle is not tilted, and is based on the estimated position. Estimate the position of the own vehicle.

なお、ステップS8の処理に続いて行われるステップS9,S10の処理、つまり車両がローリングしているときに行われる処理と、ステップS5の処理に続いて行われるステップS9,S10の処理との相違点は、ピッチ角度θpの代わりにロール角度θrを用いることなので、説明を省略する。 The difference between the processes of steps S9 and S10 performed following the process of step S8, that is, the processes performed when the vehicle is rolling and the processes of steps S9 and S10 performed following the process of step S5. Since the point uses the roll angle θr instead of the pitch angle θp, the description thereof will be omitted.

この後、地物位置推定部312は、運転が終了したか否かを判定する(ステップS12)。地物位置推定部312は、運転が終了したと判定した場合(ステップS12:YES)、自車位置の推定処理を終了し、運転が終了していないと判定した場合(ステップS12:NO)、ステップS2の処理を行う。 After that, the feature position estimation unit 312 determines whether or not the operation is completed (step S12). When the feature position estimation unit 312 determines that the operation has been completed (step S12: YES), the feature estimation process ends the own vehicle position estimation process, and determines that the operation has not been completed (step S12: NO). The process of step S2 is performed.

一方、自車位置推定部32は、姿勢推定部313で操舵角の絶対値が操舵角閾値以上でないと判定された場合(ステップS6:NO)、または、速度が速度閾値以上でないと判定された場合(ステップS7:NO)、ステップS3の処理で算出された位置座標W1を地物の推定位置として特定し、当該推定位置に基づいて、自車位置を推定する。 On the other hand, the vehicle position estimation unit 32 determines that the absolute value of the steering angle is not equal to or greater than the steering angle threshold (step S6: NO), or that the speed is not equal to or greater than the speed threshold. In the case (step S7: NO), the position coordinate W1 calculated in the process of step S3 is specified as the estimated position of the feature, and the own vehicle position is estimated based on the estimated position.

〔第1の実施の形態の作用効果〕
地物位置推定装置31は、撮像部15から取得した撮像画像に基づいて、車両に対する地物の位置を推定する。次に、地物位置推定装置31は、撮像時に車両が加速度運動していると判定した場合、基準姿勢パラメータと、撮像画像中の地物の位置とに基づいて、車両の加速時姿勢としてのピッチ角度またはロール角度を推定する。そして、地物位置推定装置31は、ピッチ角度またはロール角度に基づいて、地物の推定位置の補正量ΔYを算出し、当該補正量ΔYに基づいて、撮像画像に基づき推定された地物の位置を補正する。このため、地物位置推定装置31は、車両の姿勢の推定のみに用いるジャイロセンサを利用することなく、車両の周囲観察にも利用できる撮像部を用いて車両の加速時姿勢を推定し、当該加速時姿勢に基づいて車両に対する地物の位置を適切に推定できる。そして、自車位置推定部32は、地物位置推定装置31で推定された車両に対する地物の位置に基づいて、自車位置を適切に推定できる。したがって、コストの低減を容易に図りつつ、車両の位置を推定するための地物の位置を適切に推定可能な地物位置推定装置31を提供できる。
[Action and effect of the first embodiment]
The feature position estimation device 31 estimates the position of the feature with respect to the vehicle based on the captured image acquired from the imaging unit 15. Next, when the feature position estimation device 31 determines that the vehicle is accelerating at the time of imaging, the feature position estimation device 31 sets the vehicle as the acceleration posture based on the reference posture parameter and the position of the feature in the captured image. Estimate the pitch or roll angle. Then, the feature position estimation device 31 calculates a correction amount ΔY of the estimated position of the feature based on the pitch angle or the roll angle, and based on the correction amount ΔY, the feature estimated based on the captured image. Correct the position. Therefore, the feature position estimation device 31 estimates the acceleration posture of the vehicle by using an imaging unit that can also be used for observing the surroundings of the vehicle without using the gyro sensor used only for estimating the posture of the vehicle. The position of the feature with respect to the vehicle can be appropriately estimated based on the attitude during acceleration. Then, the own vehicle position estimation unit 32 can appropriately estimate the own vehicle position based on the position of the feature with respect to the vehicle estimated by the feature position estimation device 31. Therefore, it is possible to provide the feature position estimation device 31 capable of appropriately estimating the position of the feature for estimating the position of the vehicle while easily reducing the cost.

自車位置推定装置30は、撮像時に車両が加速度運動していないと判定した場合、加速時姿勢を推定せず、撮像画像に基づき推定された地物の位置に基づいて、自車位置を推定する。このように、撮像時に車両が加速度運動していないときに、加速時姿勢の推定処理を行わないことで、自車位置推定装置30の処理負荷を低減できる。 When the vehicle position estimation device 30 determines that the vehicle is not accelerating at the time of imaging, the vehicle position estimation device 30 does not estimate the acceleration posture, but estimates the vehicle position based on the position of the feature estimated based on the captured image. do. As described above, when the vehicle is not accelerating at the time of imaging, the processing load of the own vehicle position estimation device 30 can be reduced by not performing the acceleration processing for estimating the posture during acceleration.

<第2の実施の形態>
以下、本開示の第2の実施の形態について、図面を参照しながら説明する。第1の実施の形態では、車両が横ずれおよび縦ずれしていない場合の自車位置を推定したが、第2の実施の形態では、横ずれしている状態でローリングした場合の自車位置を推定する。なお、自動運転制御システム1の構成は第1の実施の形態と同じであるため、自動運転制御システム1の動作について説明する。なお、車両がローリングしておらず、かつ、横ずれしていない状態を「基準状態」といい、車両がローリングしているが、横ずれしていない状態を「第1の変位状態」といい、車両がローリングしており、かつ、横ずれしている状態を「第2の変位状態」という。図4は、車両右方の地物に対する地物位置推定モデルの説明図である。図5は、車両左方の地物に対する地物位置推定モデルの説明図である。
<Second embodiment>
Hereinafter, the second embodiment of the present disclosure will be described with reference to the drawings. In the first embodiment, the position of the own vehicle when the vehicle is not laterally displaced and vertically displaced is estimated, but in the second embodiment, the position of the own vehicle when rolling in the laterally displaced state is estimated. do. Since the configuration of the automatic driving control system 1 is the same as that of the first embodiment, the operation of the automatic driving control system 1 will be described. The state in which the vehicle is not rolling and is not laterally displaced is referred to as a "reference state", and the state in which the vehicle is rolling but not laterally displaced is referred to as a "first displacement state". Is rolling and laterally displaced is called a "second displacement state". FIG. 4 is an explanatory diagram of a feature position estimation model for a feature on the right side of the vehicle. FIG. 5 is an explanatory diagram of a feature position estimation model for a feature on the left side of the vehicle.

〔自動運転制御システムの動作〕
自車位置推定装置30は、図2に示すステップS1,S2の処理を行った後、撮像画像に基づいて、地物の位置を推定する。地物位置推定部312は、地物の位置を推定するに際し、図4および図5に示すような地物位置推定モデルを用いる。地物位置推定モデルは、車両を基準にしたローカル座標系Crを含む。まず、図4,5を参照して、ローカル座標系Crについて説明する。
[Operation of automatic operation control system]
The own vehicle position estimation device 30 estimates the position of the feature based on the captured image after performing the processes of steps S1 and S2 shown in FIG. The feature position estimation unit 312 uses a feature position estimation model as shown in FIGS. 4 and 5 when estimating the position of the feature. The feature position estimation model includes a vehicle-based local coordinate system Cr. First, the local coordinate system Cr will be described with reference to FIGS. 4 and 5.

ローカル座標系Crは、車両を前側から見たときの、ローリングの回転中心を原点Orとし、原点Orから車両の上下に延びる軸をZ軸、原点Orから車両の左右に延びる軸をY軸、原点Orから車両の前後に延びる軸をX軸(図示省略)とする座標系である。符号Kmが指す位置は、右方カメラ152のレンズの中心である。符号Khが指す位置は、左方カメラ153のレンズの中心である。ΔDmは、車両のローリングの回転中心から右方カメラ152のレンズの中心Kmまでの水平面(ローカル座標系CrのXY平面)に沿った距離である。ΔDhは、車両のローリングの回転中心から左方カメラ153のレンズの中心Khまでの水平面に沿った距離である。符号Jmが指す一点鎖線は、車両が基準状態のときの右方カメラ152の光軸、つまり基準姿勢パラメータで表される光軸である。符号Jhが指す一点鎖線は、車両が基準状態のときの左方カメラ153の光軸である。右方カメラ152の光軸と水平面とのなす角度は、左方カメラ153の光軸と水平面とのなす角度と同じであってもよいし、違っていてもよい。 In the local coordinate system Cr, the center of rotation of rolling when the vehicle is viewed from the front side is the origin Or, the axis extending vertically from the origin Or is the Z axis, and the axis extending from the origin Or to the left and right of the vehicle is the Y axis. This is a coordinate system in which the axis extending from the origin Or to the front and rear of the vehicle is the X axis (not shown). The position pointed to by the symbol Km is the center of the lens of the right camera 152. The position pointed to by the reference numeral Kh is the center of the lens of the left camera 153. ΔDm is the distance along the horizontal plane (XY plane of the local coordinate system Cr) from the rotation center of the rolling of the vehicle to the center Km of the lens of the right camera 152. ΔDh is the distance along the horizontal plane from the center of rotation of the rolling of the vehicle to the center Kh of the lens of the left camera 153. The alternate long and short dash line indicated by the symbol Jm is the optical axis of the right camera 152 when the vehicle is in the reference state, that is, the optical axis represented by the reference attitude parameter. The alternate long and short dash line pointed to by the symbol Jh is the optical axis of the left camera 153 when the vehicle is in the reference state. The angle formed by the optical axis of the right camera 152 and the horizontal plane may be the same as or different from the angle formed by the optical axis of the left camera 153 and the horizontal plane.

次に、地物の位置の推定処理について説明する。地物位置推定部312は、第1の実施の形態のステップS1〜S3と同様の処理を行い、右方カメラ152の基準姿勢パラメータと、右方カメラ152のレンズの中心と右方の地物の位置とを結ぶベクトルNmと、を推定する。 Next, the process of estimating the position of the feature will be described. The feature position estimation unit 312 performs the same processing as in steps S1 to S3 of the first embodiment, and performs the same processing as the reference posture parameter of the right camera 152, the center of the lens of the right camera 152, and the feature on the right. The vector Nm connecting the positions of is estimated.

ここで、車両が基準状態のときのベクトルNmをベクトルNm1とした場合、第2の変位状態のときのベクトルNmは、ベクトルNm1に対して傾いたベクトルNm3となる。つまり、第2の変位状態のときの車両右方の地物の推定位置(位置座標Wm3)は、基準状態の推定位置(位置座標Wm1)からずれた位置となる。 Here, assuming that the vector Nm when the vehicle is in the reference state is the vector Nm1, the vector Nm in the second displacement state is the vector Nm3 tilted with respect to the vector Nm1. That is, the estimated position (position coordinate Wm3) of the feature on the right side of the vehicle in the second displacement state is a position deviated from the estimated position (position coordinate Wm1) in the reference state.

また、地物位置推定部312は、車両右方の地物に対する処理と同様の処理を行い、左方の地物に対応するベクトルNh(Nh1,Nh3)を算出し、距離ΔDhを考慮に入れた位置座標Wh(Wh1,Wh3)を、車両に対する左方の地物の位置として推定する。なお、実際には、第2の変位状態のときのカメラの回転中心は、レンズの中心Km,Khからずれた位置となるが、第2の実施の形態の地物位置推定モデルにおいては、レンズの中心Km,Khがカメラの回転中心になるとみなして地物の位置を推定する。 Further, the feature position estimation unit 312 performs the same processing as the processing for the feature on the right side of the vehicle, calculates the vector Nh (Nh1, Nh3) corresponding to the feature on the left side, and takes the distance ΔDh into consideration. The position coordinates Wh (Wh1, Wh3) are estimated as the positions of the features on the left side with respect to the vehicle. Actually, the center of rotation of the camera in the second displacement state is a position deviated from the centers Km and Kh of the lens, but in the feature position estimation model of the second embodiment, the lens The position of the feature is estimated by assuming that the centers Km and Kh of the camera are the centers of rotation of the camera.

次に、姿勢推定部313は、ステップS6,S7の処理を行った後、ステップS8と同様の処理を行って、基準状態のベクトルNm1に対する第2の変位状態のベクトルNm3のロール角度θr2を推定する。なお、基準状態のベクトルNh1に対する第2の変位状態のベクトルNh3のロール角度もθr2となる。 Next, the posture estimation unit 313 performs the processing of steps S6 and S7, and then performs the same processing as in step S8 to estimate the roll angle θr2 of the vector Nm3 in the second displacement state with respect to the vector Nm1 in the reference state. do. The roll angle of the vector Nh3 in the second displacement state with respect to the vector Nh1 in the reference state is also θr2.

この後、補正量算出部314は、車両右方の地物の推定位置の補正量ΔYmと、車両左方の地物の推定位置の補正量ΔYhと、を算出する。まず、補正量算出部314は、第1の実施の形態のステップS3と同様の処理を行い、車両が基準状態のときの車両右方、左方それぞれの地物に対応するベクトルNm1,Nh1を算出する。 After that, the correction amount calculation unit 314 calculates the correction amount ΔYm of the estimated position of the feature on the right side of the vehicle and the correction amount ΔYh of the estimated position of the feature on the left side of the vehicle. First, the correction amount calculation unit 314 performs the same processing as in step S3 of the first embodiment, and obtains vectors Nm1 and Nh1 corresponding to the right and left features of the vehicle when the vehicle is in the reference state. calculate.

ここで、車両が第1の変位状態のときの車両右方、左方それぞれの地物に対応するベクトルをNm2,Nh2、当該ベクトルNm2,Nh2のロール角度をθr1と仮定すると、ベクトルNm2は、ベクトルNm1をθr1回転させてα倍して得られるベクトルであり、ベクトルNh2は、ベクトルNh1をθr1回転させてβ倍して得られるベクトルであるといえる。つまり、以下の式(2),(3)が成り立つ。
Nm2=R(θr1)・α・Nm1 … (2)
Nh2=R(θr1)・β・Nh1 … (3)
Here, assuming that the vectors corresponding to the right and left features of the vehicle when the vehicle is in the first displacement state are Nm2 and Nh2, and the roll angle of the vectors Nm2 and Nh2 is θr1, the vector Nm2 is It can be said that the vector Nm1 is a vector obtained by rotating θr1 and multiplying by α, and the vector Nh2 is a vector obtained by rotating the vector Nh1 by θr1 and multiplying by β. That is, the following equations (2) and (3) hold.
Nm2 = R (θr1) ・ α ・ Nm1… (2)
Nh2 = R (θr1) ・ β ・ Nh1… (3)

また、ベクトルNm1,Nh1に基づき推定される第1の変位状態のときの地物の推定位置を位置座標Wm2,Wh2、位置座標Wm2を始点とし位置座標Wm3を終点とするベクトルをAと仮定した場合、以下の式(4)が成り立つ。また、位置座標Wh2を始点とし位置座標Wh3を終点とするベクトルもAとなるため、以下の式(5)が成り立つ。
Nm3−A=Nm2 … (4)
Nh3−A=Nh2 … (5)
Further, it is assumed that the estimated position of the feature in the first displacement state estimated based on the vectors Nm1 and Nh1 is the position coordinate Wm2, Wh2, the vector whose start point is the position coordinate Wm2 and whose end point is the position coordinate Wm3 is A. In this case, the following equation (4) holds. Further, since the vector having the position coordinate Wh2 as the start point and the position coordinate Wh3 as the end point is also A, the following equation (5) holds.
Nm3-A = Nm2 ... (4)
Nh3-A = Nh2 ... (5)

式(2)を式(4)に代入すると、以下の式(6)が得られ、式(3)を式(5)に代入すると、以下の式(7)が得られる。
Nm3−A=R(θr1)・α・Nm1 … (6)
Nh3−A=R(θr1)・β・Nh1 … (7)
Substituting the equation (2) into the equation (4) gives the following equation (6), and substituting the equation (3) into the equation (5) gives the following equation (7).
Nm3-A = R (θr1) ・ α ・ Nm1… (6)
Nh3-A = R (θr1) ・ β ・ Nh1… (7)

また、式(6)および式(7)からベクトルAを消去すると、以下の式(8)が得られる。
Nm3−Nh3=R(θr1)・(α・Nm1−β・Nh1) … (8)
Further, by eliminating the vector A from the equations (6) and (7), the following equation (8) is obtained.
Nm3-Nh3 = R (θr1) ・ (α ・ Nm1-β ・ Nh1)… (8)

ベクトルNm1,Nh1,Nm3,Nh3の大きさおよび向きは、第2の変位状態のベクトルNm3のロール角度θr2、レンズの中心Km,Khの路面Fからの高さH、基準姿勢パラメータ等に基づいて、算出することができる。したがって、補正量算出部314は、式(8)に基づいて、θr1、α、βを算出することができる。 The magnitude and orientation of the vectors Nm1, Nh1, Nm3, Nh3 are based on the roll angle θr2 of the vector Nm3 in the second displacement state, the height H of the center Km and Kh of the lens from the road surface F, the reference attitude parameter, and the like. , Can be calculated. Therefore, the correction amount calculation unit 314 can calculate θr1, α, and β based on the equation (8).

また、式(6)から以下の式(9)が得られる。
A=Nm3−R(θr1)・α・Nm1 … (9)
Further, the following equation (9) can be obtained from the equation (6).
A = Nm3-R (θr1) ・ α ・ Nm1… (9)

補正量算出部314は、式(8)に基づき算出したθr1およびαと、式(9)と、に基づいて、横ずれ量であるベクトルAの大きさΔYaを算出する。 The correction amount calculation unit 314 calculates the magnitude ΔYa of the vector A, which is the amount of strike-slip, based on θr1 and α calculated based on the equation (8) and the equation (9).

また、補正量算出部314は、式(8)に基づき算出したθr1、α、βと、式(2),(3)と、に基づいて、第1の変位状態のときのベクトルNm2,Nh2を算出する。そして、補正量算出部314は、以下の式(10)を用いて、位置座標Wm1と位置座標Wm2との距離ΔYm1を算出し、式(11)を用いて、位置座標Wh1と位置座標Wh2との距離ΔYh1を算出する。
ΔYm1=|Nm1−Nm2| … (10)
ΔYh1=|Nh1−Nh2| … (11)
Further, the correction amount calculation unit 314 is based on the θr1, α, β calculated based on the equation (8) and the equations (2), (3), and the vectors Nm2, Nh2 in the first displacement state. Is calculated. Then, the correction amount calculation unit 314 calculates the distance ΔYm1 between the position coordinate Wm1 and the position coordinate Wm2 using the following equation (10), and uses the equation (11) to obtain the position coordinate Wh1 and the position coordinate Wh2. The distance ΔYh1 of is calculated.
ΔYm1 = | Nm1-Nm2 | ... (10)
ΔYh1 = | Nh1-Nh2 | ... (11)

この後、補正量算出部314は、以下の式(12)を用いて、車両右方の地物の推定位置の補正量ΔYmを算出し、式(13)を用いて、車両左方の地物の推定位置の補正量ΔYhを算出する。
ΔYm=ΔYm1+ΔYa … (12)
ΔYh=ΔYh1+ΔYa … (13)
After that, the correction amount calculation unit 314 calculates the correction amount ΔYm of the estimated position of the feature on the right side of the vehicle using the following formula (12), and uses the formula (13) to calculate the ground on the left side of the vehicle. The correction amount ΔYh of the estimated position of the object is calculated.
ΔYm = ΔYm1 + ΔYa… (12)
ΔYh = ΔYh1 + ΔYa… (13)

また、補正量算出部314は、以下の式(14)を用いて、車両右方の地物の推定位置の補正量ΔYmを算出し、式(15)を用いて、車両左方の地物の推定位置の補正量ΔYhを算出することもできる。
ΔYm=|Nm1−Nm3| … (14)
ΔYh=|Nh1−Nh3| … (15)
Further, the correction amount calculation unit 314 calculates the correction amount ΔYm of the estimated position of the feature on the right side of the vehicle using the following formula (14), and uses the formula (15) to calculate the feature on the left side of the vehicle. It is also possible to calculate the correction amount ΔYh of the estimated position of.
ΔYm = | Nm1-Nm3 |… (14)
ΔYh = | Nh1-Nh3 |… (15)

その後、補正処理部315は、車両が第2の変位状態のときの撮像画像に基づく地物の推定位置を補正する。例えば、補正処理部315は、第1の実施の形態のステップS10と同様の処理を行い、路面Fに沿って位置座標Wm3から補正量ΔYm移動した位置、つまりベクトルNm1の終点である位置座標Wm1を算出し、位置座標Wh3から補正量ΔYh移動した位置、つまりベクトルNh1の終点である位置座標Wh1を算出する。このとき、補正処理部315は、車両が図4および図5の矢印Tで示す反時計回り方向に傾いている場合、位置座標Wm3から車両の中心に近づく方向に補正量ΔYm移動した位置と、位置座標Wh3から車両の中心から離れる方向に補正量ΔYh移動した位置と、を算出する。 After that, the correction processing unit 315 corrects the estimated position of the feature based on the captured image when the vehicle is in the second displacement state. For example, the correction processing unit 315 performs the same processing as in step S10 of the first embodiment, and moves the correction amount ΔYm from the position coordinate Wm3 along the road surface F, that is, the position coordinate Wm1 which is the end point of the vector Nm1. Is calculated, and the position moved by the correction amount ΔYh from the position coordinate Wh3, that is, the position coordinate Wh1 which is the end point of the vector Nh1 is calculated. At this time, when the vehicle is tilted in the counterclockwise direction indicated by the arrow T in FIGS. 4 and 5, the correction processing unit 315 moves the correction amount ΔYm from the position coordinate Wm3 toward the center of the vehicle. The position where the correction amount ΔYh is moved in the direction away from the center of the vehicle from the position coordinate Wh3 is calculated.

そして、自車位置推定部32は、第1の実施の形態のステップS11と同様の処理を行い、位置座標Wm1,Wh1を、車両が基準状態のときの撮像画像に基づき得られる車両右方、左方それぞれの地物の推定位置として特定し、当該推定位置に基づいて、自車位置を推定する。 Then, the own vehicle position estimation unit 32 performs the same processing as in step S11 of the first embodiment, and the position coordinates Wm1 and Wh1 are obtained on the right side of the vehicle based on the captured image when the vehicle is in the reference state. It is specified as the estimated position of each feature on the left side, and the position of the own vehicle is estimated based on the estimated position.

〔第2の実施の形態の作用効果〕
地物位置推定装置31は、横ずれを考慮して、補正量ΔYm,ΔYhを算出し、当該補正量ΔYm,ΔYhに基づいて、撮像画像に基づき推定された地物の位置を補正する。このため、地物位置推定装置31は、車両が横ずれしていても、車両に対する地物の位置を適切に推定できる。
[Action and effect of the second embodiment]
The feature position estimation device 31 calculates the correction amounts ΔYm and ΔYh in consideration of the lateral displacement, and corrects the position of the feature estimated based on the captured image based on the correction amounts ΔYm and ΔYh. Therefore, the feature position estimation device 31 can appropriately estimate the position of the feature with respect to the vehicle even if the vehicle is laterally displaced.

[変形例]
本開示は、これまでに説明した実施の形態に示されたものに限られないことは言うまでもなく、その趣旨を逸脱しない範囲内で、種々の変形を加えることができる。
[Modification example]
Needless to say, the present disclosure is not limited to that shown in the embodiments described above, and various modifications can be made without departing from the spirit of the present disclosure.

例えば、基準姿勢パラメータを車両の製造者や乗車者が入力してもよい。このような構成にすれば、地物位置推定装置31に基準姿勢パラメータ算出部311を設ける必要がなくなる。 For example, the reference attitude parameter may be input by the vehicle manufacturer or passenger. With such a configuration, it is not necessary to provide the reference attitude parameter calculation unit 311 in the feature position estimation device 31.

自車位置推定装置30は、ピッチ角度またはロール角度のみを考慮して地物の位置を補正したが、ピッチ角度およびロール角度の両方を考慮して地物の位置を補正してもよい。また、自車位置推定装置30は、ピッチ角度を推定する機能およびロール角度を推定する機能のうち一方の機能を備えなくてもよい。また、第2の実施の形態の自車位置推定装置30は、車両が横ずれしている状態でローリングした場合の自車位置を推定したが、同様の方法を用いて、車両が縦ずれしている状態でピッチングした場合の自車位置を推定してもよい。さらに、自車位置推定装置30は、車両が横ずれしている状態でローリングした場合の自車位置推定機能と、車両が縦ずれしている状態でピッチングした場合の自車位置推定機能の両方を備えていてもよい。 The own vehicle position estimation device 30 corrects the position of the feature in consideration of only the pitch angle or the roll angle, but the position of the feature may be corrected in consideration of both the pitch angle and the roll angle. Further, the own vehicle position estimation device 30 does not have to have one of the function of estimating the pitch angle and the function of estimating the roll angle. Further, the own vehicle position estimation device 30 of the second embodiment estimates the own vehicle position when the vehicle is rolled in a laterally displaced state, but the vehicle is vertically displaced by using the same method. You may estimate the position of the own vehicle when pitching while the vehicle is in the position. Further, the own vehicle position estimation device 30 has both a own vehicle position estimation function when the vehicle is rolling in a laterally displaced state and a own vehicle position estimation function when the vehicle is pitched in a vertically displaced state. You may have it.

地物位置推定装置31で位置を推定する地物は、道路の白線ではなく、ビルなどの建造物、道路上の白線、縁石、中央分離帯、信号、標識、バス停などであってもよい。また、地物位置推定装置31は、1つの撮像画像に基づいて、互いに異なる複数の地物の位置を推定してもよい。自車位置推定部32は、複数の地物の推定位置に基づいて自車位置を推定してもよい。本開示の車両としては、乗用車、バス、トラック、重機、農業機械、自動二輪車、自転車、車いすなどであってもよい。 The feature whose position is estimated by the feature position estimation device 31 may be a building such as a building, a white line on the road, a curb, a median strip, a signal, a sign, a bus stop, or the like, instead of the white line on the road. Further, the feature position estimation device 31 may estimate the positions of a plurality of features different from each other based on one captured image. The own vehicle position estimation unit 32 may estimate the own vehicle position based on the estimated positions of a plurality of features. The vehicle of the present disclosure may be a passenger car, a bus, a truck, a heavy machine, an agricultural machine, a motorcycle, a bicycle, a wheelchair, or the like.

以上、本開示に係る実施の形態について図面を参照して詳述してきたが、上述した各装置の機能は、コンピュータプログラムにより実現され得る。 Although the embodiments according to the present disclosure have been described in detail with reference to the drawings, the functions of the above-described devices can be realized by a computer program.

上述した各装置の機能をプログラムにより実現するコンピュータは、キーボードやマウス、タッチパッドなどの入力装置、ディスプレイやスピーカーなどの出力装置、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク装置やSSD(Solid State Drive)などの記憶装置、DVD−ROM(Digital Versatile Disk Read Only Memory)やUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置、ネットワークを介して通信を行うネットワークカードなどを備え、各部はバスにより接続される。 Computers that programmatically realize the functions of each of the above devices include input devices such as keyboards, mice, and touch pads, output devices such as displays and speakers, CPUs (Central Processing Units), ROMs (Read Only Memory), and RAMs (Random). Access Memory), storage devices such as hard disk devices and SSDs (Solid State Drives), readers that read information from recording media such as DVD-ROMs (Digital Versatile Disk Read Only Memory) and USB (Universal Serial Bus) memories, and networks. It is equipped with a network card that communicates via a bus, and each part is connected by a bus.

そして、読取装置は、上記各装置の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置に記憶させる。あるいは、ネットワークカードが、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置に記憶させる。 Then, the reading device reads the program from the recording medium on which the program for realizing the function of each of the above devices is recorded, and stores the program in the storage device. Alternatively, the network card communicates with the server device connected to the network, and stores the program downloaded from the server device for realizing the function of each device in the storage device.

そして、CPUが、記憶装置に記憶されたプログラムをRAMにコピーし、そのプログラムに含まれる命令をRAMから順次読み出して実行することにより、上記各装置の機能が実現される。 Then, the CPU copies the program stored in the storage device to the RAM, sequentially reads the instructions included in the program from the RAM, and executes the program, thereby realizing the functions of the respective devices.

本開示は、地物位置推定装置、自車位置推定装置、車両および地物位置推定方法に適用できる。 The present disclosure can be applied to a feature position estimation device, a vehicle position estimation device, a vehicle and a feature position estimation method.

1 自動運転制御システム
11 GNSS
12 加速度検出部
13 速度検出部
14 操舵角検出部
15 撮像部
16 入力部
17 地図情報記憶部
18 記憶部
20 自動運転制御装置
30 自車位置推定装置
31 地物位置推定装置
32 自車位置推定部
40 運転制御装置
151 前方カメラ
152 右方カメラ
153 左方カメラ
154 後方カメラ
311 基準姿勢パラメータ算出部
312 地物位置推定部
313 姿勢推定部
314 補正量算出部
315 補正処理部
1 Automatic operation control system 11 GNSS
12 Acceleration detection unit 13 Speed detection unit 14 Steering angle detection unit 15 Imaging unit 16 Input unit 17 Map information storage unit 18 Storage unit 20 Automatic operation control device 30 Vehicle position estimation device 31 Feature position estimation device 32 Vehicle position estimation unit 40 Operation control device 151 Front camera 152 Right camera 153 Left camera 154 Rear camera 311 Reference posture parameter calculation unit 312 Feature position estimation unit 313 Attitude estimation unit 314 Correction amount calculation unit 315 Correction processing unit

Claims (9)

車両に固定された撮像部から取得した地物を含む撮像画像に基づいて、前記車両に対する前記地物の位置を推定する地物位置推定部と、
前記撮像画像が撮像されたときに前記車両が加速度運動していると判定した場合、前記車両が停止しているときの前記撮像部の基準姿勢と、前記撮像画像中の前記地物の位置とに基づいて、前記撮像画像が撮像されたときの前記車両の加速度運動時の姿勢を推定する姿勢推定部と、
前記姿勢推定部により推定された前記加速度運動時の姿勢に基づいて、前記地物位置推定部により推定された前記地物の推定位置の補正量を算出する補正量算出部と、
前記補正量算出部で算出された補正量に基づいて、前記地物位置推定部で推定された前記地物の位置を補正する補正処理部と、を備える、地物位置推定装置。
A feature position estimation unit that estimates the position of the feature with respect to the vehicle based on an captured image including a feature acquired from an image pickup unit fixed to the vehicle.
When it is determined that the vehicle is accelerating when the captured image is captured, the reference posture of the imaging unit when the vehicle is stopped and the position of the feature in the captured image. Based on, a posture estimation unit that estimates the posture of the vehicle during acceleration motion when the captured image is captured, and a posture estimation unit.
A correction amount calculation unit that calculates a correction amount of the estimated position of the feature estimated by the feature position estimation unit based on the posture at the time of the acceleration motion estimated by the posture estimation unit.
A feature position estimation device including a correction processing unit that corrects the position of the feature estimated by the feature position estimation unit based on the correction amount calculated by the correction amount calculation unit.
前記車両の加速度運動は、加速または減速である、請求項1に記載の地物位置推定装置。 The feature position estimation device according to claim 1, wherein the acceleration motion of the vehicle is acceleration or deceleration. 前記姿勢推定部は、加速度検出部で検出された前記車両の加速度の絶対値が加速度閾値以上であると判定した場合、前記車両が加速度運動していると判定する、請求項2に記載の地物位置推定装置。 The ground according to claim 2, wherein when the attitude estimation unit determines that the absolute value of the acceleration of the vehicle detected by the acceleration detection unit is equal to or greater than the acceleration threshold value, the attitude estimation unit determines that the vehicle is accelerating. Object position estimation device. 前記車両の加速度運動は、旋回運動である、請求項1に記載の地物位置推定装置。 The feature position estimation device according to claim 1, wherein the acceleration motion of the vehicle is a turning motion. 前記姿勢推定部は、操舵角検出部で検出された前記車両のハンドルの操舵角の絶対値が操舵角閾値以上であり、かつ、速度検出部で検出された前記車両の速度が速度閾値以上であると判定した場合、前記車両が加速度運動していると判定する、請求項4に記載の地物位置推定装置。 In the attitude estimation unit, the absolute value of the steering angle of the steering wheel of the vehicle detected by the steering angle detection unit is equal to or greater than the steering angle threshold value, and the speed of the vehicle detected by the speed detection unit is equal to or greater than the speed threshold value. The feature position estimation device according to claim 4, wherein if it is determined to be present, it is determined that the vehicle is accelerating. 請求項1から5のいずれか一項に記載の地物位置推定装置と、
前記地物位置推定装置の補正処理部の処理で得られた前記地物の位置に基づいて、前記車両の位置を推定する自車位置推定部と、を備える、自車位置推定装置。
The feature position estimation device according to any one of claims 1 to 5,
A vehicle position estimation device including a vehicle position estimation unit that estimates the position of the vehicle based on the position of the feature obtained by the processing of the correction processing unit of the feature position estimation device.
前記自車位置推定部は、前記車両が加速度運動していない場合、前記地物位置推定部で推定された前記地物の位置に基づいて、前記車両の位置を推定する、請求項6に記載の自車位置推定装置。 The vehicle position estimation unit estimates the position of the vehicle based on the position of the feature estimated by the feature position estimation unit when the vehicle is not accelerating. Own vehicle position estimation device. 請求項6または7に記載の自車位置推定装置を備える、車両。 A vehicle comprising the own vehicle position estimation device according to claim 6 or 7. コンピュータが、
車両に固定された撮像部から取得した地物を含む撮像画像に基づいて、前記車両に対する前記地物の位置を推定する地物位置推定ステップと、
前記撮像画像が撮像されたときに前記車両が加速度運動していると判定した場合、前記車両が停止しているときの前記撮像部の基準姿勢と、前記撮像画像中の前記地物の位置とに基づいて、前記撮像画像が撮像されたときの前記車両の加速度運動時の姿勢を推定する姿勢推定ステップと、
前記姿勢推定ステップにより推定された前記加速度運動時の姿勢に基づいて、前記地物位置推定ステップにより推定された前記地物の推定位置の補正量を算出する補正量算出ステップと、
前記補正量算出ステップで算出された補正量に基づいて、前記地物位置推定ステップで推定された前記地物の位置を補正する補正処理ステップと、を実行する、地物位置推定方法。
The computer
A feature position estimation step for estimating the position of the feature with respect to the vehicle based on an captured image including a feature acquired from an imaging unit fixed to the vehicle.
When it is determined that the vehicle is accelerating when the captured image is captured, the reference posture of the imaging unit when the vehicle is stopped and the position of the feature in the captured image. A posture estimation step for estimating the posture of the vehicle during acceleration motion when the captured image is captured, and a posture estimation step based on the above.
A correction amount calculation step for calculating the correction amount of the estimated position of the feature estimated by the feature position estimation step based on the posture at the time of the acceleration motion estimated by the posture estimation step, and a correction amount calculation step.
A feature position estimation method for executing a correction processing step for correcting the position of the feature estimated in the feature position estimation step based on the correction amount calculated in the correction amount calculation step.
JP2020012305A 2020-01-29 2020-01-29 Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method Pending JP2021117176A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020012305A JP2021117176A (en) 2020-01-29 2020-01-29 Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020012305A JP2021117176A (en) 2020-01-29 2020-01-29 Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method

Publications (1)

Publication Number Publication Date
JP2021117176A true JP2021117176A (en) 2021-08-10

Family

ID=77174693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020012305A Pending JP2021117176A (en) 2020-01-29 2020-01-29 Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method

Country Status (1)

Country Link
JP (1) JP2021117176A (en)

Similar Documents

Publication Publication Date Title
JP5538411B2 (en) Vehicle perimeter monitoring device
CN113554698B (en) Vehicle pose information generation method and device, electronic equipment and storage medium
KR102313026B1 (en) Vehicle and method for collision avoidance assist when backing up the vehicle
CN102649430B (en) For the redundancy lane sensing system of fault-tolerant vehicle lateral controller
JP5133783B2 (en) In-vehicle device
CN108367710B (en) Bird&#39;s-eye view image generation device, bird&#39;s-eye view image generation system, and storage medium
JP4670528B2 (en) Imaging device deviation detection method, imaging device deviation correction method, and imaging device
WO2016157428A1 (en) Measurement device, measurement method, and program
JP2020026165A (en) On-vehicle device, parking control method and computer program
CN112529935A (en) Target vehicle motion state identification method and device
JP3395393B2 (en) Vehicle periphery display device
JP6768554B2 (en) Calibration device
JP4419560B2 (en) Vehicle lane travel support device
JP3900415B2 (en) Vehicle peripheral image processing apparatus, program, and recording medium
JP2021117176A (en) Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method
JP4847303B2 (en) Obstacle detection method, obstacle detection program, and obstacle detection apparatus
JP2022150828A (en) Control device, operation method thereof, and program
JP3850271B2 (en) Vehicle periphery image processing apparatus and recording medium
CN111824163A (en) Method and device for determining a curve of a road
WO2024013807A1 (en) Parking assistance method and parking assistance device
JP2021081989A (en) Camera calibration device
JP5072533B2 (en) Driving support device and driving support method
CN117372472A (en) Method and device for generating target panoramic image, computer system and storage medium
US11983936B2 (en) Data collection device, vehicle control device, data collection system, data collection method, and storage medium
WO2023223864A1 (en) Autonomous vehicle