JP2021117176A - Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method - Google Patents
Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method Download PDFInfo
- Publication number
- JP2021117176A JP2021117176A JP2020012305A JP2020012305A JP2021117176A JP 2021117176 A JP2021117176 A JP 2021117176A JP 2020012305 A JP2020012305 A JP 2020012305A JP 2020012305 A JP2020012305 A JP 2020012305A JP 2021117176 A JP2021117176 A JP 2021117176A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- feature
- unit
- position estimation
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示は、地物位置推定装置、自車位置推定装置、車両および地物位置推定方法に関する。 The present disclosure relates to a feature position estimation device, a vehicle position estimation device, a vehicle, and a feature position estimation method.
近年、車両の自動運転技術の導入に伴い、車両の位置を正確に検出することが重要となりつつある。そこで、車両の位置を正確に検出するための技術が検討されている(例えば、特許文献1参照)。 In recent years, with the introduction of automatic driving technology for vehicles, it has become important to accurately detect the position of the vehicle. Therefore, a technique for accurately detecting the position of a vehicle is being studied (see, for example, Patent Document 1).
特許文献1は、車両の位置、速度およびセンサの姿勢を含む状態量を推定する、カルマンフィルタ処理における繰り返し演算制御方法を開示している。この方法では、車両の位置、速度およびセンサの姿勢を含む状態量を演算する。次に、演算された状態量のうち、加速度センサの姿勢ピッチ角およびジャイロセンサの姿勢ヨー角より計算されるセンサ姿勢値について、前回と今回との差分を演算する。そして、当該差分が前回の差分より大きくなったとき、当該差分は収束したものとみなして状態量の繰り返し演算を停止し、演算された状態量を出力する。また、当該差分が設定値以下になったとき、状態量の繰り返し演算を停止し、演算された状態量を出力する。
しかしながら、特許文献1のような技術では、センサの姿勢、すなわち車両の姿勢の推定のみに用いるジャイロセンサを利用しており、コストの低減を図れる技術が望まれていた。
However, in the technology as in
本開示は、コストの低減を容易に図りつつ、車両の位置を推定するための地物の位置を適切に推定できる地物位置推定装置、自車位置推定装置、車両および地物位置推定方法を提供することを目的とする。 The present disclosure provides a feature position estimation device, an own vehicle position estimation device, a vehicle and a feature position estimation method that can appropriately estimate the position of a feature for estimating the position of a vehicle while easily reducing costs. The purpose is to provide.
本開示の地物位置推定装置は、車両に固定された撮像部から取得した地物を含む撮像画像に基づいて、前記車両に対する前記地物の位置を推定する地物位置推定部と、前記撮像画像が撮像されたときに前記車両が加速度運動していると判定した場合、前記車両が停止しているときの前記撮像部の基準姿勢と、前記撮像画像中の前記地物の位置とに基づいて、前記撮像画像が撮像されたときの前記車両の加速度運動時の姿勢を推定する姿勢推定部と、前記姿勢推定部により推定された前記加速度運動時の姿勢に基づいて、前記地物位置推定部により推定された前記地物の推定位置の補正量を算出する補正量算出部と、前記補正量算出部で算出された補正量に基づいて、前記地物位置推定部で推定された前記地物の位置を補正する補正処理部と、を備える。 The feature position estimation device of the present disclosure includes a feature position estimation unit that estimates the position of the feature with respect to the vehicle based on an image captured including a feature acquired from an image pickup unit fixed to the vehicle, and the imaging unit. When it is determined that the vehicle is accelerating when the image is captured, it is based on the reference posture of the imaging unit when the vehicle is stopped and the position of the feature in the captured image. The feature position is estimated based on the posture estimation unit that estimates the posture of the vehicle during acceleration motion when the captured image is captured and the posture during acceleration motion estimated by the posture estimation unit. The ground estimated by the feature position estimation unit based on the correction amount calculation unit that calculates the correction amount of the estimated position of the feature estimated by the unit and the correction amount calculated by the correction amount calculation unit. It is provided with a correction processing unit that corrects the position of an object.
本開示の自車位置推定装置は、上述の地物位置推定装置と、前記地物位置推定装置の補正処理部の処理で得られた前記地物の位置に基づいて、前記車両の位置を推定する自車位置推定部と、を備える。 The own vehicle position estimation device of the present disclosure estimates the position of the vehicle based on the position of the feature obtained by the processing of the above-mentioned feature position estimation device and the correction processing unit of the feature position estimation device. It is equipped with a vehicle position estimation unit and a vehicle position estimation unit.
本開示の車両は、上述の自車位置推定装置を備える。 The vehicle of the present disclosure includes the above-mentioned own vehicle position estimation device.
本開示の地物位置推定方法は、コンピュータが、車両に固定された撮像部から取得した地物を含む撮像画像に基づいて、前記車両に対する前記地物の位置を推定する地物位置推定ステップと、前記撮像画像が撮像されたときに前記車両が加速度運動していると判定した場合、前記車両が停止しているときの前記撮像部の基準姿勢と、前記撮像画像中の前記地物の位置とに基づいて、前記撮像画像が撮像されたときの前記車両の加速度運動時の姿勢を推定する姿勢推定ステップと、前記姿勢推定ステップにより推定された前記加速度運動時の姿勢に基づいて、前記地物位置推定ステップにより推定された前記地物の推定位置の補正量を算出する補正量算出ステップと、前記補正量算出ステップで算出された補正量に基づいて、前記地物位置推定ステップで推定された前記地物の位置を補正する補正処理ステップと、を実行する。 The feature position estimation method of the present disclosure includes a feature position estimation step in which a computer estimates the position of the feature with respect to the vehicle based on an captured image including a feature acquired from an imaging unit fixed to the vehicle. When it is determined that the vehicle is accelerating when the captured image is captured, the reference posture of the imaging unit when the vehicle is stopped and the position of the feature in the captured image. Based on the posture estimation step for estimating the posture of the vehicle during acceleration motion when the captured image is captured, and the ground during the acceleration motion estimated by the posture estimation step. It is estimated in the feature position estimation step based on the correction amount calculation step for calculating the correction amount of the estimated position of the feature estimated in the object position estimation step and the correction amount calculated in the correction amount calculation step. The correction processing step of correcting the position of the feature is executed.
本開示の地物位置推定装置、自車位置推定装置、車両および地物位置推定方法によれば、コストの低減を容易に図りつつ、車両の位置を推定するための地物の位置を適切に推定できる。 According to the feature position estimation device, the own vehicle position estimation device, the vehicle and the feature position estimation method of the present disclosure, the position of the feature for estimating the position of the vehicle is appropriately determined while easily reducing the cost. Can be estimated.
[実施の形態]
<第1の実施の形態>
以下、本開示の第1の実施の形態について、図面を参照しながら説明する。
[Embodiment]
<First Embodiment>
Hereinafter, the first embodiment of the present disclosure will be described with reference to the drawings.
〔自動運転制御システムの構成〕
まず、本開示の第1の実施の形態に係る自動運転制御システムの構成について説明する。図1は、自動運転制御システムの概略構成を示すブロック図である。
[Configuration of automatic driving control system]
First, the configuration of the automatic driving control system according to the first embodiment of the present disclosure will be described. FIG. 1 is a block diagram showing a schematic configuration of an automatic driving control system.
図1に示す自動運転制御システム1は、車両の自動運転を制御する。自動運転制御システム1は、GNSS(Global Navigation Satellite System)11と、加速度検出部12と、速度検出部13と、操舵角検出部14と、撮像部15と、入力部16と、地図情報記憶部17と、記憶部18と、自動運転制御装置20と、を備える。
The automatic
加速度検出部12は、車両の加速または減速の加速度を検出し、検出結果を自動運転制御装置20に出力する。
The
速度検出部13は、車両の速度を検出し、検出結果を自動運転制御装置20に出力する。
The
操舵角検出部14は、ハンドルの操舵角を検出し、検出結果を自動運転制御装置20に出力する。
The steering
撮像部15は、前方カメラ151と、右方カメラ152と、左方カメラ153と、後方カメラ154と、を備える。前方カメラ151、右方カメラ152、左方カメラ153および後方カメラ154は、光軸が、それぞれ、車両の前方、右方、左方および後方を向くように固定されている。なお、以下において、前方カメラ151、右方カメラ152、左方カメラ153および後方カメラ154をまとめて、「各カメラ151,152,153,154」という場合がある。各カメラ151,152,153,154は、自動運転制御装置20の制御に基づいて地物を撮像し、撮像画像を自動運転制御装置20に出力する。
The
入力部16は、例えば車両に配置されたタッチパネルであり、乗車者の入力操作に基づく情報を自動運転制御装置20に出力する。
The
地図情報記憶部17は、例えば、不揮発性メモリで構成されている。地図情報記憶部17は、地図情報を記憶する。地図情報には、地物などの位置や形状などに関する情報が含まれる。地物の位置や形状を表す情報としては、地物の実在位置を特定するグローバル座標が例示できる。車両の位置を推定するための地物としては、ビルなどの建造物、道路上の白線、縁石、中央分離帯、信号、標識、バス停などが例示できる。
The map
記憶部18は、例えば、不揮発性メモリで構成されている。記憶部18は、車両の自動運転に必要な各種情報を記憶する。記憶部18が記憶する情報としては、自動運転制御装置20で取得されたり生成されたりした情報、各カメラ151,152,153,154の固定位置、姿勢などが例示できる。
The
自動運転制御装置20は、車両の自動運転を制御する。自動運転制御装置20は、自車位置推定装置30と、運転制御装置40と、を備える。
The automatic
自車位置推定装置30は、車両の位置(自車位置)を推定する。自車位置推定装置30は、地物位置推定装置31と、自車位置推定部32と、を備える。
The own vehicle
地物位置推定装置31は、プロセッサおよびメモリを含んで構成される。地物位置推定装置31は、メモリに記憶された地物位置推定プログラムをプロセッサで実行する。地物位置推定装置31は、基準姿勢パラメータ算出部311と、地物位置推定部312と、姿勢推定部313と、補正量算出部314と、補正処理部315と、を備える。
The feature
基準姿勢パラメータ算出部311は、車両が停止しているときの各カメラ151,152,153,154の基準姿勢を基準姿勢パラメータとして算出する。地物位置推定部312は、各カメラ151,152,153,154から取得した地物を含む撮像画像に基づいて、車両に対する地物の位置を推定する。姿勢推定部313は、撮像画像が撮像されたときに車両が加速度運動していると判定した場合、各カメラ151,152,153,154の基準姿勢と、撮像画像中の地物の位置とに基づいて、撮像画像が撮像されたときの車両の加速時姿勢を推定する。なお、加速度運動とは、加速、減速、旋回を意味する。補正量算出部314は、加速時姿勢に基づいて、地物の推定位置の補正量を算出する。補正処理部315は、補正量算出部314で算出された補正量に基づいて、地物位置推定部312で推定された地物の位置を補正する。なお、基準姿勢パラメータ算出部311、地物位置推定部312、姿勢推定部313、補正量算出部314および補正処理部315の詳細な処理については後述する。
The reference posture
自車位置推定部32は、車両が加速度運動している場合、地物位置推定装置31の補正処理部315の処理で得られた地物の位置に基づいて、自車位置を推定する。また、自車位置推定部32は、車両が加速度運動していない場合、地物位置推定部312で推定された地物の位置に基づいて、自車位置を推定する。
When the vehicle is accelerating, the own vehicle
運転制御装置40は、車両の運転を制御する。例えば、運転制御装置40は、乗車者の入力部16の操作に基づく目的地点に関する情報と、GNSS11から入力される現在地点に関する情報と、地図情報記憶部17に記憶された地図情報などに基づいて、走行経路を設定する。運転制御装置40は、自車位置推定装置30で推定された自車位置に基づいて、車両が走行経路を走行するように、車両の運転を制御する。
The driving
〔自動運転制御システムの動作〕
次に、自動運転制御システム1の動作として、自車位置推定装置30における自車位置の推定処理について説明する。なお、以下において、車両がローリングしたときの傾き角度を「ロール角度」、ピッチングしたときの傾き角度を「ピッチ角度」という場合がある。
[Operation of automatic operation control system]
Next, as the operation of the automatic
まず、自車位置の推定処理の概要について説明する。 First, the outline of the own vehicle position estimation process will be described.
車両が加速されると、車両は、ピッチングして後方が下がるように傾く場合がある。一方、車両が減速されると、車両は、ピッチングして前方が下がるように傾く場合がある。車両が傾くと各カメラ151,152,153,154の光軸も傾く。その結果、車両に対して同じ位置に存在する地物を撮影すると、ピッチングしている場合の撮像画像における地物の位置は、ピッチングしていない場合の位置から、大きくずれてしまうおそれがある。自車位置推定装置30は、撮像画像における地物の位置に基づいて自車位置を推定するが、車両がピッチングしている場合、自車位置を適切に推定できないおそれがある。そこで、自車位置推定装置30は、車両の加速度の絶対値が加速度閾値以上の場合、つまり車両のピッチ角度がピッチ角度閾値以上の場合、車両が加速度運動していると判定し、撮像画像に基づき推定される地物の位置を補正してから、自車位置を推定する。
As the vehicle accelerates, the vehicle may pitch and tilt backwards. On the other hand, when the vehicle is decelerated, the vehicle may pitch and tilt so that the front is lowered. When the vehicle tilts, the optical axes of the
また、車両が左に曲がるとき(旋回運動するとき)、車両は、ローリングして右方が下がるように傾く場合がある。一方、車両が右に曲がるとき(旋回運動するとき)、車両は、ローリングして左方が下がるように傾く場合がある。車両がピッチングしている場合と同様に、車両に対して同じ位置に存在する地物を撮影すると、ローリングしている場合の撮像画像における地物の位置は、ローリングしていない場合の位置から、大きくずれてしまうおそれがある。このため、自車位置推定装置30は、車両がローリングしている場合、自車位置を適切に推定できないおそれがある。そこで、自車位置推定装置30は、ハンドルの操舵角の絶対値が操舵角閾値以上であり、かつ、車両の速度が速度閾値以上の場合、つまり車両のロール角度がロール角度閾値以上の場合、車両が加速度運動していると判定し、撮像画像に基づき推定される地物の位置を補正してから、自車位置を推定する。
Also, when the vehicle turns to the left (when turning), the vehicle may roll and tilt to the right. On the other hand, when the vehicle turns to the right (when turning), the vehicle may roll and tilt to the left. Similar to the case where the vehicle is pitching, when a feature existing at the same position with respect to the vehicle is photographed, the position of the feature in the captured image when rolling is changed from the position when not rolling. There is a risk of a large deviation. Therefore, the own vehicle
また、自車位置推定装置30は、車両のピッチ角度がピッチ角度閾値未満であり、かつ、ロール角度がロール角度閾値未満の場合、車両が加速度運動していないと判定し、撮像画像に基づき推定される地物の位置を補正せずに、自車位置を推定する。
Further, when the pitch angle of the vehicle is less than the pitch angle threshold value and the roll angle is less than the roll angle threshold value, the own vehicle
次に、自車位置の推定処理の詳細について説明する。なお、以下において、自車位置が車両の目標位置から横方向(左右方向)にずれていない場合(横ずれしていない場合)、および、前後方向にずれていない場合(縦ずれしていない場合)の自車位置の推定処理について説明する。図2は、自車位置推定装置における自車位置推定処理のフローチャートである。図3は、地物位置推定モデルの説明図である。 Next, the details of the own vehicle position estimation process will be described. In the following, when the vehicle position does not deviate from the target position of the vehicle in the lateral direction (horizontal direction) (when it does not deviate laterally) and when it does not deviate in the front-rear direction (when it does not deviate vertically). The process of estimating the position of the own vehicle will be described. FIG. 2 is a flowchart of the own vehicle position estimation process in the own vehicle position estimation device. FIG. 3 is an explanatory diagram of the feature position estimation model.
図2に示すように、自車位置推定装置30の基準姿勢パラメータ算出部311は、撮像部15を構成する各カメラ151,152,153,154の基準姿勢パラメータを算出する(ステップS1)。基準姿勢パラメータは、車両に対する各カメラ151,152,153,154の基準姿勢を表す。基準姿勢パラメータとしては、各カメラ151,152,153,154の光軸の向きを表すパラメータが例示できる。
As shown in FIG. 2, the reference posture
基準姿勢パラメータ算出部311は、車両の停止時に、各カメラ151,152,153,154に撮像させ、各カメラ151,152,153,154からそれぞれ撮像画像を取得する。また、基準姿勢パラメータ算出部311は、GNSS11から入力される情報に基づいて、車両の現在地点を認識し、現在地点の情報を含む地図情報を地図情報記憶部17から取得する。次に、基準姿勢パラメータ算出部311は、例えば、車両の現在地点と、各カメラ151,152,153,154から取得した撮像画像における地物(例えば、道路の白線)の位置と、地図情報に含まれる当該地物のグローバル座標と、に基づいてカメラの姿勢を算出する周知の方法(例えば、再公表特許WO00/64175を参照)を用いて、各カメラ151,152,153,154の基準姿勢パラメータを算出する。そして、基準姿勢パラメータ算出部311は、算出された基準姿勢パラメータを記憶部18に記憶させる。これにより、カメラの位置を基準とするカメラ座標系と、車両がピッチングまたはローリングしたときの車両の回転中心を原点とする後述のローカル座標系Cとの間の座標変換が可能となる。
The reference posture
その後、例えば、車両の走行開始後、地物位置推定部312は、各カメラ151,152,153,154を制御して、撮像画像を取得する(ステップS2)。そして、地物位置推定部312は、車両に対する地物(例えば、道路の白線)の位置を推定する(ステップS3)。地物位置推定部312は、地物の位置を推定するに際し、図3に示すような地物位置推定モデルを用いる。地物位置推定モデルは、車両を基準にしたローカル座標系Cを含む。ステップS3の処理の説明の前に、地物位置推定モデルについて説明する。
Then, for example, after the vehicle starts traveling, the feature
ローカル座標系Cの原点O、X軸(図示省略)、Y軸、Z軸は、以下のように規定されている。
・車両の前方または後方の地物の位置を推定する場合
・原点O:車両がピッチングしたときの車両の回転中心
・X軸:車両の左右に延びる軸
・Y軸:車両の前後に延びる軸
・Z軸:車両の上下に延びる軸
・車両の右方または左方の地物の位置を推定する場合
・原点O:車両がローリングしたときの車両の回転中心
・X軸:車両の前後に延びる軸
・Y軸:車両の左右に延びる軸
・Z軸:車両の上下に延びる軸
The origin O, X axis (not shown), Y axis, and Z axis of the local coordinate system C are defined as follows.
-When estimating the position of features in front of or behind the vehicle-Origin O: Center of rotation of the vehicle when the vehicle pitches-X-axis: Axis extending to the left and right of the vehicle-Y-axis: Axis extending to the front and back of the vehicle- Z-axis: Axis extending up and down the vehicle-When estimating the position of features on the right or left side of the vehicle-Origin O: Center of rotation of the vehicle when the vehicle rolls-X-axis: Axis extending forward and backward of the vehicle・ Y-axis: Axis that extends to the left and right of the vehicle ・ Z-axis: Axis that extends to the top and bottom of the vehicle
また、符号Kが指す位置は、カメラのレンズの中心である。符号Fが指す実線は、路面である。符号Jが指す一点鎖線は、車両が傾いていないときのカメラの光軸、つまり基準姿勢パラメータで表される光軸である。ΔDは、車両のピッチングまたはローリングの回転中心からカメラのレンズの中心Kまでの水平面(ローカル座標系CのXY平面)に沿った距離である。ベクトルMは、原点Oを始点とし、当該原点Oの鉛直方向下方に位置する路面Fの地点F0を終点とするベクトルである。ベクトルL1は、地点F0を始点とし、レンズの中心Kを終点とするベクトルである。ベクトルL2は、原点Oを始点とし、レンズの中心Kを終点とするベクトルである。 The position pointed to by the reference numeral K is the center of the lens of the camera. The solid line pointed to by the reference numeral F is the road surface. The alternate long and short dash line indicated by the symbol J is the optical axis of the camera when the vehicle is not tilted, that is, the optical axis represented by the reference attitude parameter. ΔD is the distance along the horizontal plane (XY plane of the local coordinate system C) from the center of rotation of the pitching or rolling of the vehicle to the center K of the lens of the camera. The vector M is a vector whose start point is the origin O and whose end point is the point F0 of the road surface F located below the origin O in the vertical direction. The vector L1 is a vector starting from the point F0 and ending at the center K of the lens. The vector L2 is a vector whose starting point is the origin O and whose end point is the center K of the lens.
次に、ステップS3の処理について説明する。ここでは、車両の前方に位置する地物の位置の推定処理について説明するが、車両の右方、左方、後方に位置する地物の推定処理も、同様に行われる。地物位置推定部312は、GNSS11から入力される情報に基づいて、撮像画像の撮像位置を認識し、当該撮像位置の情報を含む地図情報を地図情報記憶部17から取得する。そして、地物位置推定部312は、地図情報に含まれる車両前方の地物であって、カメラが撮像した画像における地物の位置座標をローカル座標系Cにおける位置座標に変換する周知の技術を用いることにより、ローカル座標系Cにおける地物の位置座標Wを推定する。この場合、ローカル座標系の原点Oに対するカメラのレンズの中心Kの相対位置が既知であることから、レンズの中心Kを始点とし、地物の位置座標Wを終点とするベクトルNも推定できる。
Next, the process of step S3 will be described. Here, the estimation process of the position of the feature located in front of the vehicle will be described, but the estimation process of the feature located on the right, left, and rear of the vehicle is also performed in the same manner. The feature
ここで、車両が傾いていないときのベクトルNをベクトルN1とした場合、車両が傾いているときのベクトルNは、ベクトルN1に対して傾いたベクトルN2となる。つまり、車両が傾いているときの地物の推定位置(位置座標W2)は、車両が傾いていないときの地物の推定位置(位置座標W1)からずれた位置となる。なお、実際には、車両が傾いたときのカメラの回転中心は、レンズの中心Kからずれた位置となるが、第1の実施の形態の地物位置推定モデルにおいては、レンズの中心Kがカメラの回転中心になるとみなして地物の位置を推定する。 Here, when the vector N when the vehicle is not tilted is the vector N1, the vector N when the vehicle is tilted is the vector N2 tilted with respect to the vector N1. That is, the estimated position of the feature (position coordinate W2) when the vehicle is tilted is a position deviated from the estimated position (position coordinate W1) of the feature when the vehicle is not tilted. In reality, the center of rotation of the camera when the vehicle is tilted is a position deviated from the center K of the lens, but in the feature position estimation model of the first embodiment, the center K of the lens is The position of the feature is estimated assuming that it is the center of rotation of the camera.
次に、姿勢推定部313は、加速度検出部12から車両の加速または減速の加速度の検出結果を取得して、加速度の絶対値が加速度閾値以上か否かを判定する(ステップS4)。加速度閾値は、例えば、車両のピッチ角度が所定のピッチ角度閾値以上になるような値に設定される。
Next, the
姿勢推定部313は、加速度の絶対値が加速度閾値以上であると判定した場合(ステップS4:YES)、車両のピッチ角度を推定する(ステップS5)。つまり、姿勢推定部313は、本開示の加速時姿勢を推定する。例えば、姿勢推定部313は、地図情報から得られる地物の位置とカメラで撮像された撮像画像における地物の位置が整合する車両のピッチ角度を算出することにより車両のピッチ角度を推定する。なお、姿勢推定部313は、車両後方の地物に基づいてピッチ角度を推定してもよいし、車両前方および後方の地物に基づいてピッチ角度を推定してもよい。
When the
一方、姿勢推定部313は、加速度の絶対値が加速度閾値以上でないと判定した場合(ステップS4:NO)、操舵角検出部14からハンドルの操舵角の検出結果を取得して、操舵角の絶対値が操舵角閾値以上か否かを判定する(ステップS6)。なお、車両がまっすぐ前進または後退しているときの操舵角が0°である。
On the other hand, when the
姿勢推定部313は、操舵角の絶対値が操舵角閾値以上であると判定した場合(ステップS6:YES)、速度検出部13から速度の検出結果を取得して、速度が速度閾値以上か否かを判定する(ステップS7)。操舵角閾値および速度閾値は、例えば、車両のロール角度が所定のロール角度閾値以上になるような値に設定される。
When the
姿勢推定部313は、速度が速度閾値以上であると判定した場合(ステップS7:YES)、車両のロール角度を推定する(ステップS8)。つまり、姿勢推定部313は、本開示の加速時姿勢を推定する。例えば、ピッチ角度の推定時と同様に、姿勢推定部313は、地図情報から得られる地物の位置とカメラで撮像された撮像画像における地物の位置が整合する車両のロール角度を算出することにより車両のロール角度を推定する。なお、姿勢推定部313は、車両左方の地物に基づいてロール角度を推定してもよいし、車両右方および左方の地物に基づいてロール角度を推定してもよい。
When the
補正量算出部314は、ステップS5またはステップS8の処理が行われると、地物の推定位置の補正量ΔYを算出する(ステップS9)。例えば、補正量算出部314は、車両が傾いているときのステップS3の処理で得られたベクトルN2を、ステップS5で推定したピッチ角度θpだけ回転させたベクトルN1の向きを算出する。補正量算出部314は、車両が図3の矢印Tで示す反時計回り方向に傾いている場合、ベクトルN2と同じ向きのベクトルを当該傾き方向と逆方向(時計回り方向)に回転させることで、ベクトルN1の向きを算出する。次に、補正量算出部314は、ベクトルN1の大きさをそのZ成分がHであることを利用して算出する。ここで、Hは、レンズの中心Kの路面Fからの高さである。そして、補正量算出部314は、以下の式(1)を用いて、位置座標W1と位置座標W2との距離を補正量ΔYとして算出する。
ΔY=|N1−N2| … (1)
When the processing of step S5 or step S8 is performed, the correction
ΔY = | N1-N2 | ... (1)
そして、補正処理部315は、車両が傾いているときの撮像画像に基づく地物の推定位置を補正する(ステップS10)。例えば、補正処理部315は、路面Fに沿って位置座標W2から補正量ΔYだけ移動した位置、つまりベクトルN1の終点である位置座標W1を算出する。補正処理部315は、車両が図3の矢印Tで示す反時計回り方向に傾いている場合、位置座標W2から車両の中心に近づく方向に補正量ΔYだけ移動した位置を算出する。
Then, the
次に、自車位置推定部32は、自車位置を推定する(ステップS11)。例えば、自車位置推定部32は、ステップS10の処理で算出された位置座標W1を、車両が傾いていないときの撮像画像に基づき得られる地物の推定位置として特定し、当該推定位置に基づいて、自車位置を推定する。
Next, the own vehicle
なお、ステップS8の処理に続いて行われるステップS9,S10の処理、つまり車両がローリングしているときに行われる処理と、ステップS5の処理に続いて行われるステップS9,S10の処理との相違点は、ピッチ角度θpの代わりにロール角度θrを用いることなので、説明を省略する。 The difference between the processes of steps S9 and S10 performed following the process of step S8, that is, the processes performed when the vehicle is rolling and the processes of steps S9 and S10 performed following the process of step S5. Since the point uses the roll angle θr instead of the pitch angle θp, the description thereof will be omitted.
この後、地物位置推定部312は、運転が終了したか否かを判定する(ステップS12)。地物位置推定部312は、運転が終了したと判定した場合(ステップS12:YES)、自車位置の推定処理を終了し、運転が終了していないと判定した場合(ステップS12:NO)、ステップS2の処理を行う。
After that, the feature
一方、自車位置推定部32は、姿勢推定部313で操舵角の絶対値が操舵角閾値以上でないと判定された場合(ステップS6:NO)、または、速度が速度閾値以上でないと判定された場合(ステップS7:NO)、ステップS3の処理で算出された位置座標W1を地物の推定位置として特定し、当該推定位置に基づいて、自車位置を推定する。
On the other hand, the vehicle
〔第1の実施の形態の作用効果〕
地物位置推定装置31は、撮像部15から取得した撮像画像に基づいて、車両に対する地物の位置を推定する。次に、地物位置推定装置31は、撮像時に車両が加速度運動していると判定した場合、基準姿勢パラメータと、撮像画像中の地物の位置とに基づいて、車両の加速時姿勢としてのピッチ角度またはロール角度を推定する。そして、地物位置推定装置31は、ピッチ角度またはロール角度に基づいて、地物の推定位置の補正量ΔYを算出し、当該補正量ΔYに基づいて、撮像画像に基づき推定された地物の位置を補正する。このため、地物位置推定装置31は、車両の姿勢の推定のみに用いるジャイロセンサを利用することなく、車両の周囲観察にも利用できる撮像部を用いて車両の加速時姿勢を推定し、当該加速時姿勢に基づいて車両に対する地物の位置を適切に推定できる。そして、自車位置推定部32は、地物位置推定装置31で推定された車両に対する地物の位置に基づいて、自車位置を適切に推定できる。したがって、コストの低減を容易に図りつつ、車両の位置を推定するための地物の位置を適切に推定可能な地物位置推定装置31を提供できる。
[Action and effect of the first embodiment]
The feature
自車位置推定装置30は、撮像時に車両が加速度運動していないと判定した場合、加速時姿勢を推定せず、撮像画像に基づき推定された地物の位置に基づいて、自車位置を推定する。このように、撮像時に車両が加速度運動していないときに、加速時姿勢の推定処理を行わないことで、自車位置推定装置30の処理負荷を低減できる。
When the vehicle
<第2の実施の形態>
以下、本開示の第2の実施の形態について、図面を参照しながら説明する。第1の実施の形態では、車両が横ずれおよび縦ずれしていない場合の自車位置を推定したが、第2の実施の形態では、横ずれしている状態でローリングした場合の自車位置を推定する。なお、自動運転制御システム1の構成は第1の実施の形態と同じであるため、自動運転制御システム1の動作について説明する。なお、車両がローリングしておらず、かつ、横ずれしていない状態を「基準状態」といい、車両がローリングしているが、横ずれしていない状態を「第1の変位状態」といい、車両がローリングしており、かつ、横ずれしている状態を「第2の変位状態」という。図4は、車両右方の地物に対する地物位置推定モデルの説明図である。図5は、車両左方の地物に対する地物位置推定モデルの説明図である。
<Second embodiment>
Hereinafter, the second embodiment of the present disclosure will be described with reference to the drawings. In the first embodiment, the position of the own vehicle when the vehicle is not laterally displaced and vertically displaced is estimated, but in the second embodiment, the position of the own vehicle when rolling in the laterally displaced state is estimated. do. Since the configuration of the automatic
〔自動運転制御システムの動作〕
自車位置推定装置30は、図2に示すステップS1,S2の処理を行った後、撮像画像に基づいて、地物の位置を推定する。地物位置推定部312は、地物の位置を推定するに際し、図4および図5に示すような地物位置推定モデルを用いる。地物位置推定モデルは、車両を基準にしたローカル座標系Crを含む。まず、図4,5を参照して、ローカル座標系Crについて説明する。
[Operation of automatic operation control system]
The own vehicle
ローカル座標系Crは、車両を前側から見たときの、ローリングの回転中心を原点Orとし、原点Orから車両の上下に延びる軸をZ軸、原点Orから車両の左右に延びる軸をY軸、原点Orから車両の前後に延びる軸をX軸(図示省略)とする座標系である。符号Kmが指す位置は、右方カメラ152のレンズの中心である。符号Khが指す位置は、左方カメラ153のレンズの中心である。ΔDmは、車両のローリングの回転中心から右方カメラ152のレンズの中心Kmまでの水平面(ローカル座標系CrのXY平面)に沿った距離である。ΔDhは、車両のローリングの回転中心から左方カメラ153のレンズの中心Khまでの水平面に沿った距離である。符号Jmが指す一点鎖線は、車両が基準状態のときの右方カメラ152の光軸、つまり基準姿勢パラメータで表される光軸である。符号Jhが指す一点鎖線は、車両が基準状態のときの左方カメラ153の光軸である。右方カメラ152の光軸と水平面とのなす角度は、左方カメラ153の光軸と水平面とのなす角度と同じであってもよいし、違っていてもよい。
In the local coordinate system Cr, the center of rotation of rolling when the vehicle is viewed from the front side is the origin Or, the axis extending vertically from the origin Or is the Z axis, and the axis extending from the origin Or to the left and right of the vehicle is the Y axis. This is a coordinate system in which the axis extending from the origin Or to the front and rear of the vehicle is the X axis (not shown). The position pointed to by the symbol Km is the center of the lens of the
次に、地物の位置の推定処理について説明する。地物位置推定部312は、第1の実施の形態のステップS1〜S3と同様の処理を行い、右方カメラ152の基準姿勢パラメータと、右方カメラ152のレンズの中心と右方の地物の位置とを結ぶベクトルNmと、を推定する。
Next, the process of estimating the position of the feature will be described. The feature
ここで、車両が基準状態のときのベクトルNmをベクトルNm1とした場合、第2の変位状態のときのベクトルNmは、ベクトルNm1に対して傾いたベクトルNm3となる。つまり、第2の変位状態のときの車両右方の地物の推定位置(位置座標Wm3)は、基準状態の推定位置(位置座標Wm1)からずれた位置となる。 Here, assuming that the vector Nm when the vehicle is in the reference state is the vector Nm1, the vector Nm in the second displacement state is the vector Nm3 tilted with respect to the vector Nm1. That is, the estimated position (position coordinate Wm3) of the feature on the right side of the vehicle in the second displacement state is a position deviated from the estimated position (position coordinate Wm1) in the reference state.
また、地物位置推定部312は、車両右方の地物に対する処理と同様の処理を行い、左方の地物に対応するベクトルNh(Nh1,Nh3)を算出し、距離ΔDhを考慮に入れた位置座標Wh(Wh1,Wh3)を、車両に対する左方の地物の位置として推定する。なお、実際には、第2の変位状態のときのカメラの回転中心は、レンズの中心Km,Khからずれた位置となるが、第2の実施の形態の地物位置推定モデルにおいては、レンズの中心Km,Khがカメラの回転中心になるとみなして地物の位置を推定する。
Further, the feature
次に、姿勢推定部313は、ステップS6,S7の処理を行った後、ステップS8と同様の処理を行って、基準状態のベクトルNm1に対する第2の変位状態のベクトルNm3のロール角度θr2を推定する。なお、基準状態のベクトルNh1に対する第2の変位状態のベクトルNh3のロール角度もθr2となる。
Next, the
この後、補正量算出部314は、車両右方の地物の推定位置の補正量ΔYmと、車両左方の地物の推定位置の補正量ΔYhと、を算出する。まず、補正量算出部314は、第1の実施の形態のステップS3と同様の処理を行い、車両が基準状態のときの車両右方、左方それぞれの地物に対応するベクトルNm1,Nh1を算出する。
After that, the correction
ここで、車両が第1の変位状態のときの車両右方、左方それぞれの地物に対応するベクトルをNm2,Nh2、当該ベクトルNm2,Nh2のロール角度をθr1と仮定すると、ベクトルNm2は、ベクトルNm1をθr1回転させてα倍して得られるベクトルであり、ベクトルNh2は、ベクトルNh1をθr1回転させてβ倍して得られるベクトルであるといえる。つまり、以下の式(2),(3)が成り立つ。
Nm2=R(θr1)・α・Nm1 … (2)
Nh2=R(θr1)・β・Nh1 … (3)
Here, assuming that the vectors corresponding to the right and left features of the vehicle when the vehicle is in the first displacement state are Nm2 and Nh2, and the roll angle of the vectors Nm2 and Nh2 is θr1, the vector Nm2 is It can be said that the vector Nm1 is a vector obtained by rotating θr1 and multiplying by α, and the vector Nh2 is a vector obtained by rotating the vector Nh1 by θr1 and multiplying by β. That is, the following equations (2) and (3) hold.
Nm2 = R (θr1) ・ α ・ Nm1… (2)
Nh2 = R (θr1) ・ β ・ Nh1… (3)
また、ベクトルNm1,Nh1に基づき推定される第1の変位状態のときの地物の推定位置を位置座標Wm2,Wh2、位置座標Wm2を始点とし位置座標Wm3を終点とするベクトルをAと仮定した場合、以下の式(4)が成り立つ。また、位置座標Wh2を始点とし位置座標Wh3を終点とするベクトルもAとなるため、以下の式(5)が成り立つ。
Nm3−A=Nm2 … (4)
Nh3−A=Nh2 … (5)
Further, it is assumed that the estimated position of the feature in the first displacement state estimated based on the vectors Nm1 and Nh1 is the position coordinate Wm2, Wh2, the vector whose start point is the position coordinate Wm2 and whose end point is the position coordinate Wm3 is A. In this case, the following equation (4) holds. Further, since the vector having the position coordinate Wh2 as the start point and the position coordinate Wh3 as the end point is also A, the following equation (5) holds.
Nm3-A = Nm2 ... (4)
Nh3-A = Nh2 ... (5)
式(2)を式(4)に代入すると、以下の式(6)が得られ、式(3)を式(5)に代入すると、以下の式(7)が得られる。
Nm3−A=R(θr1)・α・Nm1 … (6)
Nh3−A=R(θr1)・β・Nh1 … (7)
Substituting the equation (2) into the equation (4) gives the following equation (6), and substituting the equation (3) into the equation (5) gives the following equation (7).
Nm3-A = R (θr1) ・ α ・ Nm1… (6)
Nh3-A = R (θr1) ・ β ・ Nh1… (7)
また、式(6)および式(7)からベクトルAを消去すると、以下の式(8)が得られる。
Nm3−Nh3=R(θr1)・(α・Nm1−β・Nh1) … (8)
Further, by eliminating the vector A from the equations (6) and (7), the following equation (8) is obtained.
Nm3-Nh3 = R (θr1) ・ (α ・ Nm1-β ・ Nh1)… (8)
ベクトルNm1,Nh1,Nm3,Nh3の大きさおよび向きは、第2の変位状態のベクトルNm3のロール角度θr2、レンズの中心Km,Khの路面Fからの高さH、基準姿勢パラメータ等に基づいて、算出することができる。したがって、補正量算出部314は、式(8)に基づいて、θr1、α、βを算出することができる。
The magnitude and orientation of the vectors Nm1, Nh1, Nm3, Nh3 are based on the roll angle θr2 of the vector Nm3 in the second displacement state, the height H of the center Km and Kh of the lens from the road surface F, the reference attitude parameter, and the like. , Can be calculated. Therefore, the correction
また、式(6)から以下の式(9)が得られる。
A=Nm3−R(θr1)・α・Nm1 … (9)
Further, the following equation (9) can be obtained from the equation (6).
A = Nm3-R (θr1) ・ α ・ Nm1… (9)
補正量算出部314は、式(8)に基づき算出したθr1およびαと、式(9)と、に基づいて、横ずれ量であるベクトルAの大きさΔYaを算出する。
The correction
また、補正量算出部314は、式(8)に基づき算出したθr1、α、βと、式(2),(3)と、に基づいて、第1の変位状態のときのベクトルNm2,Nh2を算出する。そして、補正量算出部314は、以下の式(10)を用いて、位置座標Wm1と位置座標Wm2との距離ΔYm1を算出し、式(11)を用いて、位置座標Wh1と位置座標Wh2との距離ΔYh1を算出する。
ΔYm1=|Nm1−Nm2| … (10)
ΔYh1=|Nh1−Nh2| … (11)
Further, the correction
ΔYm1 = | Nm1-Nm2 | ... (10)
ΔYh1 = | Nh1-Nh2 | ... (11)
この後、補正量算出部314は、以下の式(12)を用いて、車両右方の地物の推定位置の補正量ΔYmを算出し、式(13)を用いて、車両左方の地物の推定位置の補正量ΔYhを算出する。
ΔYm=ΔYm1+ΔYa … (12)
ΔYh=ΔYh1+ΔYa … (13)
After that, the correction
ΔYm = ΔYm1 + ΔYa… (12)
ΔYh = ΔYh1 + ΔYa… (13)
また、補正量算出部314は、以下の式(14)を用いて、車両右方の地物の推定位置の補正量ΔYmを算出し、式(15)を用いて、車両左方の地物の推定位置の補正量ΔYhを算出することもできる。
ΔYm=|Nm1−Nm3| … (14)
ΔYh=|Nh1−Nh3| … (15)
Further, the correction
ΔYm = | Nm1-Nm3 |… (14)
ΔYh = | Nh1-Nh3 |… (15)
その後、補正処理部315は、車両が第2の変位状態のときの撮像画像に基づく地物の推定位置を補正する。例えば、補正処理部315は、第1の実施の形態のステップS10と同様の処理を行い、路面Fに沿って位置座標Wm3から補正量ΔYm移動した位置、つまりベクトルNm1の終点である位置座標Wm1を算出し、位置座標Wh3から補正量ΔYh移動した位置、つまりベクトルNh1の終点である位置座標Wh1を算出する。このとき、補正処理部315は、車両が図4および図5の矢印Tで示す反時計回り方向に傾いている場合、位置座標Wm3から車両の中心に近づく方向に補正量ΔYm移動した位置と、位置座標Wh3から車両の中心から離れる方向に補正量ΔYh移動した位置と、を算出する。
After that, the
そして、自車位置推定部32は、第1の実施の形態のステップS11と同様の処理を行い、位置座標Wm1,Wh1を、車両が基準状態のときの撮像画像に基づき得られる車両右方、左方それぞれの地物の推定位置として特定し、当該推定位置に基づいて、自車位置を推定する。
Then, the own vehicle
〔第2の実施の形態の作用効果〕
地物位置推定装置31は、横ずれを考慮して、補正量ΔYm,ΔYhを算出し、当該補正量ΔYm,ΔYhに基づいて、撮像画像に基づき推定された地物の位置を補正する。このため、地物位置推定装置31は、車両が横ずれしていても、車両に対する地物の位置を適切に推定できる。
[Action and effect of the second embodiment]
The feature
[変形例]
本開示は、これまでに説明した実施の形態に示されたものに限られないことは言うまでもなく、その趣旨を逸脱しない範囲内で、種々の変形を加えることができる。
[Modification example]
Needless to say, the present disclosure is not limited to that shown in the embodiments described above, and various modifications can be made without departing from the spirit of the present disclosure.
例えば、基準姿勢パラメータを車両の製造者や乗車者が入力してもよい。このような構成にすれば、地物位置推定装置31に基準姿勢パラメータ算出部311を設ける必要がなくなる。
For example, the reference attitude parameter may be input by the vehicle manufacturer or passenger. With such a configuration, it is not necessary to provide the reference attitude
自車位置推定装置30は、ピッチ角度またはロール角度のみを考慮して地物の位置を補正したが、ピッチ角度およびロール角度の両方を考慮して地物の位置を補正してもよい。また、自車位置推定装置30は、ピッチ角度を推定する機能およびロール角度を推定する機能のうち一方の機能を備えなくてもよい。また、第2の実施の形態の自車位置推定装置30は、車両が横ずれしている状態でローリングした場合の自車位置を推定したが、同様の方法を用いて、車両が縦ずれしている状態でピッチングした場合の自車位置を推定してもよい。さらに、自車位置推定装置30は、車両が横ずれしている状態でローリングした場合の自車位置推定機能と、車両が縦ずれしている状態でピッチングした場合の自車位置推定機能の両方を備えていてもよい。
The own vehicle
地物位置推定装置31で位置を推定する地物は、道路の白線ではなく、ビルなどの建造物、道路上の白線、縁石、中央分離帯、信号、標識、バス停などであってもよい。また、地物位置推定装置31は、1つの撮像画像に基づいて、互いに異なる複数の地物の位置を推定してもよい。自車位置推定部32は、複数の地物の推定位置に基づいて自車位置を推定してもよい。本開示の車両としては、乗用車、バス、トラック、重機、農業機械、自動二輪車、自転車、車いすなどであってもよい。
The feature whose position is estimated by the feature
以上、本開示に係る実施の形態について図面を参照して詳述してきたが、上述した各装置の機能は、コンピュータプログラムにより実現され得る。 Although the embodiments according to the present disclosure have been described in detail with reference to the drawings, the functions of the above-described devices can be realized by a computer program.
上述した各装置の機能をプログラムにより実現するコンピュータは、キーボードやマウス、タッチパッドなどの入力装置、ディスプレイやスピーカーなどの出力装置、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク装置やSSD(Solid State Drive)などの記憶装置、DVD−ROM(Digital Versatile Disk Read Only Memory)やUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置、ネットワークを介して通信を行うネットワークカードなどを備え、各部はバスにより接続される。 Computers that programmatically realize the functions of each of the above devices include input devices such as keyboards, mice, and touch pads, output devices such as displays and speakers, CPUs (Central Processing Units), ROMs (Read Only Memory), and RAMs (Random). Access Memory), storage devices such as hard disk devices and SSDs (Solid State Drives), readers that read information from recording media such as DVD-ROMs (Digital Versatile Disk Read Only Memory) and USB (Universal Serial Bus) memories, and networks. It is equipped with a network card that communicates via a bus, and each part is connected by a bus.
そして、読取装置は、上記各装置の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置に記憶させる。あるいは、ネットワークカードが、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置に記憶させる。 Then, the reading device reads the program from the recording medium on which the program for realizing the function of each of the above devices is recorded, and stores the program in the storage device. Alternatively, the network card communicates with the server device connected to the network, and stores the program downloaded from the server device for realizing the function of each device in the storage device.
そして、CPUが、記憶装置に記憶されたプログラムをRAMにコピーし、そのプログラムに含まれる命令をRAMから順次読み出して実行することにより、上記各装置の機能が実現される。 Then, the CPU copies the program stored in the storage device to the RAM, sequentially reads the instructions included in the program from the RAM, and executes the program, thereby realizing the functions of the respective devices.
本開示は、地物位置推定装置、自車位置推定装置、車両および地物位置推定方法に適用できる。 The present disclosure can be applied to a feature position estimation device, a vehicle position estimation device, a vehicle and a feature position estimation method.
1 自動運転制御システム
11 GNSS
12 加速度検出部
13 速度検出部
14 操舵角検出部
15 撮像部
16 入力部
17 地図情報記憶部
18 記憶部
20 自動運転制御装置
30 自車位置推定装置
31 地物位置推定装置
32 自車位置推定部
40 運転制御装置
151 前方カメラ
152 右方カメラ
153 左方カメラ
154 後方カメラ
311 基準姿勢パラメータ算出部
312 地物位置推定部
313 姿勢推定部
314 補正量算出部
315 補正処理部
1 Automatic
12
Claims (9)
前記撮像画像が撮像されたときに前記車両が加速度運動していると判定した場合、前記車両が停止しているときの前記撮像部の基準姿勢と、前記撮像画像中の前記地物の位置とに基づいて、前記撮像画像が撮像されたときの前記車両の加速度運動時の姿勢を推定する姿勢推定部と、
前記姿勢推定部により推定された前記加速度運動時の姿勢に基づいて、前記地物位置推定部により推定された前記地物の推定位置の補正量を算出する補正量算出部と、
前記補正量算出部で算出された補正量に基づいて、前記地物位置推定部で推定された前記地物の位置を補正する補正処理部と、を備える、地物位置推定装置。 A feature position estimation unit that estimates the position of the feature with respect to the vehicle based on an captured image including a feature acquired from an image pickup unit fixed to the vehicle.
When it is determined that the vehicle is accelerating when the captured image is captured, the reference posture of the imaging unit when the vehicle is stopped and the position of the feature in the captured image. Based on, a posture estimation unit that estimates the posture of the vehicle during acceleration motion when the captured image is captured, and a posture estimation unit.
A correction amount calculation unit that calculates a correction amount of the estimated position of the feature estimated by the feature position estimation unit based on the posture at the time of the acceleration motion estimated by the posture estimation unit.
A feature position estimation device including a correction processing unit that corrects the position of the feature estimated by the feature position estimation unit based on the correction amount calculated by the correction amount calculation unit.
前記地物位置推定装置の補正処理部の処理で得られた前記地物の位置に基づいて、前記車両の位置を推定する自車位置推定部と、を備える、自車位置推定装置。 The feature position estimation device according to any one of claims 1 to 5,
A vehicle position estimation device including a vehicle position estimation unit that estimates the position of the vehicle based on the position of the feature obtained by the processing of the correction processing unit of the feature position estimation device.
車両に固定された撮像部から取得した地物を含む撮像画像に基づいて、前記車両に対する前記地物の位置を推定する地物位置推定ステップと、
前記撮像画像が撮像されたときに前記車両が加速度運動していると判定した場合、前記車両が停止しているときの前記撮像部の基準姿勢と、前記撮像画像中の前記地物の位置とに基づいて、前記撮像画像が撮像されたときの前記車両の加速度運動時の姿勢を推定する姿勢推定ステップと、
前記姿勢推定ステップにより推定された前記加速度運動時の姿勢に基づいて、前記地物位置推定ステップにより推定された前記地物の推定位置の補正量を算出する補正量算出ステップと、
前記補正量算出ステップで算出された補正量に基づいて、前記地物位置推定ステップで推定された前記地物の位置を補正する補正処理ステップと、を実行する、地物位置推定方法。 The computer
A feature position estimation step for estimating the position of the feature with respect to the vehicle based on an captured image including a feature acquired from an imaging unit fixed to the vehicle.
When it is determined that the vehicle is accelerating when the captured image is captured, the reference posture of the imaging unit when the vehicle is stopped and the position of the feature in the captured image. A posture estimation step for estimating the posture of the vehicle during acceleration motion when the captured image is captured, and a posture estimation step based on the above.
A correction amount calculation step for calculating the correction amount of the estimated position of the feature estimated by the feature position estimation step based on the posture at the time of the acceleration motion estimated by the posture estimation step, and a correction amount calculation step.
A feature position estimation method for executing a correction processing step for correcting the position of the feature estimated in the feature position estimation step based on the correction amount calculated in the correction amount calculation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020012305A JP2021117176A (en) | 2020-01-29 | 2020-01-29 | Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020012305A JP2021117176A (en) | 2020-01-29 | 2020-01-29 | Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021117176A true JP2021117176A (en) | 2021-08-10 |
Family
ID=77174693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020012305A Pending JP2021117176A (en) | 2020-01-29 | 2020-01-29 | Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021117176A (en) |
-
2020
- 2020-01-29 JP JP2020012305A patent/JP2021117176A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5538411B2 (en) | Vehicle perimeter monitoring device | |
CN113554698B (en) | Vehicle pose information generation method and device, electronic equipment and storage medium | |
KR102313026B1 (en) | Vehicle and method for collision avoidance assist when backing up the vehicle | |
CN102649430B (en) | For the redundancy lane sensing system of fault-tolerant vehicle lateral controller | |
JP5133783B2 (en) | In-vehicle device | |
CN108367710B (en) | Bird's-eye view image generation device, bird's-eye view image generation system, and storage medium | |
JP4670528B2 (en) | Imaging device deviation detection method, imaging device deviation correction method, and imaging device | |
WO2016157428A1 (en) | Measurement device, measurement method, and program | |
JP2020026165A (en) | On-vehicle device, parking control method and computer program | |
CN112529935A (en) | Target vehicle motion state identification method and device | |
JP3395393B2 (en) | Vehicle periphery display device | |
JP6768554B2 (en) | Calibration device | |
JP4419560B2 (en) | Vehicle lane travel support device | |
JP3900415B2 (en) | Vehicle peripheral image processing apparatus, program, and recording medium | |
JP2021117176A (en) | Ground feature position estimating device, vehicle position estimating device, and vehicle and ground feature position estimating method | |
JP4847303B2 (en) | Obstacle detection method, obstacle detection program, and obstacle detection apparatus | |
JP2022150828A (en) | Control device, operation method thereof, and program | |
JP3850271B2 (en) | Vehicle periphery image processing apparatus and recording medium | |
CN111824163A (en) | Method and device for determining a curve of a road | |
WO2024013807A1 (en) | Parking assistance method and parking assistance device | |
JP2021081989A (en) | Camera calibration device | |
JP5072533B2 (en) | Driving support device and driving support method | |
CN117372472A (en) | Method and device for generating target panoramic image, computer system and storage medium | |
US11983936B2 (en) | Data collection device, vehicle control device, data collection system, data collection method, and storage medium | |
WO2023223864A1 (en) | Autonomous vehicle |