JP2018084960A - Self-position estimation method and self-position estimation device - Google Patents
Self-position estimation method and self-position estimation device Download PDFInfo
- Publication number
- JP2018084960A JP2018084960A JP2016227730A JP2016227730A JP2018084960A JP 2018084960 A JP2018084960 A JP 2018084960A JP 2016227730 A JP2016227730 A JP 2016227730A JP 2016227730 A JP2016227730 A JP 2016227730A JP 2018084960 A JP2018084960 A JP 2018084960A
- Authority
- JP
- Japan
- Prior art keywords
- target
- self
- vehicle
- priority
- host vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、自車両の自己位置を推定する自己位置推定方法及び自己位置推定装置に関する。 The present invention relates to a self-position estimation method and a self-position estimation apparatus that estimate a self-position of a host vehicle.
従来では、移動体を基準として予め定めた領域内に存在する環境情報に限定し、この限定された環境情報を、予め保持している環境地図と照合することによって自己位置を推定していた(特許文献1参照)。 Conventionally, it is limited to environmental information existing in a predetermined area with a moving body as a reference, and the self-location is estimated by comparing this limited environmental information with a previously stored environmental map ( Patent Document 1).
しかしながら、上述した従来の自己位置推定方法では、白線等の対となった物標間で相対的な誤差が大きくなると、すべての物標で矛盾なく地図情報と照合できるわけではなくなり、自己位置の推定精度が低下してしまうという問題点があった。 However, in the conventional self-position estimation method described above, if the relative error between the paired targets such as white lines becomes large, not all targets can be matched with map information without contradiction. There was a problem that the estimation accuracy was lowered.
本発明は上記課題に鑑みて成されたものであり、その目的は、すべての物標で矛盾なく地図情報と照合することができない場合でも自己位置の推定精度を向上させることのできる自己位置推定方法及びその装置を提供することにある。 The present invention has been made in view of the above problems, and its purpose is self-position estimation that can improve self-position estimation accuracy even when all targets cannot be compared with map information without contradiction. It is to provide a method and apparatus thereof.
上述の課題を解決するために、本発明の一態様に係る自己位置推定方法及びその装置は、自車両の周囲に存在する物標と自車両との間の相対位置を自車両の移動量だけ移動させて物標位置データとして蓄積する。そして、蓄積された物標位置データから自車両の左右に存在する複数の走路境界を抽出し、抽出された複数の走路境界のそれぞれに優先度を設定して優先度の高い走路境界を選択する。この結果から、選択された走路境界の物標位置データと、地図情報に含まれる物標位置情報とを照合して自車両の自己位置を推定する。 In order to solve the above-described problem, a self-position estimation method and apparatus according to an aspect of the present invention provides a relative position between a target existing around the host vehicle and the host vehicle by an amount of movement of the host vehicle. It is moved and stored as target position data. Then, a plurality of road boundaries existing on the left and right of the host vehicle are extracted from the accumulated target position data, a priority is set for each of the extracted plurality of road boundaries, and a road boundary with a high priority is selected. . From this result, the target position of the host vehicle is estimated by comparing the target position data of the selected road boundary with the target position information included in the map information.
本発明によれば、すべての物標で矛盾なく地図情報と照合することができない場合でも自己位置の推定精度を向上させることができる。 According to the present invention, the self-position estimation accuracy can be improved even when all targets cannot be compared with map information without contradiction.
以下、本発明の一実施形態について図面を参照して説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the description of the drawings, the same or similar parts are denoted by the same or similar reference numerals, and redundant description is omitted.
[自己位置推定システム]
図1は、本実施形態に係る自己位置推定装置を備えた自己位置推定システムの構成を示すブロック図である。図1に示すように、本実施形態に係る自己位置推定システム100は、周囲センサ群1と、自己位置推定装置3と、記憶装置4と、車両センサ群5とを備えている。本実施形態に係る自己位置推定システム100は、車両V(図2参照)に搭載され、車両Vの自己位置を推定する。
[Self-position estimation system]
FIG. 1 is a block diagram illustrating a configuration of a self-position estimation system including a self-position estimation apparatus according to the present embodiment. As shown in FIG. 1, a self-
本実施形態では、推定する車両Vの自己位置として、東西方向(X軸方向)の位置(X座標[m])と、南北方向(Y軸方向)の位置(Y座標[m])と、姿勢角情報として車両の方位角θ(ヨー角[rad])とを推定する。すなわち、二次元平面上における合計3自由度の位置及び姿勢角を推定する。 In this embodiment, as the self-position of the vehicle V to be estimated, a position in the east-west direction (X-axis direction) (X coordinate [m]), a position in the north-south direction (Y-axis direction) (Y coordinate [m]), A vehicle azimuth angle θ (yaw angle [rad]) is estimated as posture angle information. That is, the position and posture angle with a total of three degrees of freedom on the two-dimensional plane are estimated.
周囲センサ群1は、画像処理可能なデジタル画像を撮影する複数のカメラ11、13を備えている。ただし、レーザレンジファインダをさらに備えていてもよく、周囲センサ群1は、車両Vの周囲に存在する物標を検出するための複数のセンサから構成されていればよい。
The ambient sensor group 1 includes a plurality of
図2は、周囲センサ群1を車両Vに搭載した状態の一例を示す図である。カメラ11、13は、例えば、車両Vの左右両側のドアミラーにそれぞれ搭載可能である。カメラ11、13は、例えば、CCD、CMOS等の固体撮像素子により画像を撮影する。カメラ11、13は、例えば、車両Vの側方の路面を撮影し、逐次、撮影した画像を自己位置推定装置3に出力する。なお、カメラ11、13は、車両Vの前方方向の路面を撮像するカメラや車両Vの後方方向の路面を撮像するカメラに代えても適用することができる。また、車両Vの側方の路面を撮影するカメラと、車両Vの前方方向の路面を撮像するカメラと、車両Vの後方方向の路面を撮像するカメラを同時に適用することもできる。
FIG. 2 is a diagram illustrating an example of a state in which the surrounding sensor group 1 is mounted on the vehicle V. The
記憶装置4は、地図上に存在する物標の物標位置情報を含む地図情報41を記憶している。記憶装置4は、半導体メモリ、磁気ディスク等から構成可能である。地図情報41に記録される物標は、例えば、停止線、横断歩道、横断歩道予告、区画線等を示す道路標示や、縁石等の構造物の他、周囲センサ群1により検出可能な種々の設備等を含む。地図情報41において、縁石、白線等の位置情報は、両端点の二次元位置情報を有する直線情報の集合体で定義される。地図情報41は、実環境の形状が曲線の場合、折れ線で近似された二次元平面上の直線情報として記述される。
The
車両センサ群5は、GPS受信機51、アクセルセンサ52、ステアリングセンサ53、ブレーキセンサ54、車速センサ55、加速度センサ56、車輪速センサ57及びヨーレートセンサ等のその他のセンサ58等を備えている。各センサ51〜58は自己位置推定装置3に接続され、逐次、各種の検出結果を自己位置推定装置3に出力する。
The
自己位置推定装置3は、自車両の周囲に存在する物標の物標位置データと地図情報に含まれる物標位置情報とを照合して自車両の現在位置である自己位置を推定するコントローラである。自己位置推定装置3は、車両センサ群5の各検出結果を用いて、地図情報41における車両Vの概位置を算出したり、単位時間における車両Vの移動量を示すオドメトリを算出したりする。自己位置推定装置3は、物標位置検出部31と、移動量推定部32と、物標位置蓄積部33と、地図情報取得部34と、物標選択部35と、自己位置推定部36とを有する。尚、自己位置推定装置3は、マイクロコンピュータ、マイクロプロセッサ、CPUを含む汎用の電子回路とメモリ等の周辺機器から構成されている。そして、特定のプログラムを実行することにより、上述した物標位置検出部31、移動量推定部32、物標位置蓄積部33、地図情報取得部34、物標選択部35及び自己位置推定部36として動作する。このような自己位置推定装置3の各機能は、1または複数の処理回路によって実装することができる。処理回路は、例えば電気回路を含む処理装置等のプログラムされた処理装置を含み、また実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置も含んでいる。また、処理回路は、例えば自動運転制御等の車両Vの他の制御に用いる電子制御ユニット(ECU)と兼用されてもよい。
The self-position estimation device 3 is a controller that estimates target position that is the current position of the host vehicle by comparing target position data of targets existing around the host vehicle with target position information included in the map information. is there. The self-position estimation device 3 calculates the approximate position of the vehicle V in the
物標位置検出部31は、カメラ11、13で撮像された画像から自車両の近傍に存在する物標の物標情報を検出する物標検出センサである。特に、物標位置検出部31は、カメラ11、13の撮像結果に基づいて、車両Vの周囲に存在する物標と車両Vとの間の相対位置を検出する。ここで、検出対象となる物標は、走路の周囲に存在する白線等の区画線や縁石、中央分離帯等の走路境界である。例えば、カメラ11、13の撮像結果である画像から画素間で輝度変化がある座標位置をエッジ点として検出して、区画線や縁石、中央分離帯等の走路境界をエッジ点群として検出する。また、カメラ11、13に換えて、レーザレンジファインダや、レーザーレーダー等を用いることができる。反射強度変化がある座標位置をエッジ点として検出することで同様に検出することができる。
The target
移動量推定部32は、車両センサ群5のいずれかのセンサの検出結果に基づいて、単位時間における車両Vの移動量を推定する。自車両の移動量は、タイヤの回転数によるオドメトリの計測やジャイロと加速度センサを用いた慣性計測等を用いて計測すればよい。また、GNSS(全地球航法衛星システム)等の衛星からの電波を受信する方法や外界センサの計測値の変化から移動量の推定を行なうSLAM等のさまざまな方法を用いてもよい。ただし、本実施形態では、移動量の推定方法を特に限定しない。
The movement
物標位置蓄積部33は、物標位置検出部31によって検出された相対位置を、移動量推定部32によって推定された移動量だけ移動させて物標位置データとして蓄積する。この際、相対位置が検出された時刻Toを相対位置とともに蓄積する。さらに、物標位置蓄積部33は、物標位置データを車両座標系に投影して、検出された物標の相対位置を、車両座標系の位置に変換する。車両座標系は、例えば、車両Vの後輪車軸中心を原点とし、前方向をx軸の正方向、左方向をy軸の正方向、上方向をz軸の正方向とする。尚、カメラ11、13の座標系から車両座標系への変換式は予め物標位置蓄積部33に設定されている。車両座標系における路面のパラメータも同様である。
The target position accumulation unit 33 moves the relative position detected by the target
地図情報取得部34は、自車両の自己位置を推定するために、記憶装置4から自車両の周囲の地図情報41を取得する。特に、地図情報取得部34は、GPS受信機51等から自車両の位置情報を取得し、取得した位置情報に基づいて、地図情報41から自車両の周囲に存在する物標の物標位置情報を取得する。
The map
物標選択部35は、物標位置蓄積部33で蓄積された物標位置データから自車両の左右に存在する複数の走路境界を抽出し、抽出された複数の走路境界のそれぞれに優先度を設定して優先度の高い走路境界を選択する。この優先度は自車両に与える影響に応じて設定され、自車両に与える影響が大きいほど高い値が設定される。例えば、物標選択部35は、走路境界または走路境界に関連付けられた物体と自車両との間の相対位置が近くなるほど優先度を高く設定する。また、走路境界または走路境界に関連付けられた物体の高さが高くなるほど優先度を高く設定してもよい。さらに、走路境界に関連付けられた物体と自車両との間の相対速度が速くなるほど優先度を高く設定してもよいし、走路境界に関連付けられた物体の属性に応じて優先度を設定してもよい。物標選択部35は、これらの優先度の設定方法の少なくとも1つを用いて、抽出された複数の走路境界のそれぞれに優先度を設定する。複数の走路境界は、略平行しているので、少なくとも1つの走路境界が選択できれば、地図情報41に記録された物標の物標位置情報と照合することができる。
The
自己位置推定部36は、物標選択部35によって選択された物標位置データと、地図情報41に記録された物標の物標位置情報とを照合して車両Vの自己位置を推定する。なお、最も優先度が高い走路境界のみを選択して、地図情報41に記録された物標の物標位置情報と照合することもできる。その場合には、車両Vの自己位置に対して最も優先度が高い走路境界の相対位置は、検出された相対位置とほぼ同一となり、最も優先度が高い走路境界に対して、車両Vの自己位置は最も精度が高くなる。
The self-
[自己位置推定方法]
次に、図3のフローチャートを参照して、本実施形態に係る自己位置推定装置により実行される自己位置推定処理の処理手順を説明する。
[Self-position estimation method]
Next, with reference to the flowchart of FIG. 3, the procedure of the self-position estimation process performed by the self-position estimation apparatus according to the present embodiment will be described.
まず、ステップS10において、周囲センサ群1のカメラ11、13によって車両Vの周囲の外界をセンシングする。
First, in step S <b> 10, the outside world around the vehicle V is sensed by the
ステップS20において、物標位置検出部31は、カメラ11、13で撮像された画像から自車両の近傍に存在する物標の物標情報を検出する。特に、物標位置検出部31は、カメラ11、13で撮像された画像から自車両の周囲に存在する物標と自車両との間の相対位置を検出する。具体的に、物標位置検出部31は、カメラ11、13によって撮像された画像を取得し、白線等の区画線や縁石、中央分離帯等の走路境界を線分として検出して相対位置を求める。例えば、カメラ11、13により撮像された画像の輝度情報から、車両Vの左右に存在する白線を検出する。尚、白線等の所定距離区間毎に代表候補点を求め、その上で代表候補点の群から線分を求めても良い。また、代表候補点の群は、同時刻に検出してもよいし、異なる時刻に検出してもよい。本ステップでは、検出範囲を自車両の近傍に限定しているが、その理由は、できる限り正確な物標位置を検出するためである。尚、自車両の近傍とは、自車両の左右に隣接した白線を検出できる範囲である。
In step S <b> 20, the target
ステップS30において、まず移動量推定部32が車両センサ群5の検出結果に基づいて車両Vの移動量を推定する。そして、物標位置蓄積部33は、ステップS20で検出された相対位置を、移動量推定部32によって推定された移動量だけ移動させて物標位置データとして蓄積する。この際、相対位置が検出された時刻Toを相対位置とともに蓄積する。
In step S <b> 30, the movement
ステップS40において、物標位置蓄積部33は、ステップS30で蓄積された物標位置データを、車両位置を中心とした車両座標系に投影する。物標位置蓄積部33は、物標の相対位置が検出された時刻Toにおける車両Vの位置情報Poに基づいて、ステップS30で蓄積された物標位置データを、現時点での車両座標系に変換する。 In step S40, the target position storage unit 33 projects the target position data stored in step S30 onto a vehicle coordinate system centered on the vehicle position. The target position accumulation unit 33 converts the target position data accumulated in step S30 into the current vehicle coordinate system based on the position information Po of the vehicle V at the time To when the relative position of the target is detected. To do.
ステップS50において、物標選択部35は、ステップS40で車両座標系に変換された物標位置データから自車両の左右に存在する複数の走路境界を抽出し、抽出された複数の走路境界のそれぞれに優先度を設定する。以下、優先度の設定方法を説明する。
In step S50, the
図4は、縁石と白線が略平行に設置された道路を自車両が走行している状況を示している。この場合、白線Bに高さがないのに対して、縁石A1、A2は高さがあるので、自車両Vが縁石A1、A2に接触したときにはより大きな影響がある。そこで、縁石A1、A2には白線Bよりも高い優先度が設定される。例えば、縁石A1、A2の優先度の重みを3と設定し、白線Bの優先度の重みを1と設定する。また、縁石A1の近傍に道路標識D1が存在している場合には、道路標識D1は縁石A1に関連付けられ、道路標識D1の高さは高いので、縁石A1の優先度の重みはさらに高い値5に設定される。このように、物標選択部35は、走路境界または走路境界に関連付けられた物体の高さが高くなるほど優先度を高く設定する。
FIG. 4 shows a situation where the host vehicle is traveling on a road on which the curb and the white line are installed substantially in parallel. In this case, the curbstones A1 and A2 have a height while the white line B has no height, and therefore, when the host vehicle V contacts the curbstones A1 and A2, there is a greater influence. Therefore, a higher priority than the white line B is set for the curbs A1 and A2. For example, the priority weight of the curbs A1 and A2 is set to 3, and the priority weight of the white line B is set to 1. Further, when the road sign D1 exists in the vicinity of the curb A1, the road sign D1 is associated with the curb A1, and the height of the road sign D1 is high. Therefore, the priority weight of the curb A1 is a higher value. Set to 5. Thus, the
また、図4において、縁石A1と白線Bは自車両Vからの距離が近く、相対位置が近いので、相対位置が遠い縁石A2よりも高い優先度が設定される。例えば、白線Bと縁石A1の優先度の重みを2と設定し、縁石A2の優先度の重みを1と設定する。尚、縁石A1には道路標識D1が関連付けられているので、縁石A1の優先度は道路標識D1の相対位置によって設定してもよい。このように、物標選択部35は、走路境界または走路境界に関連付けられた物体と自車両との間の相対位置が近くなるほど優先度を高く設定する。
In FIG. 4, the curb A1 and the white line B are close to the host vehicle V and close to each other, so that a higher priority is set than the curb A2 that is far from the relative position. For example, the priority weight of the white line B and the curb A1 is set to 2, and the priority weight of the curb A2 is set to 1. Since the road sign D1 is associated with the curb A1, the priority of the curb A1 may be set according to the relative position of the road sign D1. As described above, the
そして、物標選択部35は、図4の場合に、物標の高さに応じて設定された優先度の重みと相対位置に応じて設定された優先度の重みを加算して、縁石A1の優先度の重みを7、縁石A2の優先度の重みを4、白線Bの優先度の重みを3とする。これにより、優先度は、縁石A1、縁石A2、白線Bの順に設定される。
In the case of FIG. 4, the
次に、図5は、図4の状況に加えて、さらに対向車が走行している状況を示したものである。この場合、自車両Vと対向車C1の間に存在する白線Bに対向車C1が関連付けられ、対向車C1は自車両との相対速度が速いため、自車両と接触したときには影響がより大きくなる。したがって、対向車C1に関連付けられた白線Bに高い優先度が設定される。例えば、白線Bの優先度の重みを5に設定する。このように、物標選択部35は、走路境界に関連付けられた物体と自車両との間の相対速度が速くなるほど優先度を高く設定する。この結果、各走路境界の優先度の重みは、白線Bの優先度の重みは8となり、縁石A1の優先度の重みは7、縁石A2の優先度の重みは4となる。これにより、優先度は、白線B、縁石A1、縁石A2の順に設定される。
Next, FIG. 5 shows a situation where an oncoming vehicle is running in addition to the situation of FIG. In this case, the oncoming vehicle C1 is associated with the white line B existing between the own vehicle V and the oncoming vehicle C1, and the oncoming vehicle C1 has a higher relative speed with the own vehicle, so that the influence is greater when it comes into contact with the own vehicle. . Therefore, a high priority is set for the white line B associated with the oncoming vehicle C1. For example, the priority weight of the white line B is set to 5. Thus, the
図6は、白線を挟んで自車両と対向車と並走車が走行している状況を示したものである。この場合、自車両Vの右側の白線B1は対向車C1に関連付けられ、自車両Vの左側の白線B2は並走車C2に関連付けられる。そして、対向車C1のほうが、並走車C2よりも相対速度が速いため、接触したときには影響がより大きくなる。そこで、対向車C1に関連付けられた右側の白線B1に高い優先度が設定される。例えば、対向車C1に関連付けられた白線B1の優先度の重みを5に設定し、並走車C2に関連付けられた白線B2の優先度の重みを3に設定する。また、自車両との相対位置が近いので、白線B1と白線B2には高い優先度が設定される。例えば、白線B1と白線B2の優先度の重みを2に設定し、縁石A1、縁石A2の優先度の重みを1に設定する。これらの優先度の重みを加算すると、白線B1の優先度の重みは7となり、白線B2の優先度の重みは5、縁石A1と縁石A2の優先度の重みは1となる。これにより、優先度は、白線B1、白線B2、縁石A1、縁石A2の順に設定される。 FIG. 6 shows a situation where the host vehicle, the oncoming vehicle, and the parallel vehicle are running across the white line. In this case, the white line B1 on the right side of the host vehicle V is associated with the oncoming vehicle C1, and the white line B2 on the left side of the host vehicle V is associated with the parallel running vehicle C2. And since the relative speed of the oncoming vehicle C1 is faster than that of the parallel running vehicle C2, the influence is greater when it comes into contact. Therefore, a high priority is set for the white line B1 on the right side associated with the oncoming vehicle C1. For example, the priority weight of the white line B1 associated with the oncoming vehicle C1 is set to 5, and the priority weight of the white line B2 associated with the parallel running vehicle C2 is set to 3. Moreover, since the relative position with the own vehicle is near, a high priority is set to the white line B1 and the white line B2. For example, the priority weights of the white line B1 and the white line B2 are set to 2, and the priority weights of the curb A1 and the curb A2 are set to 1. When these priority weights are added, the priority weight of the white line B1 is 7, the priority weight of the white line B2 is 5, and the priority weight of the curb A1 and the curb A2 is 1. Thereby, a priority is set in order of white line B1, white line B2, curb stone A1, curb stone A2.
図7は、図5の状況に加えて、縁石を挟んで歩行者が存在する状況を示したものである。この場合、自車両Vの右側の白線Bは対向車C1に関連付けられ、自車両Vの左側の縁石A1は歩行者D2に関連付けられる。そして、車両と歩行者という物体の属性を考慮して自車両が各物体に与える影響を比較し、接触したときの影響がより大きくなる歩行者D2に関連付けられた縁石A1に高い優先度が設定される。例えば、歩行者D2に関付けられた縁石A1の優先度の重みを8に設定する。このように、物標選択部35は、走路境界に関連付けられた物体の属性に応じて優先度を設定する。例えば、安全性が要求される物体ほど優先度を高く設定する。この結果、各走路境界の優先度の重みは、縁石A1の優先度の重みは15になり、白線Bの優先度の重みは8、縁石A2の優先度の重みは4になる。これにより、優先度は、縁石A1、白線B、縁石A2の順に設定される。
FIG. 7 shows a situation in which a pedestrian is present across a curb in addition to the situation of FIG. In this case, the white line B on the right side of the host vehicle V is associated with the oncoming vehicle C1, and the curb A1 on the left side of the host vehicle V is associated with the pedestrian D2. Then, the influence of the own vehicle on each object is compared in consideration of the attributes of the object of the vehicle and the pedestrian, and a high priority is set to the curb A1 associated with the pedestrian D2 where the influence when contacting is greater. Is done. For example, the priority weight of the curb A1 associated with the pedestrian D2 is set to 8. As described above, the
こうして優先度が設定されると、ステップS60において、物標選択部35は、物標の選択を行う。特に、物標選択部35は、物標として白線や縁石等の走路境界を選択する。このとき、最初は自車両から所定の範囲内に存在する物標を選択し、その後ステップS80で誤差の平均値が所定値以上であると判定された場合には、優先度に基づいて物標を選択する。例えば、優先度の最も低い物標を外して、物標を選択し直すようにする。
When the priority is set in this way, in step S60, the
ステップS70において、自己位置推定部36は、ステップS60で選択された物標の物標位置データと地図情報41に含まれる物標位置情報とのマッチングを行って、自己位置の推定を実施する。地図情報取得部34によって、地図情報41から白線情報や走路境界情報等を含む物標位置情報が取得されると、自己位置推定部36は、この物標位置情報と、ステップS60で選択された物標の物標位置データとを比較して照合する。そして、最も整合するマップ上の位置を求める。尚、マップ上の位置を推定する手法は、自己位置推定手法として広く知られているものであればよく、ここでは特に限定しない。
In step S70, the self-
ステップS80において、自己位置推定部36は、照合した結果、選択された物標の位置と地図上の物標の位置の誤差の平均値が所定値未満であるか否かを判定する。所定値としては、例えば、自動運転制御で自己位置の推定結果を利用する場合には、5cmに設定する。そして、誤差の平均値が所定値未満である場合には、照合して求めたマップ上の位置を自車両の自己位置として推定する。一方、誤差の平均値が所定値以上である場合には、ステップS60に戻り、優先度に基づいて物標を選択する。例えば、優先度の最も低い物標を外して選択し直し、ステップS70で再度マッチングを行うようにする。その結果、誤差が所定値未満となった場合には、そのときのマップ上の位置を自車両の自己位置として推定する。ステップS60〜S80の処理は、誤差の平均値が所定値未満になるまで繰り返し実行される。
In step S80, the self-
ステップS90において、自己位置推定部36は、ステップS80で推定された自己位置の推定結果を出力する。この出力値は、例えば、ナビゲーション装置の地図上に自車両の位置を表示したり、自車両の位置から目的地までの経路を算出して経路案内を行うために使用される。また、自動運転制御で使用する場合には、地図上に自車両の位置を設定し、地図上の経路に沿って自車両の操舵制御や車速制御を行うために使用される。こうして自己位置の推定結果が出力されると、本実施形態に係る自己位置推定処理は終了する。
In step S90, the self-
[実施形態の効果]
以上、詳細に説明したように、本実施形態に係る自己位置推定装置及びその方法では、物標位置データから自車両の左右に存在する複数の走路境界を抽出し、抽出された複数の走路境界のそれぞれに優先度を設定して優先度の高い走路境界を選択する。そして、選択された走路境界の物標位置データと、地図情報に含まれる物標位置情報とを照合して自車両の自己位置を推定する。これにより、すべての物標で矛盾なく地図情報と照合することができない場合でも、優先度の高い物標に限定して照合するので、自己位置の推定精度を向上させることができる。
[Effect of the embodiment]
As described above in detail, in the self-position estimation apparatus and method according to the present embodiment, a plurality of road boundaries existing on the left and right sides of the host vehicle are extracted from the target position data, and the plurality of extracted road boundaries are extracted. A priority is set for each of the two, and a road boundary with a high priority is selected. Then, the target position of the host vehicle is estimated by collating the target position data of the selected road boundary with the target position information included in the map information. Thereby, even if it cannot collate with map information without inconsistency with all the targets, since it collates only to the target with high priority, the self-position estimation accuracy can be improved.
また、本実施形態に係る自己位置推定装置及びその方法では、走路境界または走路境界に関連付けられた物体と自車両との間の相対位置が近くなるほど、優先度を高く設定する。これにより、検出精度の高い自車両の近くに存在する物標から自己位置を推定できるので、自己位置をより正確に推定することができる。 In the self-position estimation apparatus and method according to the present embodiment, the priority is set higher as the relative position between the vehicle boundary and the object associated with the road boundary and the host vehicle becomes closer. Thereby, since a self-position can be estimated from the target which exists near the own vehicle with a high detection accuracy, a self-position can be estimated more correctly.
さらに、本実施形態に係る自己位置推定装置及びその方法では、走路境界または走路境界に関連付けられた物体の高さが高くなるほど、優先度を高く設定する。これにより、平面物よりも立体物の優先度が高く設定されるので、自車両への影響が大きい立体物に対して精度の高い自己位置を推定することができる。 Furthermore, in the self-position estimation apparatus and method according to the present embodiment, the priority is set higher as the height of the road boundary or the object associated with the road boundary increases. Thereby, since the priority of the three-dimensional object is set higher than that of the flat object, it is possible to estimate the self-position with high accuracy with respect to the three-dimensional object having a large influence on the own vehicle.
また、本実施形態に係る自己位置推定装置及びその方法では、走路境界に関連付けられた物体と自車両との間の相対速度が速くなるほど、優先度を高く設定する。これにより、対向車と自車両との間に存在するセンターラインの優先度が高く設定されるので、センターラインに対して精度の高い自己位置を推定することができ、対向車に接触する可能性を低減することができる。 In the self-position estimation apparatus and method according to the present embodiment, the priority is set higher as the relative speed between the object associated with the road boundary and the host vehicle becomes faster. Thereby, since the priority of the center line existing between the oncoming vehicle and the host vehicle is set high, it is possible to estimate the self-position with high accuracy with respect to the center line, and the possibility of contacting the oncoming vehicle Can be reduced.
さらに、本実施形態に係る自己位置推定装置及びその方法では、走路境界に関連付けられた物体の属性に応じて、優先度を設定する。これにより、ガードレール等の路側物よりも歩行者の優先度を高く設定できるので、人命を優先する等の物体の属性を考慮した自己位置の推定を行うことができる。 Furthermore, in the self-position estimation apparatus and method according to the present embodiment, the priority is set according to the attribute of the object associated with the road boundary. Thereby, since the priority of a pedestrian can be set higher than roadside objects, such as a guardrail, the self-position estimation in consideration of the attribute of an object, such as giving priority to human life, can be performed.
なお、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは勿論である。 The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and even if it is a form other than this embodiment, as long as it does not depart from the technical idea of the present invention, it depends on the design and the like. Of course, various modifications are possible.
V 車両
1 周囲センサ群
3 自己位置推定装置
4 記憶装置
5 車両センサ群
11、13 カメラ
31 物標位置検出部
32 移動量推定部
33 物標位置蓄積部
34 地図情報取得部
35 物標選択部
36 自己位置推定部
41 地図情報
51 GPS受信機
52 アクセルセンサ
53 ステアリングセンサ
54 ブレーキセンサ
55 車速センサ
56 加速度センサ
57 車輪速センサ
58 その他のセンサ
V Vehicle 1 Ambient sensor group 3 Self-
Claims (6)
蓄積された前記物標位置データから自車両の左右に存在する複数の走路境界を抽出し、抽出された複数の走路境界のそれぞれに優先度を設定して優先度の高い走路境界を選択し、選択された走路境界の物標位置データと、前記地図情報に含まれる物標位置情報とを照合して自車両の自己位置を推定することを特徴とする自己位置推定方法。 A target detection sensor is provided that detects a relative position between the target vehicle and the target that is mounted on the host vehicle and exists around the host vehicle, and the relative position detected by the target detection sensor is moved by the host vehicle. The target position data is moved by an amount and accumulated as target position data. The accumulated target position data is collated with map information including target position information of the target existing on the map, and the current position of the host vehicle A self-position estimation method by a self-position estimation device that estimates a self-position,
Extracting a plurality of road boundaries existing on the left and right of the host vehicle from the accumulated target position data, setting a priority for each of the extracted plurality of road boundaries, and selecting a high-priority road boundary, A self-position estimation method, comprising: collating target position data on a selected road boundary with target position information included in the map information to estimate the self-position of the host vehicle.
蓄積された前記物標位置データから自車両の左右に存在する複数の走路境界を抽出し、抽出された複数の走路境界のそれぞれに優先度を設定して優先度の高い走路境界を選択し、選択された走路境界の物標位置データと、前記地図情報に含まれる物標位置情報とを照合して自車両の自己位置を推定するコントローラを備えたことを特徴とする自己位置推定装置。 A target detection sensor is provided that detects a relative position between the target vehicle and the target that is mounted on the host vehicle and exists around the host vehicle, and the relative position detected by the target detection sensor is moved by the host vehicle. The target position data is moved by an amount and accumulated as target position data. The accumulated target position data is collated with map information including target position information of the target existing on the map, and the current position of the host vehicle A self-position estimation device for estimating a self-position,
Extracting a plurality of road boundaries existing on the left and right of the host vehicle from the accumulated target position data, setting a priority for each of the extracted plurality of road boundaries, and selecting a high-priority road boundary, A self-position estimation apparatus comprising a controller that collates target position data of a selected road boundary with target position information included in the map information and estimates the self-position of the host vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016227730A JP6838365B2 (en) | 2016-11-24 | 2016-11-24 | Self-position estimation method and self-position estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016227730A JP6838365B2 (en) | 2016-11-24 | 2016-11-24 | Self-position estimation method and self-position estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018084960A true JP2018084960A (en) | 2018-05-31 |
JP6838365B2 JP6838365B2 (en) | 2021-03-03 |
Family
ID=62238405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016227730A Active JP6838365B2 (en) | 2016-11-24 | 2016-11-24 | Self-position estimation method and self-position estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6838365B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020086588A (en) * | 2018-11-16 | 2020-06-04 | 株式会社豊田中央研究所 | Moving route generation device, moving route generation method, and computer program |
CN112232247A (en) * | 2020-10-22 | 2021-01-15 | 深兰人工智能(深圳)有限公司 | Method and device for extracting road surface of travelable area |
CN113519019A (en) * | 2019-03-15 | 2021-10-19 | 日立安斯泰莫株式会社 | Self-position estimation device, automatic driving system equipped with same, and self-generated map sharing device |
JP2023055257A (en) * | 2021-10-06 | 2023-04-18 | 三菱電機株式会社 | Self position estimation device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07248382A (en) * | 1994-03-11 | 1995-09-26 | Nissan Motor Co Ltd | Vehicle surrounding monitor device |
JP2001331787A (en) * | 2000-05-19 | 2001-11-30 | Toyota Central Res & Dev Lab Inc | Road shape estimating device |
JP2015069288A (en) * | 2013-09-27 | 2015-04-13 | 日産自動車株式会社 | Own vehicle position recognition device |
-
2016
- 2016-11-24 JP JP2016227730A patent/JP6838365B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07248382A (en) * | 1994-03-11 | 1995-09-26 | Nissan Motor Co Ltd | Vehicle surrounding monitor device |
JP2001331787A (en) * | 2000-05-19 | 2001-11-30 | Toyota Central Res & Dev Lab Inc | Road shape estimating device |
JP2015069288A (en) * | 2013-09-27 | 2015-04-13 | 日産自動車株式会社 | Own vehicle position recognition device |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020086588A (en) * | 2018-11-16 | 2020-06-04 | 株式会社豊田中央研究所 | Moving route generation device, moving route generation method, and computer program |
JP7243141B2 (en) | 2018-11-16 | 2023-03-22 | 株式会社豊田中央研究所 | Movement route generation device, movement route generation method, and computer program |
CN113519019A (en) * | 2019-03-15 | 2021-10-19 | 日立安斯泰莫株式会社 | Self-position estimation device, automatic driving system equipped with same, and self-generated map sharing device |
CN113519019B (en) * | 2019-03-15 | 2023-10-20 | 日立安斯泰莫株式会社 | Self-position estimating device, automatic driving system equipped with same, and self-generated map sharing device |
CN112232247A (en) * | 2020-10-22 | 2021-01-15 | 深兰人工智能(深圳)有限公司 | Method and device for extracting road surface of travelable area |
JP2023055257A (en) * | 2021-10-06 | 2023-04-18 | 三菱電機株式会社 | Self position estimation device |
US11967160B2 (en) | 2021-10-06 | 2024-04-23 | Mitsubishi Electric Corporation | Own position inferring device |
Also Published As
Publication number | Publication date |
---|---|
JP6838365B2 (en) | 2021-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6477882B2 (en) | Self-position estimation apparatus and self-position estimation method | |
RU2668459C1 (en) | Position evaluation device and method | |
JP6881464B2 (en) | Self-position estimation method and self-position estimation device | |
JP5966747B2 (en) | Vehicle travel control apparatus and method | |
CN105571606A (en) | Methods and systems for enabling improved positioning of a vehicle | |
JP7077910B2 (en) | Bound line detection device and lane marking method | |
JP6838365B2 (en) | Self-position estimation method and self-position estimation device | |
KR101100827B1 (en) | A method of recognizing self-localization for a road-driving robot | |
JP6834401B2 (en) | Self-position estimation method and self-position estimation device | |
JP6488913B2 (en) | Vehicle position determination device and vehicle position determination method | |
US10916034B2 (en) | Host vehicle position estimation device | |
JP5375249B2 (en) | Moving path planning device, moving body control device, and moving body | |
US20200098126A1 (en) | Object detection apparatus | |
JP2021039437A (en) | Object position detection method and object position detection device | |
JP6790951B2 (en) | Map information learning method and map information learning device | |
JP2018055222A (en) | Runway detection method and runway detection device | |
JP2018017668A (en) | Information processing device and information processing program | |
JP7020957B2 (en) | Road structure estimation method and road structure estimation device | |
JP2020201746A (en) | Distance estimation device, distance estimation method, and distance estimation computer program | |
US20230382428A1 (en) | Method and apparatus for operating an automated vehicle | |
JP6972528B2 (en) | Self-position estimation method, mobile vehicle travel control method, self-position estimation device, and mobile vehicle travel control device | |
JP2023118462A (en) | Road end estimation device, road end estimation method, and road end estimation computer program | |
JP2024014488A (en) | Self-position estimation device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200817 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201117 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20201117 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20201126 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20201201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210125 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6838365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |