JP2018084960A - Self-position estimation method and self-position estimation device - Google Patents

Self-position estimation method and self-position estimation device Download PDF

Info

Publication number
JP2018084960A
JP2018084960A JP2016227730A JP2016227730A JP2018084960A JP 2018084960 A JP2018084960 A JP 2018084960A JP 2016227730 A JP2016227730 A JP 2016227730A JP 2016227730 A JP2016227730 A JP 2016227730A JP 2018084960 A JP2018084960 A JP 2018084960A
Authority
JP
Japan
Prior art keywords
target
self
vehicle
priority
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016227730A
Other languages
Japanese (ja)
Other versions
JP6838365B2 (en
Inventor
千加夫 土谷
Chikao Tsuchiya
千加夫 土谷
泰仁 佐野
Yasuhito Sano
泰仁 佐野
博幸 ▲高▼野
博幸 ▲高▼野
Hiroyuki Takano
卓也 南里
Takuya Nanri
卓也 南里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2016227730A priority Critical patent/JP6838365B2/en
Publication of JP2018084960A publication Critical patent/JP2018084960A/en
Application granted granted Critical
Publication of JP6838365B2 publication Critical patent/JP6838365B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve estimation accuracy of a self-position even if it is not possible to check all targets with map information without inconsistency.SOLUTION: A self-position estimation method of the present invention includes: moving a relative position between a target present around a vehicle and the vehicle by an amount of movement of the vehicle to store it as target position data; extracting a plurality of travel lane boundaries present right and left sides of the vehicle from the stored target position data; setting priority to each of the extracted travel lane boundaries to select a travel lane boundary with high priority; and checking target position data on the selected travel lane boundary with target position information included in map information to estimate a self-position of the vehicle.SELECTED DRAWING: Figure 3

Description

本発明は、自車両の自己位置を推定する自己位置推定方法及び自己位置推定装置に関する。   The present invention relates to a self-position estimation method and a self-position estimation apparatus that estimate a self-position of a host vehicle.

従来では、移動体を基準として予め定めた領域内に存在する環境情報に限定し、この限定された環境情報を、予め保持している環境地図と照合することによって自己位置を推定していた(特許文献1参照)。   Conventionally, it is limited to environmental information existing in a predetermined area with a moving body as a reference, and the self-location is estimated by comparing this limited environmental information with a previously stored environmental map ( Patent Document 1).

特開2008−250906号公報JP 2008-250906 A

しかしながら、上述した従来の自己位置推定方法では、白線等の対となった物標間で相対的な誤差が大きくなると、すべての物標で矛盾なく地図情報と照合できるわけではなくなり、自己位置の推定精度が低下してしまうという問題点があった。   However, in the conventional self-position estimation method described above, if the relative error between the paired targets such as white lines becomes large, not all targets can be matched with map information without contradiction. There was a problem that the estimation accuracy was lowered.

本発明は上記課題に鑑みて成されたものであり、その目的は、すべての物標で矛盾なく地図情報と照合することができない場合でも自己位置の推定精度を向上させることのできる自己位置推定方法及びその装置を提供することにある。   The present invention has been made in view of the above problems, and its purpose is self-position estimation that can improve self-position estimation accuracy even when all targets cannot be compared with map information without contradiction. It is to provide a method and apparatus thereof.

上述の課題を解決するために、本発明の一態様に係る自己位置推定方法及びその装置は、自車両の周囲に存在する物標と自車両との間の相対位置を自車両の移動量だけ移動させて物標位置データとして蓄積する。そして、蓄積された物標位置データから自車両の左右に存在する複数の走路境界を抽出し、抽出された複数の走路境界のそれぞれに優先度を設定して優先度の高い走路境界を選択する。この結果から、選択された走路境界の物標位置データと、地図情報に含まれる物標位置情報とを照合して自車両の自己位置を推定する。   In order to solve the above-described problem, a self-position estimation method and apparatus according to an aspect of the present invention provides a relative position between a target existing around the host vehicle and the host vehicle by an amount of movement of the host vehicle. It is moved and stored as target position data. Then, a plurality of road boundaries existing on the left and right of the host vehicle are extracted from the accumulated target position data, a priority is set for each of the extracted plurality of road boundaries, and a road boundary with a high priority is selected. . From this result, the target position of the host vehicle is estimated by comparing the target position data of the selected road boundary with the target position information included in the map information.

本発明によれば、すべての物標で矛盾なく地図情報と照合することができない場合でも自己位置の推定精度を向上させることができる。   According to the present invention, the self-position estimation accuracy can be improved even when all targets cannot be compared with map information without contradiction.

図1は、本発明の一実施形態に係る自己位置推定装置を備えた自己位置推定システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a self-position estimation system including a self-position estimation apparatus according to an embodiment of the present invention. 図2は、車両に搭載されたカメラの一例を示す図である。FIG. 2 is a diagram illustrating an example of a camera mounted on a vehicle. 図3は、本発明の一実施形態に係る自己位置推定装置による自己位置推定処理の処理手順を示すフローチャートである。FIG. 3 is a flowchart showing a processing procedure of self-position estimation processing by the self-position estimation apparatus according to the embodiment of the present invention. 図4は、本発明の一実施形態に係る自己位置推定装置による優先度の設定方法を説明するための図である。FIG. 4 is a diagram for explaining a priority setting method by the self-position estimation apparatus according to the embodiment of the present invention. 図5は、本発明の一実施形態に係る自己位置推定装置による対向車が存在する場合の優先度の設定方法を説明するための図である。FIG. 5 is a diagram for explaining a priority setting method when there is an oncoming vehicle by the self-position estimating apparatus according to the embodiment of the present invention. 図6は、本発明の一実施形態に係る自己位置推定装置による並走車と対向車が存在する場合の優先度の設定方法を説明するための図である。FIG. 6 is a diagram for explaining a priority setting method when a parallel vehicle and an oncoming vehicle are present by the self-position estimating apparatus according to the embodiment of the present invention. 図7は、本発明の一実施形態に係る自己位置推定装置による歩行者が存在する場合の優先度の設定方法を説明するための図である。FIG. 7 is a diagram for explaining a priority setting method when a pedestrian exists by the self-position estimation apparatus according to the embodiment of the present invention.

以下、本発明の一実施形態について図面を参照して説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the description of the drawings, the same or similar parts are denoted by the same or similar reference numerals, and redundant description is omitted.

[自己位置推定システム]
図1は、本実施形態に係る自己位置推定装置を備えた自己位置推定システムの構成を示すブロック図である。図1に示すように、本実施形態に係る自己位置推定システム100は、周囲センサ群1と、自己位置推定装置3と、記憶装置4と、車両センサ群5とを備えている。本実施形態に係る自己位置推定システム100は、車両V(図2参照)に搭載され、車両Vの自己位置を推定する。
[Self-position estimation system]
FIG. 1 is a block diagram illustrating a configuration of a self-position estimation system including a self-position estimation apparatus according to the present embodiment. As shown in FIG. 1, a self-position estimation system 100 according to the present embodiment includes a surrounding sensor group 1, a self-position estimation device 3, a storage device 4, and a vehicle sensor group 5. The self-position estimation system 100 according to the present embodiment is mounted on the vehicle V (see FIG. 2) and estimates the self-position of the vehicle V.

本実施形態では、推定する車両Vの自己位置として、東西方向(X軸方向)の位置(X座標[m])と、南北方向(Y軸方向)の位置(Y座標[m])と、姿勢角情報として車両の方位角θ(ヨー角[rad])とを推定する。すなわち、二次元平面上における合計3自由度の位置及び姿勢角を推定する。   In this embodiment, as the self-position of the vehicle V to be estimated, a position in the east-west direction (X-axis direction) (X coordinate [m]), a position in the north-south direction (Y-axis direction) (Y coordinate [m]), A vehicle azimuth angle θ (yaw angle [rad]) is estimated as posture angle information. That is, the position and posture angle with a total of three degrees of freedom on the two-dimensional plane are estimated.

周囲センサ群1は、画像処理可能なデジタル画像を撮影する複数のカメラ11、13を備えている。ただし、レーザレンジファインダをさらに備えていてもよく、周囲センサ群1は、車両Vの周囲に存在する物標を検出するための複数のセンサから構成されていればよい。   The ambient sensor group 1 includes a plurality of cameras 11 and 13 that capture digital images that can be processed. However, a laser range finder may be further provided, and the ambient sensor group 1 only needs to be composed of a plurality of sensors for detecting a target existing around the vehicle V.

図2は、周囲センサ群1を車両Vに搭載した状態の一例を示す図である。カメラ11、13は、例えば、車両Vの左右両側のドアミラーにそれぞれ搭載可能である。カメラ11、13は、例えば、CCD、CMOS等の固体撮像素子により画像を撮影する。カメラ11、13は、例えば、車両Vの側方の路面を撮影し、逐次、撮影した画像を自己位置推定装置3に出力する。なお、カメラ11、13は、車両Vの前方方向の路面を撮像するカメラや車両Vの後方方向の路面を撮像するカメラに代えても適用することができる。また、車両Vの側方の路面を撮影するカメラと、車両Vの前方方向の路面を撮像するカメラと、車両Vの後方方向の路面を撮像するカメラを同時に適用することもできる。   FIG. 2 is a diagram illustrating an example of a state in which the surrounding sensor group 1 is mounted on the vehicle V. The cameras 11 and 13 can be mounted on door mirrors on both the left and right sides of the vehicle V, for example. The cameras 11 and 13 take images with a solid-state imaging device such as a CCD or CMOS, for example. The cameras 11 and 13, for example, photograph a road surface on the side of the vehicle V, and sequentially output the captured images to the self-position estimation device 3. The cameras 11 and 13 can also be applied in place of a camera that images the road surface in the front direction of the vehicle V or a camera that images the road surface in the rear direction of the vehicle V. In addition, a camera that captures a road surface on the side of the vehicle V, a camera that captures a road surface in the front direction of the vehicle V, and a camera that captures a road surface in the rear direction of the vehicle V can be applied simultaneously.

記憶装置4は、地図上に存在する物標の物標位置情報を含む地図情報41を記憶している。記憶装置4は、半導体メモリ、磁気ディスク等から構成可能である。地図情報41に記録される物標は、例えば、停止線、横断歩道、横断歩道予告、区画線等を示す道路標示や、縁石等の構造物の他、周囲センサ群1により検出可能な種々の設備等を含む。地図情報41において、縁石、白線等の位置情報は、両端点の二次元位置情報を有する直線情報の集合体で定義される。地図情報41は、実環境の形状が曲線の場合、折れ線で近似された二次元平面上の直線情報として記述される。   The storage device 4 stores map information 41 including target position information of targets existing on the map. The storage device 4 can be composed of a semiconductor memory, a magnetic disk, or the like. The target recorded in the map information 41 is, for example, a road marking indicating a stop line, a pedestrian crossing, a pedestrian crossing notice, a lane marking, a structure such as a curb, and various other sensors that can be detected by the surrounding sensor group 1. Includes facilities. In the map information 41, position information such as curbstones and white lines is defined by a collection of straight line information having two-dimensional position information of both end points. The map information 41 is described as straight line information on a two-dimensional plane approximated by a broken line when the shape of the real environment is a curve.

車両センサ群5は、GPS受信機51、アクセルセンサ52、ステアリングセンサ53、ブレーキセンサ54、車速センサ55、加速度センサ56、車輪速センサ57及びヨーレートセンサ等のその他のセンサ58等を備えている。各センサ51〜58は自己位置推定装置3に接続され、逐次、各種の検出結果を自己位置推定装置3に出力する。   The vehicle sensor group 5 includes a GPS receiver 51, an accelerator sensor 52, a steering sensor 53, a brake sensor 54, a vehicle speed sensor 55, an acceleration sensor 56, a wheel speed sensor 57, and other sensors 58 such as a yaw rate sensor. Each of the sensors 51 to 58 is connected to the self-position estimation device 3 and sequentially outputs various detection results to the self-position estimation device 3.

自己位置推定装置3は、自車両の周囲に存在する物標の物標位置データと地図情報に含まれる物標位置情報とを照合して自車両の現在位置である自己位置を推定するコントローラである。自己位置推定装置3は、車両センサ群5の各検出結果を用いて、地図情報41における車両Vの概位置を算出したり、単位時間における車両Vの移動量を示すオドメトリを算出したりする。自己位置推定装置3は、物標位置検出部31と、移動量推定部32と、物標位置蓄積部33と、地図情報取得部34と、物標選択部35と、自己位置推定部36とを有する。尚、自己位置推定装置3は、マイクロコンピュータ、マイクロプロセッサ、CPUを含む汎用の電子回路とメモリ等の周辺機器から構成されている。そして、特定のプログラムを実行することにより、上述した物標位置検出部31、移動量推定部32、物標位置蓄積部33、地図情報取得部34、物標選択部35及び自己位置推定部36として動作する。このような自己位置推定装置3の各機能は、1または複数の処理回路によって実装することができる。処理回路は、例えば電気回路を含む処理装置等のプログラムされた処理装置を含み、また実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置も含んでいる。また、処理回路は、例えば自動運転制御等の車両Vの他の制御に用いる電子制御ユニット(ECU)と兼用されてもよい。   The self-position estimation device 3 is a controller that estimates target position that is the current position of the host vehicle by comparing target position data of targets existing around the host vehicle with target position information included in the map information. is there. The self-position estimation device 3 calculates the approximate position of the vehicle V in the map information 41 using each detection result of the vehicle sensor group 5, or calculates an odometry indicating the amount of movement of the vehicle V per unit time. The self-position estimation device 3 includes a target position detection unit 31, a movement amount estimation unit 32, a target position accumulation unit 33, a map information acquisition unit 34, a target selection unit 35, and a self-position estimation unit 36. Have The self-position estimation device 3 includes a general-purpose electronic circuit including a microcomputer, a microprocessor, and a CPU, and peripheral devices such as a memory. Then, by executing a specific program, the target position detection unit 31, the movement amount estimation unit 32, the target position accumulation unit 33, the map information acquisition unit 34, the target selection unit 35, and the self-position estimation unit 36 described above. Works as. Each function of such a self-position estimation apparatus 3 can be implemented by one or a plurality of processing circuits. The processing circuit includes a programmed processing device such as, for example, a processing device including an electrical circuit, and an application specific integrated circuit (ASIC) or conventional circuit arranged to perform the functions described in the embodiments. It also includes devices such as parts. The processing circuit may also be used as an electronic control unit (ECU) used for other controls of the vehicle V such as automatic driving control.

物標位置検出部31は、カメラ11、13で撮像された画像から自車両の近傍に存在する物標の物標情報を検出する物標検出センサである。特に、物標位置検出部31は、カメラ11、13の撮像結果に基づいて、車両Vの周囲に存在する物標と車両Vとの間の相対位置を検出する。ここで、検出対象となる物標は、走路の周囲に存在する白線等の区画線や縁石、中央分離帯等の走路境界である。例えば、カメラ11、13の撮像結果である画像から画素間で輝度変化がある座標位置をエッジ点として検出して、区画線や縁石、中央分離帯等の走路境界をエッジ点群として検出する。また、カメラ11、13に換えて、レーザレンジファインダや、レーザーレーダー等を用いることができる。反射強度変化がある座標位置をエッジ点として検出することで同様に検出することができる。   The target position detection unit 31 is a target detection sensor that detects target information of a target existing in the vicinity of the host vehicle from images taken by the cameras 11 and 13. In particular, the target position detection unit 31 detects the relative position between the target and the vehicle V present around the vehicle V based on the imaging results of the cameras 11 and 13. Here, the target to be detected is a lane line such as a white line existing around the runway, or a runway boundary such as a curb or a median. For example, a coordinate position having a luminance change between pixels is detected as an edge point from images that are the imaging results of the cameras 11 and 13, and a road boundary such as a lane marking, a curbstone, or a median strip is detected as an edge point group. Further, instead of the cameras 11 and 13, a laser range finder, a laser radar, or the like can be used. It can detect similarly by detecting the coordinate position with a reflection intensity change as an edge point.

移動量推定部32は、車両センサ群5のいずれかのセンサの検出結果に基づいて、単位時間における車両Vの移動量を推定する。自車両の移動量は、タイヤの回転数によるオドメトリの計測やジャイロと加速度センサを用いた慣性計測等を用いて計測すればよい。また、GNSS(全地球航法衛星システム)等の衛星からの電波を受信する方法や外界センサの計測値の変化から移動量の推定を行なうSLAM等のさまざまな方法を用いてもよい。ただし、本実施形態では、移動量の推定方法を特に限定しない。   The movement amount estimation unit 32 estimates the movement amount of the vehicle V per unit time based on the detection result of one of the sensors in the vehicle sensor group 5. The amount of movement of the host vehicle may be measured using odometry measurement based on the number of rotations of the tire, inertia measurement using a gyro and an acceleration sensor, or the like. Further, various methods such as a method of receiving radio waves from a satellite such as GNSS (Global Navigation Satellite System) or SLAM that estimates the amount of movement from a change in the measurement value of an external sensor may be used. However, in this embodiment, the movement amount estimation method is not particularly limited.

物標位置蓄積部33は、物標位置検出部31によって検出された相対位置を、移動量推定部32によって推定された移動量だけ移動させて物標位置データとして蓄積する。この際、相対位置が検出された時刻Toを相対位置とともに蓄積する。さらに、物標位置蓄積部33は、物標位置データを車両座標系に投影して、検出された物標の相対位置を、車両座標系の位置に変換する。車両座標系は、例えば、車両Vの後輪車軸中心を原点とし、前方向をx軸の正方向、左方向をy軸の正方向、上方向をz軸の正方向とする。尚、カメラ11、13の座標系から車両座標系への変換式は予め物標位置蓄積部33に設定されている。車両座標系における路面のパラメータも同様である。   The target position accumulation unit 33 moves the relative position detected by the target position detection unit 31 by the movement amount estimated by the movement amount estimation unit 32 and accumulates it as target position data. At this time, the time To when the relative position is detected is stored together with the relative position. Further, the target position accumulating unit 33 projects the target position data onto the vehicle coordinate system, and converts the detected relative position of the target into the position of the vehicle coordinate system. In the vehicle coordinate system, for example, the center of the rear wheel axle of the vehicle V is the origin, the forward direction is the positive direction of the x axis, the left direction is the positive direction of the y axis, and the upward direction is the positive direction of the z axis. A conversion formula from the coordinate system of the cameras 11 and 13 to the vehicle coordinate system is set in the target position storage unit 33 in advance. The same applies to road surface parameters in the vehicle coordinate system.

地図情報取得部34は、自車両の自己位置を推定するために、記憶装置4から自車両の周囲の地図情報41を取得する。特に、地図情報取得部34は、GPS受信機51等から自車両の位置情報を取得し、取得した位置情報に基づいて、地図情報41から自車両の周囲に存在する物標の物標位置情報を取得する。   The map information acquisition unit 34 acquires map information 41 around the host vehicle from the storage device 4 in order to estimate the own position of the host vehicle. In particular, the map information acquisition unit 34 acquires the position information of the host vehicle from the GPS receiver 51 and the like, and based on the acquired position information, the target position information of the target existing around the host vehicle from the map information 41. To get.

物標選択部35は、物標位置蓄積部33で蓄積された物標位置データから自車両の左右に存在する複数の走路境界を抽出し、抽出された複数の走路境界のそれぞれに優先度を設定して優先度の高い走路境界を選択する。この優先度は自車両に与える影響に応じて設定され、自車両に与える影響が大きいほど高い値が設定される。例えば、物標選択部35は、走路境界または走路境界に関連付けられた物体と自車両との間の相対位置が近くなるほど優先度を高く設定する。また、走路境界または走路境界に関連付けられた物体の高さが高くなるほど優先度を高く設定してもよい。さらに、走路境界に関連付けられた物体と自車両との間の相対速度が速くなるほど優先度を高く設定してもよいし、走路境界に関連付けられた物体の属性に応じて優先度を設定してもよい。物標選択部35は、これらの優先度の設定方法の少なくとも1つを用いて、抽出された複数の走路境界のそれぞれに優先度を設定する。複数の走路境界は、略平行しているので、少なくとも1つの走路境界が選択できれば、地図情報41に記録された物標の物標位置情報と照合することができる。   The target selection unit 35 extracts a plurality of road boundaries existing on the left and right sides of the host vehicle from the target position data accumulated in the target position accumulation unit 33, and assigns priorities to each of the extracted plurality of road boundaries. Set and select a high priority track boundary. This priority is set according to the influence given to the own vehicle, and a higher value is set as the influence given to the own vehicle is larger. For example, the target selection unit 35 sets the higher priority as the relative position between the vehicle boundary and the object associated with the road boundary or the vehicle becomes closer. Further, the priority may be set higher as the height of the object associated with the road boundary or the road boundary becomes higher. Furthermore, the priority may be set higher as the relative speed between the object associated with the road boundary and the host vehicle becomes faster, or the priority may be set according to the attribute of the object associated with the road boundary. Also good. The target selection unit 35 sets the priority for each of the extracted plurality of lane boundaries using at least one of these priority setting methods. Since the plurality of runway boundaries are substantially parallel, if at least one runway boundary can be selected, the target position information of the target recorded in the map information 41 can be collated.

自己位置推定部36は、物標選択部35によって選択された物標位置データと、地図情報41に記録された物標の物標位置情報とを照合して車両Vの自己位置を推定する。なお、最も優先度が高い走路境界のみを選択して、地図情報41に記録された物標の物標位置情報と照合することもできる。その場合には、車両Vの自己位置に対して最も優先度が高い走路境界の相対位置は、検出された相対位置とほぼ同一となり、最も優先度が高い走路境界に対して、車両Vの自己位置は最も精度が高くなる。   The self-position estimating unit 36 collates the target position data selected by the target selecting unit 35 with the target position information of the target recorded in the map information 41 to estimate the self-position of the vehicle V. It is also possible to select only the road boundary with the highest priority and collate it with the target position information of the target recorded in the map information 41. In that case, the relative position of the road boundary having the highest priority with respect to the vehicle V's own position is substantially the same as the detected relative position, and the vehicle V's self relative to the road boundary having the highest priority. The position is most accurate.

[自己位置推定方法]
次に、図3のフローチャートを参照して、本実施形態に係る自己位置推定装置により実行される自己位置推定処理の処理手順を説明する。
[Self-position estimation method]
Next, with reference to the flowchart of FIG. 3, the procedure of the self-position estimation process performed by the self-position estimation apparatus according to the present embodiment will be described.

まず、ステップS10において、周囲センサ群1のカメラ11、13によって車両Vの周囲の外界をセンシングする。   First, in step S <b> 10, the outside world around the vehicle V is sensed by the cameras 11 and 13 of the ambient sensor group 1.

ステップS20において、物標位置検出部31は、カメラ11、13で撮像された画像から自車両の近傍に存在する物標の物標情報を検出する。特に、物標位置検出部31は、カメラ11、13で撮像された画像から自車両の周囲に存在する物標と自車両との間の相対位置を検出する。具体的に、物標位置検出部31は、カメラ11、13によって撮像された画像を取得し、白線等の区画線や縁石、中央分離帯等の走路境界を線分として検出して相対位置を求める。例えば、カメラ11、13により撮像された画像の輝度情報から、車両Vの左右に存在する白線を検出する。尚、白線等の所定距離区間毎に代表候補点を求め、その上で代表候補点の群から線分を求めても良い。また、代表候補点の群は、同時刻に検出してもよいし、異なる時刻に検出してもよい。本ステップでは、検出範囲を自車両の近傍に限定しているが、その理由は、できる限り正確な物標位置を検出するためである。尚、自車両の近傍とは、自車両の左右に隣接した白線を検出できる範囲である。   In step S <b> 20, the target position detection unit 31 detects target information of a target that exists in the vicinity of the host vehicle from images captured by the cameras 11 and 13. In particular, the target position detection unit 31 detects a relative position between a target existing around the host vehicle and the host vehicle from images captured by the cameras 11 and 13. Specifically, the target position detection unit 31 acquires images captured by the cameras 11 and 13, detects lane boundaries such as white lines, curbstones, and runway boundaries such as median strips as line segments to determine relative positions. Ask. For example, white lines existing on the left and right of the vehicle V are detected from the luminance information of the images captured by the cameras 11 and 13. Note that a representative candidate point may be obtained for each predetermined distance section such as a white line, and then a line segment may be obtained from a group of representative candidate points. The group of representative candidate points may be detected at the same time or at different times. In this step, the detection range is limited to the vicinity of the host vehicle, and the reason is to detect the target position as accurate as possible. The vicinity of the own vehicle is a range in which white lines adjacent to the left and right of the own vehicle can be detected.

ステップS30において、まず移動量推定部32が車両センサ群5の検出結果に基づいて車両Vの移動量を推定する。そして、物標位置蓄積部33は、ステップS20で検出された相対位置を、移動量推定部32によって推定された移動量だけ移動させて物標位置データとして蓄積する。この際、相対位置が検出された時刻Toを相対位置とともに蓄積する。   In step S <b> 30, the movement amount estimation unit 32 first estimates the movement amount of the vehicle V based on the detection result of the vehicle sensor group 5. Then, the target position accumulation unit 33 moves the relative position detected in step S20 by the movement amount estimated by the movement amount estimation unit 32 and accumulates it as target position data. At this time, the time To when the relative position is detected is stored together with the relative position.

ステップS40において、物標位置蓄積部33は、ステップS30で蓄積された物標位置データを、車両位置を中心とした車両座標系に投影する。物標位置蓄積部33は、物標の相対位置が検出された時刻Toにおける車両Vの位置情報Poに基づいて、ステップS30で蓄積された物標位置データを、現時点での車両座標系に変換する。   In step S40, the target position storage unit 33 projects the target position data stored in step S30 onto a vehicle coordinate system centered on the vehicle position. The target position accumulation unit 33 converts the target position data accumulated in step S30 into the current vehicle coordinate system based on the position information Po of the vehicle V at the time To when the relative position of the target is detected. To do.

ステップS50において、物標選択部35は、ステップS40で車両座標系に変換された物標位置データから自車両の左右に存在する複数の走路境界を抽出し、抽出された複数の走路境界のそれぞれに優先度を設定する。以下、優先度の設定方法を説明する。   In step S50, the target selection unit 35 extracts a plurality of runway boundaries existing on the left and right of the host vehicle from the target position data converted into the vehicle coordinate system in step S40, and each of the extracted plurality of runway boundaries. Set the priority to. The priority setting method will be described below.

図4は、縁石と白線が略平行に設置された道路を自車両が走行している状況を示している。この場合、白線Bに高さがないのに対して、縁石A1、A2は高さがあるので、自車両Vが縁石A1、A2に接触したときにはより大きな影響がある。そこで、縁石A1、A2には白線Bよりも高い優先度が設定される。例えば、縁石A1、A2の優先度の重みを3と設定し、白線Bの優先度の重みを1と設定する。また、縁石A1の近傍に道路標識D1が存在している場合には、道路標識D1は縁石A1に関連付けられ、道路標識D1の高さは高いので、縁石A1の優先度の重みはさらに高い値5に設定される。このように、物標選択部35は、走路境界または走路境界に関連付けられた物体の高さが高くなるほど優先度を高く設定する。   FIG. 4 shows a situation where the host vehicle is traveling on a road on which the curb and the white line are installed substantially in parallel. In this case, the curbstones A1 and A2 have a height while the white line B has no height, and therefore, when the host vehicle V contacts the curbstones A1 and A2, there is a greater influence. Therefore, a higher priority than the white line B is set for the curbs A1 and A2. For example, the priority weight of the curbs A1 and A2 is set to 3, and the priority weight of the white line B is set to 1. Further, when the road sign D1 exists in the vicinity of the curb A1, the road sign D1 is associated with the curb A1, and the height of the road sign D1 is high. Therefore, the priority weight of the curb A1 is a higher value. Set to 5. Thus, the target selection unit 35 sets the priority higher as the height of the road boundary or the object associated with the road boundary becomes higher.

また、図4において、縁石A1と白線Bは自車両Vからの距離が近く、相対位置が近いので、相対位置が遠い縁石A2よりも高い優先度が設定される。例えば、白線Bと縁石A1の優先度の重みを2と設定し、縁石A2の優先度の重みを1と設定する。尚、縁石A1には道路標識D1が関連付けられているので、縁石A1の優先度は道路標識D1の相対位置によって設定してもよい。このように、物標選択部35は、走路境界または走路境界に関連付けられた物体と自車両との間の相対位置が近くなるほど優先度を高く設定する。   In FIG. 4, the curb A1 and the white line B are close to the host vehicle V and close to each other, so that a higher priority is set than the curb A2 that is far from the relative position. For example, the priority weight of the white line B and the curb A1 is set to 2, and the priority weight of the curb A2 is set to 1. Since the road sign D1 is associated with the curb A1, the priority of the curb A1 may be set according to the relative position of the road sign D1. As described above, the target selection unit 35 sets a higher priority as the relative position between the traveling road boundary or the object associated with the traveling road boundary and the host vehicle becomes closer.

そして、物標選択部35は、図4の場合に、物標の高さに応じて設定された優先度の重みと相対位置に応じて設定された優先度の重みを加算して、縁石A1の優先度の重みを7、縁石A2の優先度の重みを4、白線Bの優先度の重みを3とする。これにより、優先度は、縁石A1、縁石A2、白線Bの順に設定される。   In the case of FIG. 4, the target selection unit 35 adds the priority weight set according to the height of the target and the priority weight set according to the relative position, and the curb A <b> 1. The priority weight of 7 is 7, the priority weight of curb A2 is 4, and the priority weight of white line B is 3. Thereby, a priority is set in order of the curb A1, the curb A2, and the white line B.

次に、図5は、図4の状況に加えて、さらに対向車が走行している状況を示したものである。この場合、自車両Vと対向車C1の間に存在する白線Bに対向車C1が関連付けられ、対向車C1は自車両との相対速度が速いため、自車両と接触したときには影響がより大きくなる。したがって、対向車C1に関連付けられた白線Bに高い優先度が設定される。例えば、白線Bの優先度の重みを5に設定する。このように、物標選択部35は、走路境界に関連付けられた物体と自車両との間の相対速度が速くなるほど優先度を高く設定する。この結果、各走路境界の優先度の重みは、白線Bの優先度の重みは8となり、縁石A1の優先度の重みは7、縁石A2の優先度の重みは4となる。これにより、優先度は、白線B、縁石A1、縁石A2の順に設定される。   Next, FIG. 5 shows a situation where an oncoming vehicle is running in addition to the situation of FIG. In this case, the oncoming vehicle C1 is associated with the white line B existing between the own vehicle V and the oncoming vehicle C1, and the oncoming vehicle C1 has a higher relative speed with the own vehicle, so that the influence is greater when it comes into contact with the own vehicle. . Therefore, a high priority is set for the white line B associated with the oncoming vehicle C1. For example, the priority weight of the white line B is set to 5. Thus, the target selection unit 35 sets a higher priority as the relative speed between the object associated with the road boundary and the host vehicle increases. As a result, the priority weight of each runway boundary is 8 for the white line B, 7 for the curb A1, and 4 for the curb A2. Thereby, a priority is set in order of white line B, curb A1, and curb A2.

図6は、白線を挟んで自車両と対向車と並走車が走行している状況を示したものである。この場合、自車両Vの右側の白線B1は対向車C1に関連付けられ、自車両Vの左側の白線B2は並走車C2に関連付けられる。そして、対向車C1のほうが、並走車C2よりも相対速度が速いため、接触したときには影響がより大きくなる。そこで、対向車C1に関連付けられた右側の白線B1に高い優先度が設定される。例えば、対向車C1に関連付けられた白線B1の優先度の重みを5に設定し、並走車C2に関連付けられた白線B2の優先度の重みを3に設定する。また、自車両との相対位置が近いので、白線B1と白線B2には高い優先度が設定される。例えば、白線B1と白線B2の優先度の重みを2に設定し、縁石A1、縁石A2の優先度の重みを1に設定する。これらの優先度の重みを加算すると、白線B1の優先度の重みは7となり、白線B2の優先度の重みは5、縁石A1と縁石A2の優先度の重みは1となる。これにより、優先度は、白線B1、白線B2、縁石A1、縁石A2の順に設定される。   FIG. 6 shows a situation where the host vehicle, the oncoming vehicle, and the parallel vehicle are running across the white line. In this case, the white line B1 on the right side of the host vehicle V is associated with the oncoming vehicle C1, and the white line B2 on the left side of the host vehicle V is associated with the parallel running vehicle C2. And since the relative speed of the oncoming vehicle C1 is faster than that of the parallel running vehicle C2, the influence is greater when it comes into contact. Therefore, a high priority is set for the white line B1 on the right side associated with the oncoming vehicle C1. For example, the priority weight of the white line B1 associated with the oncoming vehicle C1 is set to 5, and the priority weight of the white line B2 associated with the parallel running vehicle C2 is set to 3. Moreover, since the relative position with the own vehicle is near, a high priority is set to the white line B1 and the white line B2. For example, the priority weights of the white line B1 and the white line B2 are set to 2, and the priority weights of the curb A1 and the curb A2 are set to 1. When these priority weights are added, the priority weight of the white line B1 is 7, the priority weight of the white line B2 is 5, and the priority weight of the curb A1 and the curb A2 is 1. Thereby, a priority is set in order of white line B1, white line B2, curb stone A1, curb stone A2.

図7は、図5の状況に加えて、縁石を挟んで歩行者が存在する状況を示したものである。この場合、自車両Vの右側の白線Bは対向車C1に関連付けられ、自車両Vの左側の縁石A1は歩行者D2に関連付けられる。そして、車両と歩行者という物体の属性を考慮して自車両が各物体に与える影響を比較し、接触したときの影響がより大きくなる歩行者D2に関連付けられた縁石A1に高い優先度が設定される。例えば、歩行者D2に関付けられた縁石A1の優先度の重みを8に設定する。このように、物標選択部35は、走路境界に関連付けられた物体の属性に応じて優先度を設定する。例えば、安全性が要求される物体ほど優先度を高く設定する。この結果、各走路境界の優先度の重みは、縁石A1の優先度の重みは15になり、白線Bの優先度の重みは8、縁石A2の優先度の重みは4になる。これにより、優先度は、縁石A1、白線B、縁石A2の順に設定される。   FIG. 7 shows a situation in which a pedestrian is present across a curb in addition to the situation of FIG. In this case, the white line B on the right side of the host vehicle V is associated with the oncoming vehicle C1, and the curb A1 on the left side of the host vehicle V is associated with the pedestrian D2. Then, the influence of the own vehicle on each object is compared in consideration of the attributes of the object of the vehicle and the pedestrian, and a high priority is set to the curb A1 associated with the pedestrian D2 where the influence when contacting is greater. Is done. For example, the priority weight of the curb A1 associated with the pedestrian D2 is set to 8. As described above, the target selection unit 35 sets the priority according to the attribute of the object associated with the road boundary. For example, a higher priority is set for an object that requires safety. As a result, the priority weight of each track boundary is 15, the priority weight of the curb A1 is 15, the priority weight of the white line B is 8, and the priority weight of the curb A2 is 4. Thereby, a priority is set in order of curb A1, white line B, curb A2.

こうして優先度が設定されると、ステップS60において、物標選択部35は、物標の選択を行う。特に、物標選択部35は、物標として白線や縁石等の走路境界を選択する。このとき、最初は自車両から所定の範囲内に存在する物標を選択し、その後ステップS80で誤差の平均値が所定値以上であると判定された場合には、優先度に基づいて物標を選択する。例えば、優先度の最も低い物標を外して、物標を選択し直すようにする。   When the priority is set in this way, in step S60, the target selection unit 35 selects a target. In particular, the target selection unit 35 selects a road boundary such as a white line or a curb as a target. At this time, first, a target that is within a predetermined range from the host vehicle is selected, and if it is determined in step S80 that the average error is equal to or greater than the predetermined value, the target is based on the priority. Select. For example, the target with the lowest priority is removed and the target is selected again.

ステップS70において、自己位置推定部36は、ステップS60で選択された物標の物標位置データと地図情報41に含まれる物標位置情報とのマッチングを行って、自己位置の推定を実施する。地図情報取得部34によって、地図情報41から白線情報や走路境界情報等を含む物標位置情報が取得されると、自己位置推定部36は、この物標位置情報と、ステップS60で選択された物標の物標位置データとを比較して照合する。そして、最も整合するマップ上の位置を求める。尚、マップ上の位置を推定する手法は、自己位置推定手法として広く知られているものであればよく、ここでは特に限定しない。   In step S70, the self-position estimating unit 36 performs matching between the target position data of the target selected in step S60 and the target position information included in the map information 41, and performs self-position estimation. When the map information acquisition unit 34 acquires the target position information including the white line information and the road boundary information from the map information 41, the self-position estimation unit 36 selects the target position information and the target position information selected in step S60. The target position data of the target is compared and collated. Then, the position on the map that is most consistent is obtained. The method for estimating the position on the map is not particularly limited as long as it is widely known as a self-position estimation method.

ステップS80において、自己位置推定部36は、照合した結果、選択された物標の位置と地図上の物標の位置の誤差の平均値が所定値未満であるか否かを判定する。所定値としては、例えば、自動運転制御で自己位置の推定結果を利用する場合には、5cmに設定する。そして、誤差の平均値が所定値未満である場合には、照合して求めたマップ上の位置を自車両の自己位置として推定する。一方、誤差の平均値が所定値以上である場合には、ステップS60に戻り、優先度に基づいて物標を選択する。例えば、優先度の最も低い物標を外して選択し直し、ステップS70で再度マッチングを行うようにする。その結果、誤差が所定値未満となった場合には、そのときのマップ上の位置を自車両の自己位置として推定する。ステップS60〜S80の処理は、誤差の平均値が所定値未満になるまで繰り返し実行される。   In step S80, the self-position estimation unit 36 determines whether or not the average value of the error between the position of the selected target and the position of the target on the map is less than a predetermined value as a result of the collation. The predetermined value is set to 5 cm, for example, when the self-position estimation result is used in automatic operation control. If the average value of the errors is less than the predetermined value, the position on the map obtained by collation is estimated as the own position of the host vehicle. On the other hand, when the average value of the errors is equal to or greater than the predetermined value, the process returns to step S60, and a target is selected based on the priority. For example, the target with the lowest priority is removed and selected again, and matching is performed again in step S70. As a result, when the error is less than a predetermined value, the position on the map at that time is estimated as the own position of the host vehicle. The processes in steps S60 to S80 are repeatedly executed until the average error value becomes less than a predetermined value.

ステップS90において、自己位置推定部36は、ステップS80で推定された自己位置の推定結果を出力する。この出力値は、例えば、ナビゲーション装置の地図上に自車両の位置を表示したり、自車両の位置から目的地までの経路を算出して経路案内を行うために使用される。また、自動運転制御で使用する場合には、地図上に自車両の位置を設定し、地図上の経路に沿って自車両の操舵制御や車速制御を行うために使用される。こうして自己位置の推定結果が出力されると、本実施形態に係る自己位置推定処理は終了する。   In step S90, the self-position estimating unit 36 outputs the self-position estimation result estimated in step S80. This output value is used, for example, to display the position of the host vehicle on a map of the navigation device, or to calculate a route from the position of the host vehicle to the destination and perform route guidance. When used in automatic driving control, it is used for setting the position of the host vehicle on a map and performing steering control and vehicle speed control of the host vehicle along a route on the map. When the self-position estimation result is output in this way, the self-position estimation process according to the present embodiment ends.

[実施形態の効果]
以上、詳細に説明したように、本実施形態に係る自己位置推定装置及びその方法では、物標位置データから自車両の左右に存在する複数の走路境界を抽出し、抽出された複数の走路境界のそれぞれに優先度を設定して優先度の高い走路境界を選択する。そして、選択された走路境界の物標位置データと、地図情報に含まれる物標位置情報とを照合して自車両の自己位置を推定する。これにより、すべての物標で矛盾なく地図情報と照合することができない場合でも、優先度の高い物標に限定して照合するので、自己位置の推定精度を向上させることができる。
[Effect of the embodiment]
As described above in detail, in the self-position estimation apparatus and method according to the present embodiment, a plurality of road boundaries existing on the left and right sides of the host vehicle are extracted from the target position data, and the plurality of extracted road boundaries are extracted. A priority is set for each of the two, and a road boundary with a high priority is selected. Then, the target position of the host vehicle is estimated by collating the target position data of the selected road boundary with the target position information included in the map information. Thereby, even if it cannot collate with map information without inconsistency with all the targets, since it collates only to the target with high priority, the self-position estimation accuracy can be improved.

また、本実施形態に係る自己位置推定装置及びその方法では、走路境界または走路境界に関連付けられた物体と自車両との間の相対位置が近くなるほど、優先度を高く設定する。これにより、検出精度の高い自車両の近くに存在する物標から自己位置を推定できるので、自己位置をより正確に推定することができる。   In the self-position estimation apparatus and method according to the present embodiment, the priority is set higher as the relative position between the vehicle boundary and the object associated with the road boundary and the host vehicle becomes closer. Thereby, since a self-position can be estimated from the target which exists near the own vehicle with a high detection accuracy, a self-position can be estimated more correctly.

さらに、本実施形態に係る自己位置推定装置及びその方法では、走路境界または走路境界に関連付けられた物体の高さが高くなるほど、優先度を高く設定する。これにより、平面物よりも立体物の優先度が高く設定されるので、自車両への影響が大きい立体物に対して精度の高い自己位置を推定することができる。   Furthermore, in the self-position estimation apparatus and method according to the present embodiment, the priority is set higher as the height of the road boundary or the object associated with the road boundary increases. Thereby, since the priority of the three-dimensional object is set higher than that of the flat object, it is possible to estimate the self-position with high accuracy with respect to the three-dimensional object having a large influence on the own vehicle.

また、本実施形態に係る自己位置推定装置及びその方法では、走路境界に関連付けられた物体と自車両との間の相対速度が速くなるほど、優先度を高く設定する。これにより、対向車と自車両との間に存在するセンターラインの優先度が高く設定されるので、センターラインに対して精度の高い自己位置を推定することができ、対向車に接触する可能性を低減することができる。   In the self-position estimation apparatus and method according to the present embodiment, the priority is set higher as the relative speed between the object associated with the road boundary and the host vehicle becomes faster. Thereby, since the priority of the center line existing between the oncoming vehicle and the host vehicle is set high, it is possible to estimate the self-position with high accuracy with respect to the center line, and the possibility of contacting the oncoming vehicle Can be reduced.

さらに、本実施形態に係る自己位置推定装置及びその方法では、走路境界に関連付けられた物体の属性に応じて、優先度を設定する。これにより、ガードレール等の路側物よりも歩行者の優先度を高く設定できるので、人命を優先する等の物体の属性を考慮した自己位置の推定を行うことができる。   Furthermore, in the self-position estimation apparatus and method according to the present embodiment, the priority is set according to the attribute of the object associated with the road boundary. Thereby, since the priority of a pedestrian can be set higher than roadside objects, such as a guardrail, the self-position estimation in consideration of the attribute of an object, such as giving priority to human life, can be performed.

なお、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and even if it is a form other than this embodiment, as long as it does not depart from the technical idea of the present invention, it depends on the design and the like. Of course, various modifications are possible.

V 車両
1 周囲センサ群
3 自己位置推定装置
4 記憶装置
5 車両センサ群
11、13 カメラ
31 物標位置検出部
32 移動量推定部
33 物標位置蓄積部
34 地図情報取得部
35 物標選択部
36 自己位置推定部
41 地図情報
51 GPS受信機
52 アクセルセンサ
53 ステアリングセンサ
54 ブレーキセンサ
55 車速センサ
56 加速度センサ
57 車輪速センサ
58 その他のセンサ
V Vehicle 1 Ambient sensor group 3 Self-position estimation device 4 Storage device 5 Vehicle sensor group 11, 13 Camera 31 Target position detection unit 32 Movement amount estimation unit 33 Target position storage unit 34 Map information acquisition unit 35 Target selection unit 36 Self-position estimation unit 41 Map information 51 GPS receiver 52 Accelerator sensor 53 Steering sensor 54 Brake sensor 55 Vehicle speed sensor 56 Acceleration sensor 57 Wheel speed sensor 58 Other sensors

Claims (6)

自車両に搭載され、自車両の周囲に存在する物標と自車両との間の相対位置を検出する物標検出センサを備え、前記物標検出センサによって検出された相対位置を自車両の移動量だけ移動させて物標位置データとして蓄積し、蓄積された前記物標位置データと、地図上に存在する物標の物標位置情報を含む地図情報とを照合して、自車両の現在位置である自己位置を推定する自己位置推定装置による自己位置推定方法であって、
蓄積された前記物標位置データから自車両の左右に存在する複数の走路境界を抽出し、抽出された複数の走路境界のそれぞれに優先度を設定して優先度の高い走路境界を選択し、選択された走路境界の物標位置データと、前記地図情報に含まれる物標位置情報とを照合して自車両の自己位置を推定することを特徴とする自己位置推定方法。
A target detection sensor is provided that detects a relative position between the target vehicle and the target that is mounted on the host vehicle and exists around the host vehicle, and the relative position detected by the target detection sensor is moved by the host vehicle. The target position data is moved by an amount and accumulated as target position data. The accumulated target position data is collated with map information including target position information of the target existing on the map, and the current position of the host vehicle A self-position estimation method by a self-position estimation device that estimates a self-position,
Extracting a plurality of road boundaries existing on the left and right of the host vehicle from the accumulated target position data, setting a priority for each of the extracted plurality of road boundaries, and selecting a high-priority road boundary, A self-position estimation method, comprising: collating target position data on a selected road boundary with target position information included in the map information to estimate the self-position of the host vehicle.
前記優先度は、前記走路境界または前記走路境界に関連付けられた物体と自車両との間の相対位置が近くなるほど高く設定されることを特徴とする請求項1に記載の自己位置推定方法。   2. The self-position estimation method according to claim 1, wherein the priority is set higher as a relative position between the running road boundary or an object associated with the running road boundary and the host vehicle becomes closer. 前記優先度は、前記走路境界または前記走路境界に関連付けられた物体の高さが高くなるほど高く設定されることを特徴とする請求項1または2に記載の自己位置推定方法。   3. The self-position estimation method according to claim 1, wherein the priority is set higher as a height of the road boundary or an object associated with the road boundary becomes higher. 前記優先度は、前記走路境界に関連付けられた物体と自車両との間の相対速度が速くなるほど高く設定されることを特徴とする請求項1〜3のいずれか1項に記載の自己位置推定方法。   The self-position estimation according to any one of claims 1 to 3, wherein the priority is set higher as a relative speed between an object associated with the road boundary and the host vehicle becomes faster. Method. 前記優先度は、前記走路境界に関連付けられた物体の属性に応じて設定されることを特徴とする請求項1〜4のいずれか1項に記載の自己位置推定方法。   5. The self-position estimation method according to claim 1, wherein the priority is set according to an attribute of an object associated with the road boundary. 自車両に搭載され、自車両の周囲に存在する物標と自車両との間の相対位置を検出する物標検出センサを備え、前記物標検出センサによって検出された相対位置を自車両の移動量だけ移動させて物標位置データとして蓄積し、蓄積された前記物標位置データと、地図上に存在する物標の物標位置情報を含む地図情報とを照合して、自車両の現在位置である自己位置を推定する自己位置推定装置であって、
蓄積された前記物標位置データから自車両の左右に存在する複数の走路境界を抽出し、抽出された複数の走路境界のそれぞれに優先度を設定して優先度の高い走路境界を選択し、選択された走路境界の物標位置データと、前記地図情報に含まれる物標位置情報とを照合して自車両の自己位置を推定するコントローラを備えたことを特徴とする自己位置推定装置。
A target detection sensor is provided that detects a relative position between the target vehicle and the target that is mounted on the host vehicle and exists around the host vehicle, and the relative position detected by the target detection sensor is moved by the host vehicle. The target position data is moved by an amount and accumulated as target position data. The accumulated target position data is collated with map information including target position information of the target existing on the map, and the current position of the host vehicle A self-position estimation device for estimating a self-position,
Extracting a plurality of road boundaries existing on the left and right of the host vehicle from the accumulated target position data, setting a priority for each of the extracted plurality of road boundaries, and selecting a high-priority road boundary, A self-position estimation apparatus comprising a controller that collates target position data of a selected road boundary with target position information included in the map information and estimates the self-position of the host vehicle.
JP2016227730A 2016-11-24 2016-11-24 Self-position estimation method and self-position estimation device Active JP6838365B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016227730A JP6838365B2 (en) 2016-11-24 2016-11-24 Self-position estimation method and self-position estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016227730A JP6838365B2 (en) 2016-11-24 2016-11-24 Self-position estimation method and self-position estimation device

Publications (2)

Publication Number Publication Date
JP2018084960A true JP2018084960A (en) 2018-05-31
JP6838365B2 JP6838365B2 (en) 2021-03-03

Family

ID=62238405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016227730A Active JP6838365B2 (en) 2016-11-24 2016-11-24 Self-position estimation method and self-position estimation device

Country Status (1)

Country Link
JP (1) JP6838365B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086588A (en) * 2018-11-16 2020-06-04 株式会社豊田中央研究所 Moving route generation device, moving route generation method, and computer program
CN112232247A (en) * 2020-10-22 2021-01-15 深兰人工智能(深圳)有限公司 Method and device for extracting road surface of travelable area
CN113519019A (en) * 2019-03-15 2021-10-19 日立安斯泰莫株式会社 Self-position estimation device, automatic driving system equipped with same, and self-generated map sharing device
JP2023055257A (en) * 2021-10-06 2023-04-18 三菱電機株式会社 Self position estimation device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248382A (en) * 1994-03-11 1995-09-26 Nissan Motor Co Ltd Vehicle surrounding monitor device
JP2001331787A (en) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc Road shape estimating device
JP2015069288A (en) * 2013-09-27 2015-04-13 日産自動車株式会社 Own vehicle position recognition device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248382A (en) * 1994-03-11 1995-09-26 Nissan Motor Co Ltd Vehicle surrounding monitor device
JP2001331787A (en) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc Road shape estimating device
JP2015069288A (en) * 2013-09-27 2015-04-13 日産自動車株式会社 Own vehicle position recognition device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086588A (en) * 2018-11-16 2020-06-04 株式会社豊田中央研究所 Moving route generation device, moving route generation method, and computer program
JP7243141B2 (en) 2018-11-16 2023-03-22 株式会社豊田中央研究所 Movement route generation device, movement route generation method, and computer program
CN113519019A (en) * 2019-03-15 2021-10-19 日立安斯泰莫株式会社 Self-position estimation device, automatic driving system equipped with same, and self-generated map sharing device
CN113519019B (en) * 2019-03-15 2023-10-20 日立安斯泰莫株式会社 Self-position estimating device, automatic driving system equipped with same, and self-generated map sharing device
CN112232247A (en) * 2020-10-22 2021-01-15 深兰人工智能(深圳)有限公司 Method and device for extracting road surface of travelable area
JP2023055257A (en) * 2021-10-06 2023-04-18 三菱電機株式会社 Self position estimation device
US11967160B2 (en) 2021-10-06 2024-04-23 Mitsubishi Electric Corporation Own position inferring device

Also Published As

Publication number Publication date
JP6838365B2 (en) 2021-03-03

Similar Documents

Publication Publication Date Title
JP6477882B2 (en) Self-position estimation apparatus and self-position estimation method
RU2668459C1 (en) Position evaluation device and method
JP6881464B2 (en) Self-position estimation method and self-position estimation device
JP5966747B2 (en) Vehicle travel control apparatus and method
CN105571606A (en) Methods and systems for enabling improved positioning of a vehicle
JP7077910B2 (en) Bound line detection device and lane marking method
JP6838365B2 (en) Self-position estimation method and self-position estimation device
KR101100827B1 (en) A method of recognizing self-localization for a road-driving robot
JP6834401B2 (en) Self-position estimation method and self-position estimation device
JP6488913B2 (en) Vehicle position determination device and vehicle position determination method
US10916034B2 (en) Host vehicle position estimation device
JP5375249B2 (en) Moving path planning device, moving body control device, and moving body
US20200098126A1 (en) Object detection apparatus
JP2021039437A (en) Object position detection method and object position detection device
JP6790951B2 (en) Map information learning method and map information learning device
JP2018055222A (en) Runway detection method and runway detection device
JP2018017668A (en) Information processing device and information processing program
JP7020957B2 (en) Road structure estimation method and road structure estimation device
JP2020201746A (en) Distance estimation device, distance estimation method, and distance estimation computer program
US20230382428A1 (en) Method and apparatus for operating an automated vehicle
JP6972528B2 (en) Self-position estimation method, mobile vehicle travel control method, self-position estimation device, and mobile vehicle travel control device
JP2023118462A (en) Road end estimation device, road end estimation method, and road end estimation computer program
JP2024014488A (en) Self-position estimation device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200817

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201117

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201117

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201126

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210125

R151 Written notification of patent or utility model registration

Ref document number: 6838365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151