JP2019132762A - Vehicle position estimating device - Google Patents

Vehicle position estimating device Download PDF

Info

Publication number
JP2019132762A
JP2019132762A JP2018016517A JP2018016517A JP2019132762A JP 2019132762 A JP2019132762 A JP 2019132762A JP 2018016517 A JP2018016517 A JP 2018016517A JP 2018016517 A JP2018016517 A JP 2018016517A JP 2019132762 A JP2019132762 A JP 2019132762A
Authority
JP
Japan
Prior art keywords
vehicle
map
lane
unit
width shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018016517A
Other languages
Japanese (ja)
Inventor
一志 田中
Kazushi Tanaka
一志 田中
宏次朗 立石
Kojiro Tateishi
宏次朗 立石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018016517A priority Critical patent/JP2019132762A/en
Publication of JP2019132762A publication Critical patent/JP2019132762A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a vehicle position estimating device with which it is possible to recognize that a demarcation line has changed from when map information was generated.SOLUTION: The vehicle position estimating device comprises: a lateral position estimation unit for estimating a first lateral position of a vehicle by verification of the left demarcation line of a travel lane of a road surface image with the left demarcation line of a travel lane of map information, and estimating a second lateral position by verification of the right demarcation line of the travel lane of the road surface image with the right demarcation line of the travel lane of the map information; a difference determination unit for determining whether or not a difference between the first and the second lateral positions is greater than or equal to a determination threshold; a match determination unit for determining whether or not there is a portion among map width shapes in a comparison target range that matches a recognition width shape recognized from the road surface image when it is determined that the difference between the first and the second lateral positions is greater than or equal to the determination threshold; and a demarcation line change recognition unit for recognizing that the demarcation line has been changed from when the map information was generated when it is determined that there is no portion among the map width shapes that matches the recognition width shape.SELECTED DRAWING: Figure 4

Description

本発明は、自車位置推定装置に関する。   The present invention relates to a host vehicle position estimation device.

従来、自車位置推定装置に関する技術文献として、特開2007−101690号公報が知られている。この公報には、自車両周辺の目印をランドマークとして検出し、地図情報に含まれるランドマークの位置とマッチングさせることで、自車位置を推定する装置が示されている。   Conventionally, JP, 2007-101690, A is known as technical literature about a self-vehicle position estimating device. This publication discloses an apparatus that estimates a position of a host vehicle by detecting a landmark around the host vehicle as a landmark and matching it with a position of a landmark included in map information.

特開2007−101690号公報JP 2007-101690 A

上述したような自車位置推定においては、ランドマークとして道路の区画線を用いることが多い。しかしながら、地図情報の生成時(更新時)から区画線の塗り直しが行われて区画線の位置が変更されると、古い地図情報の区画線の位置を用いて誤った自車位置推定を行うおそれがある。   In the vehicle position estimation as described above, road lane markings are often used as landmarks. However, if the lane markings are repainted from the time when the map information is generated (updated) and the lane marking position is changed, the vehicle position is erroneously estimated using the lane marking position in the old map information. There is a fear.

そこで、本技術分野では、地図情報の生成時から区画線が変更されたことを認識できる自車位置推定装置を提供することが望まれている。   Therefore, in the present technical field, it is desired to provide a vehicle position estimation device that can recognize that the lane marking has been changed since the generation of the map information.

上記課題を解決するため、本発明の一態様は、車両の地図上の位置を推定する自車位置推定装置であって、車両に搭載された測定部の測定結果に基づいて、車両の地図上の位置を認識する車両位置認識部と、車両のカメラの撮像画像に基づいて、車両の走行車線の左右の区画線を含む路面画像を生成する路面画像生成部と、区画線の位置情報を含む地図情報を記憶する地図データベースと、路面画像に含まれる走行車線の左の区画線と地図情報に含まれる走行車線の左の区画線との照合により、車両の地図上の横位置である第1の横位置を推定すると共に、路面画像に含まれる走行車線の右の区画線と地図情報に含まれる走行車線の右の区画線との照合により、車両の地図上の横位置である第2の横位置を推定する横位置推定部と、第1の横位置と第2の横位置との差が判定閾値以上であるか否かを判定する差判定部と、車両位置認識部の認識した車両の地図上の位置に基づいて、照合に用いられた地図上の走行車線上の範囲を含み当該範囲より大きい比較対象範囲を設定する比較対象範囲設定部と、差判定部により第1の横位置と第2の横位置との差が判定閾値以上であると判定された場合に、比較対象範囲における地図情報の左右の区画線の幅形状である地図幅形状の中に路面画像から認識した左右の区画線の幅形状である認識幅形状と一致する部分があるか否かを判定する一致判定部と、一致判定部により地図幅形状の中に認識幅形状と一致する部分があると判定された場合に、地図幅形状の中の認識幅形状と一致する部分から車両の縦位置誤差を算出する縦位置誤差算出部と、一致判定部により地図幅形状の中に認識幅形状と一致する部分がないと判定された場合に、地図情報の生成時から区画線が変更されたと認識する区画線変更認識部と、を備える。   In order to solve the above-described problem, an aspect of the present invention is an own vehicle position estimation device that estimates a position of a vehicle on a map, and is based on a measurement result of a measurement unit mounted on the vehicle. Vehicle position recognition unit for recognizing the position of the vehicle, a road surface image generation unit for generating a road surface image including the left and right lane markings of the traveling lane of the vehicle based on the captured image of the camera of the vehicle, and position information of the lane markings The first position which is the lateral position on the map of the vehicle by collating the map database storing the map information with the left lane line of the traveling lane included in the road image and the left lane line of the traveling lane included in the map information. The second position which is the lateral position on the map of the vehicle is verified by comparing the right lane line of the traveling lane included in the road image with the right lane line of the traveling lane included in the map information. A lateral position estimating unit for estimating a lateral position, and a first lateral A map used for matching based on a position on the map of the vehicle recognized by the vehicle position recognition unit and a difference determination unit that determines whether or not the difference between the position and the second lateral position is equal to or greater than a determination threshold The difference between the first lateral position and the second lateral position is greater than or equal to the determination threshold by the comparison target range setting unit that includes a range on the upper lane and that includes a comparison target range that is larger than the range. If it is determined, the part that matches the recognized width shape that is the width shape of the left and right lane lines recognized from the road surface image in the map width shape that is the width shape of the left and right lane lines of the map information in the comparison target range A match determination unit that determines whether or not there is a match, and if the match determination unit determines that there is a portion that matches the recognition width shape in the map width shape, it matches the recognition width shape in the map width shape Position error calculation unit that calculates the position error of the vehicle A lane line change recognizing unit that recognizes that the lane line has been changed since the generation of the map information when the coincidence determining unit determines that the map width shape does not have a portion that matches the recognized width shape. .

以上説明したように、本発明の一態様によれば、地図情報の生成時から区画線が変更されたことを認識できる。   As described above, according to one aspect of the present invention, it can be recognized that the lane marking has been changed since the map information was generated.

一実施形態に係る自車位置推定装置を示すブロック図である。It is a block diagram which shows the own vehicle position estimation apparatus which concerns on one Embodiment. (a)照合値のピークが一つの場合の例を示すグラフである。(b)照合値のピークが2個の場合の例を示すグラフである。(A) It is a graph which shows the example in case the peak of a collation value is one. (B) It is a graph which shows the example in case the peak of a collation value is two. (a)路面画像の左の区画線と地図情報の左の区画線とを照合した場合を示す平面図である。(b)路面画像の右の区画線と地図情報の右の区画線とを照合した場合を示す平面図である。(c)路面画像に基づく左右の区画線の幅形状の認識を説明するための平面図である。(A) It is a top view which shows the case where the left lane line of a road surface image and the left lane line of map information are collated. (B) It is a top view which shows the case where the right lane line of a road surface image and the right lane line of map information are collated. (C) It is a top view for demonstrating recognition of the width shape of the left and right division lines based on a road surface image. (a)路面画像の認識幅形状の一例を示す図である。(b)比較対象範囲における地図幅形状の第1の例を示す図である。(c)比較対象範囲における地図幅形状の第2の例を示す図である。(A) It is a figure which shows an example of the recognition width shape of a road surface image. (B) It is a figure which shows the 1st example of the map width shape in a comparison object range. (C) It is a figure which shows the 2nd example of the map width shape in the comparison object range. 車線幅の記憶開始処理を示すフローチャートである。It is a flowchart which shows the memory start process of a lane width. 区画線変化の認識処理を示すフローチャートである。It is a flowchart which shows the recognition process of a lane marking change.

以下、本発明の実施形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

[自車位置推定装置の構成]
図1に示す自車位置推定装置100は、システムを統括的に管理するECU[Electronic Control Unit]10を備えている。ECU10は、CPU[CentralProcessing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]等を有する電子制御ユニットである。ECU10では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU10は、複数の電子ユニットから構成されていてもよい。
[Configuration of the vehicle position estimation device]
A host vehicle position estimation apparatus 100 shown in FIG. 1 includes an ECU [Electronic Control Unit] 10 that comprehensively manages the system. The ECU 10 is an electronic control unit having a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like. In the ECU 10, for example, various functions are realized by loading a program stored in the ROM into the RAM and executing the program loaded in the RAM by the CPU. The ECU 10 may be composed of a plurality of electronic units.

ECU10は、GPS受信部1、カメラ2、車速センサ3、ヨーレート4、及び地図データベース5と接続されている。   The ECU 10 is connected to the GPS receiver 1, the camera 2, the vehicle speed sensor 3, the yaw rate 4, and the map database 5.

GPS受信部1は、車両に搭載され、3個以上のGPS衛星から信号を受信することにより車両の地図上の位置(例えば車両の緯度及び経度)を測定する測定部である。GPS受信部1は、測定結果をECU10へ送信する。   The GPS receiving unit 1 is a measuring unit that is mounted on a vehicle and measures the position of the vehicle on the map (for example, the latitude and longitude of the vehicle) by receiving signals from three or more GPS satellites. The GPS receiving unit 1 transmits the measurement result to the ECU 10.

カメラ2は、車両の外部状況を撮像する撮像機器である。カメラ2は、車両のフロントガラスの裏側に設けられている。カメラ2は、車両前方の撮像画像をECU10へ送信する。カメラ2は、単眼カメラであってもよく、ステレオカメラであってもよい。カメラ2は、車両の後方を撮像するように設けられていてもよく、複数方向を撮像する複数のカメラとして構成されていてもよい。   The camera 2 is an imaging device that captures an external situation of the vehicle. The camera 2 is provided on the back side of the windshield of the vehicle. The camera 2 transmits a captured image in front of the vehicle to the ECU 10. The camera 2 may be a monocular camera or a stereo camera. The camera 2 may be provided so as to capture the back of the vehicle, or may be configured as a plurality of cameras that capture images in a plurality of directions.

車速センサ3は、車両に搭載され、車両の速度を検出する検出器である。車速センサ3としては、例えば、車両の車輪又は車輪と一体に回転するドライブシャフト等に対して設けられ、車輪の回転速度を検出する車輪速センサが用いられる。車速センサ3は、検出した車速情報をECU10に送信する。   The vehicle speed sensor 3 is a detector that is mounted on the vehicle and detects the speed of the vehicle. As the vehicle speed sensor 3, for example, a wheel speed sensor that is provided on a vehicle wheel or a drive shaft that rotates integrally with the wheel and detects the rotation speed of the wheel is used. The vehicle speed sensor 3 transmits the detected vehicle speed information to the ECU 10.

ヨーレートセンサ4は、車両に搭載され、車両の重心の鉛直軸周りのヨーレート(回転角速度)を検出する検出器である。ヨーレートセンサ4としては、例えばジャイロセンサを用いることができる。ヨーレートセンサ4は、検出した車両のヨーレート情報をECU10へ送信する。   The yaw rate sensor 4 is a detector that is mounted on the vehicle and detects the yaw rate (rotational angular velocity) around the vertical axis of the center of gravity of the vehicle. As the yaw rate sensor 4, for example, a gyro sensor can be used. The yaw rate sensor 4 transmits the detected yaw rate information of the vehicle to the ECU 10.

地図データベース5は、地図情報を記憶するデータベースである。地図データベース5は、例えば、車両に搭載されたHDD[Hard Disk Drive]内に形成されている。地図情報には、道路の位置情報、道路形状の情報(例えばカーブ、直線部の種別、カーブの曲率等)、交差点及び分岐点の位置情報、及び構造物の位置情報などが含まれる。なお、地図データベース5は、車両と通信可能なサーバーに形成されていてもよい。   The map database 5 is a database that stores map information. The map database 5 is formed in, for example, an HDD [Hard Disk Drive] mounted on the vehicle. The map information includes road position information, road shape information (eg, curves, straight line types, curve curvature, etc.), intersection and branch point position information, and structure position information. The map database 5 may be formed on a server that can communicate with the vehicle.

ECU10の機能的構成について説明する。ECU10は、車両位置認識部11、路面画像生成部12、横位置推定部13、差判定部14、比較対象範囲設定部15、一致判定部16、縦位置誤差算出部17、及び区画線変更認識部18を有している。以下で説明するECU10の機能の一部は、車両と通信可能なサーバーで行われる態様であってもよい。   A functional configuration of the ECU 10 will be described. The ECU 10 includes a vehicle position recognition unit 11, a road surface image generation unit 12, a lateral position estimation unit 13, a difference determination unit 14, a comparison target range setting unit 15, a coincidence determination unit 16, a vertical position error calculation unit 17, and a lane marking change recognition. A portion 18 is provided. Some of the functions of the ECU 10 described below may be performed by a server that can communicate with the vehicle.

車両位置認識部11は、GPS受信部(測定部)1の位置情報及び地図データベース5の地図情報に基づいて、車両の地図上の位置を認識する。車両位置認識部11は、車速センサ3の車速情報及びヨーレートセンサ4のヨーレート情報に基づいて、車両の車速の履歴(或いは車輪の回転数の履歴)及び車両のヨーレートの履歴等から車両の地図上の位置を認識してもよい。この場合、車速センサ3及びヨーレートセンサ4は車載の測定部として機能する。車両位置認識部11は、周知の手法を用いて、いわゆるオドメトリにより車両の地図上の位置を認識してもよい。   The vehicle position recognition unit 11 recognizes the position of the vehicle on the map based on the position information of the GPS reception unit (measurement unit) 1 and the map information of the map database 5. Based on the vehicle speed information of the vehicle speed sensor 3 and the yaw rate information of the yaw rate sensor 4, the vehicle position recognition unit 11 displays the vehicle speed history (or the wheel rotation speed history) and the vehicle yaw rate history on the map of the vehicle. May be recognized. In this case, the vehicle speed sensor 3 and the yaw rate sensor 4 function as an in-vehicle measuring unit. The vehicle position recognition unit 11 may recognize the position of the vehicle on the map by so-called odometry using a known method.

路面画像生成部12は、カメラ2の撮像画像に基づいて、車両の走行する走行車線の左右の区画線を含む路面画像を生成する。路面画像生成部12は、例えば、カメラ2の撮像画像を投影変換によって路面画像を生成する。路面画像生成部12は、画像認識により路面画像に含まれる左右の区画線を認識する。路面画像生成部12は、直前に生成した路面画像に新たに生成した路面画像を重ね合わせる(区画線等を用いた画像照合を行う)ことで路面画像の延長を行う。路面画像における区画線の位置は車両(カメラ2)に対する相対位置となる。   The road surface image generation unit 12 generates a road surface image including the left and right lane markings of the travel lane on which the vehicle travels based on the captured image of the camera 2. The road surface image generation unit 12 generates a road surface image by, for example, projecting and converting the captured image of the camera 2. The road surface image generation unit 12 recognizes left and right lane markings included in the road surface image by image recognition. The road surface image generation unit 12 extends the road surface image by superimposing the newly generated road surface image on the road surface image generated immediately before (performs image matching using a lane marking or the like). The position of the lane marking in the road surface image is a relative position with respect to the vehicle (camera 2).

横位置推定部13は、路面画像生成部12の生成した路面画像に含まれる走行車線の左右の区画線と地図データベース5の地図情報に含まれる走行車線の左右の区画線とに基づいて、車両の横位置の推定を行う。横位置推定部13は、車両位置認識部11の認識した車両の地図上の位置を参照することで、照合対象となる地図情報の左右の区画線を求める。横位置推定部13は、路面画像に含まれる走行車線の左右の区画線と地図情報に含まれる走行車線の左右の区画線との照合により、車両の横位置の推定を行う。   The lateral position estimation unit 13 determines whether the vehicle is based on the left and right lane lines of the traveling lane included in the road surface image generated by the road surface image generation unit 12 and the left and right lane lines of the traveling lane included in the map information of the map database 5. The lateral position of is estimated. The lateral position estimating unit 13 refers to the position on the map of the vehicle recognized by the vehicle position recognizing unit 11 to obtain left and right dividing lines of the map information to be collated. The lateral position estimation unit 13 estimates the lateral position of the vehicle by collating the left and right lane markings of the traveling lane included in the road image with the left and right lane markings of the traveling lane included in the map information.

ここで、図2(a)は、照合値のピークが一つの場合の例を示すグラフである。図2(a)の縦軸は照合値、横軸は横方向位置である。照合値とは、路面画像の左右の区画線と地図情報の左右の区画線との一致の度合いに相当する値である。図2(a)では、照合値のピークが1つの場合を示している。横位置推定部13は、路面画像の左右の区画線を地図情報の左右の区画線に対して横方向にずらしながら照合値(一致度)を演算する。横位置推定部13は、図2(a)に示すように照合値のピークが1つである場合、照合値がピークとなるように路面画像の左右の区画線と地図情報の左右の区画線との照合を行うことで、車両の地図上の横位置を推定する。   Here, FIG. 2A is a graph showing an example in the case where the peak of the matching value is one. In FIG. 2A, the vertical axis represents the collation value, and the horizontal axis represents the horizontal position. The collation value is a value corresponding to the degree of coincidence between the left and right lane markings of the road surface image and the map information. FIG. 2A shows a case where the peak of the verification value is one. The lateral position estimation unit 13 calculates a collation value (degree of coincidence) while shifting the left and right lane markings of the road surface image laterally with respect to the left and right lane markings of the map information. When the collation value has one peak as shown in FIG. 2A, the lateral position estimation unit 13 determines the left and right lane lines of the road image and the left and right lane lines of the map information so that the collation value becomes a peak. The lateral position of the vehicle on the map is estimated.

図2(b)は、照合値のピークが2個の場合の例を示すグラフである。例えば、区画線の塗り直しにより地図情報の生成時から区画線が変化している場合、路面画像の左右の区画線と地図情報の左右の区画線とが一致しないため、照合値のピークが複数生じる。或いは、車両位置認識部11の認識した車両の地図上の位置に大きな縦位置誤差が含まれている等により、照合対象となる地図情報の左右の区画線を誤った場合、路面画像の左右の区画線と地図情報の左右の区画線とが一致しないため、照合値のピークが複数生じる。   FIG. 2B is a graph showing an example in which there are two verification value peaks. For example, if the lane marking has changed since the generation of the map information due to the repainting of the lane marking, the left and right lane markings in the road image do not match the left and right lane markings in the map information, so there are multiple matching value peaks. Arise. Alternatively, if the left and right lane lines of the map information to be collated are erroneous due to a large vertical position error included in the position on the map of the vehicle recognized by the vehicle position recognition unit 11, Since the lane markings and the lane markings on the left and right of the map information do not match, a plurality of matching value peaks occur.

横位置推定部13は、路面画像の左右の区画線と地図情報の左右の区画線との照合結果に基づいて、照合値のピークが2個以上あるか否かを判定する。横位置推定部13は、必ずしも照合値のグラフ化を行ってピークをカウントする必要はなく、周知の手法により判定することができる。   The lateral position estimation unit 13 determines whether or not there are two or more matching value peaks based on a matching result between the left and right lane markings of the road surface image and the left and right lane markings of the map information. The lateral position estimation unit 13 does not necessarily need to graph the verification values and count the peaks, and can determine the values by a known method.

横位置推定部13は、照合値のピークが2個以上あると判定した場合、左の区画線と右の区画線とに分けてそれぞれ横位置推定を行う。偽区画線の場合、真の区画線より区画線候補が少なくなるので左右に分けることで除外できる。横位置推定部13は、路面画像の左の区画線と地図情報の左の区画線との照合により、車両の横位置である第1の横位置を推定する。   If it is determined that there are two or more matching value peaks, the lateral position estimation unit 13 performs lateral position estimation separately for the left lane line and the right lane line. In the case of false lane markings, there are fewer lane marking candidates than true lane markings, so they can be excluded by dividing them into left and right. The lateral position estimation unit 13 estimates the first lateral position, which is the lateral position of the vehicle, by comparing the left lane line of the road surface image with the left lane line of the map information.

ここで、図3(a)は、路面画像の左の区画線と地図情報の左の区画線とを照合した場合を示す平面図である。図3(a)に、車両M、路面画像に含まれる左の区画線の候補点PA、路面画像に含まれる右の区画線の候補点PB、地図情報に含まれる左の区画線LA、及び地図情報に含まれる右の区画線LBを示す。また、路面画像の左の区画線と地図情報の左の区画線とを照合した場合の車両Mの横位置である第1の横位置W1を示す。なお、図3(a)では、路面画像から認識される区画線を候補点PA、PBとして表わしているが点ではなく線として認識してもよい。   Here, FIG. 3A is a plan view showing a case where the left lane line of the road surface image is collated with the left lane line of the map information. In FIG. 3A, the vehicle M, the left lane line candidate point PA included in the road image, the right lane line candidate point PB included in the road image, the left lane line LA included in the map information, and The right lane marking LB included in the map information is shown. In addition, a first lateral position W1 that is the lateral position of the vehicle M when the left lane line of the road surface image and the left lane line of the map information are collated is shown. In FIG. 3A, the lane markings recognized from the road surface image are represented as candidate points PA and PB, but may be recognized as lines instead of points.

図3(a)に示すように、横位置推定部13は、照合値のピークが2個以上あると判定した場合(路面画像の左右の区画線と地図情報の左右の区画線が一致しなかった場合)において、路面画像の左の区画線の候補点PAと地図情報の左の区画線LAとの照合から第1の横位置W1を推定する。すなわち、横位置推定部13は、車両Mに対する相対位置である路面画像の左の区画線の候補点PAの位置を地図情報の左の区画線LAに照合させることで、車両Mの地図上の横位置である第1の横位置W1を推定する。このとき、横位置推定部13は、路面画像の右の区画線の照合を考慮する必要はない。   As shown in FIG. 3A, when the lateral position estimation unit 13 determines that there are two or more peaks of the matching value (the left and right lane lines of the road image do not match the left and right lane lines of the map information). ), The first lateral position W1 is estimated from the comparison between the candidate point PA on the left lane line of the road image and the left lane line LA in the map information. That is, the lateral position estimation unit 13 matches the position of the candidate point PA of the left lane line of the road surface image that is a relative position with respect to the vehicle M with the left lane line LA of the map information, thereby A first lateral position W1, which is a lateral position, is estimated. At this time, the lateral position estimation unit 13 need not consider collation of the right lane marking of the road surface image.

図3(b)は、路面画像の右の区画線と地図情報の右の区画線とを照合した場合を示す平面図である。図3(b)に示すように、横位置推定部13は、第1の横位置W1を推定した場合、路面画像の右の区画線の候補点PBと地図情報の右の区画線LBとの照合から第2の横位置W2を推定する。このとき、横位置推定部13は、路面画像の左の区画線の照合を考慮する必要はない。なお、第1の横位置W1と第2の横位置W2の何れを先に推定してもよい。   FIG. 3B is a plan view showing a case where the right lane line of the road surface image is collated with the right lane line of the map information. As shown in FIG. 3B, when the first lateral position W1 is estimated, the lateral position estimating unit 13 determines whether the right lane line candidate point PB of the road surface image and the right lane line LB of the map information. A second lateral position W2 is estimated from the verification. At this time, the lateral position estimation unit 13 does not need to consider collation of the left marking line of the road surface image. Note that either the first lateral position W1 or the second lateral position W2 may be estimated first.

差判定部14は、横位置推定部13により第1の横位置W1及び第2の横位置W2が推定された場合、第1の横位置W1と第2の横位置W2との差が判定閾値以上であるか否かを判定する。判定閾値は予め設定された閾値である。判定閾値は例えば区画線の照合で許容される許容誤差を考慮して設定することができる。   When the first lateral position W1 and the second lateral position W2 are estimated by the lateral position estimating unit 13, the difference determining unit 14 determines the difference between the first lateral position W1 and the second lateral position W2 as a determination threshold value. It is determined whether it is above. The determination threshold is a preset threshold. The determination threshold value can be set in consideration of, for example, an allowable error that is permitted in the lane marking verification.

差判定部14は、第1の横位置W1と第2の横位置W2との差が判定閾値以上であると判定した場合、路面画像から左右の区画線の幅形状である認識幅形状を認識する。幅形状とは、路面画像から認識された左右の区画線の幅(車線幅)に着目した走行車線の形状であり、走行車線の延在方向における左右の区画線の幅の変化に対応する。認識幅形状とは、路面画像から認識された左右の区画線の幅形状の意味である。   When determining that the difference between the first lateral position W1 and the second lateral position W2 is equal to or greater than the determination threshold, the difference determination unit 14 recognizes a recognition width shape that is the width shape of the left and right lane markings from the road surface image. To do. The width shape is a shape of the traveling lane focusing on the width (lane width) of the left and right lane lines recognized from the road surface image, and corresponds to a change in the width of the left and right lane lines in the extending direction of the traveling lane. The recognized width shape means the width shape of the left and right lane markings recognized from the road surface image.

ここで、図3(c)は、路面画像に基づく左右の区画線の幅形状の認識を説明するための平面図である。図3(c)に、路面画像から認識された左の区画線の近似線FA及び路面画像から認識された左の区画線の近似線FBを示す。左の区画線の近似線FAは、左の区画線の候補点PAに対応する近似線である。同様に、右の区画線の近似線FBは、右の区画線の候補点PBに対応する近似線である。図3(c)に示すように、差判定部14は、路面画像から左右の区画線の近似線FA,FBを認識することで、左右の区画線の近似線FA,FBの幅(車線幅)WDを認識する。   Here, FIG.3 (c) is a top view for demonstrating recognition of the width shape of the left and right division lines based on a road surface image. FIG. 3C shows an approximate line FA of the left lane line recognized from the road surface image and an approximate line FB of the left lane line recognized from the road surface image. The approximate line FA of the left lane line is an approximate line corresponding to the candidate point PA of the left lane line. Similarly, the approximate line FB of the right plot line is an approximate line corresponding to the candidate point PB of the right plot line. As shown in FIG. 3C, the difference determination unit 14 recognizes the approximate lines FA and FB of the left and right lane markings from the road surface image, so that the width (lane width) of the approximate lines FA and FB of the left and right lane markings. ) Recognize WD.

図4(a)は、路面画像の認識幅形状の一例を示す図である。図4(a)に示すように、差判定部14は、走行車線の延在方向における幅WDの変化を幅形状として認識幅形状を認識する。   FIG. 4A is a diagram illustrating an example of a recognized width shape of a road surface image. As shown to Fig.4 (a), the difference determination part 14 recognizes a recognition width shape by making the change of the width WD in the extending direction of a driving lane into a width shape.

差判定部14は、一例として、路面画像から認識された車両Mの近傍の幅WDを記憶することにより、車両Mの走行に伴って得られた幅WDの変化から左右の区画線の認識幅形状を認識する。差判定部14は、第1の横位置W1と第2の横位置W2との差が判定閾値以上であると判定した場合、幅WDの記憶を開始する。その後、差判定部14は、横位置推定部13により路面画像の左右の区画線と地図情報の左右の区画線との照合値のピークが2個以上ないと判定された場合、又は、第1の横位置W1と第2の横位置W2との差が判定閾値以上ではないと判定した場合に、幅WDの記憶を終了する。差判定部14は、記憶した幅WDの変化(推移)から認識幅形状を認識する。   For example, the difference determination unit 14 stores the width WD in the vicinity of the vehicle M recognized from the road surface image, so that the recognition width of the left and right lane markings can be determined from the change in the width WD obtained as the vehicle M travels. Recognize the shape. When the difference determination unit 14 determines that the difference between the first lateral position W1 and the second lateral position W2 is equal to or greater than the determination threshold, the difference determination unit 14 starts storing the width WD. After that, the difference determination unit 14 determines that the lateral position estimation unit 13 determines that there are not two or more matching value peaks between the left and right lane markings of the road image and the map information left or right, or the first When it is determined that the difference between the horizontal position W1 and the second horizontal position W2 is not greater than or equal to the determination threshold, the storage of the width WD is terminated. The difference determination unit 14 recognizes the recognized width shape from the stored change (transition) of the width WD.

なお、差判定部14は、必ずしも継続的な幅WDの記憶を行う必要はない。差判定部14は、一度の撮像で得られた路面画像から認識幅形状を認識してもよい。すなわち、差判定部14は、一度の撮像で得られた路面画像に含まれる左右の区画線(ある程度の長さの区画線)から走行車線の延在方向における幅形状の変化を画像処理で認識することで、認識幅形状を認識してもよい。   Note that the difference determination unit 14 does not necessarily need to continuously store the width WD. The difference determination unit 14 may recognize the recognition width shape from the road surface image obtained by one imaging. That is, the difference determination unit 14 recognizes the change in the width shape in the extending direction of the traveling lane from the left and right lane markings (a lane marking of a certain length) included in the road surface image obtained by one imaging. By doing so, the recognition width shape may be recognized.

比較対象範囲設定部15は、差判定部14により第1の横位置W1と第2の横位置W2との差が判定閾値以上であると判定された場合、車両位置認識部11の認識した車両Mの地図上の位置に基づいて、横位置推定部13の照合に用いられた地図上の走行車線上の範囲を含み当該範囲より大きい比較対象範囲を設定する。比較対象範囲とは、差判定部14の認識した認識幅形状との比較を行う地図上の範囲である。   When the difference determination unit 14 determines that the difference between the first lateral position W1 and the second lateral position W2 is greater than or equal to the determination threshold, the comparison target range setting unit 15 recognizes the vehicle recognized by the vehicle position recognition unit 11. Based on the position of M on the map, the comparison target range including the range on the travel lane on the map used for the collation of the lateral position estimation unit 13 is set. The comparison target range is a range on the map for comparison with the recognized width shape recognized by the difference determination unit 14.

比較対象範囲設定部15は、一例として、車両Mの縦位置誤差に基づいて、比較対象範囲を設定する。車両Mの縦位置誤差とは、車速センサ3の検出した車速情報及びヨーレートセンサ4の検出したヨーレート情報を用いて車両Mの地図上の位置を認識するに際し、車速センサ3及びヨーレートセンサ4の検出誤差によって生じる走行車線の延在方向における位置誤差である。車両Mの縦位置誤差は、周知の手法により車速センサ3及びヨーレートセンサ4の検出誤差から演算される。車両Mの縦位置誤差は、車速センサ3及びヨーレートセンサ4の検出誤差に加えて、車両Mの走行軌跡(自車推定軌跡)を考慮して求められてもよい。   For example, the comparison target range setting unit 15 sets a comparison target range based on the vertical position error of the vehicle M. The vertical position error of the vehicle M is the detection of the vehicle speed sensor 3 and the yaw rate sensor 4 when recognizing the position of the vehicle M on the map using the vehicle speed information detected by the vehicle speed sensor 3 and the yaw rate information detected by the yaw rate sensor 4. This is a position error in the extending direction of the traveling lane caused by the error. The vertical position error of the vehicle M is calculated from detection errors of the vehicle speed sensor 3 and the yaw rate sensor 4 by a known method. The vertical position error of the vehicle M may be obtained in consideration of the traveling locus of the vehicle M (the own vehicle estimated locus) in addition to the detection errors of the vehicle speed sensor 3 and the yaw rate sensor 4.

比較対象範囲設定部15は、車両Mの縦位置誤差が大きいほど、比較対象範囲を大きい範囲として設定する。比較対象範囲設定部15は、一例として、差判定部14により幅WDが記憶された範囲の前後に、縦位置誤差に対応する長さの範囲を追加して比較対象範囲を設定する。比較対象範囲設定部15は、設定した比較対象範囲の幅形状である地図幅形状を認識する。   The comparison target range setting unit 15 sets the comparison target range as a larger range as the vertical position error of the vehicle M is larger. For example, the comparison target range setting unit 15 sets a comparison target range by adding a length range corresponding to the vertical position error before and after the range in which the width WD is stored by the difference determination unit 14. The comparison target range setting unit 15 recognizes the map width shape that is the width shape of the set comparison target range.

ここで、図4(b)は、比較対象範囲における地図幅形状の第1の例を示す図である。図4(b)に、比較対象範囲C、差判定部14により幅WDが記憶された範囲に対応する基準範囲C1、縦位置誤差に対応する前方追加範囲C2、縦位置誤差に対応する後方追加範囲C3を示す。比較対象範囲Cは、基準範囲C1及び前方追加範囲C2及び後方追加範囲C3に分けられる。基準範囲C1は、横位置推定部13の照合に用いられた地図上の走行車線上の範囲に相当する。   Here, FIG.4 (b) is a figure which shows the 1st example of the map width shape in a comparison object range. 4B, the comparison target range C, the reference range C1 corresponding to the range in which the width WD is stored by the difference determination unit 14, the forward additional range C2 corresponding to the vertical position error, and the backward addition corresponding to the vertical position error. A range C3 is indicated. The comparison target range C is divided into a reference range C1, a front additional range C2, and a rear additional range C3. The reference range C1 corresponds to the range on the travel lane on the map used for collation by the lateral position estimation unit 13.

図4(b)において、基準範囲C1及び前方追加範囲C2における幅WM1は同じ長さである。一方、後方追加範囲C3の幅WM2は幅WM1より小さい幅であり、途中で幅が幅WM1にまで拡大する車線形状となっている。後方追加範囲C3の幅WM2は、図4(a)に示す路面画像から認識された左右の区画線の幅WDと同等の長さである。また、図4(b)に一致範囲CTを示す。一致範囲CTは、図4(a)に示す認識幅形状と一致する幅形状の範囲である。詳しくは後述する。   In FIG. 4B, the width WM1 in the reference range C1 and the front additional range C2 is the same length. On the other hand, the width WM2 of the rear additional range C3 is smaller than the width WM1, and has a lane shape in which the width increases to the width WM1 in the middle. The width WM2 of the rear additional range C3 is the same length as the width WD of the left and right lane markings recognized from the road surface image shown in FIG. FIG. 4B shows the coincidence range CT. The coincidence range CT is a range of a width shape that matches the recognized width shape shown in FIG. Details will be described later.

比較対象範囲設定部15は、車両Mの縦位置誤差に基づいて基準範囲C1の前後に前方追加範囲C2及び後方追加範囲C3を追加することで、比較対象範囲Cを設定する。比較対象範囲設定部15は、車両Mの縦位置誤差が大きいほど前方追加範囲C2及び後方追加範囲C3として長い範囲を追加する。   The comparison target range setting unit 15 sets the comparison target range C by adding the front additional range C2 and the rear additional range C3 before and after the reference range C1 based on the vertical position error of the vehicle M. The comparison target range setting unit 15 adds longer ranges as the front additional range C2 and the rear additional range C3 as the vertical position error of the vehicle M increases.

なお、比較対象範囲設定部15は、必ずしも縦位置誤差に基づいて比較対象範囲Cの設定を行う必要はない。比較対象範囲設定部15は、車両位置認識部11の認識した車両Mの地図上の位置から前後方向に一定距離の範囲を比較対象範囲Cとしてもよい。   Note that the comparison target range setting unit 15 does not necessarily need to set the comparison target range C based on the vertical position error. The comparison target range setting unit 15 may set a range of a certain distance in the front-rear direction from the position on the map of the vehicle M recognized by the vehicle position recognition unit 11 as the comparison target range C.

一致判定部16は、差判定部14により第1の横位置W1と第2の横位置W2との差が判定閾値以上であると判定された場合に、比較対象範囲Cにおける地図情報の左右の区画線の幅形状である地図幅形状の中に路面画像から認識した認識幅形状と一致する部分があるか否かを判定する。   When the difference determination unit 14 determines that the difference between the first horizontal position W1 and the second horizontal position W2 is equal to or greater than the determination threshold, the match determination unit 16 determines whether the map information in the comparison target range C It is determined whether or not there is a portion that matches the recognized width shape recognized from the road surface image in the map width shape that is the width shape of the lane marking.

一致判定部16は、図4(b)に示す状況において、比較対象範囲Cには図4(a)に示す認識幅形状と幅形状が一致する一致範囲CTが含まれていることから、比較対象範囲Cにおける地図幅形状の中に路面画像から認識した認識幅形状と一致する部分があると判定する。   In the situation shown in FIG. 4B, the coincidence determination unit 16 compares the comparison target range C with the coincidence range CT in which the recognized width shape matches the width shape shown in FIG. It is determined that there is a part in the map width shape in the target range C that matches the recognized width shape recognized from the road surface image.

一方、図4(c)は、比較対象範囲Cにおける地図幅形状の第2の例を示す図である。図4(c)に示す比較対象範囲Cでは、車線幅が変わる箇所が存在せず、走行車線の延在方向で一律の幅WMを有する地図幅形状となっている。一致判定部16は、図4(c)に示す状況において、比較対象範囲Cには図4(a)に示す認識幅形状と幅形状が一致する範囲(部分)が存在しないため、比較対象範囲Cにおける地図幅形状の中に路面画像から認識した認識幅形状と一致する部分がないと判定する。   On the other hand, FIG. 4C is a diagram illustrating a second example of the map width shape in the comparison target range C. In the comparison target range C shown in FIG. 4C, there is no place where the lane width changes, and the map width shape has a uniform width WM in the extending direction of the traveling lane. In the situation shown in FIG. 4C, the coincidence determination unit 16 does not include a range (part) where the recognized width shape and the width shape shown in FIG. It is determined that there is no portion in the map width shape in C that matches the recognized width shape recognized from the road surface image.

縦位置誤差算出部17は、一致判定部16により比較対象範囲Cにおける地図幅形状の中に路面画像から認識した認識幅形状と一致する部分があると判定された場合、車両Mの縦位置誤差に起因して照合の不一致が生じていたと判断できることから、車両Mの縦位置誤差を算出する。縦位置誤差算出部17は、地図幅形状の中の認識幅形状と一致する部分から車両Mの縦位置誤差を算出する。   When the coincidence determination unit 16 determines that the map width shape in the comparison target range C has a portion that matches the recognized width shape recognized from the road surface image, the vertical position error calculation unit 17 determines the vertical position error of the vehicle M. Therefore, the vertical position error of the vehicle M is calculated. The vertical position error calculation unit 17 calculates the vertical position error of the vehicle M from a portion that matches the recognized width shape in the map width shape.

縦位置誤差算出部17は、図4(b)に示す状況において、基準範囲C1ではなく一致範囲CTに車両Mが位置すると言えることから、地図上における一致範囲CTに応じて車両Mの縦位置誤差を算出する。縦位置誤差算出部17は、一例として、図3(c)及び図4(a)における左右の区画線に対する車両Mの位置と図4(b)における一致範囲CTに当てはめることで、車両Mの縦位置誤差を算出することができる。縦位置誤差の算出方法は特に限定されない。   In the situation shown in FIG. 4B, the vertical position error calculation unit 17 can be said that the vehicle M is positioned in the matching range CT instead of the reference range C1, and therefore the vertical position of the vehicle M according to the matching range CT on the map. Calculate the error. As an example, the vertical position error calculation unit 17 applies the position of the vehicle M with respect to the left and right lane markings in FIGS. 3C and 4A and the coincidence range CT in FIG. The vertical position error can be calculated. The method for calculating the vertical position error is not particularly limited.

区画線変更認識部18は、一致判定部16により比較対象範囲Cにおける地図幅形状の中に路面画像から認識した認識幅形状と一致する部分があると判定されなかった場合、地図情報の生成時から区画線が変更されたと認識する。区画線変更認識部18は、路面画像の左右の区画線と地図情報の左右の区画線の不整合が生じる原因として車両Mの縦位置誤差及び塗り直しによる区画線の変化が考えられるところ、照合対象であった基準範囲C1より大きい比較対象範囲Cと比較しても認識幅形状と一致する部分が存在しないことから、区画線の塗り直しにより地図情報の生成時から区画線が変更されたと認識する。   When the coincidence determination unit 16 does not determine that the map width shape in the comparison target range C matches the recognition width shape recognized from the road surface image, the lane marking change recognition unit 18 generates map information. It is recognized that the lane marking has been changed. The lane line change recognizing unit 18 performs collation where the vertical position error of the vehicle M and a change in the lane line due to repainting are considered as causes of inconsistency between the left and right lane lines in the road surface image and the left and right lane lines in the map information. Even when compared with the comparison target range C that is larger than the reference range C1, which is the target, there is no portion that matches the recognized width shape, so it is recognized that the lane line has been changed since the generation of the map information by repainting the lane line. To do.

区画線変更認識部18は、地図情報の生成時から区画線が変更されたと認識した場合、認識結果を出力する。出力対象は特に限定されず、自動運転システム、運転支援システム、地図情報を管理する地図管理サーバーなどへ出力することができる。   When the lane marking change recognition unit 18 recognizes that the lane marking has been changed since the generation of the map information, the lane marking change recognition unit 18 outputs a recognition result. The output target is not particularly limited, and can be output to an automatic driving system, a driving support system, a map management server that manages map information, or the like.

[自車位置推定装置の処理]
以下、本実施形態に係る自車位置推定装置100の処理について図面を参照して説明する。図5は、車線幅の記憶開始処理を示すフローチャートである。図5に示すフローチャートは、車両Mの走行中に実行される。
[Processing of own vehicle position estimation device]
Hereinafter, the process of the vehicle position estimation apparatus 100 according to the present embodiment will be described with reference to the drawings. FIG. 5 is a flowchart showing a lane width storage start process. The flowchart shown in FIG. 5 is executed while the vehicle M is traveling.

図5に示すように、自車位置推定装置100のECU10は、S10として、路面画像生成部12による路面画像の生成を行う。路面画像生成部12は、カメラ2の撮像画像に基づいて、車両の走行する走行車線の左右の区画線を含む路面画像を生成する。その後、ECU10はS12に移行する。   As shown in FIG. 5, the ECU 10 of the vehicle position estimation device 100 generates a road surface image by the road surface image generation unit 12 as S10. The road surface image generation unit 12 generates a road surface image including the left and right lane markings of the travel lane on which the vehicle travels based on the captured image of the camera 2. Thereafter, the ECU 10 proceeds to S12.

S12において、ECU10は、横位置推定部13により路面画像に含まれる走行車線の左右の区画線と地図データベース5の地図情報に含まれる走行車線の左右の区画線との照合を行う。その後、ECU10はS14に移行する。   In S <b> 12, the ECU 10 collates the left and right lane markings of the traveling lane included in the road surface image with the left and right lane markings of the traveling lane included in the map information of the map database 5 by the lateral position estimation unit 13. Thereafter, the ECU 10 proceeds to S14.

S14において、ECU10は、横位置推定部13により照合値のピークが2個以上あるか否かを判定する。横位置推定部13は、路面画像の左右の区画線と地図情報の左右の区画線との照合結果に基づいて、照合値のピークが2個以上あるか否かを判定する。ECU10は、照合値のピークが2個以上あると判定されなかった場合(S14:NO)、今回の処理を終了する。ECU10は、一定時間の経過後、S10から処理を繰り返す。ECU10は、照合値のピークが2個以上あると判定された場合(S14:YES)、S16に移行する。   In S <b> 14, the ECU 10 determines whether the lateral position estimation unit 13 has two or more verification value peaks. The lateral position estimation unit 13 determines whether or not there are two or more matching value peaks based on a matching result between the left and right lane markings of the road surface image and the left and right lane markings of the map information. If it is not determined that there are two or more peaks of the collation value (S14: NO), the ECU 10 ends the current process. The ECU 10 repeats the process from S10 after a predetermined time has elapsed. If it is determined that there are two or more verification value peaks (S14: YES), the ECU 10 proceeds to S16.

S16において、ECU10は、横位置推定部13により第1の横位置W1及び第2の横位置W2を推定する。横位置推定部13は、路面画像の左の区画線の候補点PAと地図情報の左の区画線LAとの照合から第1の横位置W1を推定する。横位置推定部13は、路面画像の右の区画線の候補点PBと地図情報の右の区画線LBとの照合から第2の横位置W2を推定する。その後、ECU10はS18に移行する。   In S16, the ECU 10 estimates the first lateral position W1 and the second lateral position W2 by the lateral position estimation unit 13. The lateral position estimation unit 13 estimates the first lateral position W1 from matching between the candidate point PA on the left lane line of the road image and the left lane line LA in the map information. The lateral position estimation unit 13 estimates the second lateral position W2 from collation between the right lane line candidate point PB of the road surface image and the right lane line LB of the map information. Thereafter, the ECU 10 proceeds to S18.

S18において、ECU10は、差判定部14により第1の横位置W1と第2の横位置W2との差が判定閾値以上であるか否かを判定する。ECU10は、第1の横位置W1と第2の横位置W2との差が判定閾値以上ではないと判定された場合(S18:NO)、今回の処理を終了する。ECU10は、一定時間の経過後、S10から処理を繰り返す。ECU10は、第1の横位置W1と第2の横位置W2との差が判定閾値以上であると判定された場合(S18:YES)、S20に移行する。   In S18, the ECU 10 determines whether the difference between the first lateral position W1 and the second lateral position W2 is greater than or equal to a determination threshold by the difference determination unit 14. When it is determined that the difference between the first lateral position W1 and the second lateral position W2 is not equal to or greater than the determination threshold (S18: NO), the ECU 10 ends the current process. The ECU 10 repeats the process from S10 after a predetermined time has elapsed. When it is determined that the difference between the first lateral position W1 and the second lateral position W2 is equal to or greater than the determination threshold (S18: YES), the ECU 10 proceeds to S20.

S20において、ECU10は、差判定部14により車線幅の記憶を開始する。車線幅の記憶は、後述する幅形状比較処理で記憶の終了となるまで継続される。車線幅の記憶を開始した後、S21において、ECU10は幅形状比較処理を開始する。   In S20, the ECU 10 causes the difference determination unit 14 to start storing the lane width. The storage of the lane width is continued until the storage ends in the width shape comparison process described later. After starting the storage of the lane width, in S21, the ECU 10 starts a width shape comparison process.

図6は、幅形状比較処理を示すフローチャートである。図6に示すS30〜S38は、図5に示すS10〜S18と同じ処理であるため説明を省略する。   FIG. 6 is a flowchart showing the width shape comparison process. S30 to S38 shown in FIG. 6 are the same processes as S10 to S18 shown in FIG.

図6に示すように、ECU10は、S34において、照合値のピークが2個以上あると判定されなかった場合(S34:NO)、S40に移行する。また、ECU10は、S38において、第1の横位置W1と第2の横位置W2との差が判定閾値以上であると判定されなかった場合(S38:NO)、S40に移行する。なお、ECU10は、S38において、第1の横位置W1と第2の横位置W2との差が判定閾値以上であると判定された場合(S38:YES)、S30に戻って処理を繰り返す。   As shown in FIG. 6, when it is not determined in S34 that there are two or more verification value peaks (S34: NO), the ECU 10 proceeds to S40. If the ECU 10 does not determine in S38 that the difference between the first lateral position W1 and the second lateral position W2 is greater than or equal to the determination threshold (S38: NO), the ECU 10 proceeds to S40. When it is determined in S38 that the difference between the first lateral position W1 and the second lateral position W2 is equal to or greater than the determination threshold value (S38: YES), the ECU 10 returns to S30 and repeats the process.

S40において、ECU10は、差判定部14による車線幅の記憶を終了させると共に、比較対象範囲設定部15により比較対象範囲Cを設定する。比較対象範囲設定部15は、車両位置認識部11の認識した車両Mの地図上の位置に基づいて、横位置推定部13の照合に用いられた地図上の走行車線上の範囲(基準範囲C1)を含み当該範囲より大きい比較対象範囲Cを設定する。比較対象範囲設定部15は、車速センサ3及びヨーレートセンサ4の検出誤差に起因する車両Mの縦位置誤差に応じて比較対象範囲Cを設定する。その後、ECU10は、S42に移行する。   In S <b> 40, the ECU 10 ends the storage of the lane width by the difference determination unit 14 and sets the comparison target range C by the comparison target range setting unit 15. Based on the position of the vehicle M recognized by the vehicle position recognizing unit 11 on the map, the comparison target range setting unit 15 determines the range (reference range C1) on the travel lane on the map used for the collation of the lateral position estimating unit 13. ) And a comparison target range C larger than the range is set. The comparison target range setting unit 15 sets the comparison target range C according to the vertical position error of the vehicle M caused by the detection errors of the vehicle speed sensor 3 and the yaw rate sensor 4. Thereafter, the ECU 10 proceeds to S42.

S42において、ECU10は、一致判定部16により比較対象範囲Cにおける地図幅形状の中に路面画像から認識した認識幅形状と一致する部分があるか否かを判定する。ECU10は、比較対象範囲Cにおける地図幅形状の中に路面画像から認識した認識幅形状と一致する部分があると判定された場合(S42:YES)、S44に移行する。ECU10は、比較対象範囲Cにおける地図幅形状の中に路面画像から認識した認識幅形状と一致する部分があると判定されなかった場合(S42:NO)、S46に移行する。   In S <b> 42, the ECU 10 determines whether or not there is a portion in the map width shape in the comparison target range C that matches the recognized width shape recognized from the road surface image by the match determination unit 16. When it is determined that there is a portion in the map width shape in the comparison target range C that matches the recognized width shape recognized from the road surface image (S42: YES), the ECU 10 proceeds to S44. If it is not determined that the map width shape in the comparison target range C has a portion that matches the recognized width shape recognized from the road surface image (S42: NO), the ECU 10 proceeds to S46.

S44において、ECU10は、縦位置誤差算出部17により地図幅形状の中の認識幅形状と一致する部分から車両Mの縦位置誤差を算出する。その後、ECU10は今回の処理を終了して一定時間の経過後に図5のS10に戻って処理を繰り返す。   In S <b> 44, the ECU 10 calculates the vertical position error of the vehicle M from the portion that matches the recognized width shape in the map width shape by the vertical position error calculation unit 17. Thereafter, the ECU 10 ends the current process and returns to S10 in FIG. 5 after a predetermined time has elapsed to repeat the process.

S46において、ECU10は、区画線変更認識部18により地図情報の生成時から区画線が変更されたと認識する。ECU10は、地図情報の生成時から区画線が変更されたとの認識結果を自動運転システムなどに出力する。その後、ECU10は今回の処理を終了して一定時間の経過後に図5のS10に戻って処理を繰り返す。   In S <b> 46, the ECU 10 recognizes that the lane line has been changed by the lane line change recognition unit 18 since the map information was generated. The ECU 10 outputs a recognition result that the lane marking has been changed since the generation of the map information to an automatic driving system or the like. Thereafter, the ECU 10 ends the current process and returns to S10 in FIG. 5 after a predetermined time has elapsed to repeat the process.

[自車位置推定装置の作用効果]
以上説明した本実施形態に係る自車位置推定装置100によれば、第1の横位置W1と第2の横位置W2との差が判定閾値以上であると判定された場合、路面画像の左右の区画線と地図情報の左右の区画線の不整合が生じる原因として車両Mの縦位置誤差及び塗り直しによる区画線の変化が考えられるところ、照合対象であった基準範囲C1より大きい比較対象範囲Cと比較しても認識幅形状と一致する部分が存在しないときには、区画線の塗り直しにより地図情報の生成時から区画線が変更されたと認識することができる。また、自車位置推定装置100によれば、比較対象範囲Cと比較して認識幅形状と一致する部分があった場合には、一致する部分から車両Mの縦位置誤差を算出することができる。
[Operational effect of own vehicle position estimation device]
According to the vehicle position estimation device 100 according to the present embodiment described above, when it is determined that the difference between the first lateral position W1 and the second lateral position W2 is greater than or equal to the determination threshold value, As a cause of inconsistency between the lane marking and the left and right lane markings in the map information, the vertical position error of the vehicle M and the change in the lane marking due to repainting can be considered. If there is no portion that matches the recognized width shape even when compared with C, it can be recognized that the lane line has been changed since the generation of the map information by repainting the lane line. In addition, according to the vehicle position estimation device 100, when there is a portion that matches the recognized width shape as compared with the comparison target range C, the vertical position error of the vehicle M can be calculated from the matching portion. .

以上、本発明の好適な実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。本発明は、上述した実施形態を始めとして、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。   As mentioned above, although preferred embodiment of this invention was described, this invention is not limited to embodiment mentioned above. The present invention can be implemented in various forms including various modifications and improvements based on the knowledge of those skilled in the art including the above-described embodiments.

例えば、自車位置推定装置100は、必ずしも照合値のピークが2個以上あるか否かを判定する必要はない。自車位置推定装置100は、照合値のピークに関わらず、左の区画線と右の区画線とを分けて第1の横位置W1及び第2の横位置W2を推定し、差判定部14の判定を行ってもよい。また、縦位置誤差算出部17による縦位置誤差の算出は必須ではない。ECU10は、少なくとも区画線変更認識部18により地図情報の生成時から区画線が変化したか否かを認識できればよい。   For example, the host vehicle position estimation apparatus 100 does not necessarily have to determine whether there are two or more verification value peaks. The vehicle position estimation device 100 estimates the first lateral position W1 and the second lateral position W2 by dividing the left lane line and the right lane line regardless of the peak of the collation value, and the difference determination unit 14 The determination may be made. Further, the calculation of the vertical position error by the vertical position error calculation unit 17 is not essential. ECU10 should just recognize whether the lane line changed from the time of the generation of map information by the lane line change recognition part 18 at least.

1…GPS受信部、2…カメラ、3…車速センサ、4…ヨーレートセンサ、5…地図データベース、10…ECU、11…車両位置認識部、12…路面画像生成部、13…横位置推定部、14…差判定部、15…比較対象範囲設定部、16…一致判定部、17…縦位置誤差算出部、18…区画線変更認識部、100…自車位置推定装置。   DESCRIPTION OF SYMBOLS 1 ... GPS receiving part, 2 ... Camera, 3 ... Vehicle speed sensor, 4 ... Yaw rate sensor, 5 ... Map database, 10 ... ECU, 11 ... Vehicle position recognition part, 12 ... Road surface image generation part, 13 ... Lateral position estimation part, DESCRIPTION OF SYMBOLS 14 ... Difference determination part, 15 ... Comparison object range setting part, 16 ... Match determination part, 17 ... Vertical position error calculation part, 18 ... Dividing line change recognition part, 100 ... Own vehicle position estimation apparatus.

Claims (1)

車両の地図上の位置を推定する自車位置推定装置であって、
前記車両に搭載された測定部の測定結果に基づいて、前記車両の地図上の位置を認識する車両位置認識部と、
前記車両のカメラの撮像画像に基づいて、前記車両の走行車線の左右の区画線を含む路面画像を生成する路面画像生成部と、
区画線の位置情報を含む地図情報を記憶する地図データベースと、
前記路面画像に含まれる前記走行車線の左の区画線と前記地図情報に含まれる前記走行車線の左の区画線との照合により、前記車両の地図上の横位置である第1の横位置を推定すると共に、前記路面画像に含まれる前記走行車線の右の区画線と前記地図情報に含まれる前記走行車線の右の区画線との照合により、前記車両の地図上の横位置である第2の横位置を推定する横位置推定部と、
前記第1の横位置と前記第2の横位置との差が判定閾値以上であるか否かを判定する差判定部と、
前記車両位置認識部の認識した前記車両の地図上の位置に基づいて、前記照合に用いられた地図上の前記走行車線上の範囲を含み当該範囲より大きい比較対象範囲を設定する比較対象範囲設定部と、
前記差判定部により前記第1の横位置と前記第2の横位置との差が前記判定閾値以上であると判定された場合に、前記比較対象範囲における前記地図情報の前記左右の区画線の幅形状である地図幅形状の中に前記路面画像から認識した前記左右の区画線の幅形状である認識幅形状と一致する部分があるか否かを判定する一致判定部と、
前記一致判定部により前記地図幅形状の中に前記認識幅形状と一致する部分があると判定された場合に、前記地図幅形状の中の前記認識幅形状と一致する部分から前記車両の縦位置誤差を算出する縦位置誤差算出部と、
前記一致判定部により前記地図幅形状の中に前記認識幅形状と一致する部分がないと判定された場合に、前記地図情報の生成時から前記区画線が変更されたと認識する区画線変更認識部と、
を備える、自車位置推定装置。
A vehicle position estimation device for estimating a position of a vehicle on a map,
A vehicle position recognition unit for recognizing a position of the vehicle on a map based on a measurement result of a measurement unit mounted on the vehicle;
A road surface image generation unit that generates a road surface image including left and right lane markings of the traveling lane of the vehicle, based on a captured image of the vehicle camera;
A map database for storing map information including location information of lane markings;
By collating the left lane line of the travel lane included in the road image with the left lane line of the travel lane included in the map information, a first lateral position that is a lateral position on the map of the vehicle is determined. A second position which is a lateral position on the map of the vehicle by estimating and comparing the right lane line of the travel lane included in the road surface image with the right lane line of the travel lane included in the map information. A lateral position estimation unit for estimating the lateral position of
A difference determination unit that determines whether or not a difference between the first lateral position and the second lateral position is greater than or equal to a determination threshold;
Comparison target range setting that sets a comparison target range that includes a range on the travel lane on the map used for the collation and that is larger than the range based on the position of the vehicle recognized by the vehicle position recognition unit And
When the difference determination unit determines that the difference between the first horizontal position and the second horizontal position is equal to or greater than the determination threshold, the left and right division lines of the map information in the comparison target range A match determination unit that determines whether or not there is a portion that matches the recognized width shape that is the width shape of the left and right lane markings recognized from the road surface image in the map width shape that is a width shape;
When it is determined by the coincidence determination unit that there is a portion that matches the recognized width shape in the map width shape, the vertical position of the vehicle from the portion that matches the recognized width shape in the map width shape A vertical position error calculation unit for calculating an error;
A lane line change recognition unit that recognizes that the lane line has been changed since the generation of the map information when the match determination unit determines that there is no portion that matches the recognition width shape in the map width shape. When,
A vehicle position estimation device comprising:
JP2018016517A 2018-02-01 2018-02-01 Vehicle position estimating device Pending JP2019132762A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018016517A JP2019132762A (en) 2018-02-01 2018-02-01 Vehicle position estimating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018016517A JP2019132762A (en) 2018-02-01 2018-02-01 Vehicle position estimating device

Publications (1)

Publication Number Publication Date
JP2019132762A true JP2019132762A (en) 2019-08-08

Family

ID=67546057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018016517A Pending JP2019132762A (en) 2018-02-01 2018-02-01 Vehicle position estimating device

Country Status (1)

Country Link
JP (1) JP2019132762A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021208110A1 (en) * 2020-04-18 2021-10-21 华为技术有限公司 Method for determining lane line recognition abnormal event, and lane line recognition apparatus and system
CN114364943A (en) * 2019-09-05 2022-04-15 株式会社电装 Vehicle position specifying device and vehicle position specifying method
US12085408B2 (en) 2021-03-25 2024-09-10 Toyota Jidosha Kabushiki Kaisha Vehicle position estimation device, vehicle position estimation method, and non-transitory recording medium
JP7556315B2 (en) 2021-03-25 2024-09-26 トヨタ自動車株式会社 Vehicle position estimation device, vehicle position estimation method, and computer program for vehicle position estimation

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114364943A (en) * 2019-09-05 2022-04-15 株式会社电装 Vehicle position specifying device and vehicle position specifying method
DE112020004203T5 (en) 2019-09-05 2022-06-09 Denso Corporation Vehicle positioning device and vehicle positioning method
US11959752B2 (en) 2019-09-05 2024-04-16 Denso Corporation Vehicular position specification apparatus and vehicular position specification method
CN114364943B (en) * 2019-09-05 2024-09-10 株式会社电装 Vehicle position determination device and vehicle position determination method
WO2021208110A1 (en) * 2020-04-18 2021-10-21 华为技术有限公司 Method for determining lane line recognition abnormal event, and lane line recognition apparatus and system
US12085408B2 (en) 2021-03-25 2024-09-10 Toyota Jidosha Kabushiki Kaisha Vehicle position estimation device, vehicle position estimation method, and non-transitory recording medium
JP7556315B2 (en) 2021-03-25 2024-09-26 トヨタ自動車株式会社 Vehicle position estimation device, vehicle position estimation method, and computer program for vehicle position estimation

Similar Documents

Publication Publication Date Title
JP6870604B2 (en) Self-position estimator
JP4392389B2 (en) Vehicle and lane recognition device
JP5747787B2 (en) Lane recognition device
JP6776707B2 (en) Own vehicle position estimation device
US10267640B2 (en) Vehicle position estimation device, vehicle position estimation method
JP5966747B2 (en) Vehicle travel control apparatus and method
JP7143722B2 (en) Vehicle position estimation device
KR102086270B1 (en) Control method and traveling control device of the traveling control device
JP6142707B2 (en) Vehicle position correction device
JP6407447B1 (en) Traveling path recognition device and traveling path recognition method
US11415999B2 (en) Traveling control system and method of autonomous vehicle
JP6261832B1 (en) Traveling path recognition device and traveling path recognition method
US20190346273A1 (en) Host vehicle position estimation device
JP6911312B2 (en) Object identification device
JP4702149B2 (en) Vehicle positioning device
JP2019132762A (en) Vehicle position estimating device
JP2019066193A (en) Own vehicle position detection device
JP6836446B2 (en) Vehicle lane estimation device
JP6539129B2 (en) Vehicle position estimation device, steering control device using the same, and vehicle position estimation method
CN113306559A (en) Compensation for vertical road camber in road shape estimation
JP2020008462A (en) Own vehicle location estimation device
JP7234840B2 (en) position estimator
US11156466B2 (en) Lane determination device
CN113795726B (en) Self-position correction method and self-position correction device
JP6037351B2 (en) Vehicle image processing apparatus and vehicle image processing method