JP6747160B2 - Vehicle position estimation device - Google Patents

Vehicle position estimation device Download PDF

Info

Publication number
JP6747160B2
JP6747160B2 JP2016158669A JP2016158669A JP6747160B2 JP 6747160 B2 JP6747160 B2 JP 6747160B2 JP 2016158669 A JP2016158669 A JP 2016158669A JP 2016158669 A JP2016158669 A JP 2016158669A JP 6747160 B2 JP6747160 B2 JP 6747160B2
Authority
JP
Japan
Prior art keywords
road surface
vehicle
paint
surface paint
surface image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016158669A
Other languages
Japanese (ja)
Other versions
JP2017146293A (en
Inventor
淳一 目黒
淳一 目黒
皓之 石田
皓之 石田
国狭 亜輝臣
亜輝臣 国狭
松井 俊樹
俊樹 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JP2017146293A publication Critical patent/JP2017146293A/en
Application granted granted Critical
Publication of JP6747160B2 publication Critical patent/JP6747160B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、車両位置推定装置に関する。 The present disclosure relates to a vehicle position estimation device.

特許文献1には、車両の走行する道路における車両の位置を推定する装置が記載されている。この装置は、車両に搭載された撮像装置によって得られる撮影画像の情報と、地図上における地物の情報(例えば路面ペイント)とを照合することで、道路長手方向(道路延在方向)における車両の位置を推定する。 Patent Document 1 describes an apparatus that estimates the position of a vehicle on a road on which the vehicle travels. This device collates the information of the captured image obtained by the image pickup device mounted on the vehicle with the information of the feature on the map (for example, road surface paint), so that the vehicle in the longitudinal direction of the road (road extension direction) Estimate the position of.

特開2006−208223号公報JP, 2006-208223, A

ところで、地図によっては、詳細な地物の情報が含まれていない場合がある。例えば、コストが抑えられた地図には、実線、破線などのレーン区画線(路面ペイント)の種別の情報及び表示区間、レーン内に描かれた文字(路面ペイント)の表示区間は含まれているが、破線及び文字ごとの道路延在方向の端部の位置は含まれていない場合がある。つまり、コストが抑えられた地図では、道路延在方向における車両の位置を照合するための情報が少ない。このような地図を用いた場合、従来の装置は、道路延在方向における車両の位置を精度良く推定することが困難となる。本技術分野では、路面ペイントに係る道路延在方向の端部の位置が含まれていない地図を用いて道路延在方向における車両の位置を推定する場合に、車両の位置の推定精度を向上させることができる車両位置推定装置が望まれている。 By the way, some maps may not include detailed feature information. For example, a map with reduced cost includes information about the type of lane markings (road paint) such as solid lines and broken lines, and a display section, and a display section of characters drawn on the lane (road paint). However, the position of the broken line and the end portion of the road extending direction for each character may not be included. In other words, a map with reduced cost has less information for collating the position of the vehicle in the road extension direction. When such a map is used, it is difficult for the conventional device to accurately estimate the position of the vehicle in the road extension direction. In the present technical field, when the position of a vehicle in the road extension direction is estimated using a map that does not include the position of the end portion in the road extension direction related to road surface painting, the estimation accuracy of the vehicle position is improved. A vehicle position estimation device capable of performing the above is desired.

本発明の一側面に係る車両位置推定装置は、車両の走行する道路の延在方向における車両の位置を推定する車両位置推定装置であって、測位データに基づいて、延在方向における車両の推定位置を算出する測位部と、地図に関する地図情報と、地図上における路面ペイントの種別及び当該路面ペイントが描かれた区間の境界位置とを保存する地図データベースと、路面ペイントの種別と、路面ペイントの延在方向における長さ及び間隔とを対応付けて保存する路面データベースと、車両の前方の路面ペイントを認識する環境認識センサと、環境認識センサによって認識された路面ペイントに基づいて、車両の前方の路面を表す実路面画像を生成する実路面画像生成部と、地図データベースを参照して、推定位置に基づいて路面上の路面ペイントの種別及び境界位置を取得し、路面データベースを参照して、取得された路面ペイントの種別に対応した路面ペイントの長さ及び間隔を取得し、推定位置の周辺の地図情報、並びに、取得された路面ペイントの境界位置、長さ及び間隔に基づいて、推定位置の周辺の路面を表す画像に対して路面ペイントの延在方向における端部が補完された仮想路面画像を生成する仮想路面画像生成部と、実路面画像の路面ペイントの延在方向における端部の位置と仮想路面画像の路面ペイントの延在方向における端部の位置とを比較して、推定位置を補正する車両位置補正部と、を備える。 A vehicle position estimation device according to one aspect of the present invention is a vehicle position estimation device that estimates a position of a vehicle in an extension direction of a road on which a vehicle travels, and estimates a vehicle in the extension direction based on positioning data. A positioning unit that calculates the position, map information about the map, a map database that stores the type of road paint on the map and the boundary position of the section where the road paint is drawn, the type of road paint, and the type of road paint Based on the road surface database that stores the length and interval in the extending direction in association with each other, the environment recognition sensor that recognizes the road surface paint in front of the vehicle, and the road surface paint recognized by the environment recognition sensor, The actual road surface image generator that generates the actual road surface image and the map database are referenced to acquire the type and boundary position of the road surface paint based on the estimated position, and the road surface database is referenced to acquire The length and interval of the road surface paint corresponding to the type of the road surface paint that was acquired, and the map information around the estimated position, and the boundary position, length, and interval of the acquired road surface paint, based on the estimated position A virtual road surface image generation unit that generates a virtual road surface image in which the end portion in the extending direction of the road surface paint is complemented to the image representing the surrounding road surface, and the position of the end portion in the extending direction of the road surface paint of the actual road surface image And a vehicle position correction unit that corrects the estimated position by comparing the position of the end portion of the virtual road surface image in the extending direction of the road surface paint.

本発明によれば、路面ペイントに係る道路延在方向の端部の位置が含まれていない地図を用いて道路延在方向における車両の位置を推定する場合に、車両の位置の推定精度を向上させることができる。 ADVANTAGE OF THE INVENTION According to this invention, when estimating the position of the vehicle in a road extension direction using the map which does not contain the position of the edge part of the road extension direction which concerns on road surface painting, the estimation precision of a vehicle position is improved. Can be made.

第1実施形態に係る車両位置推定装置を備える車両の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle provided with the vehicle position estimation apparatus which concerns on 1st Embodiment. 車両の位置を推定する処理を説明する図である。It is a figure explaining the process which estimates the position of a vehicle. 車両の位置を推定する処理のフローチャートである。It is a flowchart of the process which estimates the position of a vehicle. 第2実施形態に係る車両位置推定装置を備える車両の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle provided with the vehicle position estimation apparatus which concerns on 2nd Embodiment. 車両の位置を推定する処理を説明する図である。It is a figure explaining the process which estimates the position of a vehicle. 車両の位置を推定する処理のフローチャートである。It is a flowchart of the process which estimates the position of a vehicle. 位相限定相関法における処理内容を説明する図である。It is a figure explaining the processing content in a phase only correlation method. 変形例に係る車両の位置を推定する処理を説明する図である。It is a figure explaining the process which estimates the position of the vehicle which concerns on a modification.

以下、図面を参照して、本発明の実施形態について説明する。なお、以下の説明において、同一又は相当要素には同一符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same or corresponding elements will be denoted by the same reference symbols, without redundant description.

[第1実施形態]
図1は、第1実施形態に係る車両位置推定装置1Aを備える車両2Aの構成を示すブロック図であり、図2は、車両2Aの位置を推定する処理を説明する図である。図1及び図2に示すように、乗用車等の車両2Aには、車両位置推定装置1Aが搭載されている。車両位置推定装置1Aは、車両2Aの走行する道路Rの延在方向Dにおける車両2Aの位置を推定する装置である(図2の(a)参照)。
[First Embodiment]
FIG. 1 is a block diagram showing a configuration of a vehicle 2A including a vehicle position estimation device 1A according to the first embodiment, and FIG. 2 is a diagram illustrating a process of estimating the position of the vehicle 2A. As shown in FIGS. 1 and 2, a vehicle position estimating device 1A is mounted on a vehicle 2A such as a passenger car. The vehicle position estimation device 1A is a device that estimates the position of the vehicle 2A in the extending direction D of the road R on which the vehicle 2A travels (see (a) of FIG. 2 ).

車両2Aの周辺の路面には、路面ペイントP10が描かれている。路面ペイントP10とは、路面に描かれた、交通に関する規制又は指示を表示する標示である。図2に示す例では、路面ペイントP10は、隣接するレーンとの境界を示す区画線である。区画線は、実線P11、破線P12等の複数の種別が存在する。道路Rの延在方向Dにおける破線P12は、法規、慣例等によって所定の長さ及び間隔を有している。一例として、自動車専用道路において、破線P12の長さは8mであり、破線P12の間隔は12mである。図2では、実線P11が描かれた区間と破線P12が描かれた区間との境界位置E1、及び、道路Rの延在方向Dにおける各破線P12の端部E2が示されている。 A road surface paint P10 is drawn on the road surface around the vehicle 2A. The road surface paint P10 is a sign that is drawn on the road surface and displays traffic regulations or instructions. In the example shown in FIG. 2, the road surface paint P10 is a division line that indicates the boundary between adjacent lanes. There are a plurality of types of partition lines, such as a solid line P11 and a broken line P12. The broken line P12 in the extending direction D of the road R has a predetermined length and interval according to laws and regulations. As an example, in the motorway, the length of the broken line P12 is 8 m, and the interval between the broken lines P12 is 12 m. In FIG. 2, a boundary position E1 between a section where a solid line P11 is drawn and a section where a broken line P12 is drawn, and an end portion E2 of each broken line P12 in the extending direction D of the road R are shown.

車両2Aは、車両位置推定装置1A及びGPS受信部11を備える。車両位置推定装置1Aは、環境認識センサ10及びECU20Aを有する。 The vehicle 2A includes a vehicle position estimation device 1A and a GPS receiver 11. The vehicle position estimation device 1A has an environment recognition sensor 10 and an ECU 20A.

GPS受信部11は、3個以上のGPS衛星から信号を受信して、GPS受信部11とGPS衛星それぞれとの距離情報(測位データ)を取得する受信機器である。GPS受信部11は、取得した車両2Aの距離情報をECU20Aに出力する。GPS受信部11により取得された距離情報は測位誤差を含む。 The GPS receiving unit 11 is a receiving device that receives signals from three or more GPS satellites and acquires distance information (positioning data) between the GPS receiving unit 11 and each GPS satellite. The GPS receiver 11 outputs the acquired distance information of the vehicle 2A to the ECU 20A. The distance information acquired by the GPS receiver 11 includes a positioning error.

環境認識センサ10は、車両2Aに搭載されており、車両2Aの前方の路面ペイントP10を認識するセンサである。認識とは、路面ペイントP10の位置、形状、長さ等を含む路面ペイントP10の情報を取得することである。環境認識センサ10は、一例としてカメラを含んでおり、車両2Aの前方の撮影画像(図2の(b)参照)に基づいて路面ペイントP10を認識する。環境認識センサ10は、路面ペイントP10の認識結果をECU20Aに出力する。 The environment recognition sensor 10 is mounted on the vehicle 2A and is a sensor that recognizes the road surface paint P10 in front of the vehicle 2A. The recognition is to acquire information of the road surface paint P10 including the position, shape, length, etc. of the road surface paint P10. The environment recognition sensor 10 includes a camera as an example, and recognizes the road surface paint P10 based on a captured image (see FIG. 2B) in front of the vehicle 2A. The environment recognition sensor 10 outputs the recognition result of the road surface paint P10 to the ECU 20A.

ECU20Aは、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、CAN(Controller Area Network)通信回路などを有する電子制御ユニットである。ECU20Aは、CAN通信回路を用いて通信するネットワークに接続され、上述した車両2Aの構成要素と通信可能に接続されている。ECU20Aは、CPUが出力する信号に基づいて、CAN通信回路を動作させてデータを入出力し、入力データをRAMに記憶し、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムを実行することで、後述するECU20Aの構成要素の機能を実現する。 The ECU 20A is an electronic control unit including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a CAN (Controller Area Network) communication circuit, and the like. The ECU 20A is connected to a network that communicates using a CAN communication circuit, and is communicatively connected to the above-described components of the vehicle 2A. The ECU 20A operates the CAN communication circuit to input/output data based on the signal output from the CPU, stores the input data in the RAM, loads the program stored in the ROM into the RAM, and loads the program into the RAM. By executing the program, the functions of the components of the ECU 20A described later are realized.

ECU20Aは、実路面画像生成部21、測位部22A、仮想路面画像生成部23、地図データベース24、路面データベース25及び車両位置補正部26を含む。 The ECU 20A includes an actual road surface image generation unit 21, a positioning unit 22A, a virtual road surface image generation unit 23, a map database 24, a road surface database 25, and a vehicle position correction unit 26.

実路面画像生成部21は、環境認識センサ10によって認識された路面ペイントP10に基づいて、車両2Aの前方の路面を表す実路面画像(図2の(c)参照)を生成する。実路面画像は、一例として、車両2Aの前方の路面の平面画像である。実路面画像生成部21は、路面ペイントP10を含む撮影画像を座標変換(投影)することで、実路面画像を生成する。実路面画像生成部21は、実路面画像を車両位置補正部26へ出力する。 The actual road surface image generation unit 21 generates an actual road surface image (see (c) of FIG. 2) representing the road surface in front of the vehicle 2A based on the road surface paint P10 recognized by the environment recognition sensor 10. The actual road surface image is, for example, a plane image of the road surface in front of the vehicle 2A. The actual road surface image generation unit 21 generates an actual road surface image by performing coordinate conversion (projection) on the captured image including the road surface paint P10. The actual road surface image generation unit 21 outputs the actual road surface image to the vehicle position correction unit 26.

測位部22Aは、GPS受信部11により取得された距離情報に基づいて、道路Rの延在方向Dにおける車両2Aの推定位置を算出する。GPS受信部11が取得する距離情報には誤差があるため、測位部22Aによって算出される車両2Aの推定位置にも誤差が生じる。測位部22Aは、車両2Aの推定位置を仮想路面画像生成部23へ出力する。 The positioning unit 22A calculates the estimated position of the vehicle 2A in the extending direction D of the road R based on the distance information acquired by the GPS receiving unit 11. Since the distance information acquired by the GPS receiving unit 11 has an error, the estimated position of the vehicle 2A calculated by the positioning unit 22A also has an error. The positioning unit 22A outputs the estimated position of the vehicle 2A to the virtual road surface image generation unit 23.

地図データベース24は、地図に関する地図情報と、地図上における路面ペイントP10の種別及び当該路面ペイントP10が描かれた区間の境界位置E1とを保存するデータベースである。地図情報は、車両2Aの走行する道路Rに関する情報を含む。路面ペイントP10の種別とは、交通に関する規制又は指示の内容に応じて分類された区分である。路面ペイントP10の種別の一例は、「実線」や「破線」である。地図データベース24は、コストが抑えられた地図に関する地図情報を保存している。例えば、地図データベース24は、路面ペイントP10について、実線P11が描かれた区間と破線P12が描かれた区間との境界位置E1を保存しているものの、破線P12の端部E2の位置については保存していない。 The map database 24 is a database that stores map information about the map, the type of road surface paint P10 on the map, and the boundary position E1 of the section in which the road surface paint P10 is drawn. The map information includes information about the road R on which the vehicle 2A travels. The type of road surface paint P10 is a classification classified according to the content of regulations or instructions relating to traffic. An example of the type of the road surface paint P10 is “solid line” or “broken line”. The map database 24 stores map information regarding maps whose costs are suppressed. For example, the map database 24 stores the boundary position E1 between the section in which the solid line P11 is drawn and the section in which the broken line P12 is drawn for the road surface paint P10, but saves the position of the end E2 of the broken line P12. I haven't.

路面データベース25は、路面ペイントP10の種別と、道路Rの延在方向Dにおける路面ペイントP10の長さ及び間隔とを対応付けて保存するデータベースである。路面データベース25は、一例として、破線P12と長さ8m及び間隔12mとを対応付けて保存している。 The road surface database 25 is a database that stores the type of the road surface paint P10 and the length and interval of the road surface paint P10 in the extending direction D of the road R in association with each other. As an example, the road surface database 25 stores a broken line P12, a length of 8 m, and an interval of 12 m in association with each other.

仮想路面画像生成部23は、地図データベース24及び路面データベース25を参照して、仮想路面画像(図2の(f)参照)を生成する。仮想路面画像とは、測位部22Aにより推定された推定位置の周辺の路面を表す画像に対して路面ペイントP10の延在方向における端部が補完された画像である。具体的には、まず、仮想路面画像生成部23は、地図データベース24に保存されている地図情報及び車両2Aの推定位置に基づいて、車両2Aの前方を車両2Aから見た画像(図2の(d)参照)を仮想的に生成する。仮想路面画像生成部23は、地図データベース24を参照して、車両2Aの推定位置に基づいて路面上の路面ペイントP10の種別及び境界位置E1を取得する。また、仮想路面画像生成部23は、路面データベース25を参照して、取得された路面ペイントP10の種別に対応した路面ペイントP10の長さ及び間隔を取得する。そして、仮想路面画像生成部23は、車両2Aの推定位置の周辺の地図情報、並びに、取得された路面ペイントP10の境界位置E1、長さ及び間隔に基づいて、車両2Aの推定位置の周辺の路面を表す画像(図2の(e)参照)に対して路面ペイントP10の延在方向Dにおける端部E2を補完した仮想路面画像(図2の(f)参照)を生成する。具体的には、仮想路面画像生成部23は、実線P11と破線P12との境界位置E1から破線P12の間隔だけ空けた位置を破線P12の一端部(端部E2)とし、一端部から破線P12の長さだけ空けた位置を他端部(端部E2)とする。このようにして、仮想路面画像生成部23は、路面ペイントP10を補完する。仮想路面画像生成部23は、仮想路面画像を車両位置補正部26に出力する。 The virtual road surface image generation unit 23 refers to the map database 24 and the road surface database 25 to generate a virtual road surface image (see (f) in FIG. 2). The virtual road surface image is an image in which the end portion in the extending direction of the road surface paint P10 is complemented with the image representing the road surface around the estimated position estimated by the positioning unit 22A. Specifically, first, the virtual road surface image generation unit 23, based on the map information stored in the map database 24 and the estimated position of the vehicle 2A, an image of the front of the vehicle 2A viewed from the vehicle 2A (see FIG. 2). (See (d)) is virtually generated. The virtual road surface image generation unit 23 refers to the map database 24 and acquires the type of the road surface paint P10 on the road surface and the boundary position E1 based on the estimated position of the vehicle 2A. The virtual road surface image generation unit 23 also refers to the road surface database 25 to acquire the length and the interval of the road surface paint P10 corresponding to the type of the acquired road surface paint P10. Then, the virtual road surface image generation unit 23 determines the area around the estimated position of the vehicle 2A based on the map information around the estimated position of the vehicle 2A and the boundary position E1, the length and the interval of the acquired road surface paint P10. A virtual road surface image (see (f) in FIG. 2) is generated by supplementing the end portion E2 in the extending direction D of the road paint P10 with respect to the image representing the road surface (see (e) in FIG. 2). Specifically, the virtual road surface image generation unit 23 sets one end (end E2) of the broken line P12 at a position spaced by a distance of the broken line P12 from the boundary position E1 between the solid line P11 and the broken line P12, and the broken line P12 from the one end. The other end portion (end portion E2) is defined by a position vacated by the length. In this way, the virtual road surface image generation unit 23 complements the road surface paint P10. The virtual road surface image generation unit 23 outputs the virtual road surface image to the vehicle position correction unit 26.

車両位置補正部26は、実路面画像生成部21により生成された実路面画像、及び、仮想路面画像生成部23により生成された仮想路面画像に基づいて、車両2Aの推定位置を補正する。具体的には、車両位置補正部26は、道路Rの延在方向Dにおける実路面画像の路面ペイントP10の端部E2の位置と、道路Rの延在方向Dにおける仮想路面画像の路面ペイントP10の端部E2の位置とを比較し、車両2Aの推定位置を補正する。より具体的には、車両位置補正部26は、実路面画像の路面ペイントP10の端部E2と、仮想路面画像の路面ペイントP10の端部E2とをマッチングし、両者の路面ペイントP10の端部E2の位置に差分がある場合には、当該差分だけ車両2Aの推定位置を補正する。車両位置補正部26は、補正された車両2Aの推定位置を車両位置情報として出力する。 The vehicle position correction unit 26 corrects the estimated position of the vehicle 2A based on the actual road surface image generated by the actual road surface image generation unit 21 and the virtual road surface image generated by the virtual road surface image generation unit 23. Specifically, the vehicle position correction unit 26 determines the position of the end E2 of the road surface paint P10 of the actual road surface image in the extending direction D of the road R and the road surface paint P10 of the virtual road surface image in the extending direction D of the road R. The estimated position of the vehicle 2A is corrected by comparing the position of the end E2 of the vehicle. More specifically, the vehicle position correction unit 26 matches the end portion E2 of the road surface paint P10 of the actual road surface image with the end portion E2 of the road surface paint P10 of the virtual road surface image, and ends of both road surface paints P10. If there is a difference in the position of E2, the estimated position of the vehicle 2A is corrected by the difference. The vehicle position correction unit 26 outputs the corrected estimated position of the vehicle 2A as vehicle position information.

次に、車両位置推定装置1Aによって道路Rの延在方向Dにおける車両2Aの位置を推定する処理を説明する。図3は、道路Rの延在方向Dにおける車両2Aの位置を推定する処理のフローチャートである。図3に示すフローチャートは、車両位置推定装置1Aによって実行され、例えば運転者により車両位置推定装置1Aの動作開始指示がされたタイミングで処理が開始される。 Next, a process of estimating the position of the vehicle 2A in the extending direction D of the road R by the vehicle position estimation device 1A will be described. FIG. 3 is a flowchart of a process of estimating the position of the vehicle 2A in the extending direction D of the road R. The flowchart shown in FIG. 3 is executed by the vehicle position estimating device 1A, and the process is started at the timing when the driver gives an instruction to start the operation of the vehicle position estimating device 1A, for example.

ステップS11において、測位部22Aは、GPS受信部11により受信された車両2Aの距離情報を取得する。測位部22Aは、距離情報に基づいて、道路Rの延在方向Dにおける車両2Aの推定位置を算出する。測位部22Aは、車両2Aの推定位置を仮想路面画像生成部23に出力する。車両位置推定装置1Aは、測位部22Aが車両2Aの推定位置を仮想路面画像生成部23に出力した場合、ステップS12に移行する。 In step S11, the positioning unit 22A acquires the distance information of the vehicle 2A received by the GPS receiving unit 11. The positioning unit 22A calculates the estimated position of the vehicle 2A in the extending direction D of the road R based on the distance information. The positioning unit 22A outputs the estimated position of the vehicle 2A to the virtual road surface image generation unit 23. When the positioning unit 22A outputs the estimated position of the vehicle 2A to the virtual road surface image generation unit 23, the vehicle position estimation device 1A proceeds to step S12.

ステップS12において、環境認識センサ10は、車両2Aの前方の路面ペイントP10を認識する。具体的には、環境認識センサ10は、車両2Aの前方の撮像画像を取得する。環境認識センサ10は、撮影画像を実路面画像生成部21に出力する。車両位置推定装置1Aは、環境認識センサ10が撮影画像を実路面画像生成部21に出力した場合、ステップS13に移行する。 In step S12, the environment recognition sensor 10 recognizes the road surface paint P10 in front of the vehicle 2A. Specifically, the environment recognition sensor 10 acquires a captured image in front of the vehicle 2A. The environment recognition sensor 10 outputs the captured image to the actual road surface image generation unit 21. When the environment recognition sensor 10 outputs the captured image to the actual road surface image generation unit 21, the vehicle position estimation device 1A proceeds to step S13.

ステップS13において、実路面画像生成部21は、環境認識センサ10により出力された撮影画像に基づいて、車両2Aの前方の路面を表す実路面画像を生成する。実路面画像生成部21は、実路面画像を車両位置補正部26に出力する。車両位置推定装置1Aは、実路面画像生成部21が実路面画像を車両位置補正部26に出力した場合、ステップS14に移行する。 In step S13, the actual road surface image generation unit 21 generates an actual road surface image representing the road surface in front of the vehicle 2A based on the captured image output by the environment recognition sensor 10. The actual road surface image generation unit 21 outputs the actual road surface image to the vehicle position correction unit 26. When the actual road surface image generation unit 21 outputs the actual road surface image to the vehicle position correction unit 26, the vehicle position estimation device 1A proceeds to step S14.

ステップS14において、仮想路面画像生成部23は、地図データベース24を参照して、車両2Aの推定位置に基づいて路面上の路面ペイントP10の種別、及び、実線P11と破線P12との境界位置E1を取得する。また、仮想路面画像生成部23は、路面データベース25を参照して、破線P12の長さ及び間隔を取得する。更に、仮想路面画像生成部23は、車両2Aの推定位置の周辺の地図情報、並びに、取得された路面ペイントP10の境界位置E1、破線P12の長さ、及び、破線P12の間隔に基づいて、車両2Aの推定位置の周辺の路面を表す画像に対して路面ペイントP10の端部E2を補完した仮想路面画像を生成する。仮想路面画像生成部23は、仮想路面画像を車両位置補正部26に出力する。車両位置推定装置1Aは、仮想路面画像生成部23が仮想路面画像を車両位置補正部26に出力した場合、ステップS15に移行する。 In step S14, the virtual road surface image generation unit 23 refers to the map database 24 to determine the type of road surface paint P10 on the road surface and the boundary position E1 between the solid line P11 and the broken line P12 based on the estimated position of the vehicle 2A. get. In addition, the virtual road surface image generation unit 23 refers to the road surface database 25 and acquires the length and interval of the broken line P12. Furthermore, the virtual road surface image generation unit 23, based on the map information around the estimated position of the vehicle 2A, the boundary position E1 of the road surface paint P10, the length of the broken line P12, and the interval of the broken line P12 that are acquired, A virtual road surface image in which the end portion E2 of the road surface paint P10 is complemented to the image representing the road surface around the estimated position of the vehicle 2A is generated. The virtual road surface image generation unit 23 outputs the virtual road surface image to the vehicle position correction unit 26. When the virtual road surface image generation unit 23 outputs the virtual road surface image to the vehicle position correction unit 26, the vehicle position estimation device 1A proceeds to step S15.

ステップS15において、車両位置補正部26は、実路面画像の路面ペイントP10の端部E2の位置と、仮想路面画像の路面ペイントP10の端部E2の位置とを比較する。具体的に、車両位置補正部26は、実路面画像の路面ペイントP10の端部E2の位置と、仮想路面画像の路面ペイントP10の端部E2の位置とが近くなるように、道路Rの延在方向Dにおける路面ペイントP10の位置を探索する。これにより、車両位置補正部26は、実路面画像上における端部E2の位置を精度良く推定することができる。よって、車両位置補正部26は、コストが抑えられた地図を用いた場合であっても、車両2Aの推定位置を補正して、道路Rの延在方向Dにおける車両2Aの位置の精度を向上することができる。車両位置推定装置1Aは、車両位置補正部26が車両2Aの位置を推定した場合、図3のフローチャートに示す処理を終了する。 In step S15, the vehicle position correction unit 26 compares the position of the end portion E2 of the road surface paint P10 of the actual road surface image with the position of the end portion E2 of the road surface paint P10 of the virtual road surface image. Specifically, the vehicle position correction unit 26 extends the road R so that the position of the end E2 of the road surface paint P10 of the actual road surface image and the position of the end E2 of the road surface paint P10 of the virtual road surface image are close to each other. The position of the road surface paint P10 in the present direction D is searched. Thereby, the vehicle position correction unit 26 can accurately estimate the position of the end portion E2 on the actual road surface image. Therefore, the vehicle position correction unit 26 corrects the estimated position of the vehicle 2A to improve the accuracy of the position of the vehicle 2A in the extending direction D of the road R even when using the map whose cost is suppressed. can do. When the vehicle position correction unit 26 estimates the position of the vehicle 2A, the vehicle position estimation device 1A ends the process shown in the flowchart of FIG.

以上、第1実施形態に係る車両位置推定装置1Aによれば、路面ペイントP10に係る道路延在方向の端部E2の位置が含まれていない地図を用いて道路延在方向における車両2Aの位置を推定する場合に、車両2Aの推定位置の周辺の路面を表す画像に対して路面ペイントP10の端部E2を補完した仮想路面画像を生成することができる。よって、車両位置推定装置1Aは、実路面画像と仮想路面画像とを十分に対比することができるので、車両2Aの位置の推定精度を向上させることができる。 As described above, according to the vehicle position estimating apparatus 1A according to the first embodiment, the position of the vehicle 2A in the road extending direction is calculated using the map that does not include the position of the end E2 in the road extending direction related to the road surface paint P10. When estimating, the virtual road surface image in which the end portion E2 of the road surface paint P10 is complemented with the image representing the road surface around the estimated position of the vehicle 2A can be generated. Therefore, the vehicle position estimation device 1A can sufficiently compare the actual road surface image and the virtual road surface image, and thus the estimation accuracy of the position of the vehicle 2A can be improved.

[第2実施形態]
第2実施形態に係る車両位置推定装置1Bについて説明する。図4は、第2実施形態に係る車両位置推定装置1Bを備える車両2Bの構成を示すブロック図であり、図5は、車両2Bの位置を推定する処理を説明する図である。図4及び図5に示すように、第2実施形態に係る車両位置推定装置1Bは、第1実施形態に係る車両位置推定装置1Aに比較して、ECU20Bの測位部22Bにおける車両の推定位置の算出処理が相違する。また、第2実施形態に係る車両位置推定装置1Bを備える車両2Bは、車両2Aと比較して車速センサ12を備えている点が相違する。
[Second Embodiment]
A vehicle position estimation device 1B according to the second embodiment will be described. FIG. 4 is a block diagram showing a configuration of a vehicle 2B including a vehicle position estimation device 1B according to the second embodiment, and FIG. 5 is a diagram illustrating a process of estimating the position of the vehicle 2B. As shown in FIGS. 4 and 5, the vehicle position estimation device 1B according to the second embodiment is different from the vehicle position estimation device 1A according to the first embodiment in the estimated position of the vehicle in the positioning unit 22B of the ECU 20B. The calculation process is different. Further, a vehicle 2B including the vehicle position estimation device 1B according to the second embodiment is different from the vehicle 2A in that the vehicle speed sensor 12 is included.

車速センサ12は、車両2Bの速度を検出する検出器である。車速センサ12としては、車両2Bの車輪又は車輪と一体に回転するドライブシャフト等に対して設けられ、車輪の回転速度を検出する車輪速センサが用いられる。車速センサ12は、車速情報をECU20Bへ送信する。 The vehicle speed sensor 12 is a detector that detects the speed of the vehicle 2B. As the vehicle speed sensor 12, a wheel speed sensor that is provided for the wheels of the vehicle 2B or a drive shaft that rotates integrally with the wheels and that detects the rotational speed of the wheels is used. The vehicle speed sensor 12 transmits vehicle speed information to the ECU 20B.

車両位置推定装置1Bの測位部22Bは、基準位置と、基準位置からの車両2Bの移動量(測位データ)とに基づいて、車両2Bの推定位置を算出する。具体的には、測位部22Bは、例えば第1実施形態に係る車両位置推定装置1Aによって推定された車両2Bの位置を基準位置とする。測位部22Bは、車両2Bが基準位置にあるときの時刻tをt=1とする。測位部22Bは、時刻t=2における車両2Bの位置を、当該基準位置から、車速センサ12により検出された車速を移動時間で時間積分した距離(移動量)だけ車両2Bが道路Rの延在方向Dに進行した位置として取得する(図5の(a)参照)。その他の車両位置推定装置1Bの構成は、第1実施形態に係る車両位置推定装置1Aの構成と同一である。 The positioning unit 22B of the vehicle position estimation device 1B calculates the estimated position of the vehicle 2B based on the reference position and the movement amount (positioning data) of the vehicle 2B from the reference position. Specifically, the positioning unit 22B sets, for example, the position of the vehicle 2B estimated by the vehicle position estimation device 1A according to the first embodiment as a reference position. Positioning unit 22B sets time t to t=1 when vehicle 2B is at the reference position. The positioning unit 22B extends the position of the vehicle 2B at time t=2 from the reference position by a distance (moving amount) obtained by time-integrating the vehicle speed detected by the vehicle speed sensor 12 with the moving time to extend the road R. The position is acquired as the position advanced in the direction D (see FIG. 5A). The other configurations of the vehicle position estimation device 1B are the same as the configurations of the vehicle position estimation device 1A according to the first embodiment.

次に、車両位置推定装置1Bによって車両2Bの位置を推定する処理を説明する。図6は、車両2Bの位置を推定する処理のフローチャートである。図6に示すフローチャートは、車両位置推定装置1Aによって実行され、例えば運転者により車両位置推定装置1Bの動作開始指示がされたタイミングで処理が開始される。 Next, a process of estimating the position of the vehicle 2B by the vehicle position estimation device 1B will be described. FIG. 6 is a flowchart of a process of estimating the position of the vehicle 2B. The flowchart shown in FIG. 6 is executed by the vehicle position estimating device 1A, and the process is started at the timing when the driver gives an instruction to start the operation of the vehicle position estimating device 1B, for example.

ステップS1において、測位部22Bは、ある時刻における車両2Bの位置情報であって、例えばGPS受信部11から入力された車両2Aの位置情報よりも精度の高い位置情報に基づいて基準位置を取得する。ここでは、測位部22Bは、第1実施形態の車両位置推定装置1Aによって推定された車両2Bの位置を基準位置とする。車両位置推定装置1Bは、測位部22Bが基準位置を取得した場合、ステップS2に移行する。 In step S1, the positioning unit 22B acquires the reference position based on the position information of the vehicle 2B at a certain time, which is more accurate than the position information of the vehicle 2A input from the GPS receiving unit 11, for example. .. Here, the positioning unit 22B uses the position of the vehicle 2B estimated by the vehicle position estimation device 1A of the first embodiment as the reference position. When the positioning unit 22B acquires the reference position, the vehicle position estimation device 1B proceeds to step S2.

ステップS2において、測位部22Bは、車速センサ12から車両2Bの車速に関する情報を入力される。そして、測位部22Bは、車速センサ12から入力された車両2Bの車速を時間積分した距離を、車両2Bの移動量として取得する。車両位置推定装置1Bは、測位部22Bが車両2Bの移動量を取得した場合、ステップS21に移行する。 In step S2, the positioning unit 22B receives the information about the vehicle speed of the vehicle 2B from the vehicle speed sensor 12. Then, the positioning unit 22B acquires the distance obtained by time-integrating the vehicle speed of the vehicle 2B input from the vehicle speed sensor 12 as the moving amount of the vehicle 2B. When the positioning unit 22B acquires the movement amount of the vehicle 2B, the vehicle position estimation device 1B proceeds to step S21.

ステップS21において、測位部22Bは、ステップS1において取得した基準位置から、ステップS2において取得した車両2Bの移動量だけ車両2Bが道路Rの延在方向Dに進行した位置を算出し、当該位置を車両2Bの推定位置とする。測位部22Bは、算出した車両2Bの推定位置を仮想路面画像生成部23に出力する。車両位置推定装置1Bは、測位部22Bが車両2Bの推定位置を仮想路面画像生成部23に出力した場合、ステップS22に移行する。 In step S21, the positioning unit 22B calculates, from the reference position acquired in step S1, a position where the vehicle 2B has traveled in the extending direction D of the road R by the movement amount of the vehicle 2B acquired in step S2, and the position is calculated. It is the estimated position of the vehicle 2B. The positioning unit 22B outputs the calculated estimated position of the vehicle 2B to the virtual road surface image generation unit 23. When the positioning unit 22B outputs the estimated position of the vehicle 2B to the virtual road surface image generation unit 23, the vehicle position estimation device 1B proceeds to step S22.

なお、ステップS22以降の処理は、第1実施形態に係る車両位置推定装置1Aにおいて実行されるステップS12以降の処理と同じである。車両位置推定装置1Bは、車両位置補正部26が車両2Bの位置を推定した場合、図6のフローチャートに示す処理を終了する。 The process after step S22 is the same as the process after step S12 executed in the vehicle position estimating apparatus 1A according to the first embodiment. When the vehicle position correction unit 26 estimates the position of the vehicle 2B, the vehicle position estimation device 1B ends the process shown in the flowchart of FIG.

第2実施形態に係る車両位置推定装置1Bは、車両位置推定装置1Aと同一の効果を奏する。 The vehicle position estimation device 1B according to the second embodiment has the same effects as the vehicle position estimation device 1A.

以上、本発明の実施形態について説明したが、本発明は、上述した実施形態に限られない。本発明は、上述した実施形態に対して当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。 Although the embodiment of the invention has been described above, the invention is not limited to the embodiment described above. The present invention can be implemented in various forms in which various modifications and improvements are made to the above-described embodiments based on the knowledge of those skilled in the art.

上述した実施形態において、実路面画像生成部21が道路Rの延在方向Dを横方向とする実路面画像を生成する例を示した(図2の(c))。同様に、仮想路面画像生成部23が道路Rの延在方向Dを横方向とする仮想路面画像を生成する例を示した(図2の(f))。しかし、実路面画像及び仮想路面画像において、道路Rの延在方向Dは横方向でなくてもよい。例えば、実路面画像生成部21は、道路Rの延在方向Dを斜め方向とする実路面画像を生成し、同様に、仮想路面画像生成部23は、道路Rの延在方向Dを斜め方向とする仮想路面画像を生成してもよい。この場合、車両位置補正部26は、実路面画像の路面ペイントP10の端部E2の位置と、仮想路面画像の路面ペイントP10の端部E2の位置とを、各画像の縦方向及び横方向の両方向において比較し、車両2Aの推定位置を補正してもよい。 In the above-described embodiment, an example is shown in which the actual road surface image generation unit 21 generates an actual road surface image in which the extending direction D of the road R is the lateral direction ((c) of FIG. 2 ). Similarly, an example is shown in which the virtual road surface image generation unit 23 generates a virtual road surface image in which the extending direction D of the road R is the horizontal direction ((f) in FIG. 2 ). However, in the real road surface image and the virtual road surface image, the extending direction D of the road R does not have to be the lateral direction. For example, the actual road surface image generation unit 21 generates an actual road surface image in which the extension direction D of the road R is an oblique direction, and similarly, the virtual road surface image generation unit 23 sets the extension direction D of the road R in an oblique direction. The virtual road surface image may be generated. In this case, the vehicle position correction unit 26 determines the position of the end E2 of the road surface paint P10 of the actual road surface image and the position of the end E2 of the road surface paint P10 of the virtual road surface image in the vertical and horizontal directions of each image. The estimated position of the vehicle 2A may be corrected by comparing in both directions.

[車両位置補正部26の変形例]
車両位置補正部26は、実路面画像の路面ペイントP10の端部E2の位置と、仮想路面画像の路面ペイントP10の端部E2の位置との比較を行うことに加えて、実路面画像の路面ペイントP10の境界位置E1と、仮想路面画像の路面ペイントP10の境界位置E1との比較を行ってもよい。具体的には、車両位置補正部26は、実路面画像の路面ペイントP10の端部E2の位置と、仮想路面画像の路面ペイントP10の端部E2の位置とが近くなるように、且つ、実路面画像の路面ペイントP10の境界位置E1と、仮想路面画像の路面ペイントP10の境界位置E1とが近くなるように、道路Rの延在方向Dにおける路面ペイントP10の位置を探索してもよい。この場合、道路Rの延在方向Dにおける実路面画像の路面ペイントP10と、仮想路面画像の路面ペイントP10との位置を比較する点の数が多くなる。このため、車両位置補正部26は、車両2Aの位置の推定精度をより向上させることができる。
[Modification of vehicle position correction unit 26]
The vehicle position correction unit 26 compares the position of the end E2 of the road surface paint P10 of the actual road surface image with the position of the end E2 of the road surface paint P10 of the virtual road surface image, The boundary position E1 of the paint P10 may be compared with the boundary position E1 of the road surface paint P10 of the virtual road surface image. Specifically, the vehicle position correction unit 26 makes the position of the end E2 of the road surface paint P10 of the actual road surface image close to the position of the end E2 of the road surface paint P10 of the virtual road surface image, and The position of the road surface paint P10 in the extending direction D of the road R may be searched so that the boundary position E1 of the road surface paint P10 of the road surface image and the boundary position E1 of the road surface paint P10 of the virtual road surface image are close to each other. In this case, the number of points for comparing the positions of the road surface paint P10 of the actual road surface image and the road surface paint P10 of the virtual road surface image in the extending direction D of the road R increases. Therefore, the vehicle position correction unit 26 can further improve the estimation accuracy of the position of the vehicle 2A.

車両位置補正部26は、車両2Aの推定位置を補正する際に、実路面画像と仮想路面画像とのマッチングに代えて位相限定相関法を用いてもよい。すなわち、車両位置補正部26は、実路面画像生成部21により生成された実路面画像、及び、仮想路面画像生成部23により生成された仮想路面画像である疑似オルソ画像に基づいて、位相限定相関法を用いて車両2Aの推定位置を補正してもよい。この場合、仮想路面画像生成部23は、車両2Aの推定位置の周辺の地図情報、並びに、路面ペイントP10の境界位置E1、長さ及び間隔に基づいて、車両2Aの推定位置の周辺の路面を表す疑似オルソ画像を生成する。そして、車両位置補正部26は、図7に示す位相限定相関法を用いて車両2Aの推定位置を補正する。具体的には、車両位置補正部26は、実路面画像f(x)に高速フーリエ変換(FFT; Fast Fourier Transform)を行うことで周波数領域における画像信号F(u)を得ると共に、疑似オルソ画像g(x)に高速フーリエ変換を行うことで周波数領域における画像信号G(u)を得る(xは位置ベクトルを表す。)。車両位置補正部26は、下記の式(1)によって、変換された画像信号F(u)及びG(u)の位相成分を合成して合成信号H(u)を得る。

Figure 0006747160

その後、車両位置補正部26は、合成信号H(u)に逆高速フーリエ変換(IFFT; Inverse Fast Fourier Transform)を行うことで相関分布h(x)を得る。車両位置補正部26は、相関分布h(x)において相関が最大となる座標の、中心座標からのシフト量(平行移動量)を算出し、当該シフト量に基づいて車両2Aの推定位置を補正する。 When correcting the estimated position of the vehicle 2A, the vehicle position correction unit 26 may use the phase-only correlation method instead of matching the actual road surface image and the virtual road surface image. That is, the vehicle position correction unit 26, based on the real road surface image generated by the real road surface image generation unit 21 and the pseudo ortho image that is the virtual road surface image generated by the virtual road surface image generation unit 23, the phase-only correlation. The estimated position of the vehicle 2A may be corrected using the method. In this case, the virtual road surface image generation unit 23 determines the road surface around the estimated position of the vehicle 2A based on the map information around the estimated position of the vehicle 2A and the boundary position E1, the length and the interval of the road surface paint P10. Generate a pseudo ortho image to represent. Then, the vehicle position correction unit 26 corrects the estimated position of the vehicle 2A using the phase-only correlation method shown in FIG. Specifically, the vehicle position correction unit 26 obtains an image signal F(u) in the frequency domain by performing a fast Fourier transform (FFT) on the actual road surface image f(x), and also the pseudo ortho image. An image signal G(u) in the frequency domain is obtained by performing a fast Fourier transform on g(x) (x represents a position vector). The vehicle position correction unit 26 obtains a combined signal H(u) by combining the converted phase components of the image signals F(u) and G(u) according to the following equation (1).
Figure 0006747160

After that, the vehicle position correction unit 26 obtains a correlation distribution h(x) by performing an inverse fast Fourier transform (IFFT) on the combined signal H(u). The vehicle position correction unit 26 calculates the shift amount (parallel movement amount) of the coordinate having the maximum correlation in the correlation distribution h(x) from the center coordinate, and corrects the estimated position of the vehicle 2A based on the shift amount. To do.

[路面ペイントの変形例]
路面ペイントP10は、破線P12に限られず、例えば減速帯であってもよい。また、地図データベース24は、地図上における路面ペイントの種別及び当該路面ペイントが描かれた区間の境界位置として、路面ペイントが文字であることを示す種別、及び、当該文字が描かれた区間の情報を保存してもよい。また、路面データベース25は、路面ペイントが文字であるという種別と、道路Rの延在方向Dにおける文字の長さ及び間隔とを対応付けて保存してもよい。図8は、変形例に係る車両2Aの位置を推定する処理を説明する図である。図8の(a)は、路面ペイントP20の種別が「文字」であり、文字が描かれた区間の境界位置E1が示されている。このような場合であっても、第1実施形態及び第2実施形態で説明した処理と同様に、境界位置E1と、文字P22の長さ及び間隔とから、車両2Aの推定位置の周辺の路面を表す画像に対して路面ペイントP20の端部E2を補完した仮想路面画像を生成することができる(図8の(c)及び図8の(d)参照)。車両位置補正部26は、路面ペイントP20の端部E2を用いて車両2Aの推定位置を補正してもよいし、車両位置補正部26の変形例で説明したとおり、路面ペイントP20の境界位置E1をさらに用いて車両2Aの推定位置を補正してもよい。
[Modification of road surface paint]
The road surface paint P10 is not limited to the broken line P12 and may be, for example, a deceleration zone. In addition, the map database 24 has information indicating the type of road surface paint on the map, the type indicating that the road surface paint is a character as the boundary position of the section in which the road surface paint is drawn, and the section in which the character is drawn. May be saved. Further, the road surface database 25 may store the type that the road surface paint is a character and the length and interval of the character in the extending direction D of the road R in association with each other. FIG. 8: is a figure explaining the process which estimates the position of the vehicle 2A which concerns on a modification. In FIG. 8A, the type of the road surface paint P20 is "character", and the boundary position E1 of the section in which the character is drawn is shown. Even in such a case, similar to the processing described in the first and second embodiments, the road surface around the estimated position of the vehicle 2A is determined from the boundary position E1 and the length and interval of the character P22. It is possible to generate a virtual road surface image in which the end portion E2 of the road surface paint P20 is complemented to the image representing (see (c) of FIG. 8 and (d) of FIG. 8). The vehicle position correction unit 26 may correct the estimated position of the vehicle 2A using the end E2 of the road surface paint P20, or as described in the modification of the vehicle position correction unit 26, the boundary position E1 of the road surface paint P20. May be further used to correct the estimated position of the vehicle 2A.

[基準位置の変形例]
測位部22Bは、地図上の標識、看板等の位置と、カメラにより取得された画像に基づいて基準位置を取得してもよい。また、第2実施形態に係る車両位置推定装置1Bによって補正された推定位置を基準位置としてもよい。測位部22Bは、環境認識センサ10による撮影画像のトラッキング、GPS受信部11等の測位センサ等から取得される位置情報に基づいて、車両2Bの移動量を取得してもよい。
[Modification of reference position]
The positioning unit 22B may acquire the reference position based on the position of the sign, the signboard, etc. on the map and the image acquired by the camera. Further, the estimated position corrected by the vehicle position estimating device 1B according to the second embodiment may be used as the reference position. The positioning unit 22B may acquire the movement amount of the vehicle 2B based on the tracking of the captured image by the environment recognition sensor 10 and the position information acquired from the positioning sensor such as the GPS receiving unit 11 or the like.

[構成の変形例]
ECU20Aは、複数の電子制御ユニットから構成されていてもよい。環境認識センサ10は、ライダーを含んでおり、ライダーの検出結果に基づいて路面ペイントを認識してもよい。ライダーの検出結果は、車両から路面ペイントまでの距離情報及び方位情報を含む。
[Modification of configuration]
The ECU 20A may be composed of a plurality of electronic control units. The environment recognition sensor 10 includes a rider, and may recognize the road surface paint based on the detection result of the rider. The detection result of the rider includes distance information from the vehicle to the road surface paint and azimuth information.

1A,1B…車両位置推定装置、2A,2B…車両、10…環境認識センサ、21…実路面画像生成部、22A,22B…測位部、23…仮想路面画像生成部、24…地図データベース、25…路面データベース、26…車両位置補正部、D…延在方向、E1…境界位置、E2…端部、P11…実線(路面ペイント)、P12…破線(路面ペイント)、P22…文字(路面ペイント)、R…道路。 1A, 1B... Vehicle position estimation device, 2A, 2B... Vehicle, 10... Environment recognition sensor, 21... Real road surface image generation unit, 22A, 22B... Positioning unit, 23... Virtual road surface image generation unit, 24... Map database, 25 ... Road surface database, 26... Vehicle position correction unit, D... Extension direction, E1... Boundary position, E2... End portion, P11... Solid line (road surface paint), P12... Broken line (road surface paint), P22... Character (road surface paint) , R... Road.

Claims (1)

車両の走行する道路の延在方向における前記車両の位置を推定する車両位置推定装置であって、
前記車両の速度を検出する車速センサと、
所定時刻における前記車両の位置と前記車速センサによって検出された前記車両の速度を時間積分した距離に基づいて、前記延在方向における前記車両の推定位置を算出する測位部と、
地図に関する地図情報と、前記地図上における路面ペイントの種別及び当該路面ペイントが描かれた区間の境界位置とを保存する地図データベースと、
前記路面ペイントの種別と、前記路面ペイントの前記延在方向における長さ及び間隔とを対応付けて保存する路面データベースと、
前記車両の前方の前記路面ペイントを認識する環境認識センサと、
前記環境認識センサによって認識された前記路面ペイントに基づいて、前記車両の前方の路面を表す実路面画像を生成する実路面画像生成部と、
前記地図データベースを参照して、前記推定位置に基づいて前記路面上の前記路面ペイントの種別及び境界位置を取得し、前記路面データベースを参照して、前記取得された前記路面ペイントの種別に対応した前記路面ペイントの長さ及び間隔を取得し、前記推定位置の周辺の前記地図情報、並びに、前記取得された前記路面ペイントの前記境界位置、長さ及び間隔に基づいて、前記推定位置の周辺の前記路面を表す画像に対して前記路面ペイントの前記延在方向における端部が補完された仮想路面画像を生成する仮想路面画像生成部と、
前記実路面画像の前記路面ペイントの前記延在方向における端部の位置と前記仮想路面画像の前記路面ペイントの前記延在方向における端部の位置とを比較して、前記推定位置を補正する車両位置補正部と、
を備える、車両位置推定装置。
A vehicle position estimating device for estimating the position of the vehicle in the extending direction of a road on which the vehicle travels,
A vehicle speed sensor for detecting the speed of the vehicle,
A positioning unit that calculates an estimated position of the vehicle in the extending direction based on a distance obtained by time-integrating the position of the vehicle at a predetermined time and the speed of the vehicle detected by the vehicle speed sensor ,
A map database that stores map information about a map, a type of road surface paint on the map, and a boundary position of a section in which the road surface paint is drawn,
A road surface database that stores the type of the road surface paint and the length and interval of the road surface paint in the extending direction in association with each other,
An environment recognition sensor that recognizes the road surface paint in front of the vehicle,
An actual road surface image generation unit that generates an actual road surface image representing a road surface in front of the vehicle based on the road surface paint recognized by the environment recognition sensor;
By referring to the map database, the type and boundary position of the road surface paint on the road surface are obtained based on the estimated position, and by referring to the road surface database, the type of the acquired road surface paint is corresponded. Acquiring the length and interval of the road surface paint, based on the map information around the estimated position, and the boundary position, length and interval of the acquired road surface paint, the vicinity of the estimated position. A virtual road surface image generation unit that generates a virtual road surface image in which an end portion in the extending direction of the road surface paint is complemented with respect to an image representing the road surface;
A vehicle that corrects the estimated position by comparing the position of the end portion of the road surface paint in the extending direction of the actual road surface image with the position of the end portion of the virtual road surface image in the extending direction of the road surface paint. A position correction unit,
A vehicle position estimating device comprising:
JP2016158669A 2016-02-18 2016-08-12 Vehicle position estimation device Active JP6747160B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016028936 2016-02-18
JP2016028936 2016-02-18

Publications (2)

Publication Number Publication Date
JP2017146293A JP2017146293A (en) 2017-08-24
JP6747160B2 true JP6747160B2 (en) 2020-08-26

Family

ID=59683013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016158669A Active JP6747160B2 (en) 2016-02-18 2016-08-12 Vehicle position estimation device

Country Status (1)

Country Link
JP (1) JP6747160B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102314348B1 (en) * 2017-11-27 2021-10-19 현대모비스 주식회사 Apparatus for estimating location running vehicle and method thereof
JP2020109421A (en) * 2020-03-30 2020-07-16 アイシン・エィ・ダブリュ株式会社 Recommended area specifying system, recommended area specifying program, recording medium, and recommended area specifying method
CN113938834A (en) * 2020-06-28 2022-01-14 宝能汽车集团有限公司 Road spectrum acquisition method and device and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006153565A (en) * 2004-11-26 2006-06-15 Nissan Motor Co Ltd In-vehicle navigation device and own car position correction method
JP2015114126A (en) * 2013-12-09 2015-06-22 株式会社デンソー Vehicle location detection device
JP6593088B2 (en) * 2015-10-19 2019-10-23 株式会社豊田中央研究所 Vehicle position estimation apparatus and program

Also Published As

Publication number Publication date
JP2017146293A (en) 2017-08-24

Similar Documents

Publication Publication Date Title
US11300415B2 (en) Host vehicle position estimation device
KR102090512B1 (en) Vehicle localization device
US10431088B2 (en) Object detection apparatus
JP5968064B2 (en) Traveling lane recognition device and traveling lane recognition method
CN102211523B (en) For the method and apparatus of tracing object mark position
JP4902575B2 (en) Road sign recognition device and road sign recognition method
JP6520740B2 (en) Object detection method, object detection device, and program
JP6593088B2 (en) Vehicle position estimation apparatus and program
US20190225216A1 (en) Travel reference line determination system and automatic driving system
JP6747160B2 (en) Vehicle position estimation device
US20210055399A1 (en) Radar device
CN112797998A (en) Vehicle lane level positioning method, corresponding program carrier, product, device and vehicle
JP2013036856A (en) Driving support apparatus
JP2020003463A (en) Vehicle's self-position estimating device
CN113795726B (en) Self-position correction method and self-position correction device
KR102137043B1 (en) Positioning accuracy improvement system
JP2023118759A (en) Measuring device, measuring method and program
WO2021199555A1 (en) Course generation device, method, and program
CN109631925B (en) Main and auxiliary road determining method and device, storage medium and electronic equipment
EP3637053A1 (en) Measurement device, measurement method and program
JP7388557B2 (en) Map processing system and map processing program
JP7136050B2 (en) Vehicle position estimation device
RU2781373C1 (en) Method for correcting one's location and a device for correcting one's location
CN112415502B (en) Radar apparatus
EP4092651A1 (en) Nearby vehicle position estimation system, and nearby vehicle position estimation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200720

R151 Written notification of patent or utility model registration

Ref document number: 6747160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151