JP7001985B2 - Vehicle position estimation device, program, recording medium, and vehicle position estimation method - Google Patents

Vehicle position estimation device, program, recording medium, and vehicle position estimation method Download PDF

Info

Publication number
JP7001985B2
JP7001985B2 JP2016244366A JP2016244366A JP7001985B2 JP 7001985 B2 JP7001985 B2 JP 7001985B2 JP 2016244366 A JP2016244366 A JP 2016244366A JP 2016244366 A JP2016244366 A JP 2016244366A JP 7001985 B2 JP7001985 B2 JP 7001985B2
Authority
JP
Japan
Prior art keywords
point cloud
road
road surface
vehicle
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016244366A
Other languages
Japanese (ja)
Other versions
JP2018096935A (en
Inventor
一郎 山根
崇文 徳弘
賢 福本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016244366A priority Critical patent/JP7001985B2/en
Publication of JP2018096935A publication Critical patent/JP2018096935A/en
Application granted granted Critical
Publication of JP7001985B2 publication Critical patent/JP7001985B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Description

本開示は、自車位置推定装置、プログラム、記録媒体、および自車位置推定方法に関する。 The present disclosure relates to a vehicle position estimation device, a program, a recording medium, and a vehicle position estimation method.

従来から、車両の地図上の位置を推定する自車位置推定装置が数多く提案されている。 Conventionally, many self-vehicle position estimation devices for estimating the position of a vehicle on a map have been proposed.

上記のような自車位置推定装置の中には、車載カメラで撮影した画像から車線境界線とランドマーク(路面表示や道路標識など)を抽出し、道路の詳細地図情報との車線レベルでの整合性チェックにこの二つの情報を組み合わせて用いるものがある。 In the above-mentioned own vehicle position estimation device, lane boundaries and landmarks (road markings, road markings, etc.) are extracted from the image taken by the in-vehicle camera, and the lane level is combined with the detailed map information of the road. Some use a combination of these two pieces of information for consistency checking.

特開2005-265494号公報Japanese Unexamined Patent Publication No. 2005-265494

上記の自車位置推定装置には、車両位置の推定精度の更なる向上が求められる。 The above-mentioned own vehicle position estimation device is required to further improve the estimation accuracy of the vehicle position.

本開示の目的は、車両位置の推定精度を更に向上可能な自車位置推定装置、プログラム、記録媒体、および自車位置推定方法を提供することである。 An object of the present disclosure is to provide a vehicle position estimation device, a program, a recording medium, and a vehicle position estimation method capable of further improving the vehicle position estimation accuracy.

本開示の第一形態は、
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取る入力部と、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出し、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出し、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出する処理部と、を備え、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であ
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
自車位置推定装置に向けられる。
The first form of this disclosure is
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , An input unit that receives the road surface image captured by the image pickup device used in the vehicle, and
A first point cloud, which is a point cloud along the first direction, is extracted from the road markings included in the road surface image.
A second point cloud, which is a point cloud along the second direction, is extracted from the road markings included in the road surface image.
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison of the first line segment and the first point cloud, and the second line segment and the second point. It is equipped with a processing unit that calculates the vehicle position by performing comparison processing only for comparison of groups.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
It is aimed at the vehicle position estimation device.

本開示の第二形態は、
コンピュータに、
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取るステップと、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出するステップと、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出するステップと、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出するステップと、を実行させ、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であ
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
プログラムに向けられる。
The second form of the disclosure is
On the computer
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , The step of receiving the road surface image captured by the image pickup device used in the vehicle, and
A step of extracting a first point cloud, which is a point cloud along the first direction, from the road markings included in the road surface image.
A step of extracting a second point cloud, which is a point cloud along the second direction, from the road markings included in the road surface image, and
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison of the first line segment and the first point cloud, and the second line segment and the second point. By performing the comparison process limited to the point cloud comparison, the step of calculating the vehicle position and the step of calculating the vehicle position are executed.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
Directed to the program.

本開示の第三形態は、
コンピュータに、
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取るステップと、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出するステップと、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出するステップと、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出するステップと、を実行させ、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であ
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
プログラムを記録した記録媒体に向けられる。
The third form of the present disclosure is
On the computer
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , The step of receiving the road surface image captured by the image pickup device used in the vehicle, and
A step of extracting a first point cloud, which is a point cloud along the first direction, from the road markings included in the road surface image.
A step of extracting a second point cloud, which is a point cloud along the second direction, from the road markings included in the road surface image, and
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison of the first line segment and the first point cloud, and the second line segment and the second point. By performing the comparison process limited to the point cloud comparison, the step of calculating the vehicle position and the step of calculating the vehicle position are executed.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
Aimed at the recording medium on which the program was recorded.

本開示の第四形態は、
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取るステップと、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出するステップと、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出するステップと、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出するステップと、を備え、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であ
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
自車位置推定方法に向けられる。
The fourth form of the present disclosure is
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , The step of receiving the road surface image captured by the image pickup device used in the vehicle, and
A step of extracting a first point cloud, which is a point cloud along the first direction, from the road markings included in the road surface image.
A step of extracting a second point cloud, which is a point cloud along the second direction, from the road markings included in the road surface image, and
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison of the first line segment and the first point cloud, and the second line segment and the second point. It is provided with a step of calculating the vehicle position by performing comparison processing limited to the comparison of the group.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
It is directed to the vehicle position estimation method.

本開示によれば、車両位置の推定精度が更に向上可能となる。 According to the present disclosure, the estimation accuracy of the vehicle position can be further improved.

本開示の一形態に係る自車位置推定装置が搭載された車両を示す模式図Schematic diagram showing a vehicle equipped with the own vehicle position estimation device according to one embodiment of the present disclosure. 区画線を例示する図Diagram illustrating the lane marking 停止線を例示する図Diagram illustrating a stop line 横断歩道を例示する図Diagram illustrating a pedestrian crossing 矢印を例示する図Illustration exemplifying an arrow 自車位置推定装置の構成を示すブロック図Block diagram showing the configuration of the vehicle position estimation device 図1の自車位置推定装置の処理手順の第一部分を示すフロー図The flow diagram which shows the 1st part of the processing procedure of the own vehicle position estimation apparatus of FIG. 図1の自車位置推定装置の処理手順の第二部分を示すフロー図The flow chart which shows the 2nd part of the processing procedure of the own vehicle position estimation apparatus of FIG. 図1の自車位置推定装置の処理手順の第三部分を示すフロー図The flow chart which shows the 3rd part of the processing procedure of the own vehicle position estimation apparatus of FIG. 前方鳥瞰路面画像、後方鳥瞰路面画像、左方鳥瞰路面画像および右方鳥瞰路面画像と、それらから検出された第一点群とを示す図A diagram showing a front bird's-eye view image, a rear bird's-eye view image, a left bird's-eye view image, a right bird's-eye view image, and a first point cloud detected from them. 前方鳥瞰路面画像、後方鳥瞰路面画像、左方鳥瞰路面画像および右方鳥瞰路面画像と、それらから検出された第二点群とを示す図A diagram showing a front bird's-eye view image, a rear bird's-eye view image, a left bird's-eye view image, a right bird's-eye view image, and a second point cloud detected from them. 前方鳥瞰路面画像、後方鳥瞰路面画像、左方鳥瞰路面画像および右方鳥瞰路面画像と、それらから検出されたエッジとを示す図A diagram showing a front bird's-eye view image, a rear bird's-eye view image, a left bird's-eye view image, a right bird's-eye view image, and edges detected from them.

以下、図面を参照しつつ、本開示の一形態に係る自車位置推定装置を詳説する。 Hereinafter, the vehicle position estimation device according to one embodiment of the present disclosure will be described in detail with reference to the drawings.

<1.定義>
下表1は、下記の説明で使用される頭字語や略語の意味を示す。

Figure 0007001985000001
<1. Definition>
Table 1 below shows the meanings of acronyms and abbreviations used in the following explanations.
Figure 0007001985000001

また、本開示では、第一方向aは道路の延長方向を示し、第二方向bは道路の延長方向に実質的に垂直な方向を示すものとする。 Further, in the present disclosure, the first direction a indicates the extension direction of the road, and the second direction b indicates the direction substantially perpendicular to the extension direction of the road.

<2.実施形態>
<2-1.自車位置推定装置の構成>
図1において、車両Vには、ADAS地図記憶部1と、少なくとも一つの撮像装置2と、電波航法による測位装置3と、自立航法センサ群4と、自車位置推定装置5と、車両制御部6と、が搭載されている。
<2. Embodiment>
<2-1. Configuration of own vehicle position estimation device>
In FIG. 1, the vehicle V includes an ADAS map storage unit 1, at least one image pickup device 2, a positioning device 3 by radio navigation, a self-contained navigation sensor group 4, a vehicle position estimation device 5, and a vehicle control unit. 6 and are installed.

ADAS地図記憶部1は、所謂ADAS地図データを格納する。ADAS地図データは、道路網を構成する各道路の延長方向や形状のみならず、各道路に描かれた路面標示を特定可能な情報を含む。 The ADAS map storage unit 1 stores so-called ADAS map data. The ADAS map data includes not only the extension direction and shape of each road constituting the road network, but also information that can identify the road markings drawn on each road.

路面標示は、道路交通に関する規制又は指示を表示する標示で、路面に描かれた帯状の線又は記号である。路面標示としては、区画線、停止線、横断歩道および矢印マークが例示される。 Road markings are markings that indicate regulations or instructions regarding road traffic and are strip-shaped lines or symbols drawn on the road surface. Examples of road markings include pavement lines, stop lines, pedestrian crossings and arrow marks.

区画線は、図2Aに例示するように、車線を路肩や他車線から区画するための実線や破線であって、第一方向aに沿う白線または黄線である。 As illustrated in FIG. 2A, the lane marking is a solid line or a broken line for partitioning a lane from the shoulder or another lane, and is a white line or a yellow line along the first direction a.

停止線は、図2Bに例示するように、道路上で車両が停止すべき位置を示し、第二方向bに沿う白線からなる。 As illustrated in FIG. 2B, the stop line indicates a position on the road where the vehicle should stop, and consists of a white line along the second direction b.

横断歩道は、図2Cに例示するように、第一方向aに沿う複数の白線であって、間隔をあけて第二方向bにおいて配列された複数の白線を含む。また、図示は控えるが、横断歩道の中には、梯子型のもの(即ち、第二方向bに延びる二本の白線の間に、第一方向aに沿う複数の白線が介在するもの)もある。 The pedestrian crossing, as illustrated in FIG. 2C, is a plurality of white lines along the first direction a and includes a plurality of white lines arranged in the second direction b at intervals. In addition, although not shown, some pedestrian crossings are ladder-shaped (that is, a plurality of white lines along the first direction a are interposed between two white lines extending in the second direction b). be.

矢印マークは、図2Dに示すように、対象となる車線が右折用、直線用、左折用であることを示す。 The arrow marks indicate that the target lane is for a right turn, a straight line, or a left turn, as shown in FIG. 2D.

ADAS地図データにおいて、各路面標示や横断歩道の外形形状は、そのエッジの点群(座標値の集まり)で定義されている。 In the ADAS map data, the outer shape of each road marking and pedestrian crossing is defined by a point cloud (a collection of coordinate values) of the edge.

また、ADAS地図データにおいて、図2Aの区画線は、各白線部分等に含まれた二点を両端とし、第一方向aに平行な線分(以下、第一線分という場合がある)で定義される。より具体的には、この二点は、白線部分等において、第一方向aに相対向する二辺の中心点である。 Further, in the ADAS map data, the division line of FIG. 2A is a line segment parallel to the first direction a (hereinafter, may be referred to as a first line segment) with two points included in each white line portion or the like at both ends. Defined. More specifically, these two points are the center points of the two sides facing each other in the first direction a in the white line portion and the like.

それに対し、ADAS地図データにおいて、図2Bの停止線の第二方向bに延びる白線部分は、各白線部分に含まれた二点を両端とし、第二方向bに平行な線分(以下、第二線分という場合がある)で定義される。 On the other hand, in the ADAS map data, the white line portion extending in the second direction b of the stop line in FIG. 2B has two points included in each white line portion at both ends and is a line segment parallel to the second direction b (hereinafter referred to as the first line segment). It is sometimes called a two-line segment).

なお、本開示の要部でないため説明は簡素化するが、ADAS地図データには、地物の形状等を示す三次元点群データを含んでも良い。このような三次元点群データは、専用の測量車両に搭載された外界センサ(例えば、赤外線レーザスキャナ)やロケータ(例えば、GPS)を用いて作製されれば良い。 Although the description is simplified because it is not a main part of the present disclosure, the ADAS map data may include three-dimensional point cloud data indicating the shape of a feature or the like. Such three-dimensional point cloud data may be created by using an external sensor (for example, an infrared laser scanner) or a locator (for example, GPS) mounted on a dedicated surveying vehicle.

少なくとも一つの撮像装置2は、本開示では、車両Vの周囲(好ましくは、前後左右の四方)を撮像する撮像装置2F,2B,2Lおよび2Rである。撮像装置2Fおよび2Bは、車両Vの前方および後方の路面を撮像するように、例えば車両Vのバンパーに搭載され、撮像装置2Lおよび2Rは、車両Vの左方向および右方向の路面を撮像するように、車両Vの各ドアミラーに搭載される。 At least one image pickup device 2 is, in the present disclosure, image pickup devices 2F, 2B, 2L and 2R that image the surroundings of the vehicle V (preferably, front, rear, left and right sides). The image pickup devices 2F and 2B are mounted on the bumper of the vehicle V, for example, so as to image the road surface in front of and behind the vehicle V, and the image pickup devices 2L and 2R image the road surface in the left and right directions of the vehicle V. As described above, it is mounted on each door mirror of the vehicle V.

本開示では、上記のように、撮像装置2F,2B,2L,2Rが互いに異なる方向を撮像することにより、車両V周辺の広範囲を撮像できるようになっている。すなわち、各撮像装置2F,2B,2L,2Rは、車両Vが走行中の車線の前方のみならず、路側、隣の車線および対向車線などを撮像可能になっている。これにより、撮像装置2F,2B,2L,2Rが停止線および区画線を確実に撮影可能となり、その結果、自車位置推定装置5は、路面標示を抽出可能となる。 In the present disclosure, as described above, the image pickup devices 2F, 2B, 2L, and 2R can image a wide range around the vehicle V by taking images in different directions. That is, each image pickup device 2F, 2B, 2L, 2R can image not only the front of the lane in which the vehicle V is traveling, but also the roadside, the adjacent lane, the oncoming lane, and the like. As a result, the image pickup devices 2F, 2B, 2L, and 2R can reliably capture the stop line and the lane marking, and as a result, the own vehicle position estimation device 5 can extract the road markings.

撮像装置2F,2B,2L,および2Rは、好ましくは互いに同期しつつ、予め定められたフレームレートで撮像して、それぞれの撮像装置2F,2B,2L,2Rの視野内の路面状況を表す路面画像を、自車位置推定装置5に送信する。以下、撮像装置2F,2B,2L,および2Rの路面画像を、前方路面画像、後方路面画像、左方路面画像および右方路面画像という場合がある。これらの路面画像は、撮像装置2F,2B,2L,および2Rが互いに同期していれば、同時刻に撮影されたものとなる。以下、路面画像とは、撮像された時刻が厳密に同時刻でなくても、互いの画像が同一時間帯に撮像されたとして自車位置推定装置5で取り扱われる場合も、「同時刻に撮像されたもの」と表記する。 The image pickup devices 2F, 2B, 2L, and 2R preferably synchronize with each other and take images at a predetermined frame rate, and represent the road surface conditions in the field of view of the respective image pickup devices 2F, 2B, 2L, and 2R. The image is transmitted to the own vehicle position estimation device 5. Hereinafter, the road surface images of the image pickup devices 2F, 2B, 2L, and 2R may be referred to as a front road surface image, a rear road surface image, a left road surface image, and a right road surface image. These road surface images are taken at the same time if the image pickup devices 2F, 2B, 2L, and 2R are synchronized with each other. Hereinafter, the road surface image is referred to as "captured at the same time" even when the vehicle position estimation device 5 handles each other's images as being captured in the same time zone even if the captured times are not exactly the same time. It is written as "what was done".

測位装置3は、例えばGPS受信機であって、測位システム(本開示の場合GPS)に備わる複数の人工衛星からの受信信号から、車両Vの現在の絶対位置を示す情報を出力する。 The positioning device 3 is, for example, a GPS receiver, and outputs information indicating the current absolute position of the vehicle V from received signals from a plurality of artificial satellites provided in the positioning system (GPS in the present disclosure).

自立航法センサ群4は、例えば、方位センサおよび速度センサを含む。方位センサは、車両Vの進行方向を示す信号を出力する。速度センサは、車両Vの移動速度を示す信号を出力する。
なお、センサ群4は、速度センサの代わりに加速度センサや外界センサ(典型的にはステレオカメラ)を含んでいても良いし、方位センサの代わりに角加速度センサを含んでいても良い。
The self-contained navigation sensor group 4 includes, for example, a directional sensor and a speed sensor. The directional sensor outputs a signal indicating the traveling direction of the vehicle V. The speed sensor outputs a signal indicating the moving speed of the vehicle V.
The sensor group 4 may include an acceleration sensor or an external world sensor (typically a stereo camera) instead of the speed sensor, or may include an angular acceleration sensor instead of the orientation sensor.

自車位置推定装置5は、例えば、図3に示すように、基板上に実装された、入力部61と、演算処理を行う処理部62と、出力部63と、を備えたECUである。入力部61は、ADAS地図記憶部1と、撮像装置2と、電波航法による測位装置3と、自立航法センサ群4と、が接続され、接続されたこれらの各部から、画像データやセンサデータ等の各種データを受け取るものである。処理部62は、予め格納されているプログラムを実行して、入力部61の入力情報や入力信号から、車両Vの現在位置を高精度に導出するものである。出力部63は、処理部62で導出された車両Vの自車位置(現在位置)を車両制御部6へ出力する。 As shown in FIG. 3, for example, the own vehicle position estimation device 5 is an ECU including an input unit 61, a processing unit 62 for performing arithmetic processing, and an output unit 63 mounted on a substrate. The input unit 61 is connected to the ADAS map storage unit 1, the image pickup device 2, the positioning device 3 by radio navigation, and the self-contained navigation sensor group 4, and image data, sensor data, etc. It receives various data of. The processing unit 62 executes a program stored in advance and derives the current position of the vehicle V with high accuracy from the input information and the input signal of the input unit 61. The output unit 63 outputs the own vehicle position (current position) of the vehicle V derived by the processing unit 62 to the vehicle control unit 6.

車両制御部6は、本開示では、車両Vの自動運転を行うために、車両Vの駆動源のアクセル開度、操舵装置の操舵量、制動装置の減速度などを制御するための車両制御ECUである。 In the present disclosure, the vehicle control unit 6 controls a vehicle control ECU for controlling the accelerator opening of the drive source of the vehicle V, the steering amount of the steering device, the deceleration of the braking device, and the like in order to automatically drive the vehicle V. Is.

<2-2.自車位置推定装置の処理>
次に、図1~図6Cを参照して、自車位置推定装置5の処理手順について説明する。
図4において、処理部62は、鳥瞰地図データ生成部として機能し、ADAS地図記憶部1から、現在の車両Vの位置を含む所定範囲のADAS地図データを、入力部61を介して受け取る(ステップS110)。本ステップで受け取ったADAS地図データには、区画線(図2Aを参照)を定義する第一線分や、停止線等(図2B等を参照)を定義する第二線分が含まれる。また、現在の自車位置は、後述する図5のステップS11またはS12で得られたものである。なお、現在の自車位置の初期値としては、GNSS(Global Navigation Satellite System)等からの情報を自車位置として用いる。また、現在の車両Vの位置から如何なる範囲のADAS地図データをADAS地図記憶部1から受け取るかは、任意であり、所望の範囲を設定することができる。
<2-2. Processing of own vehicle position estimation device>
Next, the processing procedure of the own vehicle position estimation device 5 will be described with reference to FIGS. 1 to 6C.
In FIG. 4, the processing unit 62 functions as a bird's-eye view map data generation unit, and receives ADAS map data in a predetermined range including the current position of the vehicle V from the ADAS map storage unit 1 via the input unit 61 (step). S110). The ADAS map data received in this step includes a first line segment that defines a lane marking (see FIG. 2A) and a second line segment that defines a stop line and the like (see FIG. 2B and the like). Further, the current position of the own vehicle is obtained in steps S11 or S12 of FIG. 5, which will be described later. As the initial value of the current vehicle position, information from GNSS (Global Navigation Satellite System) or the like is used as the vehicle position. Further, what range of ADAS map data is received from the ADAS map storage unit 1 from the current position of the vehicle V is arbitrary, and a desired range can be set.

処理部62は、ステップS110で取得したADAS地図データから、区画線(図2Aを参照)を定義する第一線分を全て選択して抽出し(ステップS120)、抽出した第一線分を所定視点から見下ろした第一鳥瞰地図データを生成する(ステップS130)。 The processing unit 62 selects and extracts all the first line segments that define the lane markings (see FIG. 2A) from the ADAS map data acquired in step S110 (step S120), and determines the extracted first line segments. Generate the first bird's-eye view map data looking down from the viewpoint (step S130).

処理部62は、ステップS110で取得したADAS地図データから、停止線(図2Bを参照)を定義する第二線分を全て選択して抽出し(ステップS140)、抽出した第二線分を所定視点から見下ろした第二鳥瞰地図データ(停止線)を生成する(ステップS150)。 The processing unit 62 selects and extracts all the second line segments that define the stop line (see FIG. 2B) from the ADAS map data acquired in step S110 (step S140), and determines the extracted second line segment. The second bird's-eye view map data (stop line) looking down from the viewpoint is generated (step S150).

処理部62は、ステップS110で取得したADAS地図データから、路面標示(但し、横断歩道を除く。図2A,図2B,図2Dを参照)の外形形状を定義する点群を全て選択して抽出し(ステップS160)、抽出した点群を所定視点から見下ろした第三鳥瞰地図データ(横断歩道を除く)を生成する(ステップS170)。 The processing unit 62 selects and extracts all the point groups that define the outer shape of the road markings (excluding the pedestrian crossing; see FIGS. 2A, 2B, and 2D) from the ADAS map data acquired in step S110. (Step S160), the third bird's-eye view map data (excluding the pedestrian crossing) looking down on the extracted point group from a predetermined viewpoint is generated (step S170).

処理部62は、ステップS110で取得したADAS地図データから、横断歩道(図2Cを参照)の外形形状を定義する点群と、横断歩道における第二方向bに沿う白線部分を定義する第二線分を全て選択・抽出する(ステップS180)。 From the ADAS map data acquired in step S110, the processing unit 62 defines a point cloud that defines the outer shape of the pedestrian crossing (see FIG. 2C) and a second line that defines a white line portion along the second direction b in the pedestrian crossing. Select and extract all the minutes (step S180).

ステップS180の次に、処理部62は、同ステップで取得した点群を所定視点から見下ろした第三鳥瞰地図データ(横断歩道)を生成し(ステップS190)、同ステップで取得した第二線分を所定視点から見下ろした第二鳥瞰地図データ(横断歩道)を生成する(ステップS200)。 Following step S180, the processing unit 62 generates third bird's-eye view map data (pedestrian crossing) looking down on the point group acquired in the same step from a predetermined viewpoint (step S190), and the second line segment acquired in the same step. Generates second bird's-eye view map data (pedestrian crossing) looking down from a predetermined viewpoint (step S200).

次に、処理部62は、鳥瞰路面画像生成部として機能し、上記鳥瞰地図データ生成部で生成された各鳥瞰地図データを受け取る(図5AのステップS1)。 Next, the processing unit 62 functions as a bird's-eye view road surface image generation unit, and receives each bird's-eye view map data generated by the bird's-eye view map data generation unit (step S1 in FIG. 5A).

次に、処理部62は、撮像装置2F,2B,2L,2Rにより同時刻に得られた路面画像(即ち、前方路面画像、後方路面画像、左方路面画像および右方路面画像)を読み込む(ステップS2)。 Next, the processing unit 62 reads the road surface image (that is, the front road surface image, the rear road surface image, the left road surface image, and the right road surface image) obtained at the same time by the image pickup apparatus 2F, 2B, 2L, 2R (that is, the front road surface image, the rear road surface image, and the right road surface image). Step S2).

次に、処理部62は、ステップS2で読み込んだ各路面画像を、所定視点から見下ろした鳥瞰路面画像(即ち、前方鳥瞰路面画像、後方鳥瞰路面画像、左方鳥瞰路面画像および右方鳥瞰路面画像)に変換する(ステップS3)。ここで、鳥瞰路面画像は、前方鳥瞰路面画像、後方鳥瞰路面画像、左方鳥瞰路面画像および右方鳥瞰路面画像の合成画像であってもよいし、前方鳥瞰路面画像、後方鳥瞰路面画像、左方鳥瞰路面画像および右方鳥瞰路面画像を纏めた画像群であってもよい。図6Aには、前方鳥瞰路面画像、後方鳥瞰路面画像、左方鳥瞰路面画像および右方鳥瞰路面画像の合成画像が例示される。図6B,図6Cのそれぞれも同様の合成画像である。 Next, the processing unit 62 looks down on each road surface image read in step S2 from a predetermined viewpoint (that is, a front bird's-eye view image, a rear bird's-eye view image, a left bird's-eye view image, and a right bird's-eye view image). ) (Step S3). Here, the bird-view road surface image may be a composite image of the front bird-view road surface image, the rear bird-view road surface image, the left bird-view road surface image, and the right bird-view road surface image, or the front bird-view road surface image, the rear bird-view road surface image, and the left. It may be a group of images in which a square bird's-eye view road surface image and a right-side bird's-eye view road surface image are put together. FIG. 6A exemplifies a composite image of a front bird's-eye view road surface image, a rear bird's-eye view road surface image, a left bird's-eye view road surface image, and a right bird's-eye view road surface image. 6B and 6C are similar composite images.

次に、処理部62は、ステップS120(図4を参照)で第一線分が抽出されたか否かを判定し(ステップS21)、YESの場合には後述するステップS4,S5を実行し、NOの場合、これらステップをスキップする。また、処理部62は、ステップS140(図4を参照)で第二線分が抽出されたか否かを判定し(ステップS22)、YESの場合には後述するステップS6,S7を実行し、NOの場合、これらステップをスキップする。また、処理部62は、ステップS160(図4を参照)で路面標示の外形形状を定義する点群を抽出したか否かを判定し(ステップS23)、YESの場合に後述するステップS8,S9を実行し、NOの場合、これらステップをスキップする。 Next, the processing unit 62 determines whether or not the first line segment has been extracted in step S120 (see FIG. 4) (step S21), and if YES, executes steps S4 and S5 described later. If NO, skip these steps. Further, the processing unit 62 determines whether or not the second line segment has been extracted in step S140 (see FIG. 4) (step S22), and if YES, executes steps S6 and S7 described later, and NO. If, skip these steps. Further, the processing unit 62 determines whether or not the point cloud that defines the outer shape of the road marking has been extracted in step S160 (see FIG. 4) (step S23), and if YES, steps S8 and S9 described later. And if NO, skip these steps.

すなわち、必ずしも、ステップS120で区画線(図2Aを参照)を定義する第一線分が抽出されるとは限らない。同様に、ステップS140において、停止線(図2Bを参照)を定義する第二線分が抽出されるとは限らず、ステップS160において、路面標示(図2A~図2Dを参照)の外形形状を定義する点群が抽出されるとは限らない。このような背景から、本開示では、上記のようなステップS21等の判定を行い、必要な場合に限り、ステップS4,S5等の処理を実行することにより、処理部62の処理負荷のさらなる軽減を図っている。 That is, the first line segment that defines the lane marking (see FIG. 2A) is not always extracted in step S120. Similarly, in step S140, the second line segment defining the stop line (see FIG. 2B) is not always extracted, and in step S160, the outer shape of the road marking (see FIGS. 2A to 2D) is determined. The point cloud to be defined is not always extracted. Against this background, in the present disclosure, the processing load of the processing unit 62 is further reduced by performing the determination of step S21 and the like as described above and executing the processing of steps S4 and S5 and the like only when necessary. I am trying.

第一線分が抽出された(ステップS21、YES)と判定した場合、処理部62は、第一抽出部として機能し、ステップS3で生成された各鳥瞰路面画像にエッジ検出処理等を行い、これによって得られた各道路標示のエッジから、第一方向に沿う点群(以下、第一点群という)を抽出する(ステップS4)。図6Aには、第一点群の一例が参照符号P1を付して示されている。 When it is determined that the first line segment has been extracted (step S21, YES), the processing unit 62 functions as the first extraction unit and performs edge detection processing or the like on each bird's-eye view road surface image generated in step S3. From the edges of each road sign obtained by this, a point cloud along the first direction (hereinafter referred to as a first point cloud) is extracted (step S4). FIG. 6A shows an example of the first point cloud with the reference numeral P1.

次に、処理部62は、ステップS130で得られた第一鳥瞰地図データと、ステップS4で得られた第一点群P1とを用いてパターンマッチング処理(比較)を行い、第一鳥瞰地図データにおける第一点群P1と整合する部分を探す(ステップS5)。 Next, the processing unit 62 performs pattern matching processing (comparison) using the first bird's-eye view map data obtained in step S130 and the first point cloud group P1 obtained in step S4, and performs the first bird's-eye view map data. Search for a part that matches the first point cloud P1 in (step S5).

また、第二線分が抽出された(ステップS22、YES)と判定した場合、処理部62は、第二抽出部として機能し、例えばステップS4に並行して、同時並行のステップS4で用いたものと同じ各鳥瞰路面画像にエッジ検出処理等を行い、これによって得られた各道路標示のエッジから、第二方向に沿う点群(以下、第二点群という)を抽出する(ステップS6)。図6Bには、第二点群の一例が参照符号P2を付して示されている。 Further, when it is determined that the second line segment has been extracted (step S22, YES), the processing unit 62 functions as the second extraction unit, and is used, for example, in parallel with step S4 in step S4 in parallel. Edge detection processing or the like is performed on each bird's-eye view road surface image that is the same as the one, and a point cloud along the second direction (hereinafter referred to as a second point cloud) is extracted from the edges of each road marking obtained by this (step S6). .. FIG. 6B shows an example of the second point cloud with the reference numeral P2.

次に、処理部62は、ステップS150,S200で得られた第二鳥瞰地図データ(停止線)および第二鳥瞰地図データ(横断歩道)を合成した第二鳥瞰地図データと、ステップS6で得られた第二点群P2とを用いてパターンマッチング処理を行い、第二鳥瞰地図データにおける第二点群P2と整合する部分を探す(ステップS7)。 Next, the processing unit 62 obtains the second bird's-eye view map data obtained by synthesizing the second bird's-eye view map data (stop line) and the second bird's-eye view map data (crosswalk) obtained in steps S150 and S200, and the second bird's-eye view map data obtained in step S6. A pattern matching process is performed using the second point group P2, and a portion matching the second point group P2 in the second bird's-eye view map data is searched for (step S7).

また、路面標示の外形形状を定義する点群が抽出された(ステップS23、YES)と判定した場合、処理部62は、エッジ抽出部として機能し、例えばステップS4,S6に並行して、ステップS3で生成された各鳥瞰路面画像に対しエッジ検出処理等を行って、各道路標示のエッジを抽出する(ステップS8)。図6Cには、エッジの一例が参照符号P3を付して示されている。 Further, when it is determined that the point group defining the outer shape of the road marking has been extracted (step S23, YES), the processing unit 62 functions as an edge extraction unit, for example, in parallel with steps S4 and S6, in steps. Edge detection processing or the like is performed on each bird's-eye view road surface image generated in S3 to extract the edges of each road marking (step S8). FIG. 6C shows an example of an edge with reference numeral P3.

次に、処理部62は、ステップS170,190で得られた第三鳥瞰地図データと、ステップS8で得られたエッジとを用いてパターンマッチング処理を行い、第三鳥瞰地図データにおけるエッジP3と整合する部分を探す(ステップS9)。 Next, the processing unit 62 performs pattern matching processing using the third bird's-eye view map data obtained in steps S170 and 190 and the edge obtained in step S8, and matches the edge P3 in the third bird's-eye view map data. Search for the part to be used (step S9).

なお、図5には、ステップS4,S5と、ステップS6,S7と、ステップS8,S9とが並列に実行される例を示した。しかしながら、これに限らず、ステップS4,S5と、ステップS6,S7と、ステップS8,S9と、が何れの順番で直列的に実行されても構わない。 Note that FIG. 5 shows an example in which steps S4 and S5, steps S6 and S7, and steps S8 and S9 are executed in parallel. However, the present invention is not limited to this, and steps S4, S5, steps S6, S7, and steps S8, S9 may be executed in series in any order.

次に、処理部62は、比較対象があったか否かを判断する(ステップS10)。具体的には、処理部62は、ステップS5,S7,S9の全てで整合する部分が見つかったか否かを判断する。 Next, the processing unit 62 determines whether or not there is a comparison target (step S10). Specifically, the processing unit 62 determines whether or not a matching portion has been found in all of steps S5, S7, and S9.

ステップS10でNOと判断すると、処理部62は、オドメトリーにより得られた現在の自車位置(例えば、測位装置3により得られた現在位置、または、自立航法センサ群4の出力信号から得られた現在位置)を、次のステップS110(図4を参照)で用いる現在位置とする(ステップS11)。 If NO is determined in step S10, the processing unit 62 is obtained from the current vehicle position obtained by odometry (for example, the current position obtained by the positioning device 3 or the output signal of the self-contained navigation sensor group 4). The current position) is the current position used in the next step S110 (see FIG. 4) (step S11).

それに対し、ステップS10でYESと判断すると、処理部62は、算出部として機能し、下記(1)~(3)の距離の合計が所定の基準値以下となる位置(即ち、誤差が小さくなるような位置)を探し出し、次のステップS110で用いる車両Vの現在位置とする(ステップS12)。
(1)ステップS5で見つけた第一点群の各点から第一鳥瞰地図データにおける整合部分(第一線分)への距離の合計
(2)ステップS7で見つけた第二点群の各点から第二鳥瞰地図データにおける整合部分(第二線分)への距離の合計
(3)ステップS9で見つけたエッジの各点から第三鳥瞰地図データにおける整合部分(外形形状)への距離の合計
On the other hand, if YES is determined in step S10, the processing unit 62 functions as a calculation unit, and the position where the total of the distances (1) to (3) below is equal to or less than the predetermined reference value (that is, the error becomes small). Such a position) is searched for, and the current position of the vehicle V to be used in the next step S110 is used (step S12).
(1) Total distance from each point of the first point group found in step S5 to the matching part (first line segment) in the first bird's-eye view map data (2) Each point of the second point group found in step S7 Total distance from each point of the edge found in step S9 to the matching part (outer shape) in the third bird's-eye view map data.

なお、処理部62は、ステップS12において、上記(1)~(3)の距離の合計が最小値になる位置を探すようにしても良い。 In addition, the processing unit 62 may search for a position where the total of the distances (1) to (3) is the minimum value in step S12.

処理部62は、ステップS11,12のいずれか一方で得た現在位置を、次回のステップS110で使うために鳥瞰地図データ生成部に渡す(ステップS13)。また、処理部62は、出力部63を介して、求めた現在位置を、車両制御部6に渡す。他にも、処理部62は、出力部63を介して、求めた現在位置を、例えばナビゲーションシステムに出力しても良い。 The processing unit 62 passes the current position obtained in either one of steps S11 and S12 to the bird's-eye view map data generation unit for use in the next step S110 (step S13). Further, the processing unit 62 passes the obtained current position to the vehicle control unit 6 via the output unit 63. In addition, the processing unit 62 may output the obtained current position to, for example, a navigation system via the output unit 63.

以上の図4および図5の処理は、例えば車両Vのアクセサリ電源がオンの間、繰り返し実行される。 The above processes of FIGS. 4 and 5 are repeatedly executed, for example, while the accessory power supply of the vehicle V is turned on.

他の例として、ステップS10において、処理部62は、比較対象があったか否かの判断基準として、少なくともステップS5およびステップS7の両方で整合する部分が見つかったか否かを判断することとしてもよい。 As another example, in step S10, the processing unit 62 may determine whether or not a matching portion is found at least in both steps S5 and S7 as a criterion for determining whether or not there is a comparison target.

また、他の例として、ステップS23,S8,およびステップS9の処理を行わないように設定することもできる。この場合、ステップS10において、処理部62は、比較対象があったか否かの判断基準として、ステップS5およびステップS7の両方で整合する部分が見つかったか否かを判断する。ステップS10でYESと判断された場合のステップS12(算出部)の処理は、上記(3)を使わないこと以外は上述と同様である。 Further, as another example, it is possible to set not to perform the processing of steps S23, S8, and S9. In this case, in step S10, the processing unit 62 determines whether or not a matching portion is found in both steps S5 and S7 as a criterion for determining whether or not there is a comparison target. The process of step S12 (calculation unit) when YES is determined in step S10 is the same as described above except that the above (3) is not used.

<2-3.本自車位置推定装置の作用・効果>
ところで、従来のように、車載カメラで撮影した画像から車線境界線とランドマーク(路面表示や道路標識など)を抽出するだけでは、ランドマークの経時劣化(具体的には、塗装の剥げ等)により、画像から抽出した車線境界線やランドマークの形状は、極端に言うと原型を留めないこともある。その結果、ランドマーク等と地図情報との車線レベルでの整合性チェックの精度、ひいては、推定された現在位置の精度をより向上させることが求められる。
<2-3. Action / effect of this vehicle position estimation device>
By the way, as in the past, simply extracting lane boundaries and landmarks (road markings, road markings, etc.) from images taken with an in-vehicle camera will cause the landmarks to deteriorate over time (specifically, paint peeling, etc.). Therefore, the shape of the lane boundary line or the landmark extracted from the image may not keep the original shape in the extreme. As a result, it is required to further improve the accuracy of the consistency check between the landmarks and the map information at the lane level, and by extension, the accuracy of the estimated current position.

上記の通り、本開示では、路面標示は、第一方向aに沿う白線部分等および第二方向bに沿う白線部分等に分類される。そして、ADAS地図データにおいては、第一方向a(または第二方向b)に沿う白線部分等は、第一方向a(または第二方向b)に平行な第一線分(または第二線分)を両端の二点で特定される。 As described above, in the present disclosure, the road markings are classified into a white line portion and the like along the first direction a and a white line portion and the like along the second direction b. Then, in the ADAS map data, the white line segment or the like along the first direction a (or the second direction b) is a first line segment (or a second line segment) parallel to the first direction a (or the second direction b). ) Is specified by two points at both ends.

処理部62は、第一抽出部(または第二抽出部)として機能して、撮像装置2によって同時刻に得られた車両Vの周辺の路面画像から、各道路標示を構成する第一点群P1(または第二点群P2)であって、第一方向a(または第二方向b)に沿う第一点群P1(または第二点群P2)を抽出する。 The processing unit 62 functions as a first extraction unit (or a second extraction unit), and is a first point cloud that constitutes each road sign from the road surface image around the vehicle V obtained at the same time by the image pickup device 2. The first point cloud P1 (or the second point cloud P2) along the first direction a (or the second direction b), which is P1 (or the second point cloud P2), is extracted.

その後、処理部62は、算出部として機能し、第一線分および第一点群P1の比較結果と、第二線分および第二点群P2の比較結果とに基づき、車両Vの位置を算出する。 After that, the processing unit 62 functions as a calculation unit, and determines the position of the vehicle V based on the comparison result of the first line segment and the first point group P1 and the comparison result of the second line segment and the second point group P2. calculate.

上記の通り、処理部62は、第一方向aに制限して、路面画像から抽出された第一点群P1がADAS地図データから抽出された第一線分に整合する部分を探すと共に、第二方向bに制限して、路面画像から抽出された第二点群P2がADAS地図データから抽出された第二線分に整合する部分を探す。このように、本開示では、処理部62は、第一方向aおよび第二方向bに制限ないし特化して、それぞれの方向における車両Vの位置を推定するため、路面画像における道路標示の形状が崩れていても、第一方向aおよび第二方向bに沿う第一点群P1および第二点群P2さえ得られれば、その推定された車両位置(自車位置)は高精度となる。 As described above, the processing unit 62 is limited to the first direction a, searches for a portion where the first point group P1 extracted from the road surface image matches the first line segment extracted from the ADAS map data, and at the same time, the first By limiting to two directions b, the second point group P2 extracted from the road surface image is searched for a portion matching the second line segment extracted from the ADAS map data. As described above, in the present disclosure, the processing unit 62 limits or specializes in the first direction a and the second direction b, and estimates the position of the vehicle V in each direction. Even if it collapses, the estimated vehicle position (own vehicle position) becomes highly accurate as long as the first point cloud P1 and the second point cloud P2 along the first direction a and the second direction b are obtained.

さらに言えば、第一方向aおよび第二方向bに制限して、処理部62がマッチング処理等を行うことで、従来よりも、処理部62の処理負荷を軽減することも可能となる。 Furthermore, by limiting to the first direction a and the second direction b and performing the matching process or the like by the processing unit 62, it is possible to reduce the processing load of the processing unit 62 as compared with the conventional case.

また、前述の通り、本開示では、撮像装置2F,2B,2L,2Rにより、車両Vが走行中の車線の前方のみならず、路側、隣の車線および対向車線などを撮像可能になっている。これにより、前方路面画像、後方路面画像、左方路面画像および右方路面画像のいずれかには停止線および区画線が含まれる可能性が高まり、その結果、自車位置推定装置5は第一点群および第二点群を抽出できる可能性が高まる。 Further, as described above, in the present disclosure, the image pickup devices 2F, 2B, 2L, 2R can image not only the front of the lane in which the vehicle V is traveling, but also the roadside, the adjacent lane, the oncoming lane, and the like. .. As a result, it is highly possible that any one of the front road surface image, the rear road surface image, the left road surface image, and the right road surface image includes a stop line and a lane marking line, and as a result, the own vehicle position estimation device 5 is the first. The possibility of extracting the point cloud and the second point cloud increases.

<2-4.付記>
上記では、車両VにADAS地図記憶部1を搭載するものとして説明した。しかしながら、これに限らず、ADAS地図記憶部1は遠隔のサーバにあっても良い。この場合、処理部62は、遠隔のサーバからADAS地図データを読み出すことになる。
<2-4. Addendum>
In the above, it has been described that the ADAS map storage unit 1 is mounted on the vehicle V. However, the present invention is not limited to this, and the ADAS map storage unit 1 may be located on a remote server. In this case, the processing unit 62 will read the ADAS map data from the remote server.

また、上記では、第一方向aは道路の延長方向であり、第二方向bは、第一方向aと垂直な方向であるとして説明した。しかしながら、これに限らず、第一方向aは、道路の延長方向に対し公差程度のずれがあっても良いし、第二方向bは、第一方向aと垂直な方向に対し公差程度のずれがあっても良い。 Further, in the above description, the first direction a is the extension direction of the road, and the second direction b is the direction perpendicular to the first direction a. However, not limited to this, the first direction a may have a deviation of about a tolerance with respect to the extension direction of the road, and the second direction b may have a deviation of about a tolerance with respect to the direction perpendicular to the first direction a. There may be.

なお、道路の延長方向は必ずしも直線になるとは限らない。この場合、道路上に適切な長さの区間で区切り、区間ごとに第一線分を定義しても良い。 The extension direction of the road is not always straight. In this case, it may be divided into sections of appropriate length on the road, and the first line segment may be defined for each section.

また、上記では、単一のECU(即ち、自車位置推定装置5)が図4および図5の処理を実行していた。しかしながら、自車位置推定装置5は、少なくとも、図5のステップS4~S13を実行すれば良く、他の処理は、自車位置推定装置5以外の例えば車両制御部6やナビゲーションECUが実行すれば良い。 Further, in the above, a single ECU (that is, the own vehicle position estimation device 5) has executed the processes of FIGS. 4 and 5. However, the own vehicle position estimation device 5 may at least execute steps S4 to S13 of FIG. 5, and other processes may be executed by, for example, a vehicle control unit 6 or a navigation ECU other than the own vehicle position estimation device 5. good.

また、処理部62が実行したプログラムは、DVD等のような非一過性の記録媒体に格納されて提供されても良いし、ネットワークを介してダウンロード可能にネットワーク上のサーバ装置に格納されても良い。 Further, the program executed by the processing unit 62 may be stored and provided in a non-transient recording medium such as a DVD, or may be stored in a server device on the network so as to be downloadable via the network. Is also good.

また、上記では、ADAS地図データも路面画像も鳥瞰図に変換されるとして説明した。しかしながら、これに限らず、例えば、ADAS地図データおよび路面画像は他の座標系に変換されても構わない。 Further, in the above, it has been described that both the ADAS map data and the road surface image are converted into a bird's-eye view. However, the present invention is not limited to this, and for example, the ADAS map data and the road surface image may be converted into another coordinate system.

その他、上記実施の形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。 In addition, the above embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from its gist or its main features.

本開示に係る自車位置推定装置等は、自車位置の推定精度が向上可能であり、車載用途に好適である。 The own vehicle position estimation device and the like according to the present disclosure can improve the estimation accuracy of the own vehicle position and are suitable for in-vehicle use.

1 ADAS地図記憶部
2 撮像装置
5 自車位置推定装置
61 入力部
62 処理部
63 出力部
1 ADAS map storage unit 2 Imaging device 5 Own vehicle position estimation device 61 Input unit 62 Processing unit 63 Output unit

Claims (11)

車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取る入力部と、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出し、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出し、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出する処理部と、を備え、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であ
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
自車位置推定装置。
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , An input unit that receives the road surface image captured by the image pickup device used in the vehicle, and
A first point cloud, which is a point cloud along the first direction, is extracted from the road markings included in the road surface image.
A second point cloud, which is a point cloud along the second direction, is extracted from the road markings included in the road surface image.
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison between the first line segment and the first point cloud, and the second line segment and the second point cloud. It is equipped with a processing unit that calculates the vehicle position by performing comparison processing limited to the comparison of
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
Own vehicle position estimation device.
前記処理部は、同時刻に得られた前記路面画像に含まれる前記路面標示の外形形状を示すエッジの情報から前記第一点群および前記第二点群を抽出する、請求項1に記載の自車位置推定装置。 The first aspect of the present invention, wherein the processing unit extracts the first point cloud and the second point cloud from the edge information indicating the outer shape of the road marking included in the road surface image obtained at the same time. Vehicle position estimation device. 前記処理部は、前記第一線分が前記地図データに含まれていなかった場合、前記第一点群の抽出処理を行なわず、前記第二線分が前記地図データに含まれていなかった場合、前記第二点群の抽出処理を行わない、請求項1に記載の自車位置推定装置。 When the first line segment is not included in the map data, the processing unit does not perform the extraction process of the first point cloud, and the second line segment is not included in the map data. The own vehicle position estimation device according to claim 1, which does not perform the extraction process of the second point cloud. 前記処理部は、前記第一方向に制限して前記路面画像から抽出された前記第一点群が前記第一線分に整合する部分を探索し、前記第二方向に制限して前記路面画像から抽出された前記第二点群が前記第二線分に整合する部分を探索する、請求項1に記載の自車位置推定装置。 The processing unit searches for a portion where the first point group extracted from the road surface image matches the first line segment by limiting in the first direction, and limits in the second direction to the road surface image. The own vehicle position estimation device according to claim 1, wherein the second point cloud extracted from is searched for a portion that matches the second line segment. 前記処理部は、前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とにのみ基づいて比較処理を行うことにより、前記車両位置を算出する、請求項1に記載の自車位置推定装置。 Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the processing unit compares the first line segment and the first point cloud, and the second line segment and the second line segment. The own vehicle position estimation device according to claim 1, which calculates the vehicle position by performing a comparison process only based on the comparison of the second point cloud. 前記処理部は、前記路面画像を所定視点から見下ろすように変換された鳥瞰路面画像から前記第一点群および前記第二点群を抽出する、請求項1に記載の自車位置推定装置。 The vehicle position estimation device according to claim 1, wherein the processing unit extracts the first point cloud and the second point cloud from the bird's-eye view road surface image converted so as to look down on the road surface image from a predetermined viewpoint. 前記処理部は、
前記第一点群の各点から、前記第一線分を前記所定視点から見下ろすように生成された第一鳥瞰地図データにおける前記第一点群との整合部分への距離と、
前記第二点群の各点から、前記第二線分を前記所定視点から見下ろすように生成された第二鳥瞰地図データにおける前記第二点群との整合部分への距離との合計が最小となる前記車両の位置を、現在の前記車両位置として算出する、請求項に記載の自車位置推定装置。
The processing unit
The distance from each point of the first point group to the matching portion with the first point group in the first bird's-eye view map data generated so as to look down on the first line segment from the predetermined viewpoint.
The total of the distances from each point of the second point cloud to the matching portion with the second point cloud in the second bird's-eye view map data generated so as to look down on the second line segment from the predetermined viewpoint is the minimum. The own vehicle position estimation device according to claim 6 , wherein the position of the vehicle is calculated as the current vehicle position.
前記処理部は、
前記第一点群の各点から、前記第一線分を前記所定視点から見下ろすように生成された第一鳥瞰地図データにおける前記第一点群との整合部分への距離と、
前記第二点群の各点から、前記第二線分を前記所定視点から見下ろすように生成された第二鳥瞰地図データにおける前記第二点群との整合部分への距離との合計が所定の基準値以下となる前記車両の位置を、現在の前記車両位置として算出する、請求項に記載の自車位置推定装置。
The processing unit
The distance from each point of the first point group to the matching portion with the first point group in the first bird's-eye view map data generated so as to look down on the first line segment from the predetermined viewpoint.
The total of the distance from each point of the second point cloud to the matching portion with the second point group in the second bird's-eye view map data generated so as to look down on the second line segment from the predetermined viewpoint is predetermined. The own vehicle position estimation device according to claim 6 , which calculates the position of the vehicle that is equal to or less than the reference value as the current vehicle position.
コンピュータに、
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取るステップと、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出するステップと、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出するステップと、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出するステップと、を実行させ、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であ
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
プログラム。
On the computer
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , The step of receiving the road surface image captured by the image pickup device used in the vehicle, and
A step of extracting a first point cloud, which is a point cloud along the first direction, from the road markings included in the road surface image.
A step of extracting a second point cloud, which is a point cloud along the second direction, from the road markings included in the road surface image, and
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison between the first line segment and the first point cloud, and the second line segment and the second point cloud. By performing the comparison process limited to the comparison of the above, the step of calculating the vehicle position and the step of calculating the vehicle position are executed.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
program.
コンピュータに、
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取るステップと、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出するステップと、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出するステップと、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出するステップと、を実行させ、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であ
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
プログラムを記録した記録媒体。
On the computer
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , The step of receiving the road surface image captured by the image pickup device used in the vehicle, and
A step of extracting a first point cloud, which is a point cloud along the first direction, from the road markings included in the road surface image.
A step of extracting a second point cloud, which is a point cloud along the second direction, from the road markings included in the road surface image, and
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison between the first line segment and the first point cloud, and the second line segment and the second point cloud. By performing the comparison process limited to the comparison of the above, the step of calculating the vehicle position and the step of calculating the vehicle position are executed.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
A recording medium on which the program is recorded.
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取るステップと、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出するステップと、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出するステップと、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出するステップと、を備え、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であ
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
自車位置推定方法。
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , The step of receiving the road surface image captured by the image pickup device used in the vehicle, and
A step of extracting a first point cloud, which is a point cloud along the first direction, from the road markings included in the road surface image.
A step of extracting a second point cloud, which is a point cloud along the second direction, from the road markings included in the road surface image, and
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison between the first line segment and the first point cloud, and the second line segment and the second point cloud. The step of calculating the vehicle position by performing the comparison processing limited to the comparison of the above is provided.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
Own vehicle position estimation method.
JP2016244366A 2016-12-16 2016-12-16 Vehicle position estimation device, program, recording medium, and vehicle position estimation method Active JP7001985B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016244366A JP7001985B2 (en) 2016-12-16 2016-12-16 Vehicle position estimation device, program, recording medium, and vehicle position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016244366A JP7001985B2 (en) 2016-12-16 2016-12-16 Vehicle position estimation device, program, recording medium, and vehicle position estimation method

Publications (2)

Publication Number Publication Date
JP2018096935A JP2018096935A (en) 2018-06-21
JP7001985B2 true JP7001985B2 (en) 2022-01-20

Family

ID=62632279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016244366A Active JP7001985B2 (en) 2016-12-16 2016-12-16 Vehicle position estimation device, program, recording medium, and vehicle position estimation method

Country Status (1)

Country Link
JP (1) JP7001985B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7472759B2 (en) 2020-11-10 2024-04-23 株式会社デンソー Position estimation device, position estimation method, and position estimation program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205403A (en) 2008-02-27 2009-09-10 Hitachi Ltd Road sign recognition device and road sign recognition method
JP2015087149A (en) 2013-10-29 2015-05-07 日産自動車株式会社 Mobile position/attitude angle estimation device and mobile position/attitude angle estimation method
JP2015194397A (en) 2014-03-31 2015-11-05 株式会社デンソーアイティーラボラトリ Vehicle location detection device, vehicle location detection method, vehicle location detection computer program and vehicle location detection system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4340000B2 (en) * 2000-12-18 2009-10-07 本田技研工業株式会社 Object recognition device
JP2002308030A (en) * 2001-04-16 2002-10-23 Yazaki Corp Periphery monitoring system for vehicle
US8230143B2 (en) * 2005-04-01 2012-07-24 Lsi Corporation Memory interface architecture for maximizing access timing margin
JP4677981B2 (en) * 2006-12-20 2011-04-27 アイシン・エィ・ダブリュ株式会社 Own vehicle position identification method and own vehicle position identification device
JP5891802B2 (en) * 2012-01-17 2016-03-23 日産自動車株式会社 Vehicle position calculation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205403A (en) 2008-02-27 2009-09-10 Hitachi Ltd Road sign recognition device and road sign recognition method
JP2015087149A (en) 2013-10-29 2015-05-07 日産自動車株式会社 Mobile position/attitude angle estimation device and mobile position/attitude angle estimation method
JP2015194397A (en) 2014-03-31 2015-11-05 株式会社デンソーアイティーラボラトリ Vehicle location detection device, vehicle location detection method, vehicle location detection computer program and vehicle location detection system

Also Published As

Publication number Publication date
JP2018096935A (en) 2018-06-21

Similar Documents

Publication Publication Date Title
JP7074438B2 (en) Vehicle position estimation device
EP2372308B1 (en) Image processing system and vehicle control system
US8791996B2 (en) Image processing system and position measurement system
CN106463051B (en) Traffic signal recognition device and traffic signal recognition method
JP6454726B2 (en) Own vehicle position estimation device
WO2020066505A1 (en) Recognition device
JP6520740B2 (en) Object detection method, object detection device, and program
JP6806891B2 (en) Information processing equipment, control methods, programs and storage media
JP6989284B2 (en) Vehicle position estimation device and program
JP6828655B2 (en) Own vehicle position estimation device
CN111412922A (en) Location technology
Moras et al. Drivable space characterization using automotive lidar and georeferenced map information
JP7043765B2 (en) Vehicle driving control method and equipment
JP2024038322A (en) Measurement device, measurement method, and program
JP7001985B2 (en) Vehicle position estimation device, program, recording medium, and vehicle position estimation method
KR102552712B1 (en) System for estimating a vehicle location and method for estimating the vehicle location using the system
JP2018169207A (en) Vehicle position detector
JP6439592B2 (en) Falling object detection device
JP2023099851A (en) Measurement device, method for measurement, and program
JP2023118759A (en) Measuring device, measuring method and program
JP2022513828A (en) How and system to generate an environmental model for positioning
US11828618B2 (en) Map generation apparatus
JP7563263B2 (en) Track estimation method and track estimation device
JP7458514B2 (en) Determining the starting position of the vehicle for localization
JP6604052B2 (en) Runway boundary estimation device and runway boundary estimation method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211209

R151 Written notification of patent or utility model registration

Ref document number: 7001985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350