JP7001985B2 - Vehicle position estimation device, program, recording medium, and vehicle position estimation method - Google Patents
Vehicle position estimation device, program, recording medium, and vehicle position estimation method Download PDFInfo
- Publication number
- JP7001985B2 JP7001985B2 JP2016244366A JP2016244366A JP7001985B2 JP 7001985 B2 JP7001985 B2 JP 7001985B2 JP 2016244366 A JP2016244366 A JP 2016244366A JP 2016244366 A JP2016244366 A JP 2016244366A JP 7001985 B2 JP7001985 B2 JP 7001985B2
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- road
- road surface
- vehicle
- line segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 20
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 52
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 52
- 239000000284 extract Substances 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 27
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 27
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 9
- 239000002131 composite material Substances 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Navigation (AREA)
Description
本開示は、自車位置推定装置、プログラム、記録媒体、および自車位置推定方法に関する。 The present disclosure relates to a vehicle position estimation device, a program, a recording medium, and a vehicle position estimation method.
従来から、車両の地図上の位置を推定する自車位置推定装置が数多く提案されている。 Conventionally, many self-vehicle position estimation devices for estimating the position of a vehicle on a map have been proposed.
上記のような自車位置推定装置の中には、車載カメラで撮影した画像から車線境界線とランドマーク(路面表示や道路標識など)を抽出し、道路の詳細地図情報との車線レベルでの整合性チェックにこの二つの情報を組み合わせて用いるものがある。 In the above-mentioned own vehicle position estimation device, lane boundaries and landmarks (road markings, road markings, etc.) are extracted from the image taken by the in-vehicle camera, and the lane level is combined with the detailed map information of the road. Some use a combination of these two pieces of information for consistency checking.
上記の自車位置推定装置には、車両位置の推定精度の更なる向上が求められる。 The above-mentioned own vehicle position estimation device is required to further improve the estimation accuracy of the vehicle position.
本開示の目的は、車両位置の推定精度を更に向上可能な自車位置推定装置、プログラム、記録媒体、および自車位置推定方法を提供することである。 An object of the present disclosure is to provide a vehicle position estimation device, a program, a recording medium, and a vehicle position estimation method capable of further improving the vehicle position estimation accuracy.
本開示の第一形態は、
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取る入力部と、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出し、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出し、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出する処理部と、を備え、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であり、
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
自車位置推定装置に向けられる。
The first form of this disclosure is
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , An input unit that receives the road surface image captured by the image pickup device used in the vehicle, and
A first point cloud, which is a point cloud along the first direction, is extracted from the road markings included in the road surface image.
A second point cloud, which is a point cloud along the second direction, is extracted from the road markings included in the road surface image.
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison of the first line segment and the first point cloud, and the second line segment and the second point. It is equipped with a processing unit that calculates the vehicle position by performing comparison processing only for comparison of groups.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
It is aimed at the vehicle position estimation device.
本開示の第二形態は、
コンピュータに、
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取るステップと、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出するステップと、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出するステップと、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出するステップと、を実行させ、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であり、
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
プログラムに向けられる。
The second form of the disclosure is
On the computer
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , The step of receiving the road surface image captured by the image pickup device used in the vehicle, and
A step of extracting a first point cloud, which is a point cloud along the first direction, from the road markings included in the road surface image.
A step of extracting a second point cloud, which is a point cloud along the second direction, from the road markings included in the road surface image, and
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison of the first line segment and the first point cloud, and the second line segment and the second point. By performing the comparison process limited to the point cloud comparison, the step of calculating the vehicle position and the step of calculating the vehicle position are executed.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
Directed to the program.
本開示の第三形態は、
コンピュータに、
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取るステップと、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出するステップと、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出するステップと、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出するステップと、を実行させ、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であり、
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
プログラムを記録した記録媒体に向けられる。
The third form of the present disclosure is
On the computer
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , The step of receiving the road surface image captured by the image pickup device used in the vehicle, and
A step of extracting a first point cloud, which is a point cloud along the first direction, from the road markings included in the road surface image.
A step of extracting a second point cloud, which is a point cloud along the second direction, from the road markings included in the road surface image, and
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison of the first line segment and the first point cloud, and the second line segment and the second point. By performing the comparison process limited to the point cloud comparison, the step of calculating the vehicle position and the step of calculating the vehicle position are executed.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
Aimed at the recording medium on which the program was recorded.
本開示の第四形態は、
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取るステップと、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出するステップと、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出するステップと、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出するステップと、を備え、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であり、
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
自車位置推定方法に向けられる。
The fourth form of the present disclosure is
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , The step of receiving the road surface image captured by the image pickup device used in the vehicle, and
A step of extracting a first point cloud, which is a point cloud along the first direction, from the road markings included in the road surface image.
A step of extracting a second point cloud, which is a point cloud along the second direction, from the road markings included in the road surface image, and
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison of the first line segment and the first point cloud, and the second line segment and the second point. It is provided with a step of calculating the vehicle position by performing comparison processing limited to the comparison of the group.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
It is directed to the vehicle position estimation method.
本開示によれば、車両位置の推定精度が更に向上可能となる。 According to the present disclosure, the estimation accuracy of the vehicle position can be further improved.
以下、図面を参照しつつ、本開示の一形態に係る自車位置推定装置を詳説する。 Hereinafter, the vehicle position estimation device according to one embodiment of the present disclosure will be described in detail with reference to the drawings.
<1.定義>
下表1は、下記の説明で使用される頭字語や略語の意味を示す。
Table 1 below shows the meanings of acronyms and abbreviations used in the following explanations.
また、本開示では、第一方向aは道路の延長方向を示し、第二方向bは道路の延長方向に実質的に垂直な方向を示すものとする。 Further, in the present disclosure, the first direction a indicates the extension direction of the road, and the second direction b indicates the direction substantially perpendicular to the extension direction of the road.
<2.実施形態>
<2-1.自車位置推定装置の構成>
図1において、車両Vには、ADAS地図記憶部1と、少なくとも一つの撮像装置2と、電波航法による測位装置3と、自立航法センサ群4と、自車位置推定装置5と、車両制御部6と、が搭載されている。
<2. Embodiment>
<2-1. Configuration of own vehicle position estimation device>
In FIG. 1, the vehicle V includes an ADAS
ADAS地図記憶部1は、所謂ADAS地図データを格納する。ADAS地図データは、道路網を構成する各道路の延長方向や形状のみならず、各道路に描かれた路面標示を特定可能な情報を含む。
The ADAS
路面標示は、道路交通に関する規制又は指示を表示する標示で、路面に描かれた帯状の線又は記号である。路面標示としては、区画線、停止線、横断歩道および矢印マークが例示される。 Road markings are markings that indicate regulations or instructions regarding road traffic and are strip-shaped lines or symbols drawn on the road surface. Examples of road markings include pavement lines, stop lines, pedestrian crossings and arrow marks.
区画線は、図2Aに例示するように、車線を路肩や他車線から区画するための実線や破線であって、第一方向aに沿う白線または黄線である。 As illustrated in FIG. 2A, the lane marking is a solid line or a broken line for partitioning a lane from the shoulder or another lane, and is a white line or a yellow line along the first direction a.
停止線は、図2Bに例示するように、道路上で車両が停止すべき位置を示し、第二方向bに沿う白線からなる。 As illustrated in FIG. 2B, the stop line indicates a position on the road where the vehicle should stop, and consists of a white line along the second direction b.
横断歩道は、図2Cに例示するように、第一方向aに沿う複数の白線であって、間隔をあけて第二方向bにおいて配列された複数の白線を含む。また、図示は控えるが、横断歩道の中には、梯子型のもの(即ち、第二方向bに延びる二本の白線の間に、第一方向aに沿う複数の白線が介在するもの)もある。 The pedestrian crossing, as illustrated in FIG. 2C, is a plurality of white lines along the first direction a and includes a plurality of white lines arranged in the second direction b at intervals. In addition, although not shown, some pedestrian crossings are ladder-shaped (that is, a plurality of white lines along the first direction a are interposed between two white lines extending in the second direction b). be.
矢印マークは、図2Dに示すように、対象となる車線が右折用、直線用、左折用であることを示す。 The arrow marks indicate that the target lane is for a right turn, a straight line, or a left turn, as shown in FIG. 2D.
ADAS地図データにおいて、各路面標示や横断歩道の外形形状は、そのエッジの点群(座標値の集まり)で定義されている。 In the ADAS map data, the outer shape of each road marking and pedestrian crossing is defined by a point cloud (a collection of coordinate values) of the edge.
また、ADAS地図データにおいて、図2Aの区画線は、各白線部分等に含まれた二点を両端とし、第一方向aに平行な線分(以下、第一線分という場合がある)で定義される。より具体的には、この二点は、白線部分等において、第一方向aに相対向する二辺の中心点である。 Further, in the ADAS map data, the division line of FIG. 2A is a line segment parallel to the first direction a (hereinafter, may be referred to as a first line segment) with two points included in each white line portion or the like at both ends. Defined. More specifically, these two points are the center points of the two sides facing each other in the first direction a in the white line portion and the like.
それに対し、ADAS地図データにおいて、図2Bの停止線の第二方向bに延びる白線部分は、各白線部分に含まれた二点を両端とし、第二方向bに平行な線分(以下、第二線分という場合がある)で定義される。 On the other hand, in the ADAS map data, the white line portion extending in the second direction b of the stop line in FIG. 2B has two points included in each white line portion at both ends and is a line segment parallel to the second direction b (hereinafter referred to as the first line segment). It is sometimes called a two-line segment).
なお、本開示の要部でないため説明は簡素化するが、ADAS地図データには、地物の形状等を示す三次元点群データを含んでも良い。このような三次元点群データは、専用の測量車両に搭載された外界センサ(例えば、赤外線レーザスキャナ)やロケータ(例えば、GPS)を用いて作製されれば良い。 Although the description is simplified because it is not a main part of the present disclosure, the ADAS map data may include three-dimensional point cloud data indicating the shape of a feature or the like. Such three-dimensional point cloud data may be created by using an external sensor (for example, an infrared laser scanner) or a locator (for example, GPS) mounted on a dedicated surveying vehicle.
少なくとも一つの撮像装置2は、本開示では、車両Vの周囲(好ましくは、前後左右の四方)を撮像する撮像装置2F,2B,2Lおよび2Rである。撮像装置2Fおよび2Bは、車両Vの前方および後方の路面を撮像するように、例えば車両Vのバンパーに搭載され、撮像装置2Lおよび2Rは、車両Vの左方向および右方向の路面を撮像するように、車両Vの各ドアミラーに搭載される。
At least one
本開示では、上記のように、撮像装置2F,2B,2L,2Rが互いに異なる方向を撮像することにより、車両V周辺の広範囲を撮像できるようになっている。すなわち、各撮像装置2F,2B,2L,2Rは、車両Vが走行中の車線の前方のみならず、路側、隣の車線および対向車線などを撮像可能になっている。これにより、撮像装置2F,2B,2L,2Rが停止線および区画線を確実に撮影可能となり、その結果、自車位置推定装置5は、路面標示を抽出可能となる。
In the present disclosure, as described above, the
撮像装置2F,2B,2L,および2Rは、好ましくは互いに同期しつつ、予め定められたフレームレートで撮像して、それぞれの撮像装置2F,2B,2L,2Rの視野内の路面状況を表す路面画像を、自車位置推定装置5に送信する。以下、撮像装置2F,2B,2L,および2Rの路面画像を、前方路面画像、後方路面画像、左方路面画像および右方路面画像という場合がある。これらの路面画像は、撮像装置2F,2B,2L,および2Rが互いに同期していれば、同時刻に撮影されたものとなる。以下、路面画像とは、撮像された時刻が厳密に同時刻でなくても、互いの画像が同一時間帯に撮像されたとして自車位置推定装置5で取り扱われる場合も、「同時刻に撮像されたもの」と表記する。
The
測位装置3は、例えばGPS受信機であって、測位システム(本開示の場合GPS)に備わる複数の人工衛星からの受信信号から、車両Vの現在の絶対位置を示す情報を出力する。
The
自立航法センサ群4は、例えば、方位センサおよび速度センサを含む。方位センサは、車両Vの進行方向を示す信号を出力する。速度センサは、車両Vの移動速度を示す信号を出力する。
なお、センサ群4は、速度センサの代わりに加速度センサや外界センサ(典型的にはステレオカメラ)を含んでいても良いし、方位センサの代わりに角加速度センサを含んでいても良い。
The self-contained
The
自車位置推定装置5は、例えば、図3に示すように、基板上に実装された、入力部61と、演算処理を行う処理部62と、出力部63と、を備えたECUである。入力部61は、ADAS地図記憶部1と、撮像装置2と、電波航法による測位装置3と、自立航法センサ群4と、が接続され、接続されたこれらの各部から、画像データやセンサデータ等の各種データを受け取るものである。処理部62は、予め格納されているプログラムを実行して、入力部61の入力情報や入力信号から、車両Vの現在位置を高精度に導出するものである。出力部63は、処理部62で導出された車両Vの自車位置(現在位置)を車両制御部6へ出力する。
As shown in FIG. 3, for example, the own vehicle
車両制御部6は、本開示では、車両Vの自動運転を行うために、車両Vの駆動源のアクセル開度、操舵装置の操舵量、制動装置の減速度などを制御するための車両制御ECUである。
In the present disclosure, the
<2-2.自車位置推定装置の処理>
次に、図1~図6Cを参照して、自車位置推定装置5の処理手順について説明する。
図4において、処理部62は、鳥瞰地図データ生成部として機能し、ADAS地図記憶部1から、現在の車両Vの位置を含む所定範囲のADAS地図データを、入力部61を介して受け取る(ステップS110)。本ステップで受け取ったADAS地図データには、区画線(図2Aを参照)を定義する第一線分や、停止線等(図2B等を参照)を定義する第二線分が含まれる。また、現在の自車位置は、後述する図5のステップS11またはS12で得られたものである。なお、現在の自車位置の初期値としては、GNSS(Global Navigation Satellite System)等からの情報を自車位置として用いる。また、現在の車両Vの位置から如何なる範囲のADAS地図データをADAS地図記憶部1から受け取るかは、任意であり、所望の範囲を設定することができる。
<2-2. Processing of own vehicle position estimation device>
Next, the processing procedure of the own vehicle
In FIG. 4, the
処理部62は、ステップS110で取得したADAS地図データから、区画線(図2Aを参照)を定義する第一線分を全て選択して抽出し(ステップS120)、抽出した第一線分を所定視点から見下ろした第一鳥瞰地図データを生成する(ステップS130)。
The
処理部62は、ステップS110で取得したADAS地図データから、停止線(図2Bを参照)を定義する第二線分を全て選択して抽出し(ステップS140)、抽出した第二線分を所定視点から見下ろした第二鳥瞰地図データ(停止線)を生成する(ステップS150)。
The
処理部62は、ステップS110で取得したADAS地図データから、路面標示(但し、横断歩道を除く。図2A,図2B,図2Dを参照)の外形形状を定義する点群を全て選択して抽出し(ステップS160)、抽出した点群を所定視点から見下ろした第三鳥瞰地図データ(横断歩道を除く)を生成する(ステップS170)。
The
処理部62は、ステップS110で取得したADAS地図データから、横断歩道(図2Cを参照)の外形形状を定義する点群と、横断歩道における第二方向bに沿う白線部分を定義する第二線分を全て選択・抽出する(ステップS180)。
From the ADAS map data acquired in step S110, the
ステップS180の次に、処理部62は、同ステップで取得した点群を所定視点から見下ろした第三鳥瞰地図データ(横断歩道)を生成し(ステップS190)、同ステップで取得した第二線分を所定視点から見下ろした第二鳥瞰地図データ(横断歩道)を生成する(ステップS200)。
Following step S180, the
次に、処理部62は、鳥瞰路面画像生成部として機能し、上記鳥瞰地図データ生成部で生成された各鳥瞰地図データを受け取る(図5AのステップS1)。
Next, the
次に、処理部62は、撮像装置2F,2B,2L,2Rにより同時刻に得られた路面画像(即ち、前方路面画像、後方路面画像、左方路面画像および右方路面画像)を読み込む(ステップS2)。
Next, the
次に、処理部62は、ステップS2で読み込んだ各路面画像を、所定視点から見下ろした鳥瞰路面画像(即ち、前方鳥瞰路面画像、後方鳥瞰路面画像、左方鳥瞰路面画像および右方鳥瞰路面画像)に変換する(ステップS3)。ここで、鳥瞰路面画像は、前方鳥瞰路面画像、後方鳥瞰路面画像、左方鳥瞰路面画像および右方鳥瞰路面画像の合成画像であってもよいし、前方鳥瞰路面画像、後方鳥瞰路面画像、左方鳥瞰路面画像および右方鳥瞰路面画像を纏めた画像群であってもよい。図6Aには、前方鳥瞰路面画像、後方鳥瞰路面画像、左方鳥瞰路面画像および右方鳥瞰路面画像の合成画像が例示される。図6B,図6Cのそれぞれも同様の合成画像である。
Next, the
次に、処理部62は、ステップS120(図4を参照)で第一線分が抽出されたか否かを判定し(ステップS21)、YESの場合には後述するステップS4,S5を実行し、NOの場合、これらステップをスキップする。また、処理部62は、ステップS140(図4を参照)で第二線分が抽出されたか否かを判定し(ステップS22)、YESの場合には後述するステップS6,S7を実行し、NOの場合、これらステップをスキップする。また、処理部62は、ステップS160(図4を参照)で路面標示の外形形状を定義する点群を抽出したか否かを判定し(ステップS23)、YESの場合に後述するステップS8,S9を実行し、NOの場合、これらステップをスキップする。
Next, the
すなわち、必ずしも、ステップS120で区画線(図2Aを参照)を定義する第一線分が抽出されるとは限らない。同様に、ステップS140において、停止線(図2Bを参照)を定義する第二線分が抽出されるとは限らず、ステップS160において、路面標示(図2A~図2Dを参照)の外形形状を定義する点群が抽出されるとは限らない。このような背景から、本開示では、上記のようなステップS21等の判定を行い、必要な場合に限り、ステップS4,S5等の処理を実行することにより、処理部62の処理負荷のさらなる軽減を図っている。
That is, the first line segment that defines the lane marking (see FIG. 2A) is not always extracted in step S120. Similarly, in step S140, the second line segment defining the stop line (see FIG. 2B) is not always extracted, and in step S160, the outer shape of the road marking (see FIGS. 2A to 2D) is determined. The point cloud to be defined is not always extracted. Against this background, in the present disclosure, the processing load of the
第一線分が抽出された(ステップS21、YES)と判定した場合、処理部62は、第一抽出部として機能し、ステップS3で生成された各鳥瞰路面画像にエッジ検出処理等を行い、これによって得られた各道路標示のエッジから、第一方向に沿う点群(以下、第一点群という)を抽出する(ステップS4)。図6Aには、第一点群の一例が参照符号P1を付して示されている。
When it is determined that the first line segment has been extracted (step S21, YES), the
次に、処理部62は、ステップS130で得られた第一鳥瞰地図データと、ステップS4で得られた第一点群P1とを用いてパターンマッチング処理(比較)を行い、第一鳥瞰地図データにおける第一点群P1と整合する部分を探す(ステップS5)。
Next, the
また、第二線分が抽出された(ステップS22、YES)と判定した場合、処理部62は、第二抽出部として機能し、例えばステップS4に並行して、同時並行のステップS4で用いたものと同じ各鳥瞰路面画像にエッジ検出処理等を行い、これによって得られた各道路標示のエッジから、第二方向に沿う点群(以下、第二点群という)を抽出する(ステップS6)。図6Bには、第二点群の一例が参照符号P2を付して示されている。
Further, when it is determined that the second line segment has been extracted (step S22, YES), the
次に、処理部62は、ステップS150,S200で得られた第二鳥瞰地図データ(停止線)および第二鳥瞰地図データ(横断歩道)を合成した第二鳥瞰地図データと、ステップS6で得られた第二点群P2とを用いてパターンマッチング処理を行い、第二鳥瞰地図データにおける第二点群P2と整合する部分を探す(ステップS7)。
Next, the
また、路面標示の外形形状を定義する点群が抽出された(ステップS23、YES)と判定した場合、処理部62は、エッジ抽出部として機能し、例えばステップS4,S6に並行して、ステップS3で生成された各鳥瞰路面画像に対しエッジ検出処理等を行って、各道路標示のエッジを抽出する(ステップS8)。図6Cには、エッジの一例が参照符号P3を付して示されている。
Further, when it is determined that the point group defining the outer shape of the road marking has been extracted (step S23, YES), the
次に、処理部62は、ステップS170,190で得られた第三鳥瞰地図データと、ステップS8で得られたエッジとを用いてパターンマッチング処理を行い、第三鳥瞰地図データにおけるエッジP3と整合する部分を探す(ステップS9)。
Next, the
なお、図5には、ステップS4,S5と、ステップS6,S7と、ステップS8,S9とが並列に実行される例を示した。しかしながら、これに限らず、ステップS4,S5と、ステップS6,S7と、ステップS8,S9と、が何れの順番で直列的に実行されても構わない。 Note that FIG. 5 shows an example in which steps S4 and S5, steps S6 and S7, and steps S8 and S9 are executed in parallel. However, the present invention is not limited to this, and steps S4, S5, steps S6, S7, and steps S8, S9 may be executed in series in any order.
次に、処理部62は、比較対象があったか否かを判断する(ステップS10)。具体的には、処理部62は、ステップS5,S7,S9の全てで整合する部分が見つかったか否かを判断する。
Next, the
ステップS10でNOと判断すると、処理部62は、オドメトリーにより得られた現在の自車位置(例えば、測位装置3により得られた現在位置、または、自立航法センサ群4の出力信号から得られた現在位置)を、次のステップS110(図4を参照)で用いる現在位置とする(ステップS11)。
If NO is determined in step S10, the
それに対し、ステップS10でYESと判断すると、処理部62は、算出部として機能し、下記(1)~(3)の距離の合計が所定の基準値以下となる位置(即ち、誤差が小さくなるような位置)を探し出し、次のステップS110で用いる車両Vの現在位置とする(ステップS12)。
(1)ステップS5で見つけた第一点群の各点から第一鳥瞰地図データにおける整合部分(第一線分)への距離の合計
(2)ステップS7で見つけた第二点群の各点から第二鳥瞰地図データにおける整合部分(第二線分)への距離の合計
(3)ステップS9で見つけたエッジの各点から第三鳥瞰地図データにおける整合部分(外形形状)への距離の合計
On the other hand, if YES is determined in step S10, the
(1) Total distance from each point of the first point group found in step S5 to the matching part (first line segment) in the first bird's-eye view map data (2) Each point of the second point group found in step S7 Total distance from each point of the edge found in step S9 to the matching part (outer shape) in the third bird's-eye view map data.
なお、処理部62は、ステップS12において、上記(1)~(3)の距離の合計が最小値になる位置を探すようにしても良い。
In addition, the
処理部62は、ステップS11,12のいずれか一方で得た現在位置を、次回のステップS110で使うために鳥瞰地図データ生成部に渡す(ステップS13)。また、処理部62は、出力部63を介して、求めた現在位置を、車両制御部6に渡す。他にも、処理部62は、出力部63を介して、求めた現在位置を、例えばナビゲーションシステムに出力しても良い。
The
以上の図4および図5の処理は、例えば車両Vのアクセサリ電源がオンの間、繰り返し実行される。 The above processes of FIGS. 4 and 5 are repeatedly executed, for example, while the accessory power supply of the vehicle V is turned on.
他の例として、ステップS10において、処理部62は、比較対象があったか否かの判断基準として、少なくともステップS5およびステップS7の両方で整合する部分が見つかったか否かを判断することとしてもよい。
As another example, in step S10, the
また、他の例として、ステップS23,S8,およびステップS9の処理を行わないように設定することもできる。この場合、ステップS10において、処理部62は、比較対象があったか否かの判断基準として、ステップS5およびステップS7の両方で整合する部分が見つかったか否かを判断する。ステップS10でYESと判断された場合のステップS12(算出部)の処理は、上記(3)を使わないこと以外は上述と同様である。
Further, as another example, it is possible to set not to perform the processing of steps S23, S8, and S9. In this case, in step S10, the
<2-3.本自車位置推定装置の作用・効果>
ところで、従来のように、車載カメラで撮影した画像から車線境界線とランドマーク(路面表示や道路標識など)を抽出するだけでは、ランドマークの経時劣化(具体的には、塗装の剥げ等)により、画像から抽出した車線境界線やランドマークの形状は、極端に言うと原型を留めないこともある。その結果、ランドマーク等と地図情報との車線レベルでの整合性チェックの精度、ひいては、推定された現在位置の精度をより向上させることが求められる。
<2-3. Action / effect of this vehicle position estimation device>
By the way, as in the past, simply extracting lane boundaries and landmarks (road markings, road markings, etc.) from images taken with an in-vehicle camera will cause the landmarks to deteriorate over time (specifically, paint peeling, etc.). Therefore, the shape of the lane boundary line or the landmark extracted from the image may not keep the original shape in the extreme. As a result, it is required to further improve the accuracy of the consistency check between the landmarks and the map information at the lane level, and by extension, the accuracy of the estimated current position.
上記の通り、本開示では、路面標示は、第一方向aに沿う白線部分等および第二方向bに沿う白線部分等に分類される。そして、ADAS地図データにおいては、第一方向a(または第二方向b)に沿う白線部分等は、第一方向a(または第二方向b)に平行な第一線分(または第二線分)を両端の二点で特定される。 As described above, in the present disclosure, the road markings are classified into a white line portion and the like along the first direction a and a white line portion and the like along the second direction b. Then, in the ADAS map data, the white line segment or the like along the first direction a (or the second direction b) is a first line segment (or a second line segment) parallel to the first direction a (or the second direction b). ) Is specified by two points at both ends.
処理部62は、第一抽出部(または第二抽出部)として機能して、撮像装置2によって同時刻に得られた車両Vの周辺の路面画像から、各道路標示を構成する第一点群P1(または第二点群P2)であって、第一方向a(または第二方向b)に沿う第一点群P1(または第二点群P2)を抽出する。
The
その後、処理部62は、算出部として機能し、第一線分および第一点群P1の比較結果と、第二線分および第二点群P2の比較結果とに基づき、車両Vの位置を算出する。
After that, the
上記の通り、処理部62は、第一方向aに制限して、路面画像から抽出された第一点群P1がADAS地図データから抽出された第一線分に整合する部分を探すと共に、第二方向bに制限して、路面画像から抽出された第二点群P2がADAS地図データから抽出された第二線分に整合する部分を探す。このように、本開示では、処理部62は、第一方向aおよび第二方向bに制限ないし特化して、それぞれの方向における車両Vの位置を推定するため、路面画像における道路標示の形状が崩れていても、第一方向aおよび第二方向bに沿う第一点群P1および第二点群P2さえ得られれば、その推定された車両位置(自車位置)は高精度となる。
As described above, the
さらに言えば、第一方向aおよび第二方向bに制限して、処理部62がマッチング処理等を行うことで、従来よりも、処理部62の処理負荷を軽減することも可能となる。
Furthermore, by limiting to the first direction a and the second direction b and performing the matching process or the like by the
また、前述の通り、本開示では、撮像装置2F,2B,2L,2Rにより、車両Vが走行中の車線の前方のみならず、路側、隣の車線および対向車線などを撮像可能になっている。これにより、前方路面画像、後方路面画像、左方路面画像および右方路面画像のいずれかには停止線および区画線が含まれる可能性が高まり、その結果、自車位置推定装置5は第一点群および第二点群を抽出できる可能性が高まる。
Further, as described above, in the present disclosure, the
<2-4.付記>
上記では、車両VにADAS地図記憶部1を搭載するものとして説明した。しかしながら、これに限らず、ADAS地図記憶部1は遠隔のサーバにあっても良い。この場合、処理部62は、遠隔のサーバからADAS地図データを読み出すことになる。
<2-4. Addendum>
In the above, it has been described that the ADAS
また、上記では、第一方向aは道路の延長方向であり、第二方向bは、第一方向aと垂直な方向であるとして説明した。しかしながら、これに限らず、第一方向aは、道路の延長方向に対し公差程度のずれがあっても良いし、第二方向bは、第一方向aと垂直な方向に対し公差程度のずれがあっても良い。 Further, in the above description, the first direction a is the extension direction of the road, and the second direction b is the direction perpendicular to the first direction a. However, not limited to this, the first direction a may have a deviation of about a tolerance with respect to the extension direction of the road, and the second direction b may have a deviation of about a tolerance with respect to the direction perpendicular to the first direction a. There may be.
なお、道路の延長方向は必ずしも直線になるとは限らない。この場合、道路上に適切な長さの区間で区切り、区間ごとに第一線分を定義しても良い。 The extension direction of the road is not always straight. In this case, it may be divided into sections of appropriate length on the road, and the first line segment may be defined for each section.
また、上記では、単一のECU(即ち、自車位置推定装置5)が図4および図5の処理を実行していた。しかしながら、自車位置推定装置5は、少なくとも、図5のステップS4~S13を実行すれば良く、他の処理は、自車位置推定装置5以外の例えば車両制御部6やナビゲーションECUが実行すれば良い。
Further, in the above, a single ECU (that is, the own vehicle position estimation device 5) has executed the processes of FIGS. 4 and 5. However, the own vehicle
また、処理部62が実行したプログラムは、DVD等のような非一過性の記録媒体に格納されて提供されても良いし、ネットワークを介してダウンロード可能にネットワーク上のサーバ装置に格納されても良い。
Further, the program executed by the
また、上記では、ADAS地図データも路面画像も鳥瞰図に変換されるとして説明した。しかしながら、これに限らず、例えば、ADAS地図データおよび路面画像は他の座標系に変換されても構わない。 Further, in the above, it has been described that both the ADAS map data and the road surface image are converted into a bird's-eye view. However, the present invention is not limited to this, and for example, the ADAS map data and the road surface image may be converted into another coordinate system.
その他、上記実施の形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。 In addition, the above embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from its gist or its main features.
本開示に係る自車位置推定装置等は、自車位置の推定精度が向上可能であり、車載用途に好適である。 The own vehicle position estimation device and the like according to the present disclosure can improve the estimation accuracy of the own vehicle position and are suitable for in-vehicle use.
1 ADAS地図記憶部
2 撮像装置
5 自車位置推定装置
61 入力部
62 処理部
63 出力部
1 ADAS
Claims (11)
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出し、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出し、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出する処理部と、を備え、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であり、
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
自車位置推定装置。 Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , An input unit that receives the road surface image captured by the image pickup device used in the vehicle, and
A first point cloud, which is a point cloud along the first direction, is extracted from the road markings included in the road surface image.
A second point cloud, which is a point cloud along the second direction, is extracted from the road markings included in the road surface image.
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison between the first line segment and the first point cloud, and the second line segment and the second point cloud. It is equipped with a processing unit that calculates the vehicle position by performing comparison processing limited to the comparison of
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
Own vehicle position estimation device.
前記第一点群の各点から、前記第一線分を前記所定視点から見下ろすように生成された第一鳥瞰地図データにおける前記第一点群との整合部分への距離と、
前記第二点群の各点から、前記第二線分を前記所定視点から見下ろすように生成された第二鳥瞰地図データにおける前記第二点群との整合部分への距離との合計が最小となる前記車両の位置を、現在の前記車両位置として算出する、請求項6に記載の自車位置推定装置。 The processing unit
The distance from each point of the first point group to the matching portion with the first point group in the first bird's-eye view map data generated so as to look down on the first line segment from the predetermined viewpoint.
The total of the distances from each point of the second point cloud to the matching portion with the second point cloud in the second bird's-eye view map data generated so as to look down on the second line segment from the predetermined viewpoint is the minimum. The own vehicle position estimation device according to claim 6 , wherein the position of the vehicle is calculated as the current vehicle position.
前記第一点群の各点から、前記第一線分を前記所定視点から見下ろすように生成された第一鳥瞰地図データにおける前記第一点群との整合部分への距離と、
前記第二点群の各点から、前記第二線分を前記所定視点から見下ろすように生成された第二鳥瞰地図データにおける前記第二点群との整合部分への距離との合計が所定の基準値以下となる前記車両の位置を、現在の前記車両位置として算出する、請求項6に記載の自車位置推定装置。 The processing unit
The distance from each point of the first point group to the matching portion with the first point group in the first bird's-eye view map data generated so as to look down on the first line segment from the predetermined viewpoint.
The total of the distance from each point of the second point cloud to the matching portion with the second point group in the second bird's-eye view map data generated so as to look down on the second line segment from the predetermined viewpoint is predetermined. The own vehicle position estimation device according to claim 6 , which calculates the position of the vehicle that is equal to or less than the reference value as the current vehicle position.
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取るステップと、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出するステップと、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出するステップと、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出するステップと、を実行させ、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であり、
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
プログラム。 On the computer
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , The step of receiving the road surface image captured by the image pickup device used in the vehicle, and
A step of extracting a first point cloud, which is a point cloud along the first direction, from the road markings included in the road surface image.
A step of extracting a second point cloud, which is a point cloud along the second direction, from the road markings included in the road surface image, and
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison between the first line segment and the first point cloud, and the second line segment and the second point cloud. By performing the comparison process limited to the comparison of the above, the step of calculating the vehicle position and the step of calculating the vehicle position are executed.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
program.
車両の位置を含む所定範囲において路面標示を定義する第一方向に沿う第一線分および前記路面標示を定義する前記第一方向とは異なる第二方向に沿う第二線分を含む地図データと、前記車両で用いられる撮像装置で撮像された路面画像と、を受け取るステップと、
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出するステップと、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出するステップと、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出するステップと、を実行させ、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であり、
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
プログラムを記録した記録媒体。 On the computer
Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , The step of receiving the road surface image captured by the image pickup device used in the vehicle, and
A step of extracting a first point cloud, which is a point cloud along the first direction, from the road markings included in the road surface image.
A step of extracting a second point cloud, which is a point cloud along the second direction, from the road markings included in the road surface image, and
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison between the first line segment and the first point cloud, and the second line segment and the second point cloud. By performing the comparison process limited to the comparison of the above, the step of calculating the vehicle position and the step of calculating the vehicle position are executed.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
A recording medium on which the program is recorded.
前記路面画像に含まれる前記路面標示から、前記第一方向に沿う点群である第一点群を抽出するステップと、
前記路面画像に含まれる前記路面標示から、前記第二方向に沿う点群である第二点群を抽出するステップと、
前記地図データに含まれる前記路面標示と前記路面画像に含まれる前記路面標示との比較に関して、前記第一線分および前記第一点群の比較と、前記第二線分および前記第二点群の比較とに制限して比較処理を行うことにより、車両位置を算出するステップと、を備え、
前記第一点群および前記第二点群は、座標値の集合であり、
前記第一方向は道路の延長方向を示し、前記第二方向は路面において前記延長方向に実質的に垂直な方向であり、
前記車両で用いられる撮像装置で撮像された路面画像は、前記車両に搭載された複数の撮像装置で撮影されたものである、
自車位置推定方法。 Map data including a first line segment along the first direction that defines the road marking and a second line segment along the second direction different from the first direction that defines the road marking in a predetermined range including the position of the vehicle. , The step of receiving the road surface image captured by the image pickup device used in the vehicle, and
A step of extracting a first point cloud, which is a point cloud along the first direction, from the road markings included in the road surface image.
A step of extracting a second point cloud, which is a point cloud along the second direction, from the road markings included in the road surface image, and
Regarding the comparison between the road markings included in the map data and the road markings included in the road surface image, the comparison between the first line segment and the first point cloud, and the second line segment and the second point cloud. The step of calculating the vehicle position by performing the comparison processing limited to the comparison of the above is provided.
The first point cloud and the second point cloud are a set of coordinate values, and are
The first direction indicates an extension direction of the road, and the second direction is a direction substantially perpendicular to the extension direction on the road surface.
The road surface image captured by the image pickup device used in the vehicle is taken by a plurality of image pickup devices mounted on the vehicle.
Own vehicle position estimation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016244366A JP7001985B2 (en) | 2016-12-16 | 2016-12-16 | Vehicle position estimation device, program, recording medium, and vehicle position estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016244366A JP7001985B2 (en) | 2016-12-16 | 2016-12-16 | Vehicle position estimation device, program, recording medium, and vehicle position estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018096935A JP2018096935A (en) | 2018-06-21 |
JP7001985B2 true JP7001985B2 (en) | 2022-01-20 |
Family
ID=62632279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016244366A Active JP7001985B2 (en) | 2016-12-16 | 2016-12-16 | Vehicle position estimation device, program, recording medium, and vehicle position estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7001985B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7472759B2 (en) | 2020-11-10 | 2024-04-23 | 株式会社デンソー | Position estimation device, position estimation method, and position estimation program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009205403A (en) | 2008-02-27 | 2009-09-10 | Hitachi Ltd | Road sign recognition device and road sign recognition method |
JP2015087149A (en) | 2013-10-29 | 2015-05-07 | 日産自動車株式会社 | Mobile position/attitude angle estimation device and mobile position/attitude angle estimation method |
JP2015194397A (en) | 2014-03-31 | 2015-11-05 | 株式会社デンソーアイティーラボラトリ | Vehicle location detection device, vehicle location detection method, vehicle location detection computer program and vehicle location detection system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4340000B2 (en) * | 2000-12-18 | 2009-10-07 | 本田技研工業株式会社 | Object recognition device |
JP2002308030A (en) * | 2001-04-16 | 2002-10-23 | Yazaki Corp | Periphery monitoring system for vehicle |
US8230143B2 (en) * | 2005-04-01 | 2012-07-24 | Lsi Corporation | Memory interface architecture for maximizing access timing margin |
JP4677981B2 (en) * | 2006-12-20 | 2011-04-27 | アイシン・エィ・ダブリュ株式会社 | Own vehicle position identification method and own vehicle position identification device |
JP5891802B2 (en) * | 2012-01-17 | 2016-03-23 | 日産自動車株式会社 | Vehicle position calculation device |
-
2016
- 2016-12-16 JP JP2016244366A patent/JP7001985B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009205403A (en) | 2008-02-27 | 2009-09-10 | Hitachi Ltd | Road sign recognition device and road sign recognition method |
JP2015087149A (en) | 2013-10-29 | 2015-05-07 | 日産自動車株式会社 | Mobile position/attitude angle estimation device and mobile position/attitude angle estimation method |
JP2015194397A (en) | 2014-03-31 | 2015-11-05 | 株式会社デンソーアイティーラボラトリ | Vehicle location detection device, vehicle location detection method, vehicle location detection computer program and vehicle location detection system |
Also Published As
Publication number | Publication date |
---|---|
JP2018096935A (en) | 2018-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7074438B2 (en) | Vehicle position estimation device | |
EP2372308B1 (en) | Image processing system and vehicle control system | |
US8791996B2 (en) | Image processing system and position measurement system | |
CN106463051B (en) | Traffic signal recognition device and traffic signal recognition method | |
JP6454726B2 (en) | Own vehicle position estimation device | |
WO2020066505A1 (en) | Recognition device | |
JP6520740B2 (en) | Object detection method, object detection device, and program | |
JP6806891B2 (en) | Information processing equipment, control methods, programs and storage media | |
JP6989284B2 (en) | Vehicle position estimation device and program | |
JP6828655B2 (en) | Own vehicle position estimation device | |
CN111412922A (en) | Location technology | |
Moras et al. | Drivable space characterization using automotive lidar and georeferenced map information | |
JP7043765B2 (en) | Vehicle driving control method and equipment | |
JP2024038322A (en) | Measurement device, measurement method, and program | |
JP7001985B2 (en) | Vehicle position estimation device, program, recording medium, and vehicle position estimation method | |
KR102552712B1 (en) | System for estimating a vehicle location and method for estimating the vehicle location using the system | |
JP2018169207A (en) | Vehicle position detector | |
JP6439592B2 (en) | Falling object detection device | |
JP2023099851A (en) | Measurement device, method for measurement, and program | |
JP2023118759A (en) | Measuring device, measuring method and program | |
JP2022513828A (en) | How and system to generate an environmental model for positioning | |
US11828618B2 (en) | Map generation apparatus | |
JP7563263B2 (en) | Track estimation method and track estimation device | |
JP7458514B2 (en) | Determining the starting position of the vehicle for localization | |
JP6604052B2 (en) | Runway boundary estimation device and runway boundary estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190625 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191018 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200715 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200721 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211209 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7001985 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
SZ03 | Written request for cancellation of trust registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313Z03 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |