JP2017181476A - Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program - Google Patents

Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program Download PDF

Info

Publication number
JP2017181476A
JP2017181476A JP2016073531A JP2016073531A JP2017181476A JP 2017181476 A JP2017181476 A JP 2017181476A JP 2016073531 A JP2016073531 A JP 2016073531A JP 2016073531 A JP2016073531 A JP 2016073531A JP 2017181476 A JP2017181476 A JP 2017181476A
Authority
JP
Japan
Prior art keywords
vehicle
line
particles
particle
current time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016073531A
Other languages
Japanese (ja)
Other versions
JP6552448B2 (en
Inventor
孝介 原
Kosuke Hara
孝介 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2016073531A priority Critical patent/JP6552448B2/en
Publication of JP2017181476A publication Critical patent/JP2017181476A/en
Application granted granted Critical
Publication of JP6552448B2 publication Critical patent/JP6552448B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle location detection device that can accurately estimate a location of an own vehicle at a low processing load.SOLUTION: A vehicle location detection device includes: a particle generation unit (23) that generates a plurality of particles expressing a luminance change in a direction crossing a line according to a category of the line as to each line to be marked on a road extracted from map information in accordance with a prediction location at a current time of an own vehicle (10); a projection unit (24) that projects each particle onto an image of the current time obtained by an imaging unit (2) loaded in the vehicle (10) as changing the prediction location within an expected error range; a selection unit (25) that selects the particle in which a degree of matching to the image satisfies a prescribed matching condition of each particle; and a location update unit (26) that obtains an estimation location of the vehicle (10) in accordance with a total sum of errors when projecting each of the selected particles onto the line to be marked on the corresponding road on the basis of the estimation location of the vehicle (10) at the current time.SELECTED DRAWING: Figure 4

Description

本発明は、車両に搭載されたカメラにより撮影された画像と地図を利用してその車両の位置を検出する車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムに関する。   The present invention relates to a vehicle position detection device, a vehicle position detection method, and a vehicle position detection computer program that detect the position of a vehicle using an image and a map taken by a camera mounted on the vehicle.

従来より、ナビゲーションまたは運転支援のために、Global Positioning System(GPS)信号を利用して、走行中の自車両の位置を検出することが行われている。しかし、車両の近くに、高層建築物など、GPSの測位衛星からの測位信号を遮る構造物が存在する場合、車両において測位信号を受信することが困難となり、自車両の位置を正確に検出できないことがあった。そこで、車載カメラにより撮影された、車両周囲の画像と、事前に準備された地図などの情報とを対応付けることで、自車両の位置の検出精度を向上させる方法が提案されている(例えば、特許文献1〜3及び非特許文献1及び2を参照)。   2. Description of the Related Art Conventionally, for navigation or driving assistance, a position of the host vehicle while traveling is detected using a Global Positioning System (GPS) signal. However, when there is a structure that blocks the positioning signal from the GPS positioning satellite, such as a high-rise building, near the vehicle, it becomes difficult to receive the positioning signal in the vehicle, and the position of the host vehicle cannot be detected accurately. There was a thing. Therefore, a method for improving the accuracy of detecting the position of the host vehicle by associating an image of the surroundings of the vehicle, which is captured by the in-vehicle camera, with information such as a map prepared in advance has been proposed (for example, a patent). References 1-3 and Non-Patent References 1 and 2).

例えば、特許文献1に記載の位置測位装置は、車両の前方を撮影する撮影手段により撮影した画像の中にある道路標示に基づいて現在位置を特定する。   For example, the position positioning device described in Patent Document 1 specifies the current position based on a road marking in an image captured by an imaging unit that captures the front of the vehicle.

また、特許文献2に記載された移動体位置測定装置は、地図上の参照地点付近で移動体に搭載された撮像部が撮影して得た画像から抽出した特徴情報と、地図の参照地点付近の画像から抽出した特徴情報とをマッチングして推定した参照地点付近の複数の特徴の位置に応じて移動体の現在位置を推定する。   In addition, the moving body position measuring device described in Patent Document 2 includes feature information extracted from an image captured by an imaging unit mounted on a moving body in the vicinity of a reference point on the map, and the vicinity of the reference point on the map. The current position of the moving object is estimated in accordance with the positions of a plurality of features near the reference point estimated by matching with the feature information extracted from the image.

また、特許文献3に記載された方法は、車両の進行方向の画像データに対してテンプレートマッチングを適用することで、画像内で識別された光学指標に関して車両の位置を決定する。   Moreover, the method described in Patent Document 3 determines the position of the vehicle with respect to the optical index identified in the image by applying template matching to the image data in the traveling direction of the vehicle.

さらに、非特許文献1に記載された方法は、縁石及び道路標示を表す線分含む地図とステレオカメラにより得られた画像から抽出された特徴点とのマッチングにより、自車両の位置を検出する。   Furthermore, the method described in Non-Patent Document 1 detects the position of the host vehicle by matching a map including line segments representing curbs and road markings and feature points extracted from an image obtained by a stereo camera.

さらにまた、非特許文献2に記載された方法は、GPS、IMU、オドメトリ、LIDARなど、車載された機器により取得される情報を用いて、高解像度の環境地図を生成する。そしてこの方法は、車両をこれらの地図上で位置決めする際に、LIDER測定値と地図との相関をとるパーティクルフィルタを利用する。   Furthermore, the method described in Non-Patent Document 2 generates a high-resolution environment map using information acquired by a vehicle-mounted device, such as GPS, IMU, odometry, and LIDAR. This method uses a particle filter that correlates the LIDER measurement value with the map when positioning the vehicle on these maps.

特開2007−108043号公報JP 2007-108043 A 特開2012−127896号公報JP 2012-127896 A 特開2005−136946号公報JP 2005-136946 A

Schreiber他、「LaneLoc: Lane Marking based Localization using Highly Accurate Maps」、Intelligent Vehicles Symposium (IV)、2013 IEEE、IEEE、2013Schreiber et al., "LaneLoc: Lane Marking based Localization using Highly Accurate Maps", Intelligent Vehicles Symposium (IV), 2013 IEEE, IEEE, 2013 Lenvision他、「Map-Based Precision Vehicle Localization in Urban Environments」、Robotics: Science and Systems (RSS)、2007年Lenvision et al., “Map-Based Precision Vehicle Localization in Urban Environments”, Robotics: Science and Systems (RSS), 2007

しかし、特許文献1に記載の装置は、撮影時の環境の影響などにより、道路標示の特徴点の検出が困難な場合、自車両の位置を正確に特定できないおそれがある。特に、特許文献1に記載の装置は、道路標示の端点などを特徴点として抽出し、その特徴点を用いて車両の現在位置を求めるので、道路標示の経年劣化などにより、道路標示の端点がわずかに掠れるだけでも抽出された特徴点の位置がずれてしまい、自車両の位置の検出精度の低下を招いてしまう。   However, the device described in Patent Document 1 may not be able to accurately identify the position of the host vehicle when it is difficult to detect feature points of road markings due to environmental influences during shooting. In particular, the device described in Patent Document 1 extracts a road marking end point or the like as a feature point, and uses the feature point to determine the current position of the vehicle. Even if it is slightly drowned, the position of the extracted feature point is shifted, and the detection accuracy of the position of the host vehicle is lowered.

また、特許文献2に記載の装置は、地図の参照地点付近で撮影された画像を自車両の位置の特定に利用するが、参照地点の付近の建物の建て替え、あるいは、撮影時の環境(例えば、天候、撮影時間帯など)によって、同じ場所について撮影された画像であっても、事前登録時に撮影された画像に写っている景色と、自車両位置の検出時に撮影された画像に写っている景色は大きく異なることがある。このような場合、画像間のマッチングに失敗する可能性が高くなり、そのため、自車両の位置を正確に特定できないおそれがある。   The device described in Patent Document 2 uses an image photographed in the vicinity of a reference point on a map for specifying the position of the host vehicle, but rebuilding a building near the reference point or an environment at the time of photographing (for example, , Weather, shooting time, etc.), even if the image was taken at the same location, it appears in the scene taken in the image taken at the time of pre-registration and in the image taken when the vehicle position was detected The scenery can vary greatly. In such a case, there is a high possibility that matching between images will fail, and therefore the position of the host vehicle may not be accurately identified.

さらに、特許文献3に記載の方法は、テンプレートマッチングを利用している。テンプレートマッチングでは、比較対象となる画像とテンプレート間の位置を変えつつ、繰り返しマッチング演算する必要が有るため、自車両の位置の検出に要する演算量が多い。また、非特許文献1に記載の方法では、縁石の検出と道路標示の検出に異なるアルゴリズムが利用されており、それらの検出にステレオ画像を利用するので、演算量が多い。そのためこれらの方法では、自車両の位置の検出に必要なハードウェアリソースが増えてしまうか、あるいは、自車両の位置の検出に時間を要するので、自車両の位置の更新間隔が長くなってしまう。さらに、非特許文献2に記載の方法では、自車両の位置の検出にレーザ測距システムが必要となり、システム全体のコストが高くなる。   Furthermore, the method described in Patent Document 3 uses template matching. In template matching, since it is necessary to repeatedly perform matching calculation while changing the position between the image to be compared and the template, a large amount of calculation is required for detecting the position of the host vehicle. Further, in the method described in Non-Patent Document 1, different algorithms are used for curb detection and road marking detection, and a stereo image is used for these detections. Therefore, in these methods, hardware resources necessary for detecting the position of the own vehicle increase, or time is required for detecting the position of the own vehicle, so that the update interval of the position of the own vehicle becomes long. . Furthermore, in the method described in Non-Patent Document 2, a laser ranging system is required for detecting the position of the host vehicle, and the cost of the entire system increases.

そこで、本発明は、低い処理負荷で、自車両の位置を正確に推定できる車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムを提供することを目的とする。   Accordingly, an object of the present invention is to provide a vehicle position detection device, a vehicle position detection method, and a vehicle position detection computer program that can accurately estimate the position of the host vehicle with a low processing load.

請求項1の記載によれば、本発明の一つの形態として、車両位置検出装置が提供される。この車両位置検出装置は、道路上に標示される線の位置及びその線の種類を表す地図情報を記憶する記憶部(41)と、車両(10)の直前の位置から推定される車両の現時刻における予測位置に応じて道路上に標示される線を地図情報から抽出し、抽出した線のそれぞれについて、その線の種類に応じて、その線を横切る方向の輝度変化を表すパーティクルを、その線に沿った方向に応じた位置を変えながら複数生成するパーティクル生成部(23)と、抽出した線のそれぞれについての複数のパーティクルのそれぞれについて、予測位置を想定される誤差範囲内で変化させながら車両(10)を基準とする位置を求め、その位置にしたがって車両(10)に搭載された撮像部(2)により得られた現時刻の画像に投影する投影部(24)と、抽出した線のそれぞれについての複数のパーティクルのうち、画像との一致度合が所定の一致条件を満たすパーティクルを選択する選択部(25)と、選択されたパーティクルのそれぞれを、現時刻における車両(10)の推定位置に基づいて対応する道路上に標示される線に射影したときの誤差の総和に応じて車両(10)の推定位置を求める位置更新部(26)とを有する。
本発明による車両位置検出装置は、上記の構成を有することにより、低い処理負荷で、自車両の位置を正確に推定できる。
According to the first aspect of the present invention, a vehicle position detecting device is provided as one aspect of the present invention. The vehicle position detection device includes a storage unit (41) that stores map information indicating the position of a line marked on a road and the type of the line, and the current vehicle position estimated from the position immediately before the vehicle (10). Lines marked on the road are extracted from the map information according to the predicted position at the time, and for each of the extracted lines, particles representing the luminance change in the direction crossing the line are determined according to the type of the line. A particle generation unit (23) that generates a plurality of particles while changing the position according to the direction along the line, and a predicted position of each of the plurality of particles for each of the extracted lines is changed within an assumed error range. A projection unit (24) that obtains a position with reference to the vehicle (10) and projects the current position image obtained by the imaging unit (2) mounted on the vehicle (10) according to the position. A selection unit (25) that selects a particle satisfying a predetermined matching condition among a plurality of particles for each of the extracted lines, and a vehicle ( A position updating unit (26) for obtaining an estimated position of the vehicle (10) according to a sum of errors when projected onto a line marked on the corresponding road based on the estimated position of (10).
Since the vehicle position detection device according to the present invention has the above configuration, the position of the host vehicle can be accurately estimated with a low processing load.

また請求項2の記載によれば、位置更新部(26)は、選択されたパーティクルのそれぞれを対応する道路上に標示される線に射影したときの誤差の総和が最小となるように車両(10)の推定位置を求めることが好ましい。
この構成を有することで、車両位置検出装置は、自車両の位置をより正確に推定できる。
According to the second aspect of the present invention, the position updating unit (26) is configured to minimize the sum of errors when each of the selected particles is projected onto a line marked on the corresponding road. It is preferable to obtain the estimated position of 10).
By having this configuration, the vehicle position detection device can estimate the position of the host vehicle more accurately.

また請求項3の記載によれば、位置更新部(26)は、選択されたパーティクルのそれぞれを対応する道路上に標示される線に射影したときの誤差の総和と、過去の複数の時刻のそれぞれにおける車両(10)の推定位置からオドメトリ情報を用いて予測した次の時刻における車両の位置と次の時刻における車両の推定位置との誤差の総和との和が最小となるように、現時刻及び過去の複数の時刻のそれぞれにおける車両(10)の推定位置を求めることが好ましい。
この構成を有することで、車両位置検出装置は、オドメトリ情報も利用するので、自車両の位置をより正確に推定できる。
According to a third aspect of the present invention, the position updating unit (26) calculates a sum of errors when each of the selected particles is projected onto a line marked on the corresponding road, and a plurality of past times. The current time so that the sum of the error between the vehicle position at the next time predicted from the estimated position of the vehicle (10) at each time using the odometry information and the estimated position of the vehicle at the next time is minimized. It is preferable to obtain the estimated position of the vehicle (10) at each of a plurality of past times.
By having this configuration, the vehicle position detection apparatus also uses odometry information, so that the position of the host vehicle can be estimated more accurately.

さらに、請求項4の記載によれば、パーティクル生成部(23)は、抽出した線の種類が点線または破線を含む線を含む場合、点線または破線のブロックが有る場合に相当する道路上に標示される線を横切る方向の輝度変化を表す第1のパーティクルと、点線または破線のブロックが無い場合に相当する道路上に標示される線を横切る方向の輝度変化を表す第2のパーティクルとを生成することが好ましい。
この構成を有することで、車両位置検出装置は、実際に道路上に標示される線と一致する可能性が高いパーティクルを生成できる。
Furthermore, according to the description of claim 4, the particle generation unit (23) indicates on the road corresponding to the case where there is a dotted line or broken line block when the extracted line type includes a line including a dotted line or a broken line. A first particle representing a luminance change in a direction crossing the line to be generated and a second particle representing a luminance change in a direction crossing the line marked on the road corresponding to the case where there is no dotted or broken line block It is preferable to do.
With this configuration, the vehicle position detection device can generate particles that are highly likely to coincide with a line that is actually marked on the road.

さらに、請求項5の記載によれば、撮像部(2)は、二つのカメラを含むステレオカメラであり、選択部(25)は、二つのカメラのうちの一方により現時刻に得られた第1の画像上で一致度合が一致条件を満たし、かつ、二つのカメラのうちの他方により現時刻に得られた第2の画像上で一致度合が一致条件を満たすパーティクルを選択することが好ましい。
この構成を有することで、車両位置検出装置は、他の車両などによるオクルージョンにより路面が隠れているところに投影されたパーティクルを誤って選択する可能性を低減することができる。
Further, according to the fifth aspect of the present invention, the imaging unit (2) is a stereo camera including two cameras, and the selection unit (25) is the first one obtained by one of the two cameras at the current time. It is preferable to select a particle that satisfies the matching condition on one image and satisfies the matching condition on the second image obtained at the current time by the other of the two cameras.
By having this configuration, the vehicle position detection device can reduce the possibility of erroneously selecting particles projected on a place where the road surface is hidden due to occlusion by another vehicle or the like.

請求項6の記載によれば、本発明の他の形態として、車両位置検出方法が提供される。この車両位置検出方法は、車両(10)の直前の位置から推定されるその車両の現時刻における予測位置に応じて道路上に標示される線を地図情報から抽出し、抽出した線のそれぞれについて、地図情報に表されたその線の種類に応じて、その線を横切る方向の輝度変化を表すパーティクルを、その線に沿った方向に応じた位置を変えながら複数生成するステップと、抽出した線のそれぞれについての複数のパーティクルのそれぞれについて、予測位置を想定される誤差範囲内で変化させながら車両(10)を基準とする位置を求め、その位置にしたがって車両(10)に搭載された撮像部(2)により得られた現時刻の画像に投影するステップと、抽出した線のそれぞれについての複数のパーティクルのうち、画像との一致度合が所定の一致条件を満たすパーティクルを選択するステップと、選択されたパーティクルのそれぞれを、現時刻における車両(10)の推定位置に基づいて対応する道路上に標示される線に射影したときの誤差の総和に応じて車両(10)の推定位置を求めるステップとを含む。
本発明による車両位置検出方法は、上記の構成を有することにより、低い処理負荷で、自車両の位置を正確に推定できる。
According to the description of claim 6, a vehicle position detection method is provided as another embodiment of the present invention. In this vehicle position detection method, a line marked on a road is extracted from map information according to a predicted position at the current time of the vehicle estimated from a position immediately before the vehicle (10), and each extracted line is detected. In accordance with the type of the line represented in the map information, a step of generating a plurality of particles representing luminance changes in the direction crossing the line while changing the position according to the direction along the line, and the extracted line For each of a plurality of particles, a position based on the vehicle (10) is obtained while changing the predicted position within an assumed error range, and an imaging unit mounted on the vehicle (10) according to the position Of the plurality of particles for each of the extracted lines and the step of projecting on the current time image obtained in (2), the degree of coincidence with the image is a predetermined one. According to the step of selecting particles that satisfy the condition and the sum of errors when each of the selected particles is projected onto a line marked on the corresponding road based on the estimated position of the vehicle (10) at the current time And obtaining an estimated position of the vehicle (10).
Since the vehicle position detection method according to the present invention has the above-described configuration, the position of the host vehicle can be accurately estimated with a low processing load.

請求項6の記載によれば、本発明の他の形態として、車両位置検出用コンピュータプログラムが提供される。この車両位置検出用コンピュータプログラムは、車両(10)の直前の位置から推定されるその車両の現時刻における予測位置に応じて道路上に標示される線を地図情報から抽出し、抽出した線のそれぞれについて、地図情報に表されたその線の種類に応じて、その線を横切る方向の輝度変化を表すパーティクルを、その線に沿った方向に応じた位置を変えながら複数生成するステップと、抽出した線のそれぞれについての複数のパーティクルのそれぞれについて、予測位置を想定される誤差範囲内で変化させながら車両(10)を基準とする位置を求め、その位置にしたがって車両(10)に搭載された撮像部(2)により得られた現時刻の画像に投影するステップと、抽出した線のそれぞれについての複数のパーティクルのうち、画像との一致度合が所定の一致条件を満たすパーティクルを選択するステップと、選択されたパーティクルのそれぞれを、現時刻における車両(10)の推定位置に基づいて対応する道路上に標示される線に射影したときの誤差の総和に応じて車両(10)の推定位置を求めるステップとを車両(10)に搭載されたプロセッサ(43)に実行させる命令を含む。
本発明による車両位置検出用コンピュータプログラムは、上記の構成を有することにより、低い処理負荷で、自車両の位置を正確に推定できる。
According to the sixth aspect of the present invention, a computer program for detecting a vehicle position is provided as another aspect of the present invention. This computer program for vehicle position detection extracts a line that is marked on the road according to the predicted position at the current time of the vehicle estimated from the position immediately before the vehicle (10) from the map information. For each, a step of generating a plurality of particles representing luminance changes in the direction crossing the line according to the type of the line represented in the map information while changing the position according to the direction along the line, and extraction For each of the plurality of particles for each of the lines, a position based on the vehicle (10) is obtained while changing the predicted position within an assumed error range, and the position is mounted on the vehicle (10) according to the position. The step of projecting on the image at the current time obtained by the imaging unit (2), and the image among the plurality of particles for each of the extracted lines A step of selecting particles satisfying a predetermined degree of coincidence, and projecting each of the selected particles onto a line marked on the corresponding road based on the estimated position of the vehicle (10) at the current time And a step of obtaining an estimated position of the vehicle (10) in accordance with the sum of the errors of the processor (43) included in the vehicle (10).
The computer program for detecting a vehicle position according to the present invention has the above configuration, so that the position of the host vehicle can be accurately estimated with a low processing load.

上記各部に付した括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示す一例である。   The reference numerals in parentheses attached to the above-described parts are examples that show the correspondence with specific means described in the embodiments described later.

本発明の一つの実施形態に係る車両位置検出システムの概略構成図である。1 is a schematic configuration diagram of a vehicle position detection system according to one embodiment of the present invention. 地図座標系と、車両座標系と、カメラ座標系の関係を示す図である。It is a figure which shows the relationship between a map coordinate system, a vehicle coordinate system, and a camera coordinate system. (a)〜(d)は、地図情報の一例を示す図である。(A)-(d) is a figure which shows an example of map information. 車両位置検出システムの制御部の機能ブロック図である。It is a functional block diagram of the control part of a vehicle position detection system. 地図線分の種類が「白実線(細)」である場合のパーティクルの一例を示す図である。It is a figure which shows an example of a particle in case the kind of map line segment is "white solid line (thin)." 地図線分の種類が「白実線(細)+右側減速標示」である場合のパーティクルの一例を示す図である。It is a figure which shows an example of a particle in case the kind of map line segment is "white solid line (thin) + right-side deceleration indication". 地図線分の種類が「白点線(細)+両側減速標示」である場合のパーティクルの一例を示す図である。It is a figure which shows an example of a particle in case the kind of map line segment is "white dotted line (thin) + both-sides deceleration indication". 各パーティクルが投影された画像の一例を示す図である。It is a figure which shows an example of the image which each particle projected. 車両座標系における、選択された各パーティクルについての共分散行列に相当する誤差楕円の一例を表す図である。It is a figure showing an example of the error ellipse equivalent to the covariance matrix about each selected particle in a vehicle coordinate system. 車両位置検出処理の動作フローチャートである。It is an operation | movement flowchart of a vehicle position detection process. 変形例により生成されるパーティクルと道路上に標示される線との関係の一例を示す図である。It is a figure which shows an example of the relationship between the particle | grains produced | generated by a modification, and the line marked on a road.

以下、図を参照しつつ、車両位置検出システムについて説明する。
この車両位置検出システムは、区画線または道路標示などの道路上に標示された線の種類に関する情報を含む地図情報を参照して、直前の自車両の位置などから推定される現時刻における予測位置の周辺の地図上の線に沿って、線の種類に応じた、線を横切る方向の輝度変化を表す輝度プロファイルを持つパーティクルを複数生成する。そしてこの車両位置検出システムは、地図上の座標系で表される各パーティクルを、自車両の現時刻における予測位置及び予測方位に応じて車両を基準とする座標系での位置に変換してから車両に搭載されたカメラにより得られる画像上へ投影する。そしてこの車両位置検出システムは、画像上に投影された各パーティクルのうち、画像との一致度合が所定の一致条件を満たすパーティクルを選択し、選択したパーティクルの地図上の線への投影誤差が小さくなるように、現時刻における自車両の位置及び方位を推定する。
Hereinafter, the vehicle position detection system will be described with reference to the drawings.
This vehicle position detection system refers to map information including information on types of lines marked on roads such as lane markings or road markings, and predicted positions at the current time estimated from the position of the vehicle itself immediately before A plurality of particles having a luminance profile representing a luminance change in a direction crossing the line according to the type of the line are generated along a line on the map around the area. The vehicle position detection system converts each particle represented in the coordinate system on the map into a position in a coordinate system based on the vehicle according to the predicted position and predicted direction at the current time of the host vehicle. Projecting onto an image obtained by a camera mounted on the vehicle. The vehicle position detection system selects a particle whose degree of coincidence with the image satisfies a predetermined coincidence among the particles projected on the image, and the projection error of the selected particle onto the line on the map is small. In this way, the position and direction of the host vehicle at the current time are estimated.

図1は、一つの実施形態による車両位置検出システムの概略構成図である。図1に示すように、車両位置検出システム1は、車両10に搭載され、カメラ2と、コントローラ4とを有する。カメラ2と、コントローラ4とは、コントロールエリアネットワーク(以下、CANという)3によって互いに接続されている。なお、図1では、説明の都合のため、車両位置検出システム1の各構成要素及び車両10の形状、サイズ及び配置は、実際のものとは異なっている。   FIG. 1 is a schematic configuration diagram of a vehicle position detection system according to one embodiment. As shown in FIG. 1, the vehicle position detection system 1 is mounted on a vehicle 10 and includes a camera 2 and a controller 4. The camera 2 and the controller 4 are connected to each other by a control area network (hereinafter referred to as CAN) 3. In FIG. 1, for convenience of explanation, each component of the vehicle position detection system 1 and the shape, size, and arrangement of the vehicle 10 are different from actual ones.

カメラ2は、撮像部の一例であり、車両の前方領域を撮影し、その前方領域の画像を生成する。そのために、カメラ2は、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に車両10の前方に存在する地面または構造物などの像を結像する結像光学系を有する。そしてカメラ2は、例えば、結像光学系の光軸が地面に対して略平行となり、かつ車両10の前方を向くように、車両10の車室内に配置される。そしてカメラ2は、一定の時間間隔(例えば1/30秒)ごとに撮影し、車両10の前方領域を撮影したカラー画像を生成する。なお、カメラ2は、近赤外光に感度を有する2次元検出器を有し、その撮像範囲内の近赤外光の照度に応じたモノクロ画像を生成してもよい。   The camera 2 is an example of an imaging unit, captures a front area of the vehicle, and generates an image of the front area. For this purpose, the camera 2 includes a two-dimensional detector composed of an array of photoelectric conversion elements having sensitivity to visible light, such as CCD or C-MOS, and the ground existing in front of the vehicle 10 on the two-dimensional detector. Alternatively, an imaging optical system that forms an image of a structure or the like is included. The camera 2 is disposed in the vehicle interior of the vehicle 10 such that the optical axis of the imaging optical system is substantially parallel to the ground and faces the front of the vehicle 10, for example. The camera 2 captures images at regular time intervals (for example, 1/30 second), and generates a color image capturing the front area of the vehicle 10. Note that the camera 2 may include a two-dimensional detector having sensitivity to near infrared light, and generate a monochrome image corresponding to the illuminance of the near infrared light within the imaging range.

図2は、地図座標系と、車両座標系と、カメラ座標系の関係を示す図である。本実施形態では、便宜上、地図上の任意の位置を原点とする地図座標系(Xm, Ym, Zm)と、車両10を原点とする車両座標系(Xv, Yv, Zv)と、カメラ2を原点とするカメラ座標系(Xc, Yc, Zc)を利用する。本実施形態では、車両座標系(Xv, Yv, Zv)は、車両10の左右の後輪間の中点かつ地面上の点を原点とする。そして車両の進行方向をZv軸とし、Zv軸と直交し、かつ、地面に平行な方向をXv軸とし、鉛直方向をYv軸とする。また地図座標系(Xm, Ym, Zm)においても、傾きの無い地面に平行な面内にXm軸及びZm軸が設定され、その地面に対する鉛直方向にYm軸が設定される。また、カメラ座標系(Xc, Yc, Zc)では、説明の簡単化のために、車両座標系の原点から鉛直方向に沿って上方かつカメラ2が設置される高さの位置に撮像面の中心があると仮定して、その撮像面の中心を原点とする。そして車両座標系と同様に、車両10の進行方向をZc軸とし、Zc軸と直交し、かつ、地面に平行な方向をXc軸とし、鉛直方向をYc軸とする。
なお、実際にカメラ2が取り付けられる位置は、車両10の左右の後輪間の中点の上方からずれていることもあるが、このずれは、単純な平行移動によって補正すればよい。
FIG. 2 is a diagram illustrating the relationship among the map coordinate system, the vehicle coordinate system, and the camera coordinate system. In this embodiment, for convenience, a map coordinate system (Xm, Ym, Zm) having an arbitrary position on the map as an origin, a vehicle coordinate system (Xv, Yv, Zv) having the vehicle 10 as an origin, and the camera 2 are provided. Use the camera coordinate system (Xc, Yc, Zc) as the origin. In this embodiment, the vehicle coordinate system (Xv, Yv, Zv) has a midpoint between the left and right rear wheels of the vehicle 10 and a point on the ground as the origin. The traveling direction of the vehicle is the Zv axis, the direction orthogonal to the Zv axis and parallel to the ground is the Xv axis, and the vertical direction is the Yv axis. In the map coordinate system (Xm, Ym, Zm), the Xm axis and the Zm axis are set in a plane parallel to the ground without inclination, and the Ym axis is set in the vertical direction with respect to the ground. In the camera coordinate system (Xc, Yc, Zc), for the sake of simplicity of explanation, the center of the imaging surface is located above the origin of the vehicle coordinate system along the vertical direction and at a height at which the camera 2 is installed. Assuming that there is, the center of the imaging surface is the origin. Similarly to the vehicle coordinate system, the traveling direction of the vehicle 10 is the Zc axis, the direction orthogonal to the Zc axis and parallel to the ground is the Xc axis, and the vertical direction is the Yc axis.
In addition, although the position where the camera 2 is actually attached may be shifted from above the midpoint between the left and right rear wheels of the vehicle 10, this shift may be corrected by a simple parallel movement.

なお、車両位置検出システム1は、撮像部として、車両10の前方領域を撮影するカメラの代わりに、あるいはそのカメラとともに、車両の後方領域を撮影するリアカメラを有していてもよい。   The vehicle position detection system 1 may include a rear camera that captures the rear region of the vehicle as an image capturing unit instead of or together with the camera that captures the front region of the vehicle 10.

カメラ2は、生成した画像を逐次コントローラ4へ送信する。なお、車両10の前方領域を撮影するカメラと車両10の後方領域を撮影するカメラが取り付けられている場合、コントローラ4は、車両10が進行している方向を撮影するカメラからの画像のみを選択的に取得してもよい。そのために、コントローラ4は、CAN3を介して車両10の電子制御ユニット(ECU)11から、シフトレバーのポジションを表すシフトポジション信号を取得する。そしてコントローラ4は、シフトポジション信号が、車両10が前進することを示すドライブポジジョンなどとなっている場合、車両10の前方領域を撮影するカメラから画像を取得する。一方、コントローラ4は、シフトポジション信号が、車両10が後進することを示すリバースポジションとなっている場合、車両10の後方領域を撮影するカメラから画像を取得する。   The camera 2 sequentially transmits the generated image to the controller 4. In addition, when the camera which image | photographs the front area | region of the vehicle 10 and the camera which image | photographs the back area | region of the vehicle 10 are attached, the controller 4 selects only the image from the camera which image | photographs the direction which the vehicle 10 is advancing. May be acquired automatically. For this purpose, the controller 4 acquires a shift position signal representing the position of the shift lever from the electronic control unit (ECU) 11 of the vehicle 10 via the CAN 3. And the controller 4 acquires an image from the camera which image | photographs the front area | region of the vehicle 10, when the shift position signal becomes the drive position etc. which show that the vehicle 10 moves forward. On the other hand, when the shift position signal is a reverse position indicating that the vehicle 10 moves backward, the controller 4 acquires an image from a camera that captures the rear region of the vehicle 10.

コントローラ4は、車両位置検出装置の一例であり、記憶部41と、通信部42と、制御部43とを有する。記憶部41は、例えば、電気的に書き換え可能な不揮発性メモリ及び揮発性メモリなどの半導体メモリを有する。そして記憶部41は、車両位置検出システム1を制御するための各種プログラム、地図情報、カメラ2の地面からの高さ及び光軸方向といったカメラの位置情報、結像光学系の焦点距離及び画角といったカメラパラメータなどの各種パラメータ、及び制御部43による一時的な演算結果などを記憶する。また記憶部41は、カメラ2の結像光学系による歪曲収差を補正するためのパラメータ、例えば、画素ごとの歪曲収差の補正量(すなわち、歪曲収差を打ち消すための画像上での画素の移動量及び移動方向)を記憶してもよい。   The controller 4 is an example of a vehicle position detection device, and includes a storage unit 41, a communication unit 42, and a control unit 43. The storage unit 41 includes, for example, a semiconductor memory such as an electrically rewritable nonvolatile memory and a volatile memory. The storage unit 41 stores various programs for controlling the vehicle position detection system 1, map information, camera position information such as the height of the camera 2 from the ground and the optical axis direction, the focal length and the angle of view of the imaging optical system. And various parameters such as camera parameters and temporary calculation results by the control unit 43 are stored. Further, the storage unit 41 is a parameter for correcting distortion aberration caused by the imaging optical system of the camera 2, for example, a correction amount of distortion aberration for each pixel (that is, an amount of movement of the pixel on the image for canceling the distortion aberration). And the moving direction) may be stored.

以下、車両位置検出に利用される、地図情報について説明する。
図3(a)〜図3(d)は、地図情報の一例を示す図である。図3(a)に示される地図情報300は、その地図情報で表された領域の位置を表す緯度経度情報と関連付けられている。そして地図情報300は、白線、黄線などで表される区画線などの道路上に標示される線301に関する情報を含む。
Hereinafter, map information used for vehicle position detection will be described.
Fig.3 (a)-FIG.3 (d) are figures which show an example of map information. The map information 300 shown in FIG. 3A is associated with latitude / longitude information indicating the position of the area represented by the map information. The map information 300 includes information related to the line 301 marked on the road such as a lane marking represented by a white line, a yellow line, or the like.

実際の道路上に標示される線には、複数の種類がある。例えば、図3(b)において点線で示される線311は、実線の白線と一方の側に設けられる破線状の減速標示の組み合わせで表される。また図3(c)において点線で示される線312は、点線の白線とその両側に設けられる減速標示の組み合わせで表される。また、図3(d)において点線で示される線313は、相対的に太い実線の白線のみで表される。このように、道路上に標示される線には、様々な種類のものがある。しかし、地図情報300では、例えば、それぞれの道路上の線について、一つの実線で表され、線ごとに、その線の種類を表すラベルが付されていることがある。例えば、図3(b)に示される例では、線311は、実線321と、(白線(細)+右減速標示)というラベルで表される。また、図3(c)に示される例では、線312は、実線322と、(白点線(細)+両側減速標示)というラベルで表される。そして図3(d)に示される例では、線313は、実線323と、白線(太)というラベルで表される。さらに、地図情報300では、道路上に標示される各線について、その両端点の3次元座標が含まれる。
なお、以下では、地図情報に含まれる、道路上に標示される線を地図線分と呼ぶ。
There are several types of lines that are marked on an actual road. For example, a line 311 indicated by a dotted line in FIG. 3B is represented by a combination of a solid white line and a broken-line deceleration sign provided on one side. A line 312 indicated by a dotted line in FIG. 3C is represented by a combination of a dotted white line and deceleration signs provided on both sides thereof. In addition, a line 313 indicated by a dotted line in FIG. 3D is represented only by a relatively thick solid white line. Thus, there are various types of lines that are marked on the road. However, in the map information 300, for example, a line on each road is represented by one solid line, and a label indicating the type of the line may be attached to each line. For example, in the example shown in FIG. 3B, the line 311 is represented by a solid line 321 and a label of (white line (thin) + right deceleration marking). In the example shown in FIG. 3C, the line 312 is represented by a solid line 322 and a label of (white dotted line (thin) + both side deceleration marking). In the example shown in FIG. 3D, the line 313 is represented by a solid line 323 and a label of a white line (thick). Further, the map information 300 includes the three-dimensional coordinates of both end points of each line marked on the road.
In the following, the line marked on the road included in the map information is referred to as a map line segment.

通信部42は、カメラ2、ECU11及び車輪速センサ(図示せず)などの各種センサとCAN3を通じて通信する通信インターフェース及びその制御回路を有する。そして通信部42は、カメラ2から画像を受け取り、その画像を制御部43へ渡す。また通信部42は、位置推定処理を実行する周期ごとに、オドメトリ情報として、ECU11から、車両10の速度及び移動量などを取得したり、あるいは、車輪速センサから車輪速を取得して、制御部43へ渡す。   The communication unit 42 includes a communication interface that communicates with various sensors such as the camera 2, the ECU 11, and a wheel speed sensor (not shown) through the CAN 3, and a control circuit thereof. The communication unit 42 receives an image from the camera 2 and passes the image to the control unit 43. In addition, the communication unit 42 obtains the speed and movement amount of the vehicle 10 from the ECU 11 as odometry information or obtains the wheel speed from the wheel speed sensor for each period of executing the position estimation process. Pass to part 43.

制御部43は、1個もしくは複数個の図示していないプロセッサ及びその周辺回路を有する。そして制御部43は、車両位置検出システム1全体を制御する。
図4に、制御部43の機能ブロック図を示す。図4に示すように、制御部43は、初期値設定部21と、予測位置算出部22と、パーティクル生成部23と、投影部24と、選択部25と、位置更新部26とを有する。制御部43が有するこれらの各部は、例えば、制御部43が有するプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。
The control unit 43 includes one or a plurality of processors (not shown) and their peripheral circuits. And the control part 43 controls the vehicle position detection system 1 whole.
FIG. 4 shows a functional block diagram of the control unit 43. As illustrated in FIG. 4, the control unit 43 includes an initial value setting unit 21, a predicted position calculation unit 22, a particle generation unit 23, a projection unit 24, a selection unit 25, and a position update unit 26. Each of these units included in the control unit 43 is implemented as a functional module realized by a computer program executed on a processor included in the control unit 43, for example.

初期値設定部21は、本実施形態による、車両10の位置の検出、すなわち、自車両の位置の検出を開始する際の自車両の位置の初期値を設定する。例えば、初期値設定部21は、GPSの測位信号が最後に受信できたときのその測位信号から求められる位置を、例えば、ナビゲーションシステムから取得し、その位置に基づいて、自車両の位置の初期値を設定する。そして得られた位置及び方位を、自車両の位置の初期値に設定する。
なお、初期値設定部21により設定される初期値は、本実施形態による自車両の位置の検出精度よりも低い検出精度で得られる値であってもよい。
The initial value setting unit 21 sets the initial value of the position of the host vehicle when starting the detection of the position of the vehicle 10 according to the present embodiment, that is, the detection of the position of the host vehicle. For example, the initial value setting unit 21 obtains a position obtained from the positioning signal when the GPS positioning signal was last received from, for example, a navigation system, and based on the position, the initial value of the position of the host vehicle is obtained. Set the value. Then, the obtained position and direction are set to the initial value of the position of the host vehicle.
Note that the initial value set by the initial value setting unit 21 may be a value obtained with detection accuracy lower than the detection accuracy of the position of the host vehicle according to the present embodiment.

本実施形態では、時刻tにおける、自車両の位置の初期値μt=(xt,ztt)tは、ガウス分布に従って、次式で表される。
ここで、(xt,zt)は、初期値を算出する時刻をtとしたときの、測位信号などから求められた地図座標系でのx方向及びz方向における車両10の位置、すなわち、自車両の位置を表す。θtは、時刻tにおける、車両10の方位を表す。なお、車両10の方位は、例えば、車両10が有する、車両10の進行方向の方位を測定するセンサ(図示せず)からの信号をCAN3及び通信部42を介して制御部43が受信することにより得られる。あるいは、制御部43は、自車両の位置の検出を開始する直前において異なる時刻に受信したGPSの測位信号から求めた自車両の位置の変化から算出された自車両の方位を、例えば、ナビゲーションシステムから受信してもよい。また、(1)式において、Σtは、共分散行列である。また鉛直方向の位置、すなわち標高ytは、(1)式には含まれていないが、次式により算出できる。
ここで、ax t、az t、ac tは、それぞれ定数であり、例えば、地図座標(xt,zt)の周囲は平面であると仮定して、地図座標(xt,zt)の周囲の所定範囲(例えば、10m以内)に含まれる各地図線分上で等間隔の各点の地図座標(xi,yi,zi)を(2)式に代入したときの二乗誤差が最小となるように、例えば最小二乗法を用いて設定される。
In this embodiment, the initial value μ t = (x t , z t , θ t ) t of the position of the host vehicle at time t is expressed by the following equation according to a Gaussian distribution.
Here, (x t , z t ) is the position of the vehicle 10 in the x direction and the z direction in the map coordinate system obtained from the positioning signal or the like when the time for calculating the initial value is t, that is, Indicates the position of the host vehicle. theta t is at time t, represents the orientation of the vehicle 10. In addition, the control part 43 receives the signal from the sensor (not shown) which measures the azimuth | direction of the traveling direction of the vehicle 10 which the vehicle 10 has about the direction of the vehicle 10 via CAN3 and the communication part 42, for example. Is obtained. Alternatively, the control unit 43 calculates the direction of the host vehicle calculated from the change in the position of the host vehicle obtained from the GPS positioning signals received at different times immediately before starting the detection of the position of the host vehicle. You may receive from. Further, in (1), the sigma t, the covariance matrix. Further, the position in the vertical direction, that is, the altitude y t is not included in the equation (1), but can be calculated by the following equation.
Here, a x t , a z t , and a c t are constants, respectively.For example, assuming that the map coordinates (x t , z t ) are planar, the map coordinates (x t , z When the map coordinates (x i , y i , z i ) of each equidistant point on each map segment included in a predetermined range (for example, within 10m) around t ) are substituted into equation (2) For example, the least square method is used so that the square error is minimized.

初期値設定部21により設定された自車両の位置の初期値は、記憶部41に記憶される。   The initial value of the position of the host vehicle set by the initial value setting unit 21 is stored in the storage unit 41.

予測位置算出部22は、自車両の位置の初期値、あるいは、位置更新部26により求められた直前の自車両の位置と、車両10の車輪速等に基づいて、現時刻における自車両の予測位置を算出する。
本実施形態では、現時刻tにおける自車両の予測位置は、平均値μp t、共分散Σp tのガウス分布として表される。そこで予測位置算出部22は、次式に従って、現時刻tにおける自車両の水平方向における予測位置と予測方位の平均値μp t=(xp t,zp tp t)と共分散行列Σp tを算出する。
ここで、平均値μt-1、共分散Σt-1で表されるガウス分布は、時刻(t-1)における、自車両の推定位置を表す。現時刻tが制御部43が自車両位置の検出を行う最初の時刻である場合、N(xt-1,zt-1t-1t-1t-1)は、初期値設定部21により設定された自車両の位置の初期値である。また、時刻(t-1)において、制御部43が自車両位置を検出している場合、N(xt-1,zt-1t-1t-1t-1)は、時刻(t-1)において、制御部43により検出された自車両の推定位置である。
The predicted position calculation unit 22 predicts the host vehicle at the current time based on the initial value of the position of the host vehicle or the position of the host vehicle immediately before obtained by the position update unit 26 and the wheel speed of the vehicle 10. Calculate the position.
In the present embodiment, the predicted position of the host vehicle at the current time t is expressed as a Gaussian distribution with an average value μ p t and a covariance Σ p t . Therefore, the predicted position calculation unit 22 performs covariance with the average value μ p t = (x p t , z p t , θ p t ) of the predicted position and predicted direction in the horizontal direction of the host vehicle at the current time t according to the following equation. The matrix Σ p t is calculated.
Here, the Gaussian distribution represented by the average value μ t-1 and the covariance Σ t-1 represents the estimated position of the host vehicle at time (t-1). When the current time t is the first time when the control unit 43 detects the position of the host vehicle, N (x t−1 , z t−1 , θ t−1 | μ t−1 , Σ t−1 ) is The initial value of the position of the host vehicle set by the initial value setting unit 21. Further, when the control unit 43 detects the position of the host vehicle at time (t−1), N (x t−1 , z t−1 , θ t−1 | μ t−1 , Σ t−1 ) Is the estimated position of the host vehicle detected by the control unit 43 at time (t-1).

(3)式において、ut=(vtt)tは、は、車輪速から定められる制御入力を表す。vtは、現時刻tにおける車両10の速度であり、左右の後輪に取り付けられた車輪速センサから通信部42を介して受信した、最新の右後輪の車輪速vR tと左後輪の車輪速vL tの平均値(vR t+vL t)/2として算出される。またωtは、現時刻tにおける車両10の角速度であり、ωt=(vR t-vL t)/2daである。daは、左右の後輪間の距離である。
またΔtは、現時刻tと直前の時刻(t-1)の時間間隔、すなわち、制御部43が自車両位置の検出処理を行う時間間隔である。行列Qtは、後輪車輪速による自車両の位置の予測に含まれる誤差の度合いを表している。行列Qtの各要素σx、σz、σθは、それぞれ、地図座標系におけるXm方向の位置の誤差の標準偏差、Zm方向の位置の誤差の標準偏差、及び方位の誤差の標準偏差に相当し、例えば、σxz=1(m)、σθ=10(°)に設定される。
なお、予測位置算出部22は、現時刻tにおける自車両の標高ytについては、例えば、(2)式に従って算出すればよい。
In the equation (3), u t = (v t , ω t ) t represents a control input determined from the wheel speed. v t is the speed of the vehicle 10 at the current time t, the latest wheel speed v R t of the right rear wheel and the left rear received from the wheel speed sensors attached to the left and right rear wheels via the communication unit 42. The average value (v R t + v L t ) / 2 of the wheel speed v L t of the wheel is calculated. Further, ω t is an angular velocity of the vehicle 10 at the current time t, and is ωt = (v R t −v L t ) / 2da. da is the distance between the left and right rear wheels.
Δt is a time interval between the current time t and the immediately preceding time (t−1), that is, a time interval at which the control unit 43 performs the detection processing of the host vehicle position. The matrix Q t represents the degree of error included in the prediction of the position of the host vehicle based on the rear wheel speed. The elements σ x , σ z , σ θ of the matrix Q t are the standard deviation of the Xm-direction position error, the Zm-direction position error, and the direction error standard deviation in the map coordinate system, respectively. For example, σ x = σ z = 1 (m) and σ θ = 10 (°) are set.
The predicted position calculation unit 22 may calculate the altitude y t of the host vehicle at the current time t, for example, according to the equation (2).

予測位置算出部22は、μp t及びΣp tを記憶部41に記憶する。 The predicted position calculation unit 22 stores μ p t and Σ p t in the storage unit 41.

パーティクル生成部23は、車両10の現時刻における予測位置に基づいて、その予測位置におけるカメラ2の撮影範囲に含まれる地図線分を横切る方向の輝度変化を表す輝度プロファイルを持つ輝度パターンであるパーティクルを、地図情報に含まれるその地図線分の種類に応じて生成する。   The particle generation unit 23 is a particle that is a luminance pattern having a luminance profile that represents a luminance change in a direction across the map line segment included in the shooting range of the camera 2 at the predicted position based on the predicted position of the vehicle 10 at the current time. Is generated according to the type of the map line segment included in the map information.

本実施形態では、パーティクル生成部23は、パーティクルの生成範囲及び密度を適切に設定するために、予測位置の周囲の所定範囲(例えば、30m以内)、かつ、予測位置を基準としたカメラ2の撮影範囲内にある各地図線分を地図情報から抽出し、抽出した各地図線分をカメラ2により得られる画像上に投影する。なお、一端が所定範囲及び撮影範囲内にあり、かつ他端が所定範囲または撮影範囲から外れる地図線分については、パーティクル生成部23は、その所定の範囲の境界及び撮影範囲の境界のうちの予測位置から近い方と交差した点を地図線分の他端として、その地図線分を画像上に投影する。以下、各地図線分に対して同一の処理が行われるので、r番目の地図線分を例として説明する。   In the present embodiment, the particle generation unit 23 sets the generation range and density of the particles appropriately in a predetermined range around the predicted position (for example, within 30 m) and the camera 2 with the predicted position as a reference. Each map line segment within the imaging range is extracted from the map information, and each extracted map line segment is projected on an image obtained by the camera 2. In addition, for the map line segment where one end is within the predetermined range and the photographing range and the other end is out of the predetermined range or the photographing range, the particle generating unit 23 determines the boundary between the predetermined range and the photographing range. The point intersecting the nearer side from the predicted position is used as the other end of the map line segment, and the map line segment is projected on the image. Hereinafter, since the same processing is performed for each map line segment, the r-th map line segment will be described as an example.

地図座標系で表される地図上の点pm=(xm,ym,zm)と画像上の点uc=(u,v)との関係は、次式で表される。
ここで、pvは、点pmに対応する車両座標系の点であり、pcは、点pmに対応するカメラ座標系の点である。そして行列{Rslope tRvm t}は、時刻tにおける、車両座標系から地図座標系への座標変換における回転成分を表す。ここで、ロールピッチの回転成分を表す回転行列Rslope tは、(2)式における(ax t、az t、ac t)から算出される。また並進行列tvm t= (xvm t,yvm t,zvm t)は、時刻tにおける、車両座標系から地図座標系への座標変換における平行移動成分を表す。そしてh(pc,kc)は、カメラ座標系における点pc=(xc,yc,zc)からカメラ2により得られる画像上の点ucとの関係を表し、kcは、カメラ座標系から画像への変換パラメータを表す。カメラ2の歪曲収差を無視できる場合、h(pc,kc)は、次式で表される。
The relationship between the point p m = (x m , y m , z m ) on the map expressed in the map coordinate system and the point u c = (u, v) on the image is expressed by the following equation.
Here, p v is a point of the vehicle coordinate system corresponding to the point p m, p c is a point in the camera coordinate system corresponding to the point p m. The matrix {R slope t R vm t } represents a rotation component in the coordinate transformation from the vehicle coordinate system to the map coordinate system at time t. Here, the rotation matrix R slope t representing the rotation component of the roll pitch is calculated from (a x t , a z t , a c t ) in equation (2). Further, the translation sequence t vm t = (x vm t , y vm t , z vm t ) represents a translation component in the coordinate conversion from the vehicle coordinate system to the map coordinate system at time t. H (p c , k c ) represents a relationship with a point u c on the image obtained by the camera 2 from the point p c = (x c , y c , z c ) in the camera coordinate system, and k c is Represents a conversion parameter from the camera coordinate system to the image. When the distortion aberration of the camera 2 can be ignored, h (p c , k c ) is expressed by the following equation.

パーティクル生成部23は、μptに基づいて(xvm t,zvm tvm t)を設定し、(4)式に従って、r番目の地図線分の両端点(ms r,me r)をカメラ2により得られる画像上に投影する。そしてパーティクル生成部23は、画像上でのその地図線分の長さlimg rを求める。パーティクル生成部23は、その地図線分の長さlimg rを一本の地図線分あたりに発生させるパーティクルの総数(例えば、500〜1000)で等分して得られる位置のそれぞれをパーティクルを発生させる位置の候補とする。パーティクル生成部23は、各候補の中から所定数の候補を一様分布に従ってランダムに選択する。そしてパーティクル生成部23は、選択した候補に対応する地図座標系での3次元位置にパーティクルを発生させる。あるいは、パーティクル生成部23は、全ての候補についてパーティクルを発生させてもよい。 Particle generator 23, based on μp t (x vm t, z vm t, θ vm t) Set, according to (4), both end points of the r th map line (m s r, m e r ) is projected onto the image obtained by the camera 2. Then, the particle generation unit 23 obtains the length l img r of the map line segment on the image. The particle generator 23 divides each of the positions obtained by equally dividing the length l img r of the map line segment by the total number of particles generated per map line segment (for example, 500 to 1000). A candidate for the position to be generated The particle generator 23 randomly selects a predetermined number of candidates from each candidate according to a uniform distribution. The particle generator 23 generates particles at a three-dimensional position in the map coordinate system corresponding to the selected candidate. Alternatively, the particle generator 23 may generate particles for all candidates.

パーティクル生成部23は、パーティクルを発生させる地図線分の種類に応じて、パーティクルのタイプを決定する。なお、地図線分の種類は、上述したように、地図情報に含まれる。その際、パーティクル生成部23は、地図線分の種類によっては、複数の種類のパーティクルを、そのパーティクルの種類に応じた確率に従って発生させる。   The particle generator 23 determines the particle type according to the type of the map line segment that generates the particle. Note that the types of map line segments are included in the map information as described above. At that time, depending on the type of the map line segment, the particle generation unit 23 generates a plurality of types of particles according to the probability corresponding to the type of the particle.

図5は、地図線分の種類が「白線(細)」である場合のパーティクルの一例を示す図である。図5において、横軸は、実線である白線の位置を原点とする、地図線分と直交する方向に沿った位置を表し、縦軸は輝度を表す。そしてプロファイル500は、発生させるパーティクルの輝度プロファイルを表す。地図線分の種類が「白線(細)」である場合には、一本の白線が道路上に標示されているので、地図線分に沿った方向の位置によらず、地図線分を横切る方向の輝度プロファイルは変化しない。そこでこの場合には、パーティクル生成部23は、発生確率p1=1.0にて、プロファイル500で表される、白線の位置に相当し、かつ、白線の幅と同じ幅を持つ中央部分だけが高い輝度を持ち、その両側が低い輝度となるパーティクルを発生させる。   FIG. 5 is a diagram illustrating an example of particles when the type of map line segment is “white line (thin)”. In FIG. 5, the horizontal axis represents the position along the direction perpendicular to the map line segment with the position of the solid white line as the origin, and the vertical axis represents the luminance. A profile 500 represents a luminance profile of particles to be generated. When the type of map line segment is “white line (thin)”, a single white line is marked on the road, so it crosses the map line segment regardless of the position in the direction along the map line segment. The luminance profile in the direction does not change. Therefore, in this case, the particle generation unit 23 has a high luminance only in the central portion corresponding to the position of the white line represented by the profile 500 and having the same width as the width of the white line with the occurrence probability p1 = 1.0. And generate particles with low brightness on both sides.

図6は、地図線分の種類が「白線(細)+右側減速標示」である場合のパーティクルの一例を示す図である。図6において、横軸は、実線である白線の位置を原点とする、地図線分と直交する方向に沿った位置を表し、縦軸は輝度を表す。そしてプロファイル600及び610は、それぞれ、発生させるパーティクルの輝度プロファイルを表す。地図線分の種類が「白線(細)+右側減速標示」である場合には、一本の白線だけでなく、減速標示である破線が道路上に標示されているので、地図線分に沿った方向の位置によって、減速標示のブロックの有無により、地図線分を横切る方向の輝度プロファイルは変化する。そこでこの場合には、パーティクル生成部23は、発生確率p1=0.4にて、プロファイル600で表される、白線だけが存在する場合に相当する、白線の位置に相当し、かつ、白線の幅と同じ幅を持つ中央部分だけが高い輝度を持ち、その両側が低い輝度となるパーティクルを発生させ、発生確率p2=0.6にて、プロファイル610で表される、白線とともに減速標示のブロックが存在する場合に相当する、白線に相当する位置と減速標示のブロックに相当する位置の2か所で相対的に高い輝度を持つパーティクルを発生させる。なお、発生確率p1及びp2は、減速標示のブロックの長さとブロック間の長さの比に応じて、予め設定される。   FIG. 6 is a diagram illustrating an example of a particle when the type of the map line segment is “white line (thin) + right deceleration sign”. In FIG. 6, the horizontal axis represents the position along the direction perpendicular to the map line segment with the position of the solid white line as the origin, and the vertical axis represents the luminance. Profiles 600 and 610 represent the luminance profiles of the particles to be generated. When the type of map line segment is “white line (thin) + right-side deceleration sign”, not only a single white line but also a broken line, which is a deceleration sign, is marked on the road. Depending on the position in the selected direction, the luminance profile in the direction crossing the map line segment changes depending on the presence or absence of the deceleration marking block. Therefore, in this case, the particle generation unit 23 corresponds to the position of the white line, which corresponds to the case where only the white line exists, represented by the profile 600, with the occurrence probability p1 = 0.4, and the width of the white line. When only the central part with the same width has high luminance and both sides have low luminance, and there is a block of deceleration marking along with the white line represented by the profile 610 at the generation probability p2 = 0.6 The particles having relatively high brightness are generated at two positions corresponding to the white line and the position corresponding to the deceleration marking block. The occurrence probabilities p1 and p2 are set in advance in accordance with the ratio of the length of the deceleration marking block to the length between the blocks.

図7は、地図線分の種類が「白点線(細)+両側減速標示」である場合のパーティクルの一例を示す図である。図7において、横軸は、白点線の位置を原点とする、地図線分と直交する方向に沿った位置を表し、縦軸は輝度を表す。そしてプロファイル700〜720は、それぞれ、発生させるパーティクルの輝度プロファイルを表す。地図線分の種類が「白点線(細)+両側減速標示」である場合には、一本の白点線だけでなく、減速標示である破線が白点線の両側に道路上に標示されているので、地図線分に沿った方向の位置によって、白点線のブロックの有無、及び、減速標示のブロックの有無により、地図線分を横切る方向の輝度プロファイルは変化する。そこでこの場合には、パーティクル生成部23は、発生確率p1=0.3にて、プロファイル700で表される、白点線のブロックだけが存在する場合に相当する、白点線に相当する中央部分だけが高い輝度を持ち、その両側が低い輝度となるパーティクルを発生させる。またパーティクル生成部23は、発生確率p2=0.2にて、プロファイル710で表される、白点線のブロックとともに減速標示のブロックが存在する場合に相当する、白点線のブロック及び減速標示のブロックに相当する3ヵ所で相対的に高い輝度を持つパーティクルを発生させる。そしてパーティクル生成部23は、発生確率p3=0.5にて、プロファイル720で表される、減速標示のブロックのみが存在する場合に相当する、減速標示のブロックに相当する2か所で高い輝度を持つパーティクルを発生させる。なお、発生確率p1〜p3は、白点線のブロックの長さとブロック間の長さの比、及び、減速標示のブロックの長さとブロック間の長さの比に応じて、予め設定される。   FIG. 7 is a diagram illustrating an example of a particle when the type of the map line segment is “white dotted line (thin) + both side deceleration marking”. In FIG. 7, the horizontal axis represents the position along the direction perpendicular to the map line segment with the position of the white dotted line as the origin, and the vertical axis represents the luminance. Profiles 700 to 720 represent luminance profiles of particles to be generated. When the type of map line segment is "white dotted line (thin) + double-sided deceleration sign", not only a single white dotted line but also a broken line as a deceleration sign is marked on the road on both sides of the white dotted line Therefore, depending on the position in the direction along the map line segment, the luminance profile in the direction crossing the map line segment varies depending on the presence or absence of the white dotted line block and the presence or absence of the deceleration marking block. Therefore, in this case, the particle generation unit 23 is high only in the central portion corresponding to the white dotted line, which corresponds to the case where only the white dotted line block represented by the profile 700 exists at the occurrence probability p1 = 0.3. Generate particles that have brightness and low brightness on both sides. Further, the particle generation unit 23 corresponds to a white dotted line block and a deceleration marking block corresponding to a case where there is a deceleration marking block together with the white dotted line block represented by the profile 710 at the occurrence probability p2 = 0.2. Particles with relatively high brightness are generated at three locations. The particle generation unit 23 has high luminance at two places corresponding to the deceleration marking blocks, which corresponds to the case where only the deceleration marking blocks represented by the profile 720 exist at the occurrence probability p3 = 0.5. Generate particles. The occurrence probabilities p1 to p3 are set in advance according to the ratio between the length of the white dotted line block and the length between the blocks, and the ratio between the length of the deceleration marking block and the length between the blocks.

パーティクル生成部23は、生成した各パーティクルを投影部24へ渡す。   The particle generation unit 23 passes each generated particle to the projection unit 24.

投影部24は、各パーティクルをカメラ2により現時刻に得られた画像上へ投影する。なお、車両位置検出処理の実行周期とカメラ2による撮影周期とが同期していない場合には、カメラ2により得られた最新の画像を、現時刻に得られた画像とすればよい。その際、投影部24は、車両10の予測位置の不確実性を考慮して、予測位置を算出した際の共分散行列により表される正規分布にしたがって、パーティクルごとに予測位置及び予測方位を修正する。例えば、修正された予測位置及び予測方位μq ti=(xq ti,zq tiq ti)は次式で表される。
ここで、εiは、i番目のパーティクルについての予測位置及び予測方位の修正量を表し、正規分布N(0,Σp t)にパーティクルごとに発生させた乱数を入力することで得られる。
The projection unit 24 projects each particle onto the image obtained at the current time by the camera 2. If the execution cycle of the vehicle position detection process and the shooting cycle by the camera 2 are not synchronized, the latest image obtained by the camera 2 may be the image obtained at the current time. At that time, the projection unit 24 considers the uncertainty of the predicted position of the vehicle 10 and calculates the predicted position and the predicted direction for each particle according to the normal distribution represented by the covariance matrix when the predicted position is calculated. Correct it. For example, the corrected predicted position and predicted direction μ q ti = (x q ti , z q ti , θ q ti ) are expressed by the following equations.
Here, ε i represents the correction amount of the predicted position and predicted orientation for the i-th particle, and is obtained by inputting a random number generated for each particle into the normal distribution N (0, Σ p t ).

投影部24は、各パーティクルについて、修正された予測位置及び予測方位に基づいてそのパーティクルの車両座標系での位置を次式に従って算出する。
ここで、giは、i番目のパーティクルの地図座標系での位置(例えば、パーティクルの両端点の位置、あるいは、パーティクル上で輝度値が変化する位置)を表し、qiは、i番目のパーティクルの車両座標系での位置を表す。また回転行列Rmv tiは、時刻tにおける、地図座標系から車両座標系への座標変換における回転成分であり、i番目のパーティクルについての修正された予測方位θq tiに基づいて決定される。同様に、並進行列tmv tiは、時刻tにおける、地図座標系から車両座標系への座標変換における平行移動成分であり、i番目のパーティクルについての修正された予測位置(xq ti,zq ti)に基づいて決定される。
The projection unit 24 calculates the position of each particle in the vehicle coordinate system based on the corrected predicted position and predicted direction according to the following equation.
Here, g i represents the position of the i-th particle in the map coordinate system (for example, the position of the end point of the particle or the position where the luminance value changes on the particle), and q i represents the i-th particle. This represents the position of the particle in the vehicle coordinate system. The rotation matrix R mv ti is a rotation component in the coordinate conversion from the map coordinate system to the vehicle coordinate system at time t, and is determined based on the corrected predicted orientation θ q ti for the i-th particle. Similarly, the parallel progression sequence t mv ti is a translation component in the coordinate transformation from the map coordinate system to the vehicle coordinate system at time t, and the corrected predicted position (x q ti , z q for the i-th particle). ti ).

投影部24は、車両座標系上の位置で表された各パーティクルを(5)式にしたがって、時刻tにおけるカメラ2により得られた画像上に投影する。   The projection unit 24 projects each particle represented by a position on the vehicle coordinate system onto an image obtained by the camera 2 at time t according to the equation (5).

図8は、各パーティクルが投影された画像の一例を示す図である。図8に示された画像800において、道路上の白線801〜803のそれぞれごとに、その白線と交差するように複数のパーティクル810が投影されている。なお、この例では、パーティクル生成部23は、1本の白線ごとに、最大で1000個のパーティクルを発生させている。パーティクル810によって、白線と直交する方向の位置及び白線となす角が少しずつ変化していることが分かる。なお、各パーティクル810において、相対的に白い部分は輝度が相対的に低く、相対的に黒い部分が輝度が相対的に高いことを表す。   FIG. 8 is a diagram illustrating an example of an image on which each particle is projected. In the image 800 shown in FIG. 8, a plurality of particles 810 are projected so as to intersect with the white lines 801 to 803 on the road. In this example, the particle generator 23 generates a maximum of 1000 particles for each white line. It can be seen that the position in the direction orthogonal to the white line and the angle formed with the white line are gradually changed by the particles 810. In each particle 810, a relatively white portion indicates that the luminance is relatively low, and a relatively black portion indicates that the luminance is relatively high.

投影部24は、画像上に投影された各パーティクルを選択部25にわたす。   The projection unit 24 passes each particle projected on the image to the selection unit 25.

選択部25は、画像上に投影された各パーティクルについて、画像との一致度合を表す評価値を算出する。そして選択部25は、評価値が所定の一致条件を満たすパーティクルを選択する。   The selection unit 25 calculates an evaluation value representing the degree of coincidence with the image for each particle projected on the image. Then, the selection unit 25 selects particles whose evaluation values satisfy a predetermined matching condition.

例えば、選択部25は、各パーティクルについて、そのパーティクルの輝度プロファイル上で所定数(例えば、50点)の位置の輝度値と画像の対応位置の輝度値との間での正規化相互相関値を評価値として算出する。そして選択部25は、評価値が所定の閾値(例えば、0.8)以上となるパーティクルを、一致条件を満たすとして選択する。なお、画像の画質が悪くても一定数以上のパーティクルが選択されるように、所定の閾値は、例えば、評価値の最大値に1未満の所定数(例えば、0.8)を乗じて得られた値としてもよい。   For example, for each particle, the selection unit 25 calculates a normalized cross-correlation value between the luminance value at a predetermined number (for example, 50 points) on the luminance profile of the particle and the luminance value at the corresponding position of the image. Calculated as an evaluation value. Then, the selection unit 25 selects particles whose evaluation value is equal to or greater than a predetermined threshold (for example, 0.8) as satisfying the matching condition. The predetermined threshold value is obtained by, for example, multiplying the maximum evaluation value by a predetermined number less than 1 (for example, 0.8) so that a certain number of particles or more are selected even if the image quality is poor. It may be a value.

あるいは、選択部25は、評価値が最も高い方から順に所定数(例えば、生成されたパーティクルの総数の1/5〜1/10)のパーティクルを、一致条件を満たすとして選択してもよい。   Alternatively, the selection unit 25 may select a predetermined number of particles (for example, 1/5 to 1/10 of the total number of generated particles) in order from the highest evaluation value as satisfying the matching condition.

なお、選択部25は、各パーティクルについて、正規化相互相関値を算出する代わりに、誤差二乗和(SSD)あるいは誤差絶対値和(SAD)を評価値として算出してもよい。この場合には、選択部25は、評価値が所定の閾値以下となるパーティクルを、一致条件を満たすとして選択する。   Note that the selection unit 25 may calculate an error square sum (SSD) or an error absolute value sum (SAD) as an evaluation value instead of calculating a normalized cross-correlation value for each particle. In this case, the selection unit 25 selects particles whose evaluation value is equal to or less than a predetermined threshold as satisfying the matching condition.

選択部25は、選択された各パーティクルについて、位置の検出誤差を推定する。i番目のパーティクルについての位置の検出誤差は、例えば、画像上でのカメラ2の結像光学系の歪曲収差による誤差成分、あるいは、画素単位で区切られることによる誤差成分を含み、共分散行列RI iで表されるものとする。共分散行列RI iは、画像の中心、すなわち、カメラ2の光軸から離れるほど2次で大きくなると仮定される場合、例えば、次式で表される。
ここで、ni=(nu i,nv i)(nu i=(cu-ui)/fu,nv i=(cv-vi)/fv)は、正規化カメラ座標系でのi番目のパーティクルの画像上での中心位置を表す。なお、(ui,vi)は、i番目のパーティクルの画像上での中心座標であり、(cu,cv)は、画像上での中心座標であり、(fu,fv)は、カメラ2の焦点距離を表すパラメータである。c1、c2はカメラ2の結像光学系の歪曲収差などに応じた定数であり、例えば、c1=0.001、c2=0.005に設定される。またIは2行2列の単位行列である。
The selection unit 25 estimates a position detection error for each selected particle. The position detection error for the i-th particle includes, for example, an error component due to distortion of the imaging optical system of the camera 2 on the image or an error component due to segmentation in units of pixels, and the covariance matrix R Let it be represented by I i . When the covariance matrix R I i is assumed to increase in a second order as the distance from the center of the image, that is, the optical axis of the camera 2 increases, the covariance matrix R I i is expressed by, for example,
Where n i = (n u i , n v i ) (n u i = (c u -u i ) / f u , n v i = (c v -v i ) / f v ) is normalized Represents the center position on the image of the i-th particle in the camera coordinate system. (U i , v i ) is the center coordinate on the image of the i th particle, (c u , c v ) is the center coordinate on the image, and (f u , f v ) Is a parameter representing the focal length of the camera 2. c1 and c2 are constants corresponding to the distortion aberration of the imaging optical system of the camera 2, and are set to c1 = 0.001 and c2 = 0.005, for example. I is a 2-by-2 unit matrix.

選択部25は、選択された各パーティクルについて、画像上での検出誤差の共分散行列を、車両座標系での共分散行列に変換する。この場合、選択部25は、車両座標系でのパーティクルの位置qiにおける共分散行列Rq iは、画像上での対応する検出誤差の共分散行列RI iを鳥瞰変換したものとして算出できる。この鳥瞰変換は、例えば、次式で表される。
ここで、カメラ2の光軸方向は、路面に対して平行となるように取り付けられているものとした。またycは、路面からカメラ2までの高さを表す。またこの例では、車両10の位置の推定とは無関係な、車両座標系のy軸に関連する成分については省略されている。このとき、共分散行列Rq iは、次式で表される。
ここでBは、ヤコビアンである。
The selection unit 25 converts, for each selected particle, the covariance matrix of the detection error on the image into a covariance matrix in the vehicle coordinate system. In this case, the selection unit 25 can calculate the covariance matrix R q i at the particle position q i in the vehicle coordinate system as a bird's-eye transform of the corresponding detection error covariance matrix R I i on the image. . This bird's-eye view conversion is expressed by the following equation, for example.
Here, it is assumed that the optical axis direction of the camera 2 is attached so as to be parallel to the road surface. Yc represents the height from the road surface to the camera 2. In this example, components related to the y axis of the vehicle coordinate system that are unrelated to the estimation of the position of the vehicle 10 are omitted. At this time, the covariance matrix R q i is expressed by the following equation.
Where B is the Jacobian.

図9は、車両座標系における、選択された各パーティクルについての共分散行列Rq iに相当する誤差楕円の一例を表す図である。図9において、横軸は、車両10の進行方向と直交する方向の位置を表し、縦軸は車両10の進行方向に沿った、車両10からの距離を表す。なお、上側ほど、車両10から離れているとする。個々の楕円901が、それぞれ、一つのパーティクルに対応する共分散行列Rq iに相当する。また個々の楕円901の中心の点902は、対応するパーティクルの中心位置を表す。図9に示されるように、パーティクルの位置が車両10から離れるほど誤差楕円901は大きくなることが分かる。 FIG. 9 is a diagram illustrating an example of an error ellipse corresponding to the covariance matrix R q i for each selected particle in the vehicle coordinate system. In FIG. 9, the horizontal axis represents the position in the direction orthogonal to the traveling direction of the vehicle 10, and the vertical axis represents the distance from the vehicle 10 along the traveling direction of the vehicle 10. It is assumed that the upper side is farther from the vehicle 10. Each ellipse 901 corresponds to a covariance matrix R q i corresponding to one particle. The center point 902 of each ellipse 901 represents the center position of the corresponding particle. As shown in FIG. 9, it can be seen that the error ellipse 901 increases as the particle position moves away from the vehicle 10.

選択部25は、選択された各パーティクルについて、そのパーティクルの中心位置の車両座標系における位置qi及び共分散行列Rq iと、対応する地図線分の番号を位置更新部26へわたす。 For each selected particle, the selection unit 25 passes the position q i of the center position of the particle in the vehicle coordinate system, the covariance matrix R q i, and the corresponding map line segment number to the position update unit 26.

位置更新部26は、直近の過去の1以上の時刻における車両10の推定位置と、現時刻における、選択された各パーティクルに基づいて、現時刻における車両10の位置を推定する。   The position update unit 26 estimates the position of the vehicle 10 at the current time based on the estimated position of the vehicle 10 at the most recent past one or more times and each selected particle at the current time.

例えば、位置更新部26は、次式に従って評価値Eを算出し、その評価値Eが最小となるように、直近の過去の1以上の時刻及び現時刻における車両の推定位置を算出する。
ここで、時刻t∈{τs〜τe}は、車両10の位置を推定する時刻であり、τeが現時刻tに相当する。μt及びμt-1は、それぞれ、時刻t、(t-1)における車両10の推定位置を表す。なお、評価値Eの算出において、μt-1については、前時刻(t-1)において求められた車両10の推定位置が入力される。すなわち、μt-1については、既知の定数として扱われる。またutは、(3)式におけるutに対応する、オドメトリ情報である。そしてδxtt-1,ut)は、オドメトリによる車両10の位置の予測の誤差を表し、(3)式より、次式で表される。
なお、関数g(μt-1,ut)は、入力される変数が時刻(t-1)における車両10の推定位置及び時刻tにおけるオドメトリ情報である点を除いて、(3)式における関数g(μt-1,ut)と同じ関数である。すなわち、(11)式の右辺の第1項は、オドメトリ情報による車両10の位置の予測の誤差の二乗和を表す。
For example, the position update unit 26 calculates an evaluation value E according to the following equation, and calculates an estimated position of the vehicle at the latest past one or more times and the current time so that the evaluation value E is minimized.
Here, time tε {τ s to τ e } is a time for estimating the position of the vehicle 10, and τ e corresponds to the current time t. μ t and μ t−1 represent the estimated positions of the vehicle 10 at times t and (t−1), respectively. Incidentally, in the calculation of the evaluation value E, for mu t-1, the estimated position of the vehicle 10 determined in the preceding time (t-1) is input. That is, μ t−1 is treated as a known constant. U t is odometry information corresponding to u t in equation (3). Δ xt , μ t−1 , u t ) represents an error in predicting the position of the vehicle 10 by odometry, and is expressed by the following expression from the expression (3).
The function g (μ t−1 , u t ) is expressed by the following equation (3) except that the input variable is the estimated position of the vehicle 10 at time (t−1) and the odometry information at time t. This is the same function as the function g (μ t−1 , u t ). That is, the first term on the right side of the equation (11) represents the sum of squares of the error in predicting the position of the vehicle 10 based on the odometry information.

また、右辺の第2項におけるδIcj,qjrj)は、時刻cj(すなわち、選択されたj番目のパーティクルに対応する時刻であり、時刻τs〜τeの何れか)の車両10の推定位置μcjにおける、j番目(j∈{1,...,I}、Iは、時刻τs〜τeにおいて選択されたパーティクルの総数)の地図線分rjについてのパーティクルqjを、推定位置μcjを用いて地図線分rjに投影したときの地図座標系における射影誤差を表す。すなわち、第2項は、選択されたパーティクルについての射影誤差の二乗和を表す。なお、cjは、番号jに対応する時刻を表す。またRδ jは、地図座標系での誤差の共分散行列を表す。射影誤差δIcj,qjrj)及び共分散行列Rδ jは、次式で表される。
ここで、χx、χz、χcは、地図座標系における地図線分を直線方程式で表したときの係数及び定数であり、その直線方程式は、次式で表される。
なお、xm、zmは、地図座標系上でのxm方向の座標値、zm方向の座標値である。
Also, δ Icj , q j , χ rj ) in the second term on the right side is a time cj (that is, a time corresponding to the selected j-th particle, and any one of the times τ s to τ e ) At the estimated position μ cj of the vehicle 10 for the map line segment r j of the jth (j∈ {1,..., I}, I is the total number of particles selected at time τ s to τ e ). Represents the projection error in the map coordinate system when the particle q j is projected onto the map line segment r j using the estimated position μ cj . That is, the second term represents the sum of squares of the projection error for the selected particle. Note that cj represents the time corresponding to the number j. R δ j represents a covariance matrix of errors in the map coordinate system. The projection error δ Icj , q j , χ rj ) and the covariance matrix R δ j are expressed by the following equations.
Here, χ x , χ z , and χ c are coefficients and constants when the map line segment in the map coordinate system is expressed by a linear equation, and the linear equation is expressed by the following equation.
X m and z m are the coordinate value in the x m direction and the coordinate value in the z m direction on the map coordinate system.

位置更新部26は、評価値Eが最小となるように、各時刻の車両10の推定位置{μτs,...,μτe}を算出する。すなわち、(11)式において、第1項のμt及び第2項μcjが変数となる。その際、位置更新部26は、例えば、勾配法、レーベンバーグマーカート法、あるいはニュートン法を(11)式に適用することで各時刻の車両10の推定位置{μτs,...,μτe}を算出できる。あるいは、位置更新部26は、RANSAC法またはM推定といったロバストな推定法を(11)式に適用して、各時刻の車両10の推定位置{μτs,...,μτe}を算出してもよい。これにより、評価値Eが多峰性を持つパーティクルによる局所解とならないように、位置更新部26は、評価値Eの最小値をもとめることができる。 The position updating unit 26 calculates the estimated position {μ τs ,..., Μ τe } of the vehicle 10 at each time so that the evaluation value E is minimized. That is, in the equation (11), the first term μ t and the second term μ cj are variables. At this time, the position updating unit 26 applies, for example, the gradient method, the Levenberg-Marquardt method, or the Newton method to the equation (11), thereby estimating the estimated position {μ τs,. τe } can be calculated. Alternatively, the position update unit 26 applies a robust estimation method such as the RANSAC method or the M estimation to the equation (11), and calculates the estimated position {μ τs ,..., Μ τe } of the vehicle 10 at each time. May be. Thereby, the position update unit 26 can obtain the minimum value of the evaluation value E so that the evaluation value E does not become a local solution by particles having multimodality.

位置更新部26は、求めた各時刻の車両10の推定位置{μτs,...,μτe}を記憶部41に保存する。 The position update unit 26 stores the estimated position {μ τs ,..., Μ τe } of the vehicle 10 at each time obtained in the storage unit 41.

図10は、車両位置検出処理の動作フローチャートである。車両位置検出システム1は、所定の周期ごとに、例えば、カメラ2の撮影周期ごとに、以下に示す動作フローチャートに従って自車両の位置を推定する。   FIG. 10 is an operation flowchart of the vehicle position detection process. The vehicle position detection system 1 estimates the position of the host vehicle at predetermined intervals, for example, at each imaging cycle of the camera 2 according to the following operation flowchart.

予測位置算出部22は、前時刻(t-1)における自車両の位置とオドメトリ情報に基づいて、現時刻tにおける自車両の予測位置を算出する(ステップS101)。なお、前時刻(t-1)における自車両の位置は、現時刻tにおいて行われる車両位置検出処理が初回であれば、初期値設定部21により設定された自車両の位置の初期値である。一方、前時刻(t-1)において、既に車両位置検出処理が行われている場合には、前時刻(t-1)において位置更新部26により求められた自車両の位置である。   The predicted position calculation unit 22 calculates the predicted position of the host vehicle at the current time t based on the position of the host vehicle at the previous time (t-1) and the odometry information (step S101). Note that the position of the host vehicle at the previous time (t-1) is the initial value of the position of the host vehicle set by the initial value setting unit 21 if the vehicle position detection process performed at the current time t is the first time. . On the other hand, if the vehicle position detection process has already been performed at the previous time (t-1), the position of the host vehicle is obtained by the position update unit 26 at the previous time (t-1).

パーティクル生成部23は、その予測位置から所定の範囲内、かつ、カメラ2の撮影範囲内含まれる地図線分を、地図情報に基づいて抽出する(ステップS102)。そしてパーティクル生成部23は、抽出した地図線分ごとに、その地図線分の種類に応じた、地図線分を横切る方向の輝度プロファイルを持つパーティクルを地図線分に沿って複数発生させる(ステップS103)。   The particle generation unit 23 extracts a map line segment included in a predetermined range from the predicted position and included in the shooting range of the camera 2 based on the map information (step S102). Then, for each extracted map line segment, the particle generation unit 23 generates a plurality of particles having a luminance profile in a direction crossing the map line segment according to the type of the map line segment (step S103). ).

投影部24は、各パーティクルを、車両10の予測位置の誤差による位置の揺らぎを加味して、カメラ2により得られた現時刻における画像上に投影する(ステップS104)。   The projection unit 24 projects each particle on the image at the current time obtained by the camera 2 in consideration of the position fluctuation due to the error of the predicted position of the vehicle 10 (step S104).

選択部25は、画像上に投影された各パーティクルについて、そのパーティクルと画像との一致度合を表す評価値を算出し、その評価値が所定の一致条件を満たすパーティクルを選択する(ステップS105)。そして選択部25は、選択したパーティクルのそれぞれについて、車両座標系での検出誤差を表す共分散行列を算出する(ステップS106)。   For each particle projected on the image, the selection unit 25 calculates an evaluation value indicating the degree of coincidence between the particle and the image, and selects a particle that satisfies the predetermined matching condition (step S105). And the selection part 25 calculates the covariance matrix showing the detection error in a vehicle coordinate system about each of the selected particle (step S106).

位置更新部26は、過去の複数の時刻における推定位置とオドメトリ情報に基づく車両の予測位置間の誤差の総和と、検出誤差に基づいて算出される、選択された各パーティクルの射影誤差の総和との和に基づく評価値Eが最小となるように、各時刻の車両の推定位置を更新する(ステップS107)。そして制御部43は、車両位置検出処理を終了する。   The position update unit 26 calculates the sum of errors between the predicted positions of the vehicle based on the estimated positions at a plurality of times in the past and the odometry information, and the sum of the projection errors of each selected particle calculated based on the detection error. The estimated position of the vehicle at each time is updated so that the evaluation value E based on the sum of the values becomes minimum (step S107). And the control part 43 complete | finishes a vehicle position detection process.

以上説明してきたように、車両位置検出システムは、テンプレートマッチングのように、繰り返し試行する処理を伴わずに自車両の位置を検出できる。そのため、この車両位置検出システムは、処理負荷を抑制できる。またこの車両位置検出システムは、車両の周囲の道路上に標示された線を横切る方向の輝度プロファイルを持つ複数のパーティクルを生成して実際に撮影された画像上に投影し、その画像との一致度合が良好なパーティクルを利用して、自車両の位置を更新するので、自車両の位置を正確に検出できる。さらに、この車両位置検出システムは、地図情報を参照して、車両の周囲の道路上に標示された線の種類に応じてパーティクルを生成するので、道路に実際に標示されている線と一致する可能性が高いパーティクルを生成できる。そのため、この車両位置検出システムは、車両位置の推定に有用なパーティクルの数を増やすことができるので、車両位置の推定精度を向上できる。   As described above, the vehicle position detection system can detect the position of the host vehicle without a process of repeated trials like template matching. Therefore, this vehicle position detection system can suppress processing load. In addition, this vehicle position detection system generates a plurality of particles having a luminance profile in the direction crossing the line marked on the road around the vehicle, projects it onto the actually captured image, and matches that image. Since the position of the host vehicle is updated using particles having a good degree, the position of the host vehicle can be accurately detected. Furthermore, since this vehicle position detection system generates particles according to the types of lines marked on the roads around the vehicle with reference to the map information, it matches the lines actually marked on the roads. Probable particles can be generated. Therefore, since this vehicle position detection system can increase the number of particles useful for estimating the vehicle position, it is possible to improve the estimation accuracy of the vehicle position.

なお、変形例によれば、パーティクル生成部23は、パーティクル生成対象となる地図線分のそれぞれについて、線の太さ、あるいは、線間の間隔を互いに異ならせたパーティクルを生成してもよい。これは、道路上に標示される線(白線、減速線など)の太さが道路規格で定めされた範囲内で変動する可能性が有ること、及び、車線に対するカメラ2の向きにより、画像上でのその線の太さが変化する可能性があるためである。例えば、パーティクル生成部23は、着目する地図線分に含まれる、道路上に標示される線の幅の変動が正規分布に従うと仮定して、その正規分布に従って線の幅あるいは線間の間隔を変えたパーティクルを複数生成すればよい。これにより、パーティクル生成部23は、車両10が実際に走行している位置での道路上に標示される線と一致するパーティクルの数を増やすことができる。   In addition, according to the modification, the particle generation unit 23 may generate particles with different line thicknesses or intervals between the lines for each map line segment that is a particle generation target. This is because the thickness of the lines (white lines, deceleration lines, etc.) marked on the road may vary within the range defined by the road standards, and the orientation of the camera 2 with respect to the lane may cause This is because the thickness of the line may change. For example, the particle generation unit 23 assumes that the variation in the width of the line marked on the road included in the target map line segment follows a normal distribution, and sets the line width or the interval between lines according to the normal distribution. A plurality of changed particles may be generated. Thereby, the particle generation unit 23 can increase the number of particles that coincide with the line marked on the road at the position where the vehicle 10 is actually traveling.

他の変形例によれば、パーティクル生成部23は、車両10の左側に位置する地図線分と右側に位置する地図線分とを一つの組として、その組ごとにパーティクルを生成してもよい。これにより、道路上に描画されている線の一部の形状が、道路上の補修痕、あるいは、摩耗などによって本来の形状から変化している場合でも、誤って選択される可能性が低いパーティクルを生成できる。またこの場合、車両10の左側に位置する地図線分と右側に位置する地図線分間の間隔は、車線に対するカメラ2の向き、あるいはキャリブレーションの誤差などにより変化することがある。そこで上記の変形例と同様に、パーティクル生成部23は、車両10の左側に位置する地図線分と右側に位置する地図線分間の間隔の変動が正規分布に従うと仮定して、その正規分布に従って間隔を変えたパーティクルを複数生成すればよい。   According to another modification, the particle generation unit 23 may generate a particle for each set of the map line segment located on the left side of the vehicle 10 and the map line segment located on the right side as one set. . As a result, even if the shape of part of the line drawn on the road has changed from its original shape due to repair marks on the road or wear, particles that are unlikely to be selected by mistake Can be generated. In this case, the interval between the map line segment located on the left side of the vehicle 10 and the map line segment located on the right side may change depending on the orientation of the camera 2 with respect to the lane or calibration error. Therefore, similarly to the above-described modification, the particle generation unit 23 assumes that the variation in the interval between the map line segment located on the left side of the vehicle 10 and the map line segment located on the right side follows the normal distribution, and follows the normal distribution. A plurality of particles with different intervals may be generated.

また他の変形例によれば、パーティクル生成部23は、道路の路面に対して平行な面状のパーティクルを生成してもよい。   According to another modification, the particle generation unit 23 may generate planar particles parallel to the road surface of the road.

図11は、この変形例により生成されるパーティクルと道路上に標示される線との関係の一例を示す図である。図11では、道路上に標示される線1100は、鋸波状の形状を有している。そして縦軸は、線1100の延伸方向を表し(縦軸の位置は、延伸方向と直交する方向における線1100の重心位置に相当)、横軸は、線1100の延伸方向と直交する方向を表す。この例では、線1100の延伸方向に沿って、その延伸方向と直交する方向に沿った輝度変化を持つプロファイルを持つ3個の線の組が一つのパーティクル1101、1102として生成される。なお、図11では、パーティクル1101、1102を構成する個々の線において、相対的に明るい部分は相対的に低い輝度を持ち、相対的に暗い部分は相対的に高い輝度を持つ。そして各線において、輝度が高い部分は、線1100の対応部分に応じて設定される。このようなパーティクルを生成することで、車両位置検出システムは、道路上に標示される線が複雑な形状を有している場合でも、その線と一致するパーティクルを適切に選択できるので、車両10の位置を推定できる。   FIG. 11 is a diagram showing an example of the relationship between particles generated by this modification and lines marked on the road. In FIG. 11, the line 1100 marked on the road has a sawtooth shape. The vertical axis represents the extending direction of the line 1100 (the position of the vertical axis corresponds to the center of gravity of the line 1100 in the direction orthogonal to the extending direction), and the horizontal axis represents the direction orthogonal to the extending direction of the line 1100. . In this example, a set of three lines having a profile having a luminance change along a direction orthogonal to the extending direction along the extending direction of the line 1100 is generated as one particle 1101 and 1102. In FIG. 11, in the individual lines constituting the particles 1101 and 1102, a relatively bright part has a relatively low luminance, and a relatively dark part has a relatively high luminance. In each line, the portion with high luminance is set according to the corresponding portion of the line 1100. By generating such particles, the vehicle position detection system can appropriately select particles that match the line even when the line marked on the road has a complicated shape. Can be estimated.

さらに他の変形例によれば、カメラ2がカラー画像を生成する場合には、パーティクル生成部23は、地図線分の種類に応じて、パーティクルにおける、道路上に標示される線に相当する部分の色をその線の色に応じて設定してもよい。あるいは、パーティクル生成部23は、道路上に標示される線の色の確率分布に従って、パーティクルにおける、道路上に標示される線に相当する部分の色を設定してもよい。   According to still another modified example, when the camera 2 generates a color image, the particle generation unit 23 corresponds to the part of the particle corresponding to the line marked on the road according to the type of the map line segment. May be set according to the color of the line. Alternatively, the particle generation unit 23 may set the color of the part corresponding to the line marked on the road in the particle according to the probability distribution of the color of the line marked on the road.

さらに他の変形例によれば、カメラ2はステレオカメラであってもよい。この場合には、投影部24は、各パーティクルを、例えば、ステレオカメラにより得られた左右の画像のそれぞれに投影する。また選択部25は、例えば、ステレオカメラにより得られた左右の画像のそれぞれから路面に相当する路面領域を判定する。そして選択部25は、左右の画像の何れかにおいて、パーティクルの一部が路面領域に含まれないパーティクルを選択しない。これにより、選択部25は、例えば、先行車両などに隠れた道路上の線に対応するパーティクルを、車両10の位置の推定から排除できるので、車両10の位置の推定精度をより向上できる。なお、選択部25は、路面領域の判定方法として、例えば、関他、「ステレオ動画像を用いた車両の前方環境認識」、情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)2007、1-16、2007年などに開示された方法を利用できる。   According to yet another modification, the camera 2 may be a stereo camera. In this case, the projection unit 24 projects each particle on each of left and right images obtained by, for example, a stereo camera. For example, the selection unit 25 determines a road surface area corresponding to the road surface from each of the left and right images obtained by the stereo camera. Then, the selection unit 25 does not select particles in which some of the particles are not included in the road surface area in either of the left and right images. Thereby, since the selection part 25 can exclude the particle | grains corresponding to the line on the road hidden in the preceding vehicle etc. from estimation of the position of the vehicle 10, the estimation accuracy of the position of the vehicle 10 can be improved more. Note that the selection unit 25 uses, for example, Seki et al., “Recognition of the vehicle's front environment using stereo moving images”, Information Processing Society of Japan Research Report Computer Vision and Image Media (CVIM) 2007, 1- 16, the method disclosed in 2007, etc. can be used.

また、選択部25は、各パーティクルについて、左右それぞれの画像についての評価値のうちの小さい方(評価値として正規化相互相関値を利用する場合、評価値としてSSDまたはSADを利用する場合には、左右それぞれの画像についての評価値のうちの大きい方)、あるいは、評価値の平均値が所定の一致条件を満たすものを選択してもよい。この変形例によれば、着目するパーティクルが投影された位置が先行車両により隠されるオクルージョンが発生している場合、その投影された位置と重なる先行車両上の位置は、左右それぞれの画像において異なるため、その先行車両において2か所以上、着目するパーティクルと類似するパターンが存在しない限り、そのパーティクルは選択されないことになる。したがって、ロバスト性が向上する。   In addition, for each particle, the selection unit 25 is the smaller of the evaluation values for the left and right images (when using a normalized cross-correlation value as the evaluation value, when using SSD or SAD as the evaluation value, Or the larger of the evaluation values for the left and right images), or an evaluation value whose average value satisfies a predetermined matching condition may be selected. According to this modification, when an occlusion occurs in which the position where the target particle is projected is hidden by the preceding vehicle, the position on the preceding vehicle that overlaps the projected position is different in the left and right images. Unless there is a pattern similar to the focused particle in two or more places in the preceding vehicle, the particle is not selected. Therefore, robustness is improved.

なお、カメラ2がステレオカメラである場合も、位置更新部26は、(11)式で表される評価値Eが最小となるように、各時刻における車両10の推定位置を算出すればよい。   Even when the camera 2 is a stereo camera, the position updating unit 26 may calculate the estimated position of the vehicle 10 at each time so that the evaluation value E expressed by the equation (11) is minimized.

さらに他の変形例によれば、パーティクル生成部23は、直前の時刻において選択されたパーティクルに基づいて、現時刻のパーティクルを発生させてもよい。この場合、パーティクル生成部23は、一般的なパーティクルフィルタに従って、現時刻のパーティクルを発生させればよい。これにより、パーティクル生成部23は、生成するパーティクルの数を減らすことができる。すなわち、選択部25による評価対象となるパーティクルの数を減らすことができる。   According to still another modification, the particle generation unit 23 may generate particles at the current time based on the particles selected at the immediately preceding time. In this case, the particle generation unit 23 may generate particles at the current time according to a general particle filter. Thereby, the particle generation unit 23 can reduce the number of particles to be generated. That is, the number of particles to be evaluated by the selection unit 25 can be reduced.

さらに他の変形例によれば、位置更新部26は、要求される精度によっては、(11)式における第1項を省略し、第2項のみに基づいて、評価値Eが最小となるように、現時刻における車両10の位置を推定してもよい。この場合には、位置更新部26は、第2項においても、現時刻において選択されたパーティクルのみに基づいて第2項を算出してもよい。これにより、位置更新部26は、演算量を削減できる。   According to still another modification, the position updating unit 26 omits the first term in the expression (11) depending on the required accuracy so that the evaluation value E is minimized based only on the second term. In addition, the position of the vehicle 10 at the current time may be estimated. In this case, the position update unit 26 may calculate the second term based on only the particles selected at the current time also in the second term. Thereby, the position update part 26 can reduce the amount of calculations.

上記の実施形態または変形例による車両位置検出システムから出力された自車両の位置は、例えば、CAN3を介して運転支援システムの制御回路(図示せず)へ送信される。運転支援システムの制御回路は、例えば、自車両の位置とその周囲の情報とを比較して、自車両から所定距離範囲内に特定の構造物(例えば、高速道路の料金所、ナビゲーション中の経路において左折または右折が必要な交差点など)が有れば、車内に設置されたディスプレイまたはスピーカを介して、その構造物が近いことをドライバに通知する。あるいは、運転支援システムの制御回路は、ECU11に、速度を落とす命令を出力してもよい。   The position of the host vehicle output from the vehicle position detection system according to the above embodiment or modification is transmitted to a control circuit (not shown) of the driving support system via, for example, CAN3. The control circuit of the driving support system compares, for example, the position of the host vehicle and the surrounding information, and within a predetermined distance range from the host vehicle, for example, a specific structure (for example, a highway toll booth, a route being navigated) If there is an intersection that requires a left turn or a right turn, the driver is notified that the structure is near through a display or a speaker installed in the vehicle. Alternatively, the control circuit of the driving support system may output a command to reduce the speed to the ECU 11.

以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。   As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.

1 車両位置検出システム
2 カメラ
3 コントロールエリアネットワーク(CAN)
4 コントローラ(車両位置検出装置)
10 車両
11 ECU
41 記憶部
42 通信部
43 制御部
21 初期値設定部
22 予測位置算出部
23 パーティクル生成部
24 投影部
25 選択部
26 位置更新部
1 Vehicle position detection system 2 Camera 3 Control area network (CAN)
4 Controller (vehicle position detection device)
10 Vehicle 11 ECU
41 storage unit 42 communication unit 43 control unit 21 initial value setting unit 22 predicted position calculation unit 23 particle generation unit 24 projection unit 25 selection unit 26 position update unit

Claims (7)

道路上に標示される線の位置及び当該線の種類を表す地図情報を記憶する記憶部(41)と、
車両(10)の直前の位置から推定される当該車両の現時刻における予測位置に応じて前記道路上に標示される線を前記地図情報から抽出し、抽出した線のそれぞれについて、当該線の種類に応じて、当該線を横切る方向の輝度変化を表すパーティクルを、当該線に沿った方向に応じた位置を変えながら複数生成するパーティクル生成部(23)と、
前記抽出した線のそれぞれについての前記複数のパーティクルのそれぞれについて、前記予測位置を想定される誤差範囲内で変化させながら前記車両(10)を基準とする位置を求め、当該位置にしたがって前記車両(10)に搭載された撮像部(2)により得られた現時刻の画像に投影する投影部(24)と、
前記抽出した線のそれぞれについての前記複数のパーティクルのうち、前記画像との一致度合が所定の一致条件を満たすパーティクルを選択する選択部(25)と、
前記選択されたパーティクルのそれぞれを、現時刻における前記車両(10)の推定位置に基づいて対応する前記線に射影したときの誤差の総和に応じて前記推定位置を求める位置更新部(26)と、
を有することを特徴とする車両位置検出装置。
A storage unit (41) for storing map information indicating the position of the line marked on the road and the type of the line;
A line marked on the road is extracted from the map information in accordance with the predicted position of the vehicle at the current time estimated from the position immediately before the vehicle (10), and for each of the extracted lines, the type of the line A particle generation unit (23) that generates a plurality of particles representing a luminance change in a direction crossing the line while changing a position according to the direction along the line;
For each of the plurality of particles for each of the extracted lines, a position based on the vehicle (10) is obtained while changing the predicted position within an assumed error range, and the vehicle ( A projection unit (24) that projects the image at the current time obtained by the imaging unit (2) mounted on 10);
A selection unit (25) for selecting a particle whose degree of coincidence with the image satisfies a predetermined coincidence condition among the plurality of particles for each of the extracted lines;
A position updater (26) for obtaining the estimated position according to the sum of errors when each of the selected particles is projected onto the corresponding line based on the estimated position of the vehicle (10) at the current time; ,
A vehicle position detection device comprising:
前記位置更新部(26)は、前記選択されたパーティクルのそれぞれを対応する前記線に射影したときの誤差の総和が最小となるように前記推定位置を求める、請求項1に記載の車両位置検出装置。   The vehicle position detection according to claim 1, wherein the position update unit (26) obtains the estimated position so that a sum of errors is minimized when each of the selected particles is projected onto the corresponding line. apparatus. 前記位置更新部(26)は、前記選択されたパーティクルのそれぞれを対応する前記線に射影したときの誤差の総和と、過去の複数の時刻のそれぞれにおける前記車両(10)の推定位置からオドメトリ情報を用いて予測した次の時刻における前記車両の位置と当該次の時刻における前記車両の推定位置との誤差の総和との和が最小となるように、現時刻及び前記過去の複数の時刻のそれぞれにおける前記車両(10)の推定位置を求める、請求項1に記載の車両位置検出装置。   The position update unit (26) calculates odometry information from the total sum of errors when each of the selected particles is projected onto the corresponding line and the estimated position of the vehicle (10) at each of a plurality of past times. Each of the current time and the plurality of past times so that the sum of the error between the position of the vehicle at the next time predicted by using and the estimated position of the vehicle at the next time is minimized. The vehicle position detection device according to claim 1, wherein an estimated position of the vehicle (10) is obtained. 前記パーティクル生成部(23)は、前記抽出した線の種類が点線または破線を含む線を含む場合、当該点線または破線のブロックが有る場合に相当する当該線を横切る方向の輝度変化を表す第1のパーティクルと、当該点線または破線のブロックが無い場合に相当する当該線を横切る方向の輝度変化を表す第2のパーティクルとを生成する、請求項1〜3の何れか一項に記載の車両位置検出装置。   When the extracted line type includes a line including a dotted line or a broken line, the particle generating unit (23) indicates a luminance change in a direction crossing the line corresponding to the case where there is a block of the dotted line or the broken line. The vehicle position as described in any one of Claims 1-3 which produces | generates the 2nd particle showing the brightness | luminance change of the direction crossing the said line corresponding to the case where there is no said dotted line or broken line block Detection device. 前記撮像部(2)は、二つのカメラを含むステレオカメラであり、
前記選択部(25)は、前記二つのカメラのうちの一方により現時刻に得られた第1の画像上で前記一致度合が前記一致条件を満たし、かつ、前記二つのカメラのうちの他方により現時刻に得られた第2の画像上で前記一致度合が前記一致条件を満たすパーティクルを選択する、請求項1〜4の何れか一項に記載の車両位置検出装置。
The imaging unit (2) is a stereo camera including two cameras,
The selection unit (25) is configured so that the degree of coincidence satisfies the coincidence condition on the first image obtained at one time by one of the two cameras and the other of the two cameras The vehicle position detection device according to any one of claims 1 to 4, wherein the coincidence degree selects particles satisfying the coincidence condition on a second image obtained at a current time.
車両(10)の直前の位置から推定される当該車両の現時刻における予測位置に応じて道路上に標示される線を地図情報から抽出し、抽出した線のそれぞれについて、前記地図情報に表された当該線の種類に応じて、当該線を横切る方向の輝度変化を表すパーティクルを、当該線に沿った方向に応じた位置を変えながら複数生成するステップと、
前記抽出した線のそれぞれについての前記複数のパーティクルのそれぞれについて、前記予測位置を想定される誤差範囲内で変化させながら前記車両(10)を基準とする位置を求め、当該位置にしたがって前記車両(10)に搭載された撮像部(2)により得られた現時刻の画像に投影するステップと、
前記抽出した線のそれぞれについての前記複数のパーティクルのうち、前記画像との一致度合が所定の一致条件を満たすパーティクルを選択するステップと、
前記選択されたパーティクルのそれぞれを、現時刻における前記車両(10)の推定位置に基づいて対応する前記線に射影したときの誤差の総和に応じて前記推定位置を求めるステップと、
を含むことを特徴とする車両位置検出方法。
Lines marked on the road are extracted from the map information in accordance with the predicted position of the vehicle at the current time estimated from the position immediately before the vehicle (10), and each of the extracted lines is represented in the map information. In accordance with the type of the line, a step of generating a plurality of particles representing a luminance change in the direction across the line while changing the position according to the direction along the line;
For each of the plurality of particles for each of the extracted lines, a position based on the vehicle (10) is obtained while changing the predicted position within an assumed error range, and the vehicle ( Projecting the image at the current time obtained by the imaging unit (2) mounted on 10);
Selecting a particle satisfying a predetermined matching condition with a degree of matching with the image from the plurality of particles for each of the extracted lines;
Obtaining the estimated position according to the sum of errors when each of the selected particles is projected onto the corresponding line based on the estimated position of the vehicle (10) at the current time;
The vehicle position detection method characterized by including.
車両(10)の直前の位置から推定される当該車両の現時刻における予測位置に応じて道路上に標示される線を地図情報から抽出し、抽出した線のそれぞれについて、前記地図情報に表された当該線の種類に応じて、当該線を横切る方向の輝度変化を表すパーティクルを、当該線に沿った方向に応じた位置を変えながら複数生成するステップと、
前記抽出した線のそれぞれについての前記複数のパーティクルのそれぞれについて、前記予測位置を想定される誤差範囲内で変化させながら前記車両(10)を基準とする位置を求め、当該位置にしたがって前記車両(10)に搭載された撮像部(2)により得られた現時刻の画像に投影するステップと、
前記抽出した線のそれぞれについての前記複数のパーティクルのうち、前記画像との一致度合が所定の一致条件を満たすパーティクルを選択するステップと、
前記選択されたパーティクルのそれぞれを、現時刻における前記車両(10)の推定位置に基づいて対応する前記線に射影したときの誤差の総和に応じて前記推定位置を求めるステップと、
を前記車両(10)に搭載されたプロセッサ(43)に実行させる命令を含むことを特徴とする車両位置検出用コンピュータプログラム。
Lines marked on the road are extracted from the map information in accordance with the predicted position of the vehicle at the current time estimated from the position immediately before the vehicle (10), and each of the extracted lines is represented in the map information. In accordance with the type of the line, a step of generating a plurality of particles representing a luminance change in the direction across the line while changing the position according to the direction along the line;
For each of the plurality of particles for each of the extracted lines, a position based on the vehicle (10) is obtained while changing the predicted position within an assumed error range, and the vehicle ( Projecting the image at the current time obtained by the imaging unit (2) mounted on 10);
Selecting a particle satisfying a predetermined matching condition with a degree of matching with the image from the plurality of particles for each of the extracted lines;
Obtaining the estimated position according to the sum of errors when each of the selected particles is projected onto the corresponding line based on the estimated position of the vehicle (10) at the current time;
The computer program for vehicle position detection characterized by including the command which makes the processor (43) mounted in the said vehicle (10) execute.
JP2016073531A 2016-03-31 2016-03-31 Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection Active JP6552448B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016073531A JP6552448B2 (en) 2016-03-31 2016-03-31 Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016073531A JP6552448B2 (en) 2016-03-31 2016-03-31 Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection

Publications (2)

Publication Number Publication Date
JP2017181476A true JP2017181476A (en) 2017-10-05
JP6552448B2 JP6552448B2 (en) 2019-07-31

Family

ID=60004269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016073531A Active JP6552448B2 (en) 2016-03-31 2016-03-31 Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection

Country Status (1)

Country Link
JP (1) JP6552448B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019058765A1 (en) 2017-09-21 2019-03-28 栗田工業株式会社 Method for improving efficiency of steam heating, and papermaking method
WO2019130945A1 (en) * 2017-12-27 2019-07-04 ソニー株式会社 Information processing device, information processing method, program, and moving body
WO2019159469A1 (en) 2018-02-15 2019-08-22 栗田工業株式会社 Method for improving efficiency of heating with steam and method for making paper
CN110470309A (en) * 2018-05-09 2019-11-19 丰田自动车株式会社 This truck position apparatus for predicting
CN113819918A (en) * 2021-09-17 2021-12-21 中国第一汽车股份有限公司 Positioning method, positioning device, electronic equipment and storage medium
CN114323035A (en) * 2020-09-30 2022-04-12 华为技术有限公司 Positioning method, device and system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126905A (en) * 2002-10-02 2004-04-22 Honda Motor Co Ltd Image processor
JP2010000969A (en) * 2008-06-23 2010-01-07 Aisin Aw Co Ltd Guide controlling device, guide controlling method, and guide controlling program
JP2012023573A (en) * 2010-07-14 2012-02-02 Fujitsu Ltd Image processor, image processing program, image processing method, and mobile
JP2013148354A (en) * 2012-01-17 2013-08-01 Nissan Motor Co Ltd Vehicle position calculation device
JP2013186551A (en) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd Traveling object position/attitude estimation device and method
JP2013537995A (en) * 2010-09-24 2013-10-07 エボリューション・ロボティクス・インコーポレイテッド System and method for VSLAM optimization
WO2015072217A1 (en) * 2013-11-13 2015-05-21 日産自動車株式会社 Moving body position estimation device and moving body position estimation method
JP2015194397A (en) * 2014-03-31 2015-11-05 株式会社デンソーアイティーラボラトリ Vehicle location detection device, vehicle location detection method, vehicle location detection computer program and vehicle location detection system
US20170169300A1 (en) * 2015-12-15 2017-06-15 Honda Motor Co., Ltd. System and method for image based vehicle localization

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126905A (en) * 2002-10-02 2004-04-22 Honda Motor Co Ltd Image processor
JP2010000969A (en) * 2008-06-23 2010-01-07 Aisin Aw Co Ltd Guide controlling device, guide controlling method, and guide controlling program
JP2012023573A (en) * 2010-07-14 2012-02-02 Fujitsu Ltd Image processor, image processing program, image processing method, and mobile
JP2013537995A (en) * 2010-09-24 2013-10-07 エボリューション・ロボティクス・インコーポレイテッド System and method for VSLAM optimization
JP2013148354A (en) * 2012-01-17 2013-08-01 Nissan Motor Co Ltd Vehicle position calculation device
JP2013186551A (en) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd Traveling object position/attitude estimation device and method
WO2015072217A1 (en) * 2013-11-13 2015-05-21 日産自動車株式会社 Moving body position estimation device and moving body position estimation method
JP2015194397A (en) * 2014-03-31 2015-11-05 株式会社デンソーアイティーラボラトリ Vehicle location detection device, vehicle location detection method, vehicle location detection computer program and vehicle location detection system
US20170169300A1 (en) * 2015-12-15 2017-06-15 Honda Motor Co., Ltd. System and method for image based vehicle localization

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019058765A1 (en) 2017-09-21 2019-03-28 栗田工業株式会社 Method for improving efficiency of steam heating, and papermaking method
WO2019130945A1 (en) * 2017-12-27 2019-07-04 ソニー株式会社 Information processing device, information processing method, program, and moving body
US11450026B2 (en) 2017-12-27 2022-09-20 Sony Corporation Information processing apparatus, information processing method, and mobile object
WO2019159469A1 (en) 2018-02-15 2019-08-22 栗田工業株式会社 Method for improving efficiency of heating with steam and method for making paper
CN110470309A (en) * 2018-05-09 2019-11-19 丰田自动车株式会社 This truck position apparatus for predicting
CN114323035A (en) * 2020-09-30 2022-04-12 华为技术有限公司 Positioning method, device and system
CN113819918A (en) * 2021-09-17 2021-12-21 中国第一汽车股份有限公司 Positioning method, positioning device, electronic equipment and storage medium
CN113819918B (en) * 2021-09-17 2023-05-16 中国第一汽车股份有限公司 Positioning method, positioning device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP6552448B2 (en) 2019-07-31

Similar Documents

Publication Publication Date Title
CN111436216B (en) Method and system for color point cloud generation
AU2018282302B2 (en) Integrated sensor calibration in natural scenes
US11915099B2 (en) Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
CN108692719B (en) Object detection device
WO2018142900A1 (en) Information processing device, data management device, data management system, method, and program
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
JP2020525809A (en) System and method for updating high resolution maps based on binocular images
JP6758160B2 (en) Vehicle position detection device, vehicle position detection method and computer program for vehicle position detection
CN105335955A (en) Object detection method and object detection apparatus
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
CN108645375B (en) Rapid vehicle distance measurement optimization method for vehicle-mounted binocular system
Konrad et al. Localization in digital maps for road course estimation using grid maps
WO2019208101A1 (en) Position estimating device
KR20180067199A (en) Apparatus and method for recognizing object
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP2015194373A (en) Vehicle location detection device, vehicle location detection method, vehicle location detection computer program and vehicle location detection system
US11087150B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
US20210190509A1 (en) Position estimating apparatus and position estimating method
US20230351687A1 (en) Method for detecting and modeling of object on surface of road
KR102195040B1 (en) Method for collecting road signs information using MMS and mono camera
KR102003387B1 (en) Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
WO2022133986A1 (en) Accuracy estimation method and system
JP2018116147A (en) Map creation device, map creation method and map creation computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190702

R150 Certificate of patent or registration of utility model

Ref document number: 6552448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250