JP7036400B2 - Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program - Google Patents

Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program Download PDF

Info

Publication number
JP7036400B2
JP7036400B2 JP2018013946A JP2018013946A JP7036400B2 JP 7036400 B2 JP7036400 B2 JP 7036400B2 JP 2018013946 A JP2018013946 A JP 2018013946A JP 2018013946 A JP2018013946 A JP 2018013946A JP 7036400 B2 JP7036400 B2 JP 7036400B2
Authority
JP
Japan
Prior art keywords
feature
image
feature point
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018013946A
Other languages
Japanese (ja)
Other versions
JP2019132664A (en
Inventor
彰司 浅井
周 浅海
博 石黒
和孝 早川
崇士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Central R&D Labs Inc
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Central R&D Labs Inc, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2018013946A priority Critical patent/JP7036400B2/en
Priority to CN201910035085.XA priority patent/CN110044256B/en
Priority to DE102019100885.9A priority patent/DE102019100885A1/en
Priority to US16/248,191 priority patent/US10949996B2/en
Publication of JP2019132664A publication Critical patent/JP2019132664A/en
Application granted granted Critical
Publication of JP7036400B2 publication Critical patent/JP7036400B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、自車位置推定装置、自車位置推定方法、及び自車位置推定プログラムに関する。 The present invention relates to a vehicle position estimation device, a vehicle position estimation method, and a vehicle position estimation program.

移動体に搭載されたカメラ等の撮影部によって撮影された撮影画像に基づいて、3次元空間上における移動体の位置を推定する技術が提案されている。 A technique for estimating the position of a moving object in a three-dimensional space has been proposed based on an image taken by an imaging unit such as a camera mounted on the moving object.

従来、自車位置の推定に関連する技術として、例えば特許文献1に開示された自動運転制御装置が知られている。特許文献1に係る自動運転制御装置は、車両が運転者に運転される登録モードにおいて車両の周囲環境を撮像した画像である登録時画像に基づき、車両を自動運転するための自動運転情報を生成する自動運転情報登録部と、車両が自動運転される自動運転モードにおいて車両の周囲環境を撮像した画像である自動運転時画像と、自動運転情報とに基づき、車両を自動運転する自動運転制御部と、を有し、自動運転情報登録部は、登録時画像に基づき、車両の周囲環境に存在する候補特徴点を抽出する候補特徴点抽出部と、車両の移動中に撮像された複数の登録時画像に基づき、候補特徴点のうち、車両の目的箇所の周囲に固定して配置された構造物であると判断した候補特徴点を、特徴点として選定し、所定の原点座標に対する特徴点の位置の情報である自動運転情報を生成する自動運転情報生成部と、を有し、自動運転制御部は、自動運転時画像と自動運転情報とに基づき、原点座標に対する車両の位置の情報である車両位置情報を算出する車両位置算出部と、車両位置情報に基づき、車両を目的箇所まで自動運転する自動運転実行制御部と、を有している。すなわち、特許文献1に係る自動運転制御装置では、事前に走行した際の画像から構造物の特徴点を抽出し、その3次元位置を推定して地図に登録し、自動運転時に画像から構造物の特徴点を抽出し、地図に登録された構造物の特徴点と照合することにより自車位置を推定している。 Conventionally, as a technique related to the estimation of the position of the own vehicle, for example, the automatic driving control device disclosed in Patent Document 1 is known. The automatic driving control device according to Patent Document 1 generates automatic driving information for automatically driving a vehicle based on a registration image which is an image of the surrounding environment of the vehicle in the registration mode in which the vehicle is driven by the driver. Automatic driving information registration unit, automatic driving control unit that automatically drives the vehicle based on the automatic driving image, which is an image of the surrounding environment of the vehicle in the automatic driving mode in which the vehicle is automatically driven, and the automatic driving information. The automatic driving information registration unit has a candidate feature point extraction unit that extracts candidate feature points existing in the surrounding environment of the vehicle based on the image at the time of registration, and a plurality of registrations taken while the vehicle is moving. Among the candidate feature points, the candidate feature points determined to be a structure fixedly arranged around the target location of the vehicle based on the time image are selected as feature points, and the feature points with respect to the predetermined origin coordinates are selected. It has an automatic driving information generation unit that generates automatic driving information that is position information, and the automatic driving control unit is information on the position of the vehicle with respect to the origin coordinates based on the automatic driving image and the automatic driving information. It has a vehicle position calculation unit that calculates vehicle position information, and an automatic driving execution control unit that automatically drives the vehicle to a target location based on the vehicle position information. That is, in the automatic driving control device according to Patent Document 1, feature points of a structure are extracted from an image when traveling in advance, the three-dimensional position thereof is estimated and registered in a map, and the structure is registered from the image during automatic driving. The position of the own vehicle is estimated by extracting the feature points of the above and collating them with the feature points of the structure registered on the map.

特開2017-138664号公報Japanese Unexamined Patent Publication No. 2017-138664

ところで、画像から抽出される特徴点として、周囲との輝度差が大きい点を抽出する場合がある。この場合、例えば、日中と夜間とでは、周囲の明るさが変化するため、特徴点の特徴量が変化することがある。この特徴量の変化によって、地図に登録された特徴点との対応付けがうまくいかず、自車位置を精度良く推定することができない場合がある。上記特許文献1では、周囲の明るさの変化について考慮されていないため、このような場合、精度良く自車位置を推定することは困難である。 By the way, as a feature point extracted from an image, a point having a large difference in brightness from the surroundings may be extracted. In this case, for example, since the ambient brightness changes between daytime and nighttime, the feature amount of the feature point may change. Due to this change in the feature amount, the correspondence with the feature points registered in the map may not be successful, and the position of the own vehicle may not be estimated accurately. In the above Patent Document 1, since the change in the ambient brightness is not taken into consideration, it is difficult to accurately estimate the position of the own vehicle in such a case.

本発明は、上述した課題を解決するためになされたものであり、周囲の明るさが変化した場合であっても、精度良く自車位置を推定することができる自車位置推定装置、自車位置推定方法、及び自車位置推定プログラムを提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and is an own vehicle position estimation device and an own vehicle that can accurately estimate the own vehicle position even when the ambient brightness changes. It is an object of the present invention to provide a position estimation method and a vehicle position estimation program.

上記目的を達成するために、請求項1に記載の自車位置推定装置は、所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部と、前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出する検出部と、前記検出部により検出された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量を算出する算出部と、前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定する推定部と、前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加する追加部と、を備えている。 In order to achieve the above object, the own vehicle position estimation device according to claim 1 is a plurality of reference images taken by a photographing unit mounted on the own vehicle at a plurality of positions along a predetermined traveling route. Each feature point detected from the reference image associated with, a feature amount showing a pattern of difference in brightness in the vicinity of the feature point as a feature of the feature point registered for each feature point, and the reference image. From a storage unit that stores map information including the position and posture of the photographing unit at the time of photographing, and a traveling image taken by the photographing unit while the own vehicle is traveling along the predetermined traveling route. A detection unit that detects a feature point, a calculation unit that calculates a feature amount that indicates a pattern of difference in brightness in the vicinity of the feature point as a feature of the feature point detected by the detection unit, and a feature calculated by the calculation unit. By selecting a similar image similar to the traveling image from the plurality of reference images based on the amount and comparing the feature amount of the feature point of the traveling image with the feature amount of the feature point of the similar image, the said An estimation unit that estimates the position and attitude of the own vehicle on the predetermined travel route based on the association between the feature points of the traveling image and the feature points of the similar image, and the estimation unit. It is provided with an additional unit for adding the feature amount of the feature point of the traveling image associated with the feature point of the similar image to the map information as the feature amount of the feature point of the reference image which is the similar image. ..

また、請求項2に記載の発明は、請求項1に記載の発明において、前記推定部が、複数の特徴量が登録されている前記類似画像の特徴点との対応付けを行う際には、前記複数の特徴量の各々について、前記走行画像の特徴点の特徴量との間で距離を計算し、計算した距離の最小値が予め定められた値以下となる場合に、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行う。 Further, the invention according to claim 2 is the invention according to claim 1, when the estimation unit associates with the feature points of the similar image in which a plurality of feature quantities are registered. For each of the plurality of feature quantities, the distance between the feature quantity and the feature quantity of the feature point of the travel image is calculated, and when the minimum value of the calculated distance is equal to or less than a predetermined value, the feature of the travel image. The points are associated with the feature points of the similar image.

また、請求項3に記載の発明は、請求項1又は2に記載の発明において、前記追加部が、前記類似画像の特徴点に登録されている複数の特徴量の数が上限数に達した場合に、登録済みの複数の特徴量及び追加する特徴量のうちの特徴量のペア毎に相互の距離を計算し、計算された各特徴量との距離の中間値が最小となる特徴量を削除する。 Further, in the invention according to claim 3, in the invention according to claim 1 or 2, the number of the plurality of feature quantities registered in the feature points of the similar image by the additional portion has reached the upper limit. In this case, the mutual distance is calculated for each pair of the registered feature amount and the feature amount to be added, and the feature amount that minimizes the intermediate value of the distance to each calculated feature amount is set. delete.

また、請求項4に記載の発明は、請求項1~3のいずれか1項に記載の発明において、前記地図情報が、前記複数の基準画像の各々から検出された特徴点の前記地図情報における位置を更に含み、前記推定部が、対応付けた前記走行画像の特徴点の位置と前記類似画像の特徴点の位置とに基づいて、前記撮影部の位置及び姿勢を推定し、推定した前記撮影部の位置及び姿勢を自車の代表点に換算することにより、前記所定の走行経路における自車の位置及び姿勢を推定する。 Further, the invention according to claim 4 is the invention according to any one of claims 1 to 3, wherein the map information is the map information of feature points detected from each of the plurality of reference images. The imaging unit further includes the position, and the estimation unit estimates and estimates the position and posture of the imaging unit based on the position of the feature point of the associated traveling image and the position of the feature point of the similar image. By converting the position and posture of the portion into a representative point of the own vehicle, the position and posture of the own vehicle in the predetermined traveling route are estimated.

また、請求項5に記載の発明は、請求項4に記載の発明において、前記推定部が、前記走行画像の特徴点の位置と、前記類似画像の撮影時における前記撮影部の位置及び姿勢に基づいて前記類似画像の特徴点を前記走行画像に投影して得られる投影点の位置との差で表される投影誤差の総和が最小となる前記撮影部の位置及び姿勢を推定する。 Further, in the invention according to claim 5, in the invention according to claim 4, the estimation unit determines the position of the feature point of the traveling image and the position and orientation of the photographing unit when the similar image is photographed. Based on this, the position and orientation of the photographing unit that minimizes the total projection error represented by the difference from the position of the projection point obtained by projecting the feature points of the similar image onto the traveling image are estimated.

また、請求項6に記載の発明は、請求項5に記載の発明において、前記追加部が、前記推定部により対応付けられた前記走行画像の特徴点のうち、前記投影誤差が予め定められた値以下となる特徴点の特徴量を選択的に前記地図情報に追加する。 Further, in the invention according to claim 6, in the invention according to claim 5, the projection error is predetermined among the feature points of the traveling image to which the additional part is associated with the estimation part. The feature amount of the feature point that is equal to or less than the value is selectively added to the map information.

一方、上記目的を達成するために、請求項7に記載の自車位置推定方法は、所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部を備えた自車位置推定装置による自車位置推定方法であって、検出部が、前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出するステップと、算出部が、前記検出部により検出された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量を算出するステップと、推定部が、前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定するステップと、追加部が、前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加するステップと、を含んでいる。 On the other hand, in order to achieve the above object, the own vehicle position estimation method according to claim 7 has a plurality of reference images taken by a photographing unit mounted on the own vehicle at a plurality of positions along a predetermined traveling route. Each feature point associated with each of the above reference images, a feature amount showing a pattern of difference in brightness in the vicinity of the feature point as a feature of the feature point registered for each feature point, and the above-mentioned feature amount. It is a method of estimating the position of a vehicle using a vehicle position estimation device including a storage unit that stores map information including the position and orientation of the image shooting unit at the time of photographing a reference image, and the detection unit is the predetermined traveling. A step of detecting a feature point from a traveling image taken by the photographing unit while the own vehicle is running along the route, and a calculation unit in the vicinity of the feature point as a feature of the feature point detected by the detecting unit. Based on the step of calculating the feature amount indicating the pattern of the difference in brightness and the feature amount calculated by the calculation unit, the estimation unit selects a similar image similar to the traveling image from the plurality of reference images. By comparing the feature amount of the feature point of the traveling image with the feature amount of the feature point of the similar image, the feature point of the traveling image and the feature point of the similar image are associated with each other. Based on the result, the step of estimating the position and attitude of the own vehicle in the predetermined travel path, and the feature of the feature point of the travel image in which the additional portion is associated with the feature point of the similar image by the estimation unit. It includes a step of adding an amount to the map information as a feature amount of a feature point of a reference image which is a similar image.

更に、上記目的を達成するために、請求項8に記載の自車位置推定プログラムは、所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部を備えた自車位置推定装置で実行される自車位置推定プログラムであって、前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出する検出部、前記検出部により検出された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量を算出する算出部、前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定する推定部、及び前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加する追加部、として機能させる。 Further, in order to achieve the above object, the own vehicle position estimation program according to claim 8 has a plurality of reference images taken by a photographing unit mounted on the own vehicle at a plurality of positions along a predetermined traveling route. Each feature point associated with each of the above reference images, a feature amount showing a pattern of difference in brightness in the vicinity of the feature point as a feature of the feature point registered for each feature point, and the above-mentioned feature amount. It is a vehicle position estimation program executed by a vehicle position estimation device provided with a storage unit that stores map information including the position and orientation of the image capture unit at the time of capturing a reference image, and is the predetermined travel route. A detection unit that detects a feature point from a running image taken by the photographing unit while the own vehicle is running along the line, and a feature of the feature point detected by the detection unit is a difference in brightness in the vicinity of the feature point. Based on the calculation unit that calculates the feature amount indicating the pattern and the feature amount calculated by the calculation unit, a similar image similar to the running image is selected from the plurality of reference images, and the feature of the feature point of the running image is selected. By comparing the amount with the feature amount of the feature point of the similar image, the feature point of the traveling image and the feature point of the similar image are associated with each other, and based on the result of the association, the predetermined travel is performed. The estimation unit that estimates the position and attitude of the own vehicle on the route, and the feature amount of the feature points of the traveling image associated with the feature points of the similar image by the estimation unit are the features of the reference image that is the similar image. It functions as an additional part to be added to the map information as a feature amount of points.

本発明によれば、周囲の明るさが変化した場合であっても、精度良く自車位置を推定することができる自車位置推定装置、自車位置推定方法、及び自車位置推定プログラムを提供することができる。 According to the present invention, there is provided a vehicle position estimation device, a vehicle position estimation method, and a vehicle position estimation program that can accurately estimate the vehicle position even when the ambient brightness changes. can do.

(a)は実施形態に係るカメラを搭載した車両の一例を示す側面図である。(b)は実施形態に係る自車位置推定装置の電気的な構成の一例を示すブロック図である。(A) is a side view showing an example of a vehicle equipped with a camera according to an embodiment. (B) is a block diagram showing an example of the electrical configuration of the own vehicle position estimation device according to the embodiment. (a)は実施形態に係る駐車経路における特徴点の一例を示す図である。(b)は実施形態に係るキーフレームのカメラ位置と特徴点の位置の一例を示す図である。(A) is a figure which shows an example of the characteristic point in the parking route which concerns on embodiment. (B) is a figure which shows an example of the camera position of the key frame and the position of a feature point which concerns on embodiment. 実施形態に係る自車位置推定装置の機能的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the own vehicle position estimation apparatus which concerns on embodiment. 実施形態に係る走行画像の特徴点と類似キーフレームの特徴点との対応付けの説明に供する図である。It is a figure which provides the explanation of the correspondence between the feature point of the traveling image which concerns on embodiment, and the feature point of a similar key frame. 実施形態に係る走行画像の特徴量と類似キーフレームの特徴量との間の距離の説明に供する図である。It is a figure which provides the explanation of the distance between the feature amount of the traveling image which concerns on embodiment, and the feature amount of a similar key frame. 実施形態に係る投影誤差の説明に供する図である。It is a figure which provides the explanation of the projection error which concerns on embodiment. 実施形態に係る類似キーフレームの特徴点に登録されている複数の特徴量の数が上限数に達した場合に削除する特徴量の説明に供する図である。It is a figure which provides the explanation of the feature amount to be deleted when the number of the plurality of feature amounts registered in the feature point of the similar key frame which concerns on embodiment reaches the upper limit number. 実施形態に係る自車位置推定プログラムによる処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow by the own vehicle position estimation program which concerns on embodiment.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。なお、以下の説明では、移動体として車両を例にとり、車両が自車の位置を推定する際の周囲環境を駐車場とし、走行経路として駐車場外部から駐車地点までの経路を例示して説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following explanation, a vehicle is taken as an example as a moving body, the surrounding environment when the vehicle estimates the position of the vehicle is used as a parking lot, and a route from the outside of the parking lot to the parking point is illustrated as a traveling route. do.

図1から図8を参照して、本実施形態に係る自車位置推定装置、自車位置推定方法、及び自車位置推定プログラムについて説明する。 The own vehicle position estimation device, the own vehicle position estimation method, and the own vehicle position estimation program according to the present embodiment will be described with reference to FIGS. 1 to 8.

図1(a)は、本実施形態に係るカメラ14を搭載した車両50の一例を示す側面図である。
図1(a)に示すように、車両50は、本実施形態に係る自車位置の推定処理(以下、「自車位置推定処理」という。)において使用する、撮影部の一例としてのカメラ14を備えている。
FIG. 1A is a side view showing an example of a vehicle 50 equipped with a camera 14 according to the present embodiment.
As shown in FIG. 1A, the vehicle 50 is a camera 14 as an example of a photographing unit used in the own vehicle position estimation process (hereinafter referred to as “own vehicle position estimation process”) according to the present embodiment. It is equipped with.

本実施形態に係るカメラ14は、車両50の後部のトランク等に設けられ、車両後方を撮影する。カメラ14は、例えば、車幅方向の略中央部付近に設けられ、かつカメラ14の光軸が水平方向より若干下側を向くように配置されている。なお、本実施形態では、カメラ14を車両50の後部に設ける形態を例示して説明するが、これに限られず、環境等に応じて例えば前部に設けてもよい。また、本実施形態では、カメラ14として単眼カメラを例示して説明するが、これに限られず他の形態のカメラ、例えばステレオカメラ等であってもよい。 The camera 14 according to the present embodiment is provided in the trunk or the like at the rear of the vehicle 50, and photographs the rear of the vehicle. The camera 14 is provided, for example, in the vicinity of a substantially central portion in the vehicle width direction, and is arranged so that the optical axis of the camera 14 faces slightly downward from the horizontal direction. In this embodiment, the embodiment in which the camera 14 is provided at the rear of the vehicle 50 will be described as an example, but the present invention is not limited to this, and the camera 14 may be provided at the front, for example, depending on the environment and the like. Further, in the present embodiment, the monocular camera is exemplified as the camera 14, but the present invention is not limited to this, and other types of cameras such as a stereo camera may be used.

図1(b)は、本実施形態に係る自車位置推定装置10の電気的な構成の一例を示すブロック図である。
図1(b)に示すように、本実施形態に係る自車位置推定装置10は、車両50に搭載され、制御部12、カメラ14、記憶部16、及び表示部18を含んで構成されている。
FIG. 1B is a block diagram showing an example of an electrical configuration of the own vehicle position estimation device 10 according to the present embodiment.
As shown in FIG. 1 (b), the own vehicle position estimation device 10 according to the present embodiment is mounted on the vehicle 50 and includes a control unit 12, a camera 14, a storage unit 16, and a display unit 18. There is.

制御部12は、自車位置を推定するための演算等を行う。制御部12は、一例としてCPU(Central Processing Unit)12A、ROM(Read Only Memory)12B、RAM(Random Access Memory)12C、入出力インタフェースであるI/O12D等を含んで構成されている。CPU12A、ROM12B、RAM12C、及びI/O12Dの各々はバス12Eにより相互に接続されている。 The control unit 12 performs calculations and the like for estimating the position of the own vehicle. The control unit 12 includes, for example, a CPU (Central Processing Unit) 12A, a ROM (Read Only Memory) 12B, a RAM (Random Access Memory) 12C, and an I / O 12D as an input / output interface. Each of the CPU 12A, ROM 12B, RAM 12C, and I / O 12D is connected to each other by the bus 12E.

CPU12Aは、自車位置推定装置10の全体を統括、制御する。ROM12Bは、本実施形態で用いる地図を生成するための地図生成プログラムや、自車位置を推定する自車位置推定プログラムを含む各種プログラムやデータ等が記憶されている。RAM12Cは、各種プログラムの実行時のワークエリアとして用いられるメモリである。ROM12Bに記憶されたプログラムをRAM12Cに展開してCPU12Aが実行することにより、地図の生成や、自車位置の推定が行われる。 The CPU 12A controls and controls the entire vehicle position estimation device 10. The ROM 12B stores various programs and data including a map generation program for generating a map used in the present embodiment and a vehicle position estimation program for estimating the vehicle position. The RAM 12C is a memory used as a work area when executing various programs. By expanding the program stored in the ROM 12B to the RAM 12C and executing it by the CPU 12A, a map is generated and the position of the own vehicle is estimated.

制御部12には、I/O12Dを介して、カメラ14、記憶部16、及び表示部18が接続されている。カメラ14により撮影された画像は、I/O12Dを介して制御部12に取り込まれる。 The camera 14, the storage unit 16, and the display unit 18 are connected to the control unit 12 via the I / O 12D. The image taken by the camera 14 is taken into the control unit 12 via the I / O 12D.

また、記憶部16には、本実施形態に係る自車位置推定処理に用いる地図情報等が格納されている。記憶部16の形態に特に制限はないが、一例としてHDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を用いることができる。なお、記憶部16は制御部12内に設けてもよいし、外部接続可能としてもよい。また、記憶部16には制御部12の制御によって生成した地図情報の他に、ROM12Bに代えて、地図生成プログラムや自車位置推定プログラムを記憶してもよい。 Further, the storage unit 16 stores map information and the like used for the own vehicle position estimation process according to the present embodiment. The form of the storage unit 16 is not particularly limited, but as an example, an HDD (Hard Disk Drive), SSD (Solid State Drive), flash memory, or the like can be used. The storage unit 16 may be provided in the control unit 12 or may be externally connectable. Further, in addition to the map information generated by the control of the control unit 12, the storage unit 16 may store a map generation program and a vehicle position estimation program instead of the ROM 12B.

表示部18は、カメラ14が撮影した画像等を表示する。表示部18の形態に制限はないが、例えば、液晶モニタ、CRT(Cathode Ray Tube)モニタ、FPD(Flat Panel Display)モニタ等が用いられる。 The display unit 18 displays an image or the like taken by the camera 14. The form of the display unit 18 is not limited, but for example, a liquid crystal monitor, a CRT (Cathode Ray Tube) monitor, an FPD (Flat Panel Display) monitor, or the like is used.

図2(a)は、本実施形態に係る駐車経路における特徴点の一例を示す図である。
図2(a)では、本実施形態で想定する駐車場の様子(以下、「環境」という。)を示している。
FIG. 2A is a diagram showing an example of feature points in the parking route according to the present embodiment.
FIG. 2A shows the state of the parking lot (hereinafter referred to as “environment”) assumed in the present embodiment.

本実施形態では、車両50の走行経路として、図2(a)に示す「スタート」の位置(出発地点)から、「ゴール」の位置(駐車地点)までを想定している。図2(a)に示す符号「FP」は、以下で説明する特徴点の位置を示している。車両50の自車位置を推定する場合には、所定の大きさを有する車両50内の位置(以下、「車両代表点X」)を予め決めておく必要があるが、図2(b)に示すように、本実施形態ではこの車両代表点Xを後輪の中央の点としている。しかしながら、代表点の位置はこれに限られず、例えば車両50の重心の位置としてもよい。 In the present embodiment, the traveling route of the vehicle 50 is assumed to be from the "start" position (starting point) shown in FIG. 2A to the "goal" position (parking point). The reference numeral “FP” shown in FIG. 2A indicates the position of the feature point described below. When estimating the own vehicle position of the vehicle 50, it is necessary to determine in advance the position in the vehicle 50 having a predetermined size (hereinafter, “vehicle representative point X”), but FIG. 2 (b) shows. As shown, in this embodiment, this vehicle representative point X is set as the center point of the rear wheels. However, the position of the representative point is not limited to this, and may be, for example, the position of the center of gravity of the vehicle 50.

図2(b)は、本実施形態に係るキーフレームのカメラ位置と特徴点の位置の一例を示す図で、図2(a)に示す環境の平面図である。 FIG. 2B is a diagram showing an example of the camera position and the position of the feature point of the key frame according to the present embodiment, and is a plan view of the environment shown in FIG. 2A.

図2(b)に示すように、カメラ14を搭載した車両50は、スタート地点SPからゴール地点GPまで走行する。本実施形態に係る自車位置推定処理では、実際の走行の前に、カメラ14で環境を撮影し、撮影された画像に関連付けられた所定の付随データを地図として予め生成しておくが、符号「S」は、地図の生成の際の車両50の走行軌跡を示している。実際の駐車においては、基本的に走行軌跡Sに沿って走行する。以下では、走行軌跡Sと区別して、実際の駐車時(走行時)に走行する経路を「走行経路」という場合がある。 As shown in FIG. 2B, the vehicle 50 equipped with the camera 14 travels from the start point SP to the goal point GP. In the own vehicle position estimation process according to the present embodiment, the environment is photographed by the camera 14 before the actual driving, and predetermined incidental data associated with the photographed image is generated in advance as a map. “S” indicates the traveling locus of the vehicle 50 at the time of generating the map. In actual parking, the vehicle basically travels along the travel locus S. In the following, the route traveled during actual parking (during traveling) may be referred to as a “traveling route” in distinction from the traveling locus S.

図2(b)に示す小円は、特徴点FPの位置を示している。本実施形態において、「特徴点」とは、建物の凹凸に基づく陰影、壁面の模様等、撮影画像において輝度の濃淡差が所定値よりも大きい点をいう。従って、特徴点は、図2(b)に示すように、環境における建物30の壁面WS、あるいは建物30の角部に現れることが多く、また、1つの地図において複数の特徴点FPが選定される。さらに、本実施形態では、複数の特徴点FPの各々を区別するために、個々の特徴点FPに「特徴量」を対応付けている。本実施形態に係る「特徴量」とは、一例として特徴点近傍における輝度の濃淡差のパターンをいう。 The small circle shown in FIG. 2B indicates the position of the feature point FP. In the present embodiment, the "feature point" means a point where the difference in brightness in the captured image is larger than a predetermined value, such as a shadow based on the unevenness of the building and a pattern on the wall surface. Therefore, as shown in FIG. 2B, the feature points often appear on the wall surface WS of the building 30 in the environment or at the corners of the building 30, and a plurality of feature point FPs are selected in one map. Ru. Further, in the present embodiment, in order to distinguish each of the plurality of feature point FPs, a "feature amount" is associated with each feature point FP. The "feature amount" according to the present embodiment means, for example, a pattern of luminance difference in the vicinity of a feature point.

図2(b)中の符号「CP」は、地図を生成する際、カメラ14による撮影が行われた複数(図2(b)の例では12)の撮影点を示している。本実施形態では、この複数の撮影点CPで撮影された画像を「キーフレーム」といい、特徴点FP及び特徴点FPに関連付けられた情報とともに地図を生成する際のデータを構成する。ここでいう「キーフレーム」は、「基準画像」の一例である。すなわち、キーフレームは、予め複数の撮影点CPで撮影された複数の画像であり、特徴点に関する情報はこのキーフレームに関連付けられる。なお、以下の説明では、地図を生成する際の撮影点を「地図撮影点CP」といい、実際の駐車時の撮影点を「走行撮影点」という。また、走行撮影点において撮影された画像を「走行画像」という。 The reference numeral “CP” in FIG. 2 (b) indicates a plurality of shooting points (12 in the example of FIG. 2 (b)) taken by the camera 14 when the map is generated. In the present embodiment, the image taken by the plurality of shooting point CPs is referred to as a "key frame", and constitutes data for generating a map together with the feature point FP and the information associated with the feature point FP. The "key frame" here is an example of a "reference image". That is, the key frame is a plurality of images taken in advance at the plurality of shooting point CPs, and the information about the feature points is associated with the key frame. In the following description, the shooting point at the time of generating the map is referred to as "map shooting point CP", and the shooting point at the time of actual parking is referred to as "running shooting point". Further, the image taken at the running shooting point is called a "running image".

上述したように、本実施形態に係るCPU12Aは、ROM12Bに記憶されている自車位置推定プログラムをRAM12Cに書き出して実行することにより、図3に示す各部として機能する。 As described above, the CPU 12A according to the present embodiment functions as each part shown in FIG. 3 by writing the own vehicle position estimation program stored in the ROM 12B to the RAM 12C and executing the program.

図3は、本実施形態に係る自車位置推定装置10の機能的な構成の一例を示すブロック図である。
図3に示すように、本実施形態に係る自車位置推定装置10のCPU12Aは、検出部20、算出部22、推定部24、及び追加部26として機能する。また、地図情報16Aは、記憶部16に予め記憶されている。
FIG. 3 is a block diagram showing an example of a functional configuration of the own vehicle position estimation device 10 according to the present embodiment.
As shown in FIG. 3, the CPU 12A of the own vehicle position estimation device 10 according to the present embodiment functions as a detection unit 20, a calculation unit 22, an estimation unit 24, and an additional unit 26. Further, the map information 16A is stored in advance in the storage unit 16.

本実施形態に係る地図情報16Aについて説明する。地図情報16Aには以下の情報が含まれている。
(1)各特徴点FPの3次元で表示した座標(3次元位置座標(Xp、Yp、Zp))。
(2)各キーフレームにおけるカメラの3次元位置座標(Xc、Yc、Zc)と姿勢(ロール角、ピッチ角、ヨー角)。
(3)各キーフレームにおける各特徴量。
The map information 16A according to the present embodiment will be described. The map information 16A includes the following information.
(1) Coordinates displayed in three dimensions of each feature point FP (three-dimensional position coordinates (Xp, Yp, Zp)).
(2) Three-dimensional position coordinates (Xc, Yc, Zc) and posture (roll angle, pitch angle, yaw angle) of the camera at each key frame.
(3) Each feature amount in each key frame.

地図の生成は、予め人が運転して走行軌跡Sを走行し、走行の際のカメラ14による撮影画像から特徴点の座標(3次元位置)とキーフレームにおけるカメラ14の位置を推定する。これらの推定は、例えばVisual SLAM(Simultaneous Localization and Mapping)を用いて行うことができる。すなわち、撮影画像から、Visual SLAMを用いて特徴点の3次元位置とキーフレームのカメラ位置を推定し、これらの推定値とキーフレームにおける特徴点の特徴量を地図情報16Aに登録する。 To generate the map, a person drives in advance to travel on the travel locus S, and the coordinates (three-dimensional position) of the feature points and the position of the camera 14 in the key frame are estimated from the image taken by the camera 14 during the travel. These estimates can be made using, for example, Visual SLAM (Simultaneous Localization and Mapping). That is, the three-dimensional position of the feature point and the camera position of the key frame are estimated from the captured image using Visual SLAM, and these estimated values and the feature amount of the feature point in the key frame are registered in the map information 16A.

より詳細には、特徴点の検出方法としては、例えば、ORB(Oriented FAST and Rotated BRIEF)-SLAMを適用することができる。ORB-SLAMは、特徴点としてコーナーを検出し、検出手法にFAST(Features from Accelerated Segment Test)を用いるものである。また、ORB-SLAMは、特徴量の記述にORBを用いる。ORBは、BRIEF(Binary Robust Independent Elementary Features)をベースとして、スケール不変性と回転不変性とを有するように発展させたものである。ORB-SLAMについては以下の参考文献1に開示されているため、詳細な説明を省略する。 More specifically, as a method for detecting feature points, for example, ORB (Oriented FAST and Rotated BRIEF) -SLAM can be applied. The ORB-SLAM detects a corner as a feature point and uses FAST (Features from Accelerated Segment Test) as a detection method. In addition, ORB-SLAM uses ORB to describe the feature amount. The ORB is based on BRIEF (Binary Robust Independent Elementary Features) and has been developed to have scale invariance and rotation invariance. Since ORB-SLAM is disclosed in Reference 1 below, detailed description thereof will be omitted.

[参考文献1]Raul Mur-Artal, J.M.M.Montiel and Juan D.Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol.31, no.5, pp.1147-1163, 2015. [Reference 1] Raul Mur-Artal, JMMMontiel and Juan D.Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol.31, no.5, pp.1147-1163, 2015 ..

以上まとめると、地図生成時に地図撮影点CPで撮影された複数の画像であるキーフレームが撮影された際の特徴点の座標、各特徴点について登録された少なくとも1つの特徴量、カメラ14の位置及び姿勢が関連付けられ、地図情報16Aとして記憶部16に格納される。また、記憶部16に格納された地図情報16Aは、後述する自車位置推定処理において参照される。 To summarize the above, the coordinates of the feature points when the key frame, which is a plurality of images taken at the map shooting point CP at the time of map generation, are taken, at least one feature amount registered for each feature point, and the position of the camera 14. And the posture are associated with each other, and the map information 16A is stored in the storage unit 16. Further, the map information 16A stored in the storage unit 16 is referred to in the own vehicle position estimation process described later.

本実施形態に係る検出部20は、走行経路に沿って自車を走行させた状態でカメラ14により撮影された走行画像から特徴点を検出する。この特徴点の検出には、上述したように、一例としてFAST等が用いられる。 The detection unit 20 according to the present embodiment detects feature points from a travel image taken by a camera 14 in a state where the own vehicle is traveled along a travel path. As described above, FAST or the like is used as an example for detecting this feature point.

本実施形態に係る算出部22は、検出部20により検出された特徴点の特徴を示す特徴量を算出する。この特徴量には、上述したように、一例としてORB等が用いられる。 The calculation unit 22 according to the present embodiment calculates a feature amount indicating the feature of the feature point detected by the detection unit 20. As described above, ORB or the like is used as an example for this feature amount.

本実施形態に係る推定部24は、算出部22により算出された特徴量に基づいて、複数のキーフレームから走行画像に類似する類似キーフレームを選定する。ここでいう類似キーフレームは、「類似画像」の一例である。なお、走行画像が初回(つまり、最初のフレーム)の場合には、走行画像の特徴点の特徴量から、一例として、Bag of Visual Words等を用いて、走行画像に最も類似する類似キーフレームを選定する。このBag of Visual Wordsは、画像中の多数の局所特徴をベクトル量子化しヒストグラムにしたものであり、画像同士の類似の程度を判定するツールである。Bag of Visual Wordsによるキーフレームの抽出には一定の時間を要するが、スタート地点SPに停車している際の初回の走行画像では、処理時間が比較的長いBag of Visual Wordsを用いても差し支えない。一方、走行画像の2回目以降は、前回推定したカメラ位置に最も近いキーフレームを類似キーフレームとして選定する。 The estimation unit 24 according to the present embodiment selects a similar key frame similar to a traveling image from a plurality of key frames based on the feature amount calculated by the calculation unit 22. The similar key frame referred to here is an example of a "similar image". When the running image is the first time (that is, the first frame), a similar key frame most similar to the running image is obtained by using Bag of Visual Words or the like as an example from the feature amount of the feature points of the running image. Select. This Bag of Visual Words is a vector-quantized histogram of a large number of local features in an image, and is a tool for determining the degree of similarity between images. Extraction of key frames by Bag of Visual Words takes a certain amount of time, but for the first running image when the vehicle is stopped at the starting point SP, Bag of Visual Words, which has a relatively long processing time, may be used. .. On the other hand, from the second time onward in the running image, the key frame closest to the previously estimated camera position is selected as a similar key frame.

次に、推定部24は、走行画像の特徴点の特徴量と類似キーフレームの特徴点の特徴量とを比較することにより、走行画像の特徴点と類似キーフレームの特徴点との対応付けを行う。 Next, the estimation unit 24 compares the feature amount of the feature point of the running image with the feature amount of the feature point of the similar key frame to associate the feature point of the running image with the feature point of the similar key frame. conduct.

図4は、本実施形態に係る走行画像の特徴点と類似キーフレームの特徴点との対応付けの説明に供する図である。 FIG. 4 is a diagram for explaining the correspondence between the feature points of the traveling image and the feature points of similar key frames according to the present embodiment.

図4に示すように、類似キーフレームの特徴点R1~R6に対して、走行画像の特徴点P1~P6が対応付けられる。具体的には、特徴量としてORBを用いる場合、走行画像のORB特徴量と類似キーフレームのORB特徴量とを比較して、ORB特徴量間の距離を計算する。このORB特徴量間の距離としては、一例としてハミング距離を用いて計算される。 As shown in FIG. 4, the feature points P1 to P6 of the traveling image are associated with the feature points R1 to R6 of the similar key frame. Specifically, when the ORB is used as the feature amount, the ORB feature amount of the traveling image is compared with the ORB feature amount of the similar key frame, and the distance between the ORB feature amounts is calculated. The distance between the ORB features is calculated using the Hamming distance as an example.

図5は、本実施形態に係る走行画像の特徴量と類似キーフレームの特徴量との間の距離の説明に供する図である。 FIG. 5 is a diagram for explaining the distance between the feature amount of the traveling image and the feature amount of the similar key frame according to the present embodiment.

図5では、走行画像のある特徴点のORB特徴量、及び類似キーフレームのある特徴点の複数のORB特徴量の各々を、説明を簡単にするために、一例として8ビットで示している。なお、ORB特徴量のビット数は特に限定されない。複数のORB特徴量の各々には、識別のためのインデックス1、2、・・・が割り当てられている。ここでいうハミング距離は、走行画像のORB特徴量と、類似キーフレームの各ORB特徴量(インデックス1、2、・・・)との間で値が異なるビットの数で表される。図5の例では、各インデックス1、2、・・・において値が異なるビットに下線が付与されている。つまり、インデックス1のハミング距離は「4」であり、インデックス2のハミング距離は「2」である。この場合、ハミング距離の最小値を特徴量間の距離として採用する。 In FIG. 5, each of an ORB feature amount of a certain feature point of a traveling image and a plurality of ORB feature amounts of a feature point having a similar key frame are shown by 8 bits as an example for simplification of explanation. The number of bits of the ORB feature amount is not particularly limited. Indexes 1, 2, ... For identification are assigned to each of the plurality of ORB feature quantities. The Hamming distance referred to here is represented by the number of bits whose values differ between the ORB feature amount of the traveling image and each ORB feature amount (indexes 1, 2, ...) Of similar key frames. In the example of FIG. 5, bits having different values at each index 1, 2, ... Are underlined. That is, the Hamming distance of the index 1 is "4", and the Hamming distance of the index 2 is "2". In this case, the minimum value of the Hamming distance is adopted as the distance between the features.

ここで、走行画像が初回の場合、類似キーフレームの各特徴点には1つの特徴量のみが登録されている。つまり、初回では、各特徴点の特徴量を示すインデックス数は「1」となる。一方、走行画像の2回目以降の場合、図5に示すように、後述する追加部26により特徴量が追加登録されるため、登録される特徴量のインデックス数が「2」以上になる場合がある。このため、2回目以降では、特徴量間で計算されたハミング距離の最小値を、特徴量間の距離として採用する。 Here, when the traveling image is the first time, only one feature amount is registered in each feature point of the similar key frame. That is, at the first time, the number of indexes indicating the feature amount of each feature point is "1". On the other hand, in the case of the second and subsequent running images, as shown in FIG. 5, since the feature amount is additionally registered by the additional unit 26 described later, the number of indexes of the registered feature amount may be "2" or more. be. Therefore, from the second time onward, the minimum value of the Hamming distance calculated between the feature quantities is adopted as the distance between the feature quantities.

つまり、類似キーフレームの特徴点に複数の特徴量(一例としてORB特徴量)が登録されている場合、推定部24は、複数の特徴量が登録されている類似キーフレームの特徴点との対応付けを行う際には、複数の特徴量の各々について、走行画像の特徴点の特徴量との間で距離(一例としてハミング距離)を計算し、計算した距離の最小値が所定値以下となる場合に、走行画像の特徴点と類似キーフレームの特徴点との対応付けを行う。これにより、特徴量間の距離が所定値以下に収まり易くなり、周囲の明るさの変化によって走行画像の特徴点の特徴量が変化した場合であっても、対応付けが可能となる。なお、特徴量としては、ORBに代えて、特徴点間のベクトルを適用してもよい。この場合、ハミング距離に代えて、ユークリッド距離が適用される。 That is, when a plurality of feature quantities (ORB feature quantity as an example) are registered in the feature points of the similar key frame, the estimation unit 24 corresponds to the feature points of the similar key frame in which the plurality of feature quantities are registered. At the time of attachment, the distance (humming distance as an example) is calculated between the feature amount of the feature point of the traveling image and the feature amount of each of the plurality of feature amounts, and the minimum value of the calculated distance is equal to or less than the predetermined value. In this case, the feature points of the traveling image are associated with the feature points of similar key frames. As a result, the distance between the feature quantities is likely to be within a predetermined value, and even when the feature quantities of the feature points of the traveling image are changed due to the change in the ambient brightness, the correspondence can be performed. As the feature amount, a vector between feature points may be applied instead of the ORB. In this case, the Euclidean distance is applied instead of the Hamming distance.

次に、推定部24は、上記の対応付けの結果に基づいて、走行経路における自車の位置及び姿勢を推定する。具体的には、推定部24は、対応付けた走行画像の特徴点の位置と類似キーフレームの特徴点の位置とに基づいて、カメラ14の位置及び姿勢を推定する。本実施形態では、走行画像の特徴点の位置と、類似キーフレームの撮影時におけるカメラ14の位置及び姿勢に基づいて類似キーフレームの特徴点を走行画像に投影して得られる投影点の位置との差で表される投影誤差の総和が最小となるカメラ14の位置及び姿勢を推定する。 Next, the estimation unit 24 estimates the position and posture of the own vehicle on the traveling route based on the result of the above association. Specifically, the estimation unit 24 estimates the position and orientation of the camera 14 based on the positions of the feature points of the associated traveling image and the positions of the feature points of similar key frames. In the present embodiment, the position of the feature point of the traveling image and the position of the projection point obtained by projecting the feature point of the similar key frame onto the traveling image based on the position and posture of the camera 14 at the time of shooting the similar key frame. The position and orientation of the camera 14 that minimizes the total projection error represented by the difference between the two are estimated.

図6は、本実施形態に係る投影誤差の説明に供する図である。
図6では、走行画像の特徴点R1~R6の位置と、地図に対応付けられた地図座標系CMにおける特徴点P1~P6の位置(3次元位置)と、地図に対応付けられた特徴点P1~P6の位置を走行画像に投影した投影点V1~V6の位置と、を示している。なお、地図座標系CMにおいて、X軸は水平方向を示し、Y軸は奥行方向を示し、Z軸は垂直方向を示す。この際、特徴点P1の位置についての投影誤差ε1は、特徴点R1の位置と投影点V1の位置との差となる。特徴点P2~P6の各々の位置についても同様である。本実施形態に係る特徴点の対応によれば、誤対応が少ないため、カメラ14の位置及び姿勢がより正確に推定される。
FIG. 6 is a diagram for explaining the projection error according to the present embodiment.
In FIG. 6, the positions of the feature points R1 to R6 of the traveling image, the positions of the feature points P1 to P6 (three-dimensional position) in the map coordinate system CM associated with the map, and the feature points P1 associated with the map are shown. The positions of the projection points V1 to V6 obtained by projecting the positions of the P6 onto the traveling image are shown. In the map coordinate system CM, the X-axis indicates the horizontal direction, the Y-axis indicates the depth direction, and the Z-axis indicates the vertical direction. At this time, the projection error ε1 with respect to the position of the feature point P1 is the difference between the position of the feature point R1 and the position of the projection point V1. The same applies to the respective positions of the feature points P2 to P6. According to the correspondence of the feature points according to the present embodiment, since there are few erroneous correspondences, the position and posture of the camera 14 can be estimated more accurately.

次に、推定部24は、上記で推定したカメラ14の位置及び姿勢を自車の代表点に換算することにより、走行経路における自車の位置及び姿勢を推定する。ここでいう自車の位置とは、車両代表点Xの地図上における位置をいう。本実施形態では、車両代表点Xとカメラ14の相対的位置が予め分かっているので、カメラ14の位置及び姿勢を、相対的位置関係に基づいて車両代表点Xの位置に換算する。 Next, the estimation unit 24 estimates the position and posture of the own vehicle in the traveling route by converting the position and posture of the camera 14 estimated above into the representative points of the own vehicle. The position of the own vehicle here means the position of the vehicle representative point X on the map. In the present embodiment, since the relative positions of the vehicle representative point X and the camera 14 are known in advance, the position and posture of the camera 14 are converted into the positions of the vehicle representative point X based on the relative positional relationship.

本実施形態に係る追加部26は、推定部24により類似キーフレームの特徴点に対応付けられた走行画像の特徴点の特徴量を、類似キーフレームであるキーフレームの特徴点の特徴量として地図情報16Aに追加登録する。例えば、追加部26は、推定部24により対応付けられた走行画像の特徴点のうち、投影誤差が所定値以下となる特徴点(これらの特徴点を「インライア」ともいう。)の特徴量を選択的に地図情報16Aに追加登録するようにしてもよい。図6の例では、走行画像の特徴点R1、R2、R3、R6の特徴量が追加登録される。これにより、投影誤差の大きい特徴点の特徴量が登録されることが防止される。 The additional unit 26 according to the present embodiment maps the feature amount of the feature point of the traveling image associated with the feature point of the similar key frame by the estimation unit 24 as the feature amount of the feature point of the key frame which is a similar key frame. Additional registration is added to information 16A. For example, the additional unit 26 uses the feature amount of the feature points of the traveling image associated with the estimation unit 24 whose projection error is equal to or less than a predetermined value (these feature points are also referred to as “inlier”). You may selectively additionally register the map information 16A. In the example of FIG. 6, the feature amounts of the feature points R1, R2, R3, and R6 of the traveling image are additionally registered. This prevents the feature amount of the feature point having a large projection error from being registered.

なお、登録数を抑制するため、追加部26は、類似キーフレームの特徴点に登録されている複数の特徴量の数が上限数に達した場合に、登録済みの複数の特徴量及び追加する特徴量のうちの特徴量のペア毎に相互の距離(一例としてハミング距離)を計算し、計算された各特徴量との距離の中間値が最小となる特徴量を削除するようにしてもよい。 In addition, in order to suppress the number of registrations, the addition unit 26 adds the plurality of registered feature quantities and the plurality of registered feature quantities when the number of the plurality of feature quantities registered in the feature points of similar keyframes reaches the upper limit. The mutual distance (humming distance as an example) may be calculated for each pair of feature quantities among the feature quantities, and the feature quantity that minimizes the intermediate value of the distance to each calculated feature quantity may be deleted. ..

図7は、本実施形態に係る類似キーフレームの特徴点に登録されている複数の特徴量の数が上限数に達した場合に削除する特徴量の説明に供する図である。 FIG. 7 is a diagram for explaining the feature amount to be deleted when the number of the plurality of feature amounts registered in the feature points of the similar key frame according to the present embodiment reaches the upper limit number.

図7の例では、上限数が「4」であり、ある特徴点について登録済みの特徴量にインデックス1~4が割り当てられている。そして、当該特徴点に追加する特徴量のインデックスをインデックス5とする。インデックス1について、インデックス1~5の各々との間でハミング距離を計算する。計算結果として、一例として(0、15、9、13、20)が得られる。この場合、ハミング距離の中間値は、「13」(下線付きの値)となる。同様に、インデックス2について、計算結果として、一例として(15、0、10、5、29)が得られる。この場合、ハミング距離の中間値は、「10」となる。インデックス3について、計算結果として、一例として(9、10、0、7、12)が得られる。この場合、ハミング距離の中間値は、「9」となる。インデックス4について、計算結果として、一例として(13、5、7、0、31)が得られる。この場合、ハミング距離の中間値は、「7」となる。インデックス5について、計算結果として、一例として(20、29、12、31、0)が得られる。この場合、ハミング距離の中間値は、「20」となる。 In the example of FIG. 7, the upper limit is "4", and indexes 1 to 4 are assigned to the registered feature amount for a certain feature point. Then, the index of the feature amount to be added to the feature point is set as the index 5. For index 1, the Hamming distance between each of indexes 1 to 5 is calculated. As a calculation result, (0, 15, 9, 13, 20) is obtained as an example. In this case, the median value of the Hamming distance is "13" (underlined value). Similarly, for index 2, (15, 0, 10, 5, 29) is obtained as an example as a calculation result. In this case, the median value of the Hamming distance is "10". For index 3, (9, 10, 0, 7, 12) is obtained as an example as a calculation result. In this case, the median value of the Hamming distance is "9". For index 4, (13, 5, 7, 0, 31) is obtained as an example as a calculation result. In this case, the median value of the Hamming distance is "7". For the index 5, (20, 29, 12, 31, 0) is obtained as an example as a calculation result. In this case, the median value of the Hamming distance is "20".

上記より、各インデックス1~5のハミング距離の中間値は、(13、10、9、7、20)として得られる。これより、ハミング距離の中間値の最小値は「7」となる。この場合、対応するインデックス4の特徴量を削除する。 From the above, the median value of the Hamming distance of each index 1 to 5 is obtained as (13, 10, 9, 7, 20). From this, the minimum value of the intermediate value of the Hamming distance is "7". In this case, the feature amount of the corresponding index 4 is deleted.

次に、図8を参照して、本実施形態に係る自車位置推定装置10の作用について説明する。なお、図8は、本実施形態に係る自車位置推定プログラムによる処理の流れの一例を示すフローチャートである。 Next, with reference to FIG. 8, the operation of the own vehicle position estimation device 10 according to the present embodiment will be described. Note that FIG. 8 is a flowchart showing an example of the processing flow by the own vehicle position estimation program according to the present embodiment.

本実施形態に係る自車位置推定プログラムは、実行開始の指示がなされると、図2(b)に示すスタート地点SPに停車した状態からゴール地点GPに向けて人が車両50を運転するのに伴って、自車位置推定処理が実行される。しかしながら、これに限られず、本自車位置推定プログラムを、例えばスタート地点SPからゴール地点GPまで車両50が自動運転される場合に適用してもよい。本実施形態では、予め地図情報16Aが生成され、記憶部16に格納されているものとする。 In the own vehicle position estimation program according to the present embodiment, when an instruction to start execution is given, a person drives the vehicle 50 from the state of being stopped at the start point SP shown in FIG. 2B toward the goal point GP. Along with this, the vehicle position estimation process is executed. However, the present invention is not limited to this, and the own vehicle position estimation program may be applied, for example, when the vehicle 50 is automatically driven from the start point SP to the goal point GP. In the present embodiment, it is assumed that the map information 16A is generated in advance and stored in the storage unit 16.

なお、本実施形態では、本自車位置推定プログラムをROM12B等に予め記憶させておく形態としているが、これに限られない。例えば、本自車位置推定プログラムがコンピュータにより読み取り可能な可搬型の記憶媒体に記憶された状態で提供される形態、図示しないネットワークインタフェース等による通信手段を介して配信される形態等を適用してもよい。なお、可搬型の記憶媒体としては、一例として、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等が挙げられる。 In this embodiment, the vehicle position estimation program is stored in the ROM 12B or the like in advance, but the present invention is not limited to this. For example, a form in which the vehicle position estimation program is provided in a state of being stored in a portable storage medium readable by a computer, a form in which the vehicle position estimation program is distributed via a communication means such as a network interface (not shown), or the like is applied. May be good. Examples of the portable storage medium include a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versatile Disk Read Only Memory), and a USB (Universal Serial Bus) memory.

図8のステップ100では、検出部20が、車両50が走行された状態でカメラ14によって撮影された走行画像を取得する。この走行画像の取得は、車両50がスタート地点SPから出発した後予め定められた時間ごと、例えば一般的なビデオレートである33ms(ミリ秒)ごとに取得する。 In step 100 of FIG. 8, the detection unit 20 acquires a traveling image taken by the camera 14 while the vehicle 50 is traveling. This running image is acquired at predetermined time intervals after the vehicle 50 departs from the starting point SP, for example, every 33 ms (milliseconds), which is a general video rate.

ステップ102では、検出部20が、走行画像から特徴点を検出する。特徴点の検出には、一例としてFASTが用いられる。 In step 102, the detection unit 20 detects a feature point from the traveling image. FAST is used as an example for detecting feature points.

ステップ104では、算出部22が、上記ステップ102で検出した特徴点を示す特徴量を算出する。特徴量の算出には、一例としてORBが用いられる。 In step 104, the calculation unit 22 calculates a feature amount indicating the feature points detected in step 102. ORB is used as an example for calculating the feature amount.

ステップ106では、推定部24が、走行画像の取得が初回(1回目)か否かを判定する。本実施形態に係る自車位置推定処理では、初回か2回目以降かにより、以降の処理における類似キーフレームの探索方法を変えている。走行画像の取得が初回と判定した場合(肯定判定の場合)、ステップ108に移行し、走行画像の取得が初回ではない、つまり2回目以降と判定した場合(否定判定の場合)、ステップ110に移行する。 In step 106, the estimation unit 24 determines whether or not the acquisition of the traveling image is the first time (first time). In the own vehicle position estimation process according to the present embodiment, the search method for similar key frames in the subsequent processes is changed depending on whether it is the first time or the second time or later. When it is determined that the acquisition of the traveling image is the first time (in the case of affirmative determination), the process proceeds to step 108, and when it is determined that the acquisition of the traveling image is not the first time, that is, it is determined that the acquisition of the traveling image is the second time or later (in the case of the negative determination), the step 110 is performed. Transition.

ステップ108では、推定部24が、上記ステップ104で計算された特徴量から、一例として、Bag of Visual Words等を用いて走行画像に最も類似するキーフレームを類似キーフレームとして選定する。 In step 108, the estimation unit 24 selects a key frame most similar to the traveling image as a similar key frame from the feature amount calculated in step 104 by using Bag of Visual Words or the like as an example.

一方、ステップ110では、推定部24が、前回推定したカメラ位置に最も近いキーフレームを類似キーフレームとして選定する。 On the other hand, in step 110, the estimation unit 24 selects the key frame closest to the previously estimated camera position as a similar key frame.

ステップ112では、推定部24が、図4及び図5に示すように、類似キーフレームと走行画像との間で特徴量を比較して特徴点を対応付ける(ペアリング)。 In step 112, as shown in FIGS. 4 and 5, the estimation unit 24 compares the feature quantities between the similar key frame and the traveling image and associates the feature points with each other (pairing).

ステップ114では、推定部24が、図6に示すように、走行画像の特徴点の位置と、類似キーフレームの特徴点を走行画像に投影して得られる投影点の位置との差で表される投影誤差が最小となるようにカメラ14の位置及び姿勢を推定する。 In step 114, as shown in FIG. 6, the estimation unit 24 represents the difference between the position of the feature point of the traveling image and the position of the projection point obtained by projecting the feature point of the similar key frame onto the traveling image. The position and orientation of the camera 14 are estimated so that the projection error is minimized.

ステップ116では、推定部24が、上記ステップ114で推定したカメラ14の位置及び姿勢を、自車の位置及び姿勢に換算する。ここでいう自車の位置とは、上述したように、車両代表点Xの地図上における位置をいう。本実施形態では、車両代表点Xとカメラ14の相対的位置は予わかっているので、カメラの位置及び姿勢を、相対的位置関係に基づいて車両代表点Xの位置に換算する。この換算は単純な演算であるため、走行中の自車位置が短時間で推定され、車両運動制御の遅れ時間を小さくすることができる。その結果、目標経路へ高精度に車両を誘導できるため、例えば狭所に駐車することができ、駐車空間を省スペース化できる。 In step 116, the estimation unit 24 converts the position and posture of the camera 14 estimated in step 114 into the position and posture of the own vehicle. As described above, the position of the own vehicle here means the position of the vehicle representative point X on the map. In the present embodiment, since the relative positions of the vehicle representative point X and the camera 14 are known, the positions and postures of the cameras are converted into the positions of the vehicle representative points X based on the relative positional relationship. Since this conversion is a simple calculation, the position of the own vehicle during traveling can be estimated in a short time, and the delay time of vehicle motion control can be reduced. As a result, the vehicle can be guided to the target route with high accuracy, so that the vehicle can be parked in a narrow space, for example, and the parking space can be saved.

ステップ118では、追加部26が、上記ステップ112で類似キーフレームの特徴点と対応付けられた走行画像の特徴点のうち、投影誤差が所定値以下となる特徴点(インライア)の特徴量を、類似キーフレームであるキーフレームの特徴点の特徴量として地図情報16Aに追加登録する。 In step 118, the additional unit 26 determines the feature amount of the feature point (inlier) whose projection error is equal to or less than a predetermined value among the feature points of the traveling image associated with the feature points of the similar key frame in step 112. It is additionally registered in the map information 16A as a feature amount of a feature point of a key frame which is a similar key frame.

ステップ120では、追加部26が、全ての走行撮影点において画像の取得が終了したか否かを判定する。なお、初回の場合には本判定は否定判定となるのでステップ100に戻り、走行画像の取得を継続する。一方、2回目以降の場合には本判定は肯定判定となるので、本自車位置推定プログラムによる一連の処理を終了する。 In step 120, the additional unit 26 determines whether or not the acquisition of the image is completed at all the traveling shooting points. In the case of the first time, since this determination is a negative determination, the process returns to step 100 and the acquisition of the traveling image is continued. On the other hand, in the case of the second and subsequent times, since this determination is an affirmative determination, a series of processes by the own vehicle position estimation program is terminated.

このように本実施形態によれば、対応付けられた走行画像の特徴点の特徴量が前回までの基準画像の特徴点の特徴量に追加され、次回以降の走行画像の特徴点の特徴量が、基準画像の追加された特徴量とも比較される。これにより、類似と判断される特徴量の範囲が広がるため、周囲の明るさの変化により特徴量が変化した場合であっても、特徴点の対応付けを行うことができ、精度良く自車位置を推定することができる。
さらに、自動駐車システムに適用した場合、目標経路へ高精度に車両を誘導できるため、狭所に駐車することができ、駐車空間を省スペース化できる。
As described above, according to the present embodiment, the feature amount of the feature point of the associated running image is added to the feature amount of the feature point of the reference image up to the previous time, and the feature amount of the feature point of the running image from the next time onward is added. , Also compared with the added features of the reference image. As a result, the range of feature amounts that are judged to be similar is expanded, so even if the feature amount changes due to changes in the ambient brightness, the feature points can be associated with each other with high accuracy. Can be estimated.
Furthermore, when applied to an automatic parking system, the vehicle can be guided to the target route with high accuracy, so that the vehicle can be parked in a narrow space and the parking space can be saved.

以上、実施形態として自車位置推定装置を例示して説明した。実施形態は、コンピュータを、位置姿勢推定装置が備える各部として機能させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。 As described above, the vehicle position estimation device has been illustrated and described as an embodiment. The embodiment may be in the form of a program for making the computer function as each part included in the position / orientation estimation device. The embodiment may be in the form of a storage medium that can be read by a computer that stores this program.

その他、上記実施形態で説明した自車位置推定装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。 In addition, the configuration of the own vehicle position estimation device described in the above embodiment is an example, and may be changed depending on the situation within a range that does not deviate from the gist.

また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。 Further, the processing flow of the program described in the above embodiment is also an example, and even if unnecessary steps are deleted, new steps are added, or the processing order is changed within a range that does not deviate from the purpose. good.

また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。 Further, in the above embodiment, the case where the processing according to the embodiment is realized by the software configuration by using the computer by executing the program has been described, but the present invention is not limited to this. The embodiment may be realized, for example, by a hardware configuration or a combination of a hardware configuration and a software configuration.

10 自車位置推定装置
12 制御部
12A CPU
12B ROM
12C RAM
12D I/O
12E バス
14 カメラ
16 記憶部
16A 地図情報
18 表示部
20 検出部
22 算出部
24 推定部
26 追加部
30 建物
50 車両
10 Own vehicle position estimation device 12 Control unit 12A CPU
12B ROM
12C RAM
12D I / O
12E Bus 14 Camera 16 Storage unit 16A Map information 18 Display unit 20 Detection unit 22 Calculation unit 24 Estimate unit 26 Addition unit 30 Building 50 Vehicle

Claims (8)

所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部と、
前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出する検出部と、
前記検出部により検出された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量を算出する算出部と、
前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定する推定部と、
前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加する追加部と、
を備えた自車位置推定装置。
About each feature point detected from the reference image associated with each of the plurality of reference images taken by the photographing unit mounted on the own vehicle at a plurality of positions along a predetermined traveling route, and each feature point. A memory that stores map information including a feature amount showing a pattern of luminance difference in the vicinity of the feature point as a feature of the registered feature point, and the position and posture of the shooting unit at the time of shooting the reference image. Department and
A detection unit that detects feature points from a travel image captured by the imaging unit while the vehicle is traveling along the predetermined travel route.
As a feature of the feature point detected by the detection unit, a calculation unit for calculating a feature amount showing a pattern of luminance difference in the vicinity of the feature point , and a calculation unit.
Based on the feature amount calculated by the calculation unit, a similar image similar to the running image is selected from the plurality of reference images, and the feature amount of the feature point of the running image and the feature amount of the feature point of the similar image are selected. By comparing with, the feature points of the traveling image and the feature points of the similar image are associated with each other, and the position and attitude of the own vehicle in the predetermined traveling route are estimated based on the result of the association. The estimation part and
An additional unit that adds the feature amount of the feature point of the traveling image associated with the feature point of the similar image by the estimation unit to the map information as the feature amount of the feature point of the reference image which is the similar image.
Own vehicle position estimation device equipped with.
前記推定部は、複数の特徴量が登録されている前記類似画像の特徴点との対応付けを行う際には、前記複数の特徴量の各々について、前記走行画像の特徴点の特徴量との間で距離を計算し、計算した距離の最小値が予め定められた値以下となる場合に、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行う請求項1に記載の自車位置推定装置。 When the estimation unit associates with the feature points of the similar image in which a plurality of feature quantities are registered, each of the plurality of feature quantities is referred to the feature quantity of the feature points of the traveling image. The first aspect of claim 1, wherein the distance is calculated between the two, and when the minimum value of the calculated distance is equal to or less than a predetermined value, the feature points of the traveling image and the feature points of the similar image are associated with each other. Own vehicle position estimation device. 前記追加部は、前記類似画像の特徴点に登録されている複数の特徴量の数が上限数に達した場合に、登録済みの複数の特徴量及び追加する特徴量のうちの特徴量のペア毎に相互の距離を計算し、計算された各特徴量との距離の中間値が最小となる特徴量を削除する請求項1又は2に記載の自車位置推定装置。 The additional part is a pair of a plurality of registered feature quantities and a feature quantity among the feature quantities to be added when the number of the plurality of feature quantities registered in the feature points of the similar image reaches the upper limit. The own vehicle position estimation device according to claim 1 or 2, wherein the mutual distance is calculated for each feature amount, and the feature amount having the minimum intermediate value of the calculated distance to each feature amount is deleted. 前記地図情報は、前記複数の基準画像の各々から検出された特徴点の前記地図情報における位置を更に含み、
前記推定部は、対応付けた前記走行画像の特徴点の位置と前記類似画像の特徴点の位置とに基づいて、前記撮影部の位置及び姿勢を推定し、推定した前記撮影部の位置及び姿勢を自車の代表点に換算することにより、前記所定の走行経路における自車の位置及び姿勢を推定する請求項1~3のいずれか1項に記載の自車位置推定装置。
The map information further includes the position of the feature point detected from each of the plurality of reference images in the map information.
The estimation unit estimates the position and posture of the photographing unit based on the positions of the feature points of the associated traveling image and the positions of the feature points of the similar image, and the estimated position and orientation of the photographing unit. The own vehicle position estimation device according to any one of claims 1 to 3, which estimates the position and posture of the own vehicle in the predetermined traveling route by converting the above into a representative point of the own vehicle.
前記推定部は、前記走行画像の特徴点の位置と、前記類似画像の撮影時における前記撮影部の位置及び姿勢に基づいて前記類似画像の特徴点を前記走行画像に投影して得られる投影点の位置との差で表される投影誤差の総和が最小となる前記撮影部の位置及び姿勢を推定する請求項4に記載の自車位置推定装置。 The estimation unit is a projection point obtained by projecting the feature points of the similar image onto the travel image based on the position of the feature points of the travel image and the position and posture of the imaged unit at the time of photographing the similar image. The own vehicle position estimation device according to claim 4, which estimates the position and posture of the photographing unit that minimizes the total projection error represented by the difference from the position of. 前記追加部は、前記推定部により対応付けられた前記走行画像の特徴点のうち、前記投影誤差が予め定められた値以下となる特徴点の特徴量を選択的に前記地図情報に追加する請求項5に記載の自車位置推定装置。 The additional unit selectively adds to the map information the feature amount of the feature point whose projection error is equal to or less than a predetermined value among the feature points of the traveling image associated with the estimation unit. Item 5. The own vehicle position estimation device according to item 5. 所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部を備えた自車位置推定装置による自車位置推定方法であって、
検出部が、前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出するステップと、
算出部が、前記検出部により検出された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量を算出するステップと、
推定部が、前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定するステップと、
追加部が、前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加するステップと、
を含む自車位置推定方法。
About each feature point detected from the reference image associated with each of the plurality of reference images taken by the photographing unit mounted on the own vehicle at a plurality of positions along a predetermined traveling route, and each feature point. A memory that stores map information including a feature amount showing a pattern of difference in brightness in the vicinity of the feature point as a feature of the registered feature point, and the position and posture of the shooting unit at the time of shooting the reference image. It is a method of estimating the position of the own vehicle by the own vehicle position estimation device equipped with a part.
A step of detecting a feature point from a traveling image taken by the photographing unit while the detection unit is traveling the own vehicle along the predetermined traveling route.
A step in which the calculation unit calculates a feature amount indicating a pattern of luminance difference in the vicinity of the feature point as a feature of the feature point detected by the detection unit.
The estimation unit selects a similar image similar to the traveling image from the plurality of reference images based on the feature amount calculated by the calculation unit, and the feature amount of the feature point of the traveling image and the feature of the similar image. By comparing the feature amount of the point with the feature point of the traveling image, the feature point of the similar image is associated with the feature point of the traveling image, and based on the result of the association, the position of the own vehicle in the predetermined traveling route and Steps to estimate the posture and
The addition unit adds the feature amount of the feature point of the traveling image associated with the feature point of the similar image by the estimation unit to the map information as the feature amount of the feature point of the reference image which is the similar image. Steps and
Own vehicle position estimation method including.
所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部を備えた自車位置推定装置で実行される自車位置推定プログラムであって、
前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出する検出部、
前記検出部により検出された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量を算出する算出部、
前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定する推定部、及び
前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加する追加部、
として機能させる自車位置推定プログラム。
About each feature point detected from the reference image associated with each of the plurality of reference images taken by the photographing unit mounted on the own vehicle at a plurality of positions along a predetermined traveling route, and each feature point. A memory that stores map information including a feature amount showing a pattern of difference in brightness in the vicinity of the feature point as a feature of the registered feature point, and the position and posture of the shooting unit at the time of shooting the reference image. It is a vehicle position estimation program executed by a vehicle position estimation device equipped with a unit.
A detection unit that detects feature points from a traveling image taken by the photographing unit while the vehicle is traveling along the predetermined traveling route.
A calculation unit that calculates a feature amount that indicates a pattern of luminance difference in the vicinity of the feature point as a feature of the feature point detected by the detection unit.
Based on the feature amount calculated by the calculation unit, a similar image similar to the running image is selected from the plurality of reference images, and the feature amount of the feature point of the running image and the feature amount of the feature point of the similar image are selected. By comparing with, the feature points of the traveling image and the feature points of the similar image are associated with each other, and the position and attitude of the own vehicle in the predetermined traveling route are estimated based on the result of the association. The estimation unit and the feature amount of the feature point of the traveling image associated with the feature point of the similar image by the estimation unit are added to the map information as the feature amount of the feature point of the reference image which is the similar image. Additional part,
Vehicle position estimation program that functions as.
JP2018013946A 2018-01-16 2018-01-30 Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program Active JP7036400B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018013946A JP7036400B2 (en) 2018-01-30 2018-01-30 Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
CN201910035085.XA CN110044256B (en) 2018-01-16 2019-01-15 Self-parking position estimation device
DE102019100885.9A DE102019100885A1 (en) 2018-01-16 2019-01-15 Eigenpositionsabschätzvorrichtung
US16/248,191 US10949996B2 (en) 2018-01-16 2019-01-15 Self-position estimation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018013946A JP7036400B2 (en) 2018-01-30 2018-01-30 Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program

Publications (2)

Publication Number Publication Date
JP2019132664A JP2019132664A (en) 2019-08-08
JP7036400B2 true JP7036400B2 (en) 2022-03-15

Family

ID=67544924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018013946A Active JP7036400B2 (en) 2018-01-16 2018-01-30 Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program

Country Status (1)

Country Link
JP (1) JP7036400B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7256463B2 (en) * 2019-10-11 2023-04-12 トヨタ自動車株式会社 vehicle parking assist device
KR102210404B1 (en) * 2019-10-14 2021-02-02 국방과학연구소 Location information extraction device and method
KR102473202B1 (en) * 2019-11-13 2022-12-02 울산대학교 산학협력단 Method and system for determining location information of moving object with photography apparatus
JP7358933B2 (en) * 2019-11-19 2023-10-11 株式会社アイシン camera calibration device
CN111105467B (en) * 2019-12-16 2023-08-29 北京超图软件股份有限公司 Image calibration method and device and electronic equipment
JP7393987B2 (en) * 2020-03-18 2023-12-07 株式会社豊田中央研究所 Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method
JP7331769B2 (en) * 2020-04-30 2023-08-23 トヨタ自動車株式会社 Position estimation system and position estimation method
JP2022114526A (en) 2021-01-27 2022-08-08 トヨタ自動車株式会社 Parking assist apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038402A1 (en) 2003-10-21 2005-04-28 Waro Iwane Navigation device
JP2011215974A (en) 2010-03-31 2011-10-27 Aisin Aw Co Ltd Image processing system
JP2013187862A (en) 2012-03-09 2013-09-19 Topcon Corp Image data processing device, image data processing method, and program for image data processing
JP2013222447A (en) 2012-04-19 2013-10-28 Kddi Corp Information presentation system
JP2015097000A (en) 2013-11-15 2015-05-21 オムロン株式会社 Image recognition device and data registration method to the same
WO2016199605A1 (en) 2015-06-12 2016-12-15 ソニー株式会社 Image processing device, method, and program
JP2017111654A (en) 2015-12-17 2017-06-22 富士通株式会社 Image processing system, image similarity determination method, and image similarity determination program
JP2018010599A (en) 2016-07-15 2018-01-18 富士通株式会社 Information processor, panoramic image display method, panoramic image display program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038402A1 (en) 2003-10-21 2005-04-28 Waro Iwane Navigation device
JP2011215974A (en) 2010-03-31 2011-10-27 Aisin Aw Co Ltd Image processing system
JP2013187862A (en) 2012-03-09 2013-09-19 Topcon Corp Image data processing device, image data processing method, and program for image data processing
JP2013222447A (en) 2012-04-19 2013-10-28 Kddi Corp Information presentation system
JP2015097000A (en) 2013-11-15 2015-05-21 オムロン株式会社 Image recognition device and data registration method to the same
WO2016199605A1 (en) 2015-06-12 2016-12-15 ソニー株式会社 Image processing device, method, and program
JP2017111654A (en) 2015-12-17 2017-06-22 富士通株式会社 Image processing system, image similarity determination method, and image similarity determination program
JP2018010599A (en) 2016-07-15 2018-01-18 富士通株式会社 Information processor, panoramic image display method, panoramic image display program

Also Published As

Publication number Publication date
JP2019132664A (en) 2019-08-08

Similar Documents

Publication Publication Date Title
JP7036400B2 (en) Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
US10268201B2 (en) Vehicle automated parking system and method
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
CN111210463B (en) Virtual wide-view visual odometer method and system based on feature point auxiliary matching
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
CN112734852B (en) Robot mapping method and device and computing equipment
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
KR101708659B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
CN110044256B (en) Self-parking position estimation device
KR101961001B1 (en) Single-camera distance estimation
US9330472B2 (en) System and method for distorted camera image correction
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
JP2018124787A (en) Information processing device, data managing device, data managing system, method, and program
US20130215270A1 (en) Object detection apparatus
US20170259830A1 (en) Moving amount derivation apparatus
JP2009169845A (en) Autonomous mobile robot and map update method
US10991105B2 (en) Image processing device
CN105324792B (en) For estimating method of the moving element relative to the angular displacement of reference direction
CN111105695B (en) Map making method and device, electronic equipment and computer readable storage medium
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP2018205950A (en) Environment map generation apparatus for estimating self vehicle position, self vehicle position estimation device, environment map generation program for estimating self vehicle position, and self vehicle position estimation program
JP2003281552A (en) Image processor and method
JP2001076128A (en) Device and method for detecting obstacle
JP7056840B2 (en) Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220222

R150 Certificate of patent or registration of utility model

Ref document number: 7036400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150