JP7036400B2 - Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program - Google Patents
Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program Download PDFInfo
- Publication number
- JP7036400B2 JP7036400B2 JP2018013946A JP2018013946A JP7036400B2 JP 7036400 B2 JP7036400 B2 JP 7036400B2 JP 2018013946 A JP2018013946 A JP 2018013946A JP 2018013946 A JP2018013946 A JP 2018013946A JP 7036400 B2 JP7036400 B2 JP 7036400B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- image
- feature point
- vehicle
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、自車位置推定装置、自車位置推定方法、及び自車位置推定プログラムに関する。 The present invention relates to a vehicle position estimation device, a vehicle position estimation method, and a vehicle position estimation program.
移動体に搭載されたカメラ等の撮影部によって撮影された撮影画像に基づいて、3次元空間上における移動体の位置を推定する技術が提案されている。 A technique for estimating the position of a moving object in a three-dimensional space has been proposed based on an image taken by an imaging unit such as a camera mounted on the moving object.
従来、自車位置の推定に関連する技術として、例えば特許文献1に開示された自動運転制御装置が知られている。特許文献1に係る自動運転制御装置は、車両が運転者に運転される登録モードにおいて車両の周囲環境を撮像した画像である登録時画像に基づき、車両を自動運転するための自動運転情報を生成する自動運転情報登録部と、車両が自動運転される自動運転モードにおいて車両の周囲環境を撮像した画像である自動運転時画像と、自動運転情報とに基づき、車両を自動運転する自動運転制御部と、を有し、自動運転情報登録部は、登録時画像に基づき、車両の周囲環境に存在する候補特徴点を抽出する候補特徴点抽出部と、車両の移動中に撮像された複数の登録時画像に基づき、候補特徴点のうち、車両の目的箇所の周囲に固定して配置された構造物であると判断した候補特徴点を、特徴点として選定し、所定の原点座標に対する特徴点の位置の情報である自動運転情報を生成する自動運転情報生成部と、を有し、自動運転制御部は、自動運転時画像と自動運転情報とに基づき、原点座標に対する車両の位置の情報である車両位置情報を算出する車両位置算出部と、車両位置情報に基づき、車両を目的箇所まで自動運転する自動運転実行制御部と、を有している。すなわち、特許文献1に係る自動運転制御装置では、事前に走行した際の画像から構造物の特徴点を抽出し、その3次元位置を推定して地図に登録し、自動運転時に画像から構造物の特徴点を抽出し、地図に登録された構造物の特徴点と照合することにより自車位置を推定している。
Conventionally, as a technique related to the estimation of the position of the own vehicle, for example, the automatic driving control device disclosed in
ところで、画像から抽出される特徴点として、周囲との輝度差が大きい点を抽出する場合がある。この場合、例えば、日中と夜間とでは、周囲の明るさが変化するため、特徴点の特徴量が変化することがある。この特徴量の変化によって、地図に登録された特徴点との対応付けがうまくいかず、自車位置を精度良く推定することができない場合がある。上記特許文献1では、周囲の明るさの変化について考慮されていないため、このような場合、精度良く自車位置を推定することは困難である。
By the way, as a feature point extracted from an image, a point having a large difference in brightness from the surroundings may be extracted. In this case, for example, since the ambient brightness changes between daytime and nighttime, the feature amount of the feature point may change. Due to this change in the feature amount, the correspondence with the feature points registered in the map may not be successful, and the position of the own vehicle may not be estimated accurately. In the
本発明は、上述した課題を解決するためになされたものであり、周囲の明るさが変化した場合であっても、精度良く自車位置を推定することができる自車位置推定装置、自車位置推定方法、及び自車位置推定プログラムを提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and is an own vehicle position estimation device and an own vehicle that can accurately estimate the own vehicle position even when the ambient brightness changes. It is an object of the present invention to provide a position estimation method and a vehicle position estimation program.
上記目的を達成するために、請求項1に記載の自車位置推定装置は、所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部と、前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出する検出部と、前記検出部により検出された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量を算出する算出部と、前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定する推定部と、前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加する追加部と、を備えている。
In order to achieve the above object, the own vehicle position estimation device according to
また、請求項2に記載の発明は、請求項1に記載の発明において、前記推定部が、複数の特徴量が登録されている前記類似画像の特徴点との対応付けを行う際には、前記複数の特徴量の各々について、前記走行画像の特徴点の特徴量との間で距離を計算し、計算した距離の最小値が予め定められた値以下となる場合に、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行う。
Further, the invention according to
また、請求項3に記載の発明は、請求項1又は2に記載の発明において、前記追加部が、前記類似画像の特徴点に登録されている複数の特徴量の数が上限数に達した場合に、登録済みの複数の特徴量及び追加する特徴量のうちの特徴量のペア毎に相互の距離を計算し、計算された各特徴量との距離の中間値が最小となる特徴量を削除する。
Further, in the invention according to
また、請求項4に記載の発明は、請求項1~3のいずれか1項に記載の発明において、前記地図情報が、前記複数の基準画像の各々から検出された特徴点の前記地図情報における位置を更に含み、前記推定部が、対応付けた前記走行画像の特徴点の位置と前記類似画像の特徴点の位置とに基づいて、前記撮影部の位置及び姿勢を推定し、推定した前記撮影部の位置及び姿勢を自車の代表点に換算することにより、前記所定の走行経路における自車の位置及び姿勢を推定する。
Further, the invention according to
また、請求項5に記載の発明は、請求項4に記載の発明において、前記推定部が、前記走行画像の特徴点の位置と、前記類似画像の撮影時における前記撮影部の位置及び姿勢に基づいて前記類似画像の特徴点を前記走行画像に投影して得られる投影点の位置との差で表される投影誤差の総和が最小となる前記撮影部の位置及び姿勢を推定する。
Further, in the invention according to
また、請求項6に記載の発明は、請求項5に記載の発明において、前記追加部が、前記推定部により対応付けられた前記走行画像の特徴点のうち、前記投影誤差が予め定められた値以下となる特徴点の特徴量を選択的に前記地図情報に追加する。
Further, in the invention according to claim 6, in the invention according to
一方、上記目的を達成するために、請求項7に記載の自車位置推定方法は、所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部を備えた自車位置推定装置による自車位置推定方法であって、検出部が、前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出するステップと、算出部が、前記検出部により検出された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量を算出するステップと、推定部が、前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定するステップと、追加部が、前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加するステップと、を含んでいる。
On the other hand, in order to achieve the above object, the own vehicle position estimation method according to
更に、上記目的を達成するために、請求項8に記載の自車位置推定プログラムは、所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部を備えた自車位置推定装置で実行される自車位置推定プログラムであって、前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出する検出部、前記検出部により検出された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量を算出する算出部、前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定する推定部、及び前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加する追加部、として機能させる。 Further, in order to achieve the above object, the own vehicle position estimation program according to claim 8 has a plurality of reference images taken by a photographing unit mounted on the own vehicle at a plurality of positions along a predetermined traveling route. Each feature point associated with each of the above reference images, a feature amount showing a pattern of difference in brightness in the vicinity of the feature point as a feature of the feature point registered for each feature point, and the above-mentioned feature amount. It is a vehicle position estimation program executed by a vehicle position estimation device provided with a storage unit that stores map information including the position and orientation of the image capture unit at the time of capturing a reference image, and is the predetermined travel route. A detection unit that detects a feature point from a running image taken by the photographing unit while the own vehicle is running along the line, and a feature of the feature point detected by the detection unit is a difference in brightness in the vicinity of the feature point. Based on the calculation unit that calculates the feature amount indicating the pattern and the feature amount calculated by the calculation unit, a similar image similar to the running image is selected from the plurality of reference images, and the feature of the feature point of the running image is selected. By comparing the amount with the feature amount of the feature point of the similar image, the feature point of the traveling image and the feature point of the similar image are associated with each other, and based on the result of the association, the predetermined travel is performed. The estimation unit that estimates the position and attitude of the own vehicle on the route, and the feature amount of the feature points of the traveling image associated with the feature points of the similar image by the estimation unit are the features of the reference image that is the similar image. It functions as an additional part to be added to the map information as a feature amount of points.
本発明によれば、周囲の明るさが変化した場合であっても、精度良く自車位置を推定することができる自車位置推定装置、自車位置推定方法、及び自車位置推定プログラムを提供することができる。 According to the present invention, there is provided a vehicle position estimation device, a vehicle position estimation method, and a vehicle position estimation program that can accurately estimate the vehicle position even when the ambient brightness changes. can do.
以下、図面を参照して、本発明の実施の形態について詳細に説明する。なお、以下の説明では、移動体として車両を例にとり、車両が自車の位置を推定する際の周囲環境を駐車場とし、走行経路として駐車場外部から駐車地点までの経路を例示して説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following explanation, a vehicle is taken as an example as a moving body, the surrounding environment when the vehicle estimates the position of the vehicle is used as a parking lot, and a route from the outside of the parking lot to the parking point is illustrated as a traveling route. do.
図1から図8を参照して、本実施形態に係る自車位置推定装置、自車位置推定方法、及び自車位置推定プログラムについて説明する。 The own vehicle position estimation device, the own vehicle position estimation method, and the own vehicle position estimation program according to the present embodiment will be described with reference to FIGS. 1 to 8.
図1(a)は、本実施形態に係るカメラ14を搭載した車両50の一例を示す側面図である。
図1(a)に示すように、車両50は、本実施形態に係る自車位置の推定処理(以下、「自車位置推定処理」という。)において使用する、撮影部の一例としてのカメラ14を備えている。
FIG. 1A is a side view showing an example of a
As shown in FIG. 1A, the
本実施形態に係るカメラ14は、車両50の後部のトランク等に設けられ、車両後方を撮影する。カメラ14は、例えば、車幅方向の略中央部付近に設けられ、かつカメラ14の光軸が水平方向より若干下側を向くように配置されている。なお、本実施形態では、カメラ14を車両50の後部に設ける形態を例示して説明するが、これに限られず、環境等に応じて例えば前部に設けてもよい。また、本実施形態では、カメラ14として単眼カメラを例示して説明するが、これに限られず他の形態のカメラ、例えばステレオカメラ等であってもよい。
The
図1(b)は、本実施形態に係る自車位置推定装置10の電気的な構成の一例を示すブロック図である。
図1(b)に示すように、本実施形態に係る自車位置推定装置10は、車両50に搭載され、制御部12、カメラ14、記憶部16、及び表示部18を含んで構成されている。
FIG. 1B is a block diagram showing an example of an electrical configuration of the own vehicle
As shown in FIG. 1 (b), the own vehicle
制御部12は、自車位置を推定するための演算等を行う。制御部12は、一例としてCPU(Central Processing Unit)12A、ROM(Read Only Memory)12B、RAM(Random Access Memory)12C、入出力インタフェースであるI/O12D等を含んで構成されている。CPU12A、ROM12B、RAM12C、及びI/O12Dの各々はバス12Eにより相互に接続されている。
The
CPU12Aは、自車位置推定装置10の全体を統括、制御する。ROM12Bは、本実施形態で用いる地図を生成するための地図生成プログラムや、自車位置を推定する自車位置推定プログラムを含む各種プログラムやデータ等が記憶されている。RAM12Cは、各種プログラムの実行時のワークエリアとして用いられるメモリである。ROM12Bに記憶されたプログラムをRAM12Cに展開してCPU12Aが実行することにより、地図の生成や、自車位置の推定が行われる。
The
制御部12には、I/O12Dを介して、カメラ14、記憶部16、及び表示部18が接続されている。カメラ14により撮影された画像は、I/O12Dを介して制御部12に取り込まれる。
The
また、記憶部16には、本実施形態に係る自車位置推定処理に用いる地図情報等が格納されている。記憶部16の形態に特に制限はないが、一例としてHDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を用いることができる。なお、記憶部16は制御部12内に設けてもよいし、外部接続可能としてもよい。また、記憶部16には制御部12の制御によって生成した地図情報の他に、ROM12Bに代えて、地図生成プログラムや自車位置推定プログラムを記憶してもよい。
Further, the
表示部18は、カメラ14が撮影した画像等を表示する。表示部18の形態に制限はないが、例えば、液晶モニタ、CRT(Cathode Ray Tube)モニタ、FPD(Flat Panel Display)モニタ等が用いられる。
The
図2(a)は、本実施形態に係る駐車経路における特徴点の一例を示す図である。
図2(a)では、本実施形態で想定する駐車場の様子(以下、「環境」という。)を示している。
FIG. 2A is a diagram showing an example of feature points in the parking route according to the present embodiment.
FIG. 2A shows the state of the parking lot (hereinafter referred to as “environment”) assumed in the present embodiment.
本実施形態では、車両50の走行経路として、図2(a)に示す「スタート」の位置(出発地点)から、「ゴール」の位置(駐車地点)までを想定している。図2(a)に示す符号「FP」は、以下で説明する特徴点の位置を示している。車両50の自車位置を推定する場合には、所定の大きさを有する車両50内の位置(以下、「車両代表点X」)を予め決めておく必要があるが、図2(b)に示すように、本実施形態ではこの車両代表点Xを後輪の中央の点としている。しかしながら、代表点の位置はこれに限られず、例えば車両50の重心の位置としてもよい。
In the present embodiment, the traveling route of the
図2(b)は、本実施形態に係るキーフレームのカメラ位置と特徴点の位置の一例を示す図で、図2(a)に示す環境の平面図である。 FIG. 2B is a diagram showing an example of the camera position and the position of the feature point of the key frame according to the present embodiment, and is a plan view of the environment shown in FIG. 2A.
図2(b)に示すように、カメラ14を搭載した車両50は、スタート地点SPからゴール地点GPまで走行する。本実施形態に係る自車位置推定処理では、実際の走行の前に、カメラ14で環境を撮影し、撮影された画像に関連付けられた所定の付随データを地図として予め生成しておくが、符号「S」は、地図の生成の際の車両50の走行軌跡を示している。実際の駐車においては、基本的に走行軌跡Sに沿って走行する。以下では、走行軌跡Sと区別して、実際の駐車時(走行時)に走行する経路を「走行経路」という場合がある。
As shown in FIG. 2B, the
図2(b)に示す小円は、特徴点FPの位置を示している。本実施形態において、「特徴点」とは、建物の凹凸に基づく陰影、壁面の模様等、撮影画像において輝度の濃淡差が所定値よりも大きい点をいう。従って、特徴点は、図2(b)に示すように、環境における建物30の壁面WS、あるいは建物30の角部に現れることが多く、また、1つの地図において複数の特徴点FPが選定される。さらに、本実施形態では、複数の特徴点FPの各々を区別するために、個々の特徴点FPに「特徴量」を対応付けている。本実施形態に係る「特徴量」とは、一例として特徴点近傍における輝度の濃淡差のパターンをいう。
The small circle shown in FIG. 2B indicates the position of the feature point FP. In the present embodiment, the "feature point" means a point where the difference in brightness in the captured image is larger than a predetermined value, such as a shadow based on the unevenness of the building and a pattern on the wall surface. Therefore, as shown in FIG. 2B, the feature points often appear on the wall surface WS of the
図2(b)中の符号「CP」は、地図を生成する際、カメラ14による撮影が行われた複数(図2(b)の例では12)の撮影点を示している。本実施形態では、この複数の撮影点CPで撮影された画像を「キーフレーム」といい、特徴点FP及び特徴点FPに関連付けられた情報とともに地図を生成する際のデータを構成する。ここでいう「キーフレーム」は、「基準画像」の一例である。すなわち、キーフレームは、予め複数の撮影点CPで撮影された複数の画像であり、特徴点に関する情報はこのキーフレームに関連付けられる。なお、以下の説明では、地図を生成する際の撮影点を「地図撮影点CP」といい、実際の駐車時の撮影点を「走行撮影点」という。また、走行撮影点において撮影された画像を「走行画像」という。
The reference numeral “CP” in FIG. 2 (b) indicates a plurality of shooting points (12 in the example of FIG. 2 (b)) taken by the
上述したように、本実施形態に係るCPU12Aは、ROM12Bに記憶されている自車位置推定プログラムをRAM12Cに書き出して実行することにより、図3に示す各部として機能する。
As described above, the
図3は、本実施形態に係る自車位置推定装置10の機能的な構成の一例を示すブロック図である。
図3に示すように、本実施形態に係る自車位置推定装置10のCPU12Aは、検出部20、算出部22、推定部24、及び追加部26として機能する。また、地図情報16Aは、記憶部16に予め記憶されている。
FIG. 3 is a block diagram showing an example of a functional configuration of the own vehicle
As shown in FIG. 3, the
本実施形態に係る地図情報16Aについて説明する。地図情報16Aには以下の情報が含まれている。
(1)各特徴点FPの3次元で表示した座標(3次元位置座標(Xp、Yp、Zp))。
(2)各キーフレームにおけるカメラの3次元位置座標(Xc、Yc、Zc)と姿勢(ロール角、ピッチ角、ヨー角)。
(3)各キーフレームにおける各特徴量。
The
(1) Coordinates displayed in three dimensions of each feature point FP (three-dimensional position coordinates (Xp, Yp, Zp)).
(2) Three-dimensional position coordinates (Xc, Yc, Zc) and posture (roll angle, pitch angle, yaw angle) of the camera at each key frame.
(3) Each feature amount in each key frame.
地図の生成は、予め人が運転して走行軌跡Sを走行し、走行の際のカメラ14による撮影画像から特徴点の座標(3次元位置)とキーフレームにおけるカメラ14の位置を推定する。これらの推定は、例えばVisual SLAM(Simultaneous Localization and Mapping)を用いて行うことができる。すなわち、撮影画像から、Visual SLAMを用いて特徴点の3次元位置とキーフレームのカメラ位置を推定し、これらの推定値とキーフレームにおける特徴点の特徴量を地図情報16Aに登録する。
To generate the map, a person drives in advance to travel on the travel locus S, and the coordinates (three-dimensional position) of the feature points and the position of the
より詳細には、特徴点の検出方法としては、例えば、ORB(Oriented FAST and Rotated BRIEF)-SLAMを適用することができる。ORB-SLAMは、特徴点としてコーナーを検出し、検出手法にFAST(Features from Accelerated Segment Test)を用いるものである。また、ORB-SLAMは、特徴量の記述にORBを用いる。ORBは、BRIEF(Binary Robust Independent Elementary Features)をベースとして、スケール不変性と回転不変性とを有するように発展させたものである。ORB-SLAMについては以下の参考文献1に開示されているため、詳細な説明を省略する。
More specifically, as a method for detecting feature points, for example, ORB (Oriented FAST and Rotated BRIEF) -SLAM can be applied. The ORB-SLAM detects a corner as a feature point and uses FAST (Features from Accelerated Segment Test) as a detection method. In addition, ORB-SLAM uses ORB to describe the feature amount. The ORB is based on BRIEF (Binary Robust Independent Elementary Features) and has been developed to have scale invariance and rotation invariance. Since ORB-SLAM is disclosed in
[参考文献1]Raul Mur-Artal, J.M.M.Montiel and Juan D.Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol.31, no.5, pp.1147-1163, 2015. [Reference 1] Raul Mur-Artal, JMMMontiel and Juan D.Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol.31, no.5, pp.1147-1163, 2015 ..
以上まとめると、地図生成時に地図撮影点CPで撮影された複数の画像であるキーフレームが撮影された際の特徴点の座標、各特徴点について登録された少なくとも1つの特徴量、カメラ14の位置及び姿勢が関連付けられ、地図情報16Aとして記憶部16に格納される。また、記憶部16に格納された地図情報16Aは、後述する自車位置推定処理において参照される。
To summarize the above, the coordinates of the feature points when the key frame, which is a plurality of images taken at the map shooting point CP at the time of map generation, are taken, at least one feature amount registered for each feature point, and the position of the
本実施形態に係る検出部20は、走行経路に沿って自車を走行させた状態でカメラ14により撮影された走行画像から特徴点を検出する。この特徴点の検出には、上述したように、一例としてFAST等が用いられる。
The
本実施形態に係る算出部22は、検出部20により検出された特徴点の特徴を示す特徴量を算出する。この特徴量には、上述したように、一例としてORB等が用いられる。
The
本実施形態に係る推定部24は、算出部22により算出された特徴量に基づいて、複数のキーフレームから走行画像に類似する類似キーフレームを選定する。ここでいう類似キーフレームは、「類似画像」の一例である。なお、走行画像が初回(つまり、最初のフレーム)の場合には、走行画像の特徴点の特徴量から、一例として、Bag of Visual Words等を用いて、走行画像に最も類似する類似キーフレームを選定する。このBag of Visual Wordsは、画像中の多数の局所特徴をベクトル量子化しヒストグラムにしたものであり、画像同士の類似の程度を判定するツールである。Bag of Visual Wordsによるキーフレームの抽出には一定の時間を要するが、スタート地点SPに停車している際の初回の走行画像では、処理時間が比較的長いBag of Visual Wordsを用いても差し支えない。一方、走行画像の2回目以降は、前回推定したカメラ位置に最も近いキーフレームを類似キーフレームとして選定する。
The
次に、推定部24は、走行画像の特徴点の特徴量と類似キーフレームの特徴点の特徴量とを比較することにより、走行画像の特徴点と類似キーフレームの特徴点との対応付けを行う。
Next, the
図4は、本実施形態に係る走行画像の特徴点と類似キーフレームの特徴点との対応付けの説明に供する図である。 FIG. 4 is a diagram for explaining the correspondence between the feature points of the traveling image and the feature points of similar key frames according to the present embodiment.
図4に示すように、類似キーフレームの特徴点R1~R6に対して、走行画像の特徴点P1~P6が対応付けられる。具体的には、特徴量としてORBを用いる場合、走行画像のORB特徴量と類似キーフレームのORB特徴量とを比較して、ORB特徴量間の距離を計算する。このORB特徴量間の距離としては、一例としてハミング距離を用いて計算される。 As shown in FIG. 4, the feature points P1 to P6 of the traveling image are associated with the feature points R1 to R6 of the similar key frame. Specifically, when the ORB is used as the feature amount, the ORB feature amount of the traveling image is compared with the ORB feature amount of the similar key frame, and the distance between the ORB feature amounts is calculated. The distance between the ORB features is calculated using the Hamming distance as an example.
図5は、本実施形態に係る走行画像の特徴量と類似キーフレームの特徴量との間の距離の説明に供する図である。 FIG. 5 is a diagram for explaining the distance between the feature amount of the traveling image and the feature amount of the similar key frame according to the present embodiment.
図5では、走行画像のある特徴点のORB特徴量、及び類似キーフレームのある特徴点の複数のORB特徴量の各々を、説明を簡単にするために、一例として8ビットで示している。なお、ORB特徴量のビット数は特に限定されない。複数のORB特徴量の各々には、識別のためのインデックス1、2、・・・が割り当てられている。ここでいうハミング距離は、走行画像のORB特徴量と、類似キーフレームの各ORB特徴量(インデックス1、2、・・・)との間で値が異なるビットの数で表される。図5の例では、各インデックス1、2、・・・において値が異なるビットに下線が付与されている。つまり、インデックス1のハミング距離は「4」であり、インデックス2のハミング距離は「2」である。この場合、ハミング距離の最小値を特徴量間の距離として採用する。
In FIG. 5, each of an ORB feature amount of a certain feature point of a traveling image and a plurality of ORB feature amounts of a feature point having a similar key frame are shown by 8 bits as an example for simplification of explanation. The number of bits of the ORB feature amount is not particularly limited.
ここで、走行画像が初回の場合、類似キーフレームの各特徴点には1つの特徴量のみが登録されている。つまり、初回では、各特徴点の特徴量を示すインデックス数は「1」となる。一方、走行画像の2回目以降の場合、図5に示すように、後述する追加部26により特徴量が追加登録されるため、登録される特徴量のインデックス数が「2」以上になる場合がある。このため、2回目以降では、特徴量間で計算されたハミング距離の最小値を、特徴量間の距離として採用する。
Here, when the traveling image is the first time, only one feature amount is registered in each feature point of the similar key frame. That is, at the first time, the number of indexes indicating the feature amount of each feature point is "1". On the other hand, in the case of the second and subsequent running images, as shown in FIG. 5, since the feature amount is additionally registered by the
つまり、類似キーフレームの特徴点に複数の特徴量(一例としてORB特徴量)が登録されている場合、推定部24は、複数の特徴量が登録されている類似キーフレームの特徴点との対応付けを行う際には、複数の特徴量の各々について、走行画像の特徴点の特徴量との間で距離(一例としてハミング距離)を計算し、計算した距離の最小値が所定値以下となる場合に、走行画像の特徴点と類似キーフレームの特徴点との対応付けを行う。これにより、特徴量間の距離が所定値以下に収まり易くなり、周囲の明るさの変化によって走行画像の特徴点の特徴量が変化した場合であっても、対応付けが可能となる。なお、特徴量としては、ORBに代えて、特徴点間のベクトルを適用してもよい。この場合、ハミング距離に代えて、ユークリッド距離が適用される。
That is, when a plurality of feature quantities (ORB feature quantity as an example) are registered in the feature points of the similar key frame, the
次に、推定部24は、上記の対応付けの結果に基づいて、走行経路における自車の位置及び姿勢を推定する。具体的には、推定部24は、対応付けた走行画像の特徴点の位置と類似キーフレームの特徴点の位置とに基づいて、カメラ14の位置及び姿勢を推定する。本実施形態では、走行画像の特徴点の位置と、類似キーフレームの撮影時におけるカメラ14の位置及び姿勢に基づいて類似キーフレームの特徴点を走行画像に投影して得られる投影点の位置との差で表される投影誤差の総和が最小となるカメラ14の位置及び姿勢を推定する。
Next, the
図6は、本実施形態に係る投影誤差の説明に供する図である。
図6では、走行画像の特徴点R1~R6の位置と、地図に対応付けられた地図座標系CMにおける特徴点P1~P6の位置(3次元位置)と、地図に対応付けられた特徴点P1~P6の位置を走行画像に投影した投影点V1~V6の位置と、を示している。なお、地図座標系CMにおいて、X軸は水平方向を示し、Y軸は奥行方向を示し、Z軸は垂直方向を示す。この際、特徴点P1の位置についての投影誤差ε1は、特徴点R1の位置と投影点V1の位置との差となる。特徴点P2~P6の各々の位置についても同様である。本実施形態に係る特徴点の対応によれば、誤対応が少ないため、カメラ14の位置及び姿勢がより正確に推定される。
FIG. 6 is a diagram for explaining the projection error according to the present embodiment.
In FIG. 6, the positions of the feature points R1 to R6 of the traveling image, the positions of the feature points P1 to P6 (three-dimensional position) in the map coordinate system CM associated with the map, and the feature points P1 associated with the map are shown. The positions of the projection points V1 to V6 obtained by projecting the positions of the P6 onto the traveling image are shown. In the map coordinate system CM, the X-axis indicates the horizontal direction, the Y-axis indicates the depth direction, and the Z-axis indicates the vertical direction. At this time, the projection error ε1 with respect to the position of the feature point P1 is the difference between the position of the feature point R1 and the position of the projection point V1. The same applies to the respective positions of the feature points P2 to P6. According to the correspondence of the feature points according to the present embodiment, since there are few erroneous correspondences, the position and posture of the
次に、推定部24は、上記で推定したカメラ14の位置及び姿勢を自車の代表点に換算することにより、走行経路における自車の位置及び姿勢を推定する。ここでいう自車の位置とは、車両代表点Xの地図上における位置をいう。本実施形態では、車両代表点Xとカメラ14の相対的位置が予め分かっているので、カメラ14の位置及び姿勢を、相対的位置関係に基づいて車両代表点Xの位置に換算する。
Next, the
本実施形態に係る追加部26は、推定部24により類似キーフレームの特徴点に対応付けられた走行画像の特徴点の特徴量を、類似キーフレームであるキーフレームの特徴点の特徴量として地図情報16Aに追加登録する。例えば、追加部26は、推定部24により対応付けられた走行画像の特徴点のうち、投影誤差が所定値以下となる特徴点(これらの特徴点を「インライア」ともいう。)の特徴量を選択的に地図情報16Aに追加登録するようにしてもよい。図6の例では、走行画像の特徴点R1、R2、R3、R6の特徴量が追加登録される。これにより、投影誤差の大きい特徴点の特徴量が登録されることが防止される。
The
なお、登録数を抑制するため、追加部26は、類似キーフレームの特徴点に登録されている複数の特徴量の数が上限数に達した場合に、登録済みの複数の特徴量及び追加する特徴量のうちの特徴量のペア毎に相互の距離(一例としてハミング距離)を計算し、計算された各特徴量との距離の中間値が最小となる特徴量を削除するようにしてもよい。
In addition, in order to suppress the number of registrations, the
図7は、本実施形態に係る類似キーフレームの特徴点に登録されている複数の特徴量の数が上限数に達した場合に削除する特徴量の説明に供する図である。 FIG. 7 is a diagram for explaining the feature amount to be deleted when the number of the plurality of feature amounts registered in the feature points of the similar key frame according to the present embodiment reaches the upper limit number.
図7の例では、上限数が「4」であり、ある特徴点について登録済みの特徴量にインデックス1~4が割り当てられている。そして、当該特徴点に追加する特徴量のインデックスをインデックス5とする。インデックス1について、インデックス1~5の各々との間でハミング距離を計算する。計算結果として、一例として(0、15、9、13、20)が得られる。この場合、ハミング距離の中間値は、「13」(下線付きの値)となる。同様に、インデックス2について、計算結果として、一例として(15、0、10、5、29)が得られる。この場合、ハミング距離の中間値は、「10」となる。インデックス3について、計算結果として、一例として(9、10、0、7、12)が得られる。この場合、ハミング距離の中間値は、「9」となる。インデックス4について、計算結果として、一例として(13、5、7、0、31)が得られる。この場合、ハミング距離の中間値は、「7」となる。インデックス5について、計算結果として、一例として(20、29、12、31、0)が得られる。この場合、ハミング距離の中間値は、「20」となる。
In the example of FIG. 7, the upper limit is "4", and
上記より、各インデックス1~5のハミング距離の中間値は、(13、10、9、7、20)として得られる。これより、ハミング距離の中間値の最小値は「7」となる。この場合、対応するインデックス4の特徴量を削除する。
From the above, the median value of the Hamming distance of each
次に、図8を参照して、本実施形態に係る自車位置推定装置10の作用について説明する。なお、図8は、本実施形態に係る自車位置推定プログラムによる処理の流れの一例を示すフローチャートである。
Next, with reference to FIG. 8, the operation of the own vehicle
本実施形態に係る自車位置推定プログラムは、実行開始の指示がなされると、図2(b)に示すスタート地点SPに停車した状態からゴール地点GPに向けて人が車両50を運転するのに伴って、自車位置推定処理が実行される。しかしながら、これに限られず、本自車位置推定プログラムを、例えばスタート地点SPからゴール地点GPまで車両50が自動運転される場合に適用してもよい。本実施形態では、予め地図情報16Aが生成され、記憶部16に格納されているものとする。
In the own vehicle position estimation program according to the present embodiment, when an instruction to start execution is given, a person drives the
なお、本実施形態では、本自車位置推定プログラムをROM12B等に予め記憶させておく形態としているが、これに限られない。例えば、本自車位置推定プログラムがコンピュータにより読み取り可能な可搬型の記憶媒体に記憶された状態で提供される形態、図示しないネットワークインタフェース等による通信手段を介して配信される形態等を適用してもよい。なお、可搬型の記憶媒体としては、一例として、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等が挙げられる。
In this embodiment, the vehicle position estimation program is stored in the
図8のステップ100では、検出部20が、車両50が走行された状態でカメラ14によって撮影された走行画像を取得する。この走行画像の取得は、車両50がスタート地点SPから出発した後予め定められた時間ごと、例えば一般的なビデオレートである33ms(ミリ秒)ごとに取得する。
In
ステップ102では、検出部20が、走行画像から特徴点を検出する。特徴点の検出には、一例としてFASTが用いられる。
In
ステップ104では、算出部22が、上記ステップ102で検出した特徴点を示す特徴量を算出する。特徴量の算出には、一例としてORBが用いられる。
In
ステップ106では、推定部24が、走行画像の取得が初回(1回目)か否かを判定する。本実施形態に係る自車位置推定処理では、初回か2回目以降かにより、以降の処理における類似キーフレームの探索方法を変えている。走行画像の取得が初回と判定した場合(肯定判定の場合)、ステップ108に移行し、走行画像の取得が初回ではない、つまり2回目以降と判定した場合(否定判定の場合)、ステップ110に移行する。
In
ステップ108では、推定部24が、上記ステップ104で計算された特徴量から、一例として、Bag of Visual Words等を用いて走行画像に最も類似するキーフレームを類似キーフレームとして選定する。
In
一方、ステップ110では、推定部24が、前回推定したカメラ位置に最も近いキーフレームを類似キーフレームとして選定する。
On the other hand, in
ステップ112では、推定部24が、図4及び図5に示すように、類似キーフレームと走行画像との間で特徴量を比較して特徴点を対応付ける(ペアリング)。
In
ステップ114では、推定部24が、図6に示すように、走行画像の特徴点の位置と、類似キーフレームの特徴点を走行画像に投影して得られる投影点の位置との差で表される投影誤差が最小となるようにカメラ14の位置及び姿勢を推定する。
In
ステップ116では、推定部24が、上記ステップ114で推定したカメラ14の位置及び姿勢を、自車の位置及び姿勢に換算する。ここでいう自車の位置とは、上述したように、車両代表点Xの地図上における位置をいう。本実施形態では、車両代表点Xとカメラ14の相対的位置は予わかっているので、カメラの位置及び姿勢を、相対的位置関係に基づいて車両代表点Xの位置に換算する。この換算は単純な演算であるため、走行中の自車位置が短時間で推定され、車両運動制御の遅れ時間を小さくすることができる。その結果、目標経路へ高精度に車両を誘導できるため、例えば狭所に駐車することができ、駐車空間を省スペース化できる。
In
ステップ118では、追加部26が、上記ステップ112で類似キーフレームの特徴点と対応付けられた走行画像の特徴点のうち、投影誤差が所定値以下となる特徴点(インライア)の特徴量を、類似キーフレームであるキーフレームの特徴点の特徴量として地図情報16Aに追加登録する。
In
ステップ120では、追加部26が、全ての走行撮影点において画像の取得が終了したか否かを判定する。なお、初回の場合には本判定は否定判定となるのでステップ100に戻り、走行画像の取得を継続する。一方、2回目以降の場合には本判定は肯定判定となるので、本自車位置推定プログラムによる一連の処理を終了する。
In
このように本実施形態によれば、対応付けられた走行画像の特徴点の特徴量が前回までの基準画像の特徴点の特徴量に追加され、次回以降の走行画像の特徴点の特徴量が、基準画像の追加された特徴量とも比較される。これにより、類似と判断される特徴量の範囲が広がるため、周囲の明るさの変化により特徴量が変化した場合であっても、特徴点の対応付けを行うことができ、精度良く自車位置を推定することができる。
さらに、自動駐車システムに適用した場合、目標経路へ高精度に車両を誘導できるため、狭所に駐車することができ、駐車空間を省スペース化できる。
As described above, according to the present embodiment, the feature amount of the feature point of the associated running image is added to the feature amount of the feature point of the reference image up to the previous time, and the feature amount of the feature point of the running image from the next time onward is added. , Also compared with the added features of the reference image. As a result, the range of feature amounts that are judged to be similar is expanded, so even if the feature amount changes due to changes in the ambient brightness, the feature points can be associated with each other with high accuracy. Can be estimated.
Furthermore, when applied to an automatic parking system, the vehicle can be guided to the target route with high accuracy, so that the vehicle can be parked in a narrow space and the parking space can be saved.
以上、実施形態として自車位置推定装置を例示して説明した。実施形態は、コンピュータを、位置姿勢推定装置が備える各部として機能させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。 As described above, the vehicle position estimation device has been illustrated and described as an embodiment. The embodiment may be in the form of a program for making the computer function as each part included in the position / orientation estimation device. The embodiment may be in the form of a storage medium that can be read by a computer that stores this program.
その他、上記実施形態で説明した自車位置推定装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。 In addition, the configuration of the own vehicle position estimation device described in the above embodiment is an example, and may be changed depending on the situation within a range that does not deviate from the gist.
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。 Further, the processing flow of the program described in the above embodiment is also an example, and even if unnecessary steps are deleted, new steps are added, or the processing order is changed within a range that does not deviate from the purpose. good.
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。 Further, in the above embodiment, the case where the processing according to the embodiment is realized by the software configuration by using the computer by executing the program has been described, but the present invention is not limited to this. The embodiment may be realized, for example, by a hardware configuration or a combination of a hardware configuration and a software configuration.
10 自車位置推定装置
12 制御部
12A CPU
12B ROM
12C RAM
12D I/O
12E バス
14 カメラ
16 記憶部
16A 地図情報
18 表示部
20 検出部
22 算出部
24 推定部
26 追加部
30 建物
50 車両
10 Own vehicle
12B ROM
12C RAM
12D I / O
Claims (8)
前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出する検出部と、
前記検出部により検出された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量を算出する算出部と、
前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定する推定部と、
前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加する追加部と、
を備えた自車位置推定装置。 About each feature point detected from the reference image associated with each of the plurality of reference images taken by the photographing unit mounted on the own vehicle at a plurality of positions along a predetermined traveling route, and each feature point. A memory that stores map information including a feature amount showing a pattern of luminance difference in the vicinity of the feature point as a feature of the registered feature point, and the position and posture of the shooting unit at the time of shooting the reference image. Department and
A detection unit that detects feature points from a travel image captured by the imaging unit while the vehicle is traveling along the predetermined travel route.
As a feature of the feature point detected by the detection unit, a calculation unit for calculating a feature amount showing a pattern of luminance difference in the vicinity of the feature point , and a calculation unit.
Based on the feature amount calculated by the calculation unit, a similar image similar to the running image is selected from the plurality of reference images, and the feature amount of the feature point of the running image and the feature amount of the feature point of the similar image are selected. By comparing with, the feature points of the traveling image and the feature points of the similar image are associated with each other, and the position and attitude of the own vehicle in the predetermined traveling route are estimated based on the result of the association. The estimation part and
An additional unit that adds the feature amount of the feature point of the traveling image associated with the feature point of the similar image by the estimation unit to the map information as the feature amount of the feature point of the reference image which is the similar image.
Own vehicle position estimation device equipped with.
前記推定部は、対応付けた前記走行画像の特徴点の位置と前記類似画像の特徴点の位置とに基づいて、前記撮影部の位置及び姿勢を推定し、推定した前記撮影部の位置及び姿勢を自車の代表点に換算することにより、前記所定の走行経路における自車の位置及び姿勢を推定する請求項1~3のいずれか1項に記載の自車位置推定装置。 The map information further includes the position of the feature point detected from each of the plurality of reference images in the map information.
The estimation unit estimates the position and posture of the photographing unit based on the positions of the feature points of the associated traveling image and the positions of the feature points of the similar image, and the estimated position and orientation of the photographing unit. The own vehicle position estimation device according to any one of claims 1 to 3, which estimates the position and posture of the own vehicle in the predetermined traveling route by converting the above into a representative point of the own vehicle.
検出部が、前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出するステップと、
算出部が、前記検出部により検出された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量を算出するステップと、
推定部が、前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定するステップと、
追加部が、前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加するステップと、
を含む自車位置推定方法。 About each feature point detected from the reference image associated with each of the plurality of reference images taken by the photographing unit mounted on the own vehicle at a plurality of positions along a predetermined traveling route, and each feature point. A memory that stores map information including a feature amount showing a pattern of difference in brightness in the vicinity of the feature point as a feature of the registered feature point, and the position and posture of the shooting unit at the time of shooting the reference image. It is a method of estimating the position of the own vehicle by the own vehicle position estimation device equipped with a part.
A step of detecting a feature point from a traveling image taken by the photographing unit while the detection unit is traveling the own vehicle along the predetermined traveling route.
A step in which the calculation unit calculates a feature amount indicating a pattern of luminance difference in the vicinity of the feature point as a feature of the feature point detected by the detection unit.
The estimation unit selects a similar image similar to the traveling image from the plurality of reference images based on the feature amount calculated by the calculation unit, and the feature amount of the feature point of the traveling image and the feature of the similar image. By comparing the feature amount of the point with the feature point of the traveling image, the feature point of the similar image is associated with the feature point of the traveling image, and based on the result of the association, the position of the own vehicle in the predetermined traveling route and Steps to estimate the posture and
The addition unit adds the feature amount of the feature point of the traveling image associated with the feature point of the similar image by the estimation unit to the map information as the feature amount of the feature point of the reference image which is the similar image. Steps and
Own vehicle position estimation method including.
前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出する検出部、
前記検出部により検出された特徴点の特徴として特徴点近傍における輝度の濃淡差のパターンを示す特徴量を算出する算出部、
前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定する推定部、及び
前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加する追加部、
として機能させる自車位置推定プログラム。 About each feature point detected from the reference image associated with each of the plurality of reference images taken by the photographing unit mounted on the own vehicle at a plurality of positions along a predetermined traveling route, and each feature point. A memory that stores map information including a feature amount showing a pattern of difference in brightness in the vicinity of the feature point as a feature of the registered feature point, and the position and posture of the shooting unit at the time of shooting the reference image. It is a vehicle position estimation program executed by a vehicle position estimation device equipped with a unit.
A detection unit that detects feature points from a traveling image taken by the photographing unit while the vehicle is traveling along the predetermined traveling route.
A calculation unit that calculates a feature amount that indicates a pattern of luminance difference in the vicinity of the feature point as a feature of the feature point detected by the detection unit.
Based on the feature amount calculated by the calculation unit, a similar image similar to the running image is selected from the plurality of reference images, and the feature amount of the feature point of the running image and the feature amount of the feature point of the similar image are selected. By comparing with, the feature points of the traveling image and the feature points of the similar image are associated with each other, and the position and attitude of the own vehicle in the predetermined traveling route are estimated based on the result of the association. The estimation unit and the feature amount of the feature point of the traveling image associated with the feature point of the similar image by the estimation unit are added to the map information as the feature amount of the feature point of the reference image which is the similar image. Additional part,
Vehicle position estimation program that functions as.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018013946A JP7036400B2 (en) | 2018-01-30 | 2018-01-30 | Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program |
CN201910035085.XA CN110044256B (en) | 2018-01-16 | 2019-01-15 | Self-parking position estimation device |
DE102019100885.9A DE102019100885A1 (en) | 2018-01-16 | 2019-01-15 | Eigenpositionsabschätzvorrichtung |
US16/248,191 US10949996B2 (en) | 2018-01-16 | 2019-01-15 | Self-position estimation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018013946A JP7036400B2 (en) | 2018-01-30 | 2018-01-30 | Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019132664A JP2019132664A (en) | 2019-08-08 |
JP7036400B2 true JP7036400B2 (en) | 2022-03-15 |
Family
ID=67544924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018013946A Active JP7036400B2 (en) | 2018-01-16 | 2018-01-30 | Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7036400B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7256463B2 (en) * | 2019-10-11 | 2023-04-12 | トヨタ自動車株式会社 | vehicle parking assist device |
KR102210404B1 (en) * | 2019-10-14 | 2021-02-02 | 국방과학연구소 | Location information extraction device and method |
KR102473202B1 (en) * | 2019-11-13 | 2022-12-02 | 울산대학교 산학협력단 | Method and system for determining location information of moving object with photography apparatus |
JP7358933B2 (en) * | 2019-11-19 | 2023-10-11 | 株式会社アイシン | camera calibration device |
CN111105467B (en) * | 2019-12-16 | 2023-08-29 | 北京超图软件股份有限公司 | Image calibration method and device and electronic equipment |
JP7393987B2 (en) * | 2020-03-18 | 2023-12-07 | 株式会社豊田中央研究所 | Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method |
JP7331769B2 (en) * | 2020-04-30 | 2023-08-23 | トヨタ自動車株式会社 | Position estimation system and position estimation method |
JP2022114526A (en) | 2021-01-27 | 2022-08-08 | トヨタ自動車株式会社 | Parking assist apparatus |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005038402A1 (en) | 2003-10-21 | 2005-04-28 | Waro Iwane | Navigation device |
JP2011215974A (en) | 2010-03-31 | 2011-10-27 | Aisin Aw Co Ltd | Image processing system |
JP2013187862A (en) | 2012-03-09 | 2013-09-19 | Topcon Corp | Image data processing device, image data processing method, and program for image data processing |
JP2013222447A (en) | 2012-04-19 | 2013-10-28 | Kddi Corp | Information presentation system |
JP2015097000A (en) | 2013-11-15 | 2015-05-21 | オムロン株式会社 | Image recognition device and data registration method to the same |
WO2016199605A1 (en) | 2015-06-12 | 2016-12-15 | ソニー株式会社 | Image processing device, method, and program |
JP2017111654A (en) | 2015-12-17 | 2017-06-22 | 富士通株式会社 | Image processing system, image similarity determination method, and image similarity determination program |
JP2018010599A (en) | 2016-07-15 | 2018-01-18 | 富士通株式会社 | Information processor, panoramic image display method, panoramic image display program |
-
2018
- 2018-01-30 JP JP2018013946A patent/JP7036400B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005038402A1 (en) | 2003-10-21 | 2005-04-28 | Waro Iwane | Navigation device |
JP2011215974A (en) | 2010-03-31 | 2011-10-27 | Aisin Aw Co Ltd | Image processing system |
JP2013187862A (en) | 2012-03-09 | 2013-09-19 | Topcon Corp | Image data processing device, image data processing method, and program for image data processing |
JP2013222447A (en) | 2012-04-19 | 2013-10-28 | Kddi Corp | Information presentation system |
JP2015097000A (en) | 2013-11-15 | 2015-05-21 | オムロン株式会社 | Image recognition device and data registration method to the same |
WO2016199605A1 (en) | 2015-06-12 | 2016-12-15 | ソニー株式会社 | Image processing device, method, and program |
JP2017111654A (en) | 2015-12-17 | 2017-06-22 | 富士通株式会社 | Image processing system, image similarity determination method, and image similarity determination program |
JP2018010599A (en) | 2016-07-15 | 2018-01-18 | 富士通株式会社 | Information processor, panoramic image display method, panoramic image display program |
Also Published As
Publication number | Publication date |
---|---|
JP2019132664A (en) | 2019-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7036400B2 (en) | Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program | |
US10268201B2 (en) | Vehicle automated parking system and method | |
KR101725060B1 (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
CN111210463B (en) | Virtual wide-view visual odometer method and system based on feature point auxiliary matching | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
CN112734852B (en) | Robot mapping method and device and computing equipment | |
KR101784183B1 (en) | APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF | |
KR101708659B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
CN110044256B (en) | Self-parking position estimation device | |
KR101961001B1 (en) | Single-camera distance estimation | |
US9330472B2 (en) | System and method for distorted camera image correction | |
KR101776621B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
JP2018124787A (en) | Information processing device, data managing device, data managing system, method, and program | |
US20130215270A1 (en) | Object detection apparatus | |
US20170259830A1 (en) | Moving amount derivation apparatus | |
JP2009169845A (en) | Autonomous mobile robot and map update method | |
US10991105B2 (en) | Image processing device | |
CN105324792B (en) | For estimating method of the moving element relative to the angular displacement of reference direction | |
CN111105695B (en) | Map making method and device, electronic equipment and computer readable storage medium | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP2018205950A (en) | Environment map generation apparatus for estimating self vehicle position, self vehicle position estimation device, environment map generation program for estimating self vehicle position, and self vehicle position estimation program | |
JP2003281552A (en) | Image processor and method | |
JP2001076128A (en) | Device and method for detecting obstacle | |
JP7056840B2 (en) | Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program | |
JP6886136B2 (en) | Alignment device, alignment method and computer program for alignment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7036400 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |