JP2019124573A - Vehicle position estimation apparatus, vehicle position estimation method, and vehicle position estimation program - Google Patents

Vehicle position estimation apparatus, vehicle position estimation method, and vehicle position estimation program Download PDF

Info

Publication number
JP2019124573A
JP2019124573A JP2018005012A JP2018005012A JP2019124573A JP 2019124573 A JP2019124573 A JP 2019124573A JP 2018005012 A JP2018005012 A JP 2018005012A JP 2018005012 A JP2018005012 A JP 2018005012A JP 2019124573 A JP2019124573 A JP 2019124573A
Authority
JP
Japan
Prior art keywords
vehicle
traveling
image
feature point
vehicle position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018005012A
Other languages
Japanese (ja)
Other versions
JP7056840B2 (en
Inventor
浅井 彰司
Shoji Asai
彰司 浅井
浅海 周
Shu Asaumi
周 浅海
服部 義和
Yoshikazu Hattori
義和 服部
博 石黒
Hiroshi Ishiguro
博 石黒
和孝 早川
Kazutaka Hayakawa
和孝 早川
崇士 鈴木
Takashi Suzuki
崇士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2018005012A priority Critical patent/JP7056840B2/en
Priority to US16/248,191 priority patent/US10949996B2/en
Priority to CN201910035085.XA priority patent/CN110044256B/en
Priority to DE102019100885.9A priority patent/DE102019100885A1/en
Publication of JP2019124573A publication Critical patent/JP2019124573A/en
Application granted granted Critical
Publication of JP7056840B2 publication Critical patent/JP7056840B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)

Abstract

To provide a vehicle position estimation apparatus, a vehicle position estimation method, and a vehicle position estimation program capable of estimating a position of a vehicle position more quickly and more accurately.SOLUTION: The vehicle position estimation apparatus estimates a position X and an attitude of the own vehicle on a prescribed traveling route by collating a plurality of traveling images with map information including an environmental feature point FP and a position CP of imaging means at the time when imaging a plurality of reference images in the environment along the prescribed traveling route S associated with each of the plural reference images, and includes setting means for estimating a road surface gradient difference of the traveling route and setting a detection range of the corresponding feature point corresponding to the environmental feature point FP in the traveling image from the estimated road surface gradient difference; and estimation means for selecting a reference image most similar to the traveling image from the plurality of reference images on the basis of the corresponding feature point detected in the detection range and for estimating the position and attitude of the own vehicle on the basis of the correspondence between the environmental feature point and the corresponding feature point.SELECTED DRAWING: Figure 2

Description

本発明は、自車位置推定装置、自車位置推定方法、および自車位置推定プログラムに関する。   The present invention relates to a vehicle position estimation apparatus, a vehicle position estimation method, and a vehicle position estimation program.

移動体に搭載されたカメラ等の撮影部によって撮影された撮影画像に基づいて、3次元空間上における移動体の位置を推定する技術が提案されている。   There has been proposed a technique for estimating the position of a mobile object in a three-dimensional space based on a captured image captured by an imaging unit such as a camera mounted on the mobile object.

従来、自車位置の推定に関連する技術として、例えば特許文献1に開示された自動運転制御装置が知られている。特許文献1に係る自動運転制御装置は、車両が運転者に運転される登録モードにおいて車両の周囲環境を撮像した画像である登録時画像に基づき、車両を自動運転するための自動運転情報を生成する自動運転情報登録部と、車両が自動運転される自動運転モードにおいて車両の周囲環境を撮像した画像である自動運転時画像と、自動運転情報とに基づき、車両を自動運転する自動運転制御部と、を有し、自動運転情報登録部は、登録時画像に基づき、車両の周囲環境に存在する候補特徴点を抽出する候補特徴点抽出部と、車両の移動中に撮像された複数の登録時画像に基づき、候補特徴点のうち、車両の目的箇所の周囲に固定して配置された構造物であると判断した候補特徴点を、特徴点として選定し、所定の原点座標に対する特徴点の位置の情報である自動運転情報を生成する自動運転情報生成部と、を有し、自動運転制御部は、自動運転時画像と自動運転情報とに基づき、原点座標に対する車両の位置の情報である車両位置情報を算出する車両位置算出部と、車両位置情報に基づき、車両を目的箇所まで自動運転する自動運転実行制御部と、を有している。すなわち、特許文献1に係る自動運転制御装置では、事前に走行した際の画像から構造物の特徴点を抽出し、その3次元位置を推定して地図に登録し、自動運転時に画像から構造物の特徴点を抽出し、地図に登録された構造物の特徴点と照合することにより自車位置を推定している。   Conventionally, as a technique related to the estimation of the vehicle position, for example, an automatic driving control device disclosed in Patent Document 1 is known. The automatic driving control device according to Patent Document 1 generates automatic driving information for automatically driving the vehicle based on the registration time image which is an image obtained by imaging the surrounding environment of the vehicle in the registration mode in which the vehicle is driven by the driver. Automatic driving control unit for automatically driving the vehicle based on the automatic driving information registration unit and the automatic driving image which is an image obtained by imaging the surrounding environment of the vehicle in the automatic driving mode in which the vehicle is automatically driven, and the automatic driving information , And the automatic driving information registration unit extracts candidate feature points present in the environment around the vehicle based on the registered image, and a plurality of registrations captured while the vehicle is moving. Among the candidate feature points, the candidate feature points determined to be fixedly arranged around the destination of the vehicle are selected as feature points based on the time image, and the feature points with respect to predetermined origin coordinates are selected. position An automatic driving information generation unit for generating automatic driving information which is information, and the automatic driving control unit is a vehicle position which is information of a position of the vehicle with respect to origin coordinates based on the automatic driving image and the automatic driving information It has a vehicle position calculation unit that calculates information, and an automatic driving execution control unit that automatically drives the vehicle to a target location based on the vehicle position information. That is, in the automatic driving control device according to Patent Document 1, feature points of the structure are extracted from the image when traveling in advance, the three-dimensional position thereof is estimated, and is registered in the map. The vehicle position is estimated by extracting the feature points of and comparing the feature points with the feature points of the structure registered in the map.

特開2017−138664号公報JP, 2017-138664, A

ところで、車両等の移動体の移動速度に柔軟に対応しつつ自車位置の推定を行うためには、極力短時間で推定処理を行うことが求められる。しかしながら、特許文献1に係る自動運転制御装置は、画像全体から特徴点を検出するため、特徴点の検出を短時間で行うことが困難である。さらに、検出した特徴点が多くなるため、構造物の特徴点を抽出するのに時間を要する。その結果、自車位置を短時間で推定することが困難であるという課題があった。   By the way, in order to estimate the vehicle position while flexibly dealing with the moving speed of a moving object such as a vehicle, it is required to perform the estimation process in a short time as much as possible. However, since the automatic driving control device according to Patent Document 1 detects a feature point from the entire image, it is difficult to detect the feature point in a short time. Furthermore, because the number of detected feature points increases, it takes time to extract feature points of the structure. As a result, there is a problem that it is difficult to estimate the vehicle position in a short time.

また、撮影画像から抽出した特徴点に基づく自車位置の推定を行う場合には、画像全体における特徴点の分布についても配慮する必要がある。つまり、画像全体における特徴点の分布が偏った場合、画像全体について特徴点の抽出処理を行うと無駄が生じ、その結果、自車位置の推定を行う処理時間の短縮にも限界がある。特許文献1では、このような問題に関して検討されていない。   Further, in the case of estimating the vehicle position based on the feature points extracted from the photographed image, it is also necessary to consider the distribution of the feature points in the entire image. That is, when the distribution of feature points in the entire image is biased, it is wasteful to perform feature point extraction processing for the entire image, and as a result, there is a limit to shortening the processing time for estimating the vehicle position. Patent Document 1 does not discuss such a problem.

本発明は、上述した課題を解決するためになされたものであり、より迅速にかつより精度よく自車位置を推定することができる自車位置推定装置、自車位置推定方法、および自車位置推定プログラムを提供することを目的とする。   The present invention has been made to solve the problems described above, and is capable of estimating the position of the vehicle more quickly and more accurately, the method of estimating the position of the vehicle, the method of estimating the position of the vehicle, and the position of the vehicle. The purpose is to provide an estimation program.

上記目的を達成するために、請求項1に記載の自車位置推定装置は、所定の走行経路上において撮影手段によって撮影した複数の走行画像と、前記所定の走行経路に沿った複数の位置で前記撮影手段によって撮影された複数の基準画像の各々に関連付けられた前記所定の走行経路に沿った環境における環境特徴点および前記複数の基準画像の撮影時の前記撮影手段の位置および姿勢を含む地図情報と、を照合することによって前記所定の走行経路上における自車の位置および姿勢を推定する自車位置推定装置であって、前記走行経路の路面勾配差を推定するとともに推定された前記路面勾配差から前記走行画像における前記環境特徴点に対応する対応特徴点の検出範囲を設定する設定手段と、前記検出範囲で検出された前記対応特徴点に基づいて前記複数の基準画像から前記走行画像と最も近似する基準画像を選択するとともに前記環境特徴点と前記対応特徴点との対応付けに基づいて自車の位置および姿勢を推定する推定手段と、を含むものである。   In order to achieve the above object, the vehicle position estimation apparatus according to claim 1 comprises a plurality of traveling images taken by the photographing means on a predetermined traveling route, and a plurality of positions along the predetermined traveling route. A map including environmental feature points in an environment along the predetermined traveling route associated with each of the plurality of reference images taken by the imaging means, and a position and an attitude of the imaging means at the time of taking the plurality of reference images A vehicle position estimation device for estimating the position and posture of a vehicle on the predetermined traveling route by collating information with each other, wherein the road surface gradient difference estimated as well as the road surface gradient difference of the traveling route is estimated. Setting means for setting a detection range of a corresponding feature point corresponding to the environment feature point in the traveling image from a difference, and based on the corresponding feature point detected in the detection range Estimating means for selecting the reference image most approximate to the traveling image from the plurality of reference images and estimating the position and attitude of the vehicle based on the correspondence between the environmental feature points and the corresponding feature points; It is included.

また、請求項2に記載の発明は、請求項1に記載の発明において、前記地図情報には前記環境特徴点の前記地図情報における位置座標が含まれ、前記推定手段は、対応付けられた前記環境特徴点の位置座標と前記対応特徴点の前記走行画像上の位置とに基づいて前記撮影手段の位置および姿勢を推定するとともに、推定された前記撮影手段の位置および姿勢を自車の代表点に換算して自車の位置および姿勢を推定するものである。   The invention according to claim 2 is the invention according to claim 1, wherein the map information includes position coordinates in the map information of the environmental feature points, and the estimation means is associated with the map information. The position and orientation of the photographing means are estimated based on the position coordinates of the environment feature point and the position of the corresponding feature point on the traveling image, and the estimated position and attitude of the photographing means is used as a representative point of the vehicle. In order to estimate the position and attitude of the vehicle.

また、請求項3に記載の発明は、請求項2に記載の発明において、前記地図情報には、前記環境特徴点の各々の特徴を示す特徴量が含まれ、前記推定手段は、前回対応付けられた特徴点を最も多く含む基準画像を前記最も近似する基準画像として選択するとともに、前記対応特徴点の特徴量と前記最も近似する基準画像の環境特徴点の特徴量とを比較して前記環境特徴点と前記対応特徴点とを対応付けるものである。   In the invention according to claim 3, in the invention according to claim 2, the map information includes feature quantities indicating features of each of the environment feature points, and the estimation means matches the previous time. The reference image including the largest number of selected feature points is selected as the most approximate reference image, and the feature amount of the corresponding feature point is compared with the feature amount of the environment feature point of the most approximate reference image to compare the environment A feature point is associated with the corresponding feature point.

また、請求項4に記載の発明は、請求項1から請求項3のいずれか1項に記載の発明において、前記撮影手段は、前記撮影手段前方の予め定められた領域を撮影するように自車の予め定められた位置に固定され、前記設定手段は、前記複数の基準画像から前記予め定められた領域に最も近似する基準画像を選択するとともに選択された基準画像に関連付けられた前記撮影手段の位置および姿勢による路面勾配と前回撮影された走行画像について推定された前記撮影手段の位置および姿勢による路面勾配との差分から前記路面勾配差を推定するものである。   The invention according to claim 4 relates to the invention according to any one of claims 1 to 3, wherein the photographing means takes an image of a predetermined area in front of the photographing means. The photographing means fixed to a predetermined position of a car, the setting means selects a reference image closest to the predetermined area from the plurality of reference images and is associated with the selected reference image The road surface gradient difference is estimated from the difference between the road surface gradient according to the position and posture of the vehicle and the road surface gradient according to the position and posture of the photographing means estimated for the previously photographed traveling image.

また、請求項5に記載の発明は、請求項1から請求項4のいずれか1項に記載の発明において、前記設定手段は、前記路面勾配差に応じて前記検出範囲を前記走行画像の上下方向に移動させるものである。   Also, in the invention according to claim 5, in the invention according to any one of claims 1 to 4, the setting means sets the detection range to the upper and lower sides of the traveling image according to the road surface gradient difference. It is moved in the direction.

また、請求項6に記載の発明は、請求項5に記載の発明において、前記設定手段は、前記予め定められた領域と比べて自車位置の路面勾配が大きいほど、前記走行画像上における前記検出範囲の位置をより上部に設定するものである。   In the sixth aspect of the present invention, in the fifth aspect of the present invention, the setting means may increase the road surface gradient of the vehicle position as compared to the predetermined area, in the traveling image. The position of the detection range is set at the upper part.

上記目的を達成するために、請求項7に記載の自車位置推定方法は、所定の走行経路上において撮影手段によって撮影した複数の走行画像と、前記所定の走行経路に沿った複数の位置で前記撮影手段によって撮影された複数の基準画像の各々に関連付けられた前記所定の走行経路に沿った環境における環境特徴点および前記複数の基準画像の撮影時の前記撮影手段の位置および姿勢を含む地図情報と、を照合することによって前記所定の走行経路上における自車の位置および姿勢を推定する自車位置推定装置による自車位置推定方法であって、設定手段により、前記走行経路の路面勾配差を推定するとともに推定された前記路面勾配差から前記走行画像における前記環境特徴点に対応する対応特徴点の検出範囲を設定し、推定手段により、前記検出範囲で検出された前記対応特徴点に基づいて前記複数の基準画像から前記走行画像と最も近似する基準画像を選択するとともに前記環境特徴点と前記対応特徴点との対応付けに基づいて自車の位置および姿勢を推定するものである。   In order to achieve the above object, according to the vehicle position estimation method of a seventh aspect of the present invention, a plurality of traveling images taken by the photographing means on a predetermined traveling route and a plurality of positions along the predetermined traveling route A map including environmental feature points in an environment along the predetermined traveling route associated with each of the plurality of reference images taken by the imaging means, and a position and an attitude of the imaging means at the time of taking the plurality of reference images A vehicle position estimation method by a vehicle position estimation apparatus for estimating a position and a posture of a vehicle on the predetermined traveling route by collating information with a road surface gradient difference of the traveling route by setting means. And the detection range of the corresponding feature point corresponding to the environment feature point in the traveling image is set from the road surface gradient difference estimated and the estimation means Based on the corresponding feature points detected in the detection range, a reference image closest to the traveling image is selected from the plurality of reference images, and the vehicle is selected based on the correspondence between the environment feature points and the corresponding feature points. Estimate the position and attitude of

上記目的を達成するために、請求項8記載の自車位置推定プログラムは、所定の走行経路上において撮影手段によって撮影した複数の走行画像と、前記所定の走行経路に沿った複数の位置で前記撮影手段によって撮影された複数の基準画像の各々に関連付けられた前記所定の走行経路に沿った環境における環境特徴点および前記複数の基準画像の撮影時の前記撮影手段の位置および姿勢を含む地図情報と、を照合することによって前記所定の走行経路上における自車の位置および姿勢を推定する自車位置推定装置を制御するプログラムであって、コンピュータを前記走行経路の路面勾配差を推定するとともに推定された前記路面勾配差から前記走行画像における前記環境特徴点に対応する対応特徴点の検出範囲を設定する設定手段と、前記検出範囲で検出された前記対応特徴点に基づいて前記複数の基準画像から前記走行画像と最も近似する基準画像を選択するとともに前記環境特徴点と前記対応特徴点との対応付けに基づいて自車の位置および姿勢を推定する推定手段と、として機能させるものである。   In order to achieve the above object, the vehicle position estimation program according to claim 8 is characterized in that a plurality of traveling images taken by the photographing means on a predetermined traveling route, and a plurality of positions along the predetermined traveling route Map information including environmental feature points in an environment along the predetermined traveling route associated with each of the plurality of reference images taken by the imaging means, and the position and posture of the imaging means when the plurality of reference images are taken And a program for controlling the vehicle position estimation device for estimating the position and attitude of the vehicle on the predetermined traveling route by collating with and the computer estimates the road surface gradient difference of the traveling route and estimates the difference. Setting means for setting a detection range of a corresponding feature point corresponding to the environmental feature point in the traveling image from the road surface gradient difference; Based on the corresponding feature points detected in the range, a reference image most similar to the traveling image is selected from the plurality of reference images and the own vehicle is selected based on the correspondence between the environmental feature points and the corresponding feature points. It functions as an estimation means for estimating the position and the attitude.

本発明によれば、より迅速にかつより精度よく自車位置を推定することができる自車位置推定装置、自車位置推定方法、および自車位置推定プログラムを提供することができるという効果を奏する。   According to the present invention, it is possible to provide an own-vehicle position estimation apparatus, an own-vehicle position estimation method, and an own-vehicle position estimation program capable of estimating the own-vehicle position more quickly and more accurately. .

実施の形態に係る、(a)はカメラを搭載した車両を示す図、(b)は自車位置推定装置の構成の一例を示すブロック図である。(A) is a figure which shows the vehicle carrying a camera which concerns on embodiment, (b) is a block diagram which shows an example of a structure of an own vehicle position estimation apparatus. (a)は駐車経路における特徴点を示す図、(b)はキーフレームのカメラ位置と特徴点の位置を示す図である。(A) is a figure which shows the feature point in a parking path | route, (b) is a figure which shows the camera position of a key frame, and the position of a feature point. (a)は路面勾配によるカメラピッチ角の違いを説明する図、(b)は特徴点検出範囲を説明する図、(c)は特徴点検出範囲の上端、下端と路面勾配との関係を説明する図である。(A) illustrates the difference in camera pitch angle due to road surface gradient, (b) illustrates the feature point detection range, (c) illustrates the relationship between the upper end and the lower end of the feature point detection range, and the road surface gradient It is a figure to do. (a)は初回の特徴点検出範囲を示す図、(b)は路面勾配差>0の場合の特徴点検出範囲を示す図である。(A) is a figure which shows the first feature point detection range, (b) is a figure which shows the feature point detection range in the case of road surface gradient difference> 0. 実施の形態に係る自車位置推定処理ログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the own vehicle position estimation process program which concerns on embodiment. 投影誤差を説明する図である。It is a figure explaining a projection error.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。なお、以下の説明では、移動体として車両を例にとり、該車両が自車の位置を推定する際の周囲環境を駐車場とし、走行経路として駐車場外部から駐車地点までの経路を例示して説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description, a vehicle is taken as an example of a moving body, a surrounding environment when the vehicle estimates the position of the vehicle is taken as a parking lot, and a route from outside the parking lot to a parking point is taken as a traveling route. explain.

図1から図6を参照して、本実施の形態に係る自車位置推定装置、自車位置推定方法、および自車位置推定プログラムについて説明する。   An own vehicle position estimation apparatus, an own vehicle position estimation method, and an own vehicle position estimation program according to the present embodiment will be described with reference to FIGS. 1 to 6.

図1(a)は、本実施の形態に係る自車位置推定装置10を搭載した車両50を示している。図1(a)に示すように、車両50は、本実施の形態に係る自車位置の推定処理(以下、「自車位置推定処理」)において使用する、撮影手段としてのカメラ14を備えている。本実施の形態に係るカメラ14は、車両50の後部のトランク等に設けられ、車両後方を撮影する。カメラ14は、例えば、車幅方向の略中央部付近に設けられ、かつカメラ14の光軸が水平方向より若干下側を向くように配置されている。なお、本実施の形態では、カメラ14を車両50の後部に設ける形態を例示して説明するが、これに限られず、環境等に応じて例えば前部に設けてもよい。また、本実施の形態では、カメラ14として単眼カメラを例示して説明するが、これに限られず他の形態のカメラ、例えばステレオカメラ等であってもよい。   FIG. 1A shows a vehicle 50 equipped with a vehicle position estimation device 10 according to the present embodiment. As shown in FIG. 1 (a), the vehicle 50 is provided with a camera 14 as a photographing means, which is used in the process of estimating the vehicle position according to the present embodiment (hereinafter, "vehicle position estimation process"). There is. The camera 14 according to the present embodiment is provided in a trunk or the like at the rear of the vehicle 50, and images the rear of the vehicle. The camera 14 is provided, for example, near a substantially central portion in the vehicle width direction, and is disposed such that the optical axis of the camera 14 is slightly lower than the horizontal direction. In the present embodiment, the camera 14 is described as being provided at the rear of the vehicle 50. However, the present invention is not limited to this, and may be provided, for example, at the front according to the environment. Further, in the present embodiment, a single-eye camera is described as an example of the camera 14, but the present invention is not limited to this and may be a camera of another form, such as a stereo camera.

図1(b)に示すように、本実施の形態に係る自車位置推定装置10は、制御部12、カメラ14、記憶部16、および表示部18を含んで構成されている。   As shown in FIG. 1 (b), the vehicle position estimation apparatus 10 according to the present embodiment is configured to include a control unit 12, a camera 14, a storage unit 16, and a display unit 18.

制御部12は、自車位置を推定するための演算等を行う部位である。制御部12は、一例としてCPU(Central Processing Unit)12A、ROM(Read Only Memory)12B、RAM(Random Access Memory)12C、入出力インタフェースであるI/O12D等を含んで構成されている。CPU12A、ROM12B、RAM12C、およびI/O12Dの各々はバス12Eにより相互に接続されている。   The control unit 12 is a part that performs calculations and the like for estimating the vehicle position. The control unit 12 includes, for example, a central processing unit (CPU) 12A, a read only memory (ROM) 12B, a random access memory (RAM) 12C, and an I / O 12D as an input / output interface. The CPU 12A, the ROM 12B, the RAM 12C, and the I / O 12D are connected to one another by a bus 12E.

CPU12Aは、自車位置推定装置10の全体を統括、制御し、ROM12Bは、自車位置推定装置10の制御プログラムや、後述する自車位置推定処理プログラム等を予め記憶する記憶手段であり、RAM12Cは、制御プログラム等のプログラムの実行時のワークエリア等として用いられる記憶手段である。制御部12が本発明に係る「設定手段」、および「推定手段」に相当する。   The CPU 12A supervises and controls the entire vehicle position estimation apparatus 10, and the ROM 12B is storage means for storing in advance a control program of the vehicle position estimation apparatus 10, an own vehicle position estimation processing program to be described later, etc. Is a storage means used as a work area or the like when executing a program such as a control program. The control unit 12 corresponds to the “setting means” and the “estimating means” according to the present invention.

ROM12Bには、本実施の形態で用いる地図を生成するための地図生成プログラムや、自車位置を推定する自車位置推定処理プログラムを含む各種プログラムやデータ等が記憶されている。ROM12Bに記憶されたプログラムをRAM12Cに展開してCPU12Aが実行することにより、地図の生成や、自車位置の推定が行われる。   The ROM 12B stores a map generation program for generating a map used in the present embodiment and various programs, data and the like including an own vehicle position estimation processing program for estimating an own vehicle position. The program stored in the ROM 12B is expanded on the RAM 12C and executed by the CPU 12A, whereby generation of a map and estimation of the position of the vehicle are performed.

制御部12には、I/O12Dを介して、カメラ14、記憶部16、および表示部18が接続されている。カメラ14により撮影された画像は、I/O12Dを介して制御部12に取り込まれる。   The camera 14, the storage unit 16, and the display unit 18 are connected to the control unit 12 via the I / O 12D. The image taken by the camera 14 is taken into the control unit 12 via the I / O 12D.

また、記憶部16には、本実施の形態に係る自車位置推定処理に用いる後述の地図等が格納されている。記憶部16の形態に特に制限はないが、一例としてHDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を用いることができる。なお、記憶部16は制御部12内に設けてもよいし、外部接続可能としてもよい。また、記憶部16には制御部12の制御によって生成した地図の他に、地図生成処理プログラムや自車位置推定処理プログラムを記憶してもよい。   In addition, the storage unit 16 stores a map or the like, which will be described later, used in the vehicle position estimation process according to the present embodiment. The form of the storage unit 16 is not particularly limited, but as an example, a hard disk drive (HDD), a solid state drive (SSD), a flash memory, or the like can be used. The storage unit 16 may be provided in the control unit 12 or may be externally connectable. In addition to the map generated under the control of the control unit 12, the storage unit 16 may store a map generation processing program and a vehicle position estimation processing program.

表示部18は、カメラ14が撮影した画像等を表示する部位である。表示部18の形態に制限はないが、例えば、液晶モニタ、CRT(Cathode Ray Tube)モニタ、FPD(Flat Panel Display)モニタ等が用いられる。   The display unit 18 is a part that displays an image or the like captured by the camera 14. The form of the display unit 18 is not limited, but, for example, a liquid crystal monitor, a CRT (Cathode Ray Tube) monitor, an FPD (Flat Panel Display) monitor or the like is used.

図2(a)は本実施の形態で想定する駐車場の様子(以下、「環境」)を示す図である。本実施の形態では、車両50の走行経路として、図2(a)に示す「スタート」の位置(出発地点)から、「ゴール」の位置(駐車地点)までを想定している。図2(a)に示す符号「FP」は、以下で説明する特徴点の位置を示している。車両50の自車位置を推定する場合には、所定の大きさを有する車両50内の位置(以下、「車両代表点X」)を予め決めておく必要があるが、図2(b)に示すように、本実施の形態ではこの車両代表点Xを後輪の中央の点としている。しかしながら、代表点の位置はこれに限られず、例えば車両50の重心の位置としてもよい。   FIG. 2 (a) is a view showing a state of the parking lot assumed in the present embodiment (hereinafter, "environment"). In the present embodiment, as a traveling route of the vehicle 50, it is assumed from the position of “start” (departure point) shown in FIG. 2A to the position of “goal” (parking point). The code "FP" shown in FIG. 2A indicates the position of the feature point described below. In order to estimate the vehicle position of the vehicle 50, it is necessary to determine in advance the position within the vehicle 50 having a predetermined size (hereinafter, "vehicle representative point X"). As shown, in the present embodiment, this vehicle representative point X is taken as the center point of the rear wheel. However, the position of the representative point is not limited to this, and may be, for example, the position of the center of gravity of the vehicle 50.

図2(b)は、図2(a)に示す環境の平面図である。図2(b)に示すように、カメラ14を搭載した車両50は、スタート地点SPからゴール地点GPまで走行する。本実施の形態に係る自車位置推定処理では、実際の走行の前に、カメラ14で環境を撮影し、撮影された画像に関連付けられた所定の付随データを地図として予め生成しておくが、符号「S」は、該生成の際の車両50の走行軌跡を示している。実際の駐車においては、基本的に走行軌跡Sに沿って走行する。以下では、走行軌跡Sと区別して、実際の駐車時(走行時)に走行する経路を「走行経路」という場合がある。   FIG. 2 (b) is a plan view of the environment shown in FIG. 2 (a). As shown in FIG. 2 (b), the vehicle 50 mounted with the camera 14 travels from the start point SP to the goal point GP. In the vehicle position estimation process according to the present embodiment, the environment is photographed by the camera 14 before actual traveling, and predetermined accompanying data associated with the photographed image is generated as a map in advance. The code “S” indicates the traveling locus of the vehicle 50 at the time of the generation. In actual parking, the vehicle travels basically along the traveling path S. Hereinafter, in distinction from the traveling locus S, a route traveling at the time of actual parking (during traveling) may be referred to as a “traveling route”.

図2(b)に示す小円は、特徴点FPの位置を示している。本実施の形態において、「特徴点」とは、建物の凹凸に基づく陰影、壁面の模様等、撮影画像において輝度の濃淡差が所定値よりも大きい点をいう。従って、特徴点は、図2(b)に示すように、環境における建物30の壁面WS、あるいは建物30の角部に現れることが多く、また、1つの地図において複数の特徴点FPが選定される。さらに、本実施の形態では、複数の特徴点FPの各々を区別するために、個々の特徴点FPに「特徴量」を対応付けている。本実施の形態に係る「特徴量」とは、一例として特徴点近傍における輝度の濃淡差のパターンをいう。   The small circle shown in FIG. 2B indicates the position of the feature point FP. In the present embodiment, the “feature point” refers to a point such as a shadow based on unevenness of a building, a pattern of a wall surface, or the like, in which a gradation difference of luminance is larger than a predetermined value in a photographed image. Therefore, as shown in FIG. 2 (b), the feature points often appear on the wall surface WS of the building 30 in the environment or at the corners of the building 30, and a plurality of feature points FP are selected in one map. Ru. Furthermore, in the present embodiment, in order to distinguish each of the plurality of feature points FP, “feature amount” is associated with each feature point FP. The “feature amount” according to the present embodiment refers to, for example, a pattern of brightness difference in the vicinity of a feature point.

図2(b)中の符号「CP」は、地図を生成する際、カメラ14による撮影が行われた複数(図2(b)の例では12)の撮影点を示している。本実施の形態では、この複数の撮影点CPで撮影された画像を「キーフレーム」といい、特徴点FPおよび特徴点FPに関連付けられた情報とともに地図を生成する際のデータを構成する。すなわち、キーフレームは、予め複数の撮影点CPで撮影された複数の画像であり、特徴点に関する情報はこのキーフレームに関連付けられる。なお、以下の説明では、地図を生成する際の撮影点を「地図撮影点CP」といい、実際の駐車時の撮影点を「走行撮影点」という。また、走行撮影点において撮影された画像を「走行画像」という。「キーフレーム」が本発明に係る「基準画像」に相当し、キーフレームに関連付けられた特徴点FPが本発明に係る「環境特徴点」に相当する。これに対し、走行画像に関連付けられた特徴点FPが本発明に係る「対応特徴点」に相当する。   The code “CP” in FIG. 2 (b) indicates a plurality of (12 in the example of FIG. 2 (b)) shooting points at which the camera 14 performed shooting when generating a map. In the present embodiment, images taken at the plurality of shooting points CP are referred to as “key frames”, and data at the time of generating a map together with the feature points FP and information associated with the feature points FP are configured. That is, the key frame is a plurality of images captured at a plurality of shooting points CP in advance, and information on feature points is associated with the key frame. In the following description, a shooting point at the time of generating a map is referred to as a "map shooting point CP", and a shooting point at the time of actual parking is referred to as a "running shooting point". In addition, an image captured at a traveling shooting point is referred to as a “traveling image”. The "key frame" corresponds to the "reference image" according to the present invention, and the feature point FP associated with the key frame corresponds to the "environment feature" according to the present invention. On the other hand, the feature point FP associated with the traveling image corresponds to the "corresponding feature point" according to the present invention.

次に、本実施の形態に係る「地図」について説明する。地図には以下の情報が含まれている。
(1)各特徴点FPの3次元で表示した座標(3次元位置座標(Xp、Yp、Zp))。
(2)各キーフレームにおけるカメラの3次元位置座標(Xc、Yc、Zc)と姿勢(ロール角、ピッチ角、ヨー角)。
(3)各キーフレームにおける各特徴量。
地図の生成は、予め人が運転して走行軌跡Sを走行し、走行の際のカメラ14による撮影画像から特徴点の座標(3次元位置)とキーフレームにおけるカメラ14の位置を推定する。これらの推定は、例えばVisual SLAM(Simultaneous Localization and Mapping)を用いて行うことができる。すなわち、撮影画像から、Visual SLAMを用いて特徴点の3次元位置とキーフレームのカメラ位置を推定し、これらの推定値とキーフレームにおける特徴点の特徴量を地図に登録する。
Next, the “map” according to the present embodiment will be described. The map contains the following information:
(1) Coordinates (three-dimensional position coordinates (Xp, Yp, Zp)) displayed in three dimensions of each feature point FP.
(2) Three-dimensional position coordinates (Xc, Yc, Zc) and posture (roll angle, pitch angle, yaw angle) of the camera in each key frame.
(3) Each feature amount in each key frame.
In the generation of the map, a person drives in advance and travels the traveling locus S, and the coordinates (three-dimensional position) of the feature point and the position of the camera 14 in the key frame are estimated from the captured image by the camera 14 during traveling. These estimations can be performed using, for example, Visual SLAM (Simultaneous Localization and Mapping). That is, the three-dimensional position of the feature point and the camera position of the key frame are estimated from the captured image using Visual SLAM, and these estimated values and feature amounts of the feature point in the key frame are registered in the map.

より詳細には、特徴点の抽出方法としては、例えば、ORB−SLAMを適用することができる。ORB−SLAMは、特徴点としてコーナーを検出し、検出手法にFAST(Features from Accelerated Segment Test)を用いるものである。また、ORB−SLAMは、特徴量の記述にORB(Oriented FAST and Rotated BRIEF)を用いる。ORBは、BRIEF(Binary Robust Independent Elementary Features)をベースとして、スケール不変性と回転不変性とを有するように発展させたものである。ORB−SLAMについては以下の参考文献1に開示されているため、詳細な説明を省略する。
[参考文献1]Raul Mur-Artal, J.M.M.Montiel and Juan D.Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol.31, no.5, pp.1147-1163, 2015.なお、地図生成時には、計算時間に対する制約が厳しくないため、特徴点検出範囲を後述するように制限することなく、撮影画像全体に設定してもよい。
More specifically, for example, ORB-SLAM can be applied as a feature point extraction method. ORB-SLAM detects a corner as a feature point and uses FAST (Features from Accelerated Segment Test) as a detection method. Also, ORB-SLAM uses ORB (Oriented FAST and Rotated BRIEF) to describe the feature value. The ORB is developed on the basis of Binary Robust Independent Elementary Features (BRIEF) to have scale invariance and rotation invariance. The ORB-SLAM is disclosed in the following reference 1 and thus the detailed description is omitted.
[Reference 1] Raul Mur-Artal, JMM Montiel and Juan D. Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol. 31, no. Since the restriction on the calculation time is not severe at the time of map generation, the feature point detection range may be set to the entire photographed image without being limited as described later.

以上まとめると、地図生成時に地図撮影点CPで撮影された複数の画像であるキーフレームが撮影された際の特徴点の座標、特徴量、カメラ14の位置および姿勢が関連付けられ、地図情報として記憶部16等の記憶手段に格納される。また、記憶部16等に格納された地図は、後述する自車位置推定処理において参照される。   In summary, coordinates of feature points at the time of capturing a key frame that is a plurality of images captured at the map capturing point CP at the time of map generation, feature amounts, position and orientation of the camera 14 are associated and stored as map information It is stored in the storage unit such as the unit 16 or the like. Further, the map stored in the storage unit 16 or the like is referred to in a vehicle position estimation process described later.

ここで、図3、図4を参照して本実施の形態に係る特徴点検出範囲の設定について説明する。上述したように、車両50の走行にともなってカメラ14で撮影される画像(キーフレーム、走行画像)における特徴点FPの分布は、車両50が走行する路面の状態等の要因により変化する場合がある。本実施の形態では、撮影画像全体における特徴点の分布に影響を及ぼす要因として、自車位置の推定の対象となる車両50が走行する路面の勾配を想定している。すなわち、路面勾配に起因して撮影画像全体における特徴点の分布に偏りが生ずる蓋然性が高い場合には、特徴点の検出範囲を変更するように構成している。   Here, setting of the feature point detection range according to the present embodiment will be described with reference to FIGS. 3 and 4. As described above, the distribution of feature points FP in an image (key frame, traveling image) captured by the camera 14 as the vehicle 50 travels may change due to factors such as the state of the road surface on which the vehicle 50 travels. is there. In the present embodiment, as a factor affecting the distribution of feature points in the entire photographed image, the gradient of the road surface on which the vehicle 50 which is the target of the vehicle position estimation travels is assumed. That is, when there is a high probability that the distribution of feature points in the entire photographed image is biased due to the road surface gradient, the detection range of the feature points is changed.

図3(a)は、勾配のある路面Rを走行する車両50を示している。図3(a)に示す例は、自車前方が上り坂になっている例であるが、むろん自車前方が下り坂になっている場合も考え方は同じである。図3(a)中、位置P0は基準位置を示し、位置P1は登攀途中の位置を示し、各々の位置に車両50が位置している。ここで、位置P0にある車両50のカメラ14のピッチ角をθf、位置P1にある車両のカメラ14のピッチ角をθ1とする。本実施の形態に係るピッチ角θとは、水平方向から測ったカメラ14の光軸の傾き角度であり、水平方向から地面に近づく方向を正方向と定義する。さらに、(θ1−θf)で路面勾配差Δθを定義する(Δθ=(θ1−θf))。この定義のもとでは、路面勾配差Δθは図3(a)に示す角度に等しい。なお、上述したように、本実施の形態ではカメラ14の光軸が水平方向より若干下側を向くように配置されているが、理解のしやすさから、以下では平坦な路面Rにおけるカメラ14の光軸の方向が水平方向であるとして説明する。   FIG. 3A shows a vehicle 50 traveling on a sloped road surface R. FIG. The example shown in FIG. 3A is an example in which the front of the host vehicle is an uphill, but the concept is the same as in the case where the front of the host vehicle is a downhill. In FIG. 3A, the position P0 indicates a reference position, the position P1 indicates a position on the way up, and the vehicle 50 is located at each position. Here, the pitch angle of the camera 14 of the vehicle 50 at the position P0 is θf, and the pitch angle of the camera 14 of the vehicle at the position P1 is θ1. The pitch angle θ according to the present embodiment is an inclination angle of the optical axis of the camera 14 measured from the horizontal direction, and a direction approaching the ground from the horizontal direction is defined as a positive direction. Further, the road surface gradient difference Δθ is defined by (θ1−θf) (Δθ = (θ1−θf)). Under this definition, the road surface slope difference Δθ is equal to the angle shown in FIG. 3 (a). As described above, in the present embodiment, the optical axis of the camera 14 is disposed to be slightly lower than the horizontal direction. However, for ease of understanding, the camera 14 on the flat road surface R is described below. It is assumed that the direction of the optical axis of is horizontal.

図3(b)は、撮影された画像Gにおける特徴点検出範囲Asを模式的に示している。
本実施の形態に係る特徴点検出範囲Asとは、画像Gにおいて特徴点FPの探索範囲として指定された領域をいう。すなわち、特徴点FPの検出は画像Gの全体ではなく、指定され限定された領域で行う。図3(b)に示すように、本実施の形態では、特徴点検出範囲Asの指定を、画像Gの上下位置における上端Guおよび下端Gdを指定して行う。なお、特徴点検出範囲Asの指定方法はこれに限られず、例えば上端Guと下端Gdとの中点Gcと画像幅Wsで指定してもよい。図3(b)は、車両50が略平坦な路面の基準位置にある場合の特徴点検出範囲As0を示しており、上端がGu0、下端がGd0とされている。
FIG. 3B schematically shows the feature point detection range As in the captured image G.
The feature point detection range As according to the present embodiment refers to an area designated as a search range of the feature point FP in the image G. That is, the detection of the feature point FP is not performed on the entire image G, but is performed in a designated and limited area. As shown in FIG. 3B, in the present embodiment, the feature point detection range As is specified by specifying the upper end Gu and the lower end Gd at the upper and lower positions of the image G. The method of specifying the feature point detection range As is not limited to this, and may be specified by, for example, a midpoint Gc between the upper end Gu and the lower end Gd and the image width Ws. FIG. 3B shows the feature point detection range As0 when the vehicle 50 is at the reference position of the substantially flat road surface, with the upper end being Gu0 and the lower end being Gd0.

図3(c)は、路面勾配差Δθと、特徴点検出範囲Asとの関係を示している。図3(c)は自車前方が上り坂である場合の、路面勾配差ΔθがΔθ1からΔθ2の範囲の特徴点検出範囲を示している。路面勾配差Δθ=0の点は、路面勾配差が略ゼロで路面Rが平坦である位置を示している。すなわち、Δθ=0を境に路面勾配差Δθの正負が切り替わる(つまり、Δθ1<0、Δθ2>0である)。路面勾配差Δθ=0における特徴点検出範囲As0は、上端Gu0と下端Gd0との間の範囲となっている。なお、図3(c)では、路面勾配差ΔθがΔθ1からΔθ2の範囲で、特徴点検出範囲Asの範囲の幅が一定である場合を例示しているが、むろん特徴点検出範囲Asの幅は路面勾配差Δθに応じて変えるようにしてもよい。   FIG. 3C shows the relationship between the road surface gradient difference Δθ and the feature point detection range As. FIG. 3C shows a feature point detection range in which the road surface gradient difference Δθ is in the range of Δθ1 to Δθ2 when the front of the vehicle is an upward slope. The point of the road surface gradient difference Δθ = 0 indicates a position where the road surface gradient difference is substantially zero and the road surface R is flat. That is, the positive and negative of the road surface gradient difference Δθ are switched at the boundary of Δθ = 0 (that is, Δθ1 <0, Δθ2> 0). The feature point detection range As0 at the road surface gradient difference Δθ = 0 is a range between the upper end Gu0 and the lower end Gd0. Although FIG. 3C exemplifies the case where the width of the feature point detection range As is constant when the road surface gradient difference Δθ is in the range of Δθ1 to Δθ2, it is needless to say that the width of the feature point detection range As May be changed in accordance with the road surface gradient difference Δθ.

図4は、実際の画像における特徴点検出範囲Asの一例を示している。図4(a)は、車両50が、例えば路面勾配差Δθが略ゼロの平坦な路面Rに位置している場合の特徴点検出範囲の例である。図4(a)に示すように、この場合の特徴点検出範囲As0は、上端Gu0が画像Gの上端から予め定められた長さの位置とされ、下端Gd0が画像Gの下端から予め定められた長さの位置とされている。換言すれば、特徴点検出範囲As0では、画像Gの上端の予め定められた領域と、下端の予め定められた領域とにおいて特徴点FPの検出が行われない。   FIG. 4 shows an example of the feature point detection range As in an actual image. FIG. 4A is an example of the feature point detection range in the case where the vehicle 50 is located on a flat road surface R where the road surface gradient difference Δθ is substantially zero, for example. As shown in FIG. 4A, in the feature point detection range As0 in this case, the upper end Gu0 is a position of a predetermined length from the upper end of the image G, and the lower end Gd0 is predetermined from the lower end of the image G It is considered to be a position of a certain length. In other words, in the feature point detection range As0, detection of the feature point FP is not performed in a predetermined area at the upper end of the image G and a predetermined area at the lower end.

一方、図4(b)は、車両50が、路面勾配差ΔθがΔθ>0の路面Rに位置している場合の特徴点検出範囲As1の例である。図4(b)に示すように、この場合の特徴点検出範囲As1は、上端Gu1がほぼ画像Gの上端とされ、下端Gd1が画像Gの上下方向の中央位置近辺まで上げられている。換言すれば、特徴点検出範囲As1では、画像Gの上端から上端Gu1の範囲、下端Gd1から画像Gの下端までの範囲で特徴点FPの検出が行われない。なお、特徴点検出範囲As0とAs1との関係を図3(a)を用いて説明すると、車両50が位置P0にある場合の特徴点検出範囲が特徴点検出範囲As0であり、車両50が位置P1にある場合の特徴点検出範囲が特徴点検出範囲As1であると考えることができる。   On the other hand, FIG. 4B is an example of the feature point detection range As1 when the vehicle 50 is located on the road surface R where the road surface gradient difference Δθ is Δθ> 0. As shown in FIG. 4B, in the feature point detection range As1 in this case, the upper end Gu1 is substantially at the upper end of the image G, and the lower end Gd1 is raised to near the center position in the vertical direction of the image G. In other words, in the feature point detection range As1, detection of the feature point FP is not performed in the range from the upper end of the image G to the upper end Gu1 and in the range from the lower end Gd1 to the lower end of the image G. The relationship between the feature point detection range As0 and As1 will be described using FIG. 3A. The feature point detection range when the vehicle 50 is at the position P0 is the feature point detection range As0, and the vehicle 50 is at the position It can be considered that the feature point detection range in the case of P1 is the feature point detection range As1.

次に、図5を参照して、本実施の形態に係る自車位置推定方法について説明する。図4は、自車位置を推定する自車位置推定処理プログラムの流れを示すフローチャートである。図5に示す自車位置推定処理プログラムは、実行開始の指示がなされると、制御部12のCPU12AがROM12B等の記憶手段から本自車位置推定処理プログラムを読み込み、RAM12C等の記憶手段に展開して実行する。本実施の形態では、予め地図が生成され、記憶部16に格納されているものとする。また、図2(b)に示すスタート地点SPに停車した状態からゴール地点GPに向けて人が車両50を運転するのに伴って、自車位置推定処理が実行される。しかしながら、これに限られず、本自車位置推定処理プログラムを、例えばスタート地点SPからゴール地点GPまで車両50が自動運転される場合に適用してもよい。   Next, with reference to FIG. 5, a method of estimating the vehicle position according to the present embodiment will be described. FIG. 4 is a flowchart showing a flow of a vehicle position estimation processing program for estimating the vehicle position. When an instruction to start execution of the vehicle position estimation processing program shown in FIG. 5 is issued, the CPU 12A of the control unit 12 reads the present vehicle position estimation processing program from the storage unit such as the ROM 12B and develops it in the storage unit such as the RAM 12C. And run. In the present embodiment, it is assumed that a map is generated in advance and stored in the storage unit 16. Further, as the person drives the vehicle 50 from the state of stopping at the start point SP shown in FIG. 2B toward the goal point GP, the vehicle position estimation process is executed. However, the present invention is not limited to this, and the present vehicle position estimation processing program may be applied, for example, when the vehicle 50 is driven automatically from the start point SP to the goal point GP.

なお、本実施の形態では、本自車位置推定処理プログラムをROM12B等に予め記憶させておく形態としているが、これに限られない。例えば、本自車位置推定処理プログラムがコンピュータにより読み取り可能な可搬型の記憶媒体に記憶された状態で提供される形態、図示しないネットワークインタフェース等による通信手段を介して配信される形態等を適用してもよい。   In the present embodiment, although the present vehicle position estimation processing program is stored in advance in the ROM 12B or the like, the present invention is not limited to this. For example, a form in which the present vehicle position estimation processing program is provided in a state of being stored in a computer readable portable storage medium, a form in which it is distributed via communication means such as a network interface not shown May be

ステップS100では、カメラ14によって撮影を行い、走行画像を取得する。この走行画像の取得は、車両50がスタート地点SPから出発した後予め定められた時間ごと、例えば一般的なビデオレートである33ms(ミリ秒)ごとに取得する。   In step S100, shooting is performed by the camera 14 to acquire a traveling image. The acquisition of the traveling image is performed every predetermined time after the vehicle 50 departs from the start point SP, for example, every 33 ms (milliseconds) which is a general video rate.

ステップS102では、走行画像の取得が初回(1回目)か否か判定する。本実施の形態に係る自車位置推定処理では、初回か2回目以降かにより、以降の処理における特徴点検出範囲設定方法とキーフレーム探索方法を変えている。ステップS102が肯定判定となった場合にはステップS104に移行し、否定判定となった場合にはステップS112に移行する。   In step S102, it is determined whether acquisition of a driving | running | working image is the first (1st time). In the vehicle position estimation process according to the present embodiment, the feature point detection range setting method and the key frame search method in the subsequent processes are changed depending on whether it is the first time or the second time or later. When step S102 becomes affirmation determination, it transfers to step S104, and when it becomes negative determination, it transfers to step S112.

ステップS104では、特徴点検出範囲Asを予め定められた初期特徴点検出範囲に設定する。初回の走行画像取得では、未だ路面勾配差Δθが推定されていないからである。
初期特徴点検出範囲の設定方法に制限はないが、一例として図3(c)に示す、画像Gの上下位置中央に配置された特徴点検出範囲As0とする。先述したように、特徴点検出範囲As0は、画像Gにおける検出範囲が制限されている。初期特徴点検出範囲をこのように限定することにより、路面上等の互いに区別しにくい特徴点が検出されることを抑制し、建物上等の互いに区別しやすい特徴点をより多く検出することができる。
In step S104, the feature point detection range As is set to a predetermined initial feature point detection range. This is because the road surface gradient difference Δθ has not been estimated in the first acquisition of the traveling image.
There is no limitation on the method of setting the initial feature point detection range, but as an example, the feature point detection range As0 disposed at the center of the upper and lower positions of the image G shown in FIG. As described above, the feature point detection range As0 has a limited detection range in the image G. By limiting the initial feature point detection range in this way, it is possible to suppress detection of feature points that are difficult to distinguish from each other on a road surface or the like, and to detect more easily distinguishable feature points from each other on a building or the like. it can.

ステップS106では、特徴点の検出、検出した特徴点の特徴量の計算を実行する。特徴点の検出には先述したFAST、特徴量の計算にはORBを使用すればよい。   In step S106, detection of feature points and calculation of feature quantities of the detected feature points are executed. The above-described FAST may be used to detect feature points, and the ORB may be used to calculate feature values.

ステップS108では、ステップS106で計算された特徴量から、例えばBag of Visual Words等を用いて走行画像に最も類似するキーフレームKF0を選定する。Bag of Visual Wordsは、画像中の多数の局所特徴をベクトル量子化しヒストグラムにしたものであり、画像同士の類似の程度を判定するツールである。Bag of Visual Wordsによるキーフレームの抽出には一定の時間を要するが、本処理は、スタート地点SPに停車している際の初回の走行画像の取得であるため、処理時間が比較的長いBag of Visual Wordsを用いても差し支えない。   In step S108, a key frame KF0 most similar to the traveling image is selected from the feature amounts calculated in step S106, using, for example, a Bag of Visual Words. The Bag of Visual Words is a vector quantization of many local features in an image into a histogram, and is a tool for determining the degree of similarity between images. Although extraction of key frames by the Bag of Visual Words takes a certain amount of time, this processing is acquisition of the first traveling image when the vehicle is stopped at the start point SP. You can use Visual Words.

ステップS110では、キーフレームKF0と走行画像との間で特徴量を比較して特徴点を対応付ける(ペアリング)。特徴点検出範囲As0から検出した特徴点は互いに区別しやすい特徴点を多く含むため、より正確に対応付けできる。   In step S110, the feature amounts are compared between the key frame KF0 and the traveling image to associate feature points (pairing). Since the feature points detected from the feature point detection range As0 include many feature points that can be easily distinguished from each other, they can be associated more accurately.

次のステップS124では、走行画像とキーフレームKF0とで対応付けた特徴点の3次元位置(地図上の位置)と走行画像上の位置から、投影誤差が最小となるようにカメラの位置および姿勢を推定する。ここで、図6を参照して、本実施の形態に係る投影誤差について説明する。図6に示すa、b、cは走行画像上の特徴点の位置、A、B、Cは地図上に対応付けられた地図座標系CMにおける特徴点の位置、a’、b’、c’は、地図上に対応付けられた特徴点の位置A、B、Cを走行画像に投影した位置を示している。この際位置Aについての投影誤差εaは、位置aと位置a’との差分となる。位置B、Cについても同様である。本実施の形態に係る特徴点の対応によれば、誤対応が少ないため、カメラの位置および姿勢がより正確に推定される。   In the next step S124, the position and orientation of the camera such that the projection error is minimized from the three-dimensional position (position on the map) of the feature point associated with the traveling image and the key frame KF0 and the position on the traveling image. Estimate Here, the projection error according to the present embodiment will be described with reference to FIG. 6, a, b, c shown in FIG. 6 are positions of feature points on the traveling image, A, B, C are positions of feature points in the map coordinate system CM associated with the map, a ′, b ′, c ′ These show the position which projected position A, B, C of the feature point matched on the map on the driving | running | working image. At this time, the projection error εa for the position A is the difference between the position a and the position a '. The same applies to the positions B and C. According to the correspondence of the feature points according to the present embodiment, the position and orientation of the camera can be estimated more accurately because there is less erroneous correspondence.

次のステップS126では、ステップS124で推定したカメラの位置および姿勢を、自車の位置および姿勢に換算する。自車の位置とは、車両代表点Xの地図上のおける位置をいう。本実施の形態では、車両代表点Xとカメラ14の相対的位置は予わかっているので、カメラの位置および姿勢を、該相対的位置関係に基づいて車両代表点Xの位置に換算する。該換算は単純な演算であるため、走行中の自車位置が短時間で推定され、車両運動制御の遅れ時間を小さくすることができる。その結果、目標経路へ高精度に車両を誘導できるため、例えば狭所に駐車することができ、駐車空間を省スペース化できる。   In the next step S126, the position and orientation of the camera estimated in step S124 are converted into the position and orientation of the vehicle. The position of the own vehicle means the position on the map of the vehicle representative point X. In the present embodiment, since the relative positions of the vehicle representative point X and the camera 14 are known, the position and attitude of the camera are converted to the position of the vehicle representative point X based on the relative positional relationship. Since the conversion is a simple operation, the position of the host vehicle while traveling can be estimated in a short time, and the delay time of the vehicle motion control can be reduced. As a result, since the vehicle can be guided to the target route with high accuracy, for example, the vehicle can be parked in a narrow place, and the parking space can be saved.

ステップS128では、全ての走行撮影点において画像の取得が終了したか否か判定する。初回の場合には本判定は否定判定となるのでステップS100に戻り、走行画像の取得を継続する。   In step S128, it is determined whether acquisition of images has ended at all traveling shooting points. In the case of the first time, this determination is a negative determination, so the process returns to step S100, and acquisition of the traveling image is continued.

一方、ステップS112では、前回推定したカメラ14の位置から所定の距離、例えば5mだけ前方の位置に最も近いキーフレームKFfを探索し、選定する。より具体的には、画像中心部に映っている路面Rまでの距離が、カメラ14の取付角度から予めわかっているので、その位置に最も近いキーフレームを選定する。   On the other hand, in step S112, a key frame KFf closest to a position ahead of the previously estimated position of the camera 14 by a predetermined distance, for example, 5 m, is searched and selected. More specifically, since the distance to the road surface R appearing at the center of the image is known in advance from the mounting angle of the camera 14, the key frame closest to that position is selected.

ステップS114では、キーフレームKFfのカメラピッチ角θfと前回推定したカメラピッチ角θ1との偏差(θ1-θf)を路面勾配差Δθfとする。   In step S114, the deviation (θ1-θf) between the camera pitch angle θf of the key frame KFf and the previously estimated camera pitch angle θ1 is taken as the road surface gradient difference Δθf.

ステップS116では、ステップS114で設定された路面勾配差Δθfから、図3(c)に示す図を用いて特徴点検出範囲Asを設定する。すなわち、路面勾配差Δθfの大きさに応じて特徴点検出範囲Asの上端Gu、下端Gdを設定する。そのため、路面勾配差Δθによらず、路面上等の互いに区別しにくい特徴点が検出されることを抑制し、建物上等の互いに区別しやすい特徴点をより多く検出することができる(図4(b)参照)。
また、特徴点検出範囲Asを限定することにより、特徴点の検出数が抑えられるため、特徴量の算出と特徴点の対応付けに要する計算量を低減できる。したがって、計算資源が限られているシステムにおいても、短時間で自車位置の推定が可能となる。
In step S116, the feature point detection range As is set based on the road surface gradient difference Δθ f set in step S114, using the diagram shown in FIG. 3 (c). That is, the upper end Gu and the lower end Gd of the feature point detection range As are set in accordance with the magnitude of the road surface gradient difference Δθf. Therefore, regardless of the road surface gradient difference Δθ, it is possible to suppress detection of feature points that are difficult to distinguish from each other on the road surface, and to detect more easily distinguishable feature points on a building or the like (FIG. 4). (B)).
Further, by limiting the feature point detection range As, the number of detection of feature points can be reduced, and therefore, the amount of calculation required to calculate feature amounts and to associate feature points can be reduced. Therefore, even in a system with limited computational resources, it is possible to estimate the vehicle position in a short time.

ステップS118では、ステップS106と同様の方法で、特徴点の検出、検出した特徴点の特徴量の計算を実行する。   In step S118, detection of feature points and calculation of feature quantities of the detected feature points are executed in the same manner as step S106.

ステップS120では、前回対応付けた特徴点を最も多く含むキーフレームKF1を選定する。   In step S120, a key frame KF1 including the largest number of feature points associated previously is selected.

ステップS122では、キーフレームKF1と走行画像との間で特徴量を比較して特徴点を対応付ける(ペアリング)。本実施の形態では、路面勾配差Δθによらず、比較対象の特徴点として互いに区別しやすい特徴点を多く含むため、より正確な対応付けが可能となる。   In step S122, the feature amounts are compared between the key frame KF1 and the traveling image to associate feature points (pairing). In the present embodiment, since many feature points that are easy to distinguish from each other are included as feature points to be compared, regardless of the road surface gradient difference Δθ, more accurate correspondence is possible.

次に、上記で説明したステップS124〜S128を実行する。ただし、ステップS124ではキーフレームKF0をKF1に読み替える。その後、ステップS128で肯定判定となった場合に、本自車位置推定処理プログラムを終了する。   Next, steps S124 to S128 described above are executed. However, in step S124, the key frame KF0 is read as KF1. Thereafter, when the determination is affirmative in step S128, the present vehicle position estimation processing program is ended.

以上詳述したように、本実施の形態に係る自車位置推定装置、自車位置推定方法、および自車位置推定プログラムによれば、計算資源が限られるシステムにおいても、自車位置を短時間で推定できる。本実施の形態では、画像からの特徴点の検出範囲を限定しているため、検出時間を低減できるからである。さらに、特徴点の検出数が抑えられるため、特徴量の算出と特徴点の対応付けに要する計算量を低減できる。従って、計算資源が限られているシステムにおいても、短時間で自車位置の推定が可能となっている。   As described above in detail, according to the vehicle position estimation device, the vehicle position estimation method, and the vehicle position estimation program according to the present embodiment, even in a system in which the computational resources are limited, the vehicle position can be shortened. It can be estimated by In the present embodiment, since the detection range of the feature point from the image is limited, the detection time can be reduced. Furthermore, since the number of detected feature points is reduced, it is possible to reduce the amount of calculation required to calculate feature amounts and to associate feature points. Therefore, even in a system with limited computational resources, it is possible to estimate the vehicle position in a short time.

また、本実施の形態に係る自車位置推定装置、自車位置推定方法、および自車位置推定プログラムによれば、路面勾配変化がある場合でも、自車位置を高精度に推定できる。本実施の形態では、カメラ前方と比べた自車位置の路面勾配に応じて走行画像における特徴点検出範囲を変更することにより、建物上等の互いに区別しやすい特徴点をより多く検出するとともに、路面上等の互いに区別しにくい特徴点をより少なく検出するため、キーフレームと走行画像との間で特徴点の対応付けをより正確にできるからである。従って、路面勾配変化がある場合でも、必要最小限の検出数でより高精度に自車位置を推定が可能となっている。   Further, according to the vehicle position estimation device, the vehicle position estimation method, and the vehicle position estimation program according to the present embodiment, even when there is a change in road surface gradient, the vehicle position can be estimated with high accuracy. In the present embodiment, by changing the feature point detection range in the traveling image according to the road surface gradient of the vehicle position compared to the front of the camera, more feature points which are easily distinguishable from each other on the building are detected. This is because the feature points can be associated more accurately between the key frame and the traveling image in order to detect feature points that are difficult to distinguish from each other, such as on the road surface, less frequently. Therefore, even if there is a change in the road surface gradient, it is possible to estimate the vehicle position with higher accuracy with the minimum number of detections.

さらに、自動駐車システムに適用した場合、目標経路へ高精度に車両を誘導できるため、狭所に駐車することができ、駐車空間を省スペース化できる。本実施の形態では、走行中の自車位置を短時間で推定できるため、車両運動制御の遅れ時間を小さくできる。したがって、目標経路へ高精度に車両を誘導できるため、狭所に駐車することができ、駐車空間を省スペース化できる。   Furthermore, when applied to the automatic parking system, the vehicle can be guided to the target route with high accuracy, so the vehicle can be parked in a narrow space, and the parking space can be saved. In the present embodiment, since the position of the host vehicle while traveling can be estimated in a short time, the delay time of the vehicle motion control can be reduced. Therefore, since the vehicle can be guided to the target route with high accuracy, the vehicle can be parked in a narrow space, and the parking space can be saved.

10 自車位置推定装置
12 制御部
12A CPU
12B ROM
12C RAM
12D I/O
12E バス
14 カメラ
16 記憶部
18 表示部
30 建物
50 車両
CP 地図撮影点
FP 特徴点
G 画像
R 路面
S 走行軌跡
SP スタート地点
GP ゴール地点
WS 壁面
X 車両代表点
θf、θ ピッチ角
Δθ 路面勾配差
10 Vehicle position estimation device 12 control unit 12A CPU
12B ROM
12C RAM
12D I / O
12E bus 14 camera 16 memory unit 18 display unit 30 building 50 vehicle CP map shooting point FP feature point G image road surface S travel locus SP start point GP goal point WS wall surface X vehicle representative point θf, θ pitch angle Δθ road slope difference

Claims (8)

所定の走行経路上において撮影手段によって撮影した複数の走行画像と、前記所定の走行経路に沿った複数の位置で前記撮影手段によって撮影された複数の基準画像の各々に関連付けられた前記所定の走行経路に沿った環境における環境特徴点および前記複数の基準画像の撮影時の前記撮影手段の位置および姿勢を含む地図情報と、を照合することによって前記所定の走行経路上における自車の位置および姿勢を推定する自車位置推定装置であって、
前記走行経路の路面勾配差を推定するとともに推定された前記路面勾配差から前記走行画像における前記環境特徴点に対応する対応特徴点の検出範囲を設定する設定手段と、
前記検出範囲で検出された前記対応特徴点に基づいて前記複数の基準画像から前記走行画像と最も近似する基準画像を選択するとともに前記環境特徴点と前記対応特徴点との対応付けに基づいて自車の位置および姿勢を推定する推定手段と、を含む
自車位置推定装置。
The predetermined traveling associated with each of a plurality of traveling images photographed by the photographing means on a predetermined traveling path and a plurality of reference images photographed by the photographing means at a plurality of positions along the predetermined traveling path The position and posture of the vehicle on the predetermined traveling route by collating the environmental feature points in the environment along the route and the map information including the position and posture of the photographing means at the time of photographing the plurality of reference images Vehicle position estimation device for estimating
Setting means for estimating a road surface gradient difference of the traveling route and setting a detection range of a corresponding feature point corresponding to the environmental feature point in the traveling image from the road surface gradient difference estimated;
Based on the corresponding feature points detected in the detection range, a reference image most similar to the traveling image is selected from the plurality of reference images, and the self image is selected based on the correspondence between the environment feature points and the corresponding feature points. An estimation unit for estimating the position and attitude of a vehicle.
前記地図情報には前記環境特徴点の前記地図情報における位置座標が含まれ、
前記推定手段は、対応付けられた前記環境特徴点の位置座標と前記対応特徴点の前記走行画像上の位置とに基づいて前記撮影手段の位置および姿勢を推定するとともに、推定された前記撮影手段の位置および姿勢を自車の代表点に換算して自車の位置および姿勢を推定する
請求項1に記載の自車位置推定装置。
The map information includes position coordinates of the environmental feature point in the map information,
The estimation unit estimates the position and orientation of the imaging unit on the basis of the position coordinates of the environment feature point associated with each other and the position of the corresponding feature point on the traveling image, and the imaging unit estimated The vehicle position estimation apparatus according to claim 1, wherein the vehicle position and posture are estimated by converting the vehicle position and posture into a representative point of the vehicle.
前記地図情報には、前記環境特徴点の各々の特徴を示す特徴量が含まれ、
前記推定手段は、前回対応付けられた特徴点を最も多く含む基準画像を前記最も近似する基準画像として選択するとともに、前記対応特徴点の特徴量と前記最も近似する基準画像の環境特徴点の特徴量とを比較して前記環境特徴点と前記対応特徴点とを対応付ける
請求項2に記載の自車位置推定装置。
The map information includes feature quantities indicating features of each of the environment feature points,
The estimation means selects a reference image including the largest number of previously associated feature points as the closest approximation image, and a feature of the environmental feature points of the approximation closest image to the feature amount of the corresponding feature point. The vehicle position estimation device according to claim 2, wherein the environment feature point and the corresponding feature point are associated by comparing the amount with the amount.
前記撮影手段は、前記撮影手段前方の予め定められた領域を撮影するように自車の予め定められた位置に固定され、
前記設定手段は、前記複数の基準画像から前記予め定められた領域に最も近似する基準画像を選択するとともに選択された基準画像に関連付けられた前記撮影手段の位置および姿勢による路面勾配と前回撮影された走行画像について推定された前記撮影手段の位置および姿勢による路面勾配との差分から前記路面勾配差を推定する
請求項1から請求項3のいずれか1項に記載の自車位置推定装置。
The photographing means is fixed at a predetermined position of the vehicle so as to photograph a predetermined area in front of the photographing means.
The setting means selects a reference image most approximate to the predetermined area from the plurality of reference images, and previously photographed the road surface gradient according to the position and attitude of the photographing means associated with the selected reference image. The vehicle position estimation apparatus according to any one of claims 1 to 3, wherein the road surface gradient difference is estimated from a difference between the road surface gradient and the position and attitude of the photographing means estimated for the traveling image.
前記設定手段は、前記路面勾配差に応じて前記検出範囲を前記走行画像の上下方向に移動させる
請求項1から請求項4のいずれか1項に記載の自車位置推定装置。
The own vehicle position estimation device according to any one of claims 1 to 4, wherein the setting means moves the detection range in the vertical direction of the traveling image according to the road surface gradient difference.
前記設定手段は、前記予め定められた領域と比べて自車位置の路面勾配が大きいほど、前記走行画像上における前記検出範囲の位置をより上部に設定する
請求項5に記載の自車位置推定装置。
The vehicle position estimation method according to claim 5, wherein the setting unit sets the position of the detection range on the traveling image at a higher position as the road surface gradient of the vehicle position is larger than the predetermined region. apparatus.
所定の走行経路上において撮影手段によって撮影した複数の走行画像と、前記所定の走行経路に沿った複数の位置で前記撮影手段によって撮影された複数の基準画像の各々に関連付けられた前記所定の走行経路に沿った環境における環境特徴点および前記複数の基準画像の撮影時の前記撮影手段の位置および姿勢を含む地図情報と、を照合することによって前記所定の走行経路上における自車の位置および姿勢を推定する自車位置推定装置による自車位置推定方法であって、
設定手段により、前記走行経路の路面勾配差を推定するとともに推定された前記路面勾配差から前記走行画像における前記環境特徴点に対応する対応特徴点の検出範囲を設定し、
推定手段により、前記検出範囲で検出された前記対応特徴点に基づいて前記複数の基準画像から前記走行画像と最も近似する基準画像を選択するとともに前記環境特徴点と前記対応特徴点との対応付けに基づいて自車の位置および姿勢を推定する
自車位置推定方法。
The predetermined traveling associated with each of a plurality of traveling images photographed by the photographing means on a predetermined traveling path and a plurality of reference images photographed by the photographing means at a plurality of positions along the predetermined traveling path The position and posture of the vehicle on the predetermined traveling route by collating the environmental feature points in the environment along the route and the map information including the position and posture of the photographing means at the time of photographing the plurality of reference images A vehicle position estimation method using a vehicle position estimation device for estimating
Setting means for estimating a road surface gradient difference of the traveling route and setting a detection range of a corresponding feature point corresponding to the environmental feature point in the traveling image from the road surface gradient difference estimated;
Based on the corresponding feature points detected in the detection range, the estimation means selects a reference image closest to the traveling image from the plurality of reference images, and associates the environment feature points with the corresponding feature points Vehicle position estimation method that estimates the position and attitude of the vehicle based on.
所定の走行経路上において撮影手段によって撮影した複数の走行画像と、前記所定の走行経路に沿った複数の位置で前記撮影手段によって撮影された複数の基準画像の各々に関連付けられた前記所定の走行経路に沿った環境における環境特徴点および前記複数の基準画像の撮影時の前記撮影手段の位置および姿勢を含む地図情報と、を照合することによって前記所定の走行経路上における自車の位置および姿勢を推定する自車位置推定装置を制御するプログラムであって、
コンピュータを
前記走行経路の路面勾配差を推定するとともに推定された前記路面勾配差から前記走行画像における前記環境特徴点に対応する対応特徴点の検出範囲を設定する設定手段と、
前記検出範囲で検出された前記対応特徴点に基づいて前記複数の基準画像から前記走行画像と最も近似する基準画像を選択するとともに前記環境特徴点と前記対応特徴点との対応付けに基づいて自車の位置および姿勢を推定する推定手段と、として機能させる
自車位置推定プログラム。
The predetermined traveling associated with each of a plurality of traveling images photographed by the photographing means on a predetermined traveling path and a plurality of reference images photographed by the photographing means at a plurality of positions along the predetermined traveling path The position and posture of the vehicle on the predetermined traveling route by collating the environmental feature points in the environment along the route and the map information including the position and posture of the photographing means at the time of photographing the plurality of reference images A program for controlling a vehicle position estimation device that estimates
Setting means for estimating the road surface gradient difference of the traveling route on a computer and setting the detection range of the corresponding feature point corresponding to the environmental feature point in the traveling image from the road surface gradient difference estimated;
Based on the corresponding feature points detected in the detection range, a reference image most similar to the traveling image is selected from the plurality of reference images, and the self image is selected based on the correspondence between the environment feature points and the corresponding feature points. A vehicle position estimation program that functions as an estimation unit that estimates the position and attitude of a vehicle.
JP2018005012A 2018-01-16 2018-01-16 Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program Active JP7056840B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018005012A JP7056840B2 (en) 2018-01-16 2018-01-16 Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
US16/248,191 US10949996B2 (en) 2018-01-16 2019-01-15 Self-position estimation apparatus
CN201910035085.XA CN110044256B (en) 2018-01-16 2019-01-15 Self-parking position estimation device
DE102019100885.9A DE102019100885A1 (en) 2018-01-16 2019-01-15 Eigenpositionsabschätzvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018005012A JP7056840B2 (en) 2018-01-16 2018-01-16 Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program

Publications (2)

Publication Number Publication Date
JP2019124573A true JP2019124573A (en) 2019-07-25
JP7056840B2 JP7056840B2 (en) 2022-04-19

Family

ID=67397956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018005012A Active JP7056840B2 (en) 2018-01-16 2018-01-16 Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program

Country Status (1)

Country Link
JP (1) JP7056840B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112129297A (en) * 2020-09-25 2020-12-25 重庆大学 Self-adaptive correction indoor positioning method for multi-sensor information fusion
CN112749577A (en) * 2019-10-29 2021-05-04 北京初速度科技有限公司 Parking space detection method and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038402A1 (en) * 2003-10-21 2005-04-28 Waro Iwane Navigation device
JP2005202761A (en) * 2004-01-16 2005-07-28 Toyota Motor Corp Vehicle surrounding monitoring system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038402A1 (en) * 2003-10-21 2005-04-28 Waro Iwane Navigation device
JP2005202761A (en) * 2004-01-16 2005-07-28 Toyota Motor Corp Vehicle surrounding monitoring system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112749577A (en) * 2019-10-29 2021-05-04 北京初速度科技有限公司 Parking space detection method and device
CN112749577B (en) * 2019-10-29 2023-09-22 北京魔门塔科技有限公司 Parking space detection method and device
CN112129297A (en) * 2020-09-25 2020-12-25 重庆大学 Self-adaptive correction indoor positioning method for multi-sensor information fusion
CN112129297B (en) * 2020-09-25 2024-04-30 重庆大学 Multi-sensor information fusion self-adaptive correction indoor positioning method

Also Published As

Publication number Publication date
JP7056840B2 (en) 2022-04-19

Similar Documents

Publication Publication Date Title
JP7036400B2 (en) Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
CN110044256B (en) Self-parking position estimation device
WO2016035324A1 (en) Method for estimating motion, mobile agent and non-transitory computer-readable medium encoded with a computer program code for causing a processor to execute a method for estimating motion
KR101880185B1 (en) Electronic apparatus for estimating pose of moving object and method thereof
JP2002352225A (en) Obstacle detector and its method
US20180342068A1 (en) Tracking device
KR102006291B1 (en) Method for estimating pose of moving object of electronic apparatus
WO2022078074A1 (en) Method and system for detecting position relation between vehicle and lane line, and storage medium
US10991105B2 (en) Image processing device
US11257177B2 (en) Moving object action registration apparatus, moving object action registration system, and moving object action determination apparatus
JP7067574B2 (en) Distance estimation device and computer program for distance estimation
CN108376384B (en) Method and device for correcting disparity map and storage medium
JP7056840B2 (en) Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
JP2001076128A (en) Device and method for detecting obstacle
JP7482453B2 (en) Positioning device and mobile object
WO2021157123A1 (en) Positioning device and moving body
JP2017211307A (en) Measuring device, measuring method, and program
JP6988873B2 (en) Position estimation device and computer program for position estimation
JP2021017073A (en) Position estimation apparatus
US20220277480A1 (en) Position estimation device, vehicle, position estimation method and position estimation program
CN110570680A (en) Method and system for determining position of object using map information
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment
US11715229B2 (en) Moving body and system
JP6488697B2 (en) Optical flow calculation device, optical flow calculation method, and program
US20210318690A1 (en) Positioning device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220325

R150 Certificate of patent or registration of utility model

Ref document number: 7056840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150