JP6948042B2 - Position estimation device, position detection method and program - Google Patents
Position estimation device, position detection method and program Download PDFInfo
- Publication number
- JP6948042B2 JP6948042B2 JP2020024110A JP2020024110A JP6948042B2 JP 6948042 B2 JP6948042 B2 JP 6948042B2 JP 2020024110 A JP2020024110 A JP 2020024110A JP 2020024110 A JP2020024110 A JP 2020024110A JP 6948042 B2 JP6948042 B2 JP 6948042B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- current
- data
- reference image
- video map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
Description
本発明は、位置推定装置、位置推定方法及びプログラムに関する。 The present invention relates to a position estimation device, a position estimation method and a program.
自動車などの移動体の現在位置を推定するために、GPS(Global Positioning System)が一般的に利用されているものの、GPSでは、地上の干渉物などのために、移動体の現在位置を正確に推定できないことがある。 Although GPS (Global Positioning System) is generally used to estimate the current position of a moving object such as an automobile, GPS accurately positions the current position of the moving object due to interference on the ground. It may not be possible to estimate.
例えば、都市部の高層ビルの谷間では、GPSにより推定される現在位置は、実際の現在位置から大きくずれてしまうことがある。また例えば、トンネル内を移動している場合には、GPSを構成する衛星と移動体との間で通信できず、その結果、移動体の現在位置を推定できなくなることがある。 For example, in the valley of a skyscraper in an urban area, the current position estimated by GPS may deviate significantly from the actual current position. Further, for example, when moving in a tunnel, communication cannot be performed between the satellite constituting the GPS and the moving body, and as a result, the current position of the moving body may not be estimated.
このようなGPSにより推定される現在位置の不正確さを補う技術が提案されている。例えば、特許文献1には、同一地点について、GPS信号に基づいて算出される異時刻の複数の絶対位置を平均化処理することで、GPS信号に基づいて算出される測位位置をより高精度の位置情報に補正することが提案されている。
A technique for compensating for the inaccuracy of the current position estimated by GPS has been proposed. For example, in
しかしながら、特許文献1に記載の技術は、道路周辺の静止物に関する高精度な測位データを収集するためのものである。これにより、例えば、ビルや道路の高精度な位置を収集してマップデータを作ることができたとしても、上述のような特許文献1に記載の技術を、移動体の現在位置を推定するために適用することは困難である。また、作成されたマップデータを基に移動体の現在位置を推定するための技術は、ほとんど見当たらない。
However, the technique described in
本発明は、上記の事情に鑑みてなされたものであって、移動体の現在位置を精度良く推定することが可能な位置推定装置などを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a position estimation device or the like capable of accurately estimating the current position of a moving body.
本発明の第1の観点に係る位置推定装置は、
移動体の前後左右に取り付けられた4つのカメラによって地物が撮影された前方画像、後方画像、左方画像及び右方画像から成る現在画像を含む現在画像データを一定の時間間隔で継続的に取得する現在画像取得部と、
予め撮影することによって得られた地物の前方画像、後方画像、左方画像及び右方画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得する映像マップ取得部と、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定する画像照合部と、
前記特定された現在画像に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定する推定部と、
前記推定された現在位置を含む現在位置データを出力する出力部とを備え、
前記画像照合部は、さらに、前記取得された現在画像データの複数の現在画像の変化を示すベクトルと前記取得された映像マップデータの参照画像の変化を示すベクトルとを照合することによって、両ベクトルの類似度が最も高い参照画像を、前記複数の現在画像の変化に対応する参照画像として特定し、
前記推定部は、さらに、前記特定された複数の現在画像の変化に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記出力部は、さらに、前記推定された移動方向を含む移動方向データを出力する
ことを特徴とする。
The position estimation device according to the first aspect of the present invention is
Four forward side image feature is captured by a camera mounted on the front, rear, left and right of the moving body, the rearward image, continuously the current image data currently contains an image composed of the left image and right image at regular time intervals The current image acquisition unit to be acquired and
An image for acquiring image map data in which a reference image including a front image, a rear image, a left image, and a right image of a feature obtained by taking a picture in advance and a shooting position information of the reference image are associated with each other. Map acquisition department and
An image matching unit that identifies a reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
An estimation unit that estimates the current position of the moving body based on the shooting position information associated with the reference image corresponding to the specified current image in the video map data.
It is provided with an output unit that outputs current position data including the estimated current position .
The image collating unit further collates the vector indicating the change of the plurality of current images of the acquired current image data with the vector indicating the change of the reference image of the acquired video map data, thereby both vectors. The reference image having the highest degree of similarity is identified as the reference image corresponding to the change of the plurality of current images.
The estimation unit further estimates the moving direction of the moving body based on the shooting position information associated with the reference image corresponding to the change of the specified plurality of current images in the video map data.
The output section is further characterized in that you output the moving direction data including the estimated direction of movement.
本発明の第2の観点に係る位置推定方法は、
移動体の前後左右に取り付けられた4つのカメラによって地物が撮影された前方画像、後方画像、左方画像及び右方画像から成る現在画像を含む現在画像データを一定の時間間隔で継続的に取得することと、
予め撮影することによって得られた地物の前方画像、後方画像、左方画像及び右方画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得することと、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定することと、
前記特定された現在画像に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定することと、
前記推定された現在位置を含む現在位置データを出力することとを含むみ、
前記参照画像を特定することでは、さらに、前記取得された現在画像データの複数の現在画像の変化を示すベクトルと前記取得された映像マップデータの参照画像の変化を示すベクトルとを照合することによって、両ベクトルの類似度が最も高い参照画像を、前記複数の現在画像の変化に対応する参照画像として特定し、
前記移動体の現在位置を推定することでは、さらに、前記特定された複数の現在画像の変化に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記現在位置データを出力することでは、さらに、前記推定された移動方向を含む移動方向データを出力する
ことを特徴とする。
The position estimation method according to the second aspect of the present invention is
Four forward side image feature is captured by a camera mounted on the front, rear, left and right of the moving body, the rearward image, continuously the current image data currently contains an image composed of the left image and right image at regular time intervals To get and
Acquiring video map data in which a reference image including a front image, a rear image, a left image, and a right image of a feature obtained by shooting in advance and a shooting position information of the reference image are associated with each other. When,
Identifying the reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
To estimate the current position of the moving body based on the shooting position information associated with the reference image corresponding to the specified current image in the video map data.
Only containing and outputting a current position data including the estimated current position,
In specifying the reference image, further, by collating the vector showing the change of the plurality of current images of the acquired current image data with the vector showing the change of the reference image of the acquired video map data. , The reference image having the highest similarity between the two vectors is specified as the reference image corresponding to the change of the plurality of current images.
In estimating the current position of the moving body, the moving body is further based on the shooting position information associated with the reference image corresponding to the change of the specified plurality of current images in the video map data. Estimate the direction of movement,
The output of the current position data is further characterized in that the movement direction data including the estimated movement direction is output.
本発明の第3の観点に係るプログラムは、
コンピュータを、
移動体の前後左右に取り付けられた4つのカメラによって地物が撮影された前方画像、後方画像、左方画像及び右方画像から成る現在画像を含む現在画像データを一定の時間間隔で継続的に取得する現在画像取得部、
予め撮影することによって得られた地物の前方画像、後方画像、左方画像及び右方画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得する映像マップ取得部、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定する画像照合部、
前記特定された現在画像に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定する推定部、
前記推定された現在位置を含む現在位置データを出力する出力部、として機能させ、
前記画像照合部は、さらに、前記取得された現在画像データの複数の現在画像の変化を示すベクトルと前記取得された映像マップデータの参照画像の変化を示すベクトルとを照合することによって、両ベクトルの類似度が最も高い参照画像を、前記複数の現在画像の変化に対応する参照画像として特定し、
前記推定部は、さらに、前記特定された複数の現在画像の変化に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記出力部は、さらに、前記推定された移動方向を含む移動方向データを出力するように機能させるためのプログラムである。
The program according to the third aspect of the present invention
Computer,
Four forward side image feature is captured by a camera mounted on the front, rear, left and right of the moving body, the rearward image, continuously the current image data currently contains an image composed of the left image and right image at regular time intervals Current image acquisition department to acquire,
An image for acquiring image map data in which a reference image including a front image, a rear image, a left image, and a right image of a feature obtained by taking a picture in advance and a shooting position information of the reference image are associated with each other. Map acquisition department,
An image matching unit that identifies a reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
An estimation unit that estimates the current position of the moving body based on the shooting position information associated with the reference image corresponding to the specified current image in the video map data.
It functions as an output unit that outputs the current position data including the estimated current position.
The image collating unit further collates the vector indicating the change of the plurality of current images of the acquired current image data with the vector indicating the change of the reference image of the acquired video map data, thereby both vectors. The reference image having the highest degree of similarity is identified as the reference image corresponding to the change of the plurality of current images.
The estimation unit further estimates the moving direction of the moving body based on the shooting position information associated with the reference image corresponding to the change of the specified plurality of current images in the video map data.
The output unit is a program for further functioning to output movement direction data including the estimated movement direction.
本発明によれば、移動体の現在位置を精度良く推定することが可能になる。 According to the present invention, it is possible to accurately estimate the current position of the moving body.
本発明の実施の形態について図面を参照して説明する。 Embodiments of the present invention will be described with reference to the drawings.
(実施の形態1)
本発明の実施の形態1に係る位置推定装置100は、移動体の現在位置を推定する装置であって、自動車に搭載される。自動車は、移動体に含まれる車両の一例であって、移動体は、地上を移動する物としての車両、人などを含む。
(Embodiment 1)
The
本実施の形態に係る位置推定装置100は、機能的には図1に示すように、4つのカメラ101a〜101dと、現在画像取得部102と、概略位置取得部103と、映像マップ記憶部104と、映像マップ取得部105と、画像照合部106と、推定部107と、出力部108とを備える。
Functionally, as shown in FIG. 1, the
カメラ101a〜101dは、地物を撮影するために、それぞれ、自動車の前後左右に取り付けられる。ここで、地物の例として、建物、道路、道路標識などを挙げることができる。
The
また、カメラ101a〜101dの各々は、撮影した現在の画像(現在画像)を示す現在画像データを一定の間隔で継続的に出力する。なお、カメラ101a〜101dの各々が現在画像データを出力するタイミングは、適宜予め定められればよく、同期していることが好ましい。
Further, each of the
詳細には、カメラ101aは、自動車の前部に固定され、自動車の前方の予め定められた範囲の地物を撮影して、現在画像データを一定の間隔で継続的に出力する。カメラ101bは、自動車の後部に固定され、自動車の後方の予め定められた範囲の地物を撮影して、現在画像データを一定の間隔で継続的に出力する。カメラ101cは、自動車の左側部に固定され、自動車の左方の予め定められた範囲の地物を撮影して、現在画像データを一定の間隔で継続的に出力する。カメラ101dは、自動車の右側部に固定され、自動車の右方の予め定められた範囲の地物を撮影して、現在画像データを一定の間隔で継続的に出力する。
Specifically, the
以下では、カメラ101a〜101dの各々を特に区別しない場合、カメラ101a〜101dをカメラ101と表記する。なお、本実施の形態では、4つのカメラ101が備えられる例により説明する。
In the following, unless each of the
現在画像取得部102は、カメラ101の各々から現在画像データが出力されると、その出力された現在画像データを取得する。
When the current image data is output from each of the
概略位置取得部103は、概略位置を示す概略位置データを取得する。概略位置は、GPS(Global Positioning System)によって推定された自動車の現在位置である。本実施の形態に係る概略位置取得部103が取得する概略位置データは、衛星との間で信号を送受信することで推定された、自動車の現在位置を示す。
The approximate
映像マップ記憶部104は、映像マップデータ109が格納される記憶部である。
The video
映像マップデータ109は、例えば、一般的な地図に表される情報を含む地図データ109aと、予め定められた地点で撮影された地物の画像を含む映像データ109bとを含む。
The
地図データ109aは、図2に例示するように、予め定められた地物であるランドマーク(道路沿いの比較的大きな建物、施設など)及び道路に関するデータを含む。地図データ109aでは、各々を識別するための識別情報と各々の位置情報とが関連付けられている。
As illustrated in FIG. 2, the
ランドマーク及び道路の位置情報は、例えば図2に示すように、それぞれが占める領域に含まれる特徴点の位置を示す。特徴点の位置は、例えば緯度と経度により表される。 The location information of the landmark and the road indicates the position of the feature point included in the area occupied by each, as shown in FIG. 2, for example. The position of the feature point is represented by, for example, latitude and longitude.
ランドマークに含まれる特徴点は、例えば、ランドマークが占める領域の外縁を直線で近似的に結んだ場合に角となる点である。また、道路に含まれる特徴点は、例えば、道路の各側部を直線で近似的に結んだ場合に角となる点である。 The feature points included in the landmark are, for example, points that become corners when the outer edges of the area occupied by the landmark are approximately connected by a straight line. Further, the feature points included in the road are, for example, points that become corners when each side portion of the road is approximately connected by a straight line.
映像データ109bは、例えば、全周囲カメラを有した車両又は人が、道路上などを実際に移動することにより収集されるデータである。
The
映像データ109bは、図3に示すように、予め定められた地点(撮影位置)で撮影することによって得られた地物の画像を含む参照画像と、この参照画像の撮影位置情報と、が関連付けられている。
As shown in FIG. 3, the
詳細には、図3の例において、Nは任意の自然数であり、撮影位置で撮影された前後左右の各方向の画像と、その撮影位置を示す撮影位置情報と、が関連付けられている。撮影位置Nは、例えば上述の特徴点の位置と同様に、緯度と経度で表される。そして、撮影位置Nには、撮影位置Nが示す地点から、前方、後方、左方、右方のそれぞれを撮影した、前方画像N、後方画像N、左方画像N、右方画像Nが関連付けられている。ここでの前後は、道路などに沿って予め定められる方向であり、左右は、前後に応じて定まる方向である。 Specifically, in the example of FIG. 3, N is an arbitrary natural number, and images in the front, back, left, and right directions taken at the shooting position are associated with shooting position information indicating the shooting position. The shooting position N is represented by latitude and longitude, as in the case of the above-mentioned feature point positions, for example. Then, the front image N, the rear image N, the left image N, and the right image N, which are the front, rear, left, and right images taken from the points indicated by the shooting positions N, are associated with the shooting position N. Has been done. Here, the front and back are directions that are predetermined along the road, and the left and right are directions that are determined according to the front and back.
映像マップ取得部105は、映像マップデータ109を映像マップ記憶部104から取得する。
The video
本実施の形態に係る映像マップ取得部105は、概略位置取得部103によって取得された概略位置データが示す概略位置に基づいて絞り込んだ映像マップデータを取得する。詳細には、映像マップ取得部105は、その概略位置データが示す概略位置に対して予め定められた範囲の撮影位置で撮影された参照画像を含む映像マップデータを取得する。
The video
画像照合部106は、現在画像と参照画像とを照合することによって、現在画像に対応する参照画像を特定する。照合のための現在画像は、現在画像取得部102により取得された現在画像データに含まれる現在画像である。照合のための参照画像は、映像マップ取得部105により取得された映像マップデータに含まれる参照画像である。
The
本実施の形態に係る画像照合部106は、さらに、複数の現在画像の変化と参照画像とを照合することによって、複数の現在画像の変化に対応する参照画像を特定する。照合のための複数の現在画像の変化は、現在画像取得部102により取得された現在画像データに含まれる複数の現在画像の変化であって、現在画像取得部102により取得された現在画像データに含まれる複数の現在画像に基づいて、検出される。照合のための参照画像は、上述と同様に、映像マップ取得部105により取得された映像マップデータに含まれる参照画像である。
推定部107は、画像照合部106によって特定された参照画像に基づいて、自動車の現在位置を推定する。詳細には、推定部107は、その特定された参照画像に映像マップデータ109にて関連付けられた撮影位置情報に基づいて、自動車の現在位置を推定する。
The
本実施の形態に係る推定部107は、さらに、その特定された参照画像に映像マップデータ109にて関連付けられた撮影位置情報に基づいて、自動車の移動方向を推定する。
The
本実施の形態に係る推定部107は、さらに、映像マップデータ109と、現在画像データとに基づいて、自動車の周辺に位置するランドマークと、自動車が移動中の道路とを推定する。この推定に利用される映像マップデータ109と現在画像データとは、それぞれ、映像マップ取得部105と現在画像取得部102とによって取得されたデータである。
The
出力部108は、推定部107によって推定された現在位置を含む現在位置データを出力する。
The
本実施の形態に係る出力部108は、さらに、推定部107によって推定された移動方向を含む移動方向データを出力する。
The
本実施の形態に係る出力部108は、さらに、推定部107によって推定された移動中の道路を示す移動中道路データを出力する。
The
これまで、本発明の実施の形態1に係る位置推定装置100の構成について説明した。ここから、本発明の実施の形態1に係る位置推定装置100の動作について説明する。
So far, the configuration of the
位置推定装置100は、例えば自動車の電源が投入されると、図4に例示する位置推定処理を開始する。位置推定処理は、自動車の現在位置を推定する処理である。
The
現在画像取得部102は、各カメラ101から現在画像データを取得する(ステップS101)。
The current
現在画像データは、図5に示すように、一定の時間間隔で継続的に取得される。同図に示す例では、現在画像データは、撮影時刻を示す撮影時刻情報と、各撮影時刻に各カメラ101で撮影された画像とを含む。例えば、時刻T1を示す撮影時刻情報は、時刻T1に撮影された画像である前方画像T1、後方画像T1、左方画像T1及び右方画像T1が関連付けられている。時刻T1は、例えば、予め定められた基準時から現在までの経過時間を100分の1秒単位で表した値である。
Currently, image data is continuously acquired at regular time intervals, as shown in FIG. In the example shown in the figure, the current image data includes shooting time information indicating a shooting time and an image shot by each
概略位置取得部103は、概略位置データを取得する(ステップS102)。
The approximate
映像マップ取得部105は、ステップS102にて取得された概略位置データを参照して、映像マップデータ109を映像マップ記憶部104から取得する(ステップS103)。
The video
詳細には、映像マップ取得部105は、概略位置取得部103によって取得された概略位置データを参照する。映像マップ取得部105は、参照した概略位置データが示す概略位置に対して予め定められた範囲を特定する。概略位置に対して予め定められた範囲とは、例えば、概略位置を中心に数キロメートルの範囲である。映像マップ取得部105は、特定した範囲内の地点を撮影位置として撮影された参照画像を含む映像マップデータを取得する。このような処理により、映像マップ取得部105は、映像マップ記憶部104から取得する映像マップデータ109を概略位置データに基づいて絞り込む。
Specifically, the video
画像照合部106、推定部107及び出力部108は、現在画像データと映像マップデータ109とに基づいて、自動車の現在位置を推定する(ステップS104)。
The
現在位置推定処理(ステップS104)の詳細な流れを図6に示す。 The detailed flow of the current position estimation process (step S104) is shown in FIG.
図6に示すように、画像照合部106は、ステップ101にて取得された現在画像データと、ステップ103にて取得された映像マップデータ109とに基づいて、現在画像に対応する参照画像を特定する(ステップS111)。
As shown in FIG. 6, the
詳細には、画像照合部106は、ステップS101にて取得された現在画像データを参照する。また、画像照合部106は、ステップS103で取得された映像マップデータ109に含まれる映像データ109bを参照する。そして、画像照合部106は、現在画像データに含まれる現在画像と、映像データ109bに含まれる参照画像とを照合することによって、現在画像に対応する参照画像を特定する。
Specifically, the
ここで、現在画像に対応する参照画像を特定するための照合では、例えば、現在画像と参照画像との各画像にて地物の輪郭を検出し、その輪郭の類似度が差出される。地物の輪郭は、一般的な画像中のエッジ検出の技術が採用されてよく、例えば、画像中のRGB値の変化などに基づいて検出される。そして、例えば、類似度が最も大きい参照画像が、現在画像に対応する参照画像として特定される。 Here, in the collation for specifying the reference image corresponding to the current image, for example, the contour of the feature is detected in each image of the current image and the reference image, and the similarity of the contour is sent out. The contour of the feature may employ a general technique of edge detection in an image, and is detected based on, for example, a change in RGB values in the image. Then, for example, the reference image having the highest similarity is specified as the reference image corresponding to the current image.
推定部107は、ステップS111にて特定された参照画像に映像マップデータ109において関連付けられた撮影位置情報に基づいて、自動車の現在位置を推定する(ステップS112)。
The
出力部108は、ステップS112にて推定された現在位置を含む現在位置データを出力し(ステップS113)、図4に示す位置推定処理に戻る。
The
推定部107及び出力部108は、図4に示すように、現在画像データと映像マップデータ109とに基づいて、自動車が移動中の道路を推定する(ステップS105)。
As shown in FIG. 4, the
移動道路推定処理(ステップS105)の詳細な流れを図7に示す。 The detailed flow of the moving road estimation process (step S105) is shown in FIG.
図7に示すように、推定部107は、ステップS101にて取得された現在画像データと、ステップS103にて取得された映像マップデータ109とに基づいて、周辺に位置するランドマークと、移動中の道路とを推定する(ステップS121)。
As shown in FIG. 7, the
詳細には、推定部107は、現在画像データと映像マップデータ109とに基づいてステップS104にて推定された、自動車の現在位置を参照する。ここで、参照される自動車の現在位置は、ステップS102にて取得された概略位置データが示す概略位置であってもよい。
Specifically, the
推定部107は、ステップS103で取得された映像マップデータ109に含まれる地図データ109aに基づいて、参照した現在位置の周辺に位置するランドマークを推定する。推定部107は、地図データ109aを参照することによって、推定したランドマークの位置情報を取得する。推定部107は、この取得した位置情報と地図データ109aとに基づいて、推定したランドマークの周辺に位置する道路を、自動車が走行中の道路として推定する。
The
出力部108は、推定部107によって推定された移動中の道路を示す移動中道路データを出力し(ステップS122)、図4に示す位置推定処理に戻る。移動中道路データにおいて、自動車が移動中の道路は、例えば、地図データ109aに含まれる道路の識別情報により示される。この場合、移動中道路データは、推定された移動中の道路の識別情報を含む。
The
画像照合部106、推定部107及び出力部108は、図4に示すように、現在画像データと映像マップデータ109とに基づいて、自動車の移動方向を推定する(ステップS106)。
As shown in FIG. 4, the
移動方向推定処理(ステップS106)の詳細な流れを図8に示す。 The detailed flow of the moving direction estimation process (step S106) is shown in FIG.
図8に示すように、画像照合部106は、ステップ101にて取得された現在画像データと、ステップ103にて取得された映像マップデータ109とに基づいて、複数の現在画像の変化に対応する参照画像を特定する(ステップS131)。
As shown in FIG. 8, the
詳細には、画像照合部106は、ステップS101にて連続して取得された現在画像データを参照する。また、画像照合部106は、ステップS103で取得された映像マップデータ109に含まれる映像データ109bを参照する。そして、画像照合部106は、現在画像データに含まれる複数の現在画像の変化と、映像データ109bに含まれる参照画像とを照合することによって、複数の現在画像の変化に対応する参照画像を特定する。
Specifically, the
ここで、複数の現在画像の変化は、一般的に、ある道路を一定の方向に移動している場合、一定になることが多い。そのため、複数の現在画像の変化に対応する参照画像を特定するための照合において、複数の現在画像の変化は、ベクトル化することによって定量的に表現できる。そこで、複数の現在画像の変化に対応する参照画像は、例えば、複数の現在画像の変化を示すベクトルと、ステップS105にて推定された移動中の道路沿いの参照画像の変化を示すベクトルとを比較し、両ベクトルの類似度が最も高い参照画像が、複数の現在画像の変化に対応する参照画像として特定される。 Here, the changes in the plurality of current images are generally constant when moving in a certain direction on a certain road. Therefore, in the matching to identify the reference image corresponding to the change of the plurality of current images, the change of the plurality of current images can quantitatively expressed by vectorization. Therefore, the reference image corresponding to the change of the plurality of current images includes, for example, a vector indicating the change of the plurality of current images and a vector indicating the change of the reference image along the moving road estimated in step S105. By comparison, the reference image having the highest similarity between the two vectors is identified as the reference image corresponding to the changes in the plurality of current images.
推定部107は、ステップS131にて特定された参照画像に映像マップデータ109において関連付けられた撮影位置情報に基づいて、自動車の移動方向を推定する(ステップS132)。
The
出力部108は、ステップS132にて推定された移動方向を含む移動方向データを出力し(ステップS133)、図4に示す位置推定処理に戻る。そして、出力部108は、位置推定処理を終了させる。
The
これまで、本発明の実施の形態1について説明した。
So far,
本実施の形態によれば、予め撮影された参照画像のうちから、自動車に取り付けられたカメラにより撮影された現在画像に対応する参照画像を特定する。そして、特定された参照画像の撮影位置に基づいて、自動車の現在位置を推定する。 According to the present embodiment, the reference image corresponding to the current image taken by the camera attached to the automobile is specified from the reference images taken in advance. Then, the current position of the automobile is estimated based on the shooting position of the specified reference image.
このように、GPSのような信号波を用いずに自動車の移動位置を推定することができるので、地上の干渉物などの影響をあまり受けることなく、移動体の現在位置を推定することができる。従って、移動体の現在位置を精度良く推定することが可能になる。 In this way, since the moving position of the automobile can be estimated without using a signal wave such as GPS, the current position of the moving body can be estimated without being affected by interferences on the ground. .. Therefore, it is possible to accurately estimate the current position of the moving body.
本実施の形態によれば、予め撮影された参照画像のうちから、移動体に取り付けられたカメラにより撮影された複数の現在画像の変化に対応する参照画像を特定する。そして、特定された参照画像の撮影位置に基づいて、自動車の移動方向を推定する。 According to the present embodiment, from among the reference images taken in advance, the reference image corresponding to the change of a plurality of current images taken by the camera attached to the moving body is specified. Then, the moving direction of the automobile is estimated based on the shooting position of the specified reference image.
このように、GPSのような信号波を用いずに自動車の移動位置を推定することができるので、地上の干渉物などの影響をあまり受けることなく、移動体の移動方向を推定することができる。従って、移動体の移動方向を精度良く推定することが可能になる。 In this way, since the moving position of the automobile can be estimated without using a signal wave such as GPS, the moving direction of the moving body can be estimated without being affected by the interference on the ground. .. Therefore, it is possible to accurately estimate the moving direction of the moving body.
本実施の形態では、ランドマークには、予め定められた地物が採用され、そのランドマークに関する情報を基に、移動中の自動車の周辺のランドマークが推定されて、自動車が移動中の道路が推定される。そのため、例えば道路沿いの比較的大きな建物、施設など、位置が明確な地物をランドマークに採用して、そのランドマークの位置から移動中の道路を正確に特定することが可能になる。 In the present embodiment, a predetermined feature is adopted as the landmark, and the landmark around the moving vehicle is estimated based on the information about the landmark, and the road on which the vehicle is moving is estimated. Is estimated. Therefore, it is possible to adopt a feature with a clear position as a landmark, such as a relatively large building or facility along the road, and accurately identify the moving road from the position of the landmark.
本実施の形態では、前後左右という異なる方向を向いたカメラ101が設けられ、各カメラ101によって撮影された現在画像に基づいて、現在位置などが推定される。これにより、一方向のみの現在画像に基づいて、現在位置などを推定する場合よりも、推定の精度を良くすることが可能になる。
In the present embodiment,
本実施の形態では、概略位置取得部103を備える。これにより、映像マップ記憶部104から取得する映像マップデータ109を絞り込み、映像マップ記憶部104から取得するデータ量を低減することができる。これにより、照合などの処理において処理時間の短縮及び処理負荷の軽減を図ることが可能になる。
In the present embodiment, the approximate
(変形例)
実施の形態1では、位置推定装置100が映像マップ記憶部104を備え、映像マップ取得部105が、映像マップデータ109を映像マップ記憶部104から取得する例を説明した。しかし、位置推定装置200は、図9に示すように、映像マップ記憶部104を備えなくてもよい。この場合、映像マップ取得部205は、例えば、図示しないサーバ装置からネットワークを介して映像マップデータ109を取得する。このネットワークは、有線回線、無線回線、又は、これらを組み合わせた回線によって構築される。
(Modification example)
In the first embodiment, an example in which the
実施の形態1では、位置推定装置100は、映像マップデータ109のデータ量に応じた記憶容量を有する映像マップ記憶部104を備える必要がある。そのため、映像マップデータ109のデータ量が大きい場合、映像マップ記憶部104の大型化し、高コスト化することがある。本変形例では、位置推定装置200は、映像マップ記憶部104を備えなくてもよいので、位置推定装置200の小型化や低コスト化を図ることが可能になる。
In the first embodiment, the
(実施の形態2)
実施の形態1では、移動体としての自動車の現在位置が、現在画像データと映像マップデータ109とに基づいて推定される例を説明した。実施の形態2では、移動体としての自動車の現在位置が、自律航法によっても推定される。そして、実施の形態2に係る位置推定装置は。現在画像と参照画像とに基づいて推定された現在位置と、自律航法によって推定された現在位置のうち、より確からしい現在位置を選択して出力する。
(Embodiment 2)
In the first embodiment, an example in which the current position of the automobile as a moving body is estimated based on the current image data and the
本発明の実施の形態2に係る位置推定装置300は、機能的には図10に示すように、実施の形態1に係る位置推定装置100が備える構成に加えて、自律航法部310を備える。また、位置推定装置300は、実施の形態1に係る位置推定装置100が備える推定部107及び出力部108に代わる、推定部307及び出力部308を備える。その他の点について、位置推定装置300の構成は、実施の形態1に係る位置推定装置100と概ね同様である。
As shown in FIG. 10, the
自律航法部310は、概略位置取得部が概略位置データを取得できない場合に、自律航法によって自動車の現在位置を推定する。また、自律航法部310は、第1の確証度を求める。第1の確証度は、自律航法によって推定した現在位置の確からしさを示す値である。
The
概略位置取得部103が概略位置データを取得できない場合としては、例えば、自動車がトンネルを走行中である場合、電波障害のために衛星との間でGPS信号を送受信できない場合などを挙げることができる。
Examples of cases where the approximate
推定部307は、実施の形態1に係る推定部107と同様の機能に加えて、第2の確証度を求める。第2の確証度は、映像マップデータ109に基づいて推定した現在位置の確からしさを示す値である。
The
出力部308は、実施の形態1に係る推定部107と同様の機能を備える。
The
本実施の形態に係る出力部308は、さらに、第1の確証度と第2の確証度とを比較し、比較した結果に基づいて、より確からしい現在位置を選択し、選択した現在位置を含む現在位置データを出力する。ここでの現在位置の選択は、自律航法によって推定された現在位置と映像マップデータ109に基づいて推定された現在位置とのうちから行われる。
The
すなわち、出力部308は、第1の確証度と第2の確証度とを比較することによって、自律航法によって推定された現在位置と、映像マップデータ109に基づいて推定された現在位置と、のうち、より確からしい方の、推定された現在位置を含む現在位置データを出力する。
That is, the
これまで、本発明の実施の形態2に係る位置推定装置300の構成について説明した。ここから、本発明の実施の形態2に係る位置推定装置300の動作について説明する。
So far, the configuration of the
本実施の形態に係る位置推定装置300は、図11に例示する位置推定処理を実行する。同図は、本実施の形態に係る位置推定処理のうち、実施の形態1に係る位置推定処理(図4参照)と異なる部分の流れを示す。
The
ステップS101の処理が実行されると、概略位置取得部103は、概略位置データを取得したか否かを判定する(ステップS302)。
When the process of step S101 is executed, the approximate
予め定められた判定時間内に概略位置データを取得した場合、概略位置取得部103は、概略位置データを取得したと判定する(ステップS302;YES)。概略位置データを取得したと判定された場合(ステップS302;YES)、映像マップ取得部105は、実施の形態1と同様のステップS103の処理を実行する。そして、画像照合部106、推定部107及び出力部108は、実施の形態1と同様のステップS104の処理を実行する。
When the approximate position data is acquired within the predetermined determination time, the approximate
予め定められた判定時間内に概略位置データを取得できなかった場合、概略位置取得部103は、概略位置データを取得していないと判定する(ステップS302;NO)。
If the approximate position data cannot be acquired within the predetermined determination time, the approximate
概略位置データを取得していないと判定された場合(ステップS302;NO)、自律航法部310は、自律航法によって自動車の現在位置を推定する(ステップS341)。
When it is determined that the approximate position data has not been acquired (step S302; NO), the
詳細には例えば、自律航法部310は、車速パルス生成回路、ジャイロセンサー、加速度センサーのそれぞれから車速、加速方向、加速度の大きさを示す信号を取得する。自律航法部310は、取得した信号と、直近に推定した現在位置とに基づいて、自動車の現在位置を推定する。
Specifically, for example, the
自律航法部310は、自律航法部310は、第1の確証度を求める(ステップS342)。第1の確証度は、例えば各種信号を取得できた時間に応じて算出される。
The
映像マップ取得部105は、映像マップデータ109を映像マップ記憶部104から取得する(ステップS343)。ここで取得する映像マップデータ109は、例えば直近に推定された現在位置から予め定められた範囲である。ここでの範囲は、移動体が移動していることを考慮して、概略位置データに基づいて絞り込む場合よりも広い範囲が設定されるとよい。
The video
画像照合部106と推定部307と出力部308とは、現在画像データと映像マップデータ109とに基づいて、自動車の現在位置を推定する(ステップS344)。
The
現在位置推定処理(ステップS344)の詳細な流れを図12に示す。 The detailed flow of the current position estimation process (step S344) is shown in FIG.
図12に示すように、画像照合部106は、実施の形態1と同様のステップS111の処理を実行する。推定部307は、実施の形態1と同様のステップS112の処理を実行する。
As shown in FIG. 12, the
推定部307は、第2の確証度を求める(ステップS351)。詳細には例えば、ステップS111にて特定された参照画像に対応する類似度に応じて算出される。
The
出力部308は、ステップS342とステップS351とのそれぞれで求められた第1の確証度と第2の確証度とを比較する(ステップS352)。
The
出力部308は、ステップS352での比較の結果に基づいて、ステップS341及びステップS112(ステップS344に含まれるもの)にて推定された現在位置のうち、より確からしい方の現在位置を選択する。そして、出力部308は、選択した現在位置を含む現在位置データを出力する(ステップS353)。
詳細には、例えば、確証度が大きい方に対応する現在位置が選択される。すなわち、第1の確証度が第2の確証度よりも大きい場合、自律航法によって推定された現在位置が選択される。第2の確証度が第1の確証度よりも大きい場合、現在画像データと映像マップデータ109とに基づいて推定された現在位置が選択される。
The
In detail, for example, the current position corresponding to the one with the higher degree of certainty is selected. That is, when the first degree of certainty is greater than the second degree of certainty, the current position estimated by autonomous navigation is selected. When the second confirmation degree is larger than the first confirmation degree, the current position estimated based on the current image data and the
第1の確証度と第2の確証度とが等しい場合、例えば、予め定められた一方の現在位置が選択される。 If the first degree of certainty and the second degree of certainty are equal, for example, one of the predetermined current positions is selected.
ステップS104又はステップS344の処理が終わると、実施の形態1と同様のステップS105の処理が実行される。 When the process of step S104 or step S344 is completed, the process of step S105 similar to that of the first embodiment is executed.
これまで、本発明の実施の形態2について説明した。 So far, the second embodiment of the present invention has been described.
本実施の形態によれば、GPSにより推定された現在位置(概略位置)を取得できない場合に、現在画像及び参照画像の照合と、自律航法との異なる方法で現在位置を推定する。そして、それぞれの確証度に基づいて、より確からしい、すなわち精度が良いと推定される現在位置を選択して出力する。 According to the present embodiment, when the current position (approximate position) estimated by GPS cannot be obtained, the current position is estimated by a method different from the collation of the current image and the reference image and the autonomous navigation. Then, based on each degree of certainty, the current position, which is more probable, that is, estimated to have good accuracy, is selected and output.
概略位置を取得できない場合、現在画像と照合する参照画像を適切に絞り込めず、その結果、現在画像及び参照画像の照合による現在位置の推定の精度が低下するおそれがある。本実施の形態では、概略位置を取得できない場合には、上述のように、異なる方法で現在位置を推定して、より確からしい現在位置を選択して出力する。そのため、概略位置を取得できない場合に、現在位置の推定精度が低下することを抑制することが可能になる。 If the approximate position cannot be obtained, the reference image to be collated with the current image cannot be appropriately narrowed down, and as a result, the accuracy of estimating the current position by collating the current image and the reference image may decrease. In the present embodiment, when the approximate position cannot be obtained, the current position is estimated by a different method as described above, and a more probable current position is selected and output. Therefore, it is possible to suppress a decrease in the estimation accuracy of the current position when the approximate position cannot be obtained.
ここで、これまで説明した位置推定装置100,200,300の物理的な構成の例を、図13に示す。同図に示すように、位置推定装置100,200,300は、カメラ101a〜101dと、処理ユニット1001とを備え、これらが、自動車1002に搭載されている。カメラ101a〜101dのそれぞれと処理ユニット1001との間は、同図に示すように、配線1003a〜1003dにより接続される。なお、カメラ101a〜101dのそれぞれと処理ユニット1001との間は、現在画像データを授受できるように構成されればよく、有線に限られず、無線で接続されてもよい。
Here, an example of the physical configuration of the
処理ユニット1001は、CPU(Cntral Processing Unit)1004、RAM(Random Access Memory)1005、ROM(Read Only Memory)1006、フラッシュメモリ1007、通信I/F(インタフェース)1008、GPSI/F(GPSインタフェース)1009、コネクタ1110などから構成される。処理ユニット1001内の各部1004〜1110は、内部バス1111で接続されて、データを送受信することができる。
The
通信I/F(インタフェース)1008は、携帯電話通信網、無線LAN(Local Area Network)などを介して通信するためのインタフェースである。GPSI/F(GPSインタフェース)1009は、GPSの衛星と通信し、自動車の概略位置を取得するためのインタフェースである。コネクタ1110は、配線1003a〜1003dが接続される部材である。
The communication I / F (interface) 1008 is an interface for communicating via a mobile phone communication network, a wireless LAN (Local Area Network), or the like. The GPS I / F (GPS interface) 1009 is an interface for communicating with GPS satellites and acquiring the approximate position of an automobile. The
位置推定装置100,200,300が備える各機能は、例えば、CPU1004が予め処理ユニット1001にインストールされたソフトウェア・プログラム(単に、「プログラム」ともいう。)を、RAM1005をワークスペースとして実行することによって、処理ユニット1001全体で実現される。
Each function of the
詳細には例えば、現在画像取得部102、概略位置取得部103、映像マップ取得部105,205、画像照合部106、推定部107,307、出力部108,308、自律航法部310の機能は、上述のようにプログラムを実行するCPU1004により実現される。また例えば、映像マップ記憶部104の機能は、フラッシュメモリ1007により実現される。
Specifically, for example, the functions of the current
なお、実施の形態2に係る位置推定装置300では、自律航法部310が現在位置の推定に用いる信号を得るために、図示しない車両の車速パルス生成回路、ジャイロセンサー、加速度センサーなどが自動車にさらに搭載される。
In the
以上、本発明の実施の形態及び変形例について説明したが、本発明は、これらに限られない。例えば、本発明は、これまで説明した実施の形態及び変形例の一部又は全部を適宜組み合わせた形態、その形態に適宜変更を加えた形態をも含む。 Although the embodiments and modifications of the present invention have been described above, the present invention is not limited thereto. For example, the present invention also includes a form in which a part or all of the embodiments and modifications described above are appropriately combined, and a form in which the form is appropriately modified.
上記の実施の形態の一部又は全部は、以下の付記のようにも記載され得るが以下には限られない。
(付記1)
移動体に取り付けられたカメラによって地物が撮影された現在画像を含む現在画像データを取得する現在画像取得部と、
予め撮影することによって得られた地物の画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得する映像マップ取得部と、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定する画像照合部と、
前記特定された参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定する推定部と、
前記推定された現在位置を含む現在位置データを出力する出力部とを備える
ことを特徴とする位置推定装置。
(付記2)
前記画像照合部は、さらに、前記取得された現在画像データの現在画像の変化と前記取得された映像マップデータの参照画像とを照合することによって現在画像の変化に対応する参照画像を特定し、
前記推定部は、さらに、前記特定された参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記出力部は、さらに、前記推定された移動方向を含む移動方向データを出力する
ことを特徴とする付記1に記載の位置推定装置。
(付記3)
前記映像マップデータは、予め定められた地物であるランドマーク及び道路に関する位置情報をさらに含み、
前記推定部は、さらに、前記取得された映像マップデータと前記取得された現在画像データとに基づいて、前記移動体の周辺に位置するランドマークと、前記移動体が移動中の道路とを推定し、
前記出力部は、さらに、前記推定された移動中の道路を示す移動中道路データを出力する
ことを特徴とする付記1又は2に記載の位置推定装置。
(付記4)
前記移動体は、車両であり、
前記現在画像取得部は、移動体の前後左右の各々に取り付けられたカメラによって地物が撮影された現在画像を含む現在画像データを取得する
ことを特徴とする付記1から3のいずれか1つに記載の位置推定装置。
(付記5)
GPSによって推定された前記移動体の現在位置である概略位置を示す概略位置データを取得する概略位置取得部をさらに備え、
前記映像マップ取得部は、前記取得された概略位置データが示す概略位置に対して予め定められた範囲の参照画像を含む映像マップデータを取得する
ことを特徴とする付記1から4のいずれか1つに記載の位置推定装置。
(付記6)
概略位置取得部が前記概略位置データを取得できない場合に、自律航法によって前記移動体の現在位置を推定し、当該自律航法によって推定した現在位置の確からしさを示す第1の確証度を求める自律航法部をさらに備え、
前記推定部は、さらに、前記映像マップデータに基づいて推定した現在位置の確からしさを示す第2の確証度を求め、
前記出力部は、前記第1の確証度と前記第2の確証度とを比較することによって、前記自律航法によって推定された現在位置と、前記映像マップデータに基づいて推定された現在位置と、のうち、より確からしい方の前記推定された現在位置を含む現在位置データを出力する
ことを特徴とする付記5に記載の位置推定装置。
(付記7)
少なくとも1つ以上のカメラをさらに備える
ことを特徴とする付記1から6のいずれか1つに記載の位置推定装置。
(付記8)
前記映像マップ取得部は、ネットワークを介してサーバ装置から前記映像マップデータを取得する
ことを特徴とする付記1から7のいずれか1つに記載の位置推定装置。
(付記9)
前記映像マップデータを記憶する映像マップ記憶部をさらに備え、
前記映像マップ取得部は、前記映像マップ記憶部から前記映像マップデータを取得する
ことを特徴とする付記1から8のいずれか1つに記載の位置推定装置。
(付記10)
移動体に取り付けられたカメラによって地物が撮影された現在画像を含む現在画像データを取得することと、
予め撮影することによって得られた地物の画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得することと、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定することと、
前記特定された参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定することと、
前記推定された現在位置を含む現在位置データを出力することとを含む
ことを特徴とする位置推定方法。
(付記11)
コンピュータを、
移動体に取り付けられたカメラによって地物が撮影された現在画像を含む現在画像データを取得する現在画像取得部、
予め撮影することによって得られた地物の画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得する映像マップ取得部、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定する画像照合部、
前記特定された参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定する推定部、
前記推定された現在位置を含む現在位置データを出力する出力部、
として機能させるためのプログラム。
Some or all of the above embodiments may also be described, but not limited to:
(Appendix 1)
The current image acquisition unit that acquires the current image data including the current image of the feature taken by the camera attached to the moving body, and the current image acquisition unit.
A video map acquisition unit that acquires video map data associated with a reference image including an image of a feature obtained by shooting in advance and shooting position information of the reference image.
An image matching unit that identifies a reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
An estimation unit that estimates the current position of the moving body based on the shooting position information associated with the specified reference image in the video map data.
A position estimation device including an output unit that outputs current position data including the estimated current position.
(Appendix 2)
The image matching unit further identifies a reference image corresponding to the change in the current image by collating the change in the current image of the acquired current image data with the reference image in the acquired video map data.
The estimation unit further estimates the moving direction of the moving body based on the shooting position information associated with the specified reference image in the video map data.
The position estimation device according to
(Appendix 3)
The video map data further includes location information regarding landmarks and roads that are predetermined features.
The estimation unit further estimates the landmarks located around the moving body and the road on which the moving body is moving, based on the acquired video map data and the acquired current image data. death,
The position estimation device according to
(Appendix 4)
The moving body is a vehicle.
The current image acquisition unit is any one of
(Appendix 5)
Further provided with an approximate position acquisition unit for acquiring approximate position data indicating an approximate position which is the current position of the moving body estimated by GPS.
The video map acquisition unit is any one of
(Appendix 6)
When the approximate position acquisition unit cannot acquire the approximate position data, the current position of the moving body is estimated by autonomous navigation, and the first certainty indicating the certainty of the current position estimated by the autonomous navigation is obtained. With more parts
The estimation unit further obtains a second degree of certainty indicating the certainty of the current position estimated based on the video map data.
The output unit has a current position estimated by the autonomous navigation by comparing the first confirmation degree and the second confirmation degree, and a current position estimated based on the video map data. The position estimation device according to Appendix 5, wherein the more probable current position data including the estimated current position is output.
(Appendix 7)
The position estimation device according to any one of
(Appendix 8)
The position estimation device according to any one of
(Appendix 9)
A video map storage unit for storing the video map data is further provided.
The position estimation device according to any one of
(Appendix 10)
Acquiring the current image data including the current image of the feature taken by the camera attached to the moving body, and
Acquiring video map data in which a reference image including an image of a feature obtained by shooting in advance and the shooting position information of the reference image are associated with each other.
Identifying the reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
Estimating the current position of the moving body based on the shooting position information associated with the specified reference image in the video map data.
A position estimation method including outputting current position data including the estimated current position.
(Appendix 11)
Computer,
The current image acquisition unit, which acquires the current image data including the current image of the feature taken by the camera attached to the moving body.
A video map acquisition unit that acquires video map data associated with a reference image including an image of a feature obtained by shooting in advance and shooting position information of the reference image.
An image matching unit that identifies a reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
An estimation unit that estimates the current position of the moving body based on the shooting position information associated with the specified reference image in the video map data.
An output unit that outputs current position data including the estimated current position,
A program to function as.
本発明は、例えば、カーナビゲーションシステム、車両の運行状況を管理する装置などに有用に利用することができる。 The present invention can be usefully used, for example, in a car navigation system, a device for managing the operation status of a vehicle, and the like.
100,200,300 位置推定装置
101,101a〜101d カメラ
102 現在画像取得部
103 概略位置取得部
104 映像マップ記憶部
105,205 映像マップ取得部
106 画像照合部
107 推定部
108 出力部
109 映像マップデータ
109a 地図データ
109b 映像データ
310 自律航法部
100,200,300 Position estimation device 101,101
Claims (7)
予め撮影することによって得られた地物の前方画像、後方画像、左方画像及び右方画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得する映像マップ取得部と、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定する画像照合部と、
前記特定された現在画像に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定する推定部と、
前記推定された現在位置を含む現在位置データを出力する出力部とを備え、
前記画像照合部は、さらに、前記取得された現在画像データの複数の現在画像の変化を示すベクトルと前記取得された映像マップデータの参照画像の変化を示すベクトルとを照合することによって、両ベクトルの類似度が最も高い参照画像を、前記複数の現在画像の変化に対応する参照画像として特定し、
前記推定部は、さらに、前記特定された複数の現在画像の変化に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記出力部は、さらに、前記推定された移動方向を含む移動方向データを出力する
ことを特徴とする位置推定装置。 Four forward side image feature is captured by a camera mounted on the front, rear, left and right of the moving body, the rearward image, continuously the current image data currently contains an image composed of the left image and right image at regular time intervals The current image acquisition unit to be acquired and
An image for acquiring image map data in which a reference image including a front image, a rear image, a left image, and a right image of a feature obtained by taking a picture in advance and a shooting position information of the reference image are associated with each other. Map acquisition department and
An image matching unit that identifies a reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
An estimation unit that estimates the current position of the moving body based on the shooting position information associated with the reference image corresponding to the specified current image in the video map data.
It is provided with an output unit that outputs current position data including the estimated current position.
The image collating unit further collates the vector indicating the change of the plurality of current images of the acquired current image data with the vector indicating the change of the reference image of the acquired video map data, thereby both vectors. The reference image having the highest degree of similarity is identified as the reference image corresponding to the change of the plurality of current images.
The estimation unit further estimates the moving direction of the moving body based on the shooting position information associated with the reference image corresponding to the change of the specified plurality of current images in the video map data.
The output unit is a position estimation device that further outputs movement direction data including the estimated movement direction.
前記推定部は、さらに、前記取得された映像マップデータと前記取得された現在画像データとに基づいて、前記移動体の周辺に位置するランドマークと、前記移動体が移動中の道路とを推定し、
前記出力部は、さらに、前記推定された移動中の道路を示す移動中道路データを出力する
ことを特徴とする請求項1に記載の位置推定装置。 The video map data further includes location information regarding landmarks and roads that are predetermined features.
The estimation unit further estimates the landmarks located around the moving body and the road on which the moving body is moving, based on the acquired video map data and the acquired current image data. death,
The position estimation device according to claim 1, wherein the output unit further outputs moving road data indicating the estimated moving road.
前記映像マップ取得部は、前記取得された概略位置データが示す概略位置に対して予め定められた範囲の参照画像を含む映像マップデータを取得する
ことを特徴とする請求項1又は2に記載の位置推定装置。 Further provided with an approximate position acquisition unit for acquiring approximate position data indicating an approximate position which is the current position of the moving body estimated by GPS.
The video map acquisition unit according to claim 1 or 2 , wherein the video map acquisition unit acquires video map data including a reference image in a predetermined range with respect to the approximate position indicated by the acquired approximate position data. Position estimation device.
前記推定部は、さらに、前記映像マップデータに基づいて推定した現在位置の確からしさを示す第2の確証度を求め、
前記出力部は、前記第1の確証度と前記第2の確証度とを比較することによって、前記自律航法によって推定された現在位置と、前記映像マップデータに基づいて推定された現在位置と、のうち、より確からしい方の前記推定された現在位置を含む現在位置データを出力する
ことを特徴とする請求項3に記載の位置推定装置。 When the approximate position acquisition unit cannot acquire the approximate position data, the current position of the moving body is estimated by autonomous navigation, and the first degree of certainty indicating the certainty of the current position estimated by the autonomous navigation is obtained. With more navigation
The estimation unit further obtains a second degree of certainty indicating the certainty of the current position estimated based on the video map data.
The output unit has a current position estimated by the autonomous navigation by comparing the first confirmation degree and the second confirmation degree, a current position estimated based on the video map data, and a current position. The position estimation device according to claim 3 , wherein the more probable current position data including the estimated current position is output.
ことを特徴とする請求項1から4のいずれか1項に記載の位置推定装置。 The position estimation device according to any one of claims 1 to 4 , wherein the video map acquisition unit acquires the video map data from a server device via a network.
予め撮影することによって得られた地物の前方画像、後方画像、左方画像及び右方画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得することと、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定することと、
前記特定された現在画像に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定することと、
前記推定された現在位置を含む現在位置データを出力することとを含み、
前記参照画像を特定することでは、さらに、前記取得された現在画像データの複数の現在画像の変化を示すベクトルと前記取得された映像マップデータの参照画像の変化を示すベクトルとを照合することによって、両ベクトルの類似度が最も高い参照画像を、前記複数の現在画像の変化に対応する参照画像として特定し、
前記移動体の現在位置を推定することでは、さらに、前記特定された複数の現在画像の変化に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記現在位置データを出力することでは、さらに、前記推定された移動方向を含む移動方向データを出力する
ことを特徴とする位置推定方法。 Four forward side image feature is captured by a camera mounted on the front, rear, left and right of the moving body, the rearward image, continuously the current image data currently contains an image composed of the left image and right image at regular time intervals To get and
Acquiring video map data in which a reference image including a front image, a rear image, a left image, and a right image of a feature obtained by shooting in advance and a shooting position information of the reference image are associated with each other. When,
Identifying the reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
To estimate the current position of the moving body based on the shooting position information associated with the reference image corresponding to the specified current image in the video map data.
Including outputting the current position data including the estimated current position.
In specifying the reference image, further, by collating the vector showing the change of the plurality of current images of the acquired current image data with the vector showing the change of the reference image of the acquired video map data. , The reference image having the highest similarity between the two vectors is specified as the reference image corresponding to the change of the plurality of current images.
In estimating the current position of the moving body, the moving body is further based on the shooting position information associated with the reference image corresponding to the change of the specified plurality of current images in the video map data. Estimate the direction of movement,
The position estimation method is characterized in that the output of the current position data further outputs the movement direction data including the estimated movement direction.
移動体の前後左右に取り付けられた4つのカメラによって地物が撮影された前方画像、後方画像、左方画像及び右方画像から成る現在画像を含む現在画像データを一定の時間間隔で継続的に取得する現在画像取得部、
予め撮影することによって得られた地物の前方画像、後方画像、左方画像及び右方画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得する映像マップ取得部、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定する画像照合部、
前記特定された現在画像に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定する推定部、
前記推定された現在位置を含む現在位置データを出力する出力部、として機能させ、
前記画像照合部は、さらに、前記取得された現在画像データの複数の現在画像の変化を示すベクトルと前記取得された映像マップデータの参照画像の変化を示すベクトルとを照合することによって、両ベクトルの類似度が最も高い参照画像を、前記複数の現在画像の変化に対応する参照画像として特定し、
前記推定部は、さらに、前記特定された複数の現在画像の変化に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記出力部は、さらに、前記推定された移動方向を含む移動方向データを出力するように機能させるためのプログラム。 Computer,
Four forward side image feature is captured by a camera mounted on the front, rear, left and right of the moving body, the rearward image, continuously the current image data currently contains an image composed of the left image and right image at regular time intervals Current image acquisition department to acquire,
An image for acquiring image map data in which a reference image including a front image, a rear image, a left image, and a right image of a feature obtained by taking a picture in advance and a shooting position information of the reference image are associated with each other. Map acquisition department,
An image matching unit that identifies a reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
An estimation unit that estimates the current position of the moving body based on the shooting position information associated with the reference image corresponding to the specified current image in the video map data.
It functions as an output unit that outputs the current position data including the estimated current position.
The image collating unit further collates the vector indicating the change of the plurality of current images of the acquired current image data with the vector indicating the change of the reference image of the acquired video map data, thereby both vectors. The reference image having the highest degree of similarity is identified as the reference image corresponding to the change of the plurality of current images.
The estimation unit further estimates the moving direction of the moving body based on the shooting position information associated with the reference image corresponding to the change of the specified plurality of current images in the video map data.
The output unit is a program for further functioning to output movement direction data including the estimated movement direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020024110A JP6948042B2 (en) | 2016-02-22 | 2020-02-17 | Position estimation device, position detection method and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016031016A JP6751280B2 (en) | 2016-02-22 | 2016-02-22 | Position estimating device, position detecting method and program |
JP2020024110A JP6948042B2 (en) | 2016-02-22 | 2020-02-17 | Position estimation device, position detection method and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016031016A Division JP6751280B2 (en) | 2016-02-22 | 2016-02-22 | Position estimating device, position detecting method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020098363A JP2020098363A (en) | 2020-06-25 |
JP6948042B2 true JP6948042B2 (en) | 2021-10-13 |
Family
ID=71105950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020024110A Active JP6948042B2 (en) | 2016-02-22 | 2020-02-17 | Position estimation device, position detection method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6948042B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11271074A (en) * | 1998-03-20 | 1999-10-05 | Fujitsu Ltd | Device and method for comparing mark image and program storage medium |
JP4931113B2 (en) * | 2006-06-27 | 2012-05-16 | アルパイン株式会社 | Own vehicle position determination device |
WO2011013179A1 (en) * | 2009-07-31 | 2011-02-03 | 富士通株式会社 | Mobile object position detecting device and mobile object position detecting method |
-
2020
- 2020-02-17 JP JP2020024110A patent/JP6948042B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020098363A (en) | 2020-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6751280B2 (en) | Position estimating device, position detecting method and program | |
CN108450034B (en) | Vehicle positioning system and method based on images | |
JP7326720B2 (en) | Mobile position estimation system and mobile position estimation method | |
JP6675770B2 (en) | Map update method and in-vehicle terminal | |
CA2569209C (en) | Image-augmented inertial navigation system (iains) and method | |
KR100647807B1 (en) | Method for extraction of 3d building information using shadow analysis | |
EP2657644B1 (en) | Positioning apparatus and positioning method | |
US10996072B2 (en) | Systems and methods for updating a high-definition map | |
JP2009257763A (en) | System, method and program for position estimation for vehicle | |
US20200218906A1 (en) | Robust lane association by projecting 2-d image into 3-d world using map information | |
EP2244063A2 (en) | System and method for collaborative navigation | |
JP7259454B2 (en) | Mobile position estimation system and mobile position estimation method | |
EP2175237B1 (en) | System and methods for image-based navigation using line features matching | |
JP7045285B2 (en) | Information providing equipment, information providing method, and information providing program | |
WO2020039937A1 (en) | Position coordinates estimation device, position coordinates estimation method, and program | |
CN111183464B (en) | System and method for estimating saturation flow of signal intersection based on vehicle trajectory data | |
CN112689234A (en) | Indoor vehicle positioning method and device, computer equipment and storage medium | |
CN112629558A (en) | Vehicle inertial navigation matching correction method and device, equipment and storage medium | |
JP2022039188A (en) | Position attitude calculation method and position attitude calculation program | |
JP7151449B2 (en) | Information processing system, program, and information processing method | |
JP6948042B2 (en) | Position estimation device, position detection method and program | |
US11481920B2 (en) | Information processing apparatus, server, movable object device, and information processing method | |
CN113091756A (en) | Position estimation device and position estimation method | |
JP6810428B2 (en) | Position estimation device, position estimation method and program | |
JP6946660B2 (en) | Positioning device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210106 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210909 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6948042 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |