JP6948042B2 - Position estimation device, position detection method and program - Google Patents

Position estimation device, position detection method and program Download PDF

Info

Publication number
JP6948042B2
JP6948042B2 JP2020024110A JP2020024110A JP6948042B2 JP 6948042 B2 JP6948042 B2 JP 6948042B2 JP 2020024110 A JP2020024110 A JP 2020024110A JP 2020024110 A JP2020024110 A JP 2020024110A JP 6948042 B2 JP6948042 B2 JP 6948042B2
Authority
JP
Japan
Prior art keywords
image
current
data
reference image
video map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020024110A
Other languages
Japanese (ja)
Other versions
JP2020098363A (en
Inventor
梅田 直樹
直樹 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016031016A external-priority patent/JP6751280B2/en
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2020024110A priority Critical patent/JP6948042B2/en
Publication of JP2020098363A publication Critical patent/JP2020098363A/en
Application granted granted Critical
Publication of JP6948042B2 publication Critical patent/JP6948042B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Description

本発明は、位置推定装置、位置推定方法及びプログラムに関する。 The present invention relates to a position estimation device, a position estimation method and a program.

自動車などの移動体の現在位置を推定するために、GPS(Global Positioning System)が一般的に利用されているものの、GPSでは、地上の干渉物などのために、移動体の現在位置を正確に推定できないことがある。 Although GPS (Global Positioning System) is generally used to estimate the current position of a moving object such as an automobile, GPS accurately positions the current position of the moving object due to interference on the ground. It may not be possible to estimate.

例えば、都市部の高層ビルの谷間では、GPSにより推定される現在位置は、実際の現在位置から大きくずれてしまうことがある。また例えば、トンネル内を移動している場合には、GPSを構成する衛星と移動体との間で通信できず、その結果、移動体の現在位置を推定できなくなることがある。 For example, in the valley of a skyscraper in an urban area, the current position estimated by GPS may deviate significantly from the actual current position. Further, for example, when moving in a tunnel, communication cannot be performed between the satellite constituting the GPS and the moving body, and as a result, the current position of the moving body may not be estimated.

このようなGPSにより推定される現在位置の不正確さを補う技術が提案されている。例えば、特許文献1には、同一地点について、GPS信号に基づいて算出される異時刻の複数の絶対位置を平均化処理することで、GPS信号に基づいて算出される測位位置をより高精度の位置情報に補正することが提案されている。 A technique for compensating for the inaccuracy of the current position estimated by GPS has been proposed. For example, in Patent Document 1, by averaging a plurality of absolute positions at different times calculated based on GPS signals for the same point, the positioning position calculated based on GPS signals is more accurate. It has been proposed to correct to position information.

特開2012−208525号公報Japanese Unexamined Patent Publication No. 2012-208525

しかしながら、特許文献1に記載の技術は、道路周辺の静止物に関する高精度な測位データを収集するためのものである。これにより、例えば、ビルや道路の高精度な位置を収集してマップデータを作ることができたとしても、上述のような特許文献1に記載の技術を、移動体の現在位置を推定するために適用することは困難である。また、作成されたマップデータを基に移動体の現在位置を推定するための技術は、ほとんど見当たらない。 However, the technique described in Patent Document 1 is for collecting highly accurate positioning data regarding a stationary object around a road. As a result, for example, even if it is possible to collect highly accurate positions of buildings and roads and create map data, the technique described in Patent Document 1 as described above is used to estimate the current position of the moving body. It is difficult to apply to. In addition, there is almost no technology for estimating the current position of a moving object based on the created map data.

本発明は、上記の事情に鑑みてなされたものであって、移動体の現在位置を精度良く推定することが可能な位置推定装置などを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a position estimation device or the like capable of accurately estimating the current position of a moving body.

本発明の第1の観点に係る位置推定装置は、
移動体の前後左右に取り付けられた4つのカメラによって地物が撮影された前方画像、後方画像、左方画像及び右方画像から成る現在画像を含む現在画像データを一定の時間間隔で継続的に取得する現在画像取得部と、
予め撮影することによって得られた地物の前方画像、後方画像、左方画像及び右方画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得する映像マップ取得部と、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定する画像照合部と、
前記特定された現在画像に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定する推定部と、
前記推定された現在位置を含む現在位置データを出力する出力部とを備え
前記画像照合部は、さらに、前記取得された現在画像データの複数の現在画像の変化を示すベクトルと前記取得された映像マップデータの参照画像の変化を示すベクトルとを照合することによって、両ベクトルの類似度が最も高い参照画像を、前記複数の現在画像の変化に対応する参照画像として特定し、
前記推定部は、さらに、前記特定された複数の現在画像の変化に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記出力部は、さらに、前記推定された移動方向を含む移動方向データを出力す
ことを特徴とする。
The position estimation device according to the first aspect of the present invention is
Four forward side image feature is captured by a camera mounted on the front, rear, left and right of the moving body, the rearward image, continuously the current image data currently contains an image composed of the left image and right image at regular time intervals The current image acquisition unit to be acquired and
An image for acquiring image map data in which a reference image including a front image, a rear image, a left image, and a right image of a feature obtained by taking a picture in advance and a shooting position information of the reference image are associated with each other. Map acquisition department and
An image matching unit that identifies a reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
An estimation unit that estimates the current position of the moving body based on the shooting position information associated with the reference image corresponding to the specified current image in the video map data.
It is provided with an output unit that outputs current position data including the estimated current position .
The image collating unit further collates the vector indicating the change of the plurality of current images of the acquired current image data with the vector indicating the change of the reference image of the acquired video map data, thereby both vectors. The reference image having the highest degree of similarity is identified as the reference image corresponding to the change of the plurality of current images.
The estimation unit further estimates the moving direction of the moving body based on the shooting position information associated with the reference image corresponding to the change of the specified plurality of current images in the video map data.
The output section is further characterized in that you output the moving direction data including the estimated direction of movement.

本発明の第2の観点に係る位置推定方法は、
移動体の前後左右に取り付けられた4つのカメラによって地物が撮影された前方画像、後方画像、左方画像及び右方画像から成る現在画像を含む現在画像データを一定の時間間隔で継続的に取得することと、
予め撮影することによって得られた地物の前方画像、後方画像、左方画像及び右方画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得することと、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定することと、
前記特定された現在画像に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定することと、
前記推定された現在位置を含む現在位置データを出力することとを含むみ、
前記参照画像を特定することでは、さらに、前記取得された現在画像データの複数の現在画像の変化を示すベクトルと前記取得された映像マップデータの参照画像の変化を示すベクトルとを照合することによって、両ベクトルの類似度が最も高い参照画像を、前記複数の現在画像の変化に対応する参照画像として特定し、
前記移動体の現在位置を推定することでは、さらに、前記特定された複数の現在画像の変化に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記現在位置データを出力することでは、さらに、前記推定された移動方向を含む移動方向データを出力する
ことを特徴とする。
The position estimation method according to the second aspect of the present invention is
Four forward side image feature is captured by a camera mounted on the front, rear, left and right of the moving body, the rearward image, continuously the current image data currently contains an image composed of the left image and right image at regular time intervals To get and
Acquiring video map data in which a reference image including a front image, a rear image, a left image, and a right image of a feature obtained by shooting in advance and a shooting position information of the reference image are associated with each other. When,
Identifying the reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
To estimate the current position of the moving body based on the shooting position information associated with the reference image corresponding to the specified current image in the video map data.
Only containing and outputting a current position data including the estimated current position,
In specifying the reference image, further, by collating the vector showing the change of the plurality of current images of the acquired current image data with the vector showing the change of the reference image of the acquired video map data. , The reference image having the highest similarity between the two vectors is specified as the reference image corresponding to the change of the plurality of current images.
In estimating the current position of the moving body, the moving body is further based on the shooting position information associated with the reference image corresponding to the change of the specified plurality of current images in the video map data. Estimate the direction of movement,
The output of the current position data is further characterized in that the movement direction data including the estimated movement direction is output.

本発明の第3の観点に係るプログラムは、
コンピュータを、
移動体の前後左右に取り付けられた4つのカメラによって地物が撮影された前方画像、後方画像、左方画像及び右方画像から成る現在画像を含む現在画像データを一定の時間間隔で継続的に取得する現在画像取得部、
予め撮影することによって得られた地物の前方画像、後方画像、左方画像及び右方画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得する映像マップ取得部、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定する画像照合部、
前記特定された現在画像に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定する推定部、
前記推定された現在位置を含む現在位置データを出力する出力部、として機能させ、
前記画像照合部は、さらに、前記取得された現在画像データの複数の現在画像の変化を示すベクトルと前記取得された映像マップデータの参照画像の変化を示すベクトルとを照合することによって、両ベクトルの類似度が最も高い参照画像を、前記複数の現在画像の変化に対応する参照画像として特定し、
前記推定部は、さらに、前記特定された複数の現在画像の変化に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記出力部は、さらに、前記推定された移動方向を含む移動方向データを出力するように機能させるためのプログラムである。
The program according to the third aspect of the present invention
Computer,
Four forward side image feature is captured by a camera mounted on the front, rear, left and right of the moving body, the rearward image, continuously the current image data currently contains an image composed of the left image and right image at regular time intervals Current image acquisition department to acquire,
An image for acquiring image map data in which a reference image including a front image, a rear image, a left image, and a right image of a feature obtained by taking a picture in advance and a shooting position information of the reference image are associated with each other. Map acquisition department,
An image matching unit that identifies a reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
An estimation unit that estimates the current position of the moving body based on the shooting position information associated with the reference image corresponding to the specified current image in the video map data.
It functions as an output unit that outputs the current position data including the estimated current position.
The image collating unit further collates the vector indicating the change of the plurality of current images of the acquired current image data with the vector indicating the change of the reference image of the acquired video map data, thereby both vectors. The reference image having the highest degree of similarity is identified as the reference image corresponding to the change of the plurality of current images.
The estimation unit further estimates the moving direction of the moving body based on the shooting position information associated with the reference image corresponding to the change of the specified plurality of current images in the video map data.
The output unit is a program for further functioning to output movement direction data including the estimated movement direction.

本発明によれば、移動体の現在位置を精度良く推定することが可能になる。 According to the present invention, it is possible to accurately estimate the current position of the moving body.

本発明の実施の形態1に係る位置推定装置の機能的な構成を示す図である。It is a figure which shows the functional structure of the position estimation apparatus which concerns on Embodiment 1 of this invention. 映像マップデータに含まれる地図データの構成の一例を示す図である。It is a figure which shows an example of the structure of the map data included in the video map data. 映像マップデータに含まれる映像データの構成の一例を示す図である。It is a figure which shows an example of the structure of the video data included in the video map data. 実施の形態1に係る位置推定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the position estimation processing which concerns on Embodiment 1. FIG. 現在画像取得部により継続的に取得される現在画像データの構成例を示す図である。It is a figure which shows the composition example of the present image data which is continuously acquired by the present image acquisition part. 実施の形態1に係る現在位置推定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the present position estimation processing which concerns on Embodiment 1. FIG. 移動道路推定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the moving road estimation process. 移動方向推定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a moving direction estimation process. 一変形例に係る位置推定装置の機能的な構成を示す図である。It is a figure which shows the functional structure of the position estimation apparatus which concerns on one modification. 本発明の実施の形態2に係る位置推定装置の機能的な構成を示す図である。It is a figure which shows the functional structure of the position estimation apparatus which concerns on Embodiment 2 of this invention. 実施の形態2に係る位置推定処理のうち、実施の形態1に係る位置推定処理と異なる部分の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the part different from the position estimation process which concerns on Embodiment 1 in the position estimation process which concerns on Embodiment 2. 実施の形態2に係る現在位置推定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the present position estimation processing which concerns on Embodiment 2. 本発明に係る位置推定装置の物理的な構成の一例を示す図である。It is a figure which shows an example of the physical structure of the position estimation apparatus which concerns on this invention.

本発明の実施の形態について図面を参照して説明する。 Embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
本発明の実施の形態1に係る位置推定装置100は、移動体の現在位置を推定する装置であって、自動車に搭載される。自動車は、移動体に含まれる車両の一例であって、移動体は、地上を移動する物としての車両、人などを含む。
(Embodiment 1)
The position estimation device 100 according to the first embodiment of the present invention is a device for estimating the current position of a moving body and is mounted on an automobile. An automobile is an example of a vehicle included in a moving body, and the moving body includes a vehicle, a person, and the like as an object moving on the ground.

本実施の形態に係る位置推定装置100は、機能的には図1に示すように、4つのカメラ101a〜101dと、現在画像取得部102と、概略位置取得部103と、映像マップ記憶部104と、映像マップ取得部105と、画像照合部106と、推定部107と、出力部108とを備える。 Functionally, as shown in FIG. 1, the position estimation device 100 according to the present embodiment has four cameras 101a to 101d, a current image acquisition unit 102, an approximate position acquisition unit 103, and a video map storage unit 104. A video map acquisition unit 105, an image collation unit 106, an estimation unit 107, and an output unit 108 are provided.

カメラ101a〜101dは、地物を撮影するために、それぞれ、自動車の前後左右に取り付けられる。ここで、地物の例として、建物、道路、道路標識などを挙げることができる。 The cameras 101a to 101d are attached to the front, rear, left and right sides of the automobile in order to photograph a feature. Here, examples of features include buildings, roads, and road signs.

また、カメラ101a〜101dの各々は、撮影した現在の画像(現在画像)を示す現在画像データを一定の間隔で継続的に出力する。なお、カメラ101a〜101dの各々が現在画像データを出力するタイミングは、適宜予め定められればよく、同期していることが好ましい。 Further, each of the cameras 101a to 101d continuously outputs the current image data indicating the captured current image (current image) at regular intervals. The timing at which each of the cameras 101a to 101d currently outputs image data may be appropriately predetermined, and is preferably synchronized.

詳細には、カメラ101aは、自動車の前部に固定され、自動車の前方の予め定められた範囲の地物を撮影して、現在画像データを一定の間隔で継続的に出力する。カメラ101bは、自動車の後部に固定され、自動車の後方の予め定められた範囲の地物を撮影して、現在画像データを一定の間隔で継続的に出力する。カメラ101cは、自動車の左側部に固定され、自動車の左方の予め定められた範囲の地物を撮影して、現在画像データを一定の間隔で継続的に出力する。カメラ101dは、自動車の右側部に固定され、自動車の右方の予め定められた範囲の地物を撮影して、現在画像データを一定の間隔で継続的に出力する。 Specifically, the camera 101a is fixed to the front of the automobile, captures a predetermined range of features in front of the automobile, and continuously outputs current image data at regular intervals. The camera 101b is fixed to the rear part of the automobile, captures a predetermined range of features behind the automobile, and continuously outputs current image data at regular intervals. The camera 101c is fixed to the left side of the automobile, captures a predetermined range of features on the left side of the automobile, and continuously outputs current image data at regular intervals. The camera 101d is fixed to the right side of the automobile, captures a predetermined range of features on the right side of the automobile, and continuously outputs current image data at regular intervals.

以下では、カメラ101a〜101dの各々を特に区別しない場合、カメラ101a〜101dをカメラ101と表記する。なお、本実施の形態では、4つのカメラ101が備えられる例により説明する。 In the following, unless each of the cameras 101a to 101d is particularly distinguished, the cameras 101a to 101d will be referred to as a camera 101. In the present embodiment, that describes the example provided four cameras 101.

現在画像取得部102は、カメラ101の各々から現在画像データが出力されると、その出力された現在画像データを取得する。 When the current image data is output from each of the cameras 101, the current image acquisition unit 102 acquires the output current image data.

概略位置取得部103は、概略位置を示す概略位置データを取得する。概略位置は、GPS(Global Positioning System)によって推定された自動車の現在位置である。本実施の形態に係る概略位置取得部103が取得する概略位置データは、衛星との間で信号を送受信することで推定された、自動車の現在位置を示す。 The approximate position acquisition unit 103 acquires approximate position data indicating the approximate position. The approximate position is the current position of the vehicle estimated by GPS (Global Positioning System). The approximate position data acquired by the approximate position acquisition unit 103 according to the present embodiment indicates the current position of the automobile estimated by transmitting and receiving signals to and from the satellite.

映像マップ記憶部104は、映像マップデータ109が格納される記憶部である。 The video map storage unit 104 is a storage unit that stores the video map data 109.

映像マップデータ109は、例えば、一般的な地図に表される情報を含む地図データ109aと、予め定められた地点で撮影された地物の画像を含む映像データ109bとを含む。 The video map data 109 includes, for example, map data 109a including information represented on a general map and video data 109b including an image of a feature taken at a predetermined point.

地図データ109aは、図2に例示するように、予め定められた地物であるランドマーク(道路沿いの比較的大きな建物、施設など)及び道路に関するデータを含む。地図データ109aでは、各々を識別するための識別情報と各々の位置情報とが関連付けられている。 As illustrated in FIG. 2, the map data 109a includes data on landmarks (relatively large buildings, facilities, etc. along the road) and roads, which are predetermined features. In the map data 109a, identification information for identifying each is associated with each position information.

ランドマーク及び道路の位置情報は、例えば図2に示すように、それぞれが占める領域に含まれる特徴点の位置を示す。特徴点の位置は、例えば緯度と経度により表される。 The location information of the landmark and the road indicates the position of the feature point included in the area occupied by each, as shown in FIG. 2, for example. The position of the feature point is represented by, for example, latitude and longitude.

ランドマークに含まれる特徴点は、例えば、ランドマークが占める領域の外縁を直線で近似的に結んだ場合に角となる点である。また、道路に含まれる特徴点は、例えば、道路の各側部を直線で近似的に結んだ場合に角となる点である。 The feature points included in the landmark are, for example, points that become corners when the outer edges of the area occupied by the landmark are approximately connected by a straight line. Further, the feature points included in the road are, for example, points that become corners when each side portion of the road is approximately connected by a straight line.

映像データ109bは、例えば、全周囲カメラを有した車両又は人が、道路上などを実際に移動することにより収集されるデータである。 The video data 109b is data collected by, for example, a vehicle or a person having an omnidirectional camera actually moving on a road or the like.

映像データ109bは、図3に示すように、予め定められた地点(撮影位置)で撮影することによって得られた地物の画像を含む参照画像と、この参照画像の撮影位置情報と、が関連付けられている。 As shown in FIG. 3, the video data 109b associates a reference image including an image of a feature obtained by shooting at a predetermined point (shooting position) with the shooting position information of the reference image. Has been done.

詳細には、図3の例において、Nは任意の自然数であり、撮影位置で撮影された前後左右の各方向の画像と、その撮影位置を示す撮影位置情報と、が関連付けられている。撮影位置Nは、例えば上述の特徴点の位置と同様に、緯度と経度で表される。そして、撮影位置Nには、撮影位置Nが示す地点から、前方、後方、左方、右方のそれぞれを撮影した、前方画像N、後方画像N、左方画像N、右方画像Nが関連付けられている。ここでの前後は、道路などに沿って予め定められる方向であり、左右は、前後に応じて定まる方向である。 Specifically, in the example of FIG. 3, N is an arbitrary natural number, and images in the front, back, left, and right directions taken at the shooting position are associated with shooting position information indicating the shooting position. The shooting position N is represented by latitude and longitude, as in the case of the above-mentioned feature point positions, for example. Then, the front image N, the rear image N, the left image N, and the right image N, which are the front, rear, left, and right images taken from the points indicated by the shooting positions N, are associated with the shooting position N. Has been done. Here, the front and back are directions that are predetermined along the road, and the left and right are directions that are determined according to the front and back.

映像マップ取得部105は、映像マップデータ109を映像マップ記憶部104から取得する。 The video map acquisition unit 105 acquires the video map data 109 from the video map storage unit 104.

本実施の形態に係る映像マップ取得部105は、概略位置取得部103によって取得された概略位置データが示す概略位置に基づいて絞り込んだ映像マップデータを取得する。詳細には、映像マップ取得部105は、その概略位置データが示す概略位置に対して予め定められた範囲の撮影位置で撮影された参照画像を含む映像マップデータを取得する。 The video map acquisition unit 105 according to the present embodiment acquires video map data narrowed down based on the approximate position indicated by the approximate position data acquired by the approximate position acquisition unit 103. Specifically, the video map acquisition unit 105 acquires video map data including a reference image taken at a shooting position in a predetermined range with respect to the approximate position indicated by the approximate position data.

画像照合部106は、現在画像と参照画像とを照合することによって、現在画像に対応する参照画像を特定する。照合のための現在画像は、現在画像取得部102により取得された現在画像データに含まれる現在画像である。照合のための参照画像は、映像マップ取得部105により取得された映像マップデータに含まれる参照画像である。 The image collation unit 106 identifies the reference image corresponding to the current image by collating the current image with the reference image. The current image for collation is the current image included in the current image data acquired by the current image acquisition unit 102. The reference image for collation is a reference image included in the video map data acquired by the video map acquisition unit 105.

本実施の形態に係る画像照合部106は、さらに、複数の現在画像の変化と参照画像とを照合することによって、複数の現在画像の変化に対応する参照画像を特定する。照合のための複数の現在画像の変化は、現在画像取得部102により取得された現在画像データに含まれる複数の現在画像の変化であって、現在画像取得部102により取得された現在画像データに含まれる複数の現在画像に基づいて、検出される。照合のための参照画像は、上述と同様に、映像マップ取得部105により取得された映像マップデータに含まれる参照画像である。 Image matching unit 106 according to the present embodiment, further, by matching the reference image and the change of the plurality of current images, specifying the reference image corresponding to the change of the plurality of current images. The changes in the plurality of current images for collation are changes in the plurality of current images included in the current image data acquired by the current image acquisition unit 102, and the changes in the current image data acquired by the current image acquisition unit 102. Detected based on multiple current images included. The reference image for collation is a reference image included in the video map data acquired by the video map acquisition unit 105, as described above.

推定部107は、画像照合部106によって特定された参照画像に基づいて、自動車の現在位置を推定する。詳細には、推定部107は、その特定された参照画像に映像マップデータ109にて関連付けられた撮影位置情報に基づいて、自動車の現在位置を推定する。 The estimation unit 107 estimates the current position of the automobile based on the reference image specified by the image matching unit 106. Specifically, the estimation unit 107 estimates the current position of the automobile based on the shooting position information associated with the specified reference image in the video map data 109.

本実施の形態に係る推定部107は、さらに、その特定された参照画像に映像マップデータ109にて関連付けられた撮影位置情報に基づいて、自動車の移動方向を推定する。 The estimation unit 107 according to the present embodiment further estimates the moving direction of the automobile based on the shooting position information associated with the specified reference image in the video map data 109.

本実施の形態に係る推定部107は、さらに、映像マップデータ109と、現在画像データとに基づいて、自動車の周辺に位置するランドマークと、自動車が移動中の道路とを推定する。この推定に利用される映像マップデータ109と現在画像データとは、それぞれ、映像マップ取得部105と現在画像取得部102とによって取得されたデータである。 The estimation unit 107 according to the present embodiment further estimates the landmarks located around the automobile and the road on which the automobile is moving based on the video map data 109 and the current image data. The video map data 109 and the current image data used for this estimation are data acquired by the video map acquisition unit 105 and the current image acquisition unit 102, respectively.

出力部108は、推定部107によって推定された現在位置を含む現在位置データを出力する。 The output unit 108 outputs the current position data including the current position estimated by the estimation unit 107.

本実施の形態に係る出力部108は、さらに、推定部107によって推定された移動方向を含む移動方向データを出力する。 The output unit 108 according to the present embodiment further outputs movement direction data including the movement direction estimated by the estimation unit 107.

本実施の形態に係る出力部108は、さらに、推定部107によって推定された移動中の道路を示す移動中道路データを出力する。 The output unit 108 according to the present embodiment further outputs moving road data indicating the moving road estimated by the estimation unit 107.

これまで、本発明の実施の形態1に係る位置推定装置100の構成について説明した。ここから、本発明の実施の形態1に係る位置推定装置100の動作について説明する。 So far, the configuration of the position estimation device 100 according to the first embodiment of the present invention has been described. From here, the operation of the position estimation device 100 according to the first embodiment of the present invention will be described.

位置推定装置100は、例えば自動車の電源が投入されると、図4に例示する位置推定処理を開始する。位置推定処理は、自動車の現在位置を推定する処理である。 The position estimation device 100 starts the position estimation process illustrated in FIG. 4, for example, when the power of the automobile is turned on. The position estimation process is a process of estimating the current position of an automobile.

現在画像取得部102は、各カメラ101から現在画像データを取得する(ステップS101)。 The current image acquisition unit 102 acquires the current image data from each camera 101 (step S101).

現在画像データは、図5に示すように、一定の時間間隔で継続的に取得される。同図に示す例では、現在画像データは、撮影時刻を示す撮影時刻情報と、各撮影時刻に各カメラ101で撮影された画像とを含む。例えば、時刻T1を示す撮影時刻情報は、時刻T1に撮影された画像である前方画像T1、後方画像T1、左方画像T1及び右方画像T1が関連付けられている。時刻T1は、例えば、予め定められた基準時から現在までの経過時間を100分の1秒単位で表した値である。 Currently, image data is continuously acquired at regular time intervals, as shown in FIG. In the example shown in the figure, the current image data includes shooting time information indicating a shooting time and an image shot by each camera 101 at each shooting time. For example, the shooting time information indicating the time T1 is associated with a front image T1, a rear image T1, a left image T1, and a right image T1, which are images taken at the time T1. The time T1 is, for example, a value representing the elapsed time from a predetermined reference time to the present in units of 1/100 second.

概略位置取得部103は、概略位置データを取得する(ステップS102)。 The approximate position acquisition unit 103 acquires the approximate position data (step S102).

映像マップ取得部105は、ステップS102にて取得された概略位置データを参照して、映像マップデータ109を映像マップ記憶部104から取得する(ステップS103)。 The video map acquisition unit 105 acquires the video map data 109 from the video map storage unit 104 with reference to the approximate position data acquired in step S102 (step S103).

詳細には、映像マップ取得部105は、概略位置取得部103によって取得された概略位置データを参照する。映像マップ取得部105は、参照した概略位置データが示す概略位置に対して予め定められた範囲を特定する。概略位置に対して予め定められた範囲とは、例えば、概略位置を中心に数キロメートルの範囲である。映像マップ取得部105は、特定した範囲内の地点を撮影位置として撮影された参照画像を含む映像マップデータを取得する。このような処理により、映像マップ取得部105は、映像マップ記憶部104から取得する映像マップデータ109を概略位置データに基づいて絞り込む。 Specifically, the video map acquisition unit 105 refers to the approximate position data acquired by the approximate position acquisition unit 103. The video map acquisition unit 105 specifies a predetermined range with respect to the approximate position indicated by the referenced approximate position data. The predetermined range with respect to the approximate position is, for example, a range of several kilometers around the approximate position. The video map acquisition unit 105 acquires video map data including a reference image shot with a point within the specified range as a shooting position. By such processing, the video map acquisition unit 105 narrows down the video map data 109 acquired from the video map storage unit 104 based on the approximate position data.

画像照合部106、推定部107及び出力部108は、現在画像データと映像マップデータ109とに基づいて、自動車の現在位置を推定する(ステップS104)。 The image collation unit 106, the estimation unit 107, and the output unit 108 estimate the current position of the automobile based on the current image data and the video map data 109 (step S104).

現在位置推定処理(ステップS104)の詳細な流れを図6に示す。 The detailed flow of the current position estimation process (step S104) is shown in FIG.

図6に示すように、画像照合部106は、ステップ101にて取得された現在画像データと、ステップ103にて取得された映像マップデータ109とに基づいて、現在画像に対応する参照画像を特定する(ステップS111)。 As shown in FIG. 6, the image collation unit 106 identifies the reference image corresponding to the current image based on the current image data acquired in step 101 and the video map data 109 acquired in step 103. (Step S111).

詳細には、画像照合部106は、ステップS101にて取得された現在画像データを参照する。また、画像照合部106は、ステップS103で取得された映像マップデータ109に含まれる映像データ109bを参照する。そして、画像照合部106は、現在画像データに含まれる現在画像と、映像データ109bに含まれる参照画像とを照合することによって、現在画像に対応する参照画像を特定する。 Specifically, the image collation unit 106 refers to the current image data acquired in step S101. Further, the image collation unit 106 refers to the video data 109b included in the video map data 109 acquired in step S103. Then, the image collation unit 106 identifies the reference image corresponding to the current image by collating the current image included in the current image data with the reference image included in the video data 109b.

ここで、現在画像に対応する参照画像を特定するための照合では、例えば、現在画像と参照画像との各画像にて地物の輪郭を検出し、その輪郭の類似度が差出される。地物の輪郭は、一般的な画像中のエッジ検出の技術が採用されてよく、例えば、画像中のRGB値の変化などに基づいて検出される。そして、例えば、類似度が最も大きい参照画像が、現在画像に対応する参照画像として特定される。 Here, in the collation for specifying the reference image corresponding to the current image, for example, the contour of the feature is detected in each image of the current image and the reference image, and the similarity of the contour is sent out. The contour of the feature may employ a general technique of edge detection in an image, and is detected based on, for example, a change in RGB values in the image. Then, for example, the reference image having the highest similarity is specified as the reference image corresponding to the current image.

推定部107は、ステップS111にて特定された参照画像に映像マップデータ109において関連付けられた撮影位置情報に基づいて、自動車の現在位置を推定する(ステップS112)。 The estimation unit 107 estimates the current position of the automobile based on the shooting position information associated with the reference image identified in step S111 in the video map data 109 (step S112).

出力部108は、ステップS112にて推定された現在位置を含む現在位置データを出力し(ステップS113)、図4に示す位置推定処理に戻る。 The output unit 108 outputs the current position data including the current position estimated in step S112 (step S113), and returns to the position estimation process shown in FIG.

推定部107及び出力部108は、図4に示すように、現在画像データと映像マップデータ109とに基づいて、自動車が移動中の道路を推定する(ステップS105)。 As shown in FIG. 4, the estimation unit 107 and the output unit 108 estimate the road on which the automobile is moving based on the current image data and the video map data 109 (step S105).

移動道路推定処理(ステップS105)の詳細な流れを図7に示す。 The detailed flow of the moving road estimation process (step S105) is shown in FIG.

図7に示すように、推定部107は、ステップS101にて取得された現在画像データと、ステップS103にて取得された映像マップデータ109とに基づいて、周辺に位置するランドマークと、移動中の道路とを推定する(ステップS121)。 As shown in FIG. 7, the estimation unit 107 is moving with landmarks located in the vicinity based on the current image data acquired in step S101 and the video map data 109 acquired in step S103. The road is estimated (step S121).

詳細には、推定部107は、現在画像データと映像マップデータ109とに基づいてステップS104にて推定された、自動車の現在位置を参照する。ここで、参照される自動車の現在位置は、ステップS102にて取得された概略位置データが示す概略位置であってもよい。 Specifically, the estimation unit 107 refers to the current position of the automobile estimated in step S104 based on the current image data and the video map data 109. Here, the current position of the referenced automobile may be the approximate position indicated by the approximate position data acquired in step S102.

推定部107は、ステップS103で取得された映像マップデータ109に含まれる地図データ109aに基づいて、参照した現在位置の周辺に位置するランドマークを推定する。推定部107は、地図データ109aを参照することによって、推定したランドマークの位置情報を取得する。推定部107は、この取得した位置情報と地図データ109aとに基づいて、推定したランドマークの周辺に位置する道路を、自動車が走行中の道路として推定する。 The estimation unit 107 estimates landmarks located around the referenced current position based on the map data 109a included in the video map data 109 acquired in step S103. The estimation unit 107 acquires the estimated landmark position information by referring to the map data 109a. Based on the acquired position information and the map data 109a, the estimation unit 107 estimates the road located around the estimated landmark as the road on which the automobile is traveling.

出力部108は、推定部107によって推定された移動中の道路を示す移動中道路データを出力し(ステップS122)、図4に示す位置推定処理に戻る。移動中道路データにおいて、自動車が移動中の道路は、例えば、地図データ109aに含まれる道路の識別情報により示される。この場合、移動中道路データは、推定された移動中の道路の識別情報を含む。 The output unit 108 outputs the moving road data indicating the moving road estimated by the estimation unit 107 (step S122), and returns to the position estimation process shown in FIG. In the moving road data, the road on which the automobile is moving is indicated by, for example, the road identification information included in the map data 109a. In this case, the moving road data includes estimated moving road identification information.

画像照合部106、推定部107及び出力部108は、図4に示すように、現在画像データと映像マップデータ109とに基づいて、自動車の移動方向を推定する(ステップS106)。 As shown in FIG. 4, the image collation unit 106, the estimation unit 107, and the output unit 108 estimate the moving direction of the automobile based on the current image data and the video map data 109 (step S106).

移動方向推定処理(ステップS106)の詳細な流れを図8に示す。 The detailed flow of the moving direction estimation process (step S106) is shown in FIG.

図8に示すように、画像照合部106は、ステップ101にて取得された現在画像データと、ステップ103にて取得された映像マップデータ109とに基づいて、複数の現在画像の変化に対応する参照画像を特定する(ステップS131)。 As shown in FIG. 8, the image collation unit 106 corresponds to a plurality of changes in the current image based on the current image data acquired in step 101 and the video map data 109 acquired in step 103. The reference image is specified (step S131).

詳細には、画像照合部106は、ステップS101にて連続して取得された現在画像データを参照する。また、画像照合部106は、ステップS103で取得された映像マップデータ109に含まれる映像データ109bを参照する。そして、画像照合部106は、現在画像データに含まれる複数の現在画像の変化と、映像データ109bに含まれる参照画像とを照合することによって、複数の現在画像の変化に対応する参照画像を特定する。 Specifically, the image collation unit 106 refers to the current image data continuously acquired in step S101. Further, the image collation unit 106 refers to the video data 109b included in the video map data 109 acquired in step S103. Then, the image collation unit 106 identifies the reference image corresponding to the change of the plurality of current images by collating the change of the plurality of current images included in the current image data with the reference image included in the video data 109b. do.

ここで、複数の現在画像の変化は、一般的に、ある道路を一定の方向に移動している場合、一定になることが多い。そのため、複数の現在画像の変化に対応する参照画像を特定するための照合において、複数の現在画像の変化は、ベクトル化することによって定量的に表現できる。そこで、複数の現在画像の変化に対応する参照画像は、例えば、複数の現在画像の変化を示すベクトルと、ステップS105にて推定された移動中の道路沿いの参照画像の変化を示すベクトルとを比較し、両ベクトルの類似度が最も高い参照画像が、複数の現在画像の変化に対応する参照画像として特定される。 Here, the changes in the plurality of current images are generally constant when moving in a certain direction on a certain road. Therefore, in the matching to identify the reference image corresponding to the change of the plurality of current images, the change of the plurality of current images can quantitatively expressed by vectorization. Therefore, the reference image corresponding to the change of the plurality of current images includes, for example, a vector indicating the change of the plurality of current images and a vector indicating the change of the reference image along the moving road estimated in step S105. By comparison, the reference image having the highest similarity between the two vectors is identified as the reference image corresponding to the changes in the plurality of current images.

推定部107は、ステップS131にて特定された参照画像に映像マップデータ109において関連付けられた撮影位置情報に基づいて、自動車の移動方向を推定する(ステップS132)。 The estimation unit 107 estimates the moving direction of the vehicle based on the shooting position information associated with the reference image identified in step S131 in the video map data 109 (step S132).

出力部108は、ステップS132にて推定された移動方向を含む移動方向データを出力し(ステップS133)、図4に示す位置推定処理に戻る。そして、出力部108は、位置推定処理を終了させる。 The output unit 108 outputs the movement direction data including the movement direction estimated in step S132 (step S133), and returns to the position estimation process shown in FIG. Then, the output unit 108 ends the position estimation process.

これまで、本発明の実施の形態1について説明した。 So far, Embodiment 1 of the present invention has been described.

本実施の形態によれば、予め撮影された参照画像のうちから、自動車に取り付けられたカメラにより撮影された現在画像に対応する参照画像を特定する。そして、特定された参照画像の撮影位置に基づいて、自動車の現在位置を推定する。 According to the present embodiment, the reference image corresponding to the current image taken by the camera attached to the automobile is specified from the reference images taken in advance. Then, the current position of the automobile is estimated based on the shooting position of the specified reference image.

このように、GPSのような信号波を用いずに自動車の移動位置を推定することができるので、地上の干渉物などの影響をあまり受けることなく、移動体の現在位置を推定することができる。従って、移動体の現在位置を精度良く推定することが可能になる。 In this way, since the moving position of the automobile can be estimated without using a signal wave such as GPS, the current position of the moving body can be estimated without being affected by interferences on the ground. .. Therefore, it is possible to accurately estimate the current position of the moving body.

本実施の形態によれば、予め撮影された参照画像のうちから、移動体に取り付けられたカメラにより撮影された複数の現在画像の変化に対応する参照画像を特定する。そして、特定された参照画像の撮影位置に基づいて、自動車の移動方向を推定する。 According to the present embodiment, from among the reference images taken in advance, the reference image corresponding to the change of a plurality of current images taken by the camera attached to the moving body is specified. Then, the moving direction of the automobile is estimated based on the shooting position of the specified reference image.

このように、GPSのような信号波を用いずに自動車の移動位置を推定することができるので、地上の干渉物などの影響をあまり受けることなく、移動体の移動方向を推定することができる。従って、移動体の移動方向を精度良く推定することが可能になる。 In this way, since the moving position of the automobile can be estimated without using a signal wave such as GPS, the moving direction of the moving body can be estimated without being affected by the interference on the ground. .. Therefore, it is possible to accurately estimate the moving direction of the moving body.

本実施の形態では、ランドマークには、予め定められた地物が採用され、そのランドマークに関する情報を基に、移動中の自動車の周辺のランドマークが推定されて、自動車が移動中の道路が推定される。そのため、例えば道路沿いの比較的大きな建物、施設など、位置が明確な地物をランドマークに採用して、そのランドマークの位置から移動中の道路を正確に特定することが可能になる。 In the present embodiment, a predetermined feature is adopted as the landmark, and the landmark around the moving vehicle is estimated based on the information about the landmark, and the road on which the vehicle is moving is estimated. Is estimated. Therefore, it is possible to adopt a feature with a clear position as a landmark, such as a relatively large building or facility along the road, and accurately identify the moving road from the position of the landmark.

本実施の形態では、前後左右という異なる方向を向いたカメラ101が設けられ、各カメラ101によって撮影された現在画像に基づいて、現在位置などが推定される。これにより、一方向のみの現在画像に基づいて、現在位置などを推定する場合よりも、推定の精度を良くすることが可能になる。 In the present embodiment, cameras 101 facing different directions such as front, back, left and right are provided, and the current position and the like are estimated based on the current images taken by each camera 101. This makes it possible to improve the accuracy of estimation as compared with the case of estimating the current position or the like based on the current image in only one direction.

本実施の形態では、概略位置取得部103を備える。これにより、映像マップ記憶部104から取得する映像マップデータ109を絞り込み、映像マップ記憶部104から取得するデータ量を低減することができる。これにより、照合などの処理において処理時間の短縮及び処理負荷の軽減を図ることが可能になる。 In the present embodiment, the approximate position acquisition unit 103 is provided. As a result, the video map data 109 acquired from the video map storage unit 104 can be narrowed down, and the amount of data acquired from the video map storage unit 104 can be reduced. This makes it possible to shorten the processing time and reduce the processing load in processing such as collation.

(変形例)
実施の形態1では、位置推定装置100が映像マップ記憶部104を備え、映像マップ取得部105が、映像マップデータ109を映像マップ記憶部104から取得する例を説明した。しかし、位置推定装置200は、図9に示すように、映像マップ記憶部104を備えなくてもよい。この場合、映像マップ取得部205は、例えば、図示しないサーバ装置からネットワークを介して映像マップデータ109を取得する。このネットワークは、有線回線、無線回線、又は、これらを組み合わせた回線によって構築される。
(Modification example)
In the first embodiment, an example in which the position estimation device 100 includes the video map storage unit 104 and the video map acquisition unit 105 acquires the video map data 109 from the video map storage unit 104 has been described. However, as shown in FIG. 9, the position estimation device 200 does not have to include the video map storage unit 104. In this case, the video map acquisition unit 205 acquires the video map data 109 from, for example, a server device (not shown) via the network. This network is constructed by a wired line, a wireless line, or a line in which these are combined.

実施の形態1では、位置推定装置100は、映像マップデータ109のデータ量に応じた記憶容量を有する映像マップ記憶部104を備える必要がある。そのため、映像マップデータ109のデータ量が大きい場合、映像マップ記憶部104の大型化し、高コスト化することがある。本変形例では、位置推定装置200は、映像マップ記憶部104を備えなくてもよいので、位置推定装置200の小型化や低コスト化を図ることが可能になる。 In the first embodiment, the position estimation device 100 needs to include a video map storage unit 104 having a storage capacity corresponding to the amount of data of the video map data 109. Therefore, when the amount of data of the video map data 109 is large, the size of the video map storage unit 104 may be increased and the cost may be increased. In this modification, since the position estimation device 200 does not have to include the video map storage unit 104, it is possible to reduce the size and cost of the position estimation device 200.

(実施の形態2)
実施の形態1では、移動体としての自動車の現在位置が、現在画像データと映像マップデータ109とに基づいて推定される例を説明した。実施の形態2では、移動体としての自動車の現在位置が、自律航法によっても推定される。そして、実施の形態2に係る位置推定装置は。現在画像と参照画像とに基づいて推定された現在位置と、自律航法によって推定された現在位置のうち、より確からしい現在位置を選択して出力する。
(Embodiment 2)
In the first embodiment, an example in which the current position of the automobile as a moving body is estimated based on the current image data and the video map data 109 has been described. In the second embodiment, the current position of the vehicle as a moving body is also estimated by autonomous navigation. Then, the position estimation device according to the second embodiment. The more probable current position is selected and output from the current position estimated based on the current image and the reference image and the current position estimated by autonomous navigation.

本発明の実施の形態2に係る位置推定装置300は、機能的には図10に示すように、実施の形態1に係る位置推定装置100が備える構成に加えて、自律航法部310を備える。また、位置推定装置300は、実施の形態1に係る位置推定装置100が備える推定部107及び出力部108に代わる、推定部307及び出力部308を備える。その他の点について、位置推定装置300の構成は、実施の形態1に係る位置推定装置100と概ね同様である。 As shown in FIG. 10, the position estimation device 300 according to the second embodiment of the present invention includes an autonomous navigation unit 310 in addition to the configuration provided by the position estimation device 100 according to the first embodiment. Further, the position estimation device 300 includes an estimation unit 307 and an output unit 308 instead of the estimation unit 107 and the output unit 108 included in the position estimation device 100 according to the first embodiment. Regarding other points, the configuration of the position estimation device 300 is substantially the same as that of the position estimation device 100 according to the first embodiment.

自律航法部310は、概略位置取得部が概略位置データを取得できない場合に、自律航法によって自動車の現在位置を推定する。また、自律航法部310は、第1の確証度を求める。第1の確証度は、自律航法によって推定した現在位置の確からしさを示す値である。 The autonomous navigation unit 310 estimates the current position of the vehicle by autonomous navigation when the approximate position acquisition unit cannot acquire the approximate position data. In addition, the autonomous navigation unit 310 seeks the first degree of certainty. The first degree of certainty is a value indicating the certainty of the current position estimated by autonomous navigation.

概略位置取得部103が概略位置データを取得できない場合としては、例えば、自動車がトンネルを走行中である場合、電波障害のために衛星との間でGPS信号を送受信できない場合などを挙げることができる。 Examples of cases where the approximate position acquisition unit 103 cannot acquire approximate position data include a case where an automobile is traveling in a tunnel and a case where GPS signals cannot be transmitted / received to / from a satellite due to radio interference. ..

推定部307は、実施の形態1に係る推定部107と同様の機能に加えて、第2の確証度を求める。第2の確証度は、映像マップデータ109に基づいて推定した現在位置の確からしさを示す値である。 The estimation unit 307 obtains a second degree of certainty in addition to the same function as the estimation unit 107 according to the first embodiment. The second degree of certainty is a value indicating the certainty of the current position estimated based on the video map data 109.

出力部308は、実施の形態1に係る推定部107と同様の機能を備える。 The output unit 308 has the same function as the estimation unit 107 according to the first embodiment.

本実施の形態に係る出力部308は、さらに、第1の確証度と第2の確証度とを比較し、比較した結果に基づいて、より確からしい現在位置を選択し、選択した現在位置を含む現在位置データを出力する。ここでの現在位置の選択は、自律航法によって推定された現在位置と映像マップデータ109に基づいて推定された現在位置とのうちから行われる。 The output unit 308 according to the present embodiment further compares the first certainty degree and the second certainty degree, selects a more probable current position based on the comparison result, and selects the selected current position. Output the current position data including. The current position is selected here from the current position estimated by autonomous navigation and the current position estimated based on the video map data 109.

すなわち、出力部308は、第1の確証度と第2の確証度とを比較することによって、自律航法によって推定された現在位置と、映像マップデータ109に基づいて推定された現在位置と、のうち、より確からしい方の、推定された現在位置を含む現在位置データを出力する。 That is, the output unit 308 determines that the current position estimated by autonomous navigation and the current position estimated based on the video map data 109 by comparing the first confirmation degree and the second confirmation degree. Of these, the more probable one outputs the current position data including the estimated current position.

これまで、本発明の実施の形態2に係る位置推定装置300の構成について説明した。ここから、本発明の実施の形態2に係る位置推定装置300の動作について説明する。 So far, the configuration of the position estimation device 300 according to the second embodiment of the present invention has been described. From here, the operation of the position estimation device 300 according to the second embodiment of the present invention will be described.

本実施の形態に係る位置推定装置300は、図11に例示する位置推定処理を実行する。同図は、本実施の形態に係る位置推定処理のうち、実施の形態1に係る位置推定処理(図4参照)と異なる部分の流れを示す。 The position estimation device 300 according to the present embodiment executes the position estimation process illustrated in FIG. The figure shows the flow of a portion of the position estimation process according to the present embodiment that is different from the position estimation process according to the first embodiment (see FIG. 4).

ステップS101の処理が実行されると、概略位置取得部103は、概略位置データを取得したか否かを判定する(ステップS302)。 When the process of step S101 is executed, the approximate position acquisition unit 103 determines whether or not the approximate position data has been acquired (step S302).

予め定められた判定時間内に概略位置データを取得した場合、概略位置取得部103は、概略位置データを取得したと判定する(ステップS302;YES)。概略位置データを取得したと判定された場合(ステップS302;YES)、映像マップ取得部105は、実施の形態1と同様のステップS103の処理を実行する。そして、画像照合部106、推定部107及び出力部108は、実施の形態1と同様のステップS104の処理を実行する。 When the approximate position data is acquired within the predetermined determination time, the approximate position acquisition unit 103 determines that the approximate position data has been acquired (step S302; YES). When it is determined that the approximate position data has been acquired (step S302; YES), the video map acquisition unit 105 executes the same process of step S103 as in the first embodiment. Then, the image collation unit 106, the estimation unit 107, and the output unit 108 execute the same process of step S104 as in the first embodiment.

予め定められた判定時間内に概略位置データを取得できなかった場合、概略位置取得部103は、概略位置データを取得していないと判定する(ステップS302;NO)。 If the approximate position data cannot be acquired within the predetermined determination time, the approximate position acquisition unit 103 determines that the approximate position data has not been acquired (step S302; NO).

概略位置データを取得していないと判定された場合(ステップS302;NO)、自律航法部310は、自律航法によって自動車の現在位置を推定する(ステップS341)。 When it is determined that the approximate position data has not been acquired (step S302; NO), the autonomous navigation unit 310 estimates the current position of the vehicle by autonomous navigation (step S341).

詳細には例えば、自律航法部310は、車速パルス生成回路、ジャイロセンサー、加速度センサーのそれぞれから車速、加速方向、加速度の大きさを示す信号を取得する。自律航法部310は、取得した信号と、直近に推定した現在位置とに基づいて、自動車の現在位置を推定する。 Specifically, for example, the autonomous navigation unit 310 acquires signals indicating the vehicle speed, acceleration direction, and magnitude of acceleration from each of the vehicle speed pulse generation circuit, the gyro sensor, and the acceleration sensor. The autonomous navigation unit 310 estimates the current position of the vehicle based on the acquired signal and the most recently estimated current position.

自律航法部310は、自律航法部310は、第1の確証度を求める(ステップS342)。第1の確証度は、例えば各種信号を取得できた時間に応じて算出される。 The autonomous navigation unit 310 asks the autonomous navigation unit 310 for the first degree of certainty (step S342). The first degree of certainty is calculated according to, for example, the time during which various signals can be acquired.

映像マップ取得部105は、映像マップデータ109を映像マップ記憶部104から取得する(ステップS343)。ここで取得する映像マップデータ109は、例えば直近に推定された現在位置から予め定められた範囲である。ここでの範囲は、移動体が移動していることを考慮して、概略位置データに基づいて絞り込む場合よりも広い範囲が設定されるとよい。 The video map acquisition unit 105 acquires the video map data 109 from the video map storage unit 104 (step S343). The video map data 109 acquired here is, for example, a predetermined range from the most recently estimated current position. The range here may be set wider than in the case of narrowing down based on the approximate position data in consideration of the fact that the moving body is moving.

画像照合部106と推定部307と出力部308とは、現在画像データと映像マップデータ109とに基づいて、自動車の現在位置を推定する(ステップS344)。 The image collation unit 106, the estimation unit 307, and the output unit 308 estimate the current position of the automobile based on the current image data and the video map data 109 (step S344).

現在位置推定処理(ステップS344)の詳細な流れを図12に示す。 The detailed flow of the current position estimation process (step S344) is shown in FIG.

図12に示すように、画像照合部106は、実施の形態1と同様のステップS111の処理を実行する。推定部307は、実施の形態1と同様のステップS112の処理を実行する。 As shown in FIG. 12, the image collation unit 106 executes the same process of step S111 as in the first embodiment. The estimation unit 307 executes the process of step S112 similar to that of the first embodiment.

推定部307は、第2の確証度を求める(ステップS351)。詳細には例えば、ステップS111にて特定された参照画像に対応する類似度に応じて算出される。 The estimation unit 307 obtains a second degree of certainty (step S351). In detail, for example, it is calculated according to the similarity corresponding to the reference image specified in step S111.

出力部308は、ステップS342とステップS351とのそれぞれで求められた第1の確証度と第2の確証度とを比較する(ステップS352)。 The output unit 308 compares the first confirmation degree and the second confirmation degree obtained in each of step S342 and step S351 (step S352).

出力部308は、ステップS352での比較の結果に基づいて、ステップS341及びステップS112(ステップS344に含まれるもの)にて推定された現在位置のうち、より確からしい方の現在位置を選択する。そして、出力部308は、選択した現在位置を含む現在位置データを出力する(ステップS353)。
詳細には、例えば、確証度が大きい方に対応する現在位置が選択される。すなわち、第1の確証度が第2の確証度よりも大きい場合、自律航法によって推定された現在位置が選択される。第2の確証度が第1の確証度よりも大きい場合、現在画像データと映像マップデータ109とに基づいて推定された現在位置が選択される。
The output unit 308 selects the more probable current position among the current positions estimated in steps S341 and S112 (included in step S344) based on the result of the comparison in step S352. Then, the output unit 308 outputs the current position data including the selected current position (step S353).
In detail, for example, the current position corresponding to the one with the higher degree of certainty is selected. That is, when the first degree of certainty is greater than the second degree of certainty, the current position estimated by autonomous navigation is selected. When the second confirmation degree is larger than the first confirmation degree, the current position estimated based on the current image data and the video map data 109 is selected.

第1の確証度と第2の確証度と等しい場合、例えば、予め定められた一方の現在位置が選択される。 If the first degree of certainty and the second degree of certainty are equal, for example, one of the predetermined current positions is selected.

ステップS104又はステップS344の処理が終わると、実施の形態1と同様のステップS105の処理が実行される。 When the process of step S104 or step S344 is completed, the process of step S105 similar to that of the first embodiment is executed.

これまで、本発明の実施の形態2について説明した。 So far, the second embodiment of the present invention has been described.

本実施の形態によれば、GPSにより推定された現在位置(概略位置)を取得できない場合に、現在画像及び参照画像の照合と、自律航法との異なる方法で現在位置を推定する。そして、それぞれの確証度に基づいて、より確からしい、すなわち精度が良いと推定される現在位置を選択して出力する。 According to the present embodiment, when the current position (approximate position) estimated by GPS cannot be obtained, the current position is estimated by a method different from the collation of the current image and the reference image and the autonomous navigation. Then, based on each degree of certainty, the current position, which is more probable, that is, estimated to have good accuracy, is selected and output.

概略位置を取得できない場合、現在画像と照合する参照画像を適切に絞り込めず、その結果、現在画像及び参照画像の照合による現在位置の推定の精度が低下するおそれがある。本実施の形態では、概略位置を取得できない場合には、上述のように、異なる方法で現在位置を推定して、より確からしい現在位置を選択して出力する。そのため、概略位置を取得できない場合に、現在位置の推定精度が低下することを抑制することが可能になる。 If the approximate position cannot be obtained, the reference image to be collated with the current image cannot be appropriately narrowed down, and as a result, the accuracy of estimating the current position by collating the current image and the reference image may decrease. In the present embodiment, when the approximate position cannot be obtained, the current position is estimated by a different method as described above, and a more probable current position is selected and output. Therefore, it is possible to suppress a decrease in the estimation accuracy of the current position when the approximate position cannot be obtained.

ここで、これまで説明した位置推定装置100,200,300の物理的な構成の例を、図13に示す。同図に示すように、位置推定装置100,200,300は、カメラ101a〜101dと、処理ユニット1001とを備え、これらが、自動車1002に搭載されている。カメラ101a〜101dのそれぞれと処理ユニット1001との間は、同図に示すように、配線1003a〜1003dにより接続される。なお、カメラ101a〜101dのそれぞれと処理ユニット1001との間は、現在画像データを授受できるように構成されればよく、有線に限られず、無線で接続されてもよい。 Here, an example of the physical configuration of the position estimation devices 100, 200, and 300 described so far is shown in FIG. As shown in the figure, the position estimation devices 100, 200, and 300 include cameras 101a to 101d and a processing unit 1001, which are mounted on the automobile 1002. As shown in the figure, the cameras 101a to 101d and the processing unit 1001 are connected by wirings 1003a to 1003d. It should be noted that each of the cameras 101a to 101d and the processing unit 1001 may be configured so as to be able to exchange image data at present, and may be connected wirelessly as well as by wire.

処理ユニット1001は、CPU(Cntral Processing Unit)1004、RAM(Random Access Memory)1005、ROM(Read Only Memory)1006、フラッシュメモリ1007、通信I/F(インタフェース)1008、GPSI/F(GPSインタフェース)1009、コネクタ1110などから構成される。処理ユニット1001内の各部1004〜1110は、内部バス1111で接続されて、データを送受信することができる。 The processing unit 1001 includes a CPU (Control Processing Unit) 1004, a RAM (Random Access Memory) 1005, a ROM (Read Only Memory) 1006, a flash memory 1007, a communication I / F (interface) 1008, and a GPS I / F (GPS interface) 1009. , Connector 1110 and the like. Each unit 1004 to 1110 in the processing unit 1001 is connected by an internal bus 1111 and can transmit and receive data.

通信I/F(インタフェース)1008は、携帯電話通信網、無線LAN(Local Area Network)などを介して通信するためのインタフェースである。GPSI/F(GPSインタフェース)1009は、GPSの衛星と通信し、自動車の概略位置を取得するためのインタフェースである。コネクタ1110は、配線1003a〜1003dが接続される部材である。 The communication I / F (interface) 1008 is an interface for communicating via a mobile phone communication network, a wireless LAN (Local Area Network), or the like. The GPS I / F (GPS interface) 1009 is an interface for communicating with GPS satellites and acquiring the approximate position of an automobile. The connector 1110 is a member to which the wirings 1003a to 1003d are connected.

位置推定装置100,200,300が備える各機能は、例えば、CPU1004が予め処理ユニット1001にインストールされたソフトウェア・プログラム(単に、「プログラム」ともいう。)を、RAM1005をワークスペースとして実行することによって、処理ユニット1001全体で実現される。 Each function of the position estimation devices 100, 200, and 300 is, for example, by executing a software program (simply referred to as a "program") in which the CPU 1004 is pre-installed in the processing unit 1001 by using the RAM 1005 as a workspace. , It is realized in the whole processing unit 1001.

詳細には例えば、現在画像取得部102、概略位置取得部103、映像マップ取得部105,205、画像照合部106、推定部107,307、出力部108,308、自律航法部310の機能は、上述のようにプログラムを実行するCPU1004により実現される。また例えば、映像マップ記憶部104の機能は、フラッシュメモリ1007により実現される。 Specifically, for example, the functions of the current image acquisition unit 102, the approximate position acquisition unit 103, the video map acquisition unit 105, 205, the image collation unit 106, the estimation unit 107, 307, the output unit 108, 308, and the autonomous navigation unit 310 are described. It is realized by the CPU 1004 that executes the program as described above. Further, for example, the function of the video map storage unit 104 is realized by the flash memory 1007.

なお、実施の形態2に係る位置推定装置300では、自律航法部310が現在位置の推定に用いる信号を得るために、図示しない車両の車速パルス生成回路、ジャイロセンサー、加速度センサーなどが自動車にさらに搭載される。 In the position estimation device 300 according to the second embodiment, in order to obtain a signal used by the autonomous navigation unit 310 for estimating the current position, a vehicle speed pulse generation circuit, a gyro sensor, an acceleration sensor, etc. of a vehicle (not shown) are further added to the automobile. It will be installed.

以上、本発明の実施の形態及び変形例について説明したが、本発明は、これらに限られない。例えば、本発明は、これまで説明した実施の形態及び変形例の一部又は全部を適宜組み合わせた形態、その形態に適宜変更を加えた形態をも含む。 Although the embodiments and modifications of the present invention have been described above, the present invention is not limited thereto. For example, the present invention also includes a form in which a part or all of the embodiments and modifications described above are appropriately combined, and a form in which the form is appropriately modified.

上記の実施の形態の一部又は全部は、以下の付記のようにも記載され得るが以下には限られない。
(付記1)
移動体に取り付けられたカメラによって地物が撮影された現在画像を含む現在画像データを取得する現在画像取得部と、
予め撮影することによって得られた地物の画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得する映像マップ取得部と、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定する画像照合部と、
前記特定された参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定する推定部と、
前記推定された現在位置を含む現在位置データを出力する出力部とを備える
ことを特徴とする位置推定装置。
(付記2)
前記画像照合部は、さらに、前記取得された現在画像データの現在画像の変化と前記取得された映像マップデータの参照画像とを照合することによって現在画像の変化に対応する参照画像を特定し、
前記推定部は、さらに、前記特定された参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記出力部は、さらに、前記推定された移動方向を含む移動方向データを出力する
ことを特徴とする付記1に記載の位置推定装置。
(付記3)
前記映像マップデータは、予め定められた地物であるランドマーク及び道路に関する位置情報をさらに含み、
前記推定部は、さらに、前記取得された映像マップデータと前記取得された現在画像データとに基づいて、前記移動体の周辺に位置するランドマークと、前記移動体が移動中の道路とを推定し、
前記出力部は、さらに、前記推定された移動中の道路を示す移動中道路データを出力する
ことを特徴とする付記1又は2に記載の位置推定装置。
(付記4)
前記移動体は、車両であり、
前記現在画像取得部は、移動体の前後左右の各々に取り付けられたカメラによって地物が撮影された現在画像を含む現在画像データを取得する
ことを特徴とする付記1から3のいずれか1つに記載の位置推定装置。
(付記5)
GPSによって推定された前記移動体の現在位置である概略位置を示す概略位置データを取得する概略位置取得部をさらに備え、
前記映像マップ取得部は、前記取得された概略位置データが示す概略位置に対して予め定められた範囲の参照画像を含む映像マップデータを取得する
ことを特徴とする付記1から4のいずれか1つに記載の位置推定装置。
(付記6)
概略位置取得部が前記概略位置データを取得できない場合に、自律航法によって前記移動体の現在位置を推定し、当該自律航法によって推定した現在位置の確からしさを示す第1の確証度を求める自律航法部をさらに備え、
前記推定部は、さらに、前記映像マップデータに基づいて推定した現在位置の確からしさを示す第2の確証度を求め、
前記出力部は、前記第1の確証度と前記第2の確証度とを比較することによって、前記自律航法によって推定された現在位置と、前記映像マップデータに基づいて推定された現在位置と、のうち、より確からしい方の前記推定された現在位置を含む現在位置データを出力する
ことを特徴とする付記5に記載の位置推定装置。
(付記7)
少なくとも1つ以上のカメラをさらに備える
ことを特徴とする付記1から6のいずれか1つに記載の位置推定装置。
(付記8)
前記映像マップ取得部は、ネットワークを介してサーバ装置から前記映像マップデータを取得する
ことを特徴とする付記1から7のいずれか1つに記載の位置推定装置。
(付記9)
前記映像マップデータを記憶する映像マップ記憶部をさらに備え、
前記映像マップ取得部は、前記映像マップ記憶部から前記映像マップデータを取得する
ことを特徴とする付記1から8のいずれか1つに記載の位置推定装置。
(付記10)
移動体に取り付けられたカメラによって地物が撮影された現在画像を含む現在画像データを取得することと、
予め撮影することによって得られた地物の画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得することと、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定することと、
前記特定された参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定することと、
前記推定された現在位置を含む現在位置データを出力することとを含む
ことを特徴とする位置推定方法。
(付記11)
コンピュータを、
移動体に取り付けられたカメラによって地物が撮影された現在画像を含む現在画像データを取得する現在画像取得部、
予め撮影することによって得られた地物の画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得する映像マップ取得部、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定する画像照合部、
前記特定された参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定する推定部、
前記推定された現在位置を含む現在位置データを出力する出力部、
として機能させるためのプログラム。
Some or all of the above embodiments may also be described, but not limited to:
(Appendix 1)
The current image acquisition unit that acquires the current image data including the current image of the feature taken by the camera attached to the moving body, and the current image acquisition unit.
A video map acquisition unit that acquires video map data associated with a reference image including an image of a feature obtained by shooting in advance and shooting position information of the reference image.
An image matching unit that identifies a reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
An estimation unit that estimates the current position of the moving body based on the shooting position information associated with the specified reference image in the video map data.
A position estimation device including an output unit that outputs current position data including the estimated current position.
(Appendix 2)
The image matching unit further identifies a reference image corresponding to the change in the current image by collating the change in the current image of the acquired current image data with the reference image in the acquired video map data.
The estimation unit further estimates the moving direction of the moving body based on the shooting position information associated with the specified reference image in the video map data.
The position estimation device according to Appendix 1, wherein the output unit further outputs movement direction data including the estimated movement direction.
(Appendix 3)
The video map data further includes location information regarding landmarks and roads that are predetermined features.
The estimation unit further estimates the landmarks located around the moving body and the road on which the moving body is moving, based on the acquired video map data and the acquired current image data. death,
The position estimation device according to Appendix 1 or 2, wherein the output unit further outputs moving road data indicating the estimated moving road.
(Appendix 4)
The moving body is a vehicle.
The current image acquisition unit is any one of Appendix 1 to 3, characterized in that the current image acquisition unit acquires current image data including a current image in which a feature is photographed by cameras attached to each of the front, rear, left and right sides of the moving body. The position estimation device described in 1.
(Appendix 5)
Further provided with an approximate position acquisition unit for acquiring approximate position data indicating an approximate position which is the current position of the moving body estimated by GPS.
The video map acquisition unit is any one of Appendix 1 to 4, characterized in that the video map acquisition unit acquires video map data including a reference image in a predetermined range with respect to the approximate position indicated by the acquired approximate position data. The position estimation device described in 1.
(Appendix 6)
When the approximate position acquisition unit cannot acquire the approximate position data, the current position of the moving body is estimated by autonomous navigation, and the first certainty indicating the certainty of the current position estimated by the autonomous navigation is obtained. With more parts
The estimation unit further obtains a second degree of certainty indicating the certainty of the current position estimated based on the video map data.
The output unit has a current position estimated by the autonomous navigation by comparing the first confirmation degree and the second confirmation degree, and a current position estimated based on the video map data. The position estimation device according to Appendix 5, wherein the more probable current position data including the estimated current position is output.
(Appendix 7)
The position estimation device according to any one of Supplementary note 1 to 6, further comprising at least one or more cameras.
(Appendix 8)
The position estimation device according to any one of Supplementary note 1 to 7, wherein the video map acquisition unit acquires the video map data from a server device via a network.
(Appendix 9)
A video map storage unit for storing the video map data is further provided.
The position estimation device according to any one of Supplementary note 1 to 8, wherein the video map acquisition unit acquires the video map data from the video map storage unit.
(Appendix 10)
Acquiring the current image data including the current image of the feature taken by the camera attached to the moving body, and
Acquiring video map data in which a reference image including an image of a feature obtained by shooting in advance and the shooting position information of the reference image are associated with each other.
Identifying the reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
Estimating the current position of the moving body based on the shooting position information associated with the specified reference image in the video map data.
A position estimation method including outputting current position data including the estimated current position.
(Appendix 11)
Computer,
The current image acquisition unit, which acquires the current image data including the current image of the feature taken by the camera attached to the moving body.
A video map acquisition unit that acquires video map data associated with a reference image including an image of a feature obtained by shooting in advance and shooting position information of the reference image.
An image matching unit that identifies a reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
An estimation unit that estimates the current position of the moving body based on the shooting position information associated with the specified reference image in the video map data.
An output unit that outputs current position data including the estimated current position,
A program to function as.

本発明は、例えば、カーナビゲーションシステム、車両の運行状況を管理する装置などに有用に利用することができる。 The present invention can be usefully used, for example, in a car navigation system, a device for managing the operation status of a vehicle, and the like.

100,200,300 位置推定装置
101,101a〜101d カメラ
102 現在画像取得部
103 概略位置取得部
104 映像マップ記憶部
105,205 映像マップ取得部
106 画像照合部
107 推定部
108 出力部
109 映像マップデータ
109a 地図データ
109b 映像データ
310 自律航法部
100,200,300 Position estimation device 101,101a-101d Camera 102 Current image acquisition unit 103 Approximate position acquisition unit 104 Video map storage unit 105,205 Video map acquisition unit 106 Image matching unit 107 Estimating unit 108 Output unit 109 Video map data 109a Map data 109b Video data 310 Autonomous Navigation Department

Claims (7)

移動体の前後左右に取り付けられた4つのカメラによって地物が撮影された前方画像、後方画像、左方画像及び右方画像から成る現在画像を含む現在画像データを一定の時間間隔で継続的に取得する現在画像取得部と、
予め撮影することによって得られた地物の前方画像、後方画像、左方画像及び右方画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得する映像マップ取得部と、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定する画像照合部と、
前記特定された現在画像に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定する推定部と、
前記推定された現在位置を含む現在位置データを出力する出力部とを備え、
前記画像照合部は、さらに、前記取得された現在画像データの複数の現在画像の変化を示すベクトルと前記取得された映像マップデータの参照画像の変化を示すベクトルとを照合することによって、両ベクトルの類似度が最も高い参照画像を、前記複数の現在画像の変化に対応する参照画像として特定し、
前記推定部は、さらに、前記特定された複数の現在画像の変化に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記出力部は、さらに、前記推定された移動方向を含む移動方向データを出力する
ことを特徴とする位置推定装置。
Four forward side image feature is captured by a camera mounted on the front, rear, left and right of the moving body, the rearward image, continuously the current image data currently contains an image composed of the left image and right image at regular time intervals The current image acquisition unit to be acquired and
An image for acquiring image map data in which a reference image including a front image, a rear image, a left image, and a right image of a feature obtained by taking a picture in advance and a shooting position information of the reference image are associated with each other. Map acquisition department and
An image matching unit that identifies a reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
An estimation unit that estimates the current position of the moving body based on the shooting position information associated with the reference image corresponding to the specified current image in the video map data.
It is provided with an output unit that outputs current position data including the estimated current position.
The image collating unit further collates the vector indicating the change of the plurality of current images of the acquired current image data with the vector indicating the change of the reference image of the acquired video map data, thereby both vectors. The reference image having the highest degree of similarity is identified as the reference image corresponding to the change of the plurality of current images.
The estimation unit further estimates the moving direction of the moving body based on the shooting position information associated with the reference image corresponding to the change of the specified plurality of current images in the video map data.
The output unit is a position estimation device that further outputs movement direction data including the estimated movement direction.
前記映像マップデータは、予め定められた地物であるランドマーク及び道路に関する位置情報をさらに含み、
前記推定部は、さらに、前記取得された映像マップデータと前記取得された現在画像データとに基づいて、前記移動体の周辺に位置するランドマークと、前記移動体が移動中の道路とを推定し、
前記出力部は、さらに、前記推定された移動中の道路を示す移動中道路データを出力する
ことを特徴とする請求項1に記載の位置推定装置。
The video map data further includes location information regarding landmarks and roads that are predetermined features.
The estimation unit further estimates the landmarks located around the moving body and the road on which the moving body is moving, based on the acquired video map data and the acquired current image data. death,
The position estimation device according to claim 1, wherein the output unit further outputs moving road data indicating the estimated moving road.
GPSによって推定された前記移動体の現在位置である概略位置を示す概略位置データを取得する概略位置取得部をさらに備え、
前記映像マップ取得部は、前記取得された概略位置データが示す概略位置に対して予め定められた範囲の参照画像を含む映像マップデータを取得する
ことを特徴とする請求項1又は2に記載の位置推定装置。
Further provided with an approximate position acquisition unit for acquiring approximate position data indicating an approximate position which is the current position of the moving body estimated by GPS.
The video map acquisition unit according to claim 1 or 2 , wherein the video map acquisition unit acquires video map data including a reference image in a predetermined range with respect to the approximate position indicated by the acquired approximate position data. Position estimation device.
前記概略位置取得部が前記概略位置データを取得できない場合に、自律航法によって前記移動体の現在位置を推定し、当該自律航法によって推定した現在位置の確からしさを示す第1の確証度を求める自律航法部をさらに備え、
前記推定部は、さらに、前記映像マップデータに基づいて推定した現在位置の確からしさを示す第2の確証度を求め、
前記出力部は、前記第1の確証度と前記第2の確証度とを比較することによって、前記自律航法によって推定された現在位置と、前記映像マップデータに基づいて推定された現在位置と、のうち、より確からしい方の前記推定された現在位置を含む現在位置データを出力する
ことを特徴とする請求項に記載の位置推定装置。
When the approximate position acquisition unit cannot acquire the approximate position data, the current position of the moving body is estimated by autonomous navigation, and the first degree of certainty indicating the certainty of the current position estimated by the autonomous navigation is obtained. With more navigation
The estimation unit further obtains a second degree of certainty indicating the certainty of the current position estimated based on the video map data.
The output unit has a current position estimated by the autonomous navigation by comparing the first confirmation degree and the second confirmation degree, a current position estimated based on the video map data, and a current position. The position estimation device according to claim 3 , wherein the more probable current position data including the estimated current position is output.
前記映像マップ取得部は、ネットワークを介してサーバ装置から前記映像マップデータを取得する
ことを特徴とする請求項1からのいずれか1項に記載の位置推定装置。
The position estimation device according to any one of claims 1 to 4 , wherein the video map acquisition unit acquires the video map data from a server device via a network.
移動体の前後左右に取り付けられた4つのカメラによって地物が撮影された前方画像、後方画像、左方画像及び右方画像から成る現在画像を含む現在画像データを一定の時間間隔で継続的に取得することと、
予め撮影することによって得られた地物の前方画像、後方画像、左方画像及び右方画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得することと、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定することと、
前記特定された現在画像に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定することと、
前記推定された現在位置を含む現在位置データを出力することとを含み、
前記参照画像を特定することでは、さらに、前記取得された現在画像データの複数の現在画像の変化を示すベクトルと前記取得された映像マップデータの参照画像の変化を示すベクトルとを照合することによって、両ベクトルの類似度が最も高い参照画像を、前記複数の現在画像の変化に対応する参照画像として特定し、
前記移動体の現在位置を推定することでは、さらに、前記特定された複数の現在画像の変化に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記現在位置データを出力することでは、さらに、前記推定された移動方向を含む移動方向データを出力する
ことを特徴とする位置推定方法。
Four forward side image feature is captured by a camera mounted on the front, rear, left and right of the moving body, the rearward image, continuously the current image data currently contains an image composed of the left image and right image at regular time intervals To get and
Acquiring video map data in which a reference image including a front image, a rear image, a left image, and a right image of a feature obtained by shooting in advance and a shooting position information of the reference image are associated with each other. When,
Identifying the reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
To estimate the current position of the moving body based on the shooting position information associated with the reference image corresponding to the specified current image in the video map data.
Including outputting the current position data including the estimated current position.
In specifying the reference image, further, by collating the vector showing the change of the plurality of current images of the acquired current image data with the vector showing the change of the reference image of the acquired video map data. , The reference image having the highest similarity between the two vectors is specified as the reference image corresponding to the change of the plurality of current images.
In estimating the current position of the moving body, the moving body is further based on the shooting position information associated with the reference image corresponding to the change of the specified plurality of current images in the video map data. Estimate the direction of movement,
The position estimation method is characterized in that the output of the current position data further outputs the movement direction data including the estimated movement direction.
コンピュータを、
移動体の前後左右に取り付けられた4つのカメラによって地物が撮影された前方画像、後方画像、左方画像及び右方画像から成る現在画像を含む現在画像データを一定の時間間隔で継続的に取得する現在画像取得部、
予め撮影することによって得られた地物の前方画像、後方画像、左方画像及び右方画像を含む参照画像と、当該参照画像の撮影位置情報と、が関連付けられた映像マップデータを取得する映像マップ取得部、
前記取得された現在画像データの現在画像と前記取得された映像マップデータの参照画像とを照合することによって現在画像に対応する参照画像を特定する画像照合部、
前記特定された現在画像に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の現在位置を推定する推定部、
前記推定された現在位置を含む現在位置データを出力する出力部、として機能させ、
前記画像照合部は、さらに、前記取得された現在画像データの複数の現在画像の変化を示すベクトルと前記取得された映像マップデータの参照画像の変化を示すベクトルとを照合することによって、両ベクトルの類似度が最も高い参照画像を、前記複数の現在画像の変化に対応する参照画像として特定し、
前記推定部は、さらに、前記特定された複数の現在画像の変化に対応する参照画像に前記映像マップデータにて関連付けられた撮影位置情報に基づいて、前記移動体の移動方向を推定し、
前記出力部は、さらに、前記推定された移動方向を含む移動方向データを出力するように機能させるためのプログラム。
Computer,
Four forward side image feature is captured by a camera mounted on the front, rear, left and right of the moving body, the rearward image, continuously the current image data currently contains an image composed of the left image and right image at regular time intervals Current image acquisition department to acquire,
An image for acquiring image map data in which a reference image including a front image, a rear image, a left image, and a right image of a feature obtained by taking a picture in advance and a shooting position information of the reference image are associated with each other. Map acquisition department,
An image matching unit that identifies a reference image corresponding to the current image by collating the current image of the acquired current image data with the reference image of the acquired video map data.
An estimation unit that estimates the current position of the moving body based on the shooting position information associated with the reference image corresponding to the specified current image in the video map data.
It functions as an output unit that outputs the current position data including the estimated current position.
The image collating unit further collates the vector indicating the change of the plurality of current images of the acquired current image data with the vector indicating the change of the reference image of the acquired video map data, thereby both vectors. The reference image having the highest degree of similarity is identified as the reference image corresponding to the change of the plurality of current images.
The estimation unit further estimates the moving direction of the moving body based on the shooting position information associated with the reference image corresponding to the change of the specified plurality of current images in the video map data.
The output unit is a program for further functioning to output movement direction data including the estimated movement direction.
JP2020024110A 2016-02-22 2020-02-17 Position estimation device, position detection method and program Active JP6948042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020024110A JP6948042B2 (en) 2016-02-22 2020-02-17 Position estimation device, position detection method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016031016A JP6751280B2 (en) 2016-02-22 2016-02-22 Position estimating device, position detecting method and program
JP2020024110A JP6948042B2 (en) 2016-02-22 2020-02-17 Position estimation device, position detection method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016031016A Division JP6751280B2 (en) 2016-02-22 2016-02-22 Position estimating device, position detecting method and program

Publications (2)

Publication Number Publication Date
JP2020098363A JP2020098363A (en) 2020-06-25
JP6948042B2 true JP6948042B2 (en) 2021-10-13

Family

ID=71105950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020024110A Active JP6948042B2 (en) 2016-02-22 2020-02-17 Position estimation device, position detection method and program

Country Status (1)

Country Link
JP (1) JP6948042B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11271074A (en) * 1998-03-20 1999-10-05 Fujitsu Ltd Device and method for comparing mark image and program storage medium
JP4931113B2 (en) * 2006-06-27 2012-05-16 アルパイン株式会社 Own vehicle position determination device
WO2011013179A1 (en) * 2009-07-31 2011-02-03 富士通株式会社 Mobile object position detecting device and mobile object position detecting method

Also Published As

Publication number Publication date
JP2020098363A (en) 2020-06-25

Similar Documents

Publication Publication Date Title
JP6751280B2 (en) Position estimating device, position detecting method and program
CN108450034B (en) Vehicle positioning system and method based on images
JP7326720B2 (en) Mobile position estimation system and mobile position estimation method
JP6675770B2 (en) Map update method and in-vehicle terminal
CA2569209C (en) Image-augmented inertial navigation system (iains) and method
KR100647807B1 (en) Method for extraction of 3d building information using shadow analysis
EP2657644B1 (en) Positioning apparatus and positioning method
US10996072B2 (en) Systems and methods for updating a high-definition map
JP2009257763A (en) System, method and program for position estimation for vehicle
US20200218906A1 (en) Robust lane association by projecting 2-d image into 3-d world using map information
EP2244063A2 (en) System and method for collaborative navigation
JP7259454B2 (en) Mobile position estimation system and mobile position estimation method
EP2175237B1 (en) System and methods for image-based navigation using line features matching
JP7045285B2 (en) Information providing equipment, information providing method, and information providing program
WO2020039937A1 (en) Position coordinates estimation device, position coordinates estimation method, and program
CN111183464B (en) System and method for estimating saturation flow of signal intersection based on vehicle trajectory data
CN112689234A (en) Indoor vehicle positioning method and device, computer equipment and storage medium
CN112629558A (en) Vehicle inertial navigation matching correction method and device, equipment and storage medium
JP2022039188A (en) Position attitude calculation method and position attitude calculation program
JP7151449B2 (en) Information processing system, program, and information processing method
JP6948042B2 (en) Position estimation device, position detection method and program
US11481920B2 (en) Information processing apparatus, server, movable object device, and information processing method
CN113091756A (en) Position estimation device and position estimation method
JP6810428B2 (en) Position estimation device, position estimation method and program
JP6946660B2 (en) Positioning device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210909

R150 Certificate of patent or registration of utility model

Ref document number: 6948042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150