JP2013061270A - Present position calculation device and present position calculation method - Google Patents

Present position calculation device and present position calculation method Download PDF

Info

Publication number
JP2013061270A
JP2013061270A JP2011200540A JP2011200540A JP2013061270A JP 2013061270 A JP2013061270 A JP 2013061270A JP 2011200540 A JP2011200540 A JP 2011200540A JP 2011200540 A JP2011200540 A JP 2011200540A JP 2013061270 A JP2013061270 A JP 2013061270A
Authority
JP
Japan
Prior art keywords
image
current position
matching
position calculation
pixel pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011200540A
Other languages
Japanese (ja)
Inventor
Shingo Komura
眞吾 小村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011200540A priority Critical patent/JP2013061270A/en
Publication of JP2013061270A publication Critical patent/JP2013061270A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a present position calculation device and present position calculation method capable of properly calculating a true present position even on a monotonous road that does not have any target to be by suppressing accumulations of errors.SOLUTION: The present position calculation device of this invention includes an observation image input part 1 for receiving an observation image being a two-dimensional image at the present position of one's own vehicle 17, a reference image management part 9 for managing a reference image being a two-dimensional image prepared in advance in association with a predetermined place, a pixel pattern collation part 5 as a collation part for collating the observation image with a reference image corresponding to a temporary present position being a stored present position by image matching, and a present position calculation part 6 for calculating a true present position of the one's own vehicle 17 on the basis of a collation result in the pixel pattern collation part 5.

Description

本発明は現在位置算出装置および現在位置算出方法に関し、特に、移動体の真の現在位置を算出できる現在位置算出装置および現在位置算出方法に関するものである。   The present invention relates to a current position calculation device and a current position calculation method, and more particularly to a current position calculation device and a current position calculation method that can calculate a true current position of a moving object.

現在位置算出装置は、従来から様々な方法で移動体の現在位置を算出してきた。例えば、GPSによる位置情報を利用して、車両の現在位置を算出するカーナビゲーション装置が多く利用されている。   The current position calculation device has conventionally calculated the current position of the moving body by various methods. For example, car navigation devices that use GPS location information to calculate the current position of a vehicle are often used.

一方、GPS等による位置情報の取得が困難な状況下では、移動体である車両に備えられた車速パルス、角速度センサー(ジャイロセンサー)を用いて現在位置の算出およびその補正を行っていた。   On the other hand, under the situation where it is difficult to acquire position information by GPS or the like, the current position is calculated and corrected using a vehicle speed pulse and an angular velocity sensor (gyro sensor) provided in a vehicle that is a moving body.

しかし、このような車速パルス、角速度センサーを用いた補正では、現在位置算出の際に生じる誤差が累積してしまうという問題があった。また、角速度センサーの精度以下の動作が検知できず、角度誤差も累積するという問題もあった。   However, such correction using the vehicle speed pulse and angular velocity sensor has a problem that errors generated when calculating the current position are accumulated. In addition, there is a problem in that an operation below the accuracy of the angular velocity sensor cannot be detected, and angular errors also accumulate.

そこで、特許文献1には、ランドマーク(電柱、信号機、道路標識等)がある地図データリストにより、車両の現在位置を特定する方法が示されている。   Thus, Patent Document 1 discloses a method for specifying the current position of a vehicle by using a map data list having landmarks (electric poles, traffic lights, road signs, etc.).

具体的には、自車から確認可能な最も遠方にあるランドマークと自車の現在位置との距離を、例えば左右両眼の役目を果たす一対のTVカメラの、ステレオ画像を用いた3次元測定により求める。そして、そのランドマークに対応する地図上のランドマーク座標から車両の現在位置を特定する。   Specifically, the distance between the farthest landmark that can be confirmed from the vehicle and the current position of the vehicle is measured in a three-dimensional manner using a stereo image of a pair of TV cameras that serve as both left and right eyes, for example. Ask for. Then, the current position of the vehicle is specified from the landmark coordinates on the map corresponding to the landmark.

ランドマークとランドマーク座標との対応を求める際には、自車のステレオ画像によりランドマーク種類とランドマーク間の相互距離とを観測地図リストとして作成し、地図データリストと作成した観測地図リストとのリストマッチングを行い、その対応を求める。   When finding the correspondence between landmarks and landmark coordinates, create the observation map list with the type of landmark and the mutual distance between the landmarks using the stereo image of the vehicle, List matching is performed and the correspondence is obtained.

特開平8−247775号公報JP-A-8-247775

特許文献1に示した方法では、走行路にあるランドマーク(電柱、信号機、道路標識等)が有る特定の地点でしか目標物が設定できず、目標物になりそうなものが無い単調な道路が続く場合などにランドマークが定まらないという問題があった。   In the method shown in Patent Document 1, a target road can be set only at a specific point where there is a landmark (electric pole, traffic light, road sign, etc.) on the road, and there is no road that is likely to be a target. There was a problem that the landmarks could not be determined, etc.

本発明は、上記のような問題を解決するためになされたものであり、誤差の累積を抑制し、目標物になりそうなものがない単調な道路でも適切に真の現在位置を算出できる現在位置算出装置および現在位置算出方法の提供を目的とする。   The present invention has been made to solve the above-described problems, and suppresses the accumulation of errors, and can calculate a true current position appropriately even on a monotonous road that has no possibility of becoming a target. An object is to provide a position calculation device and a current position calculation method.

本発明にかかる現在位置算出装置は、移動体の現在位置における2次元画像である観測画像が入力される観測画像入力部と、所定の地点に関連して予め用意された2次元画像である参照画像を管理する、参照画像管理部と、前記観測画像と、記憶されている現在位置である仮現在位置に対応する前記参照画像とを、画像マッチングにより照合する照合部と、前記照合部における照合結果に基づいて、前記移動体の真の現在位置を算出する現在位置算出部とを備えることを特徴とする。   The present position calculation apparatus according to the present invention includes an observation image input unit to which an observation image, which is a two-dimensional image at a current position of a moving body, is input, and a reference that is a two-dimensional image prepared in advance in association with a predetermined point. A reference image management unit for managing images, a collation unit that collates the observed image with the reference image corresponding to the temporary current position that is a stored current position by image matching, and a collation in the collation unit And a current position calculation unit that calculates a true current position of the mobile body based on the result.

本発明にかかる現在位置算出方法は、(a)移動体の現在位置における2次元画像である観測画像を入力する工程と、(b)所定の地点に関連した2次元画像である参照画像を用意する工程と、(c)前記観測画像と、記憶されている現在位置である仮現在位置に対応する前記参照画像とを、画像マッチングにより照合する工程と、(d)前記工程(c)における照合結果に基づいて、前記移動体の真の現在位置を算出する工程とを備えることを特徴とする。   In the present position calculation method according to the present invention, (a) a step of inputting an observation image that is a two-dimensional image at the current position of a mobile object, and (b) a reference image that is a two-dimensional image related to a predetermined point is prepared. (C) collating the observed image with the reference image corresponding to the temporary current position that is the stored current position by image matching; and (d) collating in the step (c). And a step of calculating a true current position of the moving body based on the result.

本発明にかかる現在位置算出装置によれば、移動体の現在位置における2次元画像である観測画像が入力される観測画像入力部と、所定の地点に関連して予め用意された2次元画像である参照画像を管理する、参照画像管理部と、前記観測画像と、記憶されている現在位置である仮現在位置に対応する前記参照画像とを、画像マッチングにより照合する照合部と、前記照合部における照合結果に基づいて、前記移動体の真の現在位置を算出する現在位置算出部とを備えることにより、現在位置における2次元画像を用いることで誤差の累積を抑制し、画像マッチングによって移動体の真の現在位置を算出することができる。   According to the present position calculation apparatus according to the present invention, an observation image input unit to which an observation image, which is a two-dimensional image at the current position of the moving body, is input, and a two-dimensional image prepared in advance in association with a predetermined point. A reference image management unit that manages a reference image, a collation unit that collates the observed image with the reference image corresponding to the temporary current position that is a stored current position by image matching, and the collation unit And a current position calculation unit that calculates the true current position of the moving body based on the collation result in the above, so that accumulation of errors is suppressed by using a two-dimensional image at the current position, and the moving body is subjected to image matching. The true current position of can be calculated.

本発明にかかる現在位置算出方法によれば、(a)移動体の現在位置における2次元画像である観測画像を入力する工程と、(b)所定の地点に関連した2次元画像である参照画像を用意する工程と、(c)前記観測画像と、記憶されている現在位置である仮現在位置に対応する前記参照画像とを、画像マッチングにより照合する工程と、(d)前記工程(c)における照合結果に基づいて、前記移動体の真の現在位置を算出する工程とを備えることにより、現在位置における2次元画像を用いることで誤差の累積を抑制し、画像マッチングによって移動体の真の現在位置を算出することができる。   According to the present position calculation method according to the present invention, (a) a step of inputting an observation image that is a two-dimensional image at the current position of the moving body; and (b) a reference image that is a two-dimensional image related to a predetermined point. (C) collating the observed image with the reference image corresponding to the provisional current position, which is the stored current position, and (d) the step (c) And calculating the true current position of the moving body based on the collation result in the above, thereby suppressing the accumulation of errors by using a two-dimensional image at the current position, and performing the true matching of the moving body by image matching. The current position can be calculated.

実施の形態1にかかる現在位置算出装置の構成を示す図である。It is a figure which shows the structure of the present position calculation apparatus concerning Embodiment 1. FIG. 実施の形態1にかかる観測画像の例を示す図である。FIG. 3 is a diagram illustrating an example of an observation image according to the first embodiment. 実施の形態1にかかるピクセルパターンの例を示す図である。FIG. 3 is a diagram illustrating an example of a pixel pattern according to the first embodiment. 実施の形態1にかかる地図データの例を示す図である。It is a figure which shows the example of the map data concerning Embodiment 1. FIG. 実施の形態1にかかる地図データの通信例を示す図である。It is a figure which shows the example of communication of the map data concerning Embodiment 1. FIG. 実施の形態1にかかるピクセルパターンの例を示す図である。FIG. 3 is a diagram illustrating an example of a pixel pattern according to the first embodiment. 実施の形態1にかかる補正部および現在位置算出部の構成を示す図である。FIG. 3 is a diagram illustrating configurations of a correction unit and a current position calculation unit according to the first embodiment. 実施の形態1にかかる、現在位置算出装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the current position calculation apparatus according to the first embodiment. 実施の形態1にかかる、現在位置算出装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the current position calculation apparatus according to the first embodiment. 実施の形態1にかかる、現在位置算出装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the current position calculation apparatus according to the first embodiment. 実施の形態1にかかる、現在位置算出装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the current position calculation apparatus according to the first embodiment. 実施の形態1にかかる、現在位置算出装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the current position calculation apparatus according to the first embodiment. 実施の形態1にかかる現在位置算出装置の動作を示す図である。It is a figure which shows operation | movement of the present position calculation apparatus concerning Embodiment 1. FIG. 実施の形態1にかかる現在位置算出装置の動作を説明する図である。FIG. 6 is a diagram for explaining the operation of the current position calculation apparatus according to the first embodiment. 実施の形態1にかかる現在位置算出装置の動作を説明する図である。FIG. 6 is a diagram for explaining the operation of the current position calculation apparatus according to the first embodiment. 実施の形態1にかかる現在位置算出装置の動作を説明する図である。FIG. 6 is a diagram for explaining the operation of the current position calculation apparatus according to the first embodiment. 実施の形態1にかかる現在位置算出装置の動作を説明する図である。FIG. 6 is a diagram for explaining the operation of the current position calculation apparatus according to the first embodiment.

<A.実施の形態1>
<A−1.構成>
図1は、本発明にかかる現在位置算出装置の全体構成を、概念的に示したものである。なお、以下の説明では、特に「車両」の現在位置を算出する場合について説明するが、本発明は、車両の位置を算出する場合に限られるものではなく、一般に移動体の現在位置を算出することができる現在位置算出装置である。
<A. Embodiment 1>
<A-1. Configuration>
FIG. 1 conceptually shows the overall configuration of a current position calculation apparatus according to the present invention. In the following description, a case where the current position of the “vehicle” is calculated will be described. However, the present invention is not limited to the case where the position of the vehicle is calculated. In general, the current position of the moving object is calculated. It is a current position calculation device that can.

図1に示すように、現在位置算出装置は、移動体としての車両の現在位置において車両側から車両の周囲の全方向を連続的に撮像した2次元画像(観測画像)が入力される観測画像入力部1と、観測画像入力部1における観測画像から、観測ピクセルパターンを作成する観測ピクセルパターン作成部2とを備えている。また、観測画像入力部1における観測画像に所定の属性データを付加させ、平面地図データ上に観測地図データとしてリンクさせて記憶する観測地図データ記憶部3をさらに備えることができるが、当該構成は、ネットワーク等を介して利用することもできる。   As shown in FIG. 1, the current position calculation device is an observation image to which a two-dimensional image (observation image) obtained by continuously capturing all directions around the vehicle from the vehicle side at the current position of the vehicle as a moving body is input. An input unit 1 and an observation pixel pattern creation unit 2 that creates an observation pixel pattern from an observation image in the observation image input unit 1 are provided. The observation image input unit 1 may further include an observation map data storage unit 3 for adding predetermined attribute data to the observation image and linking and storing it as observation map data on the planar map data. It can also be used via a network or the like.

また、例えばネットワーク上において、予め平面地図データ上の所定の地点にリンクされた、その位置における車両側から撮像した2次元画像(参照画像)を含む参照地図データを記憶する参照地図データ記憶部10と、参照地図データ記憶部10から所定の参照地図データを取得し、その参照画像を管理する参照画像管理部9と、参照画像管理部9における参照画像から、参照ピクセルパターンを作成する参照ピクセルパターン作成部7と、観測ピクセルパターンと参照ピクセルパターンとを画像マッチングにより照合するピクセルパターン照合部5と、GPS等による位置情報やピクセルパターン照合部5における照合結果に基づいて、車両の真の現在位置を算出する現在位置算出部6と、現在位置算出部6において、照合結果から算出される値の補正を行う補正部4とを備える。   Further, for example, on the network, the reference map data storage unit 10 stores reference map data including a two-dimensional image (reference image) captured from the vehicle side at the position, which is linked in advance to a predetermined point on the planar map data. A predetermined reference map data from the reference map data storage unit 10, a reference image management unit 9 that manages the reference image, and a reference pixel pattern that creates a reference pixel pattern from the reference image in the reference image management unit 9 The true current position of the vehicle based on the creation unit 7, the pixel pattern matching unit 5 that matches the observed pixel pattern and the reference pixel pattern by image matching, the positional information by GPS and the matching result in the pixel pattern matching unit 5 Is calculated from the collation result in the current position calculation unit 6 for calculating And a correcting unit 4 that corrects the values.

観測画像入力部1は、観測画像として、例えば車両等に取り付けられた全方向カメラ16によって撮像された、図2(a)および(b)に示すようなパノラマ画像18(アラウンドビュー)を取得することができる。図2(b)に示すような自車17位置から、全方向カメラ16を用いて観測した場合、図2(a)に示すようなパノラマ画像18を取得することができる(図2(a)に示すパノラマ画像18は、図2(b)に示すパノラマ画像18を平面状に広げたものである)。水平線14が画像の中央付近にあり、道路11、道路12、道路13のそれぞれが、順に示されている。   The observation image input unit 1 acquires, as an observation image, for example, a panoramic image 18 (around view) as shown in FIGS. 2A and 2B captured by an omnidirectional camera 16 attached to a vehicle or the like. be able to. When observed using the omnidirectional camera 16 from the position of the host vehicle 17 as shown in FIG. 2B, a panoramic image 18 as shown in FIG. 2A can be acquired (FIG. 2A). The panoramic image 18 shown in FIG. 2 is obtained by expanding the panoramic image 18 shown in FIG. A horizontal line 14 is near the center of the image, and road 11, road 12, and road 13 are shown in order.

なお、入力される観測画像はパノラマ画像である必要はなく、所定範囲の建造物等を車両側から観測したものであればよい。   The input observation image does not have to be a panoramic image, and may be any observation image of a building or the like within a predetermined range from the vehicle side.

観測ピクセルパターン作成部2は、図3に示すように、観測画像(パノラマ画像18)から当該観測画像の一部、例えば所定の高さ分の水平方向のピクセルパターンを切り取り、観測ピクセルパターン21を作成する。切り取る部分の高さは、最も位置特定に有利な高さ位置、例えば外乱の少ない水平線高さ位置(通りの自動車、人、通りに面した塀等に関係しない高さ)を中心とすることが望ましい。   As shown in FIG. 3, the observation pixel pattern creation unit 2 cuts out a part of the observation image, for example, a horizontal pixel pattern of a predetermined height from the observation image (panoramic image 18), and obtains the observation pixel pattern 21. create. The height of the part to be cut out may be centered on the height position that is most advantageous for position identification, for example, the horizontal line height position with little disturbance (height not related to street cars, people, street-facing etc.) desirable.

観測地図データ記憶部3および参照地図データ記憶部10は、例えば図4(a)に示すように、平面地図データ103上にリンクさせて地図データ102(観測地図データまたは参照地図データ)を記憶している。   The observation map data storage unit 3 and the reference map data storage unit 10 store map data 102 (observation map data or reference map data) linked to the planar map data 103, for example, as shown in FIG. ing.

参照地図データ記憶部10では、リンクに際して、参照画像(図4(b)に例示するパノラマ画像111)に属性データ(例えば、緯度および経度、画像地図名、データ基点角θ(データ取り込み初期角)、画像傾き角、水平線上下比率)を付加させた参照地図データを記憶することができる。属性データと参照画像との対応関係は例えば図4(c)に示すようになり、データ基点角θ106、画像傾き角(ピッチφ107、ロールψ108)、水平線14の水平線上下比率109がそれぞれ定義される。   At the time of linking, the reference map data storage unit 10 adds attribute data (for example, latitude and longitude, image map name, data base point angle θ (data acquisition initial angle)) to the reference image (the panoramic image 111 illustrated in FIG. 4B). , Image tilt angle, horizontal line vertical ratio) can be stored. The correspondence relationship between the attribute data and the reference image is as shown in FIG. 4C, for example, where the data base angle θ106, the image tilt angle (pitch φ107, roll ψ108), and the horizontal line vertical ratio 109 of the horizontal line 14 are defined. .

観測地図データ記憶部3においても、リンクに際して、観測画像に上記の属性データを付加させた観測地図データを記憶することができ、観測地図データと参照地図データとの記憶形式は、汎用性を高めるため統一されていることが望ましい。このようにすれば、観測地図データ記憶部3に記憶された観測地図データは、参照地図データ記憶部10に記憶された参照地図データと同様に、参照画像管理部9に取得される地図データとして活用できる。   The observation map data storage unit 3 can also store observation map data obtained by adding the attribute data to the observation image at the time of linking, and the storage format of the observation map data and the reference map data increases versatility. Therefore, it is desirable to be unified. In this way, the observation map data stored in the observation map data storage unit 3 is the map data acquired by the reference image management unit 9 in the same manner as the reference map data stored in the reference map data storage unit 10. Can be used.

地図データの具体例としては、例えば特表2010−531007号公報に示すようなものがある。地図データを記憶する図5に示すような地図データサーバーにアクセスし、車両の仮現在位置を通知することで、対応する地図データが取得できる。仮現在位置については後述する。   As a specific example of the map data, for example, there is one as shown in JP-T-2010-531007. Corresponding map data can be acquired by accessing a map data server as shown in FIG. 5 storing map data and notifying the temporary current position of the vehicle. The temporary current position will be described later.

一般にデジタル地図は、国土地理院の平面地形図等をベースに作られ、フォーマットは日本工業規格(JIS−D0810)に準拠した業界標準のKiwi−Wフォーマット等で作られている。また、インターネットでは、グーグルおよびヤフー等でのデジタル地図検索が一般的となっている。よって、観測地図データまたは参照地図データを既存のグーグルストリートビュー等と同様の記憶形式とすることで、汎用性を高めることも可能である。   In general, a digital map is made based on a topographic map of the Geospatial Information Authority of Japan, and the format is made in an industry standard Kiwi-W format or the like that conforms to the Japanese Industrial Standard (JIS-D0810). On the Internet, digital map search using Google, Yahoo, etc. is common. Therefore, versatility can also be improved by making observation map data or reference map data into the same storage format as existing Google Street View or the like.

参照画像管理部9は、参照地図データ記憶部10における所定の参照地図データを取得し、その参照画像を管理する。取得する参照地図データの平面地図データ上の座標位置は、車両の仮現在位置に基づいて設定される。   The reference image management unit 9 acquires predetermined reference map data in the reference map data storage unit 10 and manages the reference image. The coordinate position on the planar map data of the reference map data to be acquired is set based on the temporary current position of the vehicle.

参照ピクセルパターン作成部7は、図6に示すように、参照画像から例えば所定高さ分の水平方向のピクセルパターンを切り取り、参照ピクセルパターン71を作成する。参照ピクセルパターン71は、観測ピクセルパターン21(図3参照)と対応する水平高さであることが望ましく、また対応する観測ピクセルパターン21と比較して所定高さである切り出し幅を広くしておくことが望ましい。これは、観測ピクセルパターン21と参照ピクセルパターン71とでマッチングを行う際に、観測ピクセルパターン21に生じている観測誤差を考慮するためである。なお逆に、観測ピクセルパターン21の切り出し幅を広くすることも可能である。   As shown in FIG. 6, the reference pixel pattern creation unit 7 creates a reference pixel pattern 71 by cutting out a horizontal pixel pattern of a predetermined height, for example, from the reference image. The reference pixel pattern 71 preferably has a horizontal height corresponding to the observation pixel pattern 21 (see FIG. 3), and a cutout width that is a predetermined height is made wider than the corresponding observation pixel pattern 21. It is desirable. This is because an observation error occurring in the observation pixel pattern 21 is taken into consideration when matching between the observation pixel pattern 21 and the reference pixel pattern 71 is performed. On the contrary, the cutout width of the observation pixel pattern 21 can be increased.

<A−2.動作>
次に、本発明にかかる現在位置算出装置の動作を説明する。
<A-2. Operation>
Next, the operation of the current position calculation apparatus according to the present invention will be described.

図7は、図1において概念的に示された補正部4および現在位置算出部6を具体的に示した構成図である。特に、慣性航法センサー40および車載用マイクロコンピューター50を含む構成が補正部4に対応する。   FIG. 7 is a configuration diagram specifically showing the correction unit 4 and the current position calculation unit 6 conceptually shown in FIG. In particular, the configuration including the inertial navigation sensor 40 and the in-vehicle microcomputer 50 corresponds to the correction unit 4.

慣性航法センサー40は、スピードメーター41(車速パルス)、角速度センサー42、地磁気センサー43を備える。位置特定センサー60は、GPS受信部61を備える。慣性航法センサー40および位置特定センサー60は、それぞれ車載用マイクロコンピューター50に接続される。   The inertial navigation sensor 40 includes a speedometer 41 (vehicle speed pulse), an angular velocity sensor 42, and a geomagnetic sensor 43. The position specifying sensor 60 includes a GPS receiving unit 61. The inertial navigation sensor 40 and the position specifying sensor 60 are each connected to the in-vehicle microcomputer 50.

また位置特定センサー60は、GPS受信部61において、GPSによる位置情報を受信できる。   The position specifying sensor 60 can receive position information by GPS at the GPS receiver 61.

さらに車載用マイクロコンピューター50には、補助記憶装置51が接続されている。   Further, an auxiliary storage device 51 is connected to the in-vehicle microcomputer 50.

図8に示すように車載用マイクロコンピューター50は、プログラムを実行させるためのイニシャライズを行い(ステップS1)、ユーザからのキー入力があるか否かを判断する(ステップS2)。キー入力がある場合には、当該キー入力に対応した入力操作を行う(ステップS3)。キー入力がない場合には、例えば、車両の現在位置周辺の地図を表示画面に表示することができる(ステップS4)。   As shown in FIG. 8, the in-vehicle microcomputer 50 performs initialization for executing the program (step S1), and determines whether or not there is a key input from the user (step S2). If there is a key input, an input operation corresponding to the key input is performed (step S3). If there is no key input, for example, a map around the current position of the vehicle can be displayed on the display screen (step S4).

本発明にかかる現在位置算出装置は、当該画面表示等の動作をしながら、車両の現在位置を算出する動作を行う。以下に現在位置算出処理の全体のフローを説明する。   The current position calculation apparatus according to the present invention performs an operation of calculating the current position of the vehicle while performing operations such as screen display. The overall flow of the current position calculation process will be described below.

まず、位置特定センサー60のGPS受信部61において、GPSによる位置情報を取得する。取得した位置情報および慣性航法センサーの測位データに基づいて、車両の現在位置を特定する。このとき、位置特定の精度を高めるために、GPSにより複数回取得した位置情報の平均値である平均GPS測位位置を用いることも可能である。   First, the GPS receiving unit 61 of the position specifying sensor 60 acquires GPS position information. Based on the acquired position information and the positioning data of the inertial navigation sensor, the current position of the vehicle is specified. At this time, in order to increase the accuracy of position identification, it is also possible to use an average GPS positioning position that is an average value of position information acquired a plurality of times by GPS.

具体的には図9に示すように、まずGPSによる位置情報を取得する(ステップS9)。次に、取得した位置情報から車両の測位位置(緯度および経度)を特定し、GPS測位が成功したかを判定する。具体的には、(1)GPSにより特定した車両の測位位置と前回決定された車両の現在位置との座標差が所定の範囲内であるか否か、(2)平均GPS測位位置のσ値が規定値以上ばらついているか否か、(3)受信レベルが規定値以下か否か等に基づいて判断する(ステップS10)。ここで、前回決定された車両の現在位置とは、本動作を行う直前までに認識されていた車両の現在位置であり、現在位置算出部6に記憶されている。認識していた時間が近いほど、より正確な位置情報となる。また、この現在位置算出部6に記憶されている前回決定された車両の現在位置は、後に説明する画像照合処理において仮現在位置として用いられる。   Specifically, as shown in FIG. 9, first, position information by GPS is acquired (step S9). Next, the positioning position (latitude and longitude) of the vehicle is specified from the acquired position information, and it is determined whether the GPS positioning is successful. Specifically, (1) whether the coordinate difference between the positioning position of the vehicle specified by GPS and the current position of the vehicle determined last time is within a predetermined range, or (2) the σ value of the average GPS positioning position Is determined based on whether the reception level is not less than the specified value, and (3) whether the reception level is not more than the specified value (step S10). Here, the current position of the vehicle determined last time is the current position of the vehicle recognized immediately before performing this operation, and is stored in the current position calculation unit 6. The closer the recognized time is, the more accurate the position information is. Further, the current position of the vehicle determined last time stored in the current position calculation unit 6 is used as a temporary current position in an image matching process described later.

GPSによる測位が成功したと判定された場合にはステップS11へ、GPSによる測位が成功しなかったと判定された場合にはステップS12へそれぞれ進む。   If it is determined that the GPS positioning is successful, the process proceeds to step S11. If it is determined that the GPS positioning is not successful, the process proceeds to step S12.

ステップS11においては、GPSにより特定した車両の測位位置を車両の真の現在位置として設定し、記憶する。   In step S11, the positioning position of the vehicle specified by GPS is set and stored as the true current position of the vehicle.

ステップS12においては、画像照合処理に進む。画像照合処理については、後で詳しく説明する。   In step S12, the process proceeds to image collation processing. The image matching process will be described in detail later.

GPS受信部61により決定した車両の現在位置を慣性航法センサー40の距離センサーとしてのスピードメーター41(車速パルス)、方位センサーとしての角速度センサー42(ジャイロセンサー)および地磁気センサー43を用いて補正し、車両の現在位置を設定する。   The current position of the vehicle determined by the GPS receiver 61 is corrected using a speedometer 41 (vehicle speed pulse) as a distance sensor of the inertial navigation sensor 40, an angular velocity sensor 42 (gyro sensor) as a direction sensor, and a geomagnetic sensor 43, Set the current position of the vehicle.

具体的には図10に示すように、スピードメーター41を用いて、走行距離の計算を行う(ステップS30)。次に、角速度センサー42および地磁気センサー43を用いて、方位の計算を行う(ステップS31)。   Specifically, as shown in FIG. 10, the travel distance is calculated using the speedometer 41 (step S30). Next, the azimuth is calculated using the angular velocity sensor 42 and the geomagnetic sensor 43 (step S31).

次に、GPS受信部61により決定した車両の現在位置を算出した走行距離、方位を用いて補正し、車両の真の現在位置として設定し、記憶する(ステップS32)。   Next, the current position of the vehicle determined by the GPS receiver 61 is corrected using the calculated travel distance and direction, set as the true current position of the vehicle, and stored (step S32).

次に、GPSによる位置情報の取得困難な状況下で行われる画像照合処理の動作について説明する。   Next, an operation of image collation processing performed under a situation where it is difficult to acquire position information by GPS will be described.

GPS衛星からの電波等の受信が困難な、高層ビルが並ぶ市街地や外国等において、以下のような動作を行う。なお、同様にGPS衛星からの電波等が受信困難なトンネル内、地下および立体駐車場、大きな建物等においても、条件が整えば以下のような動作が可能である。   The following operations are performed in urban areas where foreign buildings and the like are lined with high-rise buildings where reception of radio waves from GPS satellites is difficult. Similarly, in tunnels, underground and multistory parking lots, large buildings, etc. where it is difficult to receive radio waves from GPS satellites, the following operations are possible if conditions are met.

図9で示す現在位置を算出する処理フローでGPS測位に失敗し、ステップS12の画像照合処理に進んだ場合、まず、図11に示すように、例えば現在位置算出部6より、前回の現在位置算出処理で設定された現在位置である仮現在位置の情報を取得する(ステップS60)。   When the GPS positioning fails in the processing flow for calculating the current position shown in FIG. 9 and the process proceeds to the image collating process in step S12, first, as shown in FIG. Information on the temporary current position, which is the current position set in the calculation process, is acquired (step S60).

次に、観測画像入力部1において、観測画像を取得し(ステップS61)、取得した観測画像に属性データを付加し、観測地図データとして観測地図データ記憶部3に記憶する(ステップS62)。観測ピクセルパターン作成部2において、取得した観測画像から、例えば水平方向の観測ピクセルパターンを作成する(ステップS63)。なお、観測画像に属性データを付加して記憶する動作は、必須の動作ではない。   Next, the observation image input unit 1 acquires an observation image (step S61), adds attribute data to the acquired observation image, and stores it as observation map data in the observation map data storage unit 3 (step S62). The observation pixel pattern creation unit 2 creates, for example, a horizontal observation pixel pattern from the acquired observation image (step S63). Note that the operation of adding the attribute data to the observation image and storing it is not an essential operation.

一方で参照画像管理部9では、現在位置算出部6より得た仮現在位置の情報から、参照地図データ記憶部10における、仮現在位置に対応する参照地図データを取得し、さらに当該参照地図データから参照画像を取得する(ステップS64)。そして、参照ピクセルパターン作成部7において、取得した参照画像から、例えば水平方向の参照ピクセルパターンを作成する(ステップS65)。   On the other hand, the reference image management unit 9 acquires reference map data corresponding to the temporary current position in the reference map data storage unit 10 from the information on the temporary current position obtained from the current position calculation unit 6, and further, the reference map data To obtain a reference image (step S64). Then, the reference pixel pattern creation unit 7 creates, for example, a horizontal reference pixel pattern from the acquired reference image (step S65).

次に、ピクセルパターン照合部5において、観測ピクセルパターンと参照ピクセルパターンとの照合処理を行う(ステップS66)。   Next, the pixel pattern matching unit 5 performs matching processing between the observed pixel pattern and the reference pixel pattern (step S66).

ここで、ピクセルパターンの照合処理の動作について、図12を用いて説明する。   Here, the operation of the pixel pattern matching process will be described with reference to FIG.

まずピクセルパターン照合部5において、観測ピクセルパターンと参照ピクセルパターンとのピクセルパターンマッチング(画像マッチング)を行う(ステップS79)。   First, the pixel pattern matching unit 5 performs pixel pattern matching (image matching) between the observed pixel pattern and the reference pixel pattern (step S79).

ピクセルパターンマッチングは、例えば図13に示すような方法で車両の右前方部分、右後方部分、左前方部分、左後方部分の4箇所に分けて行う。車両を囲むように配置される参照ピクセルパターン71に含まれる方位情報および車両の進行方向に基づいて、車両進行方向の前後に前方マッチング開始点100および後方マッチング開始点101を設定する(図13(a)参照)。   The pixel pattern matching is performed by dividing the vehicle into four parts, for example, a right front part, a right rear part, a left front part, and a left rear part, as shown in FIG. Based on the azimuth information included in the reference pixel pattern 71 arranged to surround the vehicle and the traveling direction of the vehicle, the front matching start point 100 and the rear matching start point 101 are set before and after the vehicle traveling direction (FIG. 13 ( a)).

観測ピクセルパターン21(図13(c)参照)においても、参照ピクセルパターン71(図13(b)参照)と対応させて、車両進行方向の前方および後方に、前方マッチング開始点100および後方マッチング開始点101を設定する。   Also in the observed pixel pattern 21 (see FIG. 13C), the front matching start point 100 and the backward matching start are made forward and backward in the vehicle traveling direction in correspondence with the reference pixel pattern 71 (see FIG. 13B). Point 101 is set.

例えば右前方マッチング推移52でマッチングを行う場合は、観測ピクセルパターン21の前方マッチング開始点100と、参照ピクセルパターン71の前方マッチング開始点100とを基点として、ともに右前方マッチング推移52の方向(周方向の時計回り)にピクセルパターンマッチングで行い、観測ピクセルパターン21の右マッチング最終位置112(前方マッチング開始点100から時計回りに90°の位置)まで到達させる。このとき、参照ピクセルパターン71において観測ピクセルパターン21とマッチングされた位置を右前方マッチング最終位置57とする。   For example, when matching is performed using the right front matching transition 52, the direction (circumference) of the right front matching transition 52 is based on the front matching start point 100 of the observation pixel pattern 21 and the front matching start point 100 of the reference pixel pattern 71. (Clockwise in the direction) by pixel pattern matching to reach the final right matching position 112 of the observed pixel pattern 21 (a position 90 ° clockwise from the front matching start point 100). At this time, a position matched with the observed pixel pattern 21 in the reference pixel pattern 71 is set as a right front matching final position 57.

同様にして後方マッチング開始点101を基点として右後方マッチング推移54の方向(周方向の反時計回り)で右後方マッチング最終位置59を求め、さらに、左前方マッチング推移53の方向、左後方マッチング推移55の方向のそれぞれにおいても、観測ピクセルパターン21の左マッチング最終位置113(前方マッチング開始点100から反時計回りに90°の位置)まで到達させ、観測ピクセルパターン21とマッチングされた位置を左前方マッチング最終位置56および左後方マッチング最終位置58として求める。   Similarly, a right rear matching final position 59 is obtained in the direction of the right rear matching transition 54 (counterclockwise in the circumferential direction) from the rear matching start point 101 as a base point, and further, the direction of the left front matching transition 53 and the left rear matching transition Also in each of the directions of 55, the observation pixel pattern 21 is made to reach the final left matching position 113 (position 90 ° counterclockwise from the front matching start point 100), and the position matched with the observation pixel pattern 21 is left front. The matching final position 56 and the left rear matching final position 58 are obtained.

なお、本実施の形態では、観測ピクセルパターン21のマッチング最終位置を固定してマッチングを行ったが、参照ピクセルパターン71のマッチング最終位置を固定してマッチングを行ってもよい。   In this embodiment, the matching final position of the observation pixel pattern 21 is fixed and matching is performed. However, the matching final position of the reference pixel pattern 71 may be fixed and matching may be performed.

また、本実施の形態では、観測画像および参照画像双方のピクセルパターンを切り出し、マッチングをしたが、観測画像および参照画像の双方、または一方がピクセルパターンを切り出したものでなく、画像全体としてマッチングを行うことも可能である。   In this embodiment, the pixel pattern of both the observation image and the reference image is cut out and matched. However, both the observation image and the reference image or one of them is not cut out of the pixel pattern, and the entire image is matched. It is also possible to do this.

当該方法は、ピクセル間の単調連続性を保持しつつ、画素毎に対応関係を求めることが可能となるため、比較する参照ピクセルパターン71および観測ピクセルパターン21の車両の位置が多少ずれ、画像が異なっていても、安定性の高いマッチングを行うことができるため望ましい。   In this method, since it is possible to obtain a correspondence relationship for each pixel while maintaining monotonous continuity between pixels, the positions of the reference pixel pattern 71 and the observation pixel pattern 21 to be compared are slightly shifted, and the image is Even if they are different, it is desirable because highly stable matching can be performed.

平面地図データ上で、車両中心を通る、車両の進行方向に垂直な方向の線を基準線として、車両中心から、左前方マッチング最終位置56、右前方マッチング最終位置57、左後方マッチング最終位置58、右後方マッチング最終位置59のそれぞれに対して形成される角度を、それぞれデータ基点角θLF、データ基点角θRF、データ基点角θLB、データ基点角θRBとする(図13(a)参照)。   On the plane map data, a left-front matching final position 56, a right-front matching final position 57, and a left-back matching final position 58 from the vehicle center with a line in the direction perpendicular to the traveling direction of the vehicle passing through the vehicle center as a reference line. The angles formed with respect to each of the right rear matching final positions 59 are a data base point angle θLF, a data base point angle θRF, a data base point angle θLB, and a data base point angle θRB, respectively (see FIG. 13A).

上記のような方法で、データ基点角θ(データ基点角θRF、データ基点角θRB、データ基点角θLF、データ基点角θLB)を特定する(ステップS80〜ステップS83)。なお特定の順序は、当該フローチャートに示す場合に限られない。   The data base point angle θ (data base point angle θRF, data base point angle θRB, data base point angle θLF, data base point angle θLB) is specified by the method as described above (steps S80 to S83). The specific order is not limited to the case shown in the flowchart.

次に、データ基点角θが有効であるか否かを判定する(ステップS84)。有効か否かは、例えば各データ基点角θが±60°の範囲内であるか否かで判定する。(1)4つのデータ基点角が全て±60°の範囲内である場合(全てのデータ基点角θが有効である場合)、または、(2)車両右側のデータ基点角θ(データ基点角θRFおよびデータ基点角θRB)は±60°の範囲内である場合(車両右側のデータ基点角θRが有効である場合)、または、(3)車両左側のデータ基点角θ(データ基点角θLFおよびデータ基点角θLB)は±60°の範囲内である場合(車両左側のデータ基点角θLが有効である場合)には、ステップS85に進む。一方、それ以外の場合(車両右側のデータ基点角θR、車両左側のデータ基点角θLともに無効である場合)には、ステップS91へ進む。   Next, it is determined whether or not the data base point angle θ is valid (step S84). Whether or not the data is valid is determined, for example, based on whether or not each data base angle θ is within a range of ± 60 °. (1) When all four data base point angles are within a range of ± 60 ° (when all data base point angles θ are valid), or (2) Data base point angle θ on the right side of the vehicle (data base point angle θRF) And the data base point angle θRB) are within a range of ± 60 ° (when the data base point angle θR on the right side of the vehicle is valid), or (3) the data base point angle θ on the left side of the vehicle (the data base point angle θLF and the data If the base point angle θLB) is within a range of ± 60 ° (when the data base point angle θL on the left side of the vehicle is valid), the process proceeds to step S85. On the other hand, in other cases (when the data base point angle θR on the right side of the vehicle and the data base point angle θL on the left side of the vehicle are invalid), the process proceeds to step S91.

ここで、データ基点角θが±60°の範囲内である場合について図14に示す。   Here, FIG. 14 shows a case where the data base angle θ is within a range of ± 60 °.

まず、観測ピクセルパターンと比較する参照ピクセルパターンが、カメラの死角による欠陥を抑制するため、平面地図上に約10m間隔でリンクされているとする。   First, it is assumed that the reference pixel pattern to be compared with the observed pixel pattern is linked on the plane map at an interval of about 10 m in order to suppress defects due to the blind spot of the camera.

また、観測ピクセルパターン21は例えば外乱の少ない水平線の高さ等の位置を収集しているが、水平線の高さに関わらず、画像中マッチングが可能な特徴ある立ち木、建物等が画像に写り画像マッチング可能となる。この画像マッチングが可能な道路と並行する固定物の位置の想定線を画像収集予測線とする。   In addition, the observation pixel pattern 21 collects positions such as the height of a horizontal line with little disturbance, but a characteristic standing tree or building that can be matched in the image regardless of the height of the horizontal line is reflected in the image. Matching is possible. The assumed line of the position of the fixed object parallel to the road capable of image matching is set as an image collection prediction line.

道路幅を10m、観測ピクセルパターン21の画像収集予測線間の距離を20mとすると、道路中央に位置した車両から、進行方向と垂直な方向の観測ピクセルパターン21の画像収集予測線までの距離は10mとなる。   If the road width is 10 m and the distance between the image collection prediction lines of the observation pixel pattern 21 is 20 m, the distance from the vehicle located at the center of the road to the image collection prediction line of the observation pixel pattern 21 in the direction perpendicular to the traveling direction is 10m.

図14に示すように、車両からみてのデータ基点角(データ基点角θRFまたはデータ基点角θRB)が+30°となる観測ピクセルパターン21の画像収集予測線上の地点は、車両からおよそ6m前方となる。同様に、車両からみてのデータ基点角が+60°となる観測ピクセルパターン21の画像収集予測線上の地点は、車両からおよそ17m前方となる。   As shown in FIG. 14, the point on the image collection prediction line of the observation pixel pattern 21 where the data base point angle (data base point angle θRF or data base point angle θRB) viewed from the vehicle is + 30 ° is approximately 6 m ahead of the vehicle. . Similarly, the point on the image collection prediction line of the observation pixel pattern 21 where the data base angle when viewed from the vehicle is + 60 ° is approximately 17 m ahead of the vehicle.

車両の前後方向±6mまでの範囲(補正可能領域)においては、参照ピクセルパターンが1つ存在する(図14においてはCのみ)として、当該1つの参照ピクセルパターンを基準に、データ基点角θによる車両の進行方向の位置補正をする。   In the range (correctable area) up to ± 6 m in the longitudinal direction of the vehicle, it is assumed that there is one reference pixel pattern (only C in FIG. 14), and the data base point angle θ is based on the one reference pixel pattern. Correct the position of the vehicle in the direction of travel.

当該補正は、例えば図15に示すように、道路幅Wに対して観測ピクセルパターン21の画像収集予測線間の距離を2Wとし、データ基点角θを図のようにとると、
補正値Δh=W×tan(θ)
として計算することができる。道路幅が不明である場合には、例えばW=10(m)として計算する。当該補正を行うことで、車両の測位位置を求めることができる。
For example, as shown in FIG. 15, when the distance between the image collection prediction lines of the observed pixel pattern 21 is 2 W and the data base point angle θ is as shown in the figure, as shown in FIG.
Correction value Δh = W × tan (θ)
Can be calculated as When the road width is unknown, the calculation is made with W = 10 (m), for example. By performing the correction, the positioning position of the vehicle can be obtained.

同様に、車両の前後方向±17mまでの範囲(引込可能領域)においては、参照ピクセルパターンが4つ存在する(図14においてはA〜D)として、当該4つの参照ピクセルパターンを基準に、データ基点角θによる車両の進行方向の位置補正をする。   Similarly, in the range up to ± 17 m in the vehicle front-rear direction (retractable area), there are four reference pixel patterns (A to D in FIG. 14), and data is based on the four reference pixel patterns. The position of the vehicle in the traveling direction is corrected based on the base angle θ.

具体的には、図16に示すように位置補正を行う。図14に示したA〜Dの参照ピクセルパターン71が図16(a)のような座標位置であるとき、データ基点角θRFとデータ基点角θRBとの平均角度、または、データ基点角θLFとデータ基点角θLBとの平均角度は図16(b)に示すように変化する。   Specifically, position correction is performed as shown in FIG. When the reference pixel patterns 71 of A to D shown in FIG. 14 are coordinate positions as shown in FIG. 16A, the average angle of the data base angle θRF and the data base angle θRB, or the data base angle θLF and the data The average angle with the base point angle θLB changes as shown in FIG.

これらの平均角度が0°となる座標位置が車両の測位位置となるので、A〜Dの各平均角度の推移から、車両の測位位置を求めることができる。   Since the coordinate position where these average angles are 0 ° is the positioning position of the vehicle, the positioning position of the vehicle can be obtained from the transition of the average angles A to D.

データ基点角θが±60°の範囲外となる場合、マッチング視野端は車両の前後方向±17mを超える範囲となり、測位位置を算出するまでにさらに多くの参照ピクセルパターンとのピクセルパターンマッチングを行う必要がある。また、各ピクセルパターンマッチングにおける推移幅が短く、マッチング精度が低下してしまう。よって、データ基点角θが例えば±60°の範囲内の場合に有効としている。なお、参照ピクセルパターンの作成間隔や、マッチングの演算速度等によって、当該角度範囲は変更可能である。   When the data base angle θ is outside the range of ± 60 °, the matching visual field end is in a range exceeding ± 17 m in the vehicle front-rear direction, and pixel pattern matching with more reference pixel patterns is performed before the positioning position is calculated. There is a need. Further, the transition width in each pixel pattern matching is short, and the matching accuracy is lowered. Therefore, it is effective when the data base angle θ is within a range of ± 60 °, for example. Note that the angle range can be changed according to the reference pixel pattern creation interval, matching calculation speed, and the like.

ステップS85において、前述のように、データ基点角θRFとデータ基点角θRBとの平均角度、または、データ基点角θLFとデータ基点角θLBとの平均角度が、±30°の範囲内であるか否かを判定する。平均角度が±30°の範囲内である場合には、ステップS90に進む。そして、当該平均角度に基づいて車両の進行方向の位置補正を行い、測位位置を求める(図15参照)。平均角度が±30°の範囲外である場合には、ステップS86へ進む。   In step S85, as described above, whether the average angle between the data base point angle θRF and the data base point angle θRB or the average angle between the data base point angle θLF and the data base point angle θLB is within a range of ± 30 °. Determine whether. When the average angle is within the range of ± 30 °, the process proceeds to step S90. And based on the said average angle, position correction of the advancing direction of a vehicle is performed and a positioning position is calculated | required (refer FIG. 15). If the average angle is outside the range of ± 30 °, the process proceeds to step S86.

ステップS86において、平均角度が30°より大きく60°以下であるか否かを判定する。そうである場合にはステップS87へ、そうでない場合、すなわち、平均角度が−60°以上で−30°未満である場合にはステップS88へそれぞれ進む。   In step S86, it is determined whether the average angle is greater than 30 ° and not greater than 60 °. If so, the process proceeds to step S87. If not, that is, if the average angle is not less than −60 ° and less than −30 °, the process proceeds to step S88.

ステップS87においては、車両の進行方向(前方)に順に参照ピクセルパターンを取得し、平均角度が負の値になるか、若しくは参照ピクセルパターンを3つ取得するまで、マッチング動作を繰り返す。当該動作が終了したら、ステップS89へ進む。   In step S87, reference pixel patterns are acquired in order in the vehicle traveling direction (forward), and the matching operation is repeated until the average angle becomes a negative value or three reference pixel patterns are acquired. When this operation ends, the process proceeds to step S89.

ステップS88においては、車両の進行方向と逆方向(後方)に順に参照ピクセルパターンを取得し、平均角度が正の値になるか、若しくは参照ピクセルパターンを3つ取得するまで、マッチング動作を繰り返す。当該動作が終了したら、ステップS89へ進む。   In step S88, the reference pixel pattern is acquired in the reverse direction (backward) with respect to the traveling direction of the vehicle, and the matching operation is repeated until the average angle becomes a positive value or three reference pixel patterns are acquired. When this operation ends, the process proceeds to step S89.

ステップS89において、上記の繰り返しマッチング動作が適切に終了したか否かを判断し、適切に終了した場合にはステップS90へ、そうでない場合にはステップS91へそれぞれ進む。   In step S89, it is determined whether or not the repetitive matching operation has been properly completed. If the operation has been properly completed, the process proceeds to step S90, and if not, the process proceeds to step S91.

ステップS90においては、平均角度の推移から、車両の測位位置を求める(図16(b)参照)。ステップS91においては、照合失敗フラグを設定して終了する。   In step S90, the positioning position of the vehicle is obtained from the transition of the average angle (see FIG. 16B). In step S91, the collation failure flag is set and the process ends.

次に、現在位置算出部6において、観測ピクセルパターンと参照ピクセルパターンとの照合が成功したか否かを判断し(図11のステップS67)、照合が成功した場合にはステップS68へ、照合が失敗した場合には画像照合処理を終了して現在位置算出処理に戻る。   Next, the current position calculation unit 6 determines whether or not the collation between the observed pixel pattern and the reference pixel pattern is successful (step S67 in FIG. 11). If the collation is successful, the collation is performed to step S68. If it fails, the image collation process is terminated and the process returns to the current position calculation process.

ステップS68において、測位位置を真の現在位置に設定して記憶し、現在位置算出処理に戻る。   In step S68, the positioning position is set and stored as the true current position, and the process returns to the current position calculation process.

図17に、上記のピクセルパターンマッチングの例を示す。   FIG. 17 shows an example of the above pixel pattern matching.

画素位置をm座標、n座標により特定できる観測ピクセルパターン200(図17(a)参照)と、これと類似するピクセルパターンを含む、画素位置をi座標、j座標により特定できる参照ピクセルパターン201(図17(b)参照)とを用意する。   A reference pixel pattern 201 (including an observed pixel pattern 200 (see FIG. 17A) in which the pixel position can be specified by the m coordinate and the n coordinate and a pixel pattern similar to the observed pixel pattern 201 can be specified by the i coordinate and the j coordinate. FIG. 17B) is prepared.

類似する画像パターンの画素毎の対応関係を、両者のマッチング開始点からマッチング最終位置までマッチングを推移させることにより、順にみていく(図17(c)参照)。   The correspondence of each pixel in the similar image pattern is examined in order by shifting the matching from the matching start point to the final matching position (see FIG. 17C).

両者の画像位置と画像間距離の累積値が最小となる最小累積距離を、その最小累積距離を順次積み上げる計算をする事により求め、観測ピクセルパターン200上のマッチング最終位置202に対応する参照ピクセルパターン201上のマッチング最終位置を求める。このようにして、単調連続性を保持しつつ、画素毎に対応関係を求めることができる。   A reference pixel pattern corresponding to the final matching position 202 on the observed pixel pattern 200 is obtained by calculating the minimum cumulative distance that minimizes the cumulative value of the image position and the distance between the images by sequentially accumulating the minimum cumulative distance. The final matching position on 201 is obtained. In this way, it is possible to obtain the correspondence for each pixel while maintaining monotonic continuity.

ここで、上記のピクセルパターンマッチング動作には多少の時間がかかってしまい、車両の位置を知ることができた時点では、観測画像を取得した時刻から遅れ、車両の位置は変わってしまっていることが考えられる。   Here, it takes some time for the above pixel pattern matching operation, and when the position of the vehicle can be known, it is delayed from the time when the observation image was acquired, and the position of the vehicle has changed. Can be considered.

このような場合には、慣性航法センサー40の距離センサーとしてのスピードメーター41(車速パルス)、方位センサーとしての角速度センサー42および地磁気センサー43を用いて、ピクセルパターンマッチング動作中の車両の位置変化(画像マッチングによって算出された現在位置を基点とする移動距離および移動方向)を算出し、現在位置の補正を行うことができる。すなわち、ピクセルパターンマッチングによって算出された、観測画像が作成された位置(現在位置)を、現在位置算出部6から当該情報が出力される時に実際に車両が到達している位置(真の現在位置)に補正することができる。   In such a case, using a speedometer 41 (vehicle speed pulse) as a distance sensor of the inertial navigation sensor 40, an angular velocity sensor 42 as a direction sensor, and a geomagnetic sensor 43, a change in the position of the vehicle during the pixel pattern matching operation ( It is possible to correct the current position by calculating a movement distance and a movement direction based on the current position calculated by image matching. In other words, the position (current position) where the observation image is created, calculated by pixel pattern matching, is the position (true current position) where the vehicle is actually reached when the information is output from the current position calculation unit 6. ) Can be corrected.

ここで、車両が移動していないような場合には、観測画像が作成された位置(現在位置)と実際に車両が到達している位置(真の現在位置)とは同じ位置となるため、当該補正の必要はない。   Here, when the vehicle is not moving, the position where the observation image was created (current position) and the position where the vehicle actually reached (true current position) are the same position. There is no need for such amendment.

なお、ピクセルパターンマッチングによって得られた車両の現在位置に対して、地図データマッチングによる位置の調整を行うことも可能である。   It is also possible to adjust the position by map data matching with respect to the current position of the vehicle obtained by pixel pattern matching.

上記のピクセルパターンマッチング動作は、GPS等による位置情報の取得可能な状況下であっても並行して行ってよい。当該動作により算出された車両の真の現在位置と、GPS等による位置情報から算出された現在位置との間に差異がある場合には、GPSにより算出された現在位置を基準として校正してもよい。ただし、当該ピクセルパターンマッチング動作により計算速度に影響が出る等の問題が生じる場合には、ピクセルパターンマッチング動作を停止しておくことも可能である。   The pixel pattern matching operation described above may be performed in parallel even in a situation where position information can be acquired by GPS or the like. If there is a difference between the true current position of the vehicle calculated by the operation and the current position calculated from position information by GPS or the like, the current position calculated by GPS may be used as a reference. Good. However, the pixel pattern matching operation can be stopped if there is a problem such as the calculation speed being affected by the pixel pattern matching operation.

このようにして算出された車両の真の現在位置を基準にして、さらに目的地までの経路誘導等を展開することが可能である。   Based on the true current position of the vehicle calculated in this way, route guidance to the destination can be further developed.

<A−3.効果>
本発明にかかる実施の形態によれば、現在位置算出装置において、移動体としての自車17の現在位置における2次元画像である観測画像が入力される観測画像入力部1と、所定の地点に関連して予め用意された2次元画像である参照画像を管理する、参照画像管理部9と、観測画像と、記憶されている現在位置である仮現在位置に対応する参照画像とを、画像マッチングにより照合する照合部としてのピクセルパターン照合部5と、ピクセルパターン照合部5における照合結果に基づいて、自車17の真の現在位置を算出する現在位置算出部6とを備えることで、現在位置における2次元画像(観測画像)を用いて誤差の累積を抑制し、画像マッチングによって自車17の真の現在位置を算出することができる。
<A-3. Effect>
According to the embodiment of the present invention, in the current position calculation device, an observation image input unit 1 to which an observation image that is a two-dimensional image at the current position of the vehicle 17 as a moving body is input, and a predetermined point Image matching is performed between a reference image management unit 9 that manages a reference image that is a two-dimensional image prepared in advance, an observation image, and a reference image corresponding to a temporary current position that is a stored current position. The current position is provided with a pixel pattern matching unit 5 as a matching unit for matching by the above and a current position calculating unit 6 for calculating the true current position of the host vehicle 17 based on the matching result in the pixel pattern matching unit 5. The accumulation of errors can be suppressed using the two-dimensional image (observation image) at, and the true current position of the vehicle 17 can be calculated by image matching.

また、本発明にかかる実施の形態によれば、現在位置算出装置において、仮現在位置が、移動体としての自車17における既知の位置情報に基づいて決定されることで、直前までに認識されていた現在位置を基準にして参照画像を取得することができる。   Further, according to the embodiment of the present invention, in the current position calculation device, the temporary current position is determined based on the known position information in the own vehicle 17 as the moving body, so that it is recognized immediately before. The reference image can be acquired based on the current position.

また、本発明にかかる実施の形態によれば、現在位置算出装置において、観測画像および参照画像が、移動体としての自車17の周囲を表示するパノラマ画像であることで、周囲の全方向を連続的に撮像した画像で画像マッチングすることにより、自車17の真の現在位置を算出することができる。   Further, according to the embodiment of the present invention, in the current position calculation device, the observation image and the reference image are panoramic images that display the surroundings of the vehicle 17 as a moving body, so that all surrounding directions can be obtained. The true current position of the vehicle 17 can be calculated by performing image matching with continuously captured images.

また、本発明にかかる実施の形態によれば、現在位置算出装置において、照合部としてのピクセルパターン照合部5が、観測画像および参照画像において、移動体としての自車17の進行方向における前方および後方を基点として画像マッチングを行い、当該画像マッチングの終わり位置(マッチング最終位置)に基づいて、照合結果を生成することで、各マッチング最終位置に基づくデータ基点角の大きさによって、データの有効無効の判断、および、さらなる画像マッチングの有無の判断ができ、自車17の真の現在位置を算出することができる。   Further, according to the embodiment of the present invention, in the current position calculation device, the pixel pattern matching unit 5 serving as the matching unit includes the front and the front in the traveling direction of the host vehicle 17 serving as the moving body in the observation image and the reference image. Image matching is performed using the back as the base point, and the verification result is generated based on the end position (matching final position) of the image matching, thereby valid / invalid of the data depending on the size of the data base point angle based on each final matching position And the presence / absence of further image matching, and the true current position of the vehicle 17 can be calculated.

また、本発明にかかる実施の形態によれば、現在位置算出装置において、照合部としてのピクセルパターン照合部5は、観測画像と、仮現在位置から所定範囲内に対応する複数の参照画像とを、画像マッチングにより照合し、現在位置算出部6が、ピクセルパターン照合部5における複数の参照画像を用いた照合結果に基づいて、移動体としての自車17の真の現在位置を算出することで、自車17の現在位置が仮現在位置から所定以上に離れているような場合であっても、仮現在位置周辺に関連づけられた参照画像を用いる等により自車17の真の現在位置を算出することができる。   Further, according to the embodiment of the present invention, in the current position calculation device, the pixel pattern matching unit 5 as a matching unit includes an observed image and a plurality of reference images corresponding to a predetermined range from the temporary current position. Then, matching is performed by image matching, and the current position calculation unit 6 calculates the true current position of the vehicle 17 as a moving body based on the matching result using a plurality of reference images in the pixel pattern matching unit 5. Even if the current position of the vehicle 17 is more than a predetermined distance from the temporary current position, the true current position of the vehicle 17 is calculated by using a reference image associated with the temporary current position and the like. can do.

また、本発明にかかる実施の形態によれば、現在位置算出装置において、観測画像および参照画像のうち少なくとも一方が、画像から画像の一部であるピクセルパターンを抽出して照合に用いられることで、画像マッチングを容易にすることができる。   Further, according to the embodiment of the present invention, in the current position calculation device, at least one of the observation image and the reference image extracts a pixel pattern that is a part of the image from the image and is used for collation. Image matching can be facilitated.

また、本発明にかかる実施の形態によれば、現在位置算出装置において、ピクセルパターンが、画像における水平線高さを中心に所定の高さで有することで、外乱の少ない画像を比較に用いることができる。   Further, according to the embodiment of the present invention, in the current position calculation device, the pixel pattern has a predetermined height around the horizontal line height in the image, so that an image with less disturbance can be used for comparison. it can.

また、本発明にかかる実施の形態によれば、現在位置算出装置において、移動体としての自車17の現在位置に関するデータである属性データを付加して観測画像を記憶する、観測地図データ記憶部3をさらに備えることで、観測地図データを観測地図データ記憶部3に記憶し、参照地図データと合わせて、画像マッチングのために画像を参照することができる。   Further, according to the embodiment of the present invention, in the current position calculation device, an observation map data storage unit that stores observation images by adding attribute data that is data relating to the current position of the vehicle 17 as a moving body. 3 is further provided, the observation map data is stored in the observation map data storage unit 3, and the image can be referred to for image matching together with the reference map data.

また、本発明にかかる実施の形態によれば、現在位置算出装置において、現在位置算出部6が、照合結果に基づいて算出された移動体としての自車17の現在位置を自車17の移動距離および移動方向に基づいて補正し、真の現在位置を算出する補正部4をさらに備えることで、画像マッチングによって算出された現在位置と、実際に車両が到達している現在位置とが異なっているような場合であっても、自車17の移動距離および移動方向から、真の現在位置を適切に算出することができる。   Further, according to the embodiment of the present invention, in the current position calculation device, the current position calculation unit 6 moves the current position of the host vehicle 17 as the moving body calculated based on the collation result. By further including a correction unit 4 that corrects based on the distance and the moving direction and calculates the true current position, the current position calculated by image matching is different from the current position that the vehicle has actually reached. Even in such a case, the true current position can be appropriately calculated from the moving distance and moving direction of the host vehicle 17.

また、本発明にかかる実施の形態によれば、現在位置算出方法において、(a)移動体としての自車17の現在位置における2次元画像である観測画像を入力する工程と、(b)所定の地点に関連した2次元画像である参照画像を用意する工程と、(c)観測画像と、仮現在位置に対応する参照画像とを、画像マッチングにより照合する工程と、(d)工程(c)における照合結果に基づいて、自車17の真の現在位置を算出する工程とを備えることで、現在位置における2次元画像を用いることで誤差の累積を抑制し、画像マッチングによって自車17の真の現在位置を算出することができる。   According to the embodiment of the present invention, in the current position calculation method, (a) a step of inputting an observation image that is a two-dimensional image at the current position of the vehicle 17 as a moving body; A step of preparing a reference image which is a two-dimensional image related to the point of (c), a step of collating the observed image with a reference image corresponding to the temporary current position by image matching, and a step (d) (c ) To calculate the true current position of the vehicle 17 based on the result of the comparison in the above), thereby suppressing the accumulation of errors by using a two-dimensional image at the current position, The true current position can be calculated.

なお本発明は、その発明の範囲内において、本実施の形態における任意の構成要素の変形もしくは省略が可能である。   It should be noted that the present invention can be modified or omitted in any constituent elements in the present embodiment within the scope of the invention.

1 観測画像入力部、2 観測ピクセルパターン作成部、3 観測地図データ記憶部、4 補正部、5 ピクセルパターン照合部、6 現在位置算出部、7 参照ピクセルパターン作成部、9 参照画像管理部、10 参照地図データ記憶部、11〜13 道路、14 水平線、16 全方向カメラ、17 自車、18,111 パノラマ画像、21,200 観測ピクセルパターン、40 慣性航法センサー、41 スピードメーター、42 角速度センサー、43 地磁気センサー、50 車載用マイクロコンピューター、51 補助記憶装置、52 右前方マッチング推移、53 左前方マッチング推移、54 右後方マッチング推移、55 左後方マッチング推移、56 左前方マッチング最終位置、57 右前方マッチング最終位置、58 左後方マッチング最終位置、59 右後方マッチング最終位置、60 位置特定センサー、61 GPS受信部、62 セルラ通信部、63 セルラ基地局、64 基地局測位専用サーバー、71,201 参照ピクセルパターン、100 前方マッチング開始点、101 後方マッチング開始点、102 地図データ、103 平面地図データ、106 データ基点角θ、107 ピッチφ、108 ロールψ、109 水平線上下比率、112 右マッチング最終位置、113 左マッチング最終位置、202 最終マッチング位置。   DESCRIPTION OF SYMBOLS 1 Observation image input part, 2 Observation pixel pattern creation part, 3 Observation map data storage part, 4 Correction part, 5 Pixel pattern collation part, 6 Current position calculation part, 7 Reference pixel pattern creation part, 9 Reference image management part, 10 Reference map data storage unit, 11-13 road, 14 horizon line, 16 omnidirectional camera, 17 own vehicle, 18,111 panoramic image, 21,200 observation pixel pattern, 40 inertial navigation sensor, 41 speedometer, 42 angular velocity sensor, 43 Geomagnetic sensor, 50 In-vehicle microcomputer, 51 Auxiliary storage device, 52 Right front matching transition, 53 Left front matching transition, 54 Right rear matching transition, 55 Left rear matching transition, 56 Left front matching final position, 57 Right front matching final Position, 58 Left rear Ching final position, 59 Right rear matching final position, 60 Position specifying sensor, 61 GPS receiving unit, 62 Cellular communication unit, 63 Cellular base station, 64 Base station positioning dedicated server, 71, 201 Reference pixel pattern, 100 Forward matching start point , 101 Back matching start point, 102 Map data, 103 Planar map data, 106 Data base angle θ, 107 Pitch φ, 108 Roll ψ, 109 Horizontal line vertical ratio, 112 Right matching final position, 113 Left matching final position, 202 Final matching position.

Claims (14)

移動体の現在位置における2次元画像である観測画像が入力される観測画像入力部と、
所定の地点に関連して予め用意された2次元画像である参照画像を管理する、参照画像管理部と、
前記観測画像と、記憶されている現在位置である仮現在位置に対応する前記参照画像とを、画像マッチングにより照合する照合部と、
前記照合部における照合結果に基づいて、前記移動体の真の現在位置を算出する現在位置算出部とを備えることを特徴とする、
現在位置算出装置。
An observation image input unit to which an observation image that is a two-dimensional image at the current position of the moving object is input;
A reference image management unit that manages a reference image that is a two-dimensional image prepared in advance in association with a predetermined point;
A collation unit that collates the observed image with the reference image corresponding to the temporary current position, which is the stored current position, by image matching;
A current position calculation unit that calculates a true current position of the mobile body based on a verification result in the verification unit;
Current position calculation device.
前記観測画像および前記参照画像が、前記移動体の周囲を表示するパノラマ画像であることを特徴とする、
請求項1に記載の現在位置算出装置。
The observation image and the reference image are panoramic images that display the periphery of the moving body,
The current position calculation apparatus according to claim 1.
前記照合部が、前記観測画像および前記参照画像において、前記移動体の進行方向における前方および後方を基点として前記画像マッチングを行い、当該画像マッチングの終わり位置に基づいて、前記照合結果を生成することを特徴とする、
請求項2に記載の現在位置算出装置。
The matching unit performs the image matching in the observation image and the reference image with reference to the front and rear in the traveling direction of the moving body, and generates the matching result based on the end position of the image matching. Characterized by the
The current position calculation apparatus according to claim 2.
前記照合部は、前記観測画像と、前記仮現在位置から所定範囲内に対応する複数の前記参照画像とを、前記画像マッチングにより照合し、
前記現在位置算出部が、前記照合部における複数の前記参照画像を用いた前記照合結果に基づいて、前記移動体の前記真の現在位置を算出することを特徴とする、
請求項1〜3のいずれかに記載の現在位置算出装置。
The collation unit collates the observed image with a plurality of the reference images corresponding to a predetermined range from the temporary current position by the image matching,
The current position calculation unit calculates the true current position of the mobile body based on the verification result using the plurality of reference images in the verification unit.
The current position calculation device according to claim 1.
前記観測画像および前記参照画像のうち少なくとも一方が、画像から前記画像の一部であるピクセルパターンを抽出して前記照合に用いられることを特徴とする、
請求項1〜4のいずれかに記載の現在位置算出装置。
At least one of the observation image and the reference image is used for the collation by extracting a pixel pattern that is a part of the image from the image,
The present position calculation apparatus in any one of Claims 1-4.
前記ピクセルパターンが、画像における水平線高さを中心に所定の高さを有することを特徴とする、
請求項5に記載の現在位置算出装置。
The pixel pattern has a predetermined height around a horizontal line height in an image,
The current position calculation apparatus according to claim 5.
前記現在位置算出部が、前記照合結果に基づいて算出された前記移動体の前記現在位置を前記移動体の移動距離および移動方向に基づいて補正し、前記真の現在位置を算出する補正部をさらに備えることを特徴とする、
請求項1〜6のいずれかに記載の現在位置算出装置。
A correction unit that corrects the current position of the moving body calculated based on the collation result based on a moving distance and a moving direction of the moving body, and calculates the true current position; Further comprising:
The current position calculation apparatus according to claim 1.
(a)移動体の現在位置における2次元画像である観測画像を入力する工程と、
(b)所定の地点に関連した2次元画像である参照画像を用意する工程と、
(c)前記観測画像と、記憶されている現在位置である仮現在位置に対応する前記参照画像とを、画像マッチングにより照合する工程と、
(d)前記工程(c)における照合結果に基づいて、前記移動体の真の現在位置を算出する工程とを備えることを特徴とする、
現在位置算出方法。
(A) inputting an observation image that is a two-dimensional image at the current position of the moving object;
(B) preparing a reference image which is a two-dimensional image related to a predetermined point;
(C) collating the observed image with the reference image corresponding to the temporary current position that is the stored current position by image matching;
(D) comprising a step of calculating a true current position of the mobile body based on a collation result in the step (c).
Current position calculation method.
前記工程(a)および(b)における前記観測画像および前記参照画像が、前記移動体の周囲を表示するパノラマ画像であることを特徴とする、
請求項8に記載の現在位置算出方法。
The observation image and the reference image in the steps (a) and (b) are panoramic images that display the periphery of the moving body,
The current position calculation method according to claim 8.
前記工程(c)が、前記観測画像および前記参照画像において、前記移動体の進行方向における前方および後方を基点として前記画像マッチングを行い、当該画像マッチングの終わり位置に基づいて、前記照合結果を生成する工程であることを特徴とする、
請求項9に記載の現在位置算出方法。
The step (c) performs the image matching on the observation image and the reference image with reference to the front and rear in the moving direction of the moving body, and generates the matching result based on the end position of the image matching It is a process to perform,
The current position calculation method according to claim 9.
前記工程(c)は、前記観測画像と、前記仮現在位置から所定範囲内に対応する複数の前記参照画像とを、前記画像マッチングにより照合する工程であり、
前記工程(d)が、前記工程(c)における複数の前記参照画像を用いた前記照合結果に基づいて、前記移動体の前記真の現在位置を算出する工程であることを特徴とする、
請求項8〜10のいずれかに記載の現在位置算出方法。
The step (c) is a step of collating the observed image with a plurality of the reference images corresponding to a predetermined range from the temporary current position by the image matching,
The step (d) is a step of calculating the true current position of the moving body based on the collation result using the plurality of reference images in the step (c).
The current position calculation method according to claim 8.
前記工程(a)および(b)における前記観測画像および前記参照画像のうち少なくとも一方が、画像から前記画像の一部であるピクセルパターンを抽出して前記照合に用いられることを特徴とする、
請求項8〜11のいずれかに記載の現在位置算出方法。
At least one of the observed image and the reference image in the steps (a) and (b) is used for the collation by extracting a pixel pattern that is a part of the image from an image,
The current position calculation method according to any one of claims 8 to 11.
前記ピクセルパターンが、画像における水平線高さを中心に所定の高さを有することを特徴とする、
請求項12に記載の現在位置算出方法。
The pixel pattern has a predetermined height around a horizontal line height in an image,
The current position calculation method according to claim 12.
前記工程(d)は、前記工程(c)における照合結果に基づいて算出された前記移動体の前記現在位置を前記移動体の移動距離および移動方向に基づいて補正し、前記真の現在位置を算出する工程であることを特徴とする、
請求項8〜13のいずれかに記載の現在位置算出方法。
In the step (d), the current position of the moving body calculated based on the collation result in the step (c) is corrected based on a moving distance and a moving direction of the moving body, and the true current position is determined. It is a process of calculating,
The current position calculation method according to any one of claims 8 to 13.
JP2011200540A 2011-09-14 2011-09-14 Present position calculation device and present position calculation method Withdrawn JP2013061270A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011200540A JP2013061270A (en) 2011-09-14 2011-09-14 Present position calculation device and present position calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011200540A JP2013061270A (en) 2011-09-14 2011-09-14 Present position calculation device and present position calculation method

Publications (1)

Publication Number Publication Date
JP2013061270A true JP2013061270A (en) 2013-04-04

Family

ID=48186055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011200540A Withdrawn JP2013061270A (en) 2011-09-14 2011-09-14 Present position calculation device and present position calculation method

Country Status (1)

Country Link
JP (1) JP2013061270A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104537672A (en) * 2015-01-05 2015-04-22 长安大学 Road environment monotony detection method based on videos
WO2016038755A1 (en) * 2014-09-09 2016-03-17 三菱重工業株式会社 Billing processing system
WO2016113875A1 (en) * 2015-01-15 2016-07-21 三菱重工業株式会社 Information presentation system for evaluating billing location
JP2017519973A (en) * 2014-04-30 2017-07-20 トムトム グローバル コンテント ベスローテン フエンノートシャップ Method and system for determining position relative to a digital map
JP2017151148A (en) * 2016-02-22 2017-08-31 Necプラットフォームズ株式会社 Position estimation device, position detection method, and program
US20200391767A1 (en) * 2018-03-30 2020-12-17 Komatsu Ltd. Work machine control system, work machine, and work machine control method
JP2022162577A (en) * 2021-04-13 2022-10-25 トヨタ自動車株式会社 Information processing device, information processing system, and information processing method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017519973A (en) * 2014-04-30 2017-07-20 トムトム グローバル コンテント ベスローテン フエンノートシャップ Method and system for determining position relative to a digital map
WO2016038755A1 (en) * 2014-09-09 2016-03-17 三菱重工業株式会社 Billing processing system
JP2016057801A (en) * 2014-09-09 2016-04-21 三菱重工業株式会社 Charging processing system
CN104537672A (en) * 2015-01-05 2015-04-22 长安大学 Road environment monotony detection method based on videos
KR101984414B1 (en) 2015-01-15 2019-05-30 미츠비시 쥬고 기카이 시스템 가부시키가이샤 Information presentation system for evaluating billing location
KR20170095329A (en) * 2015-01-15 2017-08-22 미츠비시 쥬고우 메카토로시스테무즈 가부시키가이샤 Information presentation system for evaluating billing location
GB2549654A (en) * 2015-01-15 2017-10-25 Mitsubishi Heavy Ind Mechatronics Systems Ltd Information presentation system for evaluating billing location
JPWO2016113875A1 (en) * 2015-01-15 2017-10-26 三菱重工メカトロシステムズ株式会社 Information provision system for billing location evaluation
WO2016113875A1 (en) * 2015-01-15 2016-07-21 三菱重工業株式会社 Information presentation system for evaluating billing location
JP2017151148A (en) * 2016-02-22 2017-08-31 Necプラットフォームズ株式会社 Position estimation device, position detection method, and program
US20200391767A1 (en) * 2018-03-30 2020-12-17 Komatsu Ltd. Work machine control system, work machine, and work machine control method
US11745767B2 (en) * 2018-03-30 2023-09-05 Komatsu Ltd. Work machine control system, work machine, and work machine control method
JP2022162577A (en) * 2021-04-13 2022-10-25 トヨタ自動車株式会社 Information processing device, information processing system, and information processing method
US11915588B2 (en) 2021-04-13 2024-02-27 Toyota Jidosha Kabushiki Kaisha Information processing apparatus, information processing system, and information processing method

Similar Documents

Publication Publication Date Title
CN108303103B (en) Method and device for determining target lane
JP7147119B2 (en) Device and method for autonomous self-localization
US9429438B2 (en) Updating map data from camera images
US11137255B2 (en) Methods and systems for generating and using localization reference data
JP2013061270A (en) Present position calculation device and present position calculation method
JP4232167B1 (en) Object identification device, object identification method, and object identification program
JP6694395B2 (en) Method and system for determining position relative to a digital map
US10291898B2 (en) Method and apparatus for updating navigation map
KR101444685B1 (en) Method and Apparatus for Determining Position and Attitude of Vehicle by Image based Multi-sensor Data
CA2762743C (en) Updating map data from camera images
JP5339953B2 (en) 3D map correction apparatus and 3D map correction program
KR101921429B1 (en) Method and system for making precise map
JP4978615B2 (en) Target identification device
JP2008309529A (en) Navigation system, navigation method and program for navigation
WO2020039937A1 (en) Position coordinates estimation device, position coordinates estimation method, and program
JP2008065087A (en) Apparatus for creating stationary object map
US20160169662A1 (en) Location-based facility management system using mobile device
JP2007122247A (en) Automatic landmark information production method and system
CN113706702A (en) Mining area three-dimensional map construction system and method
JP6773473B2 (en) Survey information management device and survey information management method
CN117572343A (en) Short-distance navigation method and device for visually impaired user, electronic equipment and storage medium
US10859377B2 (en) Method for improving position information associated with a collection of images
JP2012099010A (en) Image processing apparatus and image processing program
CN115205384A (en) Blind guiding method and device and readable storage medium
KR20220050386A (en) Method of generating map and visual localization system using the map

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202