JP2013061270A - Present position calculation device and present position calculation method - Google Patents
Present position calculation device and present position calculation method Download PDFInfo
- Publication number
- JP2013061270A JP2013061270A JP2011200540A JP2011200540A JP2013061270A JP 2013061270 A JP2013061270 A JP 2013061270A JP 2011200540 A JP2011200540 A JP 2011200540A JP 2011200540 A JP2011200540 A JP 2011200540A JP 2013061270 A JP2013061270 A JP 2013061270A
- Authority
- JP
- Japan
- Prior art keywords
- image
- current position
- matching
- position calculation
- pixel pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Instructional Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
Abstract
Description
本発明は現在位置算出装置および現在位置算出方法に関し、特に、移動体の真の現在位置を算出できる現在位置算出装置および現在位置算出方法に関するものである。 The present invention relates to a current position calculation device and a current position calculation method, and more particularly to a current position calculation device and a current position calculation method that can calculate a true current position of a moving object.
現在位置算出装置は、従来から様々な方法で移動体の現在位置を算出してきた。例えば、GPSによる位置情報を利用して、車両の現在位置を算出するカーナビゲーション装置が多く利用されている。 The current position calculation device has conventionally calculated the current position of the moving body by various methods. For example, car navigation devices that use GPS location information to calculate the current position of a vehicle are often used.
一方、GPS等による位置情報の取得が困難な状況下では、移動体である車両に備えられた車速パルス、角速度センサー(ジャイロセンサー)を用いて現在位置の算出およびその補正を行っていた。 On the other hand, under the situation where it is difficult to acquire position information by GPS or the like, the current position is calculated and corrected using a vehicle speed pulse and an angular velocity sensor (gyro sensor) provided in a vehicle that is a moving body.
しかし、このような車速パルス、角速度センサーを用いた補正では、現在位置算出の際に生じる誤差が累積してしまうという問題があった。また、角速度センサーの精度以下の動作が検知できず、角度誤差も累積するという問題もあった。 However, such correction using the vehicle speed pulse and angular velocity sensor has a problem that errors generated when calculating the current position are accumulated. In addition, there is a problem in that an operation below the accuracy of the angular velocity sensor cannot be detected, and angular errors also accumulate.
そこで、特許文献1には、ランドマーク(電柱、信号機、道路標識等)がある地図データリストにより、車両の現在位置を特定する方法が示されている。
Thus,
具体的には、自車から確認可能な最も遠方にあるランドマークと自車の現在位置との距離を、例えば左右両眼の役目を果たす一対のTVカメラの、ステレオ画像を用いた3次元測定により求める。そして、そのランドマークに対応する地図上のランドマーク座標から車両の現在位置を特定する。 Specifically, the distance between the farthest landmark that can be confirmed from the vehicle and the current position of the vehicle is measured in a three-dimensional manner using a stereo image of a pair of TV cameras that serve as both left and right eyes, for example. Ask for. Then, the current position of the vehicle is specified from the landmark coordinates on the map corresponding to the landmark.
ランドマークとランドマーク座標との対応を求める際には、自車のステレオ画像によりランドマーク種類とランドマーク間の相互距離とを観測地図リストとして作成し、地図データリストと作成した観測地図リストとのリストマッチングを行い、その対応を求める。 When finding the correspondence between landmarks and landmark coordinates, create the observation map list with the type of landmark and the mutual distance between the landmarks using the stereo image of the vehicle, List matching is performed and the correspondence is obtained.
特許文献1に示した方法では、走行路にあるランドマーク(電柱、信号機、道路標識等)が有る特定の地点でしか目標物が設定できず、目標物になりそうなものが無い単調な道路が続く場合などにランドマークが定まらないという問題があった。
In the method shown in
本発明は、上記のような問題を解決するためになされたものであり、誤差の累積を抑制し、目標物になりそうなものがない単調な道路でも適切に真の現在位置を算出できる現在位置算出装置および現在位置算出方法の提供を目的とする。 The present invention has been made to solve the above-described problems, and suppresses the accumulation of errors, and can calculate a true current position appropriately even on a monotonous road that has no possibility of becoming a target. An object is to provide a position calculation device and a current position calculation method.
本発明にかかる現在位置算出装置は、移動体の現在位置における2次元画像である観測画像が入力される観測画像入力部と、所定の地点に関連して予め用意された2次元画像である参照画像を管理する、参照画像管理部と、前記観測画像と、記憶されている現在位置である仮現在位置に対応する前記参照画像とを、画像マッチングにより照合する照合部と、前記照合部における照合結果に基づいて、前記移動体の真の現在位置を算出する現在位置算出部とを備えることを特徴とする。 The present position calculation apparatus according to the present invention includes an observation image input unit to which an observation image, which is a two-dimensional image at a current position of a moving body, is input, and a reference that is a two-dimensional image prepared in advance in association with a predetermined point. A reference image management unit for managing images, a collation unit that collates the observed image with the reference image corresponding to the temporary current position that is a stored current position by image matching, and a collation in the collation unit And a current position calculation unit that calculates a true current position of the mobile body based on the result.
本発明にかかる現在位置算出方法は、(a)移動体の現在位置における2次元画像である観測画像を入力する工程と、(b)所定の地点に関連した2次元画像である参照画像を用意する工程と、(c)前記観測画像と、記憶されている現在位置である仮現在位置に対応する前記参照画像とを、画像マッチングにより照合する工程と、(d)前記工程(c)における照合結果に基づいて、前記移動体の真の現在位置を算出する工程とを備えることを特徴とする。 In the present position calculation method according to the present invention, (a) a step of inputting an observation image that is a two-dimensional image at the current position of a mobile object, and (b) a reference image that is a two-dimensional image related to a predetermined point is prepared. (C) collating the observed image with the reference image corresponding to the temporary current position that is the stored current position by image matching; and (d) collating in the step (c). And a step of calculating a true current position of the moving body based on the result.
本発明にかかる現在位置算出装置によれば、移動体の現在位置における2次元画像である観測画像が入力される観測画像入力部と、所定の地点に関連して予め用意された2次元画像である参照画像を管理する、参照画像管理部と、前記観測画像と、記憶されている現在位置である仮現在位置に対応する前記参照画像とを、画像マッチングにより照合する照合部と、前記照合部における照合結果に基づいて、前記移動体の真の現在位置を算出する現在位置算出部とを備えることにより、現在位置における2次元画像を用いることで誤差の累積を抑制し、画像マッチングによって移動体の真の現在位置を算出することができる。 According to the present position calculation apparatus according to the present invention, an observation image input unit to which an observation image, which is a two-dimensional image at the current position of the moving body, is input, and a two-dimensional image prepared in advance in association with a predetermined point. A reference image management unit that manages a reference image, a collation unit that collates the observed image with the reference image corresponding to the temporary current position that is a stored current position by image matching, and the collation unit And a current position calculation unit that calculates the true current position of the moving body based on the collation result in the above, so that accumulation of errors is suppressed by using a two-dimensional image at the current position, and the moving body is subjected to image matching. The true current position of can be calculated.
本発明にかかる現在位置算出方法によれば、(a)移動体の現在位置における2次元画像である観測画像を入力する工程と、(b)所定の地点に関連した2次元画像である参照画像を用意する工程と、(c)前記観測画像と、記憶されている現在位置である仮現在位置に対応する前記参照画像とを、画像マッチングにより照合する工程と、(d)前記工程(c)における照合結果に基づいて、前記移動体の真の現在位置を算出する工程とを備えることにより、現在位置における2次元画像を用いることで誤差の累積を抑制し、画像マッチングによって移動体の真の現在位置を算出することができる。 According to the present position calculation method according to the present invention, (a) a step of inputting an observation image that is a two-dimensional image at the current position of the moving body; and (b) a reference image that is a two-dimensional image related to a predetermined point. (C) collating the observed image with the reference image corresponding to the provisional current position, which is the stored current position, and (d) the step (c) And calculating the true current position of the moving body based on the collation result in the above, thereby suppressing the accumulation of errors by using a two-dimensional image at the current position, and performing the true matching of the moving body by image matching. The current position can be calculated.
<A.実施の形態1>
<A−1.構成>
図1は、本発明にかかる現在位置算出装置の全体構成を、概念的に示したものである。なお、以下の説明では、特に「車両」の現在位置を算出する場合について説明するが、本発明は、車両の位置を算出する場合に限られるものではなく、一般に移動体の現在位置を算出することができる現在位置算出装置である。
<A.
<A-1. Configuration>
FIG. 1 conceptually shows the overall configuration of a current position calculation apparatus according to the present invention. In the following description, a case where the current position of the “vehicle” is calculated will be described. However, the present invention is not limited to the case where the position of the vehicle is calculated. In general, the current position of the moving object is calculated. It is a current position calculation device that can.
図1に示すように、現在位置算出装置は、移動体としての車両の現在位置において車両側から車両の周囲の全方向を連続的に撮像した2次元画像(観測画像)が入力される観測画像入力部1と、観測画像入力部1における観測画像から、観測ピクセルパターンを作成する観測ピクセルパターン作成部2とを備えている。また、観測画像入力部1における観測画像に所定の属性データを付加させ、平面地図データ上に観測地図データとしてリンクさせて記憶する観測地図データ記憶部3をさらに備えることができるが、当該構成は、ネットワーク等を介して利用することもできる。
As shown in FIG. 1, the current position calculation device is an observation image to which a two-dimensional image (observation image) obtained by continuously capturing all directions around the vehicle from the vehicle side at the current position of the vehicle as a moving body is input. An
また、例えばネットワーク上において、予め平面地図データ上の所定の地点にリンクされた、その位置における車両側から撮像した2次元画像(参照画像)を含む参照地図データを記憶する参照地図データ記憶部10と、参照地図データ記憶部10から所定の参照地図データを取得し、その参照画像を管理する参照画像管理部9と、参照画像管理部9における参照画像から、参照ピクセルパターンを作成する参照ピクセルパターン作成部7と、観測ピクセルパターンと参照ピクセルパターンとを画像マッチングにより照合するピクセルパターン照合部5と、GPS等による位置情報やピクセルパターン照合部5における照合結果に基づいて、車両の真の現在位置を算出する現在位置算出部6と、現在位置算出部6において、照合結果から算出される値の補正を行う補正部4とを備える。
Further, for example, on the network, the reference map
観測画像入力部1は、観測画像として、例えば車両等に取り付けられた全方向カメラ16によって撮像された、図2(a)および(b)に示すようなパノラマ画像18(アラウンドビュー)を取得することができる。図2(b)に示すような自車17位置から、全方向カメラ16を用いて観測した場合、図2(a)に示すようなパノラマ画像18を取得することができる(図2(a)に示すパノラマ画像18は、図2(b)に示すパノラマ画像18を平面状に広げたものである)。水平線14が画像の中央付近にあり、道路11、道路12、道路13のそれぞれが、順に示されている。
The observation
なお、入力される観測画像はパノラマ画像である必要はなく、所定範囲の建造物等を車両側から観測したものであればよい。 The input observation image does not have to be a panoramic image, and may be any observation image of a building or the like within a predetermined range from the vehicle side.
観測ピクセルパターン作成部2は、図3に示すように、観測画像(パノラマ画像18)から当該観測画像の一部、例えば所定の高さ分の水平方向のピクセルパターンを切り取り、観測ピクセルパターン21を作成する。切り取る部分の高さは、最も位置特定に有利な高さ位置、例えば外乱の少ない水平線高さ位置(通りの自動車、人、通りに面した塀等に関係しない高さ)を中心とすることが望ましい。
As shown in FIG. 3, the observation pixel
観測地図データ記憶部3および参照地図データ記憶部10は、例えば図4(a)に示すように、平面地図データ103上にリンクさせて地図データ102(観測地図データまたは参照地図データ)を記憶している。
The observation map
参照地図データ記憶部10では、リンクに際して、参照画像(図4(b)に例示するパノラマ画像111)に属性データ(例えば、緯度および経度、画像地図名、データ基点角θ(データ取り込み初期角)、画像傾き角、水平線上下比率)を付加させた参照地図データを記憶することができる。属性データと参照画像との対応関係は例えば図4(c)に示すようになり、データ基点角θ106、画像傾き角(ピッチφ107、ロールψ108)、水平線14の水平線上下比率109がそれぞれ定義される。
At the time of linking, the reference map
観測地図データ記憶部3においても、リンクに際して、観測画像に上記の属性データを付加させた観測地図データを記憶することができ、観測地図データと参照地図データとの記憶形式は、汎用性を高めるため統一されていることが望ましい。このようにすれば、観測地図データ記憶部3に記憶された観測地図データは、参照地図データ記憶部10に記憶された参照地図データと同様に、参照画像管理部9に取得される地図データとして活用できる。
The observation map
地図データの具体例としては、例えば特表2010−531007号公報に示すようなものがある。地図データを記憶する図5に示すような地図データサーバーにアクセスし、車両の仮現在位置を通知することで、対応する地図データが取得できる。仮現在位置については後述する。 As a specific example of the map data, for example, there is one as shown in JP-T-2010-531007. Corresponding map data can be acquired by accessing a map data server as shown in FIG. 5 storing map data and notifying the temporary current position of the vehicle. The temporary current position will be described later.
一般にデジタル地図は、国土地理院の平面地形図等をベースに作られ、フォーマットは日本工業規格(JIS−D0810)に準拠した業界標準のKiwi−Wフォーマット等で作られている。また、インターネットでは、グーグルおよびヤフー等でのデジタル地図検索が一般的となっている。よって、観測地図データまたは参照地図データを既存のグーグルストリートビュー等と同様の記憶形式とすることで、汎用性を高めることも可能である。 In general, a digital map is made based on a topographic map of the Geospatial Information Authority of Japan, and the format is made in an industry standard Kiwi-W format or the like that conforms to the Japanese Industrial Standard (JIS-D0810). On the Internet, digital map search using Google, Yahoo, etc. is common. Therefore, versatility can also be improved by making observation map data or reference map data into the same storage format as existing Google Street View or the like.
参照画像管理部9は、参照地図データ記憶部10における所定の参照地図データを取得し、その参照画像を管理する。取得する参照地図データの平面地図データ上の座標位置は、車両の仮現在位置に基づいて設定される。
The reference
参照ピクセルパターン作成部7は、図6に示すように、参照画像から例えば所定高さ分の水平方向のピクセルパターンを切り取り、参照ピクセルパターン71を作成する。参照ピクセルパターン71は、観測ピクセルパターン21(図3参照)と対応する水平高さであることが望ましく、また対応する観測ピクセルパターン21と比較して所定高さである切り出し幅を広くしておくことが望ましい。これは、観測ピクセルパターン21と参照ピクセルパターン71とでマッチングを行う際に、観測ピクセルパターン21に生じている観測誤差を考慮するためである。なお逆に、観測ピクセルパターン21の切り出し幅を広くすることも可能である。
As shown in FIG. 6, the reference pixel
<A−2.動作>
次に、本発明にかかる現在位置算出装置の動作を説明する。
<A-2. Operation>
Next, the operation of the current position calculation apparatus according to the present invention will be described.
図7は、図1において概念的に示された補正部4および現在位置算出部6を具体的に示した構成図である。特に、慣性航法センサー40および車載用マイクロコンピューター50を含む構成が補正部4に対応する。
FIG. 7 is a configuration diagram specifically showing the
慣性航法センサー40は、スピードメーター41(車速パルス)、角速度センサー42、地磁気センサー43を備える。位置特定センサー60は、GPS受信部61を備える。慣性航法センサー40および位置特定センサー60は、それぞれ車載用マイクロコンピューター50に接続される。
The
また位置特定センサー60は、GPS受信部61において、GPSによる位置情報を受信できる。
The
さらに車載用マイクロコンピューター50には、補助記憶装置51が接続されている。
Further, an
図8に示すように車載用マイクロコンピューター50は、プログラムを実行させるためのイニシャライズを行い(ステップS1)、ユーザからのキー入力があるか否かを判断する(ステップS2)。キー入力がある場合には、当該キー入力に対応した入力操作を行う(ステップS3)。キー入力がない場合には、例えば、車両の現在位置周辺の地図を表示画面に表示することができる(ステップS4)。
As shown in FIG. 8, the in-
本発明にかかる現在位置算出装置は、当該画面表示等の動作をしながら、車両の現在位置を算出する動作を行う。以下に現在位置算出処理の全体のフローを説明する。 The current position calculation apparatus according to the present invention performs an operation of calculating the current position of the vehicle while performing operations such as screen display. The overall flow of the current position calculation process will be described below.
まず、位置特定センサー60のGPS受信部61において、GPSによる位置情報を取得する。取得した位置情報および慣性航法センサーの測位データに基づいて、車両の現在位置を特定する。このとき、位置特定の精度を高めるために、GPSにより複数回取得した位置情報の平均値である平均GPS測位位置を用いることも可能である。
First, the
具体的には図9に示すように、まずGPSによる位置情報を取得する(ステップS9)。次に、取得した位置情報から車両の測位位置(緯度および経度)を特定し、GPS測位が成功したかを判定する。具体的には、(1)GPSにより特定した車両の測位位置と前回決定された車両の現在位置との座標差が所定の範囲内であるか否か、(2)平均GPS測位位置のσ値が規定値以上ばらついているか否か、(3)受信レベルが規定値以下か否か等に基づいて判断する(ステップS10)。ここで、前回決定された車両の現在位置とは、本動作を行う直前までに認識されていた車両の現在位置であり、現在位置算出部6に記憶されている。認識していた時間が近いほど、より正確な位置情報となる。また、この現在位置算出部6に記憶されている前回決定された車両の現在位置は、後に説明する画像照合処理において仮現在位置として用いられる。
Specifically, as shown in FIG. 9, first, position information by GPS is acquired (step S9). Next, the positioning position (latitude and longitude) of the vehicle is specified from the acquired position information, and it is determined whether the GPS positioning is successful. Specifically, (1) whether the coordinate difference between the positioning position of the vehicle specified by GPS and the current position of the vehicle determined last time is within a predetermined range, or (2) the σ value of the average GPS positioning position Is determined based on whether the reception level is not less than the specified value, and (3) whether the reception level is not more than the specified value (step S10). Here, the current position of the vehicle determined last time is the current position of the vehicle recognized immediately before performing this operation, and is stored in the current
GPSによる測位が成功したと判定された場合にはステップS11へ、GPSによる測位が成功しなかったと判定された場合にはステップS12へそれぞれ進む。 If it is determined that the GPS positioning is successful, the process proceeds to step S11. If it is determined that the GPS positioning is not successful, the process proceeds to step S12.
ステップS11においては、GPSにより特定した車両の測位位置を車両の真の現在位置として設定し、記憶する。 In step S11, the positioning position of the vehicle specified by GPS is set and stored as the true current position of the vehicle.
ステップS12においては、画像照合処理に進む。画像照合処理については、後で詳しく説明する。 In step S12, the process proceeds to image collation processing. The image matching process will be described in detail later.
GPS受信部61により決定した車両の現在位置を慣性航法センサー40の距離センサーとしてのスピードメーター41(車速パルス)、方位センサーとしての角速度センサー42(ジャイロセンサー)および地磁気センサー43を用いて補正し、車両の現在位置を設定する。
The current position of the vehicle determined by the
具体的には図10に示すように、スピードメーター41を用いて、走行距離の計算を行う(ステップS30)。次に、角速度センサー42および地磁気センサー43を用いて、方位の計算を行う(ステップS31)。
Specifically, as shown in FIG. 10, the travel distance is calculated using the speedometer 41 (step S30). Next, the azimuth is calculated using the
次に、GPS受信部61により決定した車両の現在位置を算出した走行距離、方位を用いて補正し、車両の真の現在位置として設定し、記憶する(ステップS32)。
Next, the current position of the vehicle determined by the
次に、GPSによる位置情報の取得困難な状況下で行われる画像照合処理の動作について説明する。 Next, an operation of image collation processing performed under a situation where it is difficult to acquire position information by GPS will be described.
GPS衛星からの電波等の受信が困難な、高層ビルが並ぶ市街地や外国等において、以下のような動作を行う。なお、同様にGPS衛星からの電波等が受信困難なトンネル内、地下および立体駐車場、大きな建物等においても、条件が整えば以下のような動作が可能である。 The following operations are performed in urban areas where foreign buildings and the like are lined with high-rise buildings where reception of radio waves from GPS satellites is difficult. Similarly, in tunnels, underground and multistory parking lots, large buildings, etc. where it is difficult to receive radio waves from GPS satellites, the following operations are possible if conditions are met.
図9で示す現在位置を算出する処理フローでGPS測位に失敗し、ステップS12の画像照合処理に進んだ場合、まず、図11に示すように、例えば現在位置算出部6より、前回の現在位置算出処理で設定された現在位置である仮現在位置の情報を取得する(ステップS60)。 When the GPS positioning fails in the processing flow for calculating the current position shown in FIG. 9 and the process proceeds to the image collating process in step S12, first, as shown in FIG. Information on the temporary current position, which is the current position set in the calculation process, is acquired (step S60).
次に、観測画像入力部1において、観測画像を取得し(ステップS61)、取得した観測画像に属性データを付加し、観測地図データとして観測地図データ記憶部3に記憶する(ステップS62)。観測ピクセルパターン作成部2において、取得した観測画像から、例えば水平方向の観測ピクセルパターンを作成する(ステップS63)。なお、観測画像に属性データを付加して記憶する動作は、必須の動作ではない。
Next, the observation
一方で参照画像管理部9では、現在位置算出部6より得た仮現在位置の情報から、参照地図データ記憶部10における、仮現在位置に対応する参照地図データを取得し、さらに当該参照地図データから参照画像を取得する(ステップS64)。そして、参照ピクセルパターン作成部7において、取得した参照画像から、例えば水平方向の参照ピクセルパターンを作成する(ステップS65)。
On the other hand, the reference
次に、ピクセルパターン照合部5において、観測ピクセルパターンと参照ピクセルパターンとの照合処理を行う(ステップS66)。
Next, the pixel
ここで、ピクセルパターンの照合処理の動作について、図12を用いて説明する。 Here, the operation of the pixel pattern matching process will be described with reference to FIG.
まずピクセルパターン照合部5において、観測ピクセルパターンと参照ピクセルパターンとのピクセルパターンマッチング(画像マッチング)を行う(ステップS79)。
First, the pixel
ピクセルパターンマッチングは、例えば図13に示すような方法で車両の右前方部分、右後方部分、左前方部分、左後方部分の4箇所に分けて行う。車両を囲むように配置される参照ピクセルパターン71に含まれる方位情報および車両の進行方向に基づいて、車両進行方向の前後に前方マッチング開始点100および後方マッチング開始点101を設定する(図13(a)参照)。
The pixel pattern matching is performed by dividing the vehicle into four parts, for example, a right front part, a right rear part, a left front part, and a left rear part, as shown in FIG. Based on the azimuth information included in the
観測ピクセルパターン21(図13(c)参照)においても、参照ピクセルパターン71(図13(b)参照)と対応させて、車両進行方向の前方および後方に、前方マッチング開始点100および後方マッチング開始点101を設定する。
Also in the observed pixel pattern 21 (see FIG. 13C), the front matching start
例えば右前方マッチング推移52でマッチングを行う場合は、観測ピクセルパターン21の前方マッチング開始点100と、参照ピクセルパターン71の前方マッチング開始点100とを基点として、ともに右前方マッチング推移52の方向(周方向の時計回り)にピクセルパターンマッチングで行い、観測ピクセルパターン21の右マッチング最終位置112(前方マッチング開始点100から時計回りに90°の位置)まで到達させる。このとき、参照ピクセルパターン71において観測ピクセルパターン21とマッチングされた位置を右前方マッチング最終位置57とする。
For example, when matching is performed using the right
同様にして後方マッチング開始点101を基点として右後方マッチング推移54の方向(周方向の反時計回り)で右後方マッチング最終位置59を求め、さらに、左前方マッチング推移53の方向、左後方マッチング推移55の方向のそれぞれにおいても、観測ピクセルパターン21の左マッチング最終位置113(前方マッチング開始点100から反時計回りに90°の位置)まで到達させ、観測ピクセルパターン21とマッチングされた位置を左前方マッチング最終位置56および左後方マッチング最終位置58として求める。
Similarly, a right rear matching
なお、本実施の形態では、観測ピクセルパターン21のマッチング最終位置を固定してマッチングを行ったが、参照ピクセルパターン71のマッチング最終位置を固定してマッチングを行ってもよい。
In this embodiment, the matching final position of the
また、本実施の形態では、観測画像および参照画像双方のピクセルパターンを切り出し、マッチングをしたが、観測画像および参照画像の双方、または一方がピクセルパターンを切り出したものでなく、画像全体としてマッチングを行うことも可能である。 In this embodiment, the pixel pattern of both the observation image and the reference image is cut out and matched. However, both the observation image and the reference image or one of them is not cut out of the pixel pattern, and the entire image is matched. It is also possible to do this.
当該方法は、ピクセル間の単調連続性を保持しつつ、画素毎に対応関係を求めることが可能となるため、比較する参照ピクセルパターン71および観測ピクセルパターン21の車両の位置が多少ずれ、画像が異なっていても、安定性の高いマッチングを行うことができるため望ましい。
In this method, since it is possible to obtain a correspondence relationship for each pixel while maintaining monotonous continuity between pixels, the positions of the
平面地図データ上で、車両中心を通る、車両の進行方向に垂直な方向の線を基準線として、車両中心から、左前方マッチング最終位置56、右前方マッチング最終位置57、左後方マッチング最終位置58、右後方マッチング最終位置59のそれぞれに対して形成される角度を、それぞれデータ基点角θLF、データ基点角θRF、データ基点角θLB、データ基点角θRBとする(図13(a)参照)。
On the plane map data, a left-front matching
上記のような方法で、データ基点角θ(データ基点角θRF、データ基点角θRB、データ基点角θLF、データ基点角θLB)を特定する(ステップS80〜ステップS83)。なお特定の順序は、当該フローチャートに示す場合に限られない。 The data base point angle θ (data base point angle θRF, data base point angle θRB, data base point angle θLF, data base point angle θLB) is specified by the method as described above (steps S80 to S83). The specific order is not limited to the case shown in the flowchart.
次に、データ基点角θが有効であるか否かを判定する(ステップS84)。有効か否かは、例えば各データ基点角θが±60°の範囲内であるか否かで判定する。(1)4つのデータ基点角が全て±60°の範囲内である場合(全てのデータ基点角θが有効である場合)、または、(2)車両右側のデータ基点角θ(データ基点角θRFおよびデータ基点角θRB)は±60°の範囲内である場合(車両右側のデータ基点角θRが有効である場合)、または、(3)車両左側のデータ基点角θ(データ基点角θLFおよびデータ基点角θLB)は±60°の範囲内である場合(車両左側のデータ基点角θLが有効である場合)には、ステップS85に進む。一方、それ以外の場合(車両右側のデータ基点角θR、車両左側のデータ基点角θLともに無効である場合)には、ステップS91へ進む。 Next, it is determined whether or not the data base point angle θ is valid (step S84). Whether or not the data is valid is determined, for example, based on whether or not each data base angle θ is within a range of ± 60 °. (1) When all four data base point angles are within a range of ± 60 ° (when all data base point angles θ are valid), or (2) Data base point angle θ on the right side of the vehicle (data base point angle θRF) And the data base point angle θRB) are within a range of ± 60 ° (when the data base point angle θR on the right side of the vehicle is valid), or (3) the data base point angle θ on the left side of the vehicle (the data base point angle θLF and the data If the base point angle θLB) is within a range of ± 60 ° (when the data base point angle θL on the left side of the vehicle is valid), the process proceeds to step S85. On the other hand, in other cases (when the data base point angle θR on the right side of the vehicle and the data base point angle θL on the left side of the vehicle are invalid), the process proceeds to step S91.
ここで、データ基点角θが±60°の範囲内である場合について図14に示す。 Here, FIG. 14 shows a case where the data base angle θ is within a range of ± 60 °.
まず、観測ピクセルパターンと比較する参照ピクセルパターンが、カメラの死角による欠陥を抑制するため、平面地図上に約10m間隔でリンクされているとする。 First, it is assumed that the reference pixel pattern to be compared with the observed pixel pattern is linked on the plane map at an interval of about 10 m in order to suppress defects due to the blind spot of the camera.
また、観測ピクセルパターン21は例えば外乱の少ない水平線の高さ等の位置を収集しているが、水平線の高さに関わらず、画像中マッチングが可能な特徴ある立ち木、建物等が画像に写り画像マッチング可能となる。この画像マッチングが可能な道路と並行する固定物の位置の想定線を画像収集予測線とする。
In addition, the
道路幅を10m、観測ピクセルパターン21の画像収集予測線間の距離を20mとすると、道路中央に位置した車両から、進行方向と垂直な方向の観測ピクセルパターン21の画像収集予測線までの距離は10mとなる。
If the road width is 10 m and the distance between the image collection prediction lines of the
図14に示すように、車両からみてのデータ基点角(データ基点角θRFまたはデータ基点角θRB)が+30°となる観測ピクセルパターン21の画像収集予測線上の地点は、車両からおよそ6m前方となる。同様に、車両からみてのデータ基点角が+60°となる観測ピクセルパターン21の画像収集予測線上の地点は、車両からおよそ17m前方となる。
As shown in FIG. 14, the point on the image collection prediction line of the
車両の前後方向±6mまでの範囲(補正可能領域)においては、参照ピクセルパターンが1つ存在する(図14においてはCのみ)として、当該1つの参照ピクセルパターンを基準に、データ基点角θによる車両の進行方向の位置補正をする。 In the range (correctable area) up to ± 6 m in the longitudinal direction of the vehicle, it is assumed that there is one reference pixel pattern (only C in FIG. 14), and the data base point angle θ is based on the one reference pixel pattern. Correct the position of the vehicle in the direction of travel.
当該補正は、例えば図15に示すように、道路幅Wに対して観測ピクセルパターン21の画像収集予測線間の距離を2Wとし、データ基点角θを図のようにとると、
補正値Δh=W×tan(θ)
として計算することができる。道路幅が不明である場合には、例えばW=10(m)として計算する。当該補正を行うことで、車両の測位位置を求めることができる。
For example, as shown in FIG. 15, when the distance between the image collection prediction lines of the observed
Correction value Δh = W × tan (θ)
Can be calculated as When the road width is unknown, the calculation is made with W = 10 (m), for example. By performing the correction, the positioning position of the vehicle can be obtained.
同様に、車両の前後方向±17mまでの範囲(引込可能領域)においては、参照ピクセルパターンが4つ存在する(図14においてはA〜D)として、当該4つの参照ピクセルパターンを基準に、データ基点角θによる車両の進行方向の位置補正をする。 Similarly, in the range up to ± 17 m in the vehicle front-rear direction (retractable area), there are four reference pixel patterns (A to D in FIG. 14), and data is based on the four reference pixel patterns. The position of the vehicle in the traveling direction is corrected based on the base angle θ.
具体的には、図16に示すように位置補正を行う。図14に示したA〜Dの参照ピクセルパターン71が図16(a)のような座標位置であるとき、データ基点角θRFとデータ基点角θRBとの平均角度、または、データ基点角θLFとデータ基点角θLBとの平均角度は図16(b)に示すように変化する。
Specifically, position correction is performed as shown in FIG. When the
これらの平均角度が0°となる座標位置が車両の測位位置となるので、A〜Dの各平均角度の推移から、車両の測位位置を求めることができる。 Since the coordinate position where these average angles are 0 ° is the positioning position of the vehicle, the positioning position of the vehicle can be obtained from the transition of the average angles A to D.
データ基点角θが±60°の範囲外となる場合、マッチング視野端は車両の前後方向±17mを超える範囲となり、測位位置を算出するまでにさらに多くの参照ピクセルパターンとのピクセルパターンマッチングを行う必要がある。また、各ピクセルパターンマッチングにおける推移幅が短く、マッチング精度が低下してしまう。よって、データ基点角θが例えば±60°の範囲内の場合に有効としている。なお、参照ピクセルパターンの作成間隔や、マッチングの演算速度等によって、当該角度範囲は変更可能である。 When the data base angle θ is outside the range of ± 60 °, the matching visual field end is in a range exceeding ± 17 m in the vehicle front-rear direction, and pixel pattern matching with more reference pixel patterns is performed before the positioning position is calculated. There is a need. Further, the transition width in each pixel pattern matching is short, and the matching accuracy is lowered. Therefore, it is effective when the data base angle θ is within a range of ± 60 °, for example. Note that the angle range can be changed according to the reference pixel pattern creation interval, matching calculation speed, and the like.
ステップS85において、前述のように、データ基点角θRFとデータ基点角θRBとの平均角度、または、データ基点角θLFとデータ基点角θLBとの平均角度が、±30°の範囲内であるか否かを判定する。平均角度が±30°の範囲内である場合には、ステップS90に進む。そして、当該平均角度に基づいて車両の進行方向の位置補正を行い、測位位置を求める(図15参照)。平均角度が±30°の範囲外である場合には、ステップS86へ進む。 In step S85, as described above, whether the average angle between the data base point angle θRF and the data base point angle θRB or the average angle between the data base point angle θLF and the data base point angle θLB is within a range of ± 30 °. Determine whether. When the average angle is within the range of ± 30 °, the process proceeds to step S90. And based on the said average angle, position correction of the advancing direction of a vehicle is performed and a positioning position is calculated | required (refer FIG. 15). If the average angle is outside the range of ± 30 °, the process proceeds to step S86.
ステップS86において、平均角度が30°より大きく60°以下であるか否かを判定する。そうである場合にはステップS87へ、そうでない場合、すなわち、平均角度が−60°以上で−30°未満である場合にはステップS88へそれぞれ進む。 In step S86, it is determined whether the average angle is greater than 30 ° and not greater than 60 °. If so, the process proceeds to step S87. If not, that is, if the average angle is not less than −60 ° and less than −30 °, the process proceeds to step S88.
ステップS87においては、車両の進行方向(前方)に順に参照ピクセルパターンを取得し、平均角度が負の値になるか、若しくは参照ピクセルパターンを3つ取得するまで、マッチング動作を繰り返す。当該動作が終了したら、ステップS89へ進む。 In step S87, reference pixel patterns are acquired in order in the vehicle traveling direction (forward), and the matching operation is repeated until the average angle becomes a negative value or three reference pixel patterns are acquired. When this operation ends, the process proceeds to step S89.
ステップS88においては、車両の進行方向と逆方向(後方)に順に参照ピクセルパターンを取得し、平均角度が正の値になるか、若しくは参照ピクセルパターンを3つ取得するまで、マッチング動作を繰り返す。当該動作が終了したら、ステップS89へ進む。 In step S88, the reference pixel pattern is acquired in the reverse direction (backward) with respect to the traveling direction of the vehicle, and the matching operation is repeated until the average angle becomes a positive value or three reference pixel patterns are acquired. When this operation ends, the process proceeds to step S89.
ステップS89において、上記の繰り返しマッチング動作が適切に終了したか否かを判断し、適切に終了した場合にはステップS90へ、そうでない場合にはステップS91へそれぞれ進む。 In step S89, it is determined whether or not the repetitive matching operation has been properly completed. If the operation has been properly completed, the process proceeds to step S90, and if not, the process proceeds to step S91.
ステップS90においては、平均角度の推移から、車両の測位位置を求める(図16(b)参照)。ステップS91においては、照合失敗フラグを設定して終了する。 In step S90, the positioning position of the vehicle is obtained from the transition of the average angle (see FIG. 16B). In step S91, the collation failure flag is set and the process ends.
次に、現在位置算出部6において、観測ピクセルパターンと参照ピクセルパターンとの照合が成功したか否かを判断し(図11のステップS67)、照合が成功した場合にはステップS68へ、照合が失敗した場合には画像照合処理を終了して現在位置算出処理に戻る。
Next, the current
ステップS68において、測位位置を真の現在位置に設定して記憶し、現在位置算出処理に戻る。 In step S68, the positioning position is set and stored as the true current position, and the process returns to the current position calculation process.
図17に、上記のピクセルパターンマッチングの例を示す。 FIG. 17 shows an example of the above pixel pattern matching.
画素位置をm座標、n座標により特定できる観測ピクセルパターン200(図17(a)参照)と、これと類似するピクセルパターンを含む、画素位置をi座標、j座標により特定できる参照ピクセルパターン201(図17(b)参照)とを用意する。
A reference pixel pattern 201 (including an observed pixel pattern 200 (see FIG. 17A) in which the pixel position can be specified by the m coordinate and the n coordinate and a pixel pattern similar to the observed
類似する画像パターンの画素毎の対応関係を、両者のマッチング開始点からマッチング最終位置までマッチングを推移させることにより、順にみていく(図17(c)参照)。 The correspondence of each pixel in the similar image pattern is examined in order by shifting the matching from the matching start point to the final matching position (see FIG. 17C).
両者の画像位置と画像間距離の累積値が最小となる最小累積距離を、その最小累積距離を順次積み上げる計算をする事により求め、観測ピクセルパターン200上のマッチング最終位置202に対応する参照ピクセルパターン201上のマッチング最終位置を求める。このようにして、単調連続性を保持しつつ、画素毎に対応関係を求めることができる。
A reference pixel pattern corresponding to the
ここで、上記のピクセルパターンマッチング動作には多少の時間がかかってしまい、車両の位置を知ることができた時点では、観測画像を取得した時刻から遅れ、車両の位置は変わってしまっていることが考えられる。 Here, it takes some time for the above pixel pattern matching operation, and when the position of the vehicle can be known, it is delayed from the time when the observation image was acquired, and the position of the vehicle has changed. Can be considered.
このような場合には、慣性航法センサー40の距離センサーとしてのスピードメーター41(車速パルス)、方位センサーとしての角速度センサー42および地磁気センサー43を用いて、ピクセルパターンマッチング動作中の車両の位置変化(画像マッチングによって算出された現在位置を基点とする移動距離および移動方向)を算出し、現在位置の補正を行うことができる。すなわち、ピクセルパターンマッチングによって算出された、観測画像が作成された位置(現在位置)を、現在位置算出部6から当該情報が出力される時に実際に車両が到達している位置(真の現在位置)に補正することができる。
In such a case, using a speedometer 41 (vehicle speed pulse) as a distance sensor of the
ここで、車両が移動していないような場合には、観測画像が作成された位置(現在位置)と実際に車両が到達している位置(真の現在位置)とは同じ位置となるため、当該補正の必要はない。 Here, when the vehicle is not moving, the position where the observation image was created (current position) and the position where the vehicle actually reached (true current position) are the same position. There is no need for such amendment.
なお、ピクセルパターンマッチングによって得られた車両の現在位置に対して、地図データマッチングによる位置の調整を行うことも可能である。 It is also possible to adjust the position by map data matching with respect to the current position of the vehicle obtained by pixel pattern matching.
上記のピクセルパターンマッチング動作は、GPS等による位置情報の取得可能な状況下であっても並行して行ってよい。当該動作により算出された車両の真の現在位置と、GPS等による位置情報から算出された現在位置との間に差異がある場合には、GPSにより算出された現在位置を基準として校正してもよい。ただし、当該ピクセルパターンマッチング動作により計算速度に影響が出る等の問題が生じる場合には、ピクセルパターンマッチング動作を停止しておくことも可能である。 The pixel pattern matching operation described above may be performed in parallel even in a situation where position information can be acquired by GPS or the like. If there is a difference between the true current position of the vehicle calculated by the operation and the current position calculated from position information by GPS or the like, the current position calculated by GPS may be used as a reference. Good. However, the pixel pattern matching operation can be stopped if there is a problem such as the calculation speed being affected by the pixel pattern matching operation.
このようにして算出された車両の真の現在位置を基準にして、さらに目的地までの経路誘導等を展開することが可能である。 Based on the true current position of the vehicle calculated in this way, route guidance to the destination can be further developed.
<A−3.効果>
本発明にかかる実施の形態によれば、現在位置算出装置において、移動体としての自車17の現在位置における2次元画像である観測画像が入力される観測画像入力部1と、所定の地点に関連して予め用意された2次元画像である参照画像を管理する、参照画像管理部9と、観測画像と、記憶されている現在位置である仮現在位置に対応する参照画像とを、画像マッチングにより照合する照合部としてのピクセルパターン照合部5と、ピクセルパターン照合部5における照合結果に基づいて、自車17の真の現在位置を算出する現在位置算出部6とを備えることで、現在位置における2次元画像(観測画像)を用いて誤差の累積を抑制し、画像マッチングによって自車17の真の現在位置を算出することができる。
<A-3. Effect>
According to the embodiment of the present invention, in the current position calculation device, an observation
また、本発明にかかる実施の形態によれば、現在位置算出装置において、仮現在位置が、移動体としての自車17における既知の位置情報に基づいて決定されることで、直前までに認識されていた現在位置を基準にして参照画像を取得することができる。
Further, according to the embodiment of the present invention, in the current position calculation device, the temporary current position is determined based on the known position information in the
また、本発明にかかる実施の形態によれば、現在位置算出装置において、観測画像および参照画像が、移動体としての自車17の周囲を表示するパノラマ画像であることで、周囲の全方向を連続的に撮像した画像で画像マッチングすることにより、自車17の真の現在位置を算出することができる。
Further, according to the embodiment of the present invention, in the current position calculation device, the observation image and the reference image are panoramic images that display the surroundings of the
また、本発明にかかる実施の形態によれば、現在位置算出装置において、照合部としてのピクセルパターン照合部5が、観測画像および参照画像において、移動体としての自車17の進行方向における前方および後方を基点として画像マッチングを行い、当該画像マッチングの終わり位置(マッチング最終位置)に基づいて、照合結果を生成することで、各マッチング最終位置に基づくデータ基点角の大きさによって、データの有効無効の判断、および、さらなる画像マッチングの有無の判断ができ、自車17の真の現在位置を算出することができる。
Further, according to the embodiment of the present invention, in the current position calculation device, the pixel
また、本発明にかかる実施の形態によれば、現在位置算出装置において、照合部としてのピクセルパターン照合部5は、観測画像と、仮現在位置から所定範囲内に対応する複数の参照画像とを、画像マッチングにより照合し、現在位置算出部6が、ピクセルパターン照合部5における複数の参照画像を用いた照合結果に基づいて、移動体としての自車17の真の現在位置を算出することで、自車17の現在位置が仮現在位置から所定以上に離れているような場合であっても、仮現在位置周辺に関連づけられた参照画像を用いる等により自車17の真の現在位置を算出することができる。
Further, according to the embodiment of the present invention, in the current position calculation device, the pixel
また、本発明にかかる実施の形態によれば、現在位置算出装置において、観測画像および参照画像のうち少なくとも一方が、画像から画像の一部であるピクセルパターンを抽出して照合に用いられることで、画像マッチングを容易にすることができる。 Further, according to the embodiment of the present invention, in the current position calculation device, at least one of the observation image and the reference image extracts a pixel pattern that is a part of the image from the image and is used for collation. Image matching can be facilitated.
また、本発明にかかる実施の形態によれば、現在位置算出装置において、ピクセルパターンが、画像における水平線高さを中心に所定の高さで有することで、外乱の少ない画像を比較に用いることができる。 Further, according to the embodiment of the present invention, in the current position calculation device, the pixel pattern has a predetermined height around the horizontal line height in the image, so that an image with less disturbance can be used for comparison. it can.
また、本発明にかかる実施の形態によれば、現在位置算出装置において、移動体としての自車17の現在位置に関するデータである属性データを付加して観測画像を記憶する、観測地図データ記憶部3をさらに備えることで、観測地図データを観測地図データ記憶部3に記憶し、参照地図データと合わせて、画像マッチングのために画像を参照することができる。
Further, according to the embodiment of the present invention, in the current position calculation device, an observation map data storage unit that stores observation images by adding attribute data that is data relating to the current position of the
また、本発明にかかる実施の形態によれば、現在位置算出装置において、現在位置算出部6が、照合結果に基づいて算出された移動体としての自車17の現在位置を自車17の移動距離および移動方向に基づいて補正し、真の現在位置を算出する補正部4をさらに備えることで、画像マッチングによって算出された現在位置と、実際に車両が到達している現在位置とが異なっているような場合であっても、自車17の移動距離および移動方向から、真の現在位置を適切に算出することができる。
Further, according to the embodiment of the present invention, in the current position calculation device, the current
また、本発明にかかる実施の形態によれば、現在位置算出方法において、(a)移動体としての自車17の現在位置における2次元画像である観測画像を入力する工程と、(b)所定の地点に関連した2次元画像である参照画像を用意する工程と、(c)観測画像と、仮現在位置に対応する参照画像とを、画像マッチングにより照合する工程と、(d)工程(c)における照合結果に基づいて、自車17の真の現在位置を算出する工程とを備えることで、現在位置における2次元画像を用いることで誤差の累積を抑制し、画像マッチングによって自車17の真の現在位置を算出することができる。
According to the embodiment of the present invention, in the current position calculation method, (a) a step of inputting an observation image that is a two-dimensional image at the current position of the
なお本発明は、その発明の範囲内において、本実施の形態における任意の構成要素の変形もしくは省略が可能である。 It should be noted that the present invention can be modified or omitted in any constituent elements in the present embodiment within the scope of the invention.
1 観測画像入力部、2 観測ピクセルパターン作成部、3 観測地図データ記憶部、4 補正部、5 ピクセルパターン照合部、6 現在位置算出部、7 参照ピクセルパターン作成部、9 参照画像管理部、10 参照地図データ記憶部、11〜13 道路、14 水平線、16 全方向カメラ、17 自車、18,111 パノラマ画像、21,200 観測ピクセルパターン、40 慣性航法センサー、41 スピードメーター、42 角速度センサー、43 地磁気センサー、50 車載用マイクロコンピューター、51 補助記憶装置、52 右前方マッチング推移、53 左前方マッチング推移、54 右後方マッチング推移、55 左後方マッチング推移、56 左前方マッチング最終位置、57 右前方マッチング最終位置、58 左後方マッチング最終位置、59 右後方マッチング最終位置、60 位置特定センサー、61 GPS受信部、62 セルラ通信部、63 セルラ基地局、64 基地局測位専用サーバー、71,201 参照ピクセルパターン、100 前方マッチング開始点、101 後方マッチング開始点、102 地図データ、103 平面地図データ、106 データ基点角θ、107 ピッチφ、108 ロールψ、109 水平線上下比率、112 右マッチング最終位置、113 左マッチング最終位置、202 最終マッチング位置。 DESCRIPTION OF SYMBOLS 1 Observation image input part, 2 Observation pixel pattern creation part, 3 Observation map data storage part, 4 Correction part, 5 Pixel pattern collation part, 6 Current position calculation part, 7 Reference pixel pattern creation part, 9 Reference image management part, 10 Reference map data storage unit, 11-13 road, 14 horizon line, 16 omnidirectional camera, 17 own vehicle, 18,111 panoramic image, 21,200 observation pixel pattern, 40 inertial navigation sensor, 41 speedometer, 42 angular velocity sensor, 43 Geomagnetic sensor, 50 In-vehicle microcomputer, 51 Auxiliary storage device, 52 Right front matching transition, 53 Left front matching transition, 54 Right rear matching transition, 55 Left rear matching transition, 56 Left front matching final position, 57 Right front matching final Position, 58 Left rear Ching final position, 59 Right rear matching final position, 60 Position specifying sensor, 61 GPS receiving unit, 62 Cellular communication unit, 63 Cellular base station, 64 Base station positioning dedicated server, 71, 201 Reference pixel pattern, 100 Forward matching start point , 101 Back matching start point, 102 Map data, 103 Planar map data, 106 Data base angle θ, 107 Pitch φ, 108 Roll ψ, 109 Horizontal line vertical ratio, 112 Right matching final position, 113 Left matching final position, 202 Final matching position.
Claims (14)
所定の地点に関連して予め用意された2次元画像である参照画像を管理する、参照画像管理部と、
前記観測画像と、記憶されている現在位置である仮現在位置に対応する前記参照画像とを、画像マッチングにより照合する照合部と、
前記照合部における照合結果に基づいて、前記移動体の真の現在位置を算出する現在位置算出部とを備えることを特徴とする、
現在位置算出装置。 An observation image input unit to which an observation image that is a two-dimensional image at the current position of the moving object is input;
A reference image management unit that manages a reference image that is a two-dimensional image prepared in advance in association with a predetermined point;
A collation unit that collates the observed image with the reference image corresponding to the temporary current position, which is the stored current position, by image matching;
A current position calculation unit that calculates a true current position of the mobile body based on a verification result in the verification unit;
Current position calculation device.
請求項1に記載の現在位置算出装置。 The observation image and the reference image are panoramic images that display the periphery of the moving body,
The current position calculation apparatus according to claim 1.
請求項2に記載の現在位置算出装置。 The matching unit performs the image matching in the observation image and the reference image with reference to the front and rear in the traveling direction of the moving body, and generates the matching result based on the end position of the image matching. Characterized by the
The current position calculation apparatus according to claim 2.
前記現在位置算出部が、前記照合部における複数の前記参照画像を用いた前記照合結果に基づいて、前記移動体の前記真の現在位置を算出することを特徴とする、
請求項1〜3のいずれかに記載の現在位置算出装置。 The collation unit collates the observed image with a plurality of the reference images corresponding to a predetermined range from the temporary current position by the image matching,
The current position calculation unit calculates the true current position of the mobile body based on the verification result using the plurality of reference images in the verification unit.
The current position calculation device according to claim 1.
請求項1〜4のいずれかに記載の現在位置算出装置。 At least one of the observation image and the reference image is used for the collation by extracting a pixel pattern that is a part of the image from the image,
The present position calculation apparatus in any one of Claims 1-4.
請求項5に記載の現在位置算出装置。 The pixel pattern has a predetermined height around a horizontal line height in an image,
The current position calculation apparatus according to claim 5.
請求項1〜6のいずれかに記載の現在位置算出装置。 A correction unit that corrects the current position of the moving body calculated based on the collation result based on a moving distance and a moving direction of the moving body, and calculates the true current position; Further comprising:
The current position calculation apparatus according to claim 1.
(b)所定の地点に関連した2次元画像である参照画像を用意する工程と、
(c)前記観測画像と、記憶されている現在位置である仮現在位置に対応する前記参照画像とを、画像マッチングにより照合する工程と、
(d)前記工程(c)における照合結果に基づいて、前記移動体の真の現在位置を算出する工程とを備えることを特徴とする、
現在位置算出方法。 (A) inputting an observation image that is a two-dimensional image at the current position of the moving object;
(B) preparing a reference image which is a two-dimensional image related to a predetermined point;
(C) collating the observed image with the reference image corresponding to the temporary current position that is the stored current position by image matching;
(D) comprising a step of calculating a true current position of the mobile body based on a collation result in the step (c).
Current position calculation method.
請求項8に記載の現在位置算出方法。 The observation image and the reference image in the steps (a) and (b) are panoramic images that display the periphery of the moving body,
The current position calculation method according to claim 8.
請求項9に記載の現在位置算出方法。 The step (c) performs the image matching on the observation image and the reference image with reference to the front and rear in the moving direction of the moving body, and generates the matching result based on the end position of the image matching It is a process to perform,
The current position calculation method according to claim 9.
前記工程(d)が、前記工程(c)における複数の前記参照画像を用いた前記照合結果に基づいて、前記移動体の前記真の現在位置を算出する工程であることを特徴とする、
請求項8〜10のいずれかに記載の現在位置算出方法。 The step (c) is a step of collating the observed image with a plurality of the reference images corresponding to a predetermined range from the temporary current position by the image matching,
The step (d) is a step of calculating the true current position of the moving body based on the collation result using the plurality of reference images in the step (c).
The current position calculation method according to claim 8.
請求項8〜11のいずれかに記載の現在位置算出方法。 At least one of the observed image and the reference image in the steps (a) and (b) is used for the collation by extracting a pixel pattern that is a part of the image from an image,
The current position calculation method according to any one of claims 8 to 11.
請求項12に記載の現在位置算出方法。 The pixel pattern has a predetermined height around a horizontal line height in an image,
The current position calculation method according to claim 12.
請求項8〜13のいずれかに記載の現在位置算出方法。 In the step (d), the current position of the moving body calculated based on the collation result in the step (c) is corrected based on a moving distance and a moving direction of the moving body, and the true current position is determined. It is a process of calculating,
The current position calculation method according to any one of claims 8 to 13.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011200540A JP2013061270A (en) | 2011-09-14 | 2011-09-14 | Present position calculation device and present position calculation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011200540A JP2013061270A (en) | 2011-09-14 | 2011-09-14 | Present position calculation device and present position calculation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013061270A true JP2013061270A (en) | 2013-04-04 |
Family
ID=48186055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011200540A Withdrawn JP2013061270A (en) | 2011-09-14 | 2011-09-14 | Present position calculation device and present position calculation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013061270A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104537672A (en) * | 2015-01-05 | 2015-04-22 | 长安大学 | Road environment monotony detection method based on videos |
WO2016038755A1 (en) * | 2014-09-09 | 2016-03-17 | 三菱重工業株式会社 | Billing processing system |
WO2016113875A1 (en) * | 2015-01-15 | 2016-07-21 | 三菱重工業株式会社 | Information presentation system for evaluating billing location |
JP2017519973A (en) * | 2014-04-30 | 2017-07-20 | トムトム グローバル コンテント ベスローテン フエンノートシャップ | Method and system for determining position relative to a digital map |
JP2017151148A (en) * | 2016-02-22 | 2017-08-31 | Necプラットフォームズ株式会社 | Position estimation device, position detection method, and program |
US20200391767A1 (en) * | 2018-03-30 | 2020-12-17 | Komatsu Ltd. | Work machine control system, work machine, and work machine control method |
JP2022162577A (en) * | 2021-04-13 | 2022-10-25 | トヨタ自動車株式会社 | Information processing device, information processing system, and information processing method |
-
2011
- 2011-09-14 JP JP2011200540A patent/JP2013061270A/en not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017519973A (en) * | 2014-04-30 | 2017-07-20 | トムトム グローバル コンテント ベスローテン フエンノートシャップ | Method and system for determining position relative to a digital map |
WO2016038755A1 (en) * | 2014-09-09 | 2016-03-17 | 三菱重工業株式会社 | Billing processing system |
JP2016057801A (en) * | 2014-09-09 | 2016-04-21 | 三菱重工業株式会社 | Charging processing system |
CN104537672A (en) * | 2015-01-05 | 2015-04-22 | 长安大学 | Road environment monotony detection method based on videos |
KR101984414B1 (en) | 2015-01-15 | 2019-05-30 | 미츠비시 쥬고 기카이 시스템 가부시키가이샤 | Information presentation system for evaluating billing location |
KR20170095329A (en) * | 2015-01-15 | 2017-08-22 | 미츠비시 쥬고우 메카토로시스테무즈 가부시키가이샤 | Information presentation system for evaluating billing location |
GB2549654A (en) * | 2015-01-15 | 2017-10-25 | Mitsubishi Heavy Ind Mechatronics Systems Ltd | Information presentation system for evaluating billing location |
JPWO2016113875A1 (en) * | 2015-01-15 | 2017-10-26 | 三菱重工メカトロシステムズ株式会社 | Information provision system for billing location evaluation |
WO2016113875A1 (en) * | 2015-01-15 | 2016-07-21 | 三菱重工業株式会社 | Information presentation system for evaluating billing location |
JP2017151148A (en) * | 2016-02-22 | 2017-08-31 | Necプラットフォームズ株式会社 | Position estimation device, position detection method, and program |
US20200391767A1 (en) * | 2018-03-30 | 2020-12-17 | Komatsu Ltd. | Work machine control system, work machine, and work machine control method |
US11745767B2 (en) * | 2018-03-30 | 2023-09-05 | Komatsu Ltd. | Work machine control system, work machine, and work machine control method |
JP2022162577A (en) * | 2021-04-13 | 2022-10-25 | トヨタ自動車株式会社 | Information processing device, information processing system, and information processing method |
US11915588B2 (en) | 2021-04-13 | 2024-02-27 | Toyota Jidosha Kabushiki Kaisha | Information processing apparatus, information processing system, and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108303103B (en) | Method and device for determining target lane | |
JP7147119B2 (en) | Device and method for autonomous self-localization | |
US9429438B2 (en) | Updating map data from camera images | |
US11137255B2 (en) | Methods and systems for generating and using localization reference data | |
JP2013061270A (en) | Present position calculation device and present position calculation method | |
JP4232167B1 (en) | Object identification device, object identification method, and object identification program | |
JP6694395B2 (en) | Method and system for determining position relative to a digital map | |
US10291898B2 (en) | Method and apparatus for updating navigation map | |
KR101444685B1 (en) | Method and Apparatus for Determining Position and Attitude of Vehicle by Image based Multi-sensor Data | |
CA2762743C (en) | Updating map data from camera images | |
JP5339953B2 (en) | 3D map correction apparatus and 3D map correction program | |
KR101921429B1 (en) | Method and system for making precise map | |
JP4978615B2 (en) | Target identification device | |
JP2008309529A (en) | Navigation system, navigation method and program for navigation | |
WO2020039937A1 (en) | Position coordinates estimation device, position coordinates estimation method, and program | |
JP2008065087A (en) | Apparatus for creating stationary object map | |
US20160169662A1 (en) | Location-based facility management system using mobile device | |
JP2007122247A (en) | Automatic landmark information production method and system | |
CN113706702A (en) | Mining area three-dimensional map construction system and method | |
JP6773473B2 (en) | Survey information management device and survey information management method | |
CN117572343A (en) | Short-distance navigation method and device for visually impaired user, electronic equipment and storage medium | |
US10859377B2 (en) | Method for improving position information associated with a collection of images | |
JP2012099010A (en) | Image processing apparatus and image processing program | |
CN115205384A (en) | Blind guiding method and device and readable storage medium | |
KR20220050386A (en) | Method of generating map and visual localization system using the map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141202 |