JP2010152139A - Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body - Google Patents
Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body Download PDFInfo
- Publication number
- JP2010152139A JP2010152139A JP2008330923A JP2008330923A JP2010152139A JP 2010152139 A JP2010152139 A JP 2010152139A JP 2008330923 A JP2008330923 A JP 2008330923A JP 2008330923 A JP2008330923 A JP 2008330923A JP 2010152139 A JP2010152139 A JP 2010152139A
- Authority
- JP
- Japan
- Prior art keywords
- landscape
- information
- map information
- moving body
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ナビゲーションシステムに使用する地図情報を作成する地図情報作成装置、その作成方法、及び、この地図情報作成装置により作成された地図情報を使用して移動体の位置を測定する移動体位置測定装置、その測定方法に関する。 The present invention relates to a map information creating apparatus that creates map information used in a navigation system, a method for creating the map information, and a mobile body position that measures the position of the mobile body using the map information created by the map information creating apparatus. The present invention relates to a measuring apparatus and a measuring method thereof.
近年、車両等に搭載されるナビゲーションシステムが普及している。このナビゲーションシステムは、GPS(Global Positioning System)衛星等から位置情報を取得し、この位置情報に基づいてCD-ROMやDVDに記憶された地図データを読み出して、現在の車両位置を表示装置に表示する。これにより、利用者は一目で自車両の位置を認識することができる利便性を備えている。 In recent years, navigation systems mounted on vehicles and the like have become widespread. This navigation system acquires position information from a GPS (Global Positioning System) satellite, etc., reads map data stored in a CD-ROM or DVD based on this position information, and displays the current vehicle position on a display device. To do. Thereby, the user has the convenience that can recognize the position of the own vehicle at a glance.
一般に利用可能なGPS衛星から取得した位置情報には10m以上の誤差が含まれている。そのために、GPS衛星からの位置情報をそのまま地図データに対応付けると、車両が道路上を走行しない画像が表示される。これを補正するためにマップマッチング処理が行われている。マップマッチング処理は、GPS衛星から得られた位置を地図の道路上に強制的に補正する処理である。GPS衛星から得られる位置情報と、移動体に搭載した走行センサやジャイロセンサから得られる走行距離や角速度変化等からなる移動情報に基づいて、移動体が位置する可能性の最も高い道路を地図データから選択し、この選択された道路の中央に移動体を強制的に移動させて補正している。これにより、移動体が道路から外れないように表示することができる。 Position information acquired from generally available GPS satellites includes an error of 10 m or more. Therefore, when the position information from the GPS satellite is directly associated with the map data, an image in which the vehicle does not travel on the road is displayed. In order to correct this, a map matching process is performed. The map matching process is a process for forcibly correcting the position obtained from the GPS satellite on the road of the map. Map data on the road where the moving object is most likely to be located based on the position information obtained from the GPS satellites and the movement information obtained from the traveling distance and angular velocity obtained from the traveling sensor and gyro sensor mounted on the moving object. This is corrected by forcibly moving the moving body to the center of the selected road. Thereby, it can display so that a mobile body may not remove from a road.
しかし、マップマッチング処理では、移動体の位置を道路の中央部に補正するので、移動体が走行している道路上の位置や、車線を特定することができない。そこで、移動体の位置を現実の位置に合致させるために、移動体の移動方向の路面を撮像し、撮像した路面に描かれる白線を認識して、この白線情報により移動体の位置精度を向上させる方法が提案されている(例えば特許文献1を参照)。
しかしながら、白線認識法により移動体の位置を検出する場合に、路面上の白線が途切れている、太陽光の元で路面に建物の影が生じている、或いは、雨天の場合等において、白線認識が困難となる場合がある。また、白線認識が可能な場合でも、走行方向の車線数が複数存在する場合は、どの車線を走行しているのかを認識できない場合が多い。 However, when the position of a moving object is detected by the white line recognition method, the white line on the road surface is interrupted, the shadow of the building is generated on the road surface under sunlight, or in the case of rain, etc. May be difficult. Even when white line recognition is possible, if there are a plurality of lanes in the traveling direction, it is often impossible to recognize which lane the vehicle is traveling.
また、移動体の位置を高精度で測定するシステムとして、RTK−GPS(Real Time Kinematic GPS)が知られている。RTK−GPSは、複数のGPS衛星から送られてくる搬送波を受信し、その位相差を検出して緯度及び経度の位置情報を検出することができる。利用可能な搬送波は、周波数が1575MHzなので波長は約19cmであり、その位相差を検出することにより、cmオーダー以下の精度で位置検出が可能となる。しかし、衛星から送られてくる搬送波の波長は短いので、受信機で受信しても搬送波のサイクルを特定することができない。そこで、基地局を設けて、基地局から搬送波のサイクル特定用の信号を送信する。利用者は、衛星からの搬送波と基地局が送信する信号を同時に受信し、搬送波のサイクルを特定し、その位相差から位置を求めることができる。しかし、このシステムを利用するための受信機は高価であり、一般に手軽に利用することはできない。 Also, RTK-GPS (Real Time Kinetic GPS) is known as a system for measuring the position of a moving object with high accuracy. RTK-GPS can receive carrier waves sent from a plurality of GPS satellites, detect phase differences thereof, and detect position information of latitude and longitude. Since the available carrier wave has a frequency of 1575 MHz, the wavelength is about 19 cm. By detecting the phase difference, the position can be detected with an accuracy of the order of cm or less. However, since the wavelength of the carrier wave transmitted from the satellite is short, the carrier wave cycle cannot be specified even if it is received by the receiver. Therefore, a base station is provided, and a signal for specifying a carrier cycle is transmitted from the base station. The user can simultaneously receive the carrier wave from the satellite and the signal transmitted by the base station, specify the cycle of the carrier wave, and obtain the position from the phase difference. However, a receiver for using this system is expensive and generally cannot be used easily.
そこで、本発明の目的は、簡便な方法により移動体の現実の位置を高精度で測定可能とする測位システムを提供することである。 Therefore, an object of the present invention is to provide a positioning system that can measure the actual position of a moving object with high accuracy by a simple method.
本発明においては上記課題を解決するために以下の手段を講じた。 In the present invention, the following means have been taken in order to solve the above problems.
本発明の地図情報作成装置においては、移動体の位置を検出して位置情報を生成する位置検出部と、前記移動体の移動方向を望む景観を異なる位置から撮像した互いに異なる複数の景観画像を生成する景観撮像部と、前記景観撮像部の撮像を開始する撮像開始信号を生成する撮像タイミング生成部と、前記景観画像に基づいて前記検出された位置情報を関連付けた景観情報を生成し、前記景観情報を記憶媒体に記憶する地図情報作成部と、を備えるようにした。 In the map information creation device of the present invention, a position detection unit that detects the position of a moving body to generate position information, and a plurality of different landscape images obtained by capturing a landscape that desires the moving direction of the moving body from different positions. A landscape imaging unit to generate; an imaging timing generation unit that generates an imaging start signal for starting imaging of the landscape imaging unit; and landscape information that associates the detected position information based on the landscape image; A map information creation unit for storing landscape information in a storage medium.
また、前記景観撮像部は、前記移動体の移動方向とは反対方向を望む景観を異なる位置から撮像し、互いに異なる複数の景観画像を更に生成するようにした。 In addition, the landscape imaging unit captures a landscape in a direction opposite to the moving direction of the moving body from different positions, and further generates a plurality of different landscape images.
また、前記地図情報作成部は、前記生成された景観画像から特徴部を抽出し、前記位置情報を関連付けた前記特徴部を前記景観情報として前記記憶媒体に記憶するようにした。 Further, the map information creation unit extracts a feature from the generated landscape image, and stores the feature associated with the position information as the landscape information in the storage medium.
また、前記撮像タイミング生成部は、前記移動体が交差点を通過する際に撮像開始信号を生成するようにした。 Further, the imaging timing generation unit generates an imaging start signal when the moving body passes through an intersection.
本発明の地図情報作成方法においては、位置検出部が、移動体の位置及び走行方向を検出して位置情報を生成する位置検出ステップと、撮像タイミング生成部が、移動体に搭載された景観撮像部の撮像を開始させる撮像開始信号を生成する撮像開始信号生成ステップと、景観撮像部が、前記撮像開始信号に応じて、前記移動体の移動方向を望む景観を異なる位置から撮像し、互いに異なる複数の景観画像を生成する景観撮像ステップと、地図情報作成部が、前記生成された複数の景観画像に基づいて、前記検出された位置情報に関連付けた景観情報を生成し、前記景観情報を記憶部に記憶して地図情報を作成する地図情報作成ステップと、を備えるようにした。 In the map information creation method of the present invention, the position detection unit detects the position and the traveling direction of the moving body and generates position information, and the imaging timing generation unit captures the landscape image mounted on the moving body. An imaging start signal generation step for generating an imaging start signal for starting imaging of the image capturing unit, and a landscape imaging unit that captures a landscape in which the moving direction of the moving body is desired from different positions according to the imaging start signal, and is different from each other A landscape imaging step for generating a plurality of landscape images and a map information creation unit generate landscape information associated with the detected position information based on the generated plurality of landscape images, and store the landscape information And a map information creating step of creating map information stored in the section.
また、前記撮像開始信号生成ステップは、前記撮像タイミング生成部が、前記移動体の現在の位置と、予め設定された景観情報作成地点とを比較し、前記移動体が前記景観情報作成地点に到達したと判定したときに、前記撮像開始信号を生成するようにした。 In the imaging start signal generation step, the imaging timing generation unit compares the current position of the mobile body with a preset landscape information creation point, and the mobile body reaches the landscape information creation point. When it is determined that the imaging start signal is generated, the imaging start signal is generated.
また、前記予め設定された景観情報作成地点は交差点であることとした。 The preset landscape information creation point is an intersection.
また、前記景観撮像ステップは、前記撮像部が、前記移動体の移動方向と反対方向の景観を異なる位置から撮像し、互いに異なる複数の景観画像を生成するステップを含むようにした。 The landscape imaging step includes a step in which the imaging unit captures a landscape in a direction opposite to the moving direction of the moving body from a different position and generates a plurality of different landscape images.
また、前記地図情報作成ステップは、前記地図情報作成部が、前記景観画像から特徴部を抽出し、前記抽出された特徴部に前記検出された位置情報を関連付けた景観情報を生成し、前記記憶部に記憶するようにした。 In the map information creation step, the map information creation unit extracts a feature from the landscape image, generates landscape information in which the detected position information is associated with the extracted feature, and stores the memory. I remembered it in the department.
本発明の移動体位置測定装置においては、移動体に搭載され、前記移動体が走行する方向の路面に描かれた車線とその方向の景観を撮像して実画像を生成する撮像部と、前記実画像から特徴部を抽出する実画像特徴抽出部と、前記移動体の位置と方位角を検出する位置情報検出部と、道路の指定された地点において、複数の離間する位置から走路方向の景観を撮像して生成された景観情報を記憶する地図情報記憶部と、前記検出された位置と方位角を用いて前記地図情報記憶部から前記景観情報を取得し、前記取得された景観情報に含まれる特徴部を特定する景観特徴特定部と、前記実画像の特徴部と前記景観情報から特定された特徴部から、前記実画像を撮像した移動体の位置を推定する移動体位置推定部と、前記推定された移動体の位置に基づいて道路地図画像又は景観画像を生成する画像処理部と、を備えるようにした。 In the moving body position measuring apparatus of the present invention, the imaging unit that is mounted on the moving body and that captures the lane drawn on the road surface in the direction in which the moving body travels and the landscape in the direction to generate a real image, A real image feature extraction unit that extracts a feature portion from a real image, a position information detection unit that detects a position and an azimuth angle of the moving body, and a landscape in a running direction from a plurality of spaced positions at a specified point on the road A map information storage unit for storing landscape information generated by imaging the image, and acquiring the landscape information from the map information storage unit using the detected position and azimuth, and included in the acquired landscape information A moving body position estimating unit that estimates a position of a moving body that has captured the real image, from a landscape characteristic specifying unit that identifies a characteristic part to be detected, a characteristic part that is specified from the characteristic part of the real image and the landscape information, The estimated position of the moving body An image processing unit that generates road map image or scene image based on, and so comprises a.
また、前記道路の指定された地点は、地図上の交差点であることとした。 The designated point on the road is an intersection on the map.
本発明の移動体位置測定方法においては、前記移動体の現在位置と方位角を検出する位置検出ステップと、前記現在位置と方位に基づいて地図情報記憶部から地図情報を取得する地図情報取得ステップと、前記移動体が前記取得された地図情報における指定された地点に近接したことを検出して、前記地図情報記憶部から、前記指定された地点において複数の離間する位置から走行方向の景観を撮像して生成された景観情報を取得する景観情報取得ステップと、前記移動体が前記地図情報の指定された地点に達したことを検出して、前記移動体の移動方向の景観を撮像して実画像を取得する実画像取得ステップと、前記取得された実画像から特徴部を抽出し、前記景観情報から特徴部を特定して、前記実画像の特徴部と前記景観情報から特定した特徴部により移動体の位置を推定する移動体位置推定ステップと、を備えるようにした。 In the moving body position measuring method of the present invention, a position detecting step for detecting a current position and an azimuth angle of the moving body, and a map information acquiring step for acquiring map information from a map information storage unit based on the current position and the azimuth. And detecting that the moving body has approached a designated point in the acquired map information, and from the map information storage unit, a landscape in a traveling direction from a plurality of separated positions at the designated point. A landscape information acquisition step for acquiring landscape information generated by imaging, and detecting that the mobile body has reached a point designated by the map information, and capturing a landscape in the moving direction of the mobile body A real image acquisition step for acquiring a real image, a feature portion is extracted from the acquired real image, a feature portion is specified from the landscape information, and specified from the feature portion of the real image and the landscape information And was so and a mobile location estimation step of estimating the position of a moving body by the feature.
また、前記指定された地点は、地図上の交差点であることとした。 The designated point is an intersection on the map.
本発明の地図情報作成装置においては、移動体の位置を検出して位置情報を生成する位置検出部と、移動体の移動方向を望む景観を異なる位置から撮像した互いに異なる複数の景観画像を生成する景観撮像部と、景観撮像部の撮像を開始する撮像開始信号を生成する撮像タイミング生成部と、景観画像に基づいて検出された位置情報を関連付けた景観情報を生成し、景観情報を記憶媒体に記憶する地図情報作成部と、を備えるようにした。これにより、地図作成用の移動体が道路の特定の地点を通過するたびに移動方向を望む景観を撮像してその位置情報と関連付けた景観情報を生成し、これを記憶するので、簡便に、且つ、素早く地図情報を作成することができる。 In the map information creation device of the present invention, a position detection unit that detects the position of a moving body and generates position information, and generates a plurality of different landscape images obtained by capturing a landscape in which the moving direction of the moving body is desired from different positions A landscape imaging unit, an imaging timing generation unit that generates an imaging start signal for starting the imaging of the landscape imaging unit, and landscape information that associates position information detected based on the landscape image is generated, and the landscape information is stored in the storage medium. And a map information creation unit for storing the information. Thus, every time a moving body for creating a map passes through a specific point on the road, it captures a landscape in which the moving direction is desired, generates landscape information associated with the position information, and stores this, so it is stored easily. And map information can be created quickly.
また、本発明の移動体位置測定装置においては、移動体に搭載され、移動体が走行する方向の路面に描かれた車線とその方向の景観を撮像する撮像部と、実画像から特徴部を抽出する実画像特徴抽出部と、移動体の位置と方位角を検出する位置情報検出部と、道路の指定された地点において、複数の離間する位置から走路方向の景観を撮像して生成された景観情報を記憶する地図情報記憶部と、検出された位置と方位角を用いて地図情報記憶部から景観情報を取得し、取得された景観情報に含まれる特徴部を特定する景観特徴特定部と、実画像の特徴部と景観情報から特定された特徴部から、実画像を撮像した移動体の位置を推定する移動体位置推定部と、推定された移動体の位置に基づいて道路地図画像又は景観画像を生成する画像処理部と、を備えるようにした。これにより、測定装置の構成を簡素にしてかつ高精度で現在位置の測定が可能となり、複数車線の道路を走行する場合であっても、移動体が現在走行している車線を表示画面に表示することができ、走行の安全性を向上させることができる。 Further, in the mobile body position measuring apparatus of the present invention, an imaging unit that is mounted on the mobile body and captures a lane drawn on the road surface in the direction in which the mobile body travels and a landscape in the direction, and a characteristic part from the actual image are provided. Real image feature extraction unit to be extracted, position information detection unit to detect the position and azimuth of the moving body, and generated by capturing a landscape in the direction of the road from a plurality of separated positions at a specified point on the road A map information storage unit that stores landscape information, a landscape feature specifying unit that acquires landscape information from the map information storage unit using the detected position and azimuth, and identifies a feature included in the acquired landscape information; A moving object position estimation unit that estimates the position of the moving object that captured the actual image from the characteristic part specified from the characteristic part of the actual image and the landscape information, and a road map image based on the estimated position of the moving object or Image processing unit that generates landscape images , It was to prepare for the. This makes it possible to measure the current position with high accuracy by simplifying the configuration of the measuring device, and even when driving on a road with multiple lanes, the lane on which the moving body is currently driving is displayed on the display screen. It is possible to improve driving safety.
以下、本発明について、図面を用いて詳細に説明する。 Hereinafter, the present invention will be described in detail with reference to the drawings.
(地図情報作成装置)
図1は、本発明の実施形態に係る地図情報作成装置1の説明図である。図1(a)は移動体としての車両12が地図情報作成装置1を搭載した状態を表す模式図であり、図1(b)は道路を移動体としての車両12が移動しながら地図情報を作成している状態を表す模式図である。図2は、地図情報作成装置1により作成された景観情報を位置検出用の地図情報として利用する際の原理を説明するための図である。
(Map information creation device)
FIG. 1 is an explanatory diagram of a map
図1(a)に示すように、本発明に係る地図情報作成装置1を車両12の移動体に搭載し、図1(b)に示すように、道路を走行する。道路の予め定めておいた地点、例えば交差点Kに差し掛かったときに、互いに離間した第1カメラ5aと第2カメラ5bにより進行方向の景観を撮像する。このとき、第3カメラ5cと第4カメラ5dにより進行方向とは反対側の景観を同時に撮像することができる。そして、撮像したときの道路の位置を位置検出部4で検出する。地図情報処理部2は、カメラで撮像した景観画像を、位置検出部4で検出した位置Psに、又は位置Psと相対距離及び方位が定められたカメラの位置に関連付けた景観情報として、記憶部9に記憶する。車両12は更に走行を続けて、次の定められた地点で、これを繰り返す。
As shown in FIG. 1 (a), the map
上記地図情報作成装置1により作成された景観情報は、移動体の位置の検出するための位置検出情報として利用される。図2は、車両12と車両12の移動方向の景観15を上空から見た2次元平面図である。y方向が車両12の移動方向である。車両12に搭載した第1カメラ5aと第2カメラ5bとはx軸方向に離間している。景観15には奥行き方向に2つの特徴点W1、W2が存在する。特徴点とは、例えばビルを見上げたときの屋上の角部や、塔の先端部などである。この特徴点W1、W2を第1カメラ5aの地点Paから見る場合と、第2カメラ5bの地点Pbから見る場合とで、夫々視角が異なる。地点Paから見る視角θaは地点Pbから見る視角θbよりも大きくなる。従って、第1カメラ5aと第2カメラ5bの撮像条件を同一に設定して景観15を撮像すれば、第1カメラ5aにより撮像された画像上の特徴点W1とW2の間隔Daは、第2カメラ5bにより撮像された画像上の特徴点W1とW2の間隔Dbよりも長くなる。
The landscape information created by the map
いま、地点Pxから同一条件で撮像した特徴点W1とW2の画像上の間隔をDx、地点Paと地点Pbの実際の距離をLo、地点Paから地点Pxの求める距離をLxとすると、概ね次式(1)が成り立つ、
Lx=Lo×(Da−Dx)/(Da−Db)・・・(1)
即ち、予め地点Pa、Pbから見た景観15を撮像し、地図情報として景観画像を記憶しておく。カメラの位置である地点Pa、Pbは、位置検出部4が検出する位置Psとの相対距離に基づいて高精度に決定することができる。位置を測定したい移動体28は、地点Paと地点Pbを結ぶ線上を通過する際に同じ景観15を撮像して景観画像を生成する。そして、地図情報から地点Paと地点Pbの景観画像を取得して、この取得した景観画像と移動体が撮像した景観画像とを比較する。そして、上記式(1)から、移動体28の位置を簡単に算出することができる。なお、地図情報として景観画像から抽出した特徴点を景観情報として記憶しておくことができる。また、景観は3次元空間なので、特徴点は3次元空間に分布する。垂直方向に分布する特徴点を比較すれば、この方法により移動体28の走行方向(y方向)の位置も測定することができる。
Now, assuming that the distance on the image of the feature points W1 and W2 imaged from the point Px under the same conditions is Dx, the actual distance between the point Pa and the point Pb is Lo, and the distance from the point Pa to the point Px is Lx, Equation (1) holds,
Lx = Lo × (Da−Dx) / (Da−Db) (1)
That is, the
なお、上記の説明で、移動体の位置を特徴点間の距離から計算で求めることができることを説明したが、これに限定されない。地図情報として記憶された景観情報から、移動体の位置を仮定したときの特徴点の位置を推定し、この推定された位置から見える特徴点と、移動体が撮像した実画像から抽出した特徴点とをマッチング処理し、その差分が最も小さくなる位置を移動体の位置として測定してもよい。 In the above description, it has been described that the position of the moving body can be calculated from the distance between the feature points. However, the present invention is not limited to this. From the landscape information stored as map information, the position of the feature point when the position of the moving object is assumed is estimated, the feature point that can be seen from this estimated position, and the feature point extracted from the actual image captured by the moving object And the position where the difference becomes the smallest may be measured as the position of the moving body.
図3は、本発明の実施形態に係る地図情報作成装置1の構成を表す機能ブロック図である。地図情報作成装置1は、位置検出部4と、景観撮像部5と、撮像タイミング生成部6及び地図情報作成部7を含む地図情報処理部2と、記憶媒体10を含む記憶部9から構成されている。
FIG. 3 is a functional block diagram showing the configuration of the map
位置検出部4は、GPS衛星から送られてくる搬送波と、基地局から送られてくる基準信号を受信して、緯度及び経度の位置情報を生成する。この位置情報はcmオーダーの精度を有する。従って、車両12に設置した場合は、検出位置Psの位置を正確に測定することができる。ジャイロセンサ4bは、車両の角速度変化から方位角を測定する。走行センサ4cは車両12の速度や移動距離を測定する。車両12がトンネルやビルの谷間等を走行するときは、GPS衛星から搬送波を受信できない場合がある。この場合は、ジャイロセンサ4bや走行センサ4cから位置情報を取得して、車両12の位置や方位角を補正して位置情報を検出できるようにしている。
The
景観撮像部5は、第1カメラ5a、第2カメラ5b、第3カメラ5c、第4カメラ5dを備えている。各カメラはCCD撮像素子やCMOS撮像素子を使用することができる。第1カメラ5a及び第2カメラ5bは互いに異なる位置から車両12の移動方向である前方の景観を撮像する。第3カメラ5c及び第4カメラ5dは、移動方向とは反対側の後方の景観を互いに異なる位置から撮像する。各カメラは、位置検出部4の検出位置Psから正確に計測された位置に設置されている。なお、本実施形態では4台のカメラを使用した例であるが、1台のカメラを各撮像ポイント移動して撮像し、1台のカメラで複数の景観画像を撮像してもよい。
The
制御部3は、地図情報作成装置1の全体の動作を制御する。制御部3は、演算を実行するCPU3a、プログラム等を記憶するROM3b、CPUの作業領域として使用されるRAM3cから構成されている。CPU3aは、ROM3bからRAM3cにメインプログラムの他に地図情報処理部2の各アプリケーションプログラムを読み出し、これらを実行することにより地図情報処理部2の各部を実現する。
The
地図情報処理部2は、景観撮像部5の撮像開始信号を生成する撮像タイミング生成部6と、景観情報を記憶媒体10に記憶する地図情報作成部7を備えている。また、撮像開始信号を生成するタイミングを決定するために、現在位置を表示するための地図情報取得部8を備えることができる。
The map
撮像タイミング生成部6は、予め定められた景観情報作成地点に車両12が到達したことを検出して撮像開始信号を生成し、景観撮像部5が受信して景観を撮像する。また、同時に位置検出部4が撮像開始信号を受信して、車両12が現在走行している位置を検出する。例えば、地図情報記憶部11に記憶された地図情報に、景観情報作成地点を記憶させておき、地図上の交差点ごとに景観情報を形成することを予め定めておく。撮像タイミング生成部6は、位置検出部4により検出された車両12が交差点を通過するたびに、車両12の移動方向の前方と後方とを撮像して、景観画像を生成することができる。なお、撮像開始信号は上記のように位置検出部4が検出した位置により自動的に発生させる場合の他に、手動で発生させてもよい。この場合の撮像タイミング生成部6は、操作者が押下するスイッチとなる。
The imaging
地図情報作成部7は、景観撮像部5から各カメラが撮像した景観画像を取得し、位置検出部4から各カメラが撮像した時点の位置情報を取得する。そして、景観画像とこれを撮像したカメラの位置とを関連付けた景観情報を生成して、記憶媒体10に記憶する。地図情報作成部7は、第1カメラ5aが撮像した時点の緯度、経度及び方位角を位置検出部4から取得する。第1カメラ5aは、位置検出部4のRTK−GPS4aの受信位置Psとの間の位置が固定されている。従って、位置検出部4の検出した緯度、経度及び方位角により、第1カメラ5aの位置を決定することができる。第2カメラ5b、第3カメラ5c、第4カメラ5dも同様である。地図情報作成部7は、上記各カメラの緯度、経度及び方位角に関連付けて各カメラが撮像した景観画像を記憶媒体10に記憶する。
The map
また、各カメラが撮像した景観画像から特徴点を抽出した特徴部を位置情報に関連付けて記憶してもよい。これによれば、景観情報の情報量を大幅に削減することができる。そのため、移動体位置測定装置により位置を検出する際に、地図情報記憶部に記憶された景観画像から特徴点の抽出を行う必要がないので、位置を測定するための時間を短縮することができる。 Moreover, you may memorize | store and memorize | store the feature part which extracted the feature point from the landscape image which each camera imaged in relation to positional information. According to this, the amount of landscape information can be significantly reduced. Therefore, it is not necessary to extract feature points from the landscape image stored in the map information storage unit when the position is detected by the moving body position measuring device, so that the time for measuring the position can be shortened. .
地図情報取得部8は、記憶部9の地図情報記憶部11に記憶された地図情報を取得する。撮像タイミング生成部6は、この取得された地図情報に基づいて、撮像開始信号を生成することができる。また、撮像タイミング生成部6は、地図情報とは別に景観情報作成地点を記憶しておくことができる。
The map
記憶部9は、地図を表示するための地図情報を記憶する地図情報記憶部11と、地図情報作成部7により作成された景観情報を記憶するための記憶媒体10を備えている。地図情報記憶部11を書き込み可能な記憶部として、景観情報をこの地図情報記憶部11に記憶するようにしてもよい。
The
このように地図情報作成装置1を構成すれば、予め定められた景観情報作成地点を通過するたびに、進行方向とその逆方向の景観情報を取得することができる。従って、図1(b)に示すような十字路の交差点の場合は、車両12を上下方向と左右方向の2回通過するだけで4方向の景観情報を取得することができる。道路の中央部に対向車側の景観を遮蔽する中央分離帯がある場合には、各走路を往復して4回通過すればよい。
If the map
(地図情報作成方法)
図4は、本発明の実施形態に係る地図情報作成方法を表す基本的なフローチャート図である。まず、地図情報作成装置1を搭載した車両12を走行させる(ステップS1)。撮像タイミング生成部6は、車両12が予め定められた景観情報作成地点に到達したことを検出して、景観撮像部5の複数のカメラに撮像を開始させるための撮像開始信号を生成する(ステップS2)。景観撮像部5は、撮像開始信号を受信して、走行方向の景観を撮像する(ステップS3)。更に、位置検出部4は、撮像開始信号を受信して、現在の車両12の緯度、経度から成る位置及び方位角を検出する(ステップS4)。地図情報作成部7は、撮像された景観の景観画像と、景観を撮像した位置及び方位角とを関連付けて景観情報を生成する(ステップS5)。各カメラにより撮像された景観画像には、その景観画像を撮像したカメラの位置情報が関連付けられている。また、景観画像から特徴点や特徴線分を抽出した特徴部を景観情報とすることができる。地図情報作成部7は、生成した景観情報を記憶媒体10に記憶して(ステップS6)、地図情報を作成する。制御部3は、地図情報の作成を中止するかどうかの判断画面を表示部に表示し(ステップS7)、中止しない場合は(ステップS7のNo)ステップS1に戻り、中止する場合は(ステップS7のYes)、処理を中止する。
(Map information creation method)
FIG. 4 is a basic flowchart showing the map information creation method according to the embodiment of the present invention. First, the
図5を用いて、撮像タイミング生成処理を説明する。位置検出部4は、車両12の現在の緯度、経度及び方位角の位置情報を生成する(ステップS10)。撮像タイミング生成部6は位置情報を取得し、予め定めておいた景観情報作成地点に移動体が到達したかどうかを判定する(ステップS11)。景観情報作成地点に移動体が到達したかどうかは、景観情報作成地点の位置情報と現在走行中の車両の位置情報とを比較して、景観情報作成地点から特定の範囲を有する近傍領域に車両12が入ったことを検出して、撮像開始信号を生成すればよい。撮像タイミング生成部6は、車両12が景観情報作成地点に到達したと判定したときは(ステップS11のYes)、撮像開始信号を生成して(ステップS12)、図4に示すステップS3に進む。撮像タイミング生成部6は、車両12が景観情報作成地点に到達していないと判断したときは(ステップS11のNo)、位置検出ステップS10にもどる。
The imaging timing generation process will be described with reference to FIG. The
図6を用いて、景観情報の生成処理を説明する。景観撮像部5は、撮像開始信号を受けて景観画像を生成する。地図情報作成部7は、この景観画像から線分や特徴点からなる特徴部を抽出する(ステップS13)。地図情報作成部7は、位置検出部4により検出された位置情報を当該特徴部に関連付けた景観情報を作成する(ステップS14)。このように、特徴部を景観情報とすることにより、地図情報の情報量を大幅に低減させることができる。
The landscape information generation process will be described with reference to FIG. The
図7は、このように生成された地図情報の情報内容の一例を表す。道路情報は、×により示されるノード、このノード間を結ぶリンクにより表され、各ノードには道路の属性が記憶されている。ノードN1は、その中心点の経度X、緯度Yと、その道路の属性として交差点、分岐数、車線数、車線幅等に加えて、景観情報が記憶される。具体的には、第1景観画像と、これに関連付けられた位置情報として景観の撮像方向を表す方位角θ1、撮像した地点の経度X1、緯度Y1、第2景観画像と、これに関連付けられた方位角θ2、経度X2、緯度Y2、第3景観画像と、これに関連付けられた方位角θ3、経度X3、緯度Y3、第4景観画像と、これに関連付けられた方位角θ4、経度X4、緯度Y4が記憶されている。 FIG. 7 shows an example of the information content of the map information generated in this way. The road information is represented by nodes indicated by x and links connecting the nodes, and road attributes are stored in each node. The node N1 stores the landscape information in addition to the longitude X and latitude Y of the center point and the intersection, the number of branches, the number of lanes, the lane width, and the like as attributes of the road. Specifically, the first landscape image, the azimuth angle θ1 representing the image capturing direction of the landscape as position information associated therewith, the longitude X1, the latitude Y1, the second landscape image of the imaged point, and the second landscape image associated therewith Azimuth angle θ2, longitude X2, latitude Y2, third landscape image, azimuth angle θ3, longitude X3, latitude Y3, fourth landscape image associated therewith, and azimuth angle θ4, longitude X4, latitude associated therewith Y4 is stored.
本実施形態では、交差点ごとに景観情報が記憶される。従って、図7ではノードN1の他にノードN6にも景観情報が記憶されている。また、景観情報として、交差点ごとではなく、ノードごとに、或いは、偶数ノードや奇数ノードごとに記憶しておいてもよい。また、景観情報として、景観画像のほかに、景観画像から抽出された特徴部のデータを記憶しておくことができる。 In this embodiment, landscape information is stored for each intersection. Therefore, in FIG. 7, landscape information is stored in the node N6 in addition to the node N1. Moreover, you may memorize | store as landscape information not for every intersection but for every node, or for every even-numbered node or every odd-numbered node. Moreover, the data of the characteristic part extracted from the landscape image other than the landscape image can be stored as the landscape information.
(第1の移動体位置検出装置)
次に、上記の地図情報作成装置1により作成した地図情報を利用して、移動体の位置を測定する移動体位置測定装置20について、説明する。
(First moving body position detection device)
Next, the moving body
図8は、本発明の実施形態に係る移動体位置測定装置20の構成を表す機能ブロック図である。移動体位置測定装置20は、装置全体の制御を行う制御部21と、移動体の位置及び方位角を検出する位置情報検出部23と、位置情報検出部23により検出された位置及び方位角に基づいて位置情報を処理し、道路地図画像の表示画像データを生成する位置情報処理部22と、移動体の移動方向を撮像する撮像部24と、撮像された実画像の画像データを記憶する実画像記憶部25と、地図情報及び景観情報を記憶する地図情報記憶部27と、道路地図画像及び移動体を表示する表示部26から構成されている。
FIG. 8 is a functional block diagram showing the configuration of the moving object
以下、各構成要素について、説明する。制御部21は、CPU31、ROM32及びRAM33から構成されている。ROM32は、移動体位置測定装置20の基本動作を制御するメインプログラムや、位置情報を処理するための各種アプリケーションプログラムを記憶している。CPU31は、ROM32からRAM33に各プログラムを読み出して、RAM33をその作業領域として演算を実行し、移動体位置測定装置20の動作を制御する。CPU31は、位置情報処理部22の各構成部に対応するアプリケーションプログラムを実行することにより、各構成部を実現する。つまり、位置情報処理部22の各構成部はソフトウエアから構成されている。
Hereinafter, each component will be described. The
位置情報検出部23は、GPSユニット35、ジャイロセンサ36及び走行センサ37から構成されている。GPSユニット35は、複数のGPS衛星から送られてくる搬送波を受信して、搬送波間の到達時間差等から現在緯度及び経度からなる現在位置を検出する。ジャイロセンサ36は、移動体の角速度変化から移動体の方位角を検出する。走行センサ37は移動体の走行距離や走行速度を検出する。GPS衛星から送られてくる搬送波は1秒に1回なので、ジャイロセンサ36や走行センサ37により移動体の位置を補完する。また、トンネルや都市部のビルによりGPS衛生からの搬送波が受信し難い場合でも、移動体の位置を推定することができる。なお、ジャイロセンサ36とともに磁気センサを設置して、地磁気から移動体の方位角を特定することができる。また、基地局から送信される電波を受信して、GPSユニット35により検出された移動体の位置を補正することができる。位置情報検出部23により検出された位置及び方位角の位置情報が位置情報処理部22に送信される。
The position
撮像部24は、移動体の移動方向の景観や路面を撮像する。撮像部24は、CCD撮像素子やCMOS撮像素子により構成することができる。実画像記憶部25は、撮像部24により撮像された実画像の画像データを一時的に記憶する。表示部26は、位置情報処理部22により生成された地図画像や景観画像を表示する。表示部26は液晶表示装置やELディスプレイにより構成することができる。
The
地図情報記憶部27は、景観情報を含む道路地図情報を記憶している。景観情報とは、道路の指定された地点において複数の離間する位置から走路方向の景観を撮像した景観画像に基づいて、その位置情報に関連付けられて形成されている。道路地図情報は、CD−ROMやDVD等の大容量記憶装置に記憶されている。道路地図情報には、道路情報として国道、県道、一般道などの区別、車線数や車線幅の情報等の道路の属性も記憶されている。 The map information storage unit 27 stores road map information including landscape information. The landscape information is formed in association with the position information based on a landscape image obtained by capturing a landscape in the runway direction from a plurality of spaced positions at a designated point on the road. The road map information is stored in a mass storage device such as a CD-ROM or DVD. In the road map information, road attributes such as distinction between national roads, prefectural roads, and general roads, and information on the number of lanes and lane width are stored as road information.
位置情報処理部22は、位置情報検出部23により検出された位置情報と、撮像部24により撮像された実画像と、地図情報記憶部27に記憶された景観情報に基づいて、移動体の位置を高精度で測定する。位置情報処理部22は、少なくとも、撮像部24により撮像された実画像から特徴部を抽出する実画像特徴抽出部41と、位置情報検出部23により検出された位置情報に基づいて、地図情報記憶部27から景観情報を取得してこの景観情報に含まれる特徴部を特定する景観特徴特定部43と、実画像の特徴部と景観情報に含まれる特徴部から移動体の位置を推定する移動体位置推定部45と、上記推定された移動体の位置に基づいて、道路地図画像を生成する画像処理部46と、を備えている。
The position
位置情報処理部22は、更に、実画像から抽出された特徴部と景観情報から特定された特徴部とのマッチング処理する特徴マッチング処理部44と、撮像部24により撮像された実画像から移動体の白線に対するオフセット距離を検出する白線認識部47と、地図情報記憶部から移動体が位置する道路の道路情報を取得し、車線数や車線幅を特定する地図情報取得部42と、位置情報検出部23により検出された位置情報に基づいて、移動体の位置を地図上の道路にマッチングさせるマップマッチング処理部48を備えることができる。
The position
以下、位置情報処理部22の各構成部の機能について具体的に説明する。実画像特徴抽出部41は、撮像部24により撮像された実画像データから、実画像の特徴部を抽出する。実画像の特徴部とは、例えば、実画像に含まれる線分の長さやその座標、また、線分と線分が交差する交点の座標を構成要素とする。撮像した実画像に建物や樹木が含まれている場合に、実画像を構成する画素の明度差や彩度差から、ビルの輪郭や窓枠により形成される線分やこの線分の交点を抽出することができる。線分の長さや交点と交点の間隔は、実画像を撮像した撮像位置によって変化する。つまり、この実画像から抽出した特徴部には道路上の撮像位置の位置情報が含まれる。なお、特徴部として実画像に含まれる線分や交点に限定されず、例えば、実画像に含まれる特長的な円弧の長さや円弧の半径、あるいは円弧の中心座標を特徴部とすることができる。実画像には自然の景観が含まれるので、直線よりも円弧を抽出したほうがより的確に特徴部を表現できる場合があるからである。
Hereinafter, the function of each component of the position
地図情報取得部42は、位置情報検出部23により検出された位置情報に基づいて、移動体の現在位置の周辺部の地図情報や道路の属性情報、景観情報を取得する。これらの情報は移動体の方位角や速度に応じて次々に繰り返して取得される。
Based on the position information detected by the position
景観特徴特定部43は、地図情報記憶部27から読み出した景観情報から、景観画像の特徴部を特定する。例えば、景観情報として景観画像が読み出される場合には、この画像に含まれる特徴的な線分の長さやその座標、また、線分と線分が交差する交点の座標を特徴部とする。また、線分や交点に限らず、特徴的な円弧の長さや円弧の半径、あるいは円弧の中心座標を特徴部とすることができる。後に説明するように、景観画像の特徴部と実画像の特徴部との間の特徴マッチング処理を行うので、景観画像から特徴部を抽出する条件等は、実画像から特徴部を抽出する条件と同じに設定しておくことが望ましい。
The landscape
また、地図情報記憶部27は、道路に沿った特定の地点、例えば交差点を表すノードに付加された景観情報を記憶している。景観情報は、当該ノード近傍の離間した複数の位置から道路の走路方向に沿って撮像した景観画像から構成される。また、景観情報は、予め景観画像から抽出した特徴部のデータから構成してもよい。特徴部のデータ量は景観画像のデータ量よりもはるかに少ないので、特徴部により景観情報を形成したほうが、地図情報記憶部27を低コストで構成することができる。更に、移動体の位置を測定する際に景観画像から特徴部を抽出する特徴抽出処理を省くことができる。そのため、より短時間で移動体位置の推定や、特徴マッチング処理を行うことができ、実画像の撮像から位置測定結果を表示するまでの時間を短縮し、現実に近い走行状態を表示することができる。 The map information storage unit 27 stores landscape information added to a specific point along the road, for example, a node representing an intersection. Landscape information is comprised from the landscape image imaged along the runway direction of the road from the several spaced position of the said node vicinity. Moreover, you may comprise landscape information from the data of the characteristic part previously extracted from the landscape image. Since the data amount of the feature portion is much smaller than the data amount of the landscape image, the map information storage portion 27 can be configured at a lower cost if the landscape information is formed by the feature portion. Furthermore, the feature extraction process which extracts a feature part from a landscape image when measuring the position of a moving body can be omitted. Therefore, it is possible to estimate the position of the moving body and the feature matching process in a shorter time, shorten the time from capturing the actual image to displaying the position measurement result, and display the driving state close to reality. it can.
移動体位置推定部45は、実画像から抽出された実画像特徴部と地図情報記憶部27から取得された景観情報に含まれる景観画像の特徴部とから移動体の位置を推定する。具体的には、図2を用いて説明した式(1)を用いて、実画像の特徴部からその撮像地点を算出することができる。景観画像を撮像したカメラの地点PaとPbを結ぶ線上を移動体が通過するとき、又はこのカメラの地点Pa、Pbの近傍を移動体が通過するときに実画像を撮像する。この実画像から特徴点を抽出し、式(1)を用いて移動体の地点Pxを算出することができる。
The moving object
また、特徴マッチング処理部44において、地図情報記憶部27から取得した景観情報の特徴部と、景観情報が生成された地点において撮像した実画像の特徴部との特徴マッチング処理を行う。地点Pa(図2を参照)から撮像した景観画像の特徴部と実画像の特徴部との間の差分値と、地点Pb(図2を参照)から撮像した景観画像の特徴部と実画像の特徴部との間の差分値とを算出する。移動体位置推定部45は、この2つの差分値が最小となる撮像地点Px(図2を参照)を推定することができる。
Further, the feature
白線認識部47は、撮像部24により撮像された実画像の路面に描かれた白線を認識する。図9を用いて説明する。図9は実画像のエッジ処理により検出された白線を表している。実画像データの差分処理により白線のエッジを検出する。次にハフ変換及び逆変換を行うことにより、左白線H1のエッジ線分e1、e2と右白線H2のエッジ線分e3、e4を検出する。これにより、撮像部24の視点であるカメラの地点Pxと左白線の中心線C1からの距離であるオフセット距離Dofを求めることができる。移動体位置推定部45は、上記のように実画像の特徴部と景観画像の特徴部から移動体の位置を算出し、この算出した位置をオフセット距離Dofにより補正すれば、より高精度に移動体の位置を推定することができる。なお、車線数や車線幅は、地図情報記憶部27から道路情報として取得することができる。
The white
マップマッチング処理部48は、GPS衛星から得られる緯度及び経度の位置情報を、地図情報記憶部27から取得した道路地図を用いて補正する。GPS衛星から通常の手段で得られる位置情報には約10m以上の誤差が含まれている。従って、そのまま移動体の位置を表示すると、移動体が道路の存在しない場所に表示されることがある。そこで、GPSユニット35により検出された位置情報をジャイロセンサ36や走行センサ37により補完して、この補完された位置情報に基づいて地図上の道路の候補を抽出し、走行中の道路として最も確率の高い道路に移動体を強制的に移動させる補正を行う。これにより、地図上で移動体が道路外を走行するような不自然性をなくすことができる。
The map
画像処理部46は、表示部26に表示する画像を生成するための画像処理を行う。移動体の現在の推定位置に基づいて、地図情報記憶部27から地図情報を読み出して、移動体の位置を重畳して表示部26に表示させるための表示画像データを生成する。
The
(移動体位置測定方法)
図10は、本発明の実施形態に係る移動体位置測定方法を表すフローチャート図である。図11は、オフセット距離の検出方法を表すフローチャート図である。図12は、位置推定後に表示部26に表示した移動体を表す模式図である。
(Moving object position measurement method)
FIG. 10 is a flowchart showing the moving body position measuring method according to the embodiment of the present invention. FIG. 11 is a flowchart illustrating the offset distance detection method. FIG. 12 is a schematic diagram showing a moving object displayed on the
移動体位置測定装置20が移動体28の位置測定を開始すると、撮像部24は移動体28の移動方向の路面及び景観を撮像する。実画像記憶部25は、撮像部24により撮像された実画像の画像データを取得して記憶する。実画像特徴抽出部41は、実画像記憶部25に記憶された実画像の画像データを取得する(ステップS21)。
When the moving body
位置情報検出部23は移動体28の位置及び方位角を検出する。GPSユニット35は、GPS衛星から搬送波を受信してその到達時間差等から移動体28の緯度及び経度からなる位置情報を生成する。ジャイロセンサ36は移動体28の角速度の変化を検出して、移動体の方位角情報を生成する(ステップS22)。なお、GPS衛星から方位角を受信し、ジャイロセンサにより補正するようにしてもよい。また、地磁気センサにより方位角を検出してもよい。
The position
地図情報取得部42は、位置情報検出部23により検出された位置情報に基づいて地図情報記憶部27から移動体28の現在位置及び現在方位角に関連付けられた地図情報を取得する。マップマッチング処理部48は、地図情報取得部42により取得された地図情報に基づいてマップマッチング処理を行って、移動体28の位置を地図上の道路の中央部に補正する。画像処理部46は、移動体28の位置を道路の中央部に補正した移動体28を表示した地図情報の表示データを生成して、表示部26に出力する。
The map
移動体位置推定部45は、景観情報が記憶された景観情報記憶地点に移動体が接近しているかどうかを判定する(ステップS23)。移動体位置推定部45が、移動体28が景観情報記憶地点に近接したことを検出したときは(ステップS23のYes)、撮像部24に移動体28の移動方向の景観を撮像するための撮像信号を与えて、実画像を取得する。位置情報検出部23は、撮像信号に同期して移動体28の撮像地点の位置及び方位角からな位置情報を生成する。
The moving body
実画像特徴抽出部41は、撮像した景観の実画像から特徴部を抽出する。景観特徴特定部43は、地図情報記憶部27から取得した景観情報から特徴部を特定する(ステップS24)。特徴部は、実画像の特徴的な線分や、線分と線分が交わる交点とすることができる。景観情報が景観画像を含む場合は、景観特徴特定部43は、取得した景観画像から特徴部を抽出して特定する。特徴マッチング処理部44は、実画像の特徴部と景観情報から特定された特徴部との間の特徴マッチング処理を行う(ステップS25)。移動体位置推定部45は、特徴マッチング処理により得られた処理結果から、実画像を撮像した地点の位置を推定する。更に、白線認識部47が撮像した実画像から白線を認識し、認識した白線と移動体の位置との間のオフセット距離Dofを検出して補正することができる。
The real image
移動体位置推定部45が、移動体28が景観情報記憶地点に近接したことを検出しないときは(ステップS23のNo)、直前の景観情報記憶地点で補正された補正量を維持する。更に、位置情報検出部23により移動体28の現在位置及び方位角の変化を検出する。更に、白線認識部47により白線からのオフセット距離Dofを検出し、これらの補正を行った現在位置を推定する(ステップS27)。
When the moving body
図11を用いてステップS22及びステップS27のオフセット距離の検出について説明する。白線認識部47は、撮像部24により撮像した実画像の画像データから、車線内における移動体のオフセット距離を検出する。オフセット距離とは、路面上に描かれた左側の白線中央部から移動体位置までの距離である。このオフセット距離を検出することにより、移動体の位置の推定精度を更に向上させることができる。
The detection of the offset distance in steps S22 and S27 will be described with reference to FIG. The white
白線認識部47は、実画像の画像データから路面上に描かれた白線のエッジを検出する(ステップS30)。エッジの検出は、実画像を構成する画素の輝度差分処理により行う。次に、検出された白線のエッジから実空間上のエッジ画像を生成する(ステップS31)。次に、ハフ空間におけるハフ変換及び逆変換を行ってエッジ線分を推定する(ステップS32)。次に、推定された4本のエッジ線分e1、e2、e3、e4(図9を参照)から、夫々のエッジ線分の中央線分C1及びC2を求める(ステップS33)。次に、移動体28の現在地点Pxと中央線分C1との間のオフセット距離Dofを求める(ステップS34)。移動体位置推定部45は、上記オフセット距離Dofを用いて補正した移動体位置を設定する。
The white
図12は、推定された移動体位置に基づいて、地図画像を表示した例を示している(ステップS26)。図12に示すように、現在位置している車線上に移動体28を表示する。白線認識部47を用いてオフセット距離Dofを推定しているので、移動体28の車線内における位置も高精度に表示することができる。その結果、違和感のない自然な画像を表示することができ、走行の安全性を高めることができる。
FIG. 12 shows an example in which a map image is displayed based on the estimated moving body position (step S26). As shown in FIG. 12, the moving
なお、上記実施形態では特徴マッチング処理を行って、移動体28の現在位置を推定したが、これに代えて、景観画像から抽出した特徴部の座標と、実画像から抽出した特徴部の座標から、例えば、式(1)を用いて直接計算を行って実画像の撮像地点を算出してもよい。
In the above embodiment, the feature matching process is performed to estimate the current position of the moving
(第2の移動体位置測定装置)
図13は、本発明の他の実施形態に係る移動体位置測定装置20及び測定方法を説明するための地図の模式図である。本実施形態においては、地図情報記憶部27は、道路の交差点ごとに景観情報または景観情報から抽出された特徴部を記憶する。
(Second moving body position measuring device)
FIG. 13 is a schematic diagram of a map for explaining a moving body
図13には、交差点K1とその先の交差点K2が示されている。地図情報記憶部27は各交差点に関する景観情報としての景観画像を記憶している。景観画像は、交差点K1に関しては、4つの位置Q11、Q12、Q13、Q14から±X1方向と±Y1方向を望む景観である。交差点K2に関しても同様に、4つの位置Q21、Q22、Q23、Q24から±X2方向と±Y2方向を望む景観である。なお、座標(X1、Y1)及び座標(X2、Y2)は、移動体28が左側から右側に走行するときの移動方向をX1、X2としている。
FIG. 13 shows an intersection K1 and an intersection K2 ahead. The map information storage unit 27 stores a landscape image as landscape information regarding each intersection. The landscape image is a landscape that desires the ± X1 direction and the ± Y1 direction from the four positions Q11, Q12, Q13, and Q14 with respect to the intersection K1. Similarly, regarding the intersection K2, it is a landscape in which the ± X2 direction and the ± Y2 direction are desired from the four positions Q21, Q22, Q23, and Q24. In addition, the coordinate (X1, Y1) and the coordinate (X2, Y2) are set to X1, X2 as the moving direction when the moving
具体的には、交差点K1の位置Q11から+X1方向と−Y1方向を望む景観を撮像した景観画像Wx11とWy11が作成されている。位置Q12から+X1方向と+Y1方向を望む景観を撮像した景観画像Wx12とWy12が作成されている。同様に、位置Q13から−X1方向と−Y1方向を望む景観から景観画像Wx13とWy13が、位置Q14から−X1方向と+Y1方向を望む景観から景観画像Wx14とWy14が作成されている。これら作成された8枚の景観画像Wx11、Wy11、Wx12、Wy12、Wx13、Wy13、Wx14、Wy14を交差点K1に関連付けて地図情報記憶部27に記憶されている。交差点K2についても同様に、位置Q21から+X2方向と−Y2方向を望む景観と、位置Q22から+X2方向と+Y2方向を望む景観と、位置Q23から−X2方向と−Y2方向を望む景観と、位置Q24の−X2方向と+Y2方向を望む景観とが撮像された景観画像が交差点K2に関連付けて地図情報記憶部27に記憶されている。その他の交差点についても同様である。 Specifically, landscape images Wx11 and Wy11 obtained by capturing a landscape in which the + X1 direction and the -Y1 direction are desired from the position Q11 of the intersection K1 are created. Landscape images Wx12 and Wy12 obtained by capturing a landscape that desires the + X1 direction and the + Y1 direction from the position Q12 are created. Similarly, landscape images Wx13 and Wy13 are generated from a landscape that desires the -X1 direction and -Y1 direction from the position Q13, and landscape images Wx14 and Wy14 are generated from a landscape that desires the -X1 direction and the + Y1 direction from the position Q14. These eight created landscape images Wx11, Wy11, Wx12, Wy12, Wx13, Wy13, Wx14, and Wy14 are stored in the map information storage unit 27 in association with the intersection K1. Similarly, at the intersection K2, a landscape that desires the + X2 direction and the -Y2 direction from the position Q21, a landscape that desires the + X2 direction and the + Y2 direction from the position Q22, a landscape that desires the -X2 direction and the -Y2 direction from the position Q23, and a position A landscape image in which a landscape in which the −X2 direction and the + Y2 direction of Q24 are desired is captured and stored in the map information storage unit 27 in association with the intersection K2. The same applies to other intersections.
移動体28の地図情報取得部42は、位置情報検出部23により検出した位置情報に基づいて、地図情報記憶部27から、移動体28が走行する近傍の地図情報を取得する。移動体28の制御部21が、位置情報検出部23により検出された位置及び方位角に基づいて移動体28が交差点K2に近づいたことを検出すると、撮像部24は移動体28の移動方向を撮像して実画像を実画像記憶部25に記憶する。実画像特徴抽出部41は、撮像した実画像から特徴部を抽出する。マップマッチング処理により移動体28の位置を地図の道路中央部に補正する。更に、白線認識部47が路面に描かれた白線を認識し、オフセット距離Dofを推定する。移動体位置推定部45は、これら補正された位置情報から移動体の現在位置を推定する。図13において、移動体28は片側2車線の道路を走行している。従って、移動体存在可能位置を設定して特徴マッチング処理によって移動体が走行する車線を推定する場合には、移動体存在可能位置は、オフセット距離Dofにより補正された2つの車線の2つの位置となる。
The map
次に、景観特徴特定部43は、位置情報検出部23により検出された移動体28の位置と方位角から、景観画像Wx11とWx12を選択的に取得する。景観特徴特定部43は、景観画像Wx11と景観画像Wx12の画像データから夫々の特徴部を抽出する。特徴部は既に説明したように、例えば景観画像に含まれる線分や交点から構成することができる。移動体位置推定部45は、実画像の特徴部と景観画像Wx11及びWx12とその位置Q11及びQ12から、実画像の現在位置を算出する。景観画像Wx11とWx12に代えて、これらの景観画像から抽出された特徴部W’x11、W’x12が記憶されている場合には、景観特徴特定部43による抽出ステップを省略することができる。また、算出した現在位置を、白線認識部47により白線からのオフセット距離により補正すれば、より高精度で現在位置を推定することができる。
Next, the landscape
また、特徴マッチング処理部44により現在位置を推定する場合には、次の処理を行う。特徴マッチング処理部44は、移動体位置推定部45により推定された移動体28の移動体存在可能位置の夫々について、実画像の特徴部と景観画像から抽出された特徴部とを特徴マッチング処理を行い、特徴マッチング処理結果を出力する。移動体位置推定部45は特徴マッチング処理結果から、景観画像の特徴部が実画像の特徴部と最も近似した移動体存在可能位置を現在の移動体の位置として推定する。画像処理部46は、この推定結果に基づいて、地図画像に移動体位置を表示して表示部26に地図情報を表示する。
When the current position is estimated by the feature
このように、地図情報記憶部27に交差点から見た景観を景観情報として記憶するので、膨大なデータ量を記憶しないで、移動体28の位置を高精度で推定することができる。移動体28のナビゲーションシステムにおいて運転者が最も必要とする情報の一つが交差点における車線情報や自移動体の位置情報である。本実施形態によれば、簡素な構成でこれらの情報を提示することができる。また、景観情報として景観の特徴部からなる特徴データを記憶するようにすれば、景観画像から特徴部を抽出する処理を行う必要がないので、移動体28の位置を短時間で推定することができる。
Thus, since the landscape viewed from the intersection is stored in the map information storage unit 27 as landscape information, the position of the moving
また、地図情報記憶部27に記憶する景観情報として、道路に沿って所定の間隔で設定した地点の景観情報を記憶するようにしてもよい。都市では交差点が多数存在するが、都市以外の地域では交差点の数が少ない。そこで、道路の所定間隔ごとに地図情報として景観情報を記憶しておけば、交差点の少ない地域でも道路上の移動体位置を高精度で推定することができる。 Moreover, you may make it memorize | store the landscape information of the spot set at predetermined intervals along the road as the landscape information memorize | stored in the map information storage part 27. FIG. There are many intersections in cities, but there are few intersections in areas other than cities. Therefore, if the landscape information is stored as map information for each predetermined interval of the road, the position of the moving body on the road can be estimated with high accuracy even in an area with few intersections.
また、上記実施形態において、景観を撮像した地点を交差点K1の角部の4つの位置Q11、Q12、Q13、Q14としたが、これに限定されない。4つの位置Q11、Q12、Q13、Q14は、道路の車線内であってもよいし、車線に跨った地点であってもよい。また、道路の中央に中央分離帯が立設し、例えば位置Q12からX1方向を撮像した場合に、中央分離帯により移動体28が走行する走行側の景観が隠される場合には、走行車線に2つの地点を設定して、走行側の景観を2つの地点から撮像すればよい。この場合は、撮像する地点は8箇所となる。要は、実画像の特徴部と景観画像から抽出した特徴部の特徴マッチング処理において、実画像を撮像した地点を推定できる程度に離間していればよい。また、交差点において撮像する景観画像は8枚に限定されず、三叉路の場合は6枚の景観画像で足りるし、五叉路の場合は10枚の景観画像が必要となる。
Moreover, in the said embodiment, although the point which imaged the scenery was made into four positions Q11, Q12, Q13, and Q14 of the corner | angular part of the intersection K1, it is not limited to this. The four positions Q11, Q12, Q13, and Q14 may be in the lane of the road or may be points that straddle the lane. In addition, when a median strip is erected at the center of the road and, for example, the X1 direction is imaged from the position Q12, if the landscape on the traveling side where the moving
1 地図情報作成装置
2 地図情報処理部
3 制御部
4 位置検出部
5 景観撮像部
6 撮像タイミング生成部
7 地図情報作成部
8 地図情報取得部
9 記憶部
10 記憶媒体
11 地図情報記憶部
12 車両
20 移動体位置測定装置
21 制御部
22 位置情報処理部
23 位置情報検出部
24 撮像部
25 実画像記憶部
26 表示部
27 地図情報記憶部
28 移動体
DESCRIPTION OF
Claims (13)
前記移動体の移動方向を望む景観を異なる位置から撮像した互いに異なる複数の景観画像を生成する景観撮像部と、
前記景観撮像部の撮像を開始する撮像開始信号を生成する撮像タイミング生成部と、
前記景観画像に基づいて前記検出された位置情報を関連付けた景観情報を生成し、前記景観情報を記憶媒体に記憶する地図情報作成部と、を備える地図情報作成装置。 A position detector that detects the position of the moving body and generates position information;
A landscape imaging unit that generates a plurality of different landscape images captured from different positions of a landscape in which the moving direction of the moving body is desired;
An imaging timing generation unit that generates an imaging start signal for starting imaging of the landscape imaging unit;
A map information creation device comprising: a landscape information associated with the detected position information based on the landscape image; and a map information creation unit that stores the landscape information in a storage medium.
撮像タイミング生成部が、移動体に搭載された景観撮像部の撮像を開始させる撮像開始信号を生成する撮像開始信号生成ステップと、
景観撮像部が、前記撮像開始信号に応じて、前記移動体の移動方向を望む景観を異なる位置から撮像し、互いに異なる複数の景観画像を生成する景観撮像ステップと、
地図情報作成部が、前記生成された複数の景観画像に基づいて、前記検出された位置情報に関連付けた景観情報を生成し、前記景観情報を記憶部に記憶して地図情報を作成する地図情報作成ステップと、を備える地図情報作成方法。 A position detecting step in which the position detecting unit detects the position of the moving body and the traveling direction to generate position information;
An imaging start signal generation step in which an imaging timing generation unit generates an imaging start signal for starting imaging of a landscape imaging unit mounted on a moving body;
A landscape imaging step in which a landscape imaging unit captures a landscape in which the moving direction of the moving body is desired from different positions according to the imaging start signal, and generates a plurality of different landscape images;
The map information creation unit generates landscape information associated with the detected position information based on the generated plurality of landscape images, stores the landscape information in a storage unit, and creates map information A map information creation method comprising: a creation step;
前記実画像から特徴部を抽出する実画像特徴抽出部と、
前記移動体の位置と方位角を検出する位置情報検出部と、
道路の指定された地点において、複数の離間する位置から走路方向の景観を撮像して生成された景観情報を記憶する地図情報記憶部と、
前記検出された位置と方位角を用いて前記地図情報記憶部から前記景観情報を取得し、前記取得された景観情報に含まれる特徴部を特定する景観特徴特定部と、
前記実画像の特徴部と前記景観情報から特定された特徴部から、前記実画像を撮像した移動体の位置を推定する移動体位置推定部と、
前記推定された移動体の位置に基づいて道路地図画像又は景観画像を生成する画像処理部と、を備える移動体位置測定装置。 An imaging unit that is mounted on a moving body and captures a lane drawn on a road surface in a direction in which the moving body travels and a landscape in the direction to generate a real image;
A real image feature extraction unit for extracting a feature from the real image;
A position information detection unit for detecting the position and azimuth of the moving body;
A map information storage unit for storing landscape information generated by imaging a landscape in the direction of the road from a plurality of spaced positions at a designated point on the road;
A landscape feature specifying unit that acquires the landscape information from the map information storage unit using the detected position and azimuth, and that identifies a feature included in the acquired landscape information;
From the feature part of the real image and the feature part specified from the landscape information, a mobile object position estimation unit that estimates the position of the mobile object that captured the real image;
A moving body position measuring apparatus comprising: an image processing unit that generates a road map image or a landscape image based on the estimated position of the moving body.
前記現在位置と方位に基づいて地図情報記憶部から地図情報を取得する地図情報取得ステップと、
前記移動体が前記取得された地図情報における指定された地点に近接したことを検出して、前記地図情報記憶部から、前記指定された地点において複数の離間する位置から走行方向の景観を撮像して生成された景観情報を取得する景観情報取得ステップと、
前記移動体が前記地図情報の指定された地点に達したことを検出して、前記移動体の移動方向の景観を撮像して実画像を取得する実画像取得ステップと、
前記取得された実画像から特徴部を抽出し、前記景観情報から特徴部を特定して、前記実画像の特徴部と前記景観情報から特定した特徴部により移動体の位置を推定する移動体位置推定ステップと、を備える移動体位置測定方法。 A position detecting step for detecting a current position and an azimuth angle of the mobile body;
A map information acquisition step of acquiring map information from a map information storage unit based on the current position and orientation;
Detecting that the moving body has approached a designated point in the acquired map information, and capturing a landscape in the traveling direction from a plurality of spaced positions at the designated point from the map information storage unit. A landscape information acquisition step for acquiring landscape information generated by
An actual image acquisition step of detecting that the moving body has reached a designated point of the map information, capturing a real image by capturing a landscape in the moving direction of the moving body, and
A moving object position that extracts a characteristic part from the acquired real image, specifies a characteristic part from the landscape information, and estimates a position of the moving object by the characteristic part of the real image and the characteristic part specified from the landscape information A moving body position measuring method comprising: an estimating step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008330923A JP2010152139A (en) | 2008-12-25 | 2008-12-25 | Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008330923A JP2010152139A (en) | 2008-12-25 | 2008-12-25 | Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010152139A true JP2010152139A (en) | 2010-07-08 |
Family
ID=42571293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008330923A Pending JP2010152139A (en) | 2008-12-25 | 2008-12-25 | Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010152139A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015004814A (en) * | 2013-06-20 | 2015-01-08 | 株式会社豊田中央研究所 | Lane map generation device and program |
JP2016505831A (en) * | 2012-12-20 | 2016-02-25 | コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト | Method for determining a reference position as a starting position for an inertial navigation system |
JP2017156112A (en) * | 2016-02-29 | 2017-09-07 | 三菱電機株式会社 | Vehicle position detection device |
JP2017528772A (en) * | 2014-06-13 | 2017-09-28 | トムトム インターナショナル ベスローテン フエンノートシャップ | Method and system for generating route data |
JP2018028489A (en) * | 2016-08-18 | 2018-02-22 | トヨタ自動車株式会社 | Position estimation device and position estimation method |
US10861325B2 (en) | 2014-09-07 | 2020-12-08 | Tomtom Traffic B.V. | Methods and systems for identifying navigable elements affected by weather conditions |
JP2021018661A (en) * | 2019-07-22 | 2021-02-15 | 本田技研工業株式会社 | Traffic lane data generation device, position identification device, traffic lane data generation method, and position identification method |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08335037A (en) * | 1995-06-06 | 1996-12-17 | Toshiba Corp | On-vehicle guide device |
JPH1172344A (en) * | 1997-08-29 | 1999-03-16 | Fujitsu Ten Ltd | Navigator |
JPH1194571A (en) * | 1997-09-18 | 1999-04-09 | Toshiba Corp | Recording and reproducing device, recording and reproducing method and recording medium |
JP2003202227A (en) * | 2002-01-04 | 2003-07-18 | Canon Inc | Photographing system |
JP2003269971A (en) * | 2002-03-20 | 2003-09-25 | Denso Corp | In-vehicle navigation device |
JP2003329449A (en) * | 2002-05-14 | 2003-11-19 | Learning Space:Kk | Method and device for creating common base road information |
JP2006170934A (en) * | 2004-12-20 | 2006-06-29 | Konica Minolta Holdings Inc | Navigation apparatus, and navigation image display method |
JP2008020225A (en) * | 2006-07-11 | 2008-01-31 | Fujitsu Ltd | Self position estimation program, self position estimation method and self position estimation apparatus |
-
2008
- 2008-12-25 JP JP2008330923A patent/JP2010152139A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08335037A (en) * | 1995-06-06 | 1996-12-17 | Toshiba Corp | On-vehicle guide device |
JPH1172344A (en) * | 1997-08-29 | 1999-03-16 | Fujitsu Ten Ltd | Navigator |
JPH1194571A (en) * | 1997-09-18 | 1999-04-09 | Toshiba Corp | Recording and reproducing device, recording and reproducing method and recording medium |
JP2003202227A (en) * | 2002-01-04 | 2003-07-18 | Canon Inc | Photographing system |
JP2003269971A (en) * | 2002-03-20 | 2003-09-25 | Denso Corp | In-vehicle navigation device |
JP2003329449A (en) * | 2002-05-14 | 2003-11-19 | Learning Space:Kk | Method and device for creating common base road information |
JP2006170934A (en) * | 2004-12-20 | 2006-06-29 | Konica Minolta Holdings Inc | Navigation apparatus, and navigation image display method |
JP2008020225A (en) * | 2006-07-11 | 2008-01-31 | Fujitsu Ltd | Self position estimation program, self position estimation method and self position estimation apparatus |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016505831A (en) * | 2012-12-20 | 2016-02-25 | コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト | Method for determining a reference position as a starting position for an inertial navigation system |
US9658069B2 (en) | 2012-12-20 | 2017-05-23 | Continental Teves Ag & Co. Ohg | Method for determining a reference position as the starting position for an inertial navigation system |
JP2015004814A (en) * | 2013-06-20 | 2015-01-08 | 株式会社豊田中央研究所 | Lane map generation device and program |
JP2017528772A (en) * | 2014-06-13 | 2017-09-28 | トムトム インターナショナル ベスローテン フエンノートシャップ | Method and system for generating route data |
US10768006B2 (en) | 2014-06-13 | 2020-09-08 | Tomtom Global Content B.V. | Methods and systems for generating route data |
US11740099B2 (en) | 2014-06-13 | 2023-08-29 | Tomtom Global Content B.V. | Methods and systems for generating route data |
US10861325B2 (en) | 2014-09-07 | 2020-12-08 | Tomtom Traffic B.V. | Methods and systems for identifying navigable elements affected by weather conditions |
JP2017156112A (en) * | 2016-02-29 | 2017-09-07 | 三菱電機株式会社 | Vehicle position detection device |
JP2018028489A (en) * | 2016-08-18 | 2018-02-22 | トヨタ自動車株式会社 | Position estimation device and position estimation method |
JP2021018661A (en) * | 2019-07-22 | 2021-02-15 | 本田技研工業株式会社 | Traffic lane data generation device, position identification device, traffic lane data generation method, and position identification method |
JP7149234B2 (en) | 2019-07-22 | 2022-10-06 | 本田技研工業株式会社 | Lane data generation device, position specifying device, lane data generation method, and position specifying method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3332217B1 (en) | Methods and systems for generating and using localisation reference data | |
JP4600357B2 (en) | Positioning device | |
JP5798392B2 (en) | Parking assistance device | |
JP2020064068A (en) | Visual reinforcement navigation | |
US11511627B2 (en) | Display device and computer program | |
CN108362295A (en) | Vehicle route guides device and method | |
JP2010152139A (en) | Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body | |
JP4783620B2 (en) | 3D data creation method and 3D data creation apparatus | |
EP3842751B1 (en) | System and method of generating high-definition map based on camera | |
JP2010151658A (en) | Apparatus and method for measuring position of mobile object | |
WO2009084133A1 (en) | Navigation device | |
JP2007171048A (en) | Position data interpolation method, position detecting sensor and position measuring device | |
JP4483305B2 (en) | Vehicle periphery monitoring device | |
JP2007198962A (en) | Guidance display device for vehicle | |
JP2006217447A (en) | Vehicle display apparatus | |
JP2008128827A (en) | Navigation device, navigation method, and program thereof | |
JP2008139295A (en) | Device and method for intersection guide in vehicle navigation using camera | |
JP2009020089A (en) | System, method, and program for navigation | |
JP2009211624A (en) | Driving support device, driving support method, and computer program | |
JP2009140192A (en) | Road white line detection method, road white line detection program and road white line detection apparatus | |
JP2009236844A (en) | Navigation device, navigation method, and navigation program | |
JP2004265396A (en) | Image forming system and image forming method | |
JP2007206014A (en) | Navigation device | |
KR100550430B1 (en) | Apparatus and method for guiding route of vehicle using three-dimensional information | |
US20230314154A1 (en) | Navigation Using Computer System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111222 |
|
A521 | Written amendment |
Effective date: 20120131 Free format text: JAPANESE INTERMEDIATE CODE: A523 |
|
A521 | Written amendment |
Effective date: 20121220 Free format text: JAPANESE INTERMEDIATE CODE: A523 |
|
A977 | Report on retrieval |
Effective date: 20130612 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130618 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131105 |