JP2010152139A - Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body - Google Patents

Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body Download PDF

Info

Publication number
JP2010152139A
JP2010152139A JP2008330923A JP2008330923A JP2010152139A JP 2010152139 A JP2010152139 A JP 2010152139A JP 2008330923 A JP2008330923 A JP 2008330923A JP 2008330923 A JP2008330923 A JP 2008330923A JP 2010152139 A JP2010152139 A JP 2010152139A
Authority
JP
Japan
Prior art keywords
landscape
information
map information
moving body
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008330923A
Other languages
Japanese (ja)
Inventor
Zhencheng Hu
振程 胡
Keiichi Uchimura
圭一 内村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2008330923A priority Critical patent/JP2010152139A/en
Publication of JP2010152139A publication Critical patent/JP2010152139A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To successively create map information while passing points necessary for a road by mounting a map information creation device 1 on a vehicle 12. <P>SOLUTION: The map information creation device includes: a position detection part 4 for detecting the position of a moving body to create position information; a scene imaging part 5 for creating a plurality of mutually different scene images for imaging scenes overlooking a moving direction of the moving body from different positions; an imaging timing generation part 6 for generating imaging start signals starting imaging of the scene imaging part 5; a map information creation part 7 for storing scene information to a storing medium by creating the scene information relating to position information detected based on the scene images. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ナビゲーションシステムに使用する地図情報を作成する地図情報作成装置、その作成方法、及び、この地図情報作成装置により作成された地図情報を使用して移動体の位置を測定する移動体位置測定装置、その測定方法に関する。   The present invention relates to a map information creating apparatus that creates map information used in a navigation system, a method for creating the map information, and a mobile body position that measures the position of the mobile body using the map information created by the map information creating apparatus. The present invention relates to a measuring apparatus and a measuring method thereof.

近年、車両等に搭載されるナビゲーションシステムが普及している。このナビゲーションシステムは、GPS(Global Positioning System)衛星等から位置情報を取得し、この位置情報に基づいてCD-ROMやDVDに記憶された地図データを読み出して、現在の車両位置を表示装置に表示する。これにより、利用者は一目で自車両の位置を認識することができる利便性を備えている。   In recent years, navigation systems mounted on vehicles and the like have become widespread. This navigation system acquires position information from a GPS (Global Positioning System) satellite, etc., reads map data stored in a CD-ROM or DVD based on this position information, and displays the current vehicle position on a display device. To do. Thereby, the user has the convenience that can recognize the position of the own vehicle at a glance.

一般に利用可能なGPS衛星から取得した位置情報には10m以上の誤差が含まれている。そのために、GPS衛星からの位置情報をそのまま地図データに対応付けると、車両が道路上を走行しない画像が表示される。これを補正するためにマップマッチング処理が行われている。マップマッチング処理は、GPS衛星から得られた位置を地図の道路上に強制的に補正する処理である。GPS衛星から得られる位置情報と、移動体に搭載した走行センサやジャイロセンサから得られる走行距離や角速度変化等からなる移動情報に基づいて、移動体が位置する可能性の最も高い道路を地図データから選択し、この選択された道路の中央に移動体を強制的に移動させて補正している。これにより、移動体が道路から外れないように表示することができる。   Position information acquired from generally available GPS satellites includes an error of 10 m or more. Therefore, when the position information from the GPS satellite is directly associated with the map data, an image in which the vehicle does not travel on the road is displayed. In order to correct this, a map matching process is performed. The map matching process is a process for forcibly correcting the position obtained from the GPS satellite on the road of the map. Map data on the road where the moving object is most likely to be located based on the position information obtained from the GPS satellites and the movement information obtained from the traveling distance and angular velocity obtained from the traveling sensor and gyro sensor mounted on the moving object. This is corrected by forcibly moving the moving body to the center of the selected road. Thereby, it can display so that a mobile body may not remove from a road.

しかし、マップマッチング処理では、移動体の位置を道路の中央部に補正するので、移動体が走行している道路上の位置や、車線を特定することができない。そこで、移動体の位置を現実の位置に合致させるために、移動体の移動方向の路面を撮像し、撮像した路面に描かれる白線を認識して、この白線情報により移動体の位置精度を向上させる方法が提案されている(例えば特許文献1を参照)。
特開2007−220013号公報
However, in the map matching process, since the position of the moving body is corrected to the center of the road, the position on the road where the moving body is traveling and the lane cannot be specified. Therefore, in order to match the position of the moving body to the actual position, the road surface in the moving direction of the moving body is imaged, the white line drawn on the captured road surface is recognized, and the position accuracy of the moving body is improved by this white line information Has been proposed (see, for example, Patent Document 1).
JP 2007-220013 A

しかしながら、白線認識法により移動体の位置を検出する場合に、路面上の白線が途切れている、太陽光の元で路面に建物の影が生じている、或いは、雨天の場合等において、白線認識が困難となる場合がある。また、白線認識が可能な場合でも、走行方向の車線数が複数存在する場合は、どの車線を走行しているのかを認識できない場合が多い。 However, when the position of a moving object is detected by the white line recognition method, the white line on the road surface is interrupted, the shadow of the building is generated on the road surface under sunlight, or in the case of rain, etc. May be difficult. Even when white line recognition is possible, if there are a plurality of lanes in the traveling direction, it is often impossible to recognize which lane the vehicle is traveling.

また、移動体の位置を高精度で測定するシステムとして、RTK−GPS(Real Time Kinematic GPS)が知られている。RTK−GPSは、複数のGPS衛星から送られてくる搬送波を受信し、その位相差を検出して緯度及び経度の位置情報を検出することができる。利用可能な搬送波は、周波数が1575MHzなので波長は約19cmであり、その位相差を検出することにより、cmオーダー以下の精度で位置検出が可能となる。しかし、衛星から送られてくる搬送波の波長は短いので、受信機で受信しても搬送波のサイクルを特定することができない。そこで、基地局を設けて、基地局から搬送波のサイクル特定用の信号を送信する。利用者は、衛星からの搬送波と基地局が送信する信号を同時に受信し、搬送波のサイクルを特定し、その位相差から位置を求めることができる。しかし、このシステムを利用するための受信機は高価であり、一般に手軽に利用することはできない。   Also, RTK-GPS (Real Time Kinetic GPS) is known as a system for measuring the position of a moving object with high accuracy. RTK-GPS can receive carrier waves sent from a plurality of GPS satellites, detect phase differences thereof, and detect position information of latitude and longitude. Since the available carrier wave has a frequency of 1575 MHz, the wavelength is about 19 cm. By detecting the phase difference, the position can be detected with an accuracy of the order of cm or less. However, since the wavelength of the carrier wave transmitted from the satellite is short, the carrier wave cycle cannot be specified even if it is received by the receiver. Therefore, a base station is provided, and a signal for specifying a carrier cycle is transmitted from the base station. The user can simultaneously receive the carrier wave from the satellite and the signal transmitted by the base station, specify the cycle of the carrier wave, and obtain the position from the phase difference. However, a receiver for using this system is expensive and generally cannot be used easily.

そこで、本発明の目的は、簡便な方法により移動体の現実の位置を高精度で測定可能とする測位システムを提供することである。   Therefore, an object of the present invention is to provide a positioning system that can measure the actual position of a moving object with high accuracy by a simple method.

本発明においては上記課題を解決するために以下の手段を講じた。   In the present invention, the following means have been taken in order to solve the above problems.

本発明の地図情報作成装置においては、移動体の位置を検出して位置情報を生成する位置検出部と、前記移動体の移動方向を望む景観を異なる位置から撮像した互いに異なる複数の景観画像を生成する景観撮像部と、前記景観撮像部の撮像を開始する撮像開始信号を生成する撮像タイミング生成部と、前記景観画像に基づいて前記検出された位置情報を関連付けた景観情報を生成し、前記景観情報を記憶媒体に記憶する地図情報作成部と、を備えるようにした。   In the map information creation device of the present invention, a position detection unit that detects the position of a moving body to generate position information, and a plurality of different landscape images obtained by capturing a landscape that desires the moving direction of the moving body from different positions. A landscape imaging unit to generate; an imaging timing generation unit that generates an imaging start signal for starting imaging of the landscape imaging unit; and landscape information that associates the detected position information based on the landscape image; A map information creation unit for storing landscape information in a storage medium.

また、前記景観撮像部は、前記移動体の移動方向とは反対方向を望む景観を異なる位置から撮像し、互いに異なる複数の景観画像を更に生成するようにした。   In addition, the landscape imaging unit captures a landscape in a direction opposite to the moving direction of the moving body from different positions, and further generates a plurality of different landscape images.

また、前記地図情報作成部は、前記生成された景観画像から特徴部を抽出し、前記位置情報を関連付けた前記特徴部を前記景観情報として前記記憶媒体に記憶するようにした。   Further, the map information creation unit extracts a feature from the generated landscape image, and stores the feature associated with the position information as the landscape information in the storage medium.

また、前記撮像タイミング生成部は、前記移動体が交差点を通過する際に撮像開始信号を生成するようにした。   Further, the imaging timing generation unit generates an imaging start signal when the moving body passes through an intersection.

本発明の地図情報作成方法においては、位置検出部が、移動体の位置及び走行方向を検出して位置情報を生成する位置検出ステップと、撮像タイミング生成部が、移動体に搭載された景観撮像部の撮像を開始させる撮像開始信号を生成する撮像開始信号生成ステップと、景観撮像部が、前記撮像開始信号に応じて、前記移動体の移動方向を望む景観を異なる位置から撮像し、互いに異なる複数の景観画像を生成する景観撮像ステップと、地図情報作成部が、前記生成された複数の景観画像に基づいて、前記検出された位置情報に関連付けた景観情報を生成し、前記景観情報を記憶部に記憶して地図情報を作成する地図情報作成ステップと、を備えるようにした。   In the map information creation method of the present invention, the position detection unit detects the position and the traveling direction of the moving body and generates position information, and the imaging timing generation unit captures the landscape image mounted on the moving body. An imaging start signal generation step for generating an imaging start signal for starting imaging of the image capturing unit, and a landscape imaging unit that captures a landscape in which the moving direction of the moving body is desired from different positions according to the imaging start signal, and is different from each other A landscape imaging step for generating a plurality of landscape images and a map information creation unit generate landscape information associated with the detected position information based on the generated plurality of landscape images, and store the landscape information And a map information creating step of creating map information stored in the section.

また、前記撮像開始信号生成ステップは、前記撮像タイミング生成部が、前記移動体の現在の位置と、予め設定された景観情報作成地点とを比較し、前記移動体が前記景観情報作成地点に到達したと判定したときに、前記撮像開始信号を生成するようにした。   In the imaging start signal generation step, the imaging timing generation unit compares the current position of the mobile body with a preset landscape information creation point, and the mobile body reaches the landscape information creation point. When it is determined that the imaging start signal is generated, the imaging start signal is generated.

また、前記予め設定された景観情報作成地点は交差点であることとした。   The preset landscape information creation point is an intersection.

また、前記景観撮像ステップは、前記撮像部が、前記移動体の移動方向と反対方向の景観を異なる位置から撮像し、互いに異なる複数の景観画像を生成するステップを含むようにした。   The landscape imaging step includes a step in which the imaging unit captures a landscape in a direction opposite to the moving direction of the moving body from a different position and generates a plurality of different landscape images.

また、前記地図情報作成ステップは、前記地図情報作成部が、前記景観画像から特徴部を抽出し、前記抽出された特徴部に前記検出された位置情報を関連付けた景観情報を生成し、前記記憶部に記憶するようにした。   In the map information creation step, the map information creation unit extracts a feature from the landscape image, generates landscape information in which the detected position information is associated with the extracted feature, and stores the memory. I remembered it in the department.

本発明の移動体位置測定装置においては、移動体に搭載され、前記移動体が走行する方向の路面に描かれた車線とその方向の景観を撮像して実画像を生成する撮像部と、前記実画像から特徴部を抽出する実画像特徴抽出部と、前記移動体の位置と方位角を検出する位置情報検出部と、道路の指定された地点において、複数の離間する位置から走路方向の景観を撮像して生成された景観情報を記憶する地図情報記憶部と、前記検出された位置と方位角を用いて前記地図情報記憶部から前記景観情報を取得し、前記取得された景観情報に含まれる特徴部を特定する景観特徴特定部と、前記実画像の特徴部と前記景観情報から特定された特徴部から、前記実画像を撮像した移動体の位置を推定する移動体位置推定部と、前記推定された移動体の位置に基づいて道路地図画像又は景観画像を生成する画像処理部と、を備えるようにした。   In the moving body position measuring apparatus of the present invention, the imaging unit that is mounted on the moving body and that captures the lane drawn on the road surface in the direction in which the moving body travels and the landscape in the direction to generate a real image, A real image feature extraction unit that extracts a feature portion from a real image, a position information detection unit that detects a position and an azimuth angle of the moving body, and a landscape in a running direction from a plurality of spaced positions at a specified point on the road A map information storage unit for storing landscape information generated by imaging the image, and acquiring the landscape information from the map information storage unit using the detected position and azimuth, and included in the acquired landscape information A moving body position estimating unit that estimates a position of a moving body that has captured the real image, from a landscape characteristic specifying unit that identifies a characteristic part to be detected, a characteristic part that is specified from the characteristic part of the real image and the landscape information, The estimated position of the moving body An image processing unit that generates road map image or scene image based on, and so comprises a.

また、前記道路の指定された地点は、地図上の交差点であることとした。   The designated point on the road is an intersection on the map.

本発明の移動体位置測定方法においては、前記移動体の現在位置と方位角を検出する位置検出ステップと、前記現在位置と方位に基づいて地図情報記憶部から地図情報を取得する地図情報取得ステップと、前記移動体が前記取得された地図情報における指定された地点に近接したことを検出して、前記地図情報記憶部から、前記指定された地点において複数の離間する位置から走行方向の景観を撮像して生成された景観情報を取得する景観情報取得ステップと、前記移動体が前記地図情報の指定された地点に達したことを検出して、前記移動体の移動方向の景観を撮像して実画像を取得する実画像取得ステップと、前記取得された実画像から特徴部を抽出し、前記景観情報から特徴部を特定して、前記実画像の特徴部と前記景観情報から特定した特徴部により移動体の位置を推定する移動体位置推定ステップと、を備えるようにした。   In the moving body position measuring method of the present invention, a position detecting step for detecting a current position and an azimuth angle of the moving body, and a map information acquiring step for acquiring map information from a map information storage unit based on the current position and the azimuth. And detecting that the moving body has approached a designated point in the acquired map information, and from the map information storage unit, a landscape in a traveling direction from a plurality of separated positions at the designated point. A landscape information acquisition step for acquiring landscape information generated by imaging, and detecting that the mobile body has reached a point designated by the map information, and capturing a landscape in the moving direction of the mobile body A real image acquisition step for acquiring a real image, a feature portion is extracted from the acquired real image, a feature portion is specified from the landscape information, and specified from the feature portion of the real image and the landscape information And was so and a mobile location estimation step of estimating the position of a moving body by the feature.

また、前記指定された地点は、地図上の交差点であることとした。   The designated point is an intersection on the map.

本発明の地図情報作成装置においては、移動体の位置を検出して位置情報を生成する位置検出部と、移動体の移動方向を望む景観を異なる位置から撮像した互いに異なる複数の景観画像を生成する景観撮像部と、景観撮像部の撮像を開始する撮像開始信号を生成する撮像タイミング生成部と、景観画像に基づいて検出された位置情報を関連付けた景観情報を生成し、景観情報を記憶媒体に記憶する地図情報作成部と、を備えるようにした。これにより、地図作成用の移動体が道路の特定の地点を通過するたびに移動方向を望む景観を撮像してその位置情報と関連付けた景観情報を生成し、これを記憶するので、簡便に、且つ、素早く地図情報を作成することができる。   In the map information creation device of the present invention, a position detection unit that detects the position of a moving body and generates position information, and generates a plurality of different landscape images obtained by capturing a landscape in which the moving direction of the moving body is desired from different positions A landscape imaging unit, an imaging timing generation unit that generates an imaging start signal for starting the imaging of the landscape imaging unit, and landscape information that associates position information detected based on the landscape image is generated, and the landscape information is stored in the storage medium. And a map information creation unit for storing the information. Thus, every time a moving body for creating a map passes through a specific point on the road, it captures a landscape in which the moving direction is desired, generates landscape information associated with the position information, and stores this, so it is stored easily. And map information can be created quickly.

また、本発明の移動体位置測定装置においては、移動体に搭載され、移動体が走行する方向の路面に描かれた車線とその方向の景観を撮像する撮像部と、実画像から特徴部を抽出する実画像特徴抽出部と、移動体の位置と方位角を検出する位置情報検出部と、道路の指定された地点において、複数の離間する位置から走路方向の景観を撮像して生成された景観情報を記憶する地図情報記憶部と、検出された位置と方位角を用いて地図情報記憶部から景観情報を取得し、取得された景観情報に含まれる特徴部を特定する景観特徴特定部と、実画像の特徴部と景観情報から特定された特徴部から、実画像を撮像した移動体の位置を推定する移動体位置推定部と、推定された移動体の位置に基づいて道路地図画像又は景観画像を生成する画像処理部と、を備えるようにした。これにより、測定装置の構成を簡素にしてかつ高精度で現在位置の測定が可能となり、複数車線の道路を走行する場合であっても、移動体が現在走行している車線を表示画面に表示することができ、走行の安全性を向上させることができる。   Further, in the mobile body position measuring apparatus of the present invention, an imaging unit that is mounted on the mobile body and captures a lane drawn on the road surface in the direction in which the mobile body travels and a landscape in the direction, and a characteristic part from the actual image are provided. Real image feature extraction unit to be extracted, position information detection unit to detect the position and azimuth of the moving body, and generated by capturing a landscape in the direction of the road from a plurality of separated positions at a specified point on the road A map information storage unit that stores landscape information, a landscape feature specifying unit that acquires landscape information from the map information storage unit using the detected position and azimuth, and identifies a feature included in the acquired landscape information; A moving object position estimation unit that estimates the position of the moving object that captured the actual image from the characteristic part specified from the characteristic part of the actual image and the landscape information, and a road map image based on the estimated position of the moving object or Image processing unit that generates landscape images , It was to prepare for the. This makes it possible to measure the current position with high accuracy by simplifying the configuration of the measuring device, and even when driving on a road with multiple lanes, the lane on which the moving body is currently driving is displayed on the display screen. It is possible to improve driving safety.

以下、本発明について、図面を用いて詳細に説明する。   Hereinafter, the present invention will be described in detail with reference to the drawings.

(地図情報作成装置)
図1は、本発明の実施形態に係る地図情報作成装置1の説明図である。図1(a)は移動体としての車両12が地図情報作成装置1を搭載した状態を表す模式図であり、図1(b)は道路を移動体としての車両12が移動しながら地図情報を作成している状態を表す模式図である。図2は、地図情報作成装置1により作成された景観情報を位置検出用の地図情報として利用する際の原理を説明するための図である。
(Map information creation device)
FIG. 1 is an explanatory diagram of a map information creation device 1 according to an embodiment of the present invention. FIG. 1A is a schematic diagram showing a state in which the vehicle 12 as a moving body is mounted with the map information creation device 1, and FIG. 1B shows map information while the vehicle 12 as a moving body moves on the road. It is a schematic diagram showing the state which is producing. FIG. 2 is a diagram for explaining the principle when the landscape information created by the map information creation device 1 is used as map information for position detection.

図1(a)に示すように、本発明に係る地図情報作成装置1を車両12の移動体に搭載し、図1(b)に示すように、道路を走行する。道路の予め定めておいた地点、例えば交差点Kに差し掛かったときに、互いに離間した第1カメラ5aと第2カメラ5bにより進行方向の景観を撮像する。このとき、第3カメラ5cと第4カメラ5dにより進行方向とは反対側の景観を同時に撮像することができる。そして、撮像したときの道路の位置を位置検出部4で検出する。地図情報処理部2は、カメラで撮像した景観画像を、位置検出部4で検出した位置Psに、又は位置Psと相対距離及び方位が定められたカメラの位置に関連付けた景観情報として、記憶部9に記憶する。車両12は更に走行を続けて、次の定められた地点で、これを繰り返す。   As shown in FIG. 1 (a), the map information creation device 1 according to the present invention is mounted on a moving body of a vehicle 12, and travels on a road as shown in FIG. 1 (b). When a predetermined point on the road, such as an intersection K, is reached, a landscape in the traveling direction is imaged by the first camera 5a and the second camera 5b that are separated from each other. At this time, the third camera 5c and the fourth camera 5d can simultaneously capture the landscape opposite to the traveling direction. Then, the position detection unit 4 detects the position of the road when the image is taken. The map information processing unit 2 stores the landscape image captured by the camera as the landscape information associated with the position Ps detected by the position detection unit 4 or the position of the camera with the relative distance and orientation determined by the position Ps. 9 The vehicle 12 continues to travel and repeats this at the next predetermined point.

上記地図情報作成装置1により作成された景観情報は、移動体の位置の検出するための位置検出情報として利用される。図2は、車両12と車両12の移動方向の景観15を上空から見た2次元平面図である。y方向が車両12の移動方向である。車両12に搭載した第1カメラ5aと第2カメラ5bとはx軸方向に離間している。景観15には奥行き方向に2つの特徴点W1、W2が存在する。特徴点とは、例えばビルを見上げたときの屋上の角部や、塔の先端部などである。この特徴点W1、W2を第1カメラ5aの地点Paから見る場合と、第2カメラ5bの地点Pbから見る場合とで、夫々視角が異なる。地点Paから見る視角θaは地点Pbから見る視角θbよりも大きくなる。従って、第1カメラ5aと第2カメラ5bの撮像条件を同一に設定して景観15を撮像すれば、第1カメラ5aにより撮像された画像上の特徴点W1とW2の間隔Daは、第2カメラ5bにより撮像された画像上の特徴点W1とW2の間隔Dbよりも長くなる。   The landscape information created by the map information creation device 1 is used as position detection information for detecting the position of the moving object. FIG. 2 is a two-dimensional plan view of the vehicle 12 and the landscape 15 in the moving direction of the vehicle 12 as seen from above. The y direction is the moving direction of the vehicle 12. The first camera 5a and the second camera 5b mounted on the vehicle 12 are separated in the x-axis direction. The landscape 15 has two feature points W1 and W2 in the depth direction. The feature points are, for example, corners on the roof when looking up at a building, the tip of a tower, and the like. The viewing angles differ between when the feature points W1 and W2 are viewed from the point Pa of the first camera 5a and when viewed from the point Pb of the second camera 5b. The viewing angle θa viewed from the point Pa is larger than the viewing angle θb viewed from the point Pb. Therefore, if the imaging conditions of the first camera 5a and the second camera 5b are set to be the same and the landscape 15 is captured, the interval Da between the feature points W1 and W2 on the image captured by the first camera 5a is the second. It becomes longer than the distance Db between the feature points W1 and W2 on the image captured by the camera 5b.

いま、地点Pxから同一条件で撮像した特徴点W1とW2の画像上の間隔をDx、地点Paと地点Pbの実際の距離をLo、地点Paから地点Pxの求める距離をLxとすると、概ね次式(1)が成り立つ、
Lx=Lo×(Da−Dx)/(Da−Db)・・・(1)
即ち、予め地点Pa、Pbから見た景観15を撮像し、地図情報として景観画像を記憶しておく。カメラの位置である地点Pa、Pbは、位置検出部4が検出する位置Psとの相対距離に基づいて高精度に決定することができる。位置を測定したい移動体28は、地点Paと地点Pbを結ぶ線上を通過する際に同じ景観15を撮像して景観画像を生成する。そして、地図情報から地点Paと地点Pbの景観画像を取得して、この取得した景観画像と移動体が撮像した景観画像とを比較する。そして、上記式(1)から、移動体28の位置を簡単に算出することができる。なお、地図情報として景観画像から抽出した特徴点を景観情報として記憶しておくことができる。また、景観は3次元空間なので、特徴点は3次元空間に分布する。垂直方向に分布する特徴点を比較すれば、この方法により移動体28の走行方向(y方向)の位置も測定することができる。
Now, assuming that the distance on the image of the feature points W1 and W2 imaged from the point Px under the same conditions is Dx, the actual distance between the point Pa and the point Pb is Lo, and the distance from the point Pa to the point Px is Lx, Equation (1) holds,
Lx = Lo × (Da−Dx) / (Da−Db) (1)
That is, the landscape 15 viewed from the points Pa and Pb is captured in advance, and a landscape image is stored as map information. The points Pa and Pb that are the positions of the camera can be determined with high accuracy based on the relative distance from the position Ps detected by the position detection unit 4. The moving body 28 whose position is to be measured captures the same landscape 15 and generates a landscape image when passing through a line connecting the point Pa and the point Pb. And the landscape image of the point Pa and the point Pb is acquired from map information, This acquired landscape image and the landscape image which the mobile body imaged are compared. Then, the position of the moving body 28 can be easily calculated from the above equation (1). In addition, the feature point extracted from the landscape image as map information can be memorize | stored as landscape information. Since the landscape is a three-dimensional space, the feature points are distributed in the three-dimensional space. If the feature points distributed in the vertical direction are compared, the position of the moving body 28 in the traveling direction (y direction) can also be measured by this method.

なお、上記の説明で、移動体の位置を特徴点間の距離から計算で求めることができることを説明したが、これに限定されない。地図情報として記憶された景観情報から、移動体の位置を仮定したときの特徴点の位置を推定し、この推定された位置から見える特徴点と、移動体が撮像した実画像から抽出した特徴点とをマッチング処理し、その差分が最も小さくなる位置を移動体の位置として測定してもよい。   In the above description, it has been described that the position of the moving body can be calculated from the distance between the feature points. However, the present invention is not limited to this. From the landscape information stored as map information, the position of the feature point when the position of the moving object is assumed is estimated, the feature point that can be seen from this estimated position, and the feature point extracted from the actual image captured by the moving object And the position where the difference becomes the smallest may be measured as the position of the moving body.

図3は、本発明の実施形態に係る地図情報作成装置1の構成を表す機能ブロック図である。地図情報作成装置1は、位置検出部4と、景観撮像部5と、撮像タイミング生成部6及び地図情報作成部7を含む地図情報処理部2と、記憶媒体10を含む記憶部9から構成されている。   FIG. 3 is a functional block diagram showing the configuration of the map information creation device 1 according to the embodiment of the present invention. The map information creation device 1 includes a position detection unit 4, a landscape imaging unit 5, a map information processing unit 2 including an imaging timing generation unit 6 and a map information creation unit 7, and a storage unit 9 including a storage medium 10. ing.

位置検出部4は、GPS衛星から送られてくる搬送波と、基地局から送られてくる基準信号を受信して、緯度及び経度の位置情報を生成する。この位置情報はcmオーダーの精度を有する。従って、車両12に設置した場合は、検出位置Psの位置を正確に測定することができる。ジャイロセンサ4bは、車両の角速度変化から方位角を測定する。走行センサ4cは車両12の速度や移動距離を測定する。車両12がトンネルやビルの谷間等を走行するときは、GPS衛星から搬送波を受信できない場合がある。この場合は、ジャイロセンサ4bや走行センサ4cから位置情報を取得して、車両12の位置や方位角を補正して位置情報を検出できるようにしている。   The position detector 4 receives a carrier wave sent from a GPS satellite and a reference signal sent from a base station, and generates position information of latitude and longitude. This position information has an accuracy of cm order. Therefore, when installed on the vehicle 12, the position of the detection position Ps can be accurately measured. The gyro sensor 4b measures the azimuth angle from the change in the angular velocity of the vehicle. The travel sensor 4c measures the speed and travel distance of the vehicle 12. When the vehicle 12 travels in a tunnel or a valley of a building, a carrier wave may not be received from a GPS satellite. In this case, position information is acquired from the gyro sensor 4b and the travel sensor 4c, and the position and the azimuth angle of the vehicle 12 are corrected so that the position information can be detected.

景観撮像部5は、第1カメラ5a、第2カメラ5b、第3カメラ5c、第4カメラ5dを備えている。各カメラはCCD撮像素子やCMOS撮像素子を使用することができる。第1カメラ5a及び第2カメラ5bは互いに異なる位置から車両12の移動方向である前方の景観を撮像する。第3カメラ5c及び第4カメラ5dは、移動方向とは反対側の後方の景観を互いに異なる位置から撮像する。各カメラは、位置検出部4の検出位置Psから正確に計測された位置に設置されている。なお、本実施形態では4台のカメラを使用した例であるが、1台のカメラを各撮像ポイント移動して撮像し、1台のカメラで複数の景観画像を撮像してもよい。   The landscape imaging unit 5 includes a first camera 5a, a second camera 5b, a third camera 5c, and a fourth camera 5d. Each camera can use a CCD image sensor or a CMOS image sensor. The 1st camera 5a and the 2nd camera 5b image the scenery of the front which is the moving direction of the vehicle 12 from a mutually different position. The 3rd camera 5c and the 4th camera 5d image the landscape of the back on the opposite side to a moving direction from a mutually different position. Each camera is installed at a position accurately measured from the detection position Ps of the position detection unit 4. In the present embodiment, four cameras are used, but one camera may be moved to each imaging point and imaged, and a plurality of landscape images may be captured by one camera.

制御部3は、地図情報作成装置1の全体の動作を制御する。制御部3は、演算を実行するCPU3a、プログラム等を記憶するROM3b、CPUの作業領域として使用されるRAM3cから構成されている。CPU3aは、ROM3bからRAM3cにメインプログラムの他に地図情報処理部2の各アプリケーションプログラムを読み出し、これらを実行することにより地図情報処理部2の各部を実現する。   The control unit 3 controls the overall operation of the map information creation device 1. The control unit 3 includes a CPU 3a that executes calculations, a ROM 3b that stores programs and the like, and a RAM 3c that is used as a work area of the CPU. The CPU 3a reads each application program of the map information processing unit 2 from the ROM 3b to the RAM 3c in addition to the main program, and implements each unit of the map information processing unit 2 by executing these.

地図情報処理部2は、景観撮像部5の撮像開始信号を生成する撮像タイミング生成部6と、景観情報を記憶媒体10に記憶する地図情報作成部7を備えている。また、撮像開始信号を生成するタイミングを決定するために、現在位置を表示するための地図情報取得部8を備えることができる。   The map information processing unit 2 includes an imaging timing generation unit 6 that generates an imaging start signal of the landscape imaging unit 5 and a map information creation unit 7 that stores landscape information in the storage medium 10. Moreover, in order to determine the timing which produces | generates an imaging start signal, the map information acquisition part 8 for displaying a present position can be provided.

撮像タイミング生成部6は、予め定められた景観情報作成地点に車両12が到達したことを検出して撮像開始信号を生成し、景観撮像部5が受信して景観を撮像する。また、同時に位置検出部4が撮像開始信号を受信して、車両12が現在走行している位置を検出する。例えば、地図情報記憶部11に記憶された地図情報に、景観情報作成地点を記憶させておき、地図上の交差点ごとに景観情報を形成することを予め定めておく。撮像タイミング生成部6は、位置検出部4により検出された車両12が交差点を通過するたびに、車両12の移動方向の前方と後方とを撮像して、景観画像を生成することができる。なお、撮像開始信号は上記のように位置検出部4が検出した位置により自動的に発生させる場合の他に、手動で発生させてもよい。この場合の撮像タイミング生成部6は、操作者が押下するスイッチとなる。   The imaging timing generation unit 6 detects that the vehicle 12 has reached a predetermined landscape information creation point, generates an imaging start signal, and the landscape imaging unit 5 receives the image to capture the landscape. At the same time, the position detector 4 receives the imaging start signal and detects the position where the vehicle 12 is currently traveling. For example, it is determined in advance that a landscape information creation point is stored in the map information stored in the map information storage unit 11 and the landscape information is formed for each intersection on the map. The imaging timing generation unit 6 can generate a landscape image by imaging the front and rear in the moving direction of the vehicle 12 every time the vehicle 12 detected by the position detection unit 4 passes the intersection. The imaging start signal may be generated manually in addition to the case where it is automatically generated based on the position detected by the position detection unit 4 as described above. In this case, the imaging timing generation unit 6 is a switch pressed by the operator.

地図情報作成部7は、景観撮像部5から各カメラが撮像した景観画像を取得し、位置検出部4から各カメラが撮像した時点の位置情報を取得する。そして、景観画像とこれを撮像したカメラの位置とを関連付けた景観情報を生成して、記憶媒体10に記憶する。地図情報作成部7は、第1カメラ5aが撮像した時点の緯度、経度及び方位角を位置検出部4から取得する。第1カメラ5aは、位置検出部4のRTK−GPS4aの受信位置Psとの間の位置が固定されている。従って、位置検出部4の検出した緯度、経度及び方位角により、第1カメラ5aの位置を決定することができる。第2カメラ5b、第3カメラ5c、第4カメラ5dも同様である。地図情報作成部7は、上記各カメラの緯度、経度及び方位角に関連付けて各カメラが撮像した景観画像を記憶媒体10に記憶する。   The map information creation unit 7 acquires a landscape image captured by each camera from the landscape imaging unit 5, and acquires position information at the time when each camera images from the position detection unit 4. And the landscape information which linked | related the landscape image and the position of the camera which imaged this is produced | generated, and it memorize | stores in the storage medium 10. FIG. The map information creation unit 7 acquires the latitude, longitude, and azimuth angle from the position detection unit 4 at the time when the first camera 5a captured. The position of the first camera 5a between the position detection unit 4 and the reception position Ps of the RTK-GPS 4a is fixed. Therefore, the position of the first camera 5a can be determined based on the latitude, longitude, and azimuth detected by the position detector 4. The same applies to the second camera 5b, the third camera 5c, and the fourth camera 5d. The map information creation unit 7 stores a landscape image captured by each camera in the storage medium 10 in association with the latitude, longitude, and azimuth of each camera.

また、各カメラが撮像した景観画像から特徴点を抽出した特徴部を位置情報に関連付けて記憶してもよい。これによれば、景観情報の情報量を大幅に削減することができる。そのため、移動体位置測定装置により位置を検出する際に、地図情報記憶部に記憶された景観画像から特徴点の抽出を行う必要がないので、位置を測定するための時間を短縮することができる。   Moreover, you may memorize | store and memorize | store the feature part which extracted the feature point from the landscape image which each camera imaged in relation to positional information. According to this, the amount of landscape information can be significantly reduced. Therefore, it is not necessary to extract feature points from the landscape image stored in the map information storage unit when the position is detected by the moving body position measuring device, so that the time for measuring the position can be shortened. .

地図情報取得部8は、記憶部9の地図情報記憶部11に記憶された地図情報を取得する。撮像タイミング生成部6は、この取得された地図情報に基づいて、撮像開始信号を生成することができる。また、撮像タイミング生成部6は、地図情報とは別に景観情報作成地点を記憶しておくことができる。   The map information acquisition unit 8 acquires map information stored in the map information storage unit 11 of the storage unit 9. The imaging timing generation unit 6 can generate an imaging start signal based on the acquired map information. Moreover, the imaging timing generation part 6 can memorize | store a landscape information creation point separately from map information.

記憶部9は、地図を表示するための地図情報を記憶する地図情報記憶部11と、地図情報作成部7により作成された景観情報を記憶するための記憶媒体10を備えている。地図情報記憶部11を書き込み可能な記憶部として、景観情報をこの地図情報記憶部11に記憶するようにしてもよい。   The storage unit 9 includes a map information storage unit 11 that stores map information for displaying a map, and a storage medium 10 for storing landscape information created by the map information creation unit 7. You may make it memorize | store landscape information in this map information storage part 11 as a memory | storage part which can write in the map information storage part 11. FIG.

このように地図情報作成装置1を構成すれば、予め定められた景観情報作成地点を通過するたびに、進行方向とその逆方向の景観情報を取得することができる。従って、図1(b)に示すような十字路の交差点の場合は、車両12を上下方向と左右方向の2回通過するだけで4方向の景観情報を取得することができる。道路の中央部に対向車側の景観を遮蔽する中央分離帯がある場合には、各走路を往復して4回通過すればよい。   If the map information creation device 1 is configured in this way, it is possible to acquire landscape information in the traveling direction and in the opposite direction every time it passes through a predetermined landscape information creation point. Therefore, in the case of a crossroad intersection as shown in FIG. 1B, landscape information in four directions can be acquired simply by passing the vehicle 12 twice in the vertical direction and the horizontal direction. When there is a median that blocks the scenery on the side of the oncoming vehicle at the center of the road, it may be passed through each runway four times.

(地図情報作成方法)
図4は、本発明の実施形態に係る地図情報作成方法を表す基本的なフローチャート図である。まず、地図情報作成装置1を搭載した車両12を走行させる(ステップS1)。撮像タイミング生成部6は、車両12が予め定められた景観情報作成地点に到達したことを検出して、景観撮像部5の複数のカメラに撮像を開始させるための撮像開始信号を生成する(ステップS2)。景観撮像部5は、撮像開始信号を受信して、走行方向の景観を撮像する(ステップS3)。更に、位置検出部4は、撮像開始信号を受信して、現在の車両12の緯度、経度から成る位置及び方位角を検出する(ステップS4)。地図情報作成部7は、撮像された景観の景観画像と、景観を撮像した位置及び方位角とを関連付けて景観情報を生成する(ステップS5)。各カメラにより撮像された景観画像には、その景観画像を撮像したカメラの位置情報が関連付けられている。また、景観画像から特徴点や特徴線分を抽出した特徴部を景観情報とすることができる。地図情報作成部7は、生成した景観情報を記憶媒体10に記憶して(ステップS6)、地図情報を作成する。制御部3は、地図情報の作成を中止するかどうかの判断画面を表示部に表示し(ステップS7)、中止しない場合は(ステップS7のNo)ステップS1に戻り、中止する場合は(ステップS7のYes)、処理を中止する。
(Map information creation method)
FIG. 4 is a basic flowchart showing the map information creation method according to the embodiment of the present invention. First, the vehicle 12 equipped with the map information creation device 1 is run (step S1). The imaging timing generation unit 6 detects that the vehicle 12 has reached a predetermined landscape information creation point, and generates an imaging start signal for causing a plurality of cameras of the landscape imaging unit 5 to start imaging (step) S2). The landscape imaging unit 5 receives the imaging start signal and images the landscape in the traveling direction (step S3). Further, the position detection unit 4 receives the imaging start signal, and detects the position and azimuth including the current latitude and longitude of the vehicle 12 (step S4). The map information creation unit 7 generates landscape information by associating the landscape image of the captured landscape with the position and azimuth angle at which the landscape is captured (step S5). The landscape image captured by each camera is associated with position information of the camera that captured the landscape image. Moreover, the feature part which extracted the feature point and the feature line segment from the landscape image can be used as landscape information. The map information creation unit 7 stores the generated landscape information in the storage medium 10 (step S6) and creates map information. The control unit 3 displays a determination screen as to whether or not to stop the creation of map information on the display unit (step S7). If not canceled (No in step S7), the control unit 3 returns to step S1, and if canceled (step S7). Yes), the process is stopped.

図5を用いて、撮像タイミング生成処理を説明する。位置検出部4は、車両12の現在の緯度、経度及び方位角の位置情報を生成する(ステップS10)。撮像タイミング生成部6は位置情報を取得し、予め定めておいた景観情報作成地点に移動体が到達したかどうかを判定する(ステップS11)。景観情報作成地点に移動体が到達したかどうかは、景観情報作成地点の位置情報と現在走行中の車両の位置情報とを比較して、景観情報作成地点から特定の範囲を有する近傍領域に車両12が入ったことを検出して、撮像開始信号を生成すればよい。撮像タイミング生成部6は、車両12が景観情報作成地点に到達したと判定したときは(ステップS11のYes)、撮像開始信号を生成して(ステップS12)、図4に示すステップS3に進む。撮像タイミング生成部6は、車両12が景観情報作成地点に到達していないと判断したときは(ステップS11のNo)、位置検出ステップS10にもどる。   The imaging timing generation process will be described with reference to FIG. The position detection unit 4 generates position information on the current latitude, longitude, and azimuth of the vehicle 12 (step S10). The imaging timing generation unit 6 acquires position information and determines whether or not the moving body has reached a predetermined landscape information creation point (step S11). Whether or not the mobile object has reached the landscape information creation point is compared with the position information of the landscape information creation point and the position information of the vehicle currently running, and the vehicle is moved from the landscape information creation point to a nearby region having a specific range. 12 may be detected and an imaging start signal may be generated. When it is determined that the vehicle 12 has reached the landscape information creation point (Yes in step S11), the imaging timing generation unit 6 generates an imaging start signal (step S12) and proceeds to step S3 illustrated in FIG. When it is determined that the vehicle 12 has not reached the landscape information creation point (No in step S11), the imaging timing generation unit 6 returns to the position detection step S10.

図6を用いて、景観情報の生成処理を説明する。景観撮像部5は、撮像開始信号を受けて景観画像を生成する。地図情報作成部7は、この景観画像から線分や特徴点からなる特徴部を抽出する(ステップS13)。地図情報作成部7は、位置検出部4により検出された位置情報を当該特徴部に関連付けた景観情報を作成する(ステップS14)。このように、特徴部を景観情報とすることにより、地図情報の情報量を大幅に低減させることができる。   The landscape information generation process will be described with reference to FIG. The landscape imaging unit 5 receives the imaging start signal and generates a landscape image. The map information creation unit 7 extracts a feature portion including a line segment and a feature point from the landscape image (step S13). The map information creation unit 7 creates landscape information in which the position information detected by the position detection unit 4 is associated with the feature part (step S14). Thus, the amount of map information can be greatly reduced by using the feature portion as landscape information.

図7は、このように生成された地図情報の情報内容の一例を表す。道路情報は、×により示されるノード、このノード間を結ぶリンクにより表され、各ノードには道路の属性が記憶されている。ノードN1は、その中心点の経度X、緯度Yと、その道路の属性として交差点、分岐数、車線数、車線幅等に加えて、景観情報が記憶される。具体的には、第1景観画像と、これに関連付けられた位置情報として景観の撮像方向を表す方位角θ1、撮像した地点の経度X1、緯度Y1、第2景観画像と、これに関連付けられた方位角θ2、経度X2、緯度Y2、第3景観画像と、これに関連付けられた方位角θ3、経度X3、緯度Y3、第4景観画像と、これに関連付けられた方位角θ4、経度X4、緯度Y4が記憶されている。   FIG. 7 shows an example of the information content of the map information generated in this way. The road information is represented by nodes indicated by x and links connecting the nodes, and road attributes are stored in each node. The node N1 stores the landscape information in addition to the longitude X and latitude Y of the center point and the intersection, the number of branches, the number of lanes, the lane width, and the like as attributes of the road. Specifically, the first landscape image, the azimuth angle θ1 representing the image capturing direction of the landscape as position information associated therewith, the longitude X1, the latitude Y1, the second landscape image of the imaged point, and the second landscape image associated therewith Azimuth angle θ2, longitude X2, latitude Y2, third landscape image, azimuth angle θ3, longitude X3, latitude Y3, fourth landscape image associated therewith, and azimuth angle θ4, longitude X4, latitude associated therewith Y4 is stored.

本実施形態では、交差点ごとに景観情報が記憶される。従って、図7ではノードN1の他にノードN6にも景観情報が記憶されている。また、景観情報として、交差点ごとではなく、ノードごとに、或いは、偶数ノードや奇数ノードごとに記憶しておいてもよい。また、景観情報として、景観画像のほかに、景観画像から抽出された特徴部のデータを記憶しておくことができる。   In this embodiment, landscape information is stored for each intersection. Therefore, in FIG. 7, landscape information is stored in the node N6 in addition to the node N1. Moreover, you may memorize | store as landscape information not for every intersection but for every node, or for every even-numbered node or every odd-numbered node. Moreover, the data of the characteristic part extracted from the landscape image other than the landscape image can be stored as the landscape information.

(第1の移動体位置検出装置)
次に、上記の地図情報作成装置1により作成した地図情報を利用して、移動体の位置を測定する移動体位置測定装置20について、説明する。
(First moving body position detection device)
Next, the moving body position measuring apparatus 20 that measures the position of the moving body using the map information created by the map information creating apparatus 1 will be described.

図8は、本発明の実施形態に係る移動体位置測定装置20の構成を表す機能ブロック図である。移動体位置測定装置20は、装置全体の制御を行う制御部21と、移動体の位置及び方位角を検出する位置情報検出部23と、位置情報検出部23により検出された位置及び方位角に基づいて位置情報を処理し、道路地図画像の表示画像データを生成する位置情報処理部22と、移動体の移動方向を撮像する撮像部24と、撮像された実画像の画像データを記憶する実画像記憶部25と、地図情報及び景観情報を記憶する地図情報記憶部27と、道路地図画像及び移動体を表示する表示部26から構成されている。   FIG. 8 is a functional block diagram showing the configuration of the moving object position measuring apparatus 20 according to the embodiment of the present invention. The moving body position measuring apparatus 20 includes a control unit 21 that controls the entire apparatus, a position information detection unit 23 that detects the position and azimuth angle of the moving body, and a position and azimuth angle detected by the position information detection unit 23. A position information processing unit 22 that processes position information on the basis of the information and generates display image data of a road map image; an imaging unit 24 that captures the moving direction of the moving object; The image storage unit 25 includes a map information storage unit 27 that stores map information and landscape information, and a display unit 26 that displays a road map image and a moving object.

以下、各構成要素について、説明する。制御部21は、CPU31、ROM32及びRAM33から構成されている。ROM32は、移動体位置測定装置20の基本動作を制御するメインプログラムや、位置情報を処理するための各種アプリケーションプログラムを記憶している。CPU31は、ROM32からRAM33に各プログラムを読み出して、RAM33をその作業領域として演算を実行し、移動体位置測定装置20の動作を制御する。CPU31は、位置情報処理部22の各構成部に対応するアプリケーションプログラムを実行することにより、各構成部を実現する。つまり、位置情報処理部22の各構成部はソフトウエアから構成されている。   Hereinafter, each component will be described. The control unit 21 includes a CPU 31, a ROM 32 and a RAM 33. The ROM 32 stores a main program for controlling the basic operation of the moving body position measuring device 20 and various application programs for processing position information. The CPU 31 reads out each program from the ROM 32 to the RAM 33, executes a calculation using the RAM 33 as its work area, and controls the operation of the moving body position measuring device 20. The CPU 31 realizes each component by executing an application program corresponding to each component of the position information processing unit 22. That is, each component of the position information processing unit 22 is configured by software.

位置情報検出部23は、GPSユニット35、ジャイロセンサ36及び走行センサ37から構成されている。GPSユニット35は、複数のGPS衛星から送られてくる搬送波を受信して、搬送波間の到達時間差等から現在緯度及び経度からなる現在位置を検出する。ジャイロセンサ36は、移動体の角速度変化から移動体の方位角を検出する。走行センサ37は移動体の走行距離や走行速度を検出する。GPS衛星から送られてくる搬送波は1秒に1回なので、ジャイロセンサ36や走行センサ37により移動体の位置を補完する。また、トンネルや都市部のビルによりGPS衛生からの搬送波が受信し難い場合でも、移動体の位置を推定することができる。なお、ジャイロセンサ36とともに磁気センサを設置して、地磁気から移動体の方位角を特定することができる。また、基地局から送信される電波を受信して、GPSユニット35により検出された移動体の位置を補正することができる。位置情報検出部23により検出された位置及び方位角の位置情報が位置情報処理部22に送信される。   The position information detection unit 23 includes a GPS unit 35, a gyro sensor 36, and a travel sensor 37. The GPS unit 35 receives carrier waves sent from a plurality of GPS satellites, and detects the current position including the current latitude and longitude from the arrival time difference between the carrier waves. The gyro sensor 36 detects the azimuth angle of the moving body from the change in the angular velocity of the moving body. The travel sensor 37 detects the travel distance and travel speed of the moving body. Since the carrier wave sent from the GPS satellite is once per second, the position of the moving body is complemented by the gyro sensor 36 and the traveling sensor 37. Even when it is difficult to receive a carrier wave from GPS hygiene due to a tunnel or a building in an urban area, the position of the moving body can be estimated. In addition, a magnetic sensor can be installed together with the gyro sensor 36, and the azimuth angle of a moving body can be specified from geomagnetism. In addition, the position of the moving body detected by the GPS unit 35 can be corrected by receiving radio waves transmitted from the base station. The position information detected by the position information detection unit 23 and the position information of the azimuth are transmitted to the position information processing unit 22.

撮像部24は、移動体の移動方向の景観や路面を撮像する。撮像部24は、CCD撮像素子やCMOS撮像素子により構成することができる。実画像記憶部25は、撮像部24により撮像された実画像の画像データを一時的に記憶する。表示部26は、位置情報処理部22により生成された地図画像や景観画像を表示する。表示部26は液晶表示装置やELディスプレイにより構成することができる。   The imaging unit 24 images a landscape and a road surface in the moving direction of the moving body. The imaging unit 24 can be configured by a CCD imaging device or a CMOS imaging device. The real image storage unit 25 temporarily stores image data of a real image captured by the imaging unit 24. The display unit 26 displays the map image and the landscape image generated by the position information processing unit 22. The display unit 26 can be configured by a liquid crystal display device or an EL display.

地図情報記憶部27は、景観情報を含む道路地図情報を記憶している。景観情報とは、道路の指定された地点において複数の離間する位置から走路方向の景観を撮像した景観画像に基づいて、その位置情報に関連付けられて形成されている。道路地図情報は、CD−ROMやDVD等の大容量記憶装置に記憶されている。道路地図情報には、道路情報として国道、県道、一般道などの区別、車線数や車線幅の情報等の道路の属性も記憶されている。   The map information storage unit 27 stores road map information including landscape information. The landscape information is formed in association with the position information based on a landscape image obtained by capturing a landscape in the runway direction from a plurality of spaced positions at a designated point on the road. The road map information is stored in a mass storage device such as a CD-ROM or DVD. In the road map information, road attributes such as distinction between national roads, prefectural roads, and general roads, and information on the number of lanes and lane width are stored as road information.

位置情報処理部22は、位置情報検出部23により検出された位置情報と、撮像部24により撮像された実画像と、地図情報記憶部27に記憶された景観情報に基づいて、移動体の位置を高精度で測定する。位置情報処理部22は、少なくとも、撮像部24により撮像された実画像から特徴部を抽出する実画像特徴抽出部41と、位置情報検出部23により検出された位置情報に基づいて、地図情報記憶部27から景観情報を取得してこの景観情報に含まれる特徴部を特定する景観特徴特定部43と、実画像の特徴部と景観情報に含まれる特徴部から移動体の位置を推定する移動体位置推定部45と、上記推定された移動体の位置に基づいて、道路地図画像を生成する画像処理部46と、を備えている。   The position information processing unit 22 is based on the position information detected by the position information detection unit 23, the actual image captured by the imaging unit 24, and the landscape information stored in the map information storage unit 27. Is measured with high accuracy. The position information processing unit 22 stores map information based on at least the actual image feature extraction unit 41 that extracts a feature from the actual image captured by the imaging unit 24 and the position information detected by the position information detection unit 23. A landscape feature specifying unit 43 that acquires landscape information from the unit 27 and specifies a feature included in the landscape information, and a mobile that estimates the position of the mobile from the feature of the real image and the feature included in the landscape information A position estimation unit 45 and an image processing unit 46 that generates a road map image based on the estimated position of the moving body are provided.

位置情報処理部22は、更に、実画像から抽出された特徴部と景観情報から特定された特徴部とのマッチング処理する特徴マッチング処理部44と、撮像部24により撮像された実画像から移動体の白線に対するオフセット距離を検出する白線認識部47と、地図情報記憶部から移動体が位置する道路の道路情報を取得し、車線数や車線幅を特定する地図情報取得部42と、位置情報検出部23により検出された位置情報に基づいて、移動体の位置を地図上の道路にマッチングさせるマップマッチング処理部48を備えることができる。   The position information processing unit 22 further includes a feature matching processing unit 44 that performs matching processing between the feature portion extracted from the real image and the feature portion specified from the landscape information, and a moving object from the real image captured by the imaging unit 24. A white line recognition unit 47 that detects an offset distance from the white line, a road information of a road on which the moving body is located from a map information storage unit, a map information acquisition unit 42 that specifies the number of lanes and a lane width, and position information detection Based on the position information detected by the unit 23, a map matching processing unit 48 for matching the position of the moving body to the road on the map can be provided.

以下、位置情報処理部22の各構成部の機能について具体的に説明する。実画像特徴抽出部41は、撮像部24により撮像された実画像データから、実画像の特徴部を抽出する。実画像の特徴部とは、例えば、実画像に含まれる線分の長さやその座標、また、線分と線分が交差する交点の座標を構成要素とする。撮像した実画像に建物や樹木が含まれている場合に、実画像を構成する画素の明度差や彩度差から、ビルの輪郭や窓枠により形成される線分やこの線分の交点を抽出することができる。線分の長さや交点と交点の間隔は、実画像を撮像した撮像位置によって変化する。つまり、この実画像から抽出した特徴部には道路上の撮像位置の位置情報が含まれる。なお、特徴部として実画像に含まれる線分や交点に限定されず、例えば、実画像に含まれる特長的な円弧の長さや円弧の半径、あるいは円弧の中心座標を特徴部とすることができる。実画像には自然の景観が含まれるので、直線よりも円弧を抽出したほうがより的確に特徴部を表現できる場合があるからである。   Hereinafter, the function of each component of the position information processing unit 22 will be specifically described. The real image feature extraction unit 41 extracts the feature portion of the real image from the real image data captured by the imaging unit 24. The characteristic part of the real image includes, for example, the length of the line segment included in the real image, its coordinates, and the coordinates of the intersection where the line segment intersects the line segment. When buildings and trees are included in the captured real image, the line segment formed by the outline of the building and the window frame and the intersection of these line segments are calculated from the brightness difference and saturation difference of the pixels that make up the actual image. Can be extracted. The length of the line segment and the interval between the intersections vary depending on the imaging position where the actual image is captured. That is, the feature portion extracted from the actual image includes position information of the imaging position on the road. Note that the feature part is not limited to the line segment or the intersection point included in the actual image. For example, a characteristic arc length, arc radius, or arc center coordinates included in the actual image can be used as the feature part. . This is because a natural scene is included in a real image, and thus it may be possible to more accurately express a feature part by extracting an arc than a straight line.

地図情報取得部42は、位置情報検出部23により検出された位置情報に基づいて、移動体の現在位置の周辺部の地図情報や道路の属性情報、景観情報を取得する。これらの情報は移動体の方位角や速度に応じて次々に繰り返して取得される。   Based on the position information detected by the position information detection unit 23, the map information acquisition unit 42 acquires map information, road attribute information, and landscape information around the current position of the mobile object. These pieces of information are repeatedly acquired one after another according to the azimuth angle and speed of the moving body.

景観特徴特定部43は、地図情報記憶部27から読み出した景観情報から、景観画像の特徴部を特定する。例えば、景観情報として景観画像が読み出される場合には、この画像に含まれる特徴的な線分の長さやその座標、また、線分と線分が交差する交点の座標を特徴部とする。また、線分や交点に限らず、特徴的な円弧の長さや円弧の半径、あるいは円弧の中心座標を特徴部とすることができる。後に説明するように、景観画像の特徴部と実画像の特徴部との間の特徴マッチング処理を行うので、景観画像から特徴部を抽出する条件等は、実画像から特徴部を抽出する条件と同じに設定しておくことが望ましい。   The landscape feature specifying unit 43 specifies the feature portion of the landscape image from the landscape information read from the map information storage unit 27. For example, when a landscape image is read out as landscape information, the length of a characteristic line segment included in the image and its coordinates, and the coordinates of an intersection where the line segment and the line segment intersect are used as the feature portion. In addition to the line segment and the intersection, a characteristic arc length, arc radius, or arc center coordinates can be used as the feature portion. As will be described later, since the feature matching process between the feature part of the landscape image and the feature part of the real image is performed, the conditions for extracting the feature part from the landscape image are the conditions for extracting the feature part from the real image, It is desirable to set the same.

また、地図情報記憶部27は、道路に沿った特定の地点、例えば交差点を表すノードに付加された景観情報を記憶している。景観情報は、当該ノード近傍の離間した複数の位置から道路の走路方向に沿って撮像した景観画像から構成される。また、景観情報は、予め景観画像から抽出した特徴部のデータから構成してもよい。特徴部のデータ量は景観画像のデータ量よりもはるかに少ないので、特徴部により景観情報を形成したほうが、地図情報記憶部27を低コストで構成することができる。更に、移動体の位置を測定する際に景観画像から特徴部を抽出する特徴抽出処理を省くことができる。そのため、より短時間で移動体位置の推定や、特徴マッチング処理を行うことができ、実画像の撮像から位置測定結果を表示するまでの時間を短縮し、現実に近い走行状態を表示することができる。   The map information storage unit 27 stores landscape information added to a specific point along the road, for example, a node representing an intersection. Landscape information is comprised from the landscape image imaged along the runway direction of the road from the several spaced position of the said node vicinity. Moreover, you may comprise landscape information from the data of the characteristic part previously extracted from the landscape image. Since the data amount of the feature portion is much smaller than the data amount of the landscape image, the map information storage portion 27 can be configured at a lower cost if the landscape information is formed by the feature portion. Furthermore, the feature extraction process which extracts a feature part from a landscape image when measuring the position of a moving body can be omitted. Therefore, it is possible to estimate the position of the moving body and the feature matching process in a shorter time, shorten the time from capturing the actual image to displaying the position measurement result, and display the driving state close to reality. it can.

移動体位置推定部45は、実画像から抽出された実画像特徴部と地図情報記憶部27から取得された景観情報に含まれる景観画像の特徴部とから移動体の位置を推定する。具体的には、図2を用いて説明した式(1)を用いて、実画像の特徴部からその撮像地点を算出することができる。景観画像を撮像したカメラの地点PaとPbを結ぶ線上を移動体が通過するとき、又はこのカメラの地点Pa、Pbの近傍を移動体が通過するときに実画像を撮像する。この実画像から特徴点を抽出し、式(1)を用いて移動体の地点Pxを算出することができる。   The moving object position estimation unit 45 estimates the position of the moving object from the actual image feature part extracted from the actual image and the feature part of the landscape image included in the landscape information acquired from the map information storage unit 27. Specifically, the imaging point can be calculated from the feature portion of the actual image using the equation (1) described with reference to FIG. When the moving body passes on the line connecting the points Pa and Pb of the camera that captured the landscape image, or when the moving body passes near the points Pa and Pb of the camera, a real image is captured. A feature point is extracted from this real image, and the point Px of the moving object can be calculated using Equation (1).

また、特徴マッチング処理部44において、地図情報記憶部27から取得した景観情報の特徴部と、景観情報が生成された地点において撮像した実画像の特徴部との特徴マッチング処理を行う。地点Pa(図2を参照)から撮像した景観画像の特徴部と実画像の特徴部との間の差分値と、地点Pb(図2を参照)から撮像した景観画像の特徴部と実画像の特徴部との間の差分値とを算出する。移動体位置推定部45は、この2つの差分値が最小となる撮像地点Px(図2を参照)を推定することができる。   Further, the feature matching processing unit 44 performs feature matching processing between the feature part of the landscape information acquired from the map information storage unit 27 and the feature part of the actual image captured at the point where the landscape information is generated. The difference value between the feature part of the landscape image captured from the point Pa (see FIG. 2) and the feature part of the actual image, and the feature part of the landscape image captured from the point Pb (see FIG. 2) and the actual image A difference value from the feature part is calculated. The moving body position estimation unit 45 can estimate an imaging point Px (see FIG. 2) at which the two difference values are the smallest.

白線認識部47は、撮像部24により撮像された実画像の路面に描かれた白線を認識する。図9を用いて説明する。図9は実画像のエッジ処理により検出された白線を表している。実画像データの差分処理により白線のエッジを検出する。次にハフ変換及び逆変換を行うことにより、左白線H1のエッジ線分e1、e2と右白線H2のエッジ線分e3、e4を検出する。これにより、撮像部24の視点であるカメラの地点Pxと左白線の中心線C1からの距離であるオフセット距離Dofを求めることができる。移動体位置推定部45は、上記のように実画像の特徴部と景観画像の特徴部から移動体の位置を算出し、この算出した位置をオフセット距離Dofにより補正すれば、より高精度に移動体の位置を推定することができる。なお、車線数や車線幅は、地図情報記憶部27から道路情報として取得することができる。   The white line recognition unit 47 recognizes a white line drawn on the road surface of the actual image captured by the imaging unit 24. This will be described with reference to FIG. FIG. 9 shows a white line detected by edge processing of a real image. The edge of the white line is detected by the difference processing of the real image data. Next, edge lines e1 and e2 of the left white line H1 and edge lines e3 and e4 of the right white line H2 are detected by performing Hough transform and inverse transform. Thereby, the offset distance Dof which is the distance from the camera point Px which is the viewpoint of the imaging unit 24 and the center line C1 of the left white line can be obtained. The moving object position estimating unit 45 calculates the position of the moving object from the feature part of the real image and the feature part of the landscape image as described above, and moves with higher accuracy if the calculated position is corrected by the offset distance Dof. The position of the body can be estimated. The number of lanes and the lane width can be acquired from the map information storage unit 27 as road information.

マップマッチング処理部48は、GPS衛星から得られる緯度及び経度の位置情報を、地図情報記憶部27から取得した道路地図を用いて補正する。GPS衛星から通常の手段で得られる位置情報には約10m以上の誤差が含まれている。従って、そのまま移動体の位置を表示すると、移動体が道路の存在しない場所に表示されることがある。そこで、GPSユニット35により検出された位置情報をジャイロセンサ36や走行センサ37により補完して、この補完された位置情報に基づいて地図上の道路の候補を抽出し、走行中の道路として最も確率の高い道路に移動体を強制的に移動させる補正を行う。これにより、地図上で移動体が道路外を走行するような不自然性をなくすことができる。   The map matching processing unit 48 corrects the latitude and longitude position information obtained from the GPS satellite using the road map acquired from the map information storage unit 27. The positional information obtained from the GPS satellites by ordinary means includes an error of about 10 m or more. Therefore, if the position of the moving object is displayed as it is, the moving object may be displayed at a place where no road exists. Therefore, the position information detected by the GPS unit 35 is complemented by the gyro sensor 36 and the traveling sensor 37, and road candidates on the map are extracted based on the complemented position information, and the most probable road as a traveling road is obtained. Correction for forcibly moving a moving object to a high road. Thereby, it is possible to eliminate the unnaturalness that the moving body travels outside the road on the map.

画像処理部46は、表示部26に表示する画像を生成するための画像処理を行う。移動体の現在の推定位置に基づいて、地図情報記憶部27から地図情報を読み出して、移動体の位置を重畳して表示部26に表示させるための表示画像データを生成する。   The image processing unit 46 performs image processing for generating an image to be displayed on the display unit 26. Based on the current estimated position of the moving body, map information is read from the map information storage unit 27, and display image data for generating a display on the display unit 26 with the position of the moving body superimposed is generated.

(移動体位置測定方法)
図10は、本発明の実施形態に係る移動体位置測定方法を表すフローチャート図である。図11は、オフセット距離の検出方法を表すフローチャート図である。図12は、位置推定後に表示部26に表示した移動体を表す模式図である。
(Moving object position measurement method)
FIG. 10 is a flowchart showing the moving body position measuring method according to the embodiment of the present invention. FIG. 11 is a flowchart illustrating the offset distance detection method. FIG. 12 is a schematic diagram showing a moving object displayed on the display unit 26 after position estimation.

移動体位置測定装置20が移動体28の位置測定を開始すると、撮像部24は移動体28の移動方向の路面及び景観を撮像する。実画像記憶部25は、撮像部24により撮像された実画像の画像データを取得して記憶する。実画像特徴抽出部41は、実画像記憶部25に記憶された実画像の画像データを取得する(ステップS21)。   When the moving body position measurement device 20 starts measuring the position of the moving body 28, the imaging unit 24 images the road surface and the landscape in the moving direction of the moving body 28. The real image storage unit 25 acquires and stores image data of a real image captured by the imaging unit 24. The real image feature extraction unit 41 acquires the image data of the real image stored in the real image storage unit 25 (step S21).

位置情報検出部23は移動体28の位置及び方位角を検出する。GPSユニット35は、GPS衛星から搬送波を受信してその到達時間差等から移動体28の緯度及び経度からなる位置情報を生成する。ジャイロセンサ36は移動体28の角速度の変化を検出して、移動体の方位角情報を生成する(ステップS22)。なお、GPS衛星から方位角を受信し、ジャイロセンサにより補正するようにしてもよい。また、地磁気センサにより方位角を検出してもよい。   The position information detection unit 23 detects the position and azimuth angle of the moving body 28. The GPS unit 35 receives a carrier wave from a GPS satellite and generates position information including the latitude and longitude of the moving body 28 from the arrival time difference and the like. The gyro sensor 36 detects a change in the angular velocity of the moving body 28 and generates azimuth angle information of the moving body (step S22). The azimuth angle may be received from a GPS satellite and corrected by a gyro sensor. Further, the azimuth angle may be detected by a geomagnetic sensor.

地図情報取得部42は、位置情報検出部23により検出された位置情報に基づいて地図情報記憶部27から移動体28の現在位置及び現在方位角に関連付けられた地図情報を取得する。マップマッチング処理部48は、地図情報取得部42により取得された地図情報に基づいてマップマッチング処理を行って、移動体28の位置を地図上の道路の中央部に補正する。画像処理部46は、移動体28の位置を道路の中央部に補正した移動体28を表示した地図情報の表示データを生成して、表示部26に出力する。   The map information acquisition unit 42 acquires map information associated with the current position and the current azimuth of the moving body 28 from the map information storage unit 27 based on the position information detected by the position information detection unit 23. The map matching processing unit 48 performs map matching processing based on the map information acquired by the map information acquisition unit 42, and corrects the position of the moving body 28 to the center of the road on the map. The image processing unit 46 generates display data of map information that displays the moving body 28 in which the position of the moving body 28 is corrected at the center of the road, and outputs the display data to the display unit 26.

移動体位置推定部45は、景観情報が記憶された景観情報記憶地点に移動体が接近しているかどうかを判定する(ステップS23)。移動体位置推定部45が、移動体28が景観情報記憶地点に近接したことを検出したときは(ステップS23のYes)、撮像部24に移動体28の移動方向の景観を撮像するための撮像信号を与えて、実画像を取得する。位置情報検出部23は、撮像信号に同期して移動体28の撮像地点の位置及び方位角からな位置情報を生成する。   The moving body position estimation unit 45 determines whether or not the moving body is approaching the landscape information storage point where the landscape information is stored (step S23). When the mobile body position estimation unit 45 detects that the mobile body 28 has approached the landscape information storage point (Yes in step S23), the imaging unit 24 captures an image of the landscape in the moving direction of the mobile body 28. A signal is given to obtain a real image. The position information detection unit 23 generates position information from the position and azimuth of the imaging point of the moving body 28 in synchronization with the imaging signal.

実画像特徴抽出部41は、撮像した景観の実画像から特徴部を抽出する。景観特徴特定部43は、地図情報記憶部27から取得した景観情報から特徴部を特定する(ステップS24)。特徴部は、実画像の特徴的な線分や、線分と線分が交わる交点とすることができる。景観情報が景観画像を含む場合は、景観特徴特定部43は、取得した景観画像から特徴部を抽出して特定する。特徴マッチング処理部44は、実画像の特徴部と景観情報から特定された特徴部との間の特徴マッチング処理を行う(ステップS25)。移動体位置推定部45は、特徴マッチング処理により得られた処理結果から、実画像を撮像した地点の位置を推定する。更に、白線認識部47が撮像した実画像から白線を認識し、認識した白線と移動体の位置との間のオフセット距離Dofを検出して補正することができる。   The real image feature extraction unit 41 extracts a feature portion from a real image of a captured landscape. The landscape feature specifying unit 43 specifies a feature portion from the landscape information acquired from the map information storage unit 27 (step S24). The characteristic portion can be a characteristic line segment of the real image or an intersection where the line segment and the line segment intersect. When the landscape information includes a landscape image, the landscape feature specifying unit 43 extracts and specifies the feature portion from the acquired landscape image. The feature matching processing unit 44 performs a feature matching process between the feature part of the real image and the feature part specified from the landscape information (step S25). The moving body position estimation unit 45 estimates the position of the spot where the actual image is captured from the processing result obtained by the feature matching process. Furthermore, the white line can be recognized from the actual image captured by the white line recognition unit 47, and the offset distance Dof between the recognized white line and the position of the moving body can be detected and corrected.

移動体位置推定部45が、移動体28が景観情報記憶地点に近接したことを検出しないときは(ステップS23のNo)、直前の景観情報記憶地点で補正された補正量を維持する。更に、位置情報検出部23により移動体28の現在位置及び方位角の変化を検出する。更に、白線認識部47により白線からのオフセット距離Dofを検出し、これらの補正を行った現在位置を推定する(ステップS27)。   When the moving body position estimation unit 45 does not detect that the moving body 28 has approached the landscape information storage point (No in step S23), the correction amount corrected at the immediately preceding landscape information storage point is maintained. Further, the position information detector 23 detects changes in the current position and azimuth of the moving body 28. Further, the white line recognition unit 47 detects the offset distance Dof from the white line, and estimates the current position where these corrections are made (step S27).

図11を用いてステップS22及びステップS27のオフセット距離の検出について説明する。白線認識部47は、撮像部24により撮像した実画像の画像データから、車線内における移動体のオフセット距離を検出する。オフセット距離とは、路面上に描かれた左側の白線中央部から移動体位置までの距離である。このオフセット距離を検出することにより、移動体の位置の推定精度を更に向上させることができる。   The detection of the offset distance in steps S22 and S27 will be described with reference to FIG. The white line recognition unit 47 detects the offset distance of the moving body in the lane from the image data of the actual image captured by the imaging unit 24. The offset distance is a distance from the center of the left white line drawn on the road surface to the moving body position. By detecting the offset distance, it is possible to further improve the estimation accuracy of the position of the moving body.

白線認識部47は、実画像の画像データから路面上に描かれた白線のエッジを検出する(ステップS30)。エッジの検出は、実画像を構成する画素の輝度差分処理により行う。次に、検出された白線のエッジから実空間上のエッジ画像を生成する(ステップS31)。次に、ハフ空間におけるハフ変換及び逆変換を行ってエッジ線分を推定する(ステップS32)。次に、推定された4本のエッジ線分e1、e2、e3、e4(図9を参照)から、夫々のエッジ線分の中央線分C1及びC2を求める(ステップS33)。次に、移動体28の現在地点Pxと中央線分C1との間のオフセット距離Dofを求める(ステップS34)。移動体位置推定部45は、上記オフセット距離Dofを用いて補正した移動体位置を設定する。   The white line recognition unit 47 detects the edge of the white line drawn on the road surface from the image data of the actual image (step S30). Edge detection is performed by luminance difference processing of pixels constituting an actual image. Next, an edge image in real space is generated from the detected edge of the white line (step S31). Next, the edge line segment is estimated by performing the Hough transform and the inverse transform in the Hough space (step S32). Next, center line segments C1 and C2 of the respective edge line segments are obtained from the estimated four edge line segments e1, e2, e3, e4 (see FIG. 9) (step S33). Next, an offset distance Dof between the current point Px of the moving body 28 and the center line segment C1 is obtained (step S34). The mobile body position estimation unit 45 sets the mobile body position corrected using the offset distance Dof.

図12は、推定された移動体位置に基づいて、地図画像を表示した例を示している(ステップS26)。図12に示すように、現在位置している車線上に移動体28を表示する。白線認識部47を用いてオフセット距離Dofを推定しているので、移動体28の車線内における位置も高精度に表示することができる。その結果、違和感のない自然な画像を表示することができ、走行の安全性を高めることができる。   FIG. 12 shows an example in which a map image is displayed based on the estimated moving body position (step S26). As shown in FIG. 12, the moving body 28 is displayed on the lane where the vehicle is currently located. Since the offset distance Dof is estimated using the white line recognition unit 47, the position of the moving body 28 in the lane can also be displayed with high accuracy. As a result, a natural image without a sense of incongruity can be displayed, and driving safety can be improved.

なお、上記実施形態では特徴マッチング処理を行って、移動体28の現在位置を推定したが、これに代えて、景観画像から抽出した特徴部の座標と、実画像から抽出した特徴部の座標から、例えば、式(1)を用いて直接計算を行って実画像の撮像地点を算出してもよい。   In the above embodiment, the feature matching process is performed to estimate the current position of the moving body 28. Instead, from the coordinates of the feature portion extracted from the landscape image and the coordinates of the feature portion extracted from the actual image. For example, the imaging point of the actual image may be calculated by performing direct calculation using Expression (1).

(第2の移動体位置測定装置)
図13は、本発明の他の実施形態に係る移動体位置測定装置20及び測定方法を説明するための地図の模式図である。本実施形態においては、地図情報記憶部27は、道路の交差点ごとに景観情報または景観情報から抽出された特徴部を記憶する。
(Second moving body position measuring device)
FIG. 13 is a schematic diagram of a map for explaining a moving body position measuring apparatus 20 and a measuring method according to another embodiment of the present invention. In this embodiment, the map information storage part 27 memorize | stores the characteristic part extracted from landscape information or landscape information for every intersection of a road.

図13には、交差点K1とその先の交差点K2が示されている。地図情報記憶部27は各交差点に関する景観情報としての景観画像を記憶している。景観画像は、交差点K1に関しては、4つの位置Q11、Q12、Q13、Q14から±X1方向と±Y1方向を望む景観である。交差点K2に関しても同様に、4つの位置Q21、Q22、Q23、Q24から±X2方向と±Y2方向を望む景観である。なお、座標(X1、Y1)及び座標(X2、Y2)は、移動体28が左側から右側に走行するときの移動方向をX1、X2としている。   FIG. 13 shows an intersection K1 and an intersection K2 ahead. The map information storage unit 27 stores a landscape image as landscape information regarding each intersection. The landscape image is a landscape that desires the ± X1 direction and the ± Y1 direction from the four positions Q11, Q12, Q13, and Q14 with respect to the intersection K1. Similarly, regarding the intersection K2, it is a landscape in which the ± X2 direction and the ± Y2 direction are desired from the four positions Q21, Q22, Q23, and Q24. In addition, the coordinate (X1, Y1) and the coordinate (X2, Y2) are set to X1, X2 as the moving direction when the moving body 28 travels from the left side to the right side.

具体的には、交差点K1の位置Q11から+X1方向と−Y1方向を望む景観を撮像した景観画像Wx11とWy11が作成されている。位置Q12から+X1方向と+Y1方向を望む景観を撮像した景観画像Wx12とWy12が作成されている。同様に、位置Q13から−X1方向と−Y1方向を望む景観から景観画像Wx13とWy13が、位置Q14から−X1方向と+Y1方向を望む景観から景観画像Wx14とWy14が作成されている。これら作成された8枚の景観画像Wx11、Wy11、Wx12、Wy12、Wx13、Wy13、Wx14、Wy14を交差点K1に関連付けて地図情報記憶部27に記憶されている。交差点K2についても同様に、位置Q21から+X2方向と−Y2方向を望む景観と、位置Q22から+X2方向と+Y2方向を望む景観と、位置Q23から−X2方向と−Y2方向を望む景観と、位置Q24の−X2方向と+Y2方向を望む景観とが撮像された景観画像が交差点K2に関連付けて地図情報記憶部27に記憶されている。その他の交差点についても同様である。   Specifically, landscape images Wx11 and Wy11 obtained by capturing a landscape in which the + X1 direction and the -Y1 direction are desired from the position Q11 of the intersection K1 are created. Landscape images Wx12 and Wy12 obtained by capturing a landscape that desires the + X1 direction and the + Y1 direction from the position Q12 are created. Similarly, landscape images Wx13 and Wy13 are generated from a landscape that desires the -X1 direction and -Y1 direction from the position Q13, and landscape images Wx14 and Wy14 are generated from a landscape that desires the -X1 direction and the + Y1 direction from the position Q14. These eight created landscape images Wx11, Wy11, Wx12, Wy12, Wx13, Wy13, Wx14, and Wy14 are stored in the map information storage unit 27 in association with the intersection K1. Similarly, at the intersection K2, a landscape that desires the + X2 direction and the -Y2 direction from the position Q21, a landscape that desires the + X2 direction and the + Y2 direction from the position Q22, a landscape that desires the -X2 direction and the -Y2 direction from the position Q23, and a position A landscape image in which a landscape in which the −X2 direction and the + Y2 direction of Q24 are desired is captured and stored in the map information storage unit 27 in association with the intersection K2. The same applies to other intersections.

移動体28の地図情報取得部42は、位置情報検出部23により検出した位置情報に基づいて、地図情報記憶部27から、移動体28が走行する近傍の地図情報を取得する。移動体28の制御部21が、位置情報検出部23により検出された位置及び方位角に基づいて移動体28が交差点K2に近づいたことを検出すると、撮像部24は移動体28の移動方向を撮像して実画像を実画像記憶部25に記憶する。実画像特徴抽出部41は、撮像した実画像から特徴部を抽出する。マップマッチング処理により移動体28の位置を地図の道路中央部に補正する。更に、白線認識部47が路面に描かれた白線を認識し、オフセット距離Dofを推定する。移動体位置推定部45は、これら補正された位置情報から移動体の現在位置を推定する。図13において、移動体28は片側2車線の道路を走行している。従って、移動体存在可能位置を設定して特徴マッチング処理によって移動体が走行する車線を推定する場合には、移動体存在可能位置は、オフセット距離Dofにより補正された2つの車線の2つの位置となる。   The map information acquisition unit 42 of the moving body 28 acquires, from the map information storage unit 27, map information in the vicinity where the moving body 28 travels based on the position information detected by the position information detection unit 23. When the control unit 21 of the moving body 28 detects that the moving body 28 has approached the intersection K2 based on the position and azimuth angle detected by the position information detection unit 23, the imaging unit 24 changes the moving direction of the moving body 28. The real image is captured and stored in the real image storage unit 25. The real image feature extraction unit 41 extracts a feature portion from the captured real image. The position of the moving body 28 is corrected to the center of the road on the map by map matching processing. Further, the white line recognition unit 47 recognizes the white line drawn on the road surface and estimates the offset distance Dof. The moving body position estimation unit 45 estimates the current position of the moving body from the corrected position information. In FIG. 13, the moving body 28 is traveling on a two-lane road on one side. Therefore, when the position where the moving object can be present is set and the lane in which the moving object travels is estimated by the feature matching process, the position where the moving object can exist is the two positions of the two lanes corrected by the offset distance Dof. Become.

次に、景観特徴特定部43は、位置情報検出部23により検出された移動体28の位置と方位角から、景観画像Wx11とWx12を選択的に取得する。景観特徴特定部43は、景観画像Wx11と景観画像Wx12の画像データから夫々の特徴部を抽出する。特徴部は既に説明したように、例えば景観画像に含まれる線分や交点から構成することができる。移動体位置推定部45は、実画像の特徴部と景観画像Wx11及びWx12とその位置Q11及びQ12から、実画像の現在位置を算出する。景観画像Wx11とWx12に代えて、これらの景観画像から抽出された特徴部W’x11、W’x12が記憶されている場合には、景観特徴特定部43による抽出ステップを省略することができる。また、算出した現在位置を、白線認識部47により白線からのオフセット距離により補正すれば、より高精度で現在位置を推定することができる。   Next, the landscape feature specifying unit 43 selectively acquires the landscape images Wx11 and Wx12 from the position and azimuth angle of the moving body 28 detected by the position information detection unit 23. The landscape feature specifying unit 43 extracts each feature from the image data of the landscape image Wx11 and the landscape image Wx12. As already described, the feature part can be configured from, for example, a line segment or an intersection included in the landscape image. The moving body position estimation unit 45 calculates the current position of the real image from the feature part of the real image, the landscape images Wx11 and Wx12, and the positions Q11 and Q12. When the feature portions W′x11 and W′x12 extracted from these landscape images are stored instead of the landscape images Wx11 and Wx12, the extraction step by the landscape feature specifying unit 43 can be omitted. Further, if the calculated current position is corrected by the offset distance from the white line by the white line recognition unit 47, the current position can be estimated with higher accuracy.

また、特徴マッチング処理部44により現在位置を推定する場合には、次の処理を行う。特徴マッチング処理部44は、移動体位置推定部45により推定された移動体28の移動体存在可能位置の夫々について、実画像の特徴部と景観画像から抽出された特徴部とを特徴マッチング処理を行い、特徴マッチング処理結果を出力する。移動体位置推定部45は特徴マッチング処理結果から、景観画像の特徴部が実画像の特徴部と最も近似した移動体存在可能位置を現在の移動体の位置として推定する。画像処理部46は、この推定結果に基づいて、地図画像に移動体位置を表示して表示部26に地図情報を表示する。   When the current position is estimated by the feature matching processing unit 44, the following processing is performed. The feature matching processing unit 44 performs a feature matching process on the feature part of the actual image and the feature part extracted from the landscape image for each of the possible positions of the moving object 28 estimated by the moving object position estimating unit 45. And output the result of the feature matching process. The moving body position estimation unit 45 estimates, from the feature matching processing result, the position where the feature of the landscape image is closest to the feature of the real image as the current position of the moving body. Based on this estimation result, the image processing unit 46 displays the moving body position on the map image and displays the map information on the display unit 26.

このように、地図情報記憶部27に交差点から見た景観を景観情報として記憶するので、膨大なデータ量を記憶しないで、移動体28の位置を高精度で推定することができる。移動体28のナビゲーションシステムにおいて運転者が最も必要とする情報の一つが交差点における車線情報や自移動体の位置情報である。本実施形態によれば、簡素な構成でこれらの情報を提示することができる。また、景観情報として景観の特徴部からなる特徴データを記憶するようにすれば、景観画像から特徴部を抽出する処理を行う必要がないので、移動体28の位置を短時間で推定することができる。   Thus, since the landscape viewed from the intersection is stored in the map information storage unit 27 as landscape information, the position of the moving body 28 can be estimated with high accuracy without storing a huge amount of data. In the navigation system of the moving body 28, one of the most necessary information for the driver is the lane information at the intersection and the position information of the own moving body. According to the present embodiment, these pieces of information can be presented with a simple configuration. In addition, if feature data including a landscape feature is stored as landscape information, it is not necessary to perform a process of extracting the feature from the landscape image, so that the position of the moving body 28 can be estimated in a short time. it can.

また、地図情報記憶部27に記憶する景観情報として、道路に沿って所定の間隔で設定した地点の景観情報を記憶するようにしてもよい。都市では交差点が多数存在するが、都市以外の地域では交差点の数が少ない。そこで、道路の所定間隔ごとに地図情報として景観情報を記憶しておけば、交差点の少ない地域でも道路上の移動体位置を高精度で推定することができる。   Moreover, you may make it memorize | store the landscape information of the spot set at predetermined intervals along the road as the landscape information memorize | stored in the map information storage part 27. FIG. There are many intersections in cities, but there are few intersections in areas other than cities. Therefore, if the landscape information is stored as map information for each predetermined interval of the road, the position of the moving body on the road can be estimated with high accuracy even in an area with few intersections.

また、上記実施形態において、景観を撮像した地点を交差点K1の角部の4つの位置Q11、Q12、Q13、Q14としたが、これに限定されない。4つの位置Q11、Q12、Q13、Q14は、道路の車線内であってもよいし、車線に跨った地点であってもよい。また、道路の中央に中央分離帯が立設し、例えば位置Q12からX1方向を撮像した場合に、中央分離帯により移動体28が走行する走行側の景観が隠される場合には、走行車線に2つの地点を設定して、走行側の景観を2つの地点から撮像すればよい。この場合は、撮像する地点は8箇所となる。要は、実画像の特徴部と景観画像から抽出した特徴部の特徴マッチング処理において、実画像を撮像した地点を推定できる程度に離間していればよい。また、交差点において撮像する景観画像は8枚に限定されず、三叉路の場合は6枚の景観画像で足りるし、五叉路の場合は10枚の景観画像が必要となる。   Moreover, in the said embodiment, although the point which imaged the scenery was made into four positions Q11, Q12, Q13, and Q14 of the corner | angular part of the intersection K1, it is not limited to this. The four positions Q11, Q12, Q13, and Q14 may be in the lane of the road or may be points that straddle the lane. In addition, when a median strip is erected at the center of the road and, for example, the X1 direction is imaged from the position Q12, if the landscape on the traveling side where the moving body 28 travels is hidden by the median strip, What is necessary is just to set two points and to image the driving | running | working side scenery from two points. In this case, there are 8 points to be imaged. In short, in the feature matching processing between the feature portion of the real image and the feature portion extracted from the landscape image, it is only necessary that the location where the real image is captured can be estimated. Further, the number of landscape images captured at the intersection is not limited to eight. Six landscape images are sufficient for a three-way intersection, and ten landscape images are required for a five-way intersection.

本発明の実施形態に係る地図情報作成装置の説明図である。It is explanatory drawing of the map information creation apparatus which concerns on embodiment of this invention. 本発明の地図情報作成装置により作成された地図情報の利用原理を説明するための図である。It is a figure for demonstrating the utilization principle of the map information produced by the map information production apparatus of this invention. 本発明の実施形態に係る地図情報作成装置を表す機能ブロック図である。It is a functional block diagram showing the map information creation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る地図情報作成方法を表すフローチャート図である。It is a flowchart figure showing the map information creation method which concerns on embodiment of this invention. 本発明の実施形態に係る撮像タイミング生成処理を表すフローチャート図である。It is a flowchart figure showing the imaging timing production | generation process which concerns on embodiment of this invention. 本発明の実施形態に係る景観情報の生成処理を表すフローチャート図である。It is a flowchart figure showing the production | generation process of the landscape information which concerns on embodiment of this invention. 本発明の実施形態に係る地図情報作成装置により作成された地図情報の一例を表す。An example of the map information produced by the map information production apparatus which concerns on embodiment of this invention is represented. 本発明の実施形態に係る移動体位置測定装置を表す機能ブロック図である。It is a functional block diagram showing the mobile body position measuring apparatus which concerns on embodiment of this invention. 実画像のエッジ処理により検出された白線を表す。A white line detected by edge processing of a real image is represented. 本発明の実施形態に係る移動体位置測定方法を表すフローチャート図である。It is a flowchart figure showing the mobile body position measuring method which concerns on embodiment of this invention. 本発明に実施形態に係るオフセット距離検出方法を表すフローチャート図である。It is a flowchart figure showing the offset distance detection method which concerns on embodiment. 本発明の実施形態に係る移動体位置測定方法により位置推定後の表示部26の表示例である。It is an example of a display of the display part 26 after position estimation with the moving body position measuring method which concerns on embodiment of this invention. 本発明の実施形態に係る移動体位置測定装置及び測定方法を説明するための地図の模式図である。It is a schematic diagram of the map for demonstrating the mobile body position measuring apparatus and measuring method which concern on embodiment of this invention.

符号の説明Explanation of symbols

1 地図情報作成装置
2 地図情報処理部
3 制御部
4 位置検出部
5 景観撮像部
6 撮像タイミング生成部
7 地図情報作成部
8 地図情報取得部
9 記憶部
10 記憶媒体
11 地図情報記憶部
12 車両
20 移動体位置測定装置
21 制御部
22 位置情報処理部
23 位置情報検出部
24 撮像部
25 実画像記憶部
26 表示部
27 地図情報記憶部
28 移動体
DESCRIPTION OF SYMBOLS 1 Map information production apparatus 2 Map information processing part 3 Control part 4 Position detection part 5 Landscape imaging part 6 Imaging timing generation part 7 Map information creation part 8 Map information acquisition part 9 Storage part 10 Storage medium 11 Map information storage part 12 Vehicle 20 Moving body position measuring device 21 Control section 22 Position information processing section 23 Position information detecting section 24 Imaging section 25 Real image storage section 26 Display section 27 Map information storage section 28 Moving body

Claims (13)

移動体の位置を検出して位置情報を生成する位置検出部と、
前記移動体の移動方向を望む景観を異なる位置から撮像した互いに異なる複数の景観画像を生成する景観撮像部と、
前記景観撮像部の撮像を開始する撮像開始信号を生成する撮像タイミング生成部と、
前記景観画像に基づいて前記検出された位置情報を関連付けた景観情報を生成し、前記景観情報を記憶媒体に記憶する地図情報作成部と、を備える地図情報作成装置。
A position detector that detects the position of the moving body and generates position information;
A landscape imaging unit that generates a plurality of different landscape images captured from different positions of a landscape in which the moving direction of the moving body is desired;
An imaging timing generation unit that generates an imaging start signal for starting imaging of the landscape imaging unit;
A map information creation device comprising: a landscape information associated with the detected position information based on the landscape image; and a map information creation unit that stores the landscape information in a storage medium.
前記景観撮像部は、前記移動体の移動方向とは反対方向を望む景観を異なる位置から撮像し、互いに異なる複数の景観画像を更に生成することを特徴とする請求項1に記載の地図情報作成装置。   2. The map information creation according to claim 1, wherein the landscape imaging unit captures a landscape in a direction opposite to a moving direction of the moving body from different positions and further generates a plurality of different landscape images. apparatus. 前記地図情報作成部は、前記生成された景観画像から特徴部を抽出し、前記位置情報を関連付けた前記特徴部を前記景観情報として前記記憶媒体に記憶することを特徴とする請求項1又は2に記載の地図情報作成装置。   The said map information preparation part extracts the characteristic part from the produced | generated landscape image, and memorize | stores the said characteristic part which linked | related the said positional information on the said storage medium as said landscape information, The said 1 or 2 characterized by the above-mentioned. The map information creation device described in 1. 前記撮像タイミング生成部は、前記移動体が交差点を通過する際に撮像開始信号を生成することを特徴とする請求項1〜3のいずれか1項に記載の地図情報作成装置。   The map information creation device according to claim 1, wherein the imaging timing generation unit generates an imaging start signal when the moving body passes through an intersection. 位置検出部が、移動体の位置及び走行方向を検出して位置情報を生成する位置検出ステップと、
撮像タイミング生成部が、移動体に搭載された景観撮像部の撮像を開始させる撮像開始信号を生成する撮像開始信号生成ステップと、
景観撮像部が、前記撮像開始信号に応じて、前記移動体の移動方向を望む景観を異なる位置から撮像し、互いに異なる複数の景観画像を生成する景観撮像ステップと、
地図情報作成部が、前記生成された複数の景観画像に基づいて、前記検出された位置情報に関連付けた景観情報を生成し、前記景観情報を記憶部に記憶して地図情報を作成する地図情報作成ステップと、を備える地図情報作成方法。
A position detecting step in which the position detecting unit detects the position of the moving body and the traveling direction to generate position information;
An imaging start signal generation step in which an imaging timing generation unit generates an imaging start signal for starting imaging of a landscape imaging unit mounted on a moving body;
A landscape imaging step in which a landscape imaging unit captures a landscape in which the moving direction of the moving body is desired from different positions according to the imaging start signal, and generates a plurality of different landscape images;
The map information creation unit generates landscape information associated with the detected position information based on the generated plurality of landscape images, stores the landscape information in a storage unit, and creates map information A map information creation method comprising: a creation step;
前記撮像開始信号生成ステップは、前記撮像タイミング生成部が、前記移動体の現在の位置と、予め設定された景観情報作成地点とを比較し、前記移動体が前記景観情報作成地点に到達したと判定したときに、前記撮像開始信号を生成することを特徴とする請求項5に記載の地図情報作成方法。   In the imaging start signal generation step, the imaging timing generation unit compares the current position of the mobile body with a preset landscape information creation point, and the mobile body has reached the landscape information creation point. The map information creation method according to claim 5, wherein when the determination is made, the imaging start signal is generated. 前記予め設定された景観情報作成地点は交差点であることを特徴とする請求項6に記載の地図情報作成方法。   The map information creation method according to claim 6, wherein the preset landscape information creation point is an intersection. 前記景観撮像ステップは、前記撮像部が、前記移動体の移動方向と反対方向の景観を異なる位置から撮像し、互いに異なる複数の景観画像を生成するステップを含むことを特徴とする請求項5〜7のいずれか1項に記載の地図情報作成方法。   The landscape imaging step includes a step in which the imaging unit captures a landscape in a direction opposite to the moving direction of the moving body from a different position and generates a plurality of landscape images different from each other. 8. The map information creation method according to any one of items 7. 前記地図情報作成ステップは、前記地図情報作成部が、前記景観画像から特徴部を抽出し、前記抽出された特徴部に前記検出された位置情報を関連付けた景観情報を生成し、前記記憶部に記憶することを特徴とする請求項5〜8のいずれか1項に記載の地図情報作成方法。   In the map information creation step, the map information creation unit extracts a feature portion from the landscape image, generates landscape information in which the detected position information is associated with the extracted feature portion, and stores it in the storage unit. It memorize | stores, The map information preparation method of any one of Claims 5-8 characterized by the above-mentioned. 移動体に搭載され、前記移動体が走行する方向の路面に描かれた車線とその方向の景観を撮像して実画像を生成する撮像部と、
前記実画像から特徴部を抽出する実画像特徴抽出部と、
前記移動体の位置と方位角を検出する位置情報検出部と、
道路の指定された地点において、複数の離間する位置から走路方向の景観を撮像して生成された景観情報を記憶する地図情報記憶部と、
前記検出された位置と方位角を用いて前記地図情報記憶部から前記景観情報を取得し、前記取得された景観情報に含まれる特徴部を特定する景観特徴特定部と、
前記実画像の特徴部と前記景観情報から特定された特徴部から、前記実画像を撮像した移動体の位置を推定する移動体位置推定部と、
前記推定された移動体の位置に基づいて道路地図画像又は景観画像を生成する画像処理部と、を備える移動体位置測定装置。
An imaging unit that is mounted on a moving body and captures a lane drawn on a road surface in a direction in which the moving body travels and a landscape in the direction to generate a real image;
A real image feature extraction unit for extracting a feature from the real image;
A position information detection unit for detecting the position and azimuth of the moving body;
A map information storage unit for storing landscape information generated by imaging a landscape in the direction of the road from a plurality of spaced positions at a designated point on the road;
A landscape feature specifying unit that acquires the landscape information from the map information storage unit using the detected position and azimuth, and that identifies a feature included in the acquired landscape information;
From the feature part of the real image and the feature part specified from the landscape information, a mobile object position estimation unit that estimates the position of the mobile object that captured the real image;
A moving body position measuring apparatus comprising: an image processing unit that generates a road map image or a landscape image based on the estimated position of the moving body.
前記道路の指定された地点は、地図上の交差点であることを特徴とする請求項10に記載の移動体位置測定装置。   The mobile body position measuring apparatus according to claim 10, wherein the designated point of the road is an intersection on a map. 前記移動体の現在位置と方位角を検出する位置検出ステップと、
前記現在位置と方位に基づいて地図情報記憶部から地図情報を取得する地図情報取得ステップと、
前記移動体が前記取得された地図情報における指定された地点に近接したことを検出して、前記地図情報記憶部から、前記指定された地点において複数の離間する位置から走行方向の景観を撮像して生成された景観情報を取得する景観情報取得ステップと、
前記移動体が前記地図情報の指定された地点に達したことを検出して、前記移動体の移動方向の景観を撮像して実画像を取得する実画像取得ステップと、
前記取得された実画像から特徴部を抽出し、前記景観情報から特徴部を特定して、前記実画像の特徴部と前記景観情報から特定した特徴部により移動体の位置を推定する移動体位置推定ステップと、を備える移動体位置測定方法。
A position detecting step for detecting a current position and an azimuth angle of the mobile body;
A map information acquisition step of acquiring map information from a map information storage unit based on the current position and orientation;
Detecting that the moving body has approached a designated point in the acquired map information, and capturing a landscape in the traveling direction from a plurality of spaced positions at the designated point from the map information storage unit. A landscape information acquisition step for acquiring landscape information generated by
An actual image acquisition step of detecting that the moving body has reached a designated point of the map information, capturing a real image by capturing a landscape in the moving direction of the moving body, and
A moving object position that extracts a characteristic part from the acquired real image, specifies a characteristic part from the landscape information, and estimates a position of the moving object by the characteristic part of the real image and the characteristic part specified from the landscape information A moving body position measuring method comprising: an estimating step.
前記指定された地点は、地図上の交差点であることを特徴とする請求項12に記載の移動体位置測定方法。   The method according to claim 12, wherein the designated point is an intersection on a map.
JP2008330923A 2008-12-25 2008-12-25 Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body Pending JP2010152139A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008330923A JP2010152139A (en) 2008-12-25 2008-12-25 Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008330923A JP2010152139A (en) 2008-12-25 2008-12-25 Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body

Publications (1)

Publication Number Publication Date
JP2010152139A true JP2010152139A (en) 2010-07-08

Family

ID=42571293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008330923A Pending JP2010152139A (en) 2008-12-25 2008-12-25 Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body

Country Status (1)

Country Link
JP (1) JP2010152139A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015004814A (en) * 2013-06-20 2015-01-08 株式会社豊田中央研究所 Lane map generation device and program
JP2016505831A (en) * 2012-12-20 2016-02-25 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Method for determining a reference position as a starting position for an inertial navigation system
JP2017156112A (en) * 2016-02-29 2017-09-07 三菱電機株式会社 Vehicle position detection device
JP2017528772A (en) * 2014-06-13 2017-09-28 トムトム インターナショナル ベスローテン フエンノートシャップ Method and system for generating route data
JP2018028489A (en) * 2016-08-18 2018-02-22 トヨタ自動車株式会社 Position estimation device and position estimation method
US10861325B2 (en) 2014-09-07 2020-12-08 Tomtom Traffic B.V. Methods and systems for identifying navigable elements affected by weather conditions
JP2021018661A (en) * 2019-07-22 2021-02-15 本田技研工業株式会社 Traffic lane data generation device, position identification device, traffic lane data generation method, and position identification method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335037A (en) * 1995-06-06 1996-12-17 Toshiba Corp On-vehicle guide device
JPH1172344A (en) * 1997-08-29 1999-03-16 Fujitsu Ten Ltd Navigator
JPH1194571A (en) * 1997-09-18 1999-04-09 Toshiba Corp Recording and reproducing device, recording and reproducing method and recording medium
JP2003202227A (en) * 2002-01-04 2003-07-18 Canon Inc Photographing system
JP2003269971A (en) * 2002-03-20 2003-09-25 Denso Corp In-vehicle navigation device
JP2003329449A (en) * 2002-05-14 2003-11-19 Learning Space:Kk Method and device for creating common base road information
JP2006170934A (en) * 2004-12-20 2006-06-29 Konica Minolta Holdings Inc Navigation apparatus, and navigation image display method
JP2008020225A (en) * 2006-07-11 2008-01-31 Fujitsu Ltd Self position estimation program, self position estimation method and self position estimation apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335037A (en) * 1995-06-06 1996-12-17 Toshiba Corp On-vehicle guide device
JPH1172344A (en) * 1997-08-29 1999-03-16 Fujitsu Ten Ltd Navigator
JPH1194571A (en) * 1997-09-18 1999-04-09 Toshiba Corp Recording and reproducing device, recording and reproducing method and recording medium
JP2003202227A (en) * 2002-01-04 2003-07-18 Canon Inc Photographing system
JP2003269971A (en) * 2002-03-20 2003-09-25 Denso Corp In-vehicle navigation device
JP2003329449A (en) * 2002-05-14 2003-11-19 Learning Space:Kk Method and device for creating common base road information
JP2006170934A (en) * 2004-12-20 2006-06-29 Konica Minolta Holdings Inc Navigation apparatus, and navigation image display method
JP2008020225A (en) * 2006-07-11 2008-01-31 Fujitsu Ltd Self position estimation program, self position estimation method and self position estimation apparatus

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016505831A (en) * 2012-12-20 2016-02-25 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Method for determining a reference position as a starting position for an inertial navigation system
US9658069B2 (en) 2012-12-20 2017-05-23 Continental Teves Ag & Co. Ohg Method for determining a reference position as the starting position for an inertial navigation system
JP2015004814A (en) * 2013-06-20 2015-01-08 株式会社豊田中央研究所 Lane map generation device and program
JP2017528772A (en) * 2014-06-13 2017-09-28 トムトム インターナショナル ベスローテン フエンノートシャップ Method and system for generating route data
US10768006B2 (en) 2014-06-13 2020-09-08 Tomtom Global Content B.V. Methods and systems for generating route data
US11740099B2 (en) 2014-06-13 2023-08-29 Tomtom Global Content B.V. Methods and systems for generating route data
US10861325B2 (en) 2014-09-07 2020-12-08 Tomtom Traffic B.V. Methods and systems for identifying navigable elements affected by weather conditions
JP2017156112A (en) * 2016-02-29 2017-09-07 三菱電機株式会社 Vehicle position detection device
JP2018028489A (en) * 2016-08-18 2018-02-22 トヨタ自動車株式会社 Position estimation device and position estimation method
JP2021018661A (en) * 2019-07-22 2021-02-15 本田技研工業株式会社 Traffic lane data generation device, position identification device, traffic lane data generation method, and position identification method
JP7149234B2 (en) 2019-07-22 2022-10-06 本田技研工業株式会社 Lane data generation device, position specifying device, lane data generation method, and position specifying method

Similar Documents

Publication Publication Date Title
EP3332217B1 (en) Methods and systems for generating and using localisation reference data
JP4600357B2 (en) Positioning device
JP5798392B2 (en) Parking assistance device
JP2020064068A (en) Visual reinforcement navigation
US11511627B2 (en) Display device and computer program
CN108362295A (en) Vehicle route guides device and method
JP2010152139A (en) Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body
JP4783620B2 (en) 3D data creation method and 3D data creation apparatus
EP3842751B1 (en) System and method of generating high-definition map based on camera
JP2010151658A (en) Apparatus and method for measuring position of mobile object
WO2009084133A1 (en) Navigation device
JP2007171048A (en) Position data interpolation method, position detecting sensor and position measuring device
JP4483305B2 (en) Vehicle periphery monitoring device
JP2007198962A (en) Guidance display device for vehicle
JP2006217447A (en) Vehicle display apparatus
JP2008128827A (en) Navigation device, navigation method, and program thereof
JP2008139295A (en) Device and method for intersection guide in vehicle navigation using camera
JP2009020089A (en) System, method, and program for navigation
JP2009211624A (en) Driving support device, driving support method, and computer program
JP2009140192A (en) Road white line detection method, road white line detection program and road white line detection apparatus
JP2009236844A (en) Navigation device, navigation method, and navigation program
JP2004265396A (en) Image forming system and image forming method
JP2007206014A (en) Navigation device
KR100550430B1 (en) Apparatus and method for guiding route of vehicle using three-dimensional information
US20230314154A1 (en) Navigation Using Computer System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111222

A521 Written amendment

Effective date: 20120131

Free format text: JAPANESE INTERMEDIATE CODE: A523

A521 Written amendment

Effective date: 20121220

Free format text: JAPANESE INTERMEDIATE CODE: A523

A977 Report on retrieval

Effective date: 20130612

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131105