JP2001289651A - Navigation system, map matching method and recording medium - Google Patents

Navigation system, map matching method and recording medium

Info

Publication number
JP2001289651A
JP2001289651A JP2000104816A JP2000104816A JP2001289651A JP 2001289651 A JP2001289651 A JP 2001289651A JP 2000104816 A JP2000104816 A JP 2000104816A JP 2000104816 A JP2000104816 A JP 2000104816A JP 2001289651 A JP2001289651 A JP 2001289651A
Authority
JP
Japan
Prior art keywords
image
road
vehicle
traveling
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000104816A
Other languages
Japanese (ja)
Other versions
JP3607159B2 (en
Inventor
Kazutaka Imamura
和孝 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kenwood KK
Original Assignee
Kenwood KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kenwood KK filed Critical Kenwood KK
Priority to JP2000104816A priority Critical patent/JP3607159B2/en
Publication of JP2001289651A publication Critical patent/JP2001289651A/en
Application granted granted Critical
Publication of JP3607159B2 publication Critical patent/JP3607159B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a navigation system capable of adequately correcting the own vehicle position on a running road. SOLUTION: GPS unit 14 acquires the present position of own vehicle according to received satellite radio waves. An image pickup unit 3 takes the surface images of the own vehicle running road one after another, including white lines. A white line monitor 17 measures the distance of the white line spacing according to the road surface image photographed by the pickup unit 3, and determines that the running load is of an expressway or public road type according to the measured distance. CPU 16 identifies the running road from map information stored on a disc according to the road type determined by the white line monitor 17, and corrects the present position acquired by the GPS unit 14. A monitor 2 displays a combined symbol mark showing the corrected present position on a map image according to the map information.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、地図画像に自車位
置を示すシンボルを合成して表示するナビゲーションシ
ステムであって、特に走行中の道路上に自車位置を適切
に補正することのできるナビゲーションシステム、マッ
プマッチング方法及び記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a navigation system which combines a symbol indicating the position of a vehicle with a map image and displays the symbol, and in particular, can appropriately correct the position of the vehicle on a traveling road. The present invention relates to a navigation system, a map matching method, and a recording medium.

【0002】[0002]

【従来の技術】従来のナビゲーションシステムは、利用
者の車両(以下、「自車」という。)に搭載され、所定
のGPS(Global Positioning System)ユニット等に
より、衛星電波を受信して自車の現在位置(自車位置)
を取得する。そして、地図画像や道路情報を含む地図情
報が記録されたディスク等から、自車位置を中心とする
地図画像等を読み出し、自車位置を示すシンボルを合成
した地図画像を所定のモニタに表示する。利用者は、モ
ニタに表示された地図画像及び自車位置を参照すること
により、自分が運転する車両と周辺道路との位置関係を
認識し、道に迷うことなく、向かうべき目的地等に自車
を進めることができる。
2. Description of the Related Art A conventional navigation system is mounted on a user's vehicle (hereinafter referred to as "own vehicle") and receives satellite radio waves by a predetermined GPS (Global Positioning System) unit or the like, and receives a satellite signal. Current position (own vehicle position)
To get. Then, a map image or the like centering on the own vehicle position is read from a disk or the like on which map information including map images and road information is recorded, and a map image combining symbols indicating the own vehicle position is displayed on a predetermined monitor. . By referring to the map image displayed on the monitor and the position of the own vehicle, the user recognizes the positional relationship between the vehicle that he or she drives and the surrounding roads, and is able to find the destination to which he or she should go without getting lost. You can drive the car.

【0003】このようなナビゲーションシステムは、上
述したように、GPS衛星から送られる衛星電波をGP
Sユニット等にて受信し、受信した衛星電波に従って自
車位置を算出する衛星航法が一般に用いられている。こ
の衛星航法は、通常でも数十m程度の誤差が見込まれて
いるのが現状である。また、衛星航法は、受信可能な衛
星の位置(衛星配置等)や自車周辺の建物等の影響によ
り、更に大きな誤差が生じる場合もある。このため、衛
星航法により求められた自車位置をそのまま使用して、
地図画像上の対応位置にシンボルを合成すると、生じた
誤差により、道路上にシンボルが位置しない場合があ
る。
[0003] As described above, such a navigation system converts a satellite wave transmitted from a GPS satellite into a GP signal.
Satellite navigation, which is received by an S unit or the like and calculates the position of the vehicle in accordance with the received satellite radio waves, is generally used. At present, this satellite navigation is generally expected to have an error of about several tens of meters. Further, in the satellite navigation, an even larger error may occur due to the influence of a receivable satellite position (satellite arrangement or the like) or a building around the own vehicle. For this reason, using the vehicle position obtained by satellite navigation as it is,
When a symbol is combined with a corresponding position on the map image, the symbol may not be located on the road due to an error that has occurred.

【0004】この対策として、多くのナビゲーションシ
ステムには、対象の道路上に位置するように自車位置を
補正するマップマッチング機能が備えられている。この
マップマッチング機能は、例えば、パターンマッチング
法や、投影法等を用いることにより、生じた誤差を見越
して、地図画像上の自車位置を近傍の道路上に位置する
ように適宜修正する。このようなマップマッチング機能
を備えたナビゲーションシステムは、所定の道路上にシ
ンボルを合成した地図画像を表示するため、利用者に混
乱を生じさせることなく、向かうべき目的地等を示すこ
とができる。
As a countermeasure, many navigation systems have a map matching function for correcting the position of the vehicle so that the vehicle is located on a target road. The map matching function appropriately corrects the position of the vehicle on the map image so as to be located on a nearby road in anticipation of the generated error by using, for example, a pattern matching method or a projection method. Since a navigation system having such a map matching function displays a map image in which symbols are synthesized on a predetermined road, it is possible to indicate a destination to which the user should go without causing confusion to the user.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、従来の
ナビゲーションシステムでは、マップマッチング後の自
車位置が自車が走行中の道路上に正しく補正されない場
合があった。具体的に説明すると、高速道路と一般道路
とが高架等により上下に重なったり、平行に配置されて
いる区域を自車が走行している状態において、ナビゲー
ションシステムは、自車がどちらの道路を走行している
のかを的確に判別できないため、マップマッチングによ
り、自車位置を誤った道路上に補正してしまう場合があ
る。
However, in the conventional navigation system, the position of the vehicle after map matching may not be correctly corrected on the road on which the vehicle is traveling. More specifically, in a state in which the own vehicle is traveling in an area where an expressway and a general road are vertically overlapped by an overpass or the like, or the vehicle is traveling in an area arranged in parallel, the navigation system determines which road Since it cannot be accurately determined whether the vehicle is traveling, the own vehicle position may be corrected on an incorrect road by map matching.

【0006】例えば、自車が高架上の高速道路を走行中
であっても、ナビゲーションシステムは、マップマッチ
ングにより、自車位置を高架下の一般道路上に補正して
しまう場合があった。この場合、ナビゲーションシステ
ムは、自車が一般道路を走行中であると誤認識し、現実
に不可能な右左折等を指示することとなる。このような
誤った指示がなされると、利用者が予期せぬ指示に驚
き、運転操作を誤るおそれがあるため、極めて危険であ
った。
For example, even when the vehicle is traveling on a highway on an elevated road, the navigation system sometimes corrects the position of the vehicle on a general road under the elevated road by map matching. In this case, the navigation system erroneously recognizes that the vehicle is traveling on a general road, and instructs a right / left turn or the like that is impossible in reality. When such an erroneous instruction is given, the user may be surprised at an unexpected instruction and may make a wrong driving operation, which is extremely dangerous.

【0007】この発明は、上記実状に鑑みてなされたも
ので、地図画像に自車位置を示すシンボルを合成して表
示する際に、走行中の道路上に自車位置を適切に補正す
ることのできるナビゲーションシステム、マップマッチ
ング方法及び記録媒体を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above situation, and appropriately corrects the position of a host vehicle on a traveling road when displaying a symbol indicating the position of the host vehicle on a map image. It is an object of the present invention to provide a navigation system, a map matching method, and a recording medium that can be used.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するた
め、本発明の第1の観点に係るナビゲーションシステム
は、路面を含む車両走行方向の風景画像を撮像する撮像
部と、前記撮像部により撮像され、所定のタイマにて計
測された時刻の風景画像から、路面に描かれた車線画像
を抽出する画像解析部と、車速を示す車速パルスの出力
に従って、基準画面から所定画面までの間に走行した車
両の走行距離を算出する走行距離算出部と、前記画像解
析部が抽出した車線画像及び、前記走行距離算出部が算
出した走行距離に従って車線の通過本数を求め、道路の
種別を判定する道路判定部と、前記道路判定部にて判定
された道路の種別を記憶する記憶部と、を備えることを
特徴とする。
In order to achieve the above object, a navigation system according to a first aspect of the present invention comprises: an image pickup unit for picking up a scenery image in a vehicle traveling direction including a road surface; The vehicle travels between the reference screen and the predetermined screen according to an image analysis unit that extracts a lane image drawn on the road surface from the landscape image of the time measured by the predetermined timer, and outputs a vehicle speed pulse indicating the vehicle speed. A travel distance calculation unit that calculates the travel distance of the vehicle that has been traveled, a lane image extracted by the image analysis unit, and a number of lanes that pass through the travel distance calculated by the travel distance calculation unit. It is characterized by including a determination unit and a storage unit that stores the type of the road determined by the road determination unit.

【0009】この発明によれば、撮像部は、例えば、カ
メラ等からなり、路面を含む車両走行方向の風景画像を
撮像する。画像解析部は、撮像部により撮像され、所定
のタイマにて計測された時刻の風景画像から、路面に描
かれた車線画像を抽出する。走行距離算出部は、車速を
示す車速パルスの出力に従って、基準画面から所定画面
までの間に走行した車両の走行距離を算出する。道路判
定部は、画像解析部が抽出した車線画像及び、走行距離
算出部が算出した走行距離に従って車線の通過本数を求
め、例えば、高速道路又は一般道路の種別を判定する。
記憶部は、道路判定部にて判定された道路の種別を記憶
する。記憶部に記憶された道路の種別を用いてマップマ
ッチングを行うことにより、走行中の道路上に自車位置
を適切に補正することができる。
According to the present invention, the image pickup unit includes, for example, a camera or the like, and picks up a landscape image in the vehicle traveling direction including the road surface. The image analysis unit extracts a lane image drawn on a road surface from a landscape image captured at a time measured by a predetermined timer by the imaging unit. The travel distance calculation unit calculates the travel distance of the vehicle that has traveled between the reference screen and the predetermined screen according to the output of the vehicle speed pulse indicating the vehicle speed. The road determination unit determines the number of lanes passing according to the lane image extracted by the image analysis unit and the travel distance calculated by the travel distance calculation unit, and determines, for example, the type of an expressway or a general road.
The storage unit stores the type of the road determined by the road determination unit. By performing the map matching using the type of the road stored in the storage unit, the position of the own vehicle on the traveling road can be appropriately corrected.

【0010】上記目的を達成するため、本発明の第2の
観点に係るナビゲーションシステムは、自車の現在位置
を取得する現在位置取得手段と、地図情報を記憶する記
憶手段と、車線を含む自車が走行中の路面画像を順次撮
像する撮像手段と、前記撮像手段が撮像した路面画像に
従って、車線の間隔の距離を計測する計測手段と、前記
計測手段が計測した距離に従って、走行中の道路の種別
を判別する判別手段と、前記判別手段が判別した種別に
従って、前記記憶手段に記憶された地図情報から走行中
の道路を特定し、前記現在位置取得手段が取得した現在
位置を補正する補正手段と、前記記憶手段に記憶された
地図情報に従った地図画像に、前記補正手段により補正
された現在位置を示すシンボルマークを合成して表示す
る表示手段と、を備えることを特徴とする。
[0010] To achieve the above object, a navigation system according to a second aspect of the present invention comprises a current position obtaining means for obtaining a current position of the own vehicle, a storage means for storing map information, and a self-position including a lane. Imaging means for sequentially capturing a road surface image on which a car is traveling; measuring means for measuring a distance between lanes according to the road surface image captured by the imaging means; and a traveling road according to the distance measured by the measuring means. Determination means for determining the type of the vehicle, and a correction for identifying a traveling road from the map information stored in the storage means according to the type determined by the determination means, and correcting the current position obtained by the current position obtaining means. Means, and display means for combining and displaying a symbol mark indicating the current position corrected by the correction means on a map image according to the map information stored in the storage means. Characterized in that it obtain.

【0011】この発明によれば、現在位置取得手段は、
例えば、GPSユニット等からなり、受信した衛星電波
に従って自車の現在位置を取得する。記憶手段は、例え
ば、ディスク等の記録媒体に地図情報を記憶する。撮像
手段は、例えば、カメラ等からなり、車線を含む自車が
走行中の路面画像を順次撮像する。計測手段は、撮像手
段が撮像した路面画像に従って、車線の間隔の距離を計
測する。判別手段は、計測手段が計測した距離に従っ
て、走行中の例えば、高速道路又は一般道路の種別を判
別する。補正手段は、判別手段が判別した種別に従っ
て、記憶手段に記憶された地図情報から走行中の道路を
特定し、現在位置取得手段が取得した現在位置を補正す
る。表示手段は、記憶手段に記憶された地図情報に従っ
た地図画像に、補正手段により補正された現在位置を示
すシンボルマークを合成して表示する。この結果、走行
中の道路上に自車位置を適切に補正することができる。
According to the present invention, the current position obtaining means includes:
For example, it comprises a GPS unit or the like, and acquires the current position of the vehicle according to the received satellite radio waves. The storage unit stores the map information on a recording medium such as a disk, for example. The imaging means is, for example, a camera or the like, and sequentially captures images of the road surface on which the own vehicle including the lane is traveling. The measuring unit measures the distance between the lanes according to the road surface image captured by the imaging unit. The determining means determines, for example, the type of a running highway or a general road according to the distance measured by the measuring means. The correction unit specifies a traveling road from the map information stored in the storage unit according to the type determined by the determination unit, and corrects the current position acquired by the current position acquisition unit. The display unit combines the map image according to the map information stored in the storage unit with a symbol mark indicating the current position corrected by the correction unit, and displays the combined image. As a result, it is possible to appropriately correct the position of the own vehicle on the traveling road.

【0012】前記計測手段は、前記撮像手段により撮像
された路面画像に含まれる車線部を順次特定し、所定時
間内に特定した車線部の本数を計測する車線本数計測手
段と、車速を示す車速データを取得し、取得した車速デ
ータに従って、所定時間内に自車が走行した走行距離を
計測する走行距離計測手段と、前記車線本数計測手段が
計測した車線部の本数及び、前記走行距離計測手段が計
測した走行距離に従って、走行中の路面に描かれた車線
の間隔の距離を計測する車線間隔計測手段と、を備えて
もよい。
The measuring means sequentially specifies lane portions included in the road surface image picked up by the image pickup means, and measures the number of the specified lane portions within a predetermined time, and a vehicle speed indicating a vehicle speed. Data acquisition, travel distance measurement means for measuring the travel distance of the vehicle within a predetermined time according to the acquired vehicle speed data, the number of lane portions measured by the lane number measurement means, and the travel distance measurement means May be provided in accordance with the travel distance measured by the vehicle.

【0013】上記目的を達成するため、本発明の第3の
観点に係るマップマッチング方法は、自車の現在位置を
取得する現在位置取得ステップと、車線を含む自車が走
行中の路面画像を順次撮像する撮像ステップと、前記撮
像ステップにて撮像された路面画像に従って、車線の間
隔の距離を計測する計測ステップと、前記計測ステップ
にて計測された距離に従って、走行中の道路の種別を判
別する判別ステップと、前記判別ステップにて判別され
た種別に従って、所定の記憶部に記憶された地図情報か
ら走行中の道路を特定し、前記現在位置取得ステップに
て取得された現在位置を補正する補正ステップと、を備
えることを特徴とする。
In order to achieve the above object, a map matching method according to a third aspect of the present invention includes a current position obtaining step of obtaining a current position of a vehicle, and a road surface image including a lane on which the vehicle is traveling. An image capturing step of sequentially capturing an image, a measuring step of measuring a distance between lanes according to a road surface image captured in the image capturing step, and determining a type of a traveling road according to the distance measured in the measuring step And determining the traveling road from the map information stored in the predetermined storage unit, and correcting the current position obtained in the current position obtaining step in accordance with the type of the type determined in the determining step. And a correcting step.

【0014】この発明によれば、現在位置取得ステップ
は、例えば、受信した衛星電波に従って自車の現在位置
を取得する。撮像ステップは、車線を含む自車が走行中
の路面画像を順次撮像する。計測ステップは、撮像ステ
ップにて撮像された路面画像に従って、車線の間隔の距
離を計測する。判別ステップは、計測ステップにて計測
された距離に従って、走行中の道路の種別を判別する。
補正ステップは、判別ステップにて判別された種別に従
って、所定の記憶部に記憶された地図情報から走行中の
道路を特定し、現在位置取得ステップにて取得された現
在位置を補正する。この結果、走行中の道路上に自車位
置を適切に補正することができる。
According to the present invention, the current position obtaining step obtains the current position of the own vehicle in accordance with, for example, the received satellite radio waves. The imaging step sequentially captures a road surface image in which the own vehicle including the lane is traveling. The measurement step measures the distance between the lanes according to the road surface image captured in the imaging step. The determining step determines the type of the traveling road according to the distance measured in the measuring step.
The correction step specifies a traveling road from the map information stored in the predetermined storage unit according to the type determined in the determination step, and corrects the current position acquired in the current position acquisition step. As a result, it is possible to appropriately correct the position of the own vehicle on the traveling road.

【0015】上記目的を達成するため、本発明の第4の
観点に係る記録媒体は、自車の現在位置を取得する現在
位置取得ステップと、車線を含む自車が走行中の路面画
像を順次撮像する撮像ステップと、前記撮像ステップに
て撮像された路面画像に従って、車線の間隔の距離を計
測する計測ステップと、前記計測ステップにて計測され
た距離に従って、走行中の道路の種別を判別する判別ス
テップと、前記判別ステップにて判別された種別に従っ
て、所定の記憶部に記憶された地図情報から走行中の道
路を特定し、前記現在位置取得ステップにて取得された
現在位置を補正する補正ステップとを有するマップマッ
チング方法をコンピュータに実行させるためのプログラ
ムを記録する。
In order to achieve the above object, a recording medium according to a fourth aspect of the present invention comprises: a current position obtaining step of obtaining a current position of a vehicle; An image capturing step of capturing an image, a measuring step of measuring a distance between lanes according to the road surface image captured in the image capturing step, and determining a type of a traveling road according to the distance measured in the measuring step. A determining step of determining a traveling road from map information stored in a predetermined storage unit in accordance with the type determined in the determining step, and correcting the current position obtained in the current position obtaining step And recording a program for causing a computer to execute the map matching method having the steps.

【0016】[0016]

【発明の実施の形態】本発明の実施の形態にかかるナビ
ゲーションシステムについて、以下図面を参照して説明
する。図1は、この発明の実施の形態に適用されるナビ
ゲーションシステムの一例を示すブロック図である。図
1に示すように、ナビゲーションシステムは、機器本体
1と、モニタ2と、撮像装置3とから構成される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A navigation system according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an example of a navigation system applied to an embodiment of the present invention. As shown in FIG. 1, the navigation system includes a device main body 1, a monitor 2, and an imaging device 3.

【0017】本体機器1は、フラッシュメモリ11と、
VRAM12と、RAM13と、GPSユニット14
と、ジャイロ15と、CPU16と、白線監視部17
と、ディスク再生ユニット18とから構成され、バス1
9を介して接続されている。
The main device 1 includes a flash memory 11 and
VRAM 12, RAM 13, GPS unit 14
, Gyro 15, CPU 16, white line monitoring unit 17
And a disk reproducing unit 18.
9.

【0018】フラッシュメモリ11は、フラッシュ型E
EPROM(Electrically Erasable Programmable RO
M)等からなり、過去の走行情報(移動軌跡や日時情報
等)や、利用者が設定したランドマーク情報等を記憶す
る。
The flash memory 11 has a flash type E
EPROM (Electrically Erasable Programmable RO
M) and the like, and stores past traveling information (moving locus, date and time information, etc.), landmark information set by the user, and the like.

【0019】VRAM(Video RAM)12は、モニタ2
に表示するナビゲーション画面の基となる地図画像等を
記憶する表示専用のメモリである。
The VRAM (Video RAM) 12 is a monitor 2
Is a display-only memory that stores a map image and the like that are the basis of the navigation screen displayed in the navigation screen.

【0020】RAM(Random Access Memory)13は、
GPSユニット14にて取得された位置情報やCPU1
6にて補正された現在位置情報等を順次記憶する。ま
た、RAM13は、出発地から目的地までの誘導経路等
を記憶する。
A RAM (Random Access Memory) 13 is
The position information and CPU 1 acquired by the GPS unit 14
The current position information and the like corrected in step 6 are sequentially stored. Further, the RAM 13 stores a guidance route from the departure place to the destination.

【0021】GPS(Global Positioning System)ユ
ニット14は、複数のGPS衛星から送信され、所定の
GPSアンテナが受信した衛星電波に同調し、各衛星電
波をそれぞれ逆拡散復調して複数の衛星受信信号を取得
する。GPSユニット14は、取得したそれぞれの衛星
受信信号に従って算出した各衛星電波の到達時間の差に
基づいて、緯度、経度及び高度等からなる位置情報を生
成する。GPSユニット14は、所定のタイミング毎
に、生成した位置情報をCPU16に供給する。
A GPS (Global Positioning System) unit 14 tunes to satellite radio waves transmitted from a plurality of GPS satellites and received by a predetermined GPS antenna, despreads and demodulates each satellite radio wave, and converts a plurality of satellite reception signals. get. The GPS unit 14 generates position information including a latitude, a longitude, an altitude, and the like, based on a difference in arrival time of each satellite radio wave calculated according to each of the acquired satellite reception signals. The GPS unit 14 supplies the generated position information to the CPU 16 at every predetermined timing.

【0022】ジャイロ15は、自車の進行方向を計測
し、測定した進行方向と基準方向とからなす角度を示す
角度情報等をCPU16に供給する。
The gyro 15 measures the traveling direction of the own vehicle, and supplies angle information indicating an angle between the measured traveling direction and the reference direction to the CPU 16.

【0023】CPU(Central Processing Unit)16
は、本体機器1全体を制御する。具体的にCPU16
は、GPSユニット14から供給された位置情報に従っ
て、ディスク再生ユニット18を制御してディスクから
対象となる地図情報等を読み出す。また、GPSユニッ
ト14から供給された位置情報及び、白線監視部17か
ら供給された判別信号等に従って、自車の現在位置を対
象の道路上に位置するように補正する。
CPU (Central Processing Unit) 16
Controls the entire main device 1. Specifically, the CPU 16
Controls the disk reproducing unit 18 in accordance with the position information supplied from the GPS unit 14 and reads target map information and the like from the disk. Further, the current position of the own vehicle is corrected so as to be located on the target road in accordance with the position information supplied from the GPS unit 14, the determination signal supplied from the white line monitoring unit 17, and the like.

【0024】白線監視部17は、図2に示すように、画
像解析部41と、距離計算部42と、道路判定部43と
から構成される。画像解析部41は、撮像装置3から送
られた画像データを解析して、画像データに含まれる白
線画像(車線部)を特定し、一定時間内に特定した白線
の本数を算出する。
As shown in FIG. 2, the white line monitoring unit 17 includes an image analysis unit 41, a distance calculation unit 42, and a road determination unit 43. The image analysis unit 41 analyzes the image data sent from the imaging device 3, specifies a white line image (lane portion) included in the image data, and calculates the number of white lines specified within a certain time.

【0025】以下、画像解析部41が白線の本数を算出
する様子について図3を参照して具体的に説明する。な
お、図3(a)に示すように、撮像装置3が車両61
(自車)の両側に配置され、画像解析部41には、撮像
装置3が撮像した白線62の画像を含む画像データが順
次供給されているものとする。
The manner in which the image analysis unit 41 calculates the number of white lines will be specifically described below with reference to FIG. Note that, as shown in FIG.
It is assumed that image data including the image of the white line 62 captured by the imaging device 3 is sequentially supplied to the image analysis unit 41 which is arranged on both sides of the (own vehicle).

【0026】画像解析部41は、供給された画像データ
から図3(b)に示すような白線画像(車線部)を特定
する。また、画像解析部41は、図3(c)に示すよう
な白線画像を含まない状態も判別する。そして、画像解
析部41は、撮像装置3から供給された画像データ中に
おける白線画像の有無を図3(d)に示すようにパルス
化する。画像解析部41は、所定時間内のパルス(白線
の有無)をカウントすることにより、白線の本数を算出
する。
The image analyzer 41 specifies a white line image (lane portion) as shown in FIG. 3B from the supplied image data. In addition, the image analysis unit 41 also determines a state that does not include a white line image as illustrated in FIG. Then, the image analysis unit 41 pulsates the presence or absence of the white line image in the image data supplied from the imaging device 3 as illustrated in FIG. The image analysis unit 41 calculates the number of white lines by counting pulses (presence or absence of white lines) within a predetermined time.

【0027】画像解析部41は、このように、所定時間
内に通過した白線の本数を算出すると、算出した白線の
本数を示す白線本数データを生成して、道路判定部43
に供給する。
After calculating the number of white lines that have passed within the predetermined time, the image analysis unit 41 generates white line number data indicating the calculated number of white lines, and outputs the data to the road determination unit 43.
To supply.

【0028】図2に戻って、距離計算部42は、車速パ
ルスと内部タイマを用いて、一定時間内に自車が走行し
た距離を算出する。すなわち、距離計算部42は、画像
解析部41が算出した白線の本数に対応する走行距離を
算出する。距離計算部42は、算出した走行距離を示す
距離データを生成し、生成した距離データを道路判定部
43に供給する。
Returning to FIG. 2, the distance calculation section 42 calculates the distance traveled by the own vehicle within a predetermined time using the vehicle speed pulse and the internal timer. That is, the distance calculation unit 42 calculates the travel distance corresponding to the number of white lines calculated by the image analysis unit 41. The distance calculation unit 42 generates distance data indicating the calculated travel distance, and supplies the generated distance data to the road determination unit 43.

【0029】道路判定部43は、画像解析部41から取
得した白線本数データと、距離計算部42から取得した
距離データとに従って、走行中の道路の種別を示す判定
信号を生成する。
The road determination unit 43 generates a determination signal indicating the type of the traveling road in accordance with the white line number data acquired from the image analysis unit 41 and the distance data acquired from the distance calculation unit 42.

【0030】具体的に、道路判定部43は、取得した白
線本数データ及び、距離データに従って、白線の間隔の
長さを算出する。ここで、高速道路における白線の間隔
の長さが20mと交通法規にて定められているため、算
出した白線の間隔の長さから走行中の道路が高速道路又
は一般道路の何れかであることが判別できる。道路判定
部43は、高速道路又は一般道路の種別を示す判定信号
を生成すると、生成した判定信号をCPU16に供給す
る。
Specifically, the road determination unit 43 calculates the length of the interval between the white lines according to the acquired white line number data and the distance data. Here, since the length of the interval between the white lines on the expressway is determined by the traffic regulations to be 20 m, the running road is either an expressway or a general road based on the calculated length of the interval between the white lines. Can be determined. When generating the determination signal indicating the type of the expressway or the general road, the road determination unit 43 supplies the generated determination signal to the CPU 16.

【0031】図1に戻って、ディスク再生ユニット18
は、地図画像や道路情報等を含む地図情報が記録された
CD−ROMやDVD(Digital Versatile Disk)等か
らなるディスクを再生して、ディスクから対象の地図画
像等を読み出す。ディスク再生ユニット18は、読み出
した地図画像等をCPU16に供給する。
Returning to FIG. 1, the disk reproducing unit 18
Reproduces a disk such as a CD-ROM or a DVD (Digital Versatile Disk) on which map information including a map image and road information is recorded, and reads a target map image and the like from the disk. The disk reproducing unit 18 supplies the read map image and the like to the CPU 16.

【0032】モニタ2は、LCD(Liquid Crystal Dis
play)又はCRT(Cathode Ray Tube)等からなり、所
定の信号線を介して本体機器1と接続されている。モニ
タ2は、VRAM12に記憶された地図画像等に従って
ナビゲーション画面を表示する。また、モニタ2は、タ
ッチセンサ21と、リモコン受光部22とを備える。
The monitor 2 is a liquid crystal display (LCD).
play) or a CRT (Cathode Ray Tube), and is connected to the main device 1 via a predetermined signal line. The monitor 2 displays a navigation screen according to a map image or the like stored in the VRAM 12. The monitor 2 includes a touch sensor 21 and a remote control light receiving unit 22.

【0033】タッチセンサ21は、モニタ2の前面(表
示画面上)に配置され、利用者の指の接触等を検出する
と、接触を検出した画面上の位置等の情報をCPU16
に供給する。
The touch sensor 21 is disposed on the front surface (on the display screen) of the monitor 2 and, when detecting a contact of a user's finger or the like, information such as a position on the screen where the contact is detected is detected by the CPU 16.
To supply.

【0034】リモコン受光部22は、図示せぬリモコン
(リモートコントローラ)から赤外線信号等にて送られ
るコマンド信号等を受信し、受信したコマンド信号等を
CPU16に供給する。
The remote control light receiving section 22 receives a command signal or the like transmitted by an infrared signal or the like from a remote controller (remote controller) not shown, and supplies the received command signal and the like to the CPU 16.

【0035】撮像装置3は、自車の予め定められた場
所、例えば、左右のドアの底部近傍に2つ設置され、設
置位置から撮像した白線を含む所定範囲の画像を順次撮
像する。撮像装置3は、撮像した画像の画像データを生
成し、生成した画像データを白線監視部17に順次供給
する。
Two image pickup devices 3 are installed at predetermined places of the vehicle, for example, near the bottoms of the left and right doors, and sequentially pick up images of a predetermined range including white lines picked up from the installation positions. The imaging device 3 generates image data of a captured image, and sequentially supplies the generated image data to the white line monitoring unit 17.

【0036】以下、この発明の実施の形態にかかるナビ
ゲーションシステムの動作について、図面を参照して説
明する。図4は、CPU16が行うナビゲーション処理
を説明するためのフローチャートである。図5は、白線
監視部17が行う白線監視処理を説明するためのフロー
チャートである。また、図7は、マップマッチング処理
を詳細に説明するためのフローチャートである。
Hereinafter, the operation of the navigation system according to the embodiment of the present invention will be described with reference to the drawings. FIG. 4 is a flowchart for explaining the navigation processing performed by the CPU 16. FIG. 5 is a flowchart for explaining a white line monitoring process performed by the white line monitoring unit 17. FIG. 7 is a flowchart for explaining the map matching process in detail.

【0037】なお、図4に示すナビゲーション処理は、
例えば、タッチセンサ21を介して利用者から目的地等
が入力され、出発地点から目的地までの誘導経路が選定
された後に開始する。また、図5に示す白線監視処理
は、ナビゲーション処理が開始すると、並行して開始す
る。以下、図4に示すナビゲーション処理について説明
する。
The navigation processing shown in FIG.
For example, the processing is started after a destination or the like is input from the user via the touch sensor 21 and a guidance route from the departure point to the destination is selected. The white line monitoring process shown in FIG. 5 starts in parallel with the start of the navigation process. Hereinafter, the navigation processing shown in FIG. 4 will be described.

【0038】まず、CPU16は、GPSユニット14
等から自車の現在位置を取得する(ステップS1)。す
なわち、CPU16は、GPSユニット14が生成した
位置情報に従って、自車位置を取得する。
First, the CPU 16 controls the GPS unit 14.
The current position of the own vehicle is acquired from such as (step S1). That is, the CPU 16 acquires the own vehicle position according to the position information generated by the GPS unit 14.

【0039】CPU16は、ディスク再生ユニット18
を制御して、ディスクに記録された対象の地図情報等を
読み出す(ステップS2)。すなわち、CPU16は、
自車位置を中心とした所定範囲内の地図画像等をディス
ク再生ユニット18を介して読み出す。
The CPU 16 has a disk reproducing unit 18
To read the target map information and the like recorded on the disk (step S2). That is, the CPU 16
A map image or the like within a predetermined range centered on the own vehicle position is read out via the disk reproducing unit 18.

【0040】CPU16は、マップマッチング処理を行
う(ステップS3)。すなわち、CPU16は、ステッ
プS1にて取得した現在位置を、地図画像における走行
中の道路上の位置に補正するマップマッチング処理を行
う。なお、マップマッチング処理の詳細については後述
する。
The CPU 16 performs a map matching process (step S3). That is, the CPU 16 performs a map matching process of correcting the current position acquired in step S1 to a position on the traveling road in the map image. The details of the map matching process will be described later.

【0041】CPU16は、モニタ2にナビゲーション
画像を描画する(ステップS4)。すなわち、CPU1
6は、ステップS2にて取得した地図画像に、上述のマ
ップマッチング処理により補正された現在位置を示すシ
ンボルマークを合成してナビゲーション画像を生成し、
生成したナビゲーション画像をモニタ2に表示する。
The CPU 16 draws a navigation image on the monitor 2 (step S4). That is, CPU1
6 generates a navigation image by combining the map image acquired in step S2 with a symbol mark indicating the current position corrected by the above-described map matching process,
The generated navigation image is displayed on the monitor 2.

【0042】CPU16は、目的地に到着したか否かを
判別する(ステップS5)。すなわち、CPU16は、
予め設定された目的地に自車が到着したか否かを判別す
る。CPU16は、目的地に到着していないと判別した
場合、ステップS1に処理を戻し上述のステップS1〜
S5の処理を繰り返し実行する。一方、目的地に到着し
たと判別した場合、ナビゲーション処理を終了する。
The CPU 16 determines whether the vehicle has arrived at the destination (step S5). That is, the CPU 16
It is determined whether or not the vehicle has arrived at a preset destination. When determining that the vehicle has not arrived at the destination, the CPU 16 returns the processing to step S1 and returns to the above-described steps S1 to S1.
The process of S5 is repeatedly executed. On the other hand, when it is determined that the vehicle has arrived at the destination, the navigation processing ends.

【0043】このように、マップマッチング処理にて現
在位置が走行中の道路上に正しく補正され、そして、補
正後の自車位置を示すシンボルを合成した地図画像がモ
ニタ2に表示される。
As described above, the map matching process corrects the current position on the road on which the vehicle is traveling, and the monitor 2 displays a map image in which symbols indicating the corrected vehicle position are combined.

【0044】次に図5に示す白線監視処理について説明
する。この白線監視処理は、上述のナビゲーション処理
と並行して順次実行される。
Next, the white line monitoring process shown in FIG. 5 will be described. This white line monitoring process is sequentially executed in parallel with the above-described navigation process.

【0045】まず、画像解析部41は、撮像装置3から
送られた画像データを取得する(ステップS11)。す
なわち、画像解析部41は、撮像装置3にて撮像された
白線画像(車線部)を含んだ画像データを取得する。
First, the image analyzer 41 acquires the image data sent from the image pickup device 3 (step S11). That is, the image analysis unit 41 acquires image data including a white line image (lane portion) captured by the imaging device 3.

【0046】画像解析部41は、白線画像を特定し、所
定時間内に通過した白線の本数を算出する(ステップS
12)。すなわち、画像解析部41は、撮像装置3から
供給された画像データ中における白線画像の有無をパル
ス化し、所定時間内のパルス(白線の有無)をカウント
することにより、白線の本数を算出する。画像解析部4
1は、白線の本数を算出すると、算出した白線の本数を
示す白線本数データを生成して、道路判定部43に供給
する。
The image analysis section 41 specifies the white line image and calculates the number of white lines passed within a predetermined time (step S).
12). That is, the image analysis unit 41 calculates the number of white lines by pulsing the presence or absence of a white line image in the image data supplied from the imaging device 3 and counting the pulses (presence or absence of white lines) within a predetermined time. Image analysis unit 4
After calculating the number of white lines, 1 generates white line number data indicating the calculated number of white lines and supplies the data to the road determination unit 43.

【0047】一方、距離計算部42は、車速パルス等に
従って、所定時間内に自車が走行した距離を算出する
(ステップS13)。すなわち、距離計算部42は、車
速パルスと内部タイマを用いて、画像解析部41が算出
した白線の本数に対応する走行距離を算出する。距離計
算部42は、算出した走行距離を示す距離データを生成
し、生成した距離データを道路判定部43に供給する。
On the other hand, the distance calculation unit 42 calculates the distance traveled by the own vehicle within a predetermined time according to the vehicle speed pulse or the like (step S13). That is, the distance calculation unit 42 uses the vehicle speed pulse and the internal timer to calculate the travel distance corresponding to the number of white lines calculated by the image analysis unit 41. The distance calculation unit 42 generates distance data indicating the calculated travel distance, and supplies the generated distance data to the road determination unit 43.

【0048】道路判定部43は、白線本数データ及び距
離データに従って、白線の間隔の長さを算出する(ステ
ップS14)。すなわち、道路判定部43は、画像解析
部41から取得した白線本数データと、距離計算部42
から取得した距離データとに従って、白線の間隔の長さ
を算出する。
The road determination unit 43 calculates the length of the white line interval according to the white line number data and the distance data (step S14). That is, the road determination unit 43 compares the white line number data acquired from the image analysis unit 41 with the distance calculation unit 42.
Then, the length of the interval between the white lines is calculated according to the distance data acquired from.

【0049】道路判定部43は、算出した白線の間隔の
長さが20mとほぼ等しいか否かを判別する(ステップ
S15)。すなわち、道路判定部43は、高速道路にお
いて規定されている白線間隔の長さである20mに、算
出した白線の間隔の長さがほぼ等しいか否かを判別す
る。
The road determination section 43 determines whether or not the calculated white line interval length is substantially equal to 20 m (step S15). That is, the road determination unit 43 determines whether or not the calculated white line interval length is substantially equal to the white line interval length 20 m defined on the expressway.

【0050】道路判定部43は、白線間隔の長さが20
mと等しくないと判別した場合、一般道路を走行中であ
る旨の判定信号をCPU16に供給する(ステップS1
6)。
The road determination unit 43 determines that the length of the white line interval is 20
If it is determined that it is not equal to m, a determination signal indicating that the vehicle is traveling on a general road is supplied to the CPU 16 (step S1).
6).

【0051】一方、白線間隔の長さが20mとほぼ等し
いと判別した場合、道路判定部43は、高速道路を走行
中である旨の判定信号をCPU16に供給する(ステッ
プS17)。判定信号をCPU16に供給した後、ステ
ップS11に処理が戻され、上述のステップS11〜S
17の処理が繰り返し実行される。
On the other hand, if it is determined that the length of the white line interval is substantially equal to 20 m, the road determination unit 43 supplies a determination signal to the effect that the vehicle is traveling on the expressway to the CPU 16 (step S17). After supplying the determination signal to the CPU 16, the process returns to step S11, and the above-described steps S11 to S11 are performed.
Step 17 is repeatedly executed.

【0052】このように、白線監視処理にて、白線間隔
の長さから走行中の道路が高速道路であるか、又は一般
道路であるかを判別し、判別結果を判定信号としてCP
U16に順次供給する。
As described above, in the white line monitoring process, it is determined from the length of the white line interval whether the running road is an expressway or a general road, and the determination result is used as a determination signal as a determination signal.
Supply to U16 sequentially.

【0053】次に、図7に示すマップマッチング処理に
ついて説明する。このマップマッチング処理は、上述の
ナビゲーション処理におけるステップS3から呼び出さ
れる処理である。
Next, the map matching processing shown in FIG. 7 will be described. This map matching process is a process called from step S3 in the above-described navigation process.

【0054】まず、CPU16は、自車位置に対応する
高速道路及び一般道路等の配置情報を取得する(ステッ
プS31)。すなわち、CPU16は、ディスクに記録
された地図情報を読み出し、地図情報に含まれる道路情
報に従って、自車位置を中心とした所定範囲内の高速道
路及び一般道路等の配置情報を取得する。
First, the CPU 16 obtains layout information of an expressway, a general road and the like corresponding to the position of the vehicle (step S31). That is, the CPU 16 reads the map information recorded on the disk, and acquires the layout information of the expressway, the general road, and the like within a predetermined range centering on the own vehicle position according to the road information included in the map information.

【0055】CPU16は、配置情報を取得すると、高
速道路及び一般道路等が平行に配置されているか否かを
判別する(ステップS32)。具体的に説明すると、C
PU16は、図6(a)や図6(b)に示すように、高
速道路51と一般道路52とが所定距離内に平行に配置
されているか否かを判別する。なお、CPU16は、図
6(c)や図6(d)に示すように、高速道路51と一
般道路52とが常に平行ではないが、相互の距離が非常
に近く、また、平行に近い状態で配置されている場合
も、平行に配置されていると判別する。
When acquiring the layout information, the CPU 16 determines whether or not the expressway and the general road are parallelly arranged (step S32). Specifically, C
The PU 16 determines whether or not the expressway 51 and the general road 52 are arranged within a predetermined distance in parallel as shown in FIGS. 6A and 6B. Note that the CPU 16 determines that the highway 51 and the general road 52 are not always parallel as shown in FIG. 6C and FIG. It is also determined that they are arranged in parallel even when they are arranged in.

【0056】一方、CPU16は、図6(e)、図6
(f)や、図6(g)に示すように、一般道路52同士
が平行に配置してあったり、平行な箇所が非常に少ない
場合に、平行に配置されていないと判別する。
On the other hand, FIG.
As shown in (f) and FIG. 6 (g), when the general roads 52 are arranged in parallel with each other or when there are very few parallel places, it is determined that they are not arranged in parallel.

【0057】CPU16は、平行に配置されていないと
判別した場合、ステップS34に処理を進める。一方、
平行に配置されていると判別した場合、白線監視部17
から供給される判定信号を参照する(ステップS3
3)。すなわち、CPU16は、道路の種別を示す判定
信号を参照し、走行中の道路が高速道路であるか、又は
一般道路であるかを取得する。
If the CPU 16 determines that they are not arranged in parallel, the process proceeds to step S34. on the other hand,
If it is determined that they are arranged in parallel, the white line monitoring unit 17
(Step S3)
3). That is, the CPU 16 refers to the determination signal indicating the type of the road and acquires whether the traveling road is an expressway or a general road.

【0058】CPU16は、パターンマッチング法等に
より、自車位置を対応する道路上に位置するように修正
する(ステップS34)。この際、ステップS33にて
判定信号を参照している場合に、判定信号に従って走行
中の道路を特定し、自車位置を走行中の道路上に位置す
るように正しく補正する。CPU16は、マップマッチ
ング処理を終えると、図4に示すナビゲーション処理
(ステップS4)に処理を戻す。
The CPU 16 corrects the position of the own vehicle so as to be located on the corresponding road by a pattern matching method or the like (step S34). At this time, when the determination signal is referred to in step S33, the road on which the vehicle is traveling is specified according to the determination signal, and the own vehicle position is correctly corrected so as to be located on the road on which the vehicle is traveling. After finishing the map matching process, the CPU 16 returns the process to the navigation process (step S4) shown in FIG.

【0059】このように、高速道路及び一般道路が平行
等に配置されている場合であっても、自車が走行中の道
路の種別を判別しながら、マップマッチングを行うた
め、マッチングの精度を向上させることができる。この
結果、地図画像に自車位置を示すシンボルを合成して表
示する際に、走行中の道路上に自車位置を適切に補正す
ることができる。
As described above, even when the expressway and the general road are arranged in parallel or the like, map matching is performed while discriminating the type of the road on which the vehicle is traveling. Can be improved. As a result, when combining and displaying the symbol indicating the vehicle position on the map image, the vehicle position can be appropriately corrected on the traveling road.

【0060】上記の実施の形態では、撮像した画像デー
タに従って、白線(車線)の間隔の長さを計測して、自
車が走行中の道路が高速道路であるか又は、一般道路で
あるかを判別したが、高速道路等の判別手法は、任意で
ある。例えば、撮像装置3により路面近傍を撮像するの
ではなく、自車の周辺の風景画像を撮像して、撮像した
風景画像から自車が走行中の道路が高速道路であるか又
は、一般道路であるかを判別してもよい。
In the above embodiment, the length of the interval between white lines (lanes) is measured in accordance with the captured image data, and whether the road on which the vehicle is traveling is an expressway or a general road is determined. However, the method of determining the expressway or the like is arbitrary. For example, instead of taking an image of the vicinity of the road surface with the imaging device 3, a landscape image around the own vehicle is captured, and from the captured landscape image, the road on which the vehicle is traveling is an expressway or a general road. It may be determined whether there is.

【0061】具体的に説明すると、本体機器1は、白線
監視部17の代わりに、信号監視部を備える。また、撮
像装置3は、車内のフロントガラス近傍に配置され、自
車の前方から所定角度上方の風景画像を順次撮像する。
信号監視部は、撮像装置3から供給される風景画像を含
んだ画像データを順次取得し、画像データ中に信号機の
画像が含まれるか否かを判別する。そして、信号監視部
は、所定以上の走行距離を走行する間に、信号機の画像
が含まれないと判別した場合、走行中の道路が高速道路
であることを示す判定信号をCPU16に供給する。ま
た、信号機の画像が含まれると判別した場合、走行中の
道路が一般道路であることを示す判定信号をCPU16
に供給する。
More specifically, the main device 1 includes a signal monitoring unit instead of the white line monitoring unit 17. The imaging device 3 is arranged near the windshield in the vehicle, and sequentially captures a landscape image at a predetermined angle above the front of the vehicle.
The signal monitoring unit sequentially acquires image data including a landscape image supplied from the imaging device 3 and determines whether or not the image data includes an image of a traffic light. If the signal monitoring unit determines that the image of the traffic light is not included while traveling the predetermined distance or more, the signal monitoring unit supplies the CPU 16 with a determination signal indicating that the traveling road is an expressway. When it is determined that an image of a traffic light is included, a determination signal indicating that the road on which the vehicle is traveling is a general road is sent to the CPU 16.
To supply.

【0062】この場合も、CPU16は、高速道路及び
一般道路が平行等に配置されている場合に、参照した判
定信号に従って走行中の道路を特定し、自車位置を走行
中の道路上に位置するように正しく補正する。この結
果、地図画像に自車位置を示すシンボルを合成して表示
する際に、走行中の道路上に自車位置を適切に補正する
ことができる。
Also in this case, when the highway and the general road are arranged in parallel or the like, the CPU 16 specifies the road on which the vehicle is traveling in accordance with the judgment signal referred to, and positions the own vehicle on the road on which the vehicle is traveling. Correct so that As a result, when combining and displaying the symbol indicating the vehicle position on the map image, the vehicle position can be appropriately corrected on the traveling road.

【0063】なお、この発明の実施の形態にかかるナビ
ゲーションシステムは、専用のシステムによらず、通常
のコンピュータシステムを用いて実現可能である。例え
ば、コンピュータに上述のいずれかを実行するためのプ
ログラムを格納した媒体(フロッピー(登録商標)ディ
スク、CD−ROM等)から当該プログラムをインスト
ールすることにより、上述の処理を実行するナビゲーシ
ョンシステムを構成することができる。
The navigation system according to the embodiment of the present invention can be realized by using a general computer system without using a dedicated system. For example, a navigation system that executes the above-described processing is installed in a computer by installing the program from a medium (a floppy (registered trademark) disk, a CD-ROM, or the like) storing the program for executing any of the above. can do.

【0064】また、コンピュータにプログラムを供給す
るための手法は、任意である。例えば、通信回線、通信
ネットワーク、通信システム等を介して供給してもよ
い。一例を挙げると、通信ネットワークの掲示板(BB
S)に当該プログラムを掲示し、これをネットワークを
介して配信する。そして、このプログラムを起動し、O
Sの制御下で、他のアプリケーションプログラムと同様
に実行することにより、上述の処理を実行することがで
きる。
A method for supplying a program to a computer is arbitrary. For example, the information may be supplied via a communication line, a communication network, a communication system, or the like. As an example, a bulletin board (BB) of a communication network
The program is posted on S) and distributed via a network. And start this program, O
Under the control of S, the above-described processing can be executed by executing the program in the same manner as other application programs.

【0065】[0065]

【発明の効果】以上説明したように、本発明によれば、
自車位置を地図画像と合成して表示する際に、対象の道
路上に適切に補正することができる。
As described above, according to the present invention,
When the own vehicle position is combined with the map image and displayed, it is possible to appropriately correct the position on the target road.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態に係るナビゲーションシス
テムの構成の一例を示すブロック図である。
FIG. 1 is a block diagram illustrating an example of a configuration of a navigation system according to an embodiment of the present invention.

【図2】白線監視部の構成の一例を示すブロック図であ
る。
FIG. 2 is a block diagram illustrating an example of a configuration of a white line monitoring unit.

【図3】(a)が車両に配置された撮像装置が白線を撮
像する様子を説明する模式図であり、(b)が白線の端
部を示す画像データの模式図であり、(c)が白線の間
隔を示す画像データの模式図であり、(d)が白線の有
無をパルス化する様子を説明する模式図である。
3A is a schematic diagram illustrating a state in which an imaging device arranged in a vehicle captures a white line, FIG. 3B is a schematic diagram of image data indicating an end of the white line, and FIG. Is a schematic diagram of image data showing intervals of white lines, and (d) is a schematic diagram for explaining how to pulse the presence or absence of a white line.

【図4】本発明の実施の形態に係るナビゲーション処理
を説明するためのフローチャートである。
FIG. 4 is a flowchart illustrating a navigation process according to the embodiment of the present invention.

【図5】本発明の実施の形態に係る白線監視処理を説明
するためのフローチャートである。
FIG. 5 is a flowchart illustrating a white line monitoring process according to the embodiment of the present invention.

【図6】(a)〜(g)共に、高速道路及び一般道路の
配置関係を説明するための模式図である。
6 (a) to 6 (g) are schematic diagrams for explaining an arrangement relationship between an expressway and a general road.

【図7】本発明の実施の形態に係るマップマッチング処
理を説明するためのフローチャートである。
FIG. 7 is a flowchart illustrating a map matching process according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 本体機器 2 モニタ 3 撮像装置 11 フラッシュメモリ 12 VRAM 13 RAM 14 GPSユニット 15 ジャイロ 16 CPU 17 白線監視部 18 ディスク再生ユニット 19 バス 21 タッチセンサ 22 リモコン受光部 DESCRIPTION OF SYMBOLS 1 Main apparatus 2 Monitor 3 Imaging device 11 Flash memory 12 VRAM 13 RAM 14 GPS unit 15 Gyro 16 CPU 17 White line monitoring part 18 Disk reproduction unit 19 Bus 21 Touch sensor 22 Remote control light receiving part

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】路面を含む車両走行方向の風景画像を撮像
する撮像部と、 前記撮像部により撮像され、所定のタイマにて計測され
た時刻の風景画像から、路面に描かれた車線画像を抽出
する画像解析部と、 車速を示す車速パルスの出力に従って、基準画面から所
定画面までの間に走行した車両の走行距離を算出する走
行距離算出部と、 前記画像解析部が抽出した車線画像及び、前記走行距離
算出部が算出した走行距離に従って車線の通過本数を求
め、道路の種別を判定する道路判定部と、 前記道路判定部にて判定された道路の種別を記憶する記
憶部と、 を備えることを特徴とするナビゲーションシステム。
An image capturing section for capturing a landscape image of a vehicle traveling direction including a road surface, and a lane image drawn on a road surface is obtained from the landscape image captured by the image capturing section and measured by a predetermined timer. An image analysis unit to be extracted, a travel distance calculation unit that calculates a travel distance of a vehicle that has traveled from a reference screen to a predetermined screen according to an output of a vehicle speed pulse indicating a vehicle speed, and a lane image extracted by the image analysis unit. A road determination unit that determines the number of lanes according to the travel distance calculated by the travel distance calculation unit and determines the type of road; and a storage unit that stores the type of road determined by the road determination unit. A navigation system comprising:
【請求項2】自車の現在位置を取得する現在位置取得手
段と、 地図情報を記憶する記憶手段と、 車線を含む自車が走行中の路面画像を順次撮像する撮像
手段と、 前記撮像手段が撮像した路面画像に従って、車線の間隔
の距離を計測する計測手段と、 前記計測手段が計測した距離に従って、走行中の道路の
種別を判別する判別手段と、 前記判別手段が判別した種別に従って、前記記憶手段に
記憶された地図情報から走行中の道路を特定し、前記現
在位置取得手段が取得した現在位置を補正する補正手段
と、 前記記憶手段に記憶された地図情報に従った地図画像
に、前記補正手段により補正された現在位置を示すシン
ボルマークを合成して表示する表示手段と、 を備えることを特徴とするナビゲーションシステム。
2. A current position obtaining means for obtaining a current position of the own vehicle, a storage means for storing map information, an image pickup means for sequentially picking up a road surface image on which the own vehicle including a lane is traveling, and the image pickup means According to the road surface image captured by, measuring means for measuring the distance of the lane interval, according to the distance measured by the measuring means, determining means for determining the type of road traveling, according to the type determined by the determining means, A correcting means for specifying a traveling road from the map information stored in the storage means and correcting the current position obtained by the current position obtaining means; and a map image according to the map information stored in the storage means. A display unit that combines and displays a symbol mark indicating the current position corrected by the correction unit.
【請求項3】前記計測手段は、 前記撮像手段により撮像された路面画像に含まれる車線
部を順次特定し、所定時間内に特定した車線部の本数を
計測する車線本数計測手段と、 車速を示す車速データを取得し、取得した車速データに
従って、所定時間内に自車が走行した走行距離を計測す
る走行距離計測手段と、 前記車線本数計測手段が計測した車線部の本数及び、前
記走行距離計測手段が計測した走行距離に従って、走行
中の路面に描かれた車線の間隔の距離を計測する車線間
隔計測手段と、 を備えることを特徴とする請求項2に記載のナビゲーシ
ョンシステム。
3. The lane number measuring means for sequentially specifying lane portions included in a road surface image picked up by the image pick-up means, and measuring the number of the specified lane portions within a predetermined time, A traveling distance measuring unit for measuring a traveling distance of the vehicle within a predetermined time according to the acquired vehicle speed data, and a number of lane portions measured by the lane number measuring unit, and the traveling distance. The navigation system according to claim 2, further comprising: a lane interval measuring unit that measures a distance of a lane interval drawn on a traveling road surface according to the traveling distance measured by the measuring unit.
【請求項4】自車の現在位置を取得する現在位置取得ス
テップと、 車線を含む自車が走行中の路面画像を順次撮像する撮像
ステップと、 前記撮像ステップにて撮像された路面画像に従って、車
線の間隔の距離を計測する計測ステップと、 前記計測ステップにて計測された距離に従って、走行中
の道路の種別を判別する判別ステップと、 前記判別ステップにて判別された種別に従って、所定の
記憶部に記憶された地図情報から走行中の道路を特定
し、前記現在位置取得ステップにて取得された現在位置
を補正する補正ステップと、 を備えることを特徴とするマップマッチング方法。
4. A current position obtaining step for obtaining a current position of the own vehicle, an image capturing step for sequentially capturing a road surface image of the own vehicle including a lane in which the own vehicle is traveling, and a road surface image captured in the image capturing step. A measuring step of measuring a distance between lanes, a determining step of determining a type of a traveling road according to the distance measured in the measuring step, and a predetermined storage in accordance with the type determined in the determining step. And a correction step of correcting a current position acquired in the current position acquisition step by identifying a traveling road from the map information stored in the section.
【請求項5】自車の現在位置を取得する現在位置取得ス
テップと、車線を含む自車が走行中の路面画像を順次撮
像する撮像ステップと、前記撮像ステップにて撮像され
た路面画像に従って、車線の間隔の距離を計測する計測
ステップと、前記計測ステップにて計測された距離に従
って、走行中の道路の種別を判別する判別ステップと、
前記判別ステップにて判別された種別に従って、所定の
記憶部に記憶された地図情報から走行中の道路を特定
し、前記現在位置取得ステップにて取得された現在位置
を補正する補正ステップとを有するマップマッチング方
法をコンピュータに実行させるためのプログラムを記録
したコンピュータ読み取り可能な記録媒体。
5. A current position obtaining step for obtaining a current position of the own vehicle, an image capturing step for sequentially capturing a road surface image in which the own vehicle including a lane is traveling, and a road surface image captured in the image capturing step. A measuring step of measuring a distance between lanes, and a determining step of determining a type of a traveling road according to the distance measured in the measuring step;
In accordance with the type determined in the determination step, a traveling step is specified from map information stored in a predetermined storage unit, and a correction step of correcting the current position acquired in the current position acquisition step is provided. A computer-readable recording medium that records a program for causing a computer to execute the map matching method.
JP2000104816A 2000-04-06 2000-04-06 Navigation system, map matching method, and recording medium Expired - Lifetime JP3607159B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000104816A JP3607159B2 (en) 2000-04-06 2000-04-06 Navigation system, map matching method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000104816A JP3607159B2 (en) 2000-04-06 2000-04-06 Navigation system, map matching method, and recording medium

Publications (2)

Publication Number Publication Date
JP2001289651A true JP2001289651A (en) 2001-10-19
JP3607159B2 JP3607159B2 (en) 2005-01-05

Family

ID=18618298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000104816A Expired - Lifetime JP3607159B2 (en) 2000-04-06 2000-04-06 Navigation system, map matching method, and recording medium

Country Status (1)

Country Link
JP (1) JP3607159B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232514A (en) * 2006-02-28 2007-09-13 Aisin Aw Co Ltd Traveling road determination apparatus and storage medium
WO2009097917A1 (en) * 2008-02-04 2009-08-13 Robert Bosch Gmbh Device and method for determining the position of another traffic participant
WO2009107210A1 (en) * 2008-02-28 2009-09-03 パイオニア株式会社 Operational evaluation device of vehicle, method, and computer program
JP2010210477A (en) * 2009-03-11 2010-09-24 Clarion Co Ltd Navigation device
EP2336998A2 (en) 2009-12-10 2011-06-22 Aisin Aw Co., Ltd. Travel guiding apparatus for vehicle, travel guiding method for vehicle, and computer-readable storage medium
CN103376112A (en) * 2012-04-18 2013-10-30 德尔福技术有限公司 Elevated road auxiliary judging system, navigation equipment with same and navigation method thereof
WO2014065856A1 (en) * 2012-10-25 2014-05-01 Massachusetts Institute Of Technology Vehicle localization using surface penetrating radar
WO2015147371A1 (en) * 2014-03-28 2015-10-01 한화테크윈 주식회사 Device and method for correcting vehicle position, system for correcting vehicle position by using same, and vehicle capable of manless operation
US10663579B2 (en) 2017-01-27 2020-05-26 Massachusetts Institute Of Technology Extending footprint for localization using surface penetrating radar (SPR)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4720542B2 (en) * 2006-02-28 2011-07-13 アイシン・エィ・ダブリュ株式会社 Travel road identification device and storage medium
JP2007232514A (en) * 2006-02-28 2007-09-13 Aisin Aw Co Ltd Traveling road determination apparatus and storage medium
US8612150B2 (en) 2008-02-04 2013-12-17 Robert Bosch Gmbh Device and method for determining the position of another road user
WO2009097917A1 (en) * 2008-02-04 2009-08-13 Robert Bosch Gmbh Device and method for determining the position of another traffic participant
WO2009107210A1 (en) * 2008-02-28 2009-09-03 パイオニア株式会社 Operational evaluation device of vehicle, method, and computer program
JP2010210477A (en) * 2009-03-11 2010-09-24 Clarion Co Ltd Navigation device
EP2336998A2 (en) 2009-12-10 2011-06-22 Aisin Aw Co., Ltd. Travel guiding apparatus for vehicle, travel guiding method for vehicle, and computer-readable storage medium
JP2011122936A (en) * 2009-12-10 2011-06-23 Aisin Aw Co Ltd Vehicle travel guiding device, method and computer program
CN102183257A (en) * 2009-12-10 2011-09-14 爱信艾达株式会社 Travel guiding apparatus for vehicle, travel guiding method for vehicle, and computer-readable storage medium
EP2336998A3 (en) * 2009-12-10 2012-03-07 Aisin Aw Co., Ltd. Travel guiding apparatus for vehicle, travel guiding method for vehicle, and computer-readable storage medium
US8504293B2 (en) 2009-12-10 2013-08-06 Aisin Aw Co., Ltd. Travel guiding apparatus for vehicle, travel guiding method for vehicle, and computer-readable storage medium
CN103376112A (en) * 2012-04-18 2013-10-30 德尔福技术有限公司 Elevated road auxiliary judging system, navigation equipment with same and navigation method thereof
WO2014065856A1 (en) * 2012-10-25 2014-05-01 Massachusetts Institute Of Technology Vehicle localization using surface penetrating radar
US8949024B2 (en) 2012-10-25 2015-02-03 Massachusetts Institute Of Technology Vehicle localization using surface penetrating radar
WO2015147371A1 (en) * 2014-03-28 2015-10-01 한화테크윈 주식회사 Device and method for correcting vehicle position, system for correcting vehicle position by using same, and vehicle capable of manless operation
KR20150112536A (en) * 2014-03-28 2015-10-07 한화테크윈 주식회사 Apparatus and Method for Compensating Position of Vehicle, System for Compensating Position of Vehicle and Unmanned Vehicle Using the Same
KR102037129B1 (en) 2014-03-28 2019-11-26 한화디펜스 주식회사 Apparatus and Method for Compensating Position of Vehicle, System for Compensating Position of Vehicle and Unmanned Vehicle Using the Same
US10663579B2 (en) 2017-01-27 2020-05-26 Massachusetts Institute Of Technology Extending footprint for localization using surface penetrating radar (SPR)
US10725171B2 (en) 2017-01-27 2020-07-28 Massachusetts Institute Of Technology Method and system for localization of a vehicle using surface penetrating radar
US10746867B2 (en) 2017-01-27 2020-08-18 Massachusetts Institute Of Technology Determining surface characteristics
US11402493B2 (en) 2017-01-27 2022-08-02 Massachusetts Institute Of Technology Determining surface characteristics

Also Published As

Publication number Publication date
JP3607159B2 (en) 2005-01-05

Similar Documents

Publication Publication Date Title
US8239131B2 (en) Navigation device, navigation method, and navigation program
US7653482B2 (en) On-vehicle navigation apparatus and subject vehicle position correction method
JP4600357B2 (en) Positioning device
JP3958133B2 (en) Vehicle position measuring apparatus and method
US8380432B2 (en) Map information processing apparatus
JP4946238B2 (en) Vehicle periphery photographing transmission device and vehicle periphery photographing transmission program
US20090171582A1 (en) Vehicle navigation system
KR100887721B1 (en) Image car navigation system and method
JP5501101B2 (en) POSITIONING DEVICE, POSITIONING METHOD, AND POSITIONING PROGRAM
JP2009014574A (en) Road information generator, road information generation method, and road information generation program
JP2009250718A (en) Vehicle position detecting apparatus and vehicle position detection method
JP6106495B2 (en) Detection device, control method, program, and storage medium
JP2018105742A (en) Position calculation device
US20180005458A1 (en) Information presentation system for evaluating billing location
JP2007240380A (en) Intra-tunnel position detector
CN110998684A (en) Image collection system, image collection method, image collection device, recording medium, and vehicle communication device
JP3607159B2 (en) Navigation system, map matching method, and recording medium
JP2010190647A (en) Vehicle position measuring instrument and vehicle position measuring program
JP2001142532A (en) Position detection device for mobile object
US9014964B2 (en) Navigation apparatus capable of providing real-time navigation images
JP2006153565A (en) In-vehicle navigation device and own car position correction method
JP2010139478A (en) Navigation device
KR102407296B1 (en) Apparatus and method of displaying point of interest
JP2009058430A (en) Navigation apparatus and program
JP2001082975A (en) On-vehicle navigation device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041006

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3607159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071015

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091015

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091015

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101015

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111015

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121015

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121015

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121015

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 9

EXPY Cancellation because of completion of term