JPH0694470A - Vehicle position detecting device - Google Patents

Vehicle position detecting device

Info

Publication number
JPH0694470A
JPH0694470A JP24452692A JP24452692A JPH0694470A JP H0694470 A JPH0694470 A JP H0694470A JP 24452692 A JP24452692 A JP 24452692A JP 24452692 A JP24452692 A JP 24452692A JP H0694470 A JPH0694470 A JP H0694470A
Authority
JP
Japan
Prior art keywords
road
vehicle
image
intersection
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP24452692A
Other languages
Japanese (ja)
Other versions
JP3190739B2 (en
Inventor
Shigeru Ichikawa
茂 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP24452692A priority Critical patent/JP3190739B2/en
Publication of JPH0694470A publication Critical patent/JPH0694470A/en
Application granted granted Critical
Publication of JP3190739B2 publication Critical patent/JP3190739B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To provide a vehicle position detecting device capable of detecting a road on which a vehicle is traveling without error. CONSTITUTION:The image of a road is taken by a video camera 6 set on a vehicle, and the road form is extracted from the image by an image analyzing part 7b. The extracted road form is collated with road forms in a map data to determine the road on which the vehicle is traveling or the present place.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は車両位置検出装置に係
り、特に車両位置周辺の地図画像に車両位置マークを重
ねて表示し、走行案内を行うようにした車載ナビゲータ
に用いて好適な車両位置検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle position detecting device, and particularly to a vehicle position suitable for use in an in-vehicle navigator which displays a vehicle position mark on a map image around the vehicle position so as to guide a vehicle. Regarding a detection device.

【0002】[0002]

【従来の技術】車両の走行案内を行い、運転者が所望の
目的地に容易に到達できるようにした車載ナビゲータが
ある。この車載ナビゲータにおいては、車両位置を検出
してCD−ROMから車両位置周辺の地図データ(背景
レイヤ、文字記号レイヤ等)を読み出し、V−RAMに
地図画像を描画するとともに該地図画像に車両位置マー
クを重ねて描画し、V−RAMの画像を映像信号に変換
しながらCRTディスプレイに出力して画面に表示す
る。そして、車両の移動で車両位置が変化するのに従
い、画面の車両位置マークを移動したり、或いは車両位
置マークは画面の特定位置に固定して地図をスクロール
したりして、常に、現在地周辺の地図情報が一目で判る
ようになっている。
2. Description of the Related Art There is a vehicle-mounted navigator which guides a vehicle so that a driver can easily reach a desired destination. In this in-vehicle navigator, the vehicle position is detected, the map data (background layer, character symbol layer, etc.) around the vehicle position is read from the CD-ROM, the map image is drawn in the V-RAM, and the vehicle position is displayed in the map image. The marks are overlaid and drawn, and the image in the V-RAM is converted into a video signal and output to the CRT display and displayed on the screen. Then, as the vehicle position changes due to the movement of the vehicle, the vehicle position mark on the screen is moved, or the vehicle position mark is fixed at a specific position on the screen and the map is scrolled to always display the current position around the current position. The map information can be seen at a glance.

【0003】CD−ROMに記憶されている地図は縮尺
レベルに応じて適当な大きさの経度幅、緯度幅の地域に
区切られており、道路等は経緯度で表現された頂点(ノ
ード)の座標集合で示され、これらの描画は各ノードを
順に直線で接続することにより行われる。尚、2以上の
ノードを連結する部分は道路リンクと呼ばれる。
The map stored in the CD-ROM is divided into regions of a longitude width and a latitude width of appropriate sizes according to the scale level, and roads and the like have vertices (nodes) expressed in longitude and latitude. It is represented by a coordinate set, and these renderings are performed by connecting each node in sequence with a straight line. A portion connecting two or more nodes is called a road link.

【0004】車両位置の検出法には、方位センサと距離
センサを用いて出発地から累積的に自車位置を求める推
測航法(自立航法)と、衛星を用いて3角測量の原理で
絶対的に自車位置を求める衛星航法がある。この内、前
者の推測航法は、構成が簡単であり、衛星電波の届かな
いトンネルや衛星電波がビルに遮られたり多重反射した
りする市街地の走行で衛星航法を利用できない場合でも
確実に車両位置を検出できる利点があるが、センサ誤差
や車両の蛇行による誤差が累積するため、検出精度が悪
く、特に、走行距離が長くなると、誤差が大きくなり過
ぎて実際の位置とは掛け離れた地点に車両位置マークが
表示されてしまうという欠点がある。
Vehicle position detection methods include dead-reckoning navigation (self-contained navigation) that cumulatively obtains the vehicle position from the starting point using an azimuth sensor and a distance sensor, and absolute measurement based on the principle of triangulation using satellites. There is a satellite navigation method that seeks the vehicle position. Of these, the former type of dead reckoning has a simple structure, and even if satellite navigation cannot be used in tunnels where satellite radio waves do not reach or in urban areas where satellite radio waves are blocked by buildings or multiple reflections, the vehicle position can be reliably achieved. However, the accuracy of detection is poor because the sensor error and the error due to the meandering of the vehicle are accumulated, and especially when the mileage becomes long, the error becomes too large and the vehicle is located at a point far from the actual position. There is a drawback that the position mark is displayed.

【0005】このため、車載ナビゲータでは、地図デー
タにマップマッチング用の道路データを含めておき、推
測航法で検出した車両位置を道路データを用いて修正で
きるようにしてある。マップマッチングには、推測航法
で求めた車両位置を道路データ中の最寄りの道路に投影
して車両位置マークを正しい道路上に修正する投影法
と、推測航法で求めた車両位置の移動軌跡と道路データ
での道路形状を比較して走行中の正しい道路を探し、該
道路上に修正するパターンマッチング法の2つがある。
For this reason, in the vehicle-mounted navigator, the road data for map matching is included in the map data so that the vehicle position detected by dead reckoning can be corrected using the road data. Map matching includes a projection method that corrects the vehicle position mark on the correct road by projecting the vehicle position obtained by dead-reckoning to the nearest road in the road data, and the movement locus and road of the vehicle position obtained by dead-reckoning navigation. There are two pattern matching methods of comparing the road shapes in the data to find a correct road on which the vehicle is running and correcting it on the road.

【0006】図14はパターンマッチングによる車両位
置修正法の説明図である。尚、車両が道路RD1 を北東
の方向に移動し、道路RD2 に出たところで東に進路を
変え、ポイントPxで北に曲がって道路RD3 のポイン
トPcに到ったとき、車両位置マークCMがポイントP
c′上に表示され、しかも走行軌跡RDTが点線で示す
ようになっているものとする。パターンマッチングにお
いては、所定距離走行する毎に、(1)地図データを用
いて走行軌跡RTDの形状と同形の道路パスを捜し、
(2)基準点、例えば最新のノードPxに注目し、P
x′Pc′=PxPcとなるような道路パスRD上のポ
イントPcを求め、(3)しかる後、車両位置マークC
MをポイントPc′からポイントPcに移動させる。こ
のマップマッチング処理によれば、センサに誤差があっ
たり、車両が蛇行して走行距離に誤差が生じたりしても
車両位置を正しい位置に修正できる。
FIG. 14 is an explanatory diagram of a vehicle position correcting method by pattern matching. When the vehicle moves on the road RD 1 in the northeast direction, changes to the east when it comes out on the road RD 2 , turns north at the point Px and reaches the point Pc on the road RD 3 , the vehicle position mark CM is point P
It is assumed that it is displayed on c'and the traveling locus RDT is shown by the dotted line. In the pattern matching, every time the vehicle travels for a predetermined distance, (1) the map data is used to search for a road path having the same shape as the shape of the traveling locus RTD,
(2) Pay attention to the reference point, for example, the latest node Px,
A point Pc on the road path RD such that x′Pc ′ = PxPc is obtained, and (3) after that, the vehicle position mark C
M is moved from point Pc 'to point Pc. According to this map matching process, the vehicle position can be corrected to the correct position even if the sensor has an error or the vehicle meanders to cause an error in the traveling distance.

【0007】[0007]

【発明が解決しようとする課題】しかし、車両が図15
に示す如く、小さな角度で分かれた道路RD3 ,RD4
の内、一方に入って走行していく場合など、走行軌跡と
同形の道路パスが複数存在するとき、どの道路パスに合
わせて車両位置を修正して良いか判別できず、間違った
道路上に車両位置や走行軌跡を表示するという問題があ
る。この問題は、投影法によりマップマッチングを行う
場合でも同様に生じる。以上から本発明の目的は、車両
の現在地または走行中の道路を誤りなく検出できる車両
位置検出装置を提供することである。
However, if the vehicle is shown in FIG.
Roads RD 3 and RD 4 divided at small angles as shown in
When there is more than one road path that is the same shape as the travel path, such as when entering one of them, it is not possible to determine which road path should be used to correct the vehicle position, and There is a problem of displaying the vehicle position and the traveling locus. This problem also occurs when map matching is performed by the projection method. In view of the above, an object of the present invention is to provide a vehicle position detection device that can detect the current position of a vehicle or a road on which the vehicle is running without error.

【0008】[0008]

【課題を解決するための手段】上記課題は本発明におい
ては、車両に設置されて道路の映像を捉えるビデオカメ
ラと、ビデオカメラで捉えた映像から道路形状を抽出す
る画像分析手段と、地図データを記憶した地図データ記
憶手段と、画像分析手段で抽出した道路形状を地図デー
タ中の道路形状と照合し、車両が走行中の道路又は現在
地を割り出す照合手段とを設けたことにより達成され
る。
According to the present invention, there is provided the above-mentioned object, a video camera installed in a vehicle for capturing an image of a road, an image analyzing means for extracting a road shape from an image captured by the video camera, and map data. It is achieved by providing a map data storage means for storing the above, and a collating means for collating the road shape extracted by the image analyzing means with the road shape in the map data to determine the road on which the vehicle is traveling or the present location.

【0009】[0009]

【作用】本発明によれば、車両に設置したビデオカメラ
で道路の映像を捉え、該映像から道路形状を抽出する。
そして、抽出した道路形状を地図データ中の道路形状と
照合し、車両が走行中の道路又は現在地を割り出す。こ
れにより、センサ誤差や車両の蛇行による走行距離の誤
差の影響を受けずに、精度良く車両が走行中の道路又は
現在地を検出することができる。
According to the present invention, the video of the road is captured by the video camera installed in the vehicle, and the road shape is extracted from the video.
Then, the extracted road shape is collated with the road shape in the map data to determine the road on which the vehicle is traveling or the current location. As a result, it is possible to accurately detect the road on which the vehicle is traveling or the current position without being affected by the sensor error or the error in the traveling distance due to the meandering of the vehicle.

【0010】[0010]

【実施例】全体の構成 図1は本発明の実施例に係わる車載ナビゲータの全体構
成図である。図において、1は地図データ記憶手段とな
るCD−ROM、2は操作盤であり、車両位置マークに
対して地図をスクロールさせる左、右、上、下方向のス
クロールキー、地図検索、拡大/縮小用等の各種キーを
備えている。3は車両進行方向の絶対方位を検出し方位
信号を出力する方位センサ、4は車両が単位距離走行す
る毎にパルス出力する距離センサ、5は位置計算用CP
Uで、方位センサ3,距離センサ4から入力されるそれ
ぞれの信号より推測航法に基づき車両の現在位置(経
度、緯度)を算出する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Overall Configuration FIG. 1 is an overall configuration diagram of an in-vehicle navigator according to an embodiment of the present invention. In the figure, 1 is a CD-ROM that serves as map data storage means, 2 is an operation panel, and scroll keys for left, right, up, and down directions for scrolling a map with respect to a vehicle position mark, map search, and enlargement / reduction Equipped with various keys for use. 3 is a direction sensor that detects an absolute direction of the vehicle traveling direction and outputs a direction signal. 4 is a distance sensor that outputs a pulse each time the vehicle travels a unit distance. 5 is a position calculation CP.
At U, the current position (longitude, latitude) of the vehicle is calculated based on dead reckoning from the respective signals input from the azimuth sensor 3 and the distance sensor 4.

【0011】6は車両の屋根の前部に、前方へ水平から
少しだけ下に向けて設置されて車両前方の道路映像を捉
えるテレビカメラ、7は画像認識装置であり、テレビカ
メラで捉えた映像を分析し、道路形状を抽出するととも
に地図データ中の道路データと照合することで、走行中
の道路を割り出したり、車両の現在地を割り出したりす
る。7aはテレビカメラで捉えた映像から定期的に静止
画像を取り出す静止画抽出部、7bは静止画抽出部で抽
出された静止画像に対し、2値化、エッジ検出、細線
化、特徴抽出を順に行い道路形状を抽出する画像分析
部、7cは画像分析部で抽出された道路形状を地図デー
タ中の道路データと照合して、走行中の道路を割り出す
とともに、車両の現在地も割り出す照合部(マッチング
部)である。
Reference numeral 6 denotes a TV camera installed on the front part of the roof of the vehicle so as to point slightly downward from the horizontal and captures an image of the road ahead of the vehicle. Reference numeral 7 denotes an image recognition device which is an image captured by the television camera. The road shape is extracted and the road shape is extracted and collated with the road data in the map data to determine the road on which the vehicle is running or the current position of the vehicle. Reference numeral 7a denotes a still image extraction unit that periodically extracts a still image from a video captured by a television camera, and 7b sequentially performs binarization, edge detection, thinning, and feature extraction on the still image extracted by the still image extraction unit. An image analysis unit 7c for performing road shape extraction performs a comparison between the road shape extracted by the image analysis unit and the road data in the map data to determine the road on which the vehicle is running and the current location of the vehicle (matching unit). Section).

【0012】8はナビゲーション処理装置で、システム
コントローラ(CPU)9,地図データバッファメモリ
10等を有している。システムコントローラ9はナビゲ
ーション処理部9aとマップマッチング処理部9bを有
し、(1)車両現在位置に応じた地図データをCD−R
OM1から地図データバッファメモリ10に読み出し、
該地図データをディスプレイ装置に入力して地図を描画
させ、(2)車両の走行に応じて地図読み出しアドレス
(ウインド−アドレス)を変更して地図をスクロールさ
せ、(3)車両の通過位置データを離散的に記憶して走
行軌跡とし、該走行軌跡データをディスプレイ装置に入
力して走行軌跡を描画させ、(4)車両の現在地データ
と方位データをディスプレイ装置に入力して車両位置マ
ークを地図上の該当する位置に進行方向を向けて描画さ
せ(以上ナビゲーション処理)、更に、(5)マップマ
ッチング(パターンマッチング)処理を行って車両位置
を修正し、(6)走行軌跡の形状と同形の道路パスが2
以上存在する場合における車両位置修正処理等を行う。
A navigation processing device 8 has a system controller (CPU) 9, a map data buffer memory 10 and the like. The system controller 9 has a navigation processing unit 9a and a map matching processing unit 9b, and (1) CD-R maps data corresponding to the current vehicle position.
Read from OM1 to map data buffer memory 10,
The map data is input to a display device to draw a map, (2) the map read address (window-address) is changed according to the traveling of the vehicle to scroll the map, and (3) the passing position data of the vehicle is displayed. The data is discretely stored as a travel locus, the travel locus data is input to the display device to draw the travel locus, and (4) the vehicle's current position data and direction data are input to the display device to display the vehicle position mark on the map. Draw the direction of travel to the corresponding position of (the above navigation processing), and further perform (5) map matching (pattern matching) processing to correct the vehicle position, and (6) a road having the same shape as the shape of the traveling locus. 2 passes
Vehicle position correction processing and the like in the case where the above exists are performed.

【0013】11はディスプレイ装置であり、CRTコ
ントローラ12、ビデオRAM(V−RAM)13、読
み出し制御部14、CRT15等を有し、CRT画面に
所望の地図及びマークを表示するようになっている。
A display device 11 has a CRT controller 12, a video RAM (V-RAM) 13, a read control unit 14, a CRT 15, etc., and displays a desired map and mark on the CRT screen. .

【0014】地図データ CD−ROM1に記憶されている地図データは、(1)
道路リスト、交差点構成ノードリスト、ノードリスト等
からなる道路レイヤと、(2)地図上のオブジェクトを
表示するための背景レイヤと、(3)市町村名や国道名
などを表示するための文字記号レイヤなどから構成され
ている。
The map data stored in the map data CD-ROM 1 is (1)
Road layer consisting of road list, intersection configuration node list, node list, etc., (2) background layer for displaying objects on the map, (3) character symbol layer for displaying municipality names, national road names, etc. Etc.

【0015】道路レイヤは図2に示すデータ構造を有し
ており、道路リストは地図上の各道路(一本の道路を複
数の頂点(ノード)の集合で表したもの)毎に、道路の
種別(国道、高速道路、細い道路、有料道路、主要地方
道、その他の別)、道路上の全ノード数、道路を構成す
る各ノードのノードリスト上の番号と幅員等のデータ
を、順にリストにしたものである。ノードリストは地図
上の各ノード毎に位置情報(経度・緯度)、交差点か否
かの交差点識別フラグ、当該ノードが交差点のときは交
差点構成ノードリスト上での番号を示し、交差点でない
ときは道路リスト上での番号を示すポインタ等のデータ
を順にリストにしたものである。交差点構成ノードリス
トは地図上の各交差点毎に、交差点に連結するリンク上
で最も該交差点に近いノード(交差点構成ノードとい
う)の数と、該交差点構成ノードの集合(ノードリスト
上での番号で表す)を順にリストにしたものである。
The road layer has the data structure shown in FIG. 2, and the road list includes a road list for each road (one road is represented by a set of a plurality of vertices (nodes)) on the map. Data such as type (national road, highway, narrow road, toll road, main local road, other), total number of nodes on the road, number on node list of each node and width, etc. It is the one. The node list shows the position information (longitude / latitude) for each node on the map, the intersection identification flag whether or not it is an intersection, the number on the intersection constituent node list when the node is an intersection, and the road when it is not an intersection. It is a list of data such as pointers indicating numbers on the list in order. For each intersection on the map, the intersection configuration node list is the number of nodes (called intersection configuration nodes) that are closest to the intersection on the link connecting the intersections, and the set of the intersection configuration nodes (numbers on the node list Representation) is a list in order.

【0016】図3は車両の走行経路を周辺道路とともに
示す説明図、図4は画像認識装置による画像認識処理の
流れ図、図5は画像認識動作の説明図、図6は透視図形
から平面図形への変換方法の説明図、図7は平面図形に
変換後の交差点道路形状を示す説明図、図8は画像認識
動作の説明図、図9は平面図形に変換後の道路形状を示
す説明図、図10はシステムコントローラ9の車両位置
修正処理の流れ図、図11は車両位置修正処理の説明図
であり、以下これ等の図に従って説明する。
FIG. 3 is an explanatory view showing the traveling route of the vehicle together with surrounding roads, FIG. 4 is a flow chart of the image recognition processing by the image recognition device, FIG. 5 is an explanatory view of the image recognition operation, and FIG. 6 is a perspective graphic to a planar graphic. FIG. 7 is an explanatory view showing an intersection road shape after being converted into a planar figure, FIG. 8 is an explanatory view of image recognition operation, FIG. 9 is an explanatory view showing a road shape after being converted into a planar figure, FIG. 10 is a flow chart of the vehicle position correction processing of the system controller 9, and FIG. 11 is an explanatory diagram of the vehicle position correction processing, which will be described below with reference to these figures.

【0017】画像認識動作 画像認識装置7は、静止画抽出部7aがテレビカメラ6
で捉えた車両前方の道路映像から定期的に静止画像を抽
出する(図4のステップ101)。そして、1枚の静止
画が抽出される毎に、画像分析部7bが2値化、エッジ
検出、細線化を順に行ったのち、交点や端点の特徴点、
線セグメント(交点と端点を結ぶ線分又は端点同士を結
ぶ線分)を抽出することで道路形状を抽出する(ステッ
プ102〜105)。
Image Recognition Operation In the image recognition device 7, the still image extraction section 7a is used in the television camera 6.
A still image is periodically extracted from the road image in front of the vehicle captured in (step 101 in FIG. 4). Then, every time one still image is extracted, the image analysis unit 7b performs binarization, edge detection, and thinning in order, and then the characteristic points at the intersections and end points,
The road shape is extracted by extracting a line segment (a line segment connecting the intersection and the end point or a line segment connecting the end points) (steps 102 to 105).

【0018】次いで、照合部7cが画像分析部7bで抽
出された道路形状が交点を含む交差点であるか(ステッ
プ106)、又は、複数の線セグメントを含む交差点近
傍であるかチェックし(ステップ107)、ステップ1
06でYESとなった場合は、ナビゲーション処理装置
8の地図データバッファメモリ10に読み出されている
車両位置周辺の道路データと照合して、同一の交差点を
割り出し(ステップ108)、該割り出した交差点デー
タ(交差点ノードと交差点構成ノードの組み合わせ)と
交差点を構成する各道路の識別データをメモリに一時記
憶したのち(ステップ109)、更に、自車位置の乗っ
ている道路を割り出すともに、自車位置自体も割り出し
てシステムコントローラ9へこれらのデータを出力する
(ステップ110)。そして、ステップ111で一定時
間待ったあと再びステップ101に戻る。なお、ステッ
プ111では一定距離走行するのを待つようにしてもよ
い。
Next, the collation unit 7c checks whether the road shape extracted by the image analysis unit 7b is an intersection including an intersection (step 106) or is near an intersection including a plurality of line segments (step 107). ), Step 1
If YES in 06, it is collated with the road data around the vehicle position read in the map data buffer memory 10 of the navigation processing device 8 to find the same intersection (step 108), and the determined intersection is found. After temporarily storing the data (combination of the intersection node and the intersection constituent node) and the identification data of each road forming the intersection in the memory (step 109), the road on which the own vehicle position is located is determined and the own vehicle position is determined. It also determines itself and outputs these data to the system controller 9 (step 110). Then, after waiting for a fixed time in step 111, the process returns to step 101 again. It should be noted that, in step 111, the vehicle may wait for traveling for a certain distance.

【0019】具体的には、例えば、車両が図3の矢印に
示す経路に沿って走行しており、途中、A点で捉えられ
た静止画像の2値化画像に対しエッジ検出した画像が図
5(1)の如くなったとき、ステップ104の細線化で
図5(2)の如くなり、更に、ステップ105で図5
(3)に示す如く、交点cpと端点ep1 〜ep5 、線
セグメントks1 〜ks5 からなる道路形状が特徴抽出
される。該道路形状は交点cpを含むことから照合部7
cによりステップ106で交差点道路形状と把握され
る。
Specifically, for example, a vehicle is traveling along a route shown by an arrow in FIG. 3, and an image obtained by edge detection is shown on a binarized image of a still image captured at a point A on the way. 5 (1), the thinning in step 104 produces the result shown in FIG. 5 (2).
As shown in (3), the feature of the road shape consisting of the intersection points cp, the end points ep 1 to ep 5 , and the line segments ks 1 to ks 5 is extracted. Since the road shape includes the intersection point cp, the matching unit 7
From step c, the road shape of the intersection is recognized in step 106.

【0020】照合部7cは、画像分析部7bで抽出され
た交差点道路形状が透視図形になっていることから、ス
テップ107の処理を行う際、事前に、該交差点道路形
状を図6に示す方法で一旦、平面図形に変換し、道路デ
ータとの照合をし易くする。図6において、X−Z面は
地面に相当する水平面であり、Y軸は鉛直上向きになっ
ている。図5(3)の図形をX−Y平面内で中央がY軸
の正側の所定位置となるように置き、該図形が、前面側
所定位置のビューポイントVPからX−Y平面の図形を
見通した図形となるようにX−Z面に描画して平面図形
とする。平面図形への変換により、cp→cp´、 e
1 〜ep5 →ep1 ´〜ep 5 ´、ks1 〜ks5
ks1 ´〜ks5 ´となる(図7参照)。
The collation unit 7c is extracted by the image analysis unit 7b.
Since the intersection road shape is a perspective figure,
Before performing the processing of step 107, the intersection road shape
The shape is once converted into a plane figure by the method shown in Fig. 6, and the road
Make it easier to check the data. In FIG. 6, the XZ plane is
It is a horizontal plane equivalent to the ground, and the Y-axis is vertically upward.
ing. In the XY plane, the center of the figure in FIG. 5C is the Y axis.
Place it so that it is at the specified position on the positive side of
From the view point VP at a predetermined position, draw a figure on the XY plane.
Drawing on the XZ plane so that it looks like a flat figure
And By conversion to a plane figure, cp → cp ', e
p1~ EpFive→ ep1´ ~ ep Five´, ks1~ KsFive
ks1´ ~ ksFive′ (See FIG. 7).

【0021】一方、地図データバッファメモリ9に格納
された車両位置周辺の道路データでは、図3に示す如
く、交差点CP1 が交差点ノードN10と交差点構成ノー
ドN4,N6 〜N9 の組合わせで表現され、交差点CP
2 が交差点ノードN5 と交差点構成ノードN1 〜N4
組合わせで表現され、交差点CP3 が交差点ノードN13
と交差点構成ノードN9 ,N11,N12の組合わせで表現
されている。そして、道路RD1 はノードN1 ,N5
3 ・・を順に結んで表現されており、道路RD 2 はノ
ードN2 ,N5 ,N4 ,N10,N9 ,N13・・を順に結
んで表現されており、道路RD3 はノードN6 ,N10
8 を順に結んで表現されており、道路RD4 はノード
10,N7 ,・・を順に結んで表現されており、道路R
5 はノードN11,N13,N12・・を順に結んで表現さ
れている。
On the other hand, stored in the map data buffer memory 9
The road data around the determined vehicle position is as shown in Fig. 3.
Crossing point CP1Is an intersection node NTenAnd intersection configuration no
De NFour, N6~ N9Expressed as a combination of
2Is an intersection node NFiveAnd intersection node N1~ NFourof
Expressed as a combination, the intersection CP3Is an intersection node N13
And intersection node N9, N11, N12Expressed as a combination of
Has been done. And road RD1Is node N1, NFive
N3・ ・ The roads are represented by connecting them in order. 2Is
Code N2, NFive, NFour, NTen, N9, N13・ ・ Sequentially connect
The road RD3Is node N6, NTen
N8The road RDFourIs a node
NTen, N7,, ... are connected in order, and the road R
DFiveIs node N11, N13, N12・ ・ Expressed by connecting in order
Has been.

【0022】照合部7cは平面図形に変換した交差点道
路形状(cp´,ep1 ´〜ep5´,ks1 ´〜ks
5 ´)を、車両位置周辺の道路データの中の各交差点デ
ータ(各々交差点ノードと交差点構成ノードの組み合わ
せ)で表現された各交差点形状と比較し、最も類似して
いるもの1つを選択することで、交差点CP1 を割り出
す。なお、交差点の割り出しは、平面図形に変換した交
差点道路形状を適宜、回転移動、平行移動、縮小、拡大
し、道路データ中の交差点データで表現された各交差点
形状とのマッチング度を算出することで行えるが、方位
センサ3で検出された車両方位を入力し、該車両方位が
図7の中央一番下に存在する端点ep1 ´(ep1 ´は
車両位置に対応する)とcp´を含む線セグメントks
1 ´(ks1´は車両が現在走行中の道路に対応する)
を、検出した方位に固定して比較すれば、より簡単に照
合処理を行える。
The collation unit 7c intersection road shape obtained by converting the plane figures (cp', ep 1'~ep 5 ' , ks 1'~ks
5 ') is compared with each intersection shape represented by each intersection data (each combination of intersection node and intersection constituent node) in the road data around the vehicle position, and the one that is most similar is selected. By doing so, the intersection CP 1 is determined. In order to determine the intersection, the intersection road shape converted into a planar figure is appropriately rotated, translated, reduced, or enlarged, and the degree of matching with each intersection shape represented by the intersection data in the road data is calculated. However, the vehicle direction detected by the direction sensor 3 is input, and the vehicle direction is set to the end point ep 1 ′ (ep 1 ′ corresponds to the vehicle position) and cp ′ at the bottom center of FIG. 7. Including line segment ks
1 '(ks 1' vehicle corresponds to the road currently running)
Is fixed to the detected azimuth and compared, the collation process can be performed more easily.

【0023】交差点CP1 の割り出しが済むと、照合部
7cは、該交差点CP1 に係る交差点データ(交差点ノ
ードN10と交差点構成ノードN4 ,N6 〜N9 の組合わ
せ)と、交差点を構成する各道路の識別データ(R
2 ,RD3 ,RD4 に係る道路リスト上の道路番号)
をメモリに一時記憶したあと、線セグメントks1 ´に
対応する道路RD2 を現在走行中の道路として割り出
し、更に、該道路RD2 の上で端点ep1 ´に対応する
位置を車両の現在地とする。現在地は道路RD2 の上で
線セグメントks1 ´の長さ分だけ交差点CP1 から手
前の位置として定まる。そして、割り出した道路RD2
と現在地をシステムコントローラ9へ出力する。
After the intersection CP 1 is determined, the collating unit 7c determines the intersection data (combination of the intersection node N 10 and the intersection constituent nodes N 4 , N 6 to N 9 ) relating to the intersection CP 1 and the intersection. Identification data of each road (R
(Road number on the road list for D 2 , RD 3 , and RD 4 )
Is temporarily stored in the memory, the road RD 2 corresponding to the line segment ks 1 ′ is indexed as the road currently running, and the position on the road RD 2 corresponding to the end point ep 1 ′ is set as the current position of the vehicle. To do. The current position is determined on the road RD 2 as a position in front of the intersection CP 1 by the length of the line segment ks 1 ′. And the determined road RD 2
And the current location are output to the system controller 9.

【0024】その後、一定時間経過したあと、再び、静
止画抽出部7aがテレビカメラ6で捉えた車両前方の道
路映像から静止画像を抽出したとき(ステップ10
1)、車両が交差点CP1 を北に曲がり道路RD4 に沿
ってB点まで走行していたならば、画像分析部7bによ
るエッジ検出、細線化は図8の(1)、(2)の如く進
み(ステップ102〜104)、特徴抽出すると図8
(3)の如くなり、交点は存在しないが、端点ep1
ep2 と、線セグメントsk1 ,sk2 が道路形状とし
て見出される(ステップ105)。線セグメントが複数
存在することからステップ107でYESとなり、この
とき、照合部7cは図6に示す手法で平面図形化して図
9の如くしたあと、メモリに一時記憶された最新の交差
点データを用いて、今回、静止画像から抽出した道路形
状が交差点を構成する道路の一部と一致するか照合を行
う(ステップ112)。
After a lapse of a certain time, when the still image extracting unit 7a again extracts a still image from the road image ahead of the vehicle captured by the television camera 6 (step 10).
1) If the vehicle is turning north at the intersection CP 1 and traveling along the road RD 4 to the point B, the edge detection and thinning by the image analysis unit 7b are as shown in (1) and (2) of FIG. As shown in FIG.
As shown in (3), there is no intersection, but the end point ep 1 ,
ep 2 and line segments sk 1 and sk 2 are found as road shapes (step 105). Since there are a plurality of line segments, YES is obtained in step 107. At this time, the collation unit 7c uses the latest intersection data temporarily stored in the memory after making the plane figure by the method shown in FIG. Then, this time, it is checked whether the road shape extracted from the still image matches a part of the roads forming the intersection (step 112).

【0025】ここでは、線セグメントks1 ´が交差点
ノードN10とノードN7 を結ぶリンクの一部と一致し、
線セグメントks2 ´が交差点ノードN10とノードN8
を結ぶリンクの一部と一致するので、続いて、メモリに
一時記憶された道路の識別データの中から車両現在地に
相当する端点ep1 ´を含む線セグメントsk1 ´に対
応するRD4 を選択して、車両が現在走行中の道路とし
て割り出し、更に、該道路RD4 の上で端点ep1 ´に
対応する位置を車両の現在地として割り出す(ステップ
110)。現在地は線セグメントks1 ´と線セグメン
トks2 ´を延長した交点(図9のcp´参照)と端点
ep1 ´間の長さ分だけ道路RD4 の上を交差点CP1
から先に進んだ位置として定まる。そして、割り出した
道路RD4 と現在地をシステムコントローラ9へ出力す
る。
Here, the line segment ks 1 ′ coincides with a part of the link connecting the intersection nodes N 10 and N 7 ,
The line segment ks 2 ′ has intersection nodes N 10 and N 8.
Since it coincides with a part of the link connecting the two, the RD 4 corresponding to the line segment sk 1 ′ including the end point ep 1 ′ corresponding to the current vehicle position is selected from the road identification data temporarily stored in the memory. Then, the vehicle is indexed as the road on which the vehicle is currently traveling, and the position on the road RD 4 corresponding to the end point ep 1 ′ is indexed as the current position of the vehicle (step 110). Your location line segments ks 1 'and the line segment ks 2' intersections obtained by extending the end points ep 1 'intersections CP 1 over the length amount corresponding road RD 4 between (CP' see FIG. 9)
The position is determined as the position advanced from. Then, the determined road RD 4 and the present location are output to the system controller 9.

【0026】なお、上記した画像認識装置7による走行
中の道路と現在地の割り出しは、車両が交差点近くを走
行している場合のみ実行される(ステップ106又は1
07でYESとなる場合)。
It should be noted that the above-described image recognition device 7 determines the road in which the vehicle is traveling and the current location only when the vehicle is traveling near the intersection (step 106 or 1).
If YES at 07).

【0027】ナビゲーション処理装置の動作 システムコントローラ9は、位置計算用CPU5から入
力した車両位置データに基づき、車両の走行に応じて所
定の地図データをCD−ROM1から地図データバッフ
ァメモリ10に読み出し、該地図データをディスプレイ
装置11に入力して地図を描画させるとともに、地図読
み出しアドレス(ウインド−アドレス)を変更して地図
をスクロールさせる。又、システムコントローラ9は最
新の幾つかの車両通過位置(経度・緯度)を離散的に内
蔵のメモリに記憶して走行軌跡データとし、該走行軌跡
データをディスプレイ装置11に入力して走行軌跡RT
Dを表示させ、更に、現在の車両位置データと車両方位
データをディスプレイ装置11に入力して車両位置マー
クCMをCRT14に表示させる(図10のステップ2
01、以上ナビゲーション処理)。
The operation system controller 9 of the navigation processor reads out predetermined map data from the CD-ROM 1 to the map data buffer memory 10 according to the traveling of the vehicle based on the vehicle position data input from the position calculation CPU 5, and The map data is input to the display device 11 to draw the map, and the map read address (window address) is changed to scroll the map. Further, the system controller 9 discretely stores some of the latest vehicle passing positions (longitude / latitude) in a built-in memory as traveling locus data, and inputs the traveling locus data into the display device 11 to drive the traveling locus RT.
D is displayed, and the current vehicle position data and vehicle azimuth data are input to the display device 11 to display the vehicle position mark CM on the CRT 14 (step 2 in FIG. 10).
01 and above navigation processing).

【0028】所定距離移動する毎にシステムコントロー
ラ9は走行軌跡RTDの形状と地図データの道路形状と
を比較して、走行軌跡と同形の道路パスを求める(マッ
プマッチング、ステップ202)。
Every time the system controller 9 moves a predetermined distance, the system controller 9 compares the shape of the traveling locus RTD with the road shape of the map data to obtain a road path having the same shape as the traveling locus (map matching, step 202).

【0029】しかる後、走行軌跡RTDと同形の道路パ
スが2以上存在するかチェックし(ステップ203)、
同形の道路パスが1つしか存在しない場合には、該道路
パス上の位置に車両位置マークCMを修正してCRT1
4に表示させ(ステップ205)、該修正した車両位置
データを位置計算用CPU5に与えて新たな起点とさせ
たのち、ステップ201に戻って以降の処理を繰り返
す。
Then, it is checked whether there are two or more road paths having the same shape as the traveling locus RTD (step 203).
If only one road path of the same shape exists, the vehicle position mark CM is corrected to a position on the road path, and the CRT1
4 is displayed (step 205), the corrected vehicle position data is given to the position calculation CPU 5 as a new starting point, and then the process returns to step 201 to repeat the subsequent processing.

【0030】一方、車両が図3の走行経路に沿ってB点
を過ぎる位置まで走行していたとき、図11(1)のR
3 、RD4 に示すように、走行軌跡RTDとほぼ同形
の道路パスが2以上存在して、走行軌跡と道路形状の比
較だけではいずれの道路パスに修正してよいか判らない
場合、画像認識装置7から入力した最新の走行道路の識
別データの示す道路パスRD4 を正しい候補として、該
道路RD4 の上の位置に車両位置マークCMを修正して
CRT14に表示させ、該修正した車両位置データを位
置計算用CPU5に与えて新たな起点とさせる(ステッ
プ204、205図11(2)参照)。
On the other hand, when the vehicle is traveling along the traveling route of FIG. 3 to a position past point B, R of FIG.
As shown in D 3 and RD 4 , if there are two or more road paths that are almost the same as the travel locus RTD, and it is not possible to correct which road path to correct only by comparing the travel locus and the road shape, the image Using the road path RD 4 indicated by the identification data of the latest traveling road input from the recognition device 7 as a correct candidate, the vehicle position mark CM is corrected at a position above the road RD 4 and displayed on the CRT 14, and the corrected vehicle is displayed. The position data is given to the position calculation CPU 5 to be a new starting point (steps 204, 205, see FIG. 11 (2)).

【0031】この結果、交差点CP1 を通過後、互いに
近接してほぼ平行に走る道路RD3,RD4 の内、一方
を走行していく場合でも、車両位置マークを正しく走行
道路RD4 の上に合わせることが可能となる。
As a result, after passing through the intersection CP 1 , even when traveling on one of the roads RD 3 and RD 4 which are close to each other and run substantially in parallel, the vehicle position mark is correctly placed on the traveling road RD 4 . It is possible to adjust to.

【0032】尚、上記した実施例では画像認識装置7か
ら入力した最新の走行道路の識別データの示す道路パス
RD4 を正しい候補としたが、画像認識装置7から入力
した最新の現在地データに近い方の道路パスを正しい候
補とするようにしてもよい。また、パターンマッチング
を行う場合を例に挙げたが、投影法によるマップマッチ
ングを行う場合でも、投影対象候補が複数存在していず
れの道路に投影してよいか判らない場合に、画像認識装
置7からの情報に基づき候補を絞ることができる。更
に、道路を捉えた映像から道路の幅員を認識して、地図
データの道路形状と比較する際の参考にしてもよい。
In the above embodiment, the road path RD 4 indicated by the latest identification data of the traveling road input from the image recognition device 7 is set as the correct candidate, but it is close to the latest current position data input from the image recognition device 7. Alternatively, the other road path may be set as a correct candidate. Although the case where the pattern matching is performed has been described as an example, the image recognition device 7 can also perform the map matching by the projection method when there is a plurality of projection target candidates and it is not possible to project the road. Can narrow down candidates based on information from. Further, the width of the road may be recognized from the image capturing the road, and may be used as a reference when comparing with the road shape of the map data.

【0033】図12は上記した実施例の変形例構成図で
あり、テレビカメラ60は車両の屋根の前部に水平より
やや上向きで前方に向けて設置されている。このテレビ
カメラ60により、道路の上に設置された道路案内標識
80の映像が捉えられる。70は画像認識装置であり、
テレビカメラで捉えた映像を分析し、道路案内標識に表
示された道路形状を抽出するとともに地図データ中の道
路データと照合することで、走行中の道路を割り出した
り、車両の現在地を割り出したりする。
FIG. 12 is a block diagram of a modification of the above-described embodiment, in which the television camera 60 is installed in the front part of the roof of the vehicle so as to face forward and slightly upward from the horizontal. The television camera 60 captures an image of the road guide sign 80 installed on the road. 70 is an image recognition device,
By analyzing the image captured by the TV camera, extracting the road shape displayed on the road sign and collating it with the road data in the map data, the running road and the current location of the vehicle can be found. .

【0034】70aはテレビカメラで捉えた映像から定
期的に静止画像を取り出す静止画抽出部、70bは静止
画抽出部で抽出された静止画に対し、道路標識の切り出
し(標識の地色が青色であること等に着目して行う)、
2値化、道路標識中の道路部分(以下、標識道路とい
う)の切り出し、特徴抽出を順に行い標識道路形状を抽
出する画像分析部、70cは画像分析部で抽出された標
識道路形状を地図データ中の道路データと照合して、走
行中の道路を割り出すとともに、車両の現在地も割り出
す照合部(マッチング部)である。
Reference numeral 70a denotes a still image extracting section for periodically extracting a still image from the image captured by the television camera, and 70b denotes a road sign cut out (the background color of the sign is blue) for the still image extracted by the still image extracting section. Is performed),
An image analysis unit for extracting the road shape of the road by binarizing, cutting out the road portion in the road sign (hereinafter referred to as the road sign), and extracting features, and 70c is the map data of the road shape extracted by the image analysis unit. This is a collating unit (matching unit) that collates with the inside road data to determine the road on which the vehicle is running and also the present location of the vehicle.

【0035】図13は画像認識装置70の動作説明図で
あり、以下、この図に従って説明する。今、車両の走行
中の或る時点で、静止画像が静止画抽出部70aで抽出
され、画像分析部70bの道路標識の切り出しと2値化
で図13(1)の如くなったとき、切り出しで図13
(2)の如く画像が得られる。そして、図13(2)の
画像から図13(3)の如く、交点cp1 ,cp2 、端
点ep1 〜ep4 、線セグメントks1 〜sk5 から成
る標識道路形状が抽出される。なお、一番下の端点ep
1 は車両の現在地に相当し、該端点ep1 を含む線セグ
メントks1 は現在走行中の道路に相当する。
FIG. 13 is a diagram for explaining the operation of the image recognition apparatus 70, which will be described below with reference to this figure. When a still image is extracted by the still image extraction unit 70a at a certain point in time when the vehicle is running, and the road sign is cut out and binarized by the image analysis unit 70b as shown in FIG. In Figure 13
An image is obtained as in (2). Then, as shown in FIG. 13 (3), the sign road shape including the intersections cp 1 and cp 2 , the end points ep 1 to ep 4 , and the line segments ks 1 to sk 5 is extracted from the image of FIG. 13 (2). In addition, the bottom end point ep
1 corresponds to the current position of the vehicle, and the line segment ks 1 including the end point ep 1 corresponds to the road currently running.

【0036】照合部70cは、抽出された標識道路形状
を道路データで表現された道路形状と比較し、最も類似
しているものを選択して線セグメントsk1 の一方の端
に存在する交点cp1 に対応する交差点を割り出したの
ち、線セグメントsk1 に対応する道路を現在走行中の
道路として割り出すとともに、該道路上でcp1 に対応
する交差点から線セグメントsk1 の長さ分だけ手前の
現在地を割り出し、これら割り出した道路と現在地を外
部へデータ出力する。
The collating unit 70c compares the extracted sign road shape with the road shape represented by the road data, selects the most similar one, and selects the intersection point cp existing at one end of the line segment sk 1. After the intersection corresponding to 1 is determined, the road corresponding to the line segment sk 1 is determined as the currently running road, and the intersection corresponding to cp 1 on the road is located in front of the intersection corresponding to the length of the line segment sk 1 . The current location is calculated, and the roads and the current location that have been calculated are output to the outside.

【0037】この結果、車両が走行中の道路及び現在地
を正確に検出することが可能となる。また、道路標識の
映像が単純なことから、画像分析を簡単に行うことがで
きる。なお、現在地は、現在走行中の道路上でcp1
対応する交差点から一定距離(例えば、300m)だけ手前
を現在地としてもよく、叉、図12に示す如く道路標識
に距離を表す文字が描かれている場合も多いので、該文
字をテンプレートマッチング等で認識して現在地を求め
る参考にしてもよい。また、道路標識は、ほとんどの場
合、主要道路だけ表示されているので、道路データの
内、種別情報が国道、高速道路、有料道路、主要地方道
となっている道路だけで照合を行うようにしてもよい。
As a result, it becomes possible to accurately detect the road on which the vehicle is traveling and the current location. Further, since the image of the road sign is simple, the image analysis can be easily performed. Note that the current location may be a certain distance (for example, 300 m) from the intersection corresponding to cp 1 on the road currently being driven, and the current location may be drawn with a character indicating the distance on the road sign as shown in FIG. In many cases, the character may be recognized by template matching or the like to obtain the current position. Also, in most cases, road signs are displayed only for main roads.Therefore, only the roads whose type information is national road, highway, toll road, or main local road should be matched. May be.

【0038】[0038]

【発明の効果】以上本発明によれば、車両に設置されて
道路の映像を捉えるビデオカメラと、ビデオカメラで捉
えた映像から道路形状を抽出する画像分析手段と、地図
データを記憶した地図データ記憶手段と、画像分析手段
で抽出した道路形状を地図データ中の道路形状と照合
し、車両が走行中の道路又は現在地を割り出す照合手段
とを設け、ビデオカメラで道路の映像を捉え、該映像か
ら道路形状を抽出し、抽出した道路形状を地図データ中
の道路形状と照合し、車両が走行中の道路又は現在地を
割り出すように構成したから、センサ誤差や車両の蛇行
による走行距離の誤差の影響を受けずに、精度良く車両
が走行中の道路又は現在地を検出することができる。
As described above, according to the present invention, a video camera installed in a vehicle for capturing an image of a road, an image analysis means for extracting a road shape from an image captured by the video camera, and map data storing map data. A storage means and a matching means for matching the road shape extracted by the image analysis means with the road shape in the map data to find the road on which the vehicle is traveling or the current location are provided, and the video of the road is captured by the video camera, The road shape is extracted from the map, and the extracted road shape is compared with the road shape in the map data to determine the road on which the vehicle is running or the current location. It is possible to accurately detect the road on which the vehicle is traveling or the current position without being affected.

【0039】また、車両に設置されて道路案内標識の映
像を捉えるビデオカメラと、ビデオカメラで捉えた映像
から標識道路の形状を抽出する画像分析手段と、地図デ
ータを記憶した地図データ記憶手段と、画像分析手段で
抽出した標識道路道路形状を地図データ中の道路形状と
照合し、車両の走行中の道路又は現在地を割り出す照合
手段とを設け、ビデオカメラで道路の映像を捉え、該映
像から標識道路形状を抽出し、抽出した標識道路形状を
地図データ中の道路と照合し、車両が走行中の道路又は
現在地を割り出すように構成したから、センサ誤差や車
両の蛇行による走行距離の誤差の影響を受けずに、精度
良く車両が走行中の道路又は現在地を検出することがで
き、この際、道路標識の映像が単純なことから、画像分
析を簡単に行うことができる。
Further, a video camera installed in the vehicle for capturing the image of the road guide sign, an image analysis means for extracting the shape of the labeled road from the image captured by the video camera, and a map data storage means for storing map data. , The sign road road shape extracted by the image analysis means is collated with the road shape in the map data to provide a collation means for determining the road on which the vehicle is traveling or the current location, and the video of the road is captured by the video camera. The sign road shape is extracted, and the extracted sign road shape is compared with the roads in the map data to determine the road on which the vehicle is running or the current location. It is possible to accurately detect the road on which the vehicle is traveling or the current location without being affected, and at this time, because the image of the road sign is simple, image analysis can be performed easily. Can.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係わる車載ナビゲータの全
体構成図である。
FIG. 1 is an overall configuration diagram of a vehicle-mounted navigator according to an embodiment of the present invention.

【図2】地図データ中の道路レイヤの構成図である。FIG. 2 is a configuration diagram of road layers in map data.

【図3】車両の走行経路と周辺道路の説明図である。FIG. 3 is an explanatory diagram of a traveling route of a vehicle and surrounding roads.

【図4】画像認識装置による画像認識処理の流れ図であ
る。
FIG. 4 is a flowchart of image recognition processing by the image recognition device.

【図5】画像認識動作の説明図である。FIG. 5 is an explanatory diagram of an image recognition operation.

【図6】透視図形から平面図形への変換方法説明図であ
る。
FIG. 6 is an explanatory diagram of a method of converting a perspective graphic into a planar graphic.

【図7】平面図形への変換後の交差点道路形状の説明図
である。
FIG. 7 is an explanatory diagram of an intersection road shape after conversion into a plane figure.

【図8】画像認識動作の説明図である。FIG. 8 is an explanatory diagram of an image recognition operation.

【図9】平面図形への変換後の道路形状の説明図であ
る。
FIG. 9 is an explanatory diagram of a road shape after conversion into a plane figure.

【図10】システムコントローラによる車両位置修正処
理の流れ図である。
FIG. 10 is a flowchart of vehicle position correction processing by the system controller.

【図11】車両位置修正動作の説明図である。FIG. 11 is an explanatory diagram of a vehicle position correcting operation.

【図12】本発明の変形例構成図である。FIG. 12 is a configuration diagram of a modified example of the present invention.

【図13】画像認識動作の説明図である。FIG. 13 is an explanatory diagram of an image recognition operation.

【図14】一般的なマップマッチング処理の説明図であ
る。
FIG. 14 is an explanatory diagram of general map matching processing.

【図15】従来のマップマッチング処理の問題点を示す
説明図である。
FIG. 15 is an explanatory diagram showing a problem of a conventional map matching process.

【符号の説明】[Explanation of symbols]

1 CD−ROM 6、60 テレビカメラ 7、70 画像認識装置 7a、70a 静止画抽出部 7b、70b 画像分析部 7c、70c 照合部 1 CD-ROM 6,60 TV camera 7,70 Image recognition device 7a, 70a Still image extraction unit 7b, 70b Image analysis unit 7c, 70c Collation unit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 車両に設置されて道路の映像を捉えるビ
デオカメラと、 ビデオカメラで捉えた映像から道路形状を抽出する画像
分析手段と、 地図データを記憶した地図データ記憶手段と、 画像分析手段で抽出した道路形状を地図データ中の道路
形状と照合し、車両の走行中の道路又は現在地を割り出
す照合手段と、 を備えたことを特徴とする車両位置検出装置。
1. A video camera installed in a vehicle for capturing an image of a road, an image analysis unit for extracting a road shape from an image captured by the video camera, a map data storage unit for storing map data, and an image analysis unit. A vehicle position detecting device comprising: a matching unit that matches the road shape extracted in step 1 with the road shape in the map data to determine the road on which the vehicle is traveling or the current location.
【請求項2】 車両に設置されて道路案内標識の映像を
捉えるビデオカメラと、 ビデオカメラで捉えた映像から標識道路形状を抽出する
画像分析手段と、 地図データを記憶した地図データ記憶手段と、 画像分析手段で抽出した標識道路形状を地図データ中の
道路形状と照合し、車両の走行中の道路又は現在地を割
り出す照合手段と、 を備えたことを特徴とする車両位置検出装置。
2. A video camera installed on a vehicle for capturing an image of a road guide sign, an image analysis means for extracting a shape of a labeled road from the image captured by the video camera, and a map data storage means for storing map data. A vehicle position detecting device, comprising: a checking means for checking the sign road shape extracted by the image analyzing means with the road shape in the map data to find the road on which the vehicle is traveling or the current location.
JP24452692A 1992-09-14 1992-09-14 Vehicle position detection device Expired - Lifetime JP3190739B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24452692A JP3190739B2 (en) 1992-09-14 1992-09-14 Vehicle position detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24452692A JP3190739B2 (en) 1992-09-14 1992-09-14 Vehicle position detection device

Publications (2)

Publication Number Publication Date
JPH0694470A true JPH0694470A (en) 1994-04-05
JP3190739B2 JP3190739B2 (en) 2001-07-23

Family

ID=17120004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24452692A Expired - Lifetime JP3190739B2 (en) 1992-09-14 1992-09-14 Vehicle position detection device

Country Status (1)

Country Link
JP (1) JP3190739B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315125A (en) * 1995-05-12 1996-11-29 Honda Motor Co Ltd Recognition device for travel path section line for vehicle or the like
FR2755228A1 (en) * 1996-10-25 1998-04-30 Peugeot On-board navigation system for cars providing more user-friendly display and guidance system
KR100267621B1 (en) * 1997-09-29 2000-10-16 정주호 Vehicle position correcting apparatus suitable for vehicle navigation system
JP2002148064A (en) * 2000-11-09 2002-05-22 Nissan Motor Co Ltd Device and method for correcting present location
JP2004078334A (en) * 2002-08-12 2004-03-11 Nissan Motor Co Ltd Traveling route generation device
WO2005119177A1 (en) * 2004-06-02 2005-12-15 Xanavi Informatics Corporation On-vehicle navigation device and vehicle position correction method
JPWO2007077682A1 (en) * 2005-12-28 2009-06-04 本田技研工業株式会社 Vehicle and lane mark detection device
DE102013217370A1 (en) 2012-09-01 2014-10-02 Honda Motor Co., Ltd. Vehicle environment monitoring device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6380422B2 (en) 2016-02-05 2018-08-29 トヨタ自動車株式会社 Automated driving system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315125A (en) * 1995-05-12 1996-11-29 Honda Motor Co Ltd Recognition device for travel path section line for vehicle or the like
FR2755228A1 (en) * 1996-10-25 1998-04-30 Peugeot On-board navigation system for cars providing more user-friendly display and guidance system
KR100267621B1 (en) * 1997-09-29 2000-10-16 정주호 Vehicle position correcting apparatus suitable for vehicle navigation system
JP2002148064A (en) * 2000-11-09 2002-05-22 Nissan Motor Co Ltd Device and method for correcting present location
JP2004078334A (en) * 2002-08-12 2004-03-11 Nissan Motor Co Ltd Traveling route generation device
WO2005119177A1 (en) * 2004-06-02 2005-12-15 Xanavi Informatics Corporation On-vehicle navigation device and vehicle position correction method
US7653482B2 (en) 2004-06-02 2010-01-26 Xanavi Informatics Corporation On-vehicle navigation apparatus and subject vehicle position correction method
JPWO2007077682A1 (en) * 2005-12-28 2009-06-04 本田技研工業株式会社 Vehicle and lane mark detection device
JP4607193B2 (en) * 2005-12-28 2011-01-05 本田技研工業株式会社 Vehicle and lane mark detection device
DE102013217370A1 (en) 2012-09-01 2014-10-02 Honda Motor Co., Ltd. Vehicle environment monitoring device
DE102013217370B4 (en) 2012-09-01 2021-11-04 Honda Motor Co., Ltd. Vehicle environment monitoring device

Also Published As

Publication number Publication date
JP3190739B2 (en) 2001-07-23

Similar Documents

Publication Publication Date Title
JP3582560B2 (en) Vehicle navigation device and recording medium
US5523765A (en) Method and apparatus for detecting vehicle location for a vehicle navigation system
US20080040024A1 (en) Method and apparatus of displaying three-dimensional arrival screen for navigation system
JP4435845B2 (en) Navigation device, position registration method, position registration program, and recording medium
EP1662231A2 (en) Map drawing method and system, navigation apparatus and input/output device
JPWO2007105518A1 (en) Location registration device, route search device, location registration method, location registration program, and recording medium
JP2007240198A (en) Navigation apparatus
JP2000097714A (en) Car navigation apparatus
JP2020038632A (en) Sign recognition system and sign recognition method
US7844393B2 (en) Vehicle navigation system and method
US8504297B2 (en) Map display device and map display method
JP3953858B2 (en) Car navigation system
JP3190739B2 (en) Vehicle position detection device
US20020177946A1 (en) Navigation apparatus
JP4115910B2 (en) Navigation device and alternative route generation notification method
US20210383141A1 (en) Sign position identification system and program
JP2544855B2 (en) Vehicle guidance device
JPH0688732A (en) Navigation apparatus for vehicle
JPWO2008047449A1 (en) Image display device, display control method, display control program, and recording medium
JP3055442B2 (en) Vehicle information display device
JPH0781872B2 (en) Position detection accuracy determination method and vehicle guidance device using the method
US8150618B2 (en) Method and apparatus to select city name associated with street located on border of two cities
JP2008134140A (en) On-vehicle navigation device
JPH1047980A (en) Navigation device for vehicle
JP2859954B2 (en) Vehicle running position display method and device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010508

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080518

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090518

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100518

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120518

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120518

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130518

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130518

Year of fee payment: 12