JPH0674778A - Navigation system for mobile - Google Patents

Navigation system for mobile

Info

Publication number
JPH0674778A
JPH0674778A JP22675992A JP22675992A JPH0674778A JP H0674778 A JPH0674778 A JP H0674778A JP 22675992 A JP22675992 A JP 22675992A JP 22675992 A JP22675992 A JP 22675992A JP H0674778 A JPH0674778 A JP H0674778A
Authority
JP
Japan
Prior art keywords
road
feature point
detected
map data
current position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP22675992A
Other languages
Japanese (ja)
Other versions
JP3131300B2 (en
Inventor
Fumiko Yano
文子 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP22675992A priority Critical patent/JP3131300B2/en
Publication of JPH0674778A publication Critical patent/JPH0674778A/en
Application granted granted Critical
Publication of JP3131300B2 publication Critical patent/JP3131300B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To obtain a navigation system for mobile in which map matching processing is carried out correctly. CONSTITUTION:The navigation system comprises a geomagnetism sensor 1, a distance sensor 2, a central processor 3A, an external memory 4, a display 8, and an infrared camera 11. A mobile travels while recognizing a white line on one end of road through the infrared camera 11 and when the white line interrupts for a predetermined interval, the central processor 3A recognizes presence of an intersection and performs map matching of current position with the nearest intersection designated by map data stored in the external memory 4. This constitution allows correct matching and thereby correct determination of current position.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、地図上に移動体の現
在地を表示する移動体用ナビゲーション装置に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a navigation device for a mobile body, which displays the current location of the mobile body on a map.

【0002】[0002]

【従来の技術】図15は例えば実開平3−88117号
公報に示された従来のナビゲーション装置を示す構成例
であり、図15において、1は地磁気センサ、2は距離
センサ、3は中央処理装置、4は外部記憶装置、5はメ
ディアコントローラ、6は画像メモリ、7は表示制御装
置、8はディスプレイ装置、9はバッファメモリ、10
はキーボードである。
2. Description of the Related Art FIG. 15 shows a configuration example of a conventional navigation device disclosed in, for example, Japanese Utility Model Laid-Open No. 3-88117. In FIG. 15, 1 is a geomagnetic sensor, 2 is a distance sensor, and 3 is a central processing unit. 4, external storage device, 5 media controller, 6 image memory, 7 display control device, 8 display device, 9 buffer memory, 10
Is a keyboard.

【0003】次に動作について図16のフローチャート
に沿って説明する。車両の現在位置が決定し、走行開始
後、まずステップS301で、地磁気センサ1からの信
号に基づき車両の進行角度を計算する。次にステップS
302で、車両が直進状態で一定距離以上走行したかの
判定を行った後、ステップS303で出発直後か否かを
判断する。出発直後でないときは、ステップS306に
飛び、出発直後のときは、ステップS304に移る。
Next, the operation will be described with reference to the flowchart of FIG. After the current position of the vehicle is determined and the vehicle starts traveling, first in step S301, the traveling angle of the vehicle is calculated based on the signal from the geomagnetic sensor 1. Then step S
After it is determined in 302 whether the vehicle has traveled straight for a certain distance or more, it is determined in step S303 whether or not the vehicle has just left. If it is not immediately after departure, the process jumps to step S306, and if it is immediately after departure, the process proceeds to step S304.

【0004】このステップS304では、車両が直進し
ているか否かを判断する。直進していないときは、ステ
ップS306に飛び、直進中のときはステップS305
に移る。このステップS305では、地磁気センサ1に
より得られた車両の進行角度を最寄りの道路の角度で初
期化して、現在地の座標を初期化する。
In step S304, it is determined whether the vehicle is going straight. When the vehicle is not going straight, the process jumps to step S306, and when the vehicle is going straight, the process is step S305.
Move on to. In this step S305, the traveling angle of the vehicle obtained by the geomagnetic sensor 1 is initialized with the angle of the nearest road, and the coordinates of the current position are initialized.

【0005】また、ステップS306では、推定現在位
置を道路地図上に整合させるが、この際、地磁気センサ
1から得られる進行角度と、道路地図データによる道路
角度との誤差の許容範囲をとり、出発直後は地磁気セン
サ1で検出された進行角度の誤差を大きく許容して推定
現在地を道路上に整合させるものである。
In step S306, the estimated current position is matched on the road map. At this time, the allowable range of the error between the traveling angle obtained from the geomagnetic sensor 1 and the road angle based on the road map data is set, and the departure is started. Immediately after that, the error of the traveling angle detected by the geomagnetic sensor 1 is allowed to be large and the estimated current position is aligned with the road.

【0006】[0006]

【発明が解決しようとする課題】従来の移動体用ナビゲ
ーション装置では、マップマッチングするときの判断材
料はあくまで地磁気センサ1、距離センサ2等の信号、
および地図データ記憶手段に記憶した地図データに頼っ
ており、現在走行中の道路状態を把握し、マップマッチ
ングするときの判断材料に使うことはできなかった。
In the conventional navigation device for a mobile body, the judgment material for map matching is only the signals of the geomagnetic sensor 1, the distance sensor 2 and the like.
Moreover, it depends on the map data stored in the map data storage means, and it cannot be used as a judgment material when grasping the road condition currently running and performing map matching.

【0007】この発明は上記のような問題点を解消する
ためになされたものであり、車両自らが走行中の道路状
態を把握判断し、特徴点を抽出し、外部記憶装置に記憶
した地図データの特徴点にマップマッチングする移動体
用ナビゲーション装置を得ることを目的としており、ま
た、誤って特徴点を検出することを防止できる移動体用
ナビゲーション装置を得ることを目的としており、さら
に、目標物の未検出特徴点の誤検出を防止できる移動体
用ナビゲーション装置を得ることを目的としており、ま
た、走行中見失うかあるいは途切れた目標物を再び検出
できる移動体用ナビゲーション装置を得ることを目的と
しており、さらに、実際には存在するが地図データには
存在しない特徴点を認識できる移動体用ナビゲーション
装置を得ることを目的としており、加えて、実際には存
在するが地図データには存在しない特徴点を記録でき、
自分で地図データを作ることができる移動体用ナビゲー
ション装置を提供することを目的としている。
The present invention has been made in order to solve the above-mentioned problems, and the map data stored in an external storage device is determined by grasping and judging the road condition on which the vehicle is traveling, extracting characteristic points. The object of the present invention is to obtain a navigation device for a mobile object that performs map matching to the feature points of the mobile object, and to obtain a navigation device for a mobile object that can prevent the feature points from being erroneously detected. Aiming to obtain a navigation device for a mobile body that can prevent the erroneous detection of undetected feature points of the above, and also to obtain a navigation device for a mobile body that can again detect a lost or lost target object while traveling. In addition, it is necessary to obtain a navigation device for a mobile body that can recognize feature points that actually exist but do not exist in map data. Target and to have, in addition, it can actually present to the recording feature points do not exist in the map data,
It is an object of the present invention to provide a navigation device for a mobile body, which can create map data by itself.

【0008】[0008]

【課題を解決するための手段】この発明に係る移動体用
ナビゲーション装置は、移動体の現在位置を推定する現
在位置推定手段と、道路状態を検出する道路状態検出手
段と、この道路状態検出手段による検出信号の変化を検
知して道路の特徴点を検出する特徴点検出手段と、特徴
点検出手段で検出した特徴点が地図データのどの特徴点
に相当するのか確定し、現在位置推定手段で推定した現
在位置座標と合致しないとき特徴点検出手段で検出した
特徴点の位置座標に移動体の現在位置を修正する位置修
正手段とを設けたものである。
A navigation device for a moving body according to the present invention comprises a current position estimating means for estimating a current position of a moving body, a road condition detecting means for detecting a road condition, and a road condition detecting means. The feature point detection means for detecting the change of the detection signal by detecting the feature point of the road, and the feature point of the map data to which the feature point detected by the feature point detection means is determined, and the current position estimation means Position correction means for correcting the current position of the moving body to the position coordinates of the feature point detected by the feature point detection means when the current position does not match the estimated current position coordinate.

【0009】また、移動体が走行開始後一定速度を越え
た後に道路状態の検出を開始する道路状態検出手段を設
けたものである。
Further, there is provided a road condition detecting means for starting detection of the road condition after the moving body exceeds a certain speed after the start of traveling.

【0010】さらに、移動体から見た道路の一定エリア
内における目標物を検出する機能を有し、走行中目標物
の位置が変化するとき、目標物を追跡して繰り返し検出
する道路状態検出手段を設けたものである。
Further, the road condition detecting means has a function of detecting a target object within a certain area of the road viewed from the moving body, and when the position of the target object during traveling changes, the target object is tracked and repeatedly detected. Is provided.

【0011】また、移動体から見た道路の一定エリア内
における目標物を検出する機能を有し走行開始後、この
一定エリア内において目標物を検出できないとき、ある
いは走行中エリア内において目標物を検出できなくなっ
たとき、このエリア内で目標物を探索する道路状態検出
手段を設けたものである。
Further, it has a function of detecting a target object within a certain area of the road viewed from the moving body, and when the target object cannot be detected within this certain area after the start of traveling, or the target object is detected within the traveling area. Road detection means is provided to search for a target in this area when it cannot be detected.

【0012】また、検出した道路の特徴点が地図データ
記憶手段の地図データ上のどの特徴点に相当するのか確
定できないときは、検出した道路の特徴点の位置を示す
信号を出力する特徴点検出手段を設けたものである。
When it cannot be determined which feature point on the map data of the map data storage means the detected feature point of the road corresponds to, a feature point detection for outputting a signal indicating the position of the detected road feature point is detected. Means are provided.

【0013】さらに、地図データ記憶手段で記憶された
地図データと位置検出手段で検出した移動体の現在地を
表示する表示手段と、検出した道路の特徴点が地図デー
タ記憶手段に記憶された地図データ上のどの特徴点に相
当するのか確定できないときは、検出した道路の特徴点
を表示手段に表示する特徴点検出手段とを設けたもので
ある。
Furthermore, the map data stored in the map data storage means, the display means for displaying the current position of the moving body detected by the position detection means, and the map data in which the detected road feature points are stored in the map data storage means When it is not possible to determine which of the above feature points the feature points correspond to, a feature point detecting means for displaying the detected road feature points on the display means is provided.

【0014】加えて、特徴点検出手段で検出した道路の
特徴点が地図データ記憶手段に記憶した地図データ上の
どの特徴点に相当するのか確定できないときは、特徴点
検出手段で検出した道路の特徴点を記録する特徴点記録
手段を設けたものである。
In addition, when it cannot be determined which feature point on the map data stored in the map data storage means corresponds to the feature point of the road detected by the feature point detection means, the road of the road detected by the feature point detection means can be determined. A feature point recording means for recording feature points is provided.

【0015】[0015]

【作用】上記のように構成された移動体用ナビゲーショ
ン装置における現在位置推定手段で移動体の現在位置を
推定するとともに、道路状態検出手段で移動体が移動す
る道路状態を検出し、この道路状態の変化を特徴点検出
手段で検出して道路の特徴点とし、この検出した特徴点
が地図データのどの特徴点に相当するのか確定し、現在
位置推定手段で推定した現在位置座標と合致しないと
き、特徴点検出手段で検出した特徴点の位置座標に移動
体の現在位置を位置修正手段でマッチングさせる。
In the navigation device for a moving body constructed as described above, the current position estimating means estimates the current position of the moving body, and the road state detecting means detects the road state on which the moving body moves. When the feature point detection means detects a change in the value of the road as a road feature point, it is determined which feature point in the map data the detected feature point corresponds to, and the current position coordinate estimated by the current position estimation means does not match. The position correction means matches the current position of the moving body with the position coordinates of the characteristic point detected by the characteristic point detection means.

【0016】また、道路状態検出手段により移動体が走
行開始後一定速度を越えた後に道路状態の検出を開始し
て誤って特徴点の検出するのを防止する。
Further, the road condition detecting means starts detecting the road condition after the moving body exceeds a certain speed after starting the traveling, thereby preventing erroneous detection of the characteristic points.

【0017】さらに、移動体の移動中の一定のエリア内
の目標物を道路状態検出手段で検出し、この目標物の位
置が変化するとき、目標物を追跡して繰り返し検出し、
目標物の未検出を防止する。
Further, the road condition detecting means detects a target object within a certain area while the moving body is moving, and when the position of the target object changes, the target object is tracked and repeatedly detected,
Prevent undetected target.

【0018】また、移動体の移動中の道路の一定エリア
内の目標物を道路状態検出手段で検出できないとき、あ
るいは目標物を検出することができなくなったとき、こ
のエリア内で道路状態検出手段が目標物を探索すること
ができなくなったとき、このエリア内で道路状態検出手
段が目標物を探索することにより、移動体の移動中に見
失ったり、あるいは途切れた目標物を再び検出する。
Further, when the road condition detecting means cannot detect the target object within a certain area of the road on which the moving body is moving, or when the target object cannot be detected, the road condition detecting means within this area. When it becomes impossible to search for the target object, the road condition detecting means searches for the target object in this area, thereby detecting again the target object that is lost or interrupted during the movement of the moving body.

【0019】さらに、特徴点検出手段で検出した道路の
特徴点が地図データ記憶手段で記憶されている地図デー
タ上のどの特徴点に相当するのか確定できないときは、
特徴点検出手段から検出した道路の特徴点の位置を示す
信号を出力し、実際には存在するが、地図データには存
在しない特徴点の確認を可能とする。
Further, when it is not possible to determine which feature point on the map data stored in the map data storage means corresponds to the feature point of the road detected by the feature point detection means,
A signal indicating the position of the characteristic point of the road detected by the characteristic point detecting means is output, and the characteristic point which actually exists but does not exist in the map data can be confirmed.

【0020】また、表示手段で地図データ記憶手段で記
憶された地図データと位置検出手段で検出された移動体
の現在位置を表示するとともに、特徴点検出手段で検出
した道路の特徴点が地図データ記憶手段に記憶されてい
る地図データ上のどの特徴点に相当するか確認できない
ときは、検出した道路の特徴点を表示手段に表示するこ
とにより、実際には存在するが地図データには、存在し
ない特徴点を乗員が認識可能となる。
Further, the display means displays the map data stored in the map data storage means and the current position of the moving body detected by the position detection means, and the characteristic points of the road detected by the characteristic point detection means are map data. When it is not possible to confirm which feature point on the map data stored in the storage means corresponds, the detected road feature point is displayed on the display means so that it actually exists, but it does not exist in the map data. The occupant can recognize the feature points that do not exist.

【0021】加えて、特徴点検出手段で検出した道路の
特徴点が地図データ記憶手段に記憶した地図データ上の
どの特徴点に相当するのか確認できないときは、特徴点
検出手段で検出した道路の特徴点の位置を特徴点記録手
段に記録することにより、実際には存在するが、地図デ
ータには存在しない特徴点を記録でき、自分で地図デー
タの記録を可能とする。
In addition, when it cannot be confirmed which feature point on the map data stored in the map data storage means corresponds to the feature point of the road detected by the feature point detection means, the road of the road detected by the feature point detection means is detected. By recording the position of the characteristic point in the characteristic point recording means, it is possible to record the characteristic point which actually exists but does not exist in the map data, and it becomes possible to record the map data by oneself.

【0022】[0022]

【実施例】【Example】

実施例1.以下、この発明の一実施例を図について説明
する。図1は移動体用ナビゲーション装置を示すブロッ
ク図である。図1において、1は地磁気を検出し、車両
の方位を検出する地磁気センサ、2は車両の走行距離を
検出する距離センサであり、この二つの信号に基づいて
中央処理装置3Aは、車両の現在位置を演算している。
Example 1. An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a navigation device for a mobile body. In FIG. 1, reference numeral 1 is a geomagnetic sensor that detects the geomagnetism and the direction of the vehicle, and 2 is a distance sensor that detects the travel distance of the vehicle. Based on these two signals, the central processing unit 3A indicates The position is being calculated.

【0023】4は地図データを記憶したCD−ROMか
らなる外部記憶装置、5はメディアコントローラ、6は
画像メモリ、7は表示制御装置、8は地図、および車両
の現在位置を表示するディスプレイ装置である。
Reference numeral 4 denotes an external storage device composed of a CD-ROM storing map data, 5 a media controller, 6 an image memory, 7 a display control device, 8 a map, and a display device for displaying the current position of the vehicle. is there.

【0024】上記中央処理装置3Aは、演算した車両の
現在位置周辺の地図データを、メディアコントローラ5
を介して外部記憶装置4より読み出し、逐次メモリ6に
送信する。表示制御装置7は画像メモリ6に格納された
地図データを映像に変換し、中央処理装置3Aが演算し
た車両の現在位置とともに、ディスプレイ装置8に表示
する。
The central processing unit 3A converts the calculated map data around the current position of the vehicle into the media controller 5
It is read from the external storage device 4 via the and is sequentially transmitted to the memory 6. The display control device 7 converts the map data stored in the image memory 6 into an image and displays it on the display device 8 together with the current position of the vehicle calculated by the central processing unit 3A.

【0025】10は車両の乗員が操作するキーボードで
ある。11は赤外線カメラであり、車体の左側面下に取
り付ける。車両が走行している道路の左端の路面の様子
を、信号にして中央処理装置3Aに送信する。中央処理
装置3Aは、受け取った信号より、走行している道路の
交差点を抽出する。
Reference numeral 10 is a keyboard operated by a vehicle occupant. Reference numeral 11 denotes an infrared camera, which is attached below the left side surface of the vehicle body. The state of the road surface at the left end of the road on which the vehicle is traveling is transmitted as a signal to the central processing unit 3A. The central processing unit 3A extracts the intersection of the traveling road from the received signal.

【0026】また、12は特徴点記録部である。中央処
理装置3Aは、抽出した交差点が外部記憶装置4に記憶
した地図データに存在しない場合、抽出した交差点の位
置情報を、特徴点記録部12に記録する。
Reference numeral 12 is a feature point recording section. If the extracted intersection does not exist in the map data stored in the external storage device 4, the central processing unit 3A records the position information of the extracted intersection in the feature point recording unit 12.

【0027】赤外線カメラ11は、図2に示すように、
車体Aの左下に取り付け、車両の左側の路面を撮影す
る。この赤外線カメラ11は、図3に示すように、θ1
(最大値)〜θ2 (最小値)まで、角度の調節が可能で
ある。
The infrared camera 11, as shown in FIG.
It is attached to the lower left of the vehicle body A and photographs the road surface on the left side of the vehicle. The infrared camera 11, as shown in FIG. 3, theta 1
The angle can be adjusted from (maximum value) to θ 2 (minimum value).

【0028】図4は、赤外線カメラ11による路面画像
である。路面のアスファルトの部分が暗く、白線の部分
が明るく写っている。図4に示すように、白線の上幅を
a、白線幅をb、白線の下幅をcと置く。
FIG. 4 is a road surface image taken by the infrared camera 11. The asphalt part of the road surface is dark and the white line part is bright. As shown in FIG. 4, the upper width of the white line is a, the white line width is b, and the lower width of the white line is c.

【0029】中央処理装置3Aは、赤外線カメラ11の
画像より、道路上の白線を抽出し、白線が途切れた場合
は、そこを交差点と判断し、現在位置最寄りのノード点
(交差点)に現在位置をマップマッチングする。ここで
述べる白線とは、走行車線と路側帯を区切る道路の右端
の白線、および走行車線が二車線以上ある場合の車線同
士を区切る破線の白線のことである。
The central processing unit 3A extracts a white line on the road from the image of the infrared camera 11. If the white line is interrupted, it is determined to be an intersection, and the current position is set to the node point (intersection) closest to the current position. Map matching. The white line described here is the white line at the right end of the road that separates the driving lane and the roadside belt, and the broken white line that separates the lanes when there are two or more driving lanes.

【0030】次に、中央処理装置3Aのマップマッチン
グ動作について図5,図6に示すフローチャートに基づ
いて説明する。図5,図6は、この実施例の中央処理装
置3Aのマップマッチング動作を示すフローチャートで
ある。図5,図6の両図において、まずステップS10
1で、キーボード10の操作により、車両の現在位置を
確定し、ステップS102で、走行開始する。ステップ
S103で、車両が所定速度(ここでは時速Skmと置
く)を超えると、ステップS104で、車両が直進走行
中か否かを判断し、直進走行中である場合、ステップS
105に進み、赤外線カメラ11による道路の白線探索
処理を開始する。この場合、所定速度を超えてから白線
探索を開始するのは、車両が低速走行しているときは、
駐車場等の道路以外の場所を走行している場合が多いた
めである。
Next, the map matching operation of the central processing unit 3A will be described with reference to the flow charts shown in FIGS. 5 and 6 are flowcharts showing the map matching operation of the central processing unit 3A of this embodiment. 5 and 6, first, in step S10
In step 1, the current position of the vehicle is determined by operating the keyboard 10, and in step S102, the vehicle starts running. In step S103, when the vehicle exceeds a predetermined speed (here, set as Skm per hour), it is determined in step S104 whether the vehicle is traveling straight ahead. If it is traveling straight ahead, step S103
Proceeding to 105, the road white line search processing by the infrared camera 11 is started. In this case, the white line search is started after the speed exceeds the predetermined speed when the vehicle is running at low speed.
This is because there are many cases where the vehicle is traveling on a place other than the road such as a parking lot.

【0031】ステップS105で、道路上の白線を認識
し、白線探索処理を終了すると、ステップS106に進
み、認識した白線を追跡する白線追跡処理を行なう。車
両が交差点を走行し、白線が赤外線カメラ11の画像か
ら消失するまで、ステップS106の白線追跡処理を繰
り返す。
When the white line on the road is recognized in step S105 and the white line search process is completed, the process proceeds to step S106, and the white line tracking process for tracking the recognized white line is performed. The white line tracking process of step S106 is repeated until the vehicle runs at the intersection and the white line disappears from the image of the infrared camera 11.

【0032】ステップS107で、車両が交差点を走行
し、赤外線カメラ11の画像から白線が消失すると(つ
まり、交差点を走行しているため道路上の白線がなくな
ると)、ステップS108に進み、再び白線探索処理を
開始する。白線を認識し、白線探索処理が終了すると、
図6のフローチャートのステップS109で、車両の速
度と、白線が赤外線カメラ11に写っていた時間より、
白線有り区間の距離を求め(L1 と置く)、白線が赤外
線カメラ11から消失していた時間より、白線無し区間
の距離を求める(L2 と置く)。
In step S107, when the vehicle runs at the intersection and the white line disappears from the image of the infrared camera 11 (that is, the white line on the road disappears because the vehicle is running at the intersection), the process proceeds to step S108 and the white line is again displayed. Start the search process. When the white line is recognized and the white line search process ends,
In step S109 of the flowchart of FIG. 6, from the speed of the vehicle and the time when the white line is captured by the infrared camera 11,
The distance in the section with the white line is obtained (put as L 1 ), and the distance in the section without the white line is obtained from the time when the white line disappears from the infrared camera 11 (put as L 2 ).

【0033】ステップS110〜ステップS111で、
1 とL2 の距離関係より、赤外線カメラ11が認識し
ていた白線が、走行車線と路側帯を区切る道路の右端の
白線なのか、走行車線が二車線以上ある場合の車線同士
を区切る破線の白線なのかを判断する。道路六法の規定
により、車線を区切る破線は、白線の長さが3〜10
m、白線と白線の間がその1〜2倍の6〜20mであ
る。
In steps S110 to S111,
Based on the distance relationship between L 1 and L 2 , the white line recognized by the infrared camera 11 is the white line at the right end of the road that separates the driving lane and the roadside zone, or a broken line that separates the lanes when there are two or more driving lanes. Judge whether it is the white line. According to the provisions of the Six Roads Act, the broken lines that separate lanes have a white line length of 3 to 10
The distance between the white line and the white line is 6 to 20 m, which is 1 to 2 times that.

【0034】L1 (白線有り区間)が3〜10mのと
き、認識していた白線が、車線を区切る破線であった可
能性がある。ステップS110で、3m≦L1 ≦10m
のとき、ステップS111に進み、L1 とL2 の距離関
係を調べる。ステップS111で、L1 ≦L2 ≦2L1
(つまり、白線無し区間が白線有り区間の1〜2倍)の
とき、認識していた白線が、車線を区切る破線であると
判断し、図5のステップS106に戻る。ステップS1
11で、L1 >L2 、またはL2 >2L1 のとき、認識
していた白線が走行車線と路側帯を区切る道路の右端の
白線であると判断し、ステップS112に進む。
When L 1 (section with white line) is 3 to 10 m, it is possible that the recognized white line was a broken line separating the lanes. In step S110, 3m ≦ L 1 ≦ 10m
In this case, the process proceeds to step S111 to check the distance relationship between L 1 and L 2 . In step S111, L 1 ≤L 2 ≤2L 1
When the white line-free section is 1 to 2 times the white line-containing section, the recognized white line is determined to be a broken line that divides the lane, and the process returns to step S106 in FIG. Step S1
When L 1 > L 2 or L 2 > 2L 1 in 11, it is determined that the recognized white line is the white line at the right end of the road that separates the driving lane from the roadside zone, and the process proceeds to step S112.

【0035】ステップS112で、白線なし区間が一定
距離以内(たとえばW1 〜W2 m)の場合、白線なし区
間を交差点と判断する。白線なし区間がW1 m以下、ま
たはW2 m以上である場合、そこを交差点と判断しない
のは、W1 m以下である場合、交差点ではなく、何らか
の原因で白線が途切れていたと判断し、W2 m以上であ
る場合は、白線の無い道路を走行していたと判断するた
めである。
In step S112, if the section without white line is within a certain distance (for example, W 1 to W 2 m), the section without white line is determined to be an intersection. If the section without white line is W 1 m or less or W 2 m or more, it is not judged as an intersection.If it is W 1 m or less, it is judged that the white line is interrupted for some reason, not the intersection, This is because when it is W 2 m or more, it is determined that the vehicle is traveling on a road without a white line.

【0036】中央処理装置3Aは、ステップS101
で、車両の現在位置を確定後、地磁気センサ1と距離セ
ンサ2の信号より、車両の現在位置を常に演算してい
る。ステップS113で、現在位置周辺の地図データと
比較して、近くに交差点がある場合、ステップS114
で、その交差点にマップマッチングし、ステップS10
3に戻る。ステップS113で、現在位置の近くに交差
点が無い場合、ステップS115で、交差点の位置情報
を検出し、ステップS116で、特徴点記録部12に検
出した交差点の位置情報を記録し、ステップS103に
戻る。
The central processing unit 3A has a step S101.
After determining the current position of the vehicle, the current position of the vehicle is constantly calculated from the signals of the geomagnetic sensor 1 and the distance sensor 2. In step S113, if there is an intersection near by comparing with the map data around the current position, step S114
Then, map matching is performed at the intersection, and step S10 is performed.
Return to 3. If there is no intersection near the current position in step S113, position information of the intersection is detected in step S115, the position information of the detected intersection is recorded in the feature point recording unit 12 in step S116, and the process returns to step S103. .

【0037】図7は、図5のステップS105の白線探
索処理動作を示すフローチャートである。白線探索処理
とは、車両が走行開始直後、あるいは車両が交差点を走
行するなどして、赤外線カメラ11の映像信号から中央
処理装置3Aが道路上の白線を認識できない場合、赤外
線カメラ11の角度を変化し、道路上の白線を探す処理
のことである。赤外線カメラ11の角度をθと置き、図
3に示すように、角度の最大値をθ1、最小値をθ2
置く。
FIG. 7 is a flowchart showing the white line search processing operation in step S105 of FIG. The white line search processing means that when the central processing unit 3A cannot recognize the white line on the road from the video signal of the infrared camera 11 immediately after the vehicle starts traveling or the vehicle is traveling at an intersection, the angle of the infrared camera 11 is determined. It is the process of changing and searching for a white line on the road. The angle of the infrared camera 11 is set to θ, and the maximum value of the angle is set to θ 1 and the minimum value is set to θ 2 as shown in FIG.

【0038】図7において、まずステップS151で、
赤外線カメラ11の角度が最小値か否かを調べ、最小値
でない場合、ステップS152で、赤外線カメラ11の
角度が最大値か否かを調べ、最大値でない場合、ステッ
プS153に進む。ステップS153で、θに1°を加
え、赤外線カメラ11の角度を1°修正してステップS
154に進む。ステップS154で、道路上の白線を認
識すると、白線探索処理は終了する。道路上の白線を認
識するか、赤外線カメラ11の角度が最大値になるま
で、ステップS152〜ステップS154の処理を繰り
返す。
Referring to FIG. 7, first in step S151,
It is checked whether the angle of the infrared camera 11 is the minimum value, and if it is not the minimum value, it is checked in step S152 whether the angle of the infrared camera 11 is the maximum value. If it is not the maximum value, the process proceeds to step S153. In step S153, 1 ° is added to θ to correct the angle of the infrared camera 11 by 1 °, and then in step S153.
Proceed to 154. When the white line on the road is recognized in step S154, the white line search processing ends. The process of steps S152 to S154 is repeated until the white line on the road is recognized or the angle of the infrared camera 11 reaches the maximum value.

【0039】ステップS152で、赤外線カメラ11の
角度が最大値である場合、ステップS155に進む。ス
テップS155で、θから1°を引き、赤外線カメラ1
1の角度を1°修正してステップS156に進む。ステ
ップS156で、道路上の白線を認識すると、白線探索
処理は終了する。
When the angle of the infrared camera 11 is the maximum value in step S152, the process proceeds to step S155. In step S155, the infrared camera 1
The angle of 1 is corrected by 1 ° and the process proceeds to step S156. When the white line on the road is recognized in step S156, the white line search processing ends.

【0040】また、道路上の白線を認識していない場合
は、ステップS156からステップS157に進み赤外
線カメラ11の角度が最小値θ2 とし、さらに、ステッ
プS156において、道路上の白線を認識するか、赤外
線カメラ11の角度が最小値になるまで、ステップS1
55〜ステップS157の処理を繰り返す。
If the white line on the road is not recognized, the process proceeds from step S156 to step S157 and the angle of the infrared camera 11 is set to the minimum value θ 2, and whether the white line on the road is recognized in step S156. , Step S1 until the angle of the infrared camera 11 reaches the minimum value
The processes of 55 to step S157 are repeated.

【0041】図8は、図5のフローチャートのステップ
S106の白線追跡処理動作を示すフローチャートであ
る。白線追跡処理とは、中央処理装置3Aが、赤外線カ
メラ11の映像信号より、道路上の白線を認識している
とき、白線の位置が常に赤外線カメラ11の映像の中央
に来るように、赤外線カメラ11の角度を調節する処理
のことである。図4は赤外線カメラ11による路面画像
である。路面のアスファルトの部分が暗く、白線の部分
が明るく写っている。図4に示すように、すでに述べた
ごとく、白線の上幅をa、白線幅をb、白線の下幅をc
と置く。
FIG. 8 is a flowchart showing the white line tracking processing operation of step S106 of the flowchart of FIG. The white line tracking process means that when the central processing unit 3A recognizes the white line on the road from the video signal of the infrared camera 11, the white line position is always in the center of the image of the infrared camera 11. 11 is a process for adjusting the angle. FIG. 4 is a road surface image taken by the infrared camera 11. The asphalt part of the road surface is dark and the white line part is bright. As shown in FIG. 4, as described above, the upper width of the white line is a, the white line width is b, and the lower width of the white line is c.
And put.

【0042】図8において、まずステップS171で、
aとcの大小関係を調べる。a≠cのとき、ステップS
172に進む。ステップS172で、a>cのとき、ス
テップS173に進む。ステップS173で、θから1
°を引き、赤外線カメラ11の角度を1°修正する。ス
テップS172で、a<cのとき、ステップS174に
進む。ステップS174で、θに1°を加え、赤外線カ
メラ11の角度を1°修正する。図5のステップS10
7の処理に置いて、車両が交差点を走行し、白線が赤外
線カメラ11の画像から消失するまで、図8の白線追跡
処理を繰り返す。
In FIG. 8, first, in step S171,
Check the magnitude relationship between a and c. When a ≠ c, step S
Proceed to 172. In step S172, when a> c, the process proceeds to step S173. 1 from θ in step S173
The angle of the infrared camera 11 is corrected by 1 °. When a <c in step S172, the process proceeds to step S174. In step S174, 1 ° is added to θ to correct the angle of the infrared camera 11 by 1 °. Step S10 in FIG.
In the process of No. 7, the white line tracking process of FIG. 8 is repeated until the vehicle runs at the intersection and the white line disappears from the image of the infrared camera 11.

【0043】図9は、車両が走行中の地図描画処理の動
作を示すフローチャートである。走行している車両の位
置座標周辺に、特徴点記録部12が記録した交差点が存
在する場合(つまり、周辺の道路を以前走行したとき
に、中央処理装置3Aは外部記憶装置4の地図データに
存在しない交差点を検出し、その位置情報を特徴点記録
部12に記録した。)、中央処理装置3Aは、特徴点記
録部12より、その位置情報を読み出し、ディスプレイ
装置8に表示する。
FIG. 9 is a flow chart showing the operation of the map drawing process while the vehicle is traveling. When the intersection recorded by the feature point recording unit 12 exists around the position coordinates of the traveling vehicle (that is, the central processing unit 3A stores the map data in the external storage unit 4 in the map data of the external storage device 4 when the peripheral road was previously traveling). An intersection that does not exist is detected, and its position information is recorded in the characteristic point recording unit 12.), and the central processing unit 3A reads the position information from the characteristic point recording unit 12 and displays it on the display device 8.

【0044】図8において、まずステップS191で、
地磁気センサ1と距離センサ2の信号より、車両の現在
位置を検出し、検出した位置情報を画像メモリ6に送信
する。ステップS192で、外部記憶装置4よりメディ
アコントローラ5を介して、検出した現在位置周辺の地
図情報を読み出し、画像メモリ6に送信する。ステップ
S193で、特徴点記録部12に記録した交差点に、ス
テップS192で読み出した地図情報のリンクデータ上
に位置する交差点がある場合、ステップS194で、特
徴点記録部12より該当する交差点の位置情報を読み出
し、画像メモリ6に送信する。ステップS195で、表
示制御装置7を用いて画像メモリ6に格納した現在位置
情報と、地図情報と、交差点位置情報を、映像に変換し
ディスプレイ装置8に表示する。
In FIG. 8, first, in step S191,
The current position of the vehicle is detected from the signals of the geomagnetic sensor 1 and the distance sensor 2, and the detected position information is transmitted to the image memory 6. In step S192, the detected map information around the current position is read from the external storage device 4 via the media controller 5 and transmitted to the image memory 6. In step S193, if the intersection recorded in the feature point recording unit 12 has an intersection located on the link data of the map information read in step S192, in step S194, the position information of the corresponding intersection from the feature point recording unit 12 Is read out and transmitted to the image memory 6. In step S195, the display control device 7 is used to convert the current position information, the map information, and the intersection position information stored in the image memory 6 into an image and display it on the display device 8.

【0045】図10は、ディスプレイ装置8に表示した
地図画面である。中央に現在位置マーク15を表示する
とともに、特徴点記録部12より読み出した交差点の位
置を、交差点位置16に示すように短い枝状の道で表示
する。なお、特徴点記録部12に記録した交差点は、詳
細な地図のみに表示し、広域な地図では表示しない。
FIG. 10 is a map screen displayed on the display device 8. The current position mark 15 is displayed at the center, and the position of the intersection read from the feature point recording unit 12 is displayed as a short branch road as shown at the intersection position 16. The intersections recorded in the feature point recording unit 12 are displayed only on the detailed map and not on the wide area map.

【0046】実施例2.なお、上記実施例1で、道路上
の白線を赤外線カメラ11で感知し、交差点を抽出して
いるが、通常のカメラを用いて、アスファルトと白線の
色の違いによって、道路上の白線を感知し、交差点を抽
出してもよい。
Example 2. In the first embodiment, the white line on the road is detected by the infrared camera 11 to extract the intersection. However, a normal camera is used to detect the white line on the road due to the color difference between the asphalt and the white line. However, the intersection may be extracted.

【0047】実施例3.また、上記実施例1で、道路上
の白線を赤外線カメラ11で感知し、交差点を抽出して
いるが、車体から赤外線、または可視光等を発射し、白
線に照射し、その反射光を感知することによって道路上
の白線を感知し、交差点を抽出してもよい。
Example 3. Further, in the first embodiment, the white line on the road is detected by the infrared camera 11 to extract the intersection, but infrared rays or visible light is emitted from the vehicle body to illuminate the white line, and the reflected light is detected. By doing so, a white line on the road may be sensed and an intersection may be extracted.

【0048】実施例4.さらに、上記実施例1で、道路
上の白線を赤外線カメラ11で感知し、交差点を抽出し
ているが、白線の無い道路の場合、赤外線カメラ等を用
いて道路と道路脇との境目を感知し、交差点を抽出して
もよい。
Example 4. Further, in the first embodiment, the white line on the road is detected by the infrared camera 11 to extract the intersection, but in the case of a road without a white line, the infrared camera or the like is used to detect the boundary between the road and the side of the road. However, the intersection may be extracted.

【0049】実施例5.以下、この発明の実施例5を図
について説明する。図11は実施例5の移動体用ナビゲ
ーション装置を示すブロック図である。この図11にお
いて、1〜10は、実施例1の図1と同じであるので、
ここでは省略する。
Example 5. Embodiment 5 of the present invention will be described below with reference to the drawings. FIG. 11 is a block diagram showing a navigation device for a mobile body according to the fifth embodiment. In this FIG. 11, 1 to 10 are the same as those in FIG.
It is omitted here.

【0050】また、13は超音波発信部、14は超音波
受信部である。これらは図12に示すように、車体Aの
左横に取り付ける。超音波発信部13より発した超音波
が、車両の左側にある物体にはね返り、超音波受信部1
4がはね返った超音波を受信する。これを利用して、中
央処理装置3Aは、走行している道路の交差点を抽出す
る。
Reference numeral 13 is an ultrasonic wave transmitter, and 14 is an ultrasonic wave receiver. These are attached to the left side of the vehicle body A as shown in FIG. The ultrasonic wave emitted from the ultrasonic wave transmitting unit 13 bounces off an object on the left side of the vehicle, and the ultrasonic wave receiving unit 1
4 receives the reflected ultrasonic waves. Utilizing this, the central processing unit 3A extracts the intersection of the road on which the vehicle is running.

【0051】超音波発信部13と、超音波受信部14
は、常に超音波の発信、受信を繰り返す。走行中、一定
区間超音波の受信が無い場合、その地点を交差点と見な
し、現在位置最寄りの交差点に現在位置をマップマッチ
ングする。
The ultrasonic transmitter 13 and the ultrasonic receiver 14
Always repeats transmission and reception of ultrasonic waves. When ultrasonic waves are not received during a certain section during traveling, the point is regarded as an intersection and the current position is map-matched to the intersection closest to the current position.

【0052】次に、中央処理装置3Aのマップマッチン
グ動作について図13に示すフローチャートに基づいて
説明する。図13,図14は、この実施例5の中央処理
装置3Aのマップマッチング動作を示すフローチャート
である。まず、図13において、まずステップS201
で、キーボード10の操作により、車両の現在位置を確
定し、ステップS202で、走行開始する。ステップS
203で、所定速度(例えば時速Skm)を越えると、超
音波発信部13と、超音波受信部14による超音波の発
信、受信を開始する。
Next, the map matching operation of the central processing unit 3A will be described with reference to the flowchart shown in FIG. 13 and 14 are flowcharts showing the map matching operation of the central processing unit 3A of the fifth embodiment. First, in FIG. 13, first in step S201.
Then, the current position of the vehicle is determined by operating the keyboard 10, and the vehicle starts traveling in step S202. Step S
In 203, when the speed exceeds a predetermined speed (for example, Skm / hour), the ultrasonic wave transmission unit 13 and the ultrasonic wave reception unit 14 start transmitting and receiving ultrasonic waves.

【0053】ステップS204で、超音波発信部13よ
り超音波を発信し、ステップS205で、超音波受信部
14より超音波を受信したか否かを判断する。通常道路
走行中は、車両の左側にガードレールや建物等の障害物
があるため、超音波発信部13より発信された超音波は
それらの障害物からはね返り、超音波受信部14に受信
されるが、車両が交差点を通過しているときは、障害物
が無いため超音波ははね返らない。
In step S204, the ultrasonic wave is transmitted from the ultrasonic wave transmitting section 13, and in step S205, it is determined whether or not the ultrasonic wave is received from the ultrasonic wave receiving section 14. While traveling on a normal road, there are obstacles such as guardrails and buildings on the left side of the vehicle. Therefore, the ultrasonic waves transmitted from the ultrasonic wave transmission unit 13 bounce off those obstacles and are received by the ultrasonic wave reception unit 14. , When the vehicle is passing the intersection, ultrasonic waves do not bounce because there are no obstacles.

【0054】上記ステップS205で超音波を受信しな
かった場合、ステップS206で、車両が直進走行中か
否かを判断する。直進走行中である場合、ステップS2
07とステップS208で、再び超音波の発信を繰り返
す。
If no ultrasonic wave is received in step S205, it is determined in step S206 whether the vehicle is traveling straight ahead. If the vehicle is traveling straight ahead, step S2
In 07 and step S208, the transmission of ultrasonic waves is repeated again.

【0055】ステップS208で、超音波を受信する
と、ステップS209で、車両の速度と、超音波が受信
できなかった時間より、障害物なし区間の距離を求める
(L2と置く)。
When an ultrasonic wave is received in step S208, the distance in the obstacle-free section is determined (put L 2 ) from the vehicle speed and the time when the ultrasonic wave was not received in step S209.

【0056】次いで、図14に示すフローチャートのス
テップS210で、L2 が一定距離以内(例えばW1
2 m)の場合、障害物なし区間を交差点と判断する。
これは障害物なし区間がW1 m以下、またはW2 m以上
である場合、そこを交差点と判断しないのは、W1 m以
下である場合、交差点ではなく、障害物にすき間があっ
たと判断し、W2 m以上である場合は、横に障害物の無
い道路を走行していたと判断するためである。
Then, in step S210 of the flowchart shown in FIG. 14, L 2 is within a certain distance (for example, W 1 to
In the case of W 2 m), the section with no obstacle is judged as an intersection.
If the section without obstacles is W 1 m or less, or W 2 m or more, it is not judged as an intersection. If it is W 1 m or less, it is judged that there is a gap in the obstacle instead of the intersection. However, when it is W 2 m or more, it is because it is determined that the vehicle is running on a road without obstacles beside it.

【0057】ステップS211で、外部記憶装置4に記
憶した地図データと比較して、現在位置の近くに交差点
がある場合、ステップS212で、その交差点にマップ
マッチングし、ステップS203に戻る。
In step S211, when compared with the map data stored in the external storage device 4, if there is an intersection near the current position, map matching is performed in the intersection in step S212, and the process returns to step S203.

【0058】[0058]

【発明の効果】この発明は以上説明したように構成され
ているので、以下に記載されるような効果を奏する。
Since the present invention is constructed as described above, it has the following effects.

【0059】移動体が走行している道路の特徴点を抽出
し、抽出した特徴点に相当する地図データ上の特徴点を
確定し、確定した特徴点の位置座標に現在位置を修正す
ることにより、地磁気センサや距離センサからの信号か
ら演算した現在位置よりも、より正確な現在位置を求め
ることができる。
By extracting the characteristic points of the road on which the mobile body is traveling, the characteristic points on the map data corresponding to the extracted characteristic points are determined, and the current position is corrected to the position coordinates of the determined characteristic points. It is possible to obtain a more accurate current position than the current position calculated from the signals from the geomagnetic sensor and the distance sensor.

【0060】また、移動体が走行開始後、一定速度を超
えた後に、特徴点の抽出を開始することにより、移動体
が道路以外の場所を走行しているときに、誤って特徴点
を抽出するという間違いを防ぐとともに、確実に通常道
路を走行しているときに特徴点を抽出することができ
る。
Further, by starting the extraction of the characteristic points after the moving body starts traveling and exceeds a certain speed, the characteristic points are erroneously extracted when the moving body is traveling on a place other than the road. It is possible to prevent the mistake of doing so and surely extract the feature points while traveling on a normal road.

【0061】さらに、移動体から見た道路の一定のエリ
ア内における目標物を繰り返し検出し、走行中、目標物
の位置が変化するときは、目標物を追跡して繰り返し検
出することにより、道路の目標物の位置のわずかなず
れ、あるいは移動体自身の位置ずれに、特徴点の検出制
度が左右されないという効果がある。
Further, the target is repeatedly detected within a certain area of the road viewed from the moving body, and when the position of the target changes during traveling, the target is tracked and repeatedly detected to detect the road. There is an effect that the feature point detection system is not affected by the slight displacement of the target position or the displacement of the moving body itself.

【0062】また、走行開始後、移動体から見た道路の
一定エリア内において、目標物を検出できないとき、あ
るいは走行中、上記エリア内において、目標物を検出で
きなくなったときに、上記エリア内で目標物を探索する
ことにより、走行開始後の目標物の検出が可能となると
ともに、走行中見失ったかまたは途切れた目標物を、再
び検出できる。
In addition, when the target cannot be detected within a certain area of the road viewed from the moving body after the start of traveling, or when the target cannot be detected within the area while traveling, the inside of the area By searching for the target object with, the target object can be detected after the start of traveling, and the target object lost or interrupted during traveling can be detected again.

【0063】さらに、道路状態検出手段が検出した道路
の特徴点が、地図データ上の、どの特徴点に相当するの
か確定できない場合、検出した道路の特徴点を示す信号
を出力することにより、地図データ上には存在しない
が、実際の道路上に存在する交差点等の特徴点をナビゲ
ーションシステムが認識できる。
Further, when it is not possible to determine which feature point on the map data the road feature point detected by the road condition detecting means corresponds to, the map is output by outputting a signal indicating the detected road feature point. The navigation system can recognize feature points such as intersections that do not exist on the data but actually exist on the road.

【0064】また、道路状態検出手段が検出した道路の
特徴点が地図データ上のどの特徴点に相当するのか確定
できない場合、検出した道路の特徴点を表示手段等に表
示することにより、地図データ上には存在しないが、実
際の道路上に存在する交差点等の特徴点を移動体の乗員
が認識できるという効果がある。
When it is not possible to determine which feature point on the map data the feature point of the road detected by the road state detecting means corresponds to, the detected feature point of the road is displayed on the display means or the like, whereby the map data is displayed. There is an effect that the occupant of the moving body can recognize a feature point such as an intersection, which does not exist above the road but actually exists on the road.

【0065】加えて、道路状態検出手段が検出した道路
の特徴点が地図データ上のどの特徴点に相当するのか確
定できない場合、検出した道路の特徴点を特徴点記録手
段に記録することにより、移動体自らが地図データ上に
は存在しないが、実際の道路上に存在する交差点等の特
徴点を記録した地図データベースを作成できる。
In addition, when it cannot be determined which feature point on the map data the feature point of the road detected by the road condition detecting means corresponds to, the detected feature point of the road is recorded in the feature point recording means. Although the moving body itself does not exist in the map data, it is possible to create a map database in which characteristic points such as intersections existing on the actual road are recorded.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の実施例1による移動体用ナビゲーシ
ョン装置のブロック図である。
FIG. 1 is a block diagram of a navigation device for a mobile body according to a first embodiment of the present invention.

【図2】同上実施例1の移動体用ナビゲーション装置を
搭載した車の外観斜視図である。
FIG. 2 is an external perspective view of a vehicle equipped with the navigation device for a mobile body according to the first embodiment.

【図3】同上実施例1における赤外線カメラの模式図で
ある。
FIG. 3 is a schematic diagram of an infrared camera according to the first embodiment.

【図4】同上実施例1における赤外線カメラにより撮像
された路面の画像である。
FIG. 4 is an image of a road surface imaged by the infrared camera according to the first embodiment.

【図5】同上実施例1の中央処理装置のマップマッチン
グ動作を示す前半のフローチャートである。
FIG. 5 is a first half flowchart showing a map matching operation of the central processing unit according to the first embodiment.

【図6】同上実施例1の中央処理装置のマップマッチン
グ動作を示す後半のフローチャートである。
FIG. 6 is a second half flowchart showing the map matching operation of the central processing unit of the above-mentioned first embodiment.

【図7】図5のフローチャートの白線探索処理動作を示
すフローチャートである。
FIG. 7 is a flowchart showing a white line search processing operation of the flowchart of FIG.

【図8】図5のフローチャートの白線追跡動作処理を示
すフローチャートである。
8 is a flowchart showing a white line tracking operation process of the flowchart of FIG.

【図9】同上実施例1の中央処理装置の車両が走行中の
地図描画処理の動作を示すフローチャートである。
FIG. 9 is a flowchart showing the operation of map drawing processing while the vehicle of the central processing unit according to the first embodiment is running.

【図10】同上実施例1のディスプレイ装置に表示する
画面である。
FIG. 10 is a screen displayed on the display device according to the first embodiment.

【図11】この発明の実施例5による移動体用ナビゲー
ション装置のブロック図である。
FIG. 11 is a block diagram of a mobile navigation device according to a fifth embodiment of the present invention.

【図12】同上実施例5のシステムを搭載した車両の外
観斜視図である。
FIG. 12 is an external perspective view of a vehicle equipped with the system according to the fifth embodiment.

【図13】同上実施例5の中央処理装置のマップマッチ
ング動作を示す前半のフローチャートである。
FIG. 13 is a first half flowchart showing a map matching operation of the central processing unit of the fifth embodiment.

【図14】同上実施例5の中央処理装置のマップマッチ
ング動作を示す後半のフローチャートである。
FIG. 14 is a second half flowchart showing the map matching operation of the central processing unit of the fifth embodiment.

【図15】従来の移動体用ナビゲーション装置を示すブ
ロック図である。
FIG. 15 is a block diagram showing a conventional navigation device for a mobile body.

【図16】従来の移動体用ナビゲーション装置の動作を
示すフローチャートである。
FIG. 16 is a flowchart showing an operation of a conventional navigation device for a mobile body.

【符号の説明】[Explanation of symbols]

1 地磁気センサ 2 距離センサ 3A 中央処理装置 4 外部記憶装置 5 メディアコントローラ 6 画像メモリ 7 表示制御装置 8 ディスプレイ装置 10 キーボード 11 赤外線カメラ 12 特徴点記録部 13 超音波発信部 14 超音波受信部 A 車体 1 Geomagnetic Sensor 2 Distance Sensor 3A Central Processing Unit 4 External Storage Device 5 Media Controller 6 Image Memory 7 Display Control Device 8 Display Device 10 Keyboard 11 Infrared Camera 12 Feature Point Recording Unit 13 Ultrasonic Transmitter 14 Ultrasonic Receiver A Body

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 地図データを記憶する地図データ記憶手
段と、移動体の現在位置座標を推定する現在位置推定手
段と、道路状態を検出する道路状態検出手段と、この道
路状態検出手段による検出信号の変化を検知することに
よって、道路の特徴点を検出する特徴点検出手段と、特
徴点検出時に、検出した特徴点が上記地図データ記憶手
段による地図データ上の、どの特徴点に相当するのか確
定し、上記現在位置推定手段によって推定した現在位置
座標と合致しないときは、特徴点検出手段によって検出
した特徴点の位置座標に、移動体の現在位置を修正する
位置修正手段と、上記移動体の現在位置を出力する出力
手段とを備えた移動体用ナビゲーション装置。
1. A map data storage means for storing map data, a current position estimating means for estimating current position coordinates of a moving body, a road condition detecting means for detecting a road condition, and a detection signal by the road condition detecting means. By detecting a change in the road, a feature point detection means for detecting a feature point of the road, and at the time of feature point detection, which feature point on the map data the detected feature point corresponds to is determined. If the current position coordinates estimated by the current position estimating means do not match, the position correction means for correcting the current position of the moving body to the position coordinates of the characteristic point detected by the characteristic point detecting means, and the moving body A navigation device for a mobile body, comprising: an output unit that outputs a current position.
【請求項2】 上記道路状態検出手段は、上記移動体が
走行開始後一定速度を超えた後に、道路状態の検出を開
始することを特徴とする請求項1記載の移動体用ナビゲ
ーション装置。
2. The navigation device for a mobile body according to claim 1, wherein the road state detecting means starts detecting the road state after the mobile body exceeds a certain speed after the start of traveling.
【請求項3】 上記道路状態検出手段は、上記移動体か
ら見た道路の一定のエリア内における目標物を検出する
機能を有し、走行中、目標物の位置が変化するときは、
目標物を追跡して繰り返し検出することを特徴とする請
求項1記載の移動体用ナビゲーション装置。
3. The road condition detecting means has a function of detecting a target object within a certain area of the road viewed from the moving body, and when the position of the target object changes during traveling,
2. The navigation device for a mobile body according to claim 1, wherein the target object is tracked and repeatedly detected.
【請求項4】 上記道路状態検出手段は、上記移動体か
ら見た道路の一定のエリア内における目標物を検出する
機能を有し、走行開始後上記エリア内において目標物を
検出できないとき、あるいは走行中、エリア内において
目標物を検出できなくなったときは、上記エリア内で目
標物を探索することを特徴とする請求項1記載の移動体
用ナビゲーション装置。
4. The road condition detecting means has a function of detecting a target in a certain area of the road viewed from the moving body, and when the target cannot be detected in the area after the start of traveling, or 2. The navigation device for a mobile body according to claim 1, wherein when the target object cannot be detected in the area while traveling, the target object is searched for in the area.
【請求項5】 上記特徴点検出手段が検出した道路の特
徴点が、地図データ記憶手段の地図データ上の、どの特
徴点に相当するのか確定できないときは、検出した道路
の特徴点の位置を示す信号を出力することを特徴とする
請求項1記載の移動体用ナビゲーション装置。
5. When it is not possible to determine which feature point on the map data of the map data storage means the feature point of the road detected by the feature point detecting means corresponds to, the position of the detected feature point of the road is determined. The navigation device for a mobile body according to claim 1, wherein a navigation signal is output.
【請求項6】 上記地図データ記憶手段による地図デー
タと位置検出手段によって検出した移動体の現在地を表
示する表示手段を備え、上記特徴点検出手段が検出した
道路の特徴点が、上記地図データ記憶手段の地図データ
上のどの特徴点に相当するのか確定できないときは、上
記特徴点検出手段で検出した道路の特徴点を上記表示手
段に表示することを特徴とする請求項1記載の移動体用
ナビゲーション装置。
6. A display means for displaying the map data by the map data storage means and the current position of the moving body detected by the position detection means, wherein the feature points of the road detected by the feature point detection means are stored in the map data storage. 2. The moving object according to claim 1, wherein when the characteristic point on the map data of the means cannot be determined, the characteristic point of the road detected by the characteristic point detecting means is displayed on the display means. Navigation device.
【請求項7】 上記特徴点検出手段が検出した道路の特
徴点が、上記地図データ記憶手段の地図データ上のどの
特徴点に相当するのか確定できないときは、上記特徴点
検出手段で検出した道路の特徴点を記録する特徴点記録
手段を備えたことを特徴とする請求項1記載の移動体用
ナビゲーション装置。
7. The road detected by the feature point detecting means when it cannot be determined to which feature point on the map data of the map data storage means the feature point of the road detected by the feature point detecting means corresponds. 2. The navigation device for a mobile body according to claim 1, further comprising a feature point recording means for recording the feature point.
JP22675992A 1992-08-26 1992-08-26 Navigation system for moving objects Expired - Lifetime JP3131300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22675992A JP3131300B2 (en) 1992-08-26 1992-08-26 Navigation system for moving objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22675992A JP3131300B2 (en) 1992-08-26 1992-08-26 Navigation system for moving objects

Publications (2)

Publication Number Publication Date
JPH0674778A true JPH0674778A (en) 1994-03-18
JP3131300B2 JP3131300B2 (en) 2001-01-31

Family

ID=16850174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22675992A Expired - Lifetime JP3131300B2 (en) 1992-08-26 1992-08-26 Navigation system for moving objects

Country Status (1)

Country Link
JP (1) JP3131300B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0738946A1 (en) * 1995-04-17 1996-10-23 Honda Giken Kogyo Kabushiki Kaisha Automatic travel guiding device for vehicle
EP0761522A1 (en) * 1995-08-30 1997-03-12 Daimler-Benz Aktiengesellschaft Method and device for determining the position of at least one part of a railborne vehicle and its use
US5770901A (en) * 1995-10-31 1998-06-23 Nippondenso Starter with overheat protection
US5907204A (en) * 1996-04-04 1999-05-25 Denso Corporation Power supply terminal structure for starter magnet switch
JP2004205527A (en) * 2004-04-09 2004-07-22 Matsushita Electric Ind Co Ltd Navigation system
JP2006119090A (en) * 2004-10-25 2006-05-11 Mitsubishi Electric Corp Navigation device
JP2007271515A (en) * 2006-03-31 2007-10-18 Mitsubishi Electric Corp Vehicle navigation apparatus
WO2008009966A2 (en) * 2006-07-21 2008-01-24 Trw Limited Determining the location of a vehicle on a map
JP2008275381A (en) * 2007-04-26 2008-11-13 Mitsubishi Electric Corp On-vehicle navigation device
JP2010002275A (en) * 2008-06-19 2010-01-07 Aisin Seiki Co Ltd Vehicle surrounding monitoring device
US7747385B2 (en) 2005-06-17 2010-06-29 Denso Corporation Traveling condition determination device
JP2014106147A (en) * 2012-11-28 2014-06-09 Fujitsu Ltd Intersection detection method and intersection detection system
KR101480430B1 (en) * 2013-08-20 2015-01-08 현대오트론 주식회사 Apparatus and method for lane detection support
JP2018147353A (en) * 2017-03-08 2018-09-20 三菱電機株式会社 Intersection detecting apparatus, measuring vehicle, intersection detecting program, and data management apparatus

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1076276A1 (en) * 1995-04-17 2001-02-14 Honda Giken Kogyo Kabushiki Kaisha Automatic travel guiding device for vehicle
EP0738946A1 (en) * 1995-04-17 1996-10-23 Honda Giken Kogyo Kabushiki Kaisha Automatic travel guiding device for vehicle
EP0761522A1 (en) * 1995-08-30 1997-03-12 Daimler-Benz Aktiengesellschaft Method and device for determining the position of at least one part of a railborne vehicle and its use
US5893043A (en) * 1995-08-30 1999-04-06 Daimler-Benz Ag Process and arrangement for determining the position of at least one point of a track-guided vehicle
US5770901A (en) * 1995-10-31 1998-06-23 Nippondenso Starter with overheat protection
US5907204A (en) * 1996-04-04 1999-05-25 Denso Corporation Power supply terminal structure for starter magnet switch
JP2004205527A (en) * 2004-04-09 2004-07-22 Matsushita Electric Ind Co Ltd Navigation system
JP2006119090A (en) * 2004-10-25 2006-05-11 Mitsubishi Electric Corp Navigation device
US7747385B2 (en) 2005-06-17 2010-06-29 Denso Corporation Traveling condition determination device
JP2007271515A (en) * 2006-03-31 2007-10-18 Mitsubishi Electric Corp Vehicle navigation apparatus
WO2008009966A3 (en) * 2006-07-21 2008-04-10 Trw Ltd Determining the location of a vehicle on a map
WO2008009966A2 (en) * 2006-07-21 2008-01-24 Trw Limited Determining the location of a vehicle on a map
JP2008275381A (en) * 2007-04-26 2008-11-13 Mitsubishi Electric Corp On-vehicle navigation device
JP2010002275A (en) * 2008-06-19 2010-01-07 Aisin Seiki Co Ltd Vehicle surrounding monitoring device
JP2014106147A (en) * 2012-11-28 2014-06-09 Fujitsu Ltd Intersection detection method and intersection detection system
KR101480430B1 (en) * 2013-08-20 2015-01-08 현대오트론 주식회사 Apparatus and method for lane detection support
JP2018147353A (en) * 2017-03-08 2018-09-20 三菱電機株式会社 Intersection detecting apparatus, measuring vehicle, intersection detecting program, and data management apparatus

Also Published As

Publication number Publication date
JP3131300B2 (en) 2001-01-31

Similar Documents

Publication Publication Date Title
JP4321821B2 (en) Image recognition apparatus and image recognition method
US7948397B2 (en) Image recognition apparatuses, methods and programs
JP3958133B2 (en) Vehicle position measuring apparatus and method
JP4899351B2 (en) Travel condition determination device and in-vehicle navigation device
KR101241651B1 (en) Image recognizing apparatus and method, and position determining apparatus, vehicle controlling apparatus and navigation apparatus using the image recognizing apparatus or method
US20060233424A1 (en) Vehicle position recognizing device and vehicle position recognizing method
JPH0674778A (en) Navigation system for mobile
US20130080047A1 (en) Vehicular driving assistance apparatus
JP2010197278A (en) Navigation device and program for navigation
KR101704405B1 (en) System and method for lane recognition
JPH09152348A (en) Car navigation device
JP2007178271A (en) Own position recognition system
JP4775658B2 (en) Feature recognition device, vehicle position recognition device, navigation device, feature recognition method
JP2000097714A (en) Car navigation apparatus
JP3540106B2 (en) Navigation apparatus for mobile object, current position determination method thereof, and medium storing current position determination program
JPH0844999A (en) Approach prediction device
JPH10300494A (en) Vehicle position detecting device and method and route guide device and method
JPH08334365A (en) Present location calculating device
JP3381312B2 (en) Navigation device
JP2003227725A (en) On-vehicle navigation system, navigation method, and program for navigation
JP3287166B2 (en) Distance measuring device
JP3531122B2 (en) Vehicle running condition determination device
JP2009009368A (en) Road-surface indication recognition system
JPH09152343A (en) Detection apparatus for position of vehicle
JP3864729B2 (en) Departure determination device for vehicles

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20071117

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081117

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 8

Free format text: PAYMENT UNTIL: 20081117

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20091117

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20091117

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101117

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111117

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 12

Free format text: PAYMENT UNTIL: 20121117

EXPY Cancellation because of completion of term