JP3081788B2 - Local positioning device - Google Patents

Local positioning device

Info

Publication number
JP3081788B2
JP3081788B2 JP08102892A JP10289296A JP3081788B2 JP 3081788 B2 JP3081788 B2 JP 3081788B2 JP 08102892 A JP08102892 A JP 08102892A JP 10289296 A JP10289296 A JP 10289296A JP 3081788 B2 JP3081788 B2 JP 3081788B2
Authority
JP
Japan
Prior art keywords
contour
lane
signal
data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08102892A
Other languages
Japanese (ja)
Other versions
JPH0916900A (en
Inventor
篤 飯阪
伸彦 安井
衛 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP08102892A priority Critical patent/JP3081788B2/en
Publication of JPH0916900A publication Critical patent/JPH0916900A/en
Application granted granted Critical
Publication of JP3081788B2 publication Critical patent/JP3081788B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、局地的地域での対
象物の位置、速度、及び、姿勢に関して、局地的位置把
握データを提供し、特に自動車の路上に於ける静止或い
は走行中の状態の検出に特に適した局地的位置把握シス
テムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention provides localization data relating to the position, speed and attitude of an object in a local area, and more particularly, to stationary or running vehicles on the road. The present invention relates to a localization system that is particularly suitable for detecting the state of a vehicle.

【0002】[0002]

【従来の技術】図30に、自動車に用いられる従来の局
地的位置把握装置を示す。この従来の局地的位置把握装
置LLPは、エッジ抽出器1P、閾値設定器3P、閾値
設定器5P、マッチング検出器9P、車線輪郭検出器1
1P、領域限定器13P、現位置検出器15P、曲率検
出器17P、及びヨー角検出器19Pを有する。
2. Description of the Related Art FIG. 30 shows a conventional local position detecting device used for an automobile. This conventional local position grasping device LLP includes an edge extractor 1P, a threshold setting device 3P, a threshold setting device 5P, a matching detector 9P, and a lane contour detector 1.
1P, an area limiter 13P, a current position detector 15P, a curvature detector 17P, and a yaw angle detector 19P.

【0003】エッジ抽出器1Pは、デジタル撮像装置
(図1)に接続されている。デジタル撮像器は、自動車
AM(図1)に搭載されて、自動車の進行方向前方の風
景の斜視画像Viをデジタル画像信号Siとして生成す
る。この画像Viには、道路及びその上に設けられた現
在走行中の車線Lm、及び同車線車線Lmの両側を規制
する白線Lm1及びLm2等が写っている。更に、隣の
車線の白線Lm3も写っている。エッジ抽出機1Pは、
デジタル画像信号Siから、これらの車線車線Lm1、
Lm2、及び、Lm3に対応するエッジ画素を抽出し
て、抽出エッジ画素信号Sxを生成する。この抽出エッ
ジ画素信号Sxは抽出されたエッジ画素のみを含む、抽
出エッジ画像Vxを表示する。
The edge extractor 1P is connected to a digital image pickup device (FIG. 1). The digital imaging device is mounted on an automobile AM (FIG. 1) and generates a perspective image Vi of a scenery ahead in the traveling direction of the automobile as a digital image signal Si. This image Vi shows a road, a currently running lane Lm provided thereon, and white lines Lm1 and Lm2 that regulate both sides of the lane Lm. Furthermore, the white line Lm3 of the adjacent lane is also shown. The edge extractor 1P
From the digital image signal Si, these lanes Lm1,
An edge pixel corresponding to Lm2 and Lm3 is extracted to generate an extracted edge pixel signal Sx. The extracted edge pixel signal Sx displays an extracted edge image Vx including only the extracted edge pixels.

【0004】閾値設定器3Pは、公知の方法で、マーク
する各々の車線Lmの線を抽出するために、信号Sx'
を走査して、エッジ画素データ信号Sx’から車線マー
キングの輪郭を示す画素を抽出するための、閾値Et
h’を決定する。そして、車線マーキングの輪郭線を表
す輪郭画素を抽出した信号Sc’を生成する。
[0004] The threshold setter 3P uses a signal Sx 'to extract the lines of each lane Lm to be marked in a known manner.
To extract a pixel indicating the outline of the lane marking from the edge pixel data signal Sx ′.
Determine h ′. Then, a signal Sc ′ is generated by extracting outline pixels representing the outline of the lane marking.

【0005】マッチング検出器9Pは、このように輪郭
を抽出した、輪郭抽出信号Sc’に含まれる輪郭線にマ
ッチする直線或いは円弧を求め、これらの直線或いは円
弧のマッチした線の全てを含むマッチングデータSm’
を生成する。更に、車線輪郭抽出部11Pは、これらの
マッチングデータを、予め記憶してある車線の寸法的特
徴と比較し、この寸法的特徴を満たすマッチング線を車
線の輪郭線として採用して、車線抽出信号Smc’を生
成する。
The matching detector 9P finds a straight line or an arc that matches the contour line included in the contour extraction signal Sc 'from which the contour has been extracted as described above, and performs a matching operation that includes all of the straight lines or the arc-matched lines. Data Sm '
Generate Further, the lane contour extraction unit 11P compares the matching data with the dimensional features of the lane stored in advance, adopts a matching line satisfying the dimensional features as the contour of the lane, and outputs a lane extraction signal. Generate Smc '.

【0006】領域限定器13Pは、車線抽出信号Sm
c’に基づいて、抽出された車線の周りに領域を設定す
ると共に、この領域を規定する領域信号Sr’を生成す
る。エッジ抽出器1は斜視画像Viでの領域を、この領
域信号Sr’に規定される領域に限定する。現位置検出
器15Pは、自動車AMが、現在位置している道路上の
位置を検出する。曲率検出器17Pは、走行中の車線の
曲率を検出する。ヨー角検出器19Pは、自動車の車線
に対する傾斜角度を検出する。
The area limiter 13P outputs a lane extraction signal Sm
Based on c ′, an area is set around the extracted lane, and an area signal Sr ′ defining this area is generated. The edge extractor 1 limits the area in the perspective image Vi to an area defined by the area signal Sr ′. The current position detector 15P detects the position on the road where the car AM is currently located. The curvature detector 17P detects the curvature of the traveling lane. The yaw angle detector 19P detects an inclination angle of the vehicle with respect to the lane.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、全ての
処理は、撮像装置100によって得られる車両前方の斜
視画像Viに基づいて行われる。言うまでもなく、斜視
図では、三次元的空間が二次元平面の上に表現されるの
で、斜視画像Viからは、対象物、つまり車線の正しい
寸法情報を得ることが出来ない。斜視画像Viに於いて
は、撮像装置100より遠ざかるにつれて、形状が変形
して表示される。言い換えれば、遠くに在る対象物は、
近くの対象物.より小さい表現される。
However, all the processing is performed based on the perspective image Vi in front of the vehicle obtained by the imaging device 100. Needless to say, in the perspective view, a three-dimensional space is represented on a two-dimensional plane, so that it is not possible to obtain correct dimensional information of an object, that is, a lane, from the perspective image Vi. In the perspective image Vi, the shape is changed and displayed as the distance from the imaging device 100 increases. In other words, objects that are far away
Nearby object. Expressed smaller.

【0008】このように、斜視画像である輪郭抽出信号
Scから、対象物の正しい寸法の情報を得ることは、不
可能である。さらに、このような信頼できない、不正確
な、歪んだ寸法の情報に基づいて、車両の局地的位置把
握及び、誤って把握した局地位置情報に基づいて、曲
率、ヨー角検出等の処理を行うことが、非常に危険であ
ることは、明白である。
[0008] As described above, it is impossible to obtain information on the correct dimensions of the object from the contour extraction signal Sc which is a perspective image. Further, based on such unreliable, inaccurate, and distorted dimension information, processing such as curvature and yaw angle detection is performed based on the local position information of the vehicle, and based on the local position information incorrectly obtained. Obviously, doing so is very dangerous.

【0009】また、異なる局地的位置把握システムとし
ては、特開平3−139706号公報に提案されてい
る。撮像手段から取り込んだ画像から抽出された二本の
案内線について自車両から距離の異なる2点に於ける接
線を検出し、検出された接線から案内線の曲率を計算す
ることによって、あらかじめ記憶されている曲率と車両
状態量の関係から車両の横変位を検出される。しかしな
がら、このような局地的位置把握装置に於いても、カー
ブの曲率が小さい場合には、正確な曲率が求まらないこ
とや、白線の間隔が変わった場合には対応できないこと
から、車線内での車両の位置を常に正確に計測ができな
いという問題を有していた。
A different local position grasping system is proposed in Japanese Patent Application Laid-Open No. 3-139706. By detecting tangents at two points at different distances from the vehicle with respect to the two guide lines extracted from the image captured from the imaging means, calculating the curvature of the guide lines from the detected tangents, the pre-stored guide lines are stored. The lateral displacement of the vehicle is detected from the relationship between the curvature and the vehicle state quantity. However, even in such a local position grasping device, when the curvature of the curve is small, an accurate curvature cannot be obtained, and when the interval between the white lines is changed, it cannot be dealt with. There was a problem that the position of the vehicle in the lane could not always be measured accurately.

【0010】[0010]

【課題を解決するための手段】対象物の進行方向の局地
的地域の斜視図を表すデジタル画像信号に基づいて、該
局地的地域上の車線に関する方向に進行可能な対象物の
局地的位置を検出する局地的位置把握装置であって、該
デジタル画像信号から該車線の輪郭を抽出して、輪郭デ
ータを生成する輪郭抽出手段と、該輪郭データを平面図
を表すように変換して、該抽出された輪郭の寸法を正確
に表した座標変換データを生成する変換手段と、該座標
変換データに基づいて、該抽出輪郭線の寸法的特徴を検
出して、寸法データを生成する寸法特徴検出手段とを有
することを特徴とする局地的位置把握装置。
SUMMARY OF THE INVENTION Based on a digital image signal representing a perspective view of a local area in the direction of travel of the object, a local area of the object which can travel in a direction related to a lane on the local area. A local position grasping device for detecting a target position, extracting a contour of the lane from the digital image signal and generating contour data, and converting the contour data to represent a plan view. Converting means for generating coordinate conversion data accurately representing the dimensions of the extracted contour; and detecting dimensional characteristics of the extracted outline based on the coordinate conversion data to generate dimensional data. And a dimensional characteristic detecting means.

【0011】[0011]

【発明の実施の形態】図1に本発明に係る局地的位置把
握装置LPを組み込んだ局地的位置把握システムLPS
を示す。この局地的位置把握システムLPSは、例え
ば、自動車AMに搭載される。局地的位置把握システム
LPSは、局地的位置把握装置LP、デジタル撮像装置
100、移動速度検出器200、GPS(地球的位置把
握装置)受信機 300、ECU(電気制御ユニット)
400、及び、ナビゲーション装置500を含む。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows a local positioning system LPS incorporating a local positioning device LP according to the present invention.
Is shown. This local position grasping system LPS is mounted on, for example, an automobile AM. The local positioning system LPS includes a local positioning device LP, a digital imaging device 100, a moving speed detector 200, a GPS (global positioning device) receiver 300, and an ECU (electric control unit).
400 and a navigation device 500.

【0012】デジタル撮像装置100は、撮像素子より
成り、Ph x PV画素マトリックス(図3)によって
対象物の画像を連続的に得ることができる。PhとPV
は、それぞれ水平方向と垂直の方向に配置さられる画素
の数を表している。故に、画素数PhとPVを増やせ
ば、画像の解像度を上げることができるので、本発明の
位置把握等の動作の精度を上げることができる。一方、
製造コストが増えるという問題があるので、これらの数
PhとPVは必要とされる分解能と製造コストに従って
決定されるべきである。一例として、Ph及びPvはそ
れぞれ、428及び268とされているが、これに限定
されるものではない。
The digital image pickup apparatus 100 includes an image pickup device, and can continuously obtain an image of an object by using a PhxPV pixel matrix (FIG. 3). Ph and PV
Represents the number of pixels arranged in the horizontal direction and the vertical direction, respectively. Therefore, if the number of pixels Ph and PV are increased, the resolution of the image can be increased, so that the accuracy of the operation such as the position grasp of the present invention can be improved. on the other hand,
Due to the problem of increased manufacturing costs, these numbers Ph and PV should be determined according to the required resolution and manufacturing costs. As an example, Ph and Pv are 428 and 268, respectively, but are not limited thereto.

【0013】デジタル撮像装置100は、自動車AMの
前端部近くに設置される。デジタル撮像装置100は。
自動車AMの進行方向の風景画像Viを連続的に撮影し
て、デジタル画像信号Siを生成する。この画像Vi
は、自動車AMの中から見た、前方の斜視図である。こ
の画像は、静止画及び動画のいずれでも良い。
The digital imaging device 100 is installed near the front end of the automobile AM. The digital imaging device 100.
A landscape image Vi in the traveling direction of the automobile AM is continuously photographed to generate a digital image signal Si. This image Vi
FIG. 2 is a front perspective view seen from inside the automobile AM. This image may be either a still image or a moving image.

【0014】図7(b)に、デジタル撮像装置100を
搭載した自動車AMの側面図を大略示す。デジタル撮像
装置100の光軸Axは、自動車AMが道路上を移動す
る方向Zと一致しているが、水平面に対して所定の角度
θだけ、下向きになるように設定されている。この場
合、自動車AMの前端部の真下の路面の画像Viを得る
のに、十分に大きい画角を有したデジタル撮像装置10
0が用いられる。
FIG. 7B schematically shows a side view of an automobile AM on which the digital imaging device 100 is mounted. The optical axis Ax of the digital imaging device 100 matches the direction Z in which the automobile AM moves on the road, but is set to be downward at a predetermined angle θ with respect to the horizontal plane. In this case, the digital imaging device 10 having a sufficiently large angle of view to obtain an image Vi of the road surface immediately below the front end of the automobile AM.
0 is used.

【0015】図3に、デジタル撮像装置100によって
得られた、デジタル画像信号Siに表される自動車AM
から進行方向前方をみた斜視画像Viを示す。自動車A
Mは、二車線道路の左側の車線を走行している。.この
二車線道路は、3本の車線分離線Lm1、Lm2、及び
Lm3によって、二車線に分けられている。つまり、右
側車線は、分離線Lm3及びLm2によって、左側車線
は分離線Lm1及びLm2によって案内されている。通
常、これらの車線分離線は路面上に、白色ペイントで、
明示されている。図に於いて、斜視図Viの底変部は、
自動車AMの前端部の真下の道路の画像である。
FIG. 3 shows an automobile AM represented by a digital image signal Si obtained by the digital imaging device 100.
5 shows a perspective image Vi as viewed from the front in the traveling direction. Car A
M is traveling in the left lane of a two-lane road. The two-lane road is divided into two lanes by three lane separation lines Lm1, Lm2, and Lm3. That is, the right lane is guided by the separation lines Lm3 and Lm2, and the left lane is guided by the separation lines Lm1 and Lm2. Usually, these lane separation lines are painted on the road with white paint,
It is specified. In the figure, the bottom part of the perspective view Vi is
It is an image of the road just under the front end of the car AM.

【0016】図1に、自動車AMの移動速度を検出し
て、移動速度信号Svを生成する移動速度検出器200
が示されている。移動速度検出器200は、自動車に広
く採用されている、スピードメーターを利用できる。局
地的位置把握装置LPは、デジタル撮像装置100、移
動速度検出器200、及びGPS受信機300に接続さ
れて、それぞれデジタル画像信号Si、移動速度信号S
v、及び地球的位置把握信号Sgを受け取る。これらの
信号に基づいて、局地的位置把握装置LPは、種々の計
算を行い、自動車AMの移動中或いは静止位置を後に述
べるようにして検出する。構造及び動作に付いては、図
2、19、26、及び28を用いて、後に詳述する。
FIG. 1 shows a moving speed detector 200 for detecting a moving speed of an automobile AM and generating a moving speed signal Sv.
It is shown. As the moving speed detector 200, a speedometer widely used in automobiles can be used. The local position grasping device LP is connected to the digital imaging device 100, the moving speed detector 200, and the GPS receiver 300, and respectively receives the digital image signal Si and the moving speed signal S.
v and the global positioning signal Sg. Based on these signals, the local positioning device LP performs various calculations to detect the moving or stationary position of the vehicle AM as described later. The structure and operation will be described later in detail with reference to FIGS. 2, 19, 26, and 28.

【0017】ECU400は、局地的位置把握装置LP
に接続されて、ECUの動作を制御するECU信号Se
を受け取る。この信号Seに基づいて、ECUは自動車
AMのエンジンの動作を制御する。尚、ECUは自動車
産業に於いて衆知の技術なので詳しい説明を省略する。
ナビゲーション装置500は、局地的位置把握装置L
Pに接続されてナビゲーション信号Snを受け取る。こ
の信号Snに基づいて、ナビゲーション装置500は様
々な計算を行い、ナビゲーションデータをえる。通常自
動車に使われている、ナビゲーション装置を用いること
ができる。
The ECU 400 includes a local position grasping device LP
And an ECU signal Se for controlling the operation of the ECU.
Receive. Based on the signal Se, the ECU controls the operation of the engine of the automobile AM. Since the ECU is a well-known technology in the automobile industry, a detailed description thereof will be omitted.
The navigation device 500 includes a local position grasping device L
Connected to P to receive the navigation signal Sn. Based on the signal Sn, the navigation device 500 performs various calculations to obtain navigation data. A navigation device commonly used in automobiles can be used.

【0018】第一の実施の形態 図2に、本発明の局地的位置把握装置の第一の実施の形
態を示す。局地的位置把握装置LP1は、エッジ抽出器
1、閾値設定器3、輪郭抽出器5、座標変換器7、マッ
チング検出器9、及び、車線表示輪郭抽出器11、領域
限定器13、曲率検出器17、及びヨー角度検出器19
を含む。エッジ抽出器1は、デジタル撮像装置100に
接続されて、進行方向前方風景画像Viを表すデジタル
画像信号Siを受け取る。エッジ抽出器1は、その信号
Siにソーベルフィルター等のフィルター処理を施し
て、画像濃度が急激に変化するエッジ画素を抽出する。
この際、処理付加を軽減する為に、以下の述べるよう
に、斜視画像Viデータ全域にでは無く所定の領域にの
みフィルター処理を行う。
First Embodiment FIG. 2 shows a first embodiment of the local position grasping device of the present invention. The local position grasping device LP1 includes an edge extractor 1, a threshold setting device 3, a contour extractor 5, a coordinate converter 7, a matching detector 9, a lane display contour extractor 11, an area limiter 13, and a curvature detector. Detector 17 and yaw angle detector 19
including. The edge extractor 1 is connected to the digital imaging device 100 and receives a digital image signal Si representing the forward scenery image Vi in the traveling direction. The edge extractor 1 performs a filtering process such as a Sobel filter on the signal Si to extract edge pixels whose image density changes rapidly.
At this time, in order to reduce the processing addition, as described below, the filter processing is performed only on a predetermined area, not on the entire perspective image Vi data.

【0019】図3に、エッジ抽出器1のフィルタリング
処理を受けている斜視画像Viが示されている。斜視画
像Viは、一本の水平線Lsによって、上部領域Stと
下部領域Sbの二つの部分に分けられる。尚、水平線L
sは画像Viの底部から垂直方向に、上端部に向かって
数えてA番目の水平位置に配置された画素に、一致す
る。この結果、上端部領域StはPh x(PV-A)画
素と下部領域SbはPhxA画素面積を有する。このA
番目の垂直位置は、自動車AMが平坦路を走行中に、前
景の消滅点が画像Viに出る垂直画素位置と一致するよ
うに決めることが好ましい。本発明の実施の形態に於い
ては、Aは、デジタル撮像装置100によって直接に自
動車AMの進行方向を撮像したときに、自動車AMから
およそ50メートルはなれた場所の像を映す画素の垂直
位置にセットされる。
FIG. 3 shows a perspective image Vi that has been subjected to the filtering process of the edge extractor 1. The perspective image Vi is divided into two parts, an upper area St and a lower area Sb, by one horizontal line Ls. Note that the horizontal line L
s coincides with the pixel arranged at the A-th horizontal position counted from the bottom of the image Vi in the vertical direction toward the upper end. As a result, the upper end area St has a Phx (PV-A) pixel area and the lower area Sb has a PhxA pixel area. This A
The third vertical position is preferably determined such that the vanishing point of the foreground coincides with the vertical pixel position appearing in the image Vi while the automobile AM is traveling on a flat road. In the embodiment of the present invention, A is the vertical position of a pixel that displays an image of a place approximately 50 meters away from the automobile AM when the digital imaging device 100 directly captures the traveling direction of the automobile AM. Set.

【0020】本発明による、局地的位置把握動作が始待
った直後は、エッジ抽出器1は下部領域Sbにのみエッ
ジ抽出(フィルタリング)処理を施し、画素を抽出して
抽出エッジ画素信号Sxを生成する。つまり、抽出エッ
ジ画素信号Sxには、Sb部(Ph xA)から抽出され
たエッジ画素だけを含んでいる。
Immediately after the start of the local position grasping operation according to the present invention, the edge extractor 1 performs an edge extraction (filtering) process only on the lower region Sb to extract pixels and generate an extracted edge pixel signal Sx. I do. That is, the extracted edge pixel signal Sx includes only the edge pixels extracted from the Sb portion (Ph xA).

【0021】図4に抽出エッジ画素信号Sxによって表
される抽出エッジ画像Vxを示す。画像Viの下部領域
Sbからは、主に車線表示Lm1、Lm2、及び、Lm
3と、その周辺の画素がエッジ画素として抽出されてい
る。しかしながら、図示はされていないが、これら車線
表示に関係ない部分からもエッジ画素が抽出されている
ことは言うまでもない。
FIG. 4 shows an extracted edge image Vx represented by the extracted edge pixel signal Sx. From the lower area Sb of the image Vi, mainly the lane indications Lm1, Lm2, and Lm
3 and its surrounding pixels are extracted as edge pixels. However, although not shown, it is needless to say that edge pixels are also extracted from portions not related to the lane display.

【0022】図2に示すように、閾値設定器3はエッジ
抽出器1に接続されて抽出エッジ画素信号Sxを受けて
いる。閾値設定器3は、抽出エッジ画素信号Sxから、
車線表示Lmの輪郭の部分のエッジ画素を効果的に抽出
するための閾値Ethを以下の式に基づいて閾値Eth
を決定する。
As shown in FIG. 2, the threshold setting unit 3 is connected to the edge extractor 1 and receives the extracted edge pixel signal Sx. The threshold value setting unit 3 calculates, based on the extracted edge pixel signal Sx,
The threshold value Eth for effectively extracting the edge pixels of the contour portion of the lane display Lm is set based on the following equation.
To determine.

【0023】 Eth=C・Emax +(1−C)・Emean (1)Eth = C · Emax + (1−C) · Emean (1)

【0024】第1式において、Emax及びEmean
は、斜視画像Viの下部領域Sbの中で、所定の水平線
上の画素の有する最大濃度と、平均濃度を表す。さら
に、Cは0より大きく、1より小さい所定の定数であ
る。
In the first equation, Emax and Emean
Represents the maximum density and average density of pixels on a predetermined horizontal line in the lower region Sb of the perspective image Vi. Further, C is a predetermined constant larger than 0 and smaller than 1.

【0025】図2に示すように、輪郭抽出器5が、エッ
ジ抽出器1と閾値設定器3に接続されて、抽出エッジ画
素信号Sxと閾値Ethをそれぞれ受けている。輪郭抽
出器5は、抽出エッジ画素信号Sxの下部領域Sbの画
素を閾値Ethに基づい、車両表示の輪郭線を抽出す
る。
As shown in FIG. 2, a contour extractor 5 is connected to the edge extractor 1 and the threshold setting device 3, and receives the extracted edge pixel signal Sx and the threshold Eth, respectively. The contour extractor 5 extracts the contour of the vehicle display based on the threshold value Eth of the pixel in the lower region Sb of the extracted edge pixel signal Sx.

【0026】図5に、輪郭抽出器5によって輪郭線を抽
出されようとしている抽出エッジ画像Vxが示されてい
る。画像の下部領域Sbは更に、垂直中心線Lcによっ
て、左右の下部領域SbLとSbRに細分化される。こ
の中心線Lcは、抽出エッジ画像Vxの底部の中心の位
置Ph/2に位置する画素から垂直に延びている。しか
し、この垂直線Lcは中心位置Ph/2に限定されるもの
ではない。
FIG. 5 shows an extracted edge image Vx from which a contour is to be extracted by the contour extractor 5. The lower region Sb of the image is further subdivided into left and right lower regions SbL and SbR by the vertical center line Lc. The center line Lc extends vertically from the pixel located at the center position Ph / 2 at the bottom of the extracted edge image Vx. However, the vertical line Lc is not limited to the center position Ph / 2.

【0027】輪郭抽出器5は、まず水平線Lsに沿っ
て、中心線Lcから左右の水平方向の水平線LhL及び
LhRに沿って走査し、途中の画素の濃度を閾値Eth
を比較し、閾値Eth以上の濃度を有する画素を輪郭画
素として抽出する。そして、この中心線Lcに沿って底
部に向かって所定の画素数分移動したのち、その位置か
らまた、左右の水平方向に走査して、輪郭画素を求めて
いく。
The contour extractor 5 first scans along the horizontal line Ls, along the horizontal lines LhL and LhR in the horizontal direction from the center line Lc to the left and right, and determines the density of the intermediate pixels as a threshold Eth.
And extracts pixels having a density equal to or higher than the threshold value Eth as contour pixels. Then, after moving by a predetermined number of pixels toward the bottom along the center line Lc, scanning is performed from that position again in the left and right horizontal directions to obtain contour pixels.

【0028】実際には、左右の下部領域の一方を先に、
走査して輪郭画素を求めている。例えば、水平ラインL
hの左半分LhLをこの中心線Lcに沿って、所定の間
隔PLhで上部(A位置)から下部に向かって順番に移
動させて、左下部領域Sb内の輪郭画素を求める。その
後、同様にして、右下部領域Sbの輪郭画素を求めて輪
郭抽出信号Scを生成する。
In practice, one of the left and right lower regions is
The outline pixels are obtained by scanning. For example, horizontal line L
The left half LhL of h is sequentially moved from the upper part (position A) to the lower part along the center line Lc at a predetermined interval PLh to obtain a contour pixel in the lower left area Sb. After that, similarly, the contour extraction signal Sc is generated by obtaining the contour pixels of the lower right region Sb.

【0029】水平を所定間隔PLhでスキップさせてい
くことによって、計(Pv/PLh)の絶対値に相当す
る整数K本の水平線Lhで抽出することになり、計算負
荷の低減を図ると共に、画素抽出処理の迅速化を可能に
している。言うまでもなく、PLhを一画素単位でセッ
トすることができる。
By skipping the horizontal at a predetermined interval PLh, an integer K horizontal lines Lh corresponding to the absolute value of the total (Pv / PLh) are extracted. This allows for faster extraction processing. Needless to say, PLh can be set for each pixel.

【0030】このようにして、左右の下部領域SbL及
びSbRの輪郭画素を求めていくが、各垂直位置におい
て、各左右の線LhL及びLhRに関して、最初に所定
濃度を持つ画素が見つかれば、その画素Peを輪郭画素
と定めて、その水平線に関しては、輪郭画素の走査は行
わなで、次の垂直位置での水平線に移動してその垂直位
置での輪郭画素を求める。つまり、図5を参照して説明
すれば、Ls線から数えて、最初の水平線Lhに関し
て、左右の車線表示Lm1及びLm2の内側エッジ部
で、輪郭画素が検出される。しかしながら、3番目4番
目の線に関して言えば、この垂直位置では、右側の車線
表示Lm2の分割されているため、水平線は、右側車線
表示Lm2を通り越し、隣の車線の表示Lm3の内側エ
ッジを輪郭画素として検出してしまう。更に、図5では
示されていないが、垂直線Lcから各車線表示までの間
に、傷とか汚れ等があれば、これらのエッジも輪郭点と
して検出さあれる。これらの輪郭画素は、現在走行中の
車線に対応するものでないので、本発明に係る位置把握
動作に対する一種のノイズ成分となる。これらノイズ成
分の除去に付いては、後で詳述する。
In this way, the contour pixels of the left and right lower regions SbL and SbR are obtained. If a pixel having a predetermined density is first found for each of the left and right lines LhL and LhR at each vertical position, that pixel is determined. The pixel Pe is determined as an outline pixel, and the scanning of the outline pixel is not performed on the horizontal line, and the outline pixel at the next vertical position is obtained by moving to the horizontal line at the next vertical position. That is, with reference to FIG. 5, contour pixels are detected at the inner edges of the left and right lane indications Lm1 and Lm2 with respect to the first horizontal line Lh, counting from the Ls line. However, regarding the third and fourth lines, at this vertical position, the right lane indication Lm2 is divided, so that the horizontal line passes through the right lane indication Lm2 and outlines the inner edge of the adjacent lane indication Lm3. It is detected as a pixel. Further, although not shown in FIG. 5, if there is a flaw or dirt between the vertical line Lc and each lane display, these edges are also detected as contour points. Since these contour pixels do not correspond to the currently traveling lane, they become a kind of noise component for the position determination operation according to the present invention. The removal of these noise components will be described later in detail.

【0031】図6に、このようにして得られた輪郭抽出
信号Scによって表されている抽出輪郭画像Vcを示
す。車線表示Lm1、Lm2、及びLm3に対応する検
出された輪郭画素がそれぞれ点線で、ScL、ScR、
及びScR’に対応する。ここで、ScR’は、先に述
べたノイズデータである。
FIG. 6 shows an extracted contour image Vc represented by the contour extraction signal Sc obtained in this manner. The detected contour pixels corresponding to the lane indications Lm1, Lm2, and Lm3 are dotted lines, respectively, and ScL, ScR,
And ScR '. Here, ScR ′ is the noise data described above.

【0032】図2に示すように、座標変換器7は輪郭抽
出器5に接続されて、図6に示すような輪郭情報を有す
る輪郭抽出信号Scを受けとる。座標変換器7は輪郭抽
出信号Scの座標系を変換して、その信号の表す画像V
cを斜視図から鳥瞰図画像にする。抽出輪郭画像Vcに
於いては、対象が斜視された状態で表現されているの
で、デジタル撮像装置100からの距離が遠くなるほ
ど、対象物の形状はより歪んでします。言い換えれば、
同じ大きさの二つの対象物でも、近にある対象物より、
遠くの物の方が小さく表現される。対象物の形は撮像デ
バイス100か自動車AMから距離が遠くなるに従って
歪みが大きい。
As shown in FIG. 2, the coordinate converter 7 is connected to the contour extractor 5 and receives a contour extraction signal Sc having contour information as shown in FIG. The coordinate converter 7 converts the coordinate system of the contour extraction signal Sc and outputs an image V represented by the signal.
Let c be a bird's-eye view image from a perspective view. In the extracted contour image Vc, since the object is represented in a perspective state, the shape of the object becomes more distorted as the distance from the digital imaging device 100 increases. In other words,
Even with two objects of the same size,
Distant objects are represented smaller. The distortion of the shape of the object increases as the distance from the imaging device 100 or the automobile AM increases.

【0033】図7の(A)及び(B)を参照して、座標
変換器7による抽出輪郭画像Vcの座標変換の概念を簡
単に説明する。図7(A)に斜視画像Vi、Vc、及び
Vccの座標系を示す。図7(B)も自動車AMを基準
とした鳥瞰画像を示す。画像座標系(x、y)のx軸
は、鳥瞰図の座標系のX軸に平行で同方向、デジタル撮
像装置100の光軸Axが水平面に対して角度θ傾いて
いるので、y軸もY軸に対して角度θだけ傾いている。
このように、X軸とZ軸で、自動車AMの走行面である
路面に対して実質的に平行な水平面Pdを規定する。Y
軸とy軸は芯が合っている。Y軸は図7(B)に対して
垂直である。原点Oは、抽出輪郭画像Vc座標系の原点
と同一であると共に、デジタル撮像装置100の光軸が
通っている。
Referring to FIGS. 7A and 7B, the concept of coordinate conversion of the extracted contour image Vc by the coordinate converter 7 will be briefly described. FIG. 7A shows a coordinate system of the perspective images Vi, Vc, and Vcc. FIG. 7B also shows a bird's-eye view image based on the automobile AM. The x-axis of the image coordinate system (x, y) is parallel to and the same direction as the X-axis of the coordinate system of the bird's-eye view, and the optical axis Ax of the digital imaging device 100 is inclined at an angle θ with respect to the horizontal plane. It is inclined by an angle θ with respect to the axis.
Thus, the horizontal plane Pd substantially parallel to the road surface, which is the running surface of the automobile AM, is defined by the X axis and the Z axis. Y
The axis and the y axis are aligned. The Y axis is perpendicular to FIG. The origin O is the same as the origin of the coordinate system of the extracted contour image Vc, and the optical axis of the digital imaging device 100 passes through.

【0034】そして、次の方程式を利用することによる
鳥瞰図画像Vbのための座標に画像Vc座標を変換する
ことができる。
The coordinates of the image Vc can be converted into coordinates for the bird's-eye view image Vb by using the following equation.

【0035】 X =(x/F)(Zcosθ-Ysinθ) (2)X = (x / F) (Zcos θ−Ysin θ) (2)

【0036】 Z = Y(Fcosθ+Ysinθ) (3)Z = Y (Fcos θ + Y sin θ) (3)

【0037】 Y = −H (4)Y = −H (4)

【0038】Fは、デジタル撮像装置100の光学レン
ズの焦点距離、θはZ軸(水平方向軸)と光学レンズの
光軸Axのなす角度、Hは路面かあ光軸レンズの原点ま
での距離。θもHも、好ましくは、図3を参照して説明
したような自動車AMの進行方向前方の斜視画像Viを
得られるように設定される。たとえは、θは6度に、H
は1.2メータに設定される。
F is the focal length of the optical lens of the digital imaging device 100, θ is the angle between the Z axis (horizontal axis) and the optical axis Ax of the optical lens, and H is the distance from the road surface to the origin of the optical axis lens. . Both θ and H are preferably set so as to obtain a perspective image Vi in the traveling direction of the vehicle AM as described with reference to FIG. For example, θ is 6 degrees, H
Is set to 1.2 meters.

【0039】上述の式(2)、(3)、及び(4)に基
づいて、抽出輪郭画像Vc中の距離を変換することによ
って、輪郭抽出信号Scの座標変換した輪郭抽出信号S
ccが得られる。この信号Sccに於いては、水平方向
の距離は、デジタル撮像装置100からZ軸方向に距離
が離れても関係無く、正確に表される。厳密に言えば、
座標変換された画像Vccは鳥瞰図画像ではなく、常に
路面と平行な面に路面を映した、いわば路面の平面図で
ある。それ故に、例えば、路面が小さい丘のように盛り
上がりや、さらに起伏を有していても、画像Vccは路
面を、常に平坦な表面として示す。しかしながら、この
ような誤差は、本発明に係る局地的位置把握の精度を損
なうものではない。なぜなら、局地的位置把握は、先に
述べたように50メートル先と言った比較的近距離を、
制御対象の再遠方地点としているので、路面の起伏と言
ったような変動を無視できる。
By converting the distance in the extracted contour image Vc based on the above equations (2), (3), and (4), the contour extracted signal Sc obtained by converting the coordinates of the contour extracted signal Sc is converted.
cc is obtained. In the signal Scc, the horizontal distance is accurately represented regardless of the distance from the digital imaging device 100 in the Z-axis direction. Strictly speaking,
The coordinate-transformed image Vcc is not a bird's-eye view image, but a so-called plan view of the road surface, which always reflects the road surface in a plane parallel to the road surface. Therefore, for example, the image Vcc always shows the road surface as a flat surface even if the road surface has a swelling like a small hill or has undulations. However, such errors do not impair the accuracy of localization according to the present invention. Because, as mentioned above, localization is relatively short distance, 50 meters away,
Since the control point is located at the farthest point, fluctuations such as undulations on the road surface can be ignored.

【0040】しかしながら、路面の完全な鳥瞰図画像、
つまり鉛直線に垂直な水平面に垂直に投影した路面の平
面図画像が必要であれば、デジタル撮像装置100の光
軸Axを自動車AMに固定することなく、ジャイロ等の
既知の自動姿勢制御装置を利用することによって、常に
水平面に対して一定の姿勢で画像Viを得るようにすれ
ば良い。
However, a complete bird's-eye view image of the road surface,
That is, if a plan view image of a road surface projected perpendicularly to a horizontal plane perpendicular to the vertical line is required, a known automatic attitude control device such as a gyro can be used without fixing the optical axis Ax of the digital imaging device 100 to the automobile AM. By using this, it is sufficient to always obtain the image Vi in a constant posture with respect to the horizontal plane.

【0041】図8に、座標変換された輪郭抽出信号Sc
cが表す輪郭を示す。車線表示Lm1、Lm2、及び、
Lm3がそれぞれに対応するエッジ輪郭線ScL、Sc
R、及び、ScR’によって表現されてる。図6の抽出
輪郭画像Vcと比較すれば、分かるように、図8に於い
ては、輪郭線ScL、ScR、及び、ScRが互いに平
行に、実際の道路上の車線のように表されている。つま
り、座標変換輪郭抽出信号Sccは、対象物の正しい平
面寸法の情報を含む。尚、図17に座標変換器7による
座標変換の動作を表したフローチャートを示す。
FIG. 8 shows a contour-converted contour extraction signal Sc.
The contour represented by c is shown. Lane indications Lm1, Lm2, and
Lm3 is the corresponding edge contour line ScL, Sc
R and ScR '. As can be seen from the comparison with the extracted contour image Vc of FIG. 6, in FIG. 8, the contour lines ScL, ScR, and ScR are represented as parallel lanes on an actual road. . That is, the coordinate conversion contour extraction signal Scc includes information on the correct plane dimension of the object. FIG. 17 is a flowchart showing an operation of coordinate conversion by the coordinate converter 7.

【0042】図2に示すように、マッチング検出器9は
座標変換器7に接続されて、座標変換輪郭抽出信号Sc
cに基づいて、各輪郭ScL、ScR、及び、ScR’
に適合する直線或いは円弧の式を以下のようにして求め
る。まず、座標変換輪郭抽出信号Sccに含まれる各車
線表示の内側の輪郭線ScL、ScR、及び、ScR’
の各画素データを、対応輪郭線毎に別個に、以下の
(5)式に基づいてハフ(Hough)変換する。
As shown in FIG. 2, the matching detector 9 is connected to the coordinate converter 7 and outputs the coordinate conversion contour extraction signal Sc.
c, each contour ScL, ScR, and ScR ′
The equation of a straight line or an arc that conforms to is obtained as follows. First, contour lines ScL, ScR, and ScR ′ inside each lane display included in the coordinate transformation contour extraction signal Scc.
Is subjected to Hough transform separately for each corresponding contour line based on the following equation (5).

【0043】 ρ = Xcosφ + Zsinφ (5)Ρ = Xcosφ + Zsinφ (5)

【0044】ρはZーX座標系に於ける、原点Oと画素
の間の距離;φは原点Oと画素を結ぶ線とX軸との間で
なす角度である。そして、第5式から以下の式が得られ
る。
Ρ is the distance between the origin O and the pixel in the ZX coordinate system; φ is the angle between the line connecting the origin O and the pixel and the X axis. Then, the following equation is obtained from the fifth equation.

【0045】 X =(ρ − Zsinφ)/cosφ (6)X = (ρ−Z sin φ) / cos φ (6)

【0046】座標変換輪郭抽出信号Sccを走査し、輪
郭線データをハフ(Hough)変換に基づいてパラメ
ータ空間上に変換すれば、各輪郭線毎に1群の曲線が得
られる。この一群の曲線に基づいて、輪郭線が直線か、
或いは円弧かを判断することを、図9及び図10を参照
しながら説明する。先ず図9には、ハフ変換された線デ
ータが直線である場合の典型的なパターンが示されてい
る。つまり、一群の曲線が、一点Cpで交差する。しか
しながら、現実問題として、車線表示Lm及び輪郭線自
体完全な直線ではないので、図9の様に、完全に1点の
みで交差すると言うことは非常に難しい。しかし、おお
むね1点で交差しようとするので、パラメータ空間上の
各(画素)点で、各曲線が交差する頻度Fcを調べべ、
その頻度が所定の閾値Fthより大きい点があれば、そ
の点を唯一の交点Cpとする。そして、輪郭線は直線と
みなし、適合する直線の式を求める。
If the coordinate transformation contour extraction signal Scc is scanned and the contour data is transformed into a parameter space based on Hough transformation, a group of curves is obtained for each contour. Based on this group of curves, whether the contour is straight,
The determination as to whether it is an arc or an arc will be described with reference to FIGS. First, FIG. 9 shows a typical pattern when the Hough-transformed line data is a straight line. That is, a group of curves intersect at one point Cp. However, as a practical problem, since the lane display Lm and the contour line are not perfect straight lines, it is very difficult to completely intersect at only one point as shown in FIG. However, since an attempt is made to intersect at approximately one point, the frequency Fc at which each curve intersects at each (pixel) point in the parameter space should be checked.
If there is a point whose frequency is larger than the predetermined threshold Fth, that point is set as the only intersection Cp. Then, the contour is regarded as a straight line, and a suitable straight line equation is obtained.

【0047】図10には、ハフ変換された線データが円
弧で在る場合の典型的なパターンが表されている。つま
り、この場合、図10(A)に示されるように、全く交
差しないか、図10(B)に示されるよう一群の曲線
は、互いに、Cp1、Cp2、Cp3、Cp4、Cp
5、及び、Cp6 (Cpn)と言う複数の交点で交差
する。nは整数である。同様に、各点での交差頻度Fc
を求めて、新たに設定閾値Fth’より高い頻度を有す
る点が無ければ、一群の曲線は交差していないとし、輪
郭線は円弧であると見なし、適合する円弧の式を求め
る。つまり、これらの式で、自動車AMが現在走行中或
いは静止中の車線、つまり道路の寸法的特徴を知ること
ができる。
FIG. 10 shows a typical pattern when the Hough-transformed line data is an arc. That is, in this case, as shown in FIG. 10 (A), they do not intersect at all, or as shown in FIG. 10 (B), a group of curves are mutually Cp1, Cp2, Cp3, Cp4, Cp
5 and Cp6 (Cpn). n is an integer. Similarly, the intersection frequency Fc at each point
If there is no new point having a frequency higher than the set threshold Fth ′, it is determined that the group of curves does not intersect, the contour is regarded as a circular arc, and a suitable circular arc formula is determined. In other words, the dimensional characteristics of the lane in which the automobile AM is currently traveling or stationary, that is, the road, can be known from these equations.

【0048】図11を参照して、曲がった車線Lmを表
す円弧の求め方を説明する。座標変換した輪郭線画像V
cc(図8と同じ)において、同一の車線表示Lmから
抽出されった全ての点から、二点の結ぶ弦の全ての組み
合わせを作る。今、全ての点の数がNeとすると、全て
の二点の組み合わせは、(Ne−1)!で表される。次
に、(Ne-1)!個の弦に関する垂線二等分線が得られ
る。従って、中心点Pが輪郭線ScRの上の全てのエッ
ジ画素の間に広がる全ての弦に基づいて、決定されるの
で、この円弧.のこの中心点Pの中心がX-Zの同等のシ
ステム.の座標P(a b)として表現される。
Referring to FIG. 11, a description will be given of a method of obtaining an arc representing the curved lane Lm. Outline image V with coordinate transformation
In cc (same as in FIG. 8), all combinations of strings connecting two points are created from all points extracted from the same lane indication Lm. Now, assuming that the number of all points is Ne, the combination of all two points is (Ne-1)! It is represented by Next, a perpendicular bisector for (Ne-1)! Strings is obtained. Therefore, since the center point P is determined based on all chords extending between all edge pixels on the contour line ScR, the center of the center point P of this arc is equivalent to the XZ equivalent system. . Are represented as coordinates P (ab).

【0049】各輪郭線毎に、求めた円弧の中心から、各
輪郭点までの距離までを計算し、最も多く得られた距離
を、適合させる円弧の半径Rとして求める。この要にし
て、全ての輪郭線に対して以下の円弧の関係式が得られ
る。尚、円弧の当てはめ二は、最小2乗法やハフ(Ho
ugh)変換を持ちいても良い。
For each contour line, the distance from the calculated center of the arc to each contour point is calculated, and the most obtained distance is determined as the radius R of the arc to be adapted. In essence, the following arc relational expression is obtained for all contour lines. In addition, the fitting of the circular arc is performed by the least square method or Hough (Ho
ugh) may have a transformation.

【0050】 (X-a)^2+(Z-b)^2=R^2 (7)(X−a) ^ 2 + (Z−b) ^ 2 = R ^ 2 (7)

【0051】同様にして、マッチング検出器9によっ
て、他の輪郭線ScLとScRに適合する、直線或いは
円弧がScLm及びScR'mを得ることができる。各
々の車線輪郭線のについて、長さ、寸法というデータが
得られる。更に、マッチング検出器9は直線、または、
円弧に適合する線ScRm、ScR'm、及び、ScL
mの寸法データを含んでだ、マッチング信号Smを生成
する。尚、図18にマッチング検出器9によるマッチン
グ動作を表したフローチャートを示す。
Similarly, the matching detector 9 can obtain the straight lines or arcs ScLm and ScR'm that match the other contour lines ScL and ScR. For each lane contour, data such as length and dimensions are obtained. Further, the matching detector 9 is a straight line, or
Lines ScRm, ScR'm, and ScL that fit the arc
A matching signal Sm including the dimension data of m is generated. FIG. 18 is a flowchart showing the matching operation by the matching detector 9.

【0052】図2に示すように、車線輪郭抽出器11は
マッチング検出器9に接続されて、マッチング信号Sm
を受け取る。マッチング信号Smには、前述のように、
ノイズ成分である輪郭線データScR’も含まれてい
る。それで、車線輪郭抽出器11が、マッチング信号S
mに含まれている寸法の特徴データを、自動車の幅、車
線幅、車線分離線Lm2の分割パターン等の予め主要点
データと比較されて目的車線に適合しない輪郭データS
cR’は、除外されて、現在の車線に対応する輪郭線S
cR及びScLのデータのみがマッチング信号Smとし
て出力される。もし、マッチング信号Sm信号中に、車
線に該当するデータがない場合にはエラー信号Seeが
出力される。
As shown in FIG. 2, the lane contour extractor 11 is connected to the matching detector 9 and outputs the matching signal Sm.
Receive. As described above, the matching signal Sm includes
Contour line data ScR ′, which is a noise component, is also included. Therefore, the lane contour extractor 11 outputs the matching signal S
m is compared with principal point data such as a vehicle width, a lane width, and a division pattern of a lane separation line Lm2 in advance, and contour data S that does not conform to the target lane is compared with the characteristic data of the dimensions included in m.
cR ′ is excluded and the contour line S corresponding to the current lane is removed.
Only the data of cR and ScL are output as the matching signal Sm. If there is no data corresponding to the lane in the matching signal Sm, an error signal See is output.

【0053】図8を参照して、車線輪郭抽出器11のフ
ィルター動作を説明する。鳥瞰図画像Vccに、今三本
の輪郭線ScL、ScR、及びScR’が含まれてい
る。上から数えて2画素目までは、左側の二本輪郭線S
cL及びScRが一本の車線表示Lmを規定するペアと
なされる。しかしながら、第3〜5番目までの画素に関
しては、右側の車線表は、分割タイプので、座標変換輪
郭抽出信号Sccは、右隣の車線の輪郭線ScR’を抽
出している。この場合、明らかに、二本の輪郭線ScL
とScR’の間隔は、車線表示にしては広すぎる。しか
し、この時点ではScLとScR’のどちらの輪郭線が
異常なのか分からない。第6願目から11番目の画素に
関して、明らかに輪郭線ScLとScRはペアである。
また、左輪郭線ScLは、マッチング検出器9によっ
て、一本の円弧ScLmをマッチングされているので、
第3〜5番目の画素に付いても、車線表示Lm1に対応
すると見なされる。その結果、隣の車線のScR’の3
画素は、誤りと見なされて無視される。そして、正しい
ペアである輪郭線ScL及びScRの二本だけが、抽出
されて、それぞれにマッチングした輪郭線ScLm及び
ScRmが選択されて、その情報と共に車線抽出信号S
mcとして出力される。このようにして、一本の車線を
規定しないようなノイズ成分、例えば路上の傷や汚れと
言ったものも、車線抽出信号Smcから除かれることは
明らかである。図12に、上述の車線輪郭抽出器11に
よる輪郭線ノイズ除去された車線抽出信号Smcにより
表される抽出車線輪郭画像を示す。
Referring to FIG. 8, the filtering operation of lane contour extractor 11 will be described. The bird's eye view image Vcc now includes three contour lines ScL, ScR, and ScR ′. Up to the second pixel counted from the top, the two left contour lines S
cL and ScR form a pair that defines one lane display Lm. However, for the third to fifth pixels, since the lane table on the right side is of a split type, the coordinate transformation contour extraction signal Scc extracts the contour line ScR 'of the lane on the right. In this case, obviously, two contour lines ScL
The distance between ScR 'and ScR' is too wide for lane display. However, at this point, it is not known which contour line of ScL or ScR 'is abnormal. Regarding the eleventh pixel from the sixth request, the contour lines ScL and ScR are clearly a pair.
Further, since the left contour line ScL is matched with one arc ScLm by the matching detector 9,
The third to fifth pixels are also considered to correspond to the lane display Lm1. As a result, the next lane ScR'3
Pixels are considered erroneous and ignored. Then, only two contour lines ScL and ScR, which are a correct pair, are extracted, and the contour lines ScLm and ScRm matched with each other are selected, and together with the information, the lane extraction signal S
output as mc. In this way, it is clear that noise components that do not define one lane, such as scratches and dirt on the road, are also excluded from the lane extraction signal Smc. FIG. 12 shows an extracted lane contour image represented by the lane extraction signal Smc from which the contour noise has been removed by the lane contour extractor 11 described above.

【0054】図2に示すように、領域限定器13が車線
輪郭抽出器11に接続されて、車線抽出信号Smcに基
づいて、斜視画像Viの領域をいっそう限定する。図1
3を参照して、その動作を説明する。図13は基本的に
図12と同じである。マッチング処理であてはめた左右
の車線輪郭線ScLm及びScRmの式と、予め設定下
Z=d1、d2、・・、dnとの交点を求め、この交点
を式 (8)、(9)によって、斜視画像座標系に変換
し変換した点を直線でつなぎ、画像座標系に折れ線を作
成する。
As shown in FIG. 2, an area limiter 13 is connected to the lane contour extractor 11, and further limits the area of the perspective image Vi based on the lane extraction signal Smc. FIG.
The operation will be described with reference to FIG. FIG. 13 is basically the same as FIG. The intersections of the formulas of the left and right lane contour lines ScLm and ScRm applied in the matching process and Z = d1, d2,..., Dn are determined in advance, and the intersections are obtained by the equations (8) and (9). The points converted in the image coordinate system are connected by a straight line, and a polygonal line is created in the image coordinate system.

【0055】 x=FX/(Zcosθ+Hsinθ) (8)X = FX / (Zcos θ + Hsin θ) (8)

【0056】 z=F(Hcosθ+Zsinθ)/(Zcosθ−Hsinθ) (9)Z = F (Hcos θ + Z sin θ) / (Z cos θ−H sin θ) (9)

【0057】左右二本の折れ線を中心としてx方法に幅
を持つように限定領域RsL及びRsRを設定する。限
定領域の幅WRは、自動車AMの横方向移動に伴う画像
中の車線表示(白線)がx方法へ移動する量を考慮して
予め設定しておく。WRは、斜視画像ViでLm1をマ
ークする車線とすれば、本発明装置の1システムサイク
ルCS、例えば33mS、の間に移動する可能性ある量
である。よって、この限定幅は、画像底辺に近づくにつ
れて大きくなう量に設定されている。なお設定された、
限定領域を図14に示す。領域限定器13は、領域限定
信号Srを作成する。但し、車線輪郭抽出器11が車線
輪郭を抽出出来なくて、エラー信号Seeを出力した場
合には、上述の領域限定を行わない。領域限定器13は
更に、エッジ抽出器1に接続されており、この領域信号
Srをエッジ抽出器1に供給する。
The limited regions RsL and RsR are set so as to have a width in the x direction centering on the two left and right polygonal lines. The width WR of the limited area is set in advance in consideration of the amount of movement of the lane display (white line) in the image accompanying the lateral movement of the car AM to the x method. WR is an amount that may move during one system cycle CS of the apparatus of the present invention, for example, 33 mS, assuming that the lane marks Lm1 in the perspective image Vi. Therefore, the limited width is set to an amount that increases as approaching the bottom of the image. In addition, it was set,
FIG. 14 shows the limited area. The area limiter 13 creates an area limit signal Sr. However, when the lane contour extractor 11 cannot extract the lane contour and outputs the error signal See, the above-described region limitation is not performed. The region limiter 13 is further connected to the edge extractor 1 and supplies the region signal Sr to the edge extractor 1.

【0058】エッジ抽出器1は、領域信号Srに基づい
て、図15に示すように、エッジ抽出を、更にこの限定
領域RsR及びRsL内に限定する。この様にして、デ
ータ処理量を少なくして、処理の迅速化を図ると共に、
対象とする車線輪郭以外のノイズ成分の影響を押さえ
て、車線に対する追随性を向上させることができる。
The edge extractor 1 further limits the edge extraction to the limited regions RsR and RsL based on the region signal Sr, as shown in FIG. In this way, while reducing the amount of data processing and speeding up the processing,
It is possible to suppress the influence of noise components other than the target lane contour, and improve the followability to the lane.

【0059】次に、図12を参照して、現位置検出器1
5の働きを説明する。車線輪郭抽出器11からの車線抽
出信号Smcを受けて、現位置検出器15は、左右の車
線輪郭に当てはめてた円または、直線の関係式(ScL
m及びScRm)と、Z=0の直線の交点HLとHRを
求める。次に、車線の中央の座標つまりHLとHRの中
点の座標(HC、0)を求める。ここで、カメラの位置
は(0、0)であるから、デジタル撮像装置100を自
動車AMの中央に取り付けている場合には、自動車AM
の位置は車線の中央からの横変異ーHCとして得ること
ができる。
Next, referring to FIG.
The function of No. 5 will be described. Receiving the lane extraction signal Smc from the lane contour extractor 11, the current position detector 15 applies a circle or straight line relational expression (ScL) applied to the left and right lane contours.
m and ScRm) and the intersection point HL and HR of the straight line of Z = 0. Next, the coordinates of the center of the lane, that is, the coordinates (HC, 0) of the midpoint between HL and HR are obtained. Here, since the position of the camera is (0, 0), when the digital imaging device 100 is mounted at the center of the vehicle AM, the vehicle AM
Can be obtained as a lateral variation-HC from the center of the lane.

【0060】曲率検出器17は、マッチング検出器9か
らの信号Smcに基づいて、式(7)に基づいて車線の
曲率を検出する。当てはめられている円弧の曲率半径
が、例えば、600m 以下で在る場合をカーブとし、
曲率は円弧の曲率半径をもってす表す。アーチ線の曲率
半径は、現在の車線の曲率として見つけられる。曲率検
出器17はこのように見つけられた半径を指し示して、
曲率発見の信号Scuを生成する。
The curvature detector 17 detects the lane curvature based on the equation (7) based on the signal Smc from the matching detector 9. If the radius of curvature of the fitted arc is, for example, 600 m or less, it is considered as a curve,
The curvature is represented by the radius of curvature of the arc. The radius of curvature of the arch line is found as the curvature of the current lane. The curvature detector 17 indicates the radius thus found,
A curvature discovery signal Scu is generated.

【0061】ヨー角度検出器19は、マッチング検出器
9により当ては米良他直線或いは円弧の関係式から走行
中の車線と自動車AMの進行方法の成す角度をする。操
作(揃いの局地的)という図16に示す、まず(.)(設
置装置LP1)示される。装置LP1を位置付ける局地
的は、回転させられる。デバイス100の像を造るデジ
タルは同じくデジタル画像データSiを生成するため
に、前渡しする方向画像Viを得るために、電源オンに
される。
The yaw angle detector 19 uses the matching detector 9 to determine the angle formed by the traveling lane and the traveling method of the automobile AM based on the relational expression of a straight line or an arc. First, (.) (Installation device LP1) shown in FIG. The localization positioning device LP1 is rotated. The digital imager of the device 100 is also powered on in order to generate digital image data Si and to obtain the forward direction image Vi.

【0062】図16に、本実施の形態に係る局地的位置
把握装置LP1のフローチャートを示す。
FIG. 16 shows a flowchart of the local position grasping device LP1 according to the present embodiment.

【0063】ブロック#1に於いて、デジタル撮像装置
100から画像データSiを受け取る。
In block # 1, image data Si is received from the digital imaging device 100.

【0064】ブロック#3に於いて、エッジ抽出器1が
斜視画像Viからエッジ画素を抽出して、抽出エッジ画
素信号Sxを生成する。
In block # 3, the edge extractor 1 extracts an edge pixel from the perspective image Vi and generates an extracted edge pixel signal Sx.

【0065】ブロック#5於いて、閾値設定器3が抽出
エッジ画素信号Sx中のエッジ画素濃度に基づいて閾値
Ethを決定する。
In block # 5, the threshold setting unit 3 determines a threshold Eth based on the edge pixel density in the extracted edge pixel signal Sx.

【0066】ブロック#7に於いて、輪郭抽出器5が抽
出エッジ画素信号Sx〜、閾値Ethに基づいて、車線
表示の輪郭を抽出して、輪郭抽出信号Scを生成する。
In block # 7, the contour extractor 5 extracts a contour for lane display based on the extracted edge pixel signal Sx〜 and the threshold value Eth, and generates a contour extraction signal Sc.

【0067】ブロック#9に於いて、座標変換器7が座
標変換を行い、抽出輪郭画像Vcの鳥瞰画像をえ、更に
座標変換輪郭抽出信号Sccを生成する。
In block # 9, the coordinate converter 7 performs coordinate conversion, obtains a bird's-eye view image of the extracted contour image Vc, and further generates a coordinate converted contour extraction signal Scc.

【0068】ブロック#11に於いて、マッチング検出
器9が、ハフ変換を利用して、座標変換輪郭抽出信号S
cc中の内側輪郭線を表す式を、直線或いは円弧でマッ
チングする。更にマッチング検出器9は、マッチした直
線或いは円弧を表すマッチング信号Smを生成する。
In block # 11, the matching detector 9 uses the Hough transform to extract the coordinate transformation contour extraction signal S
The expression representing the inner contour line in cc is matched by a straight line or an arc. Further, the matching detector 9 generates a matching signal Sm representing a matched straight line or circular arc.

【0069】ブロック#13に於いて、車線輪郭抽出器
11が、座標変換輪郭抽出信号Scc中のマッチした輪
郭線の寸法的特徴を、車線の寸法的特徴を比較する。車
線輪郭抽出器11は、現在位置している車線を規定する
一組の車線輪郭線を中種して、車線抽出信号Smcを生
成する。
In block # 13, the lane contour extractor 11 compares the dimensional characteristics of the matched contour in the coordinate transformation contour extraction signal Scc with the dimensional characteristics of the lane. The lane contour extractor 11 generates a lane extraction signal Smc by classifying a set of lane contours that define the current lane.

【0070】ブロック#15に於いて、ブロック#13
でエラー信号Seeが生成された場合には、ブロック#
1に制御を戻す。それ以外は、次のブロックに進む。
In block # 15, block # 13
If an error signal See is generated in block #,
Return control to 1. Otherwise, go to the next block.

【0071】ブロック#17に於いて、領域限定器13
が、マッチング信号Smに基づいて、デジタル画像デー
タViに関して、車線表示Lmの回りに領域を限定し、
領域信号Srを生成する。
In block # 17, the area limiter 13
Defines an area around the lane indication Lm with respect to the digital image data Vi based on the matching signal Sm,
A region signal Sr is generated.

【0072】ブロック#19に於いて、現位置検出器1
5が車線抽出信号Smcに基づいて現位置を検出する。
信号Smcと領域信号Srは次ののブロック#21に転
送される。
At block # 19, the current position detector 1
5 detects the current position based on the lane extraction signal Smc.
The signal Smc and the area signal Sr are transferred to the next block # 21.

【0073】ブロック#21に於いて、曲率検出器17
が。車線抽出信号Smcに基づいて、車線の曲率を求
め、輪郭抽出信号Scを生成する。信号Smcと領域信
号Srは次ののブロック#23に転送される。 ブロッ
ク#23に於いて、そして、ヨー角度検出器19が、輪
郭抽出信号Sc機構に基づいて、傾斜角αを求め、ヨー
角度信号Syを生成する。更に、領域信号Srはブロッ
ク#1に転送され、ブロック#1〜ブロック#23のシ
ステムサイクルCsを繰り返す。
In block # 21, the curvature detector 17
But. The curvature of the lane is obtained based on the lane extraction signal Smc, and the contour extraction signal Sc is generated. The signal Smc and the area signal Sr are transferred to the next block # 23. In block # 23, the yaw angle detector 19 calculates the inclination angle α based on the contour extraction signal Sc mechanism, and generates the yaw angle signal Sy. Further, the area signal Sr is transferred to the block # 1, and the system cycle Cs of the blocks # 1 to # 23 is repeated.

【0074】第二の実施の形態 図19に、本発明の局地的位置把握装置の第二の実施の
形態を示す。局地的位置把握装置LP2は、第一の実施
の形態の局地的位置把握装置LP1と非常に類似の構成
を有している。ただ、図2の座標変換器7は本実施の形
態では、削除されると共に、マッチング検出器9が傾き
マッチング検出器9Aと二次多項式マッチング検出器9
Bに交換されている。更に、この結果、現位置検出器1
5は若干その動作に修正が加えられて現位置検出器15
Aになっている。これ以外について、第一の実施の形態
に関して説明したのと同じであるので、異なる部分のみ
を説明する。
Second Embodiment FIG. 19 shows a local position grasping apparatus according to a second embodiment of the present invention. The local position grasping device LP2 has a configuration very similar to that of the local position grasping device LP1 of the first embodiment. However, in the present embodiment, the coordinate converter 7 of FIG. 2 is deleted, and the matching detector 9 is replaced with the inclination matching detector 9A and the second-order polynomial matching detector 9.
B has been replaced. Further, as a result, the current position detector 1
The operation of the current position detector 15 is slightly modified in its operation.
A. The other points are the same as those described in the first embodiment, and therefore, only the different parts will be described.

【0075】傾きマッチング検出器9Aは輪郭抽出器5
に接続されて、輪郭抽出信号Scを受け取る。傾きマッ
チング検出器9Aは輪郭抽出信号Sc中の抽出輪郭線の
画素のそれぞれに、傾きマッチング処理を施す。
The inclination matching detector 9 A is the contour extractor 5
And receives the contour extraction signal Sc. The tilt matching detector 9A performs a tilt matching process on each of the pixels of the extracted contour line in the contour extraction signal Sc.

【0076】傾きマッチング処理を説明する前に、図2
0を参照して、自動車AMが曲がった車線、つまり道路
を走行中に得られる、前方の斜視画像Vi及びVcの見
え方について述べる。今、図示のごとく、道路が右曲が
りに成っていれば、外周部ScLは斜視画像Viの手前
から進行方向に向かって直線的に延びているように見え
る。一方、内周側ScRは、やはり、斜視画像Viの手
前から、奥に向かって直線的に延びてが途中から急激
に、より内周側へと、進路を変えているように見える。
この現象は、曲がった道に於いては普遍的に生じる。各
輪郭線を構成する画素の内、水平方法に、隣合う二個の
画素を結ぶ線の傾きを全て求める。このようにして求め
た二つの画素の中心に於ける傾き角度を傾き(SLi_
i+1)として、保存する。車線表示輪郭線が破線であ
る場合など隣の走査線に輪郭点が抽出されていない場合
は計測しない。
Before explaining the inclination matching processing, FIG.
With reference to FIG. 0, the appearance of the front perspective images Vi and Vc obtained while the vehicle AM is traveling on a curved lane, that is, a road, will be described. Now, as shown in the figure, if the road is curved right, the outer peripheral portion ScL appears to extend linearly from the front of the perspective image Vi in the traveling direction. On the other hand, the inner peripheral side ScR also extends linearly from the front of the perspective image Vi to the back, but it seems that the course is suddenly changed from the middle to the inner peripheral side.
This phenomenon occurs universally on curved roads. Among the pixels constituting each contour line, all the slopes of the line connecting two adjacent pixels are obtained by the horizontal method. The inclination angle at the center of the two pixels obtained in this way is represented by the inclination (SLi_
i + 1). No measurement is performed when no contour point is extracted on the adjacent scanning line, such as when the lane display contour is a broken line.

【0077】図21に、図20の画像に対応する輪郭抽
出信号Scから求めた傾斜を示して在る。左下部の点列
SA、及び右上部の点列SDはそれぞれ、内周側輪郭S
cR及び外周側輪郭ScLに対応している。傾きマッチ
ング検出器9Aは、これら点列SA及びSDのそれぞれ
にハフ変換を施すと共に、以下の式で表される直線を当
てはめる。 y’= 2Dx+ E (10)
FIG. 21 shows the inclination obtained from the contour extraction signal Sc corresponding to the image of FIG. The point sequence SA at the lower left and the point sequence SD at the upper right are respectively the inner peripheral side contour S
It corresponds to cR and outer-side contour ScL. The inclination matching detector 9A applies Hough transform to each of these point sequences SA and SD, and fits a straight line represented by the following equation. y '= 2Dx + E (10)

【0078】y’はyの一次微分であり、以下の二次多
項式の傾きを表している
Y ′ is the first derivative of y, and represents the slope of the following quadratic polynomial:

【0079】 y= Dx^2 + Ex + F (11)Y = Dx ^ 2 + Ex + F (11)

【0080】D、E、Fは、定数である。Dの値は、輪
郭線の傾きの変化を表している。例えば、抽出輪郭線が
外周部であれば、Dの値はゼロより大きく、その逆の場
合はには、Dの値はゼロ以下になる。
D, E, and F are constants. The value of D represents a change in the inclination of the contour line. For example, if the extracted contour is the outer periphery, the value of D is greater than zero, and vice versa, the value of D is less than or equal to zero.

【0081】それ故に、Dの値によって、上記二つの式
を以下の如く使いわけることができる。
Therefore, depending on the value of D, the above two equations can be used as follows.

【0082】Dがゼロ以上、式(11)を適用。Equation (11) is applied when D is zero or more.

【0083】Dがゼロ以下、式(10)に類似の、ハフ
変換をして導いた以下の式(12)を適用する。
When D is equal to or less than zero, the following equation (12), which is similar to equation (10) and is derived by Hough transform, is applied.

【0084】 x’= 2Gy + H (12)X ′ = 2Gy + H (12)

【0085】式(11)に類似の二次多項式(13)が
適用される。
A second-order polynomial (13) similar to equation (11) is applied.

【0086】 x=2 Gy^2 + Hy +I (13)X = 2 Gy ^ 2 + Hy + I (13)

【0087】x’はxの一次微分であり、二次多項式
(13)の変化を表している。G、H、Iは定数であ
る。
X ′ is the first derivative of x, and represents the change of the second-order polynomial (13). G, H, and I are constants.

【0088】このようにして、傾きマッチング検出器9
Aは、抽出輪郭画像Vc中のドットグループである輪郭
抽出信号Scを各輪郭線の傾きを表すデータに変換す
る。このようにして、変換された傾き情報データに基づ
いて、曲がり状態を示す情報が得られる。傾きマッチン
グ検出器9Aは、この様にして得られた情報を示す傾き
マッチング信号Sm1を生成する。
Thus, the inclination matching detector 9
A converts the contour extraction signal Sc, which is a dot group in the extracted contour image Vc, into data representing the inclination of each contour line. In this manner, information indicating the bending state is obtained based on the converted inclination information data. The tilt matching detector 9A generates a tilt matching signal Sm1 indicating the information obtained in this manner.

【0089】二次多項式マッチング検出器9Bは、傾き
マッチング検出器9Aに接続されて傾きマッチング信号
Sm1を受け取る。二次多項式マッチング検出器9B
は、信号Sc1中の抽出輪郭線ScR(ScR’)及び
ScLのそれぞれに二次多項式を適用する。
The quadratic polynomial matching detector 9B is connected to the tilt matching detector 9A and receives the tilt matching signal Sm1. Second-order polynomial matching detector 9B
Applies a quadratic polynomial to each of the extracted contour lines ScR (ScR ′) and ScL in the signal Sc1.

【0090】式(10)が既に適用済みであると、傾き
マッチング信号Sm1が表示すれば、二次多項式マッチ
ング検出器9Bは、式(11)のx、yにxーy座標の
値を代入して、Fの値を設ける。Fを算出する際に、も
っとも頻度が高いものの値を式(11)の定数Fとして
定める。
If Equation (10) has already been applied and the slope matching signal Sm1 is displayed, the quadratic polynomial matching detector 9B substitutes the values of the xy coordinates for x and y in Equation (11). Then, the value of F is provided. When calculating F, the value of the most frequent one is determined as the constant F in equation (11).

【0091】更に、傾きマッチング信号Sm1が式(1
3)が既に適応済みとの表示があれば、二次多項式マッ
チング検出器9Bは、連続的に、xーy座標の値を輪郭
抽出信号Sc中の各輪郭画素に、式(14)代入して定
数Iの値を求める。このようにして、求めたIの値の内
最も頻度が高いものを式(14)の定数として定める。
こうして、傾きマッチング検出器9Aはは、このように
して得た情報を示す傾きマッチング信号Sm2を生成す
る。
Further, the slope matching signal Sm1 is given by the equation (1)
If there is a display that 3) has already been applied, the quadratic polynomial matching detector 9B continuously substitutes the value of the xy coordinate into each contour pixel in the contour extraction signal Sc according to equation (14). To determine the value of the constant I. In this way, the value of the most frequently obtained value of I is determined as the constant of equation (14).
Thus, the tilt matching detector 9A generates the tilt matching signal Sm2 indicating the information thus obtained.

【0092】Dがゼロの場合は、式(11)はy=Ex
+Fとなる。このようにして、車線の曲がり状態を二次
多項式によって、車線が直線がカーブに関係なく求める
ことができる。
If D is zero, equation (11) can be expressed as y = Ex
+ F. In this way, the curved state of the lane can be determined by a quadratic polynomial regardless of whether the lane is straight or curved.

【0093】図25に、傾きマッチング検出器9Aに関
して説明した傾きマッチングのフローチャートを示す。
FIG. 25 shows a flowchart of the tilt matching described with respect to the tilt matching detector 9A.

【0094】図23を参照して、斜視画像である車線抽
出信号Smcに基づいて現位置を検出する、現位置検出
器15Aの動作を説明する。現位置検出器15Aは、車
線輪郭抽出器11を経由して、二次多項式マッチング検
出器9Bが当てはめた二次多項式〜走行中の車線内に於
ける、自動車AMの横変位を計算する。先ず、Z=0に
対応する画像座標系の直線 y=F/tanθと、二次
多項式マッチング検出器9Bであてはめた二つの二次多
項式の交点PL及びPRを求める。次にPLとPRの交
点Pmを求める。この座標を所定の係数を掛けて、鳥瞰
画像上の座標(HC、0)を求める。あとは、第一の実
施の形態と同じである。
Referring to FIG. 23, the operation of the current position detector 15A for detecting the current position based on the lane extraction signal Smc which is a perspective image will be described. The current position detector 15A calculates, via the lane contour extractor 11, the quadratic polynomial applied by the quadratic polynomial matching detector 9B to the lateral displacement of the vehicle AM in the traveling lane. First, a straight line y = F / tan θ in the image coordinate system corresponding to Z = 0 and intersections PL and PR of two second-order polynomials fitted by the second-order polynomial matching detector 9B are obtained. Next, an intersection Pm between PL and PR is obtained. The coordinates (HC, 0) on the bird's-eye view image are obtained by multiplying the coordinates by a predetermined coefficient. The rest is the same as the first embodiment.

【0095】さらに、図22を参照して、領域限定器1
3の動作を説明する。領域限定器13は、二次多項式マ
ッチング検出器9Bによる二次多項式マッチング処理に
よって当てはめたB二次多項式を中心として x方向に
幅を持つように設定する。
Further, referring to FIG. 22, area limiter 1
Operation 3 will be described. The region limiter 13 is set so as to have a width in the x-direction centered on the B quadratic polynomial applied by the quadratic polynomial matching processing by the quadratic polynomial matching detector 9B.

【0096】以上に説明した要に、本実施例によれば、
二次多項式の3つのパラメータを2段階に分けて求める
ため、比較的簡単な計算で走行中の車線を構成する、車
線輪郭線に二次多項式を当てはめることができ、カーブ
においても車線内の自動車AM位置を正確に検出する事
が出来る。
As described above, according to the present embodiment,
Since the three parameters of the quadratic polynomial are obtained in two stages, the quadratic polynomial can be applied to the lane contour, which composes the traveling lane by relatively simple calculation. The AM position can be accurately detected.

【0097】図24に、本実施の形態に係る局地的位置
把握装置LP2のフローチャートを示す。本フローチャ
ートは、図16の第一の実施形態に係るフローチャート
と基本的に同じである。異なる点は、図16に於ける座
標変換ブロック#9が削除されているのと、マッチング
ブロック#11が傾きマッチングブロック#10と二次
多項式マッチングブロック#12に置き換えられいるだ
けである。基本的な動作は、それぞれ傾きマッチング検
出器9A及び二次多項式マッチング検出器9Bに関連し
て述べてあるので説明を省く。
FIG. 24 shows a flowchart of the local position grasping device LP2 according to the present embodiment. This flowchart is basically the same as the flowchart according to the first embodiment in FIG. The only difference is that the coordinate transformation block # 9 in FIG. 16 is deleted, and the matching block # 11 is replaced by a gradient matching block # 10 and a quadratic polynomial matching block # 12. The basic operation has been described in relation to the tilt matching detector 9A and the quadratic polynomial matching detector 9B, respectively, and thus the description is omitted.

【0098】第三の実施の形態 図26に、本発明の局地的位置把握装置の第三の実施の
形態を示す。局地的位置把握装置LP3は、第二の実施
の形態の局地的位置把握装置LP2と非常に類似の構成
を有している。ただ、図19のヨー角検出器19は本実
施の形態では、削除される一方、移動速度検出装置20
0、GPS受信機300、ECU400、ナビゲーショ
ン装置500が追加されていて、局地的位置把握装置L
P3からは、車線抽出信号Smc、車線抽出エラー信号
See、及び曲率信号Scuを受け取る。このようにし
て、図1に示した局地的位置把握システムLPSの一例
が、与えられる。GPS受信機300は、ナビゲーショ
ン衛星からのGPS信号を受信して、場所や移動速度、
或いは姿勢と言った、地球的位置情報に得る。更に、本
発明に係る局地的位置把握装置LPから局地的位置把握
情報を利用して、自動車AMの局地的置から地球的位置
情報まで得ることができ、そしてその情報を位置信号S
gとして出力する
Third Embodiment FIG. 26 shows a third embodiment of the local position grasping device of the present invention. The local position grasping device LP3 has a configuration very similar to the local position grasping device LP2 of the second embodiment. However, in the present embodiment, the yaw angle detector 19 shown in FIG.
0, a GPS receiver 300, an ECU 400, and a navigation device 500 are added, and a local position grasping device L
From P3, a lane extraction signal Smc, a lane extraction error signal See, and a curvature signal Scu are received. Thus, an example of the localization system LPS shown in FIG. 1 is provided. The GPS receiver 300 receives a GPS signal from a navigation satellite, and determines a location, a moving speed,
Or it is obtained from global position information such as attitude. Further, from the local positioning device LP according to the present invention, it is possible to obtain the local positioning information of the automobile AM to the global positioning information by using the local positioning information, and to obtain the information from the position signal S.
output as g

【0099】ナビゲーション装置500は、カーブ位置
設定装置21、地図記憶装置25、走行安全判定器2
7、及び警報機31から成る。地図記憶装置25は、道
路地図、陸標、屈曲部等の道路の地形的特徴を記憶する
為に設けられている。カーブ位置設定装置21は曲率検
出器17、及びGPS受信機300に接続されて、曲率
検出信号Scu及び局地/地球的位置把握信号Sgを受
け取る。カーブ位置設定装置21は、曲率検出信号Sc
uによって表示された半径と所定の曲率を比較し、検出
半径が所定値より大きい場合には、ハイレベルを出力す
る二値のリザルト信号を生成する。
The navigation device 500 includes a curve position setting device 21, a map storage device 25, and a driving safety determiner 2.
7 and an alarm 31. The map storage device 25 is provided to store road topographical features such as road maps, landmarks, and bends. The curve position setting device 21 is connected to the curvature detector 17 and the GPS receiver 300, and receives the curvature detection signal Scu and the local / global positioning signal Sg. The curve position setting device 21 outputs the curvature detection signal Sc
The radius indicated by u is compared with a predetermined curvature, and if the detected radius is larger than a predetermined value, a binary result signal that outputs a high level is generated.

【0100】地図記憶装置25は、カーブ位置設定装置
21に接続されて、このリザルト信号、曲率検出信号S
cu、局地/地球的位置把握信号Sgを受け取る。ハイ
レベルのリザルト信号を受けて、地図記憶装置25は現
位置(Sg)を所定値より大きな曲率(Scu)と関連
して、記憶する。
The map storage device 25 is connected to the curve position setting device 21 and outputs the result signal and the curvature detection signal S.
cu, receives the localization / global positioning signal Sg. Upon receiving the high-level result signal, the map storage device 25 stores the current position (Sg) in association with the curvature (Scu) larger than a predetermined value.

【0101】走行安全判定器27は、地図記憶装置2
5、移動速度検出装置200、及びGPS受信機300
に接続されて、曲がった道路の曲率、移動速度信号S
v、及び局地/地球的位置把握信号Sgをそれぞれから
受け取る。これらの情報データに基づいて、走行安全判
定器27は自動車AMが目前のカーブした車線を安全に
走行できるか否かを判断する。判断結果が、「否」であ
れば、走行安全判定器27は警告信号を出力する。局地
/地球的位置把握信号Sgに基づいて、走行安全判定器
27は、所定の距離DD前方にカーブした部分が無いか
どうかを、地図記憶装置25の記録に紹介して確認す
る。
The driving safety determiner 27 is provided in the map storage device 2
5. Moving speed detecting device 200 and GPS receiver 300
And the curvature of the curved road and the traveling speed signal S
v and a local / global positioning signal Sg from each. Based on these information data, the traveling safety determiner 27 determines whether or not the vehicle AM can safely travel on the current curved lane. If the determination result is “No”, the traveling safety determiner 27 outputs a warning signal. Based on the local / global position grasping signal Sg, the traveling safety determiner 27 confirms whether there is a curved portion ahead of the predetermined distance DD by referring to the record of the map storage device 25.

【0102】この所定の距離DDは、予想される運転条
件、つまり移動速度、道路条件、車両重量等の条件を考
慮して、走行安全判定器27が危険と判断して、警告を
発した場合には、ドライバー等が十分等の安全行動とる
のに、十分な距離とする。本実施の形態に於いては、3
00mに設定されている。
The predetermined distance DD corresponds to a case where the driving safety determiner 27 determines that there is a danger and issues a warning in consideration of expected driving conditions, that is, conditions such as moving speed, road conditions, and vehicle weight. In this case, the distance should be sufficient for the driver, etc., to take sufficient safety actions. In the present embodiment, 3
00m.

【0103】尚、走行安全判定器27は、以下の不等式
に基づいて行われる。 R<V^2 (14)
The traveling safety determiner 27 is performed based on the following inequality. R <V ^ 2 (14)

【0104】Rは、カーブした道の半径、Vは移動速
度、Cvは車両の重量、運動性能等によって決まる定数
である。
R is a radius of a curved road, V is a moving speed, and Cv is a constant determined by the weight of the vehicle, kinetic performance and the like.

【0105】図24に、本実施の形態に係る局地的位置
把握装置LP2のフローチャートを示す。本フローチャ
ートは、図16の第一の実施形態に係るフローチャート
と基本的に同じである。異なる点は、図16に於ける座
標変換ブロック#9が削除されているのと、マッチング
ブロック#11が傾きマッチングブロック#10と二次
多項式マッチングブロック#12に置き換えられいるだ
けである。基本的などうさは、それぞれ傾きマッチング
検出器9A及び二次多項式マッチング検出器9Bに関連
して述べてあるので説明を省く。
FIG. 24 shows a flowchart of the local position grasping device LP2 according to the present embodiment. This flowchart is basically the same as the flowchart according to the first embodiment in FIG. The difference is that the coordinate transformation block # 9 in FIG. 16 is deleted, and that the matching block # 11 is replaced by a gradient matching block # 10 and a quadratic polynomial matching block # 12. The basic features are described in relation to the tilt matching detector 9A and the quadratic polynomial matching detector 9B, respectively, and thus the description is omitted.

【0106】警報機31は、走行安全判定器27に接続
されて、警告信号に基づいて、ドライバーに警告する。
The alarm 31 is connected to the traveling safety determiner 27 and warns the driver based on the warning signal.

【0107】ECU400は、走行安全判定器27に接
続されて、警告信号に基づいて、自動車AMの駆動系を
制御して減速を図る。尚、第三の実施の形態に基づく局
地的位置把握装置LP3は、第一の実施の形態に基づく
局地的位置把握装置LP1と実質的に同じ構造になるよ
うにしても良い。
The ECU 400 is connected to the traveling safety determiner 27 and controls the drive system of the vehicle AM based on the warning signal to reduce the speed. The local position grasping device LP3 based on the third embodiment may have substantially the same structure as the local position grasping device LP1 based on the first embodiment.

【0108】図27に、本実施の形態に係る局地的位置
把握装置LP3のフローチャートを示す。本フローチャ
ートは、図24の第二の実施形態に係るフローチャート
と基本的に同じである。異なる点は、図24に於けるヨ
ー角検出ブロック#23が、地球的位置把握ブロック#
25、カーブ位置設定ブロック#27、走行安全判定ブ
ロック#29、警報ブロック#31、及びECU作動ブ
ロック#33に置き換えられいるだけである。基本的な
動作は、図26のブロック図を参照して説明したので、
これ以上の説明は省く。
FIG. 27 shows a flowchart of the local position grasping device LP3 according to the present embodiment. This flowchart is basically the same as the flowchart according to the second embodiment in FIG. The difference is that the yaw angle detection block # 23 in FIG.
25, a curve position setting block # 27, a traveling safety determination block # 29, an alarm block # 31, and an ECU operation block # 33. Since the basic operation has been described with reference to the block diagram of FIG. 26,
Further explanation is omitted.

【0109】第四の実施の形態 図28に、本発明の局地的位置把握装置の第四の実施の
形態を示す。局地的位置把握装置LP4は、第三の実施
の形態の局地的位置把握装置LP3と非常に類似の構成
を有している。ただ、図26の移動速度検出装置200
及びECU400は削除される一方、ナビゲーション装
置500は、その構成要素で合った走行安全判定器27
及び警報機31が削除される一方、画像取込器33及び
表示装置34が追加されてナビゲーション装置500R
となっている。
Fourth Embodiment FIG. 28 shows a fourth embodiment of the local position grasping apparatus according to the present invention. The local position grasping device LP4 has a configuration very similar to the local position grasping device LP3 of the third embodiment. However, the moving speed detecting device 200 shown in FIG.
And the ECU 400 are deleted, while the navigation device 500 is equipped with
And the alarm device 31 are deleted, while the image capturing device 33 and the display device 34 are added to the navigation device 500R.
It has become.

【0110】画像取込器33は、デジタル撮像装置10
0及びGPS受信機300に接続されて、デジタル画像
信号Si及び局地/地球的位置把握信号Sgを受け取
る。画像取込器33は、フレームメモリの様な画像バッ
ファメモリを有しており、画像データを一次的に保持出
来る。ドライバーの操作より、バッファメモリは自動車
AM進行方向の斜視画像Viを表すデジタル画像信号S
iを一フレーム分キャプチャすることができる。
[0110] The image capturing device 33 is
0 and connected to the GPS receiver 300 to receive the digital image signal Si and the local / global positioning signal Sg. The image capturing device 33 has an image buffer memory such as a frame memory, and can temporarily store image data. By the operation of the driver, the buffer memory stores the digital image signal S representing the perspective image Vi in the vehicle AM traveling direction.
i can be captured for one frame.

【0111】地図記憶装置25は、更に画像取込器33
に接続されて、キャプチャされた一フレーム文の画像デ
ータSiを、内蔵された記憶媒体に保存する。このよう
な記録媒体として、SD−ROM、PD、DVD−RA
Mのような大容量タイプ書換型の光ディスクがある。
The map storage device 25 further includes an image capturing device 33.
To store the captured image data Si of one frame sentence in a built-in storage medium. Such recording media include SD-ROM, PD, DVD-RA
There is a large capacity rewritable optical disk such as M.

【0112】表示装置34は、画像取込器33に接続さ
れて、保持された画像データを読み込んで再生したり、
現時点の斜視画像Viをそのまま表示する。表示装置3
4は、地図記憶装置25に接続されて、その記録媒体に
保存されている地形的情報を再生する。
The display device 34 is connected to the image capturing device 33 to read and reproduce the stored image data,
The current perspective image Vi is displayed as it is. Display device 3
Reference numeral 4 is connected to the map storage device 25 and reproduces topographical information stored in the recording medium.

【0113】図29に、本実施の形態に係る局地的位置
把握装置LP4のフローチャートを示す。本フローチャ
ートは、図27の第三の実施形態に係るフローチャート
と基本的に同じである。異なる点は、図27に於ける警
報ブロック#31及びECU作動ブロック#33が、、
画像記憶ブロック#35及び表示ブロック#37置き換
えられいるだけである。基本的な動作は、図28のブロ
ック図を参照して説明したので、これ以上の説明は省
く。
FIG. 29 shows a flowchart of the local position ascertaining device LP4 according to the present embodiment. This flowchart is basically the same as the flowchart according to the third embodiment in FIG. The difference is that the alarm block # 31 and the ECU operation block # 33 in FIG.
Only the image storage block # 35 and the display block # 37 are replaced. Since the basic operation has been described with reference to the block diagram of FIG. 28, further description will be omitted.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の局地的位置把握装置を組み込んだ局
地的位置把握システムを示すブロック図
FIG. 1 is a block diagram showing a local positioning system incorporating a local positioning device of the present invention.

【図2】 本発明の第一の実施形態に係る局地的位置把
握装置を示すブロック図
FIG. 2 is a block diagram showing a localization device according to the first embodiment of the present invention;

【図3】 本発明の第一の実施形態に係る斜視画像Vi
を示す説明図
FIG. 3 is a perspective image Vi according to the first embodiment of the present invention.
Explanatory diagram showing

【図4】 本発明の第一の実施形態に係る斜視画像Vi
から抽出されえたエッジ画素画像Vxを示す説明図
FIG. 4 is a perspective image Vi according to the first embodiment of the present invention.
Explanatory diagram showing an edge pixel image Vx extracted from

【図5】 本発明の第一の実施形態に係るエッジ抽出斜
視画像Vxから輪郭を抽出する方法を示す説明図
FIG. 5 is an explanatory diagram showing a method of extracting a contour from the edge-extracted perspective image Vx according to the first embodiment of the present invention.

【図6】 本発明の第一の実施形態に係る輪郭抽出斜視
画像Vcを示す説明図
FIG. 6 is an explanatory diagram showing a contour extraction perspective image Vc according to the first embodiment of the present invention.

【図7】 本発明の第一の実施形態に係る輪郭抽出斜視
画像Vcと鳥瞰画像間での座標系の違いを示す説明図
FIG. 7 is an explanatory diagram showing a difference in a coordinate system between the contour extraction perspective image Vc and the bird's-eye image according to the first embodiment of the present invention.

【図8】 本発明の第一の実施形態に係る輪郭抽出斜視
画像Vcを座標変換して得られた鳥瞰画像Vccを示す
説明図
FIG. 8 is an explanatory diagram showing a bird's-eye view image Vcc obtained by performing coordinate conversion on the contour extraction perspective image Vc according to the first embodiment of the present invention.

【図9】 本発明の第一の実施形態に係る鳥瞰画像Vc
cデータSccをハフ(Hough)変換して得られる
曲線のパターンの一例をを示す説明図
FIG. 9 is a bird's-eye view image Vc according to the first embodiment of the present invention.
Explanatory diagram showing an example of a curve pattern obtained by Hough transform of c data Scc.

【図10】 本発明の第一の実施形態に係る鳥瞰画像V
ccデータSccをハフ(Hough)変換して得られ
る曲線のパターンのその他の例を示す説明図
FIG. 10 is a bird's-eye image V according to the first embodiment of the present invention.
Explanatory drawing showing another example of a curve pattern obtained by Hough transforming cc data Scc.

【図11】 本発明の第一の実施形態に係る円弧マッチ
ング検出を示す説明図
FIG. 11 is an explanatory diagram illustrating arc matching detection according to the first embodiment of the present invention.

【図12】 本発明の第一の実施形態に係る現位置検出
を示す説明図
FIG. 12 is an explanatory diagram showing current position detection according to the first embodiment of the present invention.

【図13】 本発明の第一の実施形態に係る領域限定の
基準点の求め方を示す説明図
FIG. 13 is an explanatory diagram showing a method of obtaining a reference point for limiting an area according to the first embodiment of the present invention;

【図14】 本発明の第一の実施形態に係る領域限定の
領域幅の決め方示す説明図
FIG. 14 is an explanatory diagram showing how to determine the area width of the area limitation according to the first embodiment of the present invention.

【図15】 本発明の第一の実施形態に係る領域限定さ
れた斜視画像Viを示す説明図
FIG. 15 is an explanatory diagram showing a perspective image Vi having a limited area according to the first embodiment of the present invention;

【図16】 本発明の第一の実施形態に係る局地的位置
把握装置の動作を示すフローチャート
FIG. 16 is a flowchart showing the operation of the local position grasping device according to the first embodiment of the present invention;

【図17】 本発明の第一の実施形態に係る座標変換の
動作を示すフローチャート
FIG. 17 is a flowchart illustrating an operation of coordinate conversion according to the first embodiment of the present invention.

【図18】 本発明の第一の実施形態に係るマッチング
検出の動作を示すフローチャート
FIG. 18 is a flowchart showing an operation of matching detection according to the first embodiment of the present invention.

【図19】 本発明の第二の実施形態局地的位置把握装
置を示すブロック図
FIG. 19 is a block diagram showing a local position grasping device according to a second embodiment of the present invention;

【図20】 本発明の第二の実施形態カーブした車線の
斜視画像Viを示す説明図
FIG. 20 is an explanatory view showing a perspective image Vi of a curved lane according to the second embodiment of the present invention;

【図21】 図20の輪郭線の傾きを示す説明図FIG. 21 is an explanatory diagram showing the inclination of the contour line in FIG. 20;

【図22】 本発明の第二の実施形態領域限定された斜
視画像Vrを示す説明図
FIG. 22 is an explanatory view showing a perspective image Vr in which a region is limited according to the second embodiment of the present invention;

【図23】 本発明の第二の実施形態現位置検出器の操
作を示す説明図
FIG. 23 is an explanatory view showing the operation of the current position detector according to the second embodiment of the present invention.

【図24】 本発明の第二の実施形態局地的位置把握装
置の動作を示すフローチャート
FIG. 24 is a flowchart showing the operation of the local position grasping apparatus according to the second embodiment of the present invention;

【図25】 本発明の第二の実施形態傾きマッチング検
出の動作を示すフローチャート
FIG. 25 is a flowchart showing an operation of tilt matching detection according to the second embodiment of the present invention;

【図26】 本発明の第三の実施形態の実施形態局地的
位置把握装置を示すブロック図
FIG. 26 is a block diagram showing a local location grasping apparatus according to a third embodiment of the present invention;

【図27】 本発明の第三の実施形態の局地的位置把握
装置の動作を示すフローチャート
FIG. 27 is a flowchart showing the operation of the local location grasping apparatus according to the third embodiment of the present invention.

【図28】 本発明の第四の実施形態の局地的位置把握
装置を示すブロック図
FIG. 28 is a block diagram showing a localization device according to a fourth embodiment of the present invention;

【図29】 本発明の第四の実施形態の局地的位置把握
装置の動作を示すフローチャート
FIG. 29 is a flowchart showing the operation of the local position grasping device according to the fourth embodiment of the present invention;

【図30】 従来の局地的位置把握装置を示すブロック
FIG. 30 is a block diagram showing a conventional local position grasping device.

【符号の説明】[Explanation of symbols]

1 エッジ抽出器 3 閾値設定器 5 輪郭抽出器 7 座標変換器 9 マッチング検出器 11 車線輪郭抽出器 13 領域限定器 15 現位置検出器 17 曲率検出器 19 ヨー角検出器 REFERENCE SIGNS LIST 1 edge extractor 3 threshold setting device 5 contour extractor 7 coordinate converter 9 matching detector 11 lane contour extractor 13 area limiter 15 current position detector 17 curvature detector 19 yaw angle detector

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平8−254432(JP,A) 特開 平6−333192(JP,A) 特開 平7−141599(JP,A) 特開 平6−225308(JP,A) (58)調査した分野(Int.Cl.7,DB名) G08G 1/16 G01C 21/00 G05D 1/02 G06F 15/62 G06F 15/70 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-8-254432 (JP, A) JP-A-6-333192 (JP, A) JP-A-7-141599 (JP, A) JP-A-6-141599 225308 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G08G 1/16 G01C 21/00 G05D 1/02 G06F 15/62 G06F 15/70

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 車両の前方または後方の局地的地域の斜
視図を表すデジタル画像信号に基づいて、該局地的地域
上の車線に対する該車両の局地的位置を検出する局地的
位置把握装置であって、該デジタル画像信号から該車線
の輪郭を抽出して輪郭データを生成する輪郭抽出手段
と、該輪郭データを平面図を表すように変換して、該抽
出された輪郭の寸法を正確に表した座標変換データを生
成する変換手段と、該座標変換データに基づいて、該抽
出輪郭線寸法的特徴を検出し、寸法データを生成する寸
法特徴検出手段とを有し、該寸法特徴検出手段は、該抽
出輪郭のそれぞれに直線及び円弧の何れかをマッチング
させて、マッチした線のそれぞれを示すマッチングデー
タを生成するマッチング手段を有し、該マッチングデー
タに基づいて現位置を検出する現位置検出手段とを有す
ることを特徴とする局地的位置把握装置。
1. A local position detecting a local position of the vehicle with respect to a lane on the local area based on a digital image signal representing a perspective view of the local area ahead or behind the vehicle. A contour extracting device for extracting contours of the lane from the digital image signal to generate contour data, and converting the contour data to represent a plan view; And a dimensional characteristic detecting means for detecting the extracted contour dimensional characteristic based on the coordinate conversion data and generating dimensional data, the dimensional characteristic detecting means comprising: The feature detecting means includes matching means for matching any one of a straight line and a circular arc with each of the extracted contours to generate matching data indicating each of the matched lines, and determining a current position based on the matching data. A local position grasping device comprising a current position detecting means for detecting.
【請求項2】 前記マッチした線の内、該車線を示す2
本を選択的に抽出して、これらの選択された2本のマッ
チした線を示す寸法データを生成する輪郭線抽出手段
と、該選択された2本のマッチした線に基づいて、現位
置を検出する現位置検出手段とを有することを特徴とす
る請求項1に記載の局地的位置把握装置。
2. A line indicating the lane among the matched lines.
A contour line extracting means for selectively extracting a book and generating dimension data indicating these two selected matched lines; and determining a current position based on the selected two matched lines. The local position grasping device according to claim 1, further comprising a current position detecting means for detecting.
【請求項3】 前記寸法のデータに基づいて該画像信号
の中に、該輪郭を抽出する第1の領域を指定する第1の
領域限定手段を更に有する請求項1に記載の局地的位置
把握装置。
3. The local position according to claim 1, further comprising: first area limiting means for designating a first area for extracting the contour in the image signal based on the dimension data. Holding device.
【請求項4】 前記寸法のデータに基づいて、該車線方
向に対する進行方向に対する傾きを検出し、ヨー角度信
号を生成するヨー角検出手段を有することを特徴とする
請求項1乃至3のいずれかに記載の局地的位置把握装
置。
4. The apparatus according to claim 1, further comprising a yaw angle detection unit configured to detect a tilt in a traveling direction with respect to the lane direction based on the data of the dimension and generate a yaw angle signal. A local position grasping device according to claim 1.
【請求項5】 前記マッチング手段は、前記座標変換デ
ータをハフ変換して、該抽出された輪郭のそれぞれが、
直線及び円弧の何れかにマッチするかを判定することを
特徴とする請求項1乃至4のいずれかに記載の局地的位
置把握装置。
5. The matching means performs a Hough transform of the coordinate transformation data, and each of the extracted contours is
The local position grasping device according to any one of claims 1 to 4, wherein it is determined whether the position matches a straight line or an arc.
【請求項6】 前記マッチング手段は、ハフ変換によっ
て得られた複数の線が1点で所定の頻度より多く交差す
る場合には、該抽出された輪郭は直線と判定し、所定の
頻度以下の場合は、輪郭は円弧と判定することを特徴と
する請求項1乃至5のいずれかに記載の局地的位置把握
装置。
6. When the plurality of lines obtained by the Hough transform intersect at a point more than a predetermined frequency, the matching means determines that the extracted contour is a straight line, and 6. The local position grasping device according to claim 1, wherein in the case, the contour is determined to be a circular arc.
【請求項7】 前記寸法データに基づいて、現位置での
該車線の曲率を検出する曲率検出手段を更に有すること
を特徴とする請求項1乃至6のいずれかに記載の局地的
位置把握装置。
7. The local position grasping device according to claim 1, further comprising a curvature detecting means for detecting a curvature of the lane at a current position based on the dimension data. apparatus.
【請求項8】 前記デジタル画像データに基づき、現位
置を検出し、現位置信号を生成する現位置検出手段と、
該デジタル画像データに基づいて、現位置での該車線の
曲率を検出し、曲率信号を生成する曲率検出手段と、該
現位置信号及び曲率信号に基づいて、上記検出した曲率
及び現位置を、内部に記憶された地図データに記録する
ナビゲーション装置とを、更に有することを特徴とする
請求項1または2に記載の局地的位置把握装置。
8. A current position detecting means for detecting a current position based on the digital image data and generating a current position signal;
Based on the digital image data, the curvature of the lane at the current position is detected, a curvature detection unit that generates a curvature signal, and based on the current position signal and the curvature signal, the detected curvature and the current position, The local position grasping device according to claim 1 or 2, further comprising a navigation device that records the map data stored therein.
【請求項9】 車両の移動速度を検出する移動速度検出
手段と、該検出した曲率を有する車線を、該検出した移
動速度で安全に走行できるか否かを判断する安全走行判
定手段とを、更に有することを特徴とする請求項8に記
載の局地的位置把握装置。
9. A moving speed detecting means for detecting a moving speed of a vehicle, and a safe driving judging means for judging whether or not the lane having the detected curvature can be safely driven at the detected moving speed. The local position grasping device according to claim 8, further comprising:
【請求項10】 前記デジタル画像信号に含まれる前記
斜視画像を捕獲し、該捕獲した画像を、前記ナビゲーシ
ョン装置が、該検出された曲率及び現位置に関して前記
地図データに記録できるようにする画像キャプチャ手段
を、更に有することを特徴とする請求項9に記載の局地
的位置把握装置。
10. An image capture that captures the perspective image included in the digital image signal and enables the navigation device to record the captured image in the map data with respect to the detected curvature and current position. 10. The localization device according to claim 9, further comprising means.
JP08102892A 1995-04-25 1996-04-24 Local positioning device Expired - Fee Related JP3081788B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08102892A JP3081788B2 (en) 1995-04-25 1996-04-24 Local positioning device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP7-99180 1995-04-25
JP9918095 1995-04-25
JP08102892A JP3081788B2 (en) 1995-04-25 1996-04-24 Local positioning device

Publications (2)

Publication Number Publication Date
JPH0916900A JPH0916900A (en) 1997-01-17
JP3081788B2 true JP3081788B2 (en) 2000-08-28

Family

ID=26440330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08102892A Expired - Fee Related JP3081788B2 (en) 1995-04-25 1996-04-24 Local positioning device

Country Status (1)

Country Link
JP (1) JP3081788B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5316337B2 (en) * 2009-09-17 2013-10-16 日本電気株式会社 Image recognition system, method, and program
US8972093B2 (en) * 2013-04-08 2015-03-03 Toyota Motor Engineering & Manufacturing North America, Inc. Lane-based localization
JP5799273B2 (en) * 2013-10-02 2015-10-21 パナソニックIpマネジメント株式会社 Dimension measuring device, dimension measuring method, dimension measuring system, program
JP6132246B2 (en) * 2015-04-01 2017-05-24 パナソニックIpマネジメント株式会社 Dimension measurement method

Also Published As

Publication number Publication date
JPH0916900A (en) 1997-01-17

Similar Documents

Publication Publication Date Title
EP0740163B1 (en) Local positioning apparatus for detecting a local position of an automobile on a road
RU2668459C1 (en) Position evaluation device and method
JP3125550B2 (en) Vehicle forward recognition device and vehicle travel control device
US20020134151A1 (en) Apparatus and method for measuring distances
EP1901259A1 (en) Vehicle and lane recognizing device
JP2000357233A (en) Body recognition device
US20180134289A1 (en) Lane division line recognition apparatus, lane division line recognition method, driving assist apparatus including lane division line recognition apparatus, and driving assist method including lane division line recognition method
JP2011511281A (en) Map matching method with objects detected by sensors
US20190152487A1 (en) Road surface estimation device, vehicle control device, and road surface estimation method
JP2001331787A (en) Road shape estimating device
US10846546B2 (en) Traffic signal recognition device
JP4761156B2 (en) Feature position recognition apparatus and feature position recognition method
JP4940177B2 (en) Traffic flow measuring device
JP2018048949A (en) Object recognition device
JP4296287B2 (en) Vehicle recognition device
JPH08156723A (en) Vehicle obstruction detecting device
JP2002334330A (en) Vehicle recognition device
CN114841188A (en) Vehicle fusion positioning method and device based on two-dimensional code
JP3192616B2 (en) Local position grasping apparatus and method
JP3081788B2 (en) Local positioning device
US10916034B2 (en) Host vehicle position estimation device
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
JP2940366B2 (en) Object tracking recognition device
JP2010176592A (en) Driving support device for vehicle
JP3304905B2 (en) Object tracking recognition device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080623

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090623

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100623

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100623

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110623

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120623

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees