JPH0887700A - Road environment recognition device - Google Patents

Road environment recognition device

Info

Publication number
JPH0887700A
JPH0887700A JP6225391A JP22539194A JPH0887700A JP H0887700 A JPH0887700 A JP H0887700A JP 6225391 A JP6225391 A JP 6225391A JP 22539194 A JP22539194 A JP 22539194A JP H0887700 A JPH0887700 A JP H0887700A
Authority
JP
Japan
Prior art keywords
line
image
white line
environment recognition
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6225391A
Other languages
Japanese (ja)
Other versions
JP3326988B2 (en
Inventor
Morihito Shiobara
守人 塩原
Yoshiyuki Ota
善之 太田
Shigeru Sasaki
繁 佐々木
Eigo Segawa
英吾 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP22539194A priority Critical patent/JP3326988B2/en
Publication of JPH0887700A publication Critical patent/JPH0887700A/en
Application granted granted Critical
Publication of JP3326988B2 publication Critical patent/JP3326988B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE: To recognize feature picture elements at high speed while reducing errors at a rectangle extracting means required for a distance up to a preceding vehicle by reducing the arithmetic amount of a lane area extracting device inside the road environment recognition device. CONSTITUTION: An image extracting the contour line of an object is prepared from the image of an image pickup means fixed in the advancing direction of the road environment recognition device, with that image, an intersection with a infinite far line such as an extracted left white line decided by the image pickup means for extracting the left side and right side sign lines of the present vehicle is calculated, and a right white line is estimated from virtual road width W. At such a time, the left white line is searched at two positions (1) and (2) decided in advance, and the spot of maximum luminance is defined as the left white line. Besides, the white line of a present frame is searched based on the position of the white line extracted at the preceding frame. When no white line can not be searched at two positions (1) and (2), the search range of that white line is changed. When the feature picture elements (edges) exist within the range of width ±α picture elements (α=1, 2) in the case of extracting a rectangle from that image, they are extracted as one continued straight edge and defined as the candidates of horizontal and vertical lines.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、道路環境を認識する画
像処理装置を備えた道路環境認識装置に係り、より具体
的には、自律走行する車両において、該車両の前方に設
置し、車両の進行方向の前方を捉えたテレビカメラから
の画像より、道路面上に設けられている標識線(例え
ば、白線)を自車の近傍領域から遠方領域まで認識し、
同時に自車前方を走行している車両,障害物を認識する
ことができる道路環境認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a road environment recognition apparatus provided with an image processing apparatus for recognizing a road environment, and more specifically, in an autonomously traveling vehicle, the vehicle is installed in front of the vehicle. From the image from the TV camera that captures the front of the traveling direction, recognize the marker line (for example, white line) provided on the road surface from the area near the vehicle to the distant area,
At the same time, it relates to a road environment recognition device capable of recognizing a vehicle traveling ahead of the host vehicle and an obstacle.

【0002】[0002]

【従来の技術】近年、画像処理部分により、道路環境を
認識し、この認識結果に基づいて、車両の自律走行の制
御を行う自律走行制御装置が開発されつつある。
2. Description of the Related Art In recent years, an autonomous traveling control device for recognizing a road environment by an image processing portion and controlling autonomous traveling of a vehicle based on the recognition result has been developed.

【0003】この自律走行制御装置は、走行車線内を走
っている車両に搭載されるものであり、例えば、自車が
標識線を逸脱していたら、運転手に自動的に警告した
り、又、その情報を基に、自車を制御するといったこと
を実現するものである。このような装置を実現すること
は、運転者の運転に関する負担を軽減させることがで
き、事故を未然に防ぐことができるようになるので、極
めて重要である。
This autonomous running control device is installed in a vehicle running in the driving lane. For example, if the vehicle deviates from the marking line, the driver is automatically warned, or Based on the information, it is possible to control the own vehicle. Realizing such a device is extremely important because it can reduce the driver's driving burden and prevent accidents.

【0004】より具体的に言えば、車両の前方に設置
し、車両の進行方向前方を捉えたテレビカメラからの画
像より、道路上に設けられている標識線を自車の近傍領
域から遠方領域まで認識し、同時に自車前方を走行して
いる車両,障害物を認識し、定常走行状態では、左側に
見えている白線等の標識線をガイドラインとして、それ
に沿って走行し、自車前方を走行している他車との距離
を算出して前方車と追突しないように自車を操舵するよ
うにするものである。
More specifically, from the image from the TV camera installed in front of the vehicle and capturing the front of the vehicle in the traveling direction, the marker line provided on the road is distant from the area near the vehicle. Recognize up to, and at the same time recognize vehicles and obstacles traveling in front of your vehicle, and in steady-state running, use the marker line such as the white line visible on the left side as a guideline and run along it to drive ahead of your vehicle. The distance to the other vehicle that is running is calculated, and the own vehicle is steered so as not to collide with the preceding vehicle.

【0005】このように自車前方を捉えた画像から画像
処理技術を用いて自車走行標識線(レーン)を認識し、
同時に自車前方を走行している他車を認識するシステム
として、本願出願人は「道路環境認識装置」(特願平0
6−13874号)を先願している。
In this way, the vehicle traveling sign line (lane) is recognized from the image of the front of the vehicle using image processing technology,
At the same time, as a system for recognizing another vehicle traveling in front of the own vehicle, the applicant of the present application has proposed a “road environment recognition device” (Japanese Patent Application No.
6-13874).

【0006】上記「道路環境認識装置」(特願平06−
13874号)では、自車前方を撮像した画像から、例
えば、物体の輪郭のみを抽出したエッジ画像を作成し、
画像上で自車の左斜め(又は、右斜め)の前方の領域を
撮像した領域において、ある程度連続して現れるエッジ
を抽出し、それを画像上で遠方へ延長し、撮像手段に固
有のパラメータ(例えば、俯角,画角等)から計算され
る無限遠点へ延長して、自車走行レーンの左標識線,又
は、右標識線として認識するものである。
The above "road environment recognition device" (Japanese Patent Application No. 06-
No. 13874), an edge image is created by extracting only the contour of an object from an image of the front of the vehicle,
Parameters that are unique to the image capturing means are extracted by extracting edges that appear to some extent consecutively in a region that captures the region diagonally to the left (or diagonally right) of the vehicle on the image, and extend it to the distance on the image. It extends to the point at infinity calculated from (for example, depression angle, angle of view, etc.) and recognizes it as the left marking line or the right marking line of the vehicle lane.

【0007】又、上記「道路環境認識装置」(特願平0
6−13874号)では、前方車両の位置を認識するた
めに、進行方向前方を撮像する撮像手段を複数個、具体
的には、一対備えて、矩形抽出部で該一対の撮像手段か
ら得られる一対の前方画像から、該一対の撮像装置から
得られた各々の画像上で抽出された矩形において、同じ
面積,水平線,垂直線の長さなどから、同一の図形的特
徴を有する矩形を、同一物体(ここでは、前方を走行し
ている他車)を撮像した結果得られた矩形であるとし
て、該矩形同士の対応付けを行うことにより、前方車両
の位置を認識するようにし、更に、対応付けされた矩形
の画像上での位置のずれ(視差)から三角測量の原理を
用いることにより、前方にある対象物までの距離を算出
するようにしている。
Further, the above-mentioned "road environment recognition device" (Japanese Patent Application No.
No. 6-13874), in order to recognize the position of the vehicle in front, a plurality of image pickup means, specifically, a pair of image pickup means for picking up an image in front of the traveling direction are provided, and the rectangle extraction section obtains from the pair of image pickup means. In the rectangles extracted from the pair of front images on the respective images obtained from the pair of image pickup devices, the rectangles having the same graphic characteristics are the same from the same area, horizontal line, vertical line length, etc. Assuming that the rectangles are obtained as a result of capturing an image of an object (here, another vehicle traveling in front), the rectangles are associated with each other so that the position of the vehicle in front can be recognized. The distance to the object in front is calculated by using the principle of triangulation from the positional shift (parallax) on the attached rectangular image.

【0008】図13は、従来の車線領域抽出装置を説明
する図であって、上記「道路環境認識装置」(特願平0
6−13874号)で開示しているものとは異なる手段
を提供する。
FIG. 13 is a view for explaining a conventional lane area extracting device, which is the above-mentioned "road environment recognition device" (Japanese Patent Application No.
No. 6-13874).

【0009】一般に車道には、左に途切れのない白線,
右には2車線以上もしくは反対車線がある場合には、途
切れのある白線がある。従来技術では、車両に固定して
取り付けられている撮像手段によって得られるフレーム
画像{図13(a) 参照}により、フレーム毎に画像の数
カ所で左の白線と右の点白線らしい輝度の変化の大きい
部分を抽出{図13(b) 参照}し、それぞれの白線の点
を直線近似することによって車線領域{図13(c) 参
照}を抽出する方法である。
In general, on the road, there is an uninterrupted white line on the left,
If there are two or more lanes or the opposite lane on the right, there is a white line with a break. In the prior art, a frame image {see FIG. 13 (a)} obtained by an image pickup unit fixedly attached to a vehicle is used to change the brightness of a left white line and a right dotted white line at several positions in the image for each frame. This is a method of extracting a large portion {see FIG. 13 (b)} and linearly approximating each white line point to extract a lane area {see FIG. 13 (c)}.

【0010】[0010]

【発明が解決しようとする課題】上記「道路環境認識装
置」(特願平06−13874号)で開示している標識
線(白線)の認識手段では、自車の、例えば、左側近傍
の数箇所から得られた標識線と、無限遠点とを直線近似
し、予め、認識している実際の道幅から、右側の標識線
を推測して自車領域を認識するものであるので、該自車
領域の認識精度が悪いという問題があった。
DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention In the means for recognizing a marking line (white line) disclosed in the above-mentioned "road environment recognition device" (Japanese Patent Application No. 06-13874), the number of vehicles near the left side, for example, Since the marker line obtained from the location and the point at infinity are linearly approximated, and the vehicle area is recognized by presuming the right marker line from the recognized actual road width in advance, There was a problem that the recognition accuracy of the car area was poor.

【0011】又、上記図13で説明した従来の方法で
は、右白線,左白線の近似直線をそれぞれ計算するだけ
でなく、その交点の計算が必要である。また、右白線が
点線であることから、必ずしも右白線の点が全て抽出で
きる訳ではなく、多くの点で白線の抽出を行う必要があ
る。
In the conventional method described with reference to FIG. 13, it is necessary to calculate not only the approximate straight lines of the right white line and the left white line, but also the intersections thereof. Further, since the right white line is a dotted line, not all the points on the right white line can be extracted, and it is necessary to extract the white line at many points.

【0012】この計算は、例えば、2箇所の白線の座標
を、それぞれ、(x1,y1),(x2,y2) とすると、近似直線
は、(y2-y1)/(x2-X1)(x1) +bで算出することができる
が、この計算には、3箇所の和演算と、2箇所の積演算
が必要であり、図示されている如くに、3交点につい
て、同じ演算を行うと、最低10回以上の積和演算が必
要である。更に、白線を抽出する箇所が増えることによ
って演算量も増加する。
In this calculation, assuming that the coordinates of two white lines are (x1, y1) and (x2, y2), the approximate straight line is (y2-y1) / (x2-X1) (x1 ) + B can be calculated, but this calculation requires a summation operation at three points and a product operation at two points. It is necessary to perform the multiply-accumulate operation 10 times or more. Furthermore, the number of white lines to be extracted increases, so that the amount of calculation also increases.

【0013】又、図14は、従来の水平線,垂直線候補
認識手段を説明する図であって、図14(a) は、全体画
像の例を示し、図13(b) は、エッジ画像の抽出例を示
している。上記「道路環境認識装置」(特願平06−1
3874号)で開示している矩形抽出部では、前述の矩
形抽出部の水平線,垂直線候補抽出手段において、図1
4(a) に示した画像に対して、所定の水平,垂直投影手
段により、エッジ画素の投影値の多いラインと、その前
後の所定幅のライン(例えば±1ライン)について、水
平方向,または垂直方向から画像全体に渡ってマスク領
域を設定し、該マスクと前記水平,垂直エッジとの重な
る部分を水平,垂直線の候補として抽出していた。
FIG. 14 is a diagram for explaining a conventional horizontal line / vertical line candidate recognizing means. FIG. 14 (a) shows an example of the whole image and FIG. 13 (b) shows an edge image. An extraction example is shown. "Road environment recognition device" (Japanese Patent Application No. 06-1
No. 3874), the rectangular extraction unit disclosed in FIG.
With respect to the image shown in FIG. 4 (a), a predetermined horizontal / vertical projection means is used to set a line having a large projection value of edge pixels and a line having a predetermined width before and after the line (for example, ± 1 line) in the horizontal direction, or A mask area is set over the entire image from the vertical direction, and the overlapping portions of the mask and the horizontal and vertical edges are extracted as candidates for horizontal and vertical lines.

【0014】しかし,実際の画像では、例えば、エッジ
を構成する画素が、きれいに同一直線上に並ぶとは限ら
ず、図14(b) のように途中で、2ライン離れた所にエ
ッジが存在する場合もあり得る。この場合には、上記従
来例のように、水平方向のエッジ画素の投影値が多いラ
イン(図においてはy=n)と、その前後の所定幅のラ
イン(この場合は±1ライン)をマスク領域としてしま
うと、大局的に見れば一本のエッジであった部分が2本
の別々のエッジ (候補線α, β) として認識されてしま
うという問題があった。
However, in an actual image, for example, the pixels forming an edge are not necessarily lined up on the same straight line, and an edge exists at a position separated by two lines in the middle as shown in FIG. 14 (b). It may happen. In this case, as in the above-described conventional example, a line having a large number of projection values of edge pixels in the horizontal direction (y = n in the figure) and a line having a predetermined width before and after that (± 1 line in this case) are masked. If it is set as a region, there is a problem that a part that is one edge from a global perspective is recognized as two separate edges (candidate lines α and β).

【0015】本発明は上記従来の欠点に鑑み、道路環境
認識装置において、車線領域の認識は、自動車の無人化
技術の前処理なので、なるべく演算量を減らし、高速
に、且つ正確に算出することができる車線領域抽出装置
を提供すること、又、前方に走行している車両迄の距離
を求めるのに必要な矩形認識での水平, 垂直線を抽出に
おいては、大局的な抽出を高速に行うことができる矩形
抽出手段を提供することを目的とするものである。
In view of the above-mentioned conventional drawbacks, the present invention recognizes a lane area in a road environment recognition apparatus because it is a pre-processing of an unmanned vehicle technology. Therefore, the calculation amount should be reduced as much as possible, and the calculation should be performed quickly and accurately. In order to provide a lane area extraction device that is capable of extracting the horizontal and vertical lines required for rectangle recognition to determine the distance to the vehicle traveling ahead, a global extraction is performed at high speed. It is an object of the present invention to provide a rectangle extracting means that can be used.

【0016】[0016]

【課題を解決するための手段】図1〜図4は、本発明の
原理説明図である。上記の問題点は下記の如くに構成し
た道路環境認識装置によって解決される。
1 to 4 are explanatory views of the principle of the present invention. The above problems are solved by the road environment recognition device configured as follows.

【0017】(1) 車両の進行方向の前方を撮像する撮像
手段 1L,1Rと、該撮像手段 1L,1Rにより得られる画像か
ら、自車両の左側及び右側の標識線を抽出して、自車線
の領域を認識する車線領域抽出装置 2L,2Rと、該撮像手
段 1L,1Rより得られる各々の画像より、矩形部分を抽出
する矩形抽出手段 3L,3Rと、上記撮像手段 IL,1Rを複数
備えて、該複数の撮像手段 1R,1Lから得られる同一の図
形的な特徴を有する矩形同士を対応付け、画像上での該
矩形の位置のずれと、上記複数の撮像手段の撮像位置の
差異に基づいて、前方車両までの距離を算出する矩形照
合&距離算出手段 4とを備えた道路環境認識装置であっ
て、上記車線領域抽出装置 2L,2Rは、上記撮像手段 1L,
1Rが上記車両に固定されていることにより定められる無
限遠線と、例えば、抽出した左側標識線との交点Aを求
め、該交点Aと、該画像上で認識できる仮想的な道幅W
とから、上記右側の標識線を推測する手段を備え、該道
路環境認識装置の前方の走行車線領域を求めるように構
成する。
(1) Image pickup means 1L, 1R for picking up an image in front of the traveling direction of the vehicle, and the marking lines on the left and right sides of the own vehicle are extracted from the images obtained by the image pickup means 1L, 1R to obtain the own lane. Lane area extracting device 2L, 2R for recognizing the area, rectangular extracting means 3L, 3R for extracting a rectangular portion from each image obtained by the image capturing means 1L, 1R, and a plurality of image capturing means IL, 1R. Then, the rectangles having the same graphic feature obtained from the plurality of image pickup means 1R and 1L are associated with each other, and the difference between the positions of the rectangles on the image and the difference between the image pickup positions of the plurality of image pickup means are detected. A lane area extracting device 2L, 2R is a road environment recognition device having a rectangular matching & distance calculating means 4 for calculating a distance to a vehicle in front of the lane area extracting device 2L, 2R.
For example, an intersection A between the infinity line defined by 1R being fixed to the vehicle and the extracted left marker line is obtained, and the intersection A and a virtual road width W recognizable on the image
Therefore, a means for inferring the marker line on the right side is provided, and the traveling lane area in front of the road environment recognition device is obtained.

【0018】(2) 上記(1) 項に記載の道路環境認識装置
が備えている車線領域抽出装置(2L,2R) において、予
め、定めた2か所,で、上記左側の標識線を探索
し、輝度の最大の地点を、該左側の標識線の位置とする
標識線検知手段を備えるように構成する。
(2) In the lane area extraction device (2L, 2R) provided in the road environment recognition device described in the above item (1), search for the above left marker line at two predetermined locations. Then, the marker line detecting means is provided so that the point of maximum brightness is the position of the marker line on the left side.

【0019】(3) 上記(1) 項に記載の道路環境認識装置
が備えている車線領域抽出装置(2L,2R) において、前フ
レームで抽出した標識線の位置に基づいて、現在のフレ
ームでの標識線の位置を探索する標識線探索手段を備え
るように構成する。
(3) In the lane area extraction device (2L, 2R) provided in the road environment recognition device described in the above item (1), the current frame is extracted based on the position of the marker line extracted in the previous frame. The marker line searching means for searching the position of the marker line is provided.

【0020】(4) 上記(1) 項に記載の道路環境認識装置
が備えている車線領域抽出装置(2L,2R) において、標識
線の位置を探索する範囲を選択的に変更(範囲a→範囲
b)する標識線検知手段を備えるように構成する。
(4) In the lane area extraction device (2L, 2R) provided in the road environment recognition device described in the above item (1), the range for searching the position of the marking line is selectively changed (range a → The marker line detecting means in the range b) is provided.

【0021】(5) 上記(1) 項に記載の道路環境認識装置
が備えている複数個の矩形抽出手段(3L,3R) は、幅±α
画素(α=1,2)の範囲で、矩形を構成する特徴画
素、例えば、エッジ画素が存在することを検出したと
き、一本の直線エッジとして抽出し、水平線,垂直線の
候補γとするように構成する。
(5) The plurality of rectangle extracting means (3L, 3R) provided in the road environment recognition device according to the above (1) have a width ± α.
When it is detected that a characteristic pixel forming a rectangle, for example, an edge pixel exists in the range of pixels (α = 1, 2), it is extracted as one straight line edge and set as a candidate for a horizontal line or a vertical line γ. To configure.

【0022】[0022]

【作用】図1〜図4は、本発明の原理説明図である。自
車前方の車線領域を高速に抽出するためには、白線を抽
出する箇所をなるべく減らし、直線近似や交点計算そし
て、白線抽出を簡単に行うことが必須である。
1 to 4 are explanatory views of the principle of the present invention. In order to extract the lane area in front of the vehicle at high speed, it is essential to reduce the number of white line extraction points as much as possible, and to perform straight line approximation, intersection calculation, and white line extraction easily.

【0023】図1は、本発明の道路環境認識装置の全体
構成図を示しており、図2,図3は、車線領域の算出の
原理を示し、図4は矩形抽出部での水平線,垂直線候補
の抽出の原理を示している。
FIG. 1 shows the overall configuration of the road environment recognition apparatus of the present invention, FIGS. 2 and 3 show the principle of calculating the lane area, and FIG. 4 shows the horizontal and vertical lines in the rectangle extraction unit. The principle of line candidate extraction is shown.

【0024】1)無限遠線と道幅の利用:図2(c),(d) の
ように、カメラが車に固定されている場合、左右の白線
を遠方に延長させて交わる点(無限遠点もしくは消失点
と呼ばれている)は、一つの直線上に必ずのる。この直
線を無限遠線と呼ぶ。水平線や地平線も無限遠線の一種
である。
1) Use of infinity line and road width: As shown in FIGS. 2 (c) and 2 (d), when the camera is fixed to the vehicle, the left and right white lines are extended to the far point and intersect (infinity). Points or vanishing points) are always on one straight line. This straight line is called the line at infinity. The horizon and the horizon are also types of infinity.

【0025】カメラの設置場所が固定ならば、無限遠線
も予め画像上のどこに存在するか、一意に定まるので、
簡単に計算できる。この無限遠線と2点から求めた左白
線の延長線との交点(無限遠点)Aは、左白線の近似直
線さえ計算できれば、容易に計算できる。左白線の位置
は、あらかじめ定めた2箇所,の水平直線を画像中
央から順に探索してゆき、輝度の変化が最も大きい位置
とする。この処理を初期処理という。
If the installation location of the camera is fixed, the infinity line can be uniquely determined in advance on the image,
Easy to calculate. The intersection point (infinity point) A between this infinity line and the extension line of the left white line obtained from the two points can be easily calculated if only an approximate straight line of the left white line can be calculated. The position of the left white line is the position where the change in brightness is the largest as the horizontal straight line at two predetermined positions is sequentially searched from the center of the image. This process is called an initial process.

【0026】次に、本発明の初期処理{図2(b) 〜(d)
参照}として、或る水平直線上で画像の中心から両端に
向かって白線を探索し、仮想的な道幅Wを抽出する。該
道幅Wは左右両白線が消えるまでほぼ不変であると仮定
し、初期処理として一度だけ計算する。この仮想的な道
幅Wが分かれば、前述した無限遠点の位置から右の白線
が、三角形の相似形の原理により、正確に推測できる。
Next, the initial processing of the present invention {FIGS. 2 (b) to (d))
As a reference}, a white line is searched for from the center of the image toward both ends on a certain horizontal straight line, and a virtual road width W is extracted. The road width W is assumed to be almost unchanged until the white lines on both sides disappear, and is calculated only once as an initial process. If this virtual road width W is known, the white line on the right from the position of the point at infinity described above can be accurately estimated by the principle of a triangle similar shape.

【0027】この方法によって、一度の道幅抽出と毎フ
レーム(動画像の一コマの画像のことで、ビデオ画像の
場合、1秒間に30フレーム存在する。)での2点,
の左白線位置の抽出だけで、右白線が正確に推測で
き、車線領域が抽出できる。
By this method, the road width is extracted once and two points are obtained for each frame (one frame of a moving image, which is 30 frames per second in the case of a video image).
The right white line can be accurately estimated and the lane area can be extracted only by extracting the position of the left white line.

【0028】また,無限遠点Aの毎フレームでの振れ方
が大きい場合、正しく車線領域が抽出されていないこと
がわかり、修正が容易に行える。 2)可変型白線探索幅:図2,図3参照 上記の初期処理では、仮想的な道幅Wを抽出し、2点
,の左白線位置を抽出した。次のフレームでは、初
期処理のように画像中央から探索するのではなく、前の
フレームで抽出した白線の位置の傍だけを探索する方法
をとる。毎フレームで左白線の位置が2点抽出できる場
合は、通常動作として、探索範囲{図3(a) に示した
“a”の範囲}を狭くする。もし、この探索範囲では白
線が抽出できない場合、探索失敗として、次のフレーム
では、白線位置が抽出できたときの位置を中心に通常動
作の探索範囲より広い範囲{図3(b) に示した“b”の
範囲}で探索を行う。この探索で2点,とも白線を
抽出できれば、通常動作での探索に戻る。もし、再び白
線が2点,とも見つからない場合には、この探索を
数秒間繰り返す。この間、一度も2点とも見つからなか
った場合には、前述の初期処理に戻って、上記仮想的な
道幅Wも更新する。
Further, in the case where the point A at infinity has a large deviation in each frame, it is understood that the lane area is not correctly extracted, and the correction can be easily performed. 2) Variable type white line search width: See FIGS. 2 and 3 In the above initial processing, the virtual road width W is extracted, and the left white line positions of two points are extracted. In the next frame, instead of searching from the center of the image as in the initial processing, only the side of the position of the white line extracted in the previous frame is searched. When two positions of the left white line can be extracted in each frame, the search range {range "a" shown in FIG. 3 (a)} is narrowed as a normal operation. If a white line cannot be extracted in this search range, it is considered that the search has failed, and in the next frame, a range wider than the search range for normal operation centered on the position when the white line position could be extracted (shown in Figure 3 (b)). The search is performed in the range of "b"}. If the white line can be extracted for both two points in this search, the search returns to the normal operation. If two white lines are not found again, this search is repeated for several seconds. During this time, if neither of the two points is found, the process returns to the above-mentioned initial processing and the virtual road width W is also updated.

【0029】このように、前フレームの白線の位置を利
用して見つけるだけではなく、見つからなかったとき、
白線の探索範囲を広げる方法をとることによって白線を
見落とさずに車線領域を抽出することができる。
As described above, not only is it found using the position of the white line in the previous frame, but when it is not found,
By adopting a method of expanding the search range of the white line, the lane area can be extracted without overlooking the white line.

【0030】ただし、フレーム間の時間差は1/30〜
1/10であることが望ましい。なぜならば、フレーム
間の時間差が少ない程、前フレームで発見した白線の位
置と次のフレームでの位置が酷似しているからである。
However, the time difference between frames is 1/30 to
It is preferably 1/10. This is because the position of the white line found in the previous frame is closer to the position in the next frame as the time difference between the frames is smaller.

【0031】3)水平, 垂直線の候補の抽出:次に、図4
によって、矩形抽出での作用動作を説明する。本発明で
は、画像全体で、矩形を構成する特徴画素、例えば、エ
ッジ画素を計数し、エッジ画素の多いラインを水平(ま
たは垂直)線候補として抽出するのではない。エッジを
抽出した後、幅±αライン(例えば±1ライン)の範囲
で、エッジである画素を追跡し、例えエッジ画素が隣接
していない場合でも、±α画素の範囲内に存在する限
り、同一の水平(あるいは垂直)線として抽出するよう
にしたものである。
3) Extraction of horizontal and vertical line candidates: Next, referring to FIG.
The operation of rectangle extraction will be described below. In the present invention, characteristic pixels forming a rectangle, for example, edge pixels are not counted in the entire image, and a line having many edge pixels is not extracted as a horizontal (or vertical) line candidate. After extracting the edge, pixels that are edges are tracked within a range of width ± α lines (for example, ± 1 line), and even if the edge pixels are not adjacent, as long as they are within the range of ± α pixels, It is designed to be extracted as the same horizontal (or vertical) line.

【0032】従って、本発明による車線領域抽出手段で
は、少ない計算量で抽出できるので、自動運転等の高速
性が必要な自走車の視覚システムへの適用が容易とな
る。又、矩形抽出では、例えば、エッジ画素が隣接して
いない場合でも、±α画素の範囲内に存在する場合に
は、同一の水平,垂直線候補として抽出できるので、画
像を撮像するときの誤差によって、本来は、同一の輪郭
線を構成するエッジ画素が連続していない場合でも、連
続した水平,垂直候補として抽出することができる。
Therefore, since the lane area extracting means according to the present invention can perform extraction with a small amount of calculation, it can be easily applied to the visual system of a self-propelled vehicle that requires high speed such as automatic driving. In the rectangle extraction, for example, even when the edge pixels are not adjacent to each other, if they exist within the range of ± α pixels, they can be extracted as the same horizontal and vertical line candidates. Thus, even if the edge pixels that form the same contour line are not continuous, it is possible to extract them as continuous horizontal and vertical candidates.

【0033】[0033]

【実施例】以下本発明の実施例を図面によって詳述す
る。前述の図1〜図4は、本発明の原理説明図であり、
図5〜図11は、本発明の一実施例を示した図であっ
て、図5は、本発明による車線領域抽出装置の構成例を
示しており、図6は、本発明の入出力仕様を示してお
り、図7は、本発明の道幅抽出手段を模式的に示してお
り、図8は白線検出の初期処理を示し、図9は、白線検
出での探索範囲を変更する処理の例を示し、図10は、
白線検出での処理フローを示し、図11は、車線領域計
算手段を示している。図12は、本発明の他の実施例を
示した図であって、矩形抽出部の動作を模式的に示して
いる。
Embodiments of the present invention will be described in detail below with reference to the drawings. 1 to 4 described above are explanatory views of the principle of the present invention,
5 to 11 are views showing an embodiment of the present invention, FIG. 5 shows a configuration example of a lane area extracting device according to the present invention, and FIG. 6 is an input / output specification of the present invention. FIG. 7 schematically shows the road width extracting means of the present invention, FIG. 8 shows an initial process of white line detection, and FIG. 9 shows an example of a process for changing the search range in the white line detection. Is shown in FIG.
The processing flow for white line detection is shown, and FIG. 11 shows lane area calculation means. FIG. 12 is a diagram showing another embodiment of the present invention, and schematically shows the operation of the rectangle extracting section.

【0034】本発明においては、道路環境認識装置の進
行方向に固定して設けられている撮像手段 1L,1Rにより
得られる画像から、自車両の左側、右側の標識線を抽出
するのに、上記撮像手段 1L,1Rによって定まる無限遠線
と、上記抽出した、例えば、左白線との交点を求め、仮
想的な道幅から右白線を推測する手段。又、上記左白線
の抽出を行う際、予め、定めた2箇所, で該左白線
を探索し、輝度の最大の地点を左白線とする手段。又、
前フレームで抽出した白線の位置に基づいて、現在のフ
レームでの白線を探索する手段。このとき、上記2箇所
, で白線が探索できなかったとき、該白線の探索範
囲を変える手段。又、該画像から矩形を抽出する際、幅
±α画素(例えば、α=1,2)の範囲で、矩形を構成
する特徴画素、例えば、エッジ画素が存在すれば、一本
の連続した直線エッジとして抽出し、水平線,垂直線の
候補とする手段が、本発明を実施するのに必要な手段で
ある。尚、全図を通して同じ符号は同じ対象物を示して
いる。
In the present invention, in order to extract the marker lines on the left and right sides of the vehicle from the images obtained by the image pickup means 1L, 1R fixedly provided in the traveling direction of the road environment recognition device, A means for obtaining the intersection of the infinity line determined by the image pickup means 1L, 1R and the above-extracted left white line, for example, and estimating the right white line from the virtual road width. Further, a means for searching the left white line at two predetermined locations when extracting the left white line, and setting the point of maximum brightness as the left white line. or,
A means for searching for a white line in the current frame based on the position of the white line extracted in the previous frame. At this time, the above two places
A means for changing the search range of the white line when the white line cannot be searched with. Further, when a rectangle is extracted from the image, if there are characteristic pixels forming the rectangle, such as edge pixels, within a range of width ± α pixels (for example, α = 1, 2), one continuous straight line A means for extracting the edge and using it as a candidate for a horizontal line or a vertical line is a means necessary for implementing the present invention. The same reference numerals indicate the same objects throughout the drawings.

【0035】以下、図1〜図4を参照しながら、図5〜
図11,及び、図12によって、本発明の道路環境認識
装置における車線領域抽出装置,矩形抽出部の構成と動
作を説明する。本実施例においては、道路上の標識線
を、説明の便宜上、以下においては、例えば、白線とし
て説明するが、白線に限定されるものではない。
5 to 5 with reference to FIGS.
The configuration and operation of the lane area extraction device and the rectangle extraction unit in the road environment recognition device of the present invention will be described with reference to FIGS. 11 and 12. In the present embodiment, the marker line on the road will be described as a white line in the following for convenience of description, but is not limited to the white line.

【0036】先ず、図5は、本発明の車線領域抽出装置
の構成例を示した図である。本車線領域抽出装置は、図
5のように車の前方に取り付けたカメラから得られた画
像情報によって、走行する前方の車線領域を抽出する装
置である。図6(a) は入力画像である。該入力画像は左
下隅を原点として、縦方向にY座標,横方向にX座標を
割り当てた座標系を持っている。本実施例では、画像の
縦横の大きさをそれぞれY,Xとする。この画像を処理
した結果、装置が出力するデータを図6(c) に示す。車
線領域は、図6(b) に示されているように、三角形AB
Cで表現できるので、各頂点の座標(x,y) を結果として
出力する。
First, FIG. 5 is a diagram showing a configuration example of the lane area extracting device of the present invention. The present lane area extracting apparatus is an apparatus for extracting a lane area ahead of a vehicle to travel based on image information obtained from a camera mounted in front of the vehicle as shown in FIG. FIG. 6 (a) is an input image. The input image has a coordinate system with the Y coordinate in the vertical direction and the X coordinate in the horizontal direction, with the lower left corner as the origin. In this embodiment, the vertical and horizontal sizes of the image are Y and X, respectively. The data output by the device as a result of processing this image is shown in FIG. 6 (c). The lane area is a triangle AB as shown in FIG. 6 (b).
Since it can be expressed in C, the coordinates (x, y) of each vertex are output as a result.

【0037】本発明の車線領域抽出装置は、画像生成部
20 と、道幅抽出部 21 と、白線検出部 23 と、車線領
域計算部 24 とから構成されている。画像生成部 20 で
は、車に搭載したカメラからのテレビ(TV)信号をA/D
変換し、画像生成部 20 の内部の、フレームメモリに蓄
積する。フレームメモリの大きさは画像の大きさと同じ
で、例えば,X画素×Y画素×8bitの256階調の
画像データが蓄積できるようになっている。このフレー
ムメモリは、上記道幅抽出部 21,白線検出部 23 からラ
ンダムに読み出しが可能である。但し、フレームメモリ
には、ビデオレート、即ち、1/30秒毎に画像(もし
くはフレームと呼ぶ)が入力されるため、連続した画像
を読み出すためにダブルメモリになっている。即ち、フ
レームメモリが2枚あって、書き込まれるメモリと読み
出すメモリが交互に入れ替わる構成である。
The lane area extracting apparatus according to the present invention includes an image generating unit.
20, a road width extraction unit 21, a white line detection unit 23, and a lane area calculation unit 24. The image generation unit 20 converts a television (TV) signal from a camera mounted on the vehicle into an A / D signal.
It is converted and stored in the frame memory inside the image generation unit 20. The size of the frame memory is the same as the size of the image, and for example, image data of 256 gradations of X pixels × Y pixels × 8 bits can be stored. This frame memory can be randomly read from the road width extraction unit 21 and the white line detection unit 23. However, since the image (or frame) is input to the frame memory at the video rate, that is, every 1/30 second, it is a double memory for reading continuous images. That is, there are two frame memories, and the memory to be written and the memory to be read are alternately switched.

【0038】道幅抽出部 21 では、上記フレームメモリ
に画像が蓄積された時に、動作を開始する。但し,白線
検出部 23 からの動作フラグが立っていることが必要で
ある。この動作フラグは、上記白線検出部 23 が立て
る。初期状態においては、該動作フラグは“オン”にな
っているものとする。
The road width extraction unit 21 starts operation when an image is stored in the frame memory. However, the operation flag from the white line detection unit 23 must be set. The operation flag is set by the white line detecting section 23. In the initial state, the operation flag is “on”.

【0039】図7に上記道幅抽出部 21 の動作を示す。
画像には、あらかじめどの位置での白線を抽出するか定
められており、その位置(Y座標だけ)は、白線位置メ
モリ27 に登録されている。位置は2つあり、, の
うち、の位置の白線から道幅Wを決定する。この道幅
は、実際の道幅ではなく、図7(a) に示した画像上での
仮想的な道幅Wである。
FIG. 7 shows the operation of the road width extraction unit 21.
The image has been determined to be extracted white lines in advance which position, its position (Y coordinate only) is registered in the white line position memory 27. There are two positions, and the road width W is determined from the white line at the position of. This road width is not an actual road width, but a virtual road width W on the image shown in FIG. 7 (a).

【0040】の位置での画像の断面、即ち、X座標と
輝度のグラフを使って、上記道幅Wの決定方法を説明す
る。での画像の断面は、図7(b) に示した輝度の棒グ
ラフで表される。該仮想的な道幅Wの決定では、画像の
中心を始点として、右方向と左方向に画素を走査して、
上記棒グラフ上で、最も輝度の高いものを選ぶのであ
る。具体的な方法として、図7(c) で離散表現で記した
一ライン分の画像データで示す。枡目一つ一つは画素に
相当する。画素の中には、輝度が記録されており、例え
ば、256階調の画像ならば、その値は0から255ま
での値をもつことになる。該輝度の棒グラフで、輝度値
の高い画素には、大きい値が記録されていることにな
る。網線の画素を始点として、マスクA,Bをそれぞれ
左方向,右方向に走査する。マスクA,Bは2画素分の
大きさのテンプレートで、1画素ずつずらしながら、画
像と照らし合わせ、マスク内に書かれた数字と画素の値
の積とその積の総和を計算する。左右走査したマスク
A,Bがそれぞれ最大の総和を得られた位置が白線の位
置に相当する。2本の白線が抽出されたならば、互いの
位置の差から道幅Wが求められる。該求められた道幅W
は道幅メモリ 22 に記録される。
A method of determining the road width W will be described with reference to the cross section of the image at the position, that is, the graph of the X coordinate and the brightness. The cross section of the image at is represented by the luminance bar graph shown in FIG. In the determination of the virtual road width W, pixels are scanned in the right and left directions with the center of the image as a starting point,
Select the one with the highest brightness on the bar graph. As a concrete method, the image data for one line shown in discrete representation in FIG. 7C is shown. Each cell corresponds to a pixel. Luminance is recorded in each pixel. For example, in the case of an image having 256 gradations, the value has a value of 0 to 255. In the luminance bar graph, a large value is recorded in a pixel having a high luminance value. The masks A and B are scanned in the leftward and rightward directions, respectively, starting from the pixel of the halftone line. The masks A and B are templates each having a size of two pixels, and are compared with the image while being shifted by one pixel, and the product of the number and the pixel value written in the mask and the sum of the products are calculated. The position where the maximum sum is obtained for each of the masks A and B that are scanned left and right corresponds to the position of the white line. When the two white lines are extracted, the road width W is obtained from the difference between the positions of the two white lines. The obtained road width W
Is recorded in the road width memory 22.

【0041】但し、最大の総和が或る基準以上の値でな
ければ、白線の位置が求められなかったものとする。左
右の2つの白線,のうち、どちらか一方もしくは両
方とも求められなかったならば、次のフレームで、上記
道幅Wの計算を繰り返す。道幅Wが抽出されない限り、
次の処理には移らない。
However, it is assumed that the position of the white line cannot be obtained unless the maximum sum is a value equal to or larger than a certain standard. If either or both of the two white lines on the left and right are not obtained, the calculation of the road width W is repeated in the next frame. Unless the road width W is extracted,
It does not move to the next processing.

【0042】白線検出部 23 では、上記道幅抽出部 21
で道幅Wが計算された場合、動作を開始する。道幅Wが
抽出された直後では、図8で示す白線抽出の初期処理を
行う。即ち、白線位置メモリ 27 に蓄積された2つのY
座標, について、左白線のみを抽出する。に関し
ては、道幅抽出部 21 の左半分の探索で得た白線の位置
を使う。では、該道幅抽出同様、マスクAと同じマス
クを左方向へ走査して、その値が最大になる位置を求め
る。この値が或る基準以上であれば、白線が抽出された
ものとして、白線位置メモリ 27 のX座標にそれぞれ記
録する。, の一方で左白線が抽出されなかった場合
は、道幅抽出部 21 への、上記動作フラグを立てるとと
もに、この初期処理を次のフレームでも繰り返す。両方
の白線が抽出されたとき、同じ白線抽出処理を継続し、
上記道幅抽出部 21 への動作フラグを下ろす。 上記白
線検出部 23 での初期処理後の動作を図10に示した処
理フローを参照しながら以下に説明する。図9(a),(b)
に示されているように、上記白線検出部 23 では、前の
フレームで2点, とも左白線が抽出できた場合に
は、前フレームでの白線の位置を中心として探索範囲A
(画素)内で、次のフレームの白線を探す。探し方は、
前述の道幅抽出部 21 と同じである。違いは、探索する
範囲が道幅抽出部 21 や白線検出部 23 の初期処理に比
べ狭いことである。例えば、画像の横の大きさが320
画素である場合、上記の探索範囲Aは高々5画素程度で
ある。, ともに白線が抽出された場合、それらの位
置を白線位置メモリ 27 に記録し、次のフレームについ
ても探索範囲aでの白線検出を継続する。{図10の処
理ステップ 100〜102 参照} , のうち一つでも抽出できなかった場合、前述の道
幅抽出部 21 に対する動作フラグを“オン”とし、図5
に示してあるカウンタC 29 をクリアして、探索範囲を
B(画素)に拡張して探索する{図10の処理ステップ
104,105参照}。上記, の位置での白線が抽出され
なかった場合、前フレームの白線の位置は抽出された時
の位置をそのまま使って、上記探索範囲bはaよりも探
索範囲が広く、例えば、探索範囲aの三倍の探索範囲で
ある。{図10の処理ステップ 106〜108 参照} 広げた探索範囲Bでも、, のうち、何れも抽出でき
なかった場合、前述の道幅抽出部 21 に対する動作フラ
グを“オン”とし、カウンタC 29 を1カウントし、繰
り返し数メモリ 25 に記録された回数だけ、繰り返す。
該繰り返しの間に、, ともに抽出できれば、上記白
線位置メモリ 27 を更新し、探索範囲Aで左白線の抽出
を行う。このような処理を繰り返して、上記カウンタC
29 が、上記繰り返し数メモリ 25 に記録された回数を
越えた場合は、図8で説明した白線検出の初期処理に戻
り、道幅抽出部 21 への動作フラグも立てる。{図10
の処理ステップ 109,110,111参照} 次に、車線領域計算部 24 は、白線検出部 23 で白線位
置, での左白線が両方とも抽出できた場合のみ動作
を開始する。
In the white line detecting section 23, the road width extracting section 21
When the road width W is calculated in step S1, the operation is started. Immediately after the road width W is extracted, the initial process of white line extraction shown in FIG. 8 is performed. That is, the two Ys stored in the white line position memory 27
Only the left white line is extracted for the coordinates. For, use the position of the white line obtained in the search for the left half of the road width extraction unit 21. Then, similarly to the road width extraction, the same mask as the mask A is scanned in the left direction to find the position where the value is maximum. If this value is equal to or greater than a certain reference, it is determined that a white line has been extracted, and the white line is stored in the X coordinate of the white line position memory 27. If, on the other hand, the left white line is not extracted, the operation flag is set to the road width extraction unit 21, and this initial process is repeated in the next frame. When both white lines are extracted, the same white line extraction process is continued,
The operation flag to the road width extraction unit 21 is lowered. The operation of the white line detecting section 23 after the initial processing will be described below with reference to the processing flow shown in FIG. 9 (a), (b)
As shown in the above, in the white line detection unit 23, when two points, that is, the left white line, can be extracted in the previous frame, the search range A is centered on the position of the white line in the previous frame.
Find the white line in the next frame in (pixels). How to find
This is the same as the road width extraction unit 21 described above. The difference is that the search range is narrower than the initial processing of the road width extraction unit 21 and the white line detection unit 23. For example, if the horizontal size of the image is 320
In the case of pixels, the search range A is about 5 pixels at most. When both white lines are extracted, their positions are recorded in the white line position memory 27, and the white line detection in the search range a is continued for the next frame. {Refer to the processing steps 100 to 102 of FIG. 10}, if even one of them cannot be extracted, the operation flag for the road width extraction unit 21 is set to “ON”, and
The counter C 29 shown in is cleared and the search range is expanded to B (pixels) to perform the search {the processing step of FIG.
104, 105}. When the white line at the above position is not extracted, the position of the white line of the previous frame is used as it is, and the search range b is wider than the search range a. Is three times the search range. {Refer to the processing steps 106 to 108 in FIG. 10} In the expanded search range B, if none of the, can be extracted, the operation flag for the road width extraction unit 21 is set to “ON” and the counter C 29 is set to 1. Counts and repeats the number of times recorded in the repeat count memory 25.
During the repetition, if both can be extracted, the white line position memory 27 is updated and the left white line is extracted in the search range A. By repeating such processing, the counter C
When 29 exceeds the number of times recorded in the repetition number memory 25, the process returns to the initial process of white line detection described in FIG. {Fig. 10
Processing steps 109, 110, and 111} Next, the lane area calculation unit 24 starts the operation only when the white line detection unit 23 can extract both left white lines at the white line position.

【0043】白線位置メモリ 27 内の左白線の2点の座
標(X,Y座標),道幅メモリ 221内の道幅W及び無
限遠線位置メモリ 28 に予め記録されたY座標(ここで
はaとする)を使って、本実施例の最終結果である車線
領域の三角形A,B,Cの頂点座標を出力する。各頂点
の座標は図11(a),(b) に示すように,簡単な積和演算
で計算できる。
The coordinates (X, Y coordinates) of the two points of the left white line in the white line position memory 27, the road width W in the road width memory 221, and the Y coordinate previously recorded in the infinite distance position memory 28 (here, a). ) Is used to output the vertex coordinates of the triangles A, B, and C in the lane area, which is the final result of this embodiment. The coordinates of each vertex can be calculated by a simple product-sum operation, as shown in FIGS. 11 (a) and 11 (b).

【0044】最初に点BのX座標xb を計算する。左白
線の2点のY座標は固定値であるので、分母の値は常に
一定である。従って、図11(b) に示されているよう
に、2回の積と1回の和で求まる。即ち、図11(a) に
示されている三角形の画像において、B1(x1,y1),B2(x2,
y2) は、前述の図9,図10で説明した白線検出部 23
で求められている。又、該B1(x1,y1),B2(x2,y2) を接続
して無限遠線(y=a) 側に延長したときの直線Lは上記無
限遠線との交点を交点A(xa ,ya ) とする。又、図示さ
れている直線L,直線lの画像端(X軸)との交点B(x
b ,yb ),C(xc ,y c ) とすると、直線B1(x1,y1),B2(x2,
y2) が形成する直角三角形と、直線B1(x1,y1),B(xb ,y
b ) が形成する直角三角形が相似形であることから、点
BのX座標xb を計算することは容易である。
First, the X coordinate x of the point BbTo calculate. Left white
Since the Y coordinates of the two points on the line are fixed values, the denominator value is always
It is constant. Therefore, as shown in FIG.
Then, the product is obtained twice and the sum is obtained once. That is, in FIG. 11 (a)
In the triangular image shown, B1 (x1, y1), B2 (x2,
y2) Is the white line detection unit 23 described in FIG. 9 and FIG.
Is required in. Also, the B1 (x1, y1), B2 (x2, y2) Connect
The straight line L when extended to the infinity line (y = a) side is
The intersection with the distance line is the intersection A (xa, ya). Also shown
The intersection B (x) of the straight line L and the straight line l with the image end (X axis)
b, yb), C (xc, y c), The straight line B1 (x1, y1), B2 (x2,
y2) Form a right triangle and the line B1 (x1, y1), B (xb, y
b) Form a right triangle, the points are similar.
X coordinate of B xbIs easy to calculate.

【0045】同様にして、点AのX座標xa は、上記x
b を使うと、2回の積と2回の和で算出できる。更に、
点CのX座標xc はy2−aは固定値なので予め計算し
ておけるので、3回の積と2回の和で算出できる。以
上、三角形の頂点は7回の積と5回の和で計算できる。
Similarly, the X coordinate x a of the point A is the above x
If you use b , you can calculate it by two products and two sums. Furthermore,
Since the X coordinate x c of the point C can be calculated in advance because y2-a is a fixed value, it can be calculated by the product of 3 times and the sum of 2 times. As described above, the vertices of the triangle can be calculated by the product of 7 times and the sum of 5 times.

【0046】又、フレームが連続していることから、無
限遠点である点Aの位置が前フレームに比べ極端に変化
することはない。従って,前後のフレームでの点Aの差
が或る基準以上ならば、正しい領域が抽出できないの
で、白線検出部 23 での前述の白線検出をやり直す。
Further, since the frames are continuous, the position of the point A which is the point at infinity does not change extremely compared with the previous frame. Therefore, if the difference between the points A in the preceding and succeeding frames is greater than a certain standard, a correct area cannot be extracted, and the white line detection unit 23 repeats the above white line detection.

【0047】上記本発明による車線領域抽出処理を要約
すると、先ず、初期化時には、道幅抽出部 21 に対する
動作フラグは“オン”となっているので、図2に示され
ているように、最初、左白線の2点と、仮想的な道幅W
が抽出されると、該抽出された左白線と、無限遠線との
交点Aを求めて、その交点と仮想的な道幅Wとから、右
白線を求めて、車線領域を抽出する。これを初期処理と
いう。
To summarize the lane area extraction processing according to the present invention, first, at the time of initialization, the operation flag for the road width extraction unit 21 is "ON". Therefore, as shown in FIG. Two points on the left white line and a virtual road width W
When the intersection point A between the extracted left white line and the infinity line is obtained, the right white line is obtained from the intersection point and the virtual road width W, and the lane area is extracted. This is called initial processing.

【0048】続いて、図2(e),図3に示されているよう
に、上記抽出された左白線を、次のフレーム画像につい
て、該前フレームでの白線の位置を中心にして、その近
傍(探索範囲a)を探索して新しい白線の位置,を
求めることを繰り返し、この探索で、該白線の探索が失
敗したときには、探索範囲をa→bに拡大して白線の抽
出を行い、上記2点,の白線が抽出できれば、探索
範囲をb→aに戻し、通常の白線探索を繰り返す。
Then, as shown in FIGS. 2 (e) and 3, the extracted left white line is centered on the position of the white line in the preceding frame for the next frame image, Repeatedly searching the neighborhood (search range a) to find the position of the new white line, and if the search for the white line fails in this search, the search range is expanded to a → b, and the white line is extracted. If the above two white lines can be extracted, the search range is returned to b → a, and the normal white line search is repeated.

【0049】上記探索範囲を拡げた白線抽出処理でも白
線が抽出できなかったとき、前述の道幅抽出部 21 に対
する動作フラグを“オン”とし、図2に示した上記初期
処理にもどり、左白線の2点, の抽出と道幅Wの抽
出からやり直すようにして、フレーム毎に、上記初期処
理,白線抽出処理(通常処理と探索範囲を拡張した処
理)の何れかを繰り返すことで、少ない計算量で、車線
領域の高速抽出を正確に行うことができる。
When the white line cannot be extracted even by the white line extraction processing with the expanded search range, the operation flag for the road width extraction unit 21 is set to "ON", and the process returns to the initial processing shown in FIG. By repeating the extraction of two points and the extraction of the road width W, and repeating any of the above-mentioned initial processing and white line extraction processing (normal processing and processing with an expanded search range) for each frame, a small amount of calculation is required. The lane area can be accurately extracted at high speed.

【0050】尚、上記の実施例においては、2本の標識
線、例えば、白線を検出するのに、左側の白線を基準に
して、右側の白線を予測する例で説明したが、基準とな
る白線は、左側にあっても、右側にあっても良いことは
言うまでもないことである。
In the above embodiment, the two white lines, for example, the white lines are detected, and the white line on the left side is used as a reference to predict the white line on the right side. It goes without saying that the white line may be on the left side or the right side.

【0051】次に、図4を参照しながら、図12によっ
て、矩形抽出部 3L,3Rにおける水平線, 垂直線候補の抽
出処理を説明する。ここでは、説明の便宜上、水平線候
補の抽出を例にして説明するが、垂直線候補の抽出の場
合には、以下の説明中のY座標をX座標と解釈すれば、
同様の処理となる。
Next, the horizontal line / vertical line candidate extraction processing in the rectangle extraction units 3L, 3R will be described with reference to FIG. 12 with reference to FIG. Here, for convenience of description, the extraction of horizontal line candidates will be described as an example, but in the case of extraction of vertical line candidates, if the Y coordinate in the following description is interpreted as the X coordinate,
The same process is performed.

【0052】先ず、図12の水平エッジ抽出部で、所定
のマスクパターンを用いて画像を走査して、矩形を構成
している特徴画素である水平エッジを抽出する。次に、
図12の水平線候補抽出部において、図4に示されてい
るように、各ライン(y=1,2, ・・・) を左から右に走査
し、各ライン上の画素と上下1画素の計3画素を調べ、
該3画素のうち、何れか1つがエッジ画素である限り、
同一の水平エッジとして、該走査を継続して、同一水平
エッジを追跡する。ここで、同一のエッジを追跡してい
る間に、該エッジ画素をライン別(即ち、注目している
ライン,+1ライン,−1ライン)に計数する。
First, the horizontal edge extraction unit of FIG. 12 scans an image using a predetermined mask pattern to extract horizontal edges which are characteristic pixels forming a rectangle. next,
In the horizontal line candidate extraction unit of FIG. 12, as shown in FIG. 4, each line (y = 1, 2, ...) Is scanned from left to right, and the pixels on each line and the upper and lower one pixels are scanned. Check a total of 3 pixels,
As long as any one of the three pixels is an edge pixel,
As the same horizontal edge, the scanning is continued and the same horizontal edge is tracked. Here, while tracking the same edge, the edge pixels are counted for each line (that is, the line of interest, the +1 line, the −1 line).

【0053】上記の追跡を続け、上記3画素のうち、ど
の画素にも該エッジが存在しなくなった場合には、該計
数した結果エッジの画素数最も多いラインに、矩形の水
平線候補が存在するものとして、該追跡の過程で、エッ
ジ画素が最初に現れた座標(X座標)から最後の画素ま
でも、該矩形の水平線候補γとして抽出する。以上の操
作を画像の最後のラインまで実行する。
If the edge is not present in any of the three pixels by continuing the above tracking, a rectangular horizontal line candidate is present in the line having the largest number of edge pixels as a result of the counting. As a matter of course, in the course of the tracking, the coordinates from the edge pixel first appearing (X coordinate) to the last pixel are also extracted as the horizontal line candidate γ of the rectangle. The above operation is executed up to the last line of the image.

【0054】このように、本発明の矩形抽出部によれ
ば、水平(垂直)線候補抽出部において、エッジ画素が
隣接していない場合でも、±α画素の範囲内に存在する
場合には、同一の水平(垂直)線の候補して抽出するこ
とができる。このため、画像を撮像するときの誤差によ
って本来は同一の輪郭線を構成するエッジ画素が連続し
て隣接していない場合でも、連続した水平(垂直)線候
補γとして抽出することができる。
As described above, according to the rectangle extracting unit of the present invention, in the horizontal (vertical) line candidate extracting unit, even if the edge pixels are not adjacent to each other, if they exist within the range of ± α pixels, The same horizontal (vertical) line can be extracted as a candidate. Therefore, even if the edge pixels that originally form the same contour line are not continuously adjacent to each other due to an error in capturing an image, it can be extracted as a continuous horizontal (vertical) line candidate γ.

【0055】このように、本発明による道路環境認識装
置は、道路環境認識装置の進行方向に固定して設けられ
ている撮像手段により得られる画像から、物体の輪郭線
を抽出したエッジ画像を作成し、該エッジ画像を用い
て、自車両の左側、右側の標識線を抽出するのに、上記
撮像手段によって定まる無限遠線と、上記抽出した、例
えば、左白線との交点を求め、仮想的な道幅Wから右白
線を推測する。又、上記左白線の抽出を行う際、予め、
定めた2箇所,で該左白線を探索し、輝度の最大の
地点を左白線とする。又、前フレームで抽出した白線の
位置に基づいて、現在のフレームでの白線を探索する。
このとき、上記2箇所,で白線が探索できなかった
とき、該白線の探索範囲を変える。又、該画像から矩形
を抽出する際、幅±α画素(例えば、α=1,2)の範
囲でエッジが存在すれば、一本の連続した直線エッジと
して抽出し、水平線,垂直線の候補γとするようにした
ところに特徴がある。
As described above, the road environment recognition apparatus according to the present invention creates an edge image in which the contour line of the object is extracted from the image obtained by the image pickup means fixedly provided in the traveling direction of the road environment recognition apparatus. Then, using the edge image, in order to extract the marker lines on the left and right sides of the host vehicle, the intersection point between the infinity line determined by the imaging means and the extracted, for example, the left white line is obtained, and the virtual line is obtained. Guess the white line on the right from the wide road width W. When extracting the left white line,
The left white line is searched for at the defined two places, and the point having the maximum brightness is set as the left white line. Also, the white line in the current frame is searched based on the position of the white line extracted in the previous frame.
At this time, when the white line cannot be searched at the above two places, the search range of the white line is changed. Further, when a rectangle is extracted from the image, if an edge exists within a range of ± α pixels (for example, α = 1, 2), it is extracted as one continuous straight line edge, and a horizontal line or vertical line candidate is extracted. The feature is that it is set to γ.

【0056】[0056]

【発明の効果】以上、詳細に説明したように、本発明の
道路環境認識装置によれば、車線領域抽出装置での車線
領域の抽出処理が少ない演算量で計算できるので、自動
運転等の高速性が必要な自走車の視覚システムへの適用
が容易となる。
As described above in detail, according to the road environment recognition apparatus of the present invention, the lane area extraction processing by the lane area extraction apparatus can be performed with a small amount of calculation, so that high speed such as automatic driving can be achieved. It becomes easy to apply to the visual system of the self-propelled vehicle that needs the property.

【0057】又、矩形抽出部内の水平(垂直)線候補抽
出部において、エッジ画素が隣接していない場合でも、
±α画素の範囲内に存在する場合には、同一の水平(垂
直)線の候補して抽出することができる。このため、画
像を撮像するときの誤差によって本来は同一の輪郭線を
構成するエッジ画素が連続して隣接していない場合で
も、連続した水平(垂直)線候補として抽出することが
できる。
In the horizontal (vertical) line candidate extraction unit in the rectangle extraction unit, even when the edge pixels are not adjacent to each other,
If it exists within the range of ± α pixels, it can be extracted as a candidate for the same horizontal (vertical) line. For this reason, even if the edge pixels that originally form the same contour line are not adjacent to each other due to an error when capturing an image, it is possible to extract them as continuous horizontal (vertical) line candidates.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理説明図(その1)FIG. 1 is an explanatory diagram (1) of the principle of the present invention.

【図2】本発明の原理説明図(その2)FIG. 2 is an explanatory diagram of the principle of the present invention (No. 2)

【図3】本発明の原理説明図(その3)FIG. 3 is an explanatory diagram of the principle of the present invention (No. 3)

【図4】本発明の原理説明図(その4)FIG. 4 is an explanatory diagram of the principle of the present invention (No. 4)

【図5】本発明の一実施例を示した図(その1)FIG. 5 is a diagram showing an embodiment of the present invention (No. 1).

【図6】本発明の一実施例を示した図(その2)FIG. 6 is a diagram showing an embodiment of the present invention (No. 2).

【図7】本発明の一実施例を示した図(その3)FIG. 7 is a diagram showing an embodiment of the present invention (part 3).

【図8】本発明の一実施例を示した図(その4)FIG. 8 is a diagram showing an embodiment of the present invention (No. 4).

【図9】本発明の一実施例を示した図(その5)FIG. 9 is a diagram showing an embodiment of the present invention (No. 5).

【図10】本発明の一実施例を示した図(その6)FIG. 10 is a diagram showing an embodiment of the present invention (No. 6).

【図11】本発明の一実施例を示した図(その7)FIG. 11 is a diagram showing an embodiment of the present invention (No. 7).

【図12】本発明の他の実施例を示した図FIG. 12 is a diagram showing another embodiment of the present invention.

【図13】従来の車線領域抽出装置を説明する図FIG. 13 is a diagram illustrating a conventional lane area extraction device.

【図14】従来の水平線,垂直線候補認識手段を説明す
る図
FIG. 14 is a view for explaining a conventional horizontal line / vertical line candidate recognition means.

【符号の説明】[Explanation of symbols]

1L,1R 撮像手段 2L,2R 車線領
域抽出装置 3L,3R 矩形抽出部 4 矩形照合&
距離算出部 20 画像生成部 21 道幅抽出部 22 道幅メモリ 23 白線検出部 24 車線領域計算部 25 繰り返し数
メモリ 26 探索幅メモリ 27 白線位置メ
モリ 28 無限遠線位置メモリ 29 カウンタC 30 水平エッジ抽出部 31 水平線候補
抽出部 100 〜111 処理ステップ , 白線探索位置 a 無限遠線位置 W 仮想的な道幅 a,b 白線検出部での白線探索範囲 A, B, C 車線領域を示す三角形の頂点 α,β,γ 水平線,垂直線候補
1L, 1R Imaging means 2L, 2R Lane area extraction device 3L, 3R Rectangle extraction unit 4 Rectangle matching &
Distance calculation unit 20 Image generation unit 21 Road width extraction unit 22 Road width memory 23 White line detection unit 24 Lane area calculation unit 25 Repeat count memory 26 Search width memory 27 White line position memory 28 Infinity line position memory 29 Counter C 30 Horizontal edge extraction unit 31 Horizontal line candidate extraction unit 100-111 Processing steps, White line search position a Infinity line position W Virtual road width a, b White line search range at white line detection unit A, B, C Triangle vertices α, β, indicating lane area γ Horizontal line, vertical line candidates

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/00 G08G 1/09 V H04N 7/18 J (72)発明者 瀬川 英吾 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical indication location G06T 7/00 G08G 1/09 V H04N 7/18 J (72) Inventor Eigo Segawa Kawasaki City, Kanagawa Prefecture 1015 Kamiodanaka, Nakahara-ku, Fujitsu Limited

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】少なくとも、車両の進行方向の前方を撮像
する撮像手段と、該撮像手段により得られる画像から、
自車両の左側及び右側の標識線を抽出して、自車線の領
域を認識する車線領域抽出装置を備えた道路環境認識装
置であって、 上記車線領域抽出装置は、上記撮像手段が上記車両に固
定されていることにより定められる無限遠線と、抽出し
た左側、又は右側の一方の標識線との交点を求め、該交
点と、該画像上で認識できる仮想的な道幅とから、上記
右側、又は左側の他方の標識線を推測する手段を備え、
該道路環境認識装置の前方の走行車線領域を求めること
を特徴とする道路環境認識装置。
1. At least an image pickup means for picking up an image in front of a vehicle in a traveling direction, and an image obtained by the image pickup means,
A road environment recognition device comprising a lane area extraction device for recognizing an area of the own lane by extracting sign lines on the left and right sides of the own vehicle, wherein the lane area extraction device includes the image pickup means for the vehicle. The infinity line determined by being fixed, and the extracted intersection of the left side or the one of the right side marker lines, the intersection, and the virtual road width that can be recognized on the image, the right side, Or equipped with a means to guess the other marking line on the left,
A road environment recognition device, characterized by obtaining a traveling lane region in front of the road environment recognition device.
【請求項2】請求項1に記載の道路環境認識装置が備え
ている車線領域抽出装置において、予め、定めた2か所
で、上記一方の標識線を探索し、輝度の最大の地点を、
該一方の標識線の位置とする標識線検知手段を備えたこ
とを特徴とする道路環境認識装置。
2. A lane area extraction device provided in the road environment recognition device according to claim 1, wherein the one marking line is searched at two predetermined locations to find a point of maximum brightness.
A road environment recognition device comprising a marker line detecting means for determining the position of the one marker line.
【請求項3】請求項1に記載の道路環境認識装置が備え
ている車線領域抽出装置において、前フレームで抽出し
た標識線の位置に基づいて、現在のフレームでの標識線
の位置を探索する標識線探索手段を備えたことを特徴と
する道路環境認識装置。
3. The lane area extraction device provided in the road environment recognition device according to claim 1, wherein the position of the marker line in the current frame is searched based on the position of the marker line extracted in the previous frame. A road environment recognition device comprising a marker line search means.
【請求項4】請求項1に記載の道路環境認識装置が備え
ている車線領域抽出装置において、標識線の位置を探索
する範囲を選択的に変更する標識線検知手段を備えたこ
とを特徴とする道路環境認識装置。
4. The lane area extraction device provided in the road environment recognition device according to claim 1, further comprising marking line detection means for selectively changing a range for searching the position of the marking line. Road environment recognition device.
【請求項5】請求項1に記載の道路環境認識装置が備え
ている複数個の撮像手段で撮像した各画像から矩形部分
を抽出し、該画像上で抽出した矩形の位置のずれから前
方車両迄の距離の算出するのに必要な複数個の矩形抽出
手段は、幅±α画素(α=整数)の範囲で、矩形を構成
する特徴画素が存在することを検出したとき、一本の特
徴画素として抽出し、水平線,垂直線の候補とすること
を特徴とする道路環境認識装置。
5. A rectangular vehicle is extracted from each image picked up by a plurality of image pickup means provided in the road environment recognition apparatus according to claim 1, and a forward vehicle is detected based on a shift of the rectangular position extracted on the image. The plurality of rectangle extracting means necessary for calculating the distance to the one is one feature when it is detected that feature pixels forming a rectangle exist within a range of width ± α pixels (α = integer). A road environment recognition device characterized by extracting as pixels and using as candidates for horizontal and vertical lines.
JP22539194A 1994-09-20 1994-09-20 Road environment recognition device Expired - Fee Related JP3326988B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22539194A JP3326988B2 (en) 1994-09-20 1994-09-20 Road environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22539194A JP3326988B2 (en) 1994-09-20 1994-09-20 Road environment recognition device

Publications (2)

Publication Number Publication Date
JPH0887700A true JPH0887700A (en) 1996-04-02
JP3326988B2 JP3326988B2 (en) 2002-09-24

Family

ID=16828630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22539194A Expired - Fee Related JP3326988B2 (en) 1994-09-20 1994-09-20 Road environment recognition device

Country Status (1)

Country Link
JP (1) JP3326988B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2358975A (en) * 2000-02-05 2001-08-08 Jaguar Cars Motor vehicle trajectory measurement
JP2002150302A (en) * 2000-11-15 2002-05-24 Toyota Motor Corp Road surface recognition device
US6813370B1 (en) 1999-09-22 2004-11-02 Fuji Jukogyo Kabushiki Kaisha Lane marker recognizing apparatus
JP2009288867A (en) * 2008-05-27 2009-12-10 Toyota Motor Corp Lane marking detection device and lane marking detection method
KR101035761B1 (en) * 2006-07-06 2011-05-20 포항공과대학교 산학협력단 Method of processing image for recognizing a lane and the system thereof
JP2012181691A (en) * 2011-03-01 2012-09-20 Yazaki Corp Method for recognizing patten on road surface, and information recording device for vehicle
JP2013191040A (en) * 2012-03-14 2013-09-26 Alpine Electronics Inc Lane mark detector and reliability calculation method of lane mark
CN103348393A (en) * 2010-11-04 2013-10-09 丰田自动车株式会社 Road shape estimation device
JP2014116756A (en) * 2012-12-07 2014-06-26 Toyota Motor Corp Periphery monitoring system
JP2014142965A (en) * 2014-04-24 2014-08-07 Toyota Motor Corp Driving support device and driving support method
US9990549B2 (en) 2015-01-15 2018-06-05 Toyota Jidosha Kabushiki Kaisha Complex marking determining device and complex marking determining method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6813370B1 (en) 1999-09-22 2004-11-02 Fuji Jukogyo Kabushiki Kaisha Lane marker recognizing apparatus
GB2358975A (en) * 2000-02-05 2001-08-08 Jaguar Cars Motor vehicle trajectory measurement
GB2358975B (en) * 2000-02-05 2004-05-05 Jaguar Cars Motor vehicle trajectory measurement
US6745110B2 (en) 2000-02-05 2004-06-01 Jaguar Cars Limited Motor vehicle trajectory measurement
JP2002150302A (en) * 2000-11-15 2002-05-24 Toyota Motor Corp Road surface recognition device
KR101035761B1 (en) * 2006-07-06 2011-05-20 포항공과대학교 산학협력단 Method of processing image for recognizing a lane and the system thereof
JP2009288867A (en) * 2008-05-27 2009-12-10 Toyota Motor Corp Lane marking detection device and lane marking detection method
US8090152B2 (en) 2008-05-27 2012-01-03 Toyota Jidosha Kabushiki Kaisha Road lane boundary detection system and road lane boundary detecting method
CN103348393A (en) * 2010-11-04 2013-10-09 丰田自动车株式会社 Road shape estimation device
CN103348393B (en) * 2010-11-04 2015-08-19 丰田自动车株式会社 Road shape estimation device and presuming method thereof
JP2012181691A (en) * 2011-03-01 2012-09-20 Yazaki Corp Method for recognizing patten on road surface, and information recording device for vehicle
JP2013191040A (en) * 2012-03-14 2013-09-26 Alpine Electronics Inc Lane mark detector and reliability calculation method of lane mark
JP2014116756A (en) * 2012-12-07 2014-06-26 Toyota Motor Corp Periphery monitoring system
JP2014142965A (en) * 2014-04-24 2014-08-07 Toyota Motor Corp Driving support device and driving support method
US9990549B2 (en) 2015-01-15 2018-06-05 Toyota Jidosha Kabushiki Kaisha Complex marking determining device and complex marking determining method

Also Published As

Publication number Publication date
JP3326988B2 (en) 2002-09-24

Similar Documents

Publication Publication Date Title
US11270131B2 (en) Map points-of-change detection device
US7317474B2 (en) Obstacle detection apparatus and method
JP3169483B2 (en) Road environment recognition device
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
US20190188498A1 (en) Image Processing Method For Recognizing Ground Marking And System For Detecting Ground Marking
US7176959B2 (en) Vehicle surroundings display device and image providing system
US8295644B2 (en) Birds eye view virtual imaging for real time composited wide field of view
JP2002197444A (en) Run lane recognition device for vehicle
EP2602741A2 (en) Detection of the vertical contour of a road
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP3326988B2 (en) Road environment recognition device
US20230326168A1 (en) Perception system for autonomous vehicles
JP2006350699A (en) Image processor and image processing method
JPH11195127A (en) Method for recognizing white line and device therefor
US11904843B2 (en) Autonomous parking systems and methods for vehicles
JP2000293693A (en) Obstacle detecting method and device
JPH07225126A (en) On-road object recognizing device for vehicle
JP3843727B2 (en) Current position correcting apparatus and method
US11373389B2 (en) Partitioning images obtained from an autonomous vehicle camera
JP4106163B2 (en) Obstacle detection apparatus and method
JP3032060B2 (en) Roadway recognition device for mobile vehicles
JPH07220194A (en) Road environment recognizing device
JP4671991B2 (en) Lane mark recognition device
US11461922B2 (en) Depth estimation in images obtained from an autonomous vehicle camera
JPH09259282A (en) Device and method for detecting moving obstacle

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020611

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080712

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090712

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100712

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100712

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110712

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110712

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120712

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees