JP5189556B2 - Lane detection device - Google Patents

Lane detection device Download PDF

Info

Publication number
JP5189556B2
JP5189556B2 JP2009123795A JP2009123795A JP5189556B2 JP 5189556 B2 JP5189556 B2 JP 5189556B2 JP 2009123795 A JP2009123795 A JP 2009123795A JP 2009123795 A JP2009123795 A JP 2009123795A JP 5189556 B2 JP5189556 B2 JP 5189556B2
Authority
JP
Japan
Prior art keywords
lane
group
pixel
road surface
candidate point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009123795A
Other languages
Japanese (ja)
Other versions
JP2010271969A (en
Inventor
徹 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2009123795A priority Critical patent/JP5189556B2/en
Publication of JP2010271969A publication Critical patent/JP2010271969A/en
Application granted granted Critical
Publication of JP5189556B2 publication Critical patent/JP5189556B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、車線検出装置に係り、特に、撮像された画像中から自車両の走行路の道路面上に標示された車線を検出する車線検出装置に関する。   The present invention relates to a lane detection device, and more particularly, to a lane detection device that detects a lane marked on a road surface of a traveling path of a host vehicle from captured images.

従来から、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを備えるカメラで車両前方を撮像し、撮像した画像中から自車両の走行路の道路面上に標示された車線を検出する技術が種々開発されている。なお、本明細書では、追越し禁止線や路側帯と車道とを区画する区画線等の道路面上に標示された連続線や破線を車線といい、車線の間の自車両が走行する道路面を自車両の走行路という。   Conventionally, for example, the front of the vehicle is imaged with a camera equipped with an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and is displayed on the road surface of the traveling path of the own vehicle from the captured image. Various techniques for detecting lanes have been developed. In this specification, continuous lines and broken lines marked on road surfaces such as overtaking prohibited lines and lane markings that divide roadside zones and roadways are called lanes, and the road surface on which the vehicle between the lanes travels. Is called the traveling path of the vehicle.

例えば、特許文献1に記載の車線認識装置では、撮像された画像の1画素幅の水平ライン上を左右方向に探索して隣接する画素との輝度の差(すなわちエッジ強度)が所定の閾値以上に大きい画素を車線に対応する画素である車線候補点として検出し、この探索を各水平ラインについて行って複数の車線候補点を得る。   For example, in the lane recognition device described in Patent Document 1, a luminance difference (that is, edge strength) between adjacent pixels when searching on a horizontal line having a width of one pixel of a captured image in the left-right direction is greater than or equal to a predetermined threshold value. A large pixel is detected as a lane candidate point that is a pixel corresponding to the lane, and this search is performed for each horizontal line to obtain a plurality of lane candidate points.

そして、実空間上で道路面より上方に存在する点に対応する車線候補点や道路面の標示や影等に対応する車線候補点、すなわち車線に対応しない車線候補点を排除しながら、自車両に近い側すなわち画像の下側の車線候補点に対してハフ変換を行って車線に対応する直線を検出する。   Then, while excluding lane candidate points corresponding to points above the road surface in real space and lane candidate points corresponding to road surface markings, shadows, etc., that is, lane candidate points not corresponding to the lane, A straight line corresponding to the lane is detected by performing Hough transform on the lane candidate point on the side close to the image, that is, on the lower side of the image.

また、自車両からより遠方の車線候補点、すなわち画像のより上側の車線候補点については、画像の下側から上側に順々に追跡していき、画像下側の車線候補点と整合性がある車線候補点をつないでいく。このようにして、例えば車線が直線的に標示されている場合には直線的に、また、車線が前方でカーブしている場合にはカーブに沿って車線候補点を検出しながらつないでいくことで自車両の走行路に標示された車線を検出するように構成されている。   In addition, the lane candidate points farther from the host vehicle, that is, the lane candidate points on the upper side of the image, are tracked in order from the lower side to the upper side of the image, and are consistent with the lane candidate points on the lower side of the image. Connect certain lane candidate points. In this way, for example, when a lane is marked linearly, it is connected linearly, and when the lane is curved forward, it is connected while detecting lane candidate points along the curve. The vehicle is configured to detect a lane marked on the traveling path of the vehicle.

特開2006−331389号公報JP 2006-331389 A

ところで、上記のようにして画像上で車線を検出する場合、画像の水平ライン上を探索して車線候補点を検出する処理を画像の全領域を対象として実行すると、検出処理の実行時間が長くなりリアルタイムの実行が困難になるとともに、車線候補点の誤検出が多くなる。   By the way, when detecting a lane on an image as described above, if the process of searching for a lane candidate point by searching on the horizontal line of the image is executed for the entire area of the image, the execution time of the detection process is long. Therefore, real-time execution becomes difficult, and false detection of lane candidate points increases.

そのため、特許文献1にも記載されているように、通常、例えば過去に画像上に検出された車線の位置の情報とその後の自車両の挙動から今回のサンプリング周期における画像上での車線の位置を推定し、それを含む探索領域を設定して、その探索領域のみを探索するように構成される。そして、このように構成することで、大抵の場合、画像上で車線を的確に検出することが可能となる。   Therefore, as described in Patent Document 1, usually, for example, the position of the lane on the image in the current sampling period from the information on the position of the lane detected on the image in the past and the behavior of the host vehicle thereafter. Is set, a search region including the same is set, and only the search region is searched. And by comprising in this way, it becomes possible to detect a lane exactly on an image in most cases.

しかしながら、例えば図26に示すように、画像Tに右折レーン等の分岐する車線が撮像されている場合、上記のように手前側すなわち自車両に近い側に直線を確定し、それより遠方側では、直線に関係なく画像の下側から上側に向けて順々に車線候補点を追跡してつないでいくと、同図に示すように、右折レーンに分岐する車線に対応する車線候補点(図中の黒丸参照)が検出され、それらに基づいて右折レーンに分岐する車線が検出される場合がある。   However, as shown in FIG. 26, for example, when a branching lane such as a right turn lane is captured in the image T, a straight line is determined on the near side, that is, on the side closer to the own vehicle as described above, and on the far side, If the lane candidate points are tracked and connected in order from the lower side to the upper side of the image regardless of the straight line, the lane candidate points corresponding to the lane branching to the right turn lane (as shown in the figure) In some cases, a lane that branches to a right turn lane is detected based on the detected black circle.

そして、次回以降のサンプリング周期では、この右折レーンに分岐する車線の位置の情報とその後の自車両の挙動から画像上での車線の位置が推定され、それを含む探索領域(図中の2本の曲線の間の領域)が設定されるため、右折レーンに分岐する車線に対応する車線候補点のみが検出され続ける。そのため、自車両が本来走行しようとしている本線すなわち右折レーンの左側の車線に対応する車線候補点(図中の白丸参照)を検出することができなくなる虞があった。   Then, in the sampling period after the next time, the position of the lane on the image is estimated from the information on the position of the lane branching to the right turn lane and the behavior of the host vehicle thereafter, and the search region including the estimated position (two in the figure) Thus, only the lane candidate points corresponding to the lane branching to the right turn lane are continuously detected. Therefore, there is a possibility that the lane candidate point (see the white circle in the figure) corresponding to the main line that the host vehicle is originally going to drive, that is, the lane on the left side of the right turn lane cannot be detected.

この場合、例えば、自車両の左側に検出された車線から右方向に所定の距離範囲内を探索するように構成すれば、本線側の車線に対応する車線候補点(図中の白丸参照)を検出することも可能になる。しかし、図26に示すように、左側の車線が雪等に覆われる等して検出できなかったり、もともと左側の車線が標示されていないような場合には、本線側の車線に対応する車線候補点を検出することができず、結局、本線側の車線を検出することができなくなる。   In this case, for example, if searching within a predetermined distance range in the right direction from the lane detected on the left side of the host vehicle, the lane candidate points corresponding to the lane on the main line side (see the white circle in the figure) It can also be detected. However, as shown in FIG. 26, if the left lane cannot be detected because it is covered with snow or the like, or the left lane is not originally marked, a lane candidate corresponding to the main lane The point cannot be detected, and eventually the main lane cannot be detected.

この問題は、探索領域を設定して車線候補点を検出する手法を採る限り、解決することが困難であるが、画像の全領域を対象として車線候補点を検出すると、上記のように検出処理の実行時間が長くなりリアルタイム性が損なわれる等の問題を生じる。   This problem is difficult to solve as long as a search area is set and a method for detecting lane candidate points is adopted. However, if lane candidate points are detected for the entire area of the image, the detection process is performed as described above. Causes a problem such as a longer execution time and a loss of real-time performance.

また、画像Tの水平ラインを探索して車線に対応する車線候補点を検出するための条件の1つとして、車線候補点が道路面に対応する画素の輝度の平均値等から所定の閾値以上に大きい輝度を有する画素であることが求められるが、そのために、特許文献1に記載の車線認識装置では、上記の探索領域等で水平ライン上で画素の輝度のヒストグラムを作成して、輝度の平均値や最大頻度を与える輝度等を算出する。   Further, as one of the conditions for searching the horizontal line of the image T and detecting the lane candidate point corresponding to the lane, the lane candidate point is equal to or greater than a predetermined threshold value from the average value of the luminance of the pixels corresponding to the road surface. Therefore, in the lane recognition device described in Patent Document 1, a histogram of the luminance of pixels is created on a horizontal line in the above search region or the like. The average value and the luminance that gives the maximum frequency are calculated.

しかし、これを探索領域を設定せずに画像の全領域を探索する場合に適用すると、膨大な量のヒストグラムを作成しなければならなくなり、検出処理の実行時間が非常に長くなるため、事実上、ヒストグラムを作成する手法は探索領域を設定する場合にしか適用できない。   However, if this is applied to search the entire area of the image without setting the search area, a huge amount of histograms must be created and the execution time of the detection process becomes very long. The method of creating a histogram can be applied only when setting a search area.

本発明は、このような事情に鑑みてなされたものであり、撮像された画像中から自車両の走行路に標示された車線を的確に検出することが可能な車線検出装置を提供することを目的とする。また、的確な車線検出をリアルタイムで実行可能な車線検出装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides a lane detection device capable of accurately detecting a lane marked on the traveling path of the host vehicle from a captured image. Objective. It is another object of the present invention to provide a lane detection device that can execute accurate lane detection in real time.

前記の問題を解決するために、第1の発明は、車線検出装置において、
自車両の周囲を撮像して画像を取得する撮像手段と、
前記画像中の互いに隣接する画素の輝度差が所定の閾値内である画素同士を1つのグループとして統合する統合手段と、
前記グループの平均輝度と面積がそれぞれ所定の閾値の範囲内である場合、当該グループを道路面グループとして検出する道路面検出手段と、
前記画像において前記道路面グループ以外の画像部分を探索し、前記道路面グループとの輝度の差が所定の閾値以上であり、かつ、隣接する画素との輝度差が所定の閾値以上である画素を車線候補点として検出する車線候補点検出手段と、
検出された前記車線候補点に基づいて、前記画像中に自車両の走行路に標示された車線を検出する車線検出手段と、
を備えることを特徴とする。
In order to solve the above problem, the first invention is a lane detection device,
Imaging means for capturing an image of the surroundings of the host vehicle;
Integration means for integrating pixels in which the luminance difference between adjacent pixels in the image is within a predetermined threshold as a group;
Road surface detection means for detecting the group as a road surface group, when the average brightness and area of the group are each within a predetermined threshold range;
Search the image portion other than the road surface group in the image, and find a pixel whose luminance difference with the road surface group is equal to or greater than a predetermined threshold and whose luminance difference with an adjacent pixel is equal to or greater than a predetermined threshold. Lane candidate point detecting means for detecting lane candidate points;
Lane detection means for detecting a lane marked on the traveling path of the host vehicle in the image based on the detected lane candidate point;
It is characterized by providing.

第2の発明は、第1の発明の車線検出装置において、前記車線候補点検出手段は、前記車線候補点に対応する前記車線の終了点を検出し、前記車線候補点と前記車線の終了点との間に存在する前記グループを車線グループとして検出して登録し、前記車線グループの前記画像中の縦方向の長さが所定の閾値以下である場合には、前記車線グループの登録を抹消するとともに、少なくとも前記車線候補点を検出された前記車線候補点から削除することを特徴とする。   According to a second aspect of the present invention, in the lane detection device according to the first aspect, the lane candidate point detection means detects an end point of the lane corresponding to the lane candidate point, and the lane candidate point and the end point of the lane The group existing between and is detected and registered as a lane group, and if the vertical length of the lane group in the image is equal to or less than a predetermined threshold, the registration of the lane group is deleted. In addition, at least the lane candidate point is deleted from the detected lane candidate point.

第3の発明は、第2の発明の車線検出装置において、前記車線候補点検出手段は、検出した前記車線グループのうち、面積が最大の前記車線グループを登録し、登録した前記車線グループの前記面積または横方向の長さが所定の閾値以上である場合には、前記車線グループの登録を抹消するとともに、少なくとも前記車線候補点を検出された前記車線候補点から削除することを特徴とする。   According to a third aspect of the present invention, in the lane detection device of the second aspect, the lane candidate point detection means registers the lane group having the largest area among the detected lane groups, and the lane group of the registered lane group When the area or the length in the horizontal direction is equal to or greater than a predetermined threshold value, the registration of the lane group is deleted, and at least the lane candidate point is deleted from the detected lane candidate point.

第4の発明は、第2または第3の発明の車線検出装置において、前記車線候補点検出手段は、前記車線グループに属する各画素については前記車線候補点の探索を行わず、前記車線グループには属さなくなった画素であって、前記車線グループとの輝度の差が所定の閾値以下であり、かつ、隣接する画素との輝度差が所定の閾値以下である画素を前記車線の終了点として検出することを特徴とする。   According to a fourth aspect of the present invention, in the lane detection device of the second or third aspect, the lane candidate point detection means does not search the lane candidate point for each pixel belonging to the lane group, and Is a pixel that no longer belongs, and a pixel whose luminance difference with the lane group is equal to or smaller than a predetermined threshold and whose luminance difference with an adjacent pixel is equal to or smaller than a predetermined threshold is detected as an end point of the lane It is characterized by doing.

第5の発明は、第2から第4のいずれかの発明の車線検出装置において、前記車線候補点検出手段は、前記車線グループに属する各画素については前記車線候補点の探索を行わず、前記車線グループには属さなくなった画素が前記道路面グループに属する場合には当該画素を前記車線の終了点として検出することを特徴とする。   According to a fifth aspect of the present invention, in the lane detection device according to any one of the second to fourth aspects, the lane candidate point detection means does not search the lane candidate point for each pixel belonging to the lane group, When a pixel that does not belong to a lane group belongs to the road surface group, the pixel is detected as an end point of the lane.

第6の発明は、第1から第5のいずれかの発明の車線検出装置において、前記車線検出手段は、前記車線の候補としての直線を1本以上抽出し、前記各直線の近傍に存在する前記車線候補点の連続性に基づいて前記各直線の種別を判定し、少なくとも前記直線の種別および前記各直線の近傍に存在する前記車線候補点の数に基づいて算出した信頼度に基づいて前記各直線の中から前記車線を表す直線を選択することを特徴とする。   According to a sixth aspect of the present invention, in the lane detection device according to any one of the first to fifth aspects, the lane detection means extracts one or more straight lines as lane candidates and exists in the vicinity of the straight lines. The type of each straight line is determined based on the continuity of the lane candidate points, and based on the reliability calculated based on at least the type of the straight line and the number of lane candidate points existing in the vicinity of each straight line. A straight line representing the lane is selected from each straight line.

第7の発明は、第6の発明の車線検出装置において、
前記直線の種別は、前記各直線の近傍に存在する前記車線候補点の連続性に基づいて前記直線が少なくとも連続線状、破線状、またはそれらの組み合わせに該当するか判定され、
前記車線候補点の連続性は、前記車線候補点同士の前記画像上での距離または実空間上の距離に基づいて判定され、同一の前記グループに属する前記車線候補点ついては前記判定にかかわりなく連続であると判定されることを特徴とする。
7th invention is the lane detection apparatus of 6th invention,
The type of the straight line is determined based on the continuity of the lane candidate points existing in the vicinity of each straight line, whether the straight line corresponds to at least a continuous line shape, a broken line shape, or a combination thereof,
The continuity of the lane candidate points is determined based on the distance between the lane candidate points on the image or the distance in real space, and the lane candidate points belonging to the same group are continuous regardless of the determination. It is judged that it is.

第1の発明によれば、車線候補点検出手段で、車線候補点を探索するための探索領域を設定せず、道路面グループ以外の画像部分すなわちアスファルト面等の道路面の地の部分以外の道路面部分を探索して車線候補点を検出する。そのため、例えば、右折レーンに分岐する車線に対応する車線候補点(図26等参照)や、二重車線における内側の車線に対応する車線候補点(後述する図24等参照)等だけでなく、自車両が走行しようとしている本線に対応する車線候補点や、二重車線における外側の車線に対応する車線候補点等も的確に検出することが可能となる。   According to the first invention, the lane candidate point detecting means does not set the search area for searching for the lane candidate point, and other than the image portion other than the road surface group, that is, the ground portion of the road surface such as the asphalt surface. Search for road surface parts to detect lane candidate points. Therefore, for example, not only the lane candidate point corresponding to the lane that branches to the right turn lane (see FIG. 26, etc.), the lane candidate point corresponding to the inner lane in the double lane (see FIG. 24, etc. described later), etc. It is possible to accurately detect lane candidate points corresponding to the main line that the host vehicle is about to travel, lane candidate points corresponding to the outer lane in the double lane, and the like.

そのため、車線が分岐するような場合であっても、それらの車線候補点に基づいて自車両が走行しようとしている本線に対応する車線を的確に検出して、撮像された画像中から自車両の走行路に標示された車線を的確に検出することが可能となる。また、車線が二重車線であるような場合には、消えかかっている内側の車線ではなく、或いはそれとともに外側の車線を的確かつ安定的に検出することが可能となり、撮像された画像中から自車両の走行路に標示された車線を的確に検出することが可能となる。   Therefore, even if the lane is branched, the lane corresponding to the main line that the host vehicle is about to travel is accurately detected based on the lane candidate points, and the lane of the host vehicle is detected from the captured image. It becomes possible to accurately detect the lane marked on the road. In addition, when the lane is a double lane, it is possible to accurately and stably detect not the inner lane that is disappearing or the outer lane together with it, from the captured image. It becomes possible to accurately detect the lane marked on the traveling path of the host vehicle.

また、車線候補点検出手段では、道路面検出手段で検出した道路面グループ(例えば後述する図17の道路面グループG1〜G4参照)以外の画像部分で車線候補点を探索して検出する。その際、高輝度の車線に対応する車線候補点は暗い輝度の路面領域に対応する道路面グループ内には属しておらず、道路面グループに属する画素については探索を行う必要がないため、道路面グループでは探索を行わずにスキップすることが可能となる。また、車線候補点を検出する際に用いられる道路面グループの平均輝度は統合手段で既に算出しているため、従来の車線検出のように、膨大な量のヒストグラムを作成して、改めて道路面に対応する画素の輝度の平均値等を算出する必要がない。   The lane candidate point detection means searches for and detects lane candidate points in image portions other than the road surface group detected by the road surface detection means (for example, see road surface groups G1 to G4 in FIG. 17 described later). At that time, the lane candidate point corresponding to the high-brightness lane does not belong to the road surface group corresponding to the dark road surface area, and it is not necessary to perform a search for the pixels belonging to the road surface group. In the face group, it is possible to skip without searching. In addition, since the average brightness of the road surface group used when detecting the lane candidate points has already been calculated by the integration means, a huge amount of histogram is created and the road surface is newly created as in the conventional lane detection. It is not necessary to calculate the average value of the luminance of the pixels corresponding to.

そのため、車線候補点を高速に検出することが可能となり、車線検出手段でそれらの車線候補点に基づいて車線を高速に検出することが可能となる。そのため、例えば1秒間に数フレームから数十フレーム分の画像が撮像されてデータが入力されてくるような場合でも、車線を迅速に検出することが可能となり、車線検出をリアルタイムで実行することが可能となる。   Therefore, it becomes possible to detect lane candidate points at high speed, and it becomes possible to detect lanes at high speed based on those lane candidate points by the lane detection means. For this reason, for example, even when images of several frames to several tens of frames are captured and data is input per second, it is possible to detect lanes quickly and to execute lane detection in real time. It becomes possible.

第2の発明によれば、前記発明の効果に加え、統合手段で画像の各画素をグループ化することで、各グループの画素数や画像中の縦方向の長さがグループ化した時点で判明する。そのため、車線候補点検出手段で検出した車線候補点に対応する車線グループの大きさが小さい場合には、その車線候補点を画像中に写り込んだ高輝度のノイズ等に対応するものとして車線候補点の登録を抹消することができる。そのため、車線候補点の誤検出を的確に防止することが可能となり、最終的に検出された車線の検出の信頼性を向上させることが可能となる。   According to the second invention, in addition to the effects of the above invention, the number of pixels in each group and the length in the vertical direction in the image are grouped by grouping each pixel of the image by the integrating means. To do. Therefore, when the size of the lane group corresponding to the lane candidate point detected by the lane candidate point detecting means is small, the lane candidate is assumed to correspond to high-intensity noise or the like that is reflected in the image. The registration of points can be deleted. As a result, erroneous detection of lane candidate points can be prevented accurately, and the reliability of detection of the finally detected lane can be improved.

第3の発明によれば、第2の発明の場合とは逆に、車線候補点検出手段で検出した車線候補点に対応する車線グループの大きさが異常に大きい場合には、その車線候補点は、画像中に撮像された道路脇に堆積された雪等に対応するものと考えられる。そのため、そのような場合にも車線候補点の登録を抹消することで、車線候補点の誤検出を的確に防止することが可能となり、前記各発明の効果を的確に発揮させることが可能となる。   According to the third invention, contrary to the case of the second invention, when the size of the lane group corresponding to the lane candidate point detected by the lane candidate point detecting means is abnormally large, the lane candidate point Is considered to correspond to snow or the like deposited on the side of the road imaged in the image. Therefore, even in such a case, by deleting the registration of the lane candidate points, it becomes possible to prevent erroneous detection of the lane candidate points accurately, and it is possible to exert the effects of the above inventions accurately. .

第4の発明によれば、車線候補点と車線の終了点との間に存在する車線グループに属する各画素について車線候補点の探索を行わずにスキップすることで、車線候補点の検出をより高速に行うことが可能となり、前記各発明の効果を的確に発揮させることが可能となる。   According to the fourth invention, the detection of the lane candidate point is further performed by skipping each pixel belonging to the lane group existing between the lane candidate point and the lane end point without searching for the lane candidate point. It becomes possible to perform at high speed, and it becomes possible to exhibit the effect of each said invention exactly.

第5の発明によれば、車線候補点と車線の終了点との間に存在する車線グループに属する各画素について車線候補点の探索を行わずにスキップすることで、車線候補点の検出をより高速に行うことが可能となる。また、それとともに、車線グループから別のグループに探索画素が移行する際、そのグループが道路面グループである場合には、車線グループから道路面グループに切り替わる画素を車線の終了点として検出することができるため、そのような場合に、当該画素を車線の終了点として検出することで、当該画素が車線の終了点であるか否かの判定処理を行う必要がなくなる。そのため、車線候補点の検出をより高速に行うことが可能となり、前記各発明の効果を的確に発揮させることが可能となる。   According to the fifth invention, the detection of the lane candidate point is further performed by skipping each pixel belonging to the lane group existing between the lane candidate point and the lane end point without searching for the lane candidate point. It can be performed at high speed. At the same time, when the search pixel moves from the lane group to another group, if the group is a road surface group, the pixel that switches from the lane group to the road surface group can be detected as the end point of the lane. Therefore, in such a case, by detecting the pixel as the end point of the lane, it is not necessary to perform a determination process as to whether or not the pixel is the end point of the lane. Therefore, it becomes possible to detect the lane candidate points at higher speed, and it is possible to accurately exhibit the effects of the respective inventions.

第6の発明によれば、検出した複数の車線候補点に基づいて、例えばハフ変換等の手法により車線の候補となる複数の直線が抽出される場合がある。そのような場合に、直線の種別や、各直線の近傍に存在する車線候補点の数に基づいて各直線の信頼度を算出し、算出した信頼度に基づいて各直線の中から車線を表す直線を選択することで、撮像された画像中から自車両の走行路に標示された車線を近似するにふさわしい直線を的確に選択して検出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   According to the sixth aspect of the present invention, a plurality of straight lines that are lane candidates may be extracted based on the detected plurality of lane candidate points, for example, by a technique such as Hough transform. In such a case, the reliability of each straight line is calculated based on the type of straight line and the number of lane candidate points existing in the vicinity of each straight line, and the lane is represented from each straight line based on the calculated reliability. By selecting a straight line, it becomes possible to accurately select and detect a straight line suitable for approximating the lane marked on the traveling path of the host vehicle from the captured image, and more accurately achieve the effects of the above inventions. Can be demonstrated.

第7の発明によれば、直線の種別として、各直線の近傍に存在する車線候補点の連続性に基づいて直線が連続線状であるか破線状であるか等を判定することで、各直線の信頼度を的確に算出することが可能となり、検出された車線を近似する直線の信頼性をより向上させることが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   According to the seventh invention, as the type of straight line, by determining whether the straight line is a continuous line or a broken line based on the continuity of lane candidate points existing in the vicinity of each straight line, It becomes possible to accurately calculate the reliability of a straight line, to further improve the reliability of a straight line that approximates a detected lane, and to exhibit the effects of the respective inventions more accurately. .

本実施形態に係る車線検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the lane detection apparatus which concerns on this embodiment. 撮像手段で撮像される画像の例を示す図である。It is a figure which shows the example of the image imaged with an imaging means. 統合手段における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in an integration means. 統合手段における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in an integration means. 統合手段における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in an integration means. 道路面検出手段における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in a road surface detection means. 推定軌跡および進行路を説明する図である。It is a figure explaining an estimation locus and a course. 画像中に設定されたチェック領域を説明する写真である。It is a photograph explaining the check area set in the image. 入力画素と既に入力されている左に隣接する画素とを説明する図である。It is a figure explaining the input pixel and the pixel adjacent to the left already input. 入力画素と左に隣接する画素が属するグループの例とを説明する図である。It is a figure explaining the example of the group to which an input pixel and the pixel adjacent on the left belong. 入力画素と既に入力されている下に隣接する画素とを説明する図である。It is a figure explaining the input pixel and the pixel adjacent under the already input. 入力画素と下に隣接する画素が属するグループの例とを説明する図である。It is a figure explaining the example of the group to which an input pixel and the adjacent pixel below belong. (A)2つの画素が入力画素の左と下に隣接するグループの例を説明する図であり、(B)入力画素が左に隣接する画素とグループ化されて下に隣接する画素ともグループ化される例を説明する図である。(A) It is a figure explaining the example of the group which two pixels adjoin to the left and the bottom of an input pixel, (B) The input pixel is grouped with the pixel which adjoins to the left, and the pixel which adjoins below is also grouped It is a figure explaining the example to be done. (A)下に隣接する画素が属するグループと左に隣接する画素が属するグループの例を説明する図であり、(B)2つのグループが入力画素とグループ化されて1つのグループになる例を説明する図である。(A) It is a figure explaining the example of the group to which the lower adjacent pixel belongs, and the group to which the left adjacent pixel belongs, (B) The example which two groups are grouped with an input pixel and become one group It is a figure explaining. 図8の画像に基づいて統合された複数のグループを表す写真である。It is a photograph showing the some group integrated based on the image of FIG. 車線に連続して標示された停止線の例を示す図である。It is a figure which shows the example of the stop line marked continuously on the lane. 図8の画像から抽出された道路面グループを表す写真である。It is a photograph showing the road surface group extracted from the image of FIG. 画像T上での位置が算出された推定軌跡を表す図である。It is a figure showing the presumed locus | trajectory from which the position on the image T was calculated. 水平ライン上を探索した場合の探索画素の輝度の推移および車線候補点等を表す図である。It is a figure showing the transition of the brightness | luminance of a search pixel, a lane candidate point, etc. when searching on a horizontal line. 図26の画像上に検出される車線候補点を表す写真である。It is a photograph showing the lane candidate point detected on the image of FIG. ハフ平面の例および升目を説明する図である。It is a figure explaining the example of a Hough plane, and a cell. 図20の各車線候補点に基づいて抽出された各直線を表す写真である。It is a photograph showing each straight line extracted based on each lane candidate point of FIG. 図20の画像上に検出された自車両の走行路に標示された車線を表す写真である。FIG. 21 is a photograph showing a lane marked on the travel path of the host vehicle detected on the image of FIG. 20. 本実施形態に係る車線検出装置で検出された二重車線を表す写真である。It is a photograph showing the double lane detected with the lane detector concerning this embodiment. 従来の検出手法で検出された二重車線を表す写真である。It is a photograph showing the double lane detected by the conventional detection method. 従来の検出手法では車線分岐で右折レーンに分岐する車線に対応する車線候補点が検出され、本線に対応する車線候補点は検出されないことを表す写真である。It is a photograph showing that a lane candidate point corresponding to a lane branching to a right turn lane at a lane branch is detected in a conventional detection method, and a lane candidate point corresponding to a main line is not detected.

以下、本発明に係る車線検出装置の実施の形態について、図面を参照して説明する。   Embodiments of a lane detection device according to the present invention will be described below with reference to the drawings.

本実施形態に係る車線検出装置1は、図1に示すように、主に撮像手段2と処理部5とで構成されている。撮像手段2は、本実施形態では、例えばCCDやCMOSセンサ等のイメージセンサが内蔵されたカメラ等の単眼の撮像手段が用いられているが、複数設けられた撮像手段のうちの単数または複数の撮像手段により撮像された単数または複数の画像に対して本発明に係る処理を施すように構成することも可能である。   As shown in FIG. 1, the lane detection device 1 according to the present embodiment mainly includes an imaging unit 2 and a processing unit 5. In the present embodiment, the imaging unit 2 is a monocular imaging unit such as a camera with a built-in image sensor such as a CCD or CMOS sensor. However, a single or a plurality of imaging units 2 are provided. It is also possible to configure so that the processing according to the present invention is performed on one or a plurality of images picked up by the image pickup means.

また、本実施形態では、撮像手段2は、例えば図2に示すような画像Tを撮像する場合、画像Tの各水平ラインjの最も左側の撮像素子から順に右方向に走査し、また、走査する水平ラインjを最も下側のラインから順に上方に切り替えながら撮像するようにして、各撮像素子で撮像された順に輝度Dの各データを変換手段3に順次送信するようになっている。   Further, in the present embodiment, for example, when an image T as shown in FIG. 2 is captured, the imaging unit 2 scans in the right direction sequentially from the leftmost imaging element of each horizontal line j of the image T. The horizontal line j to be picked up is picked up while switching upward from the lowermost line in order, and each data of the luminance D is sequentially transmitted to the conversion means 3 in the order picked up by each image pickup device.

変換手段3は、A/Dコンバータで構成されており、撮像手段2で各撮像素子(各画素p)ごとに撮像された輝度Dの各データが順次送信されてくると、各画素pの輝度Dのデータをそれぞれ例えば256階調等のグレースケールのデジタル値の輝度Dのデータに変換して画像補正部4に出力するようになっている。画像補正部4は、送信されてきた輝度Dの各データに対してずれやノイズの除去、輝度の補正等の画像補正を順次行い、画像補正した輝度Dの各データを処理部5に順次送信するようになっている。   The conversion means 3 is composed of an A / D converter, and when the data of the luminance D imaged for each imaging element (each pixel p) by the imaging means 2 is sequentially transmitted, the luminance of each pixel p. The D data is converted into luminance D data of a gray scale digital value such as 256 gradations and output to the image correction unit 4. The image correction unit 4 sequentially performs image correction such as displacement and noise removal, luminance correction, and the like on the transmitted data of the luminance D, and sequentially transmits the image corrected luminance D data to the processing unit 5. It is supposed to be.

処理部5は、本実施形態では、図示しないCPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)、入出力インターフェース等がバスに接続されたコンピュータで構成されている。処理部5は、統合手段6や道路面検出手段7と、車線候補点検出手段8と、車線検出手段9を備えている。   In this embodiment, the processing unit 5 is configured by a computer in which a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an input / output interface, and the like (not shown) are connected to a bus. The processing unit 5 includes integration means 6, road surface detection means 7, lane candidate point detection means 8, and lane detection means 9.

また、処理部5に、車速センサやヨーレートセンサ、ステアリングホイールの舵角を測定する舵角センサ等のセンサ類Qが接続されており、それらから各測定値が入力されるようになっている。なお、処理部5において、さらに、他の処理を行うように構成することも可能である。   Sensors Q such as a vehicle speed sensor, a yaw rate sensor, and a steering angle sensor for measuring the steering angle of the steering wheel are connected to the processing unit 5, and each measurement value is input from them. Note that the processing unit 5 may be configured to perform other processing.

なお、以下の説明では、例えば図2に示した画像Tにおける画素について、画像Tの左下隅の画素を原点とし、右向きにi軸、上向きにj軸をとった場合の画素の座標(i,j)を用いて、画素pi,jのように表す。また、画素pi,jの輝度DをDi,jのように表す。   In the following description, for example, with respect to the pixels in the image T shown in FIG. 2, the coordinates of the pixels (i, i, i) and (i, j) is used to represent a pixel pi, j. Further, the luminance D of the pixel pi, j is expressed as Di, j.

本実施形態では、撮像手段2から画像Tの各画素pの輝度Dのデータが順次入力されてくると、統合手段6は、入力された画素pi,j(以下、入力画素pi,jという。)の輝度Di,jと、入力画素pi,jに隣接する画素pの輝度Dとを比較し、また、入力画素pi,jの輝度Di,jと、それに隣接する画素pが属するグループgに属する全画素pの各輝度Dの平均値とを比較して、後述する条件に適合する場合に入力画素pi,jと隣接する画素pとを1つのグループgに統合するようになっている。   In the present embodiment, when the data of the luminance D of each pixel p of the image T is sequentially input from the imaging unit 2, the integration unit 6 refers to the input pixel pi, j (hereinafter referred to as input pixel pi, j). ) And the luminance D of the pixel p adjacent to the input pixel pi, j are compared with the luminance Di, j of the input pixel pi, j and the group g to which the adjacent pixel p belongs. The average value of each luminance D of all the pixels p to which it belongs is compared, and the input pixel pi, j and the adjacent pixel p are integrated into one group g when the conditions described later are met.

この統合処理は、上記のように画像Tの各画素pの輝度Dのデータが順次入力されてくるごとに行われ、最終的に、送信されてきた1画像分の全画素pについて行われて、画像Tの各画素pが複数のグループgに分割されるようになっている。   This integration processing is performed every time the luminance D data of each pixel p of the image T is sequentially input as described above, and is finally performed for all the pixels p of one image transmitted. Each pixel p of the image T is divided into a plurality of groups g.

また、道路面検出手段7は、統合手段6により統合されたグループgの平均輝度と面積がそれぞれ所定の閾値の範囲内である場合に、当該グループgを道路面グループGとして検出するようになっている。   The road surface detection means 7 detects the group g as the road surface group G when the average luminance and area of the group g integrated by the integration means 6 are within a predetermined threshold range. ing.

以下、図3〜図6のフローチャートに従って、統合手段6と道路面検出手段7における処理について説明する。   Hereinafter, the processing in the integration unit 6 and the road surface detection unit 7 will be described with reference to the flowcharts of FIGS.

統合手段6は、撮像手段2により今回のサンプリング周期での撮像が開始されると(図3のステップS1)、まず、その時点でセンサ類Qから入力された自車両の車速Vやヨーレートγ、ステアリングホイールの舵角δ等の情報に基づいて自車両の旋回曲率Cuaを算出し、チェック領域Rを設定するようになっている(ステップS2)。   When the imaging unit 2 starts imaging in the current sampling cycle (step S1 in FIG. 3), the integrating unit 6 firstly has the vehicle speed V and yaw rate γ of the host vehicle input from the sensors Q at that time. The turning curvature Cua of the host vehicle is calculated based on information such as the steering angle δ of the steering wheel, and the check region R is set (step S2).

後述するように、道路面検出手段7はグループgの平均輝度や面積に基づいて道路面グループGを検出するが、その際、空に対応するグループg(後述する図15のグループgsky参照)等を道路面グループGとして検出してしまう可能性がある。そこで、本実施形態では、統合手段6は、自車両の挙動情報に基づいて今後進行すると推定される進行路領域を算出し、その進行路領域において、ある程度の画素を有するグループgを動路面グループとして検出する。具体的には、まず、自車両の車速Vやヨーレートγ、ステアリングホイールの舵角δ等の情報に基づいて自車両の旋回曲率Cuaを下記(1)式または下記(2)、(3)式に従って算出する。   As will be described later, the road surface detection means 7 detects the road surface group G based on the average luminance and area of the group g. At this time, the group g corresponding to the sky (see group gsky in FIG. 15 described later), etc. May be detected as the road surface group G. Therefore, in the present embodiment, the integration unit 6 calculates a traveling path area that is estimated to proceed in the future based on the behavior information of the host vehicle, and sets a group g having a certain number of pixels in the traveling path area as a road surface group. Detect as. Specifically, first, based on information such as the vehicle speed V and yaw rate γ of the host vehicle, the steering angle δ of the steering wheel, the turning curvature Cua of the host vehicle is expressed by the following formula (1) or the following formulas (2) and (3): Calculate according to

Cua=γ/V …(1)
Re=(1+Asf・V)・(Lwb/δ) …(2)
Cua=1/Re …(3)
ここで、上記の各式において、Reは旋回半径、Asfは車両のスタビリティファクタ、Lwbはホイールベースである。
Cua = γ / V (1)
Re = (1 + Asf · V 2 ) · (Lwb / δ) (2)
Cua = 1 / Re (3)
Here, in each of the above equations, Re is a turning radius, Asf is a vehicle stability factor, and Lwb is a wheelbase.

そして、図7に示すように、算出した自車両MCの旋回曲率Cuaに基づいて自車両が今後進行すると推定される推定軌跡Lestを算出し、その推定軌跡Lestを中心として左右方向に所定距離離間した位置までの範囲を自車両MCの進行路として算出する。そして、例えば図8に示すように、上記範囲すなわち自車両MCの進行路を画像T上に割り当てることで、画像T中にチェック領域Rを設定し、チェック領域R内に少なくともある程度の画素を有するグループgを道路面グループGとして検出するようになっている。   Then, as shown in FIG. 7, based on the calculated turning curvature Cua of the host vehicle MC, an estimated trajectory Lest that the host vehicle is estimated to travel in the future is calculated, and a predetermined distance apart in the left-right direction around the estimated trajectory Lest. The range up to the determined position is calculated as the traveling path of the host vehicle MC. Then, for example, as shown in FIG. 8, by assigning the above range, that is, the traveling path of the host vehicle MC, on the image T, a check region R is set in the image T, and at least some pixels are included in the check region R. The group g is detected as the road surface group G.

なお、チェック領域Rを、例えば、過去のサンプリング周期で検出された車線の位置の情報とその後の自車両の挙動から今回のサンプリング周期における車線の位置を推定し、推定された車線の位置を左右端とする領域として設定することも可能である。また、図8や後述する図15等では、空や街路樹に対応するグループgsky、gtreeがグループ化される可能性があることを示すために、CCDカメラ等の撮像手段2を意図的に上向きに設置して撮像された図が示されている。   The check region R is estimated by, for example, estimating the position of the lane in the current sampling period from the information on the position of the lane detected in the past sampling period and the subsequent behavior of the host vehicle, and changing the position of the estimated lane to the left and right. It is also possible to set the area as an edge. Further, in FIG. 8 and FIG. 15 to be described later, in order to indicate that the groups gsky and gtree corresponding to the sky and the roadside tree may be grouped, the image pickup means 2 such as a CCD camera is intentionally turned upward. The figure which was installed and imaged is shown.

続いて、統合手段6は、撮像手段2から最初に画素pi,jの輝度Di,jのデータが送られてくる画像Tのj=0の水平ラインjすなわち水平ライン0における画素数閾値Nth(0)を算出して設定し(図3のステップS3)、iおよびjの値としてそれぞれ0を設定するようになっている(ステップS4)。   Subsequently, the integration unit 6 first receives the data of the brightness Di, j of the pixel pi, j from the image pickup unit 2, and the pixel number threshold value Nth ( 0) is calculated and set (step S3 in FIG. 3), and 0 is set as the values of i and j (step S4).

ここで、画素数閾値Nthは、道路面上に標示される横断歩道の各白線ブロック等に対応するグループgを道路面グループGとして検出しないようにするための閾値であり、例えば、実空間上の横幅として60cmの横幅に設定される。   Here, the pixel number threshold Nth is a threshold for preventing the group g corresponding to each white line block of the pedestrian crossing marked on the road surface from being detected as the road surface group G. For example, in the real space The horizontal width is set to 60 cm.

この実空間上の横幅を、例えば一対のCCDカメラ等で撮像された一対の画像に基づくステレオマッチング等の手法で算出することも可能であるが、本実施形態では、予め画像Tの水平ラインjごとに1画素あたりの実空間上の横方向の横幅を算出しておき、統合手段6は、水平ラインjごとに実空間上の60cmの横幅に対応する画素数を算出して当該水平ラインjにおける画素数閾値Nthとして割り当てるようになっている。   The horizontal width in the real space can be calculated by a technique such as stereo matching based on a pair of images captured by a pair of CCD cameras, for example. In this embodiment, the horizontal line j of the image T is previously stored. For each horizontal line, the horizontal width in the real space is calculated for each pixel, and the integration unit 6 calculates the number of pixels corresponding to the horizontal width of 60 cm in the real space for each horizontal line j to calculate the horizontal line j Is assigned as the pixel number threshold Nth.

前述したように、撮像手段2で撮像された水平ライン0上の左端の画素p0,0(すなわち原点の画素)の輝度D0,0のデータの入力が開始されると(ステップS5)、処理部5には画素p1,0、p2,0、p3,0、…の輝度D1,0、D2,0、D3,0、…のデータが順次入力されてくる。そして、統合手段6は、水平ラインjの右端の画素まで統合処理を完了していなければ(ステップS6;NO)、i座標を1ずつインクリメントしながら統合処理を続行する(ステップS7)。   As described above, when the input of the luminance D0,0 data of the leftmost pixel p0,0 (that is, the origin pixel) on the horizontal line 0 imaged by the imaging means 2 is started (step S5), the processing unit .., Data of luminance D1,0, D2,0, D3,0,... Of pixels p1,0, p2,0, p3,0,. Then, if the integration process has not been completed up to the rightmost pixel of the horizontal line j (step S6; NO), the integration unit 6 continues the integration process while incrementing the i coordinate by one (step S7).

また、水平ラインjの右端の画素まで統合処理を完了すると(ステップS6;YES)、統合手段6は、画像Tの最上段の水平ラインまで統合処理が終了していなければ(ステップS8;NO)、jをインクリメントし、iに0を設定して(ステップS9)、統合処理を行う水平ラインを1行上方の水平ラインjに移行させて統合処理を続行する。その際、統合手段6は、移行させた水平ラインjにおける画素数閾値Nth(j)を算出して設定する(ステップS10)。   When the integration process is completed up to the rightmost pixel of the horizontal line j (step S6; YES), the integration unit 6 does not complete the integration process up to the uppermost horizontal line of the image T (step S8; NO). , J is incremented, i is set to 0 (step S9), the horizontal line to be integrated is shifted to the horizontal line j one row above, and the integration process is continued. At that time, the integration unit 6 calculates and sets a pixel number threshold Nth (j) in the shifted horizontal line j (step S10).

次に、図4のステップS11以降の処理について説明する。統合手段6は、まず、入力画素pi,jと、図9に示すように入力画素pi,jが入力するより以前に入力されていて入力画素pi,jの左に隣接する画素pi-1,jについて、下記の条件1や条件2を満たすか否かの判定を行う(ステップS11)。   Next, the process after step S11 of FIG. 4 is demonstrated. First, the integration means 6 inputs an input pixel pi, j and a pixel pi-1, which is input before the input pixel pi, j and is adjacent to the left of the input pixel pi, j as shown in FIG. For j, it is determined whether or not the following condition 1 and condition 2 are satisfied (step S11).

[条件1]入力画素pi,jの輝度Di,jと、左に隣接する画素pi-1,jの輝度Di-1,jとの差分ΔDleft(i,j)、すなわち、
ΔDleft(i,j)=|Di,j−Di-1,j| …(4)
が、予め設定された第1輝度閾値ΔDth未満である。以下、上記のような隣接する画素間の輝度Dの差分ΔDをエッジ強度という。
[Condition 1] The difference ΔDleft (i, j) between the luminance Di, j of the input pixel pi, j and the luminance Di-1, j of the pixel pi-1, j adjacent to the left, that is,
ΔDleft (i, j) = | Di, j−Di−1, j | (4)
Is less than a preset first luminance threshold value ΔDth. Hereinafter, the difference ΔD in luminance D between adjacent pixels as described above is referred to as edge strength.

[条件2]図10に示すように、入力画素pi,jの輝度Di,jと、左に隣接する画素pi-1,jが属するグループgに属する全画素の輝度Dの平均値Dave-leftとの差分δDleft(i,j)、すなわち、
δDleft(i,j)=|Di,j−Dave-left| …(5)
が、予め設定された第2輝度閾値δDth未満である。以下、上記のように入力画素pi,jの輝度Di,jと隣接する画素が属するグループgの輝度Dの平均値Daveとの差分δDを平均値差分という。
[Condition 2] As shown in FIG. 10, the average value Dave-left of the luminance D i, j of the input pixel p i, j and the luminance D of all the pixels belonging to the group g to which the adjacent pixel p i-1, j on the left belongs. Difference δDleft (i, j), that is,
δDleft (i, j) = | Di, j−Dave-left | (5)
Is less than the preset second luminance threshold value δDth. Hereinafter, as described above, the difference δD between the luminance Di, j of the input pixel pi, j and the average value Dave of the luminance D of the group g to which the adjacent pixel belongs is referred to as an average value difference.

なお、隣接する画素が属するグループgの輝度Dの平均値Daveは、後述する図5のステップS25の算出処理で算出されている。また、左に隣接する画素pi-1,jが属するグループgが当該左に隣接する画素pi-1,jのみで構成されている場合もあり、その場合、グループgに属する全画素の輝度Dの平均値Dave-leftは、当該左に隣接する画素pi-1,jの輝度Di-1,jに等しい。さらに、本実施形態では、第1輝度閾値ΔDthと第2輝度閾値δDthとは同じ値に設定されているが、異なる値に設定されてもよく、適宜設定される。また、第1輝度閾値ΔDthと第2輝度閾値δDthの値を状況に応じて可変させて設定することも可能である。   Note that the average value Dave of the luminance D of the group g to which the adjacent pixel belongs is calculated by the calculation process in step S25 of FIG. In some cases, the group g to which the pixel pi-1, j adjacent to the left belongs is composed of only the pixel pi-1, j adjacent to the left, and in this case, the luminance D of all the pixels belonging to the group g. The average value Dave-left is equal to the luminance Di-1, j of the pixel pi-1, j adjacent to the left. Furthermore, in the present embodiment, the first luminance threshold value ΔDth and the second luminance threshold value δDth are set to the same value, but may be set to different values and set as appropriate. Further, the values of the first luminance threshold value ΔDth and the second luminance threshold value δDth can be set to be variable according to the situation.

統合手段6は、条件1と条件2をともに満たすと判定した場合には(ステップS11;YES)、ステップS12の判定処理に進み、条件1と条件2の少なくとも一方を満たさないと判定した場合には(ステップS11;NO)、ステップS15の判定処理に進む。   If the integration unit 6 determines that both the condition 1 and the condition 2 are satisfied (step S11; YES), the integration unit 6 proceeds to the determination process in step S12, and determines that at least one of the condition 1 and the condition 2 is not satisfied. (Step S11; NO), the process proceeds to the determination process of step S15.

統合手段6は、ステップS11の判定処理で、条件1と条件2をともに満たすと判定すると(ステップS11;YES)、続いて、入力画素pi,jと、図11に示すように入力画素pi,jが入力されるより以前に入力されていて入力画素pi,jの下に隣接する画素pi,j-1について、上記と同様に、下記の条件3や条件4を満たすか否かの判定を行う(ステップS12)。   If the integration unit 6 determines in the determination process in step S11 that both condition 1 and condition 2 are satisfied (step S11; YES), then the integration unit 6 continues to input pixel pi, j and input pixel pi, j as shown in FIG. In the same manner as described above, it is determined whether or not the following condition 3 or condition 4 is satisfied for the pixel pi, j-1 that is input before j is input and is adjacent to the input pixel pi, j. It performs (step S12).

[条件3]入力画素pi,jの輝度Di,jと、下に隣接する画素pi,j-1の輝度Di,j-1とのエッジ強度ΔDlower(i,j)、すなわち、
ΔDlower(i,j)=|Di,j−Di,j-1| …(6)
が、予め設定された前述した第1輝度閾値ΔDth未満である。
[Condition 3] Edge intensity ΔDlower (i, j) between the luminance Di, j of the input pixel pi, j and the luminance Di, j-1 of the pixel pi, j-1 adjacent below, that is,
ΔDlower (i, j) = | Di, j−Di, j−1 | (6)
Is less than the preset first luminance threshold value ΔDth.

[条件4]図12に示すように、入力画素pi,jの輝度Di,jと、下に隣接する画素pi,j-1が属するグループgに属する全画素の輝度Dの平均値Dave-lowerとの平均値差分δDlower(i,j)、すなわち、
δDlower(i,j)=|Di,j−Dave-lower| …(7)
が、予め設定された前述した第2輝度閾値δDth未満である。
[Condition 4] As shown in FIG. 12, the average value Dave-lower of the luminance D i, j of the input pixel p i, j and the luminance D of all the pixels belonging to the group g to which the adjacent pixel p i, j−1 belongs. Mean value difference δDlower (i, j), that is,
δDlower (i, j) = | Di, j−Dave-lower | (7)
Is less than the preset second luminance threshold value δDth.

そして、統合手段6は、条件3と条件4の少なくとも一方を満たさないと判定した場合には(ステップS12;NO)、入力画素pi,jを、下に隣接する画素pi,j-1とは統合しないが、ステップS11の判定処理で上記の条件1と条件2を満たすと判定しているため、入力画素pi,jと左に隣接する画素pi-1,jとを1つのグループに統合する(ステップS13)。   When the integration unit 6 determines that at least one of the condition 3 and the condition 4 is not satisfied (step S12; NO), the integration unit 6 defines the input pixel pi, j as the pixel pi, j-1 adjacent thereto below. Although not integrated, since it is determined in the determination process in step S11 that the above conditions 1 and 2 are satisfied, the input pixel pi, j and the pixel pi-1, j adjacent to the left are integrated into one group. (Step S13).

その際、例えば図9に示したように、左に隣接する画素pi-1,jが他の画素とグループ化されていなければ、入力画素pi,jと左に隣接する画素pi-1,jとが1つのグループに統合されて、左右に隣接する2つの画素からなるグループが新たに形成される。また、例えば図10に示したように、左に隣接する画素pi-1,jが他の画素と統合されていてグループgに属していれば、入力画素pi,jがグループgに追加されるように統合され、グループgが入力画素pi,jの分だけ1画素分拡大する。   At this time, as shown in FIG. 9, for example, if the pixel pi-1, j adjacent to the left is not grouped with other pixels, the pixel pi-1, j adjacent to the input pixel pi, j is left. Are integrated into one group, and a group of two adjacent pixels on the left and right is newly formed. For example, as shown in FIG. 10, if the pixel pi-1, j adjacent to the left is integrated with other pixels and belongs to the group g, the input pixel pi, j is added to the group g. The group g is enlarged by one pixel by the input pixel pi, j.

なお、左に隣接する画素pi-1,jが属するグループgが例えば図13(A)に示すような形状である場合に、ステップS12の判定処理で、条件3と条件4の少なくとも一方を満たさないと判定されて(ステップS12;NO)、入力画素pi,jが下に隣接する画素pi,j-1と統合されない場合でも、図13(B)に示すように、入力画素pi,jが左に隣接する画素pi-1,jと統合されることで(ステップS13)、結果的に、入力画素pi,jが下に隣接する画素pi,j-1と1つのグループgに統合される場合もある。   When the group g to which the pixel pi-1, j adjacent to the left belongs has a shape as shown in FIG. 13A, for example, the determination process in step S12 satisfies at least one of the condition 3 and the condition 4. Even if the input pixel pi, j is not integrated with the lower adjacent pixel pi, j-1 as shown in FIG. 13B, it is determined that the input pixel pi, j is not integrated (step S12; NO). By integrating with the pixels pi-1, j adjacent to the left (step S13), the input pixel pi, j is integrated with the adjacent pixels pi, j-1 and one group g as a result. In some cases.

次に、統合手段6は、ステップS12の判定処理で、条件3と条件4をともに満たすと判定した場合には(ステップS12;YES)、入力画素pi,jと、下に隣接する画素pi,j-1および左に隣接する画素pi-1,jとを1つのグループに統合する(ステップS14)。   Next, in the determination process in step S12, the integration unit 6 determines that both the condition 3 and the condition 4 are satisfied (step S12; YES), and the input pixel pi, j and the adjacent pixel pi, j-1 and the pixel pi-1, j adjacent to the left are integrated into one group (step S14).

その際、例えば図11に示したように、下に隣接する画素pi,j-1や左に隣接する画素pi-1,jがともに他の画素とグループ化されていなければ、入力画素pi,jと下に隣接する画素pi,j-1と左に隣接する画素pi-1,jが1つのグループに統合されて3つの画素からなるグループが新たに形成される。また、例えば図10や図12に示したように、下に隣接する画素pi,j-1または左に隣接する画素pi-1,jのいずれか一方が他の画素と統合されていてグループgに属していれば、入力画素pi,jとグループgに属していない方の画素とがグループgに追加されるように統合されて、グループgが2画素分拡大する。   At this time, for example, as shown in FIG. 11, if the pixel pi, j-1 adjacent below and the pixel pi-1, j adjacent to the left are not grouped with other pixels, the input pixel pi, j and the pixel pi, j-1 adjacent to the lower side and the pixel pi-1, j adjacent to the left are integrated into one group to form a new group of three pixels. Further, as shown in FIGS. 10 and 12, for example, either the pixel pi, j-1 adjacent to the lower side or the pixel pi-1, j adjacent to the left side is integrated with the other pixels, and the group g , The input pixel pi, j and the pixel that does not belong to the group g are integrated so as to be added to the group g, and the group g is expanded by two pixels.

また、例えば図14(A)に示すように、左に隣接する画素pi-1,jがグループg1に属し、下に隣接する画素pi,j-1が他のグループg2に属している場合、入力画素pi,jと下に隣接する画素pi,j-1および左に隣接する画素pi-1,jとを統合すると(ステップS14)、図14(B)に示すように、入力画素pi,jを介してグループg1とグループg2とが統合されて1つのグループgとなる。   For example, as shown in FIG. 14A, when the pixel pi-1, j adjacent to the left belongs to the group g1, and the pixel pi, j-1 adjacent to the lower belongs to another group g2, When the input pixel pi, j is integrated with the pixel pi, j-1 adjacent to the lower side and the pixel pi-1, j adjacent to the left side (step S14), as shown in FIG. The group g1 and the group g2 are integrated through j to form one group g.

一方、統合手段6は、ステップS11の判定処理で、条件1と条件2の少なくとも一方を満たさないと判定した場合には(ステップS11;NO)、ステップS15の判定処理に進み、上記と同様に、条件3や条件4を満たすか否かの判定を行う(ステップS15)。   On the other hand, when the integration unit 6 determines that at least one of the condition 1 and the condition 2 is not satisfied in the determination process of step S11 (step S11; NO), the integration unit 6 proceeds to the determination process of step S15, and similarly to the above. Then, it is determined whether or not the conditions 3 and 4 are satisfied (step S15).

そして、統合手段6は、条件3と条件4をともに満たすと判定した場合には(ステップS13;YES)、ステップS9の判定処理で条件1と条件2の少なくとも一方を満たさないと判定しているため(ステップS9;NO)、入力画素pi,jと、左に隣接する画素pi-1,jとを統合せず、下に隣接する画素pi,j-1のみと1つのグループに統合する(ステップS14)。その際、入力画素pi,jと下に隣接する画素pi,j-1とを1つのグループに統合した結果(ステップS16)、左に隣接する画素pi-1,jと統合される場合があることは図13(A)、(B)に示したケースから容易に類推される。   If the integration unit 6 determines that both the condition 3 and the condition 4 are satisfied (step S13; YES), the integration unit 6 determines that at least one of the condition 1 and the condition 2 is not satisfied in the determination process of step S9. Therefore (step S9; NO), the input pixel pi, j and the pixel pi-1, j adjacent to the left are not integrated, but only the pixel pi, j-1 adjacent below is integrated into one group ( Step S14). At this time, as a result of integrating the input pixel pi, j and the lower adjacent pixel pi, j-1 into one group (step S16), the input pixel pi, j may be integrated with the left adjacent pixel pi-1, j. This can be easily inferred from the cases shown in FIGS.

また、統合手段6は、ステップS15の判定処理で、条件3と条件4の少なくとも一方を満たさないと判定した場合には(ステップS15;NO)、入力画素pi,jを、左に隣接する画素pi-1,jとも下に隣接する画素pi,j-1とも統合せず、入力画素pi,jのみが属する新たなグループgとして登録する(ステップS17)。なお、統合処理の際、統合したグループgの画素数が非常に小さくノイズ等のように無視してよいグループであり、画素数がそれ以上増加しない場合に、そのようなグループgをグループの登録から削除して、道路面グループGであるか否かの判定の対象としないように構成することも可能である。   If the integration unit 6 determines in step S15 that at least one of condition 3 and condition 4 is not satisfied (step S15; NO), the integration unit 6 sets the input pixel pi, j to the pixel adjacent to the left. Neither pi-1, j nor the adjacent pixels pi, j-1 are integrated and registered as a new group g to which only the input pixel pi, j belongs (step S17). In the integration process, the number of pixels of the integrated group g is a very small group that can be ignored as noise and the like. When the number of pixels does not increase any more, such a group g is registered as a group. It is also possible to configure so that it is not included in the determination of whether or not it is the road surface group G.

統合手段6は、入力画素pi,jをグループgに統合すると(ステップS13、S14、S16)、例えば図14(B)に示したように、複数のグループを統合して1つのグループとした場合には、1つに統合したグループgのグループ番号を、統合の対象となった複数のグループの各グループ番号のうちの例えば最も小さい番号を選択する等して必要に応じて更新する。また、入力画素pi,jを新たなグループgとして登録した場合には(ステップS17)、その新規のグループgに新たなグループ番号を付与する(ステップS18)。   When the integration unit 6 integrates the input pixels pi, j into the group g (steps S13, S14, S16), for example, as shown in FIG. 14B, a plurality of groups are integrated into one group. For example, the group number of the group g integrated into one is updated as necessary, for example, by selecting the smallest number among the group numbers of the plurality of groups to be integrated. When the input pixel pi, j is registered as a new group g (step S17), a new group number is assigned to the new group g (step S18).

また、統合手段6は、入力画素pi,jをグループgに統合したり(ステップS13、S14、S16)、入力画素pi,jを新たなグループgとして登録すると(ステップS17)、当該グループgの当該水平ラインjにおける左端および右端の画素の各座標や、当該グループg全体の左右端および上下端の画素の各座標、当該グループgの中心点の座標等に変更があれば算出して更新し、図示しない記憶手段にそれらの情報を保存するようになっている。   Further, the integrating means 6 integrates the input pixel pi, j into the group g (steps S13, S14, S16) or registers the input pixel pi, j as a new group g (step S17). If there is a change in the coordinates of the left and right pixels in the horizontal line j, the coordinates of the left and right and upper and lower pixels of the entire group g, the coordinates of the center point of the group g, etc., it is calculated and updated. The information is stored in a storage means (not shown).

続いて、統合手段6は、入力画素pi,jを新たなグループgとして登録した場合(ステップS17)には、当該グループgに対応付ける後述する条件成立フラグFを0に設定する(図5のステップS19)。   Subsequently, when the input unit pi, j is registered as a new group g (step S17), the integration unit 6 sets a later-described condition satisfaction flag F associated with the group g to 0 (step in FIG. 5). S19).

また、入力画素pi,jをグループgに統合したことにより(ステップS14)、複数のグループが統合されて1つのグループとされた場合(例えば図14(B)参照)には、統合手段6は、統合の対象となった複数のグループの中に条件成立フラグFが1のグループがあれば、1つに統合された当該グループgの条件成立フラグFを1に設定し、統合の対象となった複数のグループの条件成立フラグFがすべて0であれば、1つに統合された当該グループgの条件成立フラグFを0に設定する(ステップS19)。   Further, when the input pixels pi, j are integrated into the group g (step S14), and the plurality of groups are integrated into one group (see, for example, FIG. 14B), the integration unit 6 If there is a group whose condition satisfaction flag F is 1 among a plurality of groups targeted for integration, the condition satisfaction flag F of the group g integrated into one is set to 1 and becomes a target of integration. If all the condition satisfaction flags F of the plurality of groups are all 0, the condition satisfaction flag F of the group g integrated into one is set to 0 (step S19).

続いて、統合手段6は、現在、統合処理を行った当該グループgの条件成立フラグFが0であれば(ステップS20;YES)、当該グループgの当該水平ラインj(画素行j)における画素数Njを計数する(ステップS21)。そして、図3のステップS3やステップS10の設定処理で設定した当該水平ラインjにおける画素数閾値Nth(j)を参照して、計数した画素数Njが画素数閾値Nth(j)以上であれば(ステップS22;YES)、当該グループgの条件成立フラグFを1に切り替える(ステップS23)。また、計数した画素数Njが画素数閾値Nth(j)以上でなければ(ステップS22;NO)、当該グループgの条件成立フラグFを0のままとする。   Subsequently, if the condition satisfaction flag F of the group g that has undergone the integration process is currently 0 (step S20; YES), the integration unit 6 performs pixel processing on the horizontal line j (pixel row j) of the group g. The number Nj is counted (step S21). Then, referring to the pixel number threshold value Nth (j) in the horizontal line j set in the setting process in step S3 or step S10 in FIG. 3, if the counted pixel number Nj is equal to or larger than the pixel number threshold value Nth (j), (Step S22; YES), the condition satisfaction flag F of the group g is switched to 1 (Step S23). If the counted pixel number Nj is not greater than or equal to the pixel number threshold Nth (j) (step S22; NO), the condition satisfaction flag F of the group g remains at 0.

あるグループgの水平ラインjにおける画素数Njが画素数閾値Nth(j)以上の場合に当該グループgの条件成立フラグFが1に切り替えられる(ステップS23)ことから分かるように、条件成立フラグが1であることは、当該グループgの各画素行jの中に画素数閾値Nth(j)以上すなわち実空間上の横幅として60cmの横幅以上となる画素行jが存在することを意味する。   As can be seen from the fact that the condition establishment flag F of the group g is switched to 1 when the number of pixels Nj in the horizontal line j of a group g is greater than or equal to the pixel number threshold Nth (j) (step S23), the condition establishment flag is 1 means that there is a pixel row j in each pixel row j of the group g that has a pixel number threshold Nth (j) or more, that is, a lateral width of 60 cm or more in real space.

そして、グループgに対する道路面上の撮像対象が実空間上で60cm以上の横幅となる部分を有するものであれば、それは道路面上に標示される横断歩道の各白線ブロック等ではなく、道路面の路面領域であると考えられる。そのため、後述するように、条件成立フラグFが1であれば当該グループgは道路面グループGとして検出される可能性があるが、条件成立フラグFが0であれば当該グループgは道路面グループGの検出の対象から排除される。   And if the imaging object on the road surface for the group g has a portion having a width of 60 cm or more in real space, it is not the white line block of the pedestrian crossing marked on the road surface, but the road surface. This is considered to be the road surface area. Therefore, as described later, if the condition satisfaction flag F is 1, the group g may be detected as the road surface group G. However, if the condition satisfaction flag F is 0, the group g is the road surface group. Excluded from G detection.

また、そのため、現在、統合処理が行われた当該グループgの条件成立フラグFが既に1であれば(ステップS20;NO)、当該グループgには画素数閾値Nth(j)以上となる画素行jが既に存在することになるため、ステップS21〜S23の各処理を改めて行う必要がない。そのため、現在、統合処理が行われた当該グループgの条件成立フラグFが1であれば(ステップS20;NO)、ステップS21〜S23の各処理を行わずにスキップするようになっている。   For this reason, if the condition satisfaction flag F of the group g currently subjected to the integration process is already 1 (step S20; NO), the group g has a pixel row that is equal to or greater than the pixel number threshold Nth (j). Since j already exists, it is not necessary to perform each processing of steps S21 to S23 again. Therefore, if the condition establishment flag F of the group g for which the integration process is currently performed is 1 (step S20; NO), the process is skipped without performing each process of steps S21 to S23.

統合手段6は、統合処理を行った当該グループgの画素数Nを算出する(ステップS24)。すなわち、入力画素pi,jを新規のグループgとして登録した場合には当該グループgの画素数Nを1とし、入力画素pi,jをグループgに統合した場合には当該グループgの画素数Nを1だけ増加させ、入力画素pi,jをグループgに統合したことで他の1つの画素pもグループgに統合される場合には当該グループgの画素数Nを2だけ増加させ、また、入力画素pi,jを介して2つのグループg1、g2を統合して1つのグループgとした場合には、当該1つに統合したグループgの画素数Nをグループg1、g2の各画素数の和に入力画素pi,jの1画素を加えた画素数として算出する。   The integration unit 6 calculates the number N of pixels of the group g subjected to the integration process (step S24). That is, when the input pixel pi, j is registered as a new group g, the number of pixels N of the group g is 1, and when the input pixel pi, j is integrated into the group g, the number of pixels N of the group g. Is increased by 1, and when the other pixel p is also integrated into the group g by integrating the input pixels pi, j into the group g, the number of pixels N of the group g is increased by 2, When the two groups g1 and g2 are integrated through the input pixel pi, j to form one group g, the number of pixels N of the group g integrated into the one is equal to the number of pixels in the groups g1 and g2. The number of pixels is calculated by adding one pixel of the input pixel pi, j to the sum.

統合手段6は、続いて、当該グループgに属する各画素pの輝度Dの合計を算出し、それを当該グループgの画素数Nで除算して、当該グループgに属する各画素pの輝度Dの平均値Daveを算出して更新する(ステップS25)。この場合、入力画素pi,jが新規のグループgとして登録された場合には、当該グループgの画素数Nは1であるから、入力画素pi,jの輝度Di,jが当該グループgに属する画素pの輝度Dの平均値Daveとなる。   Subsequently, the integration unit 6 calculates the sum of the luminance D of each pixel p belonging to the group g, divides it by the number N of pixels of the group g, and calculates the luminance D of each pixel p belonging to the group g. The average value Dave is calculated and updated (step S25). In this case, when the input pixel pi, j is registered as a new group g, the number of pixels N of the group g is 1, so that the luminance Di, j of the input pixel pi, j belongs to the group g. The average value Dave of the luminance D of the pixel p is obtained.

また、統合手段6は、図3のステップS2の設定処理で設定したチェック領域Rに基づいて、入力画素pi,jがチェック領域R内にあるか否かを判定し(ステップS26)、入力画素pi,jがチェック領域R内にあれば(ステップS26;YES)、当該グループgがチェック領域R内に占める画素数Anを面積として算出する(ステップS27)。   Further, the integration unit 6 determines whether or not the input pixel pi, j is in the check region R based on the check region R set in the setting process in step S2 of FIG. 3 (step S26). If pi, j is in the check region R (step S26; YES), the number of pixels An that the group g occupies in the check region R is calculated as an area (step S27).

すなわち、入力画素pi,jがチェック領域R内にある場合(ステップS26;YES)、入力画素pi,jを新規のグループgとして登録した場合には当該グループgのチェック領域R内に占める画素数Anを1とし、入力画素pi,jのみをグループgに統合した場合には当該グループgのチェック領域R内の画素数Anを1だけ増加させる。   That is, when the input pixel pi, j is in the check region R (step S26; YES), when the input pixel pi, j is registered as a new group g, the number of pixels in the check region R of the group g When An is set to 1 and only the input pixels pi, j are integrated into the group g, the number of pixels An in the check region R of the group g is increased by 1.

また、入力画素pi,jをグループgに統合したことにより他の1つの画素pもグループgに統合された場合には、当該他の1つの画素pがチェック領域R内にあれば当該グループgのチェック領域R内の画素数Anを2だけ増加させ、当該他の1つの画素pがチェック領域R内になく、入力画素pi,jのみがチェック領域R内にある場合には、当該グループgのチェック領域R内の画素数Anを1だけ増加させる。   Further, when the other pixel p is also integrated into the group g by integrating the input pixel p i, j into the group g, if the other pixel p is within the check region R, the group g When the number An of pixels in the check region R is increased by 2 and the other one pixel p is not in the check region R and only the input pixel pi, j is in the check region R, the group g The number of pixels An in the check region R is increased by 1.

また、入力画素pi,jを介して2つのグループg1、g2を統合して1つのグループgとした場合には、当該1つに統合したグループgのチェック領域R内の画素数Anを、グループg1、g2の各面積Aの画素数Anの和に入力画素pi,jの1画素を加えた画素数として算出する。   Further, when two groups g1 and g2 are integrated into one group g via the input pixel pi, j, the number of pixels An in the check region R of the group g integrated into the one group is expressed as a group g. The pixel number is calculated by adding one pixel of the input pixel pi, j to the sum of the pixel number An of each area A of g1 and g2.

そして、統合手段6は、画像Tの最上段の水平ラインの統合処理が終了するまで(図3のステップS8)、上記の各処理を入力画素pi,jに対して繰り返すようになっている。   Then, the integration unit 6 repeats each of the above processes for the input pixel pi, j until the integration process of the uppermost horizontal line of the image T is completed (step S8 in FIG. 3).

統合手段6により画像Tの最上段の水平ラインまで統合処理が終了すると(ステップS8;YES)、各画素pが各グループgに統合され、最終的に、画像Tの各画素pが複数のグループgに分割される。例えば図8に示した画像Tの各画素pは、統合処理により、図15に濃淡で分けて表されるような複数のグループgにそれぞれ統合される。   When the integration process is completed up to the uppermost horizontal line of the image T by the integration means 6 (step S8; YES), each pixel p is integrated into each group g, and finally each pixel p of the image T is a plurality of groups. divided into g. For example, each pixel p of the image T shown in FIG. 8 is integrated into a plurality of groups g as shown in FIG.

次に、道路面検出手段7は、図5のステップS24の算出処理で算出されたグループgに属する全画素数Nをグループgの縦方向の画素行jの行数で除算して画素数の平均値Naveを算出し、この画素数の平均値Naveとして各グループgの横幅の平均値Waveを算出する(図6のステップS28)。この横幅の平均値Waveは、前述した横断歩道の各白線ブロック等よりもさらに細く標示される車線等の標示に対応するグループgを道路面グループGとして検出しないようにするために用いられる情報である。   Next, the road surface detection means 7 divides the total number of pixels N belonging to the group g calculated in the calculation process of step S24 of FIG. 5 by the number of vertical pixel rows j of the group g to calculate the number of pixels. The average value Nave is calculated, and the average value Wave of the horizontal width of each group g is calculated as the average value Nave of the number of pixels (step S28 in FIG. 6). The average value Wave of the width is information used to prevent the group g corresponding to the marking such as the lane marked more narrowly than each white line block of the pedestrian crossing described above from being detected as the road surface group G. is there.

上記の画素数閾値Nth(j)のみを用いて、当該グループgの各画素行jの中に実空間上の横幅として60cmの横幅以上となる画素行jが存在するグループgを道路面グループGの検出の対象とすると、例えば図16に示すように、画像T中に車線LL、LRに連続して標示される停止線SL等が撮像されているような場合に、車線LL、LRに対応するグループgの水平ラインjにおける画素数Njが停止線SLの部分で大きくなって画素数閾値Nth(j)以上となる。そのため、当該グループgは画素数閾値Nth(j)に基づく判定処理(図5のステップS22)をクリアして条件成立フラグFが1とされ、道路面グループGとして検出されてしまう可能性が生じる。   Using only the pixel number threshold value Nth (j), a group g in which a pixel row j having a horizontal width of 60 cm or more as a horizontal width in the real space exists in each pixel row j of the group g is designated as a road surface group G. For example, as shown in FIG. 16, when a stop line SL or the like that is continuously displayed in the image T is captured in the image T, the lanes LL and LR are supported. The number of pixels Nj in the horizontal line j of the group g to be increased at the portion of the stop line SL and becomes equal to or greater than the pixel number threshold Nth (j). Therefore, there is a possibility that the group g clears the determination process (step S22 in FIG. 5) based on the pixel number threshold Nth (j), the condition establishment flag F is set to 1, and is detected as the road surface group G. .

そこで、これを回避するため、本実施形態では、道路面検出手段7は、上記のようにグループgの横幅の平均値Waveを算出し(図6のステップS28)、横幅の平均値Waveが、道路面上に15cm程度の横幅で標示される車線よりやや大きめの横幅に相当する画素数に設定された平均値閾値Nave_th未満であれば(後述するステップS31;NO)、当該グループgは車線LL、LR等に対応するグループgである可能性がある。そのため、グループgを道路面グループGとして検出しないようになっている。   Therefore, in order to avoid this, in the present embodiment, the road surface detection means 7 calculates the average width Wave of the group g as described above (step S28 in FIG. 6). If it is less than the average threshold Nave_th set to the number of pixels corresponding to a slightly larger width than the lane marked with a width of about 15 cm on the road surface (step S31; NO described later), the group g is the lane LL. , LR and the like may be a group g. Therefore, the group g is not detected as the road surface group G.

なお、画像T中に撮像された車線LL、LR等の横幅は、道路面の横幅に比べれば非常に小さく画素数も少ない。そのため、本実施形態では、この横幅の平均値Waveを算出する算出処理では、処理の単純化を図ることを目的として、実空間上の横幅を算出する代わりに上記のようにグループgに属する全画素数Nをグループgの縦方向の画素行jの行数で除算した画素数として横幅の平均値Naveを算出するようになっている。   Note that the lateral width of the lanes LL, LR and the like captured in the image T is very small and the number of pixels is small compared to the lateral width of the road surface. Therefore, in the present embodiment, in the calculation process for calculating the average value Wave of the horizontal width, for the purpose of simplifying the process, instead of calculating the horizontal width in the real space, all of the groups belonging to the group g as described above are used. The average width Nave is calculated as the number of pixels obtained by dividing the number of pixels N by the number of rows of pixel rows j in the vertical direction of group g.

道路面検出手段7は、続いて、各グループgについて、当該グループgが道路面グループGであるか否かを判定し、条件を満たす場合には、当該グループgを道路面グループGとして検出して登録するようになっている。   Subsequently, the road surface detection means 7 determines for each group g whether or not the group g is the road surface group G, and if the condition is satisfied, detects the group g as the road surface group G. To register.

具体的には、道路面検出手段7は、まだ判定していないグループgがあれば(ステップS29;YES)、まず、当該グループgの条件成立フラグFが1であるか否かを判定して(ステップS30)、条件成立フラグFが0であれば(ステップS30;NO)、当該グループgには実空間上で60cm以上の横幅の部分がなく、横断歩道の各白線ブロック等に対応するグループgである可能性があるため、当該グループgを道路面グループGの検出の対象から排除し、当該グループgについての判定処理を終了する。   Specifically, if there is a group g that has not yet been determined (step S29; YES), the road surface detection means 7 first determines whether or not the condition satisfaction flag F of the group g is 1. (Step S30) If the condition satisfaction flag F is 0 (Step S30; NO), the group g does not have a width portion of 60 cm or more in the real space, and corresponds to each white line block of the pedestrian crossing. Therefore, the group g is excluded from the detection target of the road surface group G, and the determination process for the group g is ended.

道路面検出手段7は、続いて、上記ステップS28の算出処理で当該グループgについて算出した画素数として横幅の平均値Naveが、設定された平均値閾値Nave_th以上であるか否かを判定し(ステップS31)、横幅の平均値Naveが平均値閾値Nave_th以上でなければ(ステップS31;NO)、上記のように当該グループgを道路面グループGの検出の対象から排除し、当該グループgについての判定処理を終了する。   Subsequently, the road surface detection means 7 determines whether or not the average value Nave of the width as the number of pixels calculated for the group g in the calculation process of step S28 is equal to or greater than a set average value threshold value Nave_th ( Step S31), if the average width Nave is not equal to or greater than the average threshold Nave_th (Step S31; NO), the group g is excluded from the detection target of the road surface group G as described above, and the group g The determination process ends.

道路面検出手段7は、続いて、図5のステップS25の算出処理で算出した当該グループgの各画素pの輝度Dの平均値Daveが予め設定された輝度平均閾値Dave_th以下であれば(ステップS32;NO)、当該グループgを道路面グループGの検出の対象から排除し、当該グループgについての判定処理を終了する。   Subsequently, the road surface detection means 7 determines that the average value Dave of the luminance D of each pixel p of the group g calculated in the calculation process of step S25 in FIG. 5 is equal to or less than a predetermined luminance average threshold value Dave_th (step S32; NO), the group g is excluded from detection targets of the road surface group G, and the determination process for the group g is ended.

通常、道路面の路面領域は暗い輝度に撮像される。そのため、この輝度平均閾値Dave_thは、道路面の路面領域の画素pの輝度Dとして検出される程度の低い輝度に設定される。そして、仮に上記のステップS30やステップS31の判定処理で横断歩道や停止線、車線、数字、文字、矢印等の路面上の標示に対応するグループgが道路面グループGの検出の対象から排除されなかった場合でも、このステップS32の判定処理で判定対象から排除される。   Usually, the road surface area of the road surface is imaged with dark luminance. Therefore, the luminance average threshold value Dave_th is set to a luminance that is low enough to be detected as the luminance D of the pixel p in the road surface area of the road surface. Then, the group g corresponding to the marking on the road surface such as a pedestrian crossing, a stop line, a lane, a number, a character, and an arrow is excluded from the detection target of the road surface group G in the determination processing of the above step S30 and step S31. Even if not, it is excluded from the determination target in the determination process of step S32.

また、図15に示したように、空に対応するグループgskyが画像T中に撮像されている場合、空に対応するグループgskyは高輝度であるため、グループgskyも、このステップS32の判定処理で道路面グループGの検出の対象から排除される。しかし、曇天や雨天等の場合には、空に対応するグループgskyも低い輝度に撮像される場合がある。また、図15に示したように、道路脇の街路樹に対応するグループgtreeも上記の各ステップS30〜S32の判定処理をクリアしてしまう場合がある。   Further, as shown in FIG. 15, when the group gsky corresponding to the sky is captured in the image T, the group gsky corresponding to the sky has high brightness, so that the group gsky also performs the determination process in step S32. Thus, the road surface group G is excluded from detection targets. However, in the case of cloudy weather or rainy weather, the group gsky corresponding to the sky may be imaged with low luminance. In addition, as shown in FIG. 15, the group gtree corresponding to the roadside roadside tree may also clear the determination processes in the above steps S30 to S32.

そこで、道路面検出手段7は、続いて、図5のステップS27の算出処理で算出した当該グループgのチェック領域R内に占める面積としての画素数Anが、予め設定された面積閾値Ath以上であるか否かを判定し(ステップS33)、画素数Anが面積閾値Ath以上でなければ(ステップS33;NO)、当該グループgを道路面グループGの検出の対象から排除し、当該グループgについての判定処理を終了する。   Therefore, the road surface detection means 7 subsequently has the number of pixels An as the area occupied in the check region R of the group g calculated in the calculation process of step S27 in FIG. 5 equal to or greater than a preset area threshold Ath. It is determined whether or not there is (Step S33), and if the pixel number An is not equal to or larger than the area threshold Ath (Step S33; NO), the group g is excluded from the detection target of the road surface group G, and the group g This determination process ends.

このように構成すれば、図15に示した空や街路樹に対応するグループgsky、gtreeのチェック領域R内に占める画素数Anは0になるため、それらのグループgsky、gtreeをこのステップS33の判定処理で道路面グループGの検出の対象から排除することが可能となる。   With this configuration, the number of pixels An in the check region R of the groups gsky and gtree corresponding to the sky and the roadside tree shown in FIG. 15 becomes 0. Therefore, these groups gsky and gtree are set in step S33. It becomes possible to exclude from the detection target of the road surface group G by the determination process.

道路面検出手段7は、当該グループgが上記のステップS30〜S33の判定処理をすべてクリアすると、当該グループgを道路面グループGとして検出して記憶手段に登録する(ステップS34)。そして、判定していないグループgがあれば(ステップS29;YES)、ステップS30〜S34の処理を繰り返すようになっている。   When the group g clears all the determination processes in steps S30 to S33, the road surface detection means 7 detects the group g as the road surface group G and registers it in the storage means (step S34). If there is a group g that has not been determined (step S29; YES), the processing of steps S30 to S34 is repeated.

また、統合手段6と道路面検出手段7は、全てのグループgについての処理が終了すると(ステップS29;NO)、今回のサンプリング周期で撮像手段2から入力された1画像分の画像Tに対する処理を終了し、撮像手段2により次のサンプリング周期での撮像が開始されると(図3のステップS1)、改めてステップS2からの各処理を実行するようになっている。   In addition, when the integration unit 6 and the road surface detection unit 7 complete the processing for all the groups g (step S29; NO), the processing for the image T for one image input from the imaging unit 2 in the current sampling cycle. When the imaging unit 2 starts imaging in the next sampling cycle (step S1 in FIG. 3), each process from step S2 is executed again.

例えば、図15に示した各グループgのうち、図17に示すようにグループG1〜G4が道路面グループGとして検出される。そして、これらのグループG1〜G4を画像T上でつなぎ合わせることで、画像Tから道路面の路面領域を抽出することが可能となる。これらの道路面グループGとしてのグループG1〜G4の各情報等は、必要に応じて外部装置に出力されるようになっている。   For example, among the groups g shown in FIG. 15, groups G1 to G4 are detected as road surface groups G as shown in FIG. Then, by connecting these groups G1 to G4 on the image T, it is possible to extract the road surface area of the road surface from the image T. Each information of the groups G1 to G4 as the road surface group G is output to an external device as necessary.

次に、車線候補点検出手段8は、上記のように各グループgに分割された画像T(図15や図17参照)において道路面グループG(G1〜G4)以外の画像部分を探索して、車線のエッジ部分に対応する車線候補点cl、crを検出するようになっている。   Next, the lane candidate point detection means 8 searches for an image portion other than the road surface group G (G1 to G4) in the image T (see FIGS. 15 and 17) divided into the groups g as described above. The lane candidate points cl and cr corresponding to the edge portion of the lane are detected.

本実施形態では、車線候補点検出手段8は、道路面グループG(G1〜G4)以外の画像部分の画素pのうち、道路面グループGの輝度D(すなわち上記の道路面グループGの各画素pの輝度Dの平均値Dave)との差が所定の閾値以上であり、かつ、隣接する画素pとの輝度差が所定の閾値以上に変化する画素cl、crを車線候補点cl、crとして検出するようになっている。道路面グループGの輝度Dの平均値Daveは、上記のように統合手段6により算出されている(図5のステップS25参照)。   In the present embodiment, the lane candidate point detection means 8 includes the luminance D of the road surface group G (that is, each pixel of the road surface group G described above) among the pixels p of the image portion other than the road surface group G (G1 to G4). Pixels cl and cr whose difference from the average value Dave) of the luminance D of p is equal to or greater than a predetermined threshold and whose luminance difference with the adjacent pixel p changes to be equal to or greater than the predetermined threshold are defined as lane candidate points cl and cr. It comes to detect. The average value Dave of the luminance D of the road surface group G is calculated by the integration unit 6 as described above (see step S25 in FIG. 5).

前述した統合手段6における条件2に基づく判定処理の場合と同様に、ここでも、所定の対象となっている画素(以下、探索画素という。)pi,jの輝度Di,jと、道路面グループGの輝度Dの平均値Daveとの差を平均値差分といい、δDで表すが、統合手段6における処理の場合と異なり、車線候補点検出手段8の処理では、探索画素pi,jと道路面グループGが隣接しているとは限らない。また、平均値差分δDに対する閾値は、統合手段6における条件2に基づく判定処理の場合の第2輝度閾値δDthには関わりなく適宜の値に設定されるため、ここではδDth1と表す。   As in the case of the determination process based on condition 2 in the integration unit 6 described above, here the luminance Di, j of the pixel (pi), which is a predetermined target (hereinafter referred to as a search pixel), and the road surface group The difference from the average value Dave of the luminance D of G is called the average value difference, and is represented by δD. Unlike the processing in the integration unit 6, the lane candidate point detection unit 8 uses the search pixel pi, j and the road. The face group G is not necessarily adjacent. Further, the threshold value for the average value difference δD is set to an appropriate value regardless of the second luminance threshold value δDth in the determination process based on the condition 2 in the integration unit 6, and is represented here as δDth1.

また、探索画素pi,jと隣接する画素pとの輝度差を、前述した統合手段6における条件1に基づく判定処理の場合と同様にエッジ強度ΔDというが、エッジ強度ΔDに対する閾値は、統合手段6における条件1に基づく判定処理の場合の第1輝度閾値ΔDthには関わりなく適宜の値に設定されるため、ここではΔDth1と表す。   Further, the luminance difference between the search pixel pi, j and the adjacent pixel p is referred to as edge strength ΔD as in the case of the determination process based on condition 1 in the integration unit 6 described above, but the threshold for the edge strength ΔD is the integration unit. 6 is set to an appropriate value regardless of the first luminance threshold value ΔDth in the determination process based on the condition 1 in FIG.

以下、本実施形態の車線候補点検出手段8における車線候補点cl、crの検出処理について具体的に説明する。   Hereinafter, the detection process of the lane candidate points cl and cr in the lane candidate point detection means 8 of the present embodiment will be specifically described.

車線候補点検出手段8は、まず、前述したように統合手段6でチェック領域Rの設定のために上記(1)式または(2)、(3)式を用いて旋回曲率Cuaを算出し、それに基づいて自車両の推定軌跡Lestを算出していればそれを用い、算出されていなければ、上記と同様にして推定軌跡Lestを算出して、図18に示すように、画像T上での推定軌跡Lestの位置を算出する。   The lane candidate point detection means 8 first calculates the turning curvature Cua using the above formula (1) or (2) and (3) for setting the check region R by the integration means 6 as described above. If the estimated trajectory Lest of the host vehicle is calculated based on that, it is used. If not, the estimated trajectory Lest is calculated in the same manner as described above, and as shown in FIG. The position of the estimated locus Lest is calculated.

なお、図18では、車線検出装置1が立体物検出手段を備え、立体物検出手段により、道路面の上方に存在する立体物O、Sが画像T中に検出されている場合が示されている。車線は道路面に標示されており、道路面の上方にはない。そのため、車線検出装置1に立体物検出手段を設けておけば、車線検出では、画像T中で立体物が検出された画像領域は探索しないで済むため、車線の探索範囲を狭めることが可能となる。   FIG. 18 shows a case where the lane detection device 1 includes a three-dimensional object detection unit, and three-dimensional objects O and S existing above the road surface are detected in the image T by the three-dimensional object detection unit. Yes. The lane is marked on the road surface and is not above the road surface. Therefore, if the three-dimensional object detection means is provided in the lane detection device 1, it is not necessary to search for an image area in which the three-dimensional object is detected in the image T in the lane detection, so that the lane search range can be narrowed. Become.

車線候補点検出手段8は、続いて、画像Tの1ライン分の水平ラインjの各画素pの輝度Dのデータを記憶手段から読み出して、画像Tの推定軌跡Lestの位置から左右方向に水平ラインjを探索し、車線候補点cl、crを検出する。そして、この処理を、画像Tの下端の水平ラインjすなわち水平ライン0から始め、水平ラインjを上方に1画素分ずつ移動させながら行うようになっている。なお、水平ラインj上の左右方向への探索は、推定軌跡Lestの位置から行ってもよく、また、画像Tの中心の位置等から行うように構成することも可能である。   Subsequently, the lane candidate point detecting means 8 reads out the data of the luminance D of each pixel p of the horizontal line j for one line of the image T from the storage means, and horizontally from the position of the estimated locus Lest of the image T in the horizontal direction. The line j is searched, and lane candidate points cl and cr are detected. This process is started from the horizontal line j at the lower end of the image T, that is, the horizontal line 0, and the horizontal line j is moved upward by one pixel at a time. The search in the horizontal direction on the horizontal line j may be performed from the position of the estimated trajectory Lest, or may be configured to be performed from the center position of the image T or the like.

また、車線候補点検出手段8は、上記のように道路面検出手段7が検出した道路面グループGの情報すなわち上記の場合は道路面グループG1〜G4の情報を記憶手段から読み出し、この水平ラインj上の探索においては、水平ラインj上の道路面グループG1〜G4に属する画素については探索を行わずにスキップするようになっている。   Further, the lane candidate point detecting means 8 reads the information on the road surface group G detected by the road surface detecting means 7 as described above, that is, the information on the road surface groups G1 to G4 in the above case from the storage means, and this horizontal line In the search on j, pixels belonging to the road surface groups G1 to G4 on the horizontal line j are skipped without searching.

道路面グループGに属する画素は少なくとも車線に対応する画素ではないからである。また、このように構成することで、無駄な探索を行うことが回避され、処理時間を格段に短縮することが可能となる。推定軌跡Lestの位置の画素pは道路面グループGに属していることが多いため、大抵の場合、探索開始直後は探索がスキップされる。なお、以下、水平ラインjを右方向に探索した場合について説明するが、左側に探索した場合も同様に説明される。   This is because the pixels belonging to the road surface group G are not pixels corresponding to at least the lane. Also, with this configuration, it is possible to avoid performing a useless search, and to significantly reduce the processing time. Since the pixel p at the position of the estimated trajectory Lest often belongs to the road surface group G, in most cases, the search is skipped immediately after the search is started. Hereinafter, a case where the horizontal line j is searched for in the right direction will be described.

車線候補点検出手段8は、水平ラインj上の道路面グループGに属する画素pの右に隣接する探索画素pi,jから、上記のように、道路面グループGの輝度Dの平均値Daveとの差すなわち平均値差分δDが閾値δDth1以上であり、かつ、左に隣接する画素pとの輝度差すなわちエッジ強度ΔDが閾値ΔDth1以上であるか否かの判定を開始する。水平ラインj上に複数の道路面グループG1〜G4が存在する場合には、判定を開始した探索画素pi,jの左に隣接する道路面グループGの輝度Dの平均値Daveが用いられる。   The lane candidate point detecting means 8 obtains the average value Dave of the luminance D of the road surface group G from the search pixel pi, j adjacent to the right of the pixel p belonging to the road surface group G on the horizontal line j as described above. Or the average value difference δD is greater than or equal to the threshold value δDth1, and the luminance difference from the pixel p adjacent to the left, that is, the edge strength ΔD, is determined to be greater than or equal to the threshold value ΔDth1. When there are a plurality of road surface groups G1 to G4 on the horizontal line j, the average value Dave of the luminance D of the road surface group G adjacent to the left of the search pixel pi, j that has started the determination is used.

探索画素pi,jの輝度Di,jを探索していくと例えば図19に示すように推移し、車線候補点検出手段8は、上記の条件を満たす探索画素pi,jを車線候補点crとして検出するようになっている。そして、車線候補点crが属するグループgやその右方に存在するグループgを車線グループGlineとして検出して記憶手段に登録するようになっている   When the luminance Di, j of the search pixel pi, j is searched, for example, the transition is made as shown in FIG. 19, and the lane candidate point detecting means 8 sets the search pixel pi, j satisfying the above condition as the lane candidate point cr. It comes to detect. The group g to which the lane candidate point cr belongs and the group g existing on the right side thereof are detected as the lane group Gline and registered in the storage means.

また、本実施形態では、車線候補点検出手段8は、水平ラインj上で検出した車線候補点crに対応する車線の終了点(以下、車線終了点という。)creを検出するようになっている。   In the present embodiment, the lane candidate point detection means 8 detects a lane end point (hereinafter referred to as a lane end point) cre corresponding to the lane candidate point cr detected on the horizontal line j. Yes.

なお、車線候補点検出手段8は、本実施形態では、車線候補点crが属するグループg(車線グループGline)については車線終了点creの探索を行わずにスキップし、水平ラインj上を探索して画素が他のグループgに属するものとなった時点で下記の判定を行い、当該画素が車線終了点creでなければ当該他のグループgを車線グループGlineとして登録し、そのグループg(車線グループGline)についても車線終了点creの探索を行わずにスキップするようにして車線終了点creを探索するようになっている。   In this embodiment, the lane candidate point detection means 8 skips the search for the lane end point cre for the group g (lane group Gline) to which the lane candidate point cr belongs and searches on the horizontal line j. When the pixel belongs to another group g, the following determination is performed. If the pixel is not the lane end point cre, the other group g is registered as a lane group Gline, and the group g (lane group For Gline), the lane end point cre is searched by skipping without searching for the lane end point cre.

また、このように車線グループGlineでの車線終了点creの探索を行わずにスキップすることで、無駄な探索を行うことが回避され、処理時間のさらなる短縮を図ることが可能となる。   In addition, by skipping the search for the lane end point cre in the lane group Gline in this way, it is possible to avoid performing a useless search and further reduce the processing time.

本実施形態では、探索画素pi,jと車線グループGlineとの輝度の差すなわち平均値差分δDが負の値に設定された所定の閾値δDth2以下であり、かつ、左に隣接する画素pとの輝度差ΔDが負の値に設定された所定の閾値ΔDth2以下である場合に、当該探索画素pi,jを車線終了点creとして検出するようになっている。   In this embodiment, the difference in luminance between the search pixel pi, j and the lane group Gline, that is, the average value difference δD is equal to or less than a predetermined threshold value δDth2 set to a negative value, and the pixel p adjacent to the left When the luminance difference ΔD is equal to or less than a predetermined threshold value ΔDth2 set to a negative value, the search pixel pi, j is detected as the lane end point cre.

また、図17等に示したように、車線グループGlineの右側に道路面グループGが検出されている場合がある。そして、そのような場合、水平ラインj上で車線グループGlineを探索した後、再度、道路面グループGが見出された場合には、車線グループGlineから道路面グループGに切り替わる画素を車線終了点creとして検出することができる。   Moreover, as shown in FIG. 17 etc., the road surface group G may be detected on the right side of the lane group Gline. In such a case, after searching the lane group Gline on the horizontal line j, if the road surface group G is found again, the pixel that switches from the lane group Gline to the road surface group G is set as the lane end point. It can be detected as cre.

そのため、本実施形態では、車線候補点検出手段8は、画像Tの水平ラインj上を探索し、車線グループGlineには属さなくなった画素が道路面グループGに属する場合には、当該画素が上記の車線終了点creの検出条件を満たすか否かに関わりなく、当該画素を車線終了点creとして検出するようになっている。   Therefore, in this embodiment, the lane candidate point detection means 8 searches on the horizontal line j of the image T, and when a pixel that does not belong to the lane group Gline belongs to the road surface group G, the pixel is The pixel is detected as the lane end point cre regardless of whether the detection condition of the lane end point cre is satisfied.

しかし、車線候補点crと車線終了点creの間に存在する車線グループGlineとして登録された単数または複数の高輝度のグループgが、実際には車線に対応する車線グループGlineではない場合もある。   However, the single or plural high-intensity groups g registered as the lane group Gline existing between the lane candidate point cr and the lane end point cre may not actually be the lane group Gline corresponding to the lane.

そこで、例えば、車線終了点creを検出した時点で、車線候補点crと車線終了点creの間の画素数をカウントし、それと前述した水平ラインjごとの1画素あたりの実空間上の横方向の横幅とを乗算する等して車線候補点crと車線終了点creの間の実空間上の間隔を推定し、その間隔が広すぎたり狭すぎたりする場合に車線候補点crや車線終了点creの登録を抹消して削除するように構成することも可能である。なお、ステレオマッチング等の手法で車線候補点crと車線終了点creの実空間上の間隔を検出するように構成することも可能である。   Therefore, for example, when the lane end point cre is detected, the number of pixels between the lane candidate point cr and the lane end point cre is counted, and the horizontal direction in the real space per pixel for each horizontal line j described above. The distance in the real space between the lane candidate point cr and the lane end point cre is estimated by multiplying the width of the lane, and the lane candidate point cr and the lane end point are found when the distance is too wide or too narrow. It is also possible to delete the cre registration and delete it. In addition, it is also possible to configure to detect an interval in the real space between the lane candidate point cr and the lane end point cre by a method such as stereo matching.

また、本実施形態では、車線候補点検出手段8は、統合手段6により算出されている当該車線グループGlineの画像T中の上端と下端の画素の各座標から当該車線グループGlineの画像T中の縦方向の最大長さを算出し、その最大長さが所定の閾値以下であり小さい場合には、当該車線グループGlineの登録を抹消するとともに、当該車線候補点crや車線終了点creの登録を削除するようになっている。   In the present embodiment, the lane candidate point detection means 8 includes the coordinates of the upper and lower pixels in the image T of the lane group Gline calculated by the integration means 6 in the image T of the lane group Gline. When the maximum length in the vertical direction is calculated and the maximum length is equal to or smaller than a predetermined threshold, the registration of the lane group Gline is canceled and the registration of the lane candidate point cr and the lane end point cre is performed. It is supposed to be deleted.

これは、水平ラインj上で上記の検出条件を満たす車線候補点crや車線終了点creが検出されても、それらの間に存在するグループgの画像T中の縦方向の最大長さが短ければ当該グループgは画像T中に写り込んだ高輝度のノイズ等と考えられ、その場合には、グループgの車線グループGlineとしての登録や車線候補点cr、車線終了点creの登録を抹消して削除することで、車線候補点cr等の誤検出を防止することが可能となるためである。   Even if the lane candidate point cr and the lane end point cre that satisfy the above detection conditions are detected on the horizontal line j, the maximum length in the vertical direction in the image T of the group g existing between them is shortened. For example, the group g is considered to be high-intensity noise reflected in the image T. In this case, the registration of the group g as the lane group Gline and the registration of the lane candidate point cr and the lane end point cre are deleted. This is because it is possible to prevent erroneous detection of the lane candidate points cr and the like.

また、本実施形態では、車線候補点検出手段8は、統合手段6により算出されている当該車線グループGlineの各水平ラインjでの左右端の画素の各座標等から当該車線グループGlineの実空間上の面積と横方向の長さを算出し、車線候補点crと車線終了点creの間に存在する車線グループGlineのうち、面積が最大のグループgのみを車線グループGlineとして登録する。そして、登録した車線グループGlineの面積や横方向の長さが所定の閾値以上である場合には、車線グループGlineの登録を抹消するとともに、車線候補点crや車線終了点creの登録を削除するようになっている。   Further, in this embodiment, the lane candidate point detection means 8 determines the real space of the lane group Gline from the coordinates of the left and right end pixels in each horizontal line j of the lane group Gline calculated by the integration means 6. The upper area and the horizontal length are calculated, and among the lane group Gline existing between the lane candidate point cr and the lane end point cre, only the group g having the largest area is registered as the lane group Gline. When the area and the lateral length of the registered lane group Gline are equal to or greater than a predetermined threshold, the registration of the lane group Gline is deleted and the registration of the lane candidate point cr and the lane end point cre is deleted. It is like that.

これは、水平ラインj上で上記の検出条件を満たす車線候補点crや車線終了点creが検出されても、それらの間に存在する面積が最大のグループgが上記の条件を満たす場合、そのグループgは車線に対応する車線グループGlineではなく、例えば道路脇に堆積された雪等であると考えられるためである。そして、そのような場合に、グループgの車線グループGlineとしての登録や車線候補点cr、車線終了点creの登録を抹消して削除することで、車線候補点cr等の誤検出を防止することが可能となるためである。   Even if a lane candidate point cr and a lane end point cre satisfying the above detection condition on the horizontal line j are detected, the group g having the largest area between them satisfies the above condition. This is because the group g is not the lane group Gline corresponding to the lane but is considered to be, for example, snow accumulated on the side of the road. In such a case, the registration of the group g as the lane group Gline and the registration of the lane candidate point cr and the lane end point cre are deleted and deleted, thereby preventing erroneous detection of the lane candidate point cr and the like. This is because it becomes possible.

従って、この場合の面積や横方向の長さに関する閾値は、そのような堆積された雪等を的確に排除しつつ、連続線状に標示された車線に対応するグループgは的確に車線グループGlineとして検出できるような値に設定される。   Therefore, in this case, the threshold values relating to the area and the lateral length accurately exclude such accumulated snow and the like, while the group g corresponding to the lane marked in a continuous line is exactly the lane group Gline. Is set to a value that can be detected as.

なお、本実施形態では、この条件を満たして車線グループGlineとしての登録を抹消されたグループgに対して雪等であることを表す特定の情報を対応付けて記憶手段に登録するようになっている。そして、これ以降の処理で車線候補点crが検出されても、それに対応するグループgにこの特定の情報が対応付けられている場合には、即座に車線候補点crの登録を抹消して削除するようになっている。   In the present embodiment, specific information indicating that it is snow or the like is registered in the storage unit in association with the group g that has been deregistered as the lane group Gline satisfying this condition. Yes. Even if the lane candidate point cr is detected in the subsequent processing, if this specific information is associated with the corresponding group g, the registration of the lane candidate point cr is immediately deleted and deleted. It is supposed to be.

車線候補点検出手段8は、本実施形態では、水平ラインj上に車線候補点crや車線終了点creを検出しても、当該水平ラインj上の探索を続行し、水平ラインj上に複数の車線候補点crが検出されれば、その全てを検出して登録するようになっている。   In this embodiment, even if the lane candidate point detection means 8 detects the lane candidate point cr or the lane end point cre on the horizontal line j, the lane candidate point detection means 8 continues the search on the horizontal line j and a plurality of lane candidate points on the horizontal line j. If lane candidate points cr are detected, all of them are detected and registered.

また、車線候補点検出手段8は、当該水平ラインj上で最後に道路面グループGを検出した後、少なくとも1本の走行路の幅分は探索を続行するようになっている。走行路の幅は、過去のサンプリング周期で検出された自車両の走行路の左右の車線の間隔に基づいて設定されてもよく、また、予め走行路の幅に相当する値が設定されてもよい。   Further, the lane candidate point detecting means 8 is configured to continue the search for at least one width of the traveling road after the road surface group G is finally detected on the horizontal line j. The width of the travel path may be set based on the distance between the left and right lanes of the travel path of the host vehicle detected in the past sampling cycle, or a value corresponding to the width of the travel path may be set in advance. Good.

前述したように、車線候補点検出手段8は、画像Tの1ライン分の水平ラインj上の探索を終了すると、水平ラインjを上方に1画素分移動させて、再度、例えば画像Tの推定軌跡Lestの位置から左右方向に水平ラインj上を探索し、車線候補点crや車線終了点creを検出するようになっている。その際、上記と同様にして探索が行われ、例えば、道路面グループGや車線グループGlineに属する画素については探索が行われずにスキップされる。   As described above, when the lane candidate point detection unit 8 finishes the search on the horizontal line j for one line of the image T, the lane candidate point detection unit 8 moves the horizontal line j upward by one pixel and again estimates the image T, for example. A search is made on the horizontal line j in the left-right direction from the position of the locus Lest, and the lane candidate point cr and the lane end point cre are detected. At that time, the search is performed in the same manner as described above. For example, pixels belonging to the road surface group G and the lane group Gline are skipped without being searched.

また、車線候補点検出手段8は、上記のように、水平ラインj上の道路面グループG以外のグループgに属する探索画素pi,jが上記の検出条件を満たす場合に探索画素pi,jを車線候補点crとして検出するが、水平ラインj上を探索して車線グループGを検出した場合には、上記の検出条件に基づく判定を行わずに、他のグループgから車線グループGに移行した時点での探索画素pi,jを即座に車線候補点crとして検出するように構成することも可能である。このように構成すれば、処理のさらなる高速化を図ることが可能となる。   Further, as described above, the lane candidate point detection means 8 determines the search pixel pi, j when the search pixel pi, j belonging to the group g other than the road surface group G on the horizontal line j satisfies the above detection condition. Detected as a lane candidate point cr, but when the lane group G is detected by searching on the horizontal line j, the lane group G is shifted from another group g without performing the determination based on the above detection condition. The search pixel pi, j at the time may be configured to be immediately detected as the lane candidate point cr. If comprised in this way, it will become possible to aim at the further speed-up of a process.

また、車線候補点検出手段8は、水平ラインj上を探索して雪等であることを表す上記の特定の情報が対応付けたグループgを検出した場合には、上記の検出条件に基づく判定を行わずに、当該グループgに属する画素については探索が行わずにスキップする。   In addition, the lane candidate point detection means 8 searches the horizontal line j and detects the group g associated with the specific information indicating that it is snow or the like, the determination based on the detection condition described above Without performing the search, the pixels belonging to the group g are skipped without being searched.

車線候補点検出手段8により、上記のようにして、例えば図26に示した画像Tを用いて車線候補点crの検出を行うと、図20に示すように、右折レーンに分岐する車線に対応する車線候補点crだけでなく、自車両が本来走行しようとしている本線すなわち自車両の走行路に標示された車線に対応する車線候補点crも検出される。なお、図20に示したシーンでは、前述したように、左側の車線が雪に覆われていて左側の車線候補点clが検出されていない。   If the lane candidate point cr is detected by the lane candidate point detection means 8 using the image T shown in FIG. 26, for example, as described above, it corresponds to the lane branching to the right turn lane as shown in FIG. Not only the lane candidate point cr to be detected, but also the lane candidate point cr corresponding to the main line that the host vehicle is going to travel, that is, the lane marked on the travel path of the host vehicle is detected. In the scene shown in FIG. 20, as described above, the left lane is covered with snow, and the left lane candidate point cl is not detected.

車線検出手段9は、車線候補点検出手段8が検出した車線候補点cl、crに基づいて、画像T中に自車両の走行路に標示された車線LL、LRを検出するようになっている。   The lane detection means 9 detects the lanes LL and LR marked on the travel path of the host vehicle in the image T based on the lane candidate points cl and cr detected by the lane candidate point detection means 8. .

具体的には、車線検出手段9は、車線候補点検出手段8が画像Tの水平ラインj上を探索して車線候補点cl、crを検出するごとに、当該車線候補点cl、crに基づいてハフ変換を行うようになっている。すなわち、車線候補点検出手段8が、例えば水平ラインj上の(Ij,Jj)の位置に車線候補点crを検出すると、車線検出手段9は、車線候補点crが、画像T上の
ρ=isinθ+jcosθ …(8)
上に存在すると仮定し、(Ij,Jj)を代入する。
ρ=Ijsinθ+Jjcosθ …(9)
Specifically, the lane detection means 9 is based on the lane candidate points cl and cr each time the lane candidate point detection means 8 searches the horizontal line j of the image T and detects the lane candidate points cl and cr. Hough conversion is performed. That is, when the lane candidate point detection unit 8 detects the lane candidate point cr at, for example, the position (Ij, Jj) on the horizontal line j, the lane detection unit 9 indicates that the lane candidate point cr is ρ = isinθ + jcosθ (8)
Assuming that it exists above, substitute (Ij, Jj).
ρ = Ijsinθ + Jjcosθ (9)

そして、上記(9)式をρ、θの関数として捉え、図21に例示するように、上記(9)式で表される関数曲線が通過するハフ平面の各升目のカウント数を1増加させる。車線検出手段9は、このようにして、車線候補点crが検出されるごとに当該車線候補点crに基づいてハフ変換を行い、関数曲線が通過するハフ平面の各升目のカウント数を1増加させていく。また、画像Tの左側の車線候補点clについても車線候補点crとは別にハフ平面を作成して同様に各升目ごとにカウントする。   Then, the above equation (9) is regarded as a function of ρ and θ, and as illustrated in FIG. 21, the count number of each cell on the Hough plane through which the function curve represented by the above equation (9) passes is increased by 1. . Thus, the lane detecting means 9 performs Hough transform based on the lane candidate point cr every time the lane candidate point cr is detected, and increases the count number of each cell on the Hough plane through which the function curve passes. I will let you. In addition, a Hough plane is created for the lane candidate point cl on the left side of the image T separately from the lane candidate point cr and similarly counted for each cell.

カウント数が多い升目が多くの関数曲線が通過する升目であり、その升目に対応するρ、θを上記(8)式に代入して得られる直線が、多くの車線候補点cl、crを通る直線となる。そのため、車線検出手段9は、車線候補点検出手段8による車線候補点cl、crの検出が終了した時点で、ハフ平面の各升目のカウント数をチェックし、カウント数がピークとなる升目のρとθを検出する。   A cell with a large number of counts is a cell through which many function curves pass, and a straight line obtained by substituting ρ and θ corresponding to the cell into the above equation (8) passes through many lane candidate points cl and cr. It becomes a straight line. Therefore, the lane detection unit 9 checks the count number of each cell on the Hough plane when the detection of the lane candidate points cl and cr by the lane candidate point detection unit 8 is completed, and the ρ of the cell having the peak count number And θ are detected.

このカウント数がピークとなる升目のρとθを上記(8)式に代入して直線を算出すると、その直線の近傍には多数の車線候補点cl、crが集まる状態となる。そして、このようにして直線を算出すると、例えば図22に示すように、上記の各車線候補点crに関するハフ変換の結果から車線の候補としての直線r1〜r3が抽出される。   When a straight line is calculated by substituting ρ and θ of the square having the count number into the above equation (8), a large number of lane candidate points cl and cr are gathered in the vicinity of the straight line. When straight lines are calculated in this way, for example, as shown in FIG. 22, straight lines r1 to r3 as lane candidates are extracted from the result of the Hough transform relating to each lane candidate point cr described above.

本実施形態では、車線検出手段9は、各直線r1〜r3の近傍に存在する車線候補点crの連続性に基づいて各直線r1〜r3の種別を判定するようになっており、さらに、各直線r1〜r3の種別や各直線r1〜r3の近傍に存在する車線候補点crの数等に基づいて各直線r1〜r3の各信頼度を算出し、それらの各信頼度に基づいて各直線r1〜r3の中から車線を表す直線を選択するようになっている。   In the present embodiment, the lane detecting means 9 determines the type of each straight line r1 to r3 based on the continuity of the lane candidate points cr existing in the vicinity of each straight line r1 to r3. The straight lines r1 to r3 are calculated based on the type of the straight lines r1 to r3, the number of lane candidate points cr existing in the vicinity of the straight lines r1 to r3, and the straight lines based on the reliability. A straight line representing a lane is selected from r1 to r3.

また、本実施形態では、直線の種別は、各直線r1〜r3の近傍に集まっている車線候補点crの連続性に基づいて、直線が連続線状か、破線状か、それ以外の状態(例えば車線分岐の状態)か、またはそれらの組み合わせとして判定されるようになっている。例えば、直線r1は破線状、直線r2は連続線状、直線r3は車線分岐の状態と判定される。   In the present embodiment, the type of straight line is determined based on the continuity of the lane candidate points cr gathered in the vicinity of the straight lines r1 to r3, whether the straight line is a continuous line, a broken line, or any other state ( For example, it is determined as a lane branch state) or a combination thereof. For example, it is determined that the straight line r1 is a broken line, the straight line r2 is a continuous line, and the straight line r3 is a lane branching state.

また、直線の種別に基づく信頼度としては、直線が連続線状である場合が最も高く、破線状である場合が中程度の信頼度、それ以外の状態(例えば車線分岐の状態)である場合が最も低い信頼度が各直線r1〜r3に付与されるようになっている。従って、直線の種別に基づく信頼度だけから見れば、直線r1〜r3の中では、直線r2の信頼度が最も高くなる。   In addition, the reliability based on the type of straight line is highest when the straight line is a continuous line, and when the straight line is a broken line, the reliability is medium, and other states (for example, lane branching state). Is assigned to each of the straight lines r1 to r3. Therefore, when viewed only from the reliability based on the type of straight line, the reliability of the straight line r2 is the highest among the straight lines r1 to r3.

しかし、図22の場合には、各直線r1の近傍に存在する車線候補点crの数が直線r2、r3の近傍に存在する車線候補点crの数よりも格段に多いため、直線r1の信頼度が最も高くなる。そのため、車線検出手段9は、直線r1〜r3の中から車線としてふさわしい直線として直線r1を選択し、図23に示すように、自車両の走行路に標示された車線LRとして検出するようになっている。   However, in the case of FIG. 22, since the number of lane candidate points cr existing in the vicinity of each straight line r1 is much larger than the number of lane candidate points cr existing in the vicinity of the straight lines r2 and r3, the reliability of the straight line r1. The degree is the highest. Therefore, the lane detecting means 9 selects the straight line r1 as a straight line suitable as a lane from the straight lines r1 to r3, and detects it as a lane LR marked on the traveling path of the host vehicle as shown in FIG. ing.

なお、図22等では、車線候補点crが数個しか検出されていないように表現されているが、実際には多数の車線候補点cl、crが検出される。また、図22等では、画像Tの左側に車線候補点clが検出されていないが、車線候補点clが検出されている場合には、車線検出手段9は、同様にして、車線候補点clに対するハフ変換の結果から直線を抽出し、信頼度が最も高い直線を選択して、自車両の走行路に標示された車線LLとして検出する。   In FIG. 22 and the like, it is expressed that only a few lane candidate points cr are detected, but in reality, a large number of lane candidate points cl and cr are detected. In FIG. 22 and the like, the lane candidate point cl is not detected on the left side of the image T. However, when the lane candidate point cl is detected, the lane detection unit 9 similarly performs the lane candidate point cl. A straight line is extracted from the result of the Hough transform on the vehicle, a straight line having the highest reliability is selected, and detected as a lane LL marked on the travel path of the host vehicle.

また、直線r1〜r3等から直線r1等を選択する際、自車両の位置、挙動等や左右両側の直線の平行度等に基づいて、車線としてふさわしくない直線を選択の対象から除外する等の処理を行うように構成することも可能である。また、本実施形態では、上記のように車線としてふさわしい直線として自車両の左右にそれぞれ直線を1本ずつ選択する場合について説明したが、信頼度や連続性等の情報を対応付ける等して自車両の左右にそれぞれ複数の直線を車線として検出するように構成することも可能である。   Further, when selecting the straight line r1 etc. from the straight lines r1 to r3 etc., a straight line that is not suitable as a lane is excluded from selection based on the position, behavior, etc. of the own vehicle and the parallelism of the straight lines on both sides It is also possible to configure to perform processing. Further, in the present embodiment, a case has been described in which one straight line is selected on each of the left and right sides of the host vehicle as a straight line suitable as a lane as described above. However, the host vehicle is associated with information such as reliability and continuity. It is also possible to configure such that a plurality of straight lines are detected as lanes on the right and left sides of the vehicle.

さらに、直線の連続線状、破線状等の種別を判定する基準となる車線候補点cl、crの連続性は、車線候補点cl同士或いは車線候補点cr同士の画像T上での距離すなわち画素数やステレオマッチング等の手法で算出した実空間上の距離等に基づいて判定され、例えば、車線候補点cl、cr同士の画素数や実空間上の距離が所定の閾値以内で連続する場合には直線は連続線状であると判定され、画素数や距離が所定の閾値以上に離間した部分があるような場合には破線状であると判定される。   Further, the continuity of the lane candidate points cl and cr serving as a reference for determining the type of straight continuous line, broken line or the like is the distance between the lane candidate points cl or the lane candidate points cr on the image T, that is, pixels. For example, when the number of pixels between the lane candidate points cl and cr and the distance in the real space are continuous within a predetermined threshold, for example, based on the number and the distance in the real space calculated by a method such as stereo matching. The straight line is determined to be a continuous line, and when there is a portion where the number of pixels or the distance is more than a predetermined threshold, it is determined to be a broken line.

また、車線候補点cl同士或いは車線候補点cr同士が、統合手段6により統合された同一のグループgに属する場合には、上記の画素数や距離に基づく判定に関わらず、連続であると判定するように構成することが可能である。このように、車線候補点clや車線候補点crが同一のグループgに属する場合に連続であると判定することで、直線の種別を容易かつ的確に判定することが可能となる。   Further, when the lane candidate points cl or the lane candidate points cr belong to the same group g integrated by the integration unit 6, it is determined to be continuous regardless of the determination based on the number of pixels and the distance. It can be configured to do so. As described above, when the lane candidate point cl and the lane candidate point cr belong to the same group g, it is possible to easily and accurately determine the type of straight line by determining that the lane candidate point cl and the lane candidate point cr belong to the same group g.

次に、本実施形態に係る車線検出装置1の作用について説明する。   Next, the operation of the lane detector 1 according to this embodiment will be described.

従来の車線検出では、検出処理の実行時間を短縮してリアルタイム性を確保し、また、車線候補点cl、crの誤検出を抑制するために、車線候補点cl、crの探索領域を例えば過去のサンプリング周期で検出された車線の位置から推定される探索領域内に限定した。そのため、図26に示したように、右折レーンに分岐する車線のみが検出されてしまい、自車両が本来走行しようとしている本線に対応する車線候補点(図中の白丸参照)を検出することができなくなる虞があった。   In the conventional lane detection, in order to shorten the execution time of the detection process to ensure real-time performance and to suppress erroneous detection of the lane candidate points cl and cr, the search areas of the lane candidate points cl and cr are set to, for example, the past. It was limited to the search area estimated from the position of the lane detected in the sampling period. Therefore, as shown in FIG. 26, only the lane that branches to the right turn lane is detected, and the lane candidate point (see the white circle in the figure) corresponding to the main line that the host vehicle is originally trying to travel can be detected. There was a possibility that it could not be done.

それに対し、本実施形態に係る車線検出装置1では、まず、統合手段6で撮像手段2から各画素pの輝度Dのデータが入力されるとそれと並行して同様の輝度Dを有する画素pを統合してグループ化していき、画像Tの1画像分の全画素pの輝度Dのデータが入力された時点でそれとほぼ同じタイミングで統合処理が完了する。   On the other hand, in the lane detection device 1 according to the present embodiment, first, when the data of the luminance D of each pixel p is input from the imaging unit 2 by the integration unit 6, the pixel p having the same luminance D is simultaneously acquired. The integration process is grouped, and the integration process is completed at almost the same timing when the data of the luminance D of all the pixels p for one image of the image T is input.

そして、統合手段6で既に算出されている各グループgの平均輝度Daveや面積に応じて道路面検出手段7で道路面グループG(例えば図17の道路面グループG1〜G4)を検出し、車線候補点検出手段8では、道路面グループG以外の画像部分で車線候補点cl、crを探索して検出する。   Then, the road surface detection unit 7 detects the road surface group G (for example, road surface groups G1 to G4 in FIG. 17) according to the average luminance Dave and area of each group g already calculated by the integration unit 6, and the lane The candidate point detection means 8 searches and detects the lane candidate points cl and cr in the image portion other than the road surface group G.

その際、高輝度の車線に対応する車線候補点cl、crは暗い輝度の路面領域に対応する道路面グループG内には属していないため、道路面グループGに属する画素については探索を行う必要がない。そのため、道路面グループGでは探索を行わずにスキップすることが可能となる。また、車線候補点cl、crを検出する際に用いられる道路面グループGの平均輝度Daveは統合手段6で既に算出しているため、改めて算出する必要がない。   At that time, since the lane candidate points cl and cr corresponding to the high-brightness lane do not belong to the road surface group G corresponding to the dark-bright road surface area, it is necessary to search for the pixels belonging to the road surface group G. There is no. Therefore, it is possible to skip the road surface group G without performing a search. Further, since the average luminance Dave of the road surface group G used when detecting the lane candidate points cl and cr has already been calculated by the integration unit 6, it is not necessary to calculate again.

そのため、車線候補点cl、crを非常に高速に検出することが可能となり、車線検出手段9でそれらの車線候補点cl、crに基づいて車線LL、LRを高速に検出することが可能となる。そのため、例えば1秒間に数フレームから数十フレーム分の画像が撮像されてデータが入力されてくるような場合でも、車線LL、LRを迅速に検出することが可能となり、車線検出をリアルタイムで実行することが可能となる。   Therefore, the lane candidate points cl and cr can be detected at a very high speed, and the lane detection means 9 can detect the lanes LL and LR at a high speed based on the lane candidate points cl and cr. . Therefore, for example, even when images of several frames to several tens of frames are captured per second and data is input, lanes LL and LR can be detected quickly, and lane detection is performed in real time. It becomes possible to do.

また、車線候補点検出手段8では、車線候補点cl、crの探索領域を限定せず、道路面グループG以外の画像部分すなわちアスファルト面等の道路面の地の部分以外の道路面(すなわち道路面上に標示された車線等の標示部分)を探索して車線候補点cl、crを検出する。   Further, the lane candidate point detection means 8 does not limit the search area of the lane candidate points cl and cr, and the road surface (that is, the road surface other than the road surface ground portion such as the image portion other than the road surface group G, that is, the asphalt surface). The lane candidate points cl and cr are detected by searching for a lane marking portion marked on the surface).

そのため、例えば図26と同じ画像Tである図20に示したように、右折レーンに分岐する車線に対応する車線候補点crだけでなく、自車両が走行しようとしている本線に対応する車線候補点crも的確に検出することが可能となる。そして、図23に示すように車線が分岐するような場合であっても、それらの車線候補点crに基づいて自車両が走行しようとしている本線に対応する車線LRを的確に検出することが可能となる。   Therefore, for example, as shown in FIG. 20 which is the same image T as FIG. 26, not only the lane candidate point cr corresponding to the lane branching to the right turn lane but also the lane candidate point corresponding to the main line on which the host vehicle is going to travel. cr can also be accurately detected. And even if it is a case where a lane branches as shown in FIG. 23, it is possible to accurately detect the lane LR corresponding to the main line on which the host vehicle is going to travel based on the lane candidate points cr. It becomes.

また、本実施形態のように構成すると、例えば図24に示すように、車線が二重車線である場合でも車線LRを的確かつ安定的に検出することが可能となる。   Moreover, if comprised like this embodiment, as shown, for example in FIG. 24, even when a lane is a double lane, it becomes possible to detect the lane LR accurately and stably.

すなわち、従来の車線検出では、上記のように車線候補点cl、crの探索領域が限定されるため、図25に示すように、例えば二重車線のうちの内側の車線のエッジ部分を検出するようになるが、内側の車線は車両のタイヤに踏まれて薄くなっている場合が多く、消えてしまっている場合もある。   That is, in the conventional lane detection, the search area for the lane candidate points cl and cr is limited as described above. Therefore, as shown in FIG. 25, for example, the edge portion of the inner lane of the double lane is detected. However, the inner lane is often thinned by the tires of the vehicle and may have disappeared.

そのような場合に、二重車線の内側の車線に探索領域が限定されると、内側の車線が薄くなったり消えていたりするため、車線候補点cl、crが検出されなかったり、検出された位置が不安定になる等して、検出される車線LL、LRの位置も不安定になり、検出された車線LL、LRの信頼性が低下してしまう場合があった。   In such a case, if the search area is limited to the inner lane of the double lane, the inner lane becomes thinner or disappears, so the lane candidate points cl and cr are not detected or detected. The position of the detected lanes LL and LR also becomes unstable due to the position becoming unstable, and the reliability of the detected lanes LL and LR may be lowered.

それに対して、本実施形態に係る車線検出装置1では、上記のように車線候補点cl、crの探索領域を限定せずに、道路面グループG以外の画像部分を探索して車線候補点cl、crを検出する。そのため、図24に示したように、二重車線の内側の車線に対応する車線候補点cl、crだけでなく、薄くなっていない外側の車線に対応する車線候補点cl、crも検出される。   On the other hand, in the lane detection device 1 according to the present embodiment, the lane candidate point cl is searched by searching for an image portion other than the road surface group G without limiting the search area for the lane candidate points cl and cr as described above. , Cr are detected. Therefore, as shown in FIG. 24, not only the lane candidate points cl and cr corresponding to the inner lane of the double lane, but also the lane candidate points cl and cr corresponding to the outer lane not thinned are detected. .

そして、内側の車線が踏まれて薄くなったり消えていたりして、内側の車線に対応する車線候補点cl、crが検出されなかったり検出された位置が不安定になる等しても、外側の車線に対応する車線候補点cl、crが的確かつ安定的に検出されるため、図24に示したように、外側の車線LL、LRを的確かつ安定的に検出することが可能となる。また、そのため、検出された車線LL、LRの信頼性を向上させることが可能となる。   Even if the inner lane is stepped on and thinned or disappeared, the lane candidate points cl and cr corresponding to the inner lane are not detected, or the detected position becomes unstable. Since the lane candidate points cl and cr corresponding to this lane are detected accurately and stably, the outer lanes LL and LR can be accurately and stably detected as shown in FIG. For this reason, the reliability of the detected lanes LL and LR can be improved.

なお、二重車線の内側の車線が薄くなっておらず白色で明確に標示されているような状況では、本実施形態に係る車線検出装置1でも内側の車線に対応する車線候補点cl、crに基づいて内側の車線が車線LL、LRとして検出される場合もある。そのような場合には、車線候補点cl同士や車線候補点cr同士の画素数や実空間上の距離、或いは車線候補点clや車線候補点crが属するグループgの大きさや形状等に基づいて、車線LL、LRの種別が「それ以外の状態(二重車線の内側の車線)」として分類されるため、二重車線の内側の車線が検出されていることが明確となる。   In a situation where the inner lane of the double lane is not thin and is clearly marked in white, the lane detection device 1 according to this embodiment also uses the lane candidate points cl and cr corresponding to the inner lane. In some cases, the inner lane may be detected as lanes LL, LR. In such a case, based on the number of pixels between the lane candidate points cl or between the lane candidate points cr, the distance in real space, or the size or shape of the group g to which the lane candidate point cl or the lane candidate point cr belongs. Since the types of the lanes LL and LR are classified as “other states (lanes inside the double lanes)”, it is clear that the lanes inside the double lanes are detected.

また、本実施形態に係る車線検出装置1において、自車両の左右にそれぞれ複数の直線を車線として検出するように構成すれば、上記のように二重車線の内側の車線も外側の車線も明確に標示されているような状況で、二重車線の両側の車線をともに検出することが可能となる。   In addition, if the lane detection device 1 according to the present embodiment is configured to detect a plurality of straight lines on the left and right sides of the own vehicle as lanes, the inner lane and the outer lane of the double lane are clearly defined as described above. Thus, it is possible to detect both lanes on both sides of the double lane.

そして、その場合も、車線の種別として、二重車線の内側の車線は「それ以外の状態(二重車線の内側の車線)」として分類し、外側の車線は、図24等の右側の車線では「破線状」、左側の車線では「連続線状」として分類することで、検出した車線の種別が明確にされた状態で二重車線を検出することが可能となる。なお、二重車線の外側の車線の種別として「それ以外の状態(二重車線の外側の車線)」等として分類するように構成することも可能である。   Also in this case, as the lane type, the lane inside the double lane is classified as “other state (lane inside the double lane)”, and the outside lane is the right lane in FIG. By classifying as “broken line” and “continuous line” in the left lane, it is possible to detect a double lane in a state where the type of the detected lane is clarified. In addition, it is also possible to classify | categorize as a "other state (lane outside the double lane)" etc. as a classification of the lane outside the double lane.

以上のように、本実施形態に係る車線検出装置1によれば、車線候補点検出手段8で、車線候補点cl、crを探索するための探索領域を設定せず、道路面グループG以外の画像部分すなわちアスファルト面等の道路面の地の部分以外の道路面部分を探索して車線候補点cl、crを検出する。   As described above, according to the lane detection device 1 according to the present embodiment, the lane candidate point detection unit 8 does not set a search area for searching for the lane candidate points cl and cr, and other than the road surface group G. The road surface portion other than the ground portion of the road surface such as the image portion, that is, the asphalt surface is searched to detect the lane candidate points cl and cr.

そのため、例えば、右折レーンに分岐する車線に対応する車線候補点cl、crや、二重車線における内側の車線に対応する車線候補点cl、cr等だけでなく、自車両が走行しようとしている本線に対応する車線候補点cl、crや、二重車線における外側の車線に対応する車線候補点cl、cr等も的確に検出することが可能となる。   Therefore, for example, not only the lane candidate points cl and cr corresponding to the lane branching to the right turn lane, the lane candidate points cl and cr corresponding to the inner lane in the double lane, and the main line on which the host vehicle is about to travel The lane candidate points cl and cr corresponding to, the lane candidate points cl and cr corresponding to the outer lane in the double lane, and the like can be accurately detected.

そのため、車線が分岐するような場合であっても、それらの車線候補点cl、crに基づいて自車両が走行しようとしている本線に対応する車線LRを的確に検出して、撮像された画像T中から自車両の走行路に標示された車線を的確に検出することが可能となる。また、車線が二重車線であるような場合には、消えかかっている内側の車線ではなく、或いはそれとともに外側の車線を的確かつ安定的に検出することが可能となり、撮像された画像T中から自車両の走行路に標示された車線を的確に検出することが可能となる。   Therefore, even when the lane is branched, the lane LR corresponding to the main line that the host vehicle is about to travel is accurately detected based on the lane candidate points cl and cr, and the captured image T It becomes possible to accurately detect the lane marked on the traveling path of the host vehicle from the inside. Further, when the lane is a double lane, it is possible to accurately and stably detect not the inner lane that is disappearing, or the outer lane together with it, and in the captured image T Thus, it is possible to accurately detect the lane marked on the traveling path of the host vehicle.

また、車線候補点検出手段8では、道路面検出手段7で検出した道路面グループG(例えば図17の道路面グループG1〜G4)以外の画像部分で車線候補点cl、crを探索して検出する。その際、高輝度の車線に対応する車線候補点cl、crは暗い輝度の路面領域に対応する道路面グループG内には属していないため、道路面グループGに属する画素については探索を行う必要がない。そのため、道路面グループGでは探索を行わずにスキップすることが可能となる。   Further, the lane candidate point detection means 8 searches for and detects the lane candidate points cl and cr in image portions other than the road surface group G detected by the road surface detection means 7 (for example, the road surface groups G1 to G4 in FIG. 17). To do. At that time, since the lane candidate points cl and cr corresponding to the high-brightness lane do not belong to the road surface group G corresponding to the dark-bright road surface area, it is necessary to search for the pixels belonging to the road surface group G. There is no. Therefore, it is possible to skip the road surface group G without performing a search.

また、車線候補点cl、crを検出する際に用いられる道路面グループGの平均輝度Daveは統合手段6で既に算出しているため、従来の車線検出のように、膨大な量のヒストグラムを作成して、改めて道路面に対応する画素の輝度の平均値等を算出する必要がない。   Further, since the average luminance Dave of the road surface group G used when detecting the lane candidate points cl and cr has already been calculated by the integration means 6, a huge amount of histogram is created as in the conventional lane detection. Thus, there is no need to newly calculate the average value of the luminance of the pixels corresponding to the road surface.

そのため、車線候補点cl、crを高速に検出することが可能となり、車線検出手段9でそれらの車線候補点cl、crに基づいて車線LL、LRを高速に検出することが可能となる。そのため、例えば1秒間に数フレームから数十フレーム分の画像が撮像されてデータが入力されてくるような場合でも、車線LL、LRを迅速に検出することが可能となり、車線検出をリアルタイムで実行することが可能となる。   Therefore, the lane candidate points cl and cr can be detected at high speed, and the lane detection means 9 can detect the lanes LL and LR at high speed based on the lane candidate points cl and cr. Therefore, for example, even when images of several frames to several tens of frames are captured per second and data is input, lanes LL and LR can be detected quickly, and lane detection is performed in real time. It becomes possible to do.

さらに、統合手段6で画像Tの各画素pをグループ化する際、撮像手段2から各画素pの輝度Dのデータが入力されるとそれと並行して同様の輝度Dを有する画素pを統合してグループ化していき、画像Tの1画像分の全画素pの輝度Dのデータが入力された時点でそれとほぼ同じタイミングで統合処理が完了するように構成すれば、車線候補点cl、crをさらに迅速に検出することが可能となり、車線検出をリアルタイムで実行することが可能となる。   Furthermore, when the pixels p of the image T are grouped by the integration unit 6, when data of the luminance D of each pixel p is input from the imaging unit 2, the pixels p having the same luminance D are integrated in parallel therewith. If the integration processing is completed at almost the same timing when data of luminance D of all pixels p for one image of image T is input, the lane candidate points cl and cr are Further, it becomes possible to detect quickly and lane detection can be executed in real time.

また、統合手段6で画像Tの各画素pをグループ化することで、各グループgの画素数や画像T中の縦方向の最大長さ等の大きさがグループ化した時点で判明するため、車線候補点検出手段8で車線候補点cl、crを検出しても、それに対応する車線グループGlineの大きさが小さい場合にはその車線候補点cl、crを画像T中に写り込んだ高輝度のノイズ等に対応するものとして登録を抹消することができる。   In addition, by grouping the pixels p of the image T by the integration unit 6, the number of pixels of each group g, the maximum length in the vertical direction in the image T, and the like are found when they are grouped. Even if the lane candidate points cl and cr are detected by the lane candidate point detection means 8, if the size of the corresponding lane group Gline is small, the lane candidate points cl and cr are reflected in the image T. The registration can be deleted as a response to the noise.

そのため、車線候補点cl、crの誤検出を的確に防止することが可能となり、最終的に検出された車線LL、LRの検出の信頼性を向上させることが可能となる。   Therefore, erroneous detection of the lane candidate points cl and cr can be accurately prevented, and the reliability of detection of the finally detected lanes LL and LR can be improved.

1 車線検出装置
2 撮像手段
6 統合手段
7 道路面検出手段
8 車線候補点検出手段
9 車線検出手段
cl、cr 車線候補点
cre 車線終了点(車線の終了点)
Dave グループの平均輝度
Dave_th 輝度平均閾値(所定の閾値)
G 道路面グループ
Gline 車線グループ
g グループ
LL、LR 車線
MC 自車両
p 画素
r1〜r3 直線
T 画像
ΔD エッジ強度(輝度差)
ΔDth 第1輝度閾値(所定の閾値)
ΔDth1 閾値
ΔDth2 閾値
δD 平均値差分(道路面グループとの輝度の差)
δDth1 閾値
δDth2 閾値
DESCRIPTION OF SYMBOLS 1 Lane detection apparatus 2 Image pickup means 6 Integration means 7 Road surface detection means 8 Lane candidate point detection means 9 Lane detection means cl, cr Lane candidate point cre Lane end point (lane end point)
Average brightness of Dave group Dave_th Brightness average threshold (predetermined threshold)
G road surface group Gline lane group g group LL, LR lane MC own vehicle p pixel r1 to r3 straight line T image ΔD edge strength (luminance difference)
ΔDth first luminance threshold (predetermined threshold)
ΔDth1 threshold value ΔDth2 threshold value δD Average value difference (luminance difference from road surface group)
δDth1 threshold δDth2 threshold

Claims (7)

自車両の周囲を撮像して画像を取得する撮像手段と、
前記画像中の互いに隣接する画素の輝度差が所定の閾値内である画素同士を1つのグループとして統合する統合手段と、
前記グループの平均輝度と面積がそれぞれ所定の閾値の範囲内である場合、当該グループを道路面グループとして検出する道路面検出手段と、
前記画像において前記道路面グループ以外の画像部分を探索し、前記道路面グループとの輝度の差が所定の閾値以上であり、かつ、隣接する画素との輝度差が所定の閾値以上である画素を車線候補点として検出する車線候補点検出手段と、
検出された前記車線候補点に基づいて、前記画像中に自車両の走行路に標示された車線を検出する車線検出手段と、
を備えることを特徴とする車線検出装置。
Imaging means for capturing an image of the surroundings of the host vehicle;
Integration means for integrating pixels in which the luminance difference between adjacent pixels in the image is within a predetermined threshold as a group;
Road surface detection means for detecting the group as a road surface group, when the average brightness and area of the group are each within a predetermined threshold range;
Search the image portion other than the road surface group in the image, and find a pixel whose luminance difference with the road surface group is equal to or greater than a predetermined threshold and whose luminance difference with an adjacent pixel is equal to or greater than a predetermined threshold. Lane candidate point detecting means for detecting lane candidate points;
Lane detection means for detecting a lane marked on the traveling path of the host vehicle in the image based on the detected lane candidate point;
A lane detection device comprising:
前記車線候補点検出手段は、前記車線候補点に対応する前記車線の終了点を検出し、前記車線候補点と前記車線の終了点との間に存在する前記グループを車線グループとして検出して登録し、前記車線グループの前記画像中の縦方向の長さが所定の閾値以下である場合には、前記車線グループの登録を抹消するとともに、少なくとも前記車線候補点を検出された前記車線候補点から削除することを特徴とする請求項1に記載の車線検出装置。   The lane candidate point detecting means detects an end point of the lane corresponding to the lane candidate point, and detects and registers the group existing between the lane candidate point and the end point of the lane as a lane group. When the vertical length of the lane group in the image is equal to or smaller than a predetermined threshold, the lane group registration is canceled and at least the lane candidate point is detected from the detected lane candidate point. The lane detection device according to claim 1, wherein the lane detection device is deleted. 前記車線候補点検出手段は、検出した前記車線グループのうち、面積が最大の前記車線グループを登録し、登録した前記車線グループの前記面積または横方向の長さが所定の閾値以上である場合には、前記車線グループの登録を抹消するとともに、少なくとも前記車線候補点を検出された前記車線候補点から削除することを特徴とする請求項2に記載の車線検出装置。   The lane candidate point detection means registers the lane group having the largest area among the detected lane groups, and the area or the lateral length of the registered lane group is equal to or greater than a predetermined threshold. The lane detecting device according to claim 2, wherein the lane group registration is deleted and at least the lane candidate point is deleted from the detected lane candidate point. 前記車線候補点検出手段は、前記車線グループに属する各画素については前記車線候補点の探索を行わず、前記車線グループには属さなくなった画素であって、前記車線グループとの輝度の差が所定の閾値以下であり、かつ、隣接する画素との輝度差が所定の閾値以下である画素を前記車線の終了点として検出することを特徴とする請求項2または請求項3に記載の車線検出装置。   The lane candidate point detecting means does not search the lane candidate point for each pixel belonging to the lane group, and is a pixel that does not belong to the lane group, and a luminance difference from the lane group is predetermined. 4. The lane detection device according to claim 2, wherein a pixel that is equal to or less than a threshold value and has a luminance difference with an adjacent pixel that is equal to or less than a predetermined threshold value is detected as an end point of the lane. . 前記車線候補点検出手段は、前記車線グループに属する各画素については前記車線候補点の探索を行わず、前記車線グループには属さなくなった画素が前記道路面グループに属する場合には当該画素を前記車線の終了点として検出することを特徴とする請求項2から請求項4のいずれか一項に記載の車線検出装置。   The lane candidate point detection means does not search for the lane candidate point for each pixel belonging to the lane group, and if a pixel that no longer belongs to the lane group belongs to the road surface group, The lane detection device according to any one of claims 2 to 4, wherein the lane detection device detects the lane end point. 前記車線検出手段は、前記車線の候補としての直線を1本以上抽出し、前記各直線の近傍に存在する前記車線候補点の連続性に基づいて前記各直線の種別を判定し、少なくとも前記直線の種別および前記各直線の近傍に存在する前記車線候補点の数に基づいて算出した信頼度に基づいて前記各直線の中から前記車線を表す直線を選択することを特徴とする請求項1から請求項5のいずれか一項に記載の車線検出装置。   The lane detecting means extracts one or more straight lines as lane candidates, determines the type of each straight line based on continuity of the lane candidate points existing in the vicinity of each straight line, and at least the straight line The straight line representing the lane is selected from the straight lines based on the reliability calculated based on the type of the lane and the number of lane candidate points existing in the vicinity of the straight lines. The lane detection device according to claim 5. 前記直線の種別は、前記各直線の近傍に存在する前記車線候補点の連続性に基づいて前記直線が少なくとも連続線状、破線状、またはそれらの組み合わせに該当するか判定され、
前記車線候補点の連続性は、前記車線候補点同士の前記画像上での距離または実空間上の距離に基づいて判定され、同一の前記グループに属する前記車線候補点ついては前記判定にかかわりなく連続であると判定されることを特徴とする請求項6に記載の車線検出装置。
The type of the straight line is determined based on the continuity of the lane candidate points existing in the vicinity of each straight line, whether the straight line corresponds to at least a continuous line shape, a broken line shape, or a combination thereof,
The continuity of the lane candidate points is determined based on the distance between the lane candidate points on the image or the distance in real space, and the lane candidate points belonging to the same group are continuous regardless of the determination. The lane detection device according to claim 6, wherein the lane detection device is determined to be.
JP2009123795A 2009-05-22 2009-05-22 Lane detection device Active JP5189556B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009123795A JP5189556B2 (en) 2009-05-22 2009-05-22 Lane detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009123795A JP5189556B2 (en) 2009-05-22 2009-05-22 Lane detection device

Publications (2)

Publication Number Publication Date
JP2010271969A JP2010271969A (en) 2010-12-02
JP5189556B2 true JP5189556B2 (en) 2013-04-24

Family

ID=43419932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009123795A Active JP5189556B2 (en) 2009-05-22 2009-05-22 Lane detection device

Country Status (1)

Country Link
JP (1) JP5189556B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094970B2 (en) * 2006-08-30 2012-01-10 Toyota Mapmaster Incorporated Road image creation system
JP5742399B2 (en) * 2011-04-06 2015-07-01 富士ゼロックス株式会社 Image processing apparatus and program
JP6416654B2 (en) * 2015-02-17 2018-10-31 トヨタ自動車株式会社 White line detector
CN111126109B (en) * 2018-10-31 2023-09-05 沈阳美行科技股份有限公司 Lane line identification method and device and electronic equipment
CN112802126A (en) * 2021-02-26 2021-05-14 上海商汤临港智能科技有限公司 Calibration method, calibration device, computer equipment and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3731464B2 (en) * 2000-09-29 2006-01-05 日産自動車株式会社 Road white line recognition device
JP4616046B2 (en) * 2005-03-22 2011-01-19 本田技研工業株式会社 VEHICLE IMAGE PROCESSING SYSTEM, VEHICLE IMAGE PROCESSING METHOD, VEHICLE IMAGE PROCESSING PROGRAM, AND VEHICLE
JP4933962B2 (en) * 2007-06-22 2012-05-16 富士重工業株式会社 Branch entry judgment device

Also Published As

Publication number Publication date
JP2010271969A (en) 2010-12-02

Similar Documents

Publication Publication Date Title
EP2927060B1 (en) On-vehicle image processing device
JP5127182B2 (en) Object detection device
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
JP4157620B2 (en) Moving object detection apparatus and method
JP5747549B2 (en) Signal detector and program
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
JP5180126B2 (en) Road recognition device
JP5776795B2 (en) Three-dimensional object detection device
JP5631581B2 (en) Road recognition device
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP2008158958A (en) Road surface determination method and road surface determination device
JP2006309313A (en) Road recognition device
JP5189556B2 (en) Lane detection device
JP4939137B2 (en) Lane recognition device
CN111539907A (en) Image processing method and device for target detection
JP2007264712A (en) Lane detector
US20200193184A1 (en) Image processing device and image processing method
KR101236223B1 (en) Method for detecting traffic lane
JP5091897B2 (en) Stop line detector
JP5434277B2 (en) Driving support device and driving support method
US10796172B2 (en) Image processing device and image processing method
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP2020126304A (en) Out-of-vehicle object detection apparatus
JP5493705B2 (en) Vehicle position detection device, vehicle position detection method, and vehicle position detection program
US11145041B2 (en) Image processing device and method predicting areas in which to search for parking space delimiting lines

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5189556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250