JP2010224930A - Road recognition device - Google Patents

Road recognition device Download PDF

Info

Publication number
JP2010224930A
JP2010224930A JP2009072254A JP2009072254A JP2010224930A JP 2010224930 A JP2010224930 A JP 2010224930A JP 2009072254 A JP2009072254 A JP 2009072254A JP 2009072254 A JP2009072254 A JP 2009072254A JP 2010224930 A JP2010224930 A JP 2010224930A
Authority
JP
Japan
Prior art keywords
group
pixel
road surface
image
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009072254A
Other languages
Japanese (ja)
Other versions
JP5180126B2 (en
Inventor
Toru Saito
徹 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2009072254A priority Critical patent/JP5180126B2/en
Publication of JP2010224930A publication Critical patent/JP2010224930A/en
Application granted granted Critical
Publication of JP5180126B2 publication Critical patent/JP5180126B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a road recognition device detecting a road surface region of a road surface from within a taken image with precision and in real time. <P>SOLUTION: The road recognition device 1 includes: an integration means 6 for integrating one element pi, j in an image T and an adjacent pixel p into one group g based on a difference ΔD of the brightness Di, j of the one pixel pi, j to the brightness D of the pixel p adjacent to the one pixel pi, j and a difference δD of the brightness Di, j to the average value Dave of the brightness D of the group g to which the adjacent pixel p belongs; and a road surface region detection means 9 which detects the group g as a group G belonging to the road surface region of the road surface if a pixel row j exists where breadth Wj per pixel row j of the group g is equal to or greater than a breadth threshold Wth, the average value Nave of the breadth Nj is equal to or greater than an average value threshold Nave_th, the average value Dave of the brightness of the group g is equal to or less than a brightness average threshold Dave_th, and an area A within the region R of the group g is equal to or greater than an area threshold Ath. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、道路認識装置に係り、特に、撮像された画像中から道路面の路面領域を検出する道路認識装置に関する。   The present invention relates to a road recognition device, and more particularly to a road recognition device that detects a road surface area of a road surface from a captured image.

従来から、例えばCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラ等で車両前方を撮像した画像中から道路面上に標示された車線等を検出する技術が種々開発されている(例えば特許文献1、2等参照)。なお、本明細書では、追越し禁止線や路側帯と車道とを区画する区画線等の道路面上に標示された連続線や破線を車線という。   Conventionally, various techniques for detecting a lane or the like marked on a road surface from an image taken in front of a vehicle using, for example, a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera have been developed ( For example, see Patent Documents 1 and 2). In the present specification, a continuous line or a broken line marked on a road surface such as an overtaking prohibition line or a lane marking that divides a roadside zone and a roadway is referred to as a lane.

また、例えば特許文献3に記載の車両用環境認識装置では、今回のサンプリング周期で撮像した画像上に、前回のサンプリング周期で画像中に検出した自車両の側方に存在する車線で囲まれる領域よりも所定量大きい範囲のウインドウを設定して、車両の直前の路面が撮像されている確率が高いウインドウの下端部中央付近で基準色を認識し、ウインドウ全体で基準色と同一系色を抽出して、その領域を道路面の路面領域として認識し車線も認識する技術が提案されている。   Also, for example, in the vehicle environment recognition device described in Patent Document 3, an area surrounded by a lane that exists on the side of the host vehicle detected in the image at the previous sampling period on the image captured at the current sampling period. Set a window with a range larger than the predetermined amount, recognize the reference color near the center of the lower end of the window where the probability that the road surface just before the vehicle is imaged is high, and extract the same color as the reference color for the entire window Then, a technique for recognizing the region as a road surface region of a road surface and recognizing a lane has been proposed.

特許第3352655号公報Japanese Patent No. 3352655 特開2006−331389号公報JP 2006-331389 A 特許第3120648号Japanese Patent No. 3120648

しかしながら、自車両の左右いずれにも車線が標示されていないような道路もあるが、そのような場合、特許文献3に示された技術では上記のように画像中に検出した自車両の左右の車線に基づいてウインドウを設定するため、ウインドウを設定できず、道路面の路面領域を検出することが困難になる虞がある。   However, there are roads where the lane is not marked on either the left or right side of the host vehicle. In such a case, the technique disclosed in Patent Document 3 uses the left and right sides of the host vehicle detected in the image as described above. Since the window is set based on the lane, the window cannot be set, and it may be difficult to detect the road surface area of the road surface.

また、道路面の路面領域を抽出するための基準色としてウインドウの下端部中央付近の画素の色を基準色とすると、ウインドウの下端部中央付近に、道路面上に標示された横断歩道や停止線、或いは路面上の数字や文字、矢印等の白い表示が撮像されている場合には、その白い色を基準色として路面領域を抽出してしまうため、路面領域を正しく抽出することが困難となる虞がある。   In addition, if the pixel color near the center of the bottom edge of the window is used as the reference color for extracting the road surface area of the road surface, a pedestrian crossing or a stop marked on the road surface is located near the center of the bottom edge of the window. When a white display such as a line or a number, a character, or an arrow on the road surface is captured, the road surface region is extracted using the white color as a reference color, and it is difficult to correctly extract the road surface region. There is a risk of becoming.

さらに、画像に対してウインドウを設定するとしても、一旦メモリに保存されたウインドウ内の各画素の輝度を読み出してウインドウの全画素に対してその色が基準色と同一系色であるか否かを判定する処理は、いわば非常に重たい処理となる。そのため、例えば1秒間に数フレーム分或いは数十フレーム分の画像の輝度が取り込まれ、次々と処理を行わなければならないような場合に処理が間に合わなくなり、路面領域検出のリアルタイム性が損なわれる虞があった。   Furthermore, even if a window is set for an image, the luminance of each pixel in the window once stored in the memory is read, and whether or not the color is the same color as the reference color for all the pixels of the window In other words, the process for determining is a very heavy process. Therefore, for example, when the luminance of the image for several frames or several tens of frames is captured per second and processing must be performed one after another, the processing may not be in time, and the real-time property of road surface area detection may be impaired. there were.

本発明は、このような事情に鑑みてなされたものであり、撮像画像中から道路面の路面領域を的確かつリアルタイムに検出することが可能な道路認識装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a road recognition device capable of accurately detecting a road surface area of a road surface from a captured image in real time.

前記の問題を解決するために、第1の発明は、
撮像手段で撮像された画像を処理して、前記画像中から道路面の路面領域を検出する道路認識装置であって、
前記画像における一の画素に隣接する画素の輝度に対する前記一の画素の輝度の差分、および前記隣接する画素が属するグループの輝度の平均値との差分に基づいて前記一の画素および前記隣接する画素を1つのグループに統合する統合手段と、
前記統合手段により統合された前記グループについて、画像の横方向の画素行ごとの横幅の平均値、および前記グループに属する画素の輝度の平均値を算出する算出手段と、
前記画像中で自車両の進行方向に設定される領域内で前記グループが占める面積を算出する面積算出手段と、
前記グループの前記画素行に所定の横幅閾値以上である画素行が存在し、前記グループの前記画素行ごとの横幅の平均値が所定の平均値閾値以上であり、前記グループに属する前記各画素の輝度の平均値が所定の輝度平均閾値以下であり、かつ、前記面積算出手段により算出された前記グループの前記面積が所定の面積閾値以上である場合に、当該グループを道路面の路面領域に属するグループとして検出する路面領域検出手段と、
を備えることを特徴とする。
In order to solve the above problem, the first invention provides:
A road recognition device that processes an image captured by an imaging unit and detects a road surface area of a road surface from the image,
The one pixel and the adjacent pixel based on the difference between the luminance of the one pixel relative to the luminance of the pixel adjacent to the one pixel in the image and the average value of the luminance of the group to which the adjacent pixel belongs An integration means to integrate
For the group integrated by the integration unit, a calculation unit that calculates an average value of the horizontal width of each pixel row in the horizontal direction of the image and the average value of the luminance of the pixels belonging to the group;
An area calculating means for calculating an area occupied by the group in a region set in the traveling direction of the host vehicle in the image;
There is a pixel row that is equal to or greater than a predetermined width threshold in the pixel row of the group, an average value of the width for each pixel row of the group is equal to or greater than a predetermined average value threshold, and each pixel belonging to the group If the average luminance value is equal to or smaller than a predetermined luminance average threshold value and the area of the group calculated by the area calculating means is equal to or larger than a predetermined area threshold value, the group belongs to the road surface area of the road surface. Road surface area detecting means for detecting as a group;
It is characterized by providing.

第2の発明は、第1の発明の道路認識装置において、前記輝度平均閾値は、前記撮像手段のシャッタレベルに応じて可変されることを特徴とする。   According to a second aspect of the present invention, in the road recognition device according to the first aspect, the luminance average threshold value is variable according to a shutter level of the imaging means.

第3の発明は、第1または第2の発明の道路認識装置において、
前記画像中から自車両の側方に存在する車線を検出する車線検出手段を備え、
前記車線検出手段は、検出した前記車線が撮像された画素の輝度の平均値を算出し、
前記輝度平均閾値は、前記車線が撮像された画素の輝度の平均値に応じて可変されることを特徴とする。
3rd invention is the road recognition apparatus of 1st or 2nd invention,
Lane detection means for detecting a lane present on the side of the host vehicle from the image,
The lane detecting means calculates an average value of luminance of pixels in which the detected lane is imaged,
The luminance average threshold value may be varied according to an average luminance value of pixels in which the lane is imaged.

第4の発明は、第1から第3のいずれかの発明の道路認識装置において、
前記画像中から自車両の側方に存在する車線を検出する車線検出手段を備え、
前記画像中で自車両の進行方向に設定される領域は、前記車線検出手段により過去のサンプリング周期で検出された車線の情報と自車両の挙動とに基づいて今回のサンプリング周期において推定される車線の位置を基準に設定されることを特徴とする。
A fourth invention is the road recognition device according to any one of the first to third inventions,
Lane detection means for detecting a lane present on the side of the host vehicle from the image,
The region set in the traveling direction of the host vehicle in the image is a lane estimated in the current sampling cycle based on the lane information detected by the lane detection unit in the past sampling cycle and the behavior of the host vehicle. It is characterized in that it is set based on the position of.

第5の発明は、第1から第3のいずれかの発明の道路認識装置において、前記画像中で自車両の進行方向に設定される領域は、自車両の挙動から推定される推定軌跡から横方向に所定距離離間した位置までの範囲に設定されることを特徴とする。   According to a fifth aspect of the present invention, in the road recognition device according to any one of the first to third aspects, the region set in the traveling direction of the host vehicle in the image is lateral to the estimated trajectory estimated from the behavior of the host vehicle. A range up to a position separated by a predetermined distance in the direction is set.

第6の発明は、第1から第5のいずれかの発明の道路認識装置において、
前記算出手段は、前記統合手段が前記一の画素と前記隣接する画素とを1つのグループに統合する際に、前記グループの前記画素行における実空間上の横幅が前記横幅閾値以上となった場合に、条件が成立した旨の情報を当該グループに対応付け、
前記路面領域検出手段は、前記グループの前記画素行ごとの横幅が所定の横幅閾値以上である画素行が存在するか否かの判定を、当該グループに前記情報が対応付けられているか否かを判定して行うことを特徴とする。
A sixth invention is the road recognition device according to any one of the first to fifth inventions,
When the integration unit integrates the one pixel and the adjacent pixel into one group, the horizontal width in the real space in the pixel row of the group is equal to or greater than the horizontal width threshold. In addition, the information that the condition is satisfied is associated with the group,
The road surface area detecting means determines whether or not there is a pixel row in which the horizontal width of each pixel row of the group is equal to or larger than a predetermined horizontal width threshold, and whether or not the information is associated with the group. It is characterized by being judged.

第7の発明は、第1から第6のいずれかの発明の道路認識装置において、
前記画像中の前記各画素の実空間上の距離を検出する距離検出手段を備え、
前記統合手段は、前記一の画素の前記実空間上の距離に基づいて算出される前記一の画素に対応する実空間上の点の前記道路面からの高さと前記隣接する画素に対応する実空間上の点の前記道路面からの高さのうち、一方が所定の第1高さ閾値以上であり、他方が前記第1高さ閾値未満である場合には、当該一の画素と前記隣接する画素とを非統合とすることを特徴とする。
A seventh invention is the road recognition device according to any one of the first to sixth inventions,
A distance detecting means for detecting a distance in real space of each pixel in the image;
The integrating means includes a height from the road surface of a point in the real space corresponding to the one pixel calculated based on a distance in the real space of the one pixel and an actual pixel corresponding to the adjacent pixel. Among the heights of the points on the space from the road surface, when one is not less than a predetermined first height threshold and the other is less than the first height threshold, the one pixel and the adjacent It is characterized in that non-integrated pixels are to be integrated.

第8の発明は、第1から第7のいずれかの発明の道路認識装置において、
前記画像中の前記画素の実空間上の距離を検出する距離検出手段を備え、
前記路面領域検出手段は、前記グループに属する画素の前記実空間上の距離に基づいて前記グループの前記道路面からの実空間上の高さが所定の第2高さ閾値以上である場合には、当該グループを前記道路面の路面領域の検出の対象から除外することを特徴とする。
An eighth invention is the road recognition device according to any one of the first to seventh inventions,
A distance detecting means for detecting a distance in real space of the pixel in the image;
When the height of the group in the real space from the road surface of the group is greater than or equal to a predetermined second height threshold based on the distance in the real space of the pixels belonging to the group The group is excluded from the detection target of the road surface area of the road surface.

第1の発明によれば、統合手段により画像の各画素を輝度に基づいて各グループに統合した後、グループの画素行ごとの横幅やその平均値、グループに属する各画素の輝度の平均値、グループが画像の前記領域内で占める面積に基づいて、当該グループを道路面の路面領域に属するグループであるか否かを判定する。すなわち、画像内でのグループの大きさや形状、平均的な輝度、画像中で占める位置に基づいて判定するため、グループが道路面の路面領域に属するグループであるか否かを的確に判定して、画像中から道路面の路面領域を的確に検出することが可能となる。   According to the first invention, after integrating each pixel of the image into each group based on the luminance by the integrating means, the horizontal width for each pixel row of the group and its average value, the average value of the luminance of each pixel belonging to the group, Based on the area that the group occupies in the region of the image, it is determined whether or not the group belongs to the road surface region of the road surface. In other words, since the determination is based on the size and shape of the group in the image, the average luminance, and the position occupied in the image, it is determined accurately whether or not the group belongs to the road surface area of the road surface. Thus, it is possible to accurately detect the road surface area of the road surface from the image.

特に、上記の特許文献3に記載の車両用環境認識装置のように、画像中に設定したウインドウの下端部中央付近の画素の色を基準色とする等を処理を行わず、グループに属する各画素の輝度の平均値に基づいてグループが道路面の路面領域に属するグループであるか否かを判定するため、誤抽出や誤判定の問題が生じることを的確に防止して、道路面の路面領域を的確に検出することが可能となる。   In particular, as in the vehicle environment recognition device described in Patent Document 3 described above, each pixel belonging to the group is not subjected to processing such as setting the color of the pixel near the center of the lower end of the window set in the image as a reference color. Since it is determined whether or not the group belongs to the road surface area of the road surface based on the average value of the luminance of the pixel, it is possible to accurately prevent the problem of erroneous extraction and erroneous determination, and to prevent the road surface of the road surface. It is possible to accurately detect the region.

また、統合手段による各グループの統合処理と同時並行で、算出手段や面積算出手段による各処理を行い、統合処理が終了した後、路面領域検出手段による判定処理等が行われるため、画像中からの道路面の路面領域の検出を非常に迅速に行うことが可能となる。そのため、例えば1秒間に数フレーム分或いは数十フレーム分の画像の輝度が取り込まれ、次々と処理を行わなければならないような場合でも、各フレームごとに画像中から道路面の路面領域を的確に検出することが可能となり、リアルタイムで処理を行うことが可能となる。   In addition, since each process by the calculation means and the area calculation means is performed in parallel with the integration process of each group by the integration means, and after the integration process is completed, a determination process by the road surface area detection means is performed. The road surface area of the road surface can be detected very quickly. Therefore, for example, even when the luminance of an image for several frames or several tens of frames is captured per second and processing must be performed one after another, the road surface area of the road surface is accurately determined from the image for each frame. It becomes possible to detect and process in real time.

さらに、第1の発明によれば、統合手段により画像の各画素を輝度に基づいて統合した各グループとして画像中から道路面の路面領域を検出するため、例えば、自車両が走行する道路が自車両の左右のいずれにも車線が標示されていないような道路であっても画像中から的確に道路面の路面領域を検出することが可能となる。また、道路面の路面領域に属するグループとして検出した各グループをつなぎ合わせて画像中に道路面の路面領域を抽出して検出するため、後述する図18に示すように、自車両が走行している道路に合流する道路Bや、自車両が走行している道路の遠方領域Cをも的確に検出することが可能となり、画像に撮像された道路面の路面領域を的確に検出することが可能となる。   Furthermore, according to the first invention, since the road surface area of the road surface is detected from the image as each group obtained by integrating the pixels of the image based on the luminance by the integrating means, for example, the road on which the host vehicle is traveling Even on a road where no lane is marked on either the left or right side of the vehicle, the road surface area of the road surface can be accurately detected from the image. Further, since the groups detected as the groups belonging to the road surface area are connected and the road surface area of the road surface is extracted and detected in the image, as shown in FIG. It is possible to accurately detect the road B that merges with the existing road and the distant area C of the road on which the vehicle is traveling, and it is possible to accurately detect the road surface area of the road surface captured in the image. It becomes.

第2の発明によれば、車線や横断歩道、停止線、数字、文字、矢印等の路面上に白く標示される各標示と、道路面の路面領域のように暗く撮像される撮像対象とを、撮像手段のシャッタレベルに応じて可変された輝度平均閾値により的確に選別することが可能となる。そのため、輝度が小さいグループを道路面の路面領域に属するグループとして的確に検出することが可能となり、前記発明の効果をより的確に発揮させることが可能となる。   According to the second invention, each marking that is marked white on the road surface such as a lane, a pedestrian crossing, a stop line, a number, a letter, an arrow, and the like and an imaging target that is darkly imaged like a road surface area on the road surface Thus, it is possible to accurately select based on the luminance average threshold value that is varied according to the shutter level of the imaging means. Therefore, it is possible to accurately detect a group with low luminance as a group belonging to the road surface area of the road surface, and it is possible to exhibit the effect of the invention more accurately.

第3の発明によれば、輝度平均閾値を車線が撮像された画素の輝度の平均値に応じて可変させて車線や横断歩道、停止線、数字、文字、矢印等の路面上に白く標示される各標示に対応するグループを適切に排除して、輝度が小さいグループを道路面の路面領域に属するグループとして的確に検出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   According to the third aspect of the invention, the brightness average threshold is varied according to the average value of the brightness of the pixels in which the lane is imaged, and is marked in white on the road surface such as a lane, a pedestrian crossing, a stop line, a number, a character, or an arrow. It is possible to appropriately exclude the group corresponding to each sign, and to detect a group with low brightness as a group belonging to the road surface area of the road surface, and to exhibit the effect of each invention more accurately. It becomes possible.

第4の発明によれば、車線検出手段により前回のサンプリング周期等の過去のサンプリング周期で自車両の側方に検出された車線の情報と自車両の挙動とに基づいて、今回のサンプリング周期における車線の位置を推定し、それを基準に前記領域を設定することで、前記領域を精度良く設定することが可能となり、前記各発明の効果を的確に発揮させることが可能となる。   According to the fourth invention, based on the lane information detected by the lane detection means at the side of the host vehicle in the past sampling cycle such as the previous sampling cycle and the behavior of the host vehicle, By estimating the position of the lane and setting the area based on the estimated position, the area can be set with high accuracy, and the effects of the respective inventions can be exhibited accurately.

第5の発明によれば、前記領域を、例えば自車両の挙動から推定される推定軌跡に基づいて設定することが可能となる。そのため、自車両が走行している道路に車線が標示されていないような場合であっても、車線に頼らず、有効に前記領域を設定して画像中から道路面の路面領域を的確に検出することが可能となり、前記各発明の効果を的確に発揮させることが可能となる。   According to the fifth aspect, the area can be set based on, for example, an estimated trajectory estimated from the behavior of the host vehicle. Therefore, even when the lane is not marked on the road on which the vehicle is traveling, the road area of the road surface is accurately detected from the image by effectively setting the area without depending on the lane. Thus, the effects of the above-described inventions can be exhibited accurately.

第6の発明によれば、横幅閾値を、実空間上の横幅として例えば60cm等に設定することで、道路面上に標示される横断歩道の各白線ブロック等の標示に対応するグループを道路面の路面領域に属するグループとして検出しないように構成することが可能となるとともに、グループの画像行ごとの実空間上の横幅が横幅閾値以上か否かの判定を、算出手段で統合手段による統合処理と同時に行うように構成することで、処理の迅速化を図ることが可能となり、前記各発明の効果を的確に発揮させることが可能となる。   According to the sixth aspect of the invention, by setting the width threshold value as a width in the real space, for example, 60 cm or the like, the group corresponding to the marking such as each white line block of the pedestrian crossing marked on the road surface is displayed on the road surface. It can be configured not to be detected as a group belonging to the road surface area, and the calculation unit determines whether the width in the real space for each image row of the group is equal to or greater than the width threshold by the integration unit By configuring so as to be performed at the same time, it is possible to speed up the processing, and it is possible to accurately exhibit the effects of the above-described inventions.

第7の発明によれば、路面領域を含む道路面に存在する撮像対象と、立体物等の道路面の上方に存在する撮像対象とを別のグループに統合することが可能となる。そのため、立体物等を道路面の路面領域として誤検出することを的確に防止することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   According to the seventh aspect, it is possible to integrate the imaging target existing on the road surface including the road surface area and the imaging target existing above the road surface such as a three-dimensional object into different groups. Therefore, it is possible to accurately prevent a three-dimensional object or the like from being erroneously detected as a road surface area of the road surface, and it is possible to exhibit the effects of the above-described inventions more accurately.

第8の発明によれば、立体物等の道路面の上方に存在する撮像対象を除外して、路面領域を含む道路面に存在する撮像対象のみを道路面の路面領域の検出対象とすることが可能となる。そのため、立体物等を道路面の路面領域として誤検出することを的確に防止することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   According to the eighth invention, the imaging target existing above the road surface such as a three-dimensional object is excluded, and only the imaging target existing on the road surface including the road surface region is set as the detection target of the road surface region of the road surface. Is possible. Therefore, it is possible to accurately prevent a three-dimensional object or the like from being erroneously detected as a road surface area of the road surface, and it is possible to exhibit the effects of the above-described inventions more accurately.

第1の実施形態に係る道路認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the road recognition apparatus which concerns on 1st Embodiment. 撮像手段で撮像される画像の例を示す図である。It is a figure which shows the example of the image imaged with an imaging means. 画像中に撮像された車線に連続して標示される停止線の例を示す図である。It is a figure which shows the example of the stop line marked continuously to the lane imaged in the image. 推定軌跡に基づいて設定される領域を説明する図である。It is a figure explaining the area | region set based on an estimated locus | trajectory. 撮像手段で撮像される画像の例および画像中に設定された領域の例を示す写真である。It is a photograph which shows the example of the image imaged with an imaging means, and the example of the area | region set in the image. 統合手段等における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in an integration means etc. 統合手段等における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in an integration means etc. 算出手段等における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in a calculation means etc. 路面領域検出手段等における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in a road surface area detection means etc. 入力された一の画素と既に入力されている左に隣接する画素とを説明する図である。It is a figure explaining the input 1 pixel and the pixel adjacent to the left already input. 一の画素と左に隣接する画素が属するグループの例とを説明する図である。It is a figure explaining the example of the group to which one pixel and the pixel adjacent on the left belong. 入力された一の画素と既に入力されている下に隣接する画素とを説明する図である。It is a figure explaining the inputted 1 pixel and the pixel adjacent below already inputted. 一の画素と下に隣接する画素が属するグループの例とを説明する図である。It is a figure explaining the example of the group to which one pixel and the adjacent pixel below belong. (A)2つの画素が一の画素の左および下に隣接するグループの例を説明する図であり、(B)一の画素が左に隣接する画素とグループ化されたため下に隣接する画素ともグループ化される例を説明する図である。(A) It is a figure explaining the example of the group which two pixels adjoin to the left and the bottom of one pixel, (B) Since one pixel was grouped with the pixel adjacent to the left, It is a figure explaining the example grouped. (A)下に隣接する画素が属するグループと左に隣接する画素が属するグループの例を説明する図であり、(B)2つのグループが一の画素とグループ化されて1つのグループになる例を説明する図である。(A) It is a figure explaining the example of the group to which the adjacent pixel below belongs, and the group to which the pixel adjacent to the left belongs, (B) The example in which two groups are grouped with one pixel and become one group FIG. 図5の画像に基づいて統合された複数のグループを表す写真である。6 is a photograph showing a plurality of groups integrated based on the image of FIG. 5. 図5の画像から抽出された道路面の路面領域を表す写真である。It is a photograph showing the road surface area of the road surface extracted from the image of FIG. 自車両の走行路に合流する道路や自車両の走行路の遠方領域を表す図である。It is a figure showing the distant area | region of the road and the traveling path of the own vehicle which merge with the traveling path of the own vehicle. 第2の実施形態に係る道路認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the road recognition apparatus which concerns on 2nd Embodiment. 距離検出手段のイメージプロセッサによるステレオマッチング処理を説明する図である。It is a figure explaining the stereo matching process by the image processor of a distance detection means. 距離画像の例を示す図である。It is a figure which shows the example of a distance image. 基準画像の水平ライン上を探索して検出された車線候補点の例を説明する図である。It is a figure explaining the example of the lane candidate point detected by searching on the horizontal line of a reference image. 車線に対応する画素の輝度を説明する図である。It is a figure explaining the brightness | luminance of the pixel corresponding to a lane. 自車両の側方に検出された車線の例を説明する図である。It is a figure explaining the example of the lane detected to the side of the own vehicle. 形成された車線モデルの例を説明する図であり、(A)はZ−X平面上の水平形状モデル、(B)はZ−Y平面上の道路高モデルを表す。It is a figure explaining the example of the formed lane model, (A) represents the horizontal shape model on a ZX plane, (B) represents the road height model on a ZY plane.

以下、本発明に係る道路認識装置の実施の形態について、図面を参照して説明する。   Hereinafter, an embodiment of a road recognition device according to the present invention will be described with reference to the drawings.

[第1の実施の形態]
第1の実施形態に係る道路認識装置1は、図1に示すように、主に撮像手段2と処理部5とで構成されている。撮像手段2は、本実施形態では、例えばCCDやCMOSセンサ等のイメージセンサが内蔵されたカメラ等の単眼の撮像手段が用いられているが、複数設けられた撮像手段のうちの単数または複数の撮像手段により撮像された単数または複数の画像に対して本発明に係る処理を施すように構成することも可能である。
[First Embodiment]
As shown in FIG. 1, the road recognition device 1 according to the first embodiment mainly includes an imaging unit 2 and a processing unit 5. In the present embodiment, the imaging unit 2 is a monocular imaging unit such as a camera with a built-in image sensor such as a CCD or CMOS sensor. However, a single or a plurality of imaging units 2 are provided. It is also possible to configure so that the processing according to the present invention is performed on one or a plurality of images picked up by the image pickup means.

また、本実施形態では、撮像手段2は、例えば図2に示すような画像Tを撮像する場合、画像Tの各水平ラインjの最も左側の撮像素子から順に右方向に走査し、また、走査する水平ラインjを最も下側のラインから順に上方に切り替えながら撮像するようにして、各撮像素子で撮像された順に輝度Dの各データを変換手段3に順次送信するようになっている。   Further, in the present embodiment, for example, when an image T as shown in FIG. 2 is captured, the imaging unit 2 scans in the right direction sequentially from the leftmost imaging element of each horizontal line j of the image T. The horizontal line j to be picked up is picked up while switching upward from the lowermost line in order, and each data of the luminance D is sequentially transmitted to the conversion means 3 in the order picked up by each image pickup device.

変換手段3は、A/Dコンバータで構成されており、撮像手段2で各撮像素子(各画素p)ごとに撮像された輝度Dの各データが順次送信されてくると、各画素pの輝度Dのデータをそれぞれ例えば256階調等のグレースケールのデジタル値の輝度Dのデータに変換して画像補正部4に出力するようになっている。画像補正部4は、送信されてきた輝度Dの各データに対してずれやノイズの除去、輝度の補正等の画像補正を順次行い、画像補正した輝度Dの各データを処理部5に順次送信するようになっている。   The conversion means 3 is composed of an A / D converter, and when the data of the luminance D imaged for each imaging element (each pixel p) by the imaging means 2 is sequentially transmitted, the luminance of each pixel p. The D data is converted into luminance D data of a gray scale digital value such as 256 gradations and output to the image correction unit 4. The image correction unit 4 sequentially performs image correction such as displacement and noise removal, luminance correction, and the like on the transmitted data of the luminance D, and sequentially transmits the image corrected luminance D data to the processing unit 5. It is supposed to be.

処理部5は、本実施形態では、図示しないCPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)、入出力インターフェース等がバスに接続されたコンピュータで構成されている。処理部5は、統合手段6や算出手段7、面積算出手段8、路面領域検出手段9を備えている。   In this embodiment, the processing unit 5 is configured by a computer in which a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an input / output interface, and the like (not shown) are connected to a bus. The processing unit 5 includes an integration unit 6, a calculation unit 7, an area calculation unit 8, and a road surface area detection unit 9.

また、処理部5に、車速センサやヨーレートセンサ、ステアリングホイールの舵角を測定する舵角センサ等のセンサ類Qが接続されており、それらから各測定値が入力されるようになっている。なお、処理部5において、さらに、他の処理を行うように構成することも可能である。   Sensors Q such as a vehicle speed sensor, a yaw rate sensor, and a steering angle sensor for measuring the steering angle of the steering wheel are connected to the processing unit 5, and each measurement value is input from them. Note that the processing unit 5 may be configured to perform other processing.

なお、以下の説明では、例えば図2に示した画像Tにおける画素について、画像Tの左下隅の画素を原点とし、右向きにi軸、上向きにj軸をとった場合の画素の座標(i,j)を用いて、画素pi,jのように表す。また、画素pi,jの輝度DをDi,jのように表す。   In the following description, for example, with respect to the pixels in the image T shown in FIG. 2, the coordinates of the pixels (i, i, i) and (i, j) is used to represent a pixel pi, j. Further, the luminance D of the pixel pi, j is expressed as Di, j.

本実施形態では、処理部5では、上記のように撮像手段2により撮像された画像Tの各画素pの輝度Dのデータが変換手段3等での処理を経て順次入力されてくると、統合手段6で、入力された画素pi,j(以下、入力画素pi,jという。)の輝度Di,jと、入力画素pi,jに隣接する画素pの輝度Dとを比較し、また、入力画素pi,jの輝度Di,jと、それに隣接する画素pが属するグループgに属する全画素pの各輝度Dの平均値とを比較して、後述する条件に適合する場合に入力画素pi,jと隣接する画素pとを1つのグループgに統合するようになっている。   In the present embodiment, when the processing unit 5 sequentially inputs the data of the luminance D of each pixel p of the image T captured by the imaging unit 2 as described above through the processing of the conversion unit 3 or the like, the integration is performed. The means 6 compares the luminance Di, j of the input pixel pi, j (hereinafter referred to as the input pixel pi, j) with the luminance D of the pixel p adjacent to the input pixel pi, j, The luminance Di, j of the pixel pi, j is compared with the average value of the luminances D of all the pixels p belonging to the group g to which the adjacent pixel p belongs, and the input pixel pi, j and the adjacent pixel p are integrated into one group g.

この統合処理は、上記のように画像Tの各画素pの輝度Dのデータが順次入力されてくるごとに行われ、最終的に、送信されてきた1画像分の全画素pについて行われて、画像Tの各画素pが複数のグループgに分割される。   This integration processing is performed every time the luminance D data of each pixel p of the image T is sequentially input as described above, and is finally performed for all the pixels p of one image transmitted. Each pixel p of the image T is divided into a plurality of groups g.

算出手段7は、統合手段6で入力画素pi,jをグループgに統合する際に、同時並行で、各グループgに属する各画素pの輝度Dの平均値Daveを算出して更新していくようになっている。このグループgに属する各画素pの輝度Dの平均値Daveは、前述した統合手段6において、入力画素pi,jの輝度Di,jと、隣接する画素pが属するグループgに属する全画素pの各輝度Dの平均値Daveとが比較される際に用いられるとともに、後述する路面領域検出手段9においてグループgを道路面の路面領域に属するグループGとして検出するか否かの判定にも用いられる。   When the integration unit 6 integrates the input pixels pi, j into the group g, the calculation unit 7 calculates and updates the average value Dave of the luminance D of each pixel p belonging to each group g in parallel. It is like that. The average value Dave of the luminance D of each pixel p belonging to the group g is calculated by the integration means 6 described above for the luminance Di, j of the input pixel pi, j and all the pixels p belonging to the group g to which the adjacent pixel p belongs. It is used when the average value Dave of each luminance D is compared, and also used to determine whether or not the group g belonging to the road surface area of the road surface is detected by the road surface area detection means 9 described later. .

また、算出手段7は、各グループgごとに、画像T上で横方向に延在する各画素行jごとの横幅Wjを算出するようになっている。本実施形態では、この各グループgの画素行jごとの横幅Wjを用いて、2通りの判定が行われるように構成されている。   Further, the calculating means 7 calculates the horizontal width Wj for each pixel row j extending in the horizontal direction on the image T for each group g. In the present embodiment, two types of determinations are performed using the horizontal width Wj for each pixel row j of each group g.

まず、本実施形態では、道路面上に標示される横断歩道の各白線ブロック等に対応するグループgを道路面の路面領域に属するグループGとして検出しないようにするために、グループgが占める実空間上での横方向の横幅に対して横幅閾値Wthが設けられている。横幅閾値Wthは、実空間上の横幅として例えば60cmの横幅に設定される。   First, in this embodiment, in order not to detect the group g corresponding to each white line block of the pedestrian crossing marked on the road surface as the group G belonging to the road surface area of the road surface, A horizontal width threshold Wth is provided for the horizontal width in the space. The lateral width threshold Wth is set to a lateral width of 60 cm, for example, as the lateral width in real space.

そして、前述したように、撮像手段2からは水平ラインj(画素行j)ごとに各画素pの輝度Dのデータが入力されるが、その際、算出手段7は、当該水平ラインjごとに、上記の実空間上の横幅として設定された横幅閾値Wthに相当する画素数閾値Nthを算出して設定し、統合手段6が上記のように入力画素pi,jと隣接する画素pとを1つのグループgに統合する統合処理の際に、その画像行jにおけるグループgの横幅Wjを画素数Njとして計数し、計数した画素数Njが横幅閾値Wthに相当する画素数閾値Nth以上となった場合に、条件が成立した旨の情報を当該グループgに対応付けるようになっている。   As described above, the data of the luminance D of each pixel p is input from the imaging unit 2 for each horizontal line j (pixel row j). At this time, the calculation unit 7 outputs the data for each horizontal line j. The pixel number threshold value Nth corresponding to the horizontal width threshold value Wth set as the horizontal width in the real space is calculated and set, and the integration unit 6 sets the input pixel pi, j and the adjacent pixel p to 1 as described above. In the integration process for integrating into one group g, the horizontal width Wj of the group g in the image row j is counted as the pixel number Nj, and the counted pixel number Nj is equal to or greater than the pixel number threshold Nth corresponding to the horizontal width threshold Wth. In this case, information indicating that the condition is satisfied is associated with the group g.

このように、本実施形態では、条件が成立した旨の情報が対応付けられていることで、当該グループgは、実空間上で上記の横幅閾値Wth以上の横幅が少なくともその一部に存在する撮像対象に対応するものであることが分かるようになっている。   As described above, in the present embodiment, the information indicating that the condition is satisfied is associated, so that the group g has a horizontal width equal to or larger than the horizontal width threshold value Wth in at least a part thereof in the real space. It can be seen that this corresponds to the object to be imaged.

なお、本実施形態では、画像Tの水平ラインj(画素行j)ごとに1画素あたりの実空間上の横方向の横幅が予め算出されて割り当てられて図示しない記憶手段に記憶されており、実空間上の横幅である横幅閾値Wthに相当する水平ラインjごとの画素数閾値Nthは、横幅閾値Wthを、当該水平ラインjの1画素あたりの実空間上の横方向の横幅で除算することで算出することができる。   In the present embodiment, the horizontal width in the real space per pixel for each horizontal line j (pixel row j) of the image T is calculated and assigned in advance and stored in a storage means (not shown). The pixel number threshold value Nth for each horizontal line j corresponding to the horizontal width threshold value Wth that is the horizontal width in the real space is obtained by dividing the horizontal width threshold value Wth by the horizontal width in the real space per pixel of the horizontal line j. Can be calculated.

また、もう1つの判定として、自車両の側方に標示されている車線等のように画像T中に縦方向や斜め方向にいわば細長く延在するグループとして検出されるグループgが道路面の路面領域に属するグループGであると判定されないようにするために、各グループgの画素行jごとの横幅Wjが用いられるようになっている。   Further, as another determination, the group g detected as a group extending in the vertical direction or the diagonal direction in the image T, such as a lane marked on the side of the host vehicle, is a road surface on the road surface. The horizontal width Wj for each pixel row j of each group g is used so that it is not determined that the group G belongs to the region.

車線は、通常の場合、道路面上に15cmの横幅で標示され、画像T上のグループgが車線のみに対応する場合には上記の横幅閾値Wthに基づく判定処理で排除されるため、車線のみに対応するグループgが道路面の路面領域に属するグループGとしては検出されることはない。   Normally, the lane is marked with a width of 15 cm on the road surface, and when the group g on the image T corresponds to only the lane, it is excluded by the determination process based on the width threshold Wth described above. Is not detected as a group G belonging to the road surface area of the road surface.

しかし、図3に示すように、画像T中に車線LL、LRに連続して標示される停止線SL等が撮像されていると、例えば車線LRに対応するグループgの横方向の横幅Wjが停止線SLの部分で急に大きくなり、上記の横幅閾値Wth以上となるように検出される。そのため、上記の横幅閾値Wthに基づく判定処理のみでは、車線LRや停止線SLに対応するグループgも道路面の路面領域に属するグループGとして検出されてしまう可能性が生じる。   However, as shown in FIG. 3, when a stop line SL or the like that is continuously displayed in the lanes LL and LR is captured in the image T, for example, the lateral width Wj of the group g corresponding to the lane LR is It is detected so that it suddenly increases at the stop line SL and becomes equal to or greater than the width threshold Wth. Therefore, the group g corresponding to the lane LR and the stop line SL may be detected as the group G belonging to the road surface area only by the determination process based on the lateral width threshold Wth.

そこで、これを回避するために、本実施形態では、算出手段7は、各グループgの画素行jごとの横幅Wjの平均値Waveを算出するようになっている。   Therefore, in order to avoid this, in the present embodiment, the calculation means 7 calculates the average value Wave of the width Wj for each pixel row j of each group g.

その際、画像T中に撮像された車線LL、LRの横幅は、道路面の横幅に比べれば非常に小さく画素数も少ない。そのため、本実施形態では、この平均値Waveを算出する算出処理では、処理の単純化を図ることを目的として、算出手段7は、統合手段6での統合処理で入力画素pi,jをグループgに統合するごとにグループgに属する画素数Nを単純に加算していき、統合手段6での統合処理が終了した時点で、グループgに属する画素数Nをグループgの画像T中の縦方向の行数で除算する。そして、このようにして算出した画素行jごとの横方向の画素数の平均値Naveとして、グループgの画素行jごとの横幅Wjの平均値Waveを算出するようになっている。   At that time, the lateral widths of the lanes LL and LR captured in the image T are very small compared to the lateral width of the road surface and the number of pixels is small. Therefore, in the present embodiment, in the calculation process for calculating the average value Wave, for the purpose of simplifying the process, the calculation unit 7 assigns the input pixel pi, j to the group g by the integration process in the integration unit 6. The number N of pixels belonging to the group g is simply added every time integration is performed, and when the integration processing in the integration unit 6 is completed, the number N of pixels belonging to the group g is converted to the vertical direction in the image T of the group g. Divide by the number of rows. The average value Wave of the horizontal width Wj for each pixel row j of the group g is calculated as the average value Nave of the number of pixels in the horizontal direction for each pixel row j thus calculated.

このように構成すれば、上記のように仮に車線LRに連続して標示される停止線SLが撮像されていても、停止線SLに相当する画素行jは少なく、車線LRに相当する画素行jの方が圧倒的に多いため、グループgの画素行jごとの横幅Wjの平均値Waveとしての画素数の平均値Naveは、車線LRに相当する画素数に近い値となる。   If comprised in this way, even if the stop line SL labeled continuously with the lane LR as mentioned above is imaged, there are few pixel rows j corresponding to the stop line SL, and the pixel row corresponding to the lane LR Since j is overwhelmingly larger, the average value Nave of the number of pixels as the average value Wave of the horizontal width Wj for each pixel row j of the group g is a value close to the number of pixels corresponding to the lane LR.

そのため、画素数の平均値Naveに対する平均値閾値Nave_thとして、車線の横幅程度或いはそれよりやや大きめの横幅に相当する画素数を設定することで、車線に停止線SLが連続して標示されているような場合であっても、車線に相当するグループgを道路面の路面領域に属するグループGとして検出しないように構成することが可能となる。   Therefore, the stop line SL is continuously indicated on the lane by setting the number of pixels corresponding to the lateral width of the lane or slightly larger than the average threshold value Nave_th for the average value Nave of the number of pixels. Even in such a case, the group g corresponding to the lane can be configured not to be detected as the group G belonging to the road surface area of the road surface.

一方、本実施形態では、後述するように、画像T中で自車両の進行方向に領域R(以下、チェック領域Rという。)が設定されるようになっている。そして、面積算出手段8は、統合手段6で一の画素pi,jをグループgに統合する際に、同時に、一の画素pi,jがチェック領域Rに存在する場合には一の画素pi,jをグループgに統合するごとに加算していき、各グループgが画像Tのチェック領域R内で占める面積Aを画素数Anとして算出するようになっている。   On the other hand, in this embodiment, as will be described later, an area R (hereinafter referred to as a check area R) is set in the traveling direction of the host vehicle in the image T. When the integration unit 6 integrates one pixel pi, j into the group g, the area calculation unit 8 simultaneously selects one pixel pi, j if the one pixel pi, j exists in the check region R. Each time j is integrated into the group g, addition is performed, and the area A that each group g occupies in the check region R of the image T is calculated as the number of pixels An.

後述するように、路面領域検出手段9で、上記のように、算出手段7により算出されたグループgの画素行jごとの横幅Wj(Nj)やその平均値Wave(Nave)、グループgに属する各画素pの輝度Dの平均値Daveに基づいて、当該グループgを道路面の路面領域に属するグループGであるか否かを判定するように構成されているが、それだけでは、空等に対応するグループgを道路面の路面領域に属するグループGとして検出してしまう可能性がある。   As described later, the road surface area detection unit 9 belongs to the horizontal width Wj (Nj) for each pixel row j of the group g calculated by the calculation unit 7 and the average value Wave (Nave) and the group g as described above. Based on the average value Dave of the luminance D of each pixel p, it is configured to determine whether or not the group g is a group G belonging to the road surface area of the road surface. Group g to be detected may be detected as a group G belonging to the road surface area of the road surface.

そこで、面積算出手段8で、上記のように各グループgが画像Tのチェック領域R内で占める面積Aを画素数Anとして算出するように構成して、路面領域検出手段9における判定条件として、当該グループgがチェック領域R内に占める面積Aに関する条件を追加することで、画像T内に撮像されているがチェック領域R内には存在しない空等に対応するグループgを道路面の路面領域に属するグループGとして検出しないように構成することが可能となる。   Therefore, the area calculating unit 8 is configured to calculate the area A occupied by each group g in the check region R of the image T as the number of pixels An as described above, and the determination condition in the road surface region detecting unit 9 is as follows. By adding a condition regarding the area A that the group g occupies in the check region R, the group g corresponding to the sky or the like that is captured in the image T but does not exist in the check region R is changed to a road surface region on the road surface. It can be configured not to detect as a group G belonging to.

本実施形態では、チェック領域Rは、例えば図4に示すように、自車両MCの挙動から推定される推定軌跡Lestに基づいて設定することができる。本実施形態では、面積算出手段8は、センサ類Q(図1参照)で検出される自車両MCの車速Vやヨーレートγ、ステアリングホイールの舵角δ等の情報に基づいて自車両MCの旋回曲率Cuaを下記(1)式または下記(2)、(3)式に従って算出する。   In the present embodiment, the check region R can be set based on an estimated trajectory Lest estimated from the behavior of the host vehicle MC, for example, as shown in FIG. In the present embodiment, the area calculation means 8 turns the host vehicle MC based on information such as the vehicle speed V, yaw rate γ, steering angle δ of the steering wheel, etc. detected by the sensors Q (see FIG. 1). The curvature Cua is calculated according to the following formula (1) or the following formulas (2) and (3).

Cua=γ/V …(1)
Re=(1+Asf・V)・(Lwb/δ) …(2)
Cua=1/Re …(3)
ここで、上記の各式において、Reは旋回半径、Asfは車両のスタビリティファクタ、Lwbはホイールベースである。
Cua = γ / V (1)
Re = (1 + Asf · V 2 ) · (Lwb / δ) (2)
Cua = 1 / Re (3)
Here, in each of the above equations, Re is a turning radius, Asf is a vehicle stability factor, and Lwb is a wheelbase.

そして、算出した自車両MCの旋回曲率Cuaに基づいて自車両が今後進行すると推定される推定軌跡Lestを算出し、その推定軌跡Lestを中心として左右方向に所定距離離間した位置までの範囲を自車両MCの進行路として算出する。そして、例えば図5に示すように、上記範囲すなわち自車両MCの進行路を画像T上の対応する各画素pに割り当てることで、画像T中にチェック領域Rを設定するようになっている。   Then, based on the calculated turning curvature Cua of the host vehicle MC, an estimated trajectory Lest that the host vehicle is estimated to travel in the future is calculated, and a range up to a position separated by a predetermined distance in the left-right direction around the estimated trajectory Lest is calculated. Calculated as the traveling path of the vehicle MC. Then, for example, as shown in FIG. 5, the check area R is set in the image T by assigning the above range, that is, the traveling path of the host vehicle MC to each corresponding pixel p on the image T.

なお、チェック領域Rを、例えば、自車両MCの側方に検出された車線の位置を左右端とする領域として設定することも可能であるが、それについては後述する第2の実施形態の中で説明する。   For example, the check region R can be set as a region having the left and right ends of the position of the lane detected on the side of the host vehicle MC. This is described in the second embodiment to be described later. I will explain it.

路面領域検出手段9は、上記のように、算出手段7により算出されたグループgの画素行jごとの横幅Wj(Nj)やその平均値Wave(Nave)、グループgに属する各画素pの輝度Dの平均値Dave、および面積算出手段8により算出されたグループgの前記面積Aが、それぞれ所定の数値範囲内であるか否かを判定し、条件を満たす場合に、当該グループgを道路面の路面領域に属するグループGとして検出するようになっている。   As described above, the road surface area detection unit 9 calculates the horizontal width Wj (Nj) for each pixel row j of the group g calculated by the calculation unit 7, the average value Wave (Nave), and the luminance of each pixel p belonging to the group g. It is determined whether or not the average value Dave of D and the area A of the group g calculated by the area calculating means 8 are within a predetermined numerical range. Are detected as a group G belonging to the road surface area.

なお、本実施形態では、上記のように、算出手段7で、グループgのある画素行jで横幅Wjとしての画素数Njが横幅閾値Wthに相当する画素数閾値Nth以上となった場合に、当該グループgに条件が成立した旨の情報を対応付けるため、路面領域検出手段9は、グループgに上記の情報が対応付けられているか否かを判定して、グループgの画素行jごとの横幅Wjが所定の横幅閾値Wth以上である画素行jが存在するか否かを判定するようになっている。   In the present embodiment, as described above, when the number of pixels Nj as the width Wj in the pixel row j of the group g becomes equal to or larger than the pixel number threshold Nth corresponding to the width threshold Wth, as described above, In order to associate information indicating that the condition is satisfied with the group g, the road surface area detection unit 9 determines whether or not the above information is associated with the group g, and determines the width of each pixel row j of the group g. It is determined whether or not there is a pixel row j in which Wj is greater than or equal to a predetermined width threshold Wth.

以下、上記の統合手段6や算出手段7、面積算出手段8、路面領域検出手段9を含む処理部5での各処理を、図6〜図9に示すフローチャートに従って説明するとともに、本実施形態に係る道路認識装置1の作用について説明する。   Hereinafter, each process in the processing unit 5 including the integration unit 6, the calculation unit 7, the area calculation unit 8, and the road surface area detection unit 9 will be described according to the flowcharts shown in FIGS. The operation of the road recognition device 1 will be described.

処理部5における処理では、撮像手段2により今回のサンプリング周期での撮像が開始されると(図6のステップS1)、前述したように、面積算出手段8は、その時点でセンサ類Qから入力された自車両MCの車速Vやヨーレートγ、ステアリングホイールの舵角δ等の情報に基づいて自車両MCの旋回曲率Cuaを算出し、チェック領域Rを設定する(ステップS2)。   In the processing in the processing unit 5, when the imaging unit 2 starts imaging at the current sampling cycle (step S1 in FIG. 6), the area calculating unit 8 inputs from the sensors Q at that time as described above. The turning curvature Cua of the host vehicle MC is calculated based on the information such as the vehicle speed V and yaw rate γ of the host vehicle MC and the steering angle δ of the steering wheel, and a check region R is set (step S2).

そして、算出手段7は、撮像手段2から最初に各画素pi,jの輝度Di,jのデータが送られてくる画像Tのj=0の水平ラインjすなわち水平ライン0における前述した横幅閾値Wthに相当する画素数閾値Nth(0)を算出して設定する(ステップS3)。また、統合手段6は、iおよびjの値としてそれぞれ0を設定する(ステップS4)。   Then, the calculating means 7 first sends the data of the brightness Di, j of each pixel pi, j from the imaging means 2 to the horizontal line j with j = 0, that is, the horizontal threshold value Wth described above in the horizontal line 0. A pixel number threshold Nth (0) corresponding to is calculated and set (step S3). Further, the integration unit 6 sets 0 as the values of i and j (step S4).

そして、前述したように、撮像手段2で撮像された水平ライン0上の左端の画素p0,0(すなわち原点の画素)の輝度D0,0のデータの処理部5への入力が開始される(ステップS5)。処理部5には、続いて、画素p1,0、p2,0、p3,0、…の輝度D1,0、D2,0、D3,0、…のデータが順次入力される。そして、水平ラインjの右端の画素まで統合処理を完了していなければ(ステップS6;NO)、統合手段6は、i座標を1ずつインクリメントして(ステップS7)、画素pi,jの輝度Di,jのデータが入力するごとに統合処理を続行する。   Then, as described above, the input of the data of the luminance D0,0 of the leftmost pixel p0,0 (that is, the origin pixel) on the horizontal line 0 imaged by the imaging means 2 to the processing unit 5 is started ( Step S5). Subsequently, data of luminance D1,0, D2,0, D3,0,... Of the pixels p1,0, p2,0, p3,0,. If the integration process has not been completed up to the rightmost pixel of the horizontal line j (step S6; NO), the integration unit 6 increments the i coordinate by 1 (step S7), and the luminance Di of the pixel pi, j , j continues the integration process every time j data is input.

また、水平ラインjの右端の画素まで統合処理を完了すると(ステップS6;YES)、画像Tの最上段の水平ラインまで統合処理が終了していなければ(ステップS8;NO)、統合手段6は、jをインクリメントし、iに0を設定して(ステップS9)、統合処理を行う水平ラインjを1行上方の水平ラインjに移行させ、移行させた水平ラインjから順次入力されてくる画素p0,jの輝度D0,jのデータから順に統合処理を続行する。   Further, when the integration process is completed up to the rightmost pixel of the horizontal line j (step S6; YES), the integration unit 6 determines that the integration process has not been completed up to the uppermost horizontal line of the image T (step S8; NO). , J is incremented, i is set to 0 (step S9), the horizontal line j to be integrated is shifted to the horizontal line j one row above, and pixels sequentially input from the shifted horizontal line j The integration process is continued in order from the data of luminance D0, j of p0, j.

また、算出手段7は、撮像手段2から移行させた水平ラインjにおける前述した横幅閾値Wthに相当する画素数閾値Nth(j)を算出して設定する(ステップS10)。   Further, the calculating means 7 calculates and sets a pixel number threshold Nth (j) corresponding to the above-described width threshold Wth in the horizontal line j shifted from the imaging means 2 (step S10).

次に、画素pi,jの輝度Di,jのデータが入力した場合の処理部5における各処理(図7のステップS11以降)について説明する。   Next, each process (after step S11 of FIG. 7) in the processing unit 5 when data of luminance Di, j of the pixel pi, j is input will be described.

統合手段6は、まず、入力した画素pi,j(入力画素pi,j)と、図10に示すように入力画素pi,jが入力するより以前に入力されていて入力画素pi,jの左に隣接する画素pi-1,jについて、下記の条件1や条件2を満たすか否かの判定を行う(ステップS11)。   First, the integration means 6 inputs the input pixel pi, j (input pixel pi, j) and the input pixel pi, j before the input as shown in FIG. It is determined whether or not the following conditions 1 and 2 are satisfied for the pixels pi-1, j adjacent to (step S11).

[条件1]入力画素pi,jの輝度Di,jと、左に隣接する画素pi-1,jの輝度Di-1,jとの差分ΔDleft(i,j)、すなわち、
ΔDleft(i,j)=|Di,j−Di-1,j| …(4)
が、予め設定された第1輝度閾値ΔDth未満である。なお、以下、上記のような隣接する画素間の輝度Dの差分ΔDをエッジ強度という。
[Condition 1] The difference ΔDleft (i, j) between the luminance Di, j of the input pixel pi, j and the luminance Di-1, j of the pixel pi-1, j adjacent to the left, that is,
ΔDleft (i, j) = | Di, j−Di−1, j | (4)
Is less than a preset first luminance threshold value ΔDth. Hereinafter, the difference ΔD of the luminance D between adjacent pixels as described above is referred to as edge strength.

[条件2]図11に示すように、入力画素pi,jの輝度Di,jと、左に隣接する画素pi-1,jが属するグループgに属する全画素の輝度Dの平均値Dave-leftとの差分δDleft(i,j)、すなわち、
δDleft(i,j)=|Di,j−Dave-left| …(5)
が、予め設定された第2輝度閾値δDth未満である。
[Condition 2] As shown in FIG. 11, the average value Dave-left of the luminance D i, j of the input pixel p i, j and the luminance D of all the pixels belonging to the group g to which the adjacent pixel p i-1, j on the left belongs. Difference δDleft (i, j), that is,
δDleft (i, j) = | Di, j−Dave-left | (5)
Is less than the preset second luminance threshold value δDth.

なお、以下、上記のように、入力画素pi,jの輝度Di,jと、隣接する画素が属するグループgの輝度Dの平均値Daveとの差分δDを平均値差分という。また、隣接する画素が属するグループgの輝度Dの平均値Daveは、後述する図8のステップS25の算出処理で、算出手段7により算出されている。さらに、左に隣接する画素pi-1,jが属するグループgが当該左に隣接する画素pi-1,jのみで構成されている場合もあり、その場合、グループgに属する全画素の輝度Dの平均値Dave-leftは、当該左に隣接する画素pi-1,jの輝度Di-1,jに等しい。   Hereinafter, as described above, the difference δD between the luminance Di, j of the input pixel pi, j and the average value Dave of the luminance D of the group g to which the adjacent pixel belongs is referred to as an average value difference. Further, the average value Dave of the luminance D of the group g to which the adjacent pixel belongs is calculated by the calculation means 7 in the calculation process in step S25 of FIG. Furthermore, the group g to which the pixel pi-1, j adjacent to the left belongs may be composed of only the pixel pi-1, j adjacent to the left, and in this case, the luminance D of all the pixels belonging to the group g. The average value Dave-left is equal to the luminance Di-1, j of the pixel pi-1, j adjacent to the left.

統合手段6は、条件1と条件2をともに満たすと判定した場合には(ステップS11;YES)、ステップS12の判定処理に進み、条件1と条件2の少なくとも一方を満たさないと判定した場合には(ステップS11;NO)、ステップS15の判定処理に進む。   If the integration unit 6 determines that both the condition 1 and the condition 2 are satisfied (step S11; YES), the integration unit 6 proceeds to the determination process in step S12, and determines that at least one of the condition 1 and the condition 2 is not satisfied. (Step S11; NO), the process proceeds to the determination process of step S15.

なお、本実施形態では、上記の第1輝度閾値ΔDthと第2輝度閾値δDthとは同じ値に設定されているが、異なる値に設定されてもよく、適宜設定される。また、第1輝度閾値ΔDthと第2輝度閾値δDthの値を状況に応じて可変させることも可能である。   In the present embodiment, the first luminance threshold value ΔDth and the second luminance threshold value δDth are set to the same value, but may be set to different values and set appropriately. It is also possible to vary the values of the first luminance threshold value ΔDth and the second luminance threshold value δDth according to the situation.

統合手段6は、ステップS11の判定処理で、条件1と条件2をともに満たすと判定すると(ステップS11;YES)、続いて、入力画素pi,jと、図12に示すように入力画素pi,jが入力されるより以前に入力されていて入力画素pi,jの下に隣接する画素pi,j-1について、上記と同様に、下記の条件3や条件4を満たすか否かの判定を行う(ステップS12)。   If the integration unit 6 determines that both the conditions 1 and 2 are satisfied in the determination process of step S11 (step S11; YES), then the integration unit 6 continues to input pixel pi, j and input pixel pi, j as shown in FIG. In the same manner as described above, it is determined whether or not the following condition 3 or condition 4 is satisfied for the pixel pi, j-1 that is input before j is input and is adjacent to the input pixel pi, j. It performs (step S12).

[条件3]入力画素pi,jの輝度Di,jと、下に隣接する画素pi,j-1の輝度Di,j-1とのエッジ強度ΔDlower(i,j)、すなわち、
ΔDlower(i,j)=|Di,j−Di,j-1| …(6)
が、予め設定された前述した第1輝度閾値ΔDth未満である。
[Condition 3] Edge intensity ΔDlower (i, j) between the luminance Di, j of the input pixel pi, j and the luminance Di, j-1 of the pixel pi, j-1 adjacent below, that is,
ΔDlower (i, j) = | Di, j−Di, j−1 | (6)
Is less than the preset first luminance threshold value ΔDth.

[条件4]図13に示すように、入力画素pi,jの輝度Di,jと、下に隣接する画素pi,j-1が属するグループgに属する全画素の輝度Dの平均値Dave-lowerとの平均値差分δDlower(i,j)、すなわち、
δDlower(i,j)=|Di,j−Dave-lower| …(7)
が、予め設定された前述した第2輝度閾値δDth未満である。
[Condition 4] As shown in FIG. 13, the average value Dave-lower of the luminance D i, j of the input pixel p i, j and the luminance D of all the pixels belonging to the group g to which the adjacent pixel p i, j−1 belongs. Mean value difference δDlower (i, j), that is,
δDlower (i, j) = | Di, j−Dave-lower | (7)
Is less than the preset second luminance threshold value δDth.

なお、この場合も、下に隣接する画素pi,j-1が属するグループgが当該下に隣接する画素pi,j-1のみで構成されている場合もあり、その場合、グループgに属する全画素の輝度Dの平均値Dave-lowerは、当該下に隣接する画素pi,j-1の輝度Di,j-1に等しい。   Also in this case, the group g to which the pixel pi, j-1 adjacent to the lower side may be composed of only the pixel pi, j-1 adjacent to the lower side, in which case all of the groups g belonging to the group g are included. The average value Dave-lower of the luminance D of the pixel is equal to the luminance Di, j-1 of the adjacent pixel pi, j-1.

そして、統合手段6は、条件3と条件4の少なくとも一方を満たさないと判定した場合には(ステップS12;NO)、入力画素pi,jを、下に隣接する画素pi,j-1とは非統合とするが、ステップS11の判定処理で上記の条件1と条件2を満たすと判定しているため、入力画素pi,jと左に隣接する画素pi-1,jとを1つのグループに統合する(ステップS13)。   When the integration unit 6 determines that at least one of the condition 3 and the condition 4 is not satisfied (step S12; NO), the integration unit 6 defines the input pixel pi, j as the pixel pi, j-1 adjacent thereto below. Although not integrated, since it is determined in the determination process of step S11 that the above conditions 1 and 2 are satisfied, the input pixel pi, j and the pixel pi-1, j adjacent to the left are grouped into one group. Integration is performed (step S13).

その際、例えば図10に示したように、左に隣接する画素pi-1,jが他の画素とグループ化されていなければ、入力画素pi,jと左に隣接する画素pi-1,jとが1つのグループに統合されて、左右に隣接する2つの画素からなるグループが新たに形成される。また、例えば図11に示したように、左に隣接する画素pi-1,jが他の画素と統合されていてグループgに属していれば、入力画素pi,jがグループgに追加されるように統合され、グループgが入力画素pi,jの分だけ1画素分拡大する。   In this case, for example, as shown in FIG. 10, if the pixel pi-1, j adjacent to the left is not grouped with other pixels, the pixel pi-1, j adjacent to the left of the input pixel pi, j is used. Are integrated into one group, and a group of two adjacent pixels on the left and right is newly formed. For example, as shown in FIG. 11, if the pixel pi-1, j adjacent to the left is integrated with other pixels and belongs to the group g, the input pixel pi, j is added to the group g. The group g is enlarged by one pixel by the input pixel pi, j.

なお、左に隣接する画素pi-1,jが属するグループgが例えば図14(A)に示すような形状である場合に、ステップS12の判定処理で、条件3と条件4の少なくとも一方を満たさないと判定されて(ステップS12;NO)、入力画素pi,jが下に隣接する画素pi,j-1と統合されない場合でも、図14(B)に示すように、入力画素pi,jが左に隣接する画素pi-1,jと統合されることで(ステップS13)、結果的に、入力画素pi,jが下に隣接する画素pi,j-1と1つのグループgに統合される場合もある。   When the group g to which the pixel pi-1, j adjacent to the left belongs has a shape as shown in FIG. 14A, for example, the determination process in step S12 satisfies at least one of the condition 3 and the condition 4. Even if the input pixel pi, j is not integrated with the lower adjacent pixel pi, j-1 as shown in FIG. 14B, it is determined that the input pixel pi, j is not integrated (step S12; NO). By integrating with the pixels pi-1, j adjacent to the left (step S13), the input pixel pi, j is integrated with the adjacent pixels pi, j-1 and one group g as a result. In some cases.

次に、統合手段6は、ステップS12の判定処理で、条件3と条件4をともに満たすと判定した場合には(ステップS12;YES)、入力画素pi,jと、下に隣接する画素pi,j-1および左に隣接する画素pi-1,jとを1つのグループに統合する(ステップS14)。   Next, in the determination process in step S12, the integration unit 6 determines that both the condition 3 and the condition 4 are satisfied (step S12; YES), and the input pixel pi, j and the adjacent pixel pi, j-1 and the pixel pi-1, j adjacent to the left are integrated into one group (step S14).

その際、例えば図12に示したように、下に隣接する画素pi,j-1や左に隣接する画素pi-1,jがともに他の画素とグループ化されていなければ、入力画素pi,jと下に隣接する画素pi,j-1と左に隣接する画素pi-1,jが1つのグループに統合されて3つの画素からなるグループが新たに形成される。また、例えば図11や図13に示したように、下に隣接する画素pi,j-1または左に隣接する画素pi-1,jのいずれか一方が他の画素と統合されていてグループgに属していれば、入力画素pi,jとグループgに属していない方の画素とがグループgに追加されるように統合されて、グループgが2画素分拡大する。   At this time, for example, as shown in FIG. 12, if the pixel pi, j-1 adjacent below and the pixel pi-1, j adjacent to the left are not grouped with other pixels, the input pixel pi, j and the pixel pi, j-1 adjacent to the lower side and the pixel pi-1, j adjacent to the left are integrated into one group to form a new group of three pixels. Further, for example, as shown in FIGS. 11 and 13, one of the pixel pi, j-1 adjacent to the lower side and the pixel pi-1, j adjacent to the left is integrated with the other pixels, and the group g , The input pixel pi, j and the pixel that does not belong to the group g are integrated so as to be added to the group g, and the group g is expanded by two pixels.

また、例えば図15(A)に示すように、左に隣接する画素pi-1,jがグループg1に属し、下に隣接する画素pi,j-1が他のグループg2に属している場合、入力画素pi,jと下に隣接する画素pi,j-1および左に隣接する画素pi-1,jとを統合すると(ステップS14)、図15(B)に示すように、入力画素pi,jを介してグループg1とグループg2とが統合されて1つのグループgとなる。   Further, for example, as shown in FIG. 15A, when the pixel pi-1, j adjacent to the left belongs to the group g1, and the pixel pi, j-1 adjacent to the lower belongs to the other group g2, When the input pixel pi, j is integrated with the pixel pi, j-1 adjacent to the lower side and the pixel pi-1, j adjacent to the left side (step S14), as shown in FIG. The group g1 and the group g2 are integrated through j to form one group g.

一方、統合手段6は、ステップS11の判定処理で、条件1と条件2の少なくとも一方を満たさないと判定した場合には(ステップS11;NO)、ステップS15の判定処理に進み、上記と同様に、条件3や条件4を満たすか否かの判定を行う(ステップS15)。   On the other hand, when the integration unit 6 determines that at least one of the condition 1 and the condition 2 is not satisfied in the determination process of step S11 (step S11; NO), the integration unit 6 proceeds to the determination process of step S15, and similarly to the above. Then, it is determined whether or not the conditions 3 and 4 are satisfied (step S15).

そして、統合手段6は、条件3と条件4をともに満たすと判定した場合には(ステップS13;YES)、ステップS9の判定処理で条件1と条件2の少なくとも一方を満たさないと判定しているため(ステップS9;NO)、入力画素pi,jと、左に隣接する画素pi-1,jとを非統合とし、下に隣接する画素pi,j-1のみと1つのグループに統合する(ステップS14)。   If the integration unit 6 determines that both the condition 3 and the condition 4 are satisfied (step S13; YES), the integration unit 6 determines that at least one of the condition 1 and the condition 2 is not satisfied in the determination process of step S9. Therefore (step S9; NO), the input pixel pi, j and the pixel pi-1, j adjacent to the left are not integrated, and only the pixel pi, j-1 adjacent below is integrated into one group ( Step S14).

その際、入力画素pi,jと下に隣接する画素pi,j-1とを1つのグループに統合すると(ステップS16)、結果的に、左に隣接する画素pi-1,jと統合される場合があることは、図14(A)、(B)に示したケースから容易に類推される。   At this time, when the input pixel pi, j and the lower adjacent pixel pi, j-1 are integrated into one group (step S16), the result is integrated with the left adjacent pixel pi-1, j. It can be easily inferred from the cases shown in FIGS. 14A and 14B that there are cases.

また、統合手段6は、ステップS15の判定処理で、条件3と条件4の少なくとも一方を満たさないと判定した場合には(ステップS15;NO)、入力画素pi,jを、左に隣接する画素pi-1,jとも下に隣接する画素pi,j-1とも非統合として、入力画素pi,jのみが属する新たなグループgとして登録する(ステップS17)。   If the integration unit 6 determines in step S15 that at least one of condition 3 and condition 4 is not satisfied (step S15; NO), the integration unit 6 sets the input pixel pi, j to the pixel adjacent to the left. Both pi-1, j and the adjacent pixels pi, j-1 are registered as a new group g to which only the input pixel pi, j belongs without being integrated (step S17).

なお、統合手段6での統合処理の際、統合したグループgの画素数が非常に小さく、ノイズ等のように無視してよいグループである場合に、そのようなグループgをグループの登録から削除して、道路面の路面領域に属するグループGであるか否かの判定の対象としないように構成することも可能である。   In addition, when the integration unit 6 performs integration processing, if the number of pixels of the integrated group g is very small and can be ignored such as noise, the group g is deleted from the group registration. Thus, it may be configured not to be a target for determining whether or not the group G belongs to the road surface area of the road surface.

統合手段6は、入力画素pi,jをグループgに統合すると(ステップS13、S14、S16)、例えば図15(B)に示したように、複数のグループを統合して1つのグループとした場合には、1つに統合したグループgのグループ番号を、統合の対象となった複数のグループの各グループ番号のうちの例えば最も小さい番号を選択する等して、必要に応じて更新する。また、入力画素pi,jを新たなグループgとして登録すると(ステップS17)、その新規のグループgにグループ番号を付ける(ステップS18)。   When the integration unit 6 integrates the input pixels pi, j into the group g (steps S13, S14, and S16), for example, as shown in FIG. 15B, a plurality of groups are integrated into one group. For example, the group number of the group g integrated into one is updated as necessary by selecting, for example, the smallest number among the group numbers of the plurality of groups to be integrated. When the input pixel pi, j is registered as a new group g (step S17), a group number is assigned to the new group g (step S18).

また、算出手段7は、入力画素pi,jが新たなグループgとして登録された場合(ステップS17)には、当該グループgに対応付ける後述する条件成立フラグFを0に設定する(図8のステップS19)。また、入力画素pi,jがグループgに統合されたことにより(ステップS14)、複数のグループが統合されて1つのグループとされた場合(例えば図15(B)参照)には、算出手段7は、統合の対象となった複数のグループの中に条件成立フラグFが1のグループがあれば、1つに統合された当該グループgの条件成立フラグFを1に設定し、統合の対象となった複数のグループの条件成立フラグFがすべて0であれば、1つに統合された当該グループgの条件成立フラグFを0に設定する(ステップS19)。   Further, when the input pixel pi, j is registered as a new group g (step S17), the calculation means 7 sets a later-described condition satisfaction flag F associated with the group g to 0 (step in FIG. 8). S19). Further, when the input pixels pi, j are integrated into the group g (step S14), and a plurality of groups are integrated into one group (see, for example, FIG. 15B), the calculating means 7 If there is a group whose condition satisfaction flag F is 1 among a plurality of groups targeted for integration, the condition satisfaction flag F of the group g integrated into one is set to 1, and If all the condition satisfaction flags F of the plurality of groups are 0, the condition satisfaction flag F of the group g integrated into one is set to 0 (step S19).

そして、現在統合処理が行われた当該グループgの条件成立フラグFが0であれば(ステップS20;YES)、当該グループgの当該画素行jにおける画素数Njを計数する(ステップS21)。そして、図6のステップS3やステップS10の設定処理で設定した当該水平ラインjにおける横幅閾値Wthに相当する画素数閾値Nth(j)を参照して、計数した当該画素行jにおける画素数Njが画素数閾値Nth(j)以上であれば(ステップS22;YES)、当該グループgの条件成立フラグFを1に切り替えて設定し(ステップS23)、条件が成立した旨の情報を当該グループgに対応付ける。   If the condition satisfaction flag F of the group g currently undergoing the integration process is 0 (step S20; YES), the number of pixels Nj in the pixel row j of the group g is counted (step S21). Then, referring to the pixel number threshold Nth (j) corresponding to the horizontal width threshold Wth in the horizontal line j set in the setting process in step S3 or step S10 in FIG. 6, the counted number of pixels Nj in the pixel row j is If it is greater than or equal to the pixel number threshold Nth (j) (step S22; YES), the condition establishment flag F of the group g is switched to 1 (step S23), and information indicating that the condition is established is set in the group g. Associate.

すなわち、本実施形態では、当該グループgの条件成立フラグFを1に設定することが、条件が成立した旨の情報を当該グループgに対応付けることに対応する。計数した当該画素行jにおける画素数Njが画素数閾値Nth(j)以上でなければ(ステップS22;NO)、当該グループgの条件成立フラグFは0のままとされる。   That is, in this embodiment, setting the condition satisfaction flag F of the group g to 1 corresponds to associating information indicating that the condition is satisfied with the group g. If the counted pixel number Nj in the pixel row j is not greater than or equal to the pixel number threshold Nth (j) (step S22; NO), the condition satisfaction flag F of the group g is kept at 0.

また、現在統合処理が行われた当該グループgの条件成立フラグFが1であれば(ステップS20;NO)、それ以降の統合処理で、当該グループgにおいて一旦画素数Njが画素数閾値Nth(j)以上となった画素行jに属する画素数が減少することはなく、当該グループgの条件成立フラグFが0とされることはないため、ステップS21〜S23の各処理を行う必要はない。   Further, if the condition satisfaction flag F of the group g currently undergoing the integration process is 1 (step S20; NO), in the subsequent integration process, the pixel number Nj is once set to the pixel number threshold Nth ( j) Since the number of pixels belonging to the above pixel row j does not decrease and the condition satisfaction flag F of the group g is not set to 0, it is not necessary to perform the processes of steps S21 to S23. .

そのため、本実施形態では、処理の迅速化を図る目的から、現在統合処理が行われた当該グループgの条件成立フラグFが1であれば(ステップS20;NO)、ステップS21〜S23の各処理を行わずにスキップするようになっている。   Therefore, in this embodiment, for the purpose of speeding up the processing, if the condition establishment flag F of the group g for which the current integration processing has been performed is 1 (step S20; NO), each processing of steps S21 to S23 is performed. It is supposed to skip without doing.

算出手段7は、続いて、現在統合処理が行われた当該グループgの画素数Nを算出する(ステップS24)。すなわち、入力画素pi,jが新規のグループgとして登録された場合には当該グループgの画素数Nを1とし、入力画素pi,jのみがグループgに統合された場合には当該グループgの画素数Nを1だけ増加させ、入力画素pi,jがグループgに統合されたことにより他の1つの画素pもグループgに統合された場合には当該グループgの画素数Nを2だけ増加させる。   Subsequently, the calculating unit 7 calculates the number N of pixels of the group g that has been subjected to the integration process (step S24). That is, when the input pixel pi, j is registered as a new group g, the number of pixels N of the group g is set to 1, and when only the input pixel pi, j is integrated into the group g, When the number of pixels N is increased by 1 and the input pixel pi, j is integrated into the group g, and the other pixel p is also integrated into the group g, the number of pixels N of the group g is increased by 2. Let

また、入力画素pi,jを介して2つのグループg1、g2が統合されて1つのグループgとされた場合には、当該1つに統合されたグループgの画素数Nをグループg1、g2の各画素数の和に入力画素pi,jの1画素を加えた画素数として算出する。   In addition, when two groups g1 and g2 are integrated into one group g via the input pixel pi, j, the number N of pixels of the group g integrated into one group g1 and g2 The number of pixels is calculated by adding one pixel of the input pixel pi, j to the sum of the number of pixels.

算出手段7は、続いて、当該グループgに属する各画素pの輝度Dの合計を算出し、それを当該グループgの画素数Nで除算して、当該グループgに属する各画素pの輝度Dの平均値Daveを算出して更新する(ステップS25)。この場合、入力画素pi,jが新規のグループgとして登録された場合には、当該グループgの画素数Nは1であるから、入力画素pi,jの輝度Di,jが当該グループgに属する画素pの輝度Dの平均値Daveとなる。   Subsequently, the calculation means 7 calculates the sum of the luminance D of each pixel p belonging to the group g, divides it by the number N of pixels of the group g, and calculates the luminance D of each pixel p belonging to the group g. The average value Dave is calculated and updated (step S25). In this case, when the input pixel pi, j is registered as a new group g, the number of pixels N of the group g is 1, so that the luminance Di, j of the input pixel pi, j belongs to the group g. The average value Dave of the luminance D of the pixel p is obtained.

なお、必要に応じて、当該グループgの左端、右端の画素の各座標や上端、下端の画素の各座標や、当該グループgの中心点等を算出して更新するように構成することも可能である。   If necessary, the coordinates of the left and right pixels of the group g, the coordinates of the upper and lower pixels, the center point of the group g, and the like can be calculated and updated. It is.

面積算出手段8は、図6のステップS2の設定処理で設定したチェック領域Rに基づいて、入力画素pi,jがチェック領域R内にあるか否かを判定し(ステップS26)、入力画素pi,jがチェック領域R内にある場合には(ステップS26;YES)、当該グループgがチェック領域R内で占める面積Aを画素数Anとして算出する(ステップS27)。   The area calculation means 8 determines whether or not the input pixel pi, j is in the check region R based on the check region R set in the setting process in step S2 of FIG. 6 (step S26), and the input pixel pi. , j is in the check region R (step S26; YES), the area A occupied by the group g in the check region R is calculated as the number of pixels An (step S27).

すなわち、入力画素pi,jがチェック領域R内にある場合(ステップS26;YES)、入力画素pi,jが新規のグループgとして登録された場合には当該グループgの面積Aの画素数Anを1とし、入力画素pi,jのみがグループgに統合された場合には当該グループgの面積Aの画素数Anを1だけ増加させる。   That is, when the input pixel pi, j is in the check region R (step S26; YES), when the input pixel pi, j is registered as a new group g, the number of pixels An of the area A of the group g is set. When only one input pixel p i, j is integrated into group g, the number of pixels An of area A of group g is increased by one.

また、入力画素pi,jがグループgに統合されたことにより他の1つの画素pもグループgに統合された場合には、当該他の1つの画素pがチェック領域R内にあれば、当該グループgの面積Aの画素数Anを2だけ増加させ、当該他の1つの画素pがチェック領域R内になく、入力画素pi,jのみがチェック領域R内にある場合には、当該グループgの面積Aの画素数Anを1だけ増加させる。   Further, when the other pixel p is also integrated into the group g by integrating the input pixel pi, j into the group g, if the other pixel p is within the check region R, the If the number An of the area A of the group g is increased by 2 and the other one pixel p is not in the check region R and only the input pixel pi, j is in the check region R, the group g The number of pixels An of area A is increased by one.

また、入力画素pi,jを介して2つのグループg1、g2が統合されて1つのグループgとされた場合には、当該1つに統合されたグループgの面積Aの画素数Anを、グループg1、g2の各面積Aの画素数Anの和に入力画素pi,jの1画素を加えた画素数として算出する。   Further, when two groups g1 and g2 are integrated into one group g via the input pixel pi, j, the number of pixels An of the area A of the group g integrated into the one group The pixel number is calculated by adding one pixel of the input pixel pi, j to the sum of the pixel number An of each area A of g1 and g2.

そして、画像Tの最上段の水平ラインの統合処理が終了するまで(図6のステップS8)、統合手段6や算出手段7、面積算出手段8による上記の各処理が、入力画素pi,jが順次入力されるごとに繰り返される。   Until the integration process of the uppermost horizontal line of the image T is completed (step S8 in FIG. 6), the above-described processes by the integration unit 6, the calculation unit 7, and the area calculation unit 8 are performed on the input pixels pi, j. Repeated for each input.

また、画像Tの最上段の水平ラインまで統合処理が終了すると(ステップS8;YES)、統合手段6による統合処理により各画素pが各グループgに統合され、最終的に、画像Tの各画素pが複数のグループgに分割される。例えば図5に示した画像Tの各画素pは、統合処理により、図16に濃淡で分けて表されるような複数のグループgにそれぞれ統合される。   When the integration process is completed up to the uppermost horizontal line of the image T (step S8; YES), each pixel p is integrated into each group g by the integration process by the integration unit 6, and finally each pixel of the image T. p is divided into a plurality of groups g. For example, each pixel p of the image T shown in FIG. 5 is integrated into a plurality of groups g as shown in FIG.

続いて、算出手段7は、図8のステップS24の算出処理で、各グループgについて算出したグループgに属する画素数Nをそれぞれ各グループgの縦方向の画素行jの行数で除算して画素数の平均値Naveを算出し、この画素数の平均値Naveとして各グループgの画素行jごとの横幅Wjの平均値Waveを算出する(図9のステップS28)。   Subsequently, the calculation means 7 divides the number of pixels N belonging to the group g calculated for each group g by the number of rows of the pixel rows j in the vertical direction of each group g in the calculation processing of step S24 in FIG. An average value Nave of the number of pixels is calculated, and an average value Wave of the horizontal width Wj for each pixel row j of each group g is calculated as the average value Nave of the number of pixels (step S28 in FIG. 9).

次に、路面領域検出手段9は、各グループgについて、当該グループgが道路面の路面領域に属するグループGであるか否かを判定し、条件を満たす場合には、当該グループgを道路面の路面領域に属するグループGとして検出して登録する。   Next, the road surface area detection means 9 determines, for each group g, whether or not the group g is a group G belonging to the road surface area of the road surface. It is detected and registered as a group G belonging to the road surface area.

具体的には、路面領域検出手段9は、まだ判定していないグループgがあれば(ステップS29;YES)、まず、当該グループgの条件成立フラグFが1であるか否かを判定し(ステップS30)、条件成立フラグFが0であり(ステップS30;NO)、当該グループgに条件が成立した旨の情報が対応付けられていなければ、当該グループgについての判定処理を終了する。   Specifically, if there is a group g that has not yet been determined (step S29; YES), the road surface area detection means 9 first determines whether or not the condition satisfaction flag F of the group g is 1 ( In step S30), the condition establishment flag F is 0 (step S30; NO), and if the information indicating that the condition is established is not associated with the group g, the determination process for the group g is ended.

当該グループgの条件成立フラグFが1であり、当該グループgに条件が成立した旨の情報が対応付けられていれば(ステップS30;YES)、当該グループgは、画素行jごとの横幅Njが所定の横幅閾値Wthに相当する画素数閾値Nth以上である画素行jが存在するという条件を満たす。   If the condition satisfaction flag F of the group g is 1, and information indicating that the condition is satisfied is associated with the group g (step S30; YES), the group g has a width Nj for each pixel row j. Satisfies the condition that there is a pixel row j having a pixel number threshold Nth or more corresponding to a predetermined width threshold Wth.

そして、当該グループgは、実空間上で上記の横幅閾値Wth(例えば60cm)以上の横幅Wjが少なくともその一部に存在する撮像対象に対応するものであることが分かる。そのため、実空間上の横幅Wjが大きくても50cm程度である横断歩道の各白線ブロックや、停止線を伴わない車線、数字、文字、矢印等の路面上の標示に対応するグループgは、このステップS30の判定処理で、道路面の路面領域に属するグループGとして検出されるグループgの判定対象から排除される。   Then, it can be seen that the group g corresponds to an imaging target in which at least part of the lateral width Wj in the real space is equal to or greater than the lateral width threshold Wth (for example, 60 cm). Therefore, the group g corresponding to each white line block of the pedestrian crossing which is about 50 cm even if the width Wj in the real space is large, and the markings on the road surface such as lanes, numbers, letters, arrows without a stop line, In the determination processing in step S30, the group g detected as the group G belonging to the road surface area of the road surface is excluded.

路面領域検出手段9は、続いて、算出手段7がステップS28の算出処理で当該グループgの画素行jごとの横幅Wjの平均値Waveとして算出した画素数の平均値Naveが、予め設定された平均値閾値Nave_th以上であるか否かを判定し(ステップS31)、画素数の平均値Naveが平均値閾値Nave_th以上でなければ(ステップS31;NO)、当該グループgについての判定処理を終了する。   Subsequently, the road surface area detection unit 9 is preset with an average value Nave of the number of pixels calculated by the calculation unit 7 as the average value Wave of the width Wj for each pixel row j of the group g in the calculation process of step S28. It is determined whether or not the average value threshold value Nave_th is equal to or greater than the average value threshold value Nave_th (step S31). If the average value Nave of the number of pixels is not equal to or greater than the average value threshold value Nave_th (step S31; NO), the determination process for the group g ends. .

図3に示したように、仮に車線LRに連続して道路面上に標示される停止線SLが画像T中に撮像されていたとしても、停止線SLを伴う車線LRに対応するグループgの画素数の平均値Naveは平均値閾値Nave_th以上にはならないため(ステップS31;NO)、停止線SLを伴う車線LRに対応するグループgが、このステップS31の判定処理で、道路面の路面領域に属するグループGとして検出されるグループgの判定対象から排除される。   As shown in FIG. 3, even if a stop line SL marked on the road surface continuously to the lane LR is captured in the image T, the group g corresponding to the lane LR with the stop line SL Since the average value Nave of the number of pixels does not exceed the average value threshold value Nave_th (step S31; NO), the group g corresponding to the lane LR with the stop line SL is determined in the determination process of step S31. Are excluded from the determination targets of the group g detected as the group G belonging to.

路面領域検出手段9は、当該グループgの画素数の平均値Naveが平均値閾値Nave_th以上であれば(ステップS31;YES)、続いて、算出手段7が図8のステップS25の算出処理で算出した当該グループgの各画素pの輝度Dの平均値Daveが、予め設定された輝度平均閾値Dave_th以下であるか否かを判定し(ステップS32)、輝度Dの平均値Daveが輝度平均閾値Dave_th以下であれば(ステップS32;NO)、当該グループgについての判定処理を終了する。   If the average value Nave of the number of pixels of the group g is equal to or greater than the average value threshold value Nave_th (step S31; YES), the road surface detection unit 9 calculates the calculation unit 7 in the calculation process of step S25 in FIG. It is determined whether or not the average value Dave of the luminance D of each pixel p of the group g is equal to or less than a predetermined luminance average threshold value Dave_th (step S32), and the average value Dave of the luminance D is the luminance average threshold value Dave_th. If it is below (step S32; NO), the determination process for the group g ends.

この輝度平均閾値Dave_thは、通常、道路面の路面領域が撮像された画素pの輝度Dとして検出される程度の低い輝度に設定される。そのため、仮に上記のステップS30やステップS31の判定処理で横断歩道や停止線、車線、数字、文字、矢印等の路面上の標示に対応するグループgが、道路面の路面領域に属するグループGとして検出されるグループgの判定対象から排除されなかった場合でも、このステップS32の判定処理で判定対象から排除される。   This luminance average threshold value Dave_th is normally set to a luminance that is low enough to be detected as the luminance D of the pixel p in which the road surface area of the road surface is imaged. For this reason, the group g corresponding to the marking on the road surface such as a pedestrian crossing, a stop line, a lane, a number, a letter, an arrow, etc. in the determination process of step S30 or step S31 is a group G belonging to the road surface area of the road surface. Even if it is not excluded from the determination target of the group g to be detected, it is excluded from the determination target in the determination process of step S32.

また、図16に示した画像T中の各グループgでは、空に対応するグループgskyが高輝度に撮像されているため、空に対応するグループgskyも、このステップS32の判定処理で、道路面の路面領域に属するグループGとして検出されるグループgの判定対象から排除される。   In addition, in each group g in the image T shown in FIG. 16, the group gsky corresponding to the sky is captured with high brightness, so that the group gsky corresponding to the sky is also determined in the determination process of step S32 in the road surface. Are excluded from the determination targets of the group g detected as the group G belonging to the road surface area.

しかし、曇天や雨天等の場合には、空に対応するグループgskyの各画素pの輝度Dの平均値Daveが輝度平均閾値Dave_th以下になる場合もある(ステップS32;YES)。また、図16に示したように、道路脇の街路樹に対応するグループgtreeも上記のステップS30やステップS31の判定処理では道路面の路面領域に属するグループGとして検出されるグループgの判定対象から排除されず、また、グループgtreeに属する各画素pの輝度Dが低いため、街路樹に対応するグループgtreeの各画素pの輝度Dの平均値Daveが輝度平均閾値Dave_th以下になる場合もある(ステップS32;YES)。   However, in the case of cloudy weather or rainy weather, the average value Dave of the luminance D of each pixel p of the group gsky corresponding to the sky may be equal to or less than the luminance average threshold value Dave_th (step S32; YES). In addition, as shown in FIG. 16, the group gtree corresponding to the roadside roadside tree is also a determination target of the group g detected as the group G belonging to the road surface area of the road surface in the determination processing of step S30 and step S31 described above. In addition, since the luminance D of each pixel p belonging to the group gtree is low, the average value Dave of the luminance D of each pixel p of the group gtree corresponding to the roadside tree may be equal to or less than the luminance average threshold Dave_th. (Step S32; YES).

そのため、路面領域検出手段9は、続いて、面積算出手段8が図8のステップS27の算出処理で算出した当該グループgのチェック領域R内で占める面積Aとしての画素数Anが、予め設定された面積閾値Ath以上であるか否かを判定し(ステップS33)、画素数Anが面積閾値Ath以上でなければ(ステップS33;NO)、当該グループgについての判定処理を終了する。   Therefore, the road surface area detection means 9 subsequently sets in advance the number of pixels An as the area A occupied in the check area R of the group g calculated by the area calculation means 8 in the calculation process of step S27 in FIG. Whether or not it is equal to or greater than the area threshold Ath (step S33). If the number of pixels An is not equal to or greater than the area threshold Ath (step S33; NO), the determination process for the group g ends.

図5に示したように、チェック領域Rは、自車両の推定軌跡Lest等に基づいて画像T中での自車両の進行方向に設定され、空や道路脇の街路樹が撮像された画素領域はこのチェック領域R内に存在しないため、図16に示した空や街路樹に対応するグループgsky、gtreeのチェック領域R内で占める面積Aとしての画素数Anは0になる。そのため、空や街路樹に対応するグループgsky、gtreeは、このステップS33の判定処理で、道路面の路面領域に属するグループGとして検出されるグループgの判定対象から排除される。   As shown in FIG. 5, the check region R is set in the traveling direction of the host vehicle in the image T based on the estimated trajectory Lest of the host vehicle, and is a pixel region in which street trees on the sky and the roadside are imaged. Does not exist in this check region R, the number of pixels An as the area A occupied in the check region R of the groups gsky and gtree corresponding to the sky and street trees shown in FIG. For this reason, the groups gsky and gtree corresponding to the sky and the roadside tree are excluded from the determination targets of the group g detected as the group G belonging to the road surface area of the road surface in the determination process of step S33.

また、図16に示したように、画像T中の右下に検出された立入り禁止の標示中の低輝度のグループgkoが、上記のステップS30〜S32の各判定処理をクリアする場合があり、また、図5に示したように、チェック領域Rの一部がこのグループgkoに相当する部分にかかっているため、グループgkoのチェック領域R内で占める面積Aとしての画素数Anが0にならない場合がある。   In addition, as shown in FIG. 16, the low-luminance group gko detected in the lower right in the image T in the entry prohibition sign may clear the determination processes in the above steps S30 to S32. Further, as shown in FIG. 5, since a part of the check region R covers a portion corresponding to the group gko, the number of pixels An as the area A occupied in the check region R of the group gko does not become zero. There is a case.

しかし、このような場合でも、上記の面積閾値Athを予めある程度大きな値に設定しておくことで、グループgkoのようなグループを、このステップS33の判定処理で道路面の路面領域に属するグループGとして検出されるグループgの判定対象から的確に排除することが可能となる。   However, even in such a case, by setting the area threshold value Ath to a certain large value in advance, a group such as the group gko can be assigned to the group G belonging to the road surface area of the road surface in the determination process of step S33. It is possible to accurately exclude from the determination target of the group g detected as.

路面領域検出手段9は、グループgが上記のステップS30〜S33の判定処理をすべてクリアすると、当該グループgを道路面の路面領域に属するグループGとして検出する(ステップS34)。例えば、図5に示した画像Tに対する処理の結果、図17に示すように、グループG1〜G4が道路面の路面領域に属するグループGとして検出される。そして、これらのグループG1〜G4を画像T上でつなぎ合わせることで、画像Tから道路面の路面領域を抽出して検出することが可能となる。   When the group g clears all the determination processes in steps S30 to S33, the road surface area detection unit 9 detects the group g as a group G belonging to the road surface area of the road surface (step S34). For example, as a result of the processing on the image T shown in FIG. 5, as shown in FIG. 17, the groups G1 to G4 are detected as the group G belonging to the road surface area of the road surface. Then, by connecting these groups G1 to G4 on the image T, it is possible to extract and detect the road surface area of the road surface from the image T.

路面領域検出手段9は、それらのグループG1〜G4の各情報やそれらをつなぎ合わせて検出した道路面の路面領域の情報を記憶手段に保存するとともに、必要に応じて外部装置に出力する。なお、検出した各グループG1〜G4の各情報が前回のサンプリング周期で抽出した道路面の路面領域の情報と整合性を有しない場合に整合性を有しないグループGの情報を排除する等の処理を行うように構成することも可能である。   The road surface area detection means 9 stores each information of the groups G1 to G4 and information on the road surface area of the road surface detected by connecting them together in the storage means, and outputs them to an external device as necessary. In addition, when each information of each detected group G1-G4 does not have consistency with the information of the road surface area of the road surface extracted by the last sampling period, the process of excluding the information of the group G which does not have consistency etc. It is also possible to configure so that

そして、統合手段6により画像T上で統合された全グループgについての処理が終了すると(ステップS29;NO)、今回のサンプリング周期で撮像手段2から入力された1画像分の画像Tに対する処理が終了され、撮像手段2により次のサンプリング周期での撮像が開始されると(図6のステップS1)、改めてステップS2からの各処理が処理部5で実行される。   When the processing for all the groups g integrated on the image T by the integration unit 6 is completed (step S29; NO), the processing for the image T for one image input from the imaging unit 2 in the current sampling cycle is performed. When the imaging unit 2 starts imaging at the next sampling cycle (step S1 in FIG. 6), each processing from step S2 is executed again by the processing unit 5.

以上のように、本実施形態に係る道路認識装置1によれば、統合手段6により画像Tの各画素pを輝度Dに基づいて各グループgに統合した後、グループgの画素行jごとの横幅Wj(Nj)やその平均値Wave(Nave)、グループgに属する各画素pの輝度Dの平均値Dave、グループgが画像Tのチェック領域R内で占める面積A(An)に基づいて、当該グループgを道路面の路面領域に属するグループGであるか否かを判定する。   As described above, according to the road recognition device 1 according to the present embodiment, the integration unit 6 integrates the pixels p of the image T into the groups g based on the luminance D, and then performs the process for each pixel row j of the group g. Based on the width Wj (Nj), the average value Wave (Nave), the average value Dave of the luminance D of each pixel p belonging to the group g, and the area A (An) that the group g occupies in the check region R of the image T, It is determined whether or not the group g is a group G belonging to the road surface area of the road surface.

すなわち、画像T内でのグループgの大きさや形状(横幅やその平均値)、平均的な輝度(輝度の平均値)、画像T中で占める位置(チェック領域内で占める面積)に基づいて判定するため、グループgが道路面の路面領域に属するグループGであるか否かを的確に判定して、画像T中から道路面の路面領域を的確に検出することが可能となる。   That is, the determination is made based on the size and shape of the group g in the image T (width and average value thereof), average luminance (average value of luminance), and position occupied in the image T (area occupied in the check region). Therefore, it is possible to accurately determine whether or not the group g is the group G belonging to the road surface area of the road surface, and to accurately detect the road surface area of the road surface from the image T.

特に、上記の特許文献3に記載の車両用環境認識装置では、画像T中にウインドウを設定し、道路面の路面領域を抽出するための基準色としてウインドウの下端部中央付近の画素の色を基準色とするため、ウインドウの下端部中央付近に停止線等の白い表示が撮像されている場合にはその白い色が基準色となってしまい、路面領域を正しく抽出することが困難となる虞があった。   In particular, in the vehicle environment recognition device described in Patent Document 3 above, a window is set in the image T, and the pixel color near the center of the lower end of the window is used as a reference color for extracting the road surface area of the road surface. Since the reference color is used, when a white display such as a stop line is imaged near the center of the lower end of the window, the white color becomes the reference color, and it may be difficult to correctly extract the road surface area. was there.

しかし、本実施形態に係る道路認識装置1では、グループgに属する各画素pの輝度Dの平均値Daveに基づいてグループgが道路面の路面領域に属するグループGであるか否かを判定するため、そのような誤抽出や誤判定の問題が生じることを的確に防止して、道路面の路面領域を的確に検出することが可能となる。   However, in the road recognition device 1 according to the present embodiment, it is determined whether or not the group g is the group G belonging to the road surface area of the road surface based on the average value Dave of the luminance D of each pixel p belonging to the group g. Therefore, it is possible to accurately prevent the occurrence of such erroneous extraction and misjudgment problems and accurately detect the road surface area of the road surface.

また、統合手段6による各グループgの統合処理と同時並行で、算出手段7や面積算出手段8による各処理が行われ、統合処理が終了した後、算出手段7による図9のステップS28の算出処理や路面領域検出手段9によるステップS30〜S33の判定処理等が行われるため、画像T中からの道路面の路面領域の検出を非常に迅速に行うことが可能となる。   Further, in parallel with the integration process of each group g by the integration unit 6, each process by the calculation unit 7 and the area calculation unit 8 is performed, and after the integration process is completed, the calculation unit 7 calculates step S28 in FIG. Since the process and the determination process of steps S30 to S33 by the road surface area detection means 9 are performed, the road surface area of the road surface from the image T can be detected very quickly.

そのため、例えば1秒間に数フレーム分或いは数十フレーム分の画像の輝度が取り込まれ、次々と処理を行わなければならないような場合でも、各フレームごとに画像T中から道路面の路面領域を的確に検出することが可能となり、リアルタイムで処理を行うことが可能となる。   Therefore, for example, even when the luminance of an image for several frames or several tens of frames is captured per second and processing must be performed one after another, the road surface area of the road surface is accurately determined from the image T for each frame. Can be detected in real time, and processing can be performed in real time.

さらに、本実施形態に係る道路認識装置1によれば、統合手段6により画像Tの各画素pを輝度Dに基づいて統合した各グループgとして画像T中から道路面の路面領域を検出するため、例えば、自車両が走行する道路が自車両の左右のいずれにも車線が標示されていないような道路であっても画像T中から的確に道路面の路面領域を検出することが可能となる。   Furthermore, according to the road recognition apparatus 1 according to the present embodiment, the road surface area of the road surface is detected from the image T as each group g obtained by integrating the pixels p of the image T based on the luminance D by the integration unit 6. For example, even if the road on which the host vehicle is traveling is a road in which no lane is marked on either the left or right side of the host vehicle, the road surface area of the road surface can be accurately detected from the image T. .

その際、チェック領域R(図4、図5参照)を、例えば、自車両MCの挙動から推定される推定軌跡Lestに基づいて設定することができるため、自車両が走行している道路が車線が標示されていない道路であっても、車線に頼ることなく、有効にチェック領域Rを設定して画像T中から道路面の路面領域を的確に検出することが可能となる。   At this time, the check region R (see FIGS. 4 and 5) can be set based on, for example, the estimated trajectory Lest estimated from the behavior of the host vehicle MC, so that the road on which the host vehicle is traveling is a lane. Even if the road is not marked, it is possible to set the check area R effectively and accurately detect the road surface area from the image T without depending on the lane.

また、本実施形態に係る道路認識装置1では、上記のように、道路面の路面領域に属するグループGとして検出した各グループGをつなぎ合わせて画像T中に道路面の路面領域を抽出して検出するため、図18に示すように、自車両が走行している道路と同じような輝度Dを有し、自車両が走行している道路に合流してくる道路Bをも有効に検出することが可能となる。   Further, as described above, the road recognition device 1 according to the present embodiment extracts the road surface area of the road surface from the image T by connecting the groups G detected as the group G belonging to the road surface area of the road surface. In order to detect, as shown in FIG. 18, the road B having the same luminance D as the road on which the host vehicle is traveling and the road B joining the road on which the host vehicle is traveling is also detected effectively. It becomes possible.

また、自車両が走行している道路の遠方領域Cでは、画像T上では自車両の側方の車線が非常に細く撮像され、検出するのが困難になるが、そのような遠方領域Cでも、道路面の路面領域に属するグループGとして検出した各グループGをつなぎ合わせていくことで有効に画像T中から検出することが可能となる。   Further, in the far region C of the road on which the host vehicle is traveling, the lanes on the side of the host vehicle are captured very thinly on the image T, making it difficult to detect. By connecting the groups G detected as the groups G belonging to the road surface area of the road surface, it is possible to detect from the image T effectively.

このように、本実施形態に係る道路認識装置1では、自車両が走行している道路に合流する道路Bや、自車両が走行している道路の遠方領域Cをも的確に検出することが可能となり、画像Tに撮像された道路面の路面領域を的確に検出することが可能となる。   As described above, the road recognition device 1 according to the present embodiment can accurately detect the road B that joins the road on which the host vehicle is traveling, and the distant region C of the road on which the host vehicle is traveling. It becomes possible, and it becomes possible to detect the road surface area of the road surface imaged by the image T exactly.

なお、画像Tにおける道路面の路面領域の明るさ等は、撮像手段2のシャッタレベルに応じても変わるため、上記の輝度平均閾値Dave_thを撮像手段2のシャッタレベルに応じて可変させるように構成することも可能である。   In addition, since the brightness of the road surface area of the road surface in the image T also changes according to the shutter level of the imaging unit 2, the luminance average threshold value Dave_th is configured to vary according to the shutter level of the imaging unit 2. It is also possible to do.

具体的には、本実施形態のように撮像手段2をCCDカメラ等で構成した場合、CCDカメラ等に通常備えられる機能として、自車両の周囲の明るさを自ら判断して適切な露光を得るための露光調整を自動的に行うように構成されている。すなわち、例えば、シャッタ時間調整やアンプゲイン切り替え、LUT(Look Up Table)の選択やそれによる輝度値変換等の露光調整が自動的に行われるようになっている。   Specifically, when the image pickup means 2 is configured with a CCD camera or the like as in the present embodiment, as a function normally provided in the CCD camera or the like, appropriate brightness is obtained by determining the brightness around the own vehicle. Therefore, the exposure adjustment is automatically performed. That is, for example, exposure adjustment such as shutter time adjustment, amplifier gain switching, LUT (Look Up Table) selection, and luminance value conversion based on it is automatically performed.

そこで、例えば、撮像手段2から画像Tを送信する際に、あわせて、その露光調整のレベルをシャッタレベルとして処理部5に送信するように構成し、路面領域検出手段9で、その撮像手段2のシャッタレベルに応じて輝度平均閾値Dave_thを可変させるように構成することが可能である。   Therefore, for example, when the image T is transmitted from the imaging unit 2, the exposure adjustment level is also transmitted to the processing unit 5 as the shutter level, and the road surface area detection unit 9 performs the imaging unit 2. The luminance average threshold value Dave_th can be varied according to the shutter level.

このように構成すれば、上記のように、車線や横断歩道、停止線、数字、文字、矢印等の路面上に白く標示される各標示と、道路面の路面領域のように暗く撮像される撮像対象とを、撮像手段2のシャッタレベルに応じて可変された輝度平均閾値Dave_thにより的確に選別することが可能となる。   If comprised in this way, as above-mentioned, it will image darkly like each road marking, such as a lane, a pedestrian crossing, a stop line, a number, a character, an arrow, etc., and the road surface area of a road surface. The imaging target can be accurately selected based on the luminance average threshold value Dave_th that is varied according to the shutter level of the imaging unit 2.

そのため、例えば、車線等の路面上の標示に対応するグループgが図9のステップS30やステップS31の判定処理で排除されなかった場合でも、ステップS32の判定処理で判定対象から的確に排除することが可能となり、道路面の路面領域に属するグループGとして検出すべき輝度Dが小さいグループgを道路面の路面領域に属するグループGとして的確に検出することが可能となる。   Therefore, for example, even when the group g corresponding to the marking on the road surface such as a lane is not excluded in the determination processing in step S30 or step S31 in FIG. 9, it is accurately excluded from the determination target in the determination processing in step S32. Thus, the group g having a low luminance D to be detected as the group G belonging to the road surface area of the road surface can be accurately detected as the group G belonging to the road surface area of the road surface.

[第2の実施の形態]
上記の第1の実施形態では、撮像手段2で撮像された1つの画像Tの各画素pの輝度Dを処理して、画像T中に道路面の路面領域G1〜G4を検出する道路認識装置1について説明した。
[Second Embodiment]
In the first embodiment, the road recognition device that processes the luminance D of each pixel p of one image T captured by the imaging unit 2 and detects road surface areas G1 to G4 of the road surface in the image T. 1 was described.

しかし、撮像手段2として一対のカメラ(すなわちいわゆるステレオカメラ)を用いて一対の画像を撮像し、それに基づいて処理を行うと、画像T中に撮像された撮像対象までの実空間上の距離Zを検出することができるため、それに基づいて道路面の路面領域をより的確に検出することが可能となる。第2の実施形態では、このように構成された道路認識装置について説明する。   However, when a pair of images is captured using a pair of cameras (that is, so-called stereo cameras) as the imaging unit 2 and processing is performed based on the pair of images, a distance Z in the real space to the imaging target captured in the image T is obtained. Therefore, the road surface area of the road surface can be detected more accurately based on this. In the second embodiment, a road recognition device configured as described above will be described.

本実施形態に係る道路認識装置10は、図19に示すように、第1の実施形態における道路認識装置1(図1参照)と同様に、撮像手段2や変換手段3、画像補正部4、統合手段6や算出手段7、面積算出手段8、路面領域検出手段9を有する処理部5等を備えて構成されるが、さらに、イメージプロセッサ12等を有する距離検出手段11等を備えている。   As shown in FIG. 19, the road recognition device 10 according to the present embodiment is similar to the road recognition device 1 (see FIG. 1) in the first embodiment, the imaging unit 2, the conversion unit 3, the image correction unit 4, The processing unit 5 includes an integration unit 6, a calculation unit 7, an area calculation unit 8, and a road surface area detection unit 9, and further includes a distance detection unit 11 including an image processor 12.

なお、イメージプロセッサ12等を含む処理部5の上流側の構成については、特開2006−72495号公報等に詳述されており、構成の詳細な説明はそれらの公報に委ねる。以下、簡単に説明する。   Note that the configuration on the upstream side of the processing unit 5 including the image processor 12 and the like is described in detail in Japanese Patent Application Laid-Open No. 2006-72495 and the detailed description of the configuration is left to those publications. A brief description is given below.

本実施形態では、撮像手段2は、互いに同期が取られたCCDやCMOSセンサ等のイメージセンサがそれぞれ内蔵され、例えば車両のルームミラー近傍に車幅方向に所定の間隔をあけて取り付けられた一対のメインカメラ2aおよびサブカメラ2bからなるステレオカメラであり、所定のサンプリング周期で撮像して、一対の画像を出力するように構成されている。   In the present embodiment, the image pickup means 2 includes a built-in image sensor such as a CCD or a CMOS sensor that is synchronized with each other. For example, a pair of image sensors 2 attached in the vicinity of a vehicle rearview mirror with a predetermined interval in the vehicle width direction. The stereo camera is composed of a main camera 2a and a sub camera 2b, and is configured to capture a predetermined sampling period and output a pair of images.

一対のカメラのうち、メインカメラ2aは運転者に近い側のカメラであり、例えば図28に示すような画像Tを撮像するようになっている。なお、以下では、メインカメラ2aで撮像された画像Tを基準画像T、サブカメラ2bで撮像された画像を比較画像という。   Of the pair of cameras, the main camera 2a is a camera closer to the driver, and captures an image T as shown in FIG. 28, for example. Hereinafter, an image T captured by the main camera 2a is referred to as a reference image T, and an image captured by the sub camera 2b is referred to as a comparative image.

また、本実施形態においても、撮像手段2のメインカメラ2aおよびサブカメラ2bで図2に示したような基準画像Tや図示を省略する比較画像を撮像する場合、基準画像T等の各水平ラインjの最も左側の撮像素子から順に右方向に走査し、また、走査する水平ラインjを最も下側のラインから順に上方に切り替えながら撮像するようにして、各撮像素子で撮像された順に基準画像Tと比較画像の各輝度Dのデータがそれぞれ変換手段3に順次送信されるようになっている。   Also in the present embodiment, when a reference image T as shown in FIG. 2 or a comparison image not shown is taken by the main camera 2a and the sub camera 2b of the imaging means 2, each horizontal line such as the reference image T is displayed. The reference image is scanned in the right direction in order from the leftmost image sensor of j, and the horizontal line j to be scanned is imaged while being switched upward in order from the lowermost line, so that the reference images are picked up by the respective image sensors. Data of T and each brightness D of the comparison image are sequentially transmitted to the conversion means 3, respectively.

変換手段3は、一対のA/Dコンバータ3a、3bで構成されており、撮像手段2のメインカメラ2aおよびサブカメラ2bで各画素pごとに撮像された基準画像Tと比較画像の各輝度Dのデータがそれぞれ順次送信されてくると、各輝度Dをそれぞれ例えば256階調のグレースケールのデジタル値の輝度Dに変換して画像補正部4に出力するようになっている。   The conversion means 3 is composed of a pair of A / D converters 3a and 3b, and each luminance D of the reference image T and the comparison image taken for each pixel p by the main camera 2a and the sub camera 2b of the image pickup means 2. Are sequentially transmitted, each luminance D is converted into a luminance D of a gray scale digital value of, for example, 256 gradations and output to the image correction unit 4.

画像補正部4は、送信されてきた基準画像Tと比較画像の各輝度Dのデータに対してずれやノイズの除去、輝度の補正等の画像補正をそれぞれ順次行い、画像補正した基準画像Tと比較画像の各輝度Dのデータを画像データメモリ14に順次格納するとともに、処理部5に順次送信するようになっている。また、画像補正部4は、画像補正した基準画像Tと比較画像の各輝度Dのデータを距離検出手段11にも順次送信するようになっている。   The image correction unit 4 sequentially performs image correction such as displacement, noise removal, luminance correction, and the like on the transmitted reference image T and data of each luminance D of the comparison image, and the corrected image of the reference image T and Data of each brightness D of the comparison image is sequentially stored in the image data memory 14 and is sequentially transmitted to the processing unit 5. Further, the image correction unit 4 sequentially transmits the data of each luminance D of the reference image T and the comparison image subjected to the image correction to the distance detection unit 11.

距離検出手段11のイメージプロセッサ12では、基準画像Tと比較画像の各輝度Dのデータに対して順次ステレオマッチング処理やフィルタリング処理を施して、実空間上の距離に対応する視差dpを基準画像Tの各画素pごとに順次算出するようになっている。   In the image processor 12 of the distance detection unit 11, stereo matching processing and filtering processing are sequentially performed on the data of each luminance D of the reference image T and the comparison image, and the parallax dp corresponding to the distance in the real space is obtained as the reference image T. Are sequentially calculated for each pixel p.

イメージプロセッサ12におけるステレオマッチング処理では、基準画像Tと比較画像Tcの各輝度Dのデータが送信されてくると、図20に示すように、基準画像T上に例えば3×3画素や4×4画素等の所定の画素数の基準画素ブロックPBを設定し、基準画素ブロックPBに対応する比較画像Tc中のエピポーララインEPL上の基準画素ブロックPBと同形の各比較画素ブロックPBcについて、下記(8)式に従って当該基準画素ブロックPBとの輝度パターンの差異であるSAD値を算出し、SAD値が最小の比較画素ブロックPBcを特定するようになっている。
SAD=Σ|D1s,t−D2s,t| …(8)
In the stereo matching process in the image processor 12, when data of each luminance D of the reference image T and the comparison image Tc are transmitted, as shown in FIG. 20, for example, 3 × 3 pixels or 4 × 4 on the reference image T. A reference pixel block PB having a predetermined number of pixels such as pixels is set, and for each comparison pixel block PBc having the same shape as the reference pixel block PB on the epipolar line EPL in the comparison image Tc corresponding to the reference pixel block PB, the following (8 ) Is used to calculate a SAD value that is a difference in luminance pattern from the reference pixel block PB, and a comparison pixel block PBc having the smallest SAD value is specified.
SAD = Σ | D1s, t−D2s, t | (8)

なお、上記(8)式において、D1s,tは基準画素ブロックPB中の各画素pの輝度Dを表し、D2s,tは比較画素ブロックPBc中の各画素pの輝度Dを表す。また、上記の総和は、基準画素ブロックPBや比較画素ブロックPBcが例えば3×3画素の領域として設定される場合には1≦s≦3、1≦t≦3の範囲、4×4画素の領域として設定される場合には1≦s≦4、1≦t≦4の範囲の全画素pについて計算される。   In the above equation (8), D1s, t represents the luminance D of each pixel p in the reference pixel block PB, and D2s, t represents the luminance D of each pixel p in the comparison pixel block PBc. Further, the above sum is obtained when the reference pixel block PB and the comparison pixel block PBc are set as a 3 × 3 pixel region, for example, a range of 1 ≦ s ≦ 3, 1 ≦ t ≦ 3, and 4 × 4 pixels. When set as a region, calculation is performed for all pixels p in the range of 1 ≦ s ≦ 4 and 1 ≦ t ≦ 4.

イメージプロセッサ12は、このようにして基準画像Tの各基準画素ブロックPBについて、特定した比較画素ブロックPBcの比較画像Tc上の位置と当該基準画素ブロックPBの基準画像T上の位置から視差dpを順次算出するようになっている。以下、基準画像Tの各画素pに視差dpを割り当てた画像を距離画像という。また、このようにして各画素pごとに算出された視差dpの情報すなわち距離画像は、距離検出手段11の距離データメモリ13に順次格納されるとともに、処理部5に順次送信されるようになっている。   For each reference pixel block PB of the reference image T in this way, the image processor 12 calculates the parallax dp from the position on the comparison image Tc of the identified comparison pixel block PBc and the position on the reference image T of the reference pixel block PB. It is calculated sequentially. Hereinafter, an image in which the parallax dp is assigned to each pixel p of the reference image T is referred to as a distance image. In addition, information on the parallax dp calculated for each pixel p in this way, that is, a distance image is sequentially stored in the distance data memory 13 of the distance detecting unit 11 and is sequentially transmitted to the processing unit 5. ing.

なお、実空間上で、前記一対のカメラ2a、2bの中央真下の道路面上の点を原点とし、自車両の車幅方向(すなわち水平方向)をX軸方向、車高方向(すなわち高さ方向)をY軸方向、車長方向(すなわち距離方向)をZ軸方向とした場合、実空間上の点(X,Y,Z)と、距離画像上の画素pの座標(i,j)および視差dpとは、下記(9)〜(11)式で表される三角測量の原理に基づく座標変換により一意に対応付けることができる。
X=CD/2+Z×PW×(i−IV) …(9)
Y=CH+Z×PW×(j−JV) …(10)
Z=CD/(PW×(dp−DP)) …(11)
In real space, a point on the road surface directly below the center of the pair of cameras 2a and 2b is used as an origin, and the vehicle width direction (that is, the horizontal direction) of the host vehicle is the X-axis direction and the vehicle height direction (that is, the height). (Direction) is the Y-axis direction and the vehicle length direction (that is, the distance direction) is the Z-axis direction, the point (X, Y, Z) in the real space and the coordinates (i, j) of the pixel p on the distance image And the parallax dp can be uniquely associated by coordinate transformation based on the principle of triangulation expressed by the following equations (9) to (11).
X = CD / 2 + Z * PW * (i-IV) (9)
Y = CH + Z × PW × (j−JV) (10)
Z = CD / (PW × (dp−DP)) (11)

上記各式において、CDは一対のカメラの間隔、PWは1画素当たりの視野角、CHは一対のカメラの取り付け高さ、IVおよびJVは自車両正面の無限遠点の距離画像上のi座標およびj座標、DPは消失点視差を表す。   In each of the above formulas, CD is the distance between the pair of cameras, PW is the viewing angle per pixel, CH is the mounting height of the pair of cameras, and IV and JV are i coordinates on the distance image at the infinity point in front of the host vehicle. And j coordinate and DP represent vanishing point parallax.

また、イメージプロセッサ12は、視差dpの信頼性を向上させる目的から、上記のようなステレオマッチング処理で得られた視差dpに対してフィルタリング処理を施し、有効とされた視差dpのみを出力するようになっている。   Further, for the purpose of improving the reliability of the parallax dp, the image processor 12 performs a filtering process on the parallax dp obtained by the stereo matching process as described above, and outputs only the valid parallax dp. It has become.

例えば、道路面の映像のみからなる特徴に乏しい4×4画素の基準画素ブロックPBに対して、比較画像Tc上でステレオマッチング処理を行っても、比較画像Tcの道路面が撮像されている部分ではすべて相関が高くなるため、対応する比較画素ブロックPBcが特定されて視差dpが算出されてもその視差dpの信頼性は低い。そのため、そのような視差dpはフィルタリング処理を施して無効とし、視差dpの値として0を出力するようになっている。   For example, even if a stereo matching process is performed on the reference image block PB of 4 × 4 pixels having poor features consisting only of a road surface image, the road surface of the comparison image Tc is captured. Since all the correlations are high, the reliability of the parallax dp is low even if the corresponding comparison pixel block PBc is specified and the parallax dp is calculated. Therefore, the parallax dp is invalidated by performing a filtering process, and 0 is output as the value of the parallax dp.

したがって、基準画像Tの各画素pに、有効に算出された視差dpを割り当てて(すなわち対応付けて)距離画像Tzを作成すると、距離画像Tzは、例えば図21に示すように、基準画像T上で有意な特徴を有する部分である撮像対象の辺縁部分(エッジ部分)等に有効な視差dpが算出された画像となる。なお、距離画像Tzの作成においては、上記(11)式等に従って予め視差dpを距離Z等に換算し、距離Z等を基準画像Tの各画素pに割り当てて作成するように構成することも可能である。   Therefore, when the distance image Tz is created by assigning (ie, associating) effectively calculated parallax dp to each pixel p of the reference image T, the distance image Tz is, for example, as shown in FIG. This is an image in which the effective parallax dp is calculated for the edge portion (edge portion) of the imaging target, which is a portion having a significant feature above. In creating the distance image Tz, the parallax dp is converted into the distance Z or the like in advance according to the above equation (11), and the distance Z or the like is assigned to each pixel p of the reference image T for creation. Is possible.

本実施形態では、処理部5における各処理では、必要に応じて上記(11)式等に従って距離画像Tzの各画素pにおける視差dpが実空間上の距離Zに変換されて用いられる。   In the present embodiment, in each process in the processing unit 5, the parallax dp in each pixel p of the distance image Tz is converted into a distance Z in the real space and used according to the above equation (11) as necessary.

本実施形態においても、処理部5は、図示しないCPUやROM、RAM、入出力インターフェース等がバスに接続されたコンピュータで構成されており、第1の実施形態と同様の統合手段6や算出手段7、面積算出手段8、路面領域検出手段9が設けられている。なお、本実施形態では、統合手段6等での処理は基準画像Tに対して行われるようになっているが、比較画像Tcに対して処理を行うように構成してもよく、また、基準画像Tと比較画像Tcの両者に対して処理を行うように構成することも可能である。   Also in this embodiment, the processing unit 5 is configured by a computer in which a CPU, a ROM, a RAM, an input / output interface and the like (not shown) are connected to a bus, and the integration unit 6 and the calculation unit similar to those in the first embodiment. 7, an area calculating means 8 and a road surface area detecting means 9 are provided. In the present embodiment, the processing in the integration unit 6 and the like is performed on the reference image T. However, the processing may be performed on the comparison image Tc, and the reference image Tc may be configured. It is also possible to configure so that both the image T and the comparison image Tc are processed.

また、本実施形態では、処理部5には、さらに、基準画像T中から自車両の側方に標示された車線を検出する車線検出手段15が設けられている。さらに、第1の実施形態と同様に、処理部5に、先行車両を検出する先行車両検出手段等を設けるように構成することも可能であり、必要に応じて、車速センサやヨーレートセンサ、ステアリングホイールの舵角を測定する舵角センサ等のセンサ類からの測定値が入力されるように構成することも可能である。   In the present embodiment, the processing unit 5 is further provided with lane detection means 15 for detecting a lane marked on the side of the host vehicle from the reference image T. Further, similarly to the first embodiment, the processing unit 5 can be configured to be provided with a preceding vehicle detection means for detecting a preceding vehicle, and a vehicle speed sensor, a yaw rate sensor, a steering wheel, and the like can be provided as necessary. It is also possible to configure so that measurement values from sensors such as a steering angle sensor for measuring the steering angle of the wheel are input.

ここで、本実施形態の処理部5の統合手段6等における処理について説明する前に、車線検出手段15について説明する。   Here, the lane detection unit 15 will be described before describing the processing in the integration unit 6 and the like of the processing unit 5 of the present embodiment.

車線検出手段15は、撮像手段2により撮像された基準画像T中から自車両の側方に存在する車線を検出するようになっている。具体的には、車線検出手段15は、図22に示すように、基準画像Tを用いて、その1画素幅の水平ラインj上を例えば基準画像Tの中央から左右方向に探索し、輝度Dが隣接する画素pの輝度Dから設定された閾値以上に大きく変化する画素pを車線候補点cl、crとして検出する。   The lane detection unit 15 detects a lane that exists on the side of the host vehicle from the reference image T captured by the imaging unit 2. Specifically, as shown in FIG. 22, the lane detection unit 15 searches the horizontal line j having a width of one pixel, for example, from the center of the reference image T in the left-right direction using the reference image T, and the luminance D Are detected as lane candidate points cl and cr that greatly change from the luminance D of the adjacent pixel p to a threshold value or more.

また、例えば、基準画像Tの中央から右方向に探索して検出した車線候補点crでは、図23に示すように、輝度Dは大きく上昇するが、さらに右方向に探索を続けて車線が終了する車線終了点候補点creで、道路面に対応する低い輝度に低下する。また、図示を省略するが、左方向に探索して検出した車線候補点clでも同様である。   Further, for example, at the lane candidate point cr detected by searching from the center of the reference image T to the right, the luminance D increases greatly as shown in FIG. 23, but the search continues further to the right and the lane ends. The lane end point candidate point cre is reduced to a low brightness corresponding to the road surface. Although not shown, the same applies to the lane candidate point cl detected by searching in the left direction.

そこで、本実施形態では、車線検出手段15は、車線候補点cl、crを検出すると、さらに左方向或いは右方向に探索を続け、車線終了点候補点cle、creが検出されるまで、検出される車線に対応する画素pの輝度Dを予め作成した図示しないヒストグラムにそれぞれ投票して、ヒストグラムを更新していくようになっている。なお、車線候補点cr等に到達する前の道路面に対応する低輝度の画素pの輝度Dをヒストグラムに投票する等して、道路面の輝度を算出するように構成することも可能である。   Therefore, in this embodiment, when the lane detection unit 15 detects the lane candidate points cl and cr, the lane detection unit 15 continues to search leftward or rightward until the lane end point candidate points cle and cre are detected. The brightness D of the pixel p corresponding to the lane is voted on a histogram (not shown) created in advance, and the histogram is updated. Note that the brightness of the road surface may be calculated by, for example, voting the brightness D of the low brightness pixel p corresponding to the road surface before reaching the lane candidate point cr or the like to the histogram. .

そして、車線検出手段15は、基準画像T上の水平ラインjを1画素分ずつ上方にシフトさせながら、同様にして各水平ラインj上に車線候補点を検出していく。その際、検出される車線に対応する画素pの輝度Dのヒストグラムへの投票は継続される。   Then, the lane detection means 15 detects lane candidate points on each horizontal line j in the same manner while shifting the horizontal line j on the reference image T upward by one pixel at a time. At that time, voting on the histogram of the luminance D of the pixel p corresponding to the detected lane is continued.

車線検出手段15は、検出した車線候補点の視差dp等に基づいて当該車線候補点が道路面上にないと判断した場合には当該車線候補点を車線候補点から除外する。なお、この場合の道路面は、前回のサンプリング周期で検出した道路面に基づいてその後の自車両の挙動等から今回のサンプリング周期における道路面の位置が推定される。   If the lane detection unit 15 determines that the lane candidate point is not on the road surface based on the parallax dp or the like of the detected lane candidate point, the lane detection unit 15 excludes the lane candidate point from the lane candidate point. In this case, the position of the road surface in the current sampling cycle is estimated from the behavior of the host vehicle and the like based on the road surface detected in the previous sampling cycle.

そして、残った車線候補点のうち、自車両に近い側の車線候補点に基づいて車線をハフ変換等により直線で近似して自車両の側方にそれぞれ検出する。その際、ハフ変換では種々の直線が候補として算出されるが、例えば自車両の一方の側(例えば右側)に複数の車線が検出される場合には、自車両の他方(例えば左側)に検出した車線との整合性がある車線や、前回のサンプリング周期で検出した車線との整合性がある車線を選ぶ等して、自車両の側方にそれぞれ直線を選別する。   Then, of the remaining lane candidate points, the lane is approximated by a straight line by Hough transform or the like based on the lane candidate points on the side close to the own vehicle, and detected to the side of the own vehicle. At that time, various straight lines are calculated as candidates in the Hough transform. For example, when a plurality of lanes are detected on one side (for example, the right side) of the own vehicle, the line is detected on the other side (for example, the left side) of the own vehicle. A straight line is selected on each side of the host vehicle, for example, by selecting a lane that is consistent with the selected lane or a lane that is consistent with the lane detected in the previous sampling cycle.

このようにして、自車両に近い側に車線を直線状にそれぞれ検出すると、それより遠い側ではその直線に基づいて直線との位置関係等から車線候補点を選別して結ぶことで、図24に示すように自車両の側方にそれぞれ車線LR、LLを検出するようになっている。なお、以上の車線検出手段15の処理構成については、本願出願人が先に提出した特開2006−331389号公報等に詳述されており、詳細な説明は同公報等を参照されたい。   In this way, when the lane is detected in a straight line on the side closer to the host vehicle, the lane candidate points are selected and connected based on the positional relationship with the straight line based on the straight line on the side farther than that. As shown in the figure, lanes LR and LL are detected on the sides of the host vehicle. The processing configuration of the above lane detection means 15 is described in detail in Japanese Patent Application Laid-Open No. 2006-331389 previously filed by the applicant of the present application, and the detailed description should be referred to the same publication.

車線検出手段15は、このようにして検出した車線位置LL、LRや車線候補点cl、cr等の情報を図示しない記憶手段に保存するようになっている。   The lane detection means 15 stores information such as the detected lane positions LL and LR and lane candidate points cl and cr in a storage means (not shown).

また、本実施形態では、車線検出手段15は、検出した車線位置LL、LRや車線候補点の情報に基づいて車線モデルを三次元的に形成するようになっている。すなわち、車線検出手段15は、図25(A)、(B)に示すように、自車両の側方に検出した車線を所定区間ごとに三次元の直線式で近似し、それらを折れ線状に連結して表現した車線モデルを形成するようになっている。なお、図25(A)は、Z−X平面上の車線モデルすなわち水平形状モデル、図25(B)は、Z−Y平面上の車線モデルすなわち道路高モデルを表す。   In the present embodiment, the lane detection means 15 is configured to form a lane model three-dimensionally based on information on the detected lane positions LL and LR and lane candidate points. That is, as shown in FIGS. 25A and 25B, the lane detection means 15 approximates the lane detected on the side of the host vehicle with a three-dimensional linear expression for each predetermined section, and forms them in a broken line shape. It is designed to form a connected lane model. 25A shows a lane model on the ZX plane, that is, a horizontal shape model, and FIG. 25B shows a lane model on the ZY plane, that is, a road height model.

具体的には、車線検出手段15は、自車両前方の実空間を自車両の位置からの例えば距離Z7までの各区間に分け、検出した車線候補点の実空間上の位置(X,Y,Z)に基づいてそれぞれの区間内の車線候補点を最小二乗法で直線近似し、各区間ごとに下記の(12)〜(15)式のパラメータaL、bL、aR、bR、cL、dL、cR、dRを算出して車線モデルを形成するようになっている。   Specifically, the lane detection means 15 divides the real space ahead of the host vehicle into sections such as a distance Z7 from the position of the host vehicle, and the positions (X, Y, Z), the lane candidate points in each section are linearly approximated by the least square method, and parameters aL, bL, aR, bR, cL, dL in the following formulas (12) to (15) for each section: A lane model is formed by calculating cR and dR.

[水平形状モデル]
左車線 X=aL・Z+bL …(12)
右車線 X=aR・Z+bR …(13)
[道路高モデル]
左車線 Y=cL・Z+dL …(14)
右車線 Y=cR・Z+dR …(15)
[Horizontal shape model]
Left lane X = aL · Z + bL (12)
Right lane X = aR ・ Z + bR (13)
[Road height model]
Left lane Y = cL · Z + dL (14)
Right lane Y = cR · Z + dR (15)

車線検出手段15は、このようにして車線モデルを形成して、実空間上における道路面を検出するようになっている。車線検出手段15は、このようにして形成した車線モデルすなわち算出した各区間のパラメータaL〜dRをそれぞれ記憶手段に保存するようになっている。   The lane detection means 15 forms a lane model in this way and detects a road surface in real space. The lane detection means 15 stores the lane model thus formed, that is, the calculated parameters aL to dR of each section, in the storage means.

本実施形態に係る道路認識装置10においても、統合手段6や算出手段7、面積算出手段8、路面領域検出手段9は、本実施形態においても上記の第1の実施形態の場合と同様に、図6〜図9に示したフローチャートに従って各処理を行うように構成されている。   Also in the road recognition device 10 according to the present embodiment, the integration means 6, the calculation means 7, the area calculation means 8, and the road surface area detection means 9 are the same in the present embodiment as in the case of the first embodiment. Each process is performed in accordance with the flowcharts shown in FIGS.

本実施形態に係る道路認識装置10は、さらに、上記のような車線検出手段15を設けた結果、以下のような機能を有している。   The road recognition device 10 according to the present embodiment further has the following functions as a result of providing the lane detection means 15 as described above.

まず、面積算出手段8で、チェック領域Rを、車線検出手段15が自車両の側方に検出した車線LL、LRの位置を左右端とする領域として基準画像T中に設定するようになっている。   First, the area calculation means 8 sets the check area R in the reference image T as an area having the left and right ends of the lanes LL and LR detected by the lane detection means 15 to the side of the host vehicle. Yes.

具体的には、面積算出手段8は、前回のサンプリング周期等の過去のサンプリング周期で検出した車線LL、LRの情報に基づいてその後の自車両の挙動から今回のサンプリング周期における車線LL、LRの位置を推定し、それを基準にチェック領域Rを設定するようになっている。なお、本実施形態においても、第1の実施形態と同様に、チェック領域Rを、例えば、今回のサンプリング周期における自車両MCの挙動から推定される推定軌跡Lest(図4参照)に基づいて設定するように構成することも可能である。   Specifically, the area calculation means 8 determines the lanes LL and LR in the current sampling cycle from the behavior of the own vehicle based on the information on the lanes LL and LR detected in the past sampling cycle such as the previous sampling cycle. The position is estimated, and the check region R is set based on the estimated position. In the present embodiment as well, as in the first embodiment, the check region R is set based on, for example, the estimated trajectory Lest (see FIG. 4) estimated from the behavior of the host vehicle MC in the current sampling cycle. It is also possible to configure so as to.

また、本実施形態では、前述したように、車線検出手段15で車線LL、LRの検出を行う際に、検出される車線に対応する画素pの輝度Dをヒストグラムに投票する。そこで、このヒストグラムへの投票結果を用いて、路面領域検出手段9で、画像T上で統合された各グループgが道路面の路面領域に属するグループとして検出できるか否かの判定に用いられる輝度平均閾値Dave_thを、車線検出手段15で算出された車線に対応する画素pの輝度Dの平均値に応じて可変して適用することが可能である。   In the present embodiment, as described above, when the lane detection unit 15 detects the lanes LL and LR, the luminance D of the pixel p corresponding to the detected lane is voted on the histogram. Therefore, the brightness used for determining whether or not each group g integrated on the image T can be detected as a group belonging to the road surface area of the road surface by the road surface area detection means 9 using the result of voting on the histogram. The average threshold value Dave_th can be variably applied in accordance with the average value of the luminance D of the pixels p corresponding to the lane calculated by the lane detection unit 15.

すなわち、車線検出手段15でヒストグラムへの投票結果から今回のサンプリング周期での車線に対応する画素pの輝度Dの平均値を算出することができる。そして、その平均値に基づいて、例えば、それより所定値だけ小さい値を輝度平均閾値Dave_thとするように構成し、車線に対応する画素pの輝度Dの平均値に応じて輝度平均閾値Dave_thが可変されるように構成する。   That is, the average value of the luminance D of the pixels p corresponding to the lane in the current sampling cycle can be calculated from the voting result on the histogram by the lane detection means 15. Based on the average value, for example, a value smaller than the predetermined value is set as the luminance average threshold value Dave_th, and the luminance average threshold value Dave_th is set according to the average value of the luminance D of the pixel p corresponding to the lane. Configure to be variable.

そして、このように構成すれば、車線や横断歩道、停止線、数字、文字、矢印等の路面上に白く標示される各標示に対応するグループgが図9のステップS30やステップS31の判定処理で排除されなかった場合でも、ステップS32の判定処理で判定対象から的確に排除することが可能となり、道路面の路面領域に属するグループGとして検出すべき輝度Dが小さいグループgを道路面の路面領域に属するグループGとして的確に検出することが可能となる。   And if comprised in this way, the group g corresponding to each label | marker marked white on the road surfaces, such as a lane, a pedestrian crossing, a stop line, a number, a character, and an arrow, will perform the determination process of FIG.9 S30 or step S31. Even if it is not excluded in step S32, it is possible to accurately exclude from the determination target in the determination processing in step S32, and the group g having a small luminance D to be detected as the group G belonging to the road surface area of the road surface is selected as the road surface of the road surface. It becomes possible to accurately detect the group G belonging to the region.

一方、本実施形態に係る道路認識装置10は、上記のような距離検出手段11を設けた結果、以下のような機能を有している。   On the other hand, as a result of providing the distance detection means 11 as described above, the road recognition device 10 according to the present embodiment has the following functions.

前述した第1の実施形態では、算出手段7で、各グループgごとに、画像T上で横方向に延在する各画素行jごとの横幅Wjを実空間上の横幅として算出する際、画像Tの水平ラインj(画素行j)ごとの1画素あたりの実空間上の横方向の横幅に基づいて算出した。しかし、実際の道路面は図25(B)の道路高モデルに示したように必ずしも平坦ではなく、道路面が平坦であると仮定して算出された水平ラインjごとの1画素あたりの実空間上の横幅が必ずしも適切に適用されない場合もある。   In the first embodiment described above, when the calculating means 7 calculates the horizontal width Wj for each pixel row j extending in the horizontal direction on the image T as the horizontal width in real space for each group g, The calculation was performed based on the horizontal width in the real space per pixel for each T horizontal line j (pixel row j). However, the actual road surface is not necessarily flat as shown in the road height model of FIG. 25B, and the actual space per pixel for each horizontal line j calculated on the assumption that the road surface is flat. The top width may not always be properly applied.

しかし、本実施形態のような距離検出手段11を用い、撮像された基準画像Tと比較画像Tcとを用いたステレオマッチング処理により三角測量の原理に基づいて算出される各画素pごとの視差dpの情報を用いれば、以下のようにしてグループgの画素行jごとの実空間上の横幅Wjを的確に算出することが可能となる。   However, the parallax dp for each pixel p calculated based on the principle of triangulation by the stereo matching process using the captured reference image T and the comparison image Tc using the distance detection unit 11 as in the present embodiment. If this information is used, the lateral width Wj in the real space for each pixel row j of the group g can be accurately calculated as follows.

すなわち、グループgの画素行jの左端の画素pleftにおける視差dpleftを上記(11)式に代入して、左端の画素pleftの実空間上の距離Zleftを算出し、それと左端の画素pの基準画像T上の座標ileftとを上記(9)式に代入して、左端の画素pleftに対応する実空間上の点PleftのX座標Xleftを算出することができる。   That is, the parallax dpleft at the leftmost pixel pleft of the pixel row j of group g is substituted into the above equation (11) to calculate the distance Zleft in the real space of the leftmost pixel pleft, and the reference image of the leftmost pixel p By substituting the coordinate ileft on T into the above equation (9), the X coordinate Xleft of the point Pleft on the real space corresponding to the leftmost pixel pleft can be calculated.

同様にして、グループgの画素行jの右端の画素prightにおける視差dprightと基準画像T上の座標irightから上記(9)、(11)式に従って右端の画素prightに対応する実空間上の点PrightのX座標Xrightを算出することができる。そして、|Xleft−Xright|を算出することにより、グループgの画素行jごとの実空間上の横幅Wjを精度良く算出することが可能となる。   Similarly, from the parallax dpright at the rightmost pixel pright of the pixel row j of the group g and the coordinate iright on the reference image T, the point Pright in the real space corresponding to the rightmost pixel pright according to the above equations (9) and (11). The X coordinate Xright of can be calculated. Then, by calculating | Xleft−Xright |, the horizontal width Wj in the real space for each pixel row j of the group g can be calculated with high accuracy.

そのため、算出手段7は、上記のように精度良く算出されたグループgの画素行jごとの実空間上の横幅Wjに基づいて、それが例えば60cm等に設定された横幅閾値Wth以上であるか否かを精度良く判定することが可能となり、グループgを道路面の路面領域に属するグループGとして検出すべきか否かを精度良く判定することが可能となる。   Therefore, based on the horizontal width Wj in the real space for each pixel row j of the group g calculated accurately as described above, the calculating means 7 is equal to or larger than the horizontal width threshold Wth set to 60 cm, for example. It is possible to accurately determine whether or not the group g should be detected as the group G belonging to the road surface area of the road surface.

また、道路認識装置1では、統合手段6が画像T上で統合したグループgに基づいて道路面の路面領域を検出するが、撮像された画像Tには、立体物等の検出の対象とならない撮像対象も撮像されている。   In the road recognition device 1, the road surface area of the road surface is detected based on the group g integrated on the image T by the integration unit 6, but the captured image T is not a target for detection of a three-dimensional object or the like. The imaging target is also imaged.

そこで、統合手段6で画像Tの各画素pの輝度Dに基づく統合処理を行う段階で、路面領域を含む道路面に存在する撮像対象と、立体物等の道路面の上方に存在する撮像対象を予め分離するように統合処理を行うように構成すれば、立体物等を道路面の路面領域として誤検出することを的確に防止することが可能となる。そして、本実施形態における距離検出手段11による検出結果を用いれば、それを実現することが可能となる。   Therefore, at the stage where the integration unit 6 performs integration processing based on the luminance D of each pixel p of the image T, the imaging target existing on the road surface including the road surface area and the imaging target existing above the road surface such as a three-dimensional object. If the integration process is performed so that the three-dimensional object is separated in advance, it is possible to accurately prevent a three-dimensional object or the like from being erroneously detected as a road surface area of the road surface. And if it uses the detection result by the distance detection means 11 in this embodiment, it will be realizable.

具体的には、統合手段6は、入力画素pi,jとそれに隣接する画素p等が上記の条件1および条件2、または条件3および条件4を満たすと判定すると、さらに、入力画素pi,jと隣接する画素pのそれぞれについて、それらの画素pの視差dpと基準画像T上の座標(i,j)に基づいて、上記(10)、(11)式に従って、それらの画素pに対応する実空間上の点Pの道路面からの高さYを算出する。   Specifically, when the integrating unit 6 determines that the input pixel pi, j and the pixel p adjacent to the input pixel pi, j satisfy the above condition 1 and condition 2, or the condition 3 and condition 4, the input pixel pi, j And adjacent pixels p corresponding to the pixels p according to the above equations (10) and (11) based on the parallax dp of the pixels p and the coordinates (i, j) on the reference image T. The height Y of the point P in the real space from the road surface is calculated.

そして、入力画素pi,jの実空間上の距離Zでの道路面の高さYを、車線検出手段15が検出した上記(14)式および(15)式で示される車線モデル(道路高モデル)から線形補間する等して求め、各点の道路面からの高さY−Yを算出する。そして、統合手段6は、入力画素pi,jに対応する実空間上の点Pの道路面からの高さY−Yと、隣接する画素pに対応する実空間上の点Pの道路面からの高さY−Yのうち、一方が所定の第1高さ閾値Yth1以上であり、他方が第1高さ閾値Yth1未満である場合には、入力画素pi,jと隣接する画素pとを1つのグループには統合せず、別のグループとする。 The road surface height Y * at the distance Z in the real space of the input pixel pi, j is the lane model (road height expressed by the above equations (14) and (15) detected by the lane detection means 15. The height YY * of each point from the road surface is calculated by linear interpolation from the model. The integration means 6 then calculates the height YY * of the point P in the real space corresponding to the input pixel pi, j from the road surface and the road surface of the point P in the real space corresponding to the adjacent pixel p. of height Y-Y * from, one is the first high threshold Yth1 more predetermined, when the other is less than the first height threshold Yth1 the input pixel pi, pixels adjacent to the j p Are not integrated into one group, but are combined into another group.

このように構成することで、路面領域を含む道路面に存在する撮像対象と、立体物等の道路面の上方に存在する撮像対象とを別のグループに統合することが可能となり、立体物等を道路面の路面領域として誤検出することを的確に防止することが可能となる。   By configuring in this way, it becomes possible to integrate the imaging target existing on the road surface including the road surface area and the imaging target existing above the road surface such as a three-dimensional object into different groups. Can be accurately prevented as a road surface area of the road surface.

なお、上記の第1高さ閾値Yth1は、例えば10cm等の、道路面とその上方に存在する撮像対象とを的確に分離可能な値に設定される。また、車線検出手段15によって今回のサンプリング周期における車線モデルが検出されていればそれを用いることが可能であり、今回のサンプリング周期での車線モデルが検出されていなければ前回のサンプリング周期で検出した車線モデルに基づいてその後の自車両の挙動等から今回のサンプリング周期における車線モデルが推定されて用いられる。   Note that the first height threshold Yth1 is set to a value such as 10 cm, for example, that can accurately separate the road surface and the imaging target existing above the road surface. Further, if the lane model at the current sampling cycle is detected by the lane detection means 15, it can be used. If the lane model at the current sampling cycle is not detected, it is detected at the previous sampling cycle. Based on the lane model, the lane model in the current sampling period is estimated and used from the behavior of the host vehicle thereafter.

実空間上の道路面からの高さY−Yを、路面領域検出手段9における道路面の路面領域に属するグループとして検出するか否かの判定に用いるように構成することも可能である。この場合、路面領域検出手段9は、例えば、グループgに属する各画素pのうち、視差dpが有効に検出されている各画素pについて、上記と同様に、視差dpと基準画像T上の座標(i,j)に基づいて上記(10)、(11)式に従って各画素pに対応する実空間上の各点Pの道路面からの高さYを算出する。 The height YY * from the road surface in the real space may be used to determine whether or not the road surface area detection means 9 detects as a group belonging to the road surface area of the road surface. In this case, for example, the road surface area detection unit 9 determines the parallax dp and the coordinates on the reference image T for each pixel p in which the parallax dp is effectively detected among the pixels p belonging to the group g. Based on (i, j), the height Y from the road surface of each point P in the real space corresponding to each pixel p is calculated according to the above equations (10) and (11).

そして、各画素pに対応する実空間上の各点Pの道路面からの高さYの平均値Yaveを算出し、その高さYの平均値Yaveと、上記(14)式および(15)式で示される車線モデル(道路高モデル)から線形補間する等して求めた当該グループgの実空間上の位置における道路面の高さYとを比較して、当該グループgの道路面からの実空間上の高さYave−Yが所定の第2高さ閾値Yth2以上である場合には、当該グループgを道路面の上方に存在する立体物等の撮像対象であるとして、道路面の路面領域の検出の対象から除外する。 Then, an average value Yave of the height Y from the road surface of each point P in the real space corresponding to each pixel p is calculated, and the average value Yave of the height Y, the above formulas (14) and (15) From the road surface of the group g by comparing the height Y * of the road surface at the position in the real space of the group g obtained by linear interpolation or the like from the lane model (road height model) represented by the equation When the height Yave-Y * in the real space is equal to or greater than a predetermined second height threshold Yth2, the road surface is determined as the group g being an imaging target such as a three-dimensional object existing above the road surface. Are excluded from detection of the road surface area.

このように構成することで、立体物等の道路面の上方に存在する撮像対象を除外して、路面領域を含む道路面に存在する撮像対象のみを道路面の路面領域の検出対象とすることが可能となり、立体物等を道路面の路面領域として誤検出することを的確に防止することが可能となる。   By configuring in this way, the imaging target existing above the road surface such as a three-dimensional object is excluded, and only the imaging target existing on the road surface including the road surface region is set as the detection target of the road surface region of the road surface. Thus, it is possible to accurately prevent a three-dimensional object or the like from being erroneously detected as a road surface area of the road surface.

1、10 道路認識装置
2 撮像手段
2a、2b メインカメラ、サブカメラ(一対のカメラ)
6 統合手段
7 算出手段
8 面積算出手段
9 路面領域検出手段
11 距離検出手段
15 車線検出手段
A 面積
An 領域内でのグループが占める画素数
Ath 面積閾値
D、Di,j 輝度
Dave 輝度の平均値
Dave_th 輝度平均閾値
F 条件成立フラグ(条件が成立した旨の情報)
G 道路面の路面領域に属するグループ
g グループ
G1〜G4 道路面の路面領域
j 画素行
Lest 推定軌跡
LL、LR 車線
MC 自車両
Nave 画素行ごとの横幅が占める画素数の平均値
Nave_th 平均値閾値
Nj 画素行ごとの横幅が占める画素数
P 実空間上の点
p 画素
pi,j 入力画素(一の画素)
R チェック領域(領域)
T 画像
Wave 横幅の平均値
Wj 横幅
Wth 横幅閾値
Y−Y 道路面からの高さ
Yth1 第1高さ閾値
Yth2 第2高さ閾値
Z 実空間上の距離
ΔD 差分
δD 差分
1, 10 Road recognition device 2 Imaging means 2a, 2b Main camera, sub camera (a pair of cameras)
6 Integration means 7 Calculation means 8 Area calculation means 9 Road surface area detection means 11 Distance detection means 15 Lane detection means A Area An Number of pixels occupied by the group in the area Ath Area threshold D, Di, j Brightness Dave Average value Dave_th Luminance average threshold F Condition establishment flag (information indicating that the condition has been established)
G Group G belonging to road surface area G Group G1 to G4 Road surface area j of road surface Pixel row Lest Estimated trajectory LL, LR Lane MC Own vehicle Nave Average number of pixels occupied by width of each pixel row Nave_th Average value threshold Nj Number of pixels occupied by the width of each pixel row P Point in real space Pixel pi, j Input pixel (one pixel)
R check area (area)
T Image Wave Width average value Wj Width Wth Width threshold YY * Height from the road surface Yth1 First height threshold Yth2 Second height threshold Z Distance in real space ΔD Difference δD Difference

Claims (8)

撮像手段で撮像された画像を処理して、前記画像中から道路面の路面領域を検出する道路認識装置であって、
前記画像における一の画素に隣接する画素の輝度に対する前記一の画素の輝度の差分、および前記隣接する画素が属するグループの輝度の平均値との差分に基づいて前記一の画素および前記隣接する画素を1つのグループに統合する統合手段と、
前記統合手段により統合された前記グループについて、画像の横方向の画素行ごとの横幅の平均値、および前記グループに属する画素の輝度の平均値を算出する算出手段と、
前記画像中で自車両の進行方向に設定される領域内で前記グループが占める面積を算出する面積算出手段と、
前記グループの前記画素行に所定の横幅閾値以上である画素行が存在し、前記グループの前記画素行ごとの横幅の平均値が所定の平均値閾値以上であり、前記グループに属する前記各画素の輝度の平均値が所定の輝度平均閾値以下であり、かつ、前記面積算出手段により算出された前記グループの前記面積が所定の面積閾値以上である場合に、当該グループを道路面の路面領域に属するグループとして検出する路面領域検出手段と、
を備えることを特徴とする道路認識装置。
A road recognition device that processes an image captured by an imaging unit and detects a road surface area of a road surface from the image,
The one pixel and the adjacent pixel based on the difference between the luminance of the one pixel with respect to the luminance of the pixel adjacent to the one pixel in the image and the average value of the luminance of the group to which the adjacent pixel belongs An integration means to integrate
For the group integrated by the integration unit, a calculation unit that calculates an average value of the horizontal width of each pixel row in the horizontal direction of the image and the average value of the luminance of the pixels belonging to the group;
An area calculating means for calculating an area occupied by the group in a region set in the traveling direction of the host vehicle in the image;
There is a pixel row that is equal to or greater than a predetermined width threshold in the pixel row of the group, an average value of the width for each pixel row of the group is equal to or greater than a predetermined average value threshold, and each pixel belonging to the group If the average luminance value is equal to or less than a predetermined luminance average threshold value and the area of the group calculated by the area calculating means is equal to or greater than a predetermined area threshold value, the group belongs to the road surface area of the road surface. Road surface area detecting means for detecting as a group;
A road recognition device comprising:
前記輝度平均閾値は、前記撮像手段のシャッタレベルに応じて可変されることを特徴とする請求項1に記載の道路認識装置。   The road recognition apparatus according to claim 1, wherein the luminance average threshold is variable according to a shutter level of the imaging unit. 前記画像中から自車両の側方に存在する車線を検出する車線検出手段を備え、
前記車線検出手段は、検出した前記車線が撮像された画素の輝度の平均値を算出し、
前記輝度平均閾値は、前記車線が撮像された画素の輝度の平均値に応じて可変されることを特徴とする請求項1または請求項2に記載の道路認識装置。
Lane detection means for detecting a lane present on the side of the host vehicle from the image,
The lane detecting means calculates an average value of luminance of pixels in which the detected lane is imaged,
The road recognition apparatus according to claim 1 or 2, wherein the luminance average threshold is varied according to an average luminance value of pixels in which the lane is imaged.
前記画像中から自車両の側方に存在する車線を検出する車線検出手段を備え、
前記画像中で自車両の進行方向に設定される領域は、前記車線検出手段により過去のサンプリング周期で検出された車線の情報と自車両の挙動とに基づいて今回のサンプリング周期において推定される車線の位置を基準に設定されることを特徴とする請求項1から請求項3のいずれか一項に記載の道路認識装置。
Lane detection means for detecting a lane present on the side of the host vehicle from the image,
The region set in the traveling direction of the host vehicle in the image is a lane estimated in the current sampling cycle based on the lane information detected in the past sampling cycle by the lane detecting unit and the behavior of the host vehicle. The road recognition device according to any one of claims 1 to 3, wherein the road recognition device is set on the basis of the position.
前記画像中で自車両の進行方向に設定される領域は、自車両の挙動から推定される推定軌跡から横方向に所定距離離間した位置までの範囲に設定されることを特徴とする請求項1から請求項3のいずれか一項に記載の道路認識装置。   The region set in the traveling direction of the host vehicle in the image is set to a range from an estimated trajectory estimated from the behavior of the host vehicle to a position spaced a predetermined distance in the lateral direction. The road recognition device according to any one of claims 3 to 4. 前記算出手段は、前記統合手段が前記一の画素と前記隣接する画素とを1つのグループに統合する際に、前記グループの前記画素行における実空間上の横幅が前記横幅閾値以上となった場合に、条件が成立した旨の情報を当該グループに対応付け、
前記路面領域検出手段は、前記グループの前記画素行ごとの横幅が所定の横幅閾値以上である画素行が存在するか否かの判定を、当該グループに前記情報が対応付けられているか否かを判定して行うことを特徴とする請求項1から請求項5のいずれか一項に記載の道路認識装置。
When the integration unit integrates the one pixel and the adjacent pixel into one group, the horizontal width in the real space in the pixel row of the group is equal to or greater than the horizontal width threshold. In addition, the information that the condition is satisfied is associated with the group,
The road surface area detecting means determines whether or not there is a pixel row in which the horizontal width of each pixel row of the group is equal to or larger than a predetermined horizontal width threshold, and whether or not the information is associated with the group. The road recognition apparatus according to claim 1, wherein the road recognition apparatus performs the determination.
前記画像中の前記各画素の実空間上の距離を検出する距離検出手段を備え、
前記統合手段は、前記一の画素の前記実空間上の距離に基づいて算出される前記一の画素に対応する実空間上の点の前記道路面からの高さと前記隣接する画素に対応する実空間上の点の前記道路面からの高さのうち、一方が所定の第1高さ閾値以上であり、他方が前記第1高さ閾値未満である場合には、当該一の画素と前記隣接する画素とを非統合とすることを特徴とする請求項1から請求項6のいずれか一項に記載の道路認識装置。
A distance detecting means for detecting a distance in real space of each pixel in the image;
The integrating means includes a height from the road surface of a point in the real space corresponding to the one pixel calculated based on a distance in the real space of the one pixel and an actual pixel corresponding to the adjacent pixel. Among the heights of the points on the space from the road surface, when one is not less than a predetermined first height threshold and the other is less than the first height threshold, the one pixel and the adjacent The road recognition device according to any one of claims 1 to 6, wherein a pixel to be integrated is not integrated.
前記画像中の前記画素の実空間上の距離を検出する距離検出手段を備え、
前記路面領域検出手段は、前記グループに属する画素の前記実空間上の距離に基づいて前記グループの前記道路面からの実空間上の高さが所定の第2高さ閾値以上である場合には、当該グループを前記道路面の路面領域の検出の対象から除外することを特徴とする請求項1から請求項7のいずれか一項に記載の道路認識装置。
A distance detecting means for detecting a distance in real space of the pixel in the image;
When the height of the group in the real space from the road surface of the group is greater than or equal to a predetermined second height threshold based on the distance in the real space of the pixels belonging to the group The road recognition apparatus according to any one of claims 1 to 7, wherein the group is excluded from a target of detection of a road surface area of the road surface.
JP2009072254A 2009-03-24 2009-03-24 Road recognition device Active JP5180126B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009072254A JP5180126B2 (en) 2009-03-24 2009-03-24 Road recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009072254A JP5180126B2 (en) 2009-03-24 2009-03-24 Road recognition device

Publications (2)

Publication Number Publication Date
JP2010224930A true JP2010224930A (en) 2010-10-07
JP5180126B2 JP5180126B2 (en) 2013-04-10

Family

ID=43042044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009072254A Active JP5180126B2 (en) 2009-03-24 2009-03-24 Road recognition device

Country Status (1)

Country Link
JP (1) JP5180126B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094970B2 (en) * 2006-08-30 2012-01-10 Toyota Mapmaster Incorporated Road image creation system
EP2437262A1 (en) 2010-10-04 2012-04-04 Sony Corporation Data detecting device, reproducing device, and data detecting method
JP2012226689A (en) * 2011-04-22 2012-11-15 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
JP2012238239A (en) * 2011-05-12 2012-12-06 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
WO2015045504A1 (en) * 2013-09-27 2015-04-02 日立オートモティブシステムズ株式会社 Object detector
JP2016146118A (en) * 2015-02-09 2016-08-12 トヨタ自動車株式会社 Road surface detection apparatus and road surface detection method
JP2017228266A (en) * 2016-06-21 2017-12-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Local trajectory planning method and apparatus used for smart vehicles
JP2021086265A (en) * 2019-11-26 2021-06-03 株式会社Subaru Image processing device
CN113240737A (en) * 2021-04-20 2021-08-10 云鲸智能(深圳)有限公司 Threshold identification method and device, electronic equipment and computer readable storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6678605B2 (en) 2017-01-11 2020-04-08 株式会社東芝 Information processing apparatus, information processing method, and information processing program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546242A (en) * 1991-08-09 1993-02-26 Toshiba Corp White line detecting device
JPH07311896A (en) * 1994-05-17 1995-11-28 Mazda Motor Corp Running way estimating device for automobile
JPH11259639A (en) * 1998-03-11 1999-09-24 Toyota Central Res & Dev Lab Inc Travel path recognizing device
JP2000337870A (en) * 1999-05-27 2000-12-08 Honda Motor Co Ltd Judgment apparatus for object
JP2004363988A (en) * 2003-06-05 2004-12-24 Daihatsu Motor Co Ltd Method and apparatus for detecting vehicle
JP2005084959A (en) * 2003-09-09 2005-03-31 Fuji Heavy Ind Ltd Out-vehicle monitoring device
JP2005157731A (en) * 2003-11-26 2005-06-16 Nissan Motor Co Ltd Lane recognizing device and method
JP2006140636A (en) * 2004-11-10 2006-06-01 Toyota Motor Corp Obstacle detecting device and method
JP2006268199A (en) * 2005-03-22 2006-10-05 Honda Motor Co Ltd Vehicular image processing system, method, and program, and vehicle
JP2007299428A (en) * 2007-08-06 2007-11-15 Honda Motor Co Ltd Object detection device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546242A (en) * 1991-08-09 1993-02-26 Toshiba Corp White line detecting device
JPH07311896A (en) * 1994-05-17 1995-11-28 Mazda Motor Corp Running way estimating device for automobile
JPH11259639A (en) * 1998-03-11 1999-09-24 Toyota Central Res & Dev Lab Inc Travel path recognizing device
JP2000337870A (en) * 1999-05-27 2000-12-08 Honda Motor Co Ltd Judgment apparatus for object
JP2004363988A (en) * 2003-06-05 2004-12-24 Daihatsu Motor Co Ltd Method and apparatus for detecting vehicle
JP2005084959A (en) * 2003-09-09 2005-03-31 Fuji Heavy Ind Ltd Out-vehicle monitoring device
JP2005157731A (en) * 2003-11-26 2005-06-16 Nissan Motor Co Ltd Lane recognizing device and method
JP2006140636A (en) * 2004-11-10 2006-06-01 Toyota Motor Corp Obstacle detecting device and method
JP2006268199A (en) * 2005-03-22 2006-10-05 Honda Motor Co Ltd Vehicular image processing system, method, and program, and vehicle
JP2007299428A (en) * 2007-08-06 2007-11-15 Honda Motor Co Ltd Object detection device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094970B2 (en) * 2006-08-30 2012-01-10 Toyota Mapmaster Incorporated Road image creation system
EP2437262A1 (en) 2010-10-04 2012-04-04 Sony Corporation Data detecting device, reproducing device, and data detecting method
JP2012226689A (en) * 2011-04-22 2012-11-15 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
JP2012238239A (en) * 2011-05-12 2012-12-06 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
JPWO2015045504A1 (en) * 2013-09-27 2017-03-09 日立オートモティブシステムズ株式会社 Object detection device
WO2015045504A1 (en) * 2013-09-27 2015-04-02 日立オートモティブシステムズ株式会社 Object detector
EP3051518A4 (en) * 2013-09-27 2017-05-24 Hitachi Automotive Systems, Ltd. Object detector
US10297155B2 (en) 2013-09-27 2019-05-21 Hitachi Automotive Systems, Ltd. Object detector
JP2016146118A (en) * 2015-02-09 2016-08-12 トヨタ自動車株式会社 Road surface detection apparatus and road surface detection method
JP2017228266A (en) * 2016-06-21 2017-12-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Local trajectory planning method and apparatus used for smart vehicles
JP2021086265A (en) * 2019-11-26 2021-06-03 株式会社Subaru Image processing device
JP7406962B2 (en) 2019-11-26 2023-12-28 株式会社Subaru Image processing device
CN113240737A (en) * 2021-04-20 2021-08-10 云鲸智能(深圳)有限公司 Threshold identification method and device, electronic equipment and computer readable storage medium
CN113240737B (en) * 2021-04-20 2023-08-08 云鲸智能(深圳)有限公司 Method, device, electronic equipment and computer readable storage medium for identifying threshold

Also Published As

Publication number Publication date
JP5180126B2 (en) 2013-04-10

Similar Documents

Publication Publication Date Title
JP5180126B2 (en) Road recognition device
JP5188430B2 (en) Image processing device
JP4876080B2 (en) Environment recognition device
JP5631581B2 (en) Road recognition device
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP5371725B2 (en) Object detection device
JP4956452B2 (en) Vehicle environment recognition device
JP6013884B2 (en) Object detection apparatus and object detection method
JP5254102B2 (en) Environment recognition device
US8391555B2 (en) Lane recognition apparatus for vehicle, vehicle thereof, and lane recognition program for vehicle
JP5591730B2 (en) Environment recognition device
EP2958054A2 (en) Hazard detection in a scene with moving shadows
EP2960829A2 (en) Lane boundary estimation device and lane boundary estimation method
JP5561064B2 (en) Vehicle object recognition device
CN109410264B (en) Front vehicle distance measuring method based on laser point cloud and image fusion
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP5188429B2 (en) Environment recognition device
JP2009053818A (en) Image processor and method thereof
KR101483742B1 (en) Lane Detection method for Advanced Vehicle
JP5073700B2 (en) Object detection device
WO2011039977A1 (en) Pedestrian-crossing marking detecting method and pedestrian-crossing marking detecting device
JP2008027046A (en) Lane recognition device
US20200193184A1 (en) Image processing device and image processing method
JP5091897B2 (en) Stop line detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130110

R150 Certificate of patent or registration of utility model

Ref document number: 5180126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250