JP5868586B2 - Road characteristic analysis based on video image, lane detection, and lane departure prevention method and apparatus - Google Patents

Road characteristic analysis based on video image, lane detection, and lane departure prevention method and apparatus Download PDF

Info

Publication number
JP5868586B2
JP5868586B2 JP2010247154A JP2010247154A JP5868586B2 JP 5868586 B2 JP5868586 B2 JP 5868586B2 JP 2010247154 A JP2010247154 A JP 2010247154A JP 2010247154 A JP2010247154 A JP 2010247154A JP 5868586 B2 JP5868586 B2 JP 5868586B2
Authority
JP
Japan
Prior art keywords
road
image
sign
marking
road marking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010247154A
Other languages
Japanese (ja)
Other versions
JP2011118889A (en
Inventor
クーンレ アンドレアス
クーンレ アンドレアス
ブーン キャシー
ブーン キャシー
Original Assignee
ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー filed Critical ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー
Priority to JP2010247154A priority Critical patent/JP5868586B2/en
Publication of JP2011118889A publication Critical patent/JP2011118889A/en
Application granted granted Critical
Publication of JP5868586B2 publication Critical patent/JP5868586B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、自動車で用いられる、車道情景の画像処理方法および装置に関する。   The present invention relates to a roadway scene image processing method and apparatus used in an automobile.

筋状すなわち実線タイプの車線区分線を検出するために、従来のいくつかのアプローチにおいては、自動車に搭載されたビデオカメラからの画像が用いられている。しかしながら、このようなアプローチでは、ボッツドッツと呼ばれる、まばらに配置されたドーム状の白い円盤を検出することができない。他の従来のアプローチは、車線区分線に対するカメラの距離およびヨー角、および車線区分線の曲率の決定に限定される。このようなアプローチでは、車線区分線以外の道路上の図形および物体を検出することができず、また1対の車線区分線(車両の左側および右側に1つずつの)のみを見出すことができるだけである。このようなアプローチにおいては、道路境界の位置特定は考慮されておらず、道路のそれ以上のいかなる特性分析もなされない。さらに別のアプローチにおいては、後に参照基準として用いるための、あらかじめ記憶された車線データが必要とされる。   In order to detect streak or solid line type lane markings, some conventional approaches use images from a video camera mounted on an automobile. However, such an approach cannot detect sparsely arranged dome-shaped white disks called botsdots. Other conventional approaches are limited to determining the camera distance and yaw angle relative to the lane marking and the curvature of the lane marking. Such an approach cannot detect figures and objects on the road other than lane markings, and can only find a pair of lane markings (one on the left side and one on the right side of the vehicle). It is. In such an approach, the location of road boundaries is not considered and no further characterization of the road is done. In yet another approach, pre-stored lane data is required for later use as a reference standard.

ディクマン(Dickmanns)著「An Integrated Spatio-Temporal Approach to Automatic Visual Guidance of Autonomous Vehicles(自律走行車の自動視覚的誘導に対する統合時空間アプローチ)」1990年Dickmanns, “An Integrated Spatio-Temporal Approach to Automatic Visual Guidance of Autonomous Vehicles”, 1990

本発明は、上述の問題を解決することができる、道路上の自動車のための、ビデオ画像に基づく車線逸脱警告方法および装置を提供することを目的とするものである。   The object of the present invention is to provide a video image based lane departure warning method and apparatus for vehicles on the road that can solve the above-mentioned problems.

本発明による、道路上の車両のための、ビデオ画像に基づいて車線逸脱を警告する方法は、少なくとも以下のステップにより実行するように構成された装置を用いるものであって、
画像処理手段が、ビデオイメージャから、車両の前方の道路の画像を受け取るステップと、
路面標識検出器が、上記画像内に、上記道路上の路面標識に対応する1つ以上の路面標識を検出するステップと、
特性分析モジュールが、上記検出された路面標識の外側の画像領域に対応する道路の運転しやすさの評価を決定するために、その画像領域の特性を分析するステップと、
オフセット検出手段が、上記検出された路面標識に基づいて、その路面標識に相対的に、車両の道路上の横方向のオフセットを検出するステップと、
車線逸脱検出器が、上記横方向のオフセットおよび上記評価の関数として、警告信号を発生させるステップとを有し、
上記画像内に1つ以上の路面標識を検出するステップは、さらに、上記路面標識検出器が、上記画像内に関心領域を決定し、この関心領域内に上記1つ以上の路面標識を検出するステップと、路面標識属性検出手段が、上記路面標識の属性を特定するステップとを含んでおり、
上記路面標識の属性を特定するステップは、さらに、上記路面標識属性検出手段が、上記検出された路面標識のタイプおよび数を特定するステップを含み、
上記検出された路面標識の外側の画像領域の特性を分析するステップでは、上記特性分析モジュールが、上記路面標識の内側における複数の画像特性の組み合わせからなる特性ベクトルと、上記路面標識の外側における同じ複数の画像特性の組み合わせからなる特性ベクトルとの間に近似性がある場合、上記車両が安全に上記路面標識の外側の領域に進入することができると判断し、さらに、上記路面標識の外側における複数の画像特性を、上記画像領域のデータベースにおける画像特性と比較し、このデータベースに基づき、上記路面標識の外側における、安全な走行が可能なレベル、及び安全な走行が不可能なレベルを含む、少なくとも2つの評価を行
上記警告信号を発生させるステップは、さらに、上記車線逸脱検出器が、上記横方向のオフセットおよび上記運転しやすさの評価に加えて、上記属性の関数として、警告信号を発生させるステップを含んでおり、
上記路面標識を検出するステップは、さらに、記号検出手段が、上記道路上の記号を表わす画像フィーチャを検出し、そのような画像フィーチャを特定し、該画像フィーチャが、予め設定した警告を表す記号又は文字の標識である場合には、音声により該標識の存在を運転手に知らせるステップを含んでいることを特徴とする。
また本発明による、道路上の車両のための、ビデオ画像に基づいて車線逸脱を警告する装置は、
ビデオイメージャから車両の前方の道路の画像を受け取るように構成されている画像処理手段と、
上記画像内に、上記道路上の路面標識に対応する1つ以上の路面標識を検出するように構成されている路面標識検出器と、
上記検出された路面標識の外側の画像領域に対応する道路の運転しやすさの評価を決定するために、該画像領域の特性を分析するように構成されている特性分析モジュールと、
上記検出された路面標識に基づいて、該路面標識に相対的に上記車両の道路上の横方向のオフセットを検出するように構成されているオフセット検出手段と、
上記横方向のオフセットおよび上記評価の関数として、警告信号を発生させるように構成されている車線逸脱検出器とを備え、
上記路面標識検出器は、さらに、上記画像内に関心領域を決定し、該関心領域内に1つ以上の路面標識を検出するように構成されており、
上記特性分析モジュールは、上記路面標識の内側における複数の画像特性の組み合わせからなる特性ベクトルと、上記路面標識の外側における同じ複数の画像特性の組み合わせからなる特性ベクトルとの間に近似性がある場合、車両が安全に上記路面標識の外側の領域に進入することができると判断し、さらに、上記路面標識の外側における複数の画像特性を、上記画像領域のデータベースにおける画像特性と比較し、このデータベースに基づき、上記路面標識の外側における、安全な走行が可能なレベル、及び安全な走行が不可能なレベルを含む、少なくとも2つの分類を行うように構成されており、
上記道路上の記号を表わす画像フィーチャを検出し、そのような画像フィーチャを特定し、該画像フィーチャが、予め設定した警告を表す記号又は文字の標識である場合には、音声により該標識の存在を運転手により知らせる記号検出手段をさらに備えていることを特徴とする。
A method for warning a lane departure based on a video image for a vehicle on a road according to the present invention uses an apparatus configured to perform at least the following steps:
Receiving an image of a road ahead of the vehicle from a video imager;
A road marking detector detecting in the image one or more road markings corresponding to the road marking on the road;
A characteristic analysis module analyzing the characteristics of the image area to determine an evaluation of road drivability corresponding to the image area outside the detected road marking;
An offset detecting means detecting a lateral offset on the road of the vehicle relative to the road surface sign based on the detected road surface sign;
A lane departure detector generates a warning signal as a function of the lateral offset and the evaluation;
The step of detecting one or more road markings in the image further comprises the road marking detector determining a region of interest in the image and detecting the one or more road markings in the region of interest. And a road surface sign attribute detecting means specifying the attribute of the road surface sign,
The step of identifying the attribute of the road surface sign further includes the step of the road surface sign attribute detection means identifying the type and number of the detected road surface sign,
In the step of analyzing the characteristics of the image area outside the detected road sign, the characteristic analysis module includes a characteristic vector composed of a combination of a plurality of image characteristics inside the road sign and the same outside the road sign. If there is a similarity between the comprising a combination characteristic vectors of a plurality of image characteristics, it is determined that it is possible to the vehicle enters the region outside the safe the road marking, further, on the outside of the road markings A plurality of image characteristics are compared with the image characteristics in the database of the image area, and based on this database, including a level that allows safe driving and a level that does not allow safe driving outside the road surface sign, We have at least two rows of the evaluation of,
The step of generating the warning signal further includes the step of the lane departure detector generating a warning signal as a function of the attribute in addition to the lateral offset and the driving ease evaluation. And
The step of detecting the road surface sign is further characterized in that the symbol detecting means detects an image feature representing the symbol on the road, identifies such an image feature, and the image feature is a symbol representing a preset warning. Alternatively, in the case of a character sign, it includes a step of notifying the driver of the presence of the sign by voice.
An apparatus for warning a lane departure based on a video image for a vehicle on a road according to the present invention is also provided.
Image processing means configured to receive an image of a road ahead of the vehicle from a video imager;
A road marking detector configured to detect in the image one or more road markings corresponding to the road markings on the road;
A characteristic analysis module configured to analyze the characteristics of the image area in order to determine an evaluation of the road drivability corresponding to the image area outside the detected road surface sign;
Offset detecting means configured to detect a lateral offset on the road of the vehicle relative to the road surface sign based on the detected road surface sign;
A lane departure detector configured to generate a warning signal as a function of the lateral offset and the evaluation,
The road marking detector is further configured to determine a region of interest in the image and to detect one or more road markings in the region of interest;
When the characteristic analysis module has an approximation between a characteristic vector composed of a combination of a plurality of image characteristics inside the road surface sign and a characteristic vector composed of a combination of the same plurality of image characteristics outside the road sign Determining that the vehicle can safely enter the area outside the road sign, and comparing the plurality of image characteristics outside the road sign with image characteristics in the image area database; Is configured to perform at least two classifications including a level at which safe driving is possible and a level at which safe driving is impossible outside the road surface sign,
Detecting an image feature representing a symbol on the road, identifying such an image feature, and if the image feature is a symbol or character sign representing a preset warning, the presence of the sign by voice Is further provided with a symbol detection means for informing the driver of this.

以下の説明、請求項、および添付図面を参照することによって、本発明のこれらおよびその他の特徴、態様、および利点をよりよく理解することができると思う。   These and other features, aspects, and advantages of the present invention will become better understood with reference to the following description, claims, and accompanying drawings.

車両に連結した、本発明の一実施形態による、ビデオ画像に基づく道路特性分析、車線検出および車線逸脱防止装置の機能ブロック図である。FIG. 2 is a functional block diagram of a road image analysis based on video image, lane detection and lane departure prevention device according to an embodiment of the present invention coupled to a vehicle. 本発明の一実施形態による、ビデオ画像に基づく道路特性分析、車線検出および車線逸脱防止プロセスのステップの全体的なフローチャートである。4 is an overall flowchart of steps of a road image analysis based on video image, lane detection and lane departure prevention process, according to one embodiment of the present invention. 車道上の路面標識に相対的に表わされたビデオカメラの位置の一例を示す平面図である。It is a top view which shows an example of the position of the video camera represented relatively with the road surface sign on a roadway. 画像面中のピクセルと、ビデオカメラによって画像中のピクセルに投影されている、道路面上の対応点との関係の一例を示す図である。It is a figure which shows an example of the relationship between the pixel in an image surface, and the corresponding point on the road surface projected on the pixel in an image with a video camera. グレーレベル勾配および平均絶対偏差が画像のピクセルから抽出される、台形形状の関心領域(ROI)を、ビデオ画像に重ね合わせて示す図である。FIG. 6 shows a trapezoidal region of interest (ROI) superimposed on a video image, where gray level gradients and mean absolute deviations are extracted from the pixels of the image. 道路面上の平行四辺形を示す図である。It is a figure which shows the parallelogram on a road surface. 車線境界があらかじめ予想される場合の、道路面上の寸法で表わした、大まかな関心領域の一例を示す図である。It is a figure which shows an example of a rough region of interest represented by a dimension on a road surface when a lane boundary is predicted in advance. 画像面と道路の前方距離との関係を説明するために、道路に相対的に表わしたビデオカメラの側面の一例を示す図である。It is a figure which shows an example of the side surface of the video camera represented relatively to the road in order to demonstrate the relationship between an image surface and the front distance of a road. 道路の画像において、垂直方向ピクセルサイズVpと水平方向ピクセルサイズHpを有して、行rと列wに配置されたピクセルpのアレイの一例を示す図である。FIG. 4 is a diagram illustrating an example of an array of pixels p having a vertical pixel size Vp and a horizontal pixel size Hp and arranged in rows r and columns w in a road image. ビデオカメラの前方の、1つの路面標識上の道路位置の集合のうちの2点の一例を示す図である。It is a figure which shows an example of 2 points | pieces of the set of the road position on one road surface sign ahead of a video camera. ディクマン(Dickmann)タイプの路面標識検出方法を示すグラフである。It is a graph which shows the Dickmann (Dickmann) type road marking detection method. 道路上のタール帯の検出に用いられる測定方法を示す図である。It is a figure which shows the measuring method used for the detection of the tar zone on a road. 道路上の記号を検出するための関心領域、および、記号の位置を表わす近位距離および遠位距離を示す図である。It is a figure which shows the region of interest for detecting the symbol on the road, and the proximal distance and the distal distance representing the position of the symbol. 道路上の記号を検出するための近位距離および遠位距離の時間挙動を示す図である。FIG. 6 is a diagram showing the temporal behavior of the proximal distance and the distal distance for detecting symbols on the road. 破線タイプ路面標識モデルの、路面標識断片検出への適用の一例を示す図である。It is a figure which shows an example of the application to a road surface marker fragment detection of a broken-line type road surface marker model. 検出の不確実さの増加に応じて、ROIの横方向のサイズを拡張する一例を示す図である。It is a figure which shows an example which expands the size of the horizontal direction of ROI according to the increase in the uncertainty of detection. 道路画像中のクラッタ検出に用いられる関心領域を示す図である。It is a figure which shows the region of interest used for the clutter detection in a road image. 道路画像中の降雪検出の一例を示す図である。It is a figure which shows an example of the snowfall detection in a road image. 道路画像中の反射光像検出の一例を示す図である。It is a figure which shows an example of the reflected light image detection in a road image. 路面標識追跡の一例を示す図である。It is a figure which shows an example of a road surface sign tracking. 路面標識追跡の別の一例を示す図である。It is a figure which shows another example of road surface tracking. 路面標識長検出方法の一例を示す図である。It is a figure which shows an example of the road surface sign length detection method. 単一画像フレームにおける路面標識長測定プロセスの一例を示す図である。It is a figure which shows an example of the road marking length measurement process in a single image frame. 路面標識の計数に応用される、ディクマン(Dickmann)タイプの標識ファインダを示す図である。It is a figure which shows the Dickmann (Dickmann) type sign finder applied to the counting of road markings. 路面標識のタイプを特定するための、標識ファインダの配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of a sign finder for pinpointing the type of a road surface sign. 画像領域の特性分析の一例を示す図である。It is a figure which shows an example of the characteristic analysis of an image area | region. 道路画像中の、路面標識ではない検出物の識別の一例を示す図である。It is a figure which shows an example of the identification of the detected object which is not a road surface sign in a road image. 道路画像中の路面標識ではない検出物の識別の一例を示すグラフである。It is a graph which shows an example of identification of the detected object which is not a road surface marker in a road image. 道路境界の両側の領域の比較のために用いられる、平均絶対偏差(MAD)計算の一例を示す図である。It is a figure which shows an example of a mean absolute deviation (MAD) calculation used for the comparison of the area | region of the both sides of a road boundary. 2つのグループの画像特性の近似性の計算の一例を示す図である。It is a figure which shows an example of the calculation of the approximation of the image characteristic of two groups. 4つの画像特性の一例を示すグラフである。It is a graph which shows an example of four image characteristics. 車両に連結した、本発明の別の一実施形態による、ビデオ画像に基づく道路特性分析、車線検出、および車線逸脱防止装置の機能ブロック図である。FIG. 6 is a functional block diagram of a road image analysis based on video image, lane detection, and lane departure prevention device according to another embodiment of the present invention coupled to a vehicle. 図24に示す装置によって実行される、ビデオ画像に基づく道路特性分析、車線検出、および車線逸脱防止プロセスのステップのフローチャートである。FIG. 25 is a flowchart of steps of a road image analysis based on video image, lane detection, and lane departure prevention process performed by the apparatus shown in FIG. 24. カーブした道路上の路面標識に適合するROIの一例を示す図である。It is a figure which shows an example of ROI which fits the road surface marker on the curved road.

本発明は、ビデオ画像に基づく道路特性分析、車線検出、および車線逸脱防止の方法および装置を提供するものである。この装置の一実施形態においては、道路面上に直線部およびダッシュ部を含んでいる車線区分線を見出すために、自動車に搭載されたビデオカメラの前方の道路の画像を用いる装置である。車線区分線に相対的に測定された、道路上のビデオカメラ(車両)の位置を再現するために、画像中に見出された車線区分線の位置が、ビデオカメラの幾何学的配置情報と組み合わされる。再現されたビデオカメラの位置情報が、自動車の運転者の運転を支援するために用いられる。   The present invention provides a method and apparatus for road characteristic analysis, lane detection, and lane departure prevention based on video images. In one embodiment of this apparatus, an image of a road ahead of a video camera mounted on an automobile is used to find a lane marking that includes a straight line portion and a dash portion on the road surface. In order to reproduce the position of the video camera (vehicle) on the road, measured relative to the lane marking, the position of the lane marking found in the image is the geometric information of the video camera and Combined. The reproduced position information of the video camera is used to assist the driver of the car.

ビデオカメラからの、実質的にリアルタイムの一連の画像フレームを用いることによって、この装置は、さらに車線区分線に加えて、道路上の他の図形および物体を検出する。道路境界の位置特定情報、および道路の特性分析が、道路境界に相対的な横方向位置(オフセット)の検出に用いられる。この装置は、例えば車線逸脱警告アプローチにおいて自動車の運転を助け、道路を進んでいく自動車をガイドするために、車道上の車両位置および道路特性に関する実質的にリアルタイムの情報を導き出す。   By using a series of substantially real-time image frames from the video camera, the device further detects other graphics and objects on the road in addition to the lane markings. Road boundary position specifying information and road characteristic analysis are used to detect a lateral position (offset) relative to the road boundary. This device derives substantially real-time information about the vehicle position and road characteristics on the roadway, for example to help drive the car in a lane departure warning approach and guide the car traveling on the road.

この装置は、道路面からの反射光の検出を実行し、道路境界検出において、そのような反射光の影響を抑制する(そのような反射光、またはタール帯(tar strip)のような他の物体が、道路境界の適切な検出を妨げる場合がある)。さらにこの装置は、相異なる種類の複数の路面標識を有する道路境界の検出、路面標識分類、種々の明暗調整、種々の天候の見分け、偽りの路面標識の排除などを行ってもよい。複数の車線に複数のラインが存在するときに、この装置は複数のラインを認識し、適切な車線区分線(一般に、横方向に、車両に最も近接している)を選択してもよい。さらにこの装置は、車線区分線が存在していないときに、道路を進んでいく自動車のガイドを助けるために、車線区分線情報ではなく、道路端情報を用いて、道路端を検出してもよい。   This device performs detection of reflected light from the road surface and suppresses the influence of such reflected light in road boundary detection (such reflected light or other such as tar strips). Objects may prevent proper detection of road boundaries). Further, this apparatus may perform detection of road boundaries having a plurality of different types of road markings, road marking classification, various light / dark adjustments, identification of various weathers, elimination of false road markings, and the like. When there are multiple lines in multiple lanes, the apparatus may recognize the multiple lines and select an appropriate lane marking (generally closest to the vehicle in the lateral direction). In addition, this device can detect road edges using road edge information instead of lane line information to help guide the car traveling on the road when no lane line exists. Good.

さらにこの装置は、断続的な路面標識(ボッツドッツおよびリフレクタなどの)の道路上の位置を特定し、それらの情報から、道路上の車両の位置を特定してもよい。画像から、路面標識候補(路面標識断片候補)情報が収集されれば、この装置は、必要に応じて、道路上の車両位置を検出するために、そのような情報を通じて多様な試みを行う。   In addition, the device may identify the location of intermittent road markings (such as botsdots and reflectors) on the road and the location of the vehicle on the road from the information. Once road surface sign candidate (road surface sign fragment candidate) information is collected from the image, this device makes various attempts through such information to detect the vehicle position on the road as needed.

図1は、ビデオカメラ1を、前方を向くようにマウントされた車両2に連結された、本発明の一実施形態による、ビデオ画像に基づく道路特性分析、車線検出、および車線逸脱防止の装置15の機能ブロック図である。ビデオカメラ1は、前方を向くように、車両2にマウントされている。ビデオカメラ1は、車両2の前方の道路(車線/車道)4の〔二次元(2−D)〕画像3を取得し、それらの画像を、道路特性分析、車線検出、および車線逸脱防止のために、コントローラ5に伝達する。行と列に配置されたピクセルのアレイとして二次元画像を作成するために、デジタル化されたビデオ入力信号をサンプリングするサンプラー17を用いてもよい。   FIG. 1 shows an apparatus 15 for road characteristic analysis based on video images, lane detection and lane departure prevention according to an embodiment of the invention, in which a video camera 1 is connected to a vehicle 2 mounted to face forward. It is a functional block diagram. The video camera 1 is mounted on the vehicle 2 so as to face forward. The video camera 1 acquires a [two-dimensional (2-D)] image 3 of a road (lane / roadway) 4 in front of the vehicle 2, and uses these images for road characteristic analysis, lane detection, and lane departure prevention. Therefore, it is transmitted to the controller 5. A sampler 17 that samples the digitized video input signal may be used to create a two-dimensional image as an array of pixels arranged in rows and columns.

この例においては、コントローラ5は、車線境界検出装置6、車線逸脱検出装置9、カメラ較正モジュール10、警告モジュール11、および曲率測定モジュール12を備えている。車線境界検出装置6は、道路特性分析によって画像3を処理し、道路4上の実際の路面標識8L、8Rをそれぞれ表わす路面標識画像フィーチャ7L、7Rの位置を、画像3内に追跡する。車線境界検出装置6は、画像3において、道路表面からの反射光像を検出し、路面標識画像フィーチャ7Lおよび7Rの検出への影響を減らす(抑制する)反射光像検出モジュール6aを備えている。ビデオカメラ1に相対的に、路面標識8Lは道路の左側を表わしており、路面標識8Rは道路の右側を表わしている。路面標識画像フィーチャ7Lおよび7Rの位置およびヨー角(ビデオカメラ1の位置に相対的な)のデータが、車線境界検出装置6から車線逸脱検出装置9に供給される。車線境界検出装置6によって検出された車線区分線または道路境界に関する情報を用いて、曲率測定モジュール12は道路の曲率を測定し、その情報を、車線逸脱検出装置9に供給する。車線逸脱検出装置9は、さらに、車両2から速度情報を受け取り、また較正データを受け取る(カメラ較正モジュール10から供給することができる)。車線逸脱検出装置9は、路面標識8L、8Rに相対的に車両2の位置を特定するために、車両速度、車線区分線の位置、曲率情報、およびヨー角情報を、定期的に受け取ることが好ましい。路面標識8L、8Rには、車線区分線、道路境界などを含ませることができる。   In this example, the controller 5 includes a lane boundary detection device 6, a lane departure detection device 9, a camera calibration module 10, a warning module 11, and a curvature measurement module 12. The lane boundary detection device 6 processes the image 3 by road characteristic analysis, and tracks the positions of road marking image features 7L and 7R representing the actual road markings 8L and 8R on the road 4 in the image 3, respectively. The lane boundary detection device 6 includes a reflected light image detection module 6a that detects a reflected light image from the road surface in the image 3 and reduces (suppresses) the influence on the detection of the road sign image features 7L and 7R. . Relative to the video camera 1, the road surface sign 8L represents the left side of the road, and the road surface sign 8R represents the right side of the road. The data of the position and yaw angle (relative to the position of the video camera 1) of the road marking image features 7L and 7R are supplied from the lane boundary detection device 6 to the lane departure detection device 9. The curvature measurement module 12 measures the curvature of the road using the information about the lane markings or road boundaries detected by the lane boundary detection device 6 and supplies the information to the lane departure detection device 9. The lane departure detection device 9 further receives speed information from the vehicle 2 and also receives calibration data (which can be supplied from the camera calibration module 10). The lane departure detection device 9 may periodically receive vehicle speed, lane line position, curvature information, and yaw angle information in order to identify the position of the vehicle 2 relative to the road markings 8L, 8R. preferable. Road markings 8L, 8R can include lane markings, road boundaries, and the like.

車両速度情報、カメラ較正情報、路面標識画像フィーチャ7Lおよび7Rの追跡された画像フィーチャ位置に基づいて、コントローラ5は、車線逸脱検出装置9を用いて、車両2が道路4の適切な走行車線からはずれているか否かを特定する。車線逸脱または道路逸脱が差し迫っていることを車線逸脱検出装置9が検出した場合には、警告モジュール11が起動される。具体的には、車線境界検出装置6は、画像3内で、道路境界または車線区分線を捜すべき位置を決定し、道路境界または車線区分線などの路面標識画像フィーチャ7L、7Rを、各画像3内に検出する。車線逸脱検出装置9は、検出されたそのような路面標識画像フィーチャ7L、7Rを、ビデオカメラの幾何学的配置情報に基づいた幾何学的変換によって、道路面上の位置に関連づけ、それによって、車線区分線または道路境界である実際の路面標識8L、8Rに相対的に、道路上のビデオカメラ(車両)の位置を再現する。車線逸脱検出装置9は、さらに、ビデオカメラ(車両)が道路境界または車線区分線に近づきすぎたときに、それを検出し、警告モジュール11に通知する。   Based on the vehicle speed information, camera calibration information, and tracked image feature positions of the road marking image features 7L and 7R, the controller 5 uses the lane departure detector 9 to move the vehicle 2 from the appropriate travel lane on the road 4. Specify whether they are off. When the lane departure detection device 9 detects that a lane departure or road departure is imminent, the warning module 11 is activated. Specifically, the lane boundary detection device 6 determines a position where the road boundary or lane marking is to be searched for in the image 3, and the road surface sign image features 7L and 7R such as the road boundary or lane marking are determined for each image. 3 to detect. The lane departure detection device 9 associates such detected road marking image features 7L, 7R with a position on the road surface by a geometric transformation based on the video camera's geometric arrangement information, thereby The position of the video camera (vehicle) on the road is reproduced relative to the actual road markings 8L and 8R which are lane markings or road boundaries. The lane departure detection device 9 further detects when the video camera (vehicle) gets too close to the road boundary or lane marking and notifies the warning module 11 of it.

コントローラ5は、さらに、困難な状況において、車線区分線または道路境界の断片である可能性のある画像フィーチャによる多様な試みを用いて、車線区分線または道路境界を検出するように機能してもよい。コントローラ5は、さらに、画像中の、道路境界または路面標識でない画像フィーチャの排除、次の画像における道路境界または車線区分線の検出のための関心領域の予測、新しい、より適切な道路境界または車線区分線の検出、および、道路または車線からの逸脱が当然のものであることの決定を行うように機能してもよい。これらの補足的な機能を用いて、路面標識または境界の適切な検出能力を強化することによって、コントローラ5による誤った警報の発生を減らすことができる。   The controller 5 may further function to detect lane markings or road boundaries using a variety of attempts with image features that may be fragments of lane markings or road boundaries in difficult situations. Good. The controller 5 further eliminates image features in the image that are not road boundaries or road markings, predicts regions of interest for detection of road boundaries or lane markings in the next image, new and more appropriate road boundaries or lanes. It may function to detect lane markings and to determine that deviations from roads or lanes are natural. These supplementary functions can be used to reduce the occurrence of false alarms by the controller 5 by enhancing the ability to properly detect road markings or boundaries.

カメラ較正モジュール10からの情報を用いて、車線境界検出装置6は、初期状態において、画像中に、車線区分線または境界の大まかな検出のための基本的関心領域を予測する。次に、車線境界検出装置6は、ビデオカメラ1から、画像フレーム(行と列に配置されたピクセル)を受け取り、画像中の行と列の位置で表わした、路面標識(車線区分線または道路境界)画像フィーチャ7L、7Rの位置を検出するために、画像中の関心領域内をチェックする。次いで、車線逸脱検出装置9は、画像3中に検出された路面標識画像フィーチャの行と列の位置を用いて、道路面上の対応する位置を特定する。このような対応する各位置は、ビデオカメラ1に対する路面標識8L、8Rの横方向のオフセットおよび前方距離を用いて表わされる。車線逸脱検出装置9は、路面標識の位置に相対的に、ビデオカメラ1(および車両2)の横方向の位置を特定する。横方向の位置が、路面標識の位置に接近しすぎている場合には、車線逸脱検出装置9は、それにしたがって、警告を発生させる。その後、コントローラ5は、次の画像フレームにおいて路面標識画像フィーチャを検出するための関心領域として、現在の画像において検出された路面標識画像フィーチャの位置を用いて、ビデオカメラからの次の画像フレームにおいて、路面標識検出(車線境界検出装置6による)および車両位置検出(車線逸脱検出装置9による)を繰り返す。   Using information from the camera calibration module 10, the lane boundary detection device 6 predicts a basic region of interest for rough detection of lane markings or boundaries in the image in the initial state. Next, the lane boundary detection device 6 receives an image frame (pixels arranged in rows and columns) from the video camera 1 and expresses road surface signs (lane markings or roads) represented by the positions of the rows and columns in the image. Boundary) Check the region of interest in the image to detect the position of the image features 7L, 7R. Next, the lane departure detection device 9 identifies the corresponding position on the road surface using the row and column positions of the road surface sign image features detected in the image 3. Each such corresponding position is represented using the lateral offset and the forward distance of the road markings 8L, 8R relative to the video camera 1. The lane departure detection device 9 specifies the lateral position of the video camera 1 (and the vehicle 2) relative to the position of the road surface sign. If the lateral position is too close to the position of the road surface sign, the lane departure detection device 9 generates a warning accordingly. The controller 5 then uses the position of the road marking image feature detected in the current image as the region of interest for detecting the road marking image feature in the next image frame, in the next image frame from the video camera. The road sign detection (by the lane boundary detection device 6) and the vehicle position detection (by the lane departure detection device 9) are repeated.

図2は、コントローラ5によって実行される、本発明の一実施形態による、全車線区分線検出および車線逸脱警告のプロセス20のステップのフローチャートである。プロセス20は、以下のステップを含んでいる。
ステップ21:画像フレームを受け取る。
ステップ22:路面標識8L、8R(例えば車線区分線、道路境界など)に対応する路面標識画像フィーチャ7L、7Rを検出するための関心領域(ROI)を、画像内に決定する。
ステップ23:関心領域内のピクセルから、路面標識画像フィーチャを検出する。
ステップ24:路面標識の画像位置を、道路上の対応する位置に投影するための幾何学的変換を実行して、道路投影図を作成する。
ステップ25:道路に投影された路面標識から、ビデオカメラの位置を見出す。
ステップ26:ビデオカメラ/車両が、路面標識に接近しすぎているか否かを特定する。接近しすぎている場合には、ステップ27に進む。そうでない場合には、ステップ21に戻り、ビデオカメラから次の画像フレームを受け取って処理する。
ステップ27:警告を発するか、または支援を与えて、ステップ21に戻る。
FIG. 2 is a flowchart of the steps of the all lane line detection and lane departure warning process 20 performed by the controller 5 according to one embodiment of the present invention. Process 20 includes the following steps.
Step 21: Receive an image frame.
Step 22: A region of interest (ROI) for detecting road marking image features 7L, 7R corresponding to road markings 8L, 8R (eg, lane markings, road boundaries, etc.) is determined in the image.
Step 23: Detect road marking image features from pixels in the region of interest.
Step 24: A road projection map is created by executing a geometric transformation for projecting the image position of the road surface sign to the corresponding position on the road.
Step 25: Find the position of the video camera from the road marking projected on the road.
Step 26: Determine whether the video camera / vehicle is too close to the road marking. If it is too close, go to step 27. Otherwise, return to step 21 to receive and process the next image frame from the video camera.
Step 27: Issue a warning or give assistance and return to Step 21.

コントローラ5によって実行されるプロセス20の一実施形態は、以下の過程を含んでいる。
・ 前方の道路の画像を受け取る。
・ 利用可能な場合には以前の画像情報を用いて、路面標識または道路境界が存在すると予想される1つ以上の関心領域(ROI)を、画像内に決定する。
・ いかなる望ましくない画像アーチファクト(例えば反射光、太陽光の筋、タール帯などの像)も識別して排除するために、各ROIにおいて、画像を行毎に処理する。
・ 路面標識および道路境界の断片を検出するために、ROI内を行毎に処理する。
・ 破線タイプ路面標識(ダッシュとギャップで形成された路面標識)において、ダッシュ間のギャップ内に検出された標識断片を排除する。
・ 標識/境界断片にフィルタ処理を施す(例えば、降雪などを表わす画像フィーチャを検出して排除する)。
・ 各行の、残った標識断片を、車線区分線候補および道路境界候補にまとめる。
・ (行、列)座標を有する最終的な路面標識および路面標識断片を画像内に得るために、偽の標識を排除する(例えばタール帯、矢印、および記号を検出して排除する)。
・ 重要な物体であるかもしれないので、路面標識の外側の物体を検出する。
・ 画像における路面標識(路面標識画像フィーチャ)の点(行、列)を、ビデオカメラに相対的な、道路面上の対応する路面標識位置(前方距離、および横方向のオフセット)に投影する。
・ 平滑化およびノイズ除去のために、この対応する路面標識位置データに、フィルタ処理を施す。
・ 平滑化された路面標識位置データを、ビデオカメラ位置に関連づける。
・ ビデオカメラ(車両)が、道路境界または車線区分線に接近しすぎているかどうかを特定する。
・ ビデオカメラ(車両)が、車線区分線または道路境界に接近しすぎている場合には、車線区分線または道路境界の外側に存在する物体(例えば車線または道路をはずれることによってもたらされる危険の程度)、および路面標識のタイプおよび数の関数として、警告か支援かを選択する信号を発生させる。
・ 道路面中の次の道路境界/路面標識を探すための画像位置すなわちROIを予測し、その予測の不確実さの程度を決定する。
・ 装置は、探索モードと追跡モードと呼ばれる2つのモードを有する。探索モードにおいては、装置は、画像中に、路面標識が存在するであろう大まかな位置(すなわちROI)をまだ確定しておらず、したがって、大きな画像エリア内で路面標識を捜す。追跡モードにおいては、装置は、現在の画像フレームの前に既に路面標識を見出しており、したがって、前とほぼ同じ画像エリアすなわちROI内に、再び、路面標識が存在すると予想し、そのROI内で路面標識を追跡する。1追跡は、ひとまとまりの位置測定である。あるひとまとまりの位置測定が終了し、別のひとまとまりの位置測定が開始するときに、新しい追跡が開始する。追跡が打ち切られた(例えば車両がある一定の距離を走行している間の数の画像中に、路面標識が検出されなかったために)ときに、装置は探索モードに戻り、路面標識を新たに探索するために、道路境界/路面標識を見出すための窓すなわちROIを、その最大寸法およびデフォルト位置に戻す。したがって、路面標識の位置を、前の画像において検出された路面標識に基づいて(頼って)予想する必要がない。
・ 次の画像フレームが、困難な道路状況(例えば雨、雪)の画像であると予想される場合には、次の1つ以上の画像フレームにおいて、関心領域のサイズを縮小し、それによって、現在の路面標識を追跡し続ける(すなわち、新しい路面標識を追跡するのではなくて)ステップを含めて、その道路状況に対処する。
・ 画像中のクラッタ(誤認を生み出す様々な源)をチェックする。クラッタが存在する場合には、クラッタが再び減少するまで、クラッタ中の検出物を受け入れないことで、クラッタに対処する。
・ 日中であるか、夜間であるかをチェックする。必要であれば、次の画像フレームが処理される前に、一般的な照明条件に合うように、装置のパラメータ設定を切り換える。
・ 検出された車線区分線または道路境界の情報を用いて、曲率測定モジュール12によって、道路の曲率を測定し、曲率値を記憶する。
・ 最後の画像フレームにおいて、どのくらいの間隔を置いて、かつどのくらいの長さで路面標識が検出されたかをチェックすることによって、検出された路面標識のタイプを特定する。
・ 必要に応じて、検出された情報(例えば路面標識/道路境界に相対的な車両の位置、路面標識、車線、路面標識/道路境界の外側に検出された物体の数およびタイプ、道路の曲率など)を集めて出力する。
・ リアルタイムのカメラ較正を行い、初期のヨー角およびピッチ角の大きさを更新する。更新されたヨー角およびピッチ角は、画像内に検出された路面標識画像フィーチャの位置を、道路上の対応する位置に、より正確に投影するために用いられる。それによって、警告が、より正確になる。
・ 前方の道路上の任意の文字やシンボルをチェックし、それらが、次の画像フレームにおいて、どこに現れるかを特定する。
・ 反射光および太陽光の筋の像をチェックし、それらの位置、および次の画像フレームに対して予測されるそれらの位置を記憶する(これによって、次の画像フレームにおける、車線区分線の画像フレームの検出が改善される)。
・ 破線タイプ路面標識が存在する場合には、ダッシュ−ギャップパターンを学習し、次の画像フレームに対して予測されるダッシュ−ギャップ位置を記憶する。
・ 予測される次の寸法(道路面における)から、次の画像フレームにおける路面標識/道路境界のためのROIを、画像面内に決定する。
・ ビデオカメラ1から受け取った次の画像フレームにおいて、上記のステップを繰り返す。
One embodiment of the process 20 performed by the controller 5 includes the following steps.
・ Receive an image of the road ahead.
Use previous image information, if available, to determine one or more regions of interest (ROI) in the image where road signs or road boundaries are expected to be present.
Process the image row by row in each ROI to identify and eliminate any unwanted image artifacts (eg images of reflected light, sunlight streaks, tar bands, etc.).
Process the ROI line by line to detect road markings and road boundary fragments.
-In broken line type road markings (road markings formed by dashes and gaps), the marker fragments detected in the gap between the dashes are eliminated.
Filter the sign / boundary fragment (eg, detect and eliminate image features representing snowfall, etc.).
・ Collect the remaining sign fragments in each row into lane line candidates and road boundary candidates.
Eliminate false signs (eg, detect and eliminate tar bands, arrows, and symbols) to get final road markings and road marking fragments with (row, column) coordinates in the image.
• Detect objects outside road markings as they may be important objects.
Project points (rows, columns) of road markings (road marking image features) in the image to corresponding road marking positions on the road surface (forward distance and lateral offset) relative to the video camera.
Filter the corresponding road surface marker position data for smoothing and noise removal.
• Associate the smoothed road marking position data with the video camera position.
• Identify if the video camera (vehicle) is too close to the road boundary or lane marking.
• If the video camera (vehicle) is too close to the lane line or road boundary, the extent of the danger posed by the object that is outside the lane line or road boundary (eg off the lane or road) ), And as a function of the type and number of road markings, a signal is generated that selects between warning and assistance.
Predict the image position, i.e., ROI, for searching for the next road boundary / road surface sign in the road surface and determine the degree of uncertainty in that prediction.
The device has two modes called search mode and tracking mode. In the search mode, the device has not yet determined the approximate location (ie, ROI) in the image where the road marking will be, and therefore looks for the road marking in a large image area. In the tracking mode, the device has already found a road sign in front of the current image frame, and therefore expects a road sign to be again in the same image area or ROI as before, within that ROI. Track road markings. One tracking is a group of position measurements. A new tracking begins when one group of position measurements ends and another group of position measurements begins. When tracking is aborted (for example, because no road markings were detected in the number of images while the vehicle is traveling a certain distance), the device returns to search mode, and a new road marking is To search, the window or ROI for finding the road boundary / road marking is returned to its maximum size and default position. Thus, the position of the road marking need not be predicted based on (relied upon) the road marking detected in the previous image.
If the next image frame is expected to be an image of difficult road conditions (eg rain, snow), reduce the size of the region of interest in the next one or more image frames, thereby Address the road condition, including the step of keeping track of the current road sign (ie, not tracking the new road sign).
Check for clutter in the image (a variety of sources that generate false positives). If clutter is present, the clutter is dealt with by not accepting the detection in the clutter until the clutter is reduced again.
・ Check whether it is daytime or nighttime. If necessary, the device parameter settings are switched to meet general lighting conditions before the next image frame is processed.
The curvature measurement module 12 measures the road curvature using the detected lane marking or road boundary information, and stores the curvature value.
Identify the type of detected road sign by checking how far and how long the road sign is detected in the last image frame.
• If necessary, the detected information (eg vehicle position relative to road markings / road boundaries, road markings, lanes, number and types of objects detected outside road markings / road boundaries, road curvature) Etc.) and output.
• Perform real-time camera calibration and update the initial yaw and pitch angles. The updated yaw and pitch angles are used to more accurately project the position of the road marking image feature detected in the image to the corresponding position on the road. This makes the warning more accurate.
Check any characters and symbols on the road ahead and identify where they will appear in the next image frame.
Check the reflected and sunlight streak images and remember their position and their predicted position for the next image frame (this will cause the image of the lane markings in the next image frame Improved frame detection).
If there is a dashed type road marking, learn the dash-gap pattern and store the predicted dash-gap position for the next image frame.
From the predicted next dimension (in the road surface), determine the ROI for the road marking / road boundary in the next image frame in the image plane.
Repeat the above steps for the next image frame received from the video camera 1.

図3Aは、路面標識8L、8Rに相対的なビデオカメラ1の位置の平面図、および路面標識8L、8Rの寸法の一例を示している。当業者には、他のビデオカメラ配置および路面標識の寸法が可能であることは認識されることである。路面標識/道路境界検出プロセスのよりよい理解のために、図3Bに、画像面中のピクセルpと、ビデオカメラ1を介してピクセルpとして投影される、道路面上の対応する点Pとの間の関係を説明するための一例が示されている。道路4の画像3が、道路4の道路面40上に重ね合わされている。画像3中の第1の行−列位置における第1のピクセルp1は、道路面上の第1の点P1に対応している。同様に、画像3中の第2の行−列位置における第2のピクセルp2は、道路面上の第2の点P2に対応している。画像位置(r、w)にあるピクセルp1から、道路面上の位置(x、y)にある点P1に幾何学的に変換(投影)するステップには、行座標rに基づいて縦方向座標xを見出し、列座標wに基づいて横方向座標yを見出すステップが含まれる。同様の変換が、点P2とピクセルp2に対しても適用される。 FIG. 3A shows a plan view of the position of the video camera 1 relative to the road markings 8L and 8R and an example of the dimensions of the road markings 8L and 8R. Those skilled in the art will recognize that other video camera placements and road marking dimensions are possible. For a better understanding of the road marking / road boundary detection process, in FIG. 3B, the pixel p in the image plane and the corresponding point P on the road surface projected as a pixel p via the video camera 1 are shown. An example for explaining the relationship between them is shown. The image 3 of the road 4 is superimposed on the road surface 40 of the road 4. The first pixel p 1 at the first row-column position in the image 3 corresponds to the first point P 1 on the road surface. Similarly, the second pixel p 2 at the second row-column position in the image 3 corresponds to the second point P 2 on the road surface. The step of geometrically converting (projecting) the pixel p 1 at the image position (r, w) to the point P 1 at the position (x, y) on the road surface is based on the vertical coordinate r. Finding the directional coordinate x and finding the lateral coordinate y based on the column coordinate w is included. A similar transformation is applied to point P 2 and pixel p 2 .

したがって、路面標識8Lおよび8R上の点P1およびP2が与えられると、ビデオカメラ1からそれぞれの点P1、P2までの距離(すなわち、ビデオカメラの前方の道路上の縦方向距離d=x、および道路中心線からの横方向のオフセット距離LO=y)を、画像3中の路面標識画像フィーチャ7L、7R上の対応するピクセルp1およびp2の行−列位置(r、w)から特定することができる。図3Cは、画像3上に重ね合わされた、台形形状の関心領域(ROI)を示している。ROI内で、グレーレベル勾配、および任意選択に平均絶対偏差が、各ピクセルから抽出される。勾配値と平均絶対偏差とのどちらも、ピクセルのグループの特性であり、前者は、隣接し合うピクセル間のコントラストを表わしており、後者は、1つのグループにおける、中央値からの変分を表わしている。各台形(関心領域ROI−L、ROI−R)が、概ね、路面標識画像フィーチャ7L、7Rが存在すると予想される、画像3内の位置に置かれる。道路の画像3および車両速度が、車線境界検出装置への入力である。また、カメラ較正のための幾何学的配置(焦点距離、据え付け高さなど)は既知である。 Therefore, given the points P 1 and P 2 on the road markings 8L and 8R, the distance from the video camera 1 to the respective points P 1 and P 2 (ie, the longitudinal distance d on the road ahead of the video camera). = X and the lateral offset distance LO = y) from the road centerline, the row-column positions (r, w) of the corresponding pixels p 1 and p 2 on the road marking image features 7L, 7R in image 3 ). FIG. 3C shows a trapezoidal region of interest (ROI) superimposed on image 3. Within the ROI, a gray level gradient and optionally an average absolute deviation are extracted from each pixel. Both slope value and mean absolute deviation are characteristics of a group of pixels, the former representing the contrast between adjacent pixels, and the latter representing the variation from the median in one group. ing. Each trapezoid (region of interest ROI-L, ROI-R) is generally placed at a position in image 3 where road marking image features 7L, 7R are expected to be present. The road image 3 and the vehicle speed are inputs to the lane boundary detection device. Also, the geometry for camera calibration (focal length, mounting height, etc.) is known.

図3Cに示すように、台形形状の関心領域(ROI)すなわち窓が、画像3内に画定されている。ROI内で、ピクセルのグレーレベル勾配および平均絶対偏差の特定が行われる。画像3中の台形形状の各ROIは、道路4上の平行四辺形に対応している(例えば関心領域ROI−LおよびROI−Rは、図3Dに示されている、道路4上に横方向に3〜4メートルの間隔を置いて配置された2つの平行四辺形160Lおよび160Rにそれぞれ対応しており、各平行四辺形は、例えば約0.7〜2.3メートルの幅および約14メートルの長さを有しており、それらの下端162、上端164は、それぞれビデオカメラ1から約6メートル、約20メートルの距離にある)。幅Wtおよび高さHtで与えられる、画像中の各ROIのサイズは、路面標識画像フィーチャ7L、7Rの予想される位置における誤差を、その内部に受け入れることができるほどに十分に大きい。路面標識画像フィーチャ7L、7Rの大まかな位置がわからない場合には、関心領域(すなわち窓)の幅は、最大の大きさにされる。図3Eは、車線境界があらかじめ予想される場合の、大まかな関心領域の別の一例を示している(寸法は、対応する道路面における寸法で示している)。   As shown in FIG. 3C, a trapezoidal region of interest (ROI) or window is defined in the image 3. Within the ROI, the pixel gray level gradient and mean absolute deviation are identified. Each trapezoidal ROI in image 3 corresponds to a parallelogram on road 4 (e.g., regions of interest ROI-L and ROI-R are transverse to road 4 as shown in FIG. 3D). Respectively corresponding to two parallelograms 160L and 160R spaced 3-4 meters apart, each parallelogram having a width of about 0.7-2.3 meters and about 14 meters, for example And their lower end 162 and upper end 164 are at a distance of about 6 meters and about 20 meters from the video camera 1, respectively). The size of each ROI in the image, given by the width Wt and the height Ht, is large enough to accommodate the error in the expected position of the road marking image features 7L, 7R within it. If the approximate location of the road marking image features 7L, 7R is not known, the width of the region of interest (ie, the window) is maximized. FIG. 3E shows another example of a rough region of interest when a lane boundary is predicted in advance (dimensions are indicated by dimensions on the corresponding road surface).

別の一例において、各ROIは、最小路面標識幅の少なくとも4倍の幅(ただし、最大でも2.3メートルまでの幅)を有する、道路上の平行四辺形に対応している。幅の上限は、計算容量によって制約される。各ROIは、ビデオカメラの左側(または右側)約0.7メートルの位置から始まって、約3メートルの位置に至る道路4上の距離をカバーしている。すなわち、道路車線幅および車両幅の大部分をカバーしている。関心領域ROI−LおよびROI−Rの幅は、路面標識の探索モードにおいて最大であり、路面標識の追跡モードでは、より小さい。路面標識の追跡モードにおける幅は、画像内に、路面標識の横方向の位置を予測する際の不確実さの程度に依存する。関心領域は、初期状態において、道路の消失点VPに関して対称に、画像内に配置されている。追跡モードにおいては、現在の画像フレームのROI内に、路面標識または境界が検出されている。したがって、次の画像フレームのROIは、現在の画像フレームの路面標識または境界の位置に基づいて、次の画像フレームにおいて路面標識または境界が存在すると予想される領域に配置される。   In another example, each ROI corresponds to a parallelogram on the road having a width that is at least four times the minimum road marking width (but up to 2.3 meters wide). The upper limit of the width is limited by the calculation capacity. Each ROI covers a distance on the road 4 starting from a position of about 0.7 meters on the left (or right) side of the video camera and reaching a position of about 3 meters. That is, most of the road lane width and vehicle width are covered. The widths of the regions of interest ROI-L and ROI-R are maximum in the road marking search mode and smaller in the road marking tracking mode. The width of the road marking in the tracking mode depends on the degree of uncertainty in predicting the lateral position of the road marking in the image. The region of interest is arranged in the image symmetrically with respect to the vanishing point VP of the road in the initial state. In the tracking mode, road markings or boundaries are detected in the ROI of the current image frame. Accordingly, the ROI of the next image frame is placed in an area where a road sign or boundary is expected to be present in the next image frame based on the position of the road sign or boundary of the current image frame.

実際の路面標識8L、8Rのサイズおよび周期性は、ビデオカメラの焦点距離FL、および道路4に対するビデオカメラの高さhに基づいて、画像面201内の対応する路面標識画像フィーチャ7L、7Rのサイズおよび周期性に変換される(図4A)。具体的には、ビデオカメラ1のピッチ角(傾斜角)α、ビデオカメラの高さh、道路4上の点203(P)までの、ビデオカメラの前方の道路上の縦方向距離d=x、垂直方向ピクセルサイズVp、焦点距離FL、および画像面内の行座標r(光軸205に相対的に測った)の間の関係は、数1によって記述される。

Figure 0005868586
The actual size and periodicity of the road markings 8L, 8R is based on the focal length FL of the video camera and the height h of the video camera relative to the road 4, and the corresponding road marking image features 7L, 7R in the image plane 201. Converted to size and periodicity (FIG. 4A). Specifically, the vertical distance d = x on the road ahead of the video camera to the pitch angle (tilt angle) α of the video camera 1, the height h of the video camera, and the point 203 (P) on the road 4. The relationship between the vertical pixel size Vp, the focal length FL, and the row coordinate r (measured relative to the optical axis 205) in the image plane is described by equation (1).
Figure 0005868586

さらに、行座標rおよび列座標wのピクセルp〔水平方向ピクセルサイズHpおよび垂直方向ピクセルサイズVp(図4B)〕は、次のように、前方道路上の横方向座標y(図3B)の点に投影される。
w = y*(FL2+r2*Vp21/2/Hp*(h2+d2-1/2 (2)
この式を書き換えると、次のようになる。
y = w*Hp*(h2+d21/2/(FL2+r2*Vp21/2 (3)
Furthermore, the pixel p (horizontal pixel size Hp and vertical pixel size Vp (FIG. 4B)) of the row coordinate r and the column coordinate w is a point of the lateral coordinate y (FIG. 3B) on the road ahead as follows: Projected on.
w = y * (FL 2 + r 2 * Vp 2 ) 1/2 / Hp * (h 2 + d 2 ) −1/2 (2)
Rewriting this equation gives the following:
y = w * Hp * (h 2 + d 2 ) 1/2 / (FL 2 + r 2 * Vp 2 ) 1/2 (3)

列座標wおよび横方向座標yは、ビデオカメラ1の光軸、またはビデオカメラ1の光軸を前方道路上に垂直に投影した直線に相対的に測定される。ビデオカメラが、一定のヨー角で車両に搭載されているときには、列座標wおよび横方向座標yは、直線道路の消失点の横方向位置を基準にして測定される。   The column coordinate w and the horizontal coordinate y are measured relative to the optical axis of the video camera 1 or a straight line obtained by vertically projecting the optical axis of the video camera 1 on the road ahead. When the video camera is mounted on the vehicle at a constant yaw angle, the column coordinate w and the lateral coordinate y are measured with reference to the lateral position of the vanishing point of the straight road.

横方向座標yを最小路面標識幅にとると、その路面標識点までの距離が分かれば、ビデオカメラの前方の道路上の縦方向距離dが決定され、次に、最小路面標識幅内に存在するピクセル数に対応する列座標wが決定される。ピクセル数は、ビデオカメラの前方の道路上の縦方向距離dに応じて、したがって、画像面上では、それに対応する行座標rに応じて変化する。垂直方向ピクセルサイズと水平方向ピクセルサイズとは、互いに異なっていてもよい。   If the horizontal coordinate y is taken as the minimum road marking width, if the distance to the road marking point is known, the vertical distance d on the road ahead of the video camera is determined, and then exists within the minimum road marking width. The column coordinate w corresponding to the number of pixels to be determined is determined. The number of pixels changes according to the vertical distance d on the road ahead of the video camera, and accordingly on the image plane, according to the corresponding row coordinate r. The vertical pixel size and the horizontal pixel size may be different from each other.

ピクセル数で表わされた、最小幅標識のサイズが決定されると、ピクセル数を単位とした適切な大きさでフィルタ処理することによって、より小さな(ピクセル数の少ない)画像フィーチャは、考察から外すことができる。ピクセル数で表わされた、路面標識の幅は、ビデオカメラから、その路面標識点までの距離に応じて変化することに注意されたい。遠近距離(PD)を変化させると、同一のサイズの路面標識8Lまたは8Rが、ビデオカメラから遠くなればなるほど、画像上では、相対的により少ないピクセルしか占めず、ビデオカメラに近くなればなるほど、相対的により多いピクセルを占める。言い換えると、一定の最小路面標識幅に対して、画像の頂近傍の行においては、画像の底近傍の行などにおけるよりも短いフィルタ長が用いられる。したがって、最小路面標識幅から計算されるフィルタ長は、画像中の行の位置に応じて変化する。路面標識幅が同じであっても、上方の行(道路上では遠方)においては、下方の行(道路上では近傍)におけるよりも短いフィルタ長が用いられる。路面標識画像フィーチャは、通常、各行において、1つ以上の断片(例えば各行において1つ以上のピクセル)から成っている。各行からの路面標識断片が、各画像における、全体としての路面標識および路面標識画像フィーチャ7L、7Rにまとめられる。   Once the size of the minimum width indicator, expressed in pixels, is determined, smaller (less pixels) image features are filtered from consideration by filtering with the appropriate size in pixels. Can be removed. Note that the width of the road marking, expressed in pixels, varies with the distance from the video camera to the road marking point. When changing the perspective distance (PD), the farther the same size road surface sign 8L or 8R is from the video camera, the less it occupies on the image, and the closer it is to the video camera, Occupies relatively more pixels. In other words, for a certain minimum road marking width, a shorter filter length is used in rows near the top of the image than in rows near the bottom of the image. Therefore, the filter length calculated from the minimum road marking width changes according to the position of the row in the image. Even if the road marking width is the same, a shorter filter length is used in the upper row (distant on the road) than in the lower row (near on the road). A road marking image feature typically consists of one or more pieces (eg, one or more pixels in each row) in each row. The road marking fragments from each row are grouped into overall road markings and road marking image features 7L, 7R in each image.

ビデオカメラは、その前方にある路面標識の画像を作成する。前方距離0(したがって、ビデオカメラの位置のすぐ右側および左側)において、路面標識に相対的に、ビデオカメラの横方向の位置を特定するために、曲線適合が用いられる。上記のステップによって、道路面に、点Pの2つの集合(1つは路面標識8L上、他の1つは路面標識8R上の)が与えられる。各集合は(xi、yi)で表わされる。図5は、一方の集合における2つの点AおよびBの一例を示している。点Aは、ビデオカメラ1の18メートル前方の道路上の位置にあり、点Bは、ビデオカメラ1の10メートル前方の道路上の位置にある。2つの点AとBを結ぶ適合線分50が、原点x=0、y=0(ゼロ距離)に位置するビデオカメラから縦方向に0メートルの距離の位置まで延長されている。すなわち、ビデオカメラの前方の路面標識上の点AとBが適合線分50によって結ばれて、路面標識が、ビデオカメラと縦方向に同じ位置(前方距離0、すなわちy軸上)まで逆投影されている。 The video camera creates an image of a road sign in front of it. Curve fitting is used to identify the lateral position of the video camera relative to the road markings at a forward distance of 0 (and thus just to the right and left of the video camera position). The above steps give the road surface two sets of points P (one on the road marking 8L and the other on the road marking 8R). Each set is represented by (x i , y i ). FIG. 5 shows an example of two points A and B in one set. The point A is at a position on the road 18 meters ahead of the video camera 1, and the point B is at a position on the road 10 meters ahead of the video camera 1. A fitting line segment 50 connecting the two points A and B is extended from the video camera located at the origin x = 0, y = 0 (zero distance) to a position at a distance of 0 meter in the vertical direction. That is, the points A and B on the road sign ahead of the video camera are connected by the matching line segment 50, and the road sign is backprojected to the same position in the vertical direction as the video camera (forward distance 0, ie, on the y axis). Has been.

図5の例は、各集合において2つ以上の点Pが利用可能であり、したがって、直線(一次曲線)以外に、より湾曲した(高次の)曲線を利用することができる、より一般的な逆投影の1つの特殊な場合である。この曲線としては、多くの可能性が存在するが、放物線(二次曲線)が、適合曲線として効果的に機能する。具体的には、点P(xi、yi)のセットに、最小二乗放物線適合が適用され、その曲線(放物線)が、ゼロ距離のビデオカメラの方向に向かって推定される。それによって、ビデオカメラに相対的な、路面標識の横方向の(y軸上の)位置52が与えられる。路面標識8L、8Rの各々における点P(xi、yi)の集合に対して、相異なる推定を行ってもよい。より正確な推定をするために、集合内の最近接点(例えば図5の点B)を、ビデオカメラ1にできるだけ近づくように選択するのが有利である。 The example of FIG. 5 is more general in that more than one point P can be used in each set, and thus more curved (higher order) curves can be used besides straight lines (primary curves). This is one special case of backprojection. There are many possibilities for this curve, but the parabola (conic curve) works effectively as a fitting curve. Specifically, a least-squares parabola fit is applied to the set of points P (x i , y i ) and its curve (parabola) is estimated towards the direction of the zero distance video camera. Thereby, a lateral position 52 (on the y-axis) of the road marking relative to the video camera is provided. Different estimations may be performed on the set of points P (x i , y i ) on each of the road surface signs 8L and 8R. In order to make a more accurate estimation, it is advantageous to select the closest point in the set (eg point B in FIG. 5) as close as possible to the video camera 1.

したがって、画像3内のROI(路面標識上の点Pに幾何学的に変換される、路面標識画像フィーチャのピクセルpを検出するために用いられる)は、画像3の底にできるだけ近いことが好ましい。画像面で検出された、路面標識画像フィーチャのピクセルpの集合が、道路面上の点(位置)に幾何学的に変換され、1つの曲線が、それらの点Pに適合されて、ビデオカメラと同じ縦方向位置まで推定され、道路上の路面標識に相対的なビデオカメラの横方向距離が特定される。例えば図5に示されているように、路面標識に相対的な、ビデオカメラ1の横方向距離は、ビデオカメラ1と同じ縦方向位置において、より遠い縦方向位置におけるよりも、相当に短くなる(場合によっては、短くなりすぎる)ことがある。   Thus, the ROI in image 3 (used to detect the pixel p of the road marking image feature, which is geometrically transformed to a point P on the road marking) is preferably as close as possible to the bottom of image 3. . A set of pixels p of the road marking image feature detected on the image plane is geometrically transformed into points (positions) on the road surface, and one curve is fitted to those points P to obtain a video camera. To the same vertical position, and the lateral distance of the video camera relative to the road marking on the road is identified. For example, as shown in FIG. 5, the lateral distance of the video camera 1 relative to the road sign is considerably shorter at the same longitudinal position as the video camera 1 than at a farther longitudinal position. (In some cases, it is too short).

次に、一例において、ビデオカメラが路面標識に近づきすぎているか否かを特定するために、検出された路面標識に相対的に計算された横方向距離を、距離閾値と比較する。距離閾値は、通常、運転者または支援装置が反応するだけの時間、すなわち、車両を車線の中央に向かって戻して、路面標識から遠ざけるだけの時間をもてるように設定される。反応速度を考慮に入れると、次の条件が満足されたときに、警告を発してもよい。
路面標識との交差までに残されている時間 < 時間閾値
Next, in one example, the lateral distance calculated relative to the detected road marking is compared to a distance threshold to identify whether the video camera is too close to the road marking. The distance threshold is usually set to allow time for the driver or assistance device to react, i.e., to allow the vehicle back toward the center of the lane and away from the road sign. Taking into account the reaction rate, a warning may be issued when the following conditions are satisfied:
Time remaining before crossing with road sign <Time threshold

一般的な人間の反応時間は1秒のオーダーであり、それはまた、時間閾値に対して概ね適切な値である。   Typical human reaction time is on the order of 1 second, which is also generally a good value for the time threshold.

路面標識または車線境界との交差までに残されている時間(TLC)を特定するために、画像フレームfにおける、ビデオカメラから路面標識までの距離が、連続した一連の画像フレームにおいて、数値的に微分される。それによって、画像フレームfにおいて路面標識に向かうビデオカメラの速度は、次のように求められる。
路面標識に向かう速度(f)=〔距離(f)−距離(f−1)〕/画像フレーム期間
In order to identify the time left before the intersection with the road marking or lane boundary (TLC), the distance from the video camera to the road marking in the image frame f is numerically calculated in a series of consecutive image frames. Differentiated. Thereby, the speed of the video camera toward the road surface sign in the image frame f is obtained as follows.
Speed (f) = [distance (f) -distance (f-1)] / image frame period toward the road surface marker

言い換えると、路面標識に向かう速度は、現在の画像フレームにおける距離から、その前の画像フレームにおける距離を差し引き、それを2つの測定間で費やした時間で割ったものに等しい。ノイズを除去するために、次のように、ローパスフィルタ処理を施してもよい。
平滑化速度(f)=F*平滑化速度(f−1)+(1.0−F)*路面標識に向かう速度(f)
In other words, the speed toward the road marking is equal to the distance in the current image frame minus the distance in the previous image frame divided by the time spent between the two measurements. In order to remove noise, low pass filter processing may be performed as follows.
Smoothing speed (f) = F * Smoothing speed (f-1) + (1.0-F) * Speed toward road surface marker (f)

一例として、Fの値は、約0.8または0.9であってもよい。画像フレームfにおける、路面標識に対するTLC(f)は、次の式によって特定される。
TLC(f) = 路面標識までの距離(f)/平滑化速度(f)
As an example, the value of F may be about 0.8 or 0.9. The TLC (f) for the road marking in the image frame f is specified by the following equation.
TLC (f) = distance to road marking (f) / smoothing speed (f)

そうすると、時間に基づく警告/支援ルールを、次のように表わすことができる。
TLC(f)<時間閾値のとき、警告を発する。
Then, the warning / support rule based on time can be expressed as follows.
A warning is issued when TLC (f) <time threshold.

車両が、既に路面標識と交差しているときでさえ、通常は、車線内に戻るための空間が残されており、警告が依然として有効であるから、そのようなときに警告を与えるような、別の警告起動ルールを用いてもよい。一般的に言えば、この場合の目的は、運転者が車線または道路に戻ることをタイムリーに支援するように警告を発することである。この警告は音響的なものであってもよいが、例えばハンドルの振動を介して伝達される、触覚的なもの(感覚的なもの)であってもよい。その支援は機械的であり、車線内に戻るように積極的に操舵するか、運転者が操舵するように促す。他の例も可能である。   Even when the vehicle is already crossing a road sign, there is usually room for returning to the lane, and the warning is still valid, so in such cases, Another warning activation rule may be used. Generally speaking, the purpose in this case is to issue a warning to assist the driver in returning in time to the lane or road. This warning may be acoustic, but may be tactile (sensory) transmitted through the vibration of the handle, for example. The support is mechanical and either actively steers to return into the lane or encourages the driver to steer. Other examples are possible.

警告または支援をどこで与えるべきかを決定するために、曲率測定モジュール12からの曲率情報を用いるときに、より自然な感覚装置が形成される。多くの運転者は、自分の車両でカーブの内側を「カット」し、車両を、より直線的に運転することを可能にする。コントローラ5は、「カット」量を曲率に関連付け、カーブがきつくなればなるほど、「カット」量をより多くする。   A more natural sensory device is formed when using curvature information from the curvature measurement module 12 to determine where to give warnings or assistance. Many drivers “cut” the inside of the curve with their vehicle, allowing the vehicle to drive more linearly. The controller 5 associates the “cut” amount with the curvature and increases the “cut” amount as the curve becomes tighter.

路面標識8R、8Lのタイプが、起動される警告/支援の性質に影響を及ぼす。例えば単一の破線タイプ路面標識を交差するときよりも、二重の実線タイプ路面標識と交差するときに、より強い(例えばより大きく、より長く、より念入りな)警告/支援を与えてもよい。1セットのルールによって、路面標識のタイプと、起動される警告/支援の性質とが関連付けられる。路面標識のタイプは、どのくらいの頻度(一定の時間にわたる)で、かつどのくらいの長さ(単一の画像フレームにおいて)で、路面標識画像フィーチャが検出されるかをチェックすることによって特定される。   The type of road markings 8R, 8L affects the nature of the warning / support activated. For example, a stronger (eg, larger, longer, more elaborate) warning / assistance may be given when crossing a double solid line type road sign than when crossing a single dashed type road sign . A set of rules associates the type of road marking with the nature of the warning / assistance that is activated. The type of road marking is identified by checking how often (over a period of time) and how long (in a single image frame) the road marking image features are detected.

車線境界検出装置6は、よりよい警告/支援を与えるために、単一の画像における情報から複数の路面標識断片の画像フィーチャを検出することを試み、同一の画像において検出された複数の画像フィーチャを用いる(例えば最初に、最もコントラストの高い路面標識断片の画像フィーチャを用い、次に、最も明るい路面標識断片の画像フィーチャを用いるなど)ことによって、より念入りな検出を行ってもよい。低コントラストの場合(例えば曇天の日中)でさえ、車線区分線のほかに、他の路面標識も検出することによって、さらなる改善を達成することができることがある。低コントラストの場合には、車線境界検出装置6は、画像中のテクスチャ(平均絶対偏差を用いて測定される)の差を検出してもよい。現在の画像フレームにおいて路面標識が検出される尤もらしさが、1つまたはそれ以上前の画像フレームにおいて検出された路面標識の画像位置に比して予想されるずれの程度および画像位置の点からチェックされる。画像中に、個々の車線区分線/境界断片から組み立てられた車線区分線または境界が検出された場合には、車線境界検出装置6は、その車線区分線/境界の位置を出力する。   The lane boundary detection device 6 attempts to detect image features of a plurality of road marking fragments from information in a single image in order to provide better warning / support, and a plurality of image features detected in the same image. (E.g., first using the image feature of the road sign fragment with the highest contrast and then using the image feature of the brightest road sign fragment). Even in low-contrast cases (eg during cloudy days), further improvements may be achieved by detecting other road markings in addition to lane markings. In the case of low contrast, the lane boundary detection device 6 may detect a difference in texture (measured using the average absolute deviation) in the image. Checks the likelihood of detecting road markings in the current image frame based on the expected degree of deviation and image position relative to the image position of the road marking detected in one or more previous image frames Is done. When a lane division line or boundary assembled from individual lane division lines / boundary fragments is detected in the image, the lane boundary detection device 6 outputs the position of the lane division line / boundary.

改善された路面標識検出スキームを、より単純な検出スキーム(例えば非特許文献1)と平行して実行してもよく、原則的に、そのようなより単純な検出スキームより優先してもよい。改善された路面標識検出スキームにおいて、路面標識が見出された場合には、より単純な検出スキームの出力を用いなくてもよい。   An improved road marking detection scheme may be performed in parallel with simpler detection schemes (eg, Non-Patent Document 1) and may in principle take precedence over such simpler detection schemes. In the improved road marking detection scheme, if a road marking is found, the output of the simpler detection scheme may not be used.

本発明によるプロセスの一例は、画像面内の路面標識の位置の予想から始めるステップと、路面標識画像フィーチャ7Lの予想される方向内にある各列のピクセルp(r、w)を合計するステップ(図6)と、それらのピクセル位置に対応する道路面上の点P(x、y)を表わす信号を強化するステップとを含んでいる。このプロセスは、この強化された信号において、暗から明および明から暗に遷移する路面標識エッジ候補を見出すステップと、同じ強化された信号において、エッジ対(対になって、暗から明および明から暗に遷移する)の存在を検査するステップと、エッジ対の間隔をチェックするステップとを含んでいる(路面標識は背景より明るく、幅において制約されている)。適切な間隔(例えば、ある範囲内の)を有するエッジ対の数が数えられる。そのようなエッジ対の数は、路面標識の数の目安になる。複数の路面標識が検出された場合には、最も近い路面標識が、路面標識とビデオカメラとの距離を測定する適切な路面標識として取り上げられる。   One example of a process according to the present invention begins with the prediction of the position of the road marking in the image plane and the sum of the pixels p (r, w) for each column in the expected direction of the road marking image feature 7L. (FIG. 6) and enhancing the signals representing the points P (x, y) on the road surface corresponding to those pixel locations. This process involves finding a road marking edge candidate that transitions from dark to light and light to dark in this enhanced signal, and edge pairs (paired from dark to bright and light in the same enhanced signal). And checking the distance between edge pairs (the road marking is brighter than the background and constrained in width). The number of edge pairs with appropriate spacing (eg, within a range) is counted. The number of such edge pairs is a measure of the number of road markings. When a plurality of road markings are detected, the closest road marking is taken as an appropriate road marking for measuring the distance between the road marking and the video camera.

車線境界検出装置6は、さらに、適切に路面標識を表わさない画像フィーチャを排除するプロセスを実行してもよい。図7Aの道路4を参照すると、そのような画像フィーチャの最も一般的なものは、通常は暗いタール帯8Tが、ビデオカメラ1の前方から入ってくる、低角度の日光によって明るくなる(「光る」)ことによるものである。第2の原因は、道路上の記号7C(例えば文字、矢印、横断歩道)である(図7B)。これらは、多くの場合、路面標識8L、8Rに平行であり、同じように見えることがある。車線境界検出装置6は、光っているタール帯8Tと記号7Cとのどちらも検出して、考察から外す。タール帯8Tは、車線区分線である路面標識8L、8Rよりも不規則な幅を有しがちであるという基準に基づいて、車線境界検出装置6は、タール帯を、路面標識としては排除する。さらに、タール帯8Tは、明るい背景からの明るい日光が前方にあるときしか光ることができない。それは検出可能である。   The lane boundary detection device 6 may further perform a process of eliminating image features that do not properly represent road markings. Referring to the road 4 in FIG. 7A, the most common of such image features is that a normally dark tar band 8T is brightened by low-angle sunlight that enters from the front of the video camera 1 ("lights up" )). The second cause is a symbol 7C (for example, a character, an arrow, a pedestrian crossing) on the road (FIG. 7B). These are often parallel to the road markings 8L, 8R and may look the same. The lane boundary detection device 6 detects both the shining tar band 8T and the symbol 7C and removes them from consideration. Based on the standard that the tar band 8T tends to have an irregular width than the road markings 8L and 8R that are lane markings, the lane boundary detection device 6 excludes the tar band as a road marking. . Furthermore, the tar band 8T can only shine when bright sunlight from a bright background is in front. It can be detected.

タール帯8Tの幅の変化が閾値より大きいか否かをチェックし、かつ全背景の明るさを測定することによって、タール帯8Tを路面標識8L、8Rであると誤って識別する確率が減る。車線境界検出装置6は、車線区分線候補画像フィーチャ(ピクセル)の処理、その幅と長さの測定、および画像輝度の処理を行う。上記の基準に基づいて、車線境界検出装置6は、車線区分線候補画像フィーチャ(ピクセル)が、路面標識8L、8Rを表わすものであるか、タール帯8Tを表わすものであるかを判定する。タール帯であると思われる車線区分線候補画像フィーチャは、その後、用いられない。タール帯8Tは、通常、車線区分線よりも大きな幅変動を有しており、したがって、この特性にしたがって、タール帯8Tを識別することができる。   By checking whether the change in the width of the tar band 8T is larger than the threshold and measuring the brightness of the entire background, the probability of erroneously identifying the tar band 8T as the road markings 8L, 8R is reduced. The lane boundary detection device 6 performs processing of lane marking line candidate image features (pixels), measurement of the width and length thereof, and processing of image luminance. Based on the above criteria, the lane boundary detection device 6 determines whether the lane marking candidate image features (pixels) represent the road markings 8L and 8R or the tar band 8T. The lane marking candidate image features that appear to be tar bands are not subsequently used. The tar band 8T usually has a larger width variation than the lane marking, and therefore the tar band 8T can be identified according to this characteristic.

記号7C(図7B)は、通常、車線区分線間に位置しており、したがって、記号関心領域ROI−Cが、車線区分線間に配置される。道路の上端近傍に配置された記号関心領域ROI−Cを用いて、記号7Cの存在が特定される。車両が前進するにつれて、画像の頂近傍から底に向かって下方に移動する記号が、記号関心領域ROI−Cに入ったときに、記号関心領域ROI−Cすなわち窓は、その記号を検出する。近位距離および遠位距離において記号7Cが追跡される。この近位距離と遠位距離との間の行で検出された全ての標識断片が無視される。   The symbol 7C (FIG. 7B) is usually located between the lane markings, and therefore the symbol region of interest ROI-C is arranged between the lane markings. The presence of the symbol 7C is specified using the symbol region of interest ROI-C arranged in the vicinity of the upper end of the road. As the vehicle moves forward, when a symbol moving downward from near the top of the image toward the bottom enters the symbol region of interest ROI-C, the symbol region of interest ROI-C or window detects the symbol. Symbol 7C is tracked at the proximal and distal distances. All labeled fragments detected in the row between this proximal distance and the distal distance are ignored.

以下に述べるように、記号7Cが記号関心領域内で検出されると、その記号7Cは追跡される。図8を参照すると、追跡は、2つの量を介して行われる。1つは、記号関心領域内で記号が始まる位置(ビデオカメラに近い近位端)を表わす量、すなわち近位距離であり、他の1つは、記号関心領域内で記号が終わる位置(ビデオカメラから遠位端)を表わす量すなわち遠位距離である。記号は、相当の長さを有する場合があるので、これらの2つの量が必要である。次の画像フレームにおいて検出される記号は、1画像フレーム時間に車両速度を掛けた量に等しい距離だけ、車両(ビデオカメラ)に接近する。記号は、車両からずっと先まで延びており(例えば長い矢印がそうである)、したがって、記号関心領域において検出され続ける場合がある。記号関心領域の上端に記号が検出され続ける限り、記号関心領域内の記号の上端(遠位距離)は、ビデオカメラから記号関心領域の上端までの距離にとどまり、一方、近位距離は、1画像フレーム毎に、1画像フレーム時間に車両速度を掛けた量に等しい距離だけ減少する。記号が、記号関心領域ROI−Cの上端に検出されなくなると、遠位距離も、1画像フレーム毎に、1画像フレーム時間に車両速度を掛けた量に等しい距離だけ減少する。   As described below, when a symbol 7C is detected within a symbol region of interest, the symbol 7C is tracked. Referring to FIG. 8, tracking is done via two quantities. One is a quantity representing the position where the symbol begins in the symbol region of interest (proximal end close to the video camera), ie the proximal distance, and the other is the position where the symbol ends in the symbol region of interest (video A quantity representing the distal end from the camera, ie the distal distance. These two quantities are required because the symbol may have a considerable length. The symbol detected in the next image frame approaches the vehicle (video camera) by a distance equal to one image frame time multiplied by the vehicle speed. The symbol extends far beyond the vehicle (e.g., a long arrow) and may therefore continue to be detected in the symbol region of interest. As long as the symbol continues to be detected at the top of the symbol region of interest, the top of the symbol within the symbol region of interest (distal distance) remains the distance from the video camera to the top of the symbol region of interest, while the proximal distance is 1 For each image frame, it is reduced by a distance equal to the amount of one image frame time multiplied by the vehicle speed. When a symbol is no longer detected at the top of the symbol region of interest ROI-C, the distal distance also decreases by a distance equal to the amount of one image frame time multiplied by the vehicle speed for each image frame.

図8において、記号は、時刻t0において、はじめて検出される。記号は、分析エリアである記号関心領域ROI−C中に入るにつれて、より長い長さを現わし、時刻t1においてはじめて、その全長(Ln=L2−L1)を現わす。近位端は、常に車両に近づく。遠位端は、時刻t1において、記号の上端がやっと見えるようになってはじめて、車両に近づくようになる。直線54の傾きは、車両速度に一致する。近位距離と遠位距離との間の行における路面標識断片候補の検出は、全て排除される。 In FIG. 8, the symbol is detected for the first time at time t 0 . Symbol, as it enters the symbol region of interest in the ROI-C is the analysis area, Genwashi a longer length, for the first time at time t 1, reveal its entire length (Ln = L2-L1). The proximal end always approaches the vehicle. The distal end approaches the vehicle only when the top of the symbol is finally visible at time t 1 . The slope of the straight line 54 matches the vehicle speed. All detection of road marking fragment candidates in rows between the proximal and distal distances is eliminated.

カルマンフィルタの予測機能によって、路面標識に近づきすぎたときに、運転者に警告を発する機能を損なうことなく、「偽りの好適な」標識を排除することが、一般に可能になる。カルマン予測は、いくつかの画像フレームにおいて、実際の測定を利用不可能な場合(恐らくは路面標識断片候補の排除によって)でさえ、空白を埋めて、有用な出力信号を生成することができるからである。   The predictive function of the Kalman filter generally makes it possible to eliminate “falsely suitable” signs without compromising the ability to alert the driver when they are too close to the road sign. Because Kalman prediction can fill in the blanks and produce a useful output signal, even if actual measurements are not available in some image frames (possibly by eliminating road marking fragment candidates). is there.

車線境界検出装置6は、さらに、破線タイプ路面標識のダッシュ間のギャップにおける検出を排除してもよい。画像内に見出された路面標識断片候補が、真の路面標識断片として容認されるには、破線タイプ路面標識モデルと一致しなければならない。ダッシュの位置の不確実さが考慮される。破線タイプ路面標識は、間にギャップを挟まれた、短い路面標識セグメント(ダッシュ)を含んでいる。ダッシュ−ギャップパターンの規則性を学習し、その規則性を、ギャップ内に存在する見せかけの路面標識断片を排除するために用いることができる。このプロセスは、車両速度情報に基づいて、複数の画像フレームからのダッシュ−ギャップパターンを互いに重ね合わせ、それによって、ダッシュ−ギャップパターンの学習サイクルを強化するステップを含んでいる。車両速度および予想されるダッシュ位置に基づいて、画像中のギャップ内の画像フィーチャの検出が放棄される。   The lane boundary detection device 6 may further exclude detection in a gap between dashes of a broken line type road surface sign. In order for a road marking fragment candidate found in an image to be accepted as a true road marking fragment, it must match the dashed road marking model. The uncertainty of the dash position is taken into account. Dashed type road markings include short road marking segments (dashes) with a gap in between. The regularity of the dash-gap pattern can be learned and used to eliminate spurious road marking fragments that are present in the gap. The process includes superimposing dash-gap patterns from multiple image frames on the basis of vehicle speed information, thereby enhancing the dash-gap pattern learning cycle. Based on vehicle speed and expected dash position, detection of image features within the gap in the image is abandoned.

放棄プロセスは、1つ先の画像フレームにおいてダッシュおよびギャップが存在するであろう位置を予測し、路面標識断片が存在するであろうと予測された(ある不確実さを許容しながら)位置にある路面標識断片だけを用いることによって遂行される。その結果、形を整えられた破線タイプ路面標識断片候補のセットが形成され、破線タイプ路面標識の真のパターンに、より信頼性をもって組み立てられる。ギャップ中の路面標識断片候補の排除は、一定時間にわたる、ダッシュの周期的な消失と再出によって認定される破線タイプ標識パターンが検出されてはじめて適用される。   The abandonment process predicts where dashes and gaps will be in the next image frame, and is in a position where road marking fragments are expected (while allowing some uncertainty) This is accomplished by using only road marking fragments. As a result, a shaped set of broken-line type road marking fragment candidates is formed and assembled more reliably into the true pattern of broken-line type road markings. The elimination of candidate road marking fragments in the gap is applied only after a dash-type marking pattern identified by periodic disappearance and reappearance of dashes over a period of time is detected.

ダッシュ−ギャップ予測(モデル)の適用の一例が、図9に示されている。画像から入ってくる路面標識構造169(左端に示されている)が、フィルタ171(中央に示されている)に通され、その結果、フィルタ処理された破線タイプ路面標識173(右端に示されている)が生成される。ブロック177は、道路上に見出された実際の破線タイプ路面標識の断片を表わしている。それらのうちのいくつかはノイズであるかもしれない。フィルタ処理プロセスを用いることによって、ダッシュ間のギャップと不確実領域175との両方内にある、画像中の路面標識に似た物体は、画像からの路面標識の構築に用いられない(曲線適合に用いられない)。路面標識の容認に、ある大きさの不確実さを許容しながら、ダッシュ間のギャップ内にある路面標識候補を排除する〔例えばそのような不確実さの程度は、予想される各ダッシュの位置の終端における0.5メートルの領域であってもよく、その領域の内部に見出される(ギャップにはみでない)路面標識断片候補は容認される〕。   An example of application of dash-gap prediction (model) is shown in FIG. The road marking structure 169 (shown at the left end) coming from the image is passed through a filter 171 (shown in the center), resulting in a filtered dashed type road marking 173 (shown at the right end). Is generated). Block 177 represents a fragment of the actual dashed type road sign found on the road. Some of them may be noise. By using the filtering process, objects similar to road markings in the image that are in both the gap between dashes and the uncertainty region 175 are not used to construct road markings from the image (for curve fitting). Not used). Tolerance of road markings, while allowing a certain amount of uncertainty, exclude road marking candidates within the gap between dashes [eg, the degree of such uncertainty is the position of each expected dash A road marking fragment candidate found within the area (not in the gap) is acceptable).

車線境界検出装置6は、さらに、次の画像フレームにおけるROIを予測してもよい。これは、画像内に大きなデフォルトROI(その内部に路面標識を検出する)を用いることによって達成される。大きな領域を用いることによって、車線区分線のように見えるが、そうではない物体を検出することが可能である。ROIのサイズを縮小し、前の検出に基づいて、路面標識が存在すると予想される位置にROIを配置することによって、誤った路面標識検出の発生を減らすことができる。次の画像フレームにおけるROIの位置を予測するために、直前のいくつかの路面標識検出を用いて、次の画像フレームにおける路面標識の測定位置を予測する。これは、カルマンフィルタ処理を用いて行うことができるが、アルファ−ベータフィルタ処理のような、より簡単なスキームを用いてもよい。カルマンフィルタの状態変数は、道路面データに最適適合する放物線の0次、1次、および2次の係数であり、横方向座標yすなわち横方向距離は、次のように表わされる。
横方向座標y = 0次の項 + 1次の項*前方距離 + 2次の項*前方距離*前方距離
The lane boundary detection device 6 may further predict the ROI in the next image frame. This is accomplished by using a large default ROI in the image (detects road markings within it). By using a large area, it is possible to detect objects that look like lane markings but are not. By reducing the size of the ROI and placing the ROI at a location where a road marking is expected to be present based on previous detections, the occurrence of false road marking detection can be reduced. In order to predict the position of the ROI in the next image frame, the measurement position of the road sign in the next image frame is predicted using several previous road sign detections. This can be done using Kalman filtering, but simpler schemes such as alpha-beta filtering may be used. The state variables of the Kalman filter are the 0th, 1st, and 2nd order coefficients of the parabola that best fits the road surface data, and the lateral coordinate y, that is, the lateral distance is expressed as follows.
Horizontal coordinate y = 0th-order term + 1st-order term * forward distance + second-order term * forward distance * forward distance

カルマンフィルタ処理によって、多数の測定値の平滑化、次の画像における路面標識の位置の予測、および予測における不確実さの程度の算定が行われる。ROIの幅は、不確実さの程度に比例した大きさに設定されるが、常に、最小路面標識幅の少なくとも4倍に維持される。ROIが、そのもともとの幅の(1/10)倍に縮小すると、誤った検出の確率が著しく減少し、同時に、計算時間が短くなる。   The Kalman filtering process smoothes a large number of measured values, predicts the position of the road marking in the next image, and calculates the degree of uncertainty in the prediction. The width of the ROI is set to a size proportional to the degree of uncertainty, but is always maintained at least four times the minimum road marking width. If the ROI is reduced to (1/10) times its original width, the probability of false detection is significantly reduced, and at the same time the computation time is shortened.

与えられた画像フレームにおいて、車線区分線または境界の位置のために利用可能な測定値がない場合には、カルマン予測が用いられる。測定値を利用不可能な状態が維持されると、その予測はより不確実になり、そのために、装置は、図10の例に示されているように、ROIの幅を広げる。追跡が打ち切られると、関心領域の幅は広げられ、路面標識の位置の予測の不確実さが増していることを表わす。計算時間に制限されて、また、車線がおよそ6メートルより広くなり得ないために、関心領域の幅は、ある最大値までに制限される。関心領域の長さは調整されない。   If there are no measurements available for a lane marking or boundary location in a given image frame, Kalman prediction is used. If the measurement remains unavailable, the prediction becomes more uncertain, and so the device widens the ROI, as shown in the example of FIG. When tracking is discontinued, the width of the region of interest is increased, representing increased uncertainty in predicting the location of the road marking. Due to the limited calculation time and because the lane cannot be wider than approximately 6 meters, the width of the region of interest is limited to a certain maximum value. The length of the region of interest is not adjusted.

カルマンフィルタの状態変数が道路面内にあるため、予測は、道路面内でなされる。道路上で予測された路面標識位置を、画像位置に変換するために、上述の、道路から画像への幾何学的変換が用いられる。関心領域は、画像3の予測された境界位置に関して対称的に配置される。画像フレームの臨界連続数において、路面標識位置の予測値が、実際の路面標識位置の測定値の代わりに用いられた(装置が「空の測定値状態で」動作した)場合には、装置は、再び、関心領域の幅を最大に戻す。この空状態は、2つの空状態量に関して監視される。その第1のものは、最後の実際の測定値が利用可能であったときから経過した画像フレーム数であり、第2のものは、最後の測定値が利用可能であったときから通過した距離(車両速度と累積画像フレーム時間との積)である。この2つの空状態量のどちらかが臨界値に達したとき、関心領域は、その最大幅にリセットされる。一般的なハイウェーの運転速度を仮定すると、空状態走行の臨界距離の一般的な値は、およそ20メートルである。   Since the state variable of the Kalman filter is in the road surface, the prediction is made in the road surface. The road-to-image geometric transformation described above is used to convert the predicted road marking position on the road into an image position. The region of interest is arranged symmetrically with respect to the predicted boundary position of the image 3. If the predicted value of the road marking position is used in place of the actual road marking position measurement at the critical number of image frames (the device has been operated "in the sky measurement state"), the device Again, return the width of the region of interest to the maximum. This empty state is monitored for two empty state quantities. The first is the number of image frames that have elapsed since the last actual measurement was available, and the second is the distance that has passed since the last measurement was available. (Product of vehicle speed and accumulated image frame time). When either of these two empty state quantities reaches a critical value, the region of interest is reset to its maximum width. Assuming typical highway operating speeds, a typical value for the critical distance for air travel is approximately 20 meters.

カルマンフィルタは、装置が、同一の路面標識を連続して検出しているという十分な確実性がある場合にしか始動されない。これは、連続する一連の画像フレームをチェックし、それらの画像フレームの少なくとも一定のパーセンテージ(通常、60%を超過する)において、路面標識が検出されたことを確認することによって行われる。3つの距離(例えばビデオカメラの前方、およそ6、9、12メートルの位置)におけるデータが、カルマンフィルタに送られる。これらの距離は、Dickmannタイプの標識ファインダ(主として標識数を数えるために用いられる)が配置される位置でもある。容認可能な路面標識が見出された場合には、3つの距離における路面標識の位置が計算され、画像内に3つまでの(行、列)ピクセル位置が生み出される。これらのピクセルが、カルマンフィルタへの入力である。検出された路面標識が、3つの距離の全てをカバーするには短すぎる場合には、3つ未満のピクセル位置しか生成されない。   The Kalman filter is only activated when there is sufficient certainty that the device is continuously detecting the same road marking. This is done by checking a series of consecutive image frames and confirming that road markings have been detected in at least a certain percentage of those image frames (usually over 60%). Data at three distances (eg, in front of the video camera, approximately 6, 9, 12 meters) is sent to the Kalman filter. These distances are also the positions where Dickmann type sign finders (mainly used to count the number of signs) are placed. If an acceptable road sign is found, the position of the road sign at three distances is calculated, producing up to three (row, column) pixel positions in the image. These pixels are the input to the Kalman filter. If the detected road sign is too short to cover all three distances, only less than three pixel locations are generated.

追跡(たどることができる、首尾一貫した路面標識または境界の)の開始を決定するためには、路面標識が、画像中のほぼ予想された位置に、十分頻繁に検出されなければならない。少なくとも1つの位置における検出が確認されると、装置は、その位置における追跡を開始し、カルマンフィルタを始動させる。追跡の第1段階は、通常、例えば15メートルにわたる確認区間における追跡である。この確認区間の最後において有効な追跡として確認されるまで、この追跡は、警告または制御に利用されない。この第1段階において、装置は、最初の検出から予測される軌道内の、画像中の道路領域を調べる。装置は、検出された3つのピクセル位置の各々におけるさらなる検出を記憶する。この確認区間の通過中に、装置は、検出された3つのピクセル位置の各々における最少検出数を記憶する。この最少検出数は、通常、現在の車両速度で、3メートルの長さの路面標識を通り過ぎるときに観測される検出数である。   In order to determine the start of tracking (coherent road markings or boundaries that can be traced), the road markings must be detected frequently enough at approximately the expected position in the image. If the detection at at least one position is confirmed, the device starts tracking at that position and activates the Kalman filter. The first stage of tracking is usually tracking in a confirmation zone, for example over 15 meters. This tracking is not used for warning or control until it is confirmed as a valid tracking at the end of this verification interval. In this first stage, the device examines the road area in the image in the trajectory predicted from the first detection. The device stores further detection at each of the three detected pixel locations. During this verification interval, the device stores the minimum number of detections at each of the three detected pixel positions. This minimum number of detections is usually the number of detections observed when passing a 3 meter long road marking at the current vehicle speed.

確認区間の通過中、路面標識位置は、車両の外縁の外側にとどまっていなければならない。追跡の確認区間の最後において、前述の条件の両方ともが満たされており(すなわち、路面標識は十分頻繁に、かつ連続する複数の画像フレームにおいて予想された位置に検出されており)、空状態量(距離および時間の)が臨界値を超過してしない場合には、装置は路面標識を追跡し続け、その路面標識に対する警告/支援の起動が有効にされる。空状態量のうちの1つが大きすぎる場合には、装置は、路面標識を追跡し続けることを中止し、その路面標識に対する探索モードに戻る。   While passing through the confirmation zone, the road marking position must remain outside the outer edge of the vehicle. At the end of the tracking interval, both of the above conditions are met (ie, the road marking is detected frequently enough and at the expected position in successive image frames) and is empty If the quantity (distance and time) does not exceed the critical value, the device continues to track the road marking and the warning / assistance activation for that road marking is enabled. If one of the empty state quantities is too large, the device stops tracking the road marking and returns to the search mode for that road marking.

路面標識の追跡中、装置は、最新の走行区間における各位置での検出の履歴を保存する。履歴が保存される走行区間の長さは、通常、18メートルである。各画像フレーム時間において、画像フレーム内に検出がなかったとき、または、履歴間隔内の前述の3つのピクセル位置の全てにおける検出の合計が、ある限界値未満であったときには、その追跡において路面標識は見出されなかったと見なされ、空区間がインクリメントされる。空区間がある閾値を超過した場合には、装置は、この路面標識を追跡し続けることを中止し、その路面標識に対する探索モードに戻る。   During tracking of road markings, the device stores a history of detection at each position in the latest travel section. The length of the travel section in which the history is stored is usually 18 meters. At each image frame time, when there is no detection in the image frame, or when the sum of the detections in all three pixel positions within the history interval is less than a certain threshold value, the road markings in the tracking Is not found and the empty interval is incremented. If the empty section exceeds a certain threshold, the device stops tracking this road marking and returns to the search mode for that road marking.

したがって、カルマンフィルタを用いることによって、路面標識を探すべき画像内の位置を予測することができ、必要な画像評価領域の大きさを算出することができ、平滑化された出力信号が与えられ、未加工の入力信号を最大限に活用するための十分な特性を備えた、恐らく最適なメカニズムが与えられる。   Therefore, by using the Kalman filter, it is possible to predict the position in the image where the road surface marker should be searched, calculate the size of the required image evaluation area, and provide a smoothed output signal. Probably the optimal mechanism is provided with sufficient characteristics to make the best use of the machining input signal.

車線区分線または道路境界を見出すことを困難にし得る多くの状況が存在する。車線境界検出装置6は、そのような困難な状況を感知し、そのような状況における装置性能を向上させる。道路画像中のクラッタは、多すぎる画像フィーチャ信号の検出をもたらす。特に、それらの信号のうちの2つが非常に類似している(例えば、強度がほぼ等しい、存在すると予測される場所が近接している、特性が類似している、など)場合には、正しい1つの信号の選択が困難になる場合がある。信号が急にあまりにも弱くなって、たどることができなくなったときに、第2の困難が生じる場合がある。特殊な第3の困難は、路面標識断片であるように見えて、路面標識を検出する際の考察から外されるべき降雪である。道路からの反射光は、道路上の長く白い筋のように見えるから、第4の困難は、路面標識のように見える、道路からの反射光である。そのために、そのような反射光を識別して、路面標識を検出する際の考察から、反射光を外さなければならない。   There are many situations that can make it difficult to find lane markings or road boundaries. The lane boundary detection device 6 senses such a difficult situation and improves the device performance in such a situation. Clutter in the road image results in the detection of too many image feature signals. In particular, if two of those signals are very similar (eg, the intensity is approximately equal, the places where they are expected to be close are close, the characteristics are similar, etc.) It may be difficult to select one signal. A second difficulty may arise when the signal suddenly becomes too weak to follow. A special third difficulty is snowfall that appears to be road marking fragments and should be removed from consideration when detecting road markings. Since the reflected light from the road looks like long white streaks on the road, the fourth difficulty is the reflected light from the road that looks like road markings. Therefore, it is necessary to identify such reflected light and exclude the reflected light from consideration when detecting a road surface sign.

クラッタを含む画像を処理するために、クラッタ検出プロセスは、図11に示されているように、近位検出位置と遠位検出位置(それぞれ画像の底と頂)とのほぼ中間位置に、画像幅のほぼ全体をカバーする特別の関心領域、すなわちクラッタ検出関心領域ROI−CDを配置するステップを含んでいる。各画像フレームにおける現在の路面標識の位置、および存在するかもしれないさらなる路面標識の位置を得るために、クラッタ検出関心領域ROI−CDからのデータが、Dickmannタイプの標識ファインダに供給される。そのような出力は、クラッタ(混乱を招く信号)、および、切り換えるべき、より近接して交互に並んでいる、持続性のあるトラック(標識断片)の検出に用いられる。このようなさらなる路面標識(クラッタ)は、装置に混乱をもたらす場合がある。それらのうちのほとんどは、位置を変更した(特に断続的に)ときに、明確な信号、すなわち、たどるべきトラックを形成することができない。その一例は、まれにしか存在しない(信憑性のある検出信号を与えるほどに十分に持続的でない)標識断片、または無秩序に存在する(首尾一貫した検出信号を与えるほどに互いに十分に近接していない)標識断片である。   In order to process an image containing clutter, the clutter detection process is performed at approximately the middle position between the proximal detection position and the distal detection position (bottom and top of the image, respectively), as shown in FIG. It includes the step of placing a special region of interest covering almost the entire width, ie the clutter detection region of interest ROI-CD. Data from the clutter detection region of interest ROI-CD is fed into a Dickmann type sign finder in order to obtain the position of the current road sign in each image frame and the position of further road signs that may be present. Such outputs are used to detect clutter (confusing signals) and persistent tracks (marked fragments) that are more closely interleaved to be switched. Such additional road markings (clutter) can cause confusion to the device. Most of them are unable to form a clear signal, i.e. a track to follow, when they change position (especially intermittently). Examples are labeled fragments that are rarely present (not long enough to give a credible detection signal), or randomly present (close enough to each other to give a consistent detection signal). No) is a labeled fragment.

そのために、車線境界検出装置6は、クラッタ検出関心領域ROI−CDからの検出信号をチェックし、クラッタの検出中に、次の3つのクラッタ量、すなわち、存在しているが現在は追跡されていない、追跡を混乱させる恐れのある標識検出信号の数、検出信号のタイミング周波数(例えば時々存在するが、有効なトラックを形成するのには断続的すぎる、またはまれにしか生じない、など)、および検出信号を発生させる画像フィーチャの位置の変動(大きな変動は、有効なトラックの形成にとって妨害になる)のうちの少なくとも1つを算出する。車線境界検出装置6のクラッタ検出機能によって、装置を混乱させる恐れがある、そのような信号の存在が探し出され、混乱したがって追跡ミスを生じさせ得る全ての検出が排除される。上述のクラッタ量の算出に基づいて、車線境界検出装置6は、標識検出信号の次のタイプの処理のうちの少なくとも1つを実行する。
クラッタ検出信号が存在しない場合の、追跡すべき信号の検出。
有効なトラックを与えないクラッタ検出信号が存在する場合の、追跡すべき信号の検出。
有効なトラックを形成する、他の検出信号が存在するが、その有効なトラックは、現在のトラックほど、横方向にビデオカメラに近くない(装置が警告起動のスイッチを入れてはいけない代替トラックである)場合の、追跡すべき信号の検出。
有効なトラックを形成する、他の検出信号が存在しており、その有効なトラックは、現在のトラックより、横方向にビデオカメラに近い(装置が警告起動のスイッチを入れるべき代替トラックである)場合の、追跡すべき信号の検出。
For this purpose, the lane boundary detection device 6 checks the detection signal from the clutter detection region of interest ROI-CD, and during the detection of the clutter, the following three clutter quantities, that is, are presently being tracked. No, the number of beacon detection signals that may disrupt tracking, the timing frequency of the detection signals (e.g., sometimes present but too intermittent or infrequent to form a valid track, etc.), And at least one of the image feature position variations that generate the detection signal (large variations interfere with the formation of a valid track). The clutter detection function of the lane boundary detection device 6 looks for the presence of such signals that can disrupt the device, and eliminates all detections that could cause confusion and thus mistracking. Based on the clutter amount calculation described above, the lane boundary detection device 6 executes at least one of the following types of processing of the sign detection signal.
Detection of a signal to be tracked when no clutter detection signal is present.
Detection of a signal to be tracked when there is a clutter detection signal that does not give a valid track.
There are other detection signals that form a valid track, but the valid track is not as close to the camcorder as the current track (the alternate track on which the device must not switch on the warning Detection of the signal to be tracked, if any).
There is another detection signal that forms a valid track, which is closer to the video camera laterally than the current track (the device is an alternative track on which the warning should be switched on) Detection of signals to be tracked.

さらに、車線境界検出装置6の追跡機能によって、暗い影のように、画像の信号強度が急激に低下するかもしれない状況を検出し、別の、真正ではない信号を、代わりに用いることができる。例えば車線境界検出装置6は、特に暗い画像エリア(暗い区画)を、そのような画像エリアの輝度ヒストグラムを用いてチェックし、連続する複数の画像フレームにおいて、そのような暗い区画が車両速度で接近してきており、それは、その暗い区画が道路上の静止エリアであることを表わしていることを究明する。車両が、そのような暗い静止エリア(例えば静止している影)内に入る前に、車線境界検出装置6は、路面標識画像フィーチャ(検出信号)の一時的な消失または低下を補償する。そして、車両が、そのような暗い静止エリア内に入ると、車線境界検出装置6は、補償すべき検出信号が突然になくなるときを予測するために、対応する暗い画像区画のサイズが、いつ小さくなるかをチェックする。これによって、車線逸脱検出装置9は、暗い場所への入出に伴う、警告/支援の誤った起動を回避することができる。   In addition, the tracking function of the lane boundary detection device 6 can detect situations where the signal strength of the image may drop sharply, such as dark shadows, and another, non-authentic signal can be used instead. . For example, the lane boundary detection device 6 checks a particularly dark image area (dark section) using a luminance histogram of such an image area, and such a dark section approaches at a vehicle speed in a plurality of consecutive image frames. And that it reveals that the dark section represents a static area on the road. Before the vehicle enters such a dark stationary area (eg, a stationary shadow), the lane boundary detection device 6 compensates for the temporary disappearance or degradation of road marking image features (detection signals). When the vehicle enters such a dark still area, the lane boundary detection device 6 predicts when the detection signal to be compensated suddenly disappears, so that the size of the corresponding dark image section is small. Check if it becomes. Thereby, the lane departure detection device 9 can avoid an erroneous activation of warning / support accompanying entering / exiting a dark place.

暗い場所内にいるときに、誤った検出の可能性を減らすために、追跡窓(関心領域)は、相対的に狭く作られ、新しい追跡を開始することはできない。暗い画像区画の処理は、さらに、画像解像度に関するビデオカメラ(イメージャ)のタイプに依存する。暗い領域のコントラストを解像することができる、高ダイナミックレンジのビデオカメラでは、車線境界検出装置6は、相対的に高い解像度で、暗い影を処理することができる。暗い領域は何であるかを正確に特定するために、レンズ−イメージャ−車両照明装置のパラメタリゼーションを利用してもよい。   To reduce the possibility of false detection when in a dark place, the tracking window (region of interest) is made relatively narrow and a new tracking cannot be started. The processing of dark image sections is further dependent on the type of video camera (imager) with respect to image resolution. In a high dynamic range video camera capable of resolving contrast in dark areas, the lane boundary detection device 6 can process dark shadows with relatively high resolution. In order to pinpoint exactly what the dark areas are, lens-imager-vehicle lighting parameterization may be used.

雪などの落下物が情景内に存在する場合には、そのような落下物に対応する画像フィーチャは、車線境界検出装置6および車線逸脱検出装置9による考察から外さなければならない。例えば降雪が、十分に低い温度でのみ生じる場合には、それを測定することができる。路面標識断片に似ているように見える白いフレークである降雪は、断続的標識断片検出信号を発生させる場合がある。それは、連結性分析で判定することができる。低温が検出された場合には、特に断続性が持続していると、装置は、互いにつながらないこれらの偽りの「路面標識断片」を排除することができる。   When falling objects such as snow are present in the scene, image features corresponding to such falling objects must be excluded from consideration by the lane boundary detection device 6 and the lane departure detection device 9. For example, if snowfall occurs only at a sufficiently low temperature, it can be measured. Snowfall, which is white flakes that look like road marking fragments, may generate intermittent sign fragment detection signals. It can be determined by connectivity analysis. If low temperatures are detected, especially if intermittentness persists, the device can eliminate these false “road marking fragments” that do not connect to each other.

図12には、路面標識断片候補の画像フィーチャ7S(「+」記号)のうちの真の路面標識断片の画像フィーチャは、路面標識(破線タイプまたは実線タイプの)画像フィーチャ7L、7Rの近傍に密集しており、そうでない画像フィーチャは、路面標識画像フィーチャ7L、7Rと互いに分離している一例が示されている。車線境界検出装置6は、路面標識断片検出信号から、路面標識断片候補として識別されたが、実際には降雪片である可能性が高い、孤立したピクセルを排除するように機能する。したがって、検出の精度を向上させるために、破線タイプ路面標識と、実線タイプ路面標識とを適切に識別することが好ましい。   In FIG. 12, the image feature of the true road marking fragment among the image features 7S (“+” sign) of the road marking fragment candidate is in the vicinity of the road marking (broken line type or solid line type) image features 7L and 7R. An example is shown where the image features that are dense and not are separated from the road marking image features 7L, 7R. The lane boundary detection device 6 functions to eliminate an isolated pixel that is identified as a road marking fragment candidate from the road marking fragment detection signal, but is actually likely to be a snowfall piece. Therefore, in order to improve the detection accuracy, it is preferable to appropriately identify the broken line type road surface sign and the solid line type road surface sign.

図13のコントローラ5の実施形態では、車線境界検出装置6は、道路面からの反射光像(符号19は、反射光像候補のピクセル輝度パターンを示している)を表わす画像フィーチャを、路面標識検出における考察から外す反射光像検出装置6bを備えている(図13は、さらに、街灯14、およびビデオカメラ1を搭載している車両2の前方の道路4上の別の車両7を示している)。上述のように、明るく、路面標識に似た垂直の筋のように見える反射光像は、車線区分線検出装置を混乱させる場合がある。反射光像検出装置6bは、画像3中の、高コントラストで横方向に暗−明−暗と遷移する、垂直に延びるピクセル輝度パターン19を、反射光像候補としてチェックする。反射光像検出装置6bは、さらに、これらの高コントラストのピクセル輝度パターン19の長さおよび幅をチェックし、広すぎるか、または短すぎるピクセル輝度パターンを排除する。反射光像検出装置6bは、路面標識検出分析に用いるべきではない画像部分(例えばピクセル輝度パターン19)を識別する。反射光像はほぼ垂直であるから、これらの画像部分を、その列位置のみで記憶することが好都合である場合もあるが、反射光像候補とされた単独のピクセルが無視される可能性もある。あるいは、この反射光像検出装置6bを応用し、道路上の記号を表わす画像フィーチャを検出してこれを画像解析し、予め設定した警告を表す特定の記号や文字であることを認識した場合は、音声により該標識の存在を運転手に知らせるよう構成されていてもよい。   In the embodiment of the controller 5 in FIG. 13, the lane boundary detection device 6 displays an image feature representing a reflected light image from the road surface (reference numeral 19 indicates a pixel luminance pattern of the reflected light image candidate) as a road sign. The apparatus includes a reflected light image detection device 6b that is excluded from consideration in detection (FIG. 13 further shows a street lamp 14 and another vehicle 7 on the road 4 in front of the vehicle 2 on which the video camera 1 is mounted. ) As described above, a reflected light image that looks bright and looks like a vertical streak similar to a road marking may confuse the lane marking detection device. The reflected light image detection device 6b checks, as a reflected light image candidate, a pixel luminance pattern 19 extending vertically in the image 3 that transitions from dark to bright to dark in the horizontal direction with high contrast. The reflected light image detection device 6b further checks the length and width of these high-contrast pixel luminance patterns 19 and eliminates pixel luminance patterns that are too wide or too short. The reflected light image detection device 6b identifies an image portion (for example, the pixel luminance pattern 19) that should not be used for road marking detection analysis. Since the reflected light image is nearly vertical, it may be convenient to store these image portions only at their column positions, but it is possible that a single pixel that is a candidate for the reflected light image is ignored. is there. Alternatively, when this reflected light image detection device 6b is applied, an image feature representing a symbol on the road is detected and image analysis is performed, and a specific symbol or character representing a preset warning is recognized. The driver may be configured to notify the driver of the presence of the sign by voice.

コントローラ5(車線境界検出装置6および車線逸脱検出装置9)は、さらに、1つの画像フレーム中に2つ以上の路面標識が検出されているような場合に、新しいか、または、より適切な路面標識が追跡されている(たどられている)か否かを判断する。例えば、ある路面標識が、現在追跡されている路面標識より頻繁に検出される場合には、コントローラ5は、どちらの路面標識を追跡すべきかを決定する。一般的に言うと、ビデオカメラに対して最も内側の(最も近接した)路面標識が、走行している車線を画定している路面標識である。コントローラ5が、現在追跡している路面標識より近接した路面標識を検出した場合には、コントローラ5は、そのより近接した路面標識の追跡に切り換えることができる。例えば現在追跡している、より古く、消えていく路面標識から切り換えるための新しい路面標識が加えられているときなどにも、異なる路面標識の追跡への切り換えが必要になる。   The controller 5 (the lane boundary detection device 6 and the lane departure detection device 9) is further adapted to a new or more appropriate road surface when two or more road surface signs are detected in one image frame. Determine if the sign is being tracked (followed). For example, if a road sign is detected more frequently than the currently tracked road sign, the controller 5 determines which road sign to track. Generally speaking, the innermost (closest) road marking to the video camera is the road marking that defines the lane in which it is traveling. If the controller 5 detects a road sign closer to the currently tracked road sign, the controller 5 can switch to tracking the road sign closer to it. For example, when a new road sign is being added to switch from an older and disappearing road sign that is currently being tracked, it is necessary to switch to tracking a different road sign.

一例において、次の条件、すなわち、コントローラ5は、現在、路面標識をたどっていること、クラッタを含む検出信号は最小であること、新しい路面標識が、十分多くの画像フレームにおいて検出されていること、ROIが、複数の路面標識を含んでいなくても、複数の路面標識を含んでいても、新しい路面標識が、ビデオカメラに、より近接していること、新しい路面標識が、少なくとも一定の走行距離(例えば15メートル)において検出されているか、または、現存の路面標識が、その一定の走行距離において検出されていないこと、新しい路面標識が、その一定の走行距離全体にわたって、現存の路面標識より頻繁に検出されていること、新しい路面標識は、ビデオカメラに近づきすぎていない(誤った警告が発せられないように)こと、新しい路面標識に対応する車線の幅は妥当であることという条件の全てが存在するときに、コントローラ5は、現存(現在)の路面標識の追跡から、新しい路面標識の追跡に切り換える。これらの条件(または他の条件)のいくつかの組み合わせを含む、他の追跡切り替え例も可能である。   In one example, the following conditions: controller 5 is currently following a road sign, detection signal containing clutter is minimal, and a new road sign has been detected in a sufficiently large number of image frames. Whether the ROI does not include multiple road markings or multiple road markings, the new road marking is closer to the video camera and the new road marking is at least constant That it is detected at a mileage (for example 15 meters) or that an existing road sign is not detected at that constant mileage, that a new road sign is present over the constant mileage More frequently detected, new road signs are not too close to the video camera (to avoid false warnings) It, when all conditions are present in that the width of the lane that corresponds to the new road markings is reasonable, the controller 5, the track road marking existing (current), switch to tracking a new road marking. Other tracking switching examples are possible, including some combination of these conditions (or other conditions).

さらに、新しい路面標識であるように見えているものが、実際には、ノイズの多い現在の路面標識であるということもあり得る。前述のように、路面標識が、ノイズの多いものであったり、見当たらなくなっていたりする場合には、次の画像フレームにおける路面標識の予測される位置に、大きな不確実さが生じることがある。この不確実領域は、容認領域またはゲートと呼ばれる。図14A、図14Bは、連続する画像フレームにおいて検出される路面標識を追跡する2つの例を示している。図14Aの第1の例は、ノイズの少ないトラックにおける検出信号(路面標識候補のピクセルpに対応する)を表わしている。ゲート60(1つの画像フレームに対して1つのゲート)のサイズは相対的に小さく、実測値は予測値に近い。図14Bの第2の例は、ノイズの多いトラックにおける検出信号を表わしている。ゲートのサイズは相対的に大きく、測定値は、最初の2つの画像フレームにおいて、ゲート60内にあるだけである(3つの画像フレームにおける実測値は、予測値を中心としたゲート60aの外部にある)。測定値が、一貫してゲートの外部にある場合には、新しいトラックが開始していることがあり、上記の切り替えが行われる場合がある。測定値がゲートの外部に存在する、または路面標識(測定値)が存在しないという不満足な状況は、測定値に替えて予測値を用いて処理される。   Furthermore, what appears to be a new road sign may actually be the current noisy road sign. As described above, when a road sign is noisy or missing, a large uncertainty may occur at the predicted position of the road sign in the next image frame. This uncertainty region is called the acceptance region or gate. 14A and 14B show two examples of tracking road markings detected in successive image frames. The first example of FIG. 14A represents a detection signal (corresponding to a road marking candidate pixel p) in a track with little noise. The size of the gate 60 (one gate for one image frame) is relatively small, and the measured value is close to the predicted value. The second example of FIG. 14B represents a detection signal in a noisy track. The size of the gate is relatively large and the measured value is only in the gate 60 in the first two image frames (the measured values in the three image frames are outside the gate 60a centered on the predicted value). is there). If the measurements are consistently outside the gate, a new track may have started and the above switching may occur. The unsatisfactory situation where the measured value exists outside the gate or the road marking (measured value) does not exist is handled using the predicted value instead of the measured value.

車線逸脱検出装置9は、さらに、路面標識を越えること(または交差すること)によって、特定の重大な結果がもたらされる場合を規定する。その結果は、いくつかの場合において、他の場合より重大になる。一例において、路面標識を越えることが重大性をもつかどうかを決めるために3つのパラメータが用いられる。道路画像から検出される、それらのパラメータには、路面標識の数、路面標識のタイプ、および路面標識の外側に見えるものの分類が含まれる。交差してはいけないことを意味している路面標識(例えば二重で、実線で、恐らく黄色の線)には、単一の破線タイプ標識と交差する場合より強い警告を発するように規定してもよい。画像中の路面標識の外側の、複数の垂直のエッジを含んでいるエリアへの進入に対しては、より強い警告を発するように規定してもよい。3つのパラメータに応じて、運転者に与えられる警告または支援は変更される。   The lane departure detection device 9 further defines when crossing the road marking (or crossing) will yield certain serious consequences. The result is more severe in some cases than others. In one example, three parameters are used to determine if crossing the road marking is critical. Those parameters detected from the road image include the number of road markings, the type of road markings, and the classification of what appears outside the road markings. A road sign (for example, double, solid, perhaps yellow) that means you must not cross should be stipulated to give a stronger warning than crossing a single dashed type sign. Also good. A stronger warning may be issued for entry into an area that includes a plurality of vertical edges outside the road marking in the image. Depending on the three parameters, the warning or assistance given to the driver is changed.

単一の画像フレームにおいて路面標識長を検出することによって、路面標識のタイプを特定してもよい。路面標識長は、路面標識のタイプを決定する基本量である。実線タイプ路面標識は、一般に長い。一方、破線タイプ路面標識のダッシュは、より短い長さを有する。さらに、ボッツドッツは、非常に短い。アセンブリプロセス(路面標識断片を適合直線または適合曲線でつなぐ)を用いて、路面標識を見出すことができる。路面標識は、ギャップ(例えば路面標識断片が存在しない場所)を挟まれることもある、ほとんどつながっている断片を有する。ほとんどつながっている断片を検出し、最小の長さを用いてギャップを記述することによって、そのようなアセンブリの、ビデオカメラからの最近位距離および最遠位距離を特定することができる。   The type of road marking may be identified by detecting the road marking length in a single image frame. The road marking length is a basic quantity that determines the type of road marking. Solid line type road markings are generally long. On the other hand, the dash of the broken line type road marking has a shorter length. Furthermore, botsdots are very short. An assembly process (connecting road marking fragments with matching straight lines or curves) can be used to find road markings. Road markings have fragments that are almost connected, which can be pinched by gaps (eg where there are no road marking fragments). By detecting the almost connected fragments and describing the gap with the smallest length, the closest and farthest distance from the video camera of such an assembly can be determined.

破線タイプ路面標識のダッシュ間のギャップは、例えば少なくとも2メートルの長さを有する。実線タイプ路面標識のギャップ(欠落部)は、通常、より短く、最大でも例えば約0.5メートルにおよぶ程度である。ギャップは、路面標識の形成に寄与する路面標識断片が存在しない1つ以上の行から成っている。画像3の各行は、上述の幾何学的変換を用いて、ビデオカメラの幾何学的配置情報(据え付け高さ、ピッチ角など)から計算することができる、道路4のある長さすなわち区分域をカバーしている。一例として、図15に示すように、路面標識を形成するために用いられた路面標識断片を含む行のリストを調べることによって、路面標識長を見出すことができる。路面標識を形成している個々のピクセル区分域を合計することによって、路面標識長が測定される。例えば0.5メートルまでのギャップは看過される。より長いギャップは、いずれも路面標識間のギャップである。   The gap between the dashes of the broken line type road marking has a length of at least 2 meters, for example. The gap (missing part) of solid line type road markings is usually shorter and is at most about 0.5 meters, for example. A gap consists of one or more rows in which there are no road marking fragments that contribute to the formation of road markings. Each row of image 3 represents a certain length or section of road 4 that can be calculated from the video camera's geometry information (installation height, pitch angle, etc.) using the geometric transformation described above. Covering. As an example, as shown in FIG. 15, the length of the road marking can be found by examining a list of rows containing road marking fragments used to form the road marking. The road marking length is measured by summing the individual pixel zones forming the road marking. For example, gaps up to 0.5 meters are overlooked. Any longer gaps are gaps between road markings.

図15は、A、B、C、E、F、H、I、J、K、Oと表示された、一連の行を示している。直接に隣接している行A、B、Cは、それらの内部に、路面標識断片を有している。次の行である行Dは、路面標識断片を有していない(ギャップである)。路面標識断片を有している行E、Fが、それに続いている。次いで、行Gで、別のギャップが続いている。最後に、行H、I、J、Kは、路面標識断片を有しており、行Oで、次の路面標識断片が続いている。   FIG. 15 shows a series of rows labeled A, B, C, E, F, H, I, J, K, and O. The directly adjacent rows A, B, C have road marking fragments inside them. The next row, row D, has no road marking fragment (a gap). This is followed by rows E and F with road marking fragments. Then, in line G, another gap follows. Finally, rows H, I, J, and K have road marking fragments, and in row O, the next road marking fragment continues.

路面標識断片を欠いている行D、G、L、M、Nは、それらの行の各ピクセルがカバーしている(対応している)道路の長さに関して調べられる。例えば行Dは0.2メートルをカバーしており、行Gは0.4メートルをカバーしており、行L、M、Nは合わせて1.9メートルをカバーしている。行Dおよび行Gの長さは、臨界最大ギャップ値0.5メートル未満であるが、行L、M、Nを合わせた長さは、臨界最大ギャップ値0.5メートルを超過している。したがって、路面標識は、行Aの下端から行Kの上端まで延在しており、その長さは、行A〜Kがカバーしている道路上の各区分域の和で与えられる。0.5メートルの臨界最大ギャップ値より短い行DおよびGは、それらの隣の行とつなげられて、路面標識に組み入れられる。路面標識断片の存在を検出するために、関心領域の全ての行が処理され、路面標識長(および始点と終点)を見出すために、上記のステップが適用される。   Rows D, G, L, M, N lacking road marking fragments are examined for the length of the road covered by (corresponding to) each pixel of those rows. For example, row D covers 0.2 meters, row G covers 0.4 meters, and rows L, M, and N together cover 1.9 meters. The length of row D and row G is less than the critical maximum gap value of 0.5 meters, but the combined length of rows L, M, and N exceeds the critical maximum gap value of 0.5 meters. Therefore, the road surface sign extends from the lower end of the row A to the upper end of the row K, and the length is given by the sum of the respective divided areas on the road covered by the rows A to K. Rows D and G that are shorter than the critical maximum gap value of 0.5 meters are connected to their neighboring rows and incorporated into the road marking. In order to detect the presence of road marking fragments, all rows of the region of interest are processed and the above steps are applied to find the road marking length (and start and end points).

路面標識長が測定されてしまえば、車線境界検出装置6のクラシファイア機能によって、測定したばかりの路面標識のタイプが特定される。このクラシファイアは、その入力として路面標識長をとり、出力として路面標識タイプを発生させるルールに則っている。例えば4つの路面標識タイプ、すなわち、タイプ0=路面標識なし、タイプ1=ボッツドッツ、タイプ2=破線タイプ路面標識、タイプ3=実線タイプ路面標識があり得る。路面標識タイプの分類ルールの一例は、次のものを含んでいてもよい。
路面標識長=0メートルであれば、路面標識タイプ=タイプ0。
0メートル<路面標識長≦0.5メートルであれば、路面標識タイプ=タイプ1。
0.5メートル<路面標識長≦3メートルであれば、路面標識タイプ=タイプ2。
3メートル<路面標識長であれば、路面標識タイプ=タイプ3。
Once the road marking length is measured, the type of road marking just measured is specified by the classifier function of the lane boundary detection device 6. This classifier follows a rule that takes a road sign length as its input and generates a road sign type as an output. For example, there can be four road marking types: type 0 = no road marking, type 1 = bottsdots, type 2 = dashed type road marking, type 3 = solid type road marking. An example of a road marking type classification rule may include the following.
If road marking length = 0 meters, road marking type = type 0.
If 0 meter <road marking length ≦ 0.5 meters, road marking type = type 1.
If 0.5 meters <road marking length ≤ 3 meters, road marking type = type 2.
If 3 meters <road marking length, road marking type = type 3.

路面標識が、ROI内で完全に見えるわけではなく、実際の長さより短く見えるかもしれないために、路面標識タイプのこれらの分類はあいまいになる場合がある。このために、走行の最後の、例えば20メートルの間に得られる路面標識タイプの分類にフィルタ処理プロセスが適用され、路面標識タイプの最大値が選択され、単一画像フレームにおける最終的な路面標識タイプの分類が与えられる。例えば実線タイプ路面標識分類(すなわち路面標識タイプ=タイプ3)が、最後の20メートルにおいて、1回しか検出されなかったとしても、その路面標識タイプは、実線タイプ路面標識として分類される。図16は、単一画像フレームにおける路面標識長測定のプロセス70の一例を示している。プロセス70は、次のステップを含んでいる。
ステップ71:ROI内の全ての路面標識断片を見出す。
ステップ72:路面標識断片が存在する全ての行のリストを作成する。
ステップ73:例えば0.5メートル未満の長さのギャップを看過して、最も長くつながっているセクションを見出す。
ステップ74:最長のセクションの近位端および遠位端を得る。
ステップ75:遠位端の位置と近位端の位置との間の差として、路面標識長を計算する。
ステップ76:路面標識長を用いて、例えば4つのタイプ、すなわち、タイプ0=路面標識なし、タイプ1=ボッツドッツ、タイプ2=破線タイプ路面標識、タイプ3=実線タイプ(連続)路面標識に、路面標識タイプを分類する。
ステップ77:最終的な路面標識タイプを得るために、走行の最後の例えば20メートルの間に見出された路面標識タイプ(0、1、2、3)のうちの最大値のものを選出する。
These classifications of road marking types may be ambiguous because road markings may not appear completely within the ROI and may appear shorter than their actual length. For this purpose, a filtering process is applied to the classification of the road marking type obtained at the end of the run, for example during 20 meters, the maximum value of the road marking type is selected and the final road marking in a single image frame. A classification of the type is given. For example, even if a solid line type road marking classification (ie road marking type = type 3) is detected only once in the last 20 meters, the road marking type is classified as a solid line type road marking. FIG. 16 shows an example of a process 70 for measuring road marking length in a single image frame. Process 70 includes the following steps.
Step 71: Find all road marking fragments in the ROI.
Step 72: Create a list of all rows where road marking fragments are present.
Step 73: Overlook gaps with a length of less than 0.5 meters, for example, and find the longest connected section.
Step 74: Obtain the proximal and distal ends of the longest section.
Step 75: Calculate the road marking length as the difference between the distal end position and the proximal end position.
Step 76: Using the road marking length, for example, four types, ie, type 0 = no road marking, type 1 = botsdots, type 2 = dashed type road marking, type 3 = solid type (continuous) road marking, road surface Classify the indicator type.
Step 77: To obtain the final road marking type, the largest of the road marking types (0, 1, 2, 3) found during the last 20 meters of the run is selected. .

路面標識タイプの一代替特定方法は、一定の時間内に、どのくらいの頻度で路面標識断片が検出されるかを特定する方法である。通常の大きさの関心領域ROI−L、ROI−Rのいずれかが、より小さな関心領域に分割され、この分割された関心領域で路面標識断片検出が行われる。一例において、路面標識断片の低頻度の検出(〜1%)はボッツドッツに伴うものであり、より高頻度の検出(15%)は破線タイプ路面標識に伴うものであり、より一層高頻度の検出(60%)は実線タイプ路面標識に伴うものである。   An alternative identification method of the road marking type is a method of identifying how often a road marking fragment is detected within a certain time. One of the regions of interest ROI-L and ROI-R having a normal size is divided into smaller regions of interest, and road marking fragment detection is performed in the divided regions of interest. In one example, infrequent detection (˜1%) of road marking fragments is associated with botsdots, and more frequent detection (15%) is associated with dashed type road markings, even more frequent detection. (60%) is associated with the solid line type road marking.

複数の路面標識は、一般に、破線タイプ路面標識と実線タイプ路面標識との組み合わせである。そのような組み合わせは、図17の例に示されているように、複数の行からのピクセル値を合計し、合計することによってノイズが減少して、強化された検出信号を用いて路面標識を検出する、Dickmannタイプの標識ファインダによって検出することができる。合計されたピクセル値は処理され、閾値(例えば1〜255の範囲にあり、6〜24の範囲にあることが好ましい)を超過する大きさを有する輝度勾配が特定される。次に、勾配のピーク(最大勾配)およびバレー(最小勾配)が特定され、ピークと、それに隣接するバレーとの位置が調べられて、それらの間の間隔が求められる。間隔が、行に対して許容されている最小間隔値と最大間隔値との間〔例えばセンチメートルで測って1〜100cmの間であり、7〜70cmの間であることが好ましい(このセンチメートルで測ったサイズは使用の前にピクセル数に変換される)〕にあるときには、そのピークとバレーは、路面標識を表わしているとして、1対化される(ピーク−バレー対すなわちP−V対、図17参照)。したがって、1対化された、勾配のピーク−バレーの数は、画像3のROI内に存在する路面標識の数である。   The plurality of road markings is generally a combination of a broken line type road marking and a solid line type road marking. Such a combination, as shown in the example of FIG. 17, sums pixel values from multiple rows and reduces the noise by summing and using the enhanced detection signal to It can be detected by a Dickmann type marker finder. The summed pixel values are processed to identify a luminance gradient having a magnitude that exceeds a threshold (eg, in the range of 1 to 255, preferably in the range of 6 to 24). Next, gradient peaks (maximum gradient) and valleys (minimum gradient) are identified, and the location of the peak and its adjacent valley is examined to determine the spacing between them. The spacing is between the minimum and maximum spacing values allowed for a row [eg between 1 and 100 cm, measured in centimeters, preferably between 7 and 70 cm (this centimeter Is converted to the number of pixels before use)), the peaks and valleys are paired as representing road markings (peak-valley pairs or PV pairs). FIG. 17). Therefore, the number of paired gradient peak-valleys is the number of road markings present in the ROI of image 3.

複数のDickmannタイプの標識ファインダを用いて、ビデオカメラに関して同じ側の、いくつかの距離において路面標識検出を行うことによって、路面標識の存在数に対する複数の測定をなすことができる。一例として、図18を参照すると、ビデオカメラの1つの側部(1つのROI)当たり3つの標識ファインダ80が用いられている。標識ファインダ80の各々は、地面を、縦方向に約1メートルだけカバーしている。いずれかの標識ファインダ80が、ビデオカメラの1つの側部(例えば関心領域ROI−R)において、標識断片間のギャップ(例えば破線タイプ路面標識のダッシュ間のギャップ)を検出し、他の標識ファインダよりも少ない路面標識数を計上することがあるかもしれない。見出された路面標識数のうちの最大のものが、与えられた画像3の、測定された側部に存在する路面標識数を表わすものとして選ばれる。   By using multiple Dickmann type sign finders and road sign detection at several distances on the same side with respect to the video camera, multiple measurements for the number of road sign presents can be made. As an example, referring to FIG. 18, three sign finders 80 are used per side (one ROI) of the video camera. Each of the sign finder 80 covers the ground by about 1 meter in the vertical direction. Either sign finder 80 detects gaps between sign fragments (eg gaps between dashes of dashed-type road markings) at one side of the video camera (eg region of interest ROI-R), and other sign finders. You may count fewer road markings. The largest of the number of road markings found is chosen as representing the number of road markings present on the measured side of the given image 3.

局所的に散在する勾配が、路面標識として検出されることがあり得る。そのために、検出された路面標識数が、フィルタ処理(時間平均)される。一例として、図17を再度参照すると、与えられた画像フレームにおいて検出された路面標識(P−V対)の最大数がフィルタ処理される。例えば約20メートルの車両走行に相当する画像フレーム数が、フィルタ長として用いられる。このフィルタ処理によって、検出された路面標識数が平均化され、最終的な検出路面標識数が特定される。   Locally scattered gradients can be detected as road markings. For this purpose, the detected number of road markings is subjected to filter processing (time average). As an example, referring again to FIG. 17, the maximum number of road markings (P-V pairs) detected in a given image frame is filtered. For example, the number of image frames corresponding to about 20 meters of vehicle travel is used as the filter length. By this filtering process, the number of detected road surface signs is averaged, and the final number of detected road surface signs is specified.

上述の路面標識の検出に加えて、図19の例に示されているように、路面標識画像フィーチャ7L、7Rの内側と外側との画像フィーチャを比較し、特徴分析してもよい。路面標識を見出すために用いられた種々の量が、比較および特性分析のための入力すなわち特性値として用いられる。図19は、2つの画像領域NRおよびBBRを示している。画像領域NRは、ビデオカメラの近傍にあり、画像領域BBRは、識別された路面標識画像フィーチャ7Lの外側にある。   In addition to the detection of the road marking described above, as shown in the example of FIG. 19, the image features on the inside and outside of the road marking image features 7L and 7R may be compared for feature analysis. Various quantities used to find road markings are used as inputs or characteristic values for comparison and characteristic analysis. FIG. 19 shows two image regions NR and BBR. The image area NR is in the vicinity of the video camera, and the image area BBR is outside the identified road marking image feature 7L.

これらの画像領域は、いくつかの特性によって特性分析することができる。それらの特性には、平均輝度、サイズ、エッジの存在などを含めることができる。一例として、画像領域NRおよびBBRにおいて画像テクスチャを測定し、それらの画像領域における画像フィーチャを特定することによって、それらの画像領域におけるエッジの存在を明らかにすることができる。標識ファインダは、いくつかある量の中で特に、各行のピクセルの輝度の勾配を計算する。いくつかの勾配は、閾値(例えば1〜255の範囲にあり、6〜24の範囲にあることが好ましい)を超過する大きさを有するかもしれない。これらの十分の大きさを有する勾配(ピークとバレー)間の間隔の広さに応じて、それらの間のエリアが、路面標識断片候補として容認されるか、または否認される。画像領域NRおよびBBR内のこれらの十分の大きさを有する勾配(それら以外は、車線区分線断片候補または境界断片候補であると認定されない)の密度および中央値間隔を、路面標識画像フィーチャ7Lの外側/内側にあるものを分類するための特性として役立てることができる。一例において、密度は、横方向1メートル当たりの、十分の大きさを有する勾配の数として与えられる。中央値間隔は、列の数で与えられる。   These image areas can be characterized by several characteristics. These characteristics can include average brightness, size, presence of edges, and the like. As an example, by measuring image texture in image regions NR and BBR and identifying image features in those image regions, the presence of edges in those image regions can be revealed. The sign finder computes the luminance gradient of each row of pixels, among other quantities. Some slopes may have a magnitude that exceeds a threshold (eg, in the range of 1 to 255, preferably in the range of 6 to 24). Depending on the extent of the spacing between these sufficiently large slopes (peaks and valleys), the area between them is accepted or rejected as a road marking fragment candidate. The density and median spacing of these sufficiently large gradients in the image areas NR and BBR (otherwise not identified as lane segment line candidates or boundary fragment candidates) are determined by the road marking image feature 7L. It can serve as a property for classifying what is outside / inside. In one example, the density is given as the number of gradients of sufficient magnitude per meter in the lateral direction. The median interval is given by the number of columns.

路面標識画像フィーチャ7Lの外側/内側にあるものを分類するために用いることができる画像領域NRおよびBBR内の他の1つの画像特性は、行位置の変化に伴う、十分の大きさを有する勾配間の中央値間隔の変動の仕方である。図20Aの画像3の例に示されているように、画像内の行が地平線に近づくにつれて、道路面内の路面標識および他の物体は、通常、その長さおよび幅が縮小したように見える。そのような物体における中央値間隔も、行が地平線に近くなるにつれて、狭くなるように見える。しかしながら、木82のような道路面内にない物体においては、行が地平線に近づいても、その幅や間隔は狭くならないように見える。   One other image characteristic in the image areas NR and BBR that can be used to classify what is outside / inside the road marking image feature 7L is a gradient having a sufficiently large magnitude as the row position changes. It is a way of fluctuation of the median interval between. As shown in the example of image 3 in FIG. 20A, as a row in the image approaches the horizon, road markings and other objects in the road surface typically appear to shrink in length and width. . The median spacing in such objects also appears to narrow as the rows get closer to the horizon. However, an object that is not on the road surface, such as the tree 82, does not appear to have a narrower width or spacing even when the row approaches the horizon.

図20Bの例に示されているように、道路上のそのような物体に対応する画像フィーチャの特性を記述するために、十分の大きさを有する勾配の中央値間隔と、画像の行とを関連づける最小二乗直線が計算され、その傾きが記憶される。標識検出用のROI(例えば画像領域NRおよびBBR)の上端と下端との間の行が、そのような計算に用いられる。例えば行が地平線に近づいても、画像面とほぼ平行な樹幹は、その幅を一定に維持され、一方、道路面内の物体は、一般に、その幅を一定に維持されない。最小二乗適合直線の傾きがほぼ0であるということは、木のような、一定の幅(画像面において)の物体が存在することを指示している。車線逸脱検出装置9は、それを利用して、適切な警告/支援を発することができる。   As shown in the example of FIG. 20B, to describe the characteristics of the image features corresponding to such an object on the road, the median interval of gradients with sufficient magnitude and the rows of the image The associated least square line is calculated and the slope is stored. Rows between the top and bottom edges of the ROI for label detection (eg, image regions NR and BBR) are used for such calculations. For example, even when a row approaches the horizon, a tree trunk that is substantially parallel to the image plane is kept constant in width, while an object in the road surface is generally not kept constant in width. The fact that the slope of the least square fitting straight line is almost 0 indicates that there is an object having a certain width (in the image plane) such as a tree. The lane departure detection device 9 can use this to issue an appropriate warning / support.

行または領域の平均絶対偏差(MAD)によって定められる別の画像特性を、画像領域NRおよびBBRにおける物体の検出に用いてもよい。道路などの滑らかな領域は、低いMAD値を有する傾向にあり、一方、木などの、より大きいテクスチャを有する領域は、より高いMAD値を有する。MADは、平均値からの平均絶対偏差である。m個のピクセルの輝度piのグループに対する、輝度のMADは、数2のように表わすことができる。

Figure 0005868586
ここで、iは、i=1、2、…、mであり、average(p)は、m個のピクセルの輝度piの平均値であり、和は、全てのiにわたって行われる。 Another image characteristic defined by the mean absolute deviation (MAD) of the rows or regions may be used for the detection of objects in the image regions NR and BBR. Smooth areas such as roads tend to have low MAD values, while areas with larger textures such as trees have higher MAD values. MAD is the mean absolute deviation from the mean value. The luminance MAD for a group of luminance p i of m pixels can be expressed as:
Figure 0005868586
Here, i, i = 1,2, ..., a m, average (p) is the average value of the luminance p i of the m pixels, sums are performed over all i.

一例として、図21に示すように、各行におけるビデオカメラの近傍のMAD値が特定され、次いで、同じ行において、ビデオカメラから横方向に外側にさらに離れた位置におけるMAD値が、検出された路面標識を越えて、ほぼ1車線幅(例えば1車線幅はほぼ3メートルであってもよい)だけ外側に延びる画像領域において特定される。2つのMAD値が、画像の各行に対して生成される。図21は、路面標識または境界の内側と外側とにおけるMAD値の比較を示している。各行における内側MAD値と外側MAD値との比δが得られ、それらの比δが平均される。比δの値がほぼ1であれば、路面標識の外側の領域のテクスチャが、路面標識の内側の領域のテクスチャと同様であるということになる。この特性は、1つの値を生成するための入力として、2つの領域を必要とするから特異である。   As an example, as shown in FIG. 21, the MAD values in the vicinity of the video camera in each row are specified, and then the MAD value at a position further away laterally outward from the video camera is detected in the same row. Beyond the sign, it is identified in an image area that extends outward by approximately one lane width (eg, one lane width may be approximately 3 meters). Two MAD values are generated for each row of the image. FIG. 21 shows a comparison of MAD values inside and outside the road marking or boundary. A ratio δ between the inner and outer MAD values in each row is obtained and the ratio δ is averaged. If the value of the ratio δ is approximately 1, it means that the texture of the area outside the road sign is the same as the texture of the area inside the road sign. This property is unique because it requires two regions as input to generate one value.

そのために、この例においては、4つの画像特性が考察の対象とされる。第1の画像特性は、1メートル当たりの勾配密度であり、第2の画像特性は、列の数で表わされる、十分の勾配間の中央値間隔であり、第3の画像特性は、十分の大きさを有する勾配間の中央値間隔の行変化であり、第4の画像特性は、平均MAD比である。このような画像領域特性は、いろいろに処理することができる。2つの例を、次に記す。
1. ビデオカメラの近傍の領域(画像領域NR)における最初の3つの画像特性と、路面標識の外側(およそ1車線幅だけ外側までの)の画像領域BBRにおける同じ3つの画像特性とを比較し、第4の画像特性比較として、平均MAD比を組み込む。これらの画像特性が、近似性に関して比較される。最初の3つの画像特性は、マンハッタン距離を用いて比較される。
2. 路面標識の外側の領域(画像領域BBR)における最初の3つの画像特性および平均MAD比とデータベースとを比較し、データベース内の、最も近似した画像特性を有するカテゴリーを特定する。
Therefore, in this example, four image characteristics are considered. The first image characteristic is the gradient density per meter, the second image characteristic is the median spacing between sufficient gradients, expressed in number of columns, and the third image characteristic is sufficient The row change of the median interval between gradients having magnitude, and the fourth image characteristic is the average MAD ratio. Such image region characteristics can be processed in various ways. Two examples are described below.
1. The first three image characteristics in the area near the video camera (image area NR) are compared with the same three image characteristics in the image area BBR outside the road surface sign (to the outside by about one lane width). As an image characteristic comparison of 4, an average MAD ratio is incorporated. These image characteristics are compared for closeness. The first three image characteristics are compared using the Manhattan distance.
2. The database is compared with the first three image characteristics and the average MAD ratio in the area outside the road marking (image area BBR) to identify the category with the most approximate image characteristics in the database.

上記の第1の比較プロセスにおいては、路面標識の内側の画像領域における画像特性結果が、路面標識の内側の画像領域に対応する道路の運転しやすさを評価し、次いで、その評価に基づいた適切な警告/支援機能を起動するために、車線逸脱検出装置9によって用いられる。車両が通過可能なゾーン内を安全に前進する(例えば道路上を路面標識にしたがって)ように、車両が前進するにつれて、上述の画像特性の組み合わせがモニタされる。この画像特性の組み合わせ(特性ベクトル)と同じ特性ベクトルが、路面標識の外側の画像領域BBRのゾーンにおいても見出された場合には、その車両は、安全に画像領域BBRのゾーンに進入することができると予想することは合理的である。車両が前進するにつれて収集された安全な特性ベクトルを記憶することによって、装置は、安全なゾーンに関して累積的に学習する。   In the first comparison process described above, the image characteristic results in the image area inside the road sign evaluate the ease of driving on the road corresponding to the image area inside the road sign, and then based on the evaluation Used by the lane departure detection device 9 to activate the appropriate warning / assistance function. As the vehicle moves forward, the combination of image characteristics described above is monitored so that the vehicle moves forward safely in a passable zone (eg, according to road markings on the road). If the same characteristic vector as this combination of image characteristics (characteristic vector) is found in the zone of the image area BBR outside the road surface sign, the vehicle must enter the zone of the image area BBR safely. It is reasonable to expect that By storing safe characteristic vectors collected as the vehicle moves forward, the device learns cumulatively about safe zones.

上記の第2の比較プロセスにおいては、画像領域BBRにおいて現在測定されている画像特性が、データベース中の代表的かつ典型的な画像特性と比較される。このデータベースは、少なくとも2つのカテゴリー(または評価)、すなわち、安全な走行が可能なレベル、および安全な走行が不可能なレベルを規定している。データベースは、走行可能であるかもしれないレベルすなわち中間安全レベルなどの、他のカテゴリーを含んでいてもよい。データベースは、これらの画像特性の全ての組み合わせを含んでおり、またそれらの組み合わせの各々に対して、安全度を割り振る。   In the second comparison process described above, the image characteristics that are currently measured in the image area BBR are compared with representative and typical image characteristics in the database. This database defines at least two categories (or evaluations): a level at which safe driving is possible and a level at which safe driving is not possible. The database may include other categories, such as a level that may be runnable, ie an intermediate safety level. The database contains all combinations of these image characteristics and assigns a safety measure to each of those combinations.

車線逸脱検出装置9は、次のように、2つの比較を用いることができる。第1の比較が、ビデオカメラの近傍(画像領域NR)で測定された画像特性と、路面標識の外側(画像領域BBR)で測定された画像特性との間に相当な差があることを示した場合には、第2の比較が行なわれる。最終結果として、路面標識の外側の領域(画像領域BBR)に入ることがどれくらい安全かということが判定される。0.0〜1.0の間の値として与えられるこの判定に応じて、車線支援状況中に運転者に供給される警告または支援のレベル/タイプが調節される。   The lane departure detection device 9 can use two comparisons as follows. The first comparison shows that there is a considerable difference between the image characteristics measured near the video camera (image area NR) and the image characteristics measured outside the road sign (image area BBR). If so, a second comparison is made. As a final result, it is determined how safe it is to enter the area outside the road marking (image area BBR). Depending on this determination, given as a value between 0.0 and 1.0, the level / type of warning or assistance provided to the driver during the lane assistance situation is adjusted.

1つの特性ベクトルと、別の1つの特性ベクトルとの近似性が、次のように、それらの間のマンハッタン距離によって測定される。
マンハッタン距離 = |f1_a − f1_b|+|f2_a − f2_b|+|f3_a − f3_b|
ここで、f1_aは、グループaの第1の画像特性であり、f2_bは、グループbの第2の画像特性であり、f3_bは、グループbの第3の画像特性である。例えばグループaは、車両が安全に進入することができる、前方の直線道路からの3つの画像特性測定を含んでいてもよく、グループbは、路面標識の外側の領域からの3つの画像特性測定を含んでいてもよい。グループaの前述の4つの画像特性のうちの最初の3つが、グループbの対応する3つの画像特性に十分に近似している場合には、路面標識の外側の領域への進入は安全であろうと予想される。マンハッタン距離は、図22におけるように、二次元のグラフで示すことができる。あるいはまた、グループaは、路面標識の外側の領域(画像領域BBR)において測定された画像特性の平均であってもよく、グループbは、例えば草やガードレールを表わす、データベース中の参照点であってもよい。グループaは、グラフ85において、最も整った参照特性ベクトルと同じカテゴリーを割り当てられる。シンボル(数3)および(数4)は、それぞれ、グループaとグループbとの間における第1の画像特性の差および第2の画像特性の差を表わしている。

Figure 0005868586
Figure 0005868586
The closeness of one characteristic vector to another characteristic vector is measured by the Manhattan distance between them as follows.
Manhattan distance = | | f1_a − f1_b | + | f2_a − f2_b | + | f3_a − f3_b |
Here, f1_a is the first image characteristic of group a, f2_b is the second image characteristic of group b, and f3_b is the third image characteristic of group b. For example, group a may include three image characteristic measurements from a straight road ahead where the vehicle can enter safely, and group b includes three image characteristic measurements from the area outside the road marking. May be included. If the first three of the four image characteristics of group a are sufficiently close to the corresponding three image characteristics of group b, entry into the area outside the road marking is safe. Expected to be. The Manhattan distance can be represented by a two-dimensional graph as shown in FIG. Alternatively, group a may be the average of the image characteristics measured in the area outside the road marking (image area BBR), and group b is a reference point in the database, representing for example grass or guardrail. May be. Group a is assigned the same category in the graph 85 as the most ordered reference feature vector. Symbols (Equation 3) and (Equation 4) represent the first image characteristic difference and the second image characteristic difference between group a and group b, respectively.
Figure 0005868586
Figure 0005868586

マンハッタン距離が大きいということは、画像領域(グループ)間の画像特性の差が大きいということを表わす。マンハッタン距離の計算に先立って、画像特性は正規化される。この距離測定が、第1の比較において用いられる。また、実質的に同じであると見なしうる、2つの画像領域の画像特性に対して許容される最大差に対する閾値(例えば0〜1.4の範囲にあり、0.2〜0.6の範囲にあることが好ましい)が設定される。2つの画像領域が近似していると断定できるためには、第4の特性は、0.8〜1.2の範囲にある必要がある。   A large Manhattan distance represents a large difference in image characteristics between image regions (groups). Prior to calculating the Manhattan distance, the image characteristics are normalized. This distance measurement is used in the first comparison. Also, a threshold for the maximum difference allowed for the image characteristics of the two image regions that can be considered substantially the same (e.g., in the range of 0-1.4, in the range of 0.2-0.6). Is preferable). In order to be able to determine that the two image regions are approximate, the fourth characteristic needs to be in the range of 0.8 to 1.2.

第1の比較によって、2つの画像領域が互いに相当に異なっていることが示された場合には、第2の比較が起動される。最も単純な形態として、画像特性値は、1セットのルールを適用される。それらの1セットのルールは、特性ベクトルの各組み合わせに、識別カテゴリーおよび安全度を割り振る。ルールの1つの例は、次のとおりである。1つの画像領域における、十分の大きさを有する勾配間の間隔が、画像の行の変化に対して十分に変化しない(行対中央値間隔のデータに対する適合直線の傾きを見出すことによってチェックされる)場合には、この画像領域は、走行可能な領域ではなく、危険度が高く1.0である。1つの画像領域において、横方向1メートル当たりの、十分の大きさを有する勾配の数が少なく、中央値間隔が小さい場合には、この画像領域の危険度は、かなり低いとされる。画像領域BBRにおけるMAD値が大きい場合には、危険度が高いとされる。上述のステップを、1つの画像領域の上述の4つの画像特性を受け取り、それに応答して、危険度(または安全度)に、0.0(全く危険でない)と1.0(極めて危険である)との間の値を与える4次元クラシファイアとして実行することができる。   If the first comparison indicates that the two image regions are significantly different from each other, a second comparison is activated. In the simplest form, a set of rules is applied to the image characteristic values. The set of rules assigns an identification category and a safety measure to each combination of feature vectors. One example of a rule is as follows: The spacing between gradients of sufficient magnitude in one image area does not change sufficiently for changes in the rows of the image (checked by finding the slope of the fitted line for row-to-median interval data ), This image area is not a travelable area and has a high risk level of 1.0. In a single image area, if the number of sufficiently large gradients per meter in the lateral direction is small and the median interval is small, the risk of this image area is considered to be considerably low. When the MAD value in the image area BBR is large, the degree of risk is high. The above steps receive the above four image characteristics of one image area and in response to the risk (or safety), 0.0 (no danger at all) and 1.0 (very dangerous) Can be implemented as a four-dimensional classifier that gives values between

図23は、4つの画像特性の一例を、グラフで示している。第1の画像特性(#1)は、5メートルの長さにわたる、十分の大きさを有する8個の勾配である、すなわち、1メートル当たり8/5個すなわち1.6個の十分の大きさを有する勾配からなる勾配密度である。第2の画像特性(#2)は、隣り合う勾配間の距離の特性値である、全ての隣り合う勾配の対の間隔の中央値である。第3の画像特性(#3)は、MADの計算の仕方である。第4の画像特性(#4)は、画像の行の関数としての、中央値間隔の近似的な変化(最小二乗適合直線を介して示される)の仕方である。それによって、路面標識の外側にあるものが道路面内にあるようであるか、それとも直立しているようであるかが判定される。さらなる画像特性として、画像領域内の平均勾配量を含ませてもよい。   FIG. 23 is a graph showing an example of four image characteristics. The first image characteristic (# 1) is 8 gradients with sufficient magnitude over a length of 5 meters, ie 8/5 or 1.6 enough magnitude per meter Is a gradient density consisting of gradients with The second image characteristic (# 2) is a median value of the distances between all adjacent gradient pairs, which is a characteristic value of the distance between adjacent gradients. The third image characteristic (# 3) is how to calculate MAD. The fourth image characteristic (# 4) is the way the approximate change in median spacing (shown via the least squares fit line) as a function of image row. Thereby, it is determined whether what is outside the road surface marker is in the road surface or whether it is upright. As an additional image characteristic, an average gradient amount in the image area may be included.

図24は、本発明によるコントローラ5の別の一実施形態を実行する装置100の一例の機能ブロック図である。車線境界検出装置101は、前述のように車線区分線を検出する。記号検出装置102は、車線境界検出装置101を妨害する恐れがある標識をチェックし、それらの標識のそれぞれの両境界(内側および外側の)を特定する。これらの両境界の間に検出された画像フィーチャを、車線境界検出装置101は無視する。クラッタ検出装置103は、車線境界検出装置101を混乱させる恐れがある不規則な標識、過剰な標識、および一貫性のない標識をチェックし、必要な場合には、全ての検出を排除する。新標識検出器104は、追跡モジュール106が切り換えて、車両がたどることができる十分に持続的で、一貫性があり、より近接した路面標識をチェックする。   FIG. 24 is a functional block diagram of an example of an apparatus 100 that implements another embodiment of the controller 5 according to the present invention. The lane boundary detection device 101 detects the lane marking as described above. The symbol detector 102 checks for signs that may interfere with the lane boundary detector 101 and identifies both boundaries (inside and outside) of each of those signs. The lane boundary detection device 101 ignores image features detected between these two boundaries. The clutter detection device 103 checks for irregular signs, excessive signs, and inconsistent signs that may disrupt the lane boundary detection device 101 and eliminates all detection if necessary. The new sign detector 104 switches the tracking module 106 to check for sufficiently persistent, consistent and closer road signs that the vehicle can follow.

カメラ較正モジュール105は、ビデオカメラの内部および外部の幾何学的配置特性を分析する。内部の幾何学的配置には、焦点距離、ピクセルサイズなどの量が含まれ、一方、外部の幾何学的配置には、据え付け高さ、ピッチ角などが含まれる。追跡モジュール106は、ビデオカメラの各側部において1つずつ識別された路面標識の位置測定値を受け取り、それらを平滑化し、次の画像フレームにおける路面標識の位置を予測し、依然として予測をなすことが可能である(予測が、その信頼性を低下させすぎる前に、一定の不確定さの範囲内で適切である)か否かを判断する。車線逸脱検出装置107は、車両が路面標識に接近しすぎているか否かを判断する。そのための入力は、追跡モジュール106からの平滑化された位置測定値である。その出力は、警告するべきか否かについての判定である。   The camera calibration module 105 analyzes the internal and external geometric characteristics of the video camera. The internal geometry includes quantities such as focal length, pixel size, etc., while the external geometry includes installation height, pitch angle, and the like. The tracking module 106 receives the road marking position measurements, one identified at each side of the video camera, smooths them, predicts the position of the road marking in the next image frame, and still makes a prediction. Is possible (prediction is appropriate within a certain range of uncertainty before reducing its reliability too much). The lane departure detection device 107 determines whether the vehicle is too close to the road surface sign. The input for that is a smoothed position measurement from the tracking module 106. The output is a determination as to whether or not to warn.

画像領域特性分析および比較装置108は、最初に、車両の前方の領域と、路面標識/境界の外側の、ほぼ1車線幅の領域とを比較し、両領域が、互いに近似した画像特性を有しているか否かを判断する。両領域が、互いに近似した画像特性を有している場合には、路面標識/境界の外側の領域に進入することは安全であり、過度に強い警告を発する必要はない。両領域が互いに異なる場合には、路面標識/境界の外側の領域の画像特性が、データベースと比較される。それによって、路面標識/境界の外側の領域が安全な領域、恐らく安全な領域、または安全でない領域に分類される。したがって、この分類は、起動される警告に影響を与える。起動される警告は、存在している路面標識の数およびタイプなどの、路面標識の属性によっても影響を受ける。二重の実線タイプ車線区分線は、単一の破線タイプ車線区分線の場合より強い警告の起動を引き起こす。ルールによって、画像領域分類と路面標識タイプとが組み合わされ、この組み合わせが、起動される警告の強さまたは性質に影響を及ぼす。路面標識のタイプ/数/長さ測定装置109は、路面標識自体が、車線からの逸脱が危険であることを示しているか否かを判断する。警告モジュール110は、適切な車線位置または道路位置を維持するように運転者に警告するか、または支援する。その入力は、路面標識および路面標識の外側の領域によって誘起または示唆される、警告および危険度に対する判定である。   The image area characteristic analysis and comparison device 108 first compares the area in front of the vehicle with the area of approximately one lane width outside the road marking / boundary, and both areas have image characteristics that are similar to each other. Judge whether or not. If both areas have similar image characteristics to each other, it is safe to enter the area outside the road marking / boundary and it is not necessary to issue an excessively strong warning. If the two areas are different from each other, the image characteristics of the area outside the road marking / boundary are compared with the database. Thereby, the area outside the road marking / boundary is classified as a safe area, possibly a safe area, or an unsafe area. This classification thus affects the alerts that are triggered. The warning that is triggered is also affected by the attributes of the road markings, such as the number and type of road markings present. A double solid line type lane marking causes a stronger warning than a single broken line lane marking. The rules combine image area classification and road marking type, and this combination affects the strength or nature of the triggered alert. The road sign type / number / length measuring device 109 determines whether the road sign itself indicates that a departure from the lane is dangerous. The warning module 110 warns or assists the driver to maintain an appropriate lane position or road position. The inputs are warnings and risk decisions, induced or suggested by road markings and areas outside road markings.

図25は、装置100によって実行される、以下のステップを含むプロセス200のフローチャートである。
ステップ201:道路の画像フレームを得る。
ステップ202:予想される路面標識位置の限界を、画像内にROIとして画定する。
ステップ203:画像アーチファクト(反射光、太陽光の筋)を排除する。
ステップ204:画像中のROI内に路面標識断片を見出す。
ステップ205:ギャップ中の標識断片を排除する。
ステップ206:降雪標識断片を排除する。
ステップ207:検出から記号を排除する。
ステップ208:残っている路面標識断片を、路面標識に組み立てる。
ステップ209:検出からタール帯を排除する。
ステップ210:幾何学的変換によって、画像点を道路面に投影する。
ステップ211:クラッタを検出する。
ステップ212:道路面データにカルマンフィルタ処理を施す。
ステップ213:必要に応じてトラックを切り換える。
ステップ214:路面標識に相対的に、ビデオカメラ/車両の位置を特定する。
ステップ215:路面標識に接近しすぎているか?Yesの場合にはステップ216に進み、そうでない場合にはステップ201に戻る。
ステップ216:状況に応じて、警告/支援を与える。
ステップ217:次の画像フレームにおける、車線区分線の次の位置を予測する。
ステップ218:次の画像フレームにおける困難な状況を予測する。
ステップ219:検出された路面標識に対する曲率補償を行なう。
ステップ220:車道および路面標識の特性を分析する。次いで、ステップ201に戻る。
FIG. 25 is a flowchart of a process 200 performed by the apparatus 100 including the following steps.
Step 201: Obtain a road image frame.
Step 202: Define the limit of the expected road marking position as an ROI in the image.
Step 203: Eliminate image artifacts (reflected light, sunlight streaks).
Step 204: Find a road marking fragment in the ROI in the image.
Step 205: Eliminate labeled fragments in the gap.
Step 206: Eliminate snowfall sign fragments.
Step 207: Eliminate symbols from detection.
Step 208: Assemble the remaining road marking fragments into road markings.
Step 209: Exclude the tar band from detection.
Step 210: Project image points on a road surface by geometric transformation.
Step 211: Detect clutter.
Step 212: Kalman filter processing is performed on the road surface data.
Step 213: Switch tracks as necessary.
Step 214: Locate the video camera / vehicle relative to the road marking.
Step 215: Is the road sign too close? If yes, go to step 216, otherwise return to step 201.
Step 216: Give warning / support according to the situation.
Step 217: Predict the next position of the lane marking in the next image frame.
Step 218: Predict difficult situation in next image frame.
Step 219: Perform curvature compensation for the detected road surface marker.
Step 220: Analyze the characteristics of the roadway and road markings. Then, the process returns to step 201.

車道の情景は、夜間と日中において、互いに異なるように見える。この互いに異なる見え方は、具体的には、夜間における相対的に強いコントラスト、夜間における相対的に低い背景ノイズレベルなどとして現われる。車道の画像の分析のために、そのような情報を用いることができる。明るい情景には、イメージャの短露光時間および/または低利得が必要になる。暗い情景には、イメージャの長露光時間および/または高利得が必要になる。露光時間および利得の履歴(例えば1分間の長さの)を記憶することによって、相対的に低/高および短/長のそれぞれの設定のどちらに該当しているかを特定することができる。それによって、「わからない」ゾーンに対処することができる(すなわち、履歴が、一定の数を超過する、日中に関するイメージャの設定に当てはまれば、日中であり、一定の数を超過する、夜間に関するイメージャの設定に当てはまれば、夜間である)。   The roadway scenes look different at night and during the day. Specifically, the different appearances appear as a relatively strong contrast at night, a relatively low background noise level at night, and the like. Such information can be used for analysis of roadway images. Bright scenes require a short exposure time and / or low gain of the imager. Dark scenes require a long exposure time and / or high gain of the imager. By storing exposure time and gain history (eg, 1 minute long), it is possible to identify which of the settings is relatively low / high and short / long. It can deal with “don't know” zones (ie if the history applies to daytime imager settings that exceed a certain number, it is daytime and exceeds a certain number, nighttime If it's the imager's settings, it's nighttime).

十分な性能を得るためには、ビデオカメラを十分に較正することが望ましい。幾何学的変換方程式に用いられるビデオカメラに関連する量、すなわち、ビデオカメラの高さ、焦点距離、ピッチ角などが、重要な役割を果たす。較正によって、内的パラメータ(焦点距離、光軸位置などの、ビデオカメラ自体によって定まる、ビデオカメラに関するパラメータ)、および外的パラメータ(据え付け高さ、ピッチ角、車両中心線からの距離などの、ビデオカメラが搭載されている、車両上の位置に関係するパラメータ)の値が確定される。   In order to obtain sufficient performance, it is desirable to fully calibrate the video camera. The quantities associated with the video camera used in the geometric transformation equation, i.e. the height, focal length, pitch angle, etc. of the video camera play an important role. Calibration allows internal parameters (such as focal length, optical axis position, parameters related to the video camera, determined by the video camera itself), and external parameters (installation height, pitch angle, distance from vehicle centerline, etc.) The value of the parameter (related to the position on the vehicle) on which the camera is mounted is determined.

路面標識の位置/種類/数、路面標識の外側に存在するであろう物などに関する全ての測定情報を組み合わせて、道路の描写および特性分析を行うことができる。   All measurement information regarding the location / type / number of road markings, objects that would be outside the road markings, etc. can be combined for road delineation and characterization.

急カーブは、直線的な関心領域にも、直線的な路面標識にも適合しない。路面標識は、通常、ビデオカメラの近くにあるときに、よりよく検出される。したがって、可能であれば、関心領域がよりよくカーブにしたがい、ビデオカメラの近傍の路面標識断片を検出しやすくなるように、関心領域の位置および/または形状を選択することが有利である。図26の例に示されているように、関心領域(例えば関心領域ROI−R)を、カーブに良好に適合するように適切に配置することによって、相当に小さな曲率半径を有する路面標識でも、よりよく検出することができる。   A sharp curve does not fit in either a straight region of interest or a straight road marking. Road signs are usually better detected when in the vicinity of a video camera. Therefore, if possible, it is advantageous to select the position and / or shape of the region of interest so that the region of interest follows the curve better and it is easier to detect road marking fragments near the video camera. As shown in the example of FIG. 26, even with road markings having a considerably small radius of curvature, by appropriately positioning the region of interest (eg, region of interest ROI-R) to fit well with the curve, It can be detected better.

さらに、動作中のビデオカメラのピッチ角およびヨー角を学習するために、リアルタイム較正を用いることができる。この学習は、その入力として、消失点(直線道路の場合に、その両側部が、遠方で、一緒になるように見える点)の位置を用いる。一貫して横を向いている(向きがそれている)ビデオカメラには、平均して、やはり、一方の側部に位置している消失点が見える。上方または下方を向いているビデオカメラには、画像において、平均して、相対的に上方または下方に位置している消失点が見える。任意の与えられた画像フレームにおいて、道路の1つの路面標識または境界が見えるだけでよい。運転中に行われる学習が、警告および支援を起動される位置に影響を与え、それをより的確にする。   In addition, real-time calibration can be used to learn the pitch angle and yaw angle of an operating video camera. This learning uses the position of a vanishing point (a point where both sides of a straight road appear to be together in a distant place) as an input. On average, a camcorder that is consistently facing sideways will see a vanishing point that is also located on one side. A video camera pointing upwards or downwards will see, on average, vanishing points located relatively upwards or downwards in the image. In any given image frame, it is only necessary to see one road marking or boundary of the road. The learning that takes place while driving affects the location where warnings and assistance are activated, making it more accurate.

上記のステップ/プロセスは、リアルタイムで実行することもできるし、記憶した像に対して実行することもできる。このプロセスは、前処理段を有する単一のCPU、または複数のCPU上で行うことができるし、また必要に応じて、両方を平行して用いて行うこともできる。さらに、当業者には公知のように、本発明による前述のアーキテクチャ例は、プロセッサによる実行のためのプログラム命令、ソフトウェアモジュール、論理回路、特定用途向け集積回路、ファームウエアなどの多くの方法で実行することができる。
本明細書では、本発明を、そのいくつかの好適なバージョンに関して、かなり詳細に説明している。しかしながら、他のバージョンも可能である。したがって、請求項の精神および範囲は、本明細書に含まれている好適なバージョンの記述に限定されるべきではない。
The above steps / processes can be performed in real time or can be performed on stored images. This process can be performed on a single CPU having a pre-processing stage, or a plurality of CPUs, and both can be performed in parallel if necessary. Further, as is well known to those skilled in the art, the foregoing example architecture according to the present invention may be implemented in many ways, including program instructions, software modules, logic circuits, application specific integrated circuits, firmware, etc., for execution by a processor. can do.
The present invention is described in considerable detail herein with respect to several preferred versions thereof. However, other versions are possible. Therefore, the spirit and scope of the claims should not be limited to the preferred version description contained herein.

1 ビデオカメラ
2 車両
3 画像
4 道路
5 コントローラ
6 車線境界検出装置
6a 反射光像検出モジュール
6b 反射光像検出装置
7 別の車両
7C 記号
7L、7R 路面標識画像フィーチャ
7S 路面標識断片候補の画像フィーチャ
8L、8R 路面標識
8T タール帯
9 車線逸脱検出装置
10 カメラ較正モジュール
11 警告モジュール
12 曲率測定モジュール
14 街灯
15 装置
17 サンプラー
19 ピクセル輝度パターン
20 プロセス
40 道路面
50 適合線分
52 ビデオカメラに相対的な、路面標識の横方向の位置
54 直線
60、60a ゲート
70 プロセス
80 標識ファインダ
82 木
85 グラフ
100 装置
101 車両境界検出システム
102 記号検出システム
103 クラッタ検出システム
104 新標識検出器
105 カメラ較正モジュール
107 車両逸脱検出システム
106 追跡モジュール
108 画像領域特性分析および比較装置
109 路面標識のタイプ/数/長さ測定装置
110 警告モジュール
160L、160R 平行四辺形
162 下端
164 上端
169 路面標識構造
171 フィルタ
173 フィルタ処理された破線タイプ路面標識
175 不確実領域
177 ブロック
200 プロセス
201 画像面
203 点
205 光軸
BBR、NR 画像領域
d ビデオカメラの前方の道路上の縦方向距離
FL 焦点距離
h ビデオカメラの高さ
Hp 水平方向ピクセルサイズ
Ht 高さ
LO 道路中心線からの横方向のオフセット距離
p、p1、p2 ピクセル
P、P1、P2
r 行座標
ROI−C 記号関心領域
ROI−CD クラッタ検出関心領域
ROI−L、ROI−R 関心領域
0、t1 時刻
Vp 垂直方向ピクセルサイズ
VP 消失点
w 列座標
Wt 幅
x 縦方向座標
y 横方向座標
α ピッチ角
DESCRIPTION OF SYMBOLS 1 Video camera 2 Vehicle 3 Image 4 Road 5 Controller 6 Lane boundary detection apparatus 6a Reflected light image detection module 6b Reflected light image detection apparatus 7 Another vehicle 7C Symbol 7L, 7R Road sign image feature 7S Image feature 8L of a road sign fragment candidate 8R road surface sign 8T tar zone 9 lane departure detection device 10 camera calibration module 11 warning module 12 curvature measurement module 14 streetlight 15 device 17 sampler 19 pixel luminance pattern 20 process 40 road surface 50 fit line segment 52 relative to the video camera, Road sign lateral position 54 Straight line 60, 60a Gate 70 Process 80 Sign finder 82 Tree 85 Graph 100 Device 101 Vehicle boundary detection system 102 Symbol detection system 103 Clutter detection system 104 New sign detector 105 Camera calibration model 107 Vehicle deviation detection system 106 Tracking module 108 Image area characteristic analysis and comparison device 109 Road marking type / number / length measuring device 110 Warning module 160L, 160R Parallelogram 162 Lower end 164 Upper end 169 Road marking structure 171 Filter 173 Filtered broken line type road marking 175 Uncertain area 177 Block 200 Process 201 Image plane 203 Point 205 Optical axis BBR, NR Image area d Longitudinal distance FL on road ahead of video camera Focal length h Video camera height Hp Horizontal pixel size Ht Height LO Horizontal offset distances p, p 1 , p 2 pixels P, P 1 , P 2 points from road center line Row coordinates ROI-C Symbol region of interest ROI-CD Clutter detection interest Region ROI-L, ROI-R Region of interest t 0 , t 1 Time Vp Vertical pixel size VP Vanishing point w Column coordinate Wt Width x Vertical coordinate y Horizontal coordinate α Pitch angle

Claims (9)

少なくとも以下のステップにより実行するように構成された装置を用いて、道路上の車両のために、ビデオ画像に基づいて車線逸脱を警告する方法であって、
画像処理手段が、ビデオイメージャから、車両の前方の道路の画像を受け取るステップと、
路面標識検出器が、前記画像内に、前記道路上の路面標識に対応する1つ以上の路面標識を検出するステップと、
特性分析モジュールが、前記検出された路面標識の外側の画像領域に対応する道路の運転しやすさの評価を決定するために、該画像領域の特性を分析するステップと、
オフセット検出手段が、前記検出された路面標識に基づいて、該路面標識に相対的に前記車両の道路上の横方向のオフセットを検出するステップと、
車線逸脱検出器が、前記横方向のオフセットおよび前記評価の関数として、警告信号を発生させるステップとを有し、
前記画像内に1つ以上の路面標識を検出するステップは、さらに、前記路面標識検出器が、前記画像内に関心領域を決定し、この関心領域内に前記1つ以上の路面標識を検出するステップと、路面標識属性検出手段が、前記路面標識の属性を特定するステップとを含んでおり、
前記路面標識の属性を特定するステップは、さらに、前記路面標識属性検出手段が、前記検出された路面標識のタイプおよび数を特定するステップを含み、
前記検出された路面標識の外側の画像領域の特性を分析するステップでは、前記特性分析モジュールが、前記路面標識の内側における複数の画像特性の組み合わせからなる特性ベクトルと、前記路面標識の外側における同じ複数の画像特性の組み合わせからなる特性ベクトルとの間に近似性がある場合、前記車両が安全に前記路面標識の外側の領域に進入することができると判断し、さらに、前記路面標識の外側における複数の画像特性を、前記画像領域のデータベースにおける画像特性と比較し、このデータベースに基づき、前記路面標識の外側における、安全な走行が可能なレベル、及び安全な走行が不可能なレベルを含む、少なくとも2つの評価を行
前記警告信号を発生させるステップは、さらに、前記車線逸脱検出器が、前記横方向のオフセットおよび前記運転しやすさの評価に加えて、前記属性の関数として、警告信号を発生させるステップを含んでおり、
前記路面標識を検出するステップは、さらに、記号検出手段が、前記道路上の記号を表わす画像フィーチャを検出し、そのような画像フィーチャを特定し、該画像フィーチャが、予め設定した警告を表す記号又は文字の標識である場合には、音声により該標識の存在を運転手に知らせるステップを含むことを特徴とする方法。
A method for warning a lane departure based on a video image for a vehicle on a road using an apparatus configured to perform at least the following steps:
Receiving an image of a road ahead of the vehicle from a video imager;
A road marking detector detecting in the image one or more road markings corresponding to the road marking on the road;
A characteristic analysis module analyzing the characteristics of the image area to determine an evaluation of road drivability corresponding to the image area outside the detected road marking;
Offset detecting means detects a lateral offset on the road of the vehicle relative to the road surface sign based on the detected road surface sign;
A lane departure detector generates a warning signal as a function of the lateral offset and the evaluation;
The step of detecting one or more road markings in the image further comprises the road marking detector determining a region of interest in the image and detecting the one or more road markings in the region of interest. A road surface sign attribute detecting means for identifying an attribute of the road surface sign,
The step of identifying the attribute of the road surface sign further includes the step of the road surface sign attribute detection means identifying the type and number of the detected road surface sign,
In the step of analyzing the characteristics of the image area outside the detected road sign, the characteristic analysis module includes a characteristic vector composed of a combination of a plurality of image characteristics inside the road sign and the same outside the road sign. If there is a similarity between the feature vector comprising a combination of a plurality of image characteristics, it is determined that the vehicle is able to enter the area outside the secure the road marking, further, on the outside of the road markings A plurality of image characteristics are compared with the image characteristics in the database of the image area, and based on this database, including a level that allows safe driving and a level that does not allow safe driving outside the road surface sign, We have at least two rows of the evaluation of,
The step of generating the warning signal further includes the step of causing the lane departure detector to generate a warning signal as a function of the attribute in addition to the lateral offset and the ease of driving evaluation. And
The step of detecting the road surface sign is further characterized in that a symbol detection means detects an image feature representing the symbol on the road, identifies such an image feature, and the image feature is a symbol representing a preset warning. or if the character is a label, and wherein the free Mukoto the step of informing the driver of the presence of said labeled by speech.
前記路面標識検出器が、前記検出された路面標識を追跡するステップをさらに含んでいる、請求項1に記載の方法。 The method of claim 1, wherein the road marking detector further comprises tracking the detected road marking. 前記路面標識検出器が、前記検出された路面標識の妥当性に基づいて、該検出された路面標識の中から、1セットの路面標識を選択するステップをさらに含んでいる、請求項1に記載の方法。 The road sign detector further comprises selecting a set of road signs from the detected road signs based on the validity of the detected road signs. the method of. 前記路面標識検出器が、前記選択された路面標識を追跡するステップをさらに含んでいる、請求項3に記載の方法。 The method of claim 3, wherein the road marking detector further comprises tracking the selected road marking. 前記路面標識を検出するステップは、さらに、前記路面標識検出器が、前記画像内にクラッタを検出し、そのようなクラッタを、路面標識検出の考察から外すステップを含んでいる、請求項1〜4のいずれか1項に記載の方法。 The step of detecting the road marking further comprises the step of the road marking detector detecting clutter in the image and removing such clutter from consideration of road marking detection. 5. The method according to any one of 4 above. ビデオイメージャから車両の前方の道路の画像を受け取るように構成されている画像処理手段と、
前記画像内に、前記道路上の路面標識に対応する1つ以上の路面標識を検出するように構成されている路面標識検出器と、
前記検出された路面標識の外側の画像領域に対応する道路の運転しやすさの評価を決定するために、該画像領域の特性を分析するように構成されている特性分析モジュールと、
前記検出された路面標識に基づいて、該路面標識に相対的に前記車両の道路上の横方向のオフセットを検出するように構成されているオフセット検出手段と、
前記横方向のオフセットおよび前記評価の関数として、警告信号を発生させるように構成されている車線逸脱検出器とを備え、
前記路面標識検出器は、さらに、前記画像内に関心領域を決定し、該関心領域内に1つ以上の路面標識を検出するように構成されており、
前記特性分析モジュールは、前記路面標識の内側における複数の画像特性の組み合わせからなる特性ベクトルと、前記路面標識の外側における同じ複数の画像特性の組み合わせからなる特性ベクトルとの間に近似性がある場合、車両が安全に前記路面標識の外側の領域に進入することができると判断し、さらに、前記路面標識の外側における複数の画像特性を、前記画像領域のデータベースにおける画像特性と比較し、このデータベースに基づき、前記路面標識の外側における、安全な走行が可能なレベル、及び安全な走行が不可能なレベルを含む、少なくとも2つの分類を行うように構成されており、
前記道路上の記号を表わす画像フィーチャを検出し、そのような画像フィーチャを特定し、該画像フィーチャが、予め設定した警告を表す記号又は文字の標識である場合には、音声により該標識の存在を運転手により知らせる記号検出手段をさらに備えている、道路上の車両のための、ビデオ画像に基づいて車線逸脱を警告する装置。
Image processing means configured to receive an image of a road ahead of the vehicle from a video imager;
A road marking detector configured to detect in the image one or more road markings corresponding to road markings on the road;
A characteristic analysis module configured to analyze characteristics of the image area to determine an evaluation of road drivability corresponding to the image area outside the detected road surface sign;
Offset detecting means configured to detect a lateral offset on the road of the vehicle relative to the road surface sign based on the detected road sign;
A lane departure detector configured to generate a warning signal as a function of the lateral offset and the evaluation;
The road marking detector is further configured to determine a region of interest in the image and to detect one or more road markings in the region of interest;
The characteristic analysis module has an approximation between a characteristic vector composed of a combination of a plurality of image characteristics inside the road surface sign and a characteristic vector composed of a combination of the same plurality of image characteristics outside the road sign Determining that the vehicle can safely enter the area outside the road sign, and comparing a plurality of image characteristics outside the road sign with image characteristics in the image area database; Is configured to perform at least two classifications including a level at which safe driving is possible and a level at which safe driving is impossible outside the road surface sign,
Detecting an image feature representing a symbol on the road, identifying such an image feature, and if the image feature is a symbol or character sign representing a preset warning, the presence of the sign by voice A lane departure warning device based on a video image for a vehicle on a road, further comprising symbol detection means for informing the driver of the vehicle.
前記装置は、さらに、前記路面標識の属性を特定するように構成されている路面標識属性検出手段を備えており、
前記車線逸脱検出器は、さらに、前記横方向のオフセットおよび前記評価に加えて、前記属性の関数として、警告信号を発生させるように構成されている、請求項6に記載の装置。
The apparatus further comprises road marking attribute detection means configured to identify an attribute of the road marking,
The apparatus of claim 6, wherein the lane departure detector is further configured to generate a warning signal as a function of the attribute in addition to the lateral offset and the evaluation.
前記路面標識属性検出手段は、さらに、前記検出された路面標識のタイプおよび数を特定するように構成されている、請求項7に記載の装置。   The apparatus according to claim 7, wherein the road marking attribute detection means is further configured to identify a type and number of the detected road markings. 前記検出された路面標識を、1つ以上の道路画像フレームにおいて追跡するように構成されている追跡モジュールをさらに備えている、請求項6〜8のいずれか1項に記載の装置。   9. The apparatus of any one of claims 6-8, further comprising a tracking module configured to track the detected road marking in one or more road image frames.
JP2010247154A 2009-11-04 2010-11-04 Road characteristic analysis based on video image, lane detection, and lane departure prevention method and apparatus Active JP5868586B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010247154A JP5868586B2 (en) 2009-11-04 2010-11-04 Road characteristic analysis based on video image, lane detection, and lane departure prevention method and apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009253354 2009-11-04
JP2009253354 2009-11-04
JP2010247154A JP5868586B2 (en) 2009-11-04 2010-11-04 Road characteristic analysis based on video image, lane detection, and lane departure prevention method and apparatus

Publications (2)

Publication Number Publication Date
JP2011118889A JP2011118889A (en) 2011-06-16
JP5868586B2 true JP5868586B2 (en) 2016-02-24

Family

ID=44284079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010247154A Active JP5868586B2 (en) 2009-11-04 2010-11-04 Road characteristic analysis based on video image, lane detection, and lane departure prevention method and apparatus

Country Status (1)

Country Link
JP (1) JP5868586B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11551459B1 (en) * 2022-06-27 2023-01-10 Plusai, Inc. Ambiguous lane detection event miner

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5974923B2 (en) * 2013-02-15 2016-08-23 アイシン・エィ・ダブリュ株式会社 Road edge detection system, method and program
KR102233319B1 (en) * 2014-01-20 2021-03-29 삼성전자주식회사 A method for tracing a region of interest, a radiation imaging apparatus, a method for controlling the radiation imaging apparatus and a radiographic method
EP2899669A1 (en) * 2014-01-22 2015-07-29 Honda Research Institute Europe GmbH Lane relative position estimation method and system for driver assistance systems
EP3845427A1 (en) * 2015-02-10 2021-07-07 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
DE102016104730A1 (en) * 2016-03-15 2017-09-21 Connaught Electronics Ltd. Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle
WO2020014683A1 (en) * 2018-07-13 2020-01-16 Kache.AI Systems and methods for autonomous object detection and vehicle following
CN109670404B (en) * 2018-11-23 2023-07-11 江苏理工学院 Road ponding image detection early warning method based on hybrid model
CN110733416B (en) * 2019-09-16 2022-09-16 江苏大学 Lane departure early warning method based on inverse perspective transformation
CN112567439B (en) * 2020-11-09 2022-11-29 驭势(上海)汽车科技有限公司 Method and device for determining traffic flow information, electronic equipment and storage medium
CN112529966B (en) * 2020-12-17 2023-09-15 豪威科技(武汉)有限公司 On-line calibration method of vehicle-mounted looking-around system and vehicle-mounted looking-around system thereof

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0973545A (en) * 1995-09-07 1997-03-18 Fujitsu Ten Ltd White line recognition device
JP4016735B2 (en) * 2001-11-30 2007-12-05 株式会社日立製作所 Lane mark recognition method
JP2005128790A (en) * 2003-10-23 2005-05-19 Fuji Heavy Ind Ltd Speed limit recognition device, speed limit display device, speed-warning device, and speed controller
JP2005157731A (en) * 2003-11-26 2005-06-16 Nissan Motor Co Ltd Lane recognizing device and method
JP4600038B2 (en) * 2004-12-27 2010-12-15 日産自動車株式会社 Lane departure prevention method and apparatus
JP2007193651A (en) * 2006-01-20 2007-08-02 Clarion Co Ltd Lane detection device and lane deviation alarm device
JP5064257B2 (en) * 2008-01-31 2012-10-31 矢崎総業株式会社 Peripheral situation recording device for vehicles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11551459B1 (en) * 2022-06-27 2023-01-10 Plusai, Inc. Ambiguous lane detection event miner

Also Published As

Publication number Publication date
JP2011118889A (en) 2011-06-16

Similar Documents

Publication Publication Date Title
JP5868586B2 (en) Road characteristic analysis based on video image, lane detection, and lane departure prevention method and apparatus
EP2118818B1 (en) Video-based road departure warning
US10521676B2 (en) Lane detection device, lane departure determination device, lane detection method and lane departure determination method
US8670592B2 (en) Clear path detection using segmentation-based method
US8184159B2 (en) Forward looking sensor system
US8605947B2 (en) Method for detecting a clear path of travel for a vehicle enhanced by object detection
US10081308B2 (en) Image-based vehicle detection and distance measuring method and apparatus
US8890951B2 (en) Clear path detection with patch smoothing approach
CN101670835B (en) Road-lane marker detection
US7027615B2 (en) Vision-based highway overhead structure detection system
US8175331B2 (en) Vehicle surroundings monitoring apparatus, method, and program
EP2993654A1 (en) Method and system for forward collision warning
EP3832529A1 (en) Detection of obstacles at night by analysis of shadows
KR102318586B1 (en) Method of detecting median strip and predicting collision risk through analysis of images
JP2011118890A (en) Method and system for detecting whole lane boundary
JP6003585B2 (en) Intersection detection method and intersection detection system
JP3786113B2 (en) Approach prediction device
JPH0844999A (en) Approach prediction device
JP5888275B2 (en) Road edge detection system, method and program
US11423661B2 (en) Object recognition apparatus
JP3517999B2 (en) Vehicle recognition device
CN116659540B (en) Traffic guardrail identification method in automatic driving process
JP7402756B2 (en) Environmental map generation method and environmental map generation device
WO2023276225A1 (en) Driving assistance device and driving assistance method
Wu et al. Image processing techniques for lane-related information extraction and multi-vehicle detection in intelligent highway vehicles

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20101130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160106

R150 Certificate of patent or registration of utility model

Ref document number: 5868586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250