JP4821348B2 - Road section line detection apparatus and method, and program - Google Patents

Road section line detection apparatus and method, and program Download PDF

Info

Publication number
JP4821348B2
JP4821348B2 JP2006030169A JP2006030169A JP4821348B2 JP 4821348 B2 JP4821348 B2 JP 4821348B2 JP 2006030169 A JP2006030169 A JP 2006030169A JP 2006030169 A JP2006030169 A JP 2006030169A JP 4821348 B2 JP4821348 B2 JP 4821348B2
Authority
JP
Japan
Prior art keywords
region
road
interest
feature points
road section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006030169A
Other languages
Japanese (ja)
Other versions
JP2007213166A (en
Inventor
伸 小池
友康 玉置
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006030169A priority Critical patent/JP4821348B2/en
Publication of JP2007213166A publication Critical patent/JP2007213166A/en
Application granted granted Critical
Publication of JP4821348B2 publication Critical patent/JP4821348B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Description

本発明は、道路区間線を検出する道路区間線検出装置及び方法並びにプログラムに関する。   The present invention relates to a road section line detection apparatus, method, and program for detecting a road section line.

従来から、車両に搭載されて車両前方を撮影する撮像手段と、前記撮像手段により撮像された画像の輝度変化に基づいて、レーンマーカ認識処理を行う第1のレーンマーカ認識手段と、前記撮像手段により撮像された画像と所定のテンプレートとのパターンマッチングにより、レーンマーカ認識処理を行う第2のレーンマーカ認識手段と、車両前方に光信号を送出する信号送出手段と、前記信号送出手段から送出された光信号の反射信号を受信する信号受信手段と、前記信号受信手段により受信した反射信号の受信量に基づいて、前記第1のレーンマーカ認識手段および前記第2のレーンマーカ認識手段のうちのいずれか一方を選択する選択手段とを備えることを特徴とするレーンマーカ認識装置が知られている(例えば、特許文献1参照)。
特開2004−139338号公報
2. Description of the Related Art Conventionally, an imaging unit that is mounted on a vehicle and images the front of the vehicle, a first lane marker recognition unit that performs a lane marker recognition process based on a change in luminance of an image captured by the imaging unit, and an image that is captured by the imaging unit A second lane marker recognizing unit that performs a lane marker recognizing process by pattern matching between the generated image and a predetermined template, a signal transmitting unit that transmits an optical signal to the front of the vehicle, and an optical signal transmitted from the signal transmitting unit. One of the first lane marker recognizing means and the second lane marker recognizing means is selected based on the signal receiving means for receiving the reflected signal and the received amount of the reflected signal received by the signal receiving means. A lane marker recognition device including a selection unit is known (for example, see Patent Document 1).
JP 2004-139338 A

ところで、一般的に、道路区間線は、上記の従来技術のように、画像中に含まれる道路区画線に関わる画素の信号レベルと、それ以外の領域の画素の信号レベルとの差(例えば輝度差)に基づいて、検出される。   By the way, in general, the road section line is the difference between the signal level of the pixel related to the road marking line included in the image and the signal level of the pixel in the other region (for example, luminance) as in the above-described conventional technology. Is detected based on the difference.

しかしながら、単に信号レベルの差のみに着目するだけでは、ノイズの影響を適切に除去することができない虞がある。   However, there is a possibility that the influence of noise cannot be appropriately removed simply by focusing on only the difference in signal level.

また、車両から路面を含む風景を撮像して、周囲画像を取得する場合、得られる周囲画像の信号レベルは、周囲光のような車両の周囲環境の影響を受ける。このため、車両の周囲環境によっては、道路区画線に関わる画素の信号レベルと、それ以外の領域の画素の信号レベルとの差が小さく、道路区間線の検出に必要な信号レベル差が得られない場合がある。   Further, when a landscape including a road surface is imaged from a vehicle and an ambient image is acquired, the signal level of the obtained ambient image is affected by the ambient environment of the vehicle such as ambient light. For this reason, depending on the surrounding environment of the vehicle, the difference between the signal level of the pixel related to the road lane marking and the signal level of the pixel in other areas is small, and the signal level difference necessary for detection of the road section line can be obtained. There may not be.

そこで、本発明は、周囲環境の影響やノイズの影響を受け難い態様で、道路区間線を高精度に検出することができる道路区間線検出装置及び方法並びにプログラムの提供を目的とする。   Therefore, an object of the present invention is to provide a road section line detection apparatus, method, and program capable of detecting a road section line with high accuracy in a manner that is less susceptible to the influence of the surrounding environment and noise.

上記目的を達成するため、第1の発明に係る道路区間線検出装置は、車両から路面を含む風景を撮像して、周囲画像を取得する撮像手段と、
周囲画像の着目領域における輝度、色相又は彩度を表す信号レベルのばらつき度合いを算出し、算出したばらつき度合いが閾値より大きいか否かに基づいて、該着目領域内に、道路区間線の特徴点が存在するか否かを判定する判定手段と、
前記着目領域よりも大きな領域における輝度、色相又は彩度を表す信号レベルのばらつき度合いを算出し、算出したばらつき度合いに基づいて、前記閾値を設定する閾値設定手段と、
前記判定手段により道路区間線の特徴点が存在しないと判定された着目領域内の特徴点を全て破棄しつつ、前記判定手段により道路区間線の特徴点が存在すると判定された着目領域内の特徴点のみに基づいて、道路区間線の特徴点を検出する特徴点検出手段とを備え、
前記特徴点検出手段により検出された道路区間線の特徴点に基づいて、道路区間線を検出することを特徴とする。
In order to achieve the above object, a road section line detection device according to a first aspect of the present invention is an imaging unit that captures a landscape including a road surface from a vehicle and acquires a surrounding image;
The degree of signal level variation representing luminance, hue, or saturation in the region of interest of the surrounding image is calculated, and the feature points of the road section line are calculated in the region of interest based on whether the calculated degree of variation is greater than a threshold. Determining means for determining whether or not exists,
Threshold value setting means for calculating a variation level of a signal level representing luminance, hue or saturation in a region larger than the region of interest, and setting the threshold value based on the calculated variation level;
The determination means all feature points in the target area where the feature point is determined not to exist in the road section line while discarded by the features of interest within the region feature point of the road section wire is determined to exist by said judgment means Feature point detecting means for detecting feature points of road section lines based only on the points,
A road segment line is detected based on a feature point of the road segment line detected by the feature point detection means.

第2の発明は、第1の発明に係る道路区間線検出装置において、
前記着目領域は、複数個設定され、前記判定手段は、着目領域毎に前記判定を行うことを特徴とする。
The second invention is the road section line detection device according to the first invention,
A plurality of the regions of interest are set, and the determination unit performs the determination for each region of interest.

第3の発明は、第2の発明に係る道路区間線検出装置において、
前記閾値設定手段は、各着目領域に対して算出されたばらつき度合いの平均値に基づいて、前記閾値を設定することを特徴とする。
A third aspect of the present invention is the road section line detection device according to the second aspect of the present invention,
The threshold setting means sets the threshold based on an average value of the degree of variation calculated for each region of interest.

第4の発明は、第1〜3のいずれかの発明に係る道路区間線検出装置において、
前記閾値設定手段は、道路区間線の特徴点が存在すると判定された着目領域内の特徴点の数に基づいて、前記閾値を設定することを特徴とする。
4th invention is the road segment line detection apparatus which concerns on either 1st-3rd invention,
The threshold value setting means sets the threshold value based on the number of feature points in a region of interest determined that a feature point on a road section line exists.

第5の発明は、第1〜4のいずれかの発明に係る道路区間線検出装置において、
前記周囲画像は、フレーム毎に処理され、
前記閾値設定手段により設定された閾値は、次フレームの周囲画像に対する前記判定手段による判定に用いられることを特徴とする。
5th invention is the road section line detection apparatus which concerns on either invention of 1-4,
The surrounding image is processed for each frame,
The threshold value set by the threshold value setting unit is used for determination by the determination unit for the surrounding image of the next frame.

第6の発明は、第1〜5のいずれかの発明に係る道路区間線検出装置において、
前記信号レベルのばらつき度合いは、モルフォロジー演算処理後の周囲画像に基づいて算出されることを特徴とする。
6th invention is the road section line detection apparatus which concerns on either invention of 1-5,
The degree of variation in the signal level is calculated based on a surrounding image after morphological operation processing.

第7の発明は、第1〜6のいずれかの発明に係る道路区間線検出装置において、
前記道路区間線は、間隔をおいて点状に設けられる類の道路区画線であることを特徴とする。
In a seventh aspect of the present invention, in the road section line detection device according to any one of the first to sixth aspects of the invention,
The road section line is a kind of road demarcation line that is provided in the form of dots at intervals.

上記目的を達成するため、第8の発明に係る道路区間線検出方法は、車両から撮像手段が撮像した路面を含む周囲画像を取得するステップと、
周囲画像の着目領域における輝度、色相又は彩度を表す信号レベルのばらつき度合いを算出し、算出したばらつき度合いが閾値より大きいか否かに基づいて、該着目領域内に、道路区間線の特徴点が存在するか否かを判定する判定ステップと、
前記着目領域よりも大きな領域における輝度、色相又は彩度を表す信号レベルのばらつき度合いを算出し、算出したばらつき度合いに基づいて、前記閾値を設定する閾値設定ステップと、
前記判定ステップにおいて道路区間線の特徴点が存在しないと判定された着目領域内の特徴点を全て破棄しつつ、前記判定ステップにおいて道路区間線の特徴点が存在すると判定された着目領域内の特徴点のみに基づいて、道路区間線の特徴点を検出する特徴点検出ステップと、
前記特徴点検出ステップにおいて検出された着目領域内の道路区間線の特徴点に基づいて、道路区間線を検出するステップとを含むことを特徴とする。
In order to achieve the above object, a road section line detection method according to an eighth aspect of the invention acquires a surrounding image including a road surface imaged by an imaging means from a vehicle;
The degree of signal level variation representing luminance, hue, or saturation in the region of interest of the surrounding image is calculated, and the feature points of the road section line are calculated in the region of interest based on whether the calculated degree of variation is greater than a threshold. A determination step of determining whether or not exists,
A threshold setting step of calculating a variation level of a signal level representing luminance, hue or saturation in a region larger than the region of interest, and setting the threshold based on the calculated variation level;
Wherein while all feature points in the target area where the feature point is determined not to exist in the road section line in the determination step discarded, characterized in interest in the region feature point of the road section wire is determined to exist in said determining step A feature point detecting step for detecting a feature point of a road section line based only on the point;
And a step of detecting a road section line based on the feature points of the road section line in the region of interest detected in the feature point detecting step.

上記目的を達成するため、第9の発明に係るコンピューター読み取り可能なプログラムは、コンピューターをして、(1)車両から撮像手段が撮像した路面を含む周囲画像を取得する処理、
(2)周囲画像の着目領域における輝度、色相又は彩度を表す信号レベルのばらつき度合いを算出し、算出したばらつき度合いが閾値より大きいか否かに基づいて、該着目領域内に、道路区間線の特徴点が存在するか否かを判定する処理、
(3)道路区間線の特徴点が存在しないと判定された着目領域内の特徴点を全て破棄しつつ、道路区間線の特徴点が存在すると判定された着目領域内の特徴点のみに基づいて、道路区間線の特徴点を検出する処理、及び、
(4)前記検出された着目領域内の道路区間線の特徴点に基づいて、道路区間線を検出する処理を実行させることを特徴とする。
In order to achieve the above object, a computer readable program according to a ninth aspect of the invention is a computer, and (1) a process of acquiring a surrounding image including a road surface imaged by an imaging means from a vehicle,
(2) The degree of variation of the signal level representing the luminance, hue, or saturation in the region of interest of the surrounding image is calculated, and the road segment line is included in the region of interest based on whether the calculated degree of variation is greater than a threshold value. A process for determining whether or not a feature point exists,
(3) Discarding all the feature points in the target area determined that the feature points of the road section line do not exist, and only based on the feature points in the target area determined to have the feature points of the road section line , Processing for detecting feature points of road section lines , and
(4) A process for detecting a road section line is executed based on the detected feature point of the road section line in the region of interest .

本発明によれば、周囲環境の影響やノイズの影響を受け難い態様で、道路区間線を高精度に検出することができる道路区間線検出装置及び方法並びにプログラムが得られる。   ADVANTAGE OF THE INVENTION According to this invention, the road segment line detection apparatus, method, and program which can detect a road segment line with high precision in the aspect which is hard to receive to the influence of surrounding environment and noise are obtained.

以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明による道路区画線検出装置の一実施例を含むシステム構成図である。本実施例の道路区画線検出装置100には、車両から路面を含む風景を撮像するカメラ10が接続される。カメラ10は、CCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)等の撮像素子により、例えば500万画素を有する路面を含む周囲画像を取得する。カメラ10は、例えばルームミラーに取り付けられ、車両前方の路面を撮像するものであってもよいし、例えばサイドミラーに取り付けられ、車両側方の路面を撮像するものであってもよいし、例えばバックドアに取り付けられ、車両後方の路面を撮像するものであってもよい。   FIG. 1 is a system configuration diagram including an embodiment of a road marking line detection apparatus according to the present invention. A camera 10 that captures a landscape including a road surface from a vehicle is connected to the road marking line detection device 100 of the present embodiment. The camera 10 obtains a surrounding image including a road surface having 5 million pixels, for example, by an imaging element such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). The camera 10 may be attached to a rearview mirror, for example, and may capture a road surface in front of the vehicle, or may be attached to a side mirror, for example, to capture a road surface on the side of the vehicle, It may be attached to the back door and image the road surface behind the vehicle.

カメラ10は、好ましくはリアルタイムに周囲画像を取得し、取得された周囲画像は、道路区画線検出装置100に供給される。この場合、周囲画像は、適切なフレームレートのストリーム形式で道路区画線検出装置100に供給されてよい。   The camera 10 preferably acquires a surrounding image in real time, and the acquired surrounding image is supplied to the road marking line detection device 100. In this case, the surrounding image may be supplied to the road marking line detection apparatus 100 in a stream format with an appropriate frame rate.

道路区画線検出装置100は、以下詳説する如く、カメラ10から供給される周囲画像に基づいて、車両周辺の道路区画線を検出する。例えば、車両進行方向前方の路面を撮像するカメラ10の場合、道路区画線検出装置100は、車両前方の道路区画線を検出する。道路区画線は、道路上における白線、ボッツドッツ(Botts Dots)、キャッツアイ等を含む。なお、白線には、黄色線等の任意の色の線、実線、破線、点線、二重線等の道路を区画するあらゆる線を含んでよい。   As will be described in detail below, the road marking line detection device 100 detects road marking lines around the vehicle based on the surrounding image supplied from the camera 10. For example, in the case of the camera 10 that images the road surface ahead of the vehicle traveling direction, the road lane marking detection device 100 detects a road lane marking ahead of the vehicle. Road lane markings include white lines on the road, Botts Dots, cat's eyes, and the like. The white line may include any line that divides the road, such as a line of an arbitrary color such as a yellow line, a solid line, a broken line, a dotted line, and a double line.

図2は、ボッツドッツ及びキャッツアイの説明図である。ボッツドッツ51は、主として北米で用いられる区画線であり、例えばセラミックからなる、直径100mm程度の立体状の円盤を複数並べて、路面に埋め込んだものである(図2(a))。一方、キャッツアイ53は、略矩形状に形成された反射体を複数並べた区画線であり、入射光を同一の方向に反射する特性を有している(図2(b))。キャッツアイ53のみから構成される区画線は、例えば、日本では、高速道路以外のカーブ道路等で使用されており、北米では、カーブ道路だけでなく、直線道路でも使用されている。ボッツドッツ51及びキャッツアイ53は、いずれも路面から僅かに突出した状態で配設されている。   FIG. 2 is an explanatory diagram of botsdots and cat's eyes. The botsdots 51 is a lane marking mainly used in North America, and is formed by arranging a plurality of solid disks having a diameter of about 100 mm made of ceramic, for example, and embedded in the road surface (FIG. 2A). On the other hand, the cat's eye 53 is a dividing line in which a plurality of reflectors formed in a substantially rectangular shape are arranged, and has a characteristic of reflecting incident light in the same direction (FIG. 2B). For example, in Japan, a lane marking composed only of the cat's eye 53 is used on a curved road other than a highway, and in North America, it is used not only on a curved road but also on a straight road. Both the bots dot 51 and the cat's eye 53 are arranged in a state of slightly protruding from the road surface.

道路区画線検出装置100による道路区画線の検出結果は、車線に沿った車両走行を支援する各種車載システムに用いられうる。   The detection result of the road lane marking by the road lane marking detection apparatus 100 can be used for various in-vehicle systems that support vehicle travel along the lane.

例えば、図1に示す例では、道路区画線検出装置100には、車両の走行支援を行う走行支援ECU30が通信回線を介して接続されている。道路区画線検出装置100は、道路区画線の検出結果を走行支援ECU30に通信回線を介して送信する。   For example, in the example illustrated in FIG. 1, the road lane marking detection apparatus 100 is connected to a travel support ECU 30 that supports travel of the vehicle via a communication line. The road marking line detection device 100 transmits the road marking line detection result to the travel support ECU 30 via the communication line.

走行支援ECU30は、車両LAN(Local Area Network)等の通信回線33に接続されている。また、車両LAN33には、ステアリングに付与されるアシスト力を制御する電動パワーステアリングECU(EMPS−ECU)35が接続されている。さらに、車両LAN33には、エンジンを統合的に制御するエンジンECU(EFI−ECU)37と、メータパネルの表示等を制御するメータECU39とが接続されている。これら走行支援ECU30、EMPS−ECU35、EFI−ECU37、メータECU39は、車両LAN33を介して、CANプロトコル等に基づいた、双方向のデータ通信を行う。   The driving support ECU 30 is connected to a communication line 33 such as a vehicle LAN (Local Area Network). The vehicle LAN 33 is connected to an electric power steering ECU (EMPS-ECU) 35 that controls the assist force applied to the steering. Furthermore, an engine ECU (EFI-ECU) 37 that controls the engine in an integrated manner and a meter ECU 39 that controls display of a meter panel and the like are connected to the vehicle LAN 33. These travel support ECU 30, EMPS-ECU 35, EFI-ECU 37, and meter ECU 39 perform bidirectional data communication based on the CAN protocol or the like via the vehicle LAN 33.

EMPS−ECU35には、ステアリングにアシスト力を付与する電動モータ等のステアリングアクチュエータ35aが接続されている。EMPS−ECU35は、走行支援ECU30から送信されたトルク値(電流値)に基づいて、ステアリングアクチュエータ35aを駆動、制御する。   The EMPS-ECU 35 is connected to a steering actuator 35a such as an electric motor that applies assist force to the steering. The EMPS-ECU 35 drives and controls the steering actuator 35a based on the torque value (current value) transmitted from the travel support ECU 30.

EFI−ECU37には、車速を検出する車速センサ37aと、ステアリングの操舵角を検出する操舵角センサ37bが接続されている。車速センサ37aにより検出された車速、および操舵角センサ37bにより検出された操舵角は、EFI−ECU37および車両LAN33を介して、走行支援ECU30に送信される。   A vehicle speed sensor 37a for detecting the vehicle speed and a steering angle sensor 37b for detecting the steering angle of the steering are connected to the EFI-ECU 37. The vehicle speed detected by the vehicle speed sensor 37 a and the steering angle detected by the steering angle sensor 37 b are transmitted to the travel support ECU 30 via the EFI-ECU 37 and the vehicle LAN 33.

走行支援ECU30は、道路区画線検出装置100から通信回線を介して送信された道路区画線の検出結果と運転者の運転状況と基づいて、その後の車両の位置を予測し、自車両が区画線を逸脱するおそれがあると判断した場合に、警報信号をメータECU39に送信する(車線逸脱制御)。メータECU39は、走行支援ECU30からの警報信号を受信すると、ブザー39aに警告音を発生させ、及び/又は警告ランプ39bを点灯させる。   The driving assistance ECU 30 predicts the position of the subsequent vehicle based on the road lane line detection result transmitted from the road lane line detection device 100 via the communication line and the driving situation of the driver, and the own vehicle is When it is determined that there is a possibility of deviating from the above, an alarm signal is transmitted to the meter ECU 39 (lane departure control). When the meter ECU 39 receives an alarm signal from the driving support ECU 30, the meter ECU 39 generates a warning sound in the buzzer 39a and / or turns on the warning lamp 39b.

また、走行支援ECU30は、道路区画線検出装置100から通信回線を介して送信された道路区画線の検出結果に基づいて、自車両の推定位置を算出する。さらに、走行支援ECU30は、算出された自車両の推定位置と、車速センサ37aにより検出された車速と、操舵角センサ37bにより検出された操舵角と、に基づいて、自車両が区画線の略中央を走行する為に必要とするアシスト操舵力(電流値)を算出し、EMPS−ECU35に送信する(車線維持制御)。EMPS−ECU35は、走行支援ECU30から送信されたアシスト操舵力に基づいて、ステアリングアクチュエータ35aを制御する。道路区画線の検出結果は、車線逸脱制御や車線維持制御等に用いることができる。本実施例によれば、後述の如く高い精度で道路区画線を検出することができるので、これら各制御を高精度に行うことが可能となる。   Further, the driving support ECU 30 calculates the estimated position of the host vehicle based on the detection result of the road marking line transmitted from the road marking line detection device 100 via the communication line. Further, the driving support ECU 30 determines that the own vehicle is an abbreviation of the lane marking based on the calculated estimated position of the own vehicle, the vehicle speed detected by the vehicle speed sensor 37a, and the steering angle detected by the steering angle sensor 37b. The assist steering force (current value) required for traveling in the center is calculated and transmitted to the EMPS-ECU 35 (lane keeping control). The EMPS-ECU 35 controls the steering actuator 35a based on the assist steering force transmitted from the travel support ECU 30. The detection result of the road marking line can be used for lane departure control, lane maintenance control, and the like. According to the present embodiment, road lane markings can be detected with high accuracy as will be described later, so that each of these controls can be performed with high accuracy.

図3は、本実施例による道路区画線検出装置100の主要部を示す機能ブロック図である。道路区画線検出装置100のハードウェア構成としては、マイクロコンピュータを中心に構成されている。従って、道路区画線検出装置100は、所与の実行プログラムに従って各種処理を行うCPU、このCPUの実行プログラムを格納するROM、画像データ、演算結果等を格納する読書き可能なRAM(Random Access Memory)、タイマ、カウンタ、入出力インターフェイス等を有している。これらCPU、ROM、RAM、及び入出力インターフェイスは、データバスにより相互に接続されている。尚、以下で説明する道路区画線検出装置100の各部は、CPUによって実行されるプログラムによって実現される。   FIG. 3 is a functional block diagram showing the main part of the road marking line detection apparatus 100 according to the present embodiment. A hardware configuration of the road marking line detection apparatus 100 is configured around a microcomputer. Accordingly, the road lane marking detection apparatus 100 includes a CPU that performs various processes according to a given execution program, a ROM that stores the execution program of the CPU, a readable / writable RAM (Random Access Memory) that stores image data, calculation results, and the like. ), Timer, counter, input / output interface, etc. The CPU, ROM, RAM, and input / output interface are connected to each other by a data bus. In addition, each part of the road marking line detection apparatus 100 demonstrated below is implement | achieved by the program run by CPU.

道路区画線検出装置100は、図3に示すように、特徴点抽出部102、ノイズ除去部104、道路区画線検出部106、及び、閾値設定部108を含む。図3に示す各部102等の処理は、周囲画像のフレーム毎に実行される。即ち、随時供給ないし読み出される周囲画像の各フレームに対して、原則的に、それぞれ独立に実行される(もっとも、後述の如く、標準偏差閾値SDTHの設定方法等については、フレーム間で相関性がありうる。)。以下、各部の処理について詳説する。 The road marking line detection apparatus 100 includes a feature point extraction unit 102, a noise removal unit 104, a road marking line detection unit 106, and a threshold setting unit 108, as shown in FIG. 3 is executed for each frame of the surrounding image. That is, in principle, it is executed independently for each frame of the surrounding image that is supplied or read as needed (however, as will be described later, the method of setting the standard deviation threshold value SDTH is correlated between the frames). Can be.) Hereinafter, the processing of each unit will be described in detail.

特徴点抽出部102は、周囲画像内の特徴点を抽出する。特徴点抽出方法は、多種多様であるが、特徴点抽出部102は、好ましくは、モルフォロジー演算により特徴点を抽出する。モルフォロジー演算によれば、予め設定された構造要素Bを使用した集合論的操作により、元画像(濃淡画像)から特定の幾何学的構造をもった要素のみを選択的に抽出することができる。また、ノイズとの判別が困難な上述のボッツドッツ及びキャッツアイ等の点状の道路区間線を、比較的容易に検出することができる。   The feature point extraction unit 102 extracts feature points in the surrounding image. Although there are various feature point extraction methods, the feature point extraction unit 102 preferably extracts feature points by morphological operations. According to the morphological operation, only elements having a specific geometric structure can be selectively extracted from the original image (grayscale image) by a set-theoretic operation using a preset structural element B. In addition, it is possible to relatively easily detect the dotted road segment lines such as the above-described botsdots and cat's eyes that are difficult to distinguish from noise.

ここでは、好ましい実施例として、モルフォロジー演算により特徴点抽出処理が実行される場合について説明する。尚、モルフォロジー演算については、例えば「モルフォロジー」(コロナ社)等に詳述されている。   Here, as a preferred embodiment, a case will be described in which feature point extraction processing is executed by morphological operations. The morphological operation is described in detail in “Morphology” (Corona).

特徴点抽出部102には、上述の如く取得される周囲画像が入力される。この際、周囲画像は、光学系に起因する輝度ムラを除去する為にシェーディング補正された後、グレースケール化されてよい。例えば、256階調のグレースケール画像(濃淡画像)とされてよい。以下、かくして入力される周囲画像の濃淡画像を、「入力画像」と称する。   The feature point extraction unit 102 receives the surrounding image acquired as described above. At this time, the surrounding image may be grayscaled after being subjected to shading correction in order to remove luminance unevenness caused by the optical system. For example, it may be a grayscale image (grayscale image) with 256 gradations. Hereinafter, the grayscale image of the surrounding image thus input is referred to as an “input image”.

特徴点抽出部102は、所定の構造要素Bに基づいて、入力画像に対して収縮処理(Erosion)を行って収縮画像を生成し、生成された収縮画像に対して膨張処理(Dilation)を行ってOpening画像を生成する。次いで、特徴点抽出部102は、トップハット変換処理により、入力画像からOpening画像を差引いた差分画像を生成する(図5参照)。   Based on a predetermined structural element B, the feature point extraction unit 102 generates a contracted image by performing contraction processing (Erosion) on the input image, and performs expansion processing (Dilation) on the generated contracted image To generate an Opening image. Next, the feature point extraction unit 102 generates a difference image obtained by subtracting the opening image from the input image by the top hat conversion process (see FIG. 5).

モルフォロジー演算に用いる構造要素Bは、検出対象の道路区間線に応じて適切に設定される。即ち、構造要素Bの大きさは、得られる差分画像において検出対象の道路区間線とそれよりも小さいノイズのみが残存するように、決定される。   The structural element B used for the morphological calculation is appropriately set according to the road segment line to be detected. That is, the size of the structural element B is determined so that only the road segment line to be detected and noise smaller than that remain in the obtained difference image.

ここでは、ノイズとの判別が困難な上述のボッツドッツ及びキャッツアイ等の点状の道路区間線を検出する例として、検出対象物がボッツドッツである場合について説明する。尚、ボッツドッツ及びキャッツアイは、いずれも非常に小さい為、入力画像上では略同一の特性を持った写り方をする。したがって、ボッツドッツ及びキャッツアイのような点状の道路区間線は、同様の態様で検出可能である。   Here, as an example of detecting the dotted road segment lines such as the above-mentioned botsdots and cat's eyes, which are difficult to distinguish from noise, a case where the detection target is a botsdots will be described. Since both the botsdots and cat's eyes are very small, they appear to have substantially the same characteristics on the input image. Accordingly, dotted road segment lines such as botsdots and cat's eyes can be detected in a similar manner.

ボッツドッツの大きさは、見かけ上、「点のような状態」から「横方向へ数ピクセルの幅を持つ」場合まで変化する。トップハット変換の性質は、「構造要素Bよりも小さいものを残す」ことが基本となる為、構造要素Bの大きさをボッツドッツの大きさである10cm+αとすれば、見かけ上10cm以下に見えた場合でも対処できる。αの大きさは実際の実験によって設定されるが、ノイズ等の不要物に係る特徴点が残存しないように、大き過ぎない適度な大きさに設定するのが好ましい。   The size of the botsdots apparently changes from “a state like a point” to a case of “having a width of several pixels in the horizontal direction”. The nature of the top-hat transformation is basically to “leave something smaller than the structural element B”. Therefore, if the size of the structural element B is 10 cm + α, which is the size of the botsdots, it will apparently be 10 cm or less. If you can see it, you can deal with it. The size of α is set by actual experiment, but it is preferable to set it to an appropriate size so as not to leave a feature point related to an unnecessary object such as noise.

図4は、モルフォロジー演算処理を説明するための概念図であり、図4(a)は、入力画像の横方向の任意の1ライン(走査線)上の輝度分布を表す。即ち、図4(a)は、入力画像の画素列の輝度分布信号f(x)を示す(xは、横方向の画素位置を示す)。本例では、図4(a)に示すように、走査線上に、横幅6ピクセルの白線、2ピクセル(pixel)のノイズ、および3ピクセルのボッツドッツが含まれているものとする。また、構造要素Bは、例えば高さが1ピクセル、横幅が5ピクセルとする。   FIG. 4 is a conceptual diagram for explaining the morphological operation processing, and FIG. 4A shows a luminance distribution on one arbitrary line (scanning line) in the horizontal direction of the input image. That is, FIG. 4A shows the luminance distribution signal f (x) of the pixel row of the input image (x indicates the pixel position in the horizontal direction). In this example, as shown in FIG. 4A, it is assumed that a white line having a width of 6 pixels, a noise of 2 pixels (pixel), and a botsdot of 3 pixels are included on the scanning line. The structural element B has a height of 1 pixel and a horizontal width of 5 pixels, for example.

図4(b)は、収縮画像の上記走査線上の輝度分布を破線にて示し、入力画像の輝度分布信号f(x)を参考として実線にて示す。即ち、図4(b)は、収縮処理後の輝度分布信号を破線にて示す。収縮処理は、注目画素を中心とした、マスクサイズ幅(構造要素Bに応じて決定される値であって、本例では2.5ピクセル)の範囲内の最小値を探索する処理である。従って、収縮処理により、マスクサイズ(5ピクセル)よりも小さいノイズ及びボッツドッツが消去され、白線を表す幅が収縮される。   In FIG. 4B, the luminance distribution on the scanning line of the contracted image is indicated by a broken line, and the luminance distribution signal f (x) of the input image is indicated by a solid line for reference. That is, FIG. 4B shows the luminance distribution signal after the contraction process by a broken line. The contraction process is a process of searching for a minimum value within a range of a mask size width (a value determined according to the structural element B, which is 2.5 pixels in this example) with the target pixel as the center. Therefore, noise and botsdots smaller than the mask size (5 pixels) are eliminated by the shrinking process, and the width representing the white line is shrunk.

図4(c)は、opening画像の上記走査線上の輝度分布を破線にて示し、入力画像の輝度分布信号f(x)を参考として実線にて示す。opening処理は収縮処理後に膨張処理を行なう処理、すなわち最小値の探索の後に最大値を探索する処理である。従って、膨張処理により、白線を表す幅が復元されるが、ノイズ及びボッツドッツは消去されたままで、復元されない。   In FIG. 4C, the luminance distribution on the scanning line of the opening image is indicated by a broken line, and the luminance distribution signal f (x) of the input image is indicated by a solid line for reference. The opening process is a process of performing an expansion process after the contraction process, that is, a process of searching for the maximum value after searching for the minimum value. Therefore, although the width representing the white line is restored by the expansion process, the noise and the botsdots remain erased and are not restored.

図4(d)は、差分画像の上記走査線上の輝度分布を実線にて示す。即ち、図4(c)は、トップハット変換処理後の輝度分布信号を実線にて示す。入力画像の輝度分布信号f(x)から、opening処理後の輝度分布信号を差分すると、図4(d)に示す如く、構造要素Bよりも大きい白線(点線)に係る輝度分布信号が消去され、構造要素Bよりも小さいノイズおよびボッツドッツのみに係る輝度分布信号が得られることが分かる。特徴点抽出部102は、差分画像における所定輝度レベル以上の画素の点を、特徴点として抽出する。これにより、白線のような構造要素Bよりも大きい物体に係る特徴点が除去され、ノイズおよびボッツドッツに係る特徴点のみが抽出されることになる。   FIG. 4D shows a luminance distribution on the scanning line of the difference image by a solid line. That is, FIG. 4C shows the luminance distribution signal after the top hat conversion process by a solid line. When the luminance distribution signal after the opening process is subtracted from the luminance distribution signal f (x) of the input image, the luminance distribution signal related to the white line (dotted line) larger than the structural element B is deleted as shown in FIG. It can be seen that a luminance distribution signal related to only noise and botsdots smaller than the structural element B can be obtained. The feature point extraction unit 102 extracts pixel points having a predetermined luminance level or higher in the difference image as feature points. As a result, feature points related to an object larger than the structural element B such as a white line are removed, and only feature points related to noise and botsdots are extracted.

尚、上記説明では、高さが1ピクセル、横幅が5ピクセルの一次元構造要素Bを用いているが、例えば、ボッツドッツよりも大きい円形(例えば、直径が4ピクセル)の構造要素(2次元構造要素)Bを用いてもよい。1次元構造要素を用いた場合、ボッツドッツの横幅と等しい補修痕、轍(わだち)の筋、雨の筋等が存在した場合であっても、形状が全く異なるにもかかわらず、除去できない場合がある。さらに、横幅が同じである為、トップハット変換処理を行っても、これら不要物は残存する。しかしながら、このような状況下においても、2次元の構造要素Bを用いれば容易に、上記のような不要物を区別することができる。   In the above description, the one-dimensional structural element B having a height of 1 pixel and a horizontal width of 5 pixels is used. For example, a circular structural element (for example, a diameter of 4 pixels) larger than Botsdots (two-dimensional structure) Element) B may be used. When one-dimensional structural elements are used, even if there are repair marks, wrinkle streaks, rain streaks, etc. equal to the width of the botsdots, they may not be removed even though their shapes are completely different. is there. Furthermore, since the horizontal width is the same, these unnecessary items remain even if the top hat conversion process is performed. However, even in such a situation, the use of the two-dimensional structural element B makes it possible to easily distinguish the above unnecessary items.

また、走査線の方向は、必ずしも横方向である必要はなく、縦方向又は斜め方向であってもよい。また、モルフォロジー演算処理は、入力画像の全領域を認識対象領域として、当該認識対象領域内の全走査ラインに対して実行されてもよいが、予測可能な路面の領域を認識対象領域として限定してもよい。この場合、差分画像は、入力画像よりも全画素数が少なくなる。また、路面領域のうちの車両に近い領域を認識対象領域として限定してもよい。これは、ボッツドッツは直径が10cmしかない為、遠い領域になるとほとんど見えなくなってしまうことを考慮して、10cmのボッツドッツがノイズとの識別が困難なピクセルサイズ(例えば2ピクセル以下)となる領域での無駄な処理を省くためである。   Further, the direction of the scanning line is not necessarily a horizontal direction, and may be a vertical direction or an oblique direction. In addition, the morphological calculation process may be executed for all scan lines in the recognition target area with the entire area of the input image as the recognition target area, but the predictable road surface area is limited as the recognition target area. May be. In this case, the difference image has fewer total pixels than the input image. Moreover, you may limit the area | region near a vehicle among road surface areas as a recognition object area | region. This is an area where a 10 cm bots dot has a pixel size (for example, 2 pixels or less) that is difficult to distinguish from noise, considering that the bots dot is only 10 cm in diameter and is almost invisible in a distant area. This is to eliminate unnecessary processing.

ノイズ除去部104は、特徴点抽出部102により抽出された特徴点に含まれるノイズを除去する。即ち、ノイズ除去部104は、差分画像内に含まれるボッツドッツ以外の要素(主にノイズ)の成分を除去する。   The noise removing unit 104 removes noise included in the feature points extracted by the feature point extracting unit 102. That is, the noise removing unit 104 removes components (mainly noise) components other than the bots dot included in the difference image.

具体的には、ノイズ除去部104は、差分画像(認識対象領域)を幾つかの着目領域に分割し、着目領域毎に、輝度レベルのばらつき度合い(散らばり度合い)を算出し、算出したばらつき度合いが標準偏差閾値SDTHより大きいか否かに基づいて、該着目領域内に、道路区間線の特徴点が存在するか否かを判定する。 Specifically, the noise removing unit 104 divides the difference image (recognition target region) into several regions of interest, calculates the degree of variation in brightness level (degree of dispersion) for each region of interest, and calculates the degree of variation there is judged based on whether a larger standard deviation threshold SD TH, the remarked region, whether the feature point of the road section line exist.

図5は、差分画像に対する着目領域の設定態様の一例を示す。尚、図5に示す例では、認識対象領域は、右斜め方向に延びる道路に対応して略平行四辺形状に設定されており、認識対象領域には、上述の如くボッツドッツとノイズとが混在している。着目領域は、図5に示すように矩形の区域で設定されてもよいし、他の形状の区域で設定されてもよい。また、着目領域は、1走査線上の領域であってもよい。但し、着目領域は、好ましくは、ばらつき度合いが適切に評価されるように、ボッツドッツを表す画素数よりも大きなサイズを有することが望ましい。ばらつき度合いの算出に用いる画素数(標本数)は、差分画像の全画素数やボッツドッツを表す画素数等に依存するが、例えば100画素程度であってよい。   FIG. 5 shows an example of how to set a region of interest for a difference image. In the example shown in FIG. 5, the recognition target area is set in a substantially parallelogram shape corresponding to a road extending diagonally to the right, and the recognition target area includes both botsdots and noise as described above. ing. The region of interest may be set as a rectangular area as shown in FIG. 5, or may be set as an area of another shape. Further, the region of interest may be a region on one scanning line. However, it is desirable that the region of interest has a size larger than the number of pixels representing the botsdots so that the degree of variation is appropriately evaluated. The number of pixels used for calculating the degree of variation (the number of samples) depends on the total number of pixels of the difference image, the number of pixels representing botsdots, and the like, but may be about 100 pixels, for example.

本例では、ばらつき度合いは、輝度レベルの標準偏差として算出される。但し、標準偏差に代えて分散や平均偏差等の統計量が用いられてもよい。また、ばらつき度合いは、好ましくは、着目領域に含まれる全画素の輝度レベルに基づいて導出されるが、着目領域に含まれる画素の幾つかを適切に間引きしてから導出されてもよい。   In this example, the variation degree is calculated as a standard deviation of the luminance level. However, statistics such as variance and average deviation may be used instead of the standard deviation. The degree of variation is preferably derived based on the luminance levels of all the pixels included in the region of interest, but may be derived after appropriately thinning out some of the pixels included in the region of interest.

例えば、ある1着目領域が、N個の画素i(i=1,...N)を有し、各画素i(i=1,...N)の輝度レベルLiである場合、当該1着目領域に対する分散Φは、当該着目領域の各画素i(i=1,...N)の輝度レベルLiの平均値Lavを用いて、
Φ=1/N{(L1―Lav)+(L2―Lav)+...+(LN―Lav)}で表される。従って、1着目領域に対する標準偏差SDは、SD=Φ1/2で表される。以下、着目領域がM個あるとして、各着目領域R(i=1,...M)における標準偏差を、それぞれ記号SD(i=1,...M)で表す。
For example, when a certain region of interest has N pixels i (i = 1,... N) and the luminance level Li of each pixel i (i = 1,... N), The variance Φ for the region of interest is obtained by using the average value Lav of the luminance levels Li of the respective pixels i (i = 1,... N) of the region of interest.
Φ = 1 / N {(L1−Lav) 2 + (L2−Lav) 2 +. . . + (LN−Lav) 2 }. Therefore, the standard deviation SD for one region of interest is expressed as SD = Φ1 / 2 . Hereinafter, assuming that there are M regions of interest, the standard deviations in each region of interest R i (i = 1,... M) are represented by symbols SD i (i = 1,... M), respectively.

ここで、図5に示す着目領域Rのように、着目領域にボッツドッツを表す画素が含まれる場合、図5に示す着目領域Rのように、着目領域にノイズのみが含まれる場合に比べて、標準偏差が有意に大きくなる。即ち、SD>SDとなる。本実施例では、この点に着目し、適切な標準偏差閾値SDTHを設定して、ボッツドッツを含む着目領域と、ボッツドッツを含まない着目領域とを判別する。標準偏差閾値SDTHは、差分画像の解像度やボッツドッツのサイズ(画素数)等を考慮して適切に決定される。標準偏差閾値SDTHは、後述の閾値設定部108により設定される。標準偏差閾値SDTHは、固定であってもよいが、好ましくは後述のように後述の閾値設定部108により可変される。 Here, as in the region of interest R 2 shown in FIG. 5, if it contains pixels representing the Botts' dots to the target region, as the region of interest R 1 shown in FIG. 5, compared with a case that contains only the noise region of interest Therefore, the standard deviation is significantly increased. That is, SD 2 > SD 1 . In the present embodiment, paying attention to this point, an appropriate standard deviation threshold value SD TH is set to discriminate a region of interest that includes botts and dots and a region of interest that does not include bots. The standard deviation threshold value SD TH is appropriately determined in consideration of the resolution of the difference image, the size (number of pixels) of the bots dot, and the like. The standard deviation threshold SD TH is set by a threshold setting unit 108 described later. The standard deviation threshold SD TH may be fixed, but is preferably varied by a threshold setting unit 108 described later as described later.

ノイズ除去部104は、標準偏差SDが標準偏差閾値SDTH以下となる着目領域R(例えば図5に示す着目領域R)に対しては、当該着目領域Rにはノイズ成分のみが含まれると判断して、当該着目領域R内の全特徴点を除去・廃棄する。また、ノイズ除去部104は、標準偏差SDが標準偏差閾値SDTHよりも大きい着目領域R(例えば図5に示す着目領域R)に対しては、当該着目領域Rにはボッツドッツに係る特徴点が含まれると判断して、当該着目領域R内の特徴点を維持する。 For the attention area R i in which the standard deviation SD i is equal to or less than the standard deviation threshold SD TH (for example, the attention area R 1 shown in FIG. 5), the noise removing unit 104 includes only a noise component in the attention area R i. If it is determined that it is included, all feature points in the region of interest R i are removed and discarded. The noise removing unit 104, for the standard deviation SD i standard deviation threshold SD TH larger region of interest than R i (e.g. target region R 2 shown in FIG. 5), the said region of interest R i to Botts' dots It is determined that such a feature point is included, and the feature point in the region of interest R i is maintained.

図6は、ノイズ除去部104による上述のノイズ除去処理後の差分画像を示す。図6に示すように、ノイズ除去処理後には、図5に示す着目領域Rのような輝度レベルの標準偏差が小さい着目領域における全特徴点が除去される。これにより、ノイズ除去処理後には、図5に示す着目領域Rのような輝度レベルの標準偏差が大きい着目領域における特徴点のみが残される。即ち、ボッツドッツが含まれると判断された着目領域における特徴点のみが残される。 FIG. 6 shows the difference image after the above-described noise removal processing by the noise removal unit 104. As shown in FIG. 6, after the noise removal processing, all feature points in the target area small standard deviation of such luminance levels as region of interest R 1 shown in FIG. 5 is removed. Accordingly, after the noise removal process, only the feature points in the target region standard deviation is large brightness level, such as region of interest R 2 shown in FIG. 5 is left. That is, only the feature points in the region of interest determined to include botsdots are left.

道路区画線検出部106は、上述の如くノイズ除去部104によるノイズ除去処理後の差分画像の特徴点に基づいて、ボッツドッツに係る特徴点を検出する。即ち、道路区画線検出部106は、標準偏差SDが標準偏差閾値SDTHよりも大きい着目領域R内で、ボッツドッツに係る特徴点を検出する。ここで、上述の如く、標準偏差SDが標準偏差閾値SDTHよりも大きい着目領域R内においても、ボッツドッツ以外にノイズ成分が依然として残りうるが、ノイズの輝度がボッツドッツの輝度より低い場合は、例えば所定のフィルタ閾値により容易にノイズ成分を除去することができる。一方、ノイズの輝度がボッツドッツの輝度より高い場合は、直線状に並ぶパターンのみを検出するハフ(Hough)変換等により、ボッツドッツに係る特徴点のみを容易に検出することができる。 The road marking line detection unit 106 detects the feature points related to the botsdots based on the feature points of the difference image after the noise removal processing by the noise removal unit 104 as described above. That is, the road marking line detection unit 106 detects a feature point related to the bots dot in the region of interest R i in which the standard deviation SD i is larger than the standard deviation threshold SD TH . Here, as described above, even in the region of interest R i in which the standard deviation SD i is larger than the standard deviation threshold SD TH , noise components can still remain in addition to the botsdots. For example, the noise component can be easily removed by a predetermined filter threshold. On the other hand, when the brightness of noise is higher than the brightness of botsdots, only feature points related to botsdots can be easily detected by Hough transform or the like that detects only a linearly arranged pattern.

道路区画線検出部106は、ボッツドッツに係る特徴点として検出した特徴点に基づいて、特徴点リストを生成して出力する。特徴点リストは、ここでは詳説しないが、それに基づいてボッツドッツの位置や方向(車線方向)の把握が可能であるので、上述の如く道路区画線の検出結果として走行支援ECU30により利用されることになる。   The road lane marking detection unit 106 generates and outputs a feature point list based on the feature points detected as the feature points related to botsdots. Although the feature point list is not described in detail here, the position and direction (lane direction) of the botsdots can be grasped based on the feature point list. Become.

閾値設定部108は、ノイズ除去部104による上述の標準偏差SDによる閾値判定処理で用いられる標準偏差閾値SDTHを、設定する。本例では、閾値設定部108は、入力画像上のノイズ成分の出現態様が1フレーム間では大きく変化しないことに着目して、次回のフレームに対する標準偏差閾値SDTHを設定する。尚、1フレーム目の入力画像に対する標準偏差閾値SDTHは、適切な初期値(例えば6)が設定されてよい。 The threshold setting unit 108 sets the standard deviation threshold SD TH used in the threshold determination processing based on the standard deviation SD i described above by the noise removing unit 104. In this example, the threshold setting unit 108 sets the standard deviation threshold SD TH for the next frame, paying attention to the fact that the appearance mode of the noise component on the input image does not change greatly between one frame. An appropriate initial value (for example, 6) may be set as the standard deviation threshold value SD TH for the input image of the first frame.

具体的には、閾値設定部108は、認識対象領域全体での輝度レベルの標準偏差の平均値SDAVを用いて、以下の式により標準偏差閾値SDTHを決定して設定する。
SDTH=SDAV+β
ここで、βは補正項であり、固定値であってよく、或いは、後述の如く可変値であってもよい。認識対象領域全体の標準偏差の平均値SDAVは、SDAV=1/M(SD+SD+...+SD)で表される。尚、認識対象領域全体の標準偏差の平均値SDAVは、認識対象領域全体に含まれる全画素の輝度レベルに基づく標準偏差であってもよい。
Specifically, the threshold setting unit 108 determines and sets the standard deviation threshold SD TH by the following formula using the average value SD AV of the standard deviation of the luminance level in the entire recognition target region.
SD TH = SD AV + β
Here, β is a correction term and may be a fixed value, or may be a variable value as will be described later. The average value SD AV of the standard deviation of the entire recognition target area is expressed by SD AV = 1 / M (SD 1 + SD 2 + ... + SD M ). Note that the average value SD AV of the standard deviation of the entire recognition target area may be a standard deviation based on the luminance levels of all pixels included in the entire recognition target area.

ところで、周囲光が少ない暗いシーンにおいては、ボッツドッツに関わる画素の輝度レベルが小さくなり、それに伴って、ボッツドッツの画素が含まれる着目領域の標準偏差が小さくなる。しかしながら、かかる場合には、認識対象領域全体の標準偏差の平均値SDAVが小さくなるので、それに伴って、設定される標準偏差閾値SDTHも小さい値となる。 By the way, in a dark scene with little ambient light, the luminance level of the pixels related to the botsdots decreases, and accordingly, the standard deviation of the region of interest including the botsdots pixels decreases. However, in such a case, the average value SD AV of the standard deviation of the entire recognition target area becomes small, and accordingly, the standard deviation threshold value SD TH that is set also becomes a small value.

このように本実施例によれば、入力画像(差分画像)全体の輝度レベルのばらつき度合いを用いて、標準偏差閾値SDTHを設定するので、車両の周囲環境によって入力画像)全体の輝度レベルが全体的に変化した場合であっても、適切な標準偏差閾値SDTHによりボッツドッツに係る特徴点を精度良く検出することができる。 As described above, according to the present embodiment, the standard deviation threshold value SD TH is set using the degree of variation in the luminance level of the entire input image (difference image), so that the luminance level of the entire input image) depends on the surrounding environment of the vehicle. be wholly if changed, it is possible to accurately detect a feature point according to Botts' dots by suitable standard deviation threshold SD TH.

本実施例において、標準偏差閾値SDTHを設定するのに用いる補正項βは、入力画像の状態に応じて動的に変化する可変値であってもよい。例えば、補正項βは、ノイズ除去部104によるノイズ除去処理後の差分画像に含まれる特徴点の数に応じて、変化されてもよい。この場合、閾値設定部108は、特徴点の数が所定数以上の場合(特徴点が多い場合)、標準偏差閾値SDTHが最適値よりも小さいと判断して、補正項βを大きくする。一方、閾値設定部108は、特徴点の数が所定数より小さい場合(特徴点が少ない場合)、標準偏差閾値SDTHが最適値よりも大きいと判断して、補正項βを小さくする。このように、補正項βを入力画像の状態に応じて変化させることで、常に最適な標準偏差閾値SDTHを設定することができ、その結果、ノイズ除去部104によるより適切なノイズ除去を実現することができる。 In the present embodiment, the correction term β used to set the standard deviation threshold value SD TH may be a variable value that dynamically changes according to the state of the input image. For example, the correction term β may be changed according to the number of feature points included in the difference image after the noise removal processing by the noise removal unit 104. In this case, when the number of feature points is equal to or greater than a predetermined number (when there are many feature points), the threshold setting unit 108 determines that the standard deviation threshold SD TH is smaller than the optimum value, and increases the correction term β. On the other hand, when the number of feature points is smaller than the predetermined number (when there are few feature points), the threshold setting unit 108 determines that the standard deviation threshold SD TH is larger than the optimum value, and decreases the correction term β. In this way, by changing the correction term β according to the state of the input image, it is possible to always set the optimum standard deviation threshold value SD TH, and as a result, more appropriate noise removal by the noise removing unit 104 is realized. can do.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

例えば、上述した実施例では、今回のフレームの入力画像に基づいて設定された標準偏差閾値SDTHを、次回のフレームに係るノイズ除去処理に用いているが、今回のフレームの入力画像に基づいて設定された標準偏差閾値SDTHを、今回のフレームに係るノイズ除去処理に用いることも可能である。即ち、ノイズ除去部104によるノイズ除去処理の前段に、標準偏差閾値SDTH(平均値SDAV)を演算・設定し、当該標準偏差閾値SDTHを用いてノイズ除去部104によるノイズ除去処理(閾値判定処理)を実行してもよい。或いは、ノイズ除去部104によるノイズ除去処理の前段で、差分画像の認識対象領域全体に含まれる全画素の輝度レベルに基づく標準偏差を算出し、当該算出した標準偏差を平均値SDAVとして用いることとしてもよい。 For example, in the above-described embodiment, the standard deviation threshold value SD TH set based on the input image of the current frame is used for the noise removal processing related to the next frame, but based on the input image of the current frame. It is also possible to use the set standard deviation threshold value SD TH for the noise removal processing related to the current frame. That is, the standard deviation threshold value SD TH (average value SD AV ) is calculated and set before the noise removing process by the noise removing unit 104, and the noise removing process (threshold value) by the noise removing unit 104 using the standard deviation threshold value SD TH. Determination processing) may be executed. Alternatively, the standard deviation based on the luminance levels of all the pixels included in the entire recognition target area of the difference image is calculated before the noise removing process by the noise removing unit 104, and the calculated standard deviation is used as the average value SD AV. It is good.

また、上述した実施例では、認識対象領域全体の標準偏差の平均値SDAVに基づいて、標準偏差閾値SDTHを決定しているが、ボッツドッツが存在すると判定された着目領域を除く認識対象領域全体の標準偏差の平均値SD’AVに基づいて、標準偏差閾値SDTHを決定してもよい。例えば、着目領域SDにボッツドッツが存在すると判定された場合、SD’AV=1/M(SD+SD+...+SD)で表される標準偏差の平均値に基づいて、標準偏差閾値SDTHを決定してもよい。 In the above-described embodiment, the standard deviation threshold value SD TH is determined based on the average value SD AV of the standard deviation of the entire recognition target area. However, the recognition target area excluding the target area determined to have botts The standard deviation threshold value SD TH may be determined based on the average value SD ′ AV of the whole standard deviation. For example, if it is determined that the Botts 'dots in the target region SD 2 are present, based on the average value of the standard deviation represented by the SD' AV = 1 / M ( SD 1 + SD 3 + ... + SD M), standard deviation A threshold value SD TH may be determined.

また、上述した実施例は、上述の如く、ボッツドッツよりも大きい物体(例えば白線)とボッツドッツが混在する道路上において、白線やノイズを適切に除去しつつ、ボッツドッツを高精度に検出するものであるが、同一のタイプの道路区間線(例えば白線)のみが存在する道路上であれば、当該道路区間線に応じた適切な構造要素を設定し、同様のノイズ除去処理を実行することで、当該道路区間線を高精度に検出することが可能である。   Further, as described above, the above-described embodiment is to detect botsdots with high accuracy while appropriately removing white lines and noise on a road in which an object larger than bottsdots (for example, white line) and botsdots are mixed. However, if it is on a road where only the same type of road section line (for example, a white line) exists, an appropriate structural element corresponding to the road section line is set, and a similar noise removal process is performed. It is possible to detect a road section line with high accuracy.

また、上述した実施例は、ボッツドッツ等のような、通常の白線よりもサイズ(幅)が小さい道路区間線を検出するのに適した処理に関するものであるが、サイズが小さい白線であれば、それに応じた適切な構造要素を設定することで高精度に検出可能である。   In addition, the embodiment described above relates to a process suitable for detecting a road section line having a size (width) smaller than a normal white line, such as botsdots. It is possible to detect with high accuracy by setting appropriate structural elements accordingly.

また、上述した実施例は、ボッツドッツよりも大きい物体に係る特徴点を、モルフォロジー演算により適切に除去しているが、他の方法により除去してもよい。例えば、パターンマッチングやラインエッジ処理により白線が認識可能な場合には、当該認識結果に基づいて白線を除去し、当該白線が除去された画像に対して上述のノイズ除去処理を実行することで、白線やノイズを適切に除去しつつ、ボッツドッツを高精度に検出することができる。   In the above-described embodiment, the feature points related to the object larger than the botsdots are appropriately removed by the morphological operation, but may be removed by other methods. For example, when a white line can be recognized by pattern matching or line edge processing, the white line is removed based on the recognition result, and the above-described noise removal processing is performed on the image from which the white line has been removed. While properly removing white lines and noise, botsdots can be detected with high accuracy.

また、上述した実施例では、輝度レベルのばらつきを利用してボッツドッツ等を高精度に検出するものであるが、カラー画像を入力画像として用い、色相や彩度を表す信号レベルのばらつきを利用してボッツドッツ等を高精度に検出することも可能である。例えば、色相レベルの標準偏差を用いる場合には、同様の態様で、色相レベルの標準偏差に対する適切な標準偏差閾値SDTHを設定すればよい。 Further, in the above-described embodiment, botsdots and the like are detected with high accuracy using luminance level variations, but a color image is used as an input image, and variations in signal levels representing hue and saturation are used. It is also possible to detect botsdots and the like with high accuracy. For example, when the standard deviation of the hue level is used, an appropriate standard deviation threshold SD TH for the standard deviation of the hue level may be set in the same manner.

本発明による道路区画線検出装置の一実施例を含むシステム構成図である。1 is a system configuration diagram including an embodiment of a road marking line detection device according to the present invention. ボッツドッツ及びキャッツアイの説明図である。It is explanatory drawing of a bots dot and a cat's eye. 本実施例による道路区画線検出装置100の主要部を示す機能ブロック図である。It is a functional block diagram which shows the principal part of the road marking line detection apparatus 100 by a present Example. モルフォロジー演算処理を説明するための概念図である。It is a conceptual diagram for demonstrating morphological operation processing. 差分画像に対する着目領域の設定態様の一例を示す図である。It is a figure which shows an example of the setting aspect of the attention area | region with respect to a difference image. ノイズ除去部104による上述のノイズ除去処理後の差分画像を示す図である。It is a figure which shows the difference image after the above-mentioned noise removal process by the noise removal part 104. FIG.

符号の説明Explanation of symbols

10 カメラ
30 走行支援ECU
100 道路区画線検出装置
102 特徴点抽出部
104 ノイズ除去部
106 道路区画線検出部
108 閾値設定部
10 Camera 30 Driving support ECU
DESCRIPTION OF SYMBOLS 100 Road marking line detection apparatus 102 Feature point extraction part 104 Noise removal part 106 Road marking line detection part 108 Threshold setting part

Claims (9)

車両から路面を含む風景を撮像して、周囲画像を取得する撮像手段と、
周囲画像の着目領域における輝度、色相又は彩度を表す信号レベルのばらつき度合いを算出し、算出したばらつき度合いが閾値より大きいか否かに基づいて、該着目領域内に、道路区間線の特徴点が存在するか否かを判定する判定手段と、
前記着目領域よりも大きな領域における輝度、色相又は彩度を表す信号レベルのばらつき度合いを算出し、算出したばらつき度合いに基づいて、前記閾値を設定する閾値設定手段と、
前記判定手段により道路区間線の特徴点が存在しないと判定された着目領域内の特徴点を全て破棄しつつ、前記判定手段により道路区間線の特徴点が存在すると判定された着目領域内の特徴点のみに基づいて、道路区間線の特徴点を検出する特徴点検出手段とを備え、
前記特徴点検出手段により検出された道路区間線の特徴点に基づいて、道路区間線を検出することを特徴とする、道路区間線検出装置。
An imaging means for capturing an image of a landscape including a road surface from a vehicle and acquiring a surrounding image;
The degree of signal level variation representing luminance, hue, or saturation in the region of interest of the surrounding image is calculated, and the feature points of the road section line are calculated in the region of interest based on whether the calculated degree of variation is greater than a threshold. Determining means for determining whether or not exists,
Threshold value setting means for calculating a variation level of a signal level representing luminance, hue or saturation in a region larger than the region of interest, and setting the threshold value based on the calculated variation level;
The features in the target area determined by the determining means that the feature points of the road section line existed while discarding all the feature points in the target area determined that the road section line feature points do not exist by the determining means. Feature point detecting means for detecting feature points of road section lines based only on the points,
A road segment line detection apparatus that detects a road segment line based on a feature point of the road segment line detected by the feature point detection means.
前記着目領域は、複数個設定され、前記判定手段は、着目領域毎に前記判定を行う、請求項1に記載の道路区間線検出装置。   The road segment line detection device according to claim 1, wherein a plurality of the regions of interest are set, and the determination unit performs the determination for each region of interest. 前記閾値設定手段は、各着目領域に対して算出されたばらつき度合いの平均値に基づいて、前記閾値を設定する、請求項2に記載の道路区間線検出装置。   The road segment line detection device according to claim 2, wherein the threshold value setting means sets the threshold value based on an average value of the degree of variation calculated for each region of interest. 前記閾値設定手段は、道路区間線の特徴点が存在すると判定された着目領域内の特徴点の数に基づいて、前記閾値を設定する、請求項1〜3のいずれかに記載の道路区間線検出装置。   The road section line according to any one of claims 1 to 3, wherein the threshold value setting means sets the threshold value based on the number of feature points in a region of interest determined that a feature point of a road section line exists. Detection device. 前記周囲画像は、フレーム毎に処理され、
前記閾値設定手段により設定された閾値は、次フレームの周囲画像に対する前記判定手段による判定に用いられる、請求項1〜4のいずれかに記載の道路区間線検出装置。
The surrounding image is processed for each frame,
The road segment line detection apparatus according to any one of claims 1 to 4, wherein the threshold set by the threshold setting unit is used for determination by the determination unit for an image surrounding the next frame.
前記信号レベルのばらつき度合いは、モルフォロジー演算処理後の周囲画像に基づいて算出される、請求項1〜5のいずれかに記載の道路区間線検出装置。   The road segment line detection device according to claim 1, wherein the degree of variation in the signal level is calculated based on a surrounding image after the morphological calculation processing. 前記道路区間線は、間隔をおいて点状に設けられる類の道路区画線である、請求項1〜6のいずれかに記載の道路区間線検出装置。   The road section line detection device according to any one of claims 1 to 6, wherein the road section line is a kind of road lane marking provided at intervals. 車両から撮像手段が撮像した路面を含む周囲画像を取得するステップと、
周囲画像の着目領域における輝度、色相又は彩度を表す信号レベルのばらつき度合いを算出し、算出したばらつき度合いが閾値より大きいか否かに基づいて、該着目領域内に、道路区間線の特徴点が存在するか否かを判定する判定ステップと、
前記着目領域よりも大きな領域における輝度、色相又は彩度を表す信号レベルのばらつき度合いを算出し、算出したばらつき度合いに基づいて、前記閾値を設定する閾値設定ステップと、
前記判定ステップにおいて道路区間線の特徴点が存在しないと判定された着目領域内の特徴点を全て破棄しつつ、前記判定ステップにおいて道路区間線の特徴点が存在すると判定された着目領域内の特徴点のみに基づいて、道路区間線の特徴点を検出する特徴点検出ステップと、
前記特徴点検出ステップにおいて検出された着目領域内の道路区間線の特徴点に基づいて、道路区間線を検出するステップとを含むことを特徴とする、道路区間線検出方法。
Obtaining a surrounding image including a road surface imaged by the imaging means from the vehicle;
The degree of signal level variation representing luminance, hue, or saturation in the region of interest of the surrounding image is calculated, and the feature points of the road section line are calculated in the region of interest based on whether the calculated degree of variation is greater than a threshold. A determination step of determining whether or not exists,
A threshold setting step of calculating a variation level of a signal level representing luminance, hue or saturation in a region larger than the region of interest, and setting the threshold based on the calculated variation level;
While discarding all the feature points in the attention area determined that the road section line feature points do not exist in the determination step, the features in the attention area determined in the determination step that the road section line feature points exist A feature point detecting step for detecting a feature point of a road section line based only on the point;
Detecting a road segment line based on the feature points of the road segment line in the region of interest detected in the feature point detecting step.
コンピューターをして、次の各処理(1)〜()を含む道路区間線検出処理を実行させるコンピューター読み取り可能なプログラム。
(1)車両から撮像手段が撮像した路面を含む周囲画像を取得する処理、
(2)周囲画像の着目領域における輝度、色相又は彩度を表す信号レベルのばらつき度合いを算出し、算出したばらつき度合いが閾値より大きいか否かに基づいて、該着目領域内に、道路区間線の特徴点が存在するか否かを判定する処理、
(3)道路区間線の特徴点が存在しないと判定された着目領域内の特徴点を全て破棄しつつ、道路区間線の特徴点が存在すると判定された着目領域内の特徴点のみに基づいて、道路区間線の特徴点を検出する処理、及び、
(4)前記検出された着目領域内の道路区間線の特徴点に基づいて、道路区間線を検出する処理。
A computer-readable program that causes a computer to execute a road section line detection process including the following processes (1) to ( 4 ).
(1) A process for acquiring a surrounding image including a road surface imaged by an imaging unit from a vehicle,
(2) The degree of variation of the signal level representing the luminance, hue, or saturation in the region of interest of the surrounding image is calculated, and the road segment line is included in the region of interest based on whether the calculated degree of variation is greater than a threshold value. A process for determining whether or not a feature point exists,
(3) Discarding all the feature points in the target area determined that the feature points of the road section line do not exist, and only based on the feature points in the target area determined to have the feature points of the road section line , Processing for detecting feature points of road section lines, and
(4) A process of detecting a road segment line based on the detected feature points of the road segment line in the detected region of interest.
JP2006030169A 2006-02-07 2006-02-07 Road section line detection apparatus and method, and program Expired - Fee Related JP4821348B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006030169A JP4821348B2 (en) 2006-02-07 2006-02-07 Road section line detection apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006030169A JP4821348B2 (en) 2006-02-07 2006-02-07 Road section line detection apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2007213166A JP2007213166A (en) 2007-08-23
JP4821348B2 true JP4821348B2 (en) 2011-11-24

Family

ID=38491565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006030169A Expired - Fee Related JP4821348B2 (en) 2006-02-07 2006-02-07 Road section line detection apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4821348B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009133884A1 (en) 2008-04-30 2009-11-05 日本電気株式会社 Picture quality evaluation method, picture quality evaluation system and program
US8503822B2 (en) * 2008-04-30 2013-08-06 Nec Corporation Image quality evaluation system, method, and program utilizing increased difference weighting of an area of focus
JP5152002B2 (en) * 2009-01-16 2013-02-27 日産自動車株式会社 Lane recognition device and lane recognition method
JP2019003558A (en) * 2017-06-19 2019-01-10 アイシン精機株式会社 Object detection device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320998A (en) * 1995-05-25 1996-12-03 Nissan Motor Co Ltd Lane marker detector
JPH11353580A (en) * 1998-06-09 1999-12-24 Anritsu Corp Method and device for discriminating kind of vehicle at night
JP2000099686A (en) * 1998-09-17 2000-04-07 Nippon Telegr & Teleph Corp <Ntt> Pattern recognition and vehicle recognition method and storage medium recording its program
JP3352655B2 (en) * 1999-09-22 2002-12-03 富士重工業株式会社 Lane recognition device
JP3842952B2 (en) * 2000-04-27 2006-11-08 三菱重工業株式会社 Traffic flow measuring device
JP3626905B2 (en) * 2000-11-24 2005-03-09 富士重工業株式会社 Outside monitoring device
JP3915621B2 (en) * 2002-07-29 2007-05-16 日産自動車株式会社 Lane mark detector
JP3861781B2 (en) * 2002-09-17 2006-12-20 日産自動車株式会社 Forward vehicle tracking system and forward vehicle tracking method
JP3997885B2 (en) * 2002-10-17 2007-10-24 日産自動車株式会社 Lane marker recognition device
JP2004145501A (en) * 2002-10-23 2004-05-20 Nissan Motor Co Ltd Road white line recognizing device

Also Published As

Publication number Publication date
JP2007213166A (en) 2007-08-23

Similar Documents

Publication Publication Date Title
US8077204B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
US7957559B2 (en) Apparatus and system for recognizing environment surrounding vehicle
JP4248558B2 (en) Road marking line detection device
JP4584120B2 (en) Road marking line detection device, road marking line detection method, road marking line detection program
JP4622001B2 (en) Road lane marking detection apparatus and road lane marking detection method
JP4992990B2 (en) Lane marking detector
JP5012718B2 (en) Image processing device
JP2010064531A (en) White line detection device
JP4821348B2 (en) Road section line detection apparatus and method, and program
JP2006318059A (en) Apparatus, method, and program for image processing
JP3930366B2 (en) White line recognition device
JP4532372B2 (en) Road marking line detection device
JP2008030619A (en) Kinds-of-road-division-line sorting system and road-division-line recognition sytem
JP5541099B2 (en) Road marking line recognition device
JP2007018451A (en) Road boundary line detecting device
JP4769594B2 (en) Road section line detection apparatus and method, and program
JP4512044B2 (en) Road section line detector
JP2006350571A (en) Lane detection device
JP4572826B2 (en) Road marking line detection device
JP2003271930A (en) Lane mark recognizing device
JP6729358B2 (en) Recognition device
JP4584277B2 (en) Display device
JP4710437B2 (en) Object search device
JP2007257242A (en) White line recognition device
JP2009140289A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110809

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110822

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees