JP2013101534A - Vehicle driving support system - Google Patents

Vehicle driving support system Download PDF

Info

Publication number
JP2013101534A
JP2013101534A JP2011245420A JP2011245420A JP2013101534A JP 2013101534 A JP2013101534 A JP 2013101534A JP 2011245420 A JP2011245420 A JP 2011245420A JP 2011245420 A JP2011245420 A JP 2011245420A JP 2013101534 A JP2013101534 A JP 2013101534A
Authority
JP
Japan
Prior art keywords
vehicle
support system
driving support
tail lamp
vehicle driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011245420A
Other languages
Japanese (ja)
Inventor
Masahiko Ito
雅彦 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011245420A priority Critical patent/JP2013101534A/en
Publication of JP2013101534A publication Critical patent/JP2013101534A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To perform efficient Hough voting and to increase a processing speed of traveling lane detection.SOLUTION: From an image picked up by an imaging part 10, a tail lamp of a preceding vehicle traveling right in front of a present vehicle is detected through a spectral filter by a tail lamp detection part 32. Then, a position of the preceding vehicle is detected on the basis of the image of the detected tail lamp. By a white line detection part 33, a candidate edge of a traveling lane of a road surface is extracted on the basis of the position of the preceding vehicle, Hough transformation processing is executed to the extracted candidate edge, and the traveling lane is determined.

Description

本発明は、自動車等の車両を運転する際自車両が走行車線(白線や黄線を含む)で区画された走行レーンを逸脱しそうかどうかを監視し、逸脱しそうならば警報を鳴らす等の報知を行って車両の運転を支援する車両運転支援システムに関するものである。   In the present invention, when driving a vehicle such as an automobile, it is monitored whether or not the vehicle is likely to depart from a traveling lane defined by a traveling lane (including white and yellow lines), and an alarm is sounded if the vehicle is likely to deviate. The present invention relates to a vehicle driving support system that performs driving to support driving of the vehicle.

自動車の運転支援(ドライバーアシスト)に用いられるシステムとしては、車載カメラで撮影された自車両前方の画像上の物体認識によるものが知られている。具体的には、車載カメラで撮影した走行レーンから自車両が逸脱しそうかどうかを監視し逸脱しそうならば警報を鳴らすLDW(Lane Departure Warning)システムが挙げられる。このLDWシステムは、車両に搭載された車載カメラの撮像手段により自車両前方の道路画像を取り込み、走行車線の輝度が高いことを利用して走行車線を検出する。具体的には、例えば画像の微分処理及び2値化処理によるエッジ(エッジ点列)抽出を行い、その抽出エッジについて走行車線エッジか否かの判定を行う。この抽出エッジについて、直線検出法としてのハフ(Hough)変換を行うことで、走行車線である走行車線の位置を検出することが既に知られている。   As a system used for driving assistance (driver assistance) of an automobile, a system based on object recognition on an image in front of the host vehicle taken by an in-vehicle camera is known. Specifically, there is an LDW (Lane Departure Warning) system that monitors whether or not the own vehicle is likely to deviate from the traveling lane photographed by the in-vehicle camera and sounds an alarm if the vehicle is likely to deviate. In this LDW system, a road image in front of the host vehicle is captured by an imaging unit of an in-vehicle camera mounted on the vehicle, and the traveling lane is detected by utilizing the high luminance of the traveling lane. Specifically, for example, an edge (edge point sequence) is extracted by image differentiation processing and binarization processing, and it is determined whether the extracted edge is a traveling lane edge. It is already known that the position of the traveling lane which is the traveling lane is detected by performing a Hough transform as a straight line detection method on the extracted edge.

この走行車線検出方法として特許文献1に記載されたものが知られている。この特許文献1の走行車線検出方法は、車載カメラにより入力された画像に対し前処理を行い、算出した走行車線の候補点(画素)を、画像の座標が割り当てられたメモリの記憶領域へハフ投票する。そして、ハフ投票数の最も多かった画素が入力された画像上での最頻出の直線であるということで走行車線と認識している。   As this traveling lane detection method, the method described in Patent Document 1 is known. In the traveling lane detection method of Patent Document 1, preprocessing is performed on an image input by an in-vehicle camera, and the calculated candidate points (pixels) of the traveling lane are stored in a storage area of a memory to which image coordinates are assigned. Vote. And the pixel with the largest number of Hough votes is recognized as a travel lane because it is the most frequent straight line on the input image.

しかしながら、上記特許文献1の走行車線検出方法では、入力された画像の全ての画像領域に対してハフ投票を行うため、ハフ投票が多くなってハフ変換の処理が重くなる。このため、走行車線検出の処理速度が低下する。このように処理速度が低下することは、リアルタイム処理を必要とする上記LDWシステムにとっては大きな障害となる。   However, in the traveling lane detection method of Patent Document 1, the Hough voting is performed on all image regions of the input image, so the number of Hough voting increases and the Hough conversion process becomes heavy. For this reason, the processing speed of travel lane detection falls. Such a decrease in processing speed is a major obstacle for the LDW system that requires real-time processing.

本発明は以上の問題点に鑑みなされたものであり、その目的は、無駄のない効率的な走行車線検出処理を行い、走行車線検出の処理速度を上げることができる車両運転支援システムを提供することである。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a vehicle driving support system capable of performing efficient driving lane detection processing without waste and increasing the processing speed of driving lane detection. That is.

上記目的を達成するために、請求項1の発明は、自車両の前方を撮像する撮像手段と、該撮像手段によって撮像された画像における路面の走行車線を検出する走行車線検出手段とを備え、検出した走行車線を自車両が逸脱しそうかどうか監視し車両の運転を支援する車両運転支援システムにおいて、前記撮像手段によって撮像された画像から自車両の直前前方を走行している前方車両の位置を検出する前方車両位置検出手段を備え、該前方車両位置検出手段によって検出した前方車両の位置に基づいて、前記走行車線検出手段によって走行車線を検出することを特徴とするものである。   In order to achieve the above object, the invention of claim 1 comprises imaging means for imaging the front of the host vehicle, and traveling lane detecting means for detecting the driving lane on the road surface in the image captured by the imaging means, In a vehicle driving support system that monitors whether the host vehicle is likely to deviate from the detected driving lane and supports driving of the vehicle, the position of the preceding vehicle that is traveling immediately in front of the host vehicle from the image captured by the imaging unit is determined. A forward vehicle position detecting means for detecting is provided, and a traveling lane is detected by the traveling lane detecting means based on the position of the forward vehicle detected by the forward vehicle position detecting means.

本発明においては、自車両の直前を走行している前方車両は自車両の走行車線を走行している可能性が高いので、画像上の前方車両の左下及び右下の領域にはそれぞれ走行車線が存在する。撮像手段によって撮像した画像における前方車両の位置から左下及び右下の画像領域に走行車線検出対象の画像領域を限定することにより、撮像手段によって撮像した全画像に対して行う走行車線検出処理の処理数に比べて減少させることができる。これにより、走行車線検出処理が速くなり、走行車線検出の処理速度が上がる。   In the present invention, since it is highly possible that the forward vehicle traveling immediately before the host vehicle is traveling in the traveling lane of the host vehicle, the traveling lanes are respectively displayed in the lower left and lower right regions of the preceding vehicle on the image. Exists. By processing the lane detection target image area from the position of the vehicle ahead in the image captured by the imaging means to the lower left and lower right image areas, processing of the traveling lane detection process performed on all images captured by the imaging means It can be reduced compared to the number. As a result, the traveling lane detection process becomes faster, and the traveling lane detection processing speed increases.

本発明によれば、無駄のない効率的な走行車線検出処理を行い、走行車線検出の処理速度を上げることができるという特有な効果が得られる。   According to the present invention, it is possible to obtain a unique effect of performing efficient travel lane detection processing without waste and increasing the processing speed of travel lane detection.

本実施形態に係る車両運転支援システムの全体構成の概要を示すブロック図である。It is a block diagram which shows the outline | summary of the whole structure of the vehicle driving assistance system which concerns on this embodiment. 本車両運転支援システムにおける信号処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the signal processing part in this vehicle driving assistance system. 前方車両のテールランプの位置情報を説明する図である。It is a figure explaining the positional information on the tail lamp of a front vehicle. 本車両運転支援システムにおけるハフ投票対象画素決定処理の左側車線検出動作を示すフローチャートである。It is a flowchart which shows the left lane detection operation | movement of the Hough vote object pixel determination process in this vehicle driving assistance system. 本車両運転支援システムにおけるハフ投票対象画素決定処理の右側車線検出動作を示すフローチャートである。It is a flowchart which shows the right lane detection operation | movement of the Hough vote object pixel determination process in this vehicle driving assistance system. ハフ投票対象画素の走査方向を示す概略図である。It is the schematic which shows the scanning direction of a Hough vote object pixel.

以下、本発明を、自動車を走行車線(白線)に沿って走行させて運転を支援する車両運転支援システムに適用した一実施形態について、道路の白線の検出に関わる構成を中心に説明する。
図1は本実施形態に係る車両運転支援システムの全体構成の概要を示すブロック図である。図2は、信号処理部の構成を示すブロック図である。
本車両運転支援システムは、撮影部10と信号処理部20とを含んで構成されている。撮像部10は、レンズ11により集光された光のうち、ある特定の波長の光を分光フィルタ12によって強調して抽出し、抽出した光をセンサ13によって光電変換して画像データを出力する。ここで、分光フィルタ12を用いるのは、自車両の前方を走行している前方車両のテールランプ(赤色光)を精度良く検出できテールランプの画像データを取得するためである。信号処理部20は、信号処理用回路としてのCPUを含むFPGA21と、画像データを保存するためのフレームバッファであるメモリ22とを含んで構成されている。そして、信号処理部20は、分光画像生成部31、テールランプ検出部32及び白線検出部33を含んで構成されている。この白線検出部33は、エッジ検出部33−1、二値化部33−2、ハフ投票対象画素決定部33−3、ハフ変換部33−4及びハフ逆変換部33−5を含んで構成されている。本実施形態では白線の直線検出方法の一つであるハフ変換処理を用いているがこれに限定する必要はない。
Hereinafter, an embodiment in which the present invention is applied to a vehicle driving support system that supports driving by driving an automobile along a driving lane (white line) will be described with a focus on a configuration related to detection of a white line on a road.
FIG. 1 is a block diagram showing an outline of the overall configuration of the vehicle driving support system according to the present embodiment. FIG. 2 is a block diagram illustrating a configuration of the signal processing unit.
The vehicle driving support system includes an imaging unit 10 and a signal processing unit 20. The imaging unit 10 extracts light having a specific wavelength out of the light collected by the lens 11 by emphasizing it with the spectral filter 12, and photoelectrically converts the extracted light with the sensor 13 to output image data. Here, the spectral filter 12 is used in order to accurately detect the tail lamp (red light) of the front vehicle traveling in front of the host vehicle and to acquire image data of the tail lamp. The signal processing unit 20 includes an FPGA 21 including a CPU as a signal processing circuit, and a memory 22 that is a frame buffer for storing image data. The signal processing unit 20 includes a spectral image generation unit 31, a tail lamp detection unit 32, and a white line detection unit 33. The white line detection unit 33 includes an edge detection unit 33-1, a binarization unit 33-2, a Hough vote target pixel determination unit 33-3, a Hough conversion unit 33-4, and a Hough inverse conversion unit 33-5. Has been. In the present embodiment, the Hough transform process, which is one of the white line straight line detection methods, is used, but the present invention is not limited to this.

テールランプ検出部32は、撮像部から受け取った画像データから分光画像生成部31によって生成された分光画像とモノクロ画像とからテールランプを検出し、その位置座標を白線検出部33のハフ投票対象画素決定部33−3に出力する。そして、白線検出部33では、入力されたモノクロ画像をエッジ検出部33−1によってエッジ検出を行った後二値化部33−2によって二値化する。その後、ハフ投票対象画素決定部33−3は、二値化された画像に対し、ハフ投票対象の画素以外を除去するハフ投票対象画素決定処理を行う。ハフ変換部33−4は、不要な画素が除去された画像に対しハフ変換を行い、ハフ逆変換部33−5は、ハフ逆変換で最も出現頻度の高い直線の座標を算出して出力する。本実施形態では、ハフ変換の前にテールランプの位置座標を用いてハフ投票に不要な画素を除去し、効率的なハフ投票を実施している。テールランプの位置情報は図3のような値である。例えば、メモリ22に記憶された撮像部10で撮影した画像を画像処理することで、前方車両のテールランプを含む領域の幅w及び高さhを画素数(ピクセル)で計測する。そして、計測した幅と高さに基づいてテールランプの中心の位置座標(cx,cy)を算出する。   The tail lamp detection unit 32 detects a tail lamp from the spectral image and the monochrome image generated by the spectral image generation unit 31 from the image data received from the imaging unit, and the position coordinates thereof are the Hough voting target pixel determination unit of the white line detection unit 33. Output to 33-3. In the white line detection unit 33, the input monochrome image is subjected to edge detection by the edge detection unit 33-1, and then binarized by the binarization unit 33-2. After that, the Hough voting target pixel determination unit 33-3 performs a Hough voting target pixel determination process that removes pixels other than the Hough voting target pixels from the binarized image. The Hough transform unit 33-4 performs Hough transform on the image from which unnecessary pixels are removed, and the Hough inverse transform unit 33-5 calculates and outputs the coordinates of the straight line having the highest appearance frequency in the Hough inverse transform. . In this embodiment, pixels unnecessary for the Hough voting are removed using the position coordinates of the tail lamp before the Hough conversion, and the efficient Hough voting is performed. The position information of the tail lamp is a value as shown in FIG. For example, the image captured by the imaging unit 10 stored in the memory 22 is subjected to image processing, whereby the width w and height h of the area including the tail lamp of the vehicle ahead are measured by the number of pixels. Then, the position coordinates (cx, cy) of the center of the tail lamp are calculated based on the measured width and height.

次に、本実施形態におけるハフ投票対象画素決定処理について当該処理フローを示す図4及び図5に従って説明する。図6はハフ投票対象画素の走査方向を示す概略図である。図6の前方車両の後方部画像における左上を原点(0,0)とし、かつx座標は画像上の下方向が正であってy座標は画像上の右方向が正として以下の位置座標を示すものとする。ここでのハフ投票対象画素決定処理とは、二値化画像に対し、ハフ投票を行う画素を残し(白画素)、行わない画素を除去(黒画素化)する処理である。ハフ投票対象画素決定時においてテールランプが検出できない場合は、二値化画像に対し予め設定された走査開始位置から、白線候補となる画素を走査し、ハフ投票画素を決定するものとする。   Next, the Hough voting target pixel determination process in the present embodiment will be described with reference to FIGS. 4 and 5 showing the process flow. FIG. 6 is a schematic diagram showing the scanning direction of the Hough voting target pixel. In the rear image of the front vehicle in FIG. 6, the upper left is the origin (0,0), and the x coordinate is positive in the downward direction on the image and the y coordinate is positive in the right direction on the image. Shall be shown. Here, the Hough voting target pixel determination process is a process of leaving a pixel to be subjected to Hough voting (white pixel) and removing a pixel not to be performed (black pixelation) from the binarized image. When the tail lamp cannot be detected at the time of determining the Hough voting target pixel, pixels that are white line candidates are scanned from the preset scan start position for the binarized image to determine the Hough voting pixel.

はじめに、図4に示す左側車線検出用のハフ投票対象画素決定処理によれば、撮像部によって撮像した画像に対して所定の画像領域(幅の閾値(WIDTH)と高さの閾値(HEIGHT)とで囲まれた画像領域)を切り出す。切り出した画像に対してエッジ検出を行った後、二値化した二値化画像を入力する(ステップS101)。そして、入力された二値化画像に含まれる前方車両のテールランプ(赤色光)の位置情報を取得する(ステップS102)。このテールランプの位置情報とは、テールランプを含む領域の中心座標(cx,cy)、幅(w)、高さ(h)であり、二値化画像のうち分光された画素を計測することで検出できる。次に、上記切り出した画像領域のうち、WIDTHの幅と(cy+w)の高さとで囲まれた画像領域内の画素を黒画素に置き換える(ステップS103)。そして、左側車線検出のための走査開始点(Lx,Ly)は、テープランプを含む領域の中心座標位置から真下に所定の長さ(ここではwとするが、wに限定する必要はない)分移動した座標(cx,cy+w)とする(ステップS104)。そして、白画素発見フラグを初期化する(ステップS105)。白画素の探索を開始し、走査点のx座標が0から(cx−w/2)までの間を走査する(ステップS106、S107)。白画素があれば白画素発見フラグが0であればフラグに1を立てることでハフ投票を行う(ステップS108:YES、ステップS109:YES、ステップS110)。次に、走査点のx座標を1増やしてステップS106に戻って白画素走査を繰り返す(ステップS111)。ステップS107で走査点のx座標が(cx−w/2)を越えた場合は越えた領域の白画素を黒画素に置き換えて白線候補点とする。走査点のx座標を1増やしてステップS106に戻って白画素走査を繰り返す(ステップS107:NO、ステップS112、ステップS111)。ステップS108でも走査した結果白画素が発見できなかった場合も走査点のx座標を1増やしてステップS106に戻って白画素走査を繰り返す(ステップS108:NO、ステップS111)。走査点のx座標が0以下である場合走査点のy座標が高さの閾値(HEIGHT)より小さいときは、走査点のx座標をテープランプを含む領域の中心位置のx座標に、走査点のy座標を1つ増やしかつ白画素発見フラグを0とした上でステップS106に戻って白画素走査を繰り返す(ステップS106:NO、ステップS113:YES、ステップS114)。ステップS113で走査点のy座標が高さの閾値(HEIGHT)以上であるときは本実施形態によるハフ投票対象画素決定処理を終了する(ステップS113:NO)。ここで、テールランプが検出できない場合は、二値化画像に対し予め設定された走査開始位置から白線候補となる画素を走査し、ハフ投票画素を決定する。   First, according to the Hough voting target pixel determination process for detecting the left lane shown in FIG. 4, a predetermined image area (width threshold (WIDTH) and height threshold (HEIGHT)) is defined for an image captured by the imaging unit. (Image area surrounded by). After edge detection is performed on the clipped image, a binarized binarized image is input (step S101). Then, the position information of the tail lamp (red light) of the preceding vehicle included in the input binarized image is acquired (step S102). The position information of the tail lamp is the center coordinates (cx, cy), width (w), and height (h) of the area including the tail lamp, and is detected by measuring the dispersed pixels in the binarized image. it can. Next, in the cut out image area, pixels in the image area surrounded by the width of WIDTH and the height of (cy + w) are replaced with black pixels (step S103). The scanning start point (Lx, Ly) for detecting the left lane is a predetermined length directly below the center coordinate position of the area including the tape lamp (here, it is w, but it is not necessary to limit to w) The coordinate (cx, cy + w) moved by the minute is set (step S104). Then, the white pixel discovery flag is initialized (step S105). A search for white pixels is started, and scanning is performed when the x coordinate of the scanning point is from 0 to (cx−w / 2) (steps S106 and S107). If there is a white pixel, if the white pixel detection flag is 0, a Hough vote is performed by setting the flag to 1 (step S108: YES, step S109: YES, step S110). Next, the x coordinate of the scanning point is incremented by 1, and the process returns to step S106 to repeat the white pixel scanning (step S111). If the x-coordinate of the scanning point exceeds (cx−w / 2) in step S107, the white pixel in the exceeded area is replaced with a black pixel to be a white line candidate point. The x coordinate of the scanning point is incremented by 1, and the process returns to step S106 to repeat white pixel scanning (step S107: NO, step S112, step S111). Even in the case where no white pixel is found as a result of scanning in step S108, the x coordinate of the scanning point is increased by 1, and the process returns to step S106 to repeat the white pixel scanning (step S108: NO, step S111). When the x coordinate of the scanning point is 0 or less When the y coordinate of the scanning point is smaller than the height threshold (HEIGHT), the scanning point is set to the x coordinate of the center position of the area including the tape lamp. After the y coordinate is increased by 1 and the white pixel detection flag is set to 0, the process returns to step S106 to repeat the white pixel scanning (step S106: NO, step S113: YES, step S114). If the y coordinate of the scanning point is equal to or higher than the height threshold (HEIGHT) in step S113, the Hough voting target pixel determination process according to the present embodiment is terminated (step S113: NO). Here, when the tail lamp cannot be detected, pixels that are white line candidates are scanned from a preset scan start position for the binarized image, and a Hough voting pixel is determined.

次に、図5に示す右側車線検出用のハフ投票対象画素決定処理によれば、撮像部によって撮像した画像に対して所定の画像領域(幅の閾値(WIDTH)と高さの閾値(HEIGHT)とで囲まれた画像領域)を切り出す。切り出した画像に対してエッジ検出を行った後、二値化した二値化画像を入力する(ステップS201)。そして、入力された二値化画像に含まれる前方車両のテールランプ(赤色光)の位置情報を取得する(ステップS202)。このテールランプの位置情報とは、テールランプを含む領域の中心座標(cx,cy)、幅(w)、高さ(h)であり、二値化画像のうち分光された画素を計測することで検出できる。次に、上記切り出した画像領域のうち、WIDTHの幅と(cy−w)の高さとで囲まれた画像領域内の画素を黒画素に置き換える(ステップS203)。そして、左側車線検出のための走査開始点(Lx,Ly)は、テープランプを含む領域の中心座標位置から真下に長さw分移動した座標(cx,cy+w)とする(ステップS204)。そして、白画素発見フラグを初期化する(ステップS205)。白画素の探索を開始し、走査点のx座標が幅の閾値(WIDTH)から(cx+w/2)までの間を走査する(ステップS206、S207)。白画素があれば白画素発見フラグが0であればフラグに1を立てることでハフ投票を行う(ステップS208:YES、ステップS209:YES、ステップS210)。次に、走査点のx座標を1増やしてステップS206に戻って白画素走査を繰り返す(ステップS211)。ステップS207で走査点のx座標が(cx+w/2)を越えた場合は越えた領域の白画素を黒画素に置き換えて白線候補点とする。走査点のx座標を1増やしてステップS206に戻って白画素走査を繰り返す(ステップS207:NO、ステップS212、ステップS211)。ステップS208でも走査した結果白画素が発見できなかった場合も走査点のx座標を1増やしてステップS206に戻って白画素走査を繰り返す(ステップS208:NO、ステップS211)。走査点のx座標が幅の閾値(WIDTH)以下である場合走査点のy座標が高さの閾値(HEIGHT)より小さいときは、走査点のx座標をテープランプを含む領域の中心位置のx座標に、走査点のy座標を1つ増やしかつ白画素発見フラグを0とした上でステップS106に戻って白画素走査を繰り返す(ステップS106:NO、ステップS113:YES、ステップS114)。ステップS113で走査点のy座標が高さの閾値(HEIGHT)以上であるときは本実施形態によるハフ投票対象画素決定処理を終了する(ステップS113:NO)。ここで、テールランプが検出できない場合は、二値化画像に対し予め設定された走査開始位置から白線候補となる画素を走査し、ハフ投票画素を決定する。   Next, according to the Hough voting target pixel determination process for detecting the right lane shown in FIG. 5, a predetermined image area (width threshold (WIDTH) and height threshold (HEIGHT)) for the image captured by the imaging unit. (Image area surrounded by). After edge detection is performed on the clipped image, a binarized binary image is input (step S201). Then, the position information of the tail lamp (red light) of the preceding vehicle included in the input binarized image is acquired (step S202). The position information of the tail lamp is the center coordinates (cx, cy), width (w), and height (h) of the area including the tail lamp, and is detected by measuring the dispersed pixels in the binarized image. it can. Next, in the clipped image area, pixels in the image area surrounded by the width of WIDTH and the height of (cy−w) are replaced with black pixels (step S203). Then, the scanning start point (Lx, Ly) for detecting the left lane is set to the coordinates (cx, cy + w) moved by the length w from the center coordinate position of the area including the tape lamp (step S204). . Then, the white pixel discovery flag is initialized (step S205). A search for white pixels is started, and scanning is performed between the x coordinate of the scanning point from the threshold value (WIDTH) to (cx + w / 2) (steps S206 and S207). If there is a white pixel, if the white pixel detection flag is 0, a Hough vote is performed by setting the flag to 1 (step S208: YES, step S209: YES, step S210). Next, the x coordinate of the scanning point is incremented by 1, and the process returns to step S206 to repeat the white pixel scanning (step S211). If the x-coordinate of the scanning point exceeds (cx + w / 2) in step S207, the white pixel in the exceeded area is replaced with a black pixel to be a white line candidate point. The x coordinate of the scanning point is increased by 1, and the process returns to step S206 to repeat the white pixel scanning (step S207: NO, step S212, step S211). Even in the case where no white pixel is found as a result of scanning in step S208, the x coordinate of the scanning point is incremented by 1, and the process returns to step S206 to repeat the white pixel scanning (step S208: NO, step S211). When the x coordinate of the scanning point is equal to or smaller than the width threshold (WIDTH) When the y coordinate of the scanning point is smaller than the height threshold (HEIGHT), the x coordinate of the scanning point is set to x of the center position of the area including the tape lamp. In the coordinates, the y coordinate of the scanning point is incremented by 1 and the white pixel finding flag is set to 0, and then the process returns to step S106 to repeat the white pixel scanning (step S106: NO, step S113: YES, step S114). If the y coordinate of the scanning point is equal to or higher than the height threshold (HEIGHT) in step S113, the Hough voting target pixel determination process according to the present embodiment is terminated (step S113: NO). Here, when the tail lamp cannot be detected, pixels that are white line candidates are scanned from a preset scan start position for the binarized image, and a Hough voting pixel is determined.

上記実施形態では自車両の走行車線における前方車両のテールランプを検出することで前方車両の位置を検出し、その位置情報に基づいてハフ投票を行う画素を制限することで効率的にハフ投票を行いハフ変換している。前方車両の位置を検出するのに前方車両のテールランプを検出しているがこれに限定する必要はなく、例えば前方車両の後輪タイヤのトレッドを検出することでも上記実施形態と同様な効果が得られる。この場合、路面からの反射成分を除去するための偏光フィルタ等による処理を行うことでトレッドを精度良く検出することができ、その両後輪のトレッドの中心座標から上記実施形態と同様なハフ投票対象画素決定処理を行うことになる。その他としては、主に車両の中心に設置されている自動車登録番号標(ナンバープレート)を検出することでも上記実施形態と同様な効果が得られる。この場合、分光処理によって、所定の領域面積の白色、業務用車両の緑色あるいは軽自動車用の黄色の画像データを取得して自動車登録番号標の位置を検出することで、その自動車登録番号標の位置の中心座標から上記実施形態と同様なハフ投票対象画素決定処理を行うことになる。   In the above-described embodiment, the position of the vehicle ahead is detected by detecting the tail lamp of the vehicle ahead in the travel lane of the host vehicle, and the Hough vote is efficiently performed by limiting the pixels to perform the Hough vote based on the position information. Hough conversion. The tail lamp of the preceding vehicle is detected to detect the position of the preceding vehicle. However, the present invention is not limited to this. For example, the same effect as in the above embodiment can be obtained by detecting the tread of the rear tire of the preceding vehicle. It is done. In this case, the tread can be detected with high accuracy by performing processing using a polarizing filter or the like for removing the reflection component from the road surface, and the same Hough voting as in the above embodiment is obtained from the center coordinates of the treads of both rear wheels. The target pixel determination process is performed. In addition, the same effect as that of the above embodiment can be obtained by detecting an automobile registration number mark (number plate) mainly installed at the center of the vehicle. In this case, the spectral registration process acquires white image data of a predetermined area, green image of a business vehicle, or yellow image data for a light vehicle, and detects the position of the vehicle registration number mark. Hough voting target pixel determination processing similar to that in the above embodiment is performed from the center coordinates of the position.

以上に説明したものは一例であり、本発明は、次の態様毎に特有の効果を奏する。
(態様A)
撮像手段によって撮像された画像から自車両の直前前方を走行している前方車両の位置を検出する前方車両位置検出手段を備え、該前方車両位置検出手段によって検出した前方車両の位置に基づいて、走行車線検出手段によって走行車線を検出する。これによれば、上記実施形態について説明したように、自車両の直前前方を走行している車両が自車両の走行車線を走行している可能性が高いので、画像上の前方車両の左下及び右下の領域には走行車線が存在する。前方車両の後方部にあるテールランプを検出することで前方車両の位置を検出する。そして、検出した前方車両の位置から左下及び右下の画像領域を走行車線検出対象の画像領域に限定することで、走行車線検出処理の一つであるハフ変換におけるハフ投票数が減少する。これにより、走行車線検出の処理速度を上げることができる。
(態様B)
(態様A)において、撮像手段は、レンズを含む光学系と、該光学系を通った撮像光を分光成分ごとに分離する分光フィルタと、該分光フィルタを通った所望の分光成分の光を電気信号に変換するセンサとを含んで構成される。これによれば、上記実施形態について説明したように、前方車両の赤色のテールランプを含む画像領域を分光フィルタ12を介して検出することで前方車両の位置情報を簡単に取得することができ、走行車線検出の処理速度が上げることができる。
(態様C)
(態様A)又は(態様B)において、走行車線検出手段は、撮像手段によって撮像された画像の二値化処理により路面の走行車線の候補エッジを抽出し、抽出した候補エッジにハフ変換を施して走行車線を検出する。これによれば、上記実施形態について説明したように、より簡単に前方車両の位置を検出することができることにより、ハフ変換の処理が速くなり、走行車線検出の処理速度が上げることができる。
(態様D)
(態様A)において、信号処理手段は、撮像手段からの画像データから分光画像を生成する分光画像生成手段を有する。これによれば、上記実施形態について説明したように、分光画像生成部31によって撮像した画像からテールランプに相当する画像を得ることで、より簡単に前方車両の位置を検出することができる。よって、ハフ変換の処理が速くなり、走行車線検出の処理速度が上げることができる。
(態様E)
(態様A)において、前方車両位置検出手段は、前方車両のテールランプを検出するテールランプ検出手段を有する。これによれば、上記実施形態について説明したように、前方車両の赤色のテールランプを検出することで、ハフ変換の処理が速くなり、走行車線検出の処理速度が上げることができる。
(態様F)
(態様E)において、テールランプ検出手段によって検出した前方車両のテールランプの座標を求め、走行車線検出手段によってテールランプの座標に基づいて路面の走行車線の候補エッジを抽出する。これによれば、上記実施形態について説明したように、前方車両のテールランプの座標に基づいてハフ変換対象の画像領域を限定することで、ハフ変換の処理が速くなり、走行車線検出の処理速度が上げることができる。
(態様G)
(態様E)又は(態様F)において、テールランプ検出手段によって前方車両のテールランプが検出できない場合は、撮像手段によって撮像された画像の二値化処理が施された二値化画像に対し、路面の走行車線の候補エッジの抽出を行うための予め設定された走査開始位置から路面の走行車線の候補エッジを抽出する。これによれば、上記実施形態について説明したように、前方車両の位置を検出できなくても、二値化画像に対し予め設定された走査開始位置から走行車線候補となる画素を走査し、ハフ投票画素を決定することができる。
(態様H)
(態様A)において、前方車両位置検出手段は、前方車両の後輪タイヤのトレッドを検出するトレッド検出手段を有する。これによれば、上記実施形態の変形例について説明したように、前方車両の後輪タイヤのトレッドを検出して前方車両の位置を検出することで、走行車線検出の処理速度が上げることができる。
(態様I)
(態様A)において、前方車両位置検出手段は、前方車両の自動車登録番号標を検出する自動車登録番号標検出手段を有する。これによれば、上記実施形態の変形例について説明したように、前方車両の自動車登録番号標を検出して前方車両の位置を検出することで、走行車線検出の処理速度が上げることができる。
What has been described above is merely an example, and the present invention has a specific effect for each of the following modes.
(Aspect A)
Based on the position of the forward vehicle detected by the forward vehicle position detecting means, comprising forward vehicle position detecting means for detecting the position of the forward vehicle traveling immediately in front of the host vehicle from the image captured by the imaging means, The travel lane is detected by the travel lane detection means. According to this, as described in the above embodiment, there is a high possibility that a vehicle traveling immediately in front of the host vehicle is traveling in the traveling lane of the host vehicle. There is a driving lane in the lower right area. The position of the front vehicle is detected by detecting a tail lamp in the rear part of the front vehicle. Then, by limiting the lower left and lower right image areas from the detected position of the preceding vehicle to the image area to be detected as the traveling lane, the number of Hough votes in the Hough transform, which is one of the traveling lane detection processes, is reduced. Thereby, the processing speed of traveling lane detection can be raised.
(Aspect B)
In (Aspect A), the imaging means electrically converts an optical system including a lens, a spectral filter that separates imaging light that has passed through the optical system into spectral components, and light of a desired spectral component that has passed through the spectral filter. And a sensor that converts the signal into a signal. According to this, as described in the above embodiment, it is possible to easily acquire the position information of the preceding vehicle by detecting the image region including the red tail lamp of the preceding vehicle via the spectral filter 12, and the traveling The processing speed of lane detection can be increased.
(Aspect C)
In (Aspect A) or (Aspect B), the traveling lane detecting means extracts candidate edges of the road lane on the road surface by binarization processing of the image captured by the imaging means, and performs Hough transform on the extracted candidate edges. To detect the driving lane. According to this, as described in the above embodiment, the position of the forward vehicle can be detected more easily, so that the Hough conversion process is accelerated and the processing speed of the traveling lane detection can be increased.
(Aspect D)
In (Aspect A), the signal processing means includes spectral image generation means for generating a spectral image from the image data from the imaging means. According to this, as described in the above embodiment, the position of the vehicle ahead can be detected more easily by obtaining an image corresponding to the tail lamp from the image captured by the spectral image generation unit 31. Therefore, the Hough conversion process is accelerated, and the traveling lane detection process speed can be increased.
(Aspect E)
In (Aspect A), the forward vehicle position detection means includes tail lamp detection means for detecting the tail lamp of the forward vehicle. According to this, as described in the above embodiment, by detecting the red tail lamp of the vehicle ahead, the Hough conversion process is accelerated, and the traveling lane detection processing speed can be increased.
(Aspect F)
In (Embodiment E), the coordinates of the tail lamp of the preceding vehicle detected by the tail lamp detection means are obtained, and the candidate edges of the road lane on the road surface are extracted based on the coordinates of the tail lamp by the travel lane detection means. According to this, as described in the above embodiment, by limiting the image area to be subjected to the Hough conversion based on the coordinates of the tail lamp of the preceding vehicle, the Hough conversion process becomes faster, and the traveling lane detection processing speed is increased. Can be raised.
(Aspect G)
In (Aspect E) or (Aspect F), when the tail lamp of the vehicle ahead cannot be detected by the tail lamp detection means, the binarized image subjected to the binarization processing of the image picked up by the image pickup means is displayed on the road surface. A candidate edge of the road lane on the road surface is extracted from a preset scan start position for extracting a candidate edge of the lane. According to this, as described in the above embodiment, even if the position of the preceding vehicle cannot be detected, pixels that are travel lane candidates are scanned from the preset scan start position with respect to the binarized image, and Voting pixels can be determined.
(Aspect H)
In (Aspect A), the forward vehicle position detection means includes a tread detection means for detecting a tread of a rear wheel tire of the forward vehicle. According to this, as described in the modification of the above embodiment, the processing speed of the traveling lane detection can be increased by detecting the tread of the rear wheel tire of the front vehicle and detecting the position of the front vehicle. .
(Aspect I)
In (Aspect A), the forward vehicle position detection means includes automobile registration number mark detection means for detecting the automobile registration number mark of the preceding vehicle. According to this, as described in the modification of the above-described embodiment, the processing speed of the traveling lane detection can be increased by detecting the vehicle registration number mark of the preceding vehicle and detecting the position of the preceding vehicle.

10 撮影部
11 レンズ
12 分光フィルタ
13 センサ
20 信号処理部
21 FPGA
22 メモリ
31 分光画像生成部
32 テールランプ検出部
33 白線検出部
33−1 エッジ検出部
33−2 二値化部
33−3 ハフ投票対象画素決定部
33−4 ハフ変換部
33−5 ハフ逆変換部
DESCRIPTION OF SYMBOLS 10 Image | photographing part 11 Lens 12 Spectral filter 13 Sensor 20 Signal processing part 21 FPGA
22 Memory 31 Spectral Image Generation Unit 32 Tail Lamp Detection Unit 33 White Line Detection Unit 33-1 Edge Detection Unit 33-3 Binarization Unit 33-3 Hough Voting Target Pixel Determination Unit 33-4 Hough Conversion Unit 33-5 Hough Inverse Conversion Unit

特開2007−179386号公報JP 2007-179386 A

Claims (9)

自車両の前方を撮像する撮像手段と、該撮像手段によって撮像された画像における路面の走行車線を検出する走行車線検出手段とを備え、検出した走行車線を自車両が逸脱しそうかどうか監視し車両の運転を支援する車両運転支援システムにおいて、
前記撮像手段によって撮像された画像から自車両の直前前方を走行している前方車両の位置を検出する前方車両位置検出手段を備え、
該前方車両位置検出手段によって検出した前方車両の位置に基づいて、前記走行車線検出手段によって走行車線を検出することを特徴とする車両運転支援システム。
An imaging unit that images the front of the host vehicle and a traveling lane detection unit that detects a traveling lane on the road surface in an image captured by the imaging unit, and monitors whether the host vehicle is likely to deviate from the detected traveling lane. In a vehicle driving support system that supports driving,
Forward vehicle position detection means for detecting the position of a forward vehicle traveling immediately in front of the host vehicle from an image captured by the imaging means;
A vehicle driving support system, wherein a traveling lane is detected by the traveling lane detecting means based on a position of a preceding vehicle detected by the preceding vehicle position detecting means.
請求項1記載の車両運転支援システムにおいて、
前記撮像手段は、レンズを含む光学系と、該光学系を通った撮像光を分光成分ごとに分離する分光フィルタと、該分光フィルタを通った所望の分光成分の光を電気信号に変換するセンサとを含んで構成されることを特徴とする車両運転支援システム。
The vehicle driving support system according to claim 1,
The imaging means includes an optical system including a lens, a spectral filter that separates imaging light passing through the optical system for each spectral component, and a sensor that converts light of a desired spectral component that passes through the spectral filter into an electrical signal. A vehicle driving support system comprising:
請求項1又は2に記載の車両運転支援システムにおいて、
前記走行車線検出手段は、前記撮像手段によって撮像された画像の二値化処理により路面の走行車線の候補エッジを抽出し、抽出した候補エッジにハフ変換処理を施して走行車線を検出することを特徴とする車両運転支援システム。
The vehicle driving support system according to claim 1 or 2,
The travel lane detecting means extracts a candidate edge of the road lane on the road surface by binarization processing of the image captured by the imaging means, and performs a Hough transform process on the extracted candidate edge to detect the travel lane. A vehicle driving support system.
請求項1記載の車両運転支援システムにおいて、
前記走行車線検出手段は、前記撮像手段からの画像データから分光画像を生成する分光画像生成手段を有することを特徴とする車両運転支援システム。
The vehicle driving support system according to claim 1,
The vehicle driving support system, wherein the traveling lane detecting unit includes a spectral image generating unit that generates a spectral image from image data from the imaging unit.
請求項1記載の車両運転支援システムにおいて、
前記前方車両位置検出手段は、前方車両のテールランプを検出するテールランプ検出手段を有することを特徴とする車両運転支援システム。
The vehicle driving support system according to claim 1,
The vehicle front support system according to claim 1, wherein the front vehicle position detection means includes tail lamp detection means for detecting a tail lamp of a front vehicle.
請求項5記載の車両運転支援システムにおいて、
前記テールランプ検出手段によって検出した前方車両のテールランプの座標を求め、前記走行車線検出手段によってテールランプの座標に基づいて路面の走行車線の候補エッジを抽出することを特徴とする車両運転支援システム。
The vehicle driving support system according to claim 5, wherein
A vehicle driving support system characterized in that coordinates of a tail lamp of a preceding vehicle detected by the tail lamp detecting means are obtained, and candidate edges of a road lane on the road surface are extracted based on the coordinates of the tail lamp by the traveling lane detecting means.
請求項5又は6に記載の車両運転支援システムにおいて、
前記テールランプ検出手段によって前方車両のテールランプが検出できない場合は、前記撮像手段によって撮像された画像の二値化処理が施された二値化画像に対し、路面の走行車線の候補エッジの抽出を行うための予め設定された走査開始位置から路面の走行車線の候補エッジを抽出することを特徴とする車両運転支援システム。
The vehicle driving support system according to claim 5 or 6,
When the tail lamp of the vehicle ahead cannot be detected by the tail lamp detection means, candidate edges of road lanes on the road surface are extracted from the binarized image subjected to the binarization processing of the image captured by the imaging means. A vehicle driving support system that extracts a candidate edge of a road lane on a road surface from a preset scan start position for the purpose.
請求項1記載の車両運転支援システムにおいて、
前記前方車両位置検出手段は、前方車両の後輪タイヤのトレッドを検出するトレッド検出手段を有することを特徴とする車両運転支援システム。
The vehicle driving support system according to claim 1,
The front vehicle position detection means includes a tread detection means for detecting a tread of a rear tire of a front vehicle.
請求項1記載の車両運転支援システムにおいて、
前記前方車両位置検出手段は、前方車両の自動車登録番号標を検出する自動車登録番号標検出手段を有することを特徴とする車両運転支援システム。
The vehicle driving support system according to claim 1,
The vehicle front support system according to claim 1, wherein the front vehicle position detection means includes a car registration number mark detection means for detecting a car registration number mark of a preceding vehicle.
JP2011245420A 2011-11-09 2011-11-09 Vehicle driving support system Pending JP2013101534A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011245420A JP2013101534A (en) 2011-11-09 2011-11-09 Vehicle driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011245420A JP2013101534A (en) 2011-11-09 2011-11-09 Vehicle driving support system

Publications (1)

Publication Number Publication Date
JP2013101534A true JP2013101534A (en) 2013-05-23

Family

ID=48622089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011245420A Pending JP2013101534A (en) 2011-11-09 2011-11-09 Vehicle driving support system

Country Status (1)

Country Link
JP (1) JP2013101534A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103489189A (en) * 2013-09-24 2014-01-01 浙江工商大学 Lane detecting and partitioning method based on traffic intersection videos
KR20160041137A (en) * 2014-10-06 2016-04-18 현대모비스 주식회사 Assisting apparatus and method for keeping lane of vehicle
CN107909563A (en) * 2017-10-09 2018-04-13 常熟理工学院 A kind of rapid Hough transform line detection method based on template

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103489189A (en) * 2013-09-24 2014-01-01 浙江工商大学 Lane detecting and partitioning method based on traffic intersection videos
KR20160041137A (en) * 2014-10-06 2016-04-18 현대모비스 주식회사 Assisting apparatus and method for keeping lane of vehicle
KR102234587B1 (en) * 2014-10-06 2021-04-02 현대모비스 주식회사 Assisting apparatus and method for keeping lane of vehicle
CN107909563A (en) * 2017-10-09 2018-04-13 常熟理工学院 A kind of rapid Hough transform line detection method based on template
CN107909563B (en) * 2017-10-09 2020-03-31 常熟理工学院 Template-based rapid Hough transformation straight line detection method

Similar Documents

Publication Publication Date Title
US9836657B2 (en) System and method for periodic lane marker identification and tracking
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
EP2234086B1 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP6459659B2 (en) Image processing apparatus, image processing method, driving support system, program
CN107891808B (en) Driving reminding method and device and vehicle
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
JP5561064B2 (en) Vehicle object recognition device
WO2017158958A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and program
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
JP2008158958A (en) Road surface determination method and road surface determination device
US10628960B2 (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium
JP6753134B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and image processing program
JP2013250907A (en) Parallax calculation device, parallax calculation method and parallax calculation program
JP6516012B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2015148887A (en) Image processing device, object recognition device, moving body instrument control system and object recognition program
Kim et al. System and method for detecting potholes based on video data
JP2006318059A (en) Apparatus, method, and program for image processing
JP2013101534A (en) Vehicle driving support system
JP4772622B2 (en) Perimeter monitoring system
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2007310591A (en) Image processor and parking space determination method
JP5642785B2 (en) Vehicle periphery monitoring device
JPH11259792A (en) Method and device for recognizing vehicle
JP2008028478A (en) Obstacle detection system, and obstacle detecting method