KR101365557B1 - Apparatus and method for detecting traffic lane - Google Patents

Apparatus and method for detecting traffic lane Download PDF

Info

Publication number
KR101365557B1
KR101365557B1 KR1020120042997A KR20120042997A KR101365557B1 KR 101365557 B1 KR101365557 B1 KR 101365557B1 KR 1020120042997 A KR1020120042997 A KR 1020120042997A KR 20120042997 A KR20120042997 A KR 20120042997A KR 101365557 B1 KR101365557 B1 KR 101365557B1
Authority
KR
South Korea
Prior art keywords
lane
image
region
divided
camera
Prior art date
Application number
KR1020120042997A
Other languages
Korean (ko)
Other versions
KR20130120041A (en
Inventor
강효선
Original Assignee
(주)아이머큐리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이머큐리 filed Critical (주)아이머큐리
Priority to KR1020120042997A priority Critical patent/KR101365557B1/en
Publication of KR20130120041A publication Critical patent/KR20130120041A/en
Application granted granted Critical
Publication of KR101365557B1 publication Critical patent/KR101365557B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • B60Y2300/12Lane keeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 카메라로부터 제공되는 촬영영상에 대해 서로 다른 해상도의 분할영상을 설정하고, 이 분할영상에서 추출된 차선정보를 이용하여 해당 프레임에 대한 차선을 검출하도록 함으로써, 차선검출 오류 확률을 최소화하여 차량의 안전운행을 제공할 수 있도록 해 주는 차선 검출장치 및 그 방법에 관한 것이다.
본 발명에 따른 차선 검출장치 및 그 방법은 차량에 설치되어 고해상도의 촬영영상을 출력하는 카메라와, 상기 카메라로부터 제공되는 고해상도의 촬영영상을 적어도 하나 이상의 서로 다른 해상도로 리사이징함과 더불어, 고해상도의 촬영영상과 리사이징영상을 거리에 따라 설정된 다수의 영역에 대응되도록 각 영상에서 해당 영역의 영상만을 추출한 영역별 분할영상을 생성하는 영상변환수단 및, 상기 영상변환수단으로부터 제공되는 각 영역별 분할영상으로부터 탑-헷필터를 통해 추출된 차선정보를 결합하여 해당 프레임에 대한 차선을 생성하고, 이 생성된 차선을 근거로 허프변환을 통해 차선을 검출하는 차선확정수단을 포함하여 구성되는 것을 특징으로 한다.
According to the present invention, a divided image having different resolutions is set for a captured image provided from a camera, and the lane for the corresponding frame is detected using the lane information extracted from the divided image, thereby minimizing the probability of lane detection error. The present invention relates to a lane detecting apparatus and method for providing safe operation of a vehicle.
The lane detection apparatus and method according to the present invention are installed in a vehicle and output a high resolution captured image, and resizing the high resolution captured image provided from the camera to at least one or more different resolutions, Image conversion means for generating a region-specific segmented image obtained by extracting only an image of a corresponding region from each image so as to correspond to a plurality of regions set according to distances between the image and the resizing image; And lane lane determination means for generating lanes for the corresponding frame by combining lane information extracted through the het filter, and detecting lanes through Hough transformation based on the generated lanes.

Description

차선 검출장치 및 그 방법{Apparatus and method for detecting traffic lane}Lane detection apparatus and its method {Apparatus and method for detecting traffic lane}

본 발명은 카메라로부터 제공되는 촬영영상에 대해 서로 다른 해상도의 분할영상을 설정하고, 이 분할영상에서 추출된 차선정보를 이용하여 해당 프레임에 대한 차선을 검출하도록 함으로써, 차선검출 오류 확률을 최소화하여 차량의 안전운행을 제공할 수 있도록 해 주는 차선 검출장치 및 그 방법에 관한 것이다. According to the present invention, a divided image having different resolutions is set for a captured image provided from a camera, and the lane for the corresponding frame is detected using the lane information extracted from the divided image, thereby minimizing the probability of lane detection error. The present invention relates to a lane detecting apparatus and method for providing safe operation of a vehicle.

최근에는 정보통신 기술의 발달로 차량의 차선 이탈여부에 따른 경고음을 제공해주는 차선이탈경보시스템이나 운전자가 없거나 운전자가 있더라도 차량을 직접 조작하지 않고 자동으로 차량의 주행이나 정지, 회전, 가속, 감속 등의 운전 조작이 이루어지는 차량 자동 제어시스템 등이 개발되어 실용화가 급속하게 진행되고 있는 실정이다.Recently, with the development of information and communication technology, the lane departure warning system that provides a warning sound according to the lane departure of the vehicle or the driving, stop, rotation, acceleration, deceleration, etc. The automatic control system and the like in which the driving operation of the vehicle has been developed and the practical use is rapidly progressing.

여기서, 상기한 차선 이탈 경보시스템이나 차량 자동 제어시스템 등과 같은 차량의 편의성을 제공하는 시스템에 있어서는 카메라로부터 촬영된 영상에서 차선을 검출하는 기술이 가장 기본이자 핵심기술의 하나라 할 수 있다.Here, in a system providing convenience of a vehicle, such as the lane departure warning system or the vehicle automatic control system, a technique for detecting a lane from an image captured by a camera may be one of the most basic and core technologies.

그런데, 상기한 시스템에 있어서는 차선 검출 이외에도 많은 양의 데이터처리를 수행해야 하기 때문에 카메라로부터 제공되는 영상을 저해상도로 변환하여 이를 근거로 차선을 검출하게 된다. However, in the above system, since a large amount of data processing must be performed in addition to the lane detection, the image provided from the camera is converted to a low resolution to detect the lane based on this.

그러나, 차량에 설치된 카메라로부터 제공되는 촬영영상은 도로상 장애물의 그림자나 다른 차량, 도로 임의의 자국, 도로 주변환경 등 차선검출을 방해하는 요소가 포함되어 있어 근거리영역에 대해서는 차선의 검출이 비교적 용이하나 원거리영역에 대해서는 차선의 검출에 다소 문제가 있게 된다. 도1은 다른 차량(C)을 노이즈로 판단하지 못하고 차선으로 인식하여 차선이 오검출된 상황을 예시한 도면이다.However, the captured image provided by the camera installed in the vehicle contains elements that obstruct the lane detection such as shadows of road obstacles, other vehicles, random marks on the road, and the surrounding environment of the road, and thus, lane detection is relatively easy in the near area. However, there is a problem in the detection of lanes in the remote area. FIG. 1 is a diagram illustrating a situation in which another lane C is not detected as a noise and is recognized as a lane so that a lane is incorrectly detected.

이에, 본 발명은 상기한 사정을 감안하여 창출된 것으로, 카메라로부터 제공되는 촬영영상에서 서로 다른 해상도의 분할영상을 설정하고, 이 분할영상에서 추출된 영역별 차선정보를 이용하여 해당 프레임에 대한 차선을 검출하도록 함으로써, 데이터 처리속도에 최소한의 영향을 미치면서 차선검출 오류 확률을 최소화할 수 있도록 해 주는 차선 검출장치 및 그 방법을 제공함에 기술적 목적이 있다. Accordingly, the present invention was created in view of the above circumstances, and sets a divided image having different resolutions from a captured image provided from a camera, and uses the lane information for each region extracted from the divided image to lanes for the corresponding frame. It is a technical object of the present invention to provide a lane detection apparatus and method for minimizing the lane detection error probability while minimizing the data processing speed.

상기 목적을 달성하기 위한 본 발명의 제1 관점에 따른 차선 검출장치는 차량에 설치되어 고해상도의 촬영영상을 출력하는 카메라와, 상기 카메라로부터 제공되는 고해상도의 촬영영상을 적어도 하나 이상의 서로 다른 해상도로 리사이징함과 더불어, 고해상도의 촬영영상과 리사이징영상을 거리에 따라 설정된 다수의 영역에 대응되도록 각 영상에서 해당 영역의 영상만을 추출한 영역별 분할영상을 생성하는 영상변환수단 및, 상기 영상변환수단으로부터 제공되는 각 영역별 분할영상으로부터 탑-헷필터를 통해 추출된 차선정보를 결합하여 해당 프레임에 대한 차선을 생성하고, 이 생성된 차선을 근거로 허프변환을 통해 차선을 검출하는 차선확정수단을 포함하여 구성되되, 상기 영상변환수단은 근거리영역에 대해서는 저해상도의 제1 분할영상을 출력하고, 원거리영역에 대해서는 고해상도의 제2 분할영상을 출력하도록 구성되는 것을 특징으로 한다.The lane detection apparatus according to the first aspect of the present invention for achieving the above object is a camera installed in the vehicle to output a high-resolution photographed image, and resizing the high-resolution photographed image provided from the camera to at least one or more different resolutions In addition, the image conversion means for generating a region-specific segmented image extracted only the image of the corresponding region from each image so as to correspond to a plurality of areas set according to the distance between the high-resolution photographed image and the resizing image, provided from the image conversion means And a lane determination means for generating lanes for the corresponding frames by combining lane information extracted through the top-hat filter from the divided images for each region, and detecting lanes through Hough transformation based on the generated lanes. Wherein, the image conversion means for performing a low-resolution first segmented image for the near area And output a second high resolution image of the high resolution to the distant region.

또한, 상기 목적을 달성하기 위한 본 발명의 제2 관점에 따른 차선 검출방법은 차량에 설치된 카메라로부터 제공되는 고해상도의 촬영영상을 적어도 하나 이상의 서로 다른 해상도로 리사이징하는 제1 단계와, 상기 카메라로부터 제공되는 촬영영상에서 기 설정된 기준거리정보를 근거로 거리에 따른 다수의 분할영역을 설정하는 제2 단계, 상기 각 분할영역에 대응되는 해상도의 영상에서 해당 분할영역을 추출하는 제3 단계, 상기 제3 단계에서 추출된 각 분할영역에서 분할차선정보를 추출하는 제4 단계, 상기 제4 단계에서 추출된 각 분할영역별 분할차선정보를 연결하여 해당 프레임에 대한 차선정보를 생성하는 제5 단계, 상기 제5 단계에서 생성된 차선정보를 허프변환하여 차선을 확정하는 제6 단계를 포함하여 구성되되, 상기 제1 단계는 카메라로부터 제공되는 고해상도의 촬영영상을 저해상도로 리사이징하고, 상기 제2 단계는 촬영영상에서 기준거리정보를 근거로 근거리영역과 원거리영역을 설정하며, 상기 제3 단계는 리사이징영상에서 근거리영역을 추출하고 카메라로부터 제공되는 고해상도의 촬영영상에서 원거리영역을 추출하도록 구성되는 것을 특징으로 한다.In addition, the lane detection method according to a second aspect of the present invention for achieving the above object is a first step of resizing a high-resolution photographed image provided from a camera installed in a vehicle to at least one or more different resolutions, and provided from the camera A second step of setting a plurality of divided areas according to distances based on preset reference distance information in the captured image; a third step of extracting corresponding divided areas from an image having a resolution corresponding to each divided area; A fourth step of extracting divided lane information from each divided region extracted in the step; a fifth step of generating lane information for the corresponding frame by connecting divided lane information of each divided region extracted in the fourth step; And a sixth step of deciding a lane by hough transforming the lane information generated in step 5, wherein the first step is performed by a camera. Resizing the high-resolution photographed image to low resolution, and the second step sets the near and far areas based on the reference distance information in the captured image, and the third step extracts the near area from the resized image and the camera. Characterized in that it is configured to extract the far region from the high-resolution photographed image provided from.

본 발명에 의하면 카메라로부터 제공되는 촬영영상에 대해 근거리영역에서는 저해상도의 영상에서 차선정보를 추출하고, 원거리영역에서는 고해상도의 영상에서 차선정보를 추출하여 해당 프레임에 대한 차선을 검출하도록 함으로써, 차선검출 오류 확률을 최소화하여 보다 안전한 차량 운행서비스를 제공할 수 있게 된다. According to the present invention, a lane detection error is detected by extracting lane information from a low resolution image in a short range region and extracting lane information from a high resolution image in a far field and detecting a lane for a corresponding frame. By minimizing the probability, it is possible to provide a safer vehicle driving service.

도1은 종래 차선 검출 장치의 차선 오검출 예를 도시한 도면.
도2는 본 발명의 제1 실시예에 따른 차선 검출장치의 개략적인 구성을 나타낸 도면.
도3은 도2에 도시된 영상변환수단(200)의 내부구성을 기능적으로 분리하여 나타낸 블록구성도.
도4는 도3에 도시된 영상변환수단(200)의 영상분할방법을 설명하기 위한 도면
도5는 도2에 도시된 차선확정수단(300)의 내부구성을 기능적으로 분리하여 나타낸 블록구성도.
도6은 도2에 도시된 차선 검출장치의 차선 검출방법을 설명하기 위한 플로우챠트.
도7은 본 발명의 제2 실시예에 따른 차선 검출방법을 설명하기 위한 도면.
1 is a diagram showing a lane misdetection example of a conventional lane detection apparatus.
2 is a diagram showing a schematic configuration of a lane detection apparatus according to a first embodiment of the present invention;
Figure 3 is a block diagram showing the functional separation of the internal configuration of the image conversion means 200 shown in FIG.
FIG. 4 is a diagram for describing an image splitting method of the image converting means 200 shown in FIG. 3.
Figure 5 is a block diagram showing the functional separation of the internal configuration of the lane determination means 300 shown in FIG.
FIG. 6 is a flowchart for explaining a lane detection method of the lane detection device shown in FIG. 2; FIG.
7 is a view for explaining a lane detection method according to a second embodiment of the present invention;

이하, 도면을 참조하여 본 발명에 따른 실시예를 설명한다. 단, 이하에 설명하는 실시예는 본 발명의 하나의 바람직한 구현예를 나타낸 것으로, 이는 본 발명의 권리범위를 제한하기 위한 것이 아니다. 본 발명은 그 기술적 요지를 벗어나지 않는 범위내에서 다양하게 변형시켜 실시할 수 있다.Hereinafter, embodiments according to the present invention will be described with reference to the drawings. However, the embodiments described below represent one preferred embodiment of the present invention, and are not intended to limit the scope of the present invention. The present invention can be variously modified and carried out without departing from the technical gist thereof.

도2는 본 발명의 제1 실시예에 따른 차선 검출장치의 개략적인 구성을 나타낸 도면이다.2 is a view showing a schematic configuration of a lane detection apparatus according to a first embodiment of the present invention.

도2에 도시된 바와 같이 본 발명에 따른 차선 검출장치는 차량에 설치되어 고해상도의 촬영영상을 출력하는 카메라(100)와, 카메라(100)로부터 제공되는 고해상도의 촬영영상을 적어도 하나 이상의 서로 다른 해상도로 리사이징(resizing)하여 영역별로 분할출력하는 영상변환수단(200) 및, 상기 영상변환수단(200)으로부터 제공되는 각 영역별 분할영상으로부터 각각의 차선을 검출한 후 이를 결합하여 해당 프레임에 대한 차선을 확정하는 차선확정수단(300)을 포함하여 구성된다.As shown in FIG. 2, the apparatus for detecting lanes according to the present invention includes at least one different resolution of a camera 100 installed in a vehicle and outputting a high resolution captured image, and a high resolution captured image provided from the camera 100. Image conversion means 200 for resizing and segmenting output by area, and detecting respective lanes from the divided images for each area provided from the image conversion means 200, and combining the lanes with respect to the corresponding frame. It is configured to include a lane determining means 300 to determine the.

상기 카메라(100)는 차량의 전면을 촬영하여 고해상도의 촬영영상을 상기 영상변환수단(200)으로 제공한다. 예컨대, 상기 카메라(100)는 해상도가 1,280×720인 HD(High Definition) 촬영영상을 출력한다.The camera 100 photographs the front surface of the vehicle and provides a high resolution photographed image to the image converting means 200. For example, the camera 100 outputs a high definition (HD) captured image having a resolution of 1,280 × 720.

상기 영상변환수단(200)은 카메라(100)로부터 제공되는 고해상도의 촬영영상에 대해 적어도 하나 이상의 서로 다른 해상도로 리사이징하고, 촬영영상에서 거리에 따른 다수 영역 예컨대, 근거리영역과 원거리영역을 설정하여, 근거리영역에 대해서는 저해상도로 리사이징된 분할영상을 추출하고 원거리영역에 대해서는 고해상도의 분할영상을 추출한다. The image converting means 200 resizes at least one or more different resolutions to a high resolution photographed image provided from the camera 100, and sets a plurality of regions, for example, a short range region and a far region according to a distance, in the photographed image. A low resolution resized segmented image is extracted for the near region and a high resolution segmented image is extracted for the far region.

상기 차선확정수단(300)은 상기 영상변환수단(200)으로부터 제공되는 영역별 분할영상에서 각각 차선정보를 추출하고, 추출된 영역별 분할차선을 결합하여 해당 프레임에서의 차선을 확정한다.The lane determining means 300 extracts lane information from each divided image provided from the image converting means 200, and combines the extracted region divided lanes to determine the lane in the corresponding frame.

도3은 도2에 도시된 영상변환수단(200)의 내부구성을 기능적으로 분리하여 나타낸 블록구성도이다.FIG. 3 is a block diagram showing functional separation of the internal configuration of the image conversion means 200 shown in FIG.

도3에 도시된 바와 같이 영상변환수단(200)은 리사이징처리부(210)와, 영역설정부(220) 및, 영상분할부(230)를 포함하여 구성된다.As shown in FIG. 3, the image converting means 200 includes a resizing processor 210, an area setting unit 220, and an image divider 230.

상기 리사이징처리부(210)는 카메라(100)로부터 제공되는 고해상도의 촬영영상을 서로 다른 해상도를 갖는 적어도 하나 이상의 영상으로 리사이징한다. 예컨대, 상기 리사이징처리부(210)는 고해상도의 촬영영상을 저해상도 예컨대, 해상도가 320×240인 QVGA(Quarter Video Graphics Array)방식으로 리사이징하여 출력한다. The resizing processor 210 resizes the high resolution captured image provided from the camera 100 to at least one image having different resolutions. For example, the resizing processor 210 resizes and outputs a high resolution photographed image in a low resolution, for example, QVGA (Quarter Video Graphics Array) method having a resolution of 320 × 240.

상기 영역설정부(220)는 상기 카메라(100)로부터 제공되는 촬영영상에서 기설정된 기준거리정보를 근거로 거리에 따른 다수의 분할영역을 설정한다. 즉, 상기 영역설정부(220)는 도4에 도시된 바와 같이 먼저 촬영영상에서 소실점(Y)을 추출한다. 여기서, 상기 소실점(Y)은 촬영영상에서 지평선이 될 수 있다. 이어, 영역설정부(220)는 소실점(Y) 이하의 도로영역에서 차선(L)이 포함되도록 관심영역(ROI)을 설정한다. 여기서, 상기 관심영역(ROI, Region Of Interest)은 차선(L)을 포함하는 사다리꼴 영역이 될 수 있다. 이후, 영역설정부(220)는 기준거리정보를 근거로 카메라 모델링을 통해 근거리영역(A)과 원거리영역(B)을 설정한다. 예컨대, 기준거리(R)정보가 "30m"로 설정된 경우, 차량으로부터 30m이내 영역은 근거리영역으로, 이후 영역은 원거리영역으로 설정할 수 있다. 여기서, 상기 카메라 모델링을 통한 거리산출방법은 카메라의 렌즈 특성과 설치위치 및 설치각도 등에 의해 산출되는 일반적인 방식이므로 그 상세한 설명은 생략한다. The area setting unit 220 sets a plurality of divided areas according to distances based on preset reference distance information in the captured image provided from the camera 100. That is, the region setting unit 220 first extracts the vanishing point Y from the captured image as shown in FIG. 4. Here, the vanishing point (Y) may be a horizon in the captured image. Subsequently, the area setting unit 220 sets the ROI to include the lane L in the road area below the vanishing point Y. In this case, the region of interest (ROI) may be a trapezoidal area including a lane (L). Thereafter, the area setting unit 220 sets the near area A and the far area B through camera modeling based on the reference distance information. For example, when the reference distance R information is set to "30m", an area within 30m from the vehicle may be set as a short range area and a subsequent area as a far area. Here, since the distance calculation method through the camera modeling is a general method calculated by the lens characteristics, the installation position and the installation angle of the camera, detailed description thereof will be omitted.

상기 영상분할처리부(230)는 상기 영역설정부(220)에서 제공되는 영역설정정보에 대응되도록 상기 카메라(110) 및 리사이징처리부(210)에서 제공되는 서로 다른 해상도의 영상을 분할한다. 즉, 상기 영상분할처리부(230)는 근거리영역에 대해서는 리사이징처리부(210)로부터 제공되는 저해상도 리사이징영상을 추출하고, 원거리영역에 대해서는 카메라(100)로부터 제공되는 고해상도의 영상을 각각 추출하여 상기 차선확정수단(300)으로 제공한다.The image segmentation processor 230 divides images of different resolutions provided by the camera 110 and the resizing processor 210 so as to correspond to region setting information provided by the region setting unit 220. That is, the image segmentation processor 230 extracts the low resolution resizing image provided from the resizing processor 210 for the near region, and extracts the high resolution image provided from the camera 100 for the far region, respectively, to determine the lanes. Provided by means 300.

도5는 도2에 도시된 차선확정수단(300)의 내부구성을 기능적으로 분리하여 나타낸 블록구성도이다.FIG. 5 is a block diagram illustrating a functional separation of the internal configuration of the lane determination means 300 shown in FIG. 2.

도5에 도시된 바와 같이 차선확정수단(300)은 차선정보추출부(310)와, 차선결합부(320), 직선성분검출부(330) 및 차선확정부(340)를 포함하여 구성된다.As shown in FIG. 5, the lane determining unit 300 includes a lane information extracting unit 310, a lane combining unit 320, a linear component detecting unit 330, and a lane expanding unit 340.

상기 차선정보추출부(310)는 도5에 도시된 바와 같이 상기 영상변환수단(200)으로부터 제공되는 서로 다른 해상도의 분할영상에 대해 각각 차선정보를 추출하는 제1 내지 제N 차선정보추출모듈(미도시)로 구성된다. 예컨대, 상기 차선정보추출부(310)는 제1 및 제2 차선정보추출모듈(미도시)로 구성되어 제1 차선정보추출모듈은 상기 영상변환수단(200)으로부터 제공되는 근거리 분할영상에 대해 제1 분할차선정보를 추출하고, 상기 제2 차선정보추출모듈(312)은 원거리 분할영상에 대해 제2 분할차선정보를 추출한다. 여기서, 상기 차선정보추출부(310)는 탑햇 필터(Top-Hat Filter)를 이용하여 선 형태의 차선정보를 추출한다. 즉, 차선의 경우 일반적으로 국내는 약 15cm, 미국의 경우 약 10cm로 그려져 있는 바, 탑햇 필터를 통해 일정한 두께의 선을 하나의 선으로 검출함으로써 차선정보를 추출하게 된다. 또한, 차선을 통상 흰색 또는 노란색으로써 도로보다 밝은 색으로 되어 있으므로 그레이 레벨이 높은 부분을 검출함으로써 차선을 용이하게 추출할 수 있다. As illustrated in FIG. 5, the lane information extracting unit 310 may include first to N th lane information extracting modules for extracting lane information for split images having different resolutions provided from the image converting means 200. Not shown). For example, the lane information extracting unit 310 is composed of first and second lane information extracting modules (not shown) so that the first lane information extracting module is configured for a near-field segmented image provided from the image converting means 200. The first lane information is extracted, and the second lane information extraction module 312 extracts the second divided lane information from the far divided image. Here, the lane information extracting unit 310 extracts lane information in the form of a line using a top hat filter. That is, in the case of lanes, in general, about 15cm in Korea and about 10cm in the United States, the lane information is extracted by detecting a line having a certain thickness through a top hat filter. In addition, since the lane is usually white or yellow in color than the road, the lane can be easily extracted by detecting a portion having a higher gray level.

상기 차선결합부(320)는 상기 차선추출부(310)로부터 제공되는 각 영역별 분할차선정보를 결합하여 해당 프레임에 대해 하나의 차선을 생성한다. 즉, 근거리 분할영상에서 추출된 제1 분할차선정보와 원거리 분할영역에서 추출된 제2 분할차선정보를 순차연결하여 하나의 차선을 생성한다.The lane combiner 320 combines divided lane information for each region provided from the lane extractor 310 to generate one lane for a corresponding frame. That is, one lane is generated by sequentially connecting the first divided lane information extracted from the near division image and the second divided lane information extracted from the far divided region.

상기 직선성분추출부(330)는 상기 차선결합부(320)로부터 제공되는 차선정보를 근거로 2차원 허프 변환(Hough Transform)을 이용하여 직선방정식을 추출함으로써 구해질 수 있다. 허프 변환의 개념은 어떤 데이터에 근사하는 함수를 구하기 위해 함수의 파라미터를 좌표계로 가지는 공간을 만들어 데이터를 누적하며, 최대값을 가지는 곳의 좌표를 구하여 원하는 파라미터를 찾는 것으로, 이는 공학에서 일반적으로 사용되는 공식이므로 자세한 설명은 생략한다.The linear component extractor 330 may be obtained by extracting a linear equation using a two-dimensional Hough transform based on the lane information provided from the lane coupler 320. The concept of Hough transform is to accumulate the data by creating a space with the parameters of a function as a coordinate system to find a function that approximates some data, and to find the desired parameter by obtaining the coordinates of the largest value. The detailed description is omitted because it is a formula.

또한, 상기 차선확정부(340)는 상기 직선성분추출부(330)에서 허프변환을 통해 추출된 다수의 직선방정식 중 차선을 확정한다. 즉, 차선확정부(340)은 추출된 직선 방정식에 의한 하나 이상의 직선들과 이전 프레임에서 확정된 차선을 비교하여 기울기의 차이가 가장 작은 것을 해당 프레임의 차선으로 확정한다. In addition, the lane extension 340 determines a lane among a plurality of linear equations extracted through the Hough transform in the linear component extractor 330. That is, the lane extension 340 compares one or more straight lines by the extracted linear equation with the lane determined in the previous frame and determines that the difference in the slope is the smallest as the lane of the corresponding frame.

이때, 이전 프레임에서 차선이 지워지는 등의 이유로 차선검출이 이루어지지 않아 차선이 확정되지 않은 경우, 만약 현재 프레임에서 다른 한쪽의 차선이 확정되어 있으면, 그 차선과의 거리가 일정 거리(일반적인 차선의 넓이인 약2.5m)에 있는 직선을 차선으로 확정하도록 실시할 수 있다. 또한, 이전 프레임에서 양쪽 차선 모두에 대한 차선확정이 이루어지지 않는 경우 허프 변환에서 보팅 수가 가장 큰 선을 차선으로 확정하도록 실시할 수 있다. 또한, 현재 프레임에서는 차선 정보가 추출되지 않았으나, 이전 프레임에서는 차선이 확정된 경우에는 주로 일반 도로에서 점선 차선에 해당하는 것으로, 이 경우에는 이전 프레임에서 확정된 차선정보를 그대로 현재 프레임의 차선으로 확정하도록 실시할 수 있다.At this time, if the lane is not determined because the lane is not detected in the previous frame or the like, the lane is not determined. If the other lane is determined in the current frame, the distance from the lane is a certain distance. It can be done so that the straight line in the area of about 2.5m) is determined as the lane. In addition, when lane determination is not performed for both lanes in the previous frame, the HFT transformation may be performed to determine the line having the largest voting number as the lane. In addition, the lane information is not extracted in the current frame, but when the lane is determined in the previous frame, the lane information is mainly a dotted line lane on the general road. Can be done.

이어, 상기한 구성으로 된 차선 검출장치의 차선 검출방법을 도6에 도시된 플로우챠트를 참조하여 설명한다. Next, a lane detection method of the lane detection apparatus having the above-described configuration will be described with reference to the flowchart shown in FIG.

먼저, 사용자는 촬영영상에서 근거리영역과 원거리영역을 설정하기 위한 기준거리정보를 설정한다. 이때, 상기 기준거리정보는 차선 검출장치의 제조시에 설정될 수도 있고, 제조시 설정된 기준거리정보를 사용자가 임의로 변경 설정할 수도 있다. First, a user sets reference distance information for setting a near area and a far area in a captured image. In this case, the reference distance information may be set at the time of manufacture of the lane detection apparatus, or the user may arbitrarily change and set the reference distance information set at the time of manufacture.

상기한 상태에서 차량에 설치된 카메라(100)는 차량 전방에 대한 고해상도의 촬영영상을 영상변환수단(200)으로 제공한다(ST1).In the above state, the camera 100 installed in the vehicle provides a high-resolution photographed image of the front of the vehicle to the image converting means 200 (ST1).

영상변환수단(200)은 상기 카메라(100)부터 제공되는 고해상도의 촬영영상을 서로 다른 적어도 하나 이상의 해상도로 리사이징한다(ST2). 즉, 상기 영상변환수단(200)은 카메라(100)로부터 제공되는 고해상도의 촬영영상을 저해상도의 영상으로 리사이징한다. The image converting means 200 resizes the high resolution photographed image provided from the camera 100 to at least one resolution different from each other (ST2). That is, the image converting means 200 resizes the high resolution captured image provided from the camera 100 to a low resolution image.

또한, 상기 영상변환수단(200)은 상기 카메라(100)로부터 제공되는 촬영영상에서 기설정된 기준거리정보를 근거로 거리에 따른 다수의 분할영역을 설정한다(ST3). 즉, 상기 영상변환수단(200)은 지평선을 기준으로 도로영역에서 사다리꼴 형상의 관심영역을 설정하고, 이 관심영역에서 근거리영역에 대응되는 제1 분할영역과 원거리영역에 대응되는 제2 분할영역을 설정한다.In addition, the image converting means 200 sets a plurality of divided regions according to distances based on predetermined reference distance information in the captured image provided from the camera 100 (ST3). That is, the image converting means 200 sets a trapezoid-shaped ROI in the road area based on a horizon, and selects a first division area corresponding to the near area and a second division area corresponding to the far area in the ROI. Set it.

이어, 상기 영상변환수단(200)은 각 분할영역에 대응되는 해상도의 영상에서 해당 분할영역을 추출한다(ST4). 즉, 근거리영역인 제1 분할영역에 대해서는 저해상도의 제1 분할영상을 추출하고, 원거리영역인 제2 분할영역에 대해서는 고해상도의 제2 분할영상을 각각 추출하여 차선확정수단(300)으로 제공한다.Subsequently, the image converting means 200 extracts the divided region from the image having the resolution corresponding to each divided region (ST4). That is, the first divided image having a low resolution is extracted for the first divided region, which is the near region, and the second divided image having high resolution is extracted for the second divided region, which is the far region, and provided to the lane determining means 300.

차선확정수단(300)은 다수의 분할영상에서 탑-햇필터를 이용하여 각각의 분할차선정보를 추출한다(ST5). 즉, 제1 및 제2 분할영상에서 근거리영역의 제1 분할차선정보와 원거리영역의 제2 분할차선정보를 추출한다. Lane determination means 300 extracts the respective divided lane information from the plurality of divided images using the top-hat filter (ST5). That is, the first divided lane information of the near area and the second divided lane information of the far area are extracted from the first and second divided images.

그리고, 상기 차선확정수단(300)은 각 분할영상에서 추출된 분할차선정보를 연결하여 현재 프레임에 대한 하나의 차선정보를 생성한다(ST6).The lane determination unit 300 connects the divided lane information extracted from each divided image to generate one lane information of the current frame (ST6).

이후, 상기 차선확정수단(300)은 현재 프레임에 대해 생성된 하나의 차선정보를 근거로 허프변환을 통해 다수의 직선방정식을 산출하고, 산출된 직선방정식 중 하나를 차선으로 확정한다(ST7). 이때, 상기 차선확정수단(300)은 확정 차선은 이전 프레임에서 확정된 차선정보를 근거로 가장 기울기차가 적은 직선성분으로 설정될 수 있다. Thereafter, the lane determination means 300 calculates a plurality of linear equations through Hough transform based on one lane information generated for the current frame, and determines one of the calculated linear equations as a lane (ST7). In this case, the lane determination means 300 may be set to a straight line component having the smallest slope difference based on the lane information determined in the previous frame.

또한, 상기 차선확정수단(300)은 이전 프레임에서 확정된 양 차선이 존재하지 않는 경우 허프 변환에서 보팅 수가 가장 큰 직선정보를 차선으로 확정한다. In addition, the lane determination unit 300 determines the straight line information having the largest voting number in the Hough transform as the lane when there are no lanes determined in the previous frame.

또한, 상기 차선확정수단(300)은 이전 프레임에서 확정된 하나의 차선이 존재하지 않는 경우, 이전 프레임에서 확정된 다른 차선과의 거리가 일정 거리에 있는 직선성분을 차선으로 확정한다.In addition, when there is no lane determined in the previous frame, the lane determination unit 300 determines a straight line component having a predetermined distance from the other lane determined in the previous frame as the lane.

즉, 상기 실시예에 의하면 카메라로부터 제공되는 고해상도의 촬영영상에서는 원거리 영역에 대한 분할영상을 추출하고, 저해상도로 리사이징된 영상에서는 근거리영역에 대한 분할영상을 추출한 후, 추출된 각각의 분할영상으로부터 차선정보를 추출하고, 이 추출된 차선정보를 이용하여 차선을 검출하게 된다. That is, according to the embodiment, a segmented image of a distant region is extracted from a high resolution photographed image provided from a camera, and a segmented image of a near region is extracted from a low resized image, and a lane is extracted from each of the extracted segmented images. The information is extracted, and the lane is detected using the extracted lane information.

한편, 상기 실시예에 있어서는 촬영영상은 근거리영역과 원거리영역의 두 영역으로 분할하도록 설명하였으나, 도7에 도시된 바와 같이 근거리영역과 원거리영역 및 중거리영역의 세 영역으로 분할하거나 그 이상의 영역으로 분할하여 차선을 검출하도록 실시할 수 있다. 도7에서 (가)는 분할영역설정화면을 도시한 것이고, (나)는 각 분할영역에서 추출된 차선정보를 도시한 것이다.Meanwhile, in the above embodiment, the photographed image is divided into two regions, a near region and a far region. However, as shown in FIG. 7, the photographed image is divided into three regions, a near region, a far region, and a middle region. To detect a lane. In FIG. 7, (a) shows a partition area setting screen, and (b) shows lane information extracted from each partition area.

예컨대, 차선 검출장치는 촬영영상에서 근거리영역과 원거리영역 및 중거리영역을 설정하기 위한 기준거리정보가 미리 설정된 상태에서 고해상도의 촬영영상을 저해상도 및 중해상도의 리사이징영상으로 변환한 후, 근거리영역에 대해서는 저해상도의 리사이징영상으로부터 제1 분할영상을 추출하고, 중거리영역에 대해서는 예컨대, 해상도가 640×480인 VGA(video graphics array)방식인 중해상도의 리사이징영상으로부터 제2 분할영상을 추출하며, 원거리영역에 대해서는 상기 카메라로부터 제공되는 고해상도의 촬영영상으로부터 제3 분할영상을 추출하도록 실시할 수 있다. For example, the lane detecting apparatus converts a high resolution captured image into a low resolution and a medium resolution resizing image in a state where reference distance information for setting a near area, a far area, and a medium distance area in a captured image is set in advance, and then, A first segmented image is extracted from a low resolution resizing image, and a second segmented image is extracted from a medium resolution resizing image of a VGA (video graphics array) method having a resolution of 640 × 480 for a medium distance region. For example, the third segmented image may be extracted from a high resolution photographed image provided from the camera.

따라서, 본원 발명은 정확한 차선검출을 위해 고해상도의 촬영영상을 이용하여 차선을 검출하는 방법에 비해 처리속도가 저하되는 것을 최소화하면서 저해상도의 촬영영상을 이용하는 차선을 검출하는 방법에 비해 보다 정확하게 차선을 검출할 수 있게 된다. Accordingly, the present invention detects a lane more accurately than a method of detecting a lane using a low resolution shot image while minimizing a decrease in processing speed compared to a method of detecting a lane using a high resolution shot image for accurate lane detection. You can do it.

100 : 카메라, 200 : 영상변환수단,
300 : 차선확정수단,
210 : 리사이징처리부, 220 : 영역설정부,
230 : 영상분할부, 310 : 차선정보추출부,
320 : 차선결합부, 330 : 직선성분검출부,
340 : 차선확정부.
100: camera, 200: image conversion means,
300: lane determination means,
210: resizing processing unit, 220: area setting unit,
230: image segmentation unit, 310: lane information extraction unit,
320: lane coupling unit, 330: linear component detection unit,
340: Lane Confirmation.

Claims (13)

차량에 설치되어 고해상도의 촬영영상을 출력하는 카메라와,
상기 카메라로부터 제공되는 고해상도의 촬영영상을 적어도 하나 이상의 서로 다른 해상도로 리사이징함과 더불어, 고해상도의 촬영영상과 리사이징영상을 거리에 따라 설정된 다수의 영역에 대응되도록 각 영상에서 해당 영역의 영상만을 추출한 영역별 분할영상을 생성하는 영상변환수단 및,
상기 영상변환수단으로부터 제공되는 각 영역별 분할영상으로부터 탑-헷필터를 통해 추출된 차선정보를 결합하여 해당 프레임에 대한 차선을 생성하고, 이 생성된 차선을 근거로 허프변환을 통해 차선을 검출하는 차선확정수단을 포함하여 구성되되,
상기 영상변환수단은 근거리영역에 대해서는 저해상도의 제1 분할영상을 출력하고, 원거리영역에 대해서는 고해상도의 제2 분할영상을 출력하도록 구성되는 것을 특징으로 하는 차선 검출장치.
A camera installed in the vehicle and outputting a high resolution photographed image;
Resizing the high resolution captured image provided from the camera to at least one different resolution, and extracting only the image of the corresponding region from each image so as to correspond to a plurality of regions set according to the distance between the high resolution captured image and the resizing image Image conversion means for generating a separate image for each;
By combining the lane information extracted through the top-hat filter from the divided image for each region provided from the image conversion means to generate a lane for the frame, and detecting the lane through the Hough transform based on the generated lane Including lane-determining means,
And the image converting means is configured to output a low resolution first segmented image for a short range region and a second segment image of a high resolution for a far region.
삭제delete 제1항에 있어서,
상기 영상변환수단의 제1 분할영상은 QVGA방식으로 리사이징된 영상이고, 제2 분할영상은 카메라로부터 제공되는 HD 영상인 것을 특징으로 하는 차선 검출장치.
The method of claim 1,
And the first divided image of the image converting means is an image resized in a QVGA method, and the second divided image is an HD image provided from a camera.
제1항에 있어서,
상기 영상변환수단은 근거리영역에 대해서는 저해상도의 제1 분할영상을 출력하고, 원거리영역에 대해서는 고해상도의 제2 분할영상을 출력하며, 중거리영역에 대해서는 중해상도의 제3 분할영상을 출력하도록 구성되는 것을 특징으로 하는 차선 검출장치.
The method of claim 1,
The image converting means is configured to output a low resolution first segmented image for a short range region, a high resolution second segmented image for a far region, and a third segment image of medium resolution for a medium range region. Lane detection device characterized in that.
제1항에 있어서,
상기 차선확정수단은 이전 프레임에서 확정된 차선정보를 근거로 가장 기울기 차가 적은 직선차선을 현재 프레임의 차선으로 확정하는 것을 특징으로 하는 차선 검출장치.
The method of claim 1,
And the lane determination means determines the straight lane with the smallest inclination difference as the lane of the current frame based on the lane information determined in the previous frame.
제1항에 있어서,
상기 차선확정수단은 이전 프레임 차선이 확정되지 않고, 현재 프레임에서 다른 한쪽의 차선이 확정되어 있으면, 그 차선과의 거리가 일정 거리에 있는 직선을 차선으로 확정하는 것을 특징으로 하는 차선 검출장치.
The method of claim 1,
And the lane determining means determines a straight line having a distance from the lane as a lane when the other frame lane in the current frame is not determined.
제1항에 있어서,
상기 차선확정수단은 이전 프레임에서 차선이 확정되지 않고, 현재 프레임에서 양쪽 차선 모두에 대한 차선확정이 이루어지지 않은 경우 허프변환에서 보팅 수가 가장 큰 직선을 차선으로 확정하는 것을 특징으로 하는 차선 검출장치.
The method of claim 1,
And the lane determining means determines a straight line having the largest voting number in the Hough transform as the lane when the lane is not determined in the previous frame and the lane is not determined for both lanes in the current frame.
차량에 설치된 카메라로부터 제공되는 고해상도의 촬영영상을 적어도 하나 이상의 서로 다른 해상도로 리사이징하는 제1 단계와,
상기 카메라로부터 제공되는 촬영영상에서 기 설정된 기준거리정보를 근거로 거리에 따른 다수의 분할영역을 설정하는 제2 단계,
상기 각 분할영역에 대응되는 해상도의 영상에서 해당 분할영역을 추출하는 제3 단계,
상기 제3 단계에서 추출된 각 분할영역에서 분할차선정보를 추출하는 제4 단계,
상기 제4 단계에서 추출된 각 분할영역별 분할차선정보를 연결하여 해당 프레임에 대한 차선정보를 생성하는 제5 단계,
상기 제5 단계에서 생성된 차선정보를 허프변환하여 차선을 확정하는 제6 단계를 포함하여 구성되되,
상기 제1 단계는 카메라로부터 제공되는 고해상도의 촬영영상을 저해상도로 리사이징하고,
상기 제2 단계는 촬영영상에서 기준거리정보를 근거로 근거리영역과 원거리영역을 설정하며,
상기 제3 단계는 리사이징영상에서 근거리영역을 추출하고 카메라로부터 제공되는 고해상도의 촬영영상에서 원거리영역을 추출하도록 구성되는 것을 특징으로 하는 차선 검출방법.
Resizing the high resolution captured image provided from the camera installed in the vehicle to at least one or more different resolutions;
A second step of setting a plurality of divided regions according to distances based on preset reference distance information in the captured image provided from the camera;
A third step of extracting a corresponding divided region from an image having a resolution corresponding to each divided region,
A fourth step of extracting divided lane information from each divided area extracted in the third step,
A fifth step of generating lane information on the corresponding frame by connecting the divided lane information of each divided region extracted in the fourth step;
And a sixth step of deciding a lane by Hough transforming the lane information generated in the fifth step.
The first step is to resize the high resolution captured image provided from the camera to a low resolution,
In the second step, the near and far areas are set based on the reference distance information in the captured image.
The third step is a lane detection method characterized in that it is configured to extract the near-area from the resizing image and the far-field from the high-resolution photographed image provided from the camera.
삭제delete 제8항에 있어서,
상기 제1 단계는 카메라로부터 제공되는 고해상도의 촬영영상을 저해상도의 제1 리사이징영상과 중해상도의 제2 리사이징영상으로 변환하고,
상기 제2 단계는 촬영영상에서 기준거리정보를 근거로 근거리영역과 원거리영역 및 중거리영역을 설정하며,
상기 제3 단계는 제1 리사이징영상에서 근거리영역을 추출하고 제2 리사이징영상에서 중거리영역을 추출하며, 상기 카메라로부터 제공되는 고해상도의 촬영영상에서 원거리영역을 추출하도록 구성되는 것을 특징으로 하는 차선 검출방법.
9. The method of claim 8,
The first step is to convert the high-resolution photographed image provided from the camera to a low resolution first resizing image and a medium resolution second resizing image,
In the second step, a short range region, a far range region, and a medium range region are set based on the reference distance information in the captured image.
In the third step, the lane detection method is configured to extract a short range region from a first resizing image, a middle distance region from a second resizing image, and extract a far region from a high resolution photographed image provided from the camera. .
제8항에 있어서,
상기 제6 단계는 이전 프레임에서 확정된 차선정보를 근거로 가장 기울기 차가 적은 직선차선을 현재 프레임의 차선으로 확정하는 것을 특징으로 하는 차선 검출방법.
9. The method of claim 8,
In the sixth step, the lane detection method of determining a straight lane having the smallest inclination difference as the lane of the current frame based on the lane information determined in the previous frame.
제8항에 있어서,
상기 제6 단계는 이전 프레임 차선이 확정되지 않고, 현재 프레임에서 다른 한쪽의 차선이 확정되어 있으면, 그 차선과의 거리가 일정 거리에 있는 직선을 차선으로 확정하는 것을 특징으로 하는 차선 검출방법.
9. The method of claim 8,
The sixth step is a lane detection method, characterized in that if the previous frame lane is not determined and the other lane is determined in the current frame, a straight line having a predetermined distance from the lane is determined as the lane.
제8항에 있어서,
상기 제6 단계는 이전 프레임에서 차선이 확정되지 않고, 현재 프레임에서 양쪽 차선 모두에 대한 차선확정이 이루어지지 않은 경우 허프변환에서 보팅 수가 가장 큰 직선을 차선으로 확정하는 것을 특징으로 하는 차선 검출방법.
9. The method of claim 8,
In the sixth step, when the lane is not determined in the previous frame and the lane is determined in both lanes in the current frame, the lane having the largest voting number in the Hough transform is determined as the lane.
KR1020120042997A 2012-04-25 2012-04-25 Apparatus and method for detecting traffic lane KR101365557B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120042997A KR101365557B1 (en) 2012-04-25 2012-04-25 Apparatus and method for detecting traffic lane

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120042997A KR101365557B1 (en) 2012-04-25 2012-04-25 Apparatus and method for detecting traffic lane

Publications (2)

Publication Number Publication Date
KR20130120041A KR20130120041A (en) 2013-11-04
KR101365557B1 true KR101365557B1 (en) 2014-02-27

Family

ID=49850800

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120042997A KR101365557B1 (en) 2012-04-25 2012-04-25 Apparatus and method for detecting traffic lane

Country Status (1)

Country Link
KR (1) KR101365557B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102199094B1 (en) * 2014-05-26 2021-01-07 에스케이텔레콤 주식회사 Method and Apparatus for Learning Region of Interest for Detecting Object of Interest
KR102299501B1 (en) * 2014-06-05 2021-09-09 현대자동차주식회사 Electronic apparatus, control method of electronic apparatus and computer readable recording medium
DE102015207896A1 (en) 2015-04-29 2016-11-03 Mando Corporation A system and method for detecting a region of interest about a sloped line
KR101875781B1 (en) * 2017-01-10 2018-07-06 (주)베라시스 Method for Extracting Border of Road Using Road Character Information in Image
US10586456B2 (en) 2018-04-27 2020-03-10 TuSimple System and method for determining car to lane distance
CN109951637B (en) * 2019-03-19 2020-09-11 河北川谷信息技术有限公司 Security monitoring probe analysis processing method based on big data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100326674B1 (en) * 1999-03-11 2002-03-02 이계안 Method for alarming beyond the lane in vehicle
KR20100085288A (en) * 2009-01-20 2010-07-29 주식회사 다비안 Method and system for warning lane departure
KR20100105126A (en) * 2009-03-20 2010-09-29 한국전자통신연구원 Apparatus for detecting lane and its method
KR20110111668A (en) * 2010-04-05 2011-10-12 경상대학교산학협력단 Lane recognition apparatus and method of recognition lane thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100326674B1 (en) * 1999-03-11 2002-03-02 이계안 Method for alarming beyond the lane in vehicle
KR20100085288A (en) * 2009-01-20 2010-07-29 주식회사 다비안 Method and system for warning lane departure
KR20100105126A (en) * 2009-03-20 2010-09-29 한국전자통신연구원 Apparatus for detecting lane and its method
KR20110111668A (en) * 2010-04-05 2011-10-12 경상대학교산학협력단 Lane recognition apparatus and method of recognition lane thereof

Also Published As

Publication number Publication date
KR20130120041A (en) 2013-11-04

Similar Documents

Publication Publication Date Title
KR101365557B1 (en) Apparatus and method for detecting traffic lane
EP2713309B1 (en) Method and device for detecting drivable region of road
US7899211B2 (en) Object detecting system and object detecting method
JP7072641B2 (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
US10041791B2 (en) Object detection apparatus method
CN107273788B (en) Imaging system for performing lane detection in a vehicle and vehicle imaging system
CN111462503B (en) Vehicle speed measuring method and device and computer readable storage medium
JP5999127B2 (en) Image processing device
WO2011111247A1 (en) Stereo camera device
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
US20140002656A1 (en) Lane departure warning system and lane departure warning method
US9715632B2 (en) Intersection recognizing apparatus and computer-readable storage medium
WO2017115732A1 (en) Image processing device, object recognition device, machinery control system, image processing method, and image processing program
KR20140048539A (en) Method and apparatus for recognizing object using surrounding image of vehicle
KR101366871B1 (en) Apparatus and method for detecting curve traffic lane using RIO division
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
KR102163774B1 (en) Apparatus and method for image recognition
JP2010224936A (en) Object detection device
US11443619B2 (en) Vehicle recognition apparatus and vehicle recognition method
JP2019114150A (en) Extravehicular environment recognition device
JP6786635B2 (en) Vehicle recognition device and vehicle recognition method
CN111133439B (en) Panoramic monitoring system
JP4855342B2 (en) Object classification device, parking space detection device, object classification method, parking space detection method, and program
JP5891751B2 (en) Inter-image difference device and inter-image difference method
JP2017151048A (en) Distance measurement program, distance measurement method, and distance measurement device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170103

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180104

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee